Archiv der Kategorie: System – biologisches

Relektüre von Edelman 1992: Welche Theorie von was?

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 5.Dez. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

 

DAS PROBLEM

Bei der Relektüre von Edelman (siehe Überblick über alle bisherigen Beiträge HIER) stellt sich die Frage, um welche Theorie es hier überhaupt geht?

Es ist ein großes Verdienst von Edelman, dass er versucht, die Gehirnforschung nicht isoliert zu betrachten, sondern sehr wohl im Kontext von Bewusstsein und Verhalten, sehr wohl auch im Kontext einer Evolution des Lebens bzw. auch im Kontext von ontogenetischen Wachstumsprozessen. Als wäre dies noch nicht genug, stellt er gelegentlich auch explizite philosophische Überlegungen an oder wagt sich vor in den Bereich des Engineering, insofern er konkrete materielle Modelle von Gehirnen baut (mittels künstlicher neuronaler Netze), um die Plausibilität seiner Überlegungen zum Gehirn zu überprüfen. Nimmt man all dies ernst, dann findet man sich unversehens in einer Situation wieder, wo man nicht mehr so richtig weiß, um ‚welche Theorie von was‘ es hier eigentlich geht.

PANORAMA VON PHÄNOMENEN

Vom BigBang zum homo sapiens, reflektiert in einer Vielzahl von Einzelwissenschaften
Vom BigBang zum homo sapiens, reflektiert in einer Vielzahl von Einzelwissenschaften

Versucht man die vielen Aspekte irgendwie zu ‚ordnen‘, die im Buch von Edelman aufscheinen, dann eröffnet sich ein breites Panorama von Phänomenen, die alle ineinander greifen (siehe Schaubild), und die – strenggenommen – auch genauso, in diesem dynamischen Zusammenhang, zu betrachten sind, will man die Eigenart dieser Phänomene ‚voll‘ erfassen.

Eigentlich geht es Edelman um ein besseres Verständnis des ‚Gehirns‘. Doch kommt das Gehirn ja schon im Ansatz nicht alleine, nicht isoliert vor, sondern als Teil eines übergeordneten ‚Körpers‘, der von außen betrachtet (Dritte-Person Perspektive) ein dynamisches ‚Verhalten‘ erkennen lässt. Dieses Verhalten ist – im Fall des homo sapiens, also in unserem Fall als Menschen – nicht isoliert, sondern ist sowohl durch ‚Kommunikation‘ mit anderen Menschen ‚vernetzt‘ als auch durch vielfältige Formen von Interaktionen mit einer Welt der Objekte, von Artefakten, von Maschinen, und heute sogar ‚programmierbaren Maschinen‘, wobei letztere ein Verhalten zeigen können, das zunehmend dem menschliche Verhalten ‚ähnelt‘. Ferner konstatieren wir im Fall des homo sapiens in der Ersten-Person Perspektive noch etwas, das wir ‚Bewusstsein‘ nennen, das sich aber nur schwer in seiner Beschaffenheit kommunizieren lässt.

WISSENSCHAFTLICHE DISZIPLINEN

Im Versuch, die Vielfalt der hier beobachtbaren Phänomene beschreiben zu können, hat sich eine Vielzahl von Disziplinen herausgebildet, die sich — neben der Sonderstellung der Philosophie — als ‚wissenschaftliche Disziplinen‘ bezeichnen. ‚Wissenschaftlich‘ heißt hier in erster Linie, dass man die Phänomene des Gegenstandsbereichs nach zuvor vereinbarten Standards reproduzierbar ‚misst‘ und man nur solche so vermessenen Phänomene als Basis weitergehender Überlegungen akzeptiert. Das Paradoxe an dieser Situation ist – was Edelman auf S.114 auch notiert –, dass sich dieses wissenschaftliche Paradigma nur umsetzen lässt, wenn man Beobachter mit Bewusstsein voraussetzt, dass man aber zugleich im Ergebnis der Messung und der Überlegungen von dem ermöglichenden Bewusstsein (samt Gehirn) abstrahiert.

PHILOSOPHIE FÜR DEN ‚REST‘

Eine Konsequenz dieser ‚Abstraktion von den Voraussetzungen‘ ist, dass ein Wissenschaftler letztlich keine Möglichkeit hat, in ‚offizieller‘ Weise, über sich selbst, über sein  Tun, und speziell auch nicht über die Voraussetzungen seines Tuns, zu sprechen. Ein solches sich selbst reflektierende Denken und Sprechen bleibt damit der Philosophie überlassen, die als solche bei der Entstehung der empirischen Wissenschaften offiziell vom Wissenschaftsbetrieb ausgeschlossen wurde. Als Wissenschaftsphilosophie hat die Philosophie zwar immer wieder versucht, sich dem empirischen Wissenschaftsbetrieb offiziell anzunähern, aber bis heute ist das Verhältnis von empirischen Wissenschaften und (Wissenschafts-)Philosophie aus Sicht der empirischen Wissenschaften ungeklärt. Für die empirischen Wissenschaften wundert dies nicht, da sie sich von ihrem methodischen Selbstverständnis her auf ihre isolierte Betrachtungsweisen verpflichtet haben und von diesem Selbstverständnis her sich jeder Möglichkeit beraubt haben, diese Isolation mit den typischen wissenschaftlichen Bordmitteln aufzubrechen. Allerdings produziert dieses ’selbst isolierende Paradigma‘ immer mehr Einzeldisziplinen ohne erkennbaren Zusammenhang! Es ist nur eine Frage der Zeit, bis wann sich diese Explosion der nicht-integrierten Einzelbilder selbst zerstört.

ANSPRUCH, ALLES ZU ERKLÄREN

Die Wissenschaften selbst, allen voran die Physik, kennen sehr wohl den Anspruch, mit ihrer Arbeit letztlich ‚alles aus einer Hand‘ zu erklären (z.B. formuliert als ‚Theory of Everything (ToE)‘ oder mit dem Begriff der ‚Weltformel‘), doch sowohl die konkrete Realität als auch grundlegende philosophische und meta-theoretische Untersuchungen legen eher den Schluss nahe, dass dies vom Standpunkt einer einzelnen empirischen Wissenschaft aus, nicht möglich ist.

VISION EINES RATIONALEN GESAMT-RAHMENS

Um also die Vielfalt der einzelnen wissenschaftlichen Disziplinen zu bewahren, mehr noch, um sie in ihren inhaltlichen und methodischen Beschränkungen untereinander transparent und verständlich zu machen, wird man die (philosophische) Arbeitshypothese aufstellen müssen, dass die Rationalität der Einzelwissenschaften letztlich nur aufrecht erhalten werden kann, wenn man sowohl für jede Einzelwissenschaft wie auch für ihr Zusammenspiel eine rationale Begründung sichtbar machen kann, die für alle ‚gilt‘. Ein solcher Rationalitätsanspruch ist nicht zu verwechsel mit der alten Idee einer einzelwissenschaftlichen ‚Weltformel‘ oder einer einzelwissenschaftlichen ‚Theory of Everything‘. Eher eignet sich hier das Paradigma einer kritischen Philosophie von Kant, die nach der Voraussetzung für den Wahrheitsanspruch einer Theorie fragt. Während Kant allerdings die Frage nach den Voraussetzungen bei den Grenzen des Bewusstseins mangels verfügbarem Wissens enden lassen musste, können wir heute – auch Dank der Arbeiten von Edelman und anderen – diese Grenzen weiter hinausschieben, indem wir die Voraussetzungen des Bewusstseins einbeziehen. Eine solche bewusste Erweiterung der philosophischen Frage nach den Voraussetzungen des menschlichen Erkennens über die Grenzen des Bewusstseins hinaus führt dann nicht nur zum ermöglichenden Gehirn und dem zugehörigen Körper, sondern geht dann weiter zur umgebenden Welt und ihrer Dynamik, die sich im Evolutionsgeschehen und in der Entstehung des bekannten Universums zeigt.

PHILOSOPHIE UND WISSENSCHAFTEN

Die schon immer nicht leichte Aufgabe des philosophischen Denkens wird mit diesen methodischen Erweiterungen keinesfalls einfacher, sondern erheblich schwieriger. Andererseits muss die Philosophie diese Reflexionsarbeit nicht mehr alleine leisten, sondern sie kann die ganze Fülle der einzelwissenschaftlichen Arbeiten aufgreifen, um sie dann in einem gemeinsamen Rationalitätsrahmen neu anzuordnen.

Beispiele für Integrationsbemühungen gibt es sogar seitens der Einzelwissenschaften, wenngleich meistens methodisch wenig überzeugend. So versuchen Gehirnforscher schon seit vielen Jahren Zusammenhänge zwischen messbaren Aktivitäten des Gehirns und des beobachtbaren Verhaltens (unter dem Label ‚Neuropsychologie‘) oder zwischen messbaren Aktivitäten des Gehirns und Erlebnissen des Bewusstseins (kein wirkliches Label; man würde ‚Neurophänomenologie‘ erwarten) heraus zu finden. Bislang mit begrenztem Erfolg.

Bei aller Problematik im Detail kann es aber nur darum gehen, die ungeheure Vielfalt der Phänomene, wie sie die Einzelwissenschaften bislang zutage gefördert haben, vor-sortiert in einer Vielzahl von Arbeitshypothesen, Modellen und Theoriefragmenten, in einen von allen akzeptierbaren Rationalitätsrahmen einordnen zu können, der eine Gesamt-Theorie reflektiert, die als solche möglicherweise immer unvollendet bleiben wird

WOMIT FANGEN WIR AN?

Damit stellt sich ganz praktisch die Frage, wo und wie soll man anfangen? Das Buch von Edelman kann erste Hinweise liefern.

  1. KEINE WISSENSINSELN: Am Beispiel des homo sapiens wird deutlich, dass ein Verständnis von Bewusstsein, Gehirn, Körper, Verhalten und hier insbesondere die symbolische Kommunikation je für sich nicht gelingen kann. Und Edelman demonstriert eindrücklich, dass man zusätzlich die ontogenetische und evolutive Dimension einbeziehen muss, will man zu einem befriedigenden Verständnis kommen.
  2. INTEGRATION VON EINZELWISSEN: Man muss also Wege finden, wie man diese verschiedenen Aspekte in einem gemeinsamen Rationalitätsrahmen so anordnen kann, dass sowohl die einzelwissenschaftliche Methodik gewahrt bleibt, wie auch eine ‚Integration‘ all dieser Aspekte auf einer ‚gemeinsamen Ebene‘ möglich wird, die dabei von den Einzelwissenschaften nicht ‚isoliert‘ ist.
  3. META-WISSEN ALS LEITFADEN: Das geforderte Vorgehen betrachtet die konkreten einzelwissenschaftlichen Erklärungsansätze als einen ‚Gegenstand sui generis‘, macht also die Einzelwissenschaften zu ‚Untersuchungsgegenständen‘. Dies entspricht dem Paradigma der Wissenschaftsphilosophie.
  4. NEUE WISSENSCHAFTSPHILOSOPHIE: Mit Blick auf die Geschichte der modernen Wissenschaftsphilosophie (etwa seit dem Wiener Kreis) muss man dafür offen sein, dass das Paradigma der Wissenschaftsphilosophie für diese Aufgabenstellung möglicherweise neu zu formatieren ist.
  5. KOMMUNIKATIONSPROZESS ALS RAHMEN: So liegt es nahe, zu sagen, es gehe nicht primär um einen isolierten Theoriebegriff, sondern um einen Kommunikationsprozess, der Kommunikationsinhalte generiert, die im Rahmen des Kommunikationsprozesses ‚verstehbar‘ sein sollen.
  6. SYSTEMS-ENGINEERING ALS BEISPIEL: Ein modernes Beispiel für einen problemorientierten Kommunikationsprozess findet sich im Paradigma des modernen Systems-Engineering. Auslöser des Kommunikationsprozesses ist eine ‚Frage‘ oder eine ‚Problemstellung‘, und der Kommunikationsprozess versucht nun durch Ausnutzung des Wissens und der Erfahrungen von allen Beteiligten einen gemeinsames Bild von möglichen Lösungen zu generieren. Zu Beginn werden alle Kriterien kenntlich gemacht, die für die intendierte Lösung berücksichtigt werden sollen.
  7. EINBEZIEHUNG AUTOMATISIERTEN WISSENS: Insbesondere soll der Kommunikationsprozess so ausgelegt sein, dass er den Einsatz moderner Wissenstechnologien wie z.B.. ‚Interaktive Simulationen‘, ‚Kommunikationstests‘, ‚benutzerzentrierte künstliche Intelligenz‘, sowie automatisierte ‚Simulationsbibliotheken‘ erlaubt.

Dies ist nur eine erste, noch sehr vage Formulierung. Es wird notwendig sein, diese anhand von vielen Beispielen weiter zu konkretisieren und zu verfeinern.

 

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

KI UND BIOLOGIE. Blitzbericht zu einem Vortrag am 28.Nov.2018

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
29.Nov. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE AKTUALISIERUNG: 1.Dez.2018, Anmerkung 1

KONTEXT

Im Rahmen einer öffentlichen Veranstaltung des Fachbereichs 2 ‚Informatik & Ingenieurwissenschaften‘ der Frankfurt University of Applied Sciences am 28.November 2018 mit dem Rahmenthema „Künstliche Intelligenz – Arbeit für Alle?“ hielt Gerd Doeben-Henisch einen kurzen Vortrag zum Thema „Verändert KI die Welt?“ Voraus ging ein Vortrag von Herrn Helmut Geyer „Arbeitsmarkt der Zukunft. (Flyer zur Veranstaltung: FRA-UAS_Fb2_Karte_KI-Arbeit fuer alle_Webversion )

EINSTIEG INS KI-THEMA

Im Kontext der Überlegungen zur Arbeitswelt angesichts des technologischen Wandels gerät die Frage nach der Rolle der Technologie, speziell der digitalen Technologie — und hier noch spezieller der digitalen Technologie mit KI-Anteilen – sehr schnell zwischen die beiden Pole ‚Vernichter von Arbeit‘, ‚Gefährdung der Zukunft‘ einerseits und ‚Neue Potentiale‘, ‚Neue Arbeit‘, ‚Bessere Zukunft‘, wobei es dann auch einen dritten Pol gibt, den von den ‚übermächtigen Maschinen‘, die die Menschen sehr bald überrunden und beherrschen werden.

Solche Positionen, eine Mischungen aus quasi-Fakten, viel Emotionen und vielen unabgeklärten Klischees, im Gespräch sachlich zu begegnen ist schwer bis unmöglich, erst Recht, wenn wenig Zeit zur Verfügung steht.

Doeben-Henisch entschloss sich daher, das Augenmerk zentral auf den Begriff ‚Künstliche Intelligenz‘ zu lenken und die bislang uneinheitliche und technikintrovertierte Begrifflichkeit in einen größeren Kontext zu stellen, der das begrifflich ungeklärte Nebeneinander von Menschen und Maschinen schon im Ansatz zu überwinden sucht.

ANDERE DISZIPLINEN

Viele Probleme im Kontext der Terminologie der KI im technischen Bereich erscheinen hausgemacht, wenn man den Blick auf andere Disziplinen ausweitet. Solche andere Disziplinen sind die Biologe, die Mikrobiologie sowie die Psychologie. In diesen Disziplinen beschäftigt man sich seit z.T. deutlich mehr als 100 Jahren mit komplexen Systemen und deren Verhalten, und natürlich ist die Frage nach der ‚Leistungsfähigkeit‘ solcher Systeme im Bereich Lernen und Intelligenz dort seit langem auf der Tagesordnung.

Die zunehmenden Einsichten in die unfassbare Komplexität biologischer Systeme (siehe dazu Beiträge in diesem Blog, dort auch weitere Links), lassen umso eindrücklicher die Frage laut werden, wie sich solche unfassbar komplexen Systeme überhaupt entwickeln konnten. Für die Beantwortung dieser Frage wies Doeben-Henisch auf zwei spannende Szenarien hin.

KOMMUNIKATIONSFREIE EVOLUTION

Entwicklungslogik vor der Verfügbarkeit von Gehirnen
Entwicklungslogik vor der Verfügbarkeit von Gehirnen

In der Zeit von der ersten Zelle (ca. -3.8 Mrd Jahren) bis zur Verfügbarkeit hinreichend leistungsfähiger Nervensysteme mit Gehirnen (ab ca. -300.000, vielleicht noch etwas früher) wurde die Entwicklung der Lebensformen auf der Erde durch zwei Faktoren gesteuert: (a) die Erde als ‚Filter‘, was letztlich zu einer bestimmten Zeit geht; (b) die Biomasse mit ihrer Reproduktionsfähigkeit, die neben der angenäherten Reproduktion der bislang erfolgreichen Baupläne (DNA-Informationen) in großem Umfang mehr oder weniger starke ‚Varianten‘ erzeugte, die ‚zufallsbedingt‘ waren. Bezogen auf die Erfolge der Vergangenheit konnten die zufälligen Varianten als ’sinnlos‘ erscheinen, als ’nicht zielführend‘, tatsächlich aber waren es sehr oft diese zunächst ’sinnlos erscheinenden‘ Varianten, die bei einsetzenden Änderungen der Lebensverhältnisse ein Überleben ermöglichten. Vereinfachend könnte man also für die Phase die Formel prägen ‚(Auf der dynamischen Erde:) Frühere Erfolge + Zufällige Veränderungen = Leben‘. Da zum Zeitpunkt der Entscheidung die Zukunft niemals hinreichend bekannt ist, ist die Variantenbildung die einzig mögliche Strategie. Die Geschwindigkeit der ‚Veränderung von Lebensformen‘ war in dieser Zeit auf die Generationsfolgen beschränkt.

MIT KOMMUNIKATION ANGEREICHERTE EVOLUTION

Nach einer gewissen ‚Übergangszeit‘ von einer Kommunikationsfreien zu einer mit Kommunikation angereicherte Evolution gab es in der nachfolgenden Zeit die Verfügbarkeit von hinreichend leistungsfähigen Gehirnen (spätestens mit dem Aufkommen des homo sapiens ab ca. -300.000)[1], mittels deren die Lebensformen die Umgebung und sich selbst ‚modellieren‘ und ‚abändern‘ konnten. Es war möglich, gedanklich Alternativen auszuprobieren, sich durch symbolische Kommunikation zu ‚koordinieren‘ und im Laufe der letzten ca. 10.000 Jahren konnten auf diese Weise komplexe kulturelle und technologische Strukturen hervorgebracht werden, die zuvor undenkbar waren. Zu diesen Technologien gehörten dann auch ab ca. 1940 programmierbare Maschinen, bekannt als Computer. Der Vorteil der Beschleunigung in der Veränderung der Umwelt – und zunehmend auch der Veränderung des eigenen Körpers — lies ein neues Problem sichtbar werden, das Problem der Präferenzen (Ziele, Bewertungskriterien…). Während bislang einzig die aktuelle Erde über ‚Lebensfähig‘ ‚oder nicht Lebensfähig‘ entschied, und dies das einzige Kriterium war, konnten die  Lebewesen mit den neuen Gehirnen  jetzt eine Vielzahl von Aspekten ausbilden, ‚partielle Ziele‘, nach denen sie sich verhielten, von denen oft erst in vielen Jahren oder gar Jahrzehnten oder gar noch länger sichtbar wurde, welche nachhaltigen Effekte sie haben.

Anmerkung 1: Nach Edelman (1992) gab es einfache Formen von Bewusstsein mit den zugehörigen neuronalen Strukturen ab ca. -300 Mio Jahren.(S.123) Danach hätte es  also ca. 300 Mio Jahre gedauert, bis   Gehirne, ausgehend von einem ersten einfachen Bewusstsein, zu komplexen Denkleistungen und sprachlicher Kommunikation in der Lage waren.

LERNEN und PRÄFERENZEN

Am Beispiel von biologischen Systemen kann man fundamentale Eigenschaften wie z.B. das ‚Lernen‘ und die ‚Intelligenz‘ sehr allgemein definieren.

Systematisierung von Verhalten nach Lernen und Nicht-Lernen
Systematisierung von Verhalten nach Lernen und Nicht-Lernen

In biologischer Sicht haben wir generell Input-Output-Systeme in einer unfassbar großen Zahl an Varianten bezüglich des Körperbaus und der internen Strukturen und Abläufe. Wie solch ein Input-Output-System intern im Details funktioniert spielt für das konkrete Leben nur insoweit eine Rolle, als die inneren Zustände ein äußerlich beobachtbares Verhalten ermöglichen, das wiederum das Überleben in der verfügbaren Umgebung ermöglicht und bezüglich spezieller ‚Ziele‘ ‚erfolgreich‘ ist. Für das Überleben reicht es also zunächst, einfach dieses beobachtbare Verhalten zu beschreiben.

In idealisierter Form kann man das Verhalten betrachten als Reiz-Reaktions-Paare (S = Stimulus, R = Response, (S,R)) und die Gesamtheit des beobachtbaren Verhaltens damit als eine Sequenz von solchen (S,R)-Paaren, die mathematisch eine endliche Menge bilden.

Ein so beschriebenes Verhalten kann man dann als ‚deterministisch‘ bezeichnen, wenn die beobachtbaren (S,R)-Paare ’stabil‘ bleiben, also auf einen bestimmten Reiz S immer die gleiche Antwort R erfolgt.

Ein dazu komplementäres Verhalten, also ein ’nicht-deterministisches‘ Verhalten, wäre dadurch charakterisiert, dass entweder (i) der Umfang der Menge gleich bleibt, aber manche (S,R)-Paare sich verändern oder (ii) der Umfang der Menge kann sich ändern. Dann gibt es die beiden interessanten Unterfälle (ii.1) es kommen nach und nach neue (S,R)-Paare dazu, die ‚hinreichend lang‘ ’stabil‘ bleiben, aber ab einem bestimmten Zeitpunkt ‚t‘ sich nicht mehr vermehren (die Menge der stabilen Elemente wird ‚eingefroren‘, ‚fixiert‘, ‚gezähmt‘, …), oder (ii.2) die Menge der stabilen (S,R)-Paare expandiert ohne Endpunkt.

Bezeichnet man diese Expansion (zeitlich ‚befristet‘ oder ‚unbefristet‘) als ‚Lernen‘, dann wird sichtbar, dass die ‚Inhalte des Lernens‘ (die korrespondierenden Repräsentationen der (S,R)-Paare in den internen Zuständen des Systems) einmal davon abhängen, was die Umgebung der Systeme ‚erlaubt‘, zum anderen, was die ‚inneren Zustände‘ des Systems an ‚Verarbeitung ermöglichen‘, sowie – sehr indirekt – über welche welche ‚internen Selektionskriterien‘ ein System verfügt.

Die ‚internen Selektionskriterien‘ werden hier kurz ‚Präferenzen‘ genannt, also Strategien, ob eher ein A oder ein B ’selektiert‘ werden soll. Wonach sich solche Kriterien richten, bleibt dabei zunächst offen. Generell kann man sagen, dass solche Kriterien primär ‚endogen‘ begründet sein müssen, dass sie aber nachgeordnet auch von außen (‚exogen‘) übernommen werden können, wenn die inneren Kriterien eine solche Favorisierung des exogenen Inputs ‚befürworten‘ (Beispiel sind die vielen Imitationen im Lernen bzw. die Vielzahl der offiziellen Bildungsprozesse, durch die Menschen auf bestimmte Verhaltens- und Wissensmuster trainiert (programmiert) werden). Offen ist auch, ob die endogenen Präferenzen stabil sind oder sich im Laufe der Zeit ändern können; desgleichen bei den exogenen Präferenzen.

Am Beispiel der menschlichen Kulturen kann man den Eindruck gewinnen, dass das Finden und gemeinsame Befolgen von Präferenzen ein bislang offenes Problem ist. Und auch die neuere Forschung zu Robotern, die ohne Terminierung lernen sollen (‚developmental robotics‘), hat zur Zeit das Problem, dass nicht ersichtlich ist, mit welchen Werten man ein nicht-terminiertes Lernen realisieren soll. (Siehe: Merrick, 2017)) Das Problem mit der Präferenz-Findung ist bislang wenig bekannt, da die sogenannten intelligenten Programme in der Industrie immer nur für klar definierte Verhaltensprofile trainiert werden, die sie dann später beim realen Einsatz unbedingt einhalten müssen.  Im technischen Bereich spricht man hier oft von einer ’schwachen KI‘. (Siehe: VDI, 2018) Mit der hier eingeführten Terminologie  wären dies nicht-deterministische Systeme, die in ihrem Lernen ‚terminieren‘.

INTELLIGENZ

Bei der Analyse des Begriffs ‚Lernen‘ wird sichtbar, dass das, was gelernt wird, bei der Beobachtung des Verhaltens nicht direkt ’sichtbar‘ ist. Vielmehr gibt es eine allgemeine ‚Hypothese‘, dass dem äußerlich beobachtbaren Verhalten ‚interne Zustände‘ korrespondieren, die dafür verantwortlich sind, ob ein ’nicht-lernendes‘ oder ein ‚lernendes‘ Verhalten zu beobachten ist. Im Fall eines ‚lernenden‘ Verhaltens mit dem Auftreten von inkrementell sich mehrenden stabilen (S,R)-Paaren wird angenommen, das den (S,R)-Verhaltensformen ‚intern‘ entsprechende ‚interne Repräsentationen‘ existieren, anhand deren das System ‚entscheiden‘ kann, wann es wie antworten soll. Ob man diese abstrakten Repräsentationen ‚Wissen‘ nennt oder ‚Fähigkeiten‘ oder ‚Erfahrung‘ oder ‚Intelligenz‘ ist für die theoretische Betrachtung unwesentlich.

Die Psychologie hat um die Wende zum 20.Jahrhundert mit der Erfindung des Intelligenztests durch Binet und Simon (1905) sowie in Weiterführung durch W.Stern (1912) einen Ansatz gefunden, die direkt nicht messbaren internen Repräsentanten eines beobachtbaren Lernprozesses indirekt dadurch zu messen, dass sie das beobachtbare Verhalten mit einem zuvor vereinbarten Standard verglichen haben. Der vereinbarte Standard waren solche Verhaltensleistungen, die man Kindern in bestimmten Altersstufen als typisch zuordnete. Ein Standard war als ein Test formuliert, den ein Kind nach möglichst objektiven Kriterien zu durchlaufen hatte. In der Regel gab es eine ganze Liste (Katalog, Batterie) von solchen Tests. Dieses Vorgehensweisen waren sehr flexibel, universell anwendbar, zeigten allerdings schon im Ansatz, dass die Testlisten kulturabhängig stark variieren konnten. Immerhin konnte man ein beobachtbares Verhalten von einem System auf diese Weise relativ zu vorgegebenen Testlisten vergleichen und damit messen. Auf diese Weise konnte man die nicht messbaren hypothetisch unterstellten internen Repräsentationen indirekt qualitativ (Art des Tests) und quantitativ (Anteil an einer Erfüllung des Tests) indizieren.

Im vorliegenden Kontext wird ‚Intelligenz‘ daher als ein Sammelbegriff für die hypothetisch unterstellte Menge der korrespondierenden internen Repräsentanten zu den beobachtbaren (S,R)-Paaren angesehen, und mittels Tests kann man diese unterstellte Intelligenz qualitativ und quantitativ indirekt charakterisieren. Wie unterschiedlich solche Charakterisierung innerhalb der Psychologie modelliert werden können, kann man in der Übersicht von Rost (2013) nachlesen.

Wichtig ist hier zudem, dass in diesem Text die Intelligenz eine Funktion des Lernens ist, das wiederum von der Systemstruktur abhängig ist, von der Beschaffenheit der Umwelt sowie der Verfügbarkeit von Präferenzen.

Mehrdimensionaler Raum der Intelligenzrpräsentanen
Mehrdimensionaler Raum der Intelligenzrpräsentanen

Aus Sicht einer solchen allgemeinen Lerntheorie kann man statt biologischen Systemen auch programmierbare Maschinen betrachten. Verglichen mit biologischen Systemen kann man den programmierbaren Maschinen ein Äquivalent zum Körper und zur Umwelt spendieren. Grundlagentheoretisch wissen wir ferner schon seit Turing (1936/7), dass programmierbare Maschinen ihr eigenes Programm abändern können und sie prinzipiell lernfähig sind. Was allerdings (siehe zuvor das Thema Präferenz) bislang unklar ist, wo sie jeweils die Präferenzen herbekommen sollen, die sie für eine ’nachhaltige Entwicklung‘ benötigen.

ZUKUNFT VON MENSCH UND MASCHINE

Im Licht der Evolution erscheint die  sich beschleunigende Zunahme von Komplexität im Bereich der biologischen Systeme und deren Populationen darauf hinzudeuten, dass mit der Verfügbarkeit von programmierbaren Maschinen diese sicher nicht als ‚Gegensatz‘ zum Projekt des biologischen Lebens zu sehen sind, sondern als eine willkommene Unterstützung in einer Phase, wo die Verfügbarkeit der Gehirne eine rapide Beschleunigung bewirkt hat. Noch bauen die biologischen Systeme ihre eigenen Baupläne  nicht selbst um, aber der Umbau in Richtung von Cyborgs hat begonnen und schon heute ist der Einsatz von programmierbaren Maschinen existentiell: die real existierenden biologischen Kapazitätsgrenzen erzwingen den Einsatz von Computern zum Erhalt und für die weitere Entwicklung. Offen ist die Frage, ob die Computer den Menschen ersetzen sollen. Der Autor dieser Zeilen sieht die schwer deutbare Zukunft eher so, dass der Mensch den Weg der Symbiose intensivieren wird und versuchen sollte, den Computer dort zu nutzen, wo er Stärken hat und zugleich sich bewusst sein, dass das Präferenzproblem nicht von der Maschine, sondern von ihm selbst gelöst werden muss. Alles ‚Böse‘ kam in der Vergangenheit und kommt in der Gegenwart vom Menschen selbst, nicht von der Technik. Letztlich ist es der Mensch, der darüber entscheidet, wie er die Technik nutzt. Ingenieure machen sie möglich, die Gesellschaft muss entscheiden, was sie damit machen will.

BEISPIEL EINER NEUEN SYMBIOSE

Der Autor dieser Zeilen hat zusammen mit anderen KollegenInnen in diesem Sommer ein Projekt gestartet, das darauf abzielt, dass alle 11.000 Kommunen in Deutschland ihre Chancen haben sollten, ihre Kommunikation und Planungsfähigkeit untereinander dramatisch zu verbessern, indem sie die modernen programmierbaren Maschinen in neuer ‚intelligenter‘ Weise für ihre Zwecke nutzen.

QUELLEN

  • Kathryn Merrick, Value systems for developmental cognitive robotics: A survey, Cognitive Systems Research, 41:38 – 55, 2017
  • VDI, Statusreport Künstliche Intelligenz, Oktober 2018, URL: https://www.vdi.de/vdi-statusbericht-kuenstliche-intelligenz/ (zuletzt: 28.November 2018)
  • Detlef H.Rost, Handbuch der Intelligenz, 2013: Weinheim – Basel, Beltz Verlag
  • Joachim Funke (2006), Kap.2: Alfred Binet (1857 – 1911) und der erste Intelligenztest der Welt, in: Georg Lamberti (Hg.), Intelligenz auf dem Prüfstand. 100 Jahre Psychometrie, Vandenhoek & Ruprecht
  • Alfred Binet, Théodore Simon: Methodes nouvelles pour le diagnostiqc du niveau intellectuel des anormaux. In: L’Année Psychologique. Vol. 11, 1904, S. 191–244 (URL: https://www.persee.fr/doc/psy_0003-5033_1904_num_11_1_3675 )
  • William Stern, Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkinder, 19121: Leipzig, J.A.Barth
  • Alan M. Turing, On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, 42(2):230–265, 1936-7
  • Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

PSYCHOANALYSE ALS PROTOTYP EINER REFLEKTIERTEN EMPIRISCHEN WISSENSCHAFT. Bericht zur Sitzung vom 9.September 2018

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 10.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Die Sitzung am 9.September 2018 hatte eine Vorgeschichte.

ROBOTER VERLANGEN BESCHREIBUNG

In einer Sitzung im Januar 2018 hatte sich die bunt gemischte Gesprächsrunde die Frage gestellt, ob man einen Psychoanalytiker durch einen Roboter ersetzen könne. Die Analyse kam zur Erkenntnis, dass der Bau eines geeigneten Roboters voraussetzt, dass es eine hinreichend angemessene Beschreibung dessen gibt, was genau ein Psychoanalytiker im Rahmen eines therapeutischen Prozesses tut, wie die Interaktionen mit dem Analysanden sind, und welche speziellen ‚inneren Zustände‘ beim Analytiker gegeben sein müssen, damit er so handeln kann. Damit verschob sich die Aufgabenstellung hin zu einer solchen angemessenen Beschreibung des Psychoanalytikers/ der Psychoanalytikerin in einem Therapieprozess.

PSYCHOANALYSE ALS EMPIRISCHE THEORIE

In der nachfolgenden Sitzung im März 2018 wurde daher das Selbstverständnis der Psychoanalyse im Rahmen des Begriffs einer empirischen Theorie abgefragt. Das erstaunliche Ergebnis war, dass die Psychoanalyse grundsätzlich alle Anforderungen an eine empirische Wissenschaft erfüllt. Sie hat allerdings zwei Besonderheiten: (i) Der Beobachter und der Theoriemacher sind selbst Bestandteil der Theorie; (ii) die Messvorgänge laufen unter Laborbedingungen ab, die neben schon klassifizierten Phänomenen kontinuierlich auch ’neue‘ Phänomene zulässt, die für die Theoriebildung wichtig sein können (für Details siehe den Beitrag).

VON DEN DATEN ZUM MODELL

In der nachfolgenden Sitzung im April 2018 fokussierte sich das Gespräch auf das Wechselspiel zwischen ‚Daten‘ und erklärendem ‚Modell‘ (‚Theorie‘) und wie es zum Modell kommt. Speziell im Fall des Psychoanalytikers ergibt sich eine Doppelrolle: (i) als Teil des Prozesses agiert er/sie im Prozess als Mensch mit ‚Un-Bewusstem‘ und und seinen ‚Erfahrungen‘ und seinem bisherigen ‚Modell‘, andererseits (ii) ist er/sie reflektierter Profi, der seine Wahrnehmungen des Analysanden, der Umgebung und seiner selbst mit seinem ‚professionellen Modell‘ abgleichen muss. Der hier offensichtlich werdende ‚dynamische Charakter der Modellbildung‘ ist charakteristisch für jede Modellbildung, wird aber in den meisten empirischen Wissenschaften eher verdeckt. (Für Details siehe den Beitrag).

EINE PSYCHOANALYTISCHE FALLSTUDIE

In der Sitzung vom Mai 2018 wurde nach so viel vorausgehender Theorie ein konkretes Fallbeispiel betrachtet, das eine der teilnehmenden Psychoanalytikerinnen  vorstellte. Dieses Beispiel demonstrierte sehr klar, wie die Psychoanalytikerin als aktives Moment im Therapieprozess im Bereich des Un-Bewussten mit dem Analysand interagiert und dadurch diesen in die Lage versetzt, einen Zugriff auf jene Faktoren zu bekommen, die im Un-Bewussten das Verhalten über Jahrzehnte massiv beeinflusst hatten. Dadurch lies sich dann schnell und wirkungsvoll eine qualitative Verbesserung der Situation des Analysanden herstellen.

WISSENSCHAFTSPHILOSOPHISCHE AKTUALITÄT DER PSYCHOANALYSE

GEISTESWISSENSCHAFTEN VERSUS NATURWISSENSCHAFTEN

Die Gegensatzbildung zwischen ‚Geisteswissenschaften‘ einerseits und ‚Harten Wissenschaften‘ andererseits ist nicht neu und bei vielen so eine Art Stereotyp, das man gar nicht mehr hinterfragt. In den ‚harten Wissenschaften‘ selbst gibt es aber immer wieder von einzelnen selbst-kritische Überlegungen zur Problematik des ‚Beobachters‘ und des ‚Theoriemachers‘, die aus der eigentlichen Theorie ausgeklammert werden, was wissenschaftsphilosophisch zu erheblichen Problemen führt (Ein prominentes Beispiel, was ich auch gerade im Blog analysiere und diskutiere ist Edelman, ein exzellenter Erforscher des Immunsystems und des Gehirns).

INGENIEURWISSENSCHAFTEN

In den Ingenieurwissenschaften, die den empirischen Wissenschaften in Sachen Formalisierung in Nichts nachstehen, eher noch ausführlicher und in vielen Fällen erheblich detaillierter sind, gibt es dagegen schon seit vielen Jahren die wachsende Erkenntnis, dass 60 – 80% der Projekte nicht daran scheitern, dass die beteiligten Experten zu wenig wissen, sondern daran, dass die beteiligten ExpertenInnen ihre eigenen psychologischen Zustände zu wenig kennen, mit ihnen nicht umgehen können, diese in die Planung von Projekten und den zugehörigen komplexen Formalisierungen nicht einbeziehen. Statt von ‚Beobachter‘ und ‚Theoriemacher‘ spreche ich hier vom ‚Akteur‘ als jenem Moment eines Theorieprozesses, das sowohl die Theorie entwickelt als auch anwendet. Eine moderne und zukunftsfähige Theorie des Engineerings wird nicht umhin kommen, irgendwann den Akteur selbst in die Theoriebildung einzubeziehen (einen Theorieansatz in diese Richtung findet sich in dem Online-Buchprojekt ‚Actor-Actor-Interaction Anaysis‘).

PSYCHOANALYSE ALS PROTOTYP

Interessant ist, dass die Psychoanalyse eigentlich ein Prototyp einer solchen ‚Beobachter-Integrierten empirischen Theorie‘ ist, und zwar schon von Anfang an. Wie Jürgen Hardt, einer der teilnehmenden Psychoanalytiker, in Erinnerung rief, hatte der Begründer der Psychoanalyse, Freud, von Anfang an die Forderungen aufgestellt, (i) dass die Psychoanalyse eine Naturwissenschaft sein muss, allerdings (ii) mit dem methodischen Hinweis, dass man das ‚Seelische‘ nicht mit den unleugbar somatischen Parallelvorgängen (im Gehirn, im Körper) verwechseln dürfe. Aus Sicht eines verkürzten Empirieverständnisses wurde dies oft als ‚un-empirisch‘ oder gar als ‚dualistisch‘ charakterisiert. Dies ist jedoch unangemessen. Freud ging es primär darum, zunächst mal jene ‚Phänomene zu retten‘, die sich bei dem damaligen Zustand der empirischen Wissenschaften noch nicht in die aktuellen theoretischen Modelle (sofern es denn überhaupt echte empirische Modelle waren) einordnen liesen. Es zeichnet ‚wahre empirische Wissenschaft‘ schon immer aus, dass sie ‚Phänomene‘ akzeptiert, auch und gerade dann, wenn die aktuelle Theoriebildung sie noch nicht einordnen kann.

KEIN DUALISMUS

Dazu kommt, dass man die Charakterisierung von ‚Dualismus‘ selbst sehr kritisch hinterfragen muss. In der modernen Mathematik und damit auch in allen empirischen Theorien, die Mathematik benutzen (was letztlich alle empirischen Disziplinen sind, die den Anforderungen einer ‚wissenschaftlichen‘ Theorie gerecht werden wollen) gibt es nur zwei Grundbegriffe:’Menge‘ und ‚Relation (Funktion)‘. Während man für das abstrakte Konzept ‚Menge‘ in der empirischen Wirklichkeit nahezu beliebig viele konkrete ‚Objekte‘ finden kann, die als ‚Instanzen/ Beispiele‘ für Mengen dienen können, sozusagen die Prototypen für ‚Reales‘, lassen sich für ‚Relationen/ Funktionen‘ so leicht keine direkte Entsprechungen finden. ‚Relationen‘ bestehen nur ‚zwischen‘ Objekten, ‚Funktionen‘ dagegen lassen sich ‚Veränderungen‘ zuschreiben. Beides ‚Beziehungen zwischen‘ und ‚Veränderungen‘ sind keine realen Objekte; sie existieren quasi nur in unserer Wahrnehmung als ‚virtuelle‘ Objekte. Das Verhältnis zwischen ‚realen Objekten‘ und ‚virtuellen Relationen/ Funktionen‘ würde man daher nicht als ‚Dualismus‘ bezeichnen, da der Begriff des Dualismus spätestens seit Descartes  eher für die Forderung nach zwei unterschiedliche ‚Substanzen‘ (‚res extensa‘, ‚res cogitans) reserviert hat. Objekte kann man vielleicht als Substnzen (‚res extensa‘) bezeichnen, nicht aber ‚virtuelle Relationen/ Funktionen‘.

Angewendet auf die Psychoanalyse wäre die Freudsche Unterscheidung von ’somatischen Prozessen‘ (Gehirn/ Körper als ‚res extensa‘, denen zugleich aber auch ‚dynamische‘ Eigenschaften zukommen (= Funktionen)) und dem ‚Seelischen‘, das sich qualitativ im ‚Bewusstsein‘ zeigt (= Phänomene als ‚virtuelle Objekte‘ (mit virtuellen Beziehungen) in einer spezifischen Dynamik (mit virtuellen Funktionen)) dann kein klassischer Dualismus sondern eine Unterscheidung unterschiedlicher Phänomenklassen, denen unterschiedliche Gesetzmäßigkeiten zukommen.

SYSTEMISCHES KONZEPT

Was viele gern übersehen, das ist die ‚Gesamtsicht‘, die der Psychoanalyse zu eigen ist. Freud selbst tendierte in seiner Spätphase (Hinweis Jürgen Hardt) zu einem ‚organismischen‘ Denken, wie er es nannte; heute würde man es vielleicht ’systemisch‘ nennen. Durch die Anerkennung der Tatsache, dass das ‚Bewusstsein‘ nur einen Teil – heute müsste man vielleicht sagen: einen sehr kleinen Teil! – der Vorgänge im menschlichen Körper abbildet, wobei das ‚Un-Bewusste‘ letztlich den ganzen Restkörper beinhaltet, muss die Psychoanalyse jede Reaktion eines Akteurs als eine ‚Antwort des ganzen Systems‘ betrachten, die in den meisten Fällen von Prozessen und Faktoren verursacht werden, die eben un-bewusst sind. Insofern es weder aktuell eine vollständige Theorie aller Körperprozesse gibt noch man davon ausgehen kann, dass die Menge der möglichen Körperprozesse endlich und konstant ist, nicht einmal im Fall eines einzelnen Akteurs, ist die psychoanalytische Theoriebildung kontinuierlich in einer Situation, wo es eine Modellvorstellung M bis zum Zeitpunkt t gibt, die ab dem Zeitpunkt t mit einer offenen Menge von Phänomenen Ph_t+ konfrontiert werden kann, die vielfach bzw. überwiegend noch nicht Teil des bisherigen Modells M sind. Sofern das Modell M Anhaltspunkte für Interpretationen oder Verhaltensprognosen gibt, kann der Therapeut danach handeln; sofern das Modell ’schweigt‘, muss er das tun, was die Evolution seit 3.8 Milliarden Jahren tut: mangels Wissen über die Zukunft lassen biologische Populationen die Bildung von ‚Varianten‘ zu, von denen vielleicht einige dann in der Zukunft ‚passen‘, wenn alle anderen aufgrund von Veränderungen der Umgebung ’nicht mehr passen‘. Dieses ‚Handeln bei mangelndem Wissen ist der wichtigste Überlebensakt aller biologischer Systeme. Die ‚Quelle‘ für psychotherapeutische Verhaltensvarianten ist das eigene System, der Körper des Psychoanalytikers, schwerpunktmäßig sein Un-Bewusstes, das ‚aus sich heraus‘ wahrnimmt und reagiert.

Von den Psychoanalytikern wurde zahllose Beispiel angeführt, deren Phänomenologie die Arbeitshypothese nahelegt, dass es zwischen dem ‚Un-Bewussten‘ des Therapeuten und dem Un-Bewussten des Patienten offensichtlich eine Kommunikation im Nicht-Bewussten-Bereich geben muss, da unbewusste Zustände des Patienten, von denen der Therapeut bis dahin nichts wusste, sehr charakteristische Körperzustände beim Therapeut hervorriefen, die dann zum ‚Katalysator‘ dafür wurden, dass der Therapeut und der Patient dadurch einen entscheidenden Hinweis auf die zugrunde liegenden un-bewussten Faktoren im Patient gewinnen konnten.

Angesichts dieser Systemsicht und ihrer komplexen Dynamik stellt sich die Frage nach der Funktion des ‚Bewusstseins‘ ganz anders. Irgendwie erscheint das Bewusstsein wichtig (mindestens für alle sprachliche Kommunikation und explizite Planung), aber irgendwie ist das Bewusstsein nur ein kleiner Teil eines viel größeren dynamischen Systems, dessen Ausmaß und genaue Beschaffenheit weitgehend im Dunkeln liegt. Die moderne Gehirnforschung (wie auch die gesamte moderne Physiologie) könnte hier sicher viele wertvolle Erkenntnisse beisteuern, wären sie nicht bislang wissenschaftsphilosophisch so limitiert aufgestellt. Viele der möglichen interessanten Erkenntnisse ‚verpuffen‘ daher im Raum möglicher Theorien, da diese Theorien nicht ausformuliert werden.

ERFOLGSKRITERIEN

Natürlich kann und muss man die Frage stellen, inwieweit ein psychoanalytisches Modell – oder gar eine ausgebaute Theorie – ‚verifizierbar‘ bzw. ‚falsifizierbar‘ ist. Berücksichtigt man die methodischen Probleme mit dem Begriff der ‚Falsifikation‘ (siehe dazu die kurze Bemerkung Nr.18 im Blogbeitrag vom 5.September 2018) beschränken wir uns hier auf den Aspekt der ‚Verifikation‘.

Eine Verifikation wäre im allgemeinen die ‚Bestätigung‘ einer ‚Prognose‘, die man aus dem ‚bestehenden Modell‘ ‚abgeleitet‘ hatte. Da das ‚bestehende Modell‘ im Fall der Psychoanalyse im allgemeinen nicht als ‚formalisiertes Modell‘ vorliegt, kann es sich bei den möglichen ‚Prognosen‘ daher nur um ‚intuitive Schlüsse‘ des Therapeuten aus seinem ‚bewusst-unbewussten‘ Modell handeln. Im praktischen Fall bedeutet dies, dass (i) es einen ‚therapeutischen Prozess‘ gab, der alle offiziellen Anforderungen an einen psychoanalytischen Prozess erfüllt, dass (ii) ein Zustand erreicht wird, in dem der Patient einen höheren Grad an ‚Selbststeuerung‘ erreicht hat. Dies kann sich an vielerlei Phänomenen fest machen, z.B. der Patient hat weniger ‚Angst‘, sein ‚körperlicher Gesundheitszustand‘ ist besser geworden, er kann seine ‚Alltagsaufgaben besser lösen‘, er ist generell ‚weniger krank‘, er besitzt mehr ‚Selbstvertrauen‘ im Umgang mit zuvor gefürchteten Situationen, und dergleichen mehr. All diese Phänomene kann man objektivieren. Die sehr verbreiteten Auswertungen nur per Fragebogen sind eher unbrauchbar und nutzlos.

WEITERES VORGEHEN

Zum ersten Mal tauchte die Idee auf, die bisherigen Gespräche zur Psychoanalyse in einem kleinen Büchlein zusammen zu fassen und zu publizieren.

Eine spontane Fortsetzung findet sich HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

LUHMANN-1991-GESELLSCHAFT. Kap.1:I-II, Diskussion und Übersetzung

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
29.März 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

INHALT

I Evolutionäre Ausgangslage
I-A Ältere Blogeinträge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
I-B Resümee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
II Luhmann 1991: Vorwort 3
III Diskussion 4
IV Luhmann 1991 Kap.1: Bewusstsein und Kommunikation
IV-A Abschnitt I . . . . . . . . . . . . . . . . . . . . . . . .
IV-A1 Bewusstsein . . . . . . . . . . . . . . . . .
IV-A2 Kommunikation . . . . . . . . . . . . . . . .
IV-A3 Gehirn – Nervensystem . . . . . . . . . . .
IV-B Diskussion . . . . . . . . . . . . . . . . . . . . . . . .
IV-C Abschnitt II . . . . . . . . . . . . . . . . . . . . . . . .
IV-C1 Systemtheorie, Autopoiesis . . . . . . . . .
IV-C2 Bewusstsein . . . . . . . . . . . . . . . . .
IV-C3 Kommunikation . . . . . . . . . . . . . . . .
Quellen

ÜBERBLICK

Im Rahmen des ’Wahrheitsprojektes’ gibt es den Bereich ’Individuum und Gesellschaft’. Dieser Bereich setzt historisch ein mit dem Auftreten des Homo sapiens und interessiert sich für eine formale Theorie des menschlichen Individuums innerhalb einer Population, eingebettet in eine Umwelt. In Ermangelung einer allgemein akzeptierten und funktionierenden allgemeinen formalen Theorie von Individuum und Gesellschaft wird hier Niklas Luhmann als Referenzpunkt gewählt. Er gilt u.a. als wichtiger (der wichtigste?) deutschsprachiger Vertreter der soziologischen Systemtheorie und der Soziokybernetik. Da Luhmann viele Bücher geschrieben hat muss man für den Start einen ’Eingangspunkt’ in seine Denkwelt wählen. Ich habe mich für das Buch ’Die Wissenschaft von der Gesellschaft’ (1991, 2.Aufl.) [Luh91] entschieden. Alle
Interpretationen des Autors zu Luhmanns Theorie stehen grundsätzlich unter dem Vorbehalt, dass diese Rekonstruktionen keine vollständige Werkanalyse darstellen. Die Vorgehensweise in diesem Beitrag ist der Versuch des Verstehens durch rekonstruierende Analyse mit formalen Mitteln. Für die Logik, die Luhmann
im Detail benutzt, sei verwiesen auf das Buch ’Laws of Form’ von Spencer Brown (1969, 1971) [Bro72] .

I. EVOLUTIONÄRE AUSGANGSLAGE
Vorab zur Analyse von Luhmann sei hier kurz die Lage skizziert, die sich nach 3.8 Mrd Jahren Evolution mit dem Auftreten des homo sapiens bietet. Da das entsprechende Kapitel hier noch nicht geschrieben wurde, seien hier nur jene Blogbeiträge kurz erwähnt, die sich bislang mit dem Thema beschäftigt haben.

A. Ältere Blogeinträge
1) Nr.124 vom April 2013: RANDBEMERKUNG: KOMPLEXITÄTSNTWICKLUNG (SINGULARITÄT(en))

2) Nr.132 vom Mai 2013: RANDBEMERKUNG: KOMPLEXITÄTSNTWICKLUNG (SINGULARITÄT(en)) Teil 2

3) Nr. 314 vom November 2015: STUNDE DER ENTSCHEIDUNG – Ist irgendwie
immer, aber manchmal mehr als sonst

4) Nr.333 vom März 2016: DENKEN UND WERTE – DER TREIBSATZ FÜR
ZUKÜNFTIGE WELTEN (Teil 1)

5) Nr.342 vom Juni 2016: EIN EVOLUTIONSSPRUNG PASSIERT JETZT UND NIEMAND BEMERKT ES?

6) Nr.381 vom 13.März 2017: DIE ZUKUNFT WARTET NICHT – 2117 – PHILOSOPHISCHE WELTFORMEL – FAKE-NEWS ALS TODESENGEL

7) Nr. 382 vom 18.März 2017: DIE ZUKUNFT WARTET NICHT – 2117 – PHILOSOPHISCHE WELTFORMEL – Teil 4 – MIND-GEIST . . .

8) Nr.383 vom 19.März 2017: INDIVIDUUM ALS BINDEGLIED ZWISCHEN BIOLO-
GISCHEM UND SOZIALEM – Nachtrag

9) Nr.400 vom Aug.2017: MENSCHENBILD – VORGESCHICHTE BIS ZUM
HOMO SAPIENS – Überlegungen

10) Nr. 401 vom Sept.2017: MENSCHENBILD – VORGESCHICHTE BIS ZUM HOMO SAPIENS – Ergänzungen

B. Resümee
Aus den bisherigen Untersuchungen ergibt sich als Zwischenstand, dass der homo sapiens die erste Lebensform auf der Erde ist, die neben der üblichen biologischen Ausstattung von Lebewesen zusätzlich über die Eigenschaften Bewusstsein,  Gedächtnis, Abstraktionsvermögen, Kombinatorik, selbst definierte Ziele und symbolische Kommunikation in einer Weise verfügt, die anderen Lebensformen in dieser Weise bislang unzugänglich waren und bisher auch weiterhin unzugänglich sind.

Aufgrund dieser herausragenden Eigenschaften konnte der homo sapiens in den letzten ca. 12.000 Jahren in Bereichen wie z.B. Handwerk und Technologie, Landwirtschaft, Siedlungsbau, Infrastrukturen, Transport und Verkehr, Wissensweitergabe und Wissensspeicherung, Verwaltung großer Gesellschaftssysteme, Kunst und Kultur, Wirtschaftsformen, und vielem mehr Leistungen erbringen, die ihn weit, weit ab von den anderen bekannten Lebensformen stellen.

Diese objektiven Erfolge scheinen allerdings aktuell einen Zustand erzeugt zu haben, in dem die Menge der alltäglichen Ereignisse, ihre Auftretensgeschwindigkeit sowie ihre inhärente Komplexität die biologischen Kapazitäten eines normalen homo sapiens Gehirns mehr und mehr überschreiten. Neue Informationstechnologien aus den letzten ca. 40 Jahren konnten diese Überforderungen einerseits entlasten, führen aber bislang gleichzeitig zu einer Verstärkung der Belastung, da diese Technologien separiert von dem einzelnen Individuum gehostet und entwickelt werden (das ’Cloud-Syndrom’).

Für die übergreifende Fragestellung, ob und wieweit die neuen digitalen Technologien – möglicherweise in Kombination mit einer Art ’Cyborg-Strategie’ – noch besser als bisher für die Stärkung des Individuums genutzt werden können, soll hier eine Analyse der generellen Situation des Individuums in der Gesellschaft eingeschoben werden.

Diese Analyse nimmt ihren Ausgang bei der Annahme, dass der homo sapiens als einzelnes Individuum Teil einer Population ist, die durch ihre auf Kommunikation gründenden Aktivitäten spezifische ’gesellschaftliche Strukturen’ geformt hat und weiter formt, die das Leben in einer vorausgesetzten Umwelt gestalten. Zugleich wirken diese Strukturen auf den einzelnen zurück. Ob die aktuelle Gestaltung von Gesellschaft letztlich ’nachhaltig’ ist oder nicht bleibt an dieser Stelle noch offen. Erst soll die Frage
nach der allgemeinen Struktur geklärt werden, innerhalb deren das ’Leben’ der homo sapiens Individuen stattfindet.

 

II. LUHMANN 1991: VORWORT
Im folgenden Text wird auf eine Unterscheidung zwischen dem Eigentext von Luhmann und einer davon abgehobenen Interpretation verzichtet. Der gesamte Text ist von Anfang an eine Interpretation des Textes von Luhmann im Lichte der vorwiegend wissenschaftsphilosophischen Annahmen des Autors. Man könnte auch sagen, es handelt sich um eine Art ’Übersetzung’ in einen anderen begrifflichen Rahmen.
Wer wissen will, was Luhmann selbst sagt, der muss den Text von Luhmann direkt lesen. Hier geht es um eine ’theoretische Verwertung’ der Gedanken von Luhmann in einem formalen Rahmen, den Luhmann selbst zu Lebzeiten so nirgends artikuliert hat.

Vorgreifend kann man an dieser Stelle anmerken, dass diese durchgehende  ’Übersetzung’ des Textes von Luhmann in den Text des Autors nur gelingen kann, weil Luhmann als ’roten Faden’ seiner Überlegungen einen ’Systembegriff’ benutzt, der es erlaubt, dass Systeme ’strukturell gekoppelt’ sind und dass sie ’Sub-Systeme’ enthalten können. Diese Auffassung teilt auch der Autor dieses Textes. Dennoch wird diese ’Übersetzung’ von dem Text Luhmanns in vielen Positionen – gerade in seinen zentralen Konzepten – radikal abweichen. Dies ist kein Paradox sondern ergibt sich aus dem Sachverhalt, dass der Autor an einigen entscheidenden Stellen die ’Selektion der Unterschiede’ anders vorgenommen hat als Luhmann; die ’Freiheit’ des Gehirns, des Bewusstseins, der Kommunikation wie auch der aktuellen gesellschaftlichen Situation des Autors lässt dies zu.

Im Vorwort thematisiert Luhmann einleitend das wissenschaftsphilosophische Problem, dass eine Soziologie, die eine wissenschaftliche Theorie der Gesellschaft erarbeiten will, trotz aller notwendigen methodischen Distanzierung zum   Untersuchungsgegenstand doch auch zugleich Teil genau jener Gesellschaft ist, die untersucht werden soll. Die Bedingungen der Möglichkeit solch einer wissenschaftlichen Erkenntnis liegen der wissenschaftlichen Aktivität selbst voraus und werden traditionellerweise an die Philosophie delegiert, bzw. heutzutage vielleicht einer Erkenntnistheorie, die Hand in Hand mit der Wissenschaftsphilosophie arbeitet. Will eine einzelwissenschaftliche Disziplin – wie z.B. das System der Wissenschaft – ihr eigenes Tun in diesem Sinne von den impliziten Voraussetzungen her befragen, erhellen, klären, dann bedarf sie der Fähigkeit einer ’Autologie’, d.h. einer Selbstreflexion auf das eigene Tun, die sehr wohl auch eine Fremdbeobachtung der anderen Mit-Forschenden einbeziehen kann. Solch eine autologische Reflexion
kann nur in dem Maße die Besonderheiten eines Tuns zur Sprache bringen und kommunizieren, insoweit diese Disziplin über eine hinreichend ausdrucksstarke Metasprache verfügt. Diese wird gespeist durch das Fachwissen der Philosophie wie auch durch das spezifische Fachwissen der jeweiligen Disziplin, sofern letztere überhaupt schon über hinreichendes Spezialwissen verfügt.

Tatsächlich kann eine solche philosophische Selbstvergewisserung – hier der gesamte
Wissenschaftsbetrieb – nur gelingen, sofern diese zum Zeitpunkt der Untersuchung schon soweit als eigenes gesellschaftliches Subsystem vorkommt, dass durch gesellschaftlich legitimierte Setzungen und Verhaltensweisen ’vor-definiert’ ist, worin ’gesellschaftlich’ das Substrat dieser Disziplin besteht. Nur dann kann eine ’nach-sinnende’ autologische Reflexion die Eigenart aller beteiligten Komponenten und
Interaktionsprozesse identifizieren und analysieren. In diesem Sinne ist eine  Fachdisziplin – bzw. hier der gesamte Wissenschaftsbetrieb – zu einem bestimmten historischen Zeitpunkt nicht ’Voraussetzungsfrei’ (Anmerkung: Wäre dem so, dann hätte man es mit einem eigenschaftslosen Neutrum zu tun, das nicht weiter bestimmbar wäre.) , sondern zeichnet sich gerade durch ein historisch gereiftes und darin durch Eigenschaften beschreibbares System zu tun, das innerhalb der Gesamtgesellschaft als Sub-System erscheint. Diese Unterscheidung lässt zugleich zu, dass jedes gegenwärtige System sich durch seine Eigenaktivitäten weiter verändert.

Die Aktualität der Gegenwart bildet damit tendenziell nicht das Gesamtsystem ab noch einen dauerhaften Zustand.

III. DISKUSSION
Es sei hier angenommen, dass ein historisch gewachsenes und gesellschaftlich ausgezeichnetes ’Subsystem Wissenschaft (SW)’ neben möglichen ’menschlichen Akteuren’ (A) zusätzlich über hinreichend viele Dokumente (D) verfügt, in denen Zielsetzung, typische Arbeitsweisen und der dynamische Bezug zum übergreifenden fundierenden gesellschaftlichen Gesamtsystem hinreichend beschrieben ist. Ein
gesellschaftliches wissenschaftliches Subsystem umfasst also minimal folgende Struktur:

SW (x) iff x = <A, D, h> (1)
A := Akteure (2)
D := Dokumente (3)
h := A × D —> A × D (4)

Das Symbol h repräsentiert die Menge der möglichen Handlungen, mit denen die Akteure im Sinne der offiziellen Dokumente neue Dokumente generieren können bzw. auch die Menge der Akteure verändern können. Was in dieser expliziten Darstellung noch fehlt ist der Aspekt der Gesellschaft (G). Denn eine Gesellschaft hat ja meistens mehr als ein Subsystem (Anmerkung: Wobei jedes Subsystem noch weitere Subsysteme haben kann). Zwischen einem Subsystem S und der Gesellschaft G kann es typische Interaktionen geben, ebenso auch zwischen Subsystemen direkt. Man
müsste daher mindestens eine weitere Interaktionsebene einbeziehen:

G(x) iff x = <A, D, Σ, h> (5)
A := Akteure (6)
D := Dokumente (7)
Σ := Menge von Subsystemen (8)
h := A × D × Σ —> A × D × Σ (9)

Die Akteure (A)  auf der Ebene der Gesellschaft (G) sind einerseits die ’Grundmenge’ aller Akteure, andererseits unterscheiden sich Subsysteme von der umgebenden Gesellschaft G dadurch, dass sie sich in mindestens einer Eigenschaft vom globalen System ’unterscheiden’. Es wird hier angenommen, dass diese minimale Verschiedenheit sich auf auf die Akteure A  bezieht, auf die beschreibenden Dokumente D  sowie auf die jeweilige Veränderungsfunktion h . Um Verwechslungen in der Kommunikation zu vermeiden könnte man die jeweiligen Symbole immer mit einem ’Index’ versehen, der den jeweiligen ’Kontext’ anzeigt, z.B. A_G
im Unterschied zu A_SW   oder h_G im Unterschied zu h_SW .

Aufgrund der minimalen Unterscheidbarkeit gilt dann generell, dass A_SW ⊆ A_G , d.h. die Akteure aus einem Subsystem sind spezieller als jene Akteure, die als Akteure einer globalen Gesellschaft gelten. Entsprechend verhält es sich in der Beziehung der Veränderungsfunktionen: h_SW ⊆ h_G.

Denkbar ist allerdings – und dies entspricht den empirischen Fakten –, dass es aufgrund der räumlichen Verteilung des homo sapiens auf der Erde (und zukünftig vielleicht auch im Weltall) gesellschaftliche Systeme gibt, die räumlich getrennt sind und die in ihrer ’Region’ das ’oberste’ gesellschaftliche System G darstellen, das  unterschiedliche Subsysteme haben kann. Faktisch gibt es dann viele gesellschaftliche
Systeme G_1 , …, G_n , die aufgrund ihrer separierten Existenz ’gleichberechtigt’ sind.
Andererseits wissen wir aufgrund der historischen Daten, dass es zwischen solchen räumlich verteilten gesellschaftlichen Systemen G sowohl ’kriegerische Handlungen’ gegeben hat, in denen das eine System G das andere System G_0 mit Gewalt erobert hat, oder es gab ’Wanderungsbewegungen’, die zu einer Vermischung der Akteure A_G , A_G_0 geführt hat. Solche Vermischung ( μ) – durch Eroberung oder Wanderung – konnten durch die unterschiedlichen ’Präferenz- und Wissensmodelle’ der Neuankömmlinge über die Interaktionen auf die bestehenden Dokumente und auf die Veränderungsfunktion h_G so einwirken, dass Modifikationen entstanden, etwa:

μ : A_G × A_G_0 × D_G × D_G_0 —> A_(G∪G_0) × D_(G∪G_0) × h_(G∪G_0)

Die führt zu einer Erweiterung des Referenzsystems zu einer ’Weltgesellschaft (WG)’:

G(x) iff x = <A, D, Σ, h> (5)
SW (x) iff x = <A, D, h> (1)
A_SW ⊆ A_G (12)
h_SW ⊆ h_G (13)
WG(x) iff x =<R3 , Γ, ∆, AF, μ>(14)
R3 :=  3 − dimensionale Koordinaten
Γ = U(A1 , …, An)
∆ =U(D1 , …, Dn )
AF := Artefakte
μ = 2^(R3 ×AF ×Γ×∆) —>  2^(R3 ×AF ×Γ×∆)

Die Grundidee ist die, dass die regional getrennten Gesellschaften miteinander vermischt werden können, was eine räumliche Umgruppierung von Akteuren und Dokumenten bedeuten kann. Andere wirksame Faktor sind z.B. der ’Handel’ oder neue ’Technologien’, die rein praktisch das alltägliche Leben verändert haben.

Im nächsten Kapitel 1 beschreibt Luhmann in erster Linie die Begriffe ’Bewusstsein’ und ’Kommunikation’ sowie deren Wechselwirkungen. Für diese Rekonstruktion werden die bisherigen begrifflichen Festlegungen berücksichtigt.

IV. LUHMANN 1991 KAP .1: BEWUSSTSEIN UND KOMMUNIKATION

A. Abschnitt I

Luhmann beginnt diesen Abschnitt mit der Frage nach dem ’Träger von Wissen‘
bzw.  Bewusstsein: Nach allerlei historischen Betrachtungen findet er einen ersten ’Ankerpunkt’ seiner Überlegungen in der grundlegenden Fähigkeit des Bewusstseins im Rahmen der Wahrnehmung grundsätzlich ’ein anderes’ wahrnehmen zu können. Es ist ein ’dass’, ein reiner ’Unterschied’, kein interpretierendes ’wie’. Diese Unterscheidung vom anderen ist die ’primäre Differenz’, die einen möglichen ’Anschluss’ für eine Kommunikation bietet und einen möglichen Referenzpunkt für eine mögliche ’sekundäre Zuschreibung’ von weiterem Wissen. (vgl. S.17)

Das ’Bewusstsein’, das Unterschiede wahrnehmen kann, operiert unter  stillschweigender Voraussetzung des ’Gehirns’ (= Nervensystem), ohne das Gehirn zu ’bemerken’. Der ’eigene Leib’ wird als bewusstseinsexterner ’Gegenstand’ erlebt. Damit externalisiert das Bewusstsein seine Zustände in die Welt hinein.(vgl.S.20)
Die Besonderheit des Bewusstseins liegt im ’Wahrnehmen’ und ’anschaulichen Imaginieren’. Ferner wird in der Wahrnehmung das Unterschiedene zugleich in einer ’Einheit’ erfasst.(vgl.S.20)

2) Kommunikation: Mit Rückgriff auf die Entwicklungspsychologie postuliert er, dass basierend auf dieser primären Unterscheidung im Bewusstsein eine erste ’Kommunikation’ angestoßen wird, noch vorab zum Spracherwerb. Und es ist diese erste Kommunikation die es nahelegt, ein ’alter ego’ im erfahrbaren Anderen zu unterstellen, und an dieses im Laufe der Zeit mehr Wissen anzulagern.(vgl. S.18f)

Und es wundert bei dieser Ausgangslage nicht, dass Luhmann postuliert, dass die Kommunikation Bedingung für ’Intersubjektivität’ ist und nicht umgekehrt. Innerhalb dieser Kommunikation wird zwischen ’Mitteilung’ und ’Information’ unterschieden. Diese Differenz soll dann nachgeordnet mit ’Sinngehalten’ angereichert werden.(vgl.S.19)

Kommunikation setzt Bewusstsein voraus, unterscheidet sich aber vom Bewusstsein, da ’Irrtum’, ’Täuschung’, ’Symbolmissbrauch’ der Kommunikation zugeordnet wird, nicht dem Bewusstsein.(vgl.S.21) Mit dem Grundsatz, dass die Wahrnehmung selbst nicht kommunizierbar ist (vgl.S.20), ergibt sich, dass logisches, kreatives Denken ohne Effekt bleibt, wenn es nicht kommunizierbar wird.(vgl.S.22)

Da Luhmann ferner annimmt, dass Wissen der Kommunikation zuzurechnen ist, nicht dem Bewusstsein (vgl.S.23), kann er weiter folgern, dass sich kein individuell bewusstes Wissen isolieren lässt.(vgl.S.22) Obwohl Kommunikation nicht zwingend auf Bewusstsein wirkt (vgl.S.22), kann Kommunikation das Leben und das Bewusstsein von Menschen auslöschen.(vgl.S.23)

3) Gehirn – Nervensystem: Das ’Nervensystem’ kann nur körpereigene Zustände unterscheiden und operiert daher ohne Bezug auf die Umwelt.(vgl.S. 19)

B. Diskussion
Luhmann bringt eine Reihe von Begriffen ins Spiel { z.B. ’Gehirn’, ’Bewusstsein’,  ’Wahrnehmung’, ’Differenz’, ’Kommunikation’, ’Mitteilung’, ’Information’, ’Sinngehalt’,
’Irrtum’, ’Täuschung’, ’Symbolmissbrauch’, usw. } , die zunächst relativ undifferenziert und nur locker in Beziehung gesetzt werden.

Nach der vorausgehenden Diskussion haben wir als bisherigen Referenzrahmen die beiden Begriffe ’Subsystem Wissenschaft’, ’System Gesellschaft’, und – falls es mehrere regional unterschiedene Gesellschaften gibt – die ’Weltgesellschaft’ (für einen erster Formalisierungsansatz siehe oben).

Davon unterschieden wird für die Begriffe { ’Gehirn’, ’Bewusstsein’,
’Wahrnehmung’, ’Differenz’ } In einer ersten Annäherung   angenommen, dass diese einem einzelnen Akteur A zuzurechnen sind. Dies erfordert, dass man den Akteur selbst als ein System sieht, der verschiedene Sub-Systeme umfasst, etwa so:

A(x) iff  x = <BR, PERC, PH, CONSC, ψ> (30)
BR := Gehirn (31)
ψ :  BR —> PERC × PH × CONSC (32)
PERC := Wahrnehmung (33)
PH := Phaenomene (34)
CONSC ⊆ 2^PH (35)

Das ’Gehirn (BR)’ erzeugt mittels der Funktion ψ ’Wahrnehmungen (PERC)’, die aufgrund von erfassbaren ’Differenzen’ unterscheidbare ’Phänomene (PH)’ erkennen lassen. Diese Phänomene bilden den ’Raum’ des ’Bewusstseins (CONSC)’. Weitere Aussagen sind an dieser Stelle noch schwierig.

Darüber hinaus muss man die Begriffe { ’Kommunikation’, ’Mitteilung’, ’Information’, ’Sinngehalt’,’Irrtum’, ’Täuschung’, ’Symbolmissbrauch’ } einordnen. Da Luhmann die Kommunikation als eigenes System sehen will, innerhalb dessen Mitteilungen und Informationen auftreten können, die mit Sinngehalten irgendwie in Beziehung stehen, dazu die Phänomene ’Irrtum’, ’Täuschung’ und ’Symbolmissbrauch’, muss man ein weiteres System annehmen, etwa so:

COM (x) iff x = <MT, INF, …>(36)
MT := Mitteilungen (37)
INF := Informationen (38)
… := Weitere Eigenschaften (39)

Wie genau dann das System Kommunikation (COM) funktionieren soll, wie das Zusammenspiel seiner unterschiedlichen Eigenschaften ist, wie genau das Wechselspiel mit dem Bewusstsein zu sehen ist, das ist an dieser Stelle noch unklar.

Ganz allgemein kann man schon an dieser frühen Stelle der Lektüre feststellen, dass Luhmann trotz seiner systemanalytischen Intentionen keinerlei Anstalten trifft, seine Überlegungen in Form einer wissenschaftlichen Theorie zu organisieren. Weder macht er sich Gedanken über eine notwendige Sprache noch über einen formalen Aufbau. Dementsprechend ist auch nicht klar, wie in seine ’Theorie’ Begriffe ’neu eingeführt’ werden können (andere nennen dies ’Definitionslehre’). Genauso wenig wie er irgendwelche überprüfbaren Qualitätskriterien für seine ’Theorie’ formuliert. Wann ist seine Theorie ’erfolgreich’? Wann ist sie ’wahr/ falsch’? … oder was auch immer man als Kriterium benutzen möchte.

Das gänzliche Fehlen dieser Überlegungen rächt sich im weiteren Verlauf nahezu auf jeder Seite.

C. Abschnitt II
In diesem Abschnitt werden die Begriffe ’Bewusstsein’ und ’Kommunikation’ als Systeme von Luhmann weiter ausdifferenziert; dazu ein paar Bemerkungen zur Autopoiesis.

1) Systemtheorie, Autopoiesis: Luhmann hält nochmals fest, dass eine fundamentale Annahme der Systemtheorie darin besteht, dass man eine Differenz von ’System’ und ’Umwelt’ annimmt. Daraus folgt einerseits, dass kein System außerhalb seiner eigenen Grenzen operieren kann, (vgl.S. 28) aber auch, dass jedes System in einer Umwelt existiert. Zwischen Umwelt und System darf man Kausalbeziehungen annehmen, die aber nur ein externer Beobachter beobachten kann.(vgl.S. 29) Zugleich gilt, dass ein
System immer schon an die Umwelt ’gekoppelt’ ist. Er behauptet sogar weiter, dass ein System immer schon angepasst sei.(vgl.S. 29)

Mit dieser Formulierung steht Luhmann im Gegensatz zu den Erkenntnissen der Evolutionsbiologie, die offengelegt hat, dass alle zu einem bestimmten Zeitpunkt beobachtbaren ’Passungen’ Ergebnisse langwieriger dynamischer  Anpassungsprozesse sind. In diesem Licht sind – zumindest lebende – Systeme in einer Umwelt niemals völlig unabhängig von dieser. Der von Luhmann gewählte
Begriff der ’Systemkopplung’ erfüllt zwar formal zunächst seinen Zweck, aber er wird der komplexen Interaktionsdynamik von (lebenden) Systemen und Umwelt nicht voll gerecht.

Insofern ist in diesem Zusammenhang sein Hinweis interessant, dass ’Autopoiesis’  (Anmerkung: Zum Begriff finden sich zahlreiche online-Quellen von Whitaker (2010) [Whi10]) nicht besage, dass das System allein aus sich heraus… ohne jeden Beitrag aus der Umwelt existiere.(vgl. S.30) Er schließt damit formal weitere  Interaktionsbeziehungen nicht grundsätzlich aus, klammert sie aber aus seiner formalen Analyse hier aus. Solange diese Ausklammerung den Hauptinhalt seiner Analysen nicht wesentlich verändert, kann er dies machen. Wenn aber – und der weitere Fortgang erweckt diesen Eindruck – dadurch wichtige grundlegenden Eigenschaften des Hauptgegenstandes durch formal angeregte Selektionen eliminiert werden, dann ist dieser Sachverhalt für die Untersuchung erheblich.

Aufgrund der zuvor vorgenommenen Selektion und der damit einhergehenden Vereinfachung kann Luhmann sich auf die ’Innensicht’ der isolierten Systeme fokussieren. Und er schreibt dann ganz klar, dass es vielmehr nur darum geht, ”dass die Einheit des Systems und mit ihr alle Elemente, aus denen das System besteht, durch das System selbst produziert werden. Selbstverständlich ist dies nur auf der
Basis eines Materialkontinuums möglich … Selbstverständlich braucht solch ein Prozess Zeit…”(S.30)

Die Begriffe ’Materialkontinuum’ und ’Zeit’ verweisen auf eine empirische Umwelt, ohne die es beides nicht geben würde. Und obwohl er auf die ’Autonomie’ der Systeme abhebt, kommt er nicht umhin, festzustellen, ”… der Begriff der strukturellen Kopplung wird uns daran erinnern, dass das System laufend Irritationen aus der Umwelt registriert und zum Anlass nimmt, die eigenen Strukturen zu respezifizieren. (S. 30)

Solange man die ’Irritationen’, die durch eine strukturelle Kopplung hervorgerufen werden (Anmerkung: Beruhen diese ’Irritationen’ auf einer Kausalbeziehung?) , in der
Unbestimmtheit belässt, in der sie Luhmann präsentiert, spielen diese ’Irritationen’ keine ’inhaltlich fassbare’ Rolle. Eigentlich erscheinen sie überflüssig. Andererseits erwähnt Luhmann sie aber, weil sie irgendwo offensichtlich wichtig sind. In welchem Sinne sind sie wichtig? Von lebendigen Systemen wissen wir, dass diese Kopplungen für das System ’wesentlich’ sind (z.B. die Energiezufuhr einer eukaryotischen Zelle).

Man muss daher die Frage stellen, ob eine Systembeschreibung nicht so angelegt sein sollte, dass sie den für das System erheblichen Grund der strukturellen Kopplung für das System sichtbar machen sollte, so dass die weiteren ’Systemfunktionen’ auf der Basis der grundlegenden Struktur ’verständlich’ werden? Eine Systembeschreibung, die wesentliche Systemeigenschaften und Systemdynamiken von vornherein ausklammert wirkt ansonsten ein wenig ’willkürlich’, ’voreingenommen’, ’dogmatisch’. Diese
wissenschaftsphilosophische Kritik stellt damit nicht den Systembegriff als solchen in Frage, sondern nur eine spezielle Anwendung auf einen der Theoriebildung vorgelagerten Phänomenbereich.

Für Luhmann folgt aus seiner Verwendung des Systembegriffs, dass ”’lebende  Systeme’, ’Bewusstseinssysteme’ und ’Kommunikationssysteme’ verschiedenartige, getrennt operierende selbstreferentielle Systeme [sind]”.(S. 28). Damit sendet er ein klares Signal aus, dass er die möglicherweise gegebenen wichtigen strukturellen und funktionellen Zusammenhänge dieser identifizierten Systeme durch eine andere Verwendungsweise des Systembegriffs im Falle der angesprochenen Phänomene bewusst ausklammert.

Als methodisch motiviertes Gedankenexperiment kann eine solche begriffliche Anordnung Sinn machen, für die theoretische Rekonstruktion der erfahrbaren Wirklichkeit kann dieses Vorgehen aber in die Irre führen. Dies umso mehr, als Luhmann nirgendwo entscheidbare Kriterien etabliert hat, anhand deren man in minimaler Weise einen ’Erfolg’ oder ’Misserfolg’ seines Gedankenexperiments ablesen
könnte.

Das Beispiel lebender Systeme zeigt seit vielen Milliarden Jahren, dass Anpassungsprozesse nur durch das Wirken von sehr harten Kriterien funktionieren. Das harte Kriterium ist im Fall lebender Systeme die (i) Aufrechterhaltung eines Prozesses, dessen innere Logik in der (ii) individuellen Ausnutzung von freier Energie besteht, die in einer (iii) populationsweiten Abfolge von Systementwürfen (iv) die Population im Spiel hält. Das einzelne System ist hier eindeutig nur zu verstehen als ein Element einer größeren Population, die ein spezifisches Prozessmodell umsetzt. Man müsste in diesem Fall daher von vornherein einerseits (a) das System ’Population’ selektieren, das als Teil des Systems (b) ’Umwelt’ im Rahmen eines ’Prozesses’ den sowohl populären wie individuellen (c) ’Lebensprozess’ realisiert. Ferner wissen
wir heute, dass eine Population nicht ausreicht, sondern dass wir es mit einem (a*) ’Netzwerk von Populationen’ zu tun haben, die wechselseitig füreinander wichtige Funktionsleistungen erbringen. Will man diese Realität erfassen, dann kann man mit dem stark reduktionistischen Ansatz von Luhmann eigentlich nur scheitern.

Wohlgemerkt: das Problem ist nicht der Systembegriff als solcher, sondern die
Art seiner Anwendung auf eine empirisch vorhandene Realität.

2) Bewusstsein: Nach dem Vorausgehenden ist bekannt, dass Luhmann das Phänomen ’Bewusstsein’ als ein eigenständiges System selektiert hat. Er spricht im Fall des Bewusstseins auch von einem ’psychischen System’.(vgl. S.23) Entsprechend seiner allgemeinen Annahme zu Systemen kommt er dann zu Aussagen wie ”… psychische Systeme operieren selbstreferentiell-geschlossen und sind
füreinander unzugänglich…” (S. 23), oder auch ”Dem Verstehen psychischer Systeme … fehlt die für den Kommunikationsprozess notwendige Diskretheit. Psychisch gibt es hier kein entweder/oder. Genau das braucht aber der Kommunikationsprozess, um seine eigene Autopoiesis fortsetzen zu können. …Innere Unendlichkeit der psychischen Systeme…”(S. 26)

Neben den schon angemerkten eliminierenden Selektionen, die Luhmann zuvor schon vorgenommen hat, erscheint die Behauptung, dass es psychisch kein ’entweder/oder’ gibt gewagt, da ja (was Luhmann über viele Seiten schlicht ausklammert) das Bewusstsein sich gerade dadurch auszeichnet, dass grundlegend mindestens folgendes möglich ist. (i) die Unterscheidung von Bewusstseinsinhalten anhand von Eigenschaften; (ii) die Identifizierung des Unterschiedenen in der Unterscheidung, eben
die Eigenschaftskomplexe, die oft ’Phänomene’ genannt werden; (iii) die erlebbare ’Einheit’ trotz ’Unterscheidung’.

Das Bewusstsein erlebt     unterscheidbare Phänomene nicht nur einfach so, sondern z.B. diese Phänomene auch als Elemente in einem ’Raum’, der unhintergehbarer Bestandteil des Erlebens ist. Nur deshalb kann das Bewusstsein diese Elemente auch ’in Beziehung setzen’, hier in räumliche Beziehungen wie z.B. a ist ’über’ b oder a ist ’unter b’. Zum aktuellen Erleben gehört sogar die Befähigung, (iv) ’Aktuelles’ im Vergleich zu ’Erinnertem’ zu sehen, also in einer zeitlichen Relation. Das ’Gedächtnis’
als ’Quelle’ von Erinnerungen ist selbst zwar kein Bestandteil des Bewusstseins (ein eigenes strukturell gekoppeltes System), aber diese Kopplung zwischen Bewusstsein und Gedächtnis ist funktional so ausgelegt, dass das Gedächtnis die aktuellen Phänomene quasi simultan ’kommentiert’, unaufgefordert, aber kausal dazu genötigt.

Dies ist ein klarer Fall, in dem die strukturelle Kopplung auf der Ebene des Systems Bewusstsein zum Gedächtnis hin abgeschottet erscheint, aber auf der Ebene des Systems ’Gehirns’ sind sowohl Bewusstsein wie Gedächtnis Teilsysteme, die das System Gehirn so ’prozessiert’, dass Inhalte des Bewusstseins ’für das System Bewusstsein unsichtbar’ in das System ’Gedächtnis’ ’transportiert’ werden und umgekehrt. Für das Funktionieren des Systems Bewusstsein ist diese kausale
Maschinerie wesentlich!

Wenn Luhmann an anderer Stelle feststellt, dass ”das Bewusstsein an die neurophysiologischen Prozesse ’seines’ Organismus gekoppelt [ist] ohne sich diesen Prozessen anpassen zu können. Es kann sie nicht einmal wahrnehmen…”(S.29) dann nimmt er diesen fundamentalen Zusammenhang beiläufig zur Kenntnis, zieht daraus aber keine weiteren Konsequenzen für sein Gedankenexperiment. Die Realität des biologischen Systems Körper, in das das System Gehirn eingebettet ist, und darin Bewusstsein und Gedächtnis, ist aus der Sicht des Gesamtsystems Körper auf bestimmte Funktionen ausgelegt, für deren Erfüllung viele Teilsysteme zusammen arbeiten müssen. Im Fall Bewusstsein haben wir mindestens die Teilsysteme ’Wahrnehmung’, ’Gedächtnis’ und ’Bewusstsein’. Obwohl die Teilsysteme ’Wahrnehmung’ und ’Gedächtnis’ aus Sicht des Systems Bewusstsein strukturell so ’gekoppelt’ sind, dass das Bewusstsein keinen direkten Einfluss auf die kausal eingekoppelten Irritationen hat, sind diese Irritationen in Form
von Wahrnehmungsereignissen und Erinnertem für das Funktionieren des Bewusstseins wesentlich!

Luhmanns Verwendungsweise des Systembegriffs greift hier einfach zu kurz; er selektiert zu viele wichtige empirische Phänomene im Vorfeld, um seine Verwendungsweise ’passend’ zu machen. Seine Formulierung vom ’Gedächtnis’, ”… [das] nichts anderes [sei] als die Konsistenzprüfung in der jeweils aktuellen Operation, also Aktualisierung ihres jeweils nutzbaren Verweisungszusammenhangs)…” (S.31)
kann man zumindest so verstehen, als dass er weitergehende Funktionen des Gedächtnisses in Abrede stellt. Von der Psychologie wissen wir, dass das Gedächtnis erheblich mehr leistet als eine bloße ’Konsistenzprüfung’. Das Gedächtnis arbeitet kontinuierlich (auch ohne bewusste Anteile), selektiert, abstrahiert, assoziiert, bewertet, bildete Netzwerke, ändert, interpretiert durch ’ist-ein-Exemplar-von-
Struktur X’, und vieles mehr.

In diesen Zusammenhang passen auch die Bemerkungen Luhmanns zum Verhältnis von Sprache und Bewusstsein: ”Man wird vielleicht einwenden, dass das Bewusstsein ’sprachförmig denken’ könne. Gewiss! Aber solches Denken ist keine Kommunikation. Und wenn es für sich alleine läuft, sieht das Ergebnis ungefähr so aus …. Fast nimmt die Eigenproduktion von Worten und Satzstücken dann die Form von … fluktuierenden Wortwahrnehmungen an – befreit von jeder Rücksicht auf Verständlichkeit. Operativ besetzen und reproduzieren Wort- und Satzfetzen dann das Bewusstsein mit der Evidenz ihrer Aktualität, aber nur für den Moment”.(S. 32)

Diese Sätze beziehen ihre ’Wahrheit’ aus der vorausgehenden Selektion, dass die mögliche ’Bedeutung’ von Worten, der ’Sinn’ von Sätzen’ ausschließlich im System ’Kommunikation’ verortet ist (siehe unten im Text). Diese Selektion widerspricht aber nicht nur der Selbsterfahrung jeden Sprechers/ Hörers, sondern auch zahllosen empirischen Untersuchungen. Zwar hat Wittgenstein in seiner späteren Phase alles getan, um die Idee zu kommunizieren, dass die Bedeutung sprachlicher Äußerungen sich ausschließlich durch die Beobachtung der ’Verwendung’ dieser Äußerungen im ’Kontext’ erschließen lasse, aber jede nähere Analyse kann schnell zeigen, dass diese Annahme nur so lange funktioniert, wie man den Begriff ’beobachten’ und den vorausgesetzten ’Beobachter’ mehr oder weniger ’neutralisiert’.

Es ist zwar richtig, dass man die Verwendungsweise von sprachlichen Ausdrücken im Kontext ’beobachten’ kann, aber sobald man zu ergründen versucht, warum ein Sprecher-Hörer ein Umgebungsmerkmal mit einer bestimmten sprachlichen Äußerung  verknüpft oder umgekehrt bei Hören einer bestimmten sprachlichen Äußerung auf ein bestimmtes Umgebungsmerkmal verweist, wird man feststellen, dass ohne die Annahme einer entsprechenden ’Kodierung’ dieser Beziehungen zwischen
’Ausdruck’ und ’Umgebungseigenschaften’ (es gibt ja auch Bedeutungsverweise auf Sachverhalte, die nicht in der aktuellen Situation präsent sind!) ’im’ jeweiligen Sprecher-Hörer kein einziges Sprachspiel  funktioniert. (Anmerkung: Eine Erfahrung, die die ersten Sprachlernexperimente mit Robotern sehr schnell offen gelegt haben!)

Mit der Annahme der Verortung der fundamentalen Kodierungen von Ausdrücken und Gemeintem ’im’ Beobachter, im Akteur – und zwar primär im Gedächtnis und darüber indirekt im Bewusstsein – ist die Feststellung Luhmanns, dass sowohl ”die  Zeichenhaftigkeit der Mitteilung als auch die Information selbst … nicht als Bewusstseinsoperationen in das System, nicht als Wissen eines psychischen
Systems, das vorher da ist, dann in die Kommunikation eingegeben werden…” (vgl.S. 24) dann tendenziell irreführend. Natürlich kann die Kodierung im Bewusstsein (Gedächtnis) als solche nicht in die Kommunikation gelangen, aber das Auftreten von Worten in der Kommunikation setzt die Verfügbarkeit der zugrunde liegenden Kodierungen in den Bewusstseinen (bzw. Gedächtnissen) der beteiligten
Kommunikationsteilnehmer voraus! Das Konzept einer Kommunikation als eigenständiges System, das ohne Rückgriff auf die beteiligten Bewusstseins-Systeme ’Informationen’ transportieren könnte, ist buchstäblich ’haltlos’: die Worte und Wortfolgen als Kommunikationseinheiten funktionieren ’zwischen’ Bewusstseins-System semantisch nur unter simultaner Voraussetzung der individuell verankerten
Kodierungen. Nur unter dieser Voraussetzung ist es verstehbar, dass Kommunikationseinheiten, die gekoppelt ein Bewusstsein irritieren können, dies nicht unspezifisch tun, sondern unter Voraussetzung der semantischen Kodierung aufgrund der Kommunikationseinheiten dann Bedeutungsnetzwerke im angekoppelten Bewusstsein aktivieren, die z.B. im jeweiligen Bewusstsein bestimmte Erwartungen
auslösen können. (siehe dazu S.33)

3) Kommunikation: Obwohl im vorausgehenden Abschnitt verschiedentlich deutlich wurde, dass eine Abgrenzung von ’Bewusstsein’ gegenüber ’Kommunikation’ und umgekehrt im Sinne der Systemtheorie nur bedingt funktioniert, versucht Luhmann dennoch auch die Kommunikation als eigenständiges System zu konzipieren.

Für Luhmann besitzt das System ’Kommunikation’ seine Referenz in der ”Kommunikation im sozialen System der Gesellschaft”(S. 31). Es ist nicht der ’Mensch’, der kommuniziert, sondern ”nur die Kommunikation kann kommunizieren” (S. 31). Die ”Kommunikation ist ein operativ selbständiges System. Die Erzeugung von Kommunikation aus Kommunikation ist ein selbstreferentieller Prozess.”(S.24) ”Jede
Kommunikation erzeugt von Moment zu Moment… eine eigene  Nachfolgekommunikation.”( S. 31f) Oder: ”Wenn Kommunikation in Gang kommt, bildet sie ein eigenes autopoietisches System mit eigenen rekursiv vernetzten Operationen, das sich auf die Fähigkeit des Bewusstseins zur Transparenz auf der Grundlage von Intransparenz verlassen kann.”(S. 26)

Diese Formulierungen wirken sehr ’scholastisch’ in dem Sinne, dass hier der Eindruck erweckt wird, als ob es nur darum geht, die formalen Anforderungen einer Systemtheorie zu erfüllen, ohne Rücksicht auf die Phänomene selbst. Zu sagen, dass es nicht der Mensch sei, der kommuniziert, sondern die Kommunikation selbst, klingt formal korrekt, wenn man einen bestimmten Systembegriff voraus setzt, aber berücksichtigt man den zuvor hervorgehobenen Sachverhalt, dass die Kodierung von sprachlichen Ausdrücken mit potentiell ’Gemeintem’ nur jeweils in den beteiligten Bewusstseins-Systemen vorliegen kann, und deswegen auch nur diese mögliche ’Informationen’ der Kommunikation aktualisieren können, dann macht es so recht keinen Sinn, zu sagen, nur die Kommunikation ’kommuniziere’. Das System
’Kommunikation’ erscheint eher als ein ’Sub-System’ der agierenden Bewusstseins-Systeme, die je nach interner Konstellation unterschiedliche Kommunikationselemente aktivieren, deaktivieren, verändern.

Vor diesem Hintergrund macht die Formulierung ”Was als Verstehen erreicht ist, wird daher im Kommunikationsprozess souverän entschieden und als Bedingung fürs Weitermachen bzw. für klärende Zwischenkommunikation markiert….”(S.26) nur Sinn, wenn sowohl das ’Verstehen’ wie auch das ’Entscheiden zum Weitermachen’ im Bewusstseins-System verortet ist. Die Kommunikationselemente als solche bieten keinerlei Anknüpfungspunkte weder für Verstehen noch für Entscheiden.

Es ist dann schon merkwürdig, wenn Luhmann einerseits registriert, dass es bei Kommunikation einen ’Übertragungseffekt’ gibt, der ”System und Umwelt von Moment zu Moment [koordiniert]”, aber es dann als ”eine offene Frage” ansieht, ”wie weit das psychisch gehen muss”. Allerdings schließt er aus, dass diese Koordinierung weder zum ”Bewusstseinsinhalt noch zum Mitteilungsinhalt” wird.(vgl.S.27) Würde Luhmann die empirische Verankerung der semantischen Kodierung in den beteiligten
Kommunikationsteilnehmern akzeptieren, dann wäre klar, dass  Kommunikationsereignisse über die strukturelle Kopplung bewusstseinsrelevant werden würden, sie würden im einzelnen Bewusstsein als ’Mitteilung’ dekodiert.

Durch die Strategie der Ausklammerung des individuellen Bewusstseins aus dem Kommunikationsprozess reißt Luhmann mutwillig eine Lücke auf; plötzlich gibt es keinen wirklichen Adressaten mehr in der Kommunikation. Luhmann versucht dieses ’Loch’ dadurch zu ’stopfen’, dass er den alten ’Persona’-Begriff für seine Zwecke reaktiviert: ”Personen können Adressen für Kommunikation sein… Sie können als Aufzeichnungsstellen vorausgesetzt werden…als Zurechnungspunkte für  Kausalannahmen…All das … ohne jede determinierende Auswirkung auf Bewusstseinsprozesse.”(S. 34)

Immerhin denkt Luhmann sein formales System-Konzept auf seine Weise konsequent.
Abgekoppelt vom System Bewusstsein stellt sich die Frage, was denn dann  Kommunikation überhaupt noch ’tut’. Luhmann bezieht eine klare Position: ”Jenseits der psychischen Systeme differenziert und synthetisiert Kommunikation ihre eigenen Komponenten ’Information’, ’Mitteilung’ und ’Verstehen’.”(S.24) ”Die Mitteilung wird als ’Zeichen’ für eine ’Information’ genommen.”(S. 24) ”Mitteilung und Kommunikation
werden in der Kommunikation ’aufgebaut’, ’abgebaut’, ’aktualisiert’, evtl. ’aufgezeichnet’, ’evtl. erneut ’thematisiert’.(S.24)

Unterstellt man, dass Luhmann mit ’Mitteilung’ die Ausdruckselemente (einer Sprache) sieht, mittels deren Kommunikation ’realisiert’ wird, und mittels denen dann auf eine mögliche ’Information’ ’hingewiesen’ wird, die dann wiederum ein ’Verstehen’ implizieren können, dann verheddert sich diese Interpretation wieder mit den empirischen Fakten einer im Bewusstsein-System verorteten semantischen Kodierung (Anmerkung:   Luhmann verwendet an dieser Stelle den Begriff ’Information’ völlig losgelöst von Shannon (1948) [Sha48]. Er stellt aber auch nicht sicher, wie er die ‚Referenz‘ seines Begriffs ‚Information‘ sieht.).

In diesem Zusammenhang ist auch die Feststellung von Luhmann ”Die Kommunikation teilt die Welt nicht mit, sie teilt sie ein in das, was sie mitteilt und das, was sie nicht mitteilt” (S.27) formal korrekt für seine Systemannahmen, aber mit Blick auf die Empirie und ein Systemkonzept, was die semantische Kodierung berücksichtigt, eher fragwürdig. Die ’Kommunikation’ ist für Bewusstseins-Systeme mit semantischer
Kodierung nur eine ’für sich genommen’ bedeutungslose Ereigniskette, deren Elementgrenzen nur dann und insoweit etwas ’bedeuten’, als sie durch Verbindung mit einer semantischen Kodierung virtualisierte Weltbezüge aktivieren und durch die Art ihrer Anordnung diese virtualisierten Weltbezüge ’einteilen’ und ’anordnen’. Da die individuellen semantischen Kodierungen untereinander variieren können, kann der
gleiche Strom von Kommunikationsereignissen bei den Beteiligten ganz unterschiedliche Reaktionen auslösen.

QUELLEN

  • [Bro72] G.Spencer Brown. Laws of Form. The Julian Press, Inc., New York, 1 edition, 1972. Originally published London, 1969).
  • [Luh91] Niklas Luhmann. Die Wissenschaft der Gesellschaft. Suhrkamp, Frankfurt, 2 edition, 1991.
  • [Sha48] C.E. Shannon. A mathematical theory of communication. The Bell System Technical Journal, 27:379–423, 623–656,
    1948. July and October 1948.
  • [Whi10] Randall Whitaker. THE OBSERVER WEB: Autopoiesis and Enaction. The Biology of Cognition, Autopoietic Theory, and Enactive Cognitive Science. The Theories of Humberto Maturana and Francisco Varela. Dr. Randall Whitaker, 1 edition,
    2010.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

Offenbarung – Der blinde Fleck der Menschheit

PDF

Als Nachhall zur Diskussion des Artikels von Fink hier ein paar Überlegungen, dass der durch die Religionen vereinnahmte Begriff der ‚Offenbarung‘ ein Grundbegriff ist, der wesentlich zum Menschen generell gehört, bevor irgendeine Religion darauf einen Anspruch anmelden kann.

I. KONTEXT

Diesen Beitrag könnte man unter ‚Nachwehen‘ einordnen, Nachwehen zu dem letzten Beitrag. In diesem Beitrag hatte ich versucht, deutlich zu machen, dass die üblichen Vorgehensweisen, in die neuen Erkenntnisse zur Entstehung, Struktur und Dynamik des physikalischen Universums, den Glauben an ein sehr bestimmtes, klassisches Gottesbild zu ‚interpolieren‘, heute nicht mehr überzeugen können, ja, abgelehnt werden müssen als eher wegführend vom wahren Sachverhalt.

Zu dieser kritisch-ablehnenden Sicht tragen viele Argumente bei (siehe einige in dem genannten Artikel). Besonders erwähnen möchte ich hier nochmals das Buch ‚Mysticism and Philosophy‘ von Stace (1960) [ siehe Teil 3 einer Besprechung dieses Buches ]. Stace konzentriert sich bei seinen Analysen an der Struktur der menschlichen Erfahrung, wie sie über Jahrtausende in vielen Kulturen dieser Welt berichtet wird. Während diese Analysen darauf hindeuten, dass der Kern der menschlichen Erfahrungen eher gleich erscheint, erklärt sich die Vielfalt aus der Tatsache, dass — nach Stace — jede Erfahrung unausweichlich Elemente einer ‚Interpretation‘ umfasst, die aus den bisherigen Erfahrungen stammen. Selbst wenn Menschen das Gleiche erleben würden, je nach Zeit, Kultur, Sprache können sie das Gleiche unterschiedlich einordnen und benennen, so dass es über den Prozess des Erkennens etwas ‚anderes‘ wird; es erscheint nicht mehr gleich!

In einem sehr kenntnisreichen Artikel The Myth of the Framework von Karl Popper, veröffentlicht im Jahr 1994 als Kapitel 2 des Buches The Myth of the Framework: In Defence of Science and Rationality [Anmerkung: Der Herausgeber M.A.Notturno weist im Epilog zum Buch darauf hin, dass die Beiträge zum Buch schon in den 1970iger Jahren vorlagen!] hatte sich Popper mit diesem Phänomen auch auseinandergesetzt, allerdings nicht von der ‚Entstehung‘ her (wie kommt es zu diesen Weltbildern), sondern vom ‚Ergebnis‘ her, sie sind jetzt da, sie sind verschieden, was machen wir damit? [Siehe eine Diskussion des Artikels von Popper als Teil des Beitrags].

Angeregt von diesen Fragen und vielen weiteren Ideen aus den vorausgehenden Einträgen in diesem Blog ergeben sich die folgenden Notizen.

II. DER ‚BIG BANG‘ HÖRT NIE AUF …

Die Geschichte beginnt im Alltag. Wenn man in die Gegenwart seines Alltags eingetaucht ist, eingelullt wird von einem Strom von scheinbar selbstverständlichen Ereignissen, dann kann man leicht vergessen, dass die Physik uns darüber belehren kann, dass dieser unser Alltag eine Vorgeschichte hat, die viele Milliarden Jahre zurück reicht zur Entstehung unserer Erde und noch viel mehr Milliarden Jahre bis zum physikalischen Beginn unseres heute bekannten Universums. Obgleich dieses gewaltige Ereignis mitsamt seinen gigantischen Nachwirkungen mehr als 13 Milliarden Jahre zurück liegt und damit — auf einer Zeitachse — längst vorbei ist, passé, gone, … haben wir Menschen erst seit ca.50 – 60 Jahren begonnen, zu begreifen, dass das Universum in einer Art ‚Urknall‘ ins physikalische Dasein getreten ist. Was immer also vor mehr als 13 Milliarden Jahren geschehen ist, wir selbst, wir Menschen als Exemplare der Lebensform homo sapiens, haben erst vor wenigen Jahrzehnten ‚gelernt‘, dass unsere aktuelle Gegenwart bis zu solch einem Ereignis zurück reicht. Das reale physikalische Ereignis ‚Big Bang‘ fand also erst viele Milliarden Jahre später in den Gehirnen und damit im Bewusstsein von uns Menschen (zunächst nur wenige Menschen von vielen Milliarden) statt. Erst im schrittweisen Erkennen durch die vielen tausend Jahre menschlicher Kultur entstand im Bewusstsein von uns Menschen ein virtuelles Wissen von etwas vermutet Realem. Das reale Ereignis war vorbei, das virtuelle Erkennen lies es viel später in einem realen Erkenntnisprozess virtuell wieder entstehen. Vorher gab es dieses Ereignis für uns Menschen nicht. So gesehen war das Ereignis indirekt ‚gespeichert‘ im physikalischen Universum, bis diese Erkenntnisprozesse einsetzten. Welch gigantische Verzögerung!

III. OFFENBARUNG

Der Begriff ‚Offenbarung‘ ist durch seine Verwendung in der zurückliegenden Geschichte sehr belastet. Vor allem die großen Religionen wie Judentum, Christentum und Islam haben durch ihre Verwendung des Begriffs ‚Offenbarung‘ den Eindruck erweckt, dass Offenbarung etwas sehr Besonderes sei, die Eröffnung von einem Wissen, das wir Menschen nicht aus uns selbst gewinnen können, sondern nur direkt von einem etwas, das mit der Wortmarke ‚Gott‘ [die in jeder Sprache anders lautet] gemeint sei. Nur weil sich dieses etwas ‚Gott‘ bestimmten, konkreten Menschen direkt zugewandt habe, konnten diese ein spezielles Wissen erlangen, das diese dann wiederum ‚wortwörtlich‘ in Texten festgehalten haben, die seitdem als ‚heilige‘ Texte gelten.

Im Fall der sogenannten heiligen Schriften des Judentums und des Christentums hat intensive wissenschaftliche Forschung seit mehr als 100 Jahren gezeigt, dass dies natürlich nicht so einfach ist. Die Schriften sind alle zu unterschiedlichen Zeiten entstanden, bisweilen Jahrhunderte auseinander, wurden mehrfach überarbeitet, und was auch immer ein bestimmter Mensch irgendwann einmal tatsächlich gesagt hat, das wurde eingewoben in vielfältige Interpretationen und Überarbeitungen. Im Nachhinein — von heute aus gesehen also nach 2000 und mehr Jahren — zu entscheiden, was ein bestimmter Satz in hebräischer oder griechischer Sprache geschrieben, tatsächlich meint, ist nur noch annäherungsweise möglich. Dazu kommt, dass die christliche Kirche über tausend Jahre lang nicht mit den Originaltexten gearbeitet hat, sondern mit lateinischen Übersetzungen der hebräischen und griechischen Texte. Jeder, der mal Übersetzungen vorgenommen hat, weiß, was dies bedeutet. Es wundert daher auch nicht, dass die letzten 2000 Jahre sehr unterschiedliche Interpretationen des christlichen Glaubens hervorgebracht haben.

Im Fall der islamischen Texte ist die Lage bis heute schwierig, da die bisher gefundenen alten Manuskripte offiziell nicht wissenschaftlich untersucht werden dürfen [Anmerkung: Siehe dazu das Buch von Pohlmann (2015) zur Entstehung des Korans; eine Besprechung dazu findet sich  hier: ]. Die bisherigen Forschungen deuten genau in die gleiche Richtung wie die Ergebnisse der Forschung im Fall der jüdisch-christlichen Tradition.

Die Befunde zu den Überlieferungen der sogenannten ‚heiligen‘ Schriften bilden natürlich nicht wirklich eine Überraschung. Dies liegt eben an uns selbst, an uns Menschen, an der Art und Weise, wie wir als Menschen erkennen, wie wir erkennen können. Das Beispiel der empirischen Wissenschaften, und hier die oben erwähnte Physik des Universums, zeigt, dass alles Wissen, über das wir verfügen, im Durchgang durch unseren Körper (Sinnesorgane, Körperzustände, Wechselwirkung des Körpers mit der umgebenden Welt, dann Verarbeitung Gehirn, dann Teile davon im Bewusstsein) zu virtuellen Strukturen in unserem Gehirn werden, die partiell bewusst sind, und die uns Teile der unterstellten realen Welt genau so zeigen, wie sie im bewussten Gehirn gedacht werden, und zwar nur so. Die Tatsache, dass es drei große Offenbarungsreligionen gibt, die sich alle auf das gleiche Etwas ‚Gott‘ berufen, diesem Gott dann aber ganz unterschiedliche Aussagen in den Mund legen [Anmerkung: seit wann schreiben Menschen vor, was Gott sagen soll?], widerspricht entweder dem Glauben an den einen Gott, der direkt spricht, oder diese Vielfalt hat schlicht damit zu tun, dass man übersieht, dass jeder Mensch ‚Gefangener seines Erkenntnisprozesses‘ ist, der nun einmal ist, wie er ist, und der nur ein Erkennen von X möglich macht im Lichte der bislang bekannten Erfahrungen/ Erkenntnisse Y. Wenn jüdische Menschen im Jahr -800 ein X erfahren mit Wissen Y1, christliche Menschen in der Zeit +100 mit Wissen Y2 und muslimische Menschen um +700 mit Wissen Y3, dann ist das Ausgangswissen jeweils völlig verschieden; was immer sie an X erfahren, es ist ein Y1(X), ein Y2(X) und ein Y3(X). Dazu die ganz anderen Sprachen. Akzeptiert man die historische Vielfalt, dann könnte man — bei gutem Willen aller Beteiligten — möglicherweise entdecken, dass man irgendwie das ‚Gleiche X‘ meint; vielleicht. Solange man die Vielfalt aber jeweils isoliert und verabsolutiert, so lange entstehen Bilder, die mit Blick auf den realen Menschen und seine Geschichte im realen Universum kaum bis gar nicht zu verstehen sind.

Schaut man sich den Menschen und sein Erkennen an, dann geschieht im menschlichen Erkennen, bei jedem Menschen, in jedem Augenblick fundamental ‚Offenbarung‘.

Das menschliche Erkennen hat die Besonderheit, dass es sich bis zu einem gewissen Grad aus der Gefangenschaft der Gegenwart befreien kann. Dies gründet in der Fähigkeit, die aktuelle Gegenwart in begrenzter Weise erinnern zu können, das Jetzt und das Vorher zu vergleichen, von Konkretem zu abstrahieren, Beziehungen in das Erkannte ‚hinein zu denken‘ (!), die als solche nicht direkt als Objekte vorkommen, und vieles mehr. Nur durch dieses Denken werden Beziehungen, Strukturen, Dynamiken sichtbar (im virtuellen Denken!), die sich so in der konkreten Gegenwart nicht zeigen; in der Gegenwart ist dies alles unsichtbar.

In dieser grundlegenden Fähigkeit zu erkennen erlebt der Mensch kontinuierlich etwas Anderes, das er weder selbst geschaffen hat noch zu Beginn versteht. Er selbst mit seinem Körper, seinem Erkennen, gehört genauso dazu: wir wurden geboren, ohne dass wir es wollten; wir erleben uns in Körpern, die wir so nicht gemacht haben. Alles, was wir auf diese Weise erleben ist ’neu‘, kommt von ‚außen auf uns zu‘, können wir ‚aus uns selbst heraus‘ nicht ansatzweise denken. Wenn irgendetwas den Namen ‚Offenbarung‘ verdient, dann dieser fundamentale Prozess des Sichtbarwerdens von Etwas (zu dem wir selbst gehören), das wir vollständig nicht gemacht haben, das uns zu Beginn vollständig unbekannt ist.

Die Geschichte des menschlichen Erkennens zeigt, dass die Menschen erst nur sehr langsam, aber dann immer schneller immer mehr von der umgebenden Welt und dann auch seit kurzem über sich selbst erkennen. Nach mehr als 13 Milliarden Jahren erkennen zu können, dass tatsächlich vor mehr als 13 Milliarden Jahren etwas stattgefunden hat, das ist keine Trivialität, das ist beeindruckend. Genauso ist es beeindruckend, dass unsere Gehirne mit dem Bewusstsein überhaupt in der Lage sind, virtuelle Modelle im Kopf zu generieren, die Ereignisse in der umgebenden Welt beschreiben und erklären können. Bis heute hat weder die Philosophie noch haben die empirischen Wissenschaften dieses Phänomen vollständig erklären können (obgleich wir heute viel mehr über unser Erkennen wissen als noch vor 100 Jahren).

Zu den wichtigen Erkenntnissen aus der Geschichte des Erkennens gehört auch, dass das Wissen ‚kumulierend‘ ist, d.h. es gibt tiefere Einsichten, die nur möglich sind, wenn man zuvor andere, einfachere Einsichten gemacht hat. Bei der Erkenntnis des großen Ganzen gibt es keine ‚Abkürzungen‘. In der Geschichte war es immer eine Versuchung, fehlendes Wissen durch vereinfachende Geschichten (Mythen) zu ersetzen. Dies macht zwar oft ein ‚gutes Gefühl‘, aber es geht an der Realität vorbei. Sowohl das kumulierende Wissen selbst wie auch die davon abhängigen alltäglichen Abläufe, die Technologien, die komplexen institutionellen Regelungen, die Bildungsprozesse usw. sie alle sind kumulierend.

Aus diesem kumulierenden Charakter von Wissen entsteht immer auch ein Problem der individuellen Verarbeitung: während dokumentiertes und technisch realisiertes Wissen als Objekt durch die Zeiten existieren kann, sind Menschen biologische Systeme, die bei Geburt nur mit einer — wenngleich sehr komplexen — Grundausstattung ihren Lebensweg beginnen. Was immer die Generationen vorher gedacht und erarbeitet haben, der jeweils neue individuelle Mensch muss schrittweise lernen, was bislang gedacht wurde, um irgendwann in der Lage zu sein, das bisher Erreichte überhaupt verstehen zu können. Menschen, die an solchen Bildungsprozessen nicht teilhaben können, sind ‚Fremde‘ in der Gegenwart; im Kopf leben sie in einer Welt, die anders ist als die umgebende reale Welt. Es sind wissensmäßig Zombies, ‚Unwissende‘ in einem Meer von geronnenem Wissen.

Sollte also das mit der Wortmarke ‚Gott‘ Gemeinte eine Realität besitzen, dann ist der Prozess der natürlichen Offenbarung, die jeden Tag, in jedem Augenblick ein wenig mehr die Erkenntnis Y über das uns vorgegebene Andere ermöglicht, die beste Voraussetzung, sich diesem Etwas ‚X = Gott‘ zu nähern. Jede Zeit hat ihr Y, mit dem sie das Ganze betrachtet. Und so sollte es uns nicht wundern, dass die Geschichte uns viele Y(X) als Deutungen des Etwas ‚X = Gott‘ anbietet.

Empirisches Wissen, Philosophisches Wissen, religiöses Wissen kreisen letztlich um ein und dieselbe Wirklichkeit; sie alle benutzen die gleichen Voraussetzungen, nämlich unsere menschlicher Existenzweise mit den vorgegebenen Erkenntnisstrukturen. Niemand hat hier einen wesentlichen Vorteil. Unterschiede ergeben sich nur dadurch, dass verschiedenen Kulturen unterschiedlich geschickt darin sind, wie sie Wissen kumulieren und wie sie dafür Sorge tragen, dass alle Menschen geeignete Bildungsprozesse durchlaufen.

IV. VEREINIGTE MENSCHHEIT

Schaut man sich an, wie die Menschen sich auch nach den beiden furchtbaren Weltkriegen und der kurzen Blüte der Idee einer Völkergemeinschaft, die Ungerechtigkeit verhindern sollte, immer wieder — und man hat den Eindruck, wieder mehr — in gegenseitige Abgrenzungen und Verteufelungen verfallen, vor grausamen lokalen Kriegen nicht zurück schrecken, die Kultur eines wirklichkeitsbewussten Wissens mutwillig schwächen oder gar zerstören, dann kann man schon mutlos werden oder gar verzweifeln.

Andererseits, schaut man die bisherige Geschichte des Universums an, die Geschichte des Lebens auf der Erde, die Geschichte des homo sapiens, die letzten 10.000 Jahre, dann kommt man nicht umhin, festzustellen, dass es eine dynamische Bewegung hin zu mehr Erkenntnis und mehr Komplexität gegeben hat und noch immer gibt. Und wenn man sieht, wie wir alle gleich gestrickt und auf intensive Kooperation angewiesen sind — und vermutlich immer mehr –, dann erscheinen die Menschen eher wie eine Schicksalsgemeinschaft, wie ‚earth children‘, wie eine ‚Gemeinschaft von Heiligen kraft Geburt‘!

Das Wort ‚Heilige‘ mag alle irritieren, die mit Religion nichts verbinden, aber die ‚Heiligen‘ sind in den Religionen alle jene Menschen, die sich der Wahrheit des Ganzen stellen und die versuchen, aus dieser Wahrheit heraus — ohne Kompromisse — zu leben. Die Wahrheit des Ganzen ist für uns Menschen primär diese Grundsituation, dass wir alle mit unseren Körpern, mit unserem Erkennen, Teil eines Offenbarungsprozesses sind, der für alle gleich ist, der alle betrifft, und aus dem wir nicht aussteigen können. Wir sind aufeinander angewiesen. Anstatt uns gegenseitig zu bekriegen und abzuschlachten, also die ‚Bösen‘ zu spielen, wäre es näherliegender und konstruktiver, uns als ‚Heilige‘ zu verhalten, die bereit sind zum Erkennen, die bereit sind aus der Erkenntnis heraus zu handeln. Das alles ist — wie wir wissen können — nicht ganz einfach, aber es hat ja auch niemand gesagt, dass es einfach sei. Das Leben auf der Erde gleicht eher einem Expeditionschor, das im Universum an einer bestimmten Stelle gelandet ist, und jetzt den Weg zum Ziel finden muss. Wir brauchen keine TV-Reality-Shows, wir selbst sind die radikalste Reality-Show, die man sich denken kann. Und sie tritt gerade in eine sehr heiße Phase ein [Anmerkung: … nicht nur wegen des Klimas 🙂 ].

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.