Archiv der Kategorie: System – adaptiv

Relektüre von Edelman 1992: Welche Theorie von was?

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 5.Dez. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

 

DAS PROBLEM

Bei der Relektüre von Edelman (siehe Überblick über alle bisherigen Beiträge HIER) stellt sich die Frage, um welche Theorie es hier überhaupt geht?

Es ist ein großes Verdienst von Edelman, dass er versucht, die Gehirnforschung nicht isoliert zu betrachten, sondern sehr wohl im Kontext von Bewusstsein und Verhalten, sehr wohl auch im Kontext einer Evolution des Lebens bzw. auch im Kontext von ontogenetischen Wachstumsprozessen. Als wäre dies noch nicht genug, stellt er gelegentlich auch explizite philosophische Überlegungen an oder wagt sich vor in den Bereich des Engineering, insofern er konkrete materielle Modelle von Gehirnen baut (mittels künstlicher neuronaler Netze), um die Plausibilität seiner Überlegungen zum Gehirn zu überprüfen. Nimmt man all dies ernst, dann findet man sich unversehens in einer Situation wieder, wo man nicht mehr so richtig weiß, um ‚welche Theorie von was‘ es hier eigentlich geht.

PANORAMA VON PHÄNOMENEN

Vom BigBang zum homo sapiens, reflektiert in einer Vielzahl von Einzelwissenschaften
Vom BigBang zum homo sapiens, reflektiert in einer Vielzahl von Einzelwissenschaften

Versucht man die vielen Aspekte irgendwie zu ‚ordnen‘, die im Buch von Edelman aufscheinen, dann eröffnet sich ein breites Panorama von Phänomenen, die alle ineinander greifen (siehe Schaubild), und die – strenggenommen – auch genauso, in diesem dynamischen Zusammenhang, zu betrachten sind, will man die Eigenart dieser Phänomene ‚voll‘ erfassen.

Eigentlich geht es Edelman um ein besseres Verständnis des ‚Gehirns‘. Doch kommt das Gehirn ja schon im Ansatz nicht alleine, nicht isoliert vor, sondern als Teil eines übergeordneten ‚Körpers‘, der von außen betrachtet (Dritte-Person Perspektive) ein dynamisches ‚Verhalten‘ erkennen lässt. Dieses Verhalten ist – im Fall des homo sapiens, also in unserem Fall als Menschen – nicht isoliert, sondern ist sowohl durch ‚Kommunikation‘ mit anderen Menschen ‚vernetzt‘ als auch durch vielfältige Formen von Interaktionen mit einer Welt der Objekte, von Artefakten, von Maschinen, und heute sogar ‚programmierbaren Maschinen‘, wobei letztere ein Verhalten zeigen können, das zunehmend dem menschliche Verhalten ‚ähnelt‘. Ferner konstatieren wir im Fall des homo sapiens in der Ersten-Person Perspektive noch etwas, das wir ‚Bewusstsein‘ nennen, das sich aber nur schwer in seiner Beschaffenheit kommunizieren lässt.

WISSENSCHAFTLICHE DISZIPLINEN

Im Versuch, die Vielfalt der hier beobachtbaren Phänomene beschreiben zu können, hat sich eine Vielzahl von Disziplinen herausgebildet, die sich — neben der Sonderstellung der Philosophie — als ‚wissenschaftliche Disziplinen‘ bezeichnen. ‚Wissenschaftlich‘ heißt hier in erster Linie, dass man die Phänomene des Gegenstandsbereichs nach zuvor vereinbarten Standards reproduzierbar ‚misst‘ und man nur solche so vermessenen Phänomene als Basis weitergehender Überlegungen akzeptiert. Das Paradoxe an dieser Situation ist – was Edelman auf S.114 auch notiert –, dass sich dieses wissenschaftliche Paradigma nur umsetzen lässt, wenn man Beobachter mit Bewusstsein voraussetzt, dass man aber zugleich im Ergebnis der Messung und der Überlegungen von dem ermöglichenden Bewusstsein (samt Gehirn) abstrahiert.

PHILOSOPHIE FÜR DEN ‚REST‘

Eine Konsequenz dieser ‚Abstraktion von den Voraussetzungen‘ ist, dass ein Wissenschaftler letztlich keine Möglichkeit hat, in ‚offizieller‘ Weise, über sich selbst, über sein  Tun, und speziell auch nicht über die Voraussetzungen seines Tuns, zu sprechen. Ein solches sich selbst reflektierende Denken und Sprechen bleibt damit der Philosophie überlassen, die als solche bei der Entstehung der empirischen Wissenschaften offiziell vom Wissenschaftsbetrieb ausgeschlossen wurde. Als Wissenschaftsphilosophie hat die Philosophie zwar immer wieder versucht, sich dem empirischen Wissenschaftsbetrieb offiziell anzunähern, aber bis heute ist das Verhältnis von empirischen Wissenschaften und (Wissenschafts-)Philosophie aus Sicht der empirischen Wissenschaften ungeklärt. Für die empirischen Wissenschaften wundert dies nicht, da sie sich von ihrem methodischen Selbstverständnis her auf ihre isolierte Betrachtungsweisen verpflichtet haben und von diesem Selbstverständnis her sich jeder Möglichkeit beraubt haben, diese Isolation mit den typischen wissenschaftlichen Bordmitteln aufzubrechen. Allerdings produziert dieses ’selbst isolierende Paradigma‘ immer mehr Einzeldisziplinen ohne erkennbaren Zusammenhang! Es ist nur eine Frage der Zeit, bis wann sich diese Explosion der nicht-integrierten Einzelbilder selbst zerstört.

ANSPRUCH, ALLES ZU ERKLÄREN

Die Wissenschaften selbst, allen voran die Physik, kennen sehr wohl den Anspruch, mit ihrer Arbeit letztlich ‚alles aus einer Hand‘ zu erklären (z.B. formuliert als ‚Theory of Everything (ToE)‘ oder mit dem Begriff der ‚Weltformel‘), doch sowohl die konkrete Realität als auch grundlegende philosophische und meta-theoretische Untersuchungen legen eher den Schluss nahe, dass dies vom Standpunkt einer einzelnen empirischen Wissenschaft aus, nicht möglich ist.

VISION EINES RATIONALEN GESAMT-RAHMENS

Um also die Vielfalt der einzelnen wissenschaftlichen Disziplinen zu bewahren, mehr noch, um sie in ihren inhaltlichen und methodischen Beschränkungen untereinander transparent und verständlich zu machen, wird man die (philosophische) Arbeitshypothese aufstellen müssen, dass die Rationalität der Einzelwissenschaften letztlich nur aufrecht erhalten werden kann, wenn man sowohl für jede Einzelwissenschaft wie auch für ihr Zusammenspiel eine rationale Begründung sichtbar machen kann, die für alle ‚gilt‘. Ein solcher Rationalitätsanspruch ist nicht zu verwechsel mit der alten Idee einer einzelwissenschaftlichen ‚Weltformel‘ oder einer einzelwissenschaftlichen ‚Theory of Everything‘. Eher eignet sich hier das Paradigma einer kritischen Philosophie von Kant, die nach der Voraussetzung für den Wahrheitsanspruch einer Theorie fragt. Während Kant allerdings die Frage nach den Voraussetzungen bei den Grenzen des Bewusstseins mangels verfügbarem Wissens enden lassen musste, können wir heute – auch Dank der Arbeiten von Edelman und anderen – diese Grenzen weiter hinausschieben, indem wir die Voraussetzungen des Bewusstseins einbeziehen. Eine solche bewusste Erweiterung der philosophischen Frage nach den Voraussetzungen des menschlichen Erkennens über die Grenzen des Bewusstseins hinaus führt dann nicht nur zum ermöglichenden Gehirn und dem zugehörigen Körper, sondern geht dann weiter zur umgebenden Welt und ihrer Dynamik, die sich im Evolutionsgeschehen und in der Entstehung des bekannten Universums zeigt.

PHILOSOPHIE UND WISSENSCHAFTEN

Die schon immer nicht leichte Aufgabe des philosophischen Denkens wird mit diesen methodischen Erweiterungen keinesfalls einfacher, sondern erheblich schwieriger. Andererseits muss die Philosophie diese Reflexionsarbeit nicht mehr alleine leisten, sondern sie kann die ganze Fülle der einzelwissenschaftlichen Arbeiten aufgreifen, um sie dann in einem gemeinsamen Rationalitätsrahmen neu anzuordnen.

Beispiele für Integrationsbemühungen gibt es sogar seitens der Einzelwissenschaften, wenngleich meistens methodisch wenig überzeugend. So versuchen Gehirnforscher schon seit vielen Jahren Zusammenhänge zwischen messbaren Aktivitäten des Gehirns und des beobachtbaren Verhaltens (unter dem Label ‚Neuropsychologie‘) oder zwischen messbaren Aktivitäten des Gehirns und Erlebnissen des Bewusstseins (kein wirkliches Label; man würde ‚Neurophänomenologie‘ erwarten) heraus zu finden. Bislang mit begrenztem Erfolg.

Bei aller Problematik im Detail kann es aber nur darum gehen, die ungeheure Vielfalt der Phänomene, wie sie die Einzelwissenschaften bislang zutage gefördert haben, vor-sortiert in einer Vielzahl von Arbeitshypothesen, Modellen und Theoriefragmenten, in einen von allen akzeptierbaren Rationalitätsrahmen einordnen zu können, der eine Gesamt-Theorie reflektiert, die als solche möglicherweise immer unvollendet bleiben wird

WOMIT FANGEN WIR AN?

Damit stellt sich ganz praktisch die Frage, wo und wie soll man anfangen? Das Buch von Edelman kann erste Hinweise liefern.

  1. KEINE WISSENSINSELN: Am Beispiel des homo sapiens wird deutlich, dass ein Verständnis von Bewusstsein, Gehirn, Körper, Verhalten und hier insbesondere die symbolische Kommunikation je für sich nicht gelingen kann. Und Edelman demonstriert eindrücklich, dass man zusätzlich die ontogenetische und evolutive Dimension einbeziehen muss, will man zu einem befriedigenden Verständnis kommen.
  2. INTEGRATION VON EINZELWISSEN: Man muss also Wege finden, wie man diese verschiedenen Aspekte in einem gemeinsamen Rationalitätsrahmen so anordnen kann, dass sowohl die einzelwissenschaftliche Methodik gewahrt bleibt, wie auch eine ‚Integration‘ all dieser Aspekte auf einer ‚gemeinsamen Ebene‘ möglich wird, die dabei von den Einzelwissenschaften nicht ‚isoliert‘ ist.
  3. META-WISSEN ALS LEITFADEN: Das geforderte Vorgehen betrachtet die konkreten einzelwissenschaftlichen Erklärungsansätze als einen ‚Gegenstand sui generis‘, macht also die Einzelwissenschaften zu ‚Untersuchungsgegenständen‘. Dies entspricht dem Paradigma der Wissenschaftsphilosophie.
  4. NEUE WISSENSCHAFTSPHILOSOPHIE: Mit Blick auf die Geschichte der modernen Wissenschaftsphilosophie (etwa seit dem Wiener Kreis) muss man dafür offen sein, dass das Paradigma der Wissenschaftsphilosophie für diese Aufgabenstellung möglicherweise neu zu formatieren ist.
  5. KOMMUNIKATIONSPROZESS ALS RAHMEN: So liegt es nahe, zu sagen, es gehe nicht primär um einen isolierten Theoriebegriff, sondern um einen Kommunikationsprozess, der Kommunikationsinhalte generiert, die im Rahmen des Kommunikationsprozesses ‚verstehbar‘ sein sollen.
  6. SYSTEMS-ENGINEERING ALS BEISPIEL: Ein modernes Beispiel für einen problemorientierten Kommunikationsprozess findet sich im Paradigma des modernen Systems-Engineering. Auslöser des Kommunikationsprozesses ist eine ‚Frage‘ oder eine ‚Problemstellung‘, und der Kommunikationsprozess versucht nun durch Ausnutzung des Wissens und der Erfahrungen von allen Beteiligten einen gemeinsames Bild von möglichen Lösungen zu generieren. Zu Beginn werden alle Kriterien kenntlich gemacht, die für die intendierte Lösung berücksichtigt werden sollen.
  7. EINBEZIEHUNG AUTOMATISIERTEN WISSENS: Insbesondere soll der Kommunikationsprozess so ausgelegt sein, dass er den Einsatz moderner Wissenstechnologien wie z.B.. ‚Interaktive Simulationen‘, ‚Kommunikationstests‘, ‚benutzerzentrierte künstliche Intelligenz‘, sowie automatisierte ‚Simulationsbibliotheken‘ erlaubt.

Dies ist nur eine erste, noch sehr vage Formulierung. Es wird notwendig sein, diese anhand von vielen Beispielen weiter zu konkretisieren und zu verfeinern.

 

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

KI UND BIOLOGIE. Blitzbericht zu einem Vortrag am 28.Nov.2018

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
29.Nov. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE AKTUALISIERUNG: 1.Dez.2018, Anmerkung 1

KONTEXT

Im Rahmen einer öffentlichen Veranstaltung des Fachbereichs 2 ‚Informatik & Ingenieurwissenschaften‘ der Frankfurt University of Applied Sciences am 28.November 2018 mit dem Rahmenthema „Künstliche Intelligenz – Arbeit für Alle?“ hielt Gerd Doeben-Henisch einen kurzen Vortrag zum Thema „Verändert KI die Welt?“ Voraus ging ein Vortrag von Herrn Helmut Geyer „Arbeitsmarkt der Zukunft. (Flyer zur Veranstaltung: FRA-UAS_Fb2_Karte_KI-Arbeit fuer alle_Webversion )

EINSTIEG INS KI-THEMA

Im Kontext der Überlegungen zur Arbeitswelt angesichts des technologischen Wandels gerät die Frage nach der Rolle der Technologie, speziell der digitalen Technologie — und hier noch spezieller der digitalen Technologie mit KI-Anteilen – sehr schnell zwischen die beiden Pole ‚Vernichter von Arbeit‘, ‚Gefährdung der Zukunft‘ einerseits und ‚Neue Potentiale‘, ‚Neue Arbeit‘, ‚Bessere Zukunft‘, wobei es dann auch einen dritten Pol gibt, den von den ‚übermächtigen Maschinen‘, die die Menschen sehr bald überrunden und beherrschen werden.

Solche Positionen, eine Mischungen aus quasi-Fakten, viel Emotionen und vielen unabgeklärten Klischees, im Gespräch sachlich zu begegnen ist schwer bis unmöglich, erst Recht, wenn wenig Zeit zur Verfügung steht.

Doeben-Henisch entschloss sich daher, das Augenmerk zentral auf den Begriff ‚Künstliche Intelligenz‘ zu lenken und die bislang uneinheitliche und technikintrovertierte Begrifflichkeit in einen größeren Kontext zu stellen, der das begrifflich ungeklärte Nebeneinander von Menschen und Maschinen schon im Ansatz zu überwinden sucht.

ANDERE DISZIPLINEN

Viele Probleme im Kontext der Terminologie der KI im technischen Bereich erscheinen hausgemacht, wenn man den Blick auf andere Disziplinen ausweitet. Solche andere Disziplinen sind die Biologe, die Mikrobiologie sowie die Psychologie. In diesen Disziplinen beschäftigt man sich seit z.T. deutlich mehr als 100 Jahren mit komplexen Systemen und deren Verhalten, und natürlich ist die Frage nach der ‚Leistungsfähigkeit‘ solcher Systeme im Bereich Lernen und Intelligenz dort seit langem auf der Tagesordnung.

Die zunehmenden Einsichten in die unfassbare Komplexität biologischer Systeme (siehe dazu Beiträge in diesem Blog, dort auch weitere Links), lassen umso eindrücklicher die Frage laut werden, wie sich solche unfassbar komplexen Systeme überhaupt entwickeln konnten. Für die Beantwortung dieser Frage wies Doeben-Henisch auf zwei spannende Szenarien hin.

KOMMUNIKATIONSFREIE EVOLUTION

Entwicklungslogik vor der Verfügbarkeit von Gehirnen
Entwicklungslogik vor der Verfügbarkeit von Gehirnen

In der Zeit von der ersten Zelle (ca. -3.8 Mrd Jahren) bis zur Verfügbarkeit hinreichend leistungsfähiger Nervensysteme mit Gehirnen (ab ca. -300.000, vielleicht noch etwas früher) wurde die Entwicklung der Lebensformen auf der Erde durch zwei Faktoren gesteuert: (a) die Erde als ‚Filter‘, was letztlich zu einer bestimmten Zeit geht; (b) die Biomasse mit ihrer Reproduktionsfähigkeit, die neben der angenäherten Reproduktion der bislang erfolgreichen Baupläne (DNA-Informationen) in großem Umfang mehr oder weniger starke ‚Varianten‘ erzeugte, die ‚zufallsbedingt‘ waren. Bezogen auf die Erfolge der Vergangenheit konnten die zufälligen Varianten als ’sinnlos‘ erscheinen, als ’nicht zielführend‘, tatsächlich aber waren es sehr oft diese zunächst ’sinnlos erscheinenden‘ Varianten, die bei einsetzenden Änderungen der Lebensverhältnisse ein Überleben ermöglichten. Vereinfachend könnte man also für die Phase die Formel prägen ‚(Auf der dynamischen Erde:) Frühere Erfolge + Zufällige Veränderungen = Leben‘. Da zum Zeitpunkt der Entscheidung die Zukunft niemals hinreichend bekannt ist, ist die Variantenbildung die einzig mögliche Strategie. Die Geschwindigkeit der ‚Veränderung von Lebensformen‘ war in dieser Zeit auf die Generationsfolgen beschränkt.

MIT KOMMUNIKATION ANGEREICHERTE EVOLUTION

Nach einer gewissen ‚Übergangszeit‘ von einer Kommunikationsfreien zu einer mit Kommunikation angereicherte Evolution gab es in der nachfolgenden Zeit die Verfügbarkeit von hinreichend leistungsfähigen Gehirnen (spätestens mit dem Aufkommen des homo sapiens ab ca. -300.000)[1], mittels deren die Lebensformen die Umgebung und sich selbst ‚modellieren‘ und ‚abändern‘ konnten. Es war möglich, gedanklich Alternativen auszuprobieren, sich durch symbolische Kommunikation zu ‚koordinieren‘ und im Laufe der letzten ca. 10.000 Jahren konnten auf diese Weise komplexe kulturelle und technologische Strukturen hervorgebracht werden, die zuvor undenkbar waren. Zu diesen Technologien gehörten dann auch ab ca. 1940 programmierbare Maschinen, bekannt als Computer. Der Vorteil der Beschleunigung in der Veränderung der Umwelt – und zunehmend auch der Veränderung des eigenen Körpers — lies ein neues Problem sichtbar werden, das Problem der Präferenzen (Ziele, Bewertungskriterien…). Während bislang einzig die aktuelle Erde über ‚Lebensfähig‘ ‚oder nicht Lebensfähig‘ entschied, und dies das einzige Kriterium war, konnten die  Lebewesen mit den neuen Gehirnen  jetzt eine Vielzahl von Aspekten ausbilden, ‚partielle Ziele‘, nach denen sie sich verhielten, von denen oft erst in vielen Jahren oder gar Jahrzehnten oder gar noch länger sichtbar wurde, welche nachhaltigen Effekte sie haben.

Anmerkung 1: Nach Edelman (1992) gab es einfache Formen von Bewusstsein mit den zugehörigen neuronalen Strukturen ab ca. -300 Mio Jahren.(S.123) Danach hätte es  also ca. 300 Mio Jahre gedauert, bis   Gehirne, ausgehend von einem ersten einfachen Bewusstsein, zu komplexen Denkleistungen und sprachlicher Kommunikation in der Lage waren.

LERNEN und PRÄFERENZEN

Am Beispiel von biologischen Systemen kann man fundamentale Eigenschaften wie z.B. das ‚Lernen‘ und die ‚Intelligenz‘ sehr allgemein definieren.

Systematisierung von Verhalten nach Lernen und Nicht-Lernen
Systematisierung von Verhalten nach Lernen und Nicht-Lernen

In biologischer Sicht haben wir generell Input-Output-Systeme in einer unfassbar großen Zahl an Varianten bezüglich des Körperbaus und der internen Strukturen und Abläufe. Wie solch ein Input-Output-System intern im Details funktioniert spielt für das konkrete Leben nur insoweit eine Rolle, als die inneren Zustände ein äußerlich beobachtbares Verhalten ermöglichen, das wiederum das Überleben in der verfügbaren Umgebung ermöglicht und bezüglich spezieller ‚Ziele‘ ‚erfolgreich‘ ist. Für das Überleben reicht es also zunächst, einfach dieses beobachtbare Verhalten zu beschreiben.

In idealisierter Form kann man das Verhalten betrachten als Reiz-Reaktions-Paare (S = Stimulus, R = Response, (S,R)) und die Gesamtheit des beobachtbaren Verhaltens damit als eine Sequenz von solchen (S,R)-Paaren, die mathematisch eine endliche Menge bilden.

Ein so beschriebenes Verhalten kann man dann als ‚deterministisch‘ bezeichnen, wenn die beobachtbaren (S,R)-Paare ’stabil‘ bleiben, also auf einen bestimmten Reiz S immer die gleiche Antwort R erfolgt.

Ein dazu komplementäres Verhalten, also ein ’nicht-deterministisches‘ Verhalten, wäre dadurch charakterisiert, dass entweder (i) der Umfang der Menge gleich bleibt, aber manche (S,R)-Paare sich verändern oder (ii) der Umfang der Menge kann sich ändern. Dann gibt es die beiden interessanten Unterfälle (ii.1) es kommen nach und nach neue (S,R)-Paare dazu, die ‚hinreichend lang‘ ’stabil‘ bleiben, aber ab einem bestimmten Zeitpunkt ‚t‘ sich nicht mehr vermehren (die Menge der stabilen Elemente wird ‚eingefroren‘, ‚fixiert‘, ‚gezähmt‘, …), oder (ii.2) die Menge der stabilen (S,R)-Paare expandiert ohne Endpunkt.

Bezeichnet man diese Expansion (zeitlich ‚befristet‘ oder ‚unbefristet‘) als ‚Lernen‘, dann wird sichtbar, dass die ‚Inhalte des Lernens‘ (die korrespondierenden Repräsentationen der (S,R)-Paare in den internen Zuständen des Systems) einmal davon abhängen, was die Umgebung der Systeme ‚erlaubt‘, zum anderen, was die ‚inneren Zustände‘ des Systems an ‚Verarbeitung ermöglichen‘, sowie – sehr indirekt – über welche welche ‚internen Selektionskriterien‘ ein System verfügt.

Die ‚internen Selektionskriterien‘ werden hier kurz ‚Präferenzen‘ genannt, also Strategien, ob eher ein A oder ein B ’selektiert‘ werden soll. Wonach sich solche Kriterien richten, bleibt dabei zunächst offen. Generell kann man sagen, dass solche Kriterien primär ‚endogen‘ begründet sein müssen, dass sie aber nachgeordnet auch von außen (‚exogen‘) übernommen werden können, wenn die inneren Kriterien eine solche Favorisierung des exogenen Inputs ‚befürworten‘ (Beispiel sind die vielen Imitationen im Lernen bzw. die Vielzahl der offiziellen Bildungsprozesse, durch die Menschen auf bestimmte Verhaltens- und Wissensmuster trainiert (programmiert) werden). Offen ist auch, ob die endogenen Präferenzen stabil sind oder sich im Laufe der Zeit ändern können; desgleichen bei den exogenen Präferenzen.

Am Beispiel der menschlichen Kulturen kann man den Eindruck gewinnen, dass das Finden und gemeinsame Befolgen von Präferenzen ein bislang offenes Problem ist. Und auch die neuere Forschung zu Robotern, die ohne Terminierung lernen sollen (‚developmental robotics‘), hat zur Zeit das Problem, dass nicht ersichtlich ist, mit welchen Werten man ein nicht-terminiertes Lernen realisieren soll. (Siehe: Merrick, 2017)) Das Problem mit der Präferenz-Findung ist bislang wenig bekannt, da die sogenannten intelligenten Programme in der Industrie immer nur für klar definierte Verhaltensprofile trainiert werden, die sie dann später beim realen Einsatz unbedingt einhalten müssen.  Im technischen Bereich spricht man hier oft von einer ’schwachen KI‘. (Siehe: VDI, 2018) Mit der hier eingeführten Terminologie  wären dies nicht-deterministische Systeme, die in ihrem Lernen ‚terminieren‘.

INTELLIGENZ

Bei der Analyse des Begriffs ‚Lernen‘ wird sichtbar, dass das, was gelernt wird, bei der Beobachtung des Verhaltens nicht direkt ’sichtbar‘ ist. Vielmehr gibt es eine allgemeine ‚Hypothese‘, dass dem äußerlich beobachtbaren Verhalten ‚interne Zustände‘ korrespondieren, die dafür verantwortlich sind, ob ein ’nicht-lernendes‘ oder ein ‚lernendes‘ Verhalten zu beobachten ist. Im Fall eines ‚lernenden‘ Verhaltens mit dem Auftreten von inkrementell sich mehrenden stabilen (S,R)-Paaren wird angenommen, das den (S,R)-Verhaltensformen ‚intern‘ entsprechende ‚interne Repräsentationen‘ existieren, anhand deren das System ‚entscheiden‘ kann, wann es wie antworten soll. Ob man diese abstrakten Repräsentationen ‚Wissen‘ nennt oder ‚Fähigkeiten‘ oder ‚Erfahrung‘ oder ‚Intelligenz‘ ist für die theoretische Betrachtung unwesentlich.

Die Psychologie hat um die Wende zum 20.Jahrhundert mit der Erfindung des Intelligenztests durch Binet und Simon (1905) sowie in Weiterführung durch W.Stern (1912) einen Ansatz gefunden, die direkt nicht messbaren internen Repräsentanten eines beobachtbaren Lernprozesses indirekt dadurch zu messen, dass sie das beobachtbare Verhalten mit einem zuvor vereinbarten Standard verglichen haben. Der vereinbarte Standard waren solche Verhaltensleistungen, die man Kindern in bestimmten Altersstufen als typisch zuordnete. Ein Standard war als ein Test formuliert, den ein Kind nach möglichst objektiven Kriterien zu durchlaufen hatte. In der Regel gab es eine ganze Liste (Katalog, Batterie) von solchen Tests. Dieses Vorgehensweisen waren sehr flexibel, universell anwendbar, zeigten allerdings schon im Ansatz, dass die Testlisten kulturabhängig stark variieren konnten. Immerhin konnte man ein beobachtbares Verhalten von einem System auf diese Weise relativ zu vorgegebenen Testlisten vergleichen und damit messen. Auf diese Weise konnte man die nicht messbaren hypothetisch unterstellten internen Repräsentationen indirekt qualitativ (Art des Tests) und quantitativ (Anteil an einer Erfüllung des Tests) indizieren.

Im vorliegenden Kontext wird ‚Intelligenz‘ daher als ein Sammelbegriff für die hypothetisch unterstellte Menge der korrespondierenden internen Repräsentanten zu den beobachtbaren (S,R)-Paaren angesehen, und mittels Tests kann man diese unterstellte Intelligenz qualitativ und quantitativ indirekt charakterisieren. Wie unterschiedlich solche Charakterisierung innerhalb der Psychologie modelliert werden können, kann man in der Übersicht von Rost (2013) nachlesen.

Wichtig ist hier zudem, dass in diesem Text die Intelligenz eine Funktion des Lernens ist, das wiederum von der Systemstruktur abhängig ist, von der Beschaffenheit der Umwelt sowie der Verfügbarkeit von Präferenzen.

Mehrdimensionaler Raum der Intelligenzrpräsentanen
Mehrdimensionaler Raum der Intelligenzrpräsentanen

Aus Sicht einer solchen allgemeinen Lerntheorie kann man statt biologischen Systemen auch programmierbare Maschinen betrachten. Verglichen mit biologischen Systemen kann man den programmierbaren Maschinen ein Äquivalent zum Körper und zur Umwelt spendieren. Grundlagentheoretisch wissen wir ferner schon seit Turing (1936/7), dass programmierbare Maschinen ihr eigenes Programm abändern können und sie prinzipiell lernfähig sind. Was allerdings (siehe zuvor das Thema Präferenz) bislang unklar ist, wo sie jeweils die Präferenzen herbekommen sollen, die sie für eine ’nachhaltige Entwicklung‘ benötigen.

ZUKUNFT VON MENSCH UND MASCHINE

Im Licht der Evolution erscheint die  sich beschleunigende Zunahme von Komplexität im Bereich der biologischen Systeme und deren Populationen darauf hinzudeuten, dass mit der Verfügbarkeit von programmierbaren Maschinen diese sicher nicht als ‚Gegensatz‘ zum Projekt des biologischen Lebens zu sehen sind, sondern als eine willkommene Unterstützung in einer Phase, wo die Verfügbarkeit der Gehirne eine rapide Beschleunigung bewirkt hat. Noch bauen die biologischen Systeme ihre eigenen Baupläne  nicht selbst um, aber der Umbau in Richtung von Cyborgs hat begonnen und schon heute ist der Einsatz von programmierbaren Maschinen existentiell: die real existierenden biologischen Kapazitätsgrenzen erzwingen den Einsatz von Computern zum Erhalt und für die weitere Entwicklung. Offen ist die Frage, ob die Computer den Menschen ersetzen sollen. Der Autor dieser Zeilen sieht die schwer deutbare Zukunft eher so, dass der Mensch den Weg der Symbiose intensivieren wird und versuchen sollte, den Computer dort zu nutzen, wo er Stärken hat und zugleich sich bewusst sein, dass das Präferenzproblem nicht von der Maschine, sondern von ihm selbst gelöst werden muss. Alles ‚Böse‘ kam in der Vergangenheit und kommt in der Gegenwart vom Menschen selbst, nicht von der Technik. Letztlich ist es der Mensch, der darüber entscheidet, wie er die Technik nutzt. Ingenieure machen sie möglich, die Gesellschaft muss entscheiden, was sie damit machen will.

BEISPIEL EINER NEUEN SYMBIOSE

Der Autor dieser Zeilen hat zusammen mit anderen KollegenInnen in diesem Sommer ein Projekt gestartet, das darauf abzielt, dass alle 11.000 Kommunen in Deutschland ihre Chancen haben sollten, ihre Kommunikation und Planungsfähigkeit untereinander dramatisch zu verbessern, indem sie die modernen programmierbaren Maschinen in neuer ‚intelligenter‘ Weise für ihre Zwecke nutzen.

QUELLEN

  • Kathryn Merrick, Value systems for developmental cognitive robotics: A survey, Cognitive Systems Research, 41:38 – 55, 2017
  • VDI, Statusreport Künstliche Intelligenz, Oktober 2018, URL: https://www.vdi.de/vdi-statusbericht-kuenstliche-intelligenz/ (zuletzt: 28.November 2018)
  • Detlef H.Rost, Handbuch der Intelligenz, 2013: Weinheim – Basel, Beltz Verlag
  • Joachim Funke (2006), Kap.2: Alfred Binet (1857 – 1911) und der erste Intelligenztest der Welt, in: Georg Lamberti (Hg.), Intelligenz auf dem Prüfstand. 100 Jahre Psychometrie, Vandenhoek & Ruprecht
  • Alfred Binet, Théodore Simon: Methodes nouvelles pour le diagnostiqc du niveau intellectuel des anormaux. In: L’Année Psychologique. Vol. 11, 1904, S. 191–244 (URL: https://www.persee.fr/doc/psy_0003-5033_1904_num_11_1_3675 )
  • William Stern, Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkinder, 19121: Leipzig, J.A.Barth
  • Alan M. Turing, On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, 42(2):230–265, 1936-7
  • Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

LUHMANN-1991-GESELLSCHAFT. Kap.1:I-II, Diskussion und Übersetzung

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
29.März 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

INHALT

I Evolutionäre Ausgangslage
I-A Ältere Blogeinträge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
I-B Resümee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
II Luhmann 1991: Vorwort 3
III Diskussion 4
IV Luhmann 1991 Kap.1: Bewusstsein und Kommunikation
IV-A Abschnitt I . . . . . . . . . . . . . . . . . . . . . . . .
IV-A1 Bewusstsein . . . . . . . . . . . . . . . . .
IV-A2 Kommunikation . . . . . . . . . . . . . . . .
IV-A3 Gehirn – Nervensystem . . . . . . . . . . .
IV-B Diskussion . . . . . . . . . . . . . . . . . . . . . . . .
IV-C Abschnitt II . . . . . . . . . . . . . . . . . . . . . . . .
IV-C1 Systemtheorie, Autopoiesis . . . . . . . . .
IV-C2 Bewusstsein . . . . . . . . . . . . . . . . .
IV-C3 Kommunikation . . . . . . . . . . . . . . . .
Quellen

ÜBERBLICK

Im Rahmen des ’Wahrheitsprojektes’ gibt es den Bereich ’Individuum und Gesellschaft’. Dieser Bereich setzt historisch ein mit dem Auftreten des Homo sapiens und interessiert sich für eine formale Theorie des menschlichen Individuums innerhalb einer Population, eingebettet in eine Umwelt. In Ermangelung einer allgemein akzeptierten und funktionierenden allgemeinen formalen Theorie von Individuum und Gesellschaft wird hier Niklas Luhmann als Referenzpunkt gewählt. Er gilt u.a. als wichtiger (der wichtigste?) deutschsprachiger Vertreter der soziologischen Systemtheorie und der Soziokybernetik. Da Luhmann viele Bücher geschrieben hat muss man für den Start einen ’Eingangspunkt’ in seine Denkwelt wählen. Ich habe mich für das Buch ’Die Wissenschaft von der Gesellschaft’ (1991, 2.Aufl.) [Luh91] entschieden. Alle
Interpretationen des Autors zu Luhmanns Theorie stehen grundsätzlich unter dem Vorbehalt, dass diese Rekonstruktionen keine vollständige Werkanalyse darstellen. Die Vorgehensweise in diesem Beitrag ist der Versuch des Verstehens durch rekonstruierende Analyse mit formalen Mitteln. Für die Logik, die Luhmann
im Detail benutzt, sei verwiesen auf das Buch ’Laws of Form’ von Spencer Brown (1969, 1971) [Bro72] .

I. EVOLUTIONÄRE AUSGANGSLAGE
Vorab zur Analyse von Luhmann sei hier kurz die Lage skizziert, die sich nach 3.8 Mrd Jahren Evolution mit dem Auftreten des homo sapiens bietet. Da das entsprechende Kapitel hier noch nicht geschrieben wurde, seien hier nur jene Blogbeiträge kurz erwähnt, die sich bislang mit dem Thema beschäftigt haben.

A. Ältere Blogeinträge
1) Nr.124 vom April 2013: RANDBEMERKUNG: KOMPLEXITÄTSNTWICKLUNG (SINGULARITÄT(en))

2) Nr.132 vom Mai 2013: RANDBEMERKUNG: KOMPLEXITÄTSNTWICKLUNG (SINGULARITÄT(en)) Teil 2

3) Nr. 314 vom November 2015: STUNDE DER ENTSCHEIDUNG – Ist irgendwie
immer, aber manchmal mehr als sonst

4) Nr.333 vom März 2016: DENKEN UND WERTE – DER TREIBSATZ FÜR
ZUKÜNFTIGE WELTEN (Teil 1)

5) Nr.342 vom Juni 2016: EIN EVOLUTIONSSPRUNG PASSIERT JETZT UND NIEMAND BEMERKT ES?

6) Nr.381 vom 13.März 2017: DIE ZUKUNFT WARTET NICHT – 2117 – PHILOSOPHISCHE WELTFORMEL – FAKE-NEWS ALS TODESENGEL

7) Nr. 382 vom 18.März 2017: DIE ZUKUNFT WARTET NICHT – 2117 – PHILOSOPHISCHE WELTFORMEL – Teil 4 – MIND-GEIST . . .

8) Nr.383 vom 19.März 2017: INDIVIDUUM ALS BINDEGLIED ZWISCHEN BIOLO-
GISCHEM UND SOZIALEM – Nachtrag

9) Nr.400 vom Aug.2017: MENSCHENBILD – VORGESCHICHTE BIS ZUM
HOMO SAPIENS – Überlegungen

10) Nr. 401 vom Sept.2017: MENSCHENBILD – VORGESCHICHTE BIS ZUM HOMO SAPIENS – Ergänzungen

B. Resümee
Aus den bisherigen Untersuchungen ergibt sich als Zwischenstand, dass der homo sapiens die erste Lebensform auf der Erde ist, die neben der üblichen biologischen Ausstattung von Lebewesen zusätzlich über die Eigenschaften Bewusstsein,  Gedächtnis, Abstraktionsvermögen, Kombinatorik, selbst definierte Ziele und symbolische Kommunikation in einer Weise verfügt, die anderen Lebensformen in dieser Weise bislang unzugänglich waren und bisher auch weiterhin unzugänglich sind.

Aufgrund dieser herausragenden Eigenschaften konnte der homo sapiens in den letzten ca. 12.000 Jahren in Bereichen wie z.B. Handwerk und Technologie, Landwirtschaft, Siedlungsbau, Infrastrukturen, Transport und Verkehr, Wissensweitergabe und Wissensspeicherung, Verwaltung großer Gesellschaftssysteme, Kunst und Kultur, Wirtschaftsformen, und vielem mehr Leistungen erbringen, die ihn weit, weit ab von den anderen bekannten Lebensformen stellen.

Diese objektiven Erfolge scheinen allerdings aktuell einen Zustand erzeugt zu haben, in dem die Menge der alltäglichen Ereignisse, ihre Auftretensgeschwindigkeit sowie ihre inhärente Komplexität die biologischen Kapazitäten eines normalen homo sapiens Gehirns mehr und mehr überschreiten. Neue Informationstechnologien aus den letzten ca. 40 Jahren konnten diese Überforderungen einerseits entlasten, führen aber bislang gleichzeitig zu einer Verstärkung der Belastung, da diese Technologien separiert von dem einzelnen Individuum gehostet und entwickelt werden (das ’Cloud-Syndrom’).

Für die übergreifende Fragestellung, ob und wieweit die neuen digitalen Technologien – möglicherweise in Kombination mit einer Art ’Cyborg-Strategie’ – noch besser als bisher für die Stärkung des Individuums genutzt werden können, soll hier eine Analyse der generellen Situation des Individuums in der Gesellschaft eingeschoben werden.

Diese Analyse nimmt ihren Ausgang bei der Annahme, dass der homo sapiens als einzelnes Individuum Teil einer Population ist, die durch ihre auf Kommunikation gründenden Aktivitäten spezifische ’gesellschaftliche Strukturen’ geformt hat und weiter formt, die das Leben in einer vorausgesetzten Umwelt gestalten. Zugleich wirken diese Strukturen auf den einzelnen zurück. Ob die aktuelle Gestaltung von Gesellschaft letztlich ’nachhaltig’ ist oder nicht bleibt an dieser Stelle noch offen. Erst soll die Frage
nach der allgemeinen Struktur geklärt werden, innerhalb deren das ’Leben’ der homo sapiens Individuen stattfindet.

 

II. LUHMANN 1991: VORWORT
Im folgenden Text wird auf eine Unterscheidung zwischen dem Eigentext von Luhmann und einer davon abgehobenen Interpretation verzichtet. Der gesamte Text ist von Anfang an eine Interpretation des Textes von Luhmann im Lichte der vorwiegend wissenschaftsphilosophischen Annahmen des Autors. Man könnte auch sagen, es handelt sich um eine Art ’Übersetzung’ in einen anderen begrifflichen Rahmen.
Wer wissen will, was Luhmann selbst sagt, der muss den Text von Luhmann direkt lesen. Hier geht es um eine ’theoretische Verwertung’ der Gedanken von Luhmann in einem formalen Rahmen, den Luhmann selbst zu Lebzeiten so nirgends artikuliert hat.

Vorgreifend kann man an dieser Stelle anmerken, dass diese durchgehende  ’Übersetzung’ des Textes von Luhmann in den Text des Autors nur gelingen kann, weil Luhmann als ’roten Faden’ seiner Überlegungen einen ’Systembegriff’ benutzt, der es erlaubt, dass Systeme ’strukturell gekoppelt’ sind und dass sie ’Sub-Systeme’ enthalten können. Diese Auffassung teilt auch der Autor dieses Textes. Dennoch wird diese ’Übersetzung’ von dem Text Luhmanns in vielen Positionen – gerade in seinen zentralen Konzepten – radikal abweichen. Dies ist kein Paradox sondern ergibt sich aus dem Sachverhalt, dass der Autor an einigen entscheidenden Stellen die ’Selektion der Unterschiede’ anders vorgenommen hat als Luhmann; die ’Freiheit’ des Gehirns, des Bewusstseins, der Kommunikation wie auch der aktuellen gesellschaftlichen Situation des Autors lässt dies zu.

Im Vorwort thematisiert Luhmann einleitend das wissenschaftsphilosophische Problem, dass eine Soziologie, die eine wissenschaftliche Theorie der Gesellschaft erarbeiten will, trotz aller notwendigen methodischen Distanzierung zum   Untersuchungsgegenstand doch auch zugleich Teil genau jener Gesellschaft ist, die untersucht werden soll. Die Bedingungen der Möglichkeit solch einer wissenschaftlichen Erkenntnis liegen der wissenschaftlichen Aktivität selbst voraus und werden traditionellerweise an die Philosophie delegiert, bzw. heutzutage vielleicht einer Erkenntnistheorie, die Hand in Hand mit der Wissenschaftsphilosophie arbeitet. Will eine einzelwissenschaftliche Disziplin – wie z.B. das System der Wissenschaft – ihr eigenes Tun in diesem Sinne von den impliziten Voraussetzungen her befragen, erhellen, klären, dann bedarf sie der Fähigkeit einer ’Autologie’, d.h. einer Selbstreflexion auf das eigene Tun, die sehr wohl auch eine Fremdbeobachtung der anderen Mit-Forschenden einbeziehen kann. Solch eine autologische Reflexion
kann nur in dem Maße die Besonderheiten eines Tuns zur Sprache bringen und kommunizieren, insoweit diese Disziplin über eine hinreichend ausdrucksstarke Metasprache verfügt. Diese wird gespeist durch das Fachwissen der Philosophie wie auch durch das spezifische Fachwissen der jeweiligen Disziplin, sofern letztere überhaupt schon über hinreichendes Spezialwissen verfügt.

Tatsächlich kann eine solche philosophische Selbstvergewisserung – hier der gesamte
Wissenschaftsbetrieb – nur gelingen, sofern diese zum Zeitpunkt der Untersuchung schon soweit als eigenes gesellschaftliches Subsystem vorkommt, dass durch gesellschaftlich legitimierte Setzungen und Verhaltensweisen ’vor-definiert’ ist, worin ’gesellschaftlich’ das Substrat dieser Disziplin besteht. Nur dann kann eine ’nach-sinnende’ autologische Reflexion die Eigenart aller beteiligten Komponenten und
Interaktionsprozesse identifizieren und analysieren. In diesem Sinne ist eine  Fachdisziplin – bzw. hier der gesamte Wissenschaftsbetrieb – zu einem bestimmten historischen Zeitpunkt nicht ’Voraussetzungsfrei’ (Anmerkung: Wäre dem so, dann hätte man es mit einem eigenschaftslosen Neutrum zu tun, das nicht weiter bestimmbar wäre.) , sondern zeichnet sich gerade durch ein historisch gereiftes und darin durch Eigenschaften beschreibbares System zu tun, das innerhalb der Gesamtgesellschaft als Sub-System erscheint. Diese Unterscheidung lässt zugleich zu, dass jedes gegenwärtige System sich durch seine Eigenaktivitäten weiter verändert.

Die Aktualität der Gegenwart bildet damit tendenziell nicht das Gesamtsystem ab noch einen dauerhaften Zustand.

III. DISKUSSION
Es sei hier angenommen, dass ein historisch gewachsenes und gesellschaftlich ausgezeichnetes ’Subsystem Wissenschaft (SW)’ neben möglichen ’menschlichen Akteuren’ (A) zusätzlich über hinreichend viele Dokumente (D) verfügt, in denen Zielsetzung, typische Arbeitsweisen und der dynamische Bezug zum übergreifenden fundierenden gesellschaftlichen Gesamtsystem hinreichend beschrieben ist. Ein
gesellschaftliches wissenschaftliches Subsystem umfasst also minimal folgende Struktur:

SW (x) iff x = <A, D, h> (1)
A := Akteure (2)
D := Dokumente (3)
h := A × D —> A × D (4)

Das Symbol h repräsentiert die Menge der möglichen Handlungen, mit denen die Akteure im Sinne der offiziellen Dokumente neue Dokumente generieren können bzw. auch die Menge der Akteure verändern können. Was in dieser expliziten Darstellung noch fehlt ist der Aspekt der Gesellschaft (G). Denn eine Gesellschaft hat ja meistens mehr als ein Subsystem (Anmerkung: Wobei jedes Subsystem noch weitere Subsysteme haben kann). Zwischen einem Subsystem S und der Gesellschaft G kann es typische Interaktionen geben, ebenso auch zwischen Subsystemen direkt. Man
müsste daher mindestens eine weitere Interaktionsebene einbeziehen:

G(x) iff x = <A, D, Σ, h> (5)
A := Akteure (6)
D := Dokumente (7)
Σ := Menge von Subsystemen (8)
h := A × D × Σ —> A × D × Σ (9)

Die Akteure (A)  auf der Ebene der Gesellschaft (G) sind einerseits die ’Grundmenge’ aller Akteure, andererseits unterscheiden sich Subsysteme von der umgebenden Gesellschaft G dadurch, dass sie sich in mindestens einer Eigenschaft vom globalen System ’unterscheiden’. Es wird hier angenommen, dass diese minimale Verschiedenheit sich auf auf die Akteure A  bezieht, auf die beschreibenden Dokumente D  sowie auf die jeweilige Veränderungsfunktion h . Um Verwechslungen in der Kommunikation zu vermeiden könnte man die jeweiligen Symbole immer mit einem ’Index’ versehen, der den jeweiligen ’Kontext’ anzeigt, z.B. A_G
im Unterschied zu A_SW   oder h_G im Unterschied zu h_SW .

Aufgrund der minimalen Unterscheidbarkeit gilt dann generell, dass A_SW ⊆ A_G , d.h. die Akteure aus einem Subsystem sind spezieller als jene Akteure, die als Akteure einer globalen Gesellschaft gelten. Entsprechend verhält es sich in der Beziehung der Veränderungsfunktionen: h_SW ⊆ h_G.

Denkbar ist allerdings – und dies entspricht den empirischen Fakten –, dass es aufgrund der räumlichen Verteilung des homo sapiens auf der Erde (und zukünftig vielleicht auch im Weltall) gesellschaftliche Systeme gibt, die räumlich getrennt sind und die in ihrer ’Region’ das ’oberste’ gesellschaftliche System G darstellen, das  unterschiedliche Subsysteme haben kann. Faktisch gibt es dann viele gesellschaftliche
Systeme G_1 , …, G_n , die aufgrund ihrer separierten Existenz ’gleichberechtigt’ sind.
Andererseits wissen wir aufgrund der historischen Daten, dass es zwischen solchen räumlich verteilten gesellschaftlichen Systemen G sowohl ’kriegerische Handlungen’ gegeben hat, in denen das eine System G das andere System G_0 mit Gewalt erobert hat, oder es gab ’Wanderungsbewegungen’, die zu einer Vermischung der Akteure A_G , A_G_0 geführt hat. Solche Vermischung ( μ) – durch Eroberung oder Wanderung – konnten durch die unterschiedlichen ’Präferenz- und Wissensmodelle’ der Neuankömmlinge über die Interaktionen auf die bestehenden Dokumente und auf die Veränderungsfunktion h_G so einwirken, dass Modifikationen entstanden, etwa:

μ : A_G × A_G_0 × D_G × D_G_0 —> A_(G∪G_0) × D_(G∪G_0) × h_(G∪G_0)

Die führt zu einer Erweiterung des Referenzsystems zu einer ’Weltgesellschaft (WG)’:

G(x) iff x = <A, D, Σ, h> (5)
SW (x) iff x = <A, D, h> (1)
A_SW ⊆ A_G (12)
h_SW ⊆ h_G (13)
WG(x) iff x =<R3 , Γ, ∆, AF, μ>(14)
R3 :=  3 − dimensionale Koordinaten
Γ = U(A1 , …, An)
∆ =U(D1 , …, Dn )
AF := Artefakte
μ = 2^(R3 ×AF ×Γ×∆) —>  2^(R3 ×AF ×Γ×∆)

Die Grundidee ist die, dass die regional getrennten Gesellschaften miteinander vermischt werden können, was eine räumliche Umgruppierung von Akteuren und Dokumenten bedeuten kann. Andere wirksame Faktor sind z.B. der ’Handel’ oder neue ’Technologien’, die rein praktisch das alltägliche Leben verändert haben.

Im nächsten Kapitel 1 beschreibt Luhmann in erster Linie die Begriffe ’Bewusstsein’ und ’Kommunikation’ sowie deren Wechselwirkungen. Für diese Rekonstruktion werden die bisherigen begrifflichen Festlegungen berücksichtigt.

IV. LUHMANN 1991 KAP .1: BEWUSSTSEIN UND KOMMUNIKATION

A. Abschnitt I

Luhmann beginnt diesen Abschnitt mit der Frage nach dem ’Träger von Wissen‘
bzw.  Bewusstsein: Nach allerlei historischen Betrachtungen findet er einen ersten ’Ankerpunkt’ seiner Überlegungen in der grundlegenden Fähigkeit des Bewusstseins im Rahmen der Wahrnehmung grundsätzlich ’ein anderes’ wahrnehmen zu können. Es ist ein ’dass’, ein reiner ’Unterschied’, kein interpretierendes ’wie’. Diese Unterscheidung vom anderen ist die ’primäre Differenz’, die einen möglichen ’Anschluss’ für eine Kommunikation bietet und einen möglichen Referenzpunkt für eine mögliche ’sekundäre Zuschreibung’ von weiterem Wissen. (vgl. S.17)

Das ’Bewusstsein’, das Unterschiede wahrnehmen kann, operiert unter  stillschweigender Voraussetzung des ’Gehirns’ (= Nervensystem), ohne das Gehirn zu ’bemerken’. Der ’eigene Leib’ wird als bewusstseinsexterner ’Gegenstand’ erlebt. Damit externalisiert das Bewusstsein seine Zustände in die Welt hinein.(vgl.S.20)
Die Besonderheit des Bewusstseins liegt im ’Wahrnehmen’ und ’anschaulichen Imaginieren’. Ferner wird in der Wahrnehmung das Unterschiedene zugleich in einer ’Einheit’ erfasst.(vgl.S.20)

2) Kommunikation: Mit Rückgriff auf die Entwicklungspsychologie postuliert er, dass basierend auf dieser primären Unterscheidung im Bewusstsein eine erste ’Kommunikation’ angestoßen wird, noch vorab zum Spracherwerb. Und es ist diese erste Kommunikation die es nahelegt, ein ’alter ego’ im erfahrbaren Anderen zu unterstellen, und an dieses im Laufe der Zeit mehr Wissen anzulagern.(vgl. S.18f)

Und es wundert bei dieser Ausgangslage nicht, dass Luhmann postuliert, dass die Kommunikation Bedingung für ’Intersubjektivität’ ist und nicht umgekehrt. Innerhalb dieser Kommunikation wird zwischen ’Mitteilung’ und ’Information’ unterschieden. Diese Differenz soll dann nachgeordnet mit ’Sinngehalten’ angereichert werden.(vgl.S.19)

Kommunikation setzt Bewusstsein voraus, unterscheidet sich aber vom Bewusstsein, da ’Irrtum’, ’Täuschung’, ’Symbolmissbrauch’ der Kommunikation zugeordnet wird, nicht dem Bewusstsein.(vgl.S.21) Mit dem Grundsatz, dass die Wahrnehmung selbst nicht kommunizierbar ist (vgl.S.20), ergibt sich, dass logisches, kreatives Denken ohne Effekt bleibt, wenn es nicht kommunizierbar wird.(vgl.S.22)

Da Luhmann ferner annimmt, dass Wissen der Kommunikation zuzurechnen ist, nicht dem Bewusstsein (vgl.S.23), kann er weiter folgern, dass sich kein individuell bewusstes Wissen isolieren lässt.(vgl.S.22) Obwohl Kommunikation nicht zwingend auf Bewusstsein wirkt (vgl.S.22), kann Kommunikation das Leben und das Bewusstsein von Menschen auslöschen.(vgl.S.23)

3) Gehirn – Nervensystem: Das ’Nervensystem’ kann nur körpereigene Zustände unterscheiden und operiert daher ohne Bezug auf die Umwelt.(vgl.S. 19)

B. Diskussion
Luhmann bringt eine Reihe von Begriffen ins Spiel { z.B. ’Gehirn’, ’Bewusstsein’,  ’Wahrnehmung’, ’Differenz’, ’Kommunikation’, ’Mitteilung’, ’Information’, ’Sinngehalt’,
’Irrtum’, ’Täuschung’, ’Symbolmissbrauch’, usw. } , die zunächst relativ undifferenziert und nur locker in Beziehung gesetzt werden.

Nach der vorausgehenden Diskussion haben wir als bisherigen Referenzrahmen die beiden Begriffe ’Subsystem Wissenschaft’, ’System Gesellschaft’, und – falls es mehrere regional unterschiedene Gesellschaften gibt – die ’Weltgesellschaft’ (für einen erster Formalisierungsansatz siehe oben).

Davon unterschieden wird für die Begriffe { ’Gehirn’, ’Bewusstsein’,
’Wahrnehmung’, ’Differenz’ } In einer ersten Annäherung   angenommen, dass diese einem einzelnen Akteur A zuzurechnen sind. Dies erfordert, dass man den Akteur selbst als ein System sieht, der verschiedene Sub-Systeme umfasst, etwa so:

A(x) iff  x = <BR, PERC, PH, CONSC, ψ> (30)
BR := Gehirn (31)
ψ :  BR —> PERC × PH × CONSC (32)
PERC := Wahrnehmung (33)
PH := Phaenomene (34)
CONSC ⊆ 2^PH (35)

Das ’Gehirn (BR)’ erzeugt mittels der Funktion ψ ’Wahrnehmungen (PERC)’, die aufgrund von erfassbaren ’Differenzen’ unterscheidbare ’Phänomene (PH)’ erkennen lassen. Diese Phänomene bilden den ’Raum’ des ’Bewusstseins (CONSC)’. Weitere Aussagen sind an dieser Stelle noch schwierig.

Darüber hinaus muss man die Begriffe { ’Kommunikation’, ’Mitteilung’, ’Information’, ’Sinngehalt’,’Irrtum’, ’Täuschung’, ’Symbolmissbrauch’ } einordnen. Da Luhmann die Kommunikation als eigenes System sehen will, innerhalb dessen Mitteilungen und Informationen auftreten können, die mit Sinngehalten irgendwie in Beziehung stehen, dazu die Phänomene ’Irrtum’, ’Täuschung’ und ’Symbolmissbrauch’, muss man ein weiteres System annehmen, etwa so:

COM (x) iff x = <MT, INF, …>(36)
MT := Mitteilungen (37)
INF := Informationen (38)
… := Weitere Eigenschaften (39)

Wie genau dann das System Kommunikation (COM) funktionieren soll, wie das Zusammenspiel seiner unterschiedlichen Eigenschaften ist, wie genau das Wechselspiel mit dem Bewusstsein zu sehen ist, das ist an dieser Stelle noch unklar.

Ganz allgemein kann man schon an dieser frühen Stelle der Lektüre feststellen, dass Luhmann trotz seiner systemanalytischen Intentionen keinerlei Anstalten trifft, seine Überlegungen in Form einer wissenschaftlichen Theorie zu organisieren. Weder macht er sich Gedanken über eine notwendige Sprache noch über einen formalen Aufbau. Dementsprechend ist auch nicht klar, wie in seine ’Theorie’ Begriffe ’neu eingeführt’ werden können (andere nennen dies ’Definitionslehre’). Genauso wenig wie er irgendwelche überprüfbaren Qualitätskriterien für seine ’Theorie’ formuliert. Wann ist seine Theorie ’erfolgreich’? Wann ist sie ’wahr/ falsch’? … oder was auch immer man als Kriterium benutzen möchte.

Das gänzliche Fehlen dieser Überlegungen rächt sich im weiteren Verlauf nahezu auf jeder Seite.

C. Abschnitt II
In diesem Abschnitt werden die Begriffe ’Bewusstsein’ und ’Kommunikation’ als Systeme von Luhmann weiter ausdifferenziert; dazu ein paar Bemerkungen zur Autopoiesis.

1) Systemtheorie, Autopoiesis: Luhmann hält nochmals fest, dass eine fundamentale Annahme der Systemtheorie darin besteht, dass man eine Differenz von ’System’ und ’Umwelt’ annimmt. Daraus folgt einerseits, dass kein System außerhalb seiner eigenen Grenzen operieren kann, (vgl.S. 28) aber auch, dass jedes System in einer Umwelt existiert. Zwischen Umwelt und System darf man Kausalbeziehungen annehmen, die aber nur ein externer Beobachter beobachten kann.(vgl.S. 29) Zugleich gilt, dass ein
System immer schon an die Umwelt ’gekoppelt’ ist. Er behauptet sogar weiter, dass ein System immer schon angepasst sei.(vgl.S. 29)

Mit dieser Formulierung steht Luhmann im Gegensatz zu den Erkenntnissen der Evolutionsbiologie, die offengelegt hat, dass alle zu einem bestimmten Zeitpunkt beobachtbaren ’Passungen’ Ergebnisse langwieriger dynamischer  Anpassungsprozesse sind. In diesem Licht sind – zumindest lebende – Systeme in einer Umwelt niemals völlig unabhängig von dieser. Der von Luhmann gewählte
Begriff der ’Systemkopplung’ erfüllt zwar formal zunächst seinen Zweck, aber er wird der komplexen Interaktionsdynamik von (lebenden) Systemen und Umwelt nicht voll gerecht.

Insofern ist in diesem Zusammenhang sein Hinweis interessant, dass ’Autopoiesis’  (Anmerkung: Zum Begriff finden sich zahlreiche online-Quellen von Whitaker (2010) [Whi10]) nicht besage, dass das System allein aus sich heraus… ohne jeden Beitrag aus der Umwelt existiere.(vgl. S.30) Er schließt damit formal weitere  Interaktionsbeziehungen nicht grundsätzlich aus, klammert sie aber aus seiner formalen Analyse hier aus. Solange diese Ausklammerung den Hauptinhalt seiner Analysen nicht wesentlich verändert, kann er dies machen. Wenn aber – und der weitere Fortgang erweckt diesen Eindruck – dadurch wichtige grundlegenden Eigenschaften des Hauptgegenstandes durch formal angeregte Selektionen eliminiert werden, dann ist dieser Sachverhalt für die Untersuchung erheblich.

Aufgrund der zuvor vorgenommenen Selektion und der damit einhergehenden Vereinfachung kann Luhmann sich auf die ’Innensicht’ der isolierten Systeme fokussieren. Und er schreibt dann ganz klar, dass es vielmehr nur darum geht, ”dass die Einheit des Systems und mit ihr alle Elemente, aus denen das System besteht, durch das System selbst produziert werden. Selbstverständlich ist dies nur auf der
Basis eines Materialkontinuums möglich … Selbstverständlich braucht solch ein Prozess Zeit…”(S.30)

Die Begriffe ’Materialkontinuum’ und ’Zeit’ verweisen auf eine empirische Umwelt, ohne die es beides nicht geben würde. Und obwohl er auf die ’Autonomie’ der Systeme abhebt, kommt er nicht umhin, festzustellen, ”… der Begriff der strukturellen Kopplung wird uns daran erinnern, dass das System laufend Irritationen aus der Umwelt registriert und zum Anlass nimmt, die eigenen Strukturen zu respezifizieren. (S. 30)

Solange man die ’Irritationen’, die durch eine strukturelle Kopplung hervorgerufen werden (Anmerkung: Beruhen diese ’Irritationen’ auf einer Kausalbeziehung?) , in der
Unbestimmtheit belässt, in der sie Luhmann präsentiert, spielen diese ’Irritationen’ keine ’inhaltlich fassbare’ Rolle. Eigentlich erscheinen sie überflüssig. Andererseits erwähnt Luhmann sie aber, weil sie irgendwo offensichtlich wichtig sind. In welchem Sinne sind sie wichtig? Von lebendigen Systemen wissen wir, dass diese Kopplungen für das System ’wesentlich’ sind (z.B. die Energiezufuhr einer eukaryotischen Zelle).

Man muss daher die Frage stellen, ob eine Systembeschreibung nicht so angelegt sein sollte, dass sie den für das System erheblichen Grund der strukturellen Kopplung für das System sichtbar machen sollte, so dass die weiteren ’Systemfunktionen’ auf der Basis der grundlegenden Struktur ’verständlich’ werden? Eine Systembeschreibung, die wesentliche Systemeigenschaften und Systemdynamiken von vornherein ausklammert wirkt ansonsten ein wenig ’willkürlich’, ’voreingenommen’, ’dogmatisch’. Diese
wissenschaftsphilosophische Kritik stellt damit nicht den Systembegriff als solchen in Frage, sondern nur eine spezielle Anwendung auf einen der Theoriebildung vorgelagerten Phänomenbereich.

Für Luhmann folgt aus seiner Verwendung des Systembegriffs, dass ”’lebende  Systeme’, ’Bewusstseinssysteme’ und ’Kommunikationssysteme’ verschiedenartige, getrennt operierende selbstreferentielle Systeme [sind]”.(S. 28). Damit sendet er ein klares Signal aus, dass er die möglicherweise gegebenen wichtigen strukturellen und funktionellen Zusammenhänge dieser identifizierten Systeme durch eine andere Verwendungsweise des Systembegriffs im Falle der angesprochenen Phänomene bewusst ausklammert.

Als methodisch motiviertes Gedankenexperiment kann eine solche begriffliche Anordnung Sinn machen, für die theoretische Rekonstruktion der erfahrbaren Wirklichkeit kann dieses Vorgehen aber in die Irre führen. Dies umso mehr, als Luhmann nirgendwo entscheidbare Kriterien etabliert hat, anhand deren man in minimaler Weise einen ’Erfolg’ oder ’Misserfolg’ seines Gedankenexperiments ablesen
könnte.

Das Beispiel lebender Systeme zeigt seit vielen Milliarden Jahren, dass Anpassungsprozesse nur durch das Wirken von sehr harten Kriterien funktionieren. Das harte Kriterium ist im Fall lebender Systeme die (i) Aufrechterhaltung eines Prozesses, dessen innere Logik in der (ii) individuellen Ausnutzung von freier Energie besteht, die in einer (iii) populationsweiten Abfolge von Systementwürfen (iv) die Population im Spiel hält. Das einzelne System ist hier eindeutig nur zu verstehen als ein Element einer größeren Population, die ein spezifisches Prozessmodell umsetzt. Man müsste in diesem Fall daher von vornherein einerseits (a) das System ’Population’ selektieren, das als Teil des Systems (b) ’Umwelt’ im Rahmen eines ’Prozesses’ den sowohl populären wie individuellen (c) ’Lebensprozess’ realisiert. Ferner wissen
wir heute, dass eine Population nicht ausreicht, sondern dass wir es mit einem (a*) ’Netzwerk von Populationen’ zu tun haben, die wechselseitig füreinander wichtige Funktionsleistungen erbringen. Will man diese Realität erfassen, dann kann man mit dem stark reduktionistischen Ansatz von Luhmann eigentlich nur scheitern.

Wohlgemerkt: das Problem ist nicht der Systembegriff als solcher, sondern die
Art seiner Anwendung auf eine empirisch vorhandene Realität.

2) Bewusstsein: Nach dem Vorausgehenden ist bekannt, dass Luhmann das Phänomen ’Bewusstsein’ als ein eigenständiges System selektiert hat. Er spricht im Fall des Bewusstseins auch von einem ’psychischen System’.(vgl. S.23) Entsprechend seiner allgemeinen Annahme zu Systemen kommt er dann zu Aussagen wie ”… psychische Systeme operieren selbstreferentiell-geschlossen und sind
füreinander unzugänglich…” (S. 23), oder auch ”Dem Verstehen psychischer Systeme … fehlt die für den Kommunikationsprozess notwendige Diskretheit. Psychisch gibt es hier kein entweder/oder. Genau das braucht aber der Kommunikationsprozess, um seine eigene Autopoiesis fortsetzen zu können. …Innere Unendlichkeit der psychischen Systeme…”(S. 26)

Neben den schon angemerkten eliminierenden Selektionen, die Luhmann zuvor schon vorgenommen hat, erscheint die Behauptung, dass es psychisch kein ’entweder/oder’ gibt gewagt, da ja (was Luhmann über viele Seiten schlicht ausklammert) das Bewusstsein sich gerade dadurch auszeichnet, dass grundlegend mindestens folgendes möglich ist. (i) die Unterscheidung von Bewusstseinsinhalten anhand von Eigenschaften; (ii) die Identifizierung des Unterschiedenen in der Unterscheidung, eben
die Eigenschaftskomplexe, die oft ’Phänomene’ genannt werden; (iii) die erlebbare ’Einheit’ trotz ’Unterscheidung’.

Das Bewusstsein erlebt     unterscheidbare Phänomene nicht nur einfach so, sondern z.B. diese Phänomene auch als Elemente in einem ’Raum’, der unhintergehbarer Bestandteil des Erlebens ist. Nur deshalb kann das Bewusstsein diese Elemente auch ’in Beziehung setzen’, hier in räumliche Beziehungen wie z.B. a ist ’über’ b oder a ist ’unter b’. Zum aktuellen Erleben gehört sogar die Befähigung, (iv) ’Aktuelles’ im Vergleich zu ’Erinnertem’ zu sehen, also in einer zeitlichen Relation. Das ’Gedächtnis’
als ’Quelle’ von Erinnerungen ist selbst zwar kein Bestandteil des Bewusstseins (ein eigenes strukturell gekoppeltes System), aber diese Kopplung zwischen Bewusstsein und Gedächtnis ist funktional so ausgelegt, dass das Gedächtnis die aktuellen Phänomene quasi simultan ’kommentiert’, unaufgefordert, aber kausal dazu genötigt.

Dies ist ein klarer Fall, in dem die strukturelle Kopplung auf der Ebene des Systems Bewusstsein zum Gedächtnis hin abgeschottet erscheint, aber auf der Ebene des Systems ’Gehirns’ sind sowohl Bewusstsein wie Gedächtnis Teilsysteme, die das System Gehirn so ’prozessiert’, dass Inhalte des Bewusstseins ’für das System Bewusstsein unsichtbar’ in das System ’Gedächtnis’ ’transportiert’ werden und umgekehrt. Für das Funktionieren des Systems Bewusstsein ist diese kausale
Maschinerie wesentlich!

Wenn Luhmann an anderer Stelle feststellt, dass ”das Bewusstsein an die neurophysiologischen Prozesse ’seines’ Organismus gekoppelt [ist] ohne sich diesen Prozessen anpassen zu können. Es kann sie nicht einmal wahrnehmen…”(S.29) dann nimmt er diesen fundamentalen Zusammenhang beiläufig zur Kenntnis, zieht daraus aber keine weiteren Konsequenzen für sein Gedankenexperiment. Die Realität des biologischen Systems Körper, in das das System Gehirn eingebettet ist, und darin Bewusstsein und Gedächtnis, ist aus der Sicht des Gesamtsystems Körper auf bestimmte Funktionen ausgelegt, für deren Erfüllung viele Teilsysteme zusammen arbeiten müssen. Im Fall Bewusstsein haben wir mindestens die Teilsysteme ’Wahrnehmung’, ’Gedächtnis’ und ’Bewusstsein’. Obwohl die Teilsysteme ’Wahrnehmung’ und ’Gedächtnis’ aus Sicht des Systems Bewusstsein strukturell so ’gekoppelt’ sind, dass das Bewusstsein keinen direkten Einfluss auf die kausal eingekoppelten Irritationen hat, sind diese Irritationen in Form
von Wahrnehmungsereignissen und Erinnertem für das Funktionieren des Bewusstseins wesentlich!

Luhmanns Verwendungsweise des Systembegriffs greift hier einfach zu kurz; er selektiert zu viele wichtige empirische Phänomene im Vorfeld, um seine Verwendungsweise ’passend’ zu machen. Seine Formulierung vom ’Gedächtnis’, ”… [das] nichts anderes [sei] als die Konsistenzprüfung in der jeweils aktuellen Operation, also Aktualisierung ihres jeweils nutzbaren Verweisungszusammenhangs)…” (S.31)
kann man zumindest so verstehen, als dass er weitergehende Funktionen des Gedächtnisses in Abrede stellt. Von der Psychologie wissen wir, dass das Gedächtnis erheblich mehr leistet als eine bloße ’Konsistenzprüfung’. Das Gedächtnis arbeitet kontinuierlich (auch ohne bewusste Anteile), selektiert, abstrahiert, assoziiert, bewertet, bildete Netzwerke, ändert, interpretiert durch ’ist-ein-Exemplar-von-
Struktur X’, und vieles mehr.

In diesen Zusammenhang passen auch die Bemerkungen Luhmanns zum Verhältnis von Sprache und Bewusstsein: ”Man wird vielleicht einwenden, dass das Bewusstsein ’sprachförmig denken’ könne. Gewiss! Aber solches Denken ist keine Kommunikation. Und wenn es für sich alleine läuft, sieht das Ergebnis ungefähr so aus …. Fast nimmt die Eigenproduktion von Worten und Satzstücken dann die Form von … fluktuierenden Wortwahrnehmungen an – befreit von jeder Rücksicht auf Verständlichkeit. Operativ besetzen und reproduzieren Wort- und Satzfetzen dann das Bewusstsein mit der Evidenz ihrer Aktualität, aber nur für den Moment”.(S. 32)

Diese Sätze beziehen ihre ’Wahrheit’ aus der vorausgehenden Selektion, dass die mögliche ’Bedeutung’ von Worten, der ’Sinn’ von Sätzen’ ausschließlich im System ’Kommunikation’ verortet ist (siehe unten im Text). Diese Selektion widerspricht aber nicht nur der Selbsterfahrung jeden Sprechers/ Hörers, sondern auch zahllosen empirischen Untersuchungen. Zwar hat Wittgenstein in seiner späteren Phase alles getan, um die Idee zu kommunizieren, dass die Bedeutung sprachlicher Äußerungen sich ausschließlich durch die Beobachtung der ’Verwendung’ dieser Äußerungen im ’Kontext’ erschließen lasse, aber jede nähere Analyse kann schnell zeigen, dass diese Annahme nur so lange funktioniert, wie man den Begriff ’beobachten’ und den vorausgesetzten ’Beobachter’ mehr oder weniger ’neutralisiert’.

Es ist zwar richtig, dass man die Verwendungsweise von sprachlichen Ausdrücken im Kontext ’beobachten’ kann, aber sobald man zu ergründen versucht, warum ein Sprecher-Hörer ein Umgebungsmerkmal mit einer bestimmten sprachlichen Äußerung  verknüpft oder umgekehrt bei Hören einer bestimmten sprachlichen Äußerung auf ein bestimmtes Umgebungsmerkmal verweist, wird man feststellen, dass ohne die Annahme einer entsprechenden ’Kodierung’ dieser Beziehungen zwischen
’Ausdruck’ und ’Umgebungseigenschaften’ (es gibt ja auch Bedeutungsverweise auf Sachverhalte, die nicht in der aktuellen Situation präsent sind!) ’im’ jeweiligen Sprecher-Hörer kein einziges Sprachspiel  funktioniert. (Anmerkung: Eine Erfahrung, die die ersten Sprachlernexperimente mit Robotern sehr schnell offen gelegt haben!)

Mit der Annahme der Verortung der fundamentalen Kodierungen von Ausdrücken und Gemeintem ’im’ Beobachter, im Akteur – und zwar primär im Gedächtnis und darüber indirekt im Bewusstsein – ist die Feststellung Luhmanns, dass sowohl ”die  Zeichenhaftigkeit der Mitteilung als auch die Information selbst … nicht als Bewusstseinsoperationen in das System, nicht als Wissen eines psychischen
Systems, das vorher da ist, dann in die Kommunikation eingegeben werden…” (vgl.S. 24) dann tendenziell irreführend. Natürlich kann die Kodierung im Bewusstsein (Gedächtnis) als solche nicht in die Kommunikation gelangen, aber das Auftreten von Worten in der Kommunikation setzt die Verfügbarkeit der zugrunde liegenden Kodierungen in den Bewusstseinen (bzw. Gedächtnissen) der beteiligten
Kommunikationsteilnehmer voraus! Das Konzept einer Kommunikation als eigenständiges System, das ohne Rückgriff auf die beteiligten Bewusstseins-Systeme ’Informationen’ transportieren könnte, ist buchstäblich ’haltlos’: die Worte und Wortfolgen als Kommunikationseinheiten funktionieren ’zwischen’ Bewusstseins-System semantisch nur unter simultaner Voraussetzung der individuell verankerten
Kodierungen. Nur unter dieser Voraussetzung ist es verstehbar, dass Kommunikationseinheiten, die gekoppelt ein Bewusstsein irritieren können, dies nicht unspezifisch tun, sondern unter Voraussetzung der semantischen Kodierung aufgrund der Kommunikationseinheiten dann Bedeutungsnetzwerke im angekoppelten Bewusstsein aktivieren, die z.B. im jeweiligen Bewusstsein bestimmte Erwartungen
auslösen können. (siehe dazu S.33)

3) Kommunikation: Obwohl im vorausgehenden Abschnitt verschiedentlich deutlich wurde, dass eine Abgrenzung von ’Bewusstsein’ gegenüber ’Kommunikation’ und umgekehrt im Sinne der Systemtheorie nur bedingt funktioniert, versucht Luhmann dennoch auch die Kommunikation als eigenständiges System zu konzipieren.

Für Luhmann besitzt das System ’Kommunikation’ seine Referenz in der ”Kommunikation im sozialen System der Gesellschaft”(S. 31). Es ist nicht der ’Mensch’, der kommuniziert, sondern ”nur die Kommunikation kann kommunizieren” (S. 31). Die ”Kommunikation ist ein operativ selbständiges System. Die Erzeugung von Kommunikation aus Kommunikation ist ein selbstreferentieller Prozess.”(S.24) ”Jede
Kommunikation erzeugt von Moment zu Moment… eine eigene  Nachfolgekommunikation.”( S. 31f) Oder: ”Wenn Kommunikation in Gang kommt, bildet sie ein eigenes autopoietisches System mit eigenen rekursiv vernetzten Operationen, das sich auf die Fähigkeit des Bewusstseins zur Transparenz auf der Grundlage von Intransparenz verlassen kann.”(S. 26)

Diese Formulierungen wirken sehr ’scholastisch’ in dem Sinne, dass hier der Eindruck erweckt wird, als ob es nur darum geht, die formalen Anforderungen einer Systemtheorie zu erfüllen, ohne Rücksicht auf die Phänomene selbst. Zu sagen, dass es nicht der Mensch sei, der kommuniziert, sondern die Kommunikation selbst, klingt formal korrekt, wenn man einen bestimmten Systembegriff voraus setzt, aber berücksichtigt man den zuvor hervorgehobenen Sachverhalt, dass die Kodierung von sprachlichen Ausdrücken mit potentiell ’Gemeintem’ nur jeweils in den beteiligten Bewusstseins-Systemen vorliegen kann, und deswegen auch nur diese mögliche ’Informationen’ der Kommunikation aktualisieren können, dann macht es so recht keinen Sinn, zu sagen, nur die Kommunikation ’kommuniziere’. Das System
’Kommunikation’ erscheint eher als ein ’Sub-System’ der agierenden Bewusstseins-Systeme, die je nach interner Konstellation unterschiedliche Kommunikationselemente aktivieren, deaktivieren, verändern.

Vor diesem Hintergrund macht die Formulierung ”Was als Verstehen erreicht ist, wird daher im Kommunikationsprozess souverän entschieden und als Bedingung fürs Weitermachen bzw. für klärende Zwischenkommunikation markiert….”(S.26) nur Sinn, wenn sowohl das ’Verstehen’ wie auch das ’Entscheiden zum Weitermachen’ im Bewusstseins-System verortet ist. Die Kommunikationselemente als solche bieten keinerlei Anknüpfungspunkte weder für Verstehen noch für Entscheiden.

Es ist dann schon merkwürdig, wenn Luhmann einerseits registriert, dass es bei Kommunikation einen ’Übertragungseffekt’ gibt, der ”System und Umwelt von Moment zu Moment [koordiniert]”, aber es dann als ”eine offene Frage” ansieht, ”wie weit das psychisch gehen muss”. Allerdings schließt er aus, dass diese Koordinierung weder zum ”Bewusstseinsinhalt noch zum Mitteilungsinhalt” wird.(vgl.S.27) Würde Luhmann die empirische Verankerung der semantischen Kodierung in den beteiligten
Kommunikationsteilnehmern akzeptieren, dann wäre klar, dass  Kommunikationsereignisse über die strukturelle Kopplung bewusstseinsrelevant werden würden, sie würden im einzelnen Bewusstsein als ’Mitteilung’ dekodiert.

Durch die Strategie der Ausklammerung des individuellen Bewusstseins aus dem Kommunikationsprozess reißt Luhmann mutwillig eine Lücke auf; plötzlich gibt es keinen wirklichen Adressaten mehr in der Kommunikation. Luhmann versucht dieses ’Loch’ dadurch zu ’stopfen’, dass er den alten ’Persona’-Begriff für seine Zwecke reaktiviert: ”Personen können Adressen für Kommunikation sein… Sie können als Aufzeichnungsstellen vorausgesetzt werden…als Zurechnungspunkte für  Kausalannahmen…All das … ohne jede determinierende Auswirkung auf Bewusstseinsprozesse.”(S. 34)

Immerhin denkt Luhmann sein formales System-Konzept auf seine Weise konsequent.
Abgekoppelt vom System Bewusstsein stellt sich die Frage, was denn dann  Kommunikation überhaupt noch ’tut’. Luhmann bezieht eine klare Position: ”Jenseits der psychischen Systeme differenziert und synthetisiert Kommunikation ihre eigenen Komponenten ’Information’, ’Mitteilung’ und ’Verstehen’.”(S.24) ”Die Mitteilung wird als ’Zeichen’ für eine ’Information’ genommen.”(S. 24) ”Mitteilung und Kommunikation
werden in der Kommunikation ’aufgebaut’, ’abgebaut’, ’aktualisiert’, evtl. ’aufgezeichnet’, ’evtl. erneut ’thematisiert’.(S.24)

Unterstellt man, dass Luhmann mit ’Mitteilung’ die Ausdruckselemente (einer Sprache) sieht, mittels deren Kommunikation ’realisiert’ wird, und mittels denen dann auf eine mögliche ’Information’ ’hingewiesen’ wird, die dann wiederum ein ’Verstehen’ implizieren können, dann verheddert sich diese Interpretation wieder mit den empirischen Fakten einer im Bewusstsein-System verorteten semantischen Kodierung (Anmerkung:   Luhmann verwendet an dieser Stelle den Begriff ’Information’ völlig losgelöst von Shannon (1948) [Sha48]. Er stellt aber auch nicht sicher, wie er die ‚Referenz‘ seines Begriffs ‚Information‘ sieht.).

In diesem Zusammenhang ist auch die Feststellung von Luhmann ”Die Kommunikation teilt die Welt nicht mit, sie teilt sie ein in das, was sie mitteilt und das, was sie nicht mitteilt” (S.27) formal korrekt für seine Systemannahmen, aber mit Blick auf die Empirie und ein Systemkonzept, was die semantische Kodierung berücksichtigt, eher fragwürdig. Die ’Kommunikation’ ist für Bewusstseins-Systeme mit semantischer
Kodierung nur eine ’für sich genommen’ bedeutungslose Ereigniskette, deren Elementgrenzen nur dann und insoweit etwas ’bedeuten’, als sie durch Verbindung mit einer semantischen Kodierung virtualisierte Weltbezüge aktivieren und durch die Art ihrer Anordnung diese virtualisierten Weltbezüge ’einteilen’ und ’anordnen’. Da die individuellen semantischen Kodierungen untereinander variieren können, kann der
gleiche Strom von Kommunikationsereignissen bei den Beteiligten ganz unterschiedliche Reaktionen auslösen.

QUELLEN

  • [Bro72] G.Spencer Brown. Laws of Form. The Julian Press, Inc., New York, 1 edition, 1972. Originally published London, 1969).
  • [Luh91] Niklas Luhmann. Die Wissenschaft der Gesellschaft. Suhrkamp, Frankfurt, 2 edition, 1991.
  • [Sha48] C.E. Shannon. A mathematical theory of communication. The Bell System Technical Journal, 27:379–423, 623–656,
    1948. July and October 1948.
  • [Whi10] Randall Whitaker. THE OBSERVER WEB: Autopoiesis and Enaction. The Biology of Cognition, Autopoietic Theory, and Enactive Cognitive Science. The Theories of Humberto Maturana and Francisco Varela. Dr. Randall Whitaker, 1 edition,
    2010.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 5 – neu – Version 2

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 27.August 2015
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll.

Was ist Leben?

Erst die Erde

Etwa 9.2 Mrd Jahre nach dem sogenannten Big Bang kam es zur Entstehung unseres Sonnensystems mit der Sonne als wichtigstem Bezugspunkt. Nur ca. 60 Mio Jahre später gab es unsere Erde. Die Zeitspanne, innerhalb der Spuren von Leben auf der Erde bislang identifiziert wurden, liegt zwischen -4 Mrd Jahre von heute zurück gerechnet bis ca. -3.5 Mrd Jahre. Oder, vom Beginn der Erde aus gesehen, ca. 540 Mio Jahre bis ca. 1 Mrd Jahre nach der Entstehung der Erde.

Alte Bilder vom Leben

Wenn man vom Leben spricht, von etwas Belebtem im Gegensatz zum Unbelebtem, fragt man sich sofort, wie man ‚Leben‘ definieren kann? In der zurückliegenden Geschichte gab es viele Beschreibungs- und Definitionsversuche. Einer, der heute noch begrifflich nachwirkt, ist die Sicht der Philosophie der Antike (ca. -600 bis 650) . Hier wurde das ‚Atmen‘ (gr. ‚pneo‘) als charakteristisches Merkmal für ‚Lebendiges‘ genommen, wodurch es vom ‚Unbelebtem‘ abgegrenzt wurde. Aus dem ‚Atmen‘ wurde zugleich ein allgemeines Lebensprinzip abgeleitet, das ‚Pneuma‘ (im Deutschen leicht missverständlich als ‚Geist‘ übersetzt, im Lateinischen als ’spiritus‘), das sich u.a. im Wind manifestiert und ein allgemeines kosmologisches Lebensprinzip verkörpert, das sowohl die Grundlage für die psychischen Eigenschaften eines Lebewesens bildet wie auch für seine körperliche Lebendigkeit. In der Medizin gab es vielfältige Versuche, das Pneuma im Körper zu identifizieren (z.B. im Blut, in der Leber, im Herzen, im Gehirn und den Nerven). Im philosophischen Bereich konnte das Pneuma ein heißer Äther sein, der die ganze Welt umfasst. Eine andere Auffassung sieht das Pneuma zusammengesetzt aus Feuer und Luft, woraus sich alle Körper der Welt bilden. Das Pneuma wird auch gesehen als die ‚Seele‘, die allein das Leben des Körpers ermöglicht. Bei den Stoikern wird das Pneuma-Konzept zum allumfassenden Begriff einer Weltseele gesteigert. Mit der Zeit vermischte sich der Pneuma-Begriff mit dem Begriff ’nous‘ (Kurzform für ’noos‘)(Englisch als ‚mind‘ übersetzt; Deutsch ebenfalls als ‚Geist‘), um darin die kognitiv-geistige Dimension besser auszudrücken. Weitere einflussreiche begriffliche Koordinierungen finden statt mit dem lateinischen ‚mens‘ (Deutsch auch übersetzt mit ‚Geist‘) und dem hebräischen ‚ruach‘ (im Deutschan ebenfalls mit ‚Geist‘ übersetzt; bekannt in der Formulierung ‚Der Geist Gottes (= ‚ruach elohim‘) schwebte über den Wassern‘; in der Septuaginta, der griechischen Übersetzung der hebräischen Bibel, heißt es ‚pneuma theou‘ (= der Geist Gottes)) (Anmerkung: Diese Bemerkungen sind ein kleiner Extrakt aus der sehr ausführlichen begriffsgeschichtlichen Herleitung in Sandkühler 2010)

Die Zelle im Fokus

War es für die antiken Philosophen, Mediziner und Wissenschaftler noch praktisch unmöglich, die Frage nach den detaillierten Wirkprinzipien des ‚Lebens‘ genauer zu beantworten, erarbeitete sich die moderne Naturwissenschaft immer mehr Einsichten in die Wirkprinzipien biologischer Phänomene (bei Tieren, Pflanzen, Mikroben, molekularbiologischen Sachverhalten), so dass im Laufe des 20.Jahrhunderts klar wurde, dass die Gemeinsamkeit aller Lebensphänomene auf der Erde in jener Superstruktur zu suchen ist, die heute (biologische) Zelle genannt wird.

Alle bekannten Lebensformen auf der Erde, die mehr als eine Zelle umfassen (wir als Exemplare der Gattung homo mit der einzigen Art homo sapiens bestehen aus ca. 10^13 vielen Zellen), gehen zu Beginn ihrer körperlichen Existenz aus genau einer Zelle hervor. Dies bedeutet, dass eine Zelle über alle notwendigen Eigenschaften verfügt, sich zu reproduzieren und das Wachstum eines biologischen Systems zu steuern.

So enthält eine Zelle (Anmerkung: Für das Folgende benutze ich B.Alberts et.al (2008)) alle Informationen, die notwendig sind, um sowohl sich selbst zu organisieren wie auch um sich zu reproduzieren. Die Zelle operiert abseits eines chemischen Gleichgewichts, was nur durch permanente Aufnahme von Energie realisiert werden kann. Obwohl die Zelle durch ihre Aktivitäten die Entropie in ihrer Umgebung ‚erhöht‘, kann sie gegenläufig durch die Aufnahme von Energie auch Entropie verringern. Um einen einheitlichen Prozessraum zu gewährleisten, besitzen Zellen eine Membran, die dafür sorgt, dass nur bestimmte Stoffe in die Zelle hinein- oder herauskommen.

Keine Definition für außerirdisches Leben

Obgleich die Identifizierung der Zelle samt ihrer Funktionsweise eine der größten Errungenschaften der modernen Wissenschaften bei der Erforschung des Phänomens des Lebens darstellt, macht uns die moderne Astrobiologie darauf aufmerksam, dass eine Definition der Lebensphänomene mit Einschränkung des Blicks auf die speziellen Bedingungen auf der Erde nicht unproblematisch ist. Wunderbare Bücher wie „Rare Earth“ von Peter Douglas Ward (Geboren 1949) und Donald Eugene Brownlee (Geboren 1943) „ASTROBIOLOGY. A Multidisciplinary Approach“ von Jonathan I.Lunine (Geb. 1959) machen zumindest sichtbar, wo die Probleme liegen könnten. Lunine diskutiert in Kap.14 seines Buches die Möglichkeit einer allgemeineren Definition von Leben explizit, stellt jedoch fest, dass es aktuell keine solche eindeutige allgemeine Definition von Leben gibt, die über die bekannten erdgebundenen Formen wesentlich hinausgeht. (Vgl. ebd. S.436)

Schrödingers Vision

Wenn man die Charakterisierungen von Leben bei Lunine (2005) in Kap.14 und bei Alberts et.al (2008) in Kap.1 liest, fällt auf, dass die Beschreibung der Grundstrukturen des Lebens trotz aller Abstraktionen tendenziell noch sehr an vielen konkreten Eigenschaften hängen.

Erwin Rudolf Josef Alexander Schrödinger (1887-1961), der 1944 sein einflussreiches Büchlein „What is Life? The Physical Aspect of the Living Cell“ veröffentlichte, kannte all die Feinheiten der modernen Molekularbiologie noch nicht . Schrödinger unterzog das Phänomen des Lebens einer intensiven Befragung aus Sicht der damaligen Physik. Auch ohne all die beeindruckenden Details der neueren Forschung wurde ihm klar, dass das hervorstechendste Merkmal des ‚Biologischen‘, des ‚Lebendigen‘ die Fähigkeit ist, angesichts der physikalisch unausweichlichen Zunahme der Entropie einen gegensätzlichen Trend zu realisieren; statt wachsender Unordnung als Entropie diagnostizierte er eine wachsende Ordnung als negative Entropie, also als etwas, was der Entropie entgegen wirkt.

Diesen Gedanken Schrödingers kann man weiter variieren und in dem Sinne vertiefen, dass der Aufbau einer Ordnung Energie benötigt, mittels der Freiheitsgrade eingeschränkt und Zustände temporär ‚gefestigt‘ werden können.

Fragt sich nur, warum?

Alberts et.al (2008) sehen das Hauptcharakteristikum einer biologischen Zelle darin, dass sie sich fortpflanzen kann, und nicht nur das, sondern dass sie sich selbstmodifizierend fortpflanzen kann. Die Realität biologischer Systeme zeigt zudem, dass es nicht nur um ‚irgendeine‘ Fortpflanzung ging, sondern um eine kontinuierlich optimierende Fortpflanzung.

Metastrukturen

Nimmt man diese Eckwerte ernst, dann liegt es nahe, biologische Zellen als Systeme zu betrachten, die einerseits mit den reagierenden Molekülen mindestens eine Objektebene [O] umfasst und in Gestalt der DNA eine Art Metaebene [M]; zwischen beiden Systemen lässt sich eine geeigneten Abbildung [R] in Gestalt von Übersetzungsprozessen realisieren, so dass die Metaebene M mittels Abbildungsvorschrift R in eine Objektebene O übersetzt werden kann ($latex R: M \longmapsto O$). Damit eine Reproduktion grundsätzlich gelingen kann, muss verlangt werden, dass das System mit seiner Struktur ‚lang genug‘ stabil ist, um solch einen Übersetzungsprozess umsetzen zu können. Wie diese Übersetzungsprozesse im einzelnen vonstatten gehen, ist letztlich unwichtig. Wenn in diesem Modell bestimmte Strukturen erstmals realisiert wurden, dann fungieren sie als eine Art ‚Gedächtnis‘: alle Strukturelemente von M repräsentieren potentielle Objektstrukturen, die jeweils den Ausgangspunkt für die nächste ‚Entwicklungsstufe‘ bilden (sofern sie nicht von der Umwelt ‚aussortiert‘ werden).

Die Rolle dieser Metastrukturen lässt sich letztlich nicht einfach mit den üblichen chemischen Reaktionsketten beschreiben; tut man es dennoch, verliert man die Besonderheit des Phänomens aus dem Blick. Eine begriffliche Strategie, um das Phänomen der ‚wirkenden Metastrukturen‘ in den Griff zu bekommen, war die Einführung des ‚Informationsbegriffs‘.

Information

Grob kann man hier mindestens die folgenden sprachlichen Verwendungsweisen des Begriffs ‚Information‘ im Kontext von Informationstheorie und Molekularbiologie unterscheiden:

  1. Unreflektiert umgangssprachlich (‚Information_0‘)
  2. Anhand des Entscheidungsaufwandes (Bit) (‚Information_1‘)
  3. Rein statistisch (a la Shannon 1948) (‚Information_2‘)
  4. Semiotisch informell (ohne die Semiotik zu zitieren) (‚Semantik_0‘)
  5. Als komplementär zur Statistik (Deacon) (‚Semantik_1‘)
  6. Als erweitertes Shannonmodell (‚Semantik_2‘)

Information_0

Die ‚unreflektiert umgangssprachliche‘ Verwendung des Begriffs ‚Information‘ (hier: ‚Information_0‘) brauchen wir hier nicht weiter zu diskutieren. Sie benutzt den Begriff Information einfach so, ohne weitere Erklärungen, Herleitungen, Begründungen. (Ein Beispiel Küppers (1986:41ff))

Information_1

Die Verwendung des Begriffs Information im Kontext eines Entscheidungsaufwandes (gemessen in ‚Bit‘), hier als ‚Information_1‘ geht auf John Wilder Tukey (1915-2000) zurück.

Information_2

Shannon (1948) übernimmt zunächst diesen Begriff Information_1, verzichtet dann aber im weiteren Verlauf auf diesen Informationsbegriff und führt dann seinen statistischen Informationsbegriff ein (hier: ‚Information_2‘), der am Entropiekonzept von Boltzmann orientiert ist. Er spricht dann zwar immer noch von ‚Information‘, bezieht sich dazu aber auf den Logarithmus der Wahrscheinlichkeit eines Ereignisses, was alles und jedes sein kann. Ein direkter Bezug zu einem ’speziellen‘ Informationsbegriff (wie z.B. Information_1) besteht nicht. Man kann die logarithmierte Wahrscheinlichkeit eines Ereignisses als ‚Information‘ bezeichnen (hier: ‚Information_2‘), aber damit wird der Informationsbegriff inflationär, dann ist alles eine Information, da jedes Ereignis mindestens eine Wahrscheinlichkeit besitzt. (Leider benutzt auch Carl Friedrich von Weizsäcker (1971:347f) diesen inflationären Begriff (plus zusätzlicher philosophischer Komplikationen)). Interessanterweise ist es gerade dieser inflationäre statistische Informationsbegriff Information_2, der eine sehr starke Resonanz gefunden hat.

Semantik 0

Nun gibt es gerade im Bereich der Molekularbiologie zahlreiche Phänomene, die bei einer Beschreibung mittels eines statistischen Informationsbegriffs wichtige Momente ihres Phänomens verlieren. (Dazu eine kleine Übersicht bei Godfrey-Smith, Kim Sterelny (2009)) Ein Hauptkritikpunkt war und ist das angebliche Fehlen von Bedeutungselementen im statistischen Modell von Shannon (1948). Man spricht auch vom Fehlen einer ‚Semantik‘. Allerdings wird eine Diskussion der möglichen Bedeutungsmomente von Kommunikationsereignissen unter Verwendung des Begriffs ‚Semantik‘ auch oft unreflektiert alltagssprachlich vorgenommen (hier: Semantik_0′), d.h. es wird plötzlich von Semantik_0 gesprochen (oft noch erweitert um ‚Pragmatik‘), ohne dass die Herkunft und Verwendung dieses Begriffs in der Wissenschaft der Semiotik weiter berücksichtigt wird. (Ein Beispiel für solch eine verwirrende Verwendungsweise findet sich z.B. wieder bei Weizsäcker (1971:350f), wo Information_0, Information_2 sowie Semantik_0 miteinander frei kombiniert werden, ohne Berücksichtigung der wichtigen Randbedingungen ihrer Verwendung; ganz ähnlich Küppers (1986:61ff); zur Semiotik siehe Noeth (2000)). Ein anderes neueres Beispiel ist Floridi (2015:Kap.3+4) Er benutzt zwar den Begriff ‚Semantik‘ extensiv, aber auch er stellt keinen Bezug zur semiotischen Herkunft her und verwendet den Begriff sehr speziell. Seine Verwendung führt nicht über den formalen Rahmen der statistischen Informationstheorie hinaus.

Semantik 1

Sehr originell ist das Vorgehen von Deacon (2007, 2008, 2010). Er diagnostiziert zwar auch einen Mangel, wenn man die statistische Informationstheorie von Shannon (1948) auf biologische Phänomene anwenden will, statt sich aber auf die schwierige Thematik einer expliziten Semantik einzulassen, versucht er über die Ähnlichkeit des Shannonschen statistischen Informationsbegriffs mit dem von Boltzmann einen Anschluss an die Thermodynamik zu konstruieren. Von dort zum Ungleichgewicht biologischer Systeme, die durch Arbeit und Energieaufnahme ihr Gleichgewicht zu halten versuchen. Diese Interaktionen des Systems mit der Umgebung modifizieren die inneren Zustände des Systems, die wiederum dann das Verhalten des Systems ‚umweltgerecht‘ steuern. Allerdings belässt es Deacon bei diesen allgemeinen Annahmen. Die ‚Abwesenheit‘ der Bedeutung im Modell von Shannon wird über diese frei assoziierten Kontexte – so vermutet man als Leser – mit den postulierten internen Modifikationen des interagierenden Systems begrifflich zusammengeführt. Wie dies genau gedacht werden kann, bleibt offen.

Semantik 2

So anregend die Überlegungen von Deacon auch sind, sie lassen letztlich offen, wie man denn – auch unter Berücksichtigung des Modells von Shannon – ein quasi erweitertes Shannonmodell konstruieren kann, in dem Bedeutung eine Rolle spielt. Hier eine kurze Skizze für solch ein Modell.

Ausgehend von Shannons Modell in 1948 besteht die Welt aus Sendern S, Empfängern D, und Informationskanälen C, über die Sender und Empfänger Signale S eingebettet in ein Rauschen N austauschen können (<S,D,S,N,C> mit C: S —> S x N).

Ein Empfänger-Sender hat die Struktur, dass Signale S in interne Nachrichten M dekodiert werden können mittels R: S x N —> M. Umgekehrt können auch Nachrichten M in Signale kodiert werden mit T: M —> S. Ein minimaler Shannon Sender-Empfänger hat dann die Struktur <M, R, T>. So gesehen funktionieren R und T jeweils als ‚Schnittstellen‘ zwischen dem ‚Äußeren‘ und dem ‚Inneren‘ des Systems.

In diesem minimalen Shannonmodell kommen keine Bedeutungen vor. Man kann allerdings annehmen, dass die Menge M der Nachrichten eine strukturierte Menge ist, deren Elemente Paare der Art (m_i,p_i) in M mit ‚m_i‘ als Nachrichtenelement und ‚p_i‘ als Wahrscheinlichkeit, wie oft dieses Nachrichtenelement im Kanal auftritt. Dann könnte man Shannons Forml H=-Sum(p_i * log2(p_i)) als Teil des Systems auffassen. Das minimale Modell wäre dann <M, R, T, H>.

Will man ‚Bedeutungen‘ in das System einführen, dann muss man nach der Semiotik einen Zeichenbegriff für das System definieren, der es erlaubt, eine Beziehung (Abbildung) zwischen einem ‚Zeichenmaterial‚ und einem ‚Bedeutungsmaterial‚ zu konstruieren. Nimmt man die Signale S von Shannon als Kandidaten für ein Zeichenmaterial, fragt sich, wie man das Bedeutungsmaterial B ins Spiel bringt.

Klar ist nur, dass ein Zeichenmaterial erst dann zu einem ‚Zeichen‘ wird, wenn der Zeichenbenutzer in der Lage ist, dem Zeichenmaterial eine Bedeutung B zuzuordnen. Eine einfache Annahme wäre, zu sagen, die dekodierten Nachrichten M bilden das erkannte Zeichenmaterial und der Empfänger kann dieses Material irgendwelchen Bedeutungen B zuordnen, indem er das Zeichenmaterial M ‚interpretiert‚, also I : M —> B. Damit würde sich die Struktur erweitern zu <B, M, R, T, H, I>. Damit nicht nur ein Empfänger ‚verstehen‘ kann, sondern auch ‚mitteilen‘, müsste der Empfänger als Sender Bedeutungen auch wieder ‚umgekehrt lesen‘ können, also -I: B —> M. Diese Nachrichten könnten dann wieder mittels T in Signale übersetzt werden, der Kanal sendet diese Signale S angereichert mit Rauschen N zum Empfänger, usw. Wir erhalten also ein minimal erweitertes Shannon Modell mit Bedeutung als <B, M, R, T, H, I, -I>. Ein Sender-Empfänger kann also weiterhin die Wahrscheinlichkeitsstruktur seiner Nachrichten auswerten; zusätzlich aber auch mögliche Bedeutungsanteile.

Bliebe als Restfrage, wie die Bedeutungen B in das System hineinkommen bzw. wie die Interpretationsfunktion I entsteht?

An dieser Stelle kann man die Spekulationen von Deacon aufgreifen und als Arbeitshypothese annehmen, dass sich die Bedeutungen B samt der Interpretationsbeziehung I (und -I) in einem Adaptionsprozess (Lernprozess) in Interaktion mit der Umgebung entwickeln. Dies soll an anderer Stelle beschrieben werden.

Für eine komplette Beschreibung biologischer Phänomene benötigt man aber noch weitere Annahmen zur Ontogense und zur Phylogense. Diese seien hier noch kurz skizziert. (Eine ausführliche formale Darstellung wird anderswo nachgeliefert).

Ontogenese

Von der Lernfähigkeit eines biologischen Systems muss man die Ontogenese unterscheiden, jenen Prozess, der von der Keimzelle bis zum ausgewachsenen System führt.

Die Umsetzung der Ontogenese in einem formalen Modell besteht darin, einen Konstruktionsprozess zu definieren, das aus einem Anfangselement Zmin das endgültige System Sys in SYS erstellen würde. Das Anfangselement wäre ein minimales Element Zmin analog einer befruchteten Zelle, das alle Informationen enthalten würde, die notwendig wären, um diese Konstruktion durchführen zu können, also Ontogenese: Zmin x X —> SYS. Das ‚X‘ stünde für alle die Elemente, die im Rahmen einer Ontogenese aus der Umgebung ENV übernommen werden müssten, um das endgültige system SYS = <B, M, R, T, H, I, -I> zu konstruieren.

Phylogenese

Für die Reproduktion der Systeme im Laufe der Zeiten benötigte man eine Population von Systemen SYS, von denen jedes System Sys in SYS mindestens ein minimales Anfangselement Zmin besitzt, das für eine Ontogenese zur Verfügung gestellt werden kann. Bevor die Ontogenese beginnen würde, würden zwei minimale Anfangselemente Zmin1 und Zmin2 im Bereich ihrer Bauanleitungen ‚gemischt‘. Man müsste also annehmen, dass das minimale System um das Element Zmin erweitert würde SYS = <B, M, Zmin, R, T, H, I, -I>.

Erstes Zwischenergebnis

Auffällig ist also, dass das Phänomen des Lebens

  1. trotz Entropie über dynamische Ungleichgewichte immer komplexere Strukturen aufbauen kann.
  2. innerhalb seiner Strukturen immer komplexere Informations- und Bedeutungsstrukturen aufbaut und nutzt.

So wie man bislang z.B. die ‚Gravitation‘ anhand ihrer Wirkungen erfasst und bis heute erfolglos zu erklären versucht, so erfassen wir als Lebende das Leben anhand seiner Wirkungen und versuchen bis heute auch erfolglos, zu verstehen, was hier eigentlich passiert. Kein einziges physikalisches Gesetzt bietet auch nur den leisesten Anhaltspunkt für dieses atemberaubende Geschehen.

In dieser Situation den Menschen als eine ‚vermutlich aussterbende Art‘ zu bezeichnen ist dann nicht einfach nur ‚gedankenlos‘, sondern im höchsten Maße unwissenschaftlich, da es letztlich einer Denkverweigerung nahe kommt. Eine Wissenschaft, die sich weigert, über die Phänomene der Natur nachzudenken, ist keine Wissenschaft.

Fortsetzung Folgt.

QUELLEN

  1. H.J. Sandkühler (Hg.), 2010, „Enzyklopädie Philosophie“, Hamburg: Felix Meiner Verlag, Band 1: Von A bis H, Kapitel: Geist, SS.792ff
  2. B.Alberts et.al (Hg.), 2008, „Molecular Biology of the CELL“, Kap.1, 5.Aufl., New York: Garland Science, Taylor & Francis Group
  3. Peter Douglas Ward und `Donald Eugene Brownlee (2000),“Rare Earth: Why Complex Life Is Uncommon in the Universe“, New York: Copernikus/ Springer,
  4. Jonathan I.Lunine (2005), „ASTROBIOLOGY. A Multidisciplinary Approach“, San Francisco – Boston – New York et al.: Pearson-Addison Wesley
  5. Zu Schroedinger 1944: Based on Lectures delivered under the auspices of the Institute at Trinity College, Dublin, in February 1943, Cambridge: University Press. 1944. Ich selbst habe die Canto Taschenbuchausgabe der Cambridge University von 1992 benutzt. Diese Ausgabe enthält ‚What is Life?‘, ‚Mind from Matter‘, sowie autobiographischen Angaben und ein Vorwort von Roger Penrose
  6. Anmerkung zu Schroedinger 1944: Sowohl James D. Watson (2003) wie auch ähnlich Francis Crick (1990) berichten, dass Schrödingers Schrift (bzw. einer seiner Vorträge) sie für ihre Erforschung der DNA stark angeregt hatte.
  7. James D.Watson und A.Berry(2003), „DNA, the Secret of Life“, New York: Random House
  8. Francis Crick (1990),„What Mad Pursuit: A Personal View of Scientific Discovery“, Reprint, Basic Books
  9. Peter Godfrey-Smith und Kim Sterelny (2009) Biological Information“, in: Stanford Enyclopedia of Philosophy
  10. Carl Friedrich von Weizsäcker (1971), „Die Einheit der Natur“, München: Carl Hanser Verlag
  11. Bernd-Olaf Küppers (1986), „Der Ursprung biologischer Information. Zur Naturphilosophie der Lebensentstehung“, München – Zürich: Piper Verlag.
  12. Claude E. Shannon, A mathematical theory of communication. Bell System Tech. J., 27:379-423, 623-656, July, Oct. 1948
  13. Claude E. Shannon; Warren Weaver (1949) „The mathematical theory of communication“. Urbana – Chicgo: University of Illinois Press.
  14. Noeth, W., Handbuch der Semiotik, 2. vollst. neu bearb. und erw. Aufl. mit 89 Abb. Stuttgart/Weimar: J.B. Metzler, xii + 668pp, 2000
  15. Luciano Floridi (2015) Semantic Conceptions of Information, in: Stanford Enyclopedia of Philosophy
  16. Deacon, T. (2007), Shannon-Boltzmann-Darwin: Redfining information. Part 1. in: Cognitive Semiotics, 1: 123-148
  17. Deacon, T. (2008), Shannon-Boltzmann-Darwin: Redfining information. Part 2. in: Cognitive Semiotics, 2: 167-194
  18. Terrence W.Deacon (2010), „What is missing from theories of information“, in: INFORMATION AND THE NATURE OF REALITY. From Physics to Metaphysics“, ed. By Paul Davies & Niels Henrik Gregersen, Cambridge (UK) et al: Cambridge University Press, pp.146 – 169

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 5-neu

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll.

Was ist Leben?

Erst die Erde

Etwa 9.2 Mrd Jahre nach dem sogenannten Big Bang kam es zur Entstehung unseres Sonnensystems mit der Sonne als wichtigstem Bezugspunkt. Nur ca. 60 Mio Jahre später gab es unsere Erde. Die Zeitspanne, innerhalb der Spuren von Leben auf der Erde bislang identifiziert wurden, liegt zwischen -4 Mrd Jahre von heute zurück gerechnet bis ca. -3.5 Mrd Jahre. Oder, vom Beginn der Erde aus gesehen, ca. 540 Mio Jahre bis ca. 1 Mrd Jahre nach der Entstehung der Erde .

Alte Bilder vom Leben

Wenn man vom Leben spricht, von etwas Belebtem im Gegensatz zum Unbelebtem, fragt man sich sofort, wie man ‚Leben‘ definieren kann? In der zurückliegenden Geschichte gab es viele Beschreibungs- und Definitionsversuche. Einer, der heute noch begrifflich nachwirkt, ist die Sicht der Philosophie der Antike (ca. -600 bis 650) . Hier wurde das ‚Atmen‘ (gr. ‚pneo‘) als charakteristisches Merkmal für ‚Lebendiges‘ genommen, wodurch es vom ‚Unbelebtem‘ abgegrenzt wurde. Aus dem ‚Atmen‘ wurde zugleich ein allgemeines Lebensprinzip abgeleitet, das ‚Pneuma‘ (im Deutschen leicht missverständlich als ‚Geist‘ übersetzt, im Lateinischen als ’spiritus‘), das sich u.a. im Wind manifestiert und ein allgemeines kosmologisches Lebensprinzip verkörpert, das sowohl die Grundlage für die psychischen Eigenschaften eines Lebewesens bildet wie auch für seine körperliche Lebendigkeit. In der Medizin gab es vielfältige Versuche, das Pneuma im Körper zu identifizieren (z.B. im Blut, in der Leber, im Herzen, im Gehirn und den Nerven). Im philosophischen Bereich konnte das Pneuma ein heißer Äther sein, der die ganze Welt umfasst. Eine andere Auffassung sieht das Pneuma zusammengesetzt aus Feuer und Luft, woraus sich alle Körper der Welt bilden. Das Pneuma wird auch gesehen als die ‚Seele‘, die allein das Leben des Körpers ermöglicht. Bei den Stoikern wird das Pneuma-Konzept zum allumfassenden Begriff einer Weltseele gesteigert. Mit der Zeit vermischte sich der Pneuma-Begriff mit dem Begriff ’nous‘ (Kurzform für ’noos‘)(Englisch als ‚mind‘ übersetzt; Deutsch ebenfalls als ‚Geist‘), um darin die kognitiv-geistige Dimension besser auszudrücken. Weitere einflussreiche begriffliche Koordinierungen finden statt mit dem lateinischen ‚mens‘ (Deutsch auch übersetzt mit ‚Geist‘) und dem hebräischen ‚ruach‘ (im Deutschan ebenfalls mit ‚Geist‘ übersetzt; bekannt in der Formulierung ‚Der Geist Gottes (= ‚ruach elohim‘) schwebte über den Wassern‘; in der Septuaginta, der griechischen Übersetzung der hebräischen Bibel, heißt es ‚pneuma theou‘ (= der Geist Gottes)) (Anmerkung: Diese Bemerkungen sind ein kleiner Extrakt aus der sehr ausführlichen begriffsgeschichtlichen Herleitung in der ‚Enzyklopädie Philosophie‘ (2010), herausgegeben von H.J. Sandkühler, Felix Meiner Verlag, Hamburg 2010. Buch: Von A bis Z, Kapitel: Geist,SS.792ff}

Die Zelle im Fokus

War es für die antiken Philosophen, Mediziner und Wissenschaftler noch praktisch unmöglich, die Frage nach den detaillierten Wirkprinzipien des ‚Lebens‘ genauer zu beantworten, erarbeitete sich die moderne Naturwissenschaft immer mehr Einsichten in die Wirkprinzipien biologischer Phänomene (bei Tieren, Pflanzen, Mikroben, molekularbiologischen Sachverhalten), so dass im Laufe des 20.Jahrhunderts klar wurde, dass die Gemeinsamkeit aller Lebensphänomene auf der Erde in jener Superstruktur zu suchen ist, die heute (biologische) Zelle genannt wird.

Alle bekannten Lebensformen auf der Erde, die mehr als eine Zelle umfassen (wir als Exemplare der Gattung homo mit der einzigen Art homo sapiens bestehen aus ca. 10^13 vielen Zellen), gehen zu Beginn ihrer körperlichen Existenz aus genau einer Zelle hervor. Dies bedeutet, dass eine Zelle über alle notwendigen Eigenschaften verfügt, sich zu reproduzieren und das Wachstum eines biologischen Systems zu steuern.

So enthält eine Zelle (Anmerkung: Für das Folgende benutze ich Kap.1 des wunderbaren Buches „Molecular Biology of the CELL“, 5.Aufl. 2008, hrsg. von B.Alberts et.al, New York: Garland Science, Taylor & Francis Group) alle Informationen, die notwendig sind, um sowohl sich selbst zu organisieren wie auch um sich zu reproduzieren. Die Zelle operiert abseits eines chemischen Gleichgewichts, was nur durch permanente Aufnahme von Energie realisiert werden kann. Obwohl die Zelle durch ihre Aktivitäten die Entropie in ihrer Umgebung ‚erhöht‘, kann sie gegenläufig durch die Aufnahme von Energie auch Entropie verringern. Um einen einheitlichen Prozessraum zu gewährleisten, besitzen Zellen eine Membran, die dafür sorgt, dass nur bestimmte Stoffe in die Zelle hinein- oder herauskommen.

Keine Definition für außerirdisches Leben

Obgleich die Identifizierung der Zelle samt ihrer Funktionsweise eine der größten Errungenschaften der modernen Wissenschaften bei der Erforschung des Phänomens des Lebens darstellt, macht uns die moderne Astrobiologie darauf aufmerksam, dass eine Definition der Lebensphänomene mit Einschränkung des Blicks auf die speziellen Bedingungen auf der Erde nicht unproblematisch ist. Wunderbare Bücher wie das Buch „Rare Earth: Why Complex Life Is Uncommon in the Universe“ (2000) (Anmerkung: erschienen im Verlag Copernikus/ Springer, New York.) von Peter Douglas Ward (Geboren 1949) und Donald Eugene Brownlee (Geboren 1943) oder das Buch „ASTROBIOLOGY. A Multidisciplinary Approach“ (2005) (Anmerkung: erschienen in San Francisco – Boston – New York et al. bei Pearson-Addison Wesley) von Jonathan I.Lunine (Geb. 1959) machen zumindest sichtbar, wo die Probleme liegen könnten. Lunine diskutiert in Kap.14 seines Buches die Möglichkeit einer allgemeineren Definition von Leben explizit, stellt jedoch fest, dass es aktuell keine solche eindeutige allgemeine Definition von Leben gibt, die über die bekannten erdgebundenen Formen wesentlich hinausgeht. (Vgl. ebd. S.436)

Schrödingers Vision

Wenn man die Charakterisierungen von Leben bei Lunine (2005) in Kap.14 und bei Alberts et.al (2008) in Kap.1 liest, fällt auf, dass die Beschreibung der Grundstrukturen des Lebens trotz aller Abstraktionen tendenziell noch sehr an vielen konkreten Eigenschaften hängen.

Erwin Rudolf Josef Alexander Schrödinger (1887-1961) , der 1944 sein einflussreiches Büchlein „What is Life? The Physical Aspect of the Living Cell“ veröffentlichte (Anmerkung: Based on Lectures delivered under the auspices of the Institute at Trinity College, Dublin, in February 1943, Cambridge: University Press. 1944. [B 12, B 18a.1] Ich selbst habe die Canto Taschenbuchausgabe der Cambridge University von 1992 benutzt. Diese Ausgabe enthält ‚What is Life?‘, ‚Mind from Matter‘, sowie autobiographischen Angaben und ein Vorwort on Roger Penrose)), kannte all die Feinheiten der modernen Molekularbiologie noch nicht (Anmerkung: Allerdings berichten sowohl James D. Watson in seinem Buch „DNA, the Secret of Life“ (Anmerkung: zusammen mit Berry, A. (2003), New York: Random House) wie auch ähnlich Francis Crick in seinem autobiographischen Buch „What Mad Pursuit“ (Anmerkung: What Mad Pursuit: A Personal View of Scientific Discovery (Basic Books reprint edition, 1990)), dass Schrödingers Schrift (bzw. einer seiner Vorträge) sie für ihre Erforschung der DNA stark angeregt hatte.). Schrödinger unterzog das Phänomen des Lebens einer intensiven Befragung aus Sicht der damaligen Physik. Auch ohne all die beeindruckenden Details der neueren Forschung wurde ihm klar, dass das hervorstechendste Merkmal des ‚Biologischen‘, des ‚Lebendigen‘ die Fähigkeit ist, angesichts der physikalisch unausweichlichen Zunahme der Entropie einen gegensätzlichen Trend zu realisieren; statt wachsender Unordnung als Entropie diagnostizierte er eine wachsende Ordnung als negative Entropie, also als etwas, was der Entropie entgegen wirkt.

Diesen Gedanken Schrödingers kann man weiter variieren und in dem Sinne vertiefen, dass der Aufbau einer Ordnung Energie benötigt, mittels der Freiheitsgrade eingeschränkt und Zustände temporär ‚gefestigt‘ werden können.

Fragt sich nur, warum?

Alberts et.al (2008) sehen das Hauptcharakteristikum einer biologischen Zelle darin, dass sie sich fortpflanzen kann, und nicht nur das, sondern dass sie sich selbstmodifizierend fortpflanzen kann. Die Realität biologischer Systeme zeigt zudem, dass es nicht nur um ‚irgendeine‘ Fortpflanzung ging, sondern um eine kontinuierlich optimierende Fortpflanzung.

Nimmt man versuchsweise einen abstrakten Betrachtungsstandpunkt ein, dann kann man vereinfachend annehmen, dass es sich bei biologischen Zellen um Systeme handelt, die u.a. mindestens eine Objektebene [O] und eine Metaebene [M] umfassen, mit einer geeigneten Abbildung [R], so dass man die Metaebene M in die Objektebene O mittels R abbilden kann $latex R: M \longmapsto O$ Damit könnte eine Reproduktion grundsätzlich gelingen, vorausgesetzt, das System mit seiner Struktur bleibt ‚lang genug‘ stabil.

Kann man solch eine ‚hinreichend lange‘ Stabilität garantieren, dann können minimale Systemstrukturen aufgebaut werden, und es können Reproduktionen vorgenommen werden. Wie dies im einzelnen geschieht, ist letztlich unwichtig. Die tatsächliche Realisierungsgeschichte biologischer Systeme auf der Erde ist von schwindelerregender Komplexität und zugleich von atemberaubender Schönheit. Tatsächlich gibt es an jedem Punkt des Prozesses Varianten (auch in der realen Geschichte), wenn aber bestimmte Strukturen erst einmal realisiert wurden, dann fungierten diese (Meta-)Strukturen als eine Art ‚Gedächtnis‘: alle Strukturelemente von M repräsentieren potentielle Objektstrukturen, die jeweils den Ausgangspunkt für die nächste ‚Entwicklungsstufe‘ bilden (sofern sie nicht von der Umwelt ‚aussortiert‘ werden).

Irrlicht Information

Forts. folgt.

Wer nicht warten will, bis die Fortsetzung hier erscheint, kann mitlesen, was zwischendurch gedacht und geschrieben wird, um zur Fortsetzung zu gelangen: HIER.

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

PHILOSOPHIEWERKSTATT VOM 11.Januar 2014 – Rückblick – Lernen braucht Wissen und Emotionen

Letzte Änderung: Mo 12.Jan.2014 (Strukturierung, Am Ende Ausblick mit Terminen und Programmvorschlag)

ZUSAMMENFASSUNG

1) Mittlerweile liegt die dritte PHILOSOPHIEWERKSTATT 11.Jan.2014 hinter uns. Wie schon die letzten Male waren es sehr intensive Gespräche, die entstanden. Das tatsächliche Programm wich vom Plan ein wenig ab. Der Rückblick verlief wie geplant, war aber in sich schon ziemlich intensiv. Es gab dann eine längere Pause mit Essen, Trinken und viel Reden. Es folgte dann der neue Input zum Thema ‚Sind Emotionen (im weitesten Sinne) für ein Lernen notwendig?‘. Damit knüpften wir nochmals an das gemeinsame Brainatorming vom 14.Dez.2013 an; außerdem passte es gut zum Rückblick.
2) Kurz zusammengefasst waren die Überlegungen etwa wie folgt: bei einem komplexen System wie einem Tier oder gar einem Menschen ist eine klare Beschreibung von ‚Wissen‘ und ‚Emotionen (i.w.S.)‘ schwer bis unmöglich. Die meisten Menschen haben zum Thema zwar eine Meinung in ihrem Alltag, aber bei genaueren Nachfragen ist es kaum möglich, zu klären, was jemand meint, wenn er nach seinem ‚Bauchgefühl‘ entscheidet: Wann tut er das? Wie? Gibt es Unterschiede? usw. Dass stark Emotionen das Verhalten allgemein und das Lernen insbesondere beeinflussen können, scheint aufgrund der Alltagserfahrung klar zu sein.

EXPERIMENT ZU ‚EMOTION UND WISSEN‘

3) Die Frage ist also, ob es ein Experiment geben könnte, das einfach genug ist, und doch so, dass man alle beteiligten Komponenten ‚klar‘ verstehen und kontrollieren kann, das zugleich aber noch aussagekräftig genug ist, um zum Verhältnis von ‚Wissen‘ und Emotionen‘ etwas sagen zu können.

PSYCHOLOGIE UND INFORMATIK

4) Der Vortragende wählte dazu eine Kombination aus Psychologie und Informatik. Die Psychologen haben zu Beginn des 20.Jahrhunderts gelernt, wie sie ‚Intelligenz‘ messen können, ohne zu wissen, was ‚Intelligenz‘ in einem Lebewesen genau ist. Die Methode, die ‚Intelligenz‘ eines Systems durch Bezugnahme auf das Verhalten bei der Lösung einer Menge von Aufgaben zu beschreiben, dadurch zu quantifizieren, und damit ‚vergleichbar‘ zu machen, ist nicht auf Menschen beschränkt. Man kann damit auch Tiere messen und auch — heute — Computer. Damit könnte man bezogen auf ein definiertes Aufgabenset feststellen, in welchem Ausmaß ein Computer und ein Menschen ‚verhaltensmäßig übereinstimmen‘ oder nicht.

COMPUTER: WAS IST DAS?

5) Bei dieser Gelegenheit gab es einen Hinweis auf den Begriff ‚Computer‘. Die meisten Menschen verbinden mit dem Begriff ‚Computer‘ die konkreten Geräte, mit denen man im Alltag arbeitet (Smartphones, Tablets, eReader, PCs,…). Dies ist nicht ganz falsch, da alle diese Geräte beispielhafte Realisierungen des abstrakten Konzeptes eines berechnenden Automaten sind, das historisch bedeutsam im Kontext des Grundlagenstreits der Mathematik zu Beginn des 20.Jahrhunderts von Turing 1936/7 in die Diskussion eingeführt worden ist. Er hatte versucht, den Beweis von Gödel von 1931, zu den Grenzen der Entscheidbarkeit mathematischer Theorien, mit anderen Mitteln als Gödel sie benutzt hatte, vorzunehmen, um den Beweis dadurch möglicherweise verständlicher zu machen (was Gödel persönlich auch so sah; Gödel war nämlich mit seinem eigenen Beweis unzufrieden gewesen, und hatte Turings Lösungsansatz in einer Rede in Princeton ausdrücklich als ‚verständlicher‘ gelobt). Am Beispiel eines Büroangestellten, der mit einem Schreibstift auf einem Blatt Papier seine Zahlen notiert und rechnet, hatte Gödel das Konzept der maximal einfachen Maschine für maximal komplexe Aufgaben formuliert, die alles, was mit endlichen Mitteln berechenbar ist, berechnen kann. Später wurde diese seine abstrakte Maschine ihm zu Ehren Turingmaschine genannt. Während eine Turingmaschine duch die Unendlichkeit des Schreib-Lesebandes letztlich einen unendlich großen Speicher besitzt, hat jede konkrete gebaute Maschine, die wie eine Turingmaschine arbeitet, immer nur einen endlichen Speicher. In diesem Sinne kann ein realer Computer die Leistung einer idealen Turingmaschine immer nur annähern.
6) Was ein Computer im Stil einer Turingmaschine letztlich alles ‚tun‘ kann, hängt davon ab, wie man ihn programmiert. Bislang werden Programme für bestimmte klar umrissene Aufgaben geschrieben, und man erwartet, dass das Programm in einer bestimmten Situation genau das tut, was man von ihm erwartet (einen Text schreiben; Bremsen, wenn man auf das Bremspedal tritt; einen Alarm geben, wenn ein bestimmter Wert gefährlich überschritten wird; usw.). Programme, die in diesem Sinne ‚erwartungskonform‘ sind, sind ‚deterministisch‘, sind ‚reaktiv‘, d.h. sie sind in ihrem Verhalten genau festgelegt. Dass die meisten Menschen vor diesem Alltagshintergrund davon ausgehen, dass Computer ja eigentlich ‚dumm‘ sind, ist nachvollziehbar.
7) Allerdings ist dieser Eindruck auch irreführend, denn Computer ‚als solche‘ können im Prinzip alles, was ‚berechenbar‘ ist, d.h. auch ‚Denken‘, ‚Fühlen‘, usw., wenn man sie nur ‚lässt‘. Die meisten übersehen, dass wir Menschen alle unsere wunderbaren Eigenschaften nicht haben, weil wir sie ‚gelernt‘ haben, sondern weil unser Körper und unser Gehirn in bestimmter Weise so vorgeprägt ist, dass wir überhaupt ‚Wahrnehmen‘, ‚Erinnern‘, ‚Denken‘ usw. können.

Experimenteller Rahmen, offen für Philosophie, Psychologie und Neurowissenschaften
Experimenteller Rahmen, offen für Philosophie, Psychologie und Neurowissenschaften

OFFENE SYSTEME, REAKTIV UND ADAPTIV

8) Die strukturellen Gemeinsamkeiten zwischen uns Menschen und einem möglichen Computer werden deutlich, wenn man sowohl Menschen als auch Computer abstrakt als ‚Input-Output-Systeme‘ betrachtet. Sowohl vom Menschen wie auch vom Computer können wir annehmen, dass sie auf spezifische Weise Ereignisse aus der ‚Umgebung‘ (der ‚Welt‘ (W)) aufnehmen können (Sinnesorgane, Sensoren, Leseband), die wir hier abstrakt einfach als ‚Systeminput‘ oder einfach ‚Input‘ (I) bezeichnen. Genauso können wir annehmen, dass Menschen wie Computer auf die Welt (W) zurückwirken können (über diverse Aktoren, Schreibband). Die Menge dieser Rückwirkungen bezeichnen wir hier als ‚Output‘ (O). Ferner gehen wir immer davon aus, dass es zwischen dem beobachtbaren Output ‚O‘ und dem beobachtbaren Input ‚I‘ einen irgendwie gearteten ‚gesetzmäßigen‘ oder ‚regelhaften‘ Zusammenhang gibt, den wir hier einfach ‚phi‘ nennen, also ‚phi‘ ordnet dem Input ‚I‘ auf spezifische Weise einen bestimmten Output ‚O‘ zu. Die Mathematiker sprechen in diesem Zusammenhang von einer ‚Abbildung‘ oder ‚Funktion‘, geschrieben z.B. als ‚phi: I —> O‘. Die Informatiker sprechen von einem ‚Algorithmus‘ oder einem ‚Programm‘. Gemeint ist in allen Fällen das Gleiche.
9) In der Form ‚phi‘ ordnet dem Input ‚I‘ einen Output ‚O‘ zu wissen wir so gut wie nichts über die innere Struktur des Systems. Dies ändert sich, wenn wir zusätzlich den Begriff ‚innere Zustände‘ (‚inner states‘, IS) einführen. Damit können wir das Reden über ein System nahezu beliebig verfeinern. Diese inneren Zustände ‚IS‘ können ‚Neuronen‘ sein, ‚Erlebnisse‘ (‚Qualia‘), chemische Prozesse, was immer man braucht. Die Einbeziehung der inneren Zustände ‚IS‘ erlaubt sogleich einige interessante Differenzierungen.
10) Zunächst mal können wir unsere Redeweise erweitern zu ‚phi‘ ordnet einem Input ‚I‘ mit Hilfe der aktuellen inneren Zustände ‚IS‘ einen entsprechenden Output ‚O‘ zu, phi: I x IS —> O. Das heißt, die inneren Zustände ‚IS‘, was immer diese im einzelnen genau sind, sind ‚mitursächlich‘ dafür, dass dieser bestimmte Output ‚O‘ zustande kommt. Bsp: Wenn ich bei einem Getränkeautomaten ein Getränk auswähle, das geforderte Geld einwerfe und dann auf Ausführung drücke, dann wird der Automat (falls er nicht ‚defekt‘ ist) mir das gewählte Getränk ausgeben. Er wird immer nur das tun, und nichts anderes.
11) Von lernenden Systemen wie Tieren oder Menschen wissen wir, dass ihre Reaktionen (ihr Output ‚O‘) sich im Laufe der Zeit ändern können, weil sie ‚durch Lernen‘ ihre inneren Zustände ‚IS‘ ändern können. In diesem Fall müssten wir von der Verhaltensfunktion ‚phi‘ sagen: ‚phi‘ ordnet dem aktuellen Input ‚I‘ und unter Berücksichtigung der aktuellen internen Zustände ‚IS‘ nicht nur einen bestimmten Output ‚O‘ zu, sondern kann auch dabei gleichzeitig seine eigenen internen Zustände ‚IS‘ in spezifischer Weise ‚ändern‘, also phi: I x IS —> IS x O. Ein ‚lernendes‘ System ist in diesem Sinne ’selbstveränderlich‘, ‚adaptiv‘, ‚anpassungsfähig‘ usw.
12) Der wichtige Punkt hier ist nun, dass diese adaptive Verhaltensformel ( phi: I x IS —> IS x O) nicht nur auf Tiere und Menschen anwendbar ist, sondern auch — ohne Einschränkungen — auf das Konzept des Computers. Dass wir bis heute kaum wirklich lernfähige Computer haben, liegt vor allem an zwei Gründen: (i) im Alltag wollen wir lieber ‚dumme‘ Maschinen, weil sie uns für bestimmte Zwecke klare Erwartungen erfüllen sollen; (ii) zum anderen gibt es nahezu kaum Programmierer, die wissen, wie man ein lernfähiges Programm schreibt. Der Begriff ‚Künstliche Intelligenz‘ (KI) (bzw. Engl.: ‚artificial intelligence‘ (AI)) existiert zwar seit Beginn des Denkens über und Entwickelns von Computern, aber da wir bis heute nur rudimentäre Vorstellungen davon haben, was Lernen beim Menschen bedeutet, weiß keiner so recht, wie er einen Computer programmieren soll, der die Intelligenz von Menschen hinreichend ’nachahmt‘. In einer typischen Informatikausbildung in Deutschland kommt weder Psychologie noch Neurowissenschaften vor. Dazu muss man sagen, dass die Nachfrage nach lernfähigen Computern in der Realität bislang auch gering war (in vielen Filmen über intelligente Maschinen wird das Thema ausgiebig durchgespielt; dort meist negativ besetzt: die ‚bösen‘ Maschinen, die die Menschheit ausrotten wollen).

VERSCHIEDENE SICHTEN DER WISSENSCHAFTEN

13) Im vorausgehenden Schaubild wird aber auch noch etwas anderes angedeutet, was in den vorausgegangenen Sitzungen immer wieder mal anklang: Ich kann den Menschen von verschiedenen Blickpunkten aus betrachten: (NN) Von den Neuronen des Gehirns aus (Neurowissenschaften); (SR) vom beobachtbaren Verhalten aus (Psychologie); (PHN) Von den Phänomenen des Bewusstseins aus (Philosophie, Phänomenologie), oder in Kombinationen: (NN-SR) Neuro-Psychologie; (NN-PHN) Neuro-Phänomenologie; (PHN-SR) Phänomenologische Psychologie. Das Problem hierbei ist (was sehr oft übersehen wird), dass es zwischen den drei Sehweisen NN, SR und PHN keine direkten Verbindungen gibt: Das Neuron als solches sagt nichts über das Verhalten oder über Bewusstseinstatbestände; ein beobachtbares Verhalten sagt nichts über Neuronen oder Bewusstseinstatbestände; ein bewusstes Erlebnis sagt nichts über Neuronen oder beobachtbares Verhalten. Eine Verbindung zwischen diesen verschiedenen Sehweisen herzustellen ist von daher kein Selbstläufer, sondern eine eigenständige Leistung mit hohen methodischen Anforderungen (man sollte nicht überrascht sein, wenn man ein Buch mit dem Begriff ‚Neuropsychologie‘ aufschlägt und man findet auf keiner Seite die entsprechenden methodischen Maßnahmen….).
14) Für das vorgesehene Experiment soll die verhaltensorientierte Sicht der Psychologie als Hauptperspektive gewählt werden. Andere Perspektiven werden nach Bedarf zugeschaltet.

BEWUSSTSEIN DER PHILOSOPHEN, DER PSYCHOLOGEN, der NEUROWISSENSCHAFTEN

15) Ohne auf Details einzugehen sei hier angenommen, dass die philosophische Perspektive eigentlich nur die Kategorie ‚Bewusstsein‘ (‚consciousness‘ (CNSC)) kennt und dazu unterschiedliche Annahmen darüber, warum das Bewusstsein so ist, wie es ist. Die verhaltensbasierte Psychologie hat eine ganze Bandbreite von Denkmodellen entwickelt, die mögliche ‚Funktionen‘ im System beschreiben. Dazu gehören recht umfangreiche Modelle zu unterschiedlichen Gedächtnisformen wie z.B. ‚Sensorisch‘ (’sensorical memory‘, (SM)), ‚Kurzzeitspeicher’/ ‚Arbeitsspeicher‘ (’short term memory‘ (STM)) und ‚Langzeitspeicher‘ (‚long term memory‘ (LTM)). Letzteres mit sehr differenzierten Teilstrukturen). Heutzutage wird eine starke Korrelation zwischen dem philosophischen Konzept ‚Bewusstsein‘ und dem psychologischen Konzept ‚Arbeitsgedächtnis‘ angenommen. Die Neurowissenschaften entdecken immer mehr Funktionale Schaltkreise im Gehirn, die wiederum auf unterschiedliche Weise (Ebenen, Hierarchien) angeordnet sind. So gibt es funktionale Schaltkreise auf einer hohen integrativen Ebene, deren Korrelation mit dem psychologischen Konzept ‚Arbeitsgedächtnis‘ und dem philosophischen Konzept ‚Bewusstsein‘ korrelieren. Doch sind diese Sachverhalte sehr komplex und keinesfalls eindeutig. Für das nachfolgende Experiment spielt dies keine Rolle. Es orientiert sich am beobachtbaren Verhalten und ist bzgl. der internen Mechanismen, die das Verhalten hervorbringen, ’neutral‘.

EXPERIMENTELLER RAHMEN (UNVOLLSTÄNDIG)

16) Der äußere Rahmen des Experiments ist jetzt also eine Welt ‚W‘, in der das lernende System ‚LS‘ irgendwelche ‚Aufgaben‘ lösen muss. Für die Erreichung einer Lösung benötigt das lernende System ‚Wissen‘. Wie dann gezeigt werden soll, reicht Wissen alleine aber nicht aus. Neben ‚Wissen‘ benötigt ein lernendes System auch etwas, wodurch das Wissen ‚bewertet‘ werden kann, andernfalls kann es nicht lernen. Eine Möglichkeit, solche ‚Bewertungen‘ vornehmen zu können, sind ‚eingebaute‘ (‚intrinsische‘, ‚endogene‘, ‚angeborene’…) Zustände, die in Form von ‚Emotionen‘ (im weitesten Sinne wie z.B. ‚Hunger‘, ‚Durst‘ (= Bedürfnisse), ‚Neugierede‘, ‚Angst‘, ‚Schmerzen‘, ‚Lust’……) auftreten und das Verhalten ‚bewerten‘ können.

Fortsetzung folgt….

Die nächsten Termine für eine Philosophie-Werkstatt sind geplant für 8. Februar, 8. März, 12. April, 10. Mai, 14. Juni 2014.

Als Programmvorschlag für 8.Febr.2014 liegt vor:

  • Teil 1: In Gruppengesprächen und Plenum klären, was der Diskussionsstand ist, was fehlt, welche Themen neu addressiert werden sollen.
  • Teil 2: Fortsetzung des Themas: Wie können Emotionen helfen, dem Wissen eine handlungsfähige Struktur zu geben?
  • Teil 3: Philosophische Begründung für ein Kunstexperiment und Realisierung eines Beispiels

Einen Überblick über alle bishrigen Blogeinträge nach Titeln findet sich HIER.

GEIST-SICHTBARMACHUNGS-EXPERIMENT, Teil 1, Begriffe und theoretischer Rahmen

ZENTRALE BEGRIFFE: GEIST

(1) Für das anvisierte Großprojekt ‚Sichtbarmachung des Geistes‘ (in Frankfurt, der Stadt Goethes, der einen Faust 1+2 geschrieben hat) ist es hilfreich, den zentralen Begriff ‚Geist‘ ein wenig zu lokalisieren. Angesichts der nahezu unerschöpflichen Quellenlage zum Thema ‚Geist‘ mag dies auf den ersten Blick als ein scheinbar hoffnungsloses Unterfangen erscheinen.
(2) Da es hier aber in erster Linie nicht um eine ‚Begriffsgeschichte‘ der Wortmarke ‚Geist‘ gehen soll, sondern um eine systematischen Gebrauch des Begriffs im Kontext einer expliziten Theorie, wird es genügen, die Annahmen dieser Theorie darzustellen.

ZENTRALE BEGRIFFE: GEIST, INTELLIGENZ, BEWUSSTSEIN

(3) Beim aktuellen Stand der Reflexion werden es drei zentrale Begriffe sein, die in der anvisierten Theorie zentral Verwendung finden werden: ‚Geist‘, ‚Intelligenz‘ und ‚Bewusstsein‘. Während hier im Blog eher informell und auf Deutsch über diese Dinge nachgedacht wird, wird die eigentlich Theorie auf Englisch geschrieben in Gestalt verschiedener Vorlesungsskripte (siehe http://www.uffmm.org). Ob aus all dem jemals mal ein ‚Buch‘ im klassischen Sinne werden wird, ist momentan offen. Für potentielle Leser wäre es sicher eine Erleichterung.
(4) Auch wenn man nicht in die Tiefen und Verästelungen einer vollständigen Begriffsgeschichte hinabsteigen möchte, um die den Begriffen ‚Geist‘, ‚Intelligenz‘ und ‚Bewusstsein‘ innewohnende Vieldeutigkeit und damit einhergehende Vagheit zu verdeutlichen, genügt ein kleines Selbstexperiment mit aktuellen Wörterbüchern, um sehr schnell zu merken, auf welch schlüpfrigem Boden man sich begibt, will man diese Begriffe systematisch benutzen (siehe Eintrag unten und Bild).

Differenzen zwischen Deutsch-Englischen Wortfeldern bei Geist, Intelligenz, Bewusstsein
Differenzen zwischen Deutsch-Englischen Wortfeldern bei Geist, Intelligenz, Bewusstsein

5) Wie man im Schaubild ‚Wortverweise zu ‚Geist‘, ‚Intelligenz‘, ‚Vernunft‘, ‚Bewusstsein‘ sehen kann (und in den Einträgen im Anhang), führt ein Hin- und Her Übersetzen selten zum Ausgangswort zurück. Und dies hier nur im Falle von Deutsch und Englisch. Bedenkt man, dass alle diese Begriffe eine mehrhundertjährige Vorgeschichte in der griechischen Kultur haben, die wiederum über das Latein und das Arabische in die modernen Sprachen Deutsch und Englisch transferiert wurden (ohne Berücksichtigung all der vielfältigen Wechselwirkungen mit den anderen umgebenden Kulturen) , so kann man ahnen, dass eine begriffsgeschichtliche Vorgehensweise zwar sehr anregend sein könnte, aber letztlich keinen wirklichen Beitrag zu dem leisten kann, um das es hier geht: die Benutzung bestimmter Termini in einer aktuellen systematischen Theorie mit empirischen Bezug.

ZIEL DES EXPERIMENTES 1

6) In einer informellen Darstellungsweise könnte man sagen, dass es im Geist-Sichtbarmachungs-Experiment (Mind-Visibility-Generation-Experiment) darum geht, zu zeigen, wie unter Berücksichtigung der kosmischen Rahmenbedingungen (im Sinne der Astrobiologie), der evolutionären Prozesshaftigkeit (im Sinne der Evolutionsbiologie), ausgehend vom beobachtbaren Verhalten (im Sinne verhaltensbasierter Wissenschaften) und unter Berücksichtigung struktureller Eigenschaften von Körpern (im Sinne von Anatomie, Neurowissenschaften,…) plausibel gemacht werden kann, wie die anhand von definierten Aufgaben messbare ‚Intelligenz‘ (im Sinne der empirischen Psychologie) mit einem ‚Geist‘ korrespondiert, der für eine bestimmte Menge von Funktionen steht, die den Strukturen eines Körpers eine spezifische Dynamik verleihen. Das mit ‚Bewusstsein‘ Gemeinte wird dabei angenommen als eine Teilfunktion des ‚Geistes‘.

THEORIEVORAUSSETZUNGEN

7) Wie bei jeder Theorie kann man auch hier unterscheiden zwischen der Theorie selbst und ihrer Hervorbringung. Während die Theorie selbst ein irgendwie geartetes formales Gebilde ist, das von den ‚Theoriemachern‘ (Wissenschaftlern, Ingenieuren) mittels Experimenten auf bestimmte Wirklichkeitsausschnitte bezogen wird, müssen die Theoriemacher individuell spezifische Erkenntnisvoraussetzungen mitbringen, ohne die die Formulierung und koordinierte Nutzung einer Theorie nicht möglich ist. Wir nennen diese postulierten notwendigen Erkenntnisvoraussetzungen hier die ‚minimale kognitive Struktur (MKS)‘ (oder Englisch: ‚minimal cognitive structure (MCS)‘ in dem Sinne, dass jedes virtuelle System, das die gleichen minimale kognitive Struktur besitzen würde, in der Lage wäre, die gleiche Theorie zu formulieren und anzuwenden.

ZIEL DES EXPERIMENTES 2

8) Das Hauptziel des ‚Geist-Sichtbarmachungs-Experimentes (GeiSichtExp)‘ ist genau dieses: virtuelle Systeme entstehen zu lassen, die den minimalen kognitiven Strukturen von Tieren und Menschen so entsprechen, dass sie die gleichen Weltmodelle und dazu gehörigen Verhaltensweisen hervorbringen können. Damit würden diese virtuellen Systeme ‚verhaltensidentisch‘ zu Tieren und Menschen und die Frage nach dem Unterschied zwischen der ‚Natur‘ oder dem ‚Wesen‘ des mit ‚Geist Gemeintem‘ beim Tier und Mensch einerseits sowie den virtuellen Systemen andererseits würde darauf hinauslaufen, ob der ‚Material‘, aus dem die jeweiligen Systeme ‚gebaut‘ sind, eine ‚wesentliche‘ Rolle zukommt.

ENTKOPPLUNG VON BIOLOGISCHEN STRUKTUREN

9) Bei biologischen Systemen hat die Struktur des Körpers, speziell auf der Ebene der Zellen, überwiegend mit der Beschaffung und Erhaltung der Energie zu tun, mit der Erhaltung und Weitergabe von Bauinformationen, mit Wachstum und Koordinierung, usw. und nur zum kleineren Teil mit aktueller Informationsverarbeitung. Würde man das ‚Wesen des Geistes‘ auf die Informationsverarbeitung im engeren Sinne beschränken — was hier im ersten Ansatz versuchsweise getan wird –, dann wäre der größere Teil des Körpers für den Geist nicht direkt relevant. Damit verschärft sich die Plausibilität dafür, dass Strukturen zur Ermöglichung von Informationsverarbeitung im Sinne eines ‚Geistes‘ auch mit anderen Mitteln realisiert werden können. Dies wäre ein erstes Argument dafür, dass das ‚Phänomen des Geistes‘ nicht an die typischen biologischen Strukturen gebunden sein muss.

10) Die Sichtbarmachung von ‚Geist‘ in diesem beschränkten Sinne erscheint prinzipiell machbar, wenngleich aufgrund der implizierten Komplexität nicht einfach. Ein ‚Hobbyprogrammierer um die Ecke‘ wird es nicht schaffen (genauso wenig wie die milliardenschweren Neuro-Simulatoren, die allenthalben entstanden sind bzw. entstehen).

NICHT ALLE FRAGEN BEANTWORTET

11) Die tieferliegende Frage nach dem ‚Geist‘ als einer ‚innewohnenden Eigenschaft der Energie‘ als Ausgangspunkt jeglicher Strukturbildung im Universum würde durch das ‚Geist-Sichtbarmachungs-Experiment‘ jedoch noch nicht beantwortet. Allerdings wäre dies ein Schritt in die Richtung einer möglichen Beantwortung, eine mögliche Motivation, um das Fragen und Experimentieren zu intensivieren.

SUBJEKTIVE WIDERSTÄNDE

12) Die meisten Leute, mit denen ich bislang über dieses ‚Geist-Sichtbarmachungs-Experiment‘ sprechen konnte, tun sich bislang aber überhaupt schwer, diesem Experiment einen Sinn ab zu gewinnen. Die ‚Widerstände‘ für ein ‚Mitdenken‘ sind vielfach. Grundsätzlich tun sich Menschen schwer, über sich selbst nach zu denken. Und wenn überhaupt, dann hat man aus der Vergangenheit bestimmte liebgewordene Bilder, die den Menschen als etwas ‚Besonderes‘ gegenüber allem anderen sehen, als ein mit ‚Geist‘ (und möglicherweise noch ‚Seele‘) ausgestattetem Wesen, dessen Bezug zum Ganzen des Universums trotz Wissen um die Evolution irgendwie und irgendwo nicht so richtig gesehen wird. Die unterschiedlich kursierenden religiösen (hinduistisch, buddhistisch, jüdisch, christlich, muslimisch, …) Deutungsmustern tun ihr ihriges, um den Blick nicht frei zu bekommen, für das ’neue Bild‘ eines — möglicherweise — durch und durch geistigen Universums mit einer darin implizierten eigentümlichen ‚Liebe‘ und ‚Verantwortung‘. Nach allem, was bislang bekannt ist, geht es nicht um ‚weniger‘ Religion, sondern eher um ‚mehr‘. Und wie wir wissen, ist der Weg vom Kind zum erwachsenen, verantwortungsvollen Menschen lang und beschwerlich. Und nicht wenige verweigern auf diesem Weg die notwendigen Einsichten und Konsequenzen. Der Preis der Freiheit ist die Möglichkeit der Verweigerung. Freiheit durch ‚Zwang‘ zu ersetzen hilft in der Regel nicht, da damit die notwendige ‚Reife‘ im einzelnen nicht durch einen eigenen Lernprozess entstehen kann. ‚Zwangsgesellschaften‘ erzeugen auf Dauer ihren eigenen Untergang.

Theoretischer Rahmen für das GEIST-SICHTBARMACHUNGS Projektes
Theoretischer Rahmen für das GEIST-SICHTBARMACHUNGS Projektes

THEORIERAHMEN 2

13) Die benutzte Theorie benutzt drei Komponenten: (i) eine Menge von definierten Aufgaben (‚Tasks‘), die eine Art Umgebung (‚environment‘) für lernende Systeme darstellen; (ii) die zu untersuchenden (lernenden) Systeme (‚Systems‘); (iii) die Interaktion dieser Systeme mit den Aufgaben der Umgebung.

AUFGABEN

14) ‚Aufgaben‘ sind theoretisch definierte Mengen von ‚Zuständen‘, die man in mindestens einen ‚Anfangszustand‘ (’start state‘), mindestens einen ‚Zielzustand‘ (‚goal state‘), sowie einer — eventuell leeren — Menge von ‚Zwischenzuständen‘ (‚intermediate states‘) einteilen kann. Von einem Zielzustand muss es mindestens einen ‚Pfad‘ (‚path‘) zu mindestens einem Zielzustand geben. Dieser wird ‚Lösungspfad‘ (’solution path‘) genannt. Interessant sind die ‚kürzest möglichen‘ Lösungspfade. Kann man einen Lösungspfad angeben, so kann man — unter Voraussetzung feststehender Interaktionen (s.u.) — auch die zum Lösungspfad notwendigen Folgen von Interaktionen angeben, die als solche eine ‚idealisierte empirische Verhaltensfunktion‘ (Phi hoch i‘, φi) definieren. Diese idealisierte empirische Verhaltensfunktion φi kann dann als Sollwert (Norm) benutzt werden, um tatsächliche empirische Verhaltensfunktionen damit zu vergleichen (messen).

SYSTEME

15) Die ‚Systeme‘ innerhalb der verwendeten Theorie sind allesamt ‚offene‘ Systeme, d.h. ‚Input-Output-Systeme‘, die über diverse Wahrnehmungen und Aktionen im kontinuierlichen Austausch mit der jeweiligen Umgebung stehen. Unter Bezug auf eine unterstellte Verhaltensfunktion (phi hoch t, φt: I —> O) kann man dann grob unterscheiden zwischen ‚reaktiven‘ und ‚adaptiven‘ Systemen. ‚Reaktive‘ Systeme (φt: I x IS —> O) verfügen zwar über interne Zustände IS, die in das Verhalten einfließen, diese internen Zustände IS können jedoch nicht wesentlich verändert werden. Im Gegensatz dazu können ‚adaptive‘ Systeme (φt: I x IS —> IS x O) ihre internen Zustände IS hinreichend verändern. Die jeweilige Implementierung der internen Zustände IS (mittels z.B. biologischer Zellen, neuronaler Zellen, Classifier, Graphen) spielt keine wesentliche Rolle. Bislang kann man allerdings ‚technische‘ System von ‚biologischen‘ Systemen meistens dadurch unterscheiden, dass biologische Systeme zwischen einem ‚Genotyp‘ und einem ‚Phänotyp‘ unterscheiden. Der Phänotyp entsteht aus einem Genotyp durch einen Wachstumsprozess, bei dem anhand von genetischen Ausgangsinformationen ein interaktiver Prozess angeregt wird, in dessen Verlauf der Phänotyp (salopp: Körper) entsteht. Der Phänotyp trägt über ‚Fortpflanzung‘ zum Erhalt der genetischen Informationen bei. Bei diesem Prozess können die genetischen Informationen mit Zufallseinflüssen verändert werden. Auf diese Weise können genau jene genetischen Informationen selektiv überleben, deren Phänotypen sich in einer bestimmten Umgebung besonders ‚bewähren‘. Bei technischen Systemen fehlt diese genetische Rückkopplung bislang aufgrund der hier anfallenden Komplexität einerseits und des für solche Prozesse notwendigen Zeitbedarfs.

INTERAKTIONEN: STIMULUS (S), RESPONSE (R)

16) Die ‚Interaktion‘ eines Systems mit seiner Umgebung geschieht einmal über solche Umweltereignisse, die das System als ‚Reize’/ ‚Stimuli‘ (S) ‚wahrnehmen‘ kann sowie über solche Veränderungen an der Außenseite (Interface, Schnittstelle) seines Systems, die als ‚Antworten’/ ‚Responses‘ (R) auf die Umgebung ‚einwirken‘ können. Sofern solch eine Reaktion ‚R‘ von einem bestimmen Stimulus ‚S‘ abhängig ist, spricht man auch von einem Stimulus-Response-Paar (s,r) ∈ S x R. Die Menge aller solcher Stimulus-Response Paare, die für ein bestimmtes System als ‚charakteristisch‘ beobachtet werden können, wird hier als ‚empirische Verhaltensfunktion‘ (φe) bezeichnet. Handelt es sich bei dem System unter Beobachtung um eine biologisches System, ist es eine ‚empirisch-empirische‘ Verhaltensfunktion (φe,e), im Falle von technischen Systemen um eine ‚empirisch-technische‘ Verhaltensfunktion (φe,t). Empirische Verhaltensfunktionen kann man mit idealisierten (‚gesollten‘) Verhaltensfunktionen (φi) vergleichen. Stimmen die empirischen Funktionen mit den idealisierten ‚hinreichend überein‘, dann kann man sagen, dass ein System den für eine Aufgabe zu leistenden minimalen Lösungspfad ‚gelernt‘ hat. Zwischen einer vollständigen (100%) und keiner (0%) Übereinstimmung mag es viele charakteristische Varianten geben.
17) Innerhalb des hier skizzierten theoretischen Rahmens lassen sich alle bis heute bekannten reaktiven und adaptiven Systeme behandeln. Im Laufe des Experimentes werden einige dieser Systeme real vorgestellt werden. Alle beobachtbaren Leistungen sind über definierte Aufgaben beschreibbar und dadurch mit dem Verhalten realer biologischer Systeme vergleichbar. Die Einbeziehung des genotypischen Lernens ist angezielt, aber weitgehend abhängig von der Verfügbarkeit geeigneter Ressourcen.

QUELLENNACHWEISE

Abfrageergebnisse in www.leo.org (Abfrage vom 27.Dez.2012)

1) Mind –> Geist, Verstand, Ansicht, Gedanke, Absicht
2) Vernunft –> reason, rationality, sanity
3) Verstand –> mind, apprehension, brain(s), comprehension, discretion, intellect, reason, sanity, sense, understanding, wit(s)
4) Geist –> mind, ghost, spirit, animus, apparition, esprit, genie, intellect, nous, phantom, psyche, specter/ spectre, wit, wraith
5) intelligence –> Einsicht, Intelligenz, Auffassungsvermögen, die Aufklärung, die Information (auch vom Geheimdienst), die Klugheit, die Nachricht, der Verstand, die Wiedergabe, Auskunft, Geheimdienst,
6) Intelligenz –> intelligence, brainpower, brains, intelligentsia, savvy, understanding
7) reason –> Grund, Anlass, Argument, Begründung, Motiv
8) Bewusstsein –>awareness, consciousness
9) consciousness –> Bewusstsein, Bewusstheit, Besinnung
10) awareness –> Bewusstsein, Bewusstheit, Erkenntnis
11) Aufmerksamkeit –> attention, concentration, advertence/ advertency, alertness, attentiveness, heedfulness, mindfulness, notice, regard, thoughtfulness

Eine Übersicht über alle Blog-Einträge bisher nach Titeln findet sich HIER