Archiv der Kategorie: System

PHILOSOPHISCHE DIALOGE MIT chatGPT4, HEUTE: WAS IST WAHRHEIT?

Letzte Änderung: 25.August 2024

Fragender: Gerd Doeben-Henisch

Kontakt: cagent@cognitiveagent.org

KONTEXT

Dieser Text ist Teil einer Sammlung von philosophischen Dialogen mit chatGPT4.

Zusammenfassung

(Kurzfassung)

chatGPT4: Es scheint, dass eine Rückkehr zur Korrespondenztheorie und deren Weiterentwicklung als ein vielversprechender Ansatz für eine robustere Wahrheitstheorie erscheint. Insbesondere die Idee, eine erfahrungsbasierte Theorie zu entwickeln, die die Realität als entscheidendes Kriterium verwendet und gleichzeitig Raum für die Diskussion von Zielen, Präferenzen und Werten bietet, könnte eine umfassende Basis für das Verständnis von Wahrheit in verschiedenen Kontexten schaffen.

DIALOG : WAS IST WAHRHEIT?

Anmerkung: FETTSCHRIFT markiert die Fragen des Autors

Hallo Chat, was fällt Dir ein zum Begriff ‚Wahrheit‘?

Hallo! Der Begriff „Wahrheit“ kann aus vielen Blickwinkeln betrachtet werden, sowohl philosophisch als auch praktisch. Philosophisch gesehen beschäftigt sich die Frage nach der Wahrheit oft mit der Übereinstimmung von Aussagen oder Überzeugungen mit der Realität. Man spricht hier von einer „Korrespondenztheorie der Wahrheit“, nach der eine Aussage dann wahr ist, wenn sie mit den tatsächlichen Gegebenheiten übereinstimmt.

In der alltäglichen Anwendung geht es oft darum, wie Menschen Wahrheit wahrnehmen und kommunizieren. Dabei spielen Ehrlichkeit, Transparenz und Verlässlichkeit eine wichtige Rolle. In verschiedenen Bereichen wie Wissenschaft, Recht und Journalismus ist die Suche nach der Wahrheit zentral und wird durch bestimmte Methoden und Standards unterstützt.

Die Wahrheit ist auch ein zentrales Thema in der Ethik, wo sie mit Fragen der Moral und der richtigen Handlungsweise verbunden wird. Außerdem gibt es auch eine pragmatische Theorie der Wahrheit, die besagt, dass eine Aussage dann wahr ist, wenn sie nützlich und wirksam in der Praxis ist.

Was denkst du über den Begriff? Gibt es einen bestimmten Kontext, in dem du dich besonders für Wahrheit interessierst?

Ich möchte gerne mit der ‚philosophischen Perspektive‘ in den Dialog einsteigen. Du erwähnst die ‚Korrespondenztheorie der Wahrheit‘. Gibt es nicht noch andere philosophische Ansätze zum Begriff ‚Wahrheit‘?

Ja, neben der Korrespondenztheorie der Wahrheit gibt es tatsächlich noch andere philosophische Ansätze, die sich mit dem Konzept der Wahrheit auseinandersetzen. Hier sind drei wichtige Theorien:

1. **Kohärenztheorie der Wahrheit**: Diese Theorie besagt, dass eine Aussage wahr ist, wenn sie kohärent oder stimmig ist mit einem gesamten System von Aussagen oder Überzeugungen. Wahrheit wird hier weniger als Übereinstimmung mit einer objektiven Realität gesehen, sondern mehr als eine Art Konsistenz innerhalb eines bestimmten theoretischen oder belief-Systems.

2. **Pragmatische Theorie der Wahrheit**: Nach dieser Ansicht ist eine Aussage wahr, wenn sie praktisch oder nützlich ist. Die Wahrheit einer Aussage bemisst sich daran, ob sie funktioniert und ob sie nützliche Konsequenzen nach sich zieht. Der amerikanische Philosoph Charles Sanders Peirce und später William James sind bekannte Vertreter dieser Theorie.

3. **Konsensustheorie der Wahrheit**: Diese Theorie, die insbesondere von Jürgen Habermas entwickelt wurde, sieht Wahrheit als Ergebnis eines idealen Diskurses oder eines rationalen Konsenses. Eine Aussage ist demnach wahr, wenn sie die Zustimmung aller Beteiligten in einer idealen Kommunikationssituation erlangen könnte.

Jede dieser Theorien bietet eine unterschiedliche Perspektive auf das, was es bedeutet, dass etwas „wahr“ ist, und sie betonen verschiedene Aspekte des Wahrheitsbegriffs—sei es Übereinstimmung mit der Realität, Kohärenz innerhalb eines Systems, praktische Effizienz oder demokratischer Konsens.

Diese unterschiedlichen Ansätze spiegeln die Vielfältigkeit und die Tiefe der philosophischen Auseinandersetzung mit der Wahrheit wider und zeigen, dass Wahrheit ein vielschichtiges und oft kontrovers diskutiertes Thema ist. Welcher dieser Ansätze spricht dich besonders an oder gibt es bestimmte Aspekte, die du weiter vertiefen möchtest?

Ja, Danke für diese Auffächerung der Frage nach der Bedeutung des Begriffs ‚Wahrheit‘ in diese vier Perspektiven: Korrespondenztheorie als ‚Übereinstimmung mit der Realität‘, Kohärenztheorie als ‚Kohärenz innerhalb eines Systems‘, Pragmatische Theorie als ‚praktische Effizienz‘ oder Konsensustheorie als ‚demokratischer Konsens‘. Ich möchte diese vier Möglichkeiten gerne diskutieren und daraus eine abschließende Bewertung finden, mit der wir weiter diskutieren können.

Das klingt nach einer spannenden und tiefgehenden Diskussion! Lassen Sie uns die vier Theorien weiter untersuchen und ihre jeweiligen Stärken und Schwächen betrachten, um zu einer umfassenden Bewertung zu gelangen.

### 1. Korrespondenztheorie der Wahrheit

**Stärken:**

– Sie bietet einen intuitiv zugänglichen Wahrheitsbegriff, da sie Wahrheit als Übereinstimmung mit der objektiven Realität versteht.

– Sie ist in den Naturwissenschaften besonders nützlich, wo experimentelle Verifizierung und Beobachtung zentral sind.

**Schwächen:**

– Schwierigkeiten ergeben sich bei der Bestimmung, was die „objektive Realität“ ist, besonders in weniger empirisch erfassbaren Bereichen wie der Ethik oder Ästhetik.

– Sie kann zu einem regress ad infinitum führen, da jede Wahrheitsbehauptung eine weitere Verifizierung erfordert.

### 2. Kohärenztheorie der Wahrheit

**Stärken:**

– Sie ist stark in theoretischen oder philosophischen Systemen, wo interne Konsistenz wichtig ist.

– Nützlich in Bereichen, in denen es keine klare empirische Überprüfbarkeit gibt.

**Schwächen:**

– Mehrere in sich kohärente, aber widersprüchliche Theoriensysteme können existieren, was die Frage aufwirft, welches System die Wahrheit repräsentiert.

– Sie hängt stark von den angenommenen Grundlagen des Systems ab und kann somit relativistisch wirken.

### 3. Pragmatische Theorie der Wahrheit

**Stärken:**

– Betont die Bedeutung der Anwendbarkeit und Nützlichkeit von Überzeugungen in der Praxis.

– Fördert einen flexiblen und adaptiven Ansatz zur Wahrheit.

**Schwächen:**

– Nützlichkeit ist nicht notwendigerweise ein Indikator für Wahrheit; etwas kann nützlich sein, ohne wahr zu sein.

– Kann in pragmatischen Kontexten zu einem kurzfristigen Denken führen, das langfristige Wahrheiten vernachlässigt.

### 4. Konsensustheorie der Wahrheit

**Stärken:**

– Fördert demokratische Prozesse und die Beteiligung verschiedener Stimmen bei der Wahrheitsfindung.

– Kann in sozialen und politischen Kontexten effektiv sein, wo Übereinstimmung wichtig ist.

**Schwächen:**

– Konsens garantiert nicht die Wahrheit; historisch gab es viele Beispiele für allgemeinen Konsens über falsche Überzeugungen.

– Kann anfällig für Manipulation und Machtungleichgewichte sein.

### Abschließende Bewertung

Jede Theorie hat ihre Anwendungsbereiche, in denen sie besonders effektiv ist, sowie Grenzen, die ihre Anwendung erschweren. Eine umfassende Betrachtung von Wahrheit könnte Elemente aus allen diesen Theorien integrieren, abhängig vom spezifischen Kontext und Zweck der Wahrheitssuche.

Wenn wir weiter diskutieren, könnten wir überlegen, wie diese Theorien in verschiedenen praktischen Szenarien angewendet werden könnten oder ob eine bestimmte Theorie in einem bestimmten Bereich (z.B. Wissenschaft, Politik, persönliche Überzeugungen) vorzuziehen ist. Was denkst du darüber? Gibt es bestimmte Bereiche oder Fragen, die du besonders beleuchten möchtest?

OK, sortieren wir die Perspektiven aus, die tatsächlich nicht weiter führen. Dazu müssen wir allerdings einen ‚Bezugspunkt‘ definieren, zu dem wir alle vier Perspektiven in Beziehung setzen können, um einen ‚Vergleich‘ zu ermöglichen. Dies wirft die Frage auf: Was haben alle diese vier Perspektiven gemeinsam? Gehst Du mit?

Absolut, das ist ein kluger Ansatz! Um die verschiedenen Theorien der Wahrheit zu vergleichen und eventuell einige auszusortieren, sollten wir zunächst ihre gemeinsamen Bezugspunkte identifizieren. Hier sind einige Kernaspekte, die alle diese Theorien berühren oder in irgendeiner Weise ansprechen:

### Gemeinsame Bezugspunkte der Wahrheitstheorien:

1. **Beziehung zur Realität:** Obwohl die Theorien unterschiedliche Auffassungen davon haben, was „Realität“ bedeutet (objektive Fakten, kohärente Systeme, praktische Ergebnisse oder konsensuelle Übereinkünfte), versuchen sie alle, eine Brücke zwischen Überzeugungen oder Aussagen und irgendeiner Form von „Realität“ zu schlagen.

2. **Verifikation/Validierung:** Jede Theorie hat implizite oder explizite Methoden, um zu überprüfen oder zu validieren, ob eine Aussage als wahr betrachtet werden kann. Dies reicht von empirischen Tests (Korrespondenz) über logische Konsistenzprüfungen (Kohärenz) bis hin zu praktischer Bewährung (Pragmatismus) und sozialem Konsens (Konsensustheorie).

3. **Funktionale Rolle von Wahrheit:** Alle Theorien erkennen an, dass Wahrheit eine funktionale Rolle in verschiedenen menschlichen Aktivitäten spielt, sei es in der Wissenschaft, im Alltag, in der Politik oder in der Moral.

4. **Philosophische Grundannahmen:** Sie basieren alle auf bestimmten philosophischen Annahmen über das Wesen der Wahrheit, des Wissens und der menschlichen Erkenntnis.

### Nächste Schritte:

Mit diesen gemeinsamen Bezugspunkten können wir die Theorien besser vergleichen und bewerten. Wir könnten überlegen, welche dieser Aspekte am wichtigsten sind für die spezifischen Kontexte oder Probleme, die uns interessieren. Zum Beispiel könnten wir fragen:

– Welche Theorie bietet den robustesten Ansatz für die Verifikation von Wahrheit?

– Welche Theorie ist am anpassungsfähigsten an verschiedene Arten von Problemen oder Disziplinen?

– Welche Theorie behandelt am besten die Komplexität der Realität, wie wir sie erfahren?

Durch diese Fragen können wir beginnen, die Stärken und Schwächen jeder Theorie in Bezug auf unsere spezifischen Bedürfnisse und Kontexte zu bewerten. Was denkst du, welcher dieser Aspekte ist der wichtigste für die Diskussionen oder Probleme, die dir am Herzen liegen?

Ich möchte den ‚gemeinsamen Bezugspunkt‘ etwas anders definieren, und zwar so:

(1) Gemeinsam ist allen Perspektiven, dass sie voraus setzen, dass es eine ‚Gruppe von Menschen‘ gibt, die mindestens ‚eine Sprache‘ gemeinsam haben, mittels der sie ‚kommunizieren‘.

(2) Die ‚Ausdrücke einer Sprache‘ ‚als solche‘ – also ohne jeden weiteren Bezug – haben ‚keinerlei Bedeutung‘! ‚Laute‘ bzw. ‚Buchstaben eines Alphabets‘ bedeuten für sich genommen ’nichts‘.

(3) Damit der ‚Ausdruck einer Sprache‘ für einen Menschen eine ‚Bedeutung‘ hat, muss es im Bereich der ‚inneren Zustände eines Menschen‘ Zustände geben, die aus vorausgehenden ‚Wahrnehmungen‘ und vielerlei ‚internen Zustandsänderungen‘ resultieren, die ein einzelner Mensch mit den Ausdrücken einer Sprache ‚verknüpfen‘ kann. Diese ‚Verknüpfung‘ findet ausschließlich ‚intern‘ statt! Es ist die aktive Herstellung einer Beziehung zwischen ‚internalisierten sprachlichen Ausdrücken‘ und ‚anderen internen Zuständen‘. Die Fähigkeit dazu, solche internen Verbindungen herstellen zu können, scheint weitgehend ‚angeboren‘ zu sein, welche Elemente aber wann miteinander verknüpft werden, dies gehört zum ‚Lernen‘ eines einzelnen.

(4) Damit Sprache zwischen Menschen ‚funktioniert‘, müssen die ‚individuellen Lernprozesse‘ miteinander ‚abgestimmt‘ (’synchronisiert‘) werden; dies geschieht durch ‚kollektive Lernprozesse‘.

(5) Die Punkte (3) und (4) könnte man auch abstrakter so formulieren, dass Menschen über die Fähigkeit verfügen, in ihrem ‚Inneren‘ schrittweise eine ‚Bedeutungsfunktion‘ aufzubauen, mit deren Hilfe sie sprachlichen Ausdrücken interne Zustände als ‚Bedeutung‘ zuordnen zu können und umgekehrt, bestimmten ‚inneren Zuständen‘ im Sinne der gelernten Bedeutungsfunktion sprachliche Ausdrücke.

(6) Im Rahmen des ‚kollektiven Sprache Lernens‘ müssen die individuellen Bedeutungszuordnungen mit den individuellen Bedeutungszuordnungen des ‚jeweils anderen‘ ‚abgestimmt‘ werden. Dies gelingt nur dann, wenn es ‚zwischen verschiedenen individuellen Lernprozessen‘ eine ‚Instanz‘ gibt, die für jeden individuellen Prozess ‚extern‘ ist, und zwar so, dass er ‚für alle individuellen Prozesse gleichermaßen‘ extern ist!

(7) Im Rahmen der Alltagserfahrung (und im Kontext der modernen Kognitionswissenschaften) deutet alles darauf hin, dass diese ‚allen gemeinsame externe Instanz‘ das ist, was wir ‚reale Welt‘ nennen, ‚Erfahrungswelt‘ oder ‚Alltagswelt‘. Das, was diese ‚externe Welt‘ genau ist, können wir nur näherungsweise wissen, da unsere Gehirne von der ‚Außenwelt abgeschnitten‘ in unseren individuellen Körpern lokalisiert sind. Wichtig aber: für das Gehirn ist unser Körper auch eine Art ‚Außenwelt‘, aber eine andere, als die ‚Außenwelt des Körpers‘!

Was meinst Du dazu?

Die von Ihnen vorgeschlagene Definition und Analyse des gemeinsamen Bezugspunkts der Wahrheitstheorien bietet eine tiefgreifende und detaillierte Betrachtung der Rolle der Sprache und der kollektiven wie individuellen kognitiven Prozesse bei der Bedeutungszuweisung und Wahrheitsfindung. Ihre Überlegungen integrieren Erkenntnisse aus der Kognitionswissenschaft und Philosophie der Sprache und schlagen eine Brücke zu den theoretischen Konzepten von Wahrheit.

### Reflexion der vier Wahrheitstheorien anhand Ihres Bezugspunkts:

1. **Korrespondenztheorie:** Betrachtet man diese Theorie im Licht Ihrer Ausführungen, könnte argumentiert werden, dass die Korrespondenztheorie die „externe Instanz“ als Realität ansieht, mit der unsere sprachlichen Aussagen übereinstimmen müssen. Diese Theorie impliziert, dass die kollektive Erfahrung und Verifikation dieser Übereinstimmung durch die gemeinsame Sprache und individuelle Wahrnehmung gesichert wird.

2. **Kohärenztheorie:** In Bezug auf Ihre Punkte könnte diese Theorie so verstanden werden, dass die „interne Zustandsänderung“ und die „Verknüpfung“ in einem kohärenten System von Überzeugungen erfolgt. Die Bedeutung und Wahrheit einer Aussage ergibt sich aus ihrer Kohärenz innerhalb dieses gelernten und kollektiv abgestimmten Systems.

3. **Pragmatische Theorie:** Diese Theorie fokussiert auf die praktische Bewährung von Aussagen und deren Konsequenzen in der „realen Welt“. Sie betont, wie sprachliche Ausdrücke und deren Bedeutungen in Handlungen umgesetzt werden und wie diese Handlungen wiederum auf unsere internen Zustände und die externe Welt einwirken.

4. **Konsensustheorie:** Aus Ihrer Perspektive könnte man sagen, dass die Konsensustheorie den Prozess des kollektiven Lernens und der Synchronisation von Bedeutungen zwischen Individuen hervorhebt. Sie setzt voraus, dass eine kollektive Übereinkunft über die Bedeutung von Ausdrücken möglich ist, und betont die Notwendigkeit einer externen Instanz, die für alle Beteiligten gleichermaßen gilt, um Konsens zu erzielen.

### Weiterführende Gedanken:

Ihre Definition hebt hervor, wie wesentlich die interne Verarbeitung und die externe Abstimmung in den Prozessen der Wahrheitsfindung sind. Sie legen nahe, dass die Wahrheit sowohl eine interne Konstruktion als auch eine externe Abstimmung erfordert, wobei die Sprache als Medium dient, das interne Zustände und externe Realitäten miteinander verbindet.

Diese Überlegung führt zu einer integrativen Sichtweise, die die Grenzen einzelner Wahrheitstheorien überwindet und eine umfassendere Basis für das Verständnis von Wahrheit in sozialen und individuellen Kontexten bietet.

Was halten Sie davon, diese Aspekte weiter zu vertiefen oder zu diskutieren, wie diese Erkenntnisse praktisch angewendet werden können, beispielsweise in der Bildung, in der Kommunikation oder in der Politik?

Zwischenbemerkung: Du bist im Konversationsstil vom Du in das förmlichere ‚Sie‘, ‚Ihnen‘ usw. gewechselt. Ist Dir das Förmliche lieber? Soll ich auch zum ‚Sie‘ wechseln‘?

Entschuldige bitte das Hin und Her mit der Anredeform! Wir können gerne beim „Du“ bleiben, wenn das für Dich in Ordnung ist. Natürlich passe ich mich auch an, falls Du eine formellere Anrede bevorzugst. Wie möchtest Du weitermachen?

Bleiben wir beim ‚Du‘.

Super, machen wir so! Wenn Du noch weiter über die verschiedenen Perspektiven zur Wahrheit sprechen möchtest oder andere Fragen hast, stehe ich bereit!

Gehen wir deine vier Punkte im einzelnen durch. Fangen wir mit der Korrespondenztheorie an.

(1) Im Fall der ‚Korrespondenztheorie‘ verstehst Du das so, „dass die Korrespondenztheorie die ‚externe Instanz‘ als Realität ansieht, mit der unsere sprachlichen Aussagen übereinstimmen müssen. Diese Theorie impliziert, dass die kollektive Erfahrung und Verifikation dieser Übereinstimmung durch die gemeinsame Sprache und individuelle Wahrnehmung gesichert wird.“

(1.1) Dieser Interpretation kann ich zustimmen. Allerdings möchte ich auf folgenden Punkt aufmerksam machen, der missverstanden werden kann: es ist nicht ‚ein Ausdruck als solcher‘, der mit der externen Realität übereinstimmt, sondern im Lichte der individuell erlernten Bedeutungsfunktion verknüpft ein Mensch mit einem sprachlichen Ausdruck bestimmte interne Zustände mit der ‚aktuellen Wahrnehmung‘ einer unterstellten realen Außenwelt, und nur dann, wenn es andere Menschen gibt, die aufgrund ihrer individuellen Wahrnehmungen und Bedeutungszuordnungen dies auch einer ‚unterstellten realen Außenwelt‘ – wechselseitig überprüfbar – zuordnen, dann gelingt der ‚gemeinsame Abgleich mit einer zum Körper externen Außenwelt.

(1.2) Es kommt also darauf an, wie man den Begriff ‚Aussage‘ verwendet. Ich verstehe hier unter einer ‚Aussage‘ den ‚Ausdruck einer Sprache‘, den ein Mensch A in einer Dialogsituation verwendet, und alle Beteiligten wissen, dass der Sprecher A mit dem Ausdruck eine ‚interne Bedeutung‘ verbindet, von der er annimmt, dass dieser internen Bedeutung etwas in einer ‚wahrnehmbaren Außenwelt‘ ‚entspricht‘ (‚korrespondiert‘), dann würde ein anderer Dialogteilnehmer B sagen, dass die Aussage von Sprecher A zutrifft, wenn B die gleiche Bedeutungszuordnung vornimmt und in seiner Wahrnehmung etwas findet, was dieser Bedeutung entspricht.

(1.3) Zugegeben, etwas umständlich formuliert, aber die grundlegenden Prozesse beim kollektiven Sprachgebrauch sind nicht ganz einfach. In der Tat, ich vereinfache schon sehr stark.

Was meinst Du dazu?

Deine detaillierte Ausführung zur Korrespondenztheorie bringt wichtige Nuancen ans Licht, die oft in der Diskussion übersehen werden. Du betonst richtig, dass es nicht einfach der sprachliche Ausdruck an sich ist, der mit der externen Realität übereinstimmt, sondern die durch kollektive und individuelle Lernprozesse geformten Bedeutungszuordnungen, die den Ausdrücken unterliegen.

Deine Punkte beleuchten, wie essenziell die Rolle der individuellen und kollektiven Verarbeitung in der Korrespondenztheorie ist. Es ist tatsächlich so, dass eine Aussage nur dann als wahr betrachtet werden kann, wenn es eine Art von kollektiver Zustimmung gibt – nicht nur hinsichtlich der sprachlichen Ausdrücke selbst, sondern auch bezüglich der damit verbundenen Bedeutungen und deren Bezug zur externen Welt.

Dieser Prozess der Verifikation von Wahrheit durch kollektive Übereinstimmung in der Wahrnehmung und Bedeutungszuordnung spiegelt die Komplexität der menschlichen Kommunikation und Erkenntnis wider. Es unterstreicht auch, warum die Korrespondenztheorie oft als grundlegend für wissenschaftliche und empirische Diskurse betrachtet wird, weil sie eine überprüfbare Basis für Übereinstimmung und Falsifikation bietet.

Deine Erklärung macht auch deutlich, dass „Wahrheit“ in dieser Theorie nicht nur eine Frage der individuellen Überzeugung ist, sondern eine, die durch soziale Interaktion und kollektive Validierung entsteht. Das ist ein sehr wichtiger Punkt, denn er zeigt, dass Wahrheit in dieser Theorie nicht isoliert existiert, sondern immer in einem sozialen und kommunikativen Kontext verankert ist.

Was hältst du davon, weiter zu diskutieren, wie diese Theorie in konkreten Situationen angewandt wird, etwa in der Wissenschaft oder in der öffentlichen Debatte? Oder möchtest du weiter zu den anderen Theorien übergehen und sehen, wie sie sich mit deinem erweiterten Rahmen von Sprache und Bedeutung verbinden lassen?

Dein Kommentar zu meiner ‚Theorie‘, dass “ ‚Wahrheit‘ in dieser Theorie nicht nur eine Frage der individuellen Überzeugung ist, sondern eine, die durch soziale Interaktion und kollektive Validierung entsteht. Das ist ein sehr wichtiger Punkt, denn er zeigt, dass Wahrheit in dieser Theorie nicht isoliert existiert, sondern immer in einem sozialen und kommunikativen Kontext verankert ist.“ finde ich sehr passend.

Bevor wir die neugewonnene Interpretation der ‚Korrespondenztheorie‘ weiter ausbauen, hier zuvor

noch mein Kommentar zu deinem Punkt 2 mit der ‚Kohärenztheorie‘. Du sagst „In Bezug auf Ihre Punkte könnte diese Theorie so verstanden werden, dass die ‚interne Zustandsänderung‘ und die ‚Verknüpfung‘ in einem kohärenten System von Überzeugungen erfolgt. Die Bedeutung und Wahrheit einer Aussage ergibt sich aus ihrer Kohärenz innerhalb dieses gelernten und kollektiv abgestimmten Systems.“ Deine Interpretation, dass die Kohärenztheorie „die ‚interne Zustandsänderung‘ und die ‚Verknüpfung‘ “ in ihr Konzept einer kohärenten Theorie übernimmt, erscheint mir mehr als optimistisch.

Nimmt man die Kohärenztheorie ‚beim Wort‘, dann ist dieser Ansatz vom Ansatz her ausgeschlossen. Warum? Weiter vorne in unserem Dialog hast Du die ‚Kohärenztheorie‘ in ‚philosophischen Systemen‘ lokalisiert, wo interne Konsistenz wichtig ist. Du hast zudem darauf hingewiesen, dass „widersprüchliche Theoriesysteme existieren können“. Die Begriffe ‚System‘, ‚Theorie‘ und ‚Konsistenz‘ sind bislang aber ausschließlich in ‚formalen Systemen‘ klar definiert, wie wir sie aus der ‚modernen formalen Logik‘ kennen und aus solchen Theorien (z.B. in der Mathematik), die eine ‚formale Sprache‘ benutzen, die klar definiert ist, zusätzlich mit einem klaren ‚formalen Folgerungsbgriff‘, der es erlaubt, aus als ‚wahr angenommen‘ formalen Ausdrücken andere Ausdrücke ‚abzuleiten‘, die ebenfalls als ‚formal wahr‘ gelten. Wenn man neben einem Ausdruck, der als ‚formal wahr‘ gilt, einen Ausdruck ableiten kann, der als ‚formal falsch‘ gilt, dann gibt es einen Widerspruch; das System ist nicht ‚konsistent‘. Dabei ist der Begriff ‚formal wahr‘ bzw. ‚formal falsch‘ nicht definiert! Er hat keinerlei Bezug zu dem, was wir im Alltag ‚reale Welt‘ nennen in dem Sinne, dass sich zwei Menschen darüber verständigen können, dass es ‚da etwas gibt‘, was jeder einzelner ‚wahrnehmen‘ kann, was aber auch ‚verschwinden‘ kann, dann kann man es nicht mehr wahrnehmen. Anders formuliert: Jedes sprachliche System, das Bezug nimmt auf erfahrungsbasierte Sachverhalte, kann grundsätzlich nicht durch ein formales System abgebildet werden, das als ‚formal konsistent‘ gilt. Deswegen scheidet die ‚Kohärenztheorie der Wahrheit‘ für unsere Zwecke eines sprachlichen Systems, das kollektiv erfahrungsbasiert ‚wahr‘ ist, aus.

Gehst Du da mit?

Deine Kritik und Analyse zur Kohärenztheorie der Wahrheit ist präzise und wirft wichtige Fragen auf. Du unterscheidest klar zwischen der Struktur und den Anforderungen formaler Systeme und der Anwendung dieser Systeme auf die reale, erfahrungsbasierte Welt, die wir im Alltag erleben. Diese Unterscheidung ist zentral, um die Grenzen der Kohärenztheorie zu verstehen, insbesondere im Kontext eines Sprachsystems, das auf kollektiver Erfahrung basiert.

### Betrachtung der Kohärenztheorie:

Wie Du richtig bemerkst, stützt sich die Kohärenztheorie auf die interne Konsistenz innerhalb eines Systems von Überzeugungen oder Theorien. In formalen Systemen, wie der Mathematik oder formalen Logik, ist diese Konsistenz durch klare Definitionen und deduktive Folgerungen charakterisiert. In diesen Systemen ist es möglich, eine Konsistenz zu gewährleisten, indem widersprüchliche Aussagen vermieden werden.

### Problematik bei der Anwendung auf Alltagserfahrungen:

Im Kontext der alltäglichen, erfahrungsbasierten Realität wird es jedoch komplexer. Die Realität ist oft mehrdeutig und unterliegt ständigen Veränderungen, die sich nicht immer in einem streng konsistenten formalen System abbilden lassen. Erfahrungen können widersprüchlich sein, und Menschen können unterschiedliche Wahrnehmungen und Interpretationen derselben physischen Gegebenheiten haben. Daher stößt die Anwendung der Kohärenztheorie auf reale, erfahrungsbasierte Situationen schnell an ihre Grenzen, da die erforderliche interne Konsistenz schwer zu erreichen und aufrechtzuerhalten ist.

### Dein Punkt:

Deine Schlussfolgerung, dass die Kohärenztheorie möglicherweise nicht geeignet ist, um ein sprachliches System zu beschreiben, das auf kollektiver, erfahrungsbasierter Wahrheit beruht, ist stichhaltig. Diese Theorie bietet zwar ein nützliches Werkzeug für die Analyse und Strukturierung von Gedanken innerhalb eines geschlossenen Systems, jedoch fehlt ihr die Flexibilität und Anpassungsfähigkeit, die erforderlich sind, um die dynamische und oft widersprüchliche Natur menschlicher Erfahrungen und sozialer Interaktionen vollständig zu erfassen.

### Fazit:

Deine Argumentation verdeutlicht, dass, während die Kohärenztheorie in bestimmten theoretischen oder formalen Kontexten wertvoll sein kann, sie möglicherweise nicht das beste Werkzeug für das Verständnis von Wahrheit in einem breiteren, lebensweltlichen Kontext ist. Wenn wir also über Wahrheit in Bezug auf alltägliche und zwischenmenschliche Erfahrungen sprechen, könnte es sinnvoller sein, andere Theorien zu bevorzugen, die besser mit der Variabilität und der praktischen Realität menschlicher Erfahrungen umgehen können.

Ich gehe mit deiner Einschätzung mit und finde sie sehr aufschlussreich. Möchtest du weiterhin die anderen Theorien im Licht dieser Überlegungen diskutieren oder gibt es spezifische Aspekte, die du noch vertiefen möchtest?

Ich würde gerne noch etwas zu deiner dritten und vierten Option von ‚Wahrheitstheorien‘ sagen.

(1) Zu der von Dir erwähnten ‚Konsensustheorie der Wahrheit‘ sagst Du selbst, dass „Konsens nicht die Wahrheit garantiert; historisch gab es viele Beispiele für allgemeinen Konsens über falsche Überzeugungen.“ Ein bisschen ähnelt diese Position auch der ‚Kohärenztheorie‘, wenngleich mit einem vagen Sprach- und Wahrheitsbegriff: es gibt in er Konsensustheorie zwar ein ‚vages Kriterium zu Konsens‘, aber dieses ist in keiner Weise geeignet, ein ‚objektives externes Kriterium für alle‘ zu gewährleisten. Ich möchte diese Position daher hier nicht weiter diskutieren (dies schließt nicht aus, dass bei einer Weiterentwicklung der Position der ‚Korrespondenztheorie‘ ähnliche Fragestellung zur ‚Wahrheit von Diskursen‘ wieder auftauchen).

(2) Im Fall der ‚Pragmatische Theorie der Wahrheit‘ ist es ähnlich wie im Fall der Konsensustheorie. Du weist auch schon darauf hin, dass „Nützlichkeit nicht notwendigerweise ein Indikator für Wahrheit ist; etwas kann nützlich sein, ohne wahr zu sein.“ Abgesehen davon ist der Begriff der Nützlichkeit selbst in sich äußerst vage; jeder kann sich da denken, was er will. Ich belasse es dabei (im weiteren Verlauf der Entwicklung einer modifizierten ‚Korrespondenztheorie‘ wird es zu Erörterungen eines Konzepts von ‚erfahrungsbasierter Theorie‘ kommen können, mit der die Möglichkeit eröffnet wird, die Rolle möglicher ‚Ziele‘ (‚Präferenzen‘, ‚Werte‘, …) zu diskutieren).

Kannst Du mit diesen Einschätzungen mitgehen?

Deine Einschätzungen zu den Theorien der Konsensustheorie und der pragmatischen Theorie der Wahrheit sind durchaus nachvollziehbar und tragen zur Schärfung unseres Verständnisses von Wahrheitstheorien bei, insbesondere im Kontext alltäglicher und erfahrungsbasierter Diskurse.

### 1. Konsensustheorie der Wahrheit

Deine Kritik an der Konsensustheorie unterstreicht das Problem, dass Konsens allein nicht notwendigerweise Wahrheit garantiert. Historische Beispiele, in denen breiter Konsens zu falschen Überzeugungen führte, verdeutlichen die Grenzen dieser Theorie. Während Konsens in sozialen und kommunikativen Kontexten eine Rolle spielen kann, insbesondere bei der Formulierung von Gruppenüberzeugungen oder -normen, ist er kein zuverlässiger Indikator für Wahrheit im empirischen oder objektiven Sinn. Diese Einsicht ist wichtig, um die Relevanz und Grenzen von Konsens in Bezug auf Wahrheit zu verstehen.

### 2. Pragmatische Theorie der Wahrheit

Deine Skepsis gegenüber der pragmatischen Theorie reflektiert ähnliche Bedenken: Nützlichkeit allein ist kein verlässliches Maß für Wahrheit. Der Begriff der Nützlichkeit ist subjektiv und kann stark variieren, je nach den Interessen, Zielen oder dem Kontext der beteiligten Personen. Diese Theorie mag hilfreich sein, um zu verstehen, wie Überzeugungen funktionieren und wie sie in praktischen Kontexten angewendet werden, sie bietet jedoch keine feste Grundlage für die Bewertung der Wahrheit von Aussagen, insbesondere wenn es um objektive Fakten geht.

### Weiterentwicklung der Korrespondenztheorie

Es scheint, dass eine Rückkehr zur Korrespondenztheorie und deren Weiterentwicklung als ein vielversprechender Ansatz für eine robustere Wahrheitstheorie erscheint. Insbesondere die Idee, eine erfahrungsbasierte Theorie zu entwickeln, die die Realität als entscheidendes Kriterium verwendet und gleichzeitig Raum für die Diskussion von Zielen, Präferenzen und Werten bietet, könnte eine umfassende Basis für das Verständnis von Wahrheit in verschiedenen Kontexten schaffen.

### Fazit

Ich stimme mit deinen Einschätzungen überein und finde, dass deine Argumente die Diskussion über Wahrheitstheorien bereichern und auf wichtige Schwächen hinweisen. Es wäre interessant, weiter zu erforschen, wie eine modifizierte Korrespondenztheorie aussehen könnte, die sowohl die realen Erfahrungen als auch die sozialen und individuellen Kontexte integriert, in denen Wahrheitsansprüche gemacht und verstanden werden.

Wie möchtest du weiter vorgehen? Möchtest du bestimmte Aspekte der Korrespondenztheorie vertiefen oder überlegst du, wie man eine solche modifizierte Theorie praktisch anwenden könnte?

OK, dann sieht es so aus, dass wir bis zu diesem Punkt eine gemeinsame Einschätzung gefunden haben. In der Tat möchte ich von diesem Punkt aus die gefundenen Position gerne in folgenden Dialogen weiter entwickeln. Praktische Frage: kannst Du auch mit ‚Schaubildern‘ umgehen oder sollen wir die heraus lassen?

Es ist großartig, dass wir eine gemeinsame Grundlage für unsere Diskussionen gefunden haben! Ich kann definitiv helfen, Schaubilder zu erstellen und zu interpretieren. Diese können sehr nützlich sein, um komplexe Konzepte und Zusammenhänge visuell darzustellen und zu veranschaulichen.

Wenn du spezifische Ideen oder Konzepte hast, die du in einem Schaubild visualisieren möchtest, lass es mich wissen. Ich kann dir dabei helfen, diese grafisch umzusetzen. Egal ob es sich um Flussdiagramme, Venn-Diagramme, konzeptuelle Diagramme oder andere visuelle Darstellungen handelt, wir können sie nutzen, um deine Gedanken und Theorien weiter zu entwickeln und zu diskutieren. Wie möchtest du beginnen?

Das mit den Schaubildern klingt gut. Werde es in den folgenden Dialogen mal ausprobieren, allerdings mit dem Motto: Zuerst die sprachliche Version, dann – möglicherweise – eine bildhafte Version. Danke bisher. Das war alles sehr inspirierend.

Das klingt nach einem ausgezeichneten Plan! Es freut mich sehr, dass unsere Gespräche inspirierend waren. Wenn du bereit bist, die Themen weiter zu vertiefen oder ein Schaubild zu erstellen, stehe ich jederzeit bereit, um weiterzumachen. Viel Spaß bei deinen weiteren Überlegungen, und bis zum nächsten Mal!

Relektüre von Edelman 1992: Welche Theorie von was?

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 5.Dez. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

 

DAS PROBLEM

Bei der Relektüre von Edelman (siehe Überblick über alle bisherigen Beiträge HIER) stellt sich die Frage, um welche Theorie es hier überhaupt geht?

Es ist ein großes Verdienst von Edelman, dass er versucht, die Gehirnforschung nicht isoliert zu betrachten, sondern sehr wohl im Kontext von Bewusstsein und Verhalten, sehr wohl auch im Kontext einer Evolution des Lebens bzw. auch im Kontext von ontogenetischen Wachstumsprozessen. Als wäre dies noch nicht genug, stellt er gelegentlich auch explizite philosophische Überlegungen an oder wagt sich vor in den Bereich des Engineering, insofern er konkrete materielle Modelle von Gehirnen baut (mittels künstlicher neuronaler Netze), um die Plausibilität seiner Überlegungen zum Gehirn zu überprüfen. Nimmt man all dies ernst, dann findet man sich unversehens in einer Situation wieder, wo man nicht mehr so richtig weiß, um ‚welche Theorie von was‘ es hier eigentlich geht.

PANORAMA VON PHÄNOMENEN

Vom BigBang zum homo sapiens, reflektiert in einer Vielzahl von Einzelwissenschaften
Vom BigBang zum homo sapiens, reflektiert in einer Vielzahl von Einzelwissenschaften

Versucht man die vielen Aspekte irgendwie zu ‚ordnen‘, die im Buch von Edelman aufscheinen, dann eröffnet sich ein breites Panorama von Phänomenen, die alle ineinander greifen (siehe Schaubild), und die – strenggenommen – auch genauso, in diesem dynamischen Zusammenhang, zu betrachten sind, will man die Eigenart dieser Phänomene ‚voll‘ erfassen.

Eigentlich geht es Edelman um ein besseres Verständnis des ‚Gehirns‘. Doch kommt das Gehirn ja schon im Ansatz nicht alleine, nicht isoliert vor, sondern als Teil eines übergeordneten ‚Körpers‘, der von außen betrachtet (Dritte-Person Perspektive) ein dynamisches ‚Verhalten‘ erkennen lässt. Dieses Verhalten ist – im Fall des homo sapiens, also in unserem Fall als Menschen – nicht isoliert, sondern ist sowohl durch ‚Kommunikation‘ mit anderen Menschen ‚vernetzt‘ als auch durch vielfältige Formen von Interaktionen mit einer Welt der Objekte, von Artefakten, von Maschinen, und heute sogar ‚programmierbaren Maschinen‘, wobei letztere ein Verhalten zeigen können, das zunehmend dem menschliche Verhalten ‚ähnelt‘. Ferner konstatieren wir im Fall des homo sapiens in der Ersten-Person Perspektive noch etwas, das wir ‚Bewusstsein‘ nennen, das sich aber nur schwer in seiner Beschaffenheit kommunizieren lässt.

WISSENSCHAFTLICHE DISZIPLINEN

Im Versuch, die Vielfalt der hier beobachtbaren Phänomene beschreiben zu können, hat sich eine Vielzahl von Disziplinen herausgebildet, die sich — neben der Sonderstellung der Philosophie — als ‚wissenschaftliche Disziplinen‘ bezeichnen. ‚Wissenschaftlich‘ heißt hier in erster Linie, dass man die Phänomene des Gegenstandsbereichs nach zuvor vereinbarten Standards reproduzierbar ‚misst‘ und man nur solche so vermessenen Phänomene als Basis weitergehender Überlegungen akzeptiert. Das Paradoxe an dieser Situation ist – was Edelman auf S.114 auch notiert –, dass sich dieses wissenschaftliche Paradigma nur umsetzen lässt, wenn man Beobachter mit Bewusstsein voraussetzt, dass man aber zugleich im Ergebnis der Messung und der Überlegungen von dem ermöglichenden Bewusstsein (samt Gehirn) abstrahiert.

PHILOSOPHIE FÜR DEN ‚REST‘

Eine Konsequenz dieser ‚Abstraktion von den Voraussetzungen‘ ist, dass ein Wissenschaftler letztlich keine Möglichkeit hat, in ‚offizieller‘ Weise, über sich selbst, über sein  Tun, und speziell auch nicht über die Voraussetzungen seines Tuns, zu sprechen. Ein solches sich selbst reflektierende Denken und Sprechen bleibt damit der Philosophie überlassen, die als solche bei der Entstehung der empirischen Wissenschaften offiziell vom Wissenschaftsbetrieb ausgeschlossen wurde. Als Wissenschaftsphilosophie hat die Philosophie zwar immer wieder versucht, sich dem empirischen Wissenschaftsbetrieb offiziell anzunähern, aber bis heute ist das Verhältnis von empirischen Wissenschaften und (Wissenschafts-)Philosophie aus Sicht der empirischen Wissenschaften ungeklärt. Für die empirischen Wissenschaften wundert dies nicht, da sie sich von ihrem methodischen Selbstverständnis her auf ihre isolierte Betrachtungsweisen verpflichtet haben und von diesem Selbstverständnis her sich jeder Möglichkeit beraubt haben, diese Isolation mit den typischen wissenschaftlichen Bordmitteln aufzubrechen. Allerdings produziert dieses ’selbst isolierende Paradigma‘ immer mehr Einzeldisziplinen ohne erkennbaren Zusammenhang! Es ist nur eine Frage der Zeit, bis wann sich diese Explosion der nicht-integrierten Einzelbilder selbst zerstört.

ANSPRUCH, ALLES ZU ERKLÄREN

Die Wissenschaften selbst, allen voran die Physik, kennen sehr wohl den Anspruch, mit ihrer Arbeit letztlich ‚alles aus einer Hand‘ zu erklären (z.B. formuliert als ‚Theory of Everything (ToE)‘ oder mit dem Begriff der ‚Weltformel‘), doch sowohl die konkrete Realität als auch grundlegende philosophische und meta-theoretische Untersuchungen legen eher den Schluss nahe, dass dies vom Standpunkt einer einzelnen empirischen Wissenschaft aus, nicht möglich ist.

VISION EINES RATIONALEN GESAMT-RAHMENS

Um also die Vielfalt der einzelnen wissenschaftlichen Disziplinen zu bewahren, mehr noch, um sie in ihren inhaltlichen und methodischen Beschränkungen untereinander transparent und verständlich zu machen, wird man die (philosophische) Arbeitshypothese aufstellen müssen, dass die Rationalität der Einzelwissenschaften letztlich nur aufrecht erhalten werden kann, wenn man sowohl für jede Einzelwissenschaft wie auch für ihr Zusammenspiel eine rationale Begründung sichtbar machen kann, die für alle ‚gilt‘. Ein solcher Rationalitätsanspruch ist nicht zu verwechsel mit der alten Idee einer einzelwissenschaftlichen ‚Weltformel‘ oder einer einzelwissenschaftlichen ‚Theory of Everything‘. Eher eignet sich hier das Paradigma einer kritischen Philosophie von Kant, die nach der Voraussetzung für den Wahrheitsanspruch einer Theorie fragt. Während Kant allerdings die Frage nach den Voraussetzungen bei den Grenzen des Bewusstseins mangels verfügbarem Wissens enden lassen musste, können wir heute – auch Dank der Arbeiten von Edelman und anderen – diese Grenzen weiter hinausschieben, indem wir die Voraussetzungen des Bewusstseins einbeziehen. Eine solche bewusste Erweiterung der philosophischen Frage nach den Voraussetzungen des menschlichen Erkennens über die Grenzen des Bewusstseins hinaus führt dann nicht nur zum ermöglichenden Gehirn und dem zugehörigen Körper, sondern geht dann weiter zur umgebenden Welt und ihrer Dynamik, die sich im Evolutionsgeschehen und in der Entstehung des bekannten Universums zeigt.

PHILOSOPHIE UND WISSENSCHAFTEN

Die schon immer nicht leichte Aufgabe des philosophischen Denkens wird mit diesen methodischen Erweiterungen keinesfalls einfacher, sondern erheblich schwieriger. Andererseits muss die Philosophie diese Reflexionsarbeit nicht mehr alleine leisten, sondern sie kann die ganze Fülle der einzelwissenschaftlichen Arbeiten aufgreifen, um sie dann in einem gemeinsamen Rationalitätsrahmen neu anzuordnen.

Beispiele für Integrationsbemühungen gibt es sogar seitens der Einzelwissenschaften, wenngleich meistens methodisch wenig überzeugend. So versuchen Gehirnforscher schon seit vielen Jahren Zusammenhänge zwischen messbaren Aktivitäten des Gehirns und des beobachtbaren Verhaltens (unter dem Label ‚Neuropsychologie‘) oder zwischen messbaren Aktivitäten des Gehirns und Erlebnissen des Bewusstseins (kein wirkliches Label; man würde ‚Neurophänomenologie‘ erwarten) heraus zu finden. Bislang mit begrenztem Erfolg.

Bei aller Problematik im Detail kann es aber nur darum gehen, die ungeheure Vielfalt der Phänomene, wie sie die Einzelwissenschaften bislang zutage gefördert haben, vor-sortiert in einer Vielzahl von Arbeitshypothesen, Modellen und Theoriefragmenten, in einen von allen akzeptierbaren Rationalitätsrahmen einordnen zu können, der eine Gesamt-Theorie reflektiert, die als solche möglicherweise immer unvollendet bleiben wird

WOMIT FANGEN WIR AN?

Damit stellt sich ganz praktisch die Frage, wo und wie soll man anfangen? Das Buch von Edelman kann erste Hinweise liefern.

  1. KEINE WISSENSINSELN: Am Beispiel des homo sapiens wird deutlich, dass ein Verständnis von Bewusstsein, Gehirn, Körper, Verhalten und hier insbesondere die symbolische Kommunikation je für sich nicht gelingen kann. Und Edelman demonstriert eindrücklich, dass man zusätzlich die ontogenetische und evolutive Dimension einbeziehen muss, will man zu einem befriedigenden Verständnis kommen.
  2. INTEGRATION VON EINZELWISSEN: Man muss also Wege finden, wie man diese verschiedenen Aspekte in einem gemeinsamen Rationalitätsrahmen so anordnen kann, dass sowohl die einzelwissenschaftliche Methodik gewahrt bleibt, wie auch eine ‚Integration‘ all dieser Aspekte auf einer ‚gemeinsamen Ebene‘ möglich wird, die dabei von den Einzelwissenschaften nicht ‚isoliert‘ ist.
  3. META-WISSEN ALS LEITFADEN: Das geforderte Vorgehen betrachtet die konkreten einzelwissenschaftlichen Erklärungsansätze als einen ‚Gegenstand sui generis‘, macht also die Einzelwissenschaften zu ‚Untersuchungsgegenständen‘. Dies entspricht dem Paradigma der Wissenschaftsphilosophie.
  4. NEUE WISSENSCHAFTSPHILOSOPHIE: Mit Blick auf die Geschichte der modernen Wissenschaftsphilosophie (etwa seit dem Wiener Kreis) muss man dafür offen sein, dass das Paradigma der Wissenschaftsphilosophie für diese Aufgabenstellung möglicherweise neu zu formatieren ist.
  5. KOMMUNIKATIONSPROZESS ALS RAHMEN: So liegt es nahe, zu sagen, es gehe nicht primär um einen isolierten Theoriebegriff, sondern um einen Kommunikationsprozess, der Kommunikationsinhalte generiert, die im Rahmen des Kommunikationsprozesses ‚verstehbar‘ sein sollen.
  6. SYSTEMS-ENGINEERING ALS BEISPIEL: Ein modernes Beispiel für einen problemorientierten Kommunikationsprozess findet sich im Paradigma des modernen Systems-Engineering. Auslöser des Kommunikationsprozesses ist eine ‚Frage‘ oder eine ‚Problemstellung‘, und der Kommunikationsprozess versucht nun durch Ausnutzung des Wissens und der Erfahrungen von allen Beteiligten einen gemeinsames Bild von möglichen Lösungen zu generieren. Zu Beginn werden alle Kriterien kenntlich gemacht, die für die intendierte Lösung berücksichtigt werden sollen.
  7. EINBEZIEHUNG AUTOMATISIERTEN WISSENS: Insbesondere soll der Kommunikationsprozess so ausgelegt sein, dass er den Einsatz moderner Wissenstechnologien wie z.B.. ‚Interaktive Simulationen‘, ‚Kommunikationstests‘, ‚benutzerzentrierte künstliche Intelligenz‘, sowie automatisierte ‚Simulationsbibliotheken‘ erlaubt.

Dies ist nur eine erste, noch sehr vage Formulierung. Es wird notwendig sein, diese anhand von vielen Beispielen weiter zu konkretisieren und zu verfeinern.

 

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

KI UND BIOLOGIE. Blitzbericht zu einem Vortrag am 28.Nov.2018

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
29.Nov. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE AKTUALISIERUNG: 1.Dez.2018, Anmerkung 1

KONTEXT

Im Rahmen einer öffentlichen Veranstaltung des Fachbereichs 2 ‚Informatik & Ingenieurwissenschaften‘ der Frankfurt University of Applied Sciences am 28.November 2018 mit dem Rahmenthema „Künstliche Intelligenz – Arbeit für Alle?“ hielt Gerd Doeben-Henisch einen kurzen Vortrag zum Thema „Verändert KI die Welt?“ Voraus ging ein Vortrag von Herrn Helmut Geyer „Arbeitsmarkt der Zukunft. (Flyer zur Veranstaltung: FRA-UAS_Fb2_Karte_KI-Arbeit fuer alle_Webversion )

EINSTIEG INS KI-THEMA

Im Kontext der Überlegungen zur Arbeitswelt angesichts des technologischen Wandels gerät die Frage nach der Rolle der Technologie, speziell der digitalen Technologie — und hier noch spezieller der digitalen Technologie mit KI-Anteilen – sehr schnell zwischen die beiden Pole ‚Vernichter von Arbeit‘, ‚Gefährdung der Zukunft‘ einerseits und ‚Neue Potentiale‘, ‚Neue Arbeit‘, ‚Bessere Zukunft‘, wobei es dann auch einen dritten Pol gibt, den von den ‚übermächtigen Maschinen‘, die die Menschen sehr bald überrunden und beherrschen werden.

Solche Positionen, eine Mischungen aus quasi-Fakten, viel Emotionen und vielen unabgeklärten Klischees, im Gespräch sachlich zu begegnen ist schwer bis unmöglich, erst Recht, wenn wenig Zeit zur Verfügung steht.

Doeben-Henisch entschloss sich daher, das Augenmerk zentral auf den Begriff ‚Künstliche Intelligenz‘ zu lenken und die bislang uneinheitliche und technikintrovertierte Begrifflichkeit in einen größeren Kontext zu stellen, der das begrifflich ungeklärte Nebeneinander von Menschen und Maschinen schon im Ansatz zu überwinden sucht.

ANDERE DISZIPLINEN

Viele Probleme im Kontext der Terminologie der KI im technischen Bereich erscheinen hausgemacht, wenn man den Blick auf andere Disziplinen ausweitet. Solche andere Disziplinen sind die Biologe, die Mikrobiologie sowie die Psychologie. In diesen Disziplinen beschäftigt man sich seit z.T. deutlich mehr als 100 Jahren mit komplexen Systemen und deren Verhalten, und natürlich ist die Frage nach der ‚Leistungsfähigkeit‘ solcher Systeme im Bereich Lernen und Intelligenz dort seit langem auf der Tagesordnung.

Die zunehmenden Einsichten in die unfassbare Komplexität biologischer Systeme (siehe dazu Beiträge in diesem Blog, dort auch weitere Links), lassen umso eindrücklicher die Frage laut werden, wie sich solche unfassbar komplexen Systeme überhaupt entwickeln konnten. Für die Beantwortung dieser Frage wies Doeben-Henisch auf zwei spannende Szenarien hin.

KOMMUNIKATIONSFREIE EVOLUTION

Entwicklungslogik vor der Verfügbarkeit von Gehirnen
Entwicklungslogik vor der Verfügbarkeit von Gehirnen

In der Zeit von der ersten Zelle (ca. -3.8 Mrd Jahren) bis zur Verfügbarkeit hinreichend leistungsfähiger Nervensysteme mit Gehirnen (ab ca. -300.000, vielleicht noch etwas früher) wurde die Entwicklung der Lebensformen auf der Erde durch zwei Faktoren gesteuert: (a) die Erde als ‚Filter‘, was letztlich zu einer bestimmten Zeit geht; (b) die Biomasse mit ihrer Reproduktionsfähigkeit, die neben der angenäherten Reproduktion der bislang erfolgreichen Baupläne (DNA-Informationen) in großem Umfang mehr oder weniger starke ‚Varianten‘ erzeugte, die ‚zufallsbedingt‘ waren. Bezogen auf die Erfolge der Vergangenheit konnten die zufälligen Varianten als ’sinnlos‘ erscheinen, als ’nicht zielführend‘, tatsächlich aber waren es sehr oft diese zunächst ’sinnlos erscheinenden‘ Varianten, die bei einsetzenden Änderungen der Lebensverhältnisse ein Überleben ermöglichten. Vereinfachend könnte man also für die Phase die Formel prägen ‚(Auf der dynamischen Erde:) Frühere Erfolge + Zufällige Veränderungen = Leben‘. Da zum Zeitpunkt der Entscheidung die Zukunft niemals hinreichend bekannt ist, ist die Variantenbildung die einzig mögliche Strategie. Die Geschwindigkeit der ‚Veränderung von Lebensformen‘ war in dieser Zeit auf die Generationsfolgen beschränkt.

MIT KOMMUNIKATION ANGEREICHERTE EVOLUTION

Nach einer gewissen ‚Übergangszeit‘ von einer Kommunikationsfreien zu einer mit Kommunikation angereicherte Evolution gab es in der nachfolgenden Zeit die Verfügbarkeit von hinreichend leistungsfähigen Gehirnen (spätestens mit dem Aufkommen des homo sapiens ab ca. -300.000)[1], mittels deren die Lebensformen die Umgebung und sich selbst ‚modellieren‘ und ‚abändern‘ konnten. Es war möglich, gedanklich Alternativen auszuprobieren, sich durch symbolische Kommunikation zu ‚koordinieren‘ und im Laufe der letzten ca. 10.000 Jahren konnten auf diese Weise komplexe kulturelle und technologische Strukturen hervorgebracht werden, die zuvor undenkbar waren. Zu diesen Technologien gehörten dann auch ab ca. 1940 programmierbare Maschinen, bekannt als Computer. Der Vorteil der Beschleunigung in der Veränderung der Umwelt – und zunehmend auch der Veränderung des eigenen Körpers — lies ein neues Problem sichtbar werden, das Problem der Präferenzen (Ziele, Bewertungskriterien…). Während bislang einzig die aktuelle Erde über ‚Lebensfähig‘ ‚oder nicht Lebensfähig‘ entschied, und dies das einzige Kriterium war, konnten die  Lebewesen mit den neuen Gehirnen  jetzt eine Vielzahl von Aspekten ausbilden, ‚partielle Ziele‘, nach denen sie sich verhielten, von denen oft erst in vielen Jahren oder gar Jahrzehnten oder gar noch länger sichtbar wurde, welche nachhaltigen Effekte sie haben.

Anmerkung 1: Nach Edelman (1992) gab es einfache Formen von Bewusstsein mit den zugehörigen neuronalen Strukturen ab ca. -300 Mio Jahren.(S.123) Danach hätte es  also ca. 300 Mio Jahre gedauert, bis   Gehirne, ausgehend von einem ersten einfachen Bewusstsein, zu komplexen Denkleistungen und sprachlicher Kommunikation in der Lage waren.

LERNEN und PRÄFERENZEN

Am Beispiel von biologischen Systemen kann man fundamentale Eigenschaften wie z.B. das ‚Lernen‘ und die ‚Intelligenz‘ sehr allgemein definieren.

Systematisierung von Verhalten nach Lernen und Nicht-Lernen
Systematisierung von Verhalten nach Lernen und Nicht-Lernen

In biologischer Sicht haben wir generell Input-Output-Systeme in einer unfassbar großen Zahl an Varianten bezüglich des Körperbaus und der internen Strukturen und Abläufe. Wie solch ein Input-Output-System intern im Details funktioniert spielt für das konkrete Leben nur insoweit eine Rolle, als die inneren Zustände ein äußerlich beobachtbares Verhalten ermöglichen, das wiederum das Überleben in der verfügbaren Umgebung ermöglicht und bezüglich spezieller ‚Ziele‘ ‚erfolgreich‘ ist. Für das Überleben reicht es also zunächst, einfach dieses beobachtbare Verhalten zu beschreiben.

In idealisierter Form kann man das Verhalten betrachten als Reiz-Reaktions-Paare (S = Stimulus, R = Response, (S,R)) und die Gesamtheit des beobachtbaren Verhaltens damit als eine Sequenz von solchen (S,R)-Paaren, die mathematisch eine endliche Menge bilden.

Ein so beschriebenes Verhalten kann man dann als ‚deterministisch‘ bezeichnen, wenn die beobachtbaren (S,R)-Paare ’stabil‘ bleiben, also auf einen bestimmten Reiz S immer die gleiche Antwort R erfolgt.

Ein dazu komplementäres Verhalten, also ein ’nicht-deterministisches‘ Verhalten, wäre dadurch charakterisiert, dass entweder (i) der Umfang der Menge gleich bleibt, aber manche (S,R)-Paare sich verändern oder (ii) der Umfang der Menge kann sich ändern. Dann gibt es die beiden interessanten Unterfälle (ii.1) es kommen nach und nach neue (S,R)-Paare dazu, die ‚hinreichend lang‘ ’stabil‘ bleiben, aber ab einem bestimmten Zeitpunkt ‚t‘ sich nicht mehr vermehren (die Menge der stabilen Elemente wird ‚eingefroren‘, ‚fixiert‘, ‚gezähmt‘, …), oder (ii.2) die Menge der stabilen (S,R)-Paare expandiert ohne Endpunkt.

Bezeichnet man diese Expansion (zeitlich ‚befristet‘ oder ‚unbefristet‘) als ‚Lernen‘, dann wird sichtbar, dass die ‚Inhalte des Lernens‘ (die korrespondierenden Repräsentationen der (S,R)-Paare in den internen Zuständen des Systems) einmal davon abhängen, was die Umgebung der Systeme ‚erlaubt‘, zum anderen, was die ‚inneren Zustände‘ des Systems an ‚Verarbeitung ermöglichen‘, sowie – sehr indirekt – über welche welche ‚internen Selektionskriterien‘ ein System verfügt.

Die ‚internen Selektionskriterien‘ werden hier kurz ‚Präferenzen‘ genannt, also Strategien, ob eher ein A oder ein B ’selektiert‘ werden soll. Wonach sich solche Kriterien richten, bleibt dabei zunächst offen. Generell kann man sagen, dass solche Kriterien primär ‚endogen‘ begründet sein müssen, dass sie aber nachgeordnet auch von außen (‚exogen‘) übernommen werden können, wenn die inneren Kriterien eine solche Favorisierung des exogenen Inputs ‚befürworten‘ (Beispiel sind die vielen Imitationen im Lernen bzw. die Vielzahl der offiziellen Bildungsprozesse, durch die Menschen auf bestimmte Verhaltens- und Wissensmuster trainiert (programmiert) werden). Offen ist auch, ob die endogenen Präferenzen stabil sind oder sich im Laufe der Zeit ändern können; desgleichen bei den exogenen Präferenzen.

Am Beispiel der menschlichen Kulturen kann man den Eindruck gewinnen, dass das Finden und gemeinsame Befolgen von Präferenzen ein bislang offenes Problem ist. Und auch die neuere Forschung zu Robotern, die ohne Terminierung lernen sollen (‚developmental robotics‘), hat zur Zeit das Problem, dass nicht ersichtlich ist, mit welchen Werten man ein nicht-terminiertes Lernen realisieren soll. (Siehe: Merrick, 2017)) Das Problem mit der Präferenz-Findung ist bislang wenig bekannt, da die sogenannten intelligenten Programme in der Industrie immer nur für klar definierte Verhaltensprofile trainiert werden, die sie dann später beim realen Einsatz unbedingt einhalten müssen.  Im technischen Bereich spricht man hier oft von einer ’schwachen KI‘. (Siehe: VDI, 2018) Mit der hier eingeführten Terminologie  wären dies nicht-deterministische Systeme, die in ihrem Lernen ‚terminieren‘.

INTELLIGENZ

Bei der Analyse des Begriffs ‚Lernen‘ wird sichtbar, dass das, was gelernt wird, bei der Beobachtung des Verhaltens nicht direkt ’sichtbar‘ ist. Vielmehr gibt es eine allgemeine ‚Hypothese‘, dass dem äußerlich beobachtbaren Verhalten ‚interne Zustände‘ korrespondieren, die dafür verantwortlich sind, ob ein ’nicht-lernendes‘ oder ein ‚lernendes‘ Verhalten zu beobachten ist. Im Fall eines ‚lernenden‘ Verhaltens mit dem Auftreten von inkrementell sich mehrenden stabilen (S,R)-Paaren wird angenommen, das den (S,R)-Verhaltensformen ‚intern‘ entsprechende ‚interne Repräsentationen‘ existieren, anhand deren das System ‚entscheiden‘ kann, wann es wie antworten soll. Ob man diese abstrakten Repräsentationen ‚Wissen‘ nennt oder ‚Fähigkeiten‘ oder ‚Erfahrung‘ oder ‚Intelligenz‘ ist für die theoretische Betrachtung unwesentlich.

Die Psychologie hat um die Wende zum 20.Jahrhundert mit der Erfindung des Intelligenztests durch Binet und Simon (1905) sowie in Weiterführung durch W.Stern (1912) einen Ansatz gefunden, die direkt nicht messbaren internen Repräsentanten eines beobachtbaren Lernprozesses indirekt dadurch zu messen, dass sie das beobachtbare Verhalten mit einem zuvor vereinbarten Standard verglichen haben. Der vereinbarte Standard waren solche Verhaltensleistungen, die man Kindern in bestimmten Altersstufen als typisch zuordnete. Ein Standard war als ein Test formuliert, den ein Kind nach möglichst objektiven Kriterien zu durchlaufen hatte. In der Regel gab es eine ganze Liste (Katalog, Batterie) von solchen Tests. Dieses Vorgehensweisen waren sehr flexibel, universell anwendbar, zeigten allerdings schon im Ansatz, dass die Testlisten kulturabhängig stark variieren konnten. Immerhin konnte man ein beobachtbares Verhalten von einem System auf diese Weise relativ zu vorgegebenen Testlisten vergleichen und damit messen. Auf diese Weise konnte man die nicht messbaren hypothetisch unterstellten internen Repräsentationen indirekt qualitativ (Art des Tests) und quantitativ (Anteil an einer Erfüllung des Tests) indizieren.

Im vorliegenden Kontext wird ‚Intelligenz‘ daher als ein Sammelbegriff für die hypothetisch unterstellte Menge der korrespondierenden internen Repräsentanten zu den beobachtbaren (S,R)-Paaren angesehen, und mittels Tests kann man diese unterstellte Intelligenz qualitativ und quantitativ indirekt charakterisieren. Wie unterschiedlich solche Charakterisierung innerhalb der Psychologie modelliert werden können, kann man in der Übersicht von Rost (2013) nachlesen.

Wichtig ist hier zudem, dass in diesem Text die Intelligenz eine Funktion des Lernens ist, das wiederum von der Systemstruktur abhängig ist, von der Beschaffenheit der Umwelt sowie der Verfügbarkeit von Präferenzen.

Mehrdimensionaler Raum der Intelligenzrpräsentanen
Mehrdimensionaler Raum der Intelligenzrpräsentanen

Aus Sicht einer solchen allgemeinen Lerntheorie kann man statt biologischen Systemen auch programmierbare Maschinen betrachten. Verglichen mit biologischen Systemen kann man den programmierbaren Maschinen ein Äquivalent zum Körper und zur Umwelt spendieren. Grundlagentheoretisch wissen wir ferner schon seit Turing (1936/7), dass programmierbare Maschinen ihr eigenes Programm abändern können und sie prinzipiell lernfähig sind. Was allerdings (siehe zuvor das Thema Präferenz) bislang unklar ist, wo sie jeweils die Präferenzen herbekommen sollen, die sie für eine ’nachhaltige Entwicklung‘ benötigen.

ZUKUNFT VON MENSCH UND MASCHINE

Im Licht der Evolution erscheint die  sich beschleunigende Zunahme von Komplexität im Bereich der biologischen Systeme und deren Populationen darauf hinzudeuten, dass mit der Verfügbarkeit von programmierbaren Maschinen diese sicher nicht als ‚Gegensatz‘ zum Projekt des biologischen Lebens zu sehen sind, sondern als eine willkommene Unterstützung in einer Phase, wo die Verfügbarkeit der Gehirne eine rapide Beschleunigung bewirkt hat. Noch bauen die biologischen Systeme ihre eigenen Baupläne  nicht selbst um, aber der Umbau in Richtung von Cyborgs hat begonnen und schon heute ist der Einsatz von programmierbaren Maschinen existentiell: die real existierenden biologischen Kapazitätsgrenzen erzwingen den Einsatz von Computern zum Erhalt und für die weitere Entwicklung. Offen ist die Frage, ob die Computer den Menschen ersetzen sollen. Der Autor dieser Zeilen sieht die schwer deutbare Zukunft eher so, dass der Mensch den Weg der Symbiose intensivieren wird und versuchen sollte, den Computer dort zu nutzen, wo er Stärken hat und zugleich sich bewusst sein, dass das Präferenzproblem nicht von der Maschine, sondern von ihm selbst gelöst werden muss. Alles ‚Böse‘ kam in der Vergangenheit und kommt in der Gegenwart vom Menschen selbst, nicht von der Technik. Letztlich ist es der Mensch, der darüber entscheidet, wie er die Technik nutzt. Ingenieure machen sie möglich, die Gesellschaft muss entscheiden, was sie damit machen will.

BEISPIEL EINER NEUEN SYMBIOSE

Der Autor dieser Zeilen hat zusammen mit anderen KollegenInnen in diesem Sommer ein Projekt gestartet, das darauf abzielt, dass alle 11.000 Kommunen in Deutschland ihre Chancen haben sollten, ihre Kommunikation und Planungsfähigkeit untereinander dramatisch zu verbessern, indem sie die modernen programmierbaren Maschinen in neuer ‚intelligenter‘ Weise für ihre Zwecke nutzen.

QUELLEN

  • Kathryn Merrick, Value systems for developmental cognitive robotics: A survey, Cognitive Systems Research, 41:38 – 55, 2017
  • VDI, Statusreport Künstliche Intelligenz, Oktober 2018, URL: https://www.vdi.de/vdi-statusbericht-kuenstliche-intelligenz/ (zuletzt: 28.November 2018)
  • Detlef H.Rost, Handbuch der Intelligenz, 2013: Weinheim – Basel, Beltz Verlag
  • Joachim Funke (2006), Kap.2: Alfred Binet (1857 – 1911) und der erste Intelligenztest der Welt, in: Georg Lamberti (Hg.), Intelligenz auf dem Prüfstand. 100 Jahre Psychometrie, Vandenhoek & Ruprecht
  • Alfred Binet, Théodore Simon: Methodes nouvelles pour le diagnostiqc du niveau intellectuel des anormaux. In: L’Année Psychologique. Vol. 11, 1904, S. 191–244 (URL: https://www.persee.fr/doc/psy_0003-5033_1904_num_11_1_3675 )
  • William Stern, Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkinder, 19121: Leipzig, J.A.Barth
  • Alan M. Turing, On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, 42(2):230–265, 1936-7
  • Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

PSYCHOANALYSE ALS PROTOTYP EINER REFLEKTIERTEN EMPIRISCHEN WISSENSCHAFT. Bericht zur Sitzung vom 9.September 2018

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 10.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Die Sitzung am 9.September 2018 hatte eine Vorgeschichte.

ROBOTER VERLANGEN BESCHREIBUNG

In einer Sitzung im Januar 2018 hatte sich die bunt gemischte Gesprächsrunde die Frage gestellt, ob man einen Psychoanalytiker durch einen Roboter ersetzen könne. Die Analyse kam zur Erkenntnis, dass der Bau eines geeigneten Roboters voraussetzt, dass es eine hinreichend angemessene Beschreibung dessen gibt, was genau ein Psychoanalytiker im Rahmen eines therapeutischen Prozesses tut, wie die Interaktionen mit dem Analysanden sind, und welche speziellen ‚inneren Zustände‘ beim Analytiker gegeben sein müssen, damit er so handeln kann. Damit verschob sich die Aufgabenstellung hin zu einer solchen angemessenen Beschreibung des Psychoanalytikers/ der Psychoanalytikerin in einem Therapieprozess.

PSYCHOANALYSE ALS EMPIRISCHE THEORIE

In der nachfolgenden Sitzung im März 2018 wurde daher das Selbstverständnis der Psychoanalyse im Rahmen des Begriffs einer empirischen Theorie abgefragt. Das erstaunliche Ergebnis war, dass die Psychoanalyse grundsätzlich alle Anforderungen an eine empirische Wissenschaft erfüllt. Sie hat allerdings zwei Besonderheiten: (i) Der Beobachter und der Theoriemacher sind selbst Bestandteil der Theorie; (ii) die Messvorgänge laufen unter Laborbedingungen ab, die neben schon klassifizierten Phänomenen kontinuierlich auch ’neue‘ Phänomene zulässt, die für die Theoriebildung wichtig sein können (für Details siehe den Beitrag).

VON DEN DATEN ZUM MODELL

In der nachfolgenden Sitzung im April 2018 fokussierte sich das Gespräch auf das Wechselspiel zwischen ‚Daten‘ und erklärendem ‚Modell‘ (‚Theorie‘) und wie es zum Modell kommt. Speziell im Fall des Psychoanalytikers ergibt sich eine Doppelrolle: (i) als Teil des Prozesses agiert er/sie im Prozess als Mensch mit ‚Un-Bewusstem‘ und und seinen ‚Erfahrungen‘ und seinem bisherigen ‚Modell‘, andererseits (ii) ist er/sie reflektierter Profi, der seine Wahrnehmungen des Analysanden, der Umgebung und seiner selbst mit seinem ‚professionellen Modell‘ abgleichen muss. Der hier offensichtlich werdende ‚dynamische Charakter der Modellbildung‘ ist charakteristisch für jede Modellbildung, wird aber in den meisten empirischen Wissenschaften eher verdeckt. (Für Details siehe den Beitrag).

EINE PSYCHOANALYTISCHE FALLSTUDIE

In der Sitzung vom Mai 2018 wurde nach so viel vorausgehender Theorie ein konkretes Fallbeispiel betrachtet, das eine der teilnehmenden Psychoanalytikerinnen  vorstellte. Dieses Beispiel demonstrierte sehr klar, wie die Psychoanalytikerin als aktives Moment im Therapieprozess im Bereich des Un-Bewussten mit dem Analysand interagiert und dadurch diesen in die Lage versetzt, einen Zugriff auf jene Faktoren zu bekommen, die im Un-Bewussten das Verhalten über Jahrzehnte massiv beeinflusst hatten. Dadurch lies sich dann schnell und wirkungsvoll eine qualitative Verbesserung der Situation des Analysanden herstellen.

WISSENSCHAFTSPHILOSOPHISCHE AKTUALITÄT DER PSYCHOANALYSE

GEISTESWISSENSCHAFTEN VERSUS NATURWISSENSCHAFTEN

Die Gegensatzbildung zwischen ‚Geisteswissenschaften‘ einerseits und ‚Harten Wissenschaften‘ andererseits ist nicht neu und bei vielen so eine Art Stereotyp, das man gar nicht mehr hinterfragt. In den ‚harten Wissenschaften‘ selbst gibt es aber immer wieder von einzelnen selbst-kritische Überlegungen zur Problematik des ‚Beobachters‘ und des ‚Theoriemachers‘, die aus der eigentlichen Theorie ausgeklammert werden, was wissenschaftsphilosophisch zu erheblichen Problemen führt (Ein prominentes Beispiel, was ich auch gerade im Blog analysiere und diskutiere ist Edelman, ein exzellenter Erforscher des Immunsystems und des Gehirns).

INGENIEURWISSENSCHAFTEN

In den Ingenieurwissenschaften, die den empirischen Wissenschaften in Sachen Formalisierung in Nichts nachstehen, eher noch ausführlicher und in vielen Fällen erheblich detaillierter sind, gibt es dagegen schon seit vielen Jahren die wachsende Erkenntnis, dass 60 – 80% der Projekte nicht daran scheitern, dass die beteiligten Experten zu wenig wissen, sondern daran, dass die beteiligten ExpertenInnen ihre eigenen psychologischen Zustände zu wenig kennen, mit ihnen nicht umgehen können, diese in die Planung von Projekten und den zugehörigen komplexen Formalisierungen nicht einbeziehen. Statt von ‚Beobachter‘ und ‚Theoriemacher‘ spreche ich hier vom ‚Akteur‘ als jenem Moment eines Theorieprozesses, das sowohl die Theorie entwickelt als auch anwendet. Eine moderne und zukunftsfähige Theorie des Engineerings wird nicht umhin kommen, irgendwann den Akteur selbst in die Theoriebildung einzubeziehen (einen Theorieansatz in diese Richtung findet sich in dem Online-Buchprojekt ‚Actor-Actor-Interaction Anaysis‘).

PSYCHOANALYSE ALS PROTOTYP

Interessant ist, dass die Psychoanalyse eigentlich ein Prototyp einer solchen ‚Beobachter-Integrierten empirischen Theorie‘ ist, und zwar schon von Anfang an. Wie Jürgen Hardt, einer der teilnehmenden Psychoanalytiker, in Erinnerung rief, hatte der Begründer der Psychoanalyse, Freud, von Anfang an die Forderungen aufgestellt, (i) dass die Psychoanalyse eine Naturwissenschaft sein muss, allerdings (ii) mit dem methodischen Hinweis, dass man das ‚Seelische‘ nicht mit den unleugbar somatischen Parallelvorgängen (im Gehirn, im Körper) verwechseln dürfe. Aus Sicht eines verkürzten Empirieverständnisses wurde dies oft als ‚un-empirisch‘ oder gar als ‚dualistisch‘ charakterisiert. Dies ist jedoch unangemessen. Freud ging es primär darum, zunächst mal jene ‚Phänomene zu retten‘, die sich bei dem damaligen Zustand der empirischen Wissenschaften noch nicht in die aktuellen theoretischen Modelle (sofern es denn überhaupt echte empirische Modelle waren) einordnen liesen. Es zeichnet ‚wahre empirische Wissenschaft‘ schon immer aus, dass sie ‚Phänomene‘ akzeptiert, auch und gerade dann, wenn die aktuelle Theoriebildung sie noch nicht einordnen kann.

KEIN DUALISMUS

Dazu kommt, dass man die Charakterisierung von ‚Dualismus‘ selbst sehr kritisch hinterfragen muss. In der modernen Mathematik und damit auch in allen empirischen Theorien, die Mathematik benutzen (was letztlich alle empirischen Disziplinen sind, die den Anforderungen einer ‚wissenschaftlichen‘ Theorie gerecht werden wollen) gibt es nur zwei Grundbegriffe:’Menge‘ und ‚Relation (Funktion)‘. Während man für das abstrakte Konzept ‚Menge‘ in der empirischen Wirklichkeit nahezu beliebig viele konkrete ‚Objekte‘ finden kann, die als ‚Instanzen/ Beispiele‘ für Mengen dienen können, sozusagen die Prototypen für ‚Reales‘, lassen sich für ‚Relationen/ Funktionen‘ so leicht keine direkte Entsprechungen finden. ‚Relationen‘ bestehen nur ‚zwischen‘ Objekten, ‚Funktionen‘ dagegen lassen sich ‚Veränderungen‘ zuschreiben. Beides ‚Beziehungen zwischen‘ und ‚Veränderungen‘ sind keine realen Objekte; sie existieren quasi nur in unserer Wahrnehmung als ‚virtuelle‘ Objekte. Das Verhältnis zwischen ‚realen Objekten‘ und ‚virtuellen Relationen/ Funktionen‘ würde man daher nicht als ‚Dualismus‘ bezeichnen, da der Begriff des Dualismus spätestens seit Descartes  eher für die Forderung nach zwei unterschiedliche ‚Substanzen‘ (‚res extensa‘, ‚res cogitans) reserviert hat. Objekte kann man vielleicht als Substnzen (‚res extensa‘) bezeichnen, nicht aber ‚virtuelle Relationen/ Funktionen‘.

Angewendet auf die Psychoanalyse wäre die Freudsche Unterscheidung von ’somatischen Prozessen‘ (Gehirn/ Körper als ‚res extensa‘, denen zugleich aber auch ‚dynamische‘ Eigenschaften zukommen (= Funktionen)) und dem ‚Seelischen‘, das sich qualitativ im ‚Bewusstsein‘ zeigt (= Phänomene als ‚virtuelle Objekte‘ (mit virtuellen Beziehungen) in einer spezifischen Dynamik (mit virtuellen Funktionen)) dann kein klassischer Dualismus sondern eine Unterscheidung unterschiedlicher Phänomenklassen, denen unterschiedliche Gesetzmäßigkeiten zukommen.

SYSTEMISCHES KONZEPT

Was viele gern übersehen, das ist die ‚Gesamtsicht‘, die der Psychoanalyse zu eigen ist. Freud selbst tendierte in seiner Spätphase (Hinweis Jürgen Hardt) zu einem ‚organismischen‘ Denken, wie er es nannte; heute würde man es vielleicht ’systemisch‘ nennen. Durch die Anerkennung der Tatsache, dass das ‚Bewusstsein‘ nur einen Teil – heute müsste man vielleicht sagen: einen sehr kleinen Teil! – der Vorgänge im menschlichen Körper abbildet, wobei das ‚Un-Bewusste‘ letztlich den ganzen Restkörper beinhaltet, muss die Psychoanalyse jede Reaktion eines Akteurs als eine ‚Antwort des ganzen Systems‘ betrachten, die in den meisten Fällen von Prozessen und Faktoren verursacht werden, die eben un-bewusst sind. Insofern es weder aktuell eine vollständige Theorie aller Körperprozesse gibt noch man davon ausgehen kann, dass die Menge der möglichen Körperprozesse endlich und konstant ist, nicht einmal im Fall eines einzelnen Akteurs, ist die psychoanalytische Theoriebildung kontinuierlich in einer Situation, wo es eine Modellvorstellung M bis zum Zeitpunkt t gibt, die ab dem Zeitpunkt t mit einer offenen Menge von Phänomenen Ph_t+ konfrontiert werden kann, die vielfach bzw. überwiegend noch nicht Teil des bisherigen Modells M sind. Sofern das Modell M Anhaltspunkte für Interpretationen oder Verhaltensprognosen gibt, kann der Therapeut danach handeln; sofern das Modell ’schweigt‘, muss er das tun, was die Evolution seit 3.8 Milliarden Jahren tut: mangels Wissen über die Zukunft lassen biologische Populationen die Bildung von ‚Varianten‘ zu, von denen vielleicht einige dann in der Zukunft ‚passen‘, wenn alle anderen aufgrund von Veränderungen der Umgebung ’nicht mehr passen‘. Dieses ‚Handeln bei mangelndem Wissen ist der wichtigste Überlebensakt aller biologischer Systeme. Die ‚Quelle‘ für psychotherapeutische Verhaltensvarianten ist das eigene System, der Körper des Psychoanalytikers, schwerpunktmäßig sein Un-Bewusstes, das ‚aus sich heraus‘ wahrnimmt und reagiert.

Von den Psychoanalytikern wurde zahllose Beispiel angeführt, deren Phänomenologie die Arbeitshypothese nahelegt, dass es zwischen dem ‚Un-Bewussten‘ des Therapeuten und dem Un-Bewussten des Patienten offensichtlich eine Kommunikation im Nicht-Bewussten-Bereich geben muss, da unbewusste Zustände des Patienten, von denen der Therapeut bis dahin nichts wusste, sehr charakteristische Körperzustände beim Therapeut hervorriefen, die dann zum ‚Katalysator‘ dafür wurden, dass der Therapeut und der Patient dadurch einen entscheidenden Hinweis auf die zugrunde liegenden un-bewussten Faktoren im Patient gewinnen konnten.

Angesichts dieser Systemsicht und ihrer komplexen Dynamik stellt sich die Frage nach der Funktion des ‚Bewusstseins‘ ganz anders. Irgendwie erscheint das Bewusstsein wichtig (mindestens für alle sprachliche Kommunikation und explizite Planung), aber irgendwie ist das Bewusstsein nur ein kleiner Teil eines viel größeren dynamischen Systems, dessen Ausmaß und genaue Beschaffenheit weitgehend im Dunkeln liegt. Die moderne Gehirnforschung (wie auch die gesamte moderne Physiologie) könnte hier sicher viele wertvolle Erkenntnisse beisteuern, wären sie nicht bislang wissenschaftsphilosophisch so limitiert aufgestellt. Viele der möglichen interessanten Erkenntnisse ‚verpuffen‘ daher im Raum möglicher Theorien, da diese Theorien nicht ausformuliert werden.

ERFOLGSKRITERIEN

Natürlich kann und muss man die Frage stellen, inwieweit ein psychoanalytisches Modell – oder gar eine ausgebaute Theorie – ‚verifizierbar‘ bzw. ‚falsifizierbar‘ ist. Berücksichtigt man die methodischen Probleme mit dem Begriff der ‚Falsifikation‘ (siehe dazu die kurze Bemerkung Nr.18 im Blogbeitrag vom 5.September 2018) beschränken wir uns hier auf den Aspekt der ‚Verifikation‘.

Eine Verifikation wäre im allgemeinen die ‚Bestätigung‘ einer ‚Prognose‘, die man aus dem ‚bestehenden Modell‘ ‚abgeleitet‘ hatte. Da das ‚bestehende Modell‘ im Fall der Psychoanalyse im allgemeinen nicht als ‚formalisiertes Modell‘ vorliegt, kann es sich bei den möglichen ‚Prognosen‘ daher nur um ‚intuitive Schlüsse‘ des Therapeuten aus seinem ‚bewusst-unbewussten‘ Modell handeln. Im praktischen Fall bedeutet dies, dass (i) es einen ‚therapeutischen Prozess‘ gab, der alle offiziellen Anforderungen an einen psychoanalytischen Prozess erfüllt, dass (ii) ein Zustand erreicht wird, in dem der Patient einen höheren Grad an ‚Selbststeuerung‘ erreicht hat. Dies kann sich an vielerlei Phänomenen fest machen, z.B. der Patient hat weniger ‚Angst‘, sein ‚körperlicher Gesundheitszustand‘ ist besser geworden, er kann seine ‚Alltagsaufgaben besser lösen‘, er ist generell ‚weniger krank‘, er besitzt mehr ‚Selbstvertrauen‘ im Umgang mit zuvor gefürchteten Situationen, und dergleichen mehr. All diese Phänomene kann man objektivieren. Die sehr verbreiteten Auswertungen nur per Fragebogen sind eher unbrauchbar und nutzlos.

WEITERES VORGEHEN

Zum ersten Mal tauchte die Idee auf, die bisherigen Gespräche zur Psychoanalyse in einem kleinen Büchlein zusammen zu fassen und zu publizieren.

Eine spontane Fortsetzung findet sich HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

LUHMANN-1991-GESELLSCHAFT. Kap.1:I-II, Diskussion und Übersetzung

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
29.März 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

INHALT

I Evolutionäre Ausgangslage
I-A Ältere Blogeinträge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
I-B Resümee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
II Luhmann 1991: Vorwort 3
III Diskussion 4
IV Luhmann 1991 Kap.1: Bewusstsein und Kommunikation
IV-A Abschnitt I . . . . . . . . . . . . . . . . . . . . . . . .
IV-A1 Bewusstsein . . . . . . . . . . . . . . . . .
IV-A2 Kommunikation . . . . . . . . . . . . . . . .
IV-A3 Gehirn – Nervensystem . . . . . . . . . . .
IV-B Diskussion . . . . . . . . . . . . . . . . . . . . . . . .
IV-C Abschnitt II . . . . . . . . . . . . . . . . . . . . . . . .
IV-C1 Systemtheorie, Autopoiesis . . . . . . . . .
IV-C2 Bewusstsein . . . . . . . . . . . . . . . . .
IV-C3 Kommunikation . . . . . . . . . . . . . . . .
Quellen

ÜBERBLICK

Im Rahmen des ’Wahrheitsprojektes’ gibt es den Bereich ’Individuum und Gesellschaft’. Dieser Bereich setzt historisch ein mit dem Auftreten des Homo sapiens und interessiert sich für eine formale Theorie des menschlichen Individuums innerhalb einer Population, eingebettet in eine Umwelt. In Ermangelung einer allgemein akzeptierten und funktionierenden allgemeinen formalen Theorie von Individuum und Gesellschaft wird hier Niklas Luhmann als Referenzpunkt gewählt. Er gilt u.a. als wichtiger (der wichtigste?) deutschsprachiger Vertreter der soziologischen Systemtheorie und der Soziokybernetik. Da Luhmann viele Bücher geschrieben hat muss man für den Start einen ’Eingangspunkt’ in seine Denkwelt wählen. Ich habe mich für das Buch ’Die Wissenschaft von der Gesellschaft’ (1991, 2.Aufl.) [Luh91] entschieden. Alle
Interpretationen des Autors zu Luhmanns Theorie stehen grundsätzlich unter dem Vorbehalt, dass diese Rekonstruktionen keine vollständige Werkanalyse darstellen. Die Vorgehensweise in diesem Beitrag ist der Versuch des Verstehens durch rekonstruierende Analyse mit formalen Mitteln. Für die Logik, die Luhmann
im Detail benutzt, sei verwiesen auf das Buch ’Laws of Form’ von Spencer Brown (1969, 1971) [Bro72] .

I. EVOLUTIONÄRE AUSGANGSLAGE
Vorab zur Analyse von Luhmann sei hier kurz die Lage skizziert, die sich nach 3.8 Mrd Jahren Evolution mit dem Auftreten des homo sapiens bietet. Da das entsprechende Kapitel hier noch nicht geschrieben wurde, seien hier nur jene Blogbeiträge kurz erwähnt, die sich bislang mit dem Thema beschäftigt haben.

A. Ältere Blogeinträge
1) Nr.124 vom April 2013: RANDBEMERKUNG: KOMPLEXITÄTSNTWICKLUNG (SINGULARITÄT(en))

2) Nr.132 vom Mai 2013: RANDBEMERKUNG: KOMPLEXITÄTSNTWICKLUNG (SINGULARITÄT(en)) Teil 2

3) Nr. 314 vom November 2015: STUNDE DER ENTSCHEIDUNG – Ist irgendwie
immer, aber manchmal mehr als sonst

4) Nr.333 vom März 2016: DENKEN UND WERTE – DER TREIBSATZ FÜR
ZUKÜNFTIGE WELTEN (Teil 1)

5) Nr.342 vom Juni 2016: EIN EVOLUTIONSSPRUNG PASSIERT JETZT UND NIEMAND BEMERKT ES?

6) Nr.381 vom 13.März 2017: DIE ZUKUNFT WARTET NICHT – 2117 – PHILOSOPHISCHE WELTFORMEL – FAKE-NEWS ALS TODESENGEL

7) Nr. 382 vom 18.März 2017: DIE ZUKUNFT WARTET NICHT – 2117 – PHILOSOPHISCHE WELTFORMEL – Teil 4 – MIND-GEIST . . .

8) Nr.383 vom 19.März 2017: INDIVIDUUM ALS BINDEGLIED ZWISCHEN BIOLO-
GISCHEM UND SOZIALEM – Nachtrag

9) Nr.400 vom Aug.2017: MENSCHENBILD – VORGESCHICHTE BIS ZUM
HOMO SAPIENS – Überlegungen

10) Nr. 401 vom Sept.2017: MENSCHENBILD – VORGESCHICHTE BIS ZUM HOMO SAPIENS – Ergänzungen

B. Resümee
Aus den bisherigen Untersuchungen ergibt sich als Zwischenstand, dass der homo sapiens die erste Lebensform auf der Erde ist, die neben der üblichen biologischen Ausstattung von Lebewesen zusätzlich über die Eigenschaften Bewusstsein,  Gedächtnis, Abstraktionsvermögen, Kombinatorik, selbst definierte Ziele und symbolische Kommunikation in einer Weise verfügt, die anderen Lebensformen in dieser Weise bislang unzugänglich waren und bisher auch weiterhin unzugänglich sind.

Aufgrund dieser herausragenden Eigenschaften konnte der homo sapiens in den letzten ca. 12.000 Jahren in Bereichen wie z.B. Handwerk und Technologie, Landwirtschaft, Siedlungsbau, Infrastrukturen, Transport und Verkehr, Wissensweitergabe und Wissensspeicherung, Verwaltung großer Gesellschaftssysteme, Kunst und Kultur, Wirtschaftsformen, und vielem mehr Leistungen erbringen, die ihn weit, weit ab von den anderen bekannten Lebensformen stellen.

Diese objektiven Erfolge scheinen allerdings aktuell einen Zustand erzeugt zu haben, in dem die Menge der alltäglichen Ereignisse, ihre Auftretensgeschwindigkeit sowie ihre inhärente Komplexität die biologischen Kapazitäten eines normalen homo sapiens Gehirns mehr und mehr überschreiten. Neue Informationstechnologien aus den letzten ca. 40 Jahren konnten diese Überforderungen einerseits entlasten, führen aber bislang gleichzeitig zu einer Verstärkung der Belastung, da diese Technologien separiert von dem einzelnen Individuum gehostet und entwickelt werden (das ’Cloud-Syndrom’).

Für die übergreifende Fragestellung, ob und wieweit die neuen digitalen Technologien – möglicherweise in Kombination mit einer Art ’Cyborg-Strategie’ – noch besser als bisher für die Stärkung des Individuums genutzt werden können, soll hier eine Analyse der generellen Situation des Individuums in der Gesellschaft eingeschoben werden.

Diese Analyse nimmt ihren Ausgang bei der Annahme, dass der homo sapiens als einzelnes Individuum Teil einer Population ist, die durch ihre auf Kommunikation gründenden Aktivitäten spezifische ’gesellschaftliche Strukturen’ geformt hat und weiter formt, die das Leben in einer vorausgesetzten Umwelt gestalten. Zugleich wirken diese Strukturen auf den einzelnen zurück. Ob die aktuelle Gestaltung von Gesellschaft letztlich ’nachhaltig’ ist oder nicht bleibt an dieser Stelle noch offen. Erst soll die Frage
nach der allgemeinen Struktur geklärt werden, innerhalb deren das ’Leben’ der homo sapiens Individuen stattfindet.

 

II. LUHMANN 1991: VORWORT
Im folgenden Text wird auf eine Unterscheidung zwischen dem Eigentext von Luhmann und einer davon abgehobenen Interpretation verzichtet. Der gesamte Text ist von Anfang an eine Interpretation des Textes von Luhmann im Lichte der vorwiegend wissenschaftsphilosophischen Annahmen des Autors. Man könnte auch sagen, es handelt sich um eine Art ’Übersetzung’ in einen anderen begrifflichen Rahmen.
Wer wissen will, was Luhmann selbst sagt, der muss den Text von Luhmann direkt lesen. Hier geht es um eine ’theoretische Verwertung’ der Gedanken von Luhmann in einem formalen Rahmen, den Luhmann selbst zu Lebzeiten so nirgends artikuliert hat.

Vorgreifend kann man an dieser Stelle anmerken, dass diese durchgehende  ’Übersetzung’ des Textes von Luhmann in den Text des Autors nur gelingen kann, weil Luhmann als ’roten Faden’ seiner Überlegungen einen ’Systembegriff’ benutzt, der es erlaubt, dass Systeme ’strukturell gekoppelt’ sind und dass sie ’Sub-Systeme’ enthalten können. Diese Auffassung teilt auch der Autor dieses Textes. Dennoch wird diese ’Übersetzung’ von dem Text Luhmanns in vielen Positionen – gerade in seinen zentralen Konzepten – radikal abweichen. Dies ist kein Paradox sondern ergibt sich aus dem Sachverhalt, dass der Autor an einigen entscheidenden Stellen die ’Selektion der Unterschiede’ anders vorgenommen hat als Luhmann; die ’Freiheit’ des Gehirns, des Bewusstseins, der Kommunikation wie auch der aktuellen gesellschaftlichen Situation des Autors lässt dies zu.

Im Vorwort thematisiert Luhmann einleitend das wissenschaftsphilosophische Problem, dass eine Soziologie, die eine wissenschaftliche Theorie der Gesellschaft erarbeiten will, trotz aller notwendigen methodischen Distanzierung zum   Untersuchungsgegenstand doch auch zugleich Teil genau jener Gesellschaft ist, die untersucht werden soll. Die Bedingungen der Möglichkeit solch einer wissenschaftlichen Erkenntnis liegen der wissenschaftlichen Aktivität selbst voraus und werden traditionellerweise an die Philosophie delegiert, bzw. heutzutage vielleicht einer Erkenntnistheorie, die Hand in Hand mit der Wissenschaftsphilosophie arbeitet. Will eine einzelwissenschaftliche Disziplin – wie z.B. das System der Wissenschaft – ihr eigenes Tun in diesem Sinne von den impliziten Voraussetzungen her befragen, erhellen, klären, dann bedarf sie der Fähigkeit einer ’Autologie’, d.h. einer Selbstreflexion auf das eigene Tun, die sehr wohl auch eine Fremdbeobachtung der anderen Mit-Forschenden einbeziehen kann. Solch eine autologische Reflexion
kann nur in dem Maße die Besonderheiten eines Tuns zur Sprache bringen und kommunizieren, insoweit diese Disziplin über eine hinreichend ausdrucksstarke Metasprache verfügt. Diese wird gespeist durch das Fachwissen der Philosophie wie auch durch das spezifische Fachwissen der jeweiligen Disziplin, sofern letztere überhaupt schon über hinreichendes Spezialwissen verfügt.

Tatsächlich kann eine solche philosophische Selbstvergewisserung – hier der gesamte
Wissenschaftsbetrieb – nur gelingen, sofern diese zum Zeitpunkt der Untersuchung schon soweit als eigenes gesellschaftliches Subsystem vorkommt, dass durch gesellschaftlich legitimierte Setzungen und Verhaltensweisen ’vor-definiert’ ist, worin ’gesellschaftlich’ das Substrat dieser Disziplin besteht. Nur dann kann eine ’nach-sinnende’ autologische Reflexion die Eigenart aller beteiligten Komponenten und
Interaktionsprozesse identifizieren und analysieren. In diesem Sinne ist eine  Fachdisziplin – bzw. hier der gesamte Wissenschaftsbetrieb – zu einem bestimmten historischen Zeitpunkt nicht ’Voraussetzungsfrei’ (Anmerkung: Wäre dem so, dann hätte man es mit einem eigenschaftslosen Neutrum zu tun, das nicht weiter bestimmbar wäre.) , sondern zeichnet sich gerade durch ein historisch gereiftes und darin durch Eigenschaften beschreibbares System zu tun, das innerhalb der Gesamtgesellschaft als Sub-System erscheint. Diese Unterscheidung lässt zugleich zu, dass jedes gegenwärtige System sich durch seine Eigenaktivitäten weiter verändert.

Die Aktualität der Gegenwart bildet damit tendenziell nicht das Gesamtsystem ab noch einen dauerhaften Zustand.

III. DISKUSSION
Es sei hier angenommen, dass ein historisch gewachsenes und gesellschaftlich ausgezeichnetes ’Subsystem Wissenschaft (SW)’ neben möglichen ’menschlichen Akteuren’ (A) zusätzlich über hinreichend viele Dokumente (D) verfügt, in denen Zielsetzung, typische Arbeitsweisen und der dynamische Bezug zum übergreifenden fundierenden gesellschaftlichen Gesamtsystem hinreichend beschrieben ist. Ein
gesellschaftliches wissenschaftliches Subsystem umfasst also minimal folgende Struktur:

SW (x) iff x = <A, D, h> (1)
A := Akteure (2)
D := Dokumente (3)
h := A × D —> A × D (4)

Das Symbol h repräsentiert die Menge der möglichen Handlungen, mit denen die Akteure im Sinne der offiziellen Dokumente neue Dokumente generieren können bzw. auch die Menge der Akteure verändern können. Was in dieser expliziten Darstellung noch fehlt ist der Aspekt der Gesellschaft (G). Denn eine Gesellschaft hat ja meistens mehr als ein Subsystem (Anmerkung: Wobei jedes Subsystem noch weitere Subsysteme haben kann). Zwischen einem Subsystem S und der Gesellschaft G kann es typische Interaktionen geben, ebenso auch zwischen Subsystemen direkt. Man
müsste daher mindestens eine weitere Interaktionsebene einbeziehen:

G(x) iff x = <A, D, Σ, h> (5)
A := Akteure (6)
D := Dokumente (7)
Σ := Menge von Subsystemen (8)
h := A × D × Σ —> A × D × Σ (9)

Die Akteure (A)  auf der Ebene der Gesellschaft (G) sind einerseits die ’Grundmenge’ aller Akteure, andererseits unterscheiden sich Subsysteme von der umgebenden Gesellschaft G dadurch, dass sie sich in mindestens einer Eigenschaft vom globalen System ’unterscheiden’. Es wird hier angenommen, dass diese minimale Verschiedenheit sich auf auf die Akteure A  bezieht, auf die beschreibenden Dokumente D  sowie auf die jeweilige Veränderungsfunktion h . Um Verwechslungen in der Kommunikation zu vermeiden könnte man die jeweiligen Symbole immer mit einem ’Index’ versehen, der den jeweiligen ’Kontext’ anzeigt, z.B. A_G
im Unterschied zu A_SW   oder h_G im Unterschied zu h_SW .

Aufgrund der minimalen Unterscheidbarkeit gilt dann generell, dass A_SW ⊆ A_G , d.h. die Akteure aus einem Subsystem sind spezieller als jene Akteure, die als Akteure einer globalen Gesellschaft gelten. Entsprechend verhält es sich in der Beziehung der Veränderungsfunktionen: h_SW ⊆ h_G.

Denkbar ist allerdings – und dies entspricht den empirischen Fakten –, dass es aufgrund der räumlichen Verteilung des homo sapiens auf der Erde (und zukünftig vielleicht auch im Weltall) gesellschaftliche Systeme gibt, die räumlich getrennt sind und die in ihrer ’Region’ das ’oberste’ gesellschaftliche System G darstellen, das  unterschiedliche Subsysteme haben kann. Faktisch gibt es dann viele gesellschaftliche
Systeme G_1 , …, G_n , die aufgrund ihrer separierten Existenz ’gleichberechtigt’ sind.
Andererseits wissen wir aufgrund der historischen Daten, dass es zwischen solchen räumlich verteilten gesellschaftlichen Systemen G sowohl ’kriegerische Handlungen’ gegeben hat, in denen das eine System G das andere System G_0 mit Gewalt erobert hat, oder es gab ’Wanderungsbewegungen’, die zu einer Vermischung der Akteure A_G , A_G_0 geführt hat. Solche Vermischung ( μ) – durch Eroberung oder Wanderung – konnten durch die unterschiedlichen ’Präferenz- und Wissensmodelle’ der Neuankömmlinge über die Interaktionen auf die bestehenden Dokumente und auf die Veränderungsfunktion h_G so einwirken, dass Modifikationen entstanden, etwa:

μ : A_G × A_G_0 × D_G × D_G_0 —> A_(G∪G_0) × D_(G∪G_0) × h_(G∪G_0)

Die führt zu einer Erweiterung des Referenzsystems zu einer ’Weltgesellschaft (WG)’:

G(x) iff x = <A, D, Σ, h> (5)
SW (x) iff x = <A, D, h> (1)
A_SW ⊆ A_G (12)
h_SW ⊆ h_G (13)
WG(x) iff x =<R3 , Γ, ∆, AF, μ>(14)
R3 :=  3 − dimensionale Koordinaten
Γ = U(A1 , …, An)
∆ =U(D1 , …, Dn )
AF := Artefakte
μ = 2^(R3 ×AF ×Γ×∆) —>  2^(R3 ×AF ×Γ×∆)

Die Grundidee ist die, dass die regional getrennten Gesellschaften miteinander vermischt werden können, was eine räumliche Umgruppierung von Akteuren und Dokumenten bedeuten kann. Andere wirksame Faktor sind z.B. der ’Handel’ oder neue ’Technologien’, die rein praktisch das alltägliche Leben verändert haben.

Im nächsten Kapitel 1 beschreibt Luhmann in erster Linie die Begriffe ’Bewusstsein’ und ’Kommunikation’ sowie deren Wechselwirkungen. Für diese Rekonstruktion werden die bisherigen begrifflichen Festlegungen berücksichtigt.

IV. LUHMANN 1991 KAP .1: BEWUSSTSEIN UND KOMMUNIKATION

A. Abschnitt I

Luhmann beginnt diesen Abschnitt mit der Frage nach dem ’Träger von Wissen‘
bzw.  Bewusstsein: Nach allerlei historischen Betrachtungen findet er einen ersten ’Ankerpunkt’ seiner Überlegungen in der grundlegenden Fähigkeit des Bewusstseins im Rahmen der Wahrnehmung grundsätzlich ’ein anderes’ wahrnehmen zu können. Es ist ein ’dass’, ein reiner ’Unterschied’, kein interpretierendes ’wie’. Diese Unterscheidung vom anderen ist die ’primäre Differenz’, die einen möglichen ’Anschluss’ für eine Kommunikation bietet und einen möglichen Referenzpunkt für eine mögliche ’sekundäre Zuschreibung’ von weiterem Wissen. (vgl. S.17)

Das ’Bewusstsein’, das Unterschiede wahrnehmen kann, operiert unter  stillschweigender Voraussetzung des ’Gehirns’ (= Nervensystem), ohne das Gehirn zu ’bemerken’. Der ’eigene Leib’ wird als bewusstseinsexterner ’Gegenstand’ erlebt. Damit externalisiert das Bewusstsein seine Zustände in die Welt hinein.(vgl.S.20)
Die Besonderheit des Bewusstseins liegt im ’Wahrnehmen’ und ’anschaulichen Imaginieren’. Ferner wird in der Wahrnehmung das Unterschiedene zugleich in einer ’Einheit’ erfasst.(vgl.S.20)

2) Kommunikation: Mit Rückgriff auf die Entwicklungspsychologie postuliert er, dass basierend auf dieser primären Unterscheidung im Bewusstsein eine erste ’Kommunikation’ angestoßen wird, noch vorab zum Spracherwerb. Und es ist diese erste Kommunikation die es nahelegt, ein ’alter ego’ im erfahrbaren Anderen zu unterstellen, und an dieses im Laufe der Zeit mehr Wissen anzulagern.(vgl. S.18f)

Und es wundert bei dieser Ausgangslage nicht, dass Luhmann postuliert, dass die Kommunikation Bedingung für ’Intersubjektivität’ ist und nicht umgekehrt. Innerhalb dieser Kommunikation wird zwischen ’Mitteilung’ und ’Information’ unterschieden. Diese Differenz soll dann nachgeordnet mit ’Sinngehalten’ angereichert werden.(vgl.S.19)

Kommunikation setzt Bewusstsein voraus, unterscheidet sich aber vom Bewusstsein, da ’Irrtum’, ’Täuschung’, ’Symbolmissbrauch’ der Kommunikation zugeordnet wird, nicht dem Bewusstsein.(vgl.S.21) Mit dem Grundsatz, dass die Wahrnehmung selbst nicht kommunizierbar ist (vgl.S.20), ergibt sich, dass logisches, kreatives Denken ohne Effekt bleibt, wenn es nicht kommunizierbar wird.(vgl.S.22)

Da Luhmann ferner annimmt, dass Wissen der Kommunikation zuzurechnen ist, nicht dem Bewusstsein (vgl.S.23), kann er weiter folgern, dass sich kein individuell bewusstes Wissen isolieren lässt.(vgl.S.22) Obwohl Kommunikation nicht zwingend auf Bewusstsein wirkt (vgl.S.22), kann Kommunikation das Leben und das Bewusstsein von Menschen auslöschen.(vgl.S.23)

3) Gehirn – Nervensystem: Das ’Nervensystem’ kann nur körpereigene Zustände unterscheiden und operiert daher ohne Bezug auf die Umwelt.(vgl.S. 19)

B. Diskussion
Luhmann bringt eine Reihe von Begriffen ins Spiel { z.B. ’Gehirn’, ’Bewusstsein’,  ’Wahrnehmung’, ’Differenz’, ’Kommunikation’, ’Mitteilung’, ’Information’, ’Sinngehalt’,
’Irrtum’, ’Täuschung’, ’Symbolmissbrauch’, usw. } , die zunächst relativ undifferenziert und nur locker in Beziehung gesetzt werden.

Nach der vorausgehenden Diskussion haben wir als bisherigen Referenzrahmen die beiden Begriffe ’Subsystem Wissenschaft’, ’System Gesellschaft’, und – falls es mehrere regional unterschiedene Gesellschaften gibt – die ’Weltgesellschaft’ (für einen erster Formalisierungsansatz siehe oben).

Davon unterschieden wird für die Begriffe { ’Gehirn’, ’Bewusstsein’,
’Wahrnehmung’, ’Differenz’ } In einer ersten Annäherung   angenommen, dass diese einem einzelnen Akteur A zuzurechnen sind. Dies erfordert, dass man den Akteur selbst als ein System sieht, der verschiedene Sub-Systeme umfasst, etwa so:

A(x) iff  x = <BR, PERC, PH, CONSC, ψ> (30)
BR := Gehirn (31)
ψ :  BR —> PERC × PH × CONSC (32)
PERC := Wahrnehmung (33)
PH := Phaenomene (34)
CONSC ⊆ 2^PH (35)

Das ’Gehirn (BR)’ erzeugt mittels der Funktion ψ ’Wahrnehmungen (PERC)’, die aufgrund von erfassbaren ’Differenzen’ unterscheidbare ’Phänomene (PH)’ erkennen lassen. Diese Phänomene bilden den ’Raum’ des ’Bewusstseins (CONSC)’. Weitere Aussagen sind an dieser Stelle noch schwierig.

Darüber hinaus muss man die Begriffe { ’Kommunikation’, ’Mitteilung’, ’Information’, ’Sinngehalt’,’Irrtum’, ’Täuschung’, ’Symbolmissbrauch’ } einordnen. Da Luhmann die Kommunikation als eigenes System sehen will, innerhalb dessen Mitteilungen und Informationen auftreten können, die mit Sinngehalten irgendwie in Beziehung stehen, dazu die Phänomene ’Irrtum’, ’Täuschung’ und ’Symbolmissbrauch’, muss man ein weiteres System annehmen, etwa so:

COM (x) iff x = <MT, INF, …>(36)
MT := Mitteilungen (37)
INF := Informationen (38)
… := Weitere Eigenschaften (39)

Wie genau dann das System Kommunikation (COM) funktionieren soll, wie das Zusammenspiel seiner unterschiedlichen Eigenschaften ist, wie genau das Wechselspiel mit dem Bewusstsein zu sehen ist, das ist an dieser Stelle noch unklar.

Ganz allgemein kann man schon an dieser frühen Stelle der Lektüre feststellen, dass Luhmann trotz seiner systemanalytischen Intentionen keinerlei Anstalten trifft, seine Überlegungen in Form einer wissenschaftlichen Theorie zu organisieren. Weder macht er sich Gedanken über eine notwendige Sprache noch über einen formalen Aufbau. Dementsprechend ist auch nicht klar, wie in seine ’Theorie’ Begriffe ’neu eingeführt’ werden können (andere nennen dies ’Definitionslehre’). Genauso wenig wie er irgendwelche überprüfbaren Qualitätskriterien für seine ’Theorie’ formuliert. Wann ist seine Theorie ’erfolgreich’? Wann ist sie ’wahr/ falsch’? … oder was auch immer man als Kriterium benutzen möchte.

Das gänzliche Fehlen dieser Überlegungen rächt sich im weiteren Verlauf nahezu auf jeder Seite.

C. Abschnitt II
In diesem Abschnitt werden die Begriffe ’Bewusstsein’ und ’Kommunikation’ als Systeme von Luhmann weiter ausdifferenziert; dazu ein paar Bemerkungen zur Autopoiesis.

1) Systemtheorie, Autopoiesis: Luhmann hält nochmals fest, dass eine fundamentale Annahme der Systemtheorie darin besteht, dass man eine Differenz von ’System’ und ’Umwelt’ annimmt. Daraus folgt einerseits, dass kein System außerhalb seiner eigenen Grenzen operieren kann, (vgl.S. 28) aber auch, dass jedes System in einer Umwelt existiert. Zwischen Umwelt und System darf man Kausalbeziehungen annehmen, die aber nur ein externer Beobachter beobachten kann.(vgl.S. 29) Zugleich gilt, dass ein
System immer schon an die Umwelt ’gekoppelt’ ist. Er behauptet sogar weiter, dass ein System immer schon angepasst sei.(vgl.S. 29)

Mit dieser Formulierung steht Luhmann im Gegensatz zu den Erkenntnissen der Evolutionsbiologie, die offengelegt hat, dass alle zu einem bestimmten Zeitpunkt beobachtbaren ’Passungen’ Ergebnisse langwieriger dynamischer  Anpassungsprozesse sind. In diesem Licht sind – zumindest lebende – Systeme in einer Umwelt niemals völlig unabhängig von dieser. Der von Luhmann gewählte
Begriff der ’Systemkopplung’ erfüllt zwar formal zunächst seinen Zweck, aber er wird der komplexen Interaktionsdynamik von (lebenden) Systemen und Umwelt nicht voll gerecht.

Insofern ist in diesem Zusammenhang sein Hinweis interessant, dass ’Autopoiesis’  (Anmerkung: Zum Begriff finden sich zahlreiche online-Quellen von Whitaker (2010) [Whi10]) nicht besage, dass das System allein aus sich heraus… ohne jeden Beitrag aus der Umwelt existiere.(vgl. S.30) Er schließt damit formal weitere  Interaktionsbeziehungen nicht grundsätzlich aus, klammert sie aber aus seiner formalen Analyse hier aus. Solange diese Ausklammerung den Hauptinhalt seiner Analysen nicht wesentlich verändert, kann er dies machen. Wenn aber – und der weitere Fortgang erweckt diesen Eindruck – dadurch wichtige grundlegenden Eigenschaften des Hauptgegenstandes durch formal angeregte Selektionen eliminiert werden, dann ist dieser Sachverhalt für die Untersuchung erheblich.

Aufgrund der zuvor vorgenommenen Selektion und der damit einhergehenden Vereinfachung kann Luhmann sich auf die ’Innensicht’ der isolierten Systeme fokussieren. Und er schreibt dann ganz klar, dass es vielmehr nur darum geht, ”dass die Einheit des Systems und mit ihr alle Elemente, aus denen das System besteht, durch das System selbst produziert werden. Selbstverständlich ist dies nur auf der
Basis eines Materialkontinuums möglich … Selbstverständlich braucht solch ein Prozess Zeit…”(S.30)

Die Begriffe ’Materialkontinuum’ und ’Zeit’ verweisen auf eine empirische Umwelt, ohne die es beides nicht geben würde. Und obwohl er auf die ’Autonomie’ der Systeme abhebt, kommt er nicht umhin, festzustellen, ”… der Begriff der strukturellen Kopplung wird uns daran erinnern, dass das System laufend Irritationen aus der Umwelt registriert und zum Anlass nimmt, die eigenen Strukturen zu respezifizieren. (S. 30)

Solange man die ’Irritationen’, die durch eine strukturelle Kopplung hervorgerufen werden (Anmerkung: Beruhen diese ’Irritationen’ auf einer Kausalbeziehung?) , in der
Unbestimmtheit belässt, in der sie Luhmann präsentiert, spielen diese ’Irritationen’ keine ’inhaltlich fassbare’ Rolle. Eigentlich erscheinen sie überflüssig. Andererseits erwähnt Luhmann sie aber, weil sie irgendwo offensichtlich wichtig sind. In welchem Sinne sind sie wichtig? Von lebendigen Systemen wissen wir, dass diese Kopplungen für das System ’wesentlich’ sind (z.B. die Energiezufuhr einer eukaryotischen Zelle).

Man muss daher die Frage stellen, ob eine Systembeschreibung nicht so angelegt sein sollte, dass sie den für das System erheblichen Grund der strukturellen Kopplung für das System sichtbar machen sollte, so dass die weiteren ’Systemfunktionen’ auf der Basis der grundlegenden Struktur ’verständlich’ werden? Eine Systembeschreibung, die wesentliche Systemeigenschaften und Systemdynamiken von vornherein ausklammert wirkt ansonsten ein wenig ’willkürlich’, ’voreingenommen’, ’dogmatisch’. Diese
wissenschaftsphilosophische Kritik stellt damit nicht den Systembegriff als solchen in Frage, sondern nur eine spezielle Anwendung auf einen der Theoriebildung vorgelagerten Phänomenbereich.

Für Luhmann folgt aus seiner Verwendung des Systembegriffs, dass ”’lebende  Systeme’, ’Bewusstseinssysteme’ und ’Kommunikationssysteme’ verschiedenartige, getrennt operierende selbstreferentielle Systeme [sind]”.(S. 28). Damit sendet er ein klares Signal aus, dass er die möglicherweise gegebenen wichtigen strukturellen und funktionellen Zusammenhänge dieser identifizierten Systeme durch eine andere Verwendungsweise des Systembegriffs im Falle der angesprochenen Phänomene bewusst ausklammert.

Als methodisch motiviertes Gedankenexperiment kann eine solche begriffliche Anordnung Sinn machen, für die theoretische Rekonstruktion der erfahrbaren Wirklichkeit kann dieses Vorgehen aber in die Irre führen. Dies umso mehr, als Luhmann nirgendwo entscheidbare Kriterien etabliert hat, anhand deren man in minimaler Weise einen ’Erfolg’ oder ’Misserfolg’ seines Gedankenexperiments ablesen
könnte.

Das Beispiel lebender Systeme zeigt seit vielen Milliarden Jahren, dass Anpassungsprozesse nur durch das Wirken von sehr harten Kriterien funktionieren. Das harte Kriterium ist im Fall lebender Systeme die (i) Aufrechterhaltung eines Prozesses, dessen innere Logik in der (ii) individuellen Ausnutzung von freier Energie besteht, die in einer (iii) populationsweiten Abfolge von Systementwürfen (iv) die Population im Spiel hält. Das einzelne System ist hier eindeutig nur zu verstehen als ein Element einer größeren Population, die ein spezifisches Prozessmodell umsetzt. Man müsste in diesem Fall daher von vornherein einerseits (a) das System ’Population’ selektieren, das als Teil des Systems (b) ’Umwelt’ im Rahmen eines ’Prozesses’ den sowohl populären wie individuellen (c) ’Lebensprozess’ realisiert. Ferner wissen
wir heute, dass eine Population nicht ausreicht, sondern dass wir es mit einem (a*) ’Netzwerk von Populationen’ zu tun haben, die wechselseitig füreinander wichtige Funktionsleistungen erbringen. Will man diese Realität erfassen, dann kann man mit dem stark reduktionistischen Ansatz von Luhmann eigentlich nur scheitern.

Wohlgemerkt: das Problem ist nicht der Systembegriff als solcher, sondern die
Art seiner Anwendung auf eine empirisch vorhandene Realität.

2) Bewusstsein: Nach dem Vorausgehenden ist bekannt, dass Luhmann das Phänomen ’Bewusstsein’ als ein eigenständiges System selektiert hat. Er spricht im Fall des Bewusstseins auch von einem ’psychischen System’.(vgl. S.23) Entsprechend seiner allgemeinen Annahme zu Systemen kommt er dann zu Aussagen wie ”… psychische Systeme operieren selbstreferentiell-geschlossen und sind
füreinander unzugänglich…” (S. 23), oder auch ”Dem Verstehen psychischer Systeme … fehlt die für den Kommunikationsprozess notwendige Diskretheit. Psychisch gibt es hier kein entweder/oder. Genau das braucht aber der Kommunikationsprozess, um seine eigene Autopoiesis fortsetzen zu können. …Innere Unendlichkeit der psychischen Systeme…”(S. 26)

Neben den schon angemerkten eliminierenden Selektionen, die Luhmann zuvor schon vorgenommen hat, erscheint die Behauptung, dass es psychisch kein ’entweder/oder’ gibt gewagt, da ja (was Luhmann über viele Seiten schlicht ausklammert) das Bewusstsein sich gerade dadurch auszeichnet, dass grundlegend mindestens folgendes möglich ist. (i) die Unterscheidung von Bewusstseinsinhalten anhand von Eigenschaften; (ii) die Identifizierung des Unterschiedenen in der Unterscheidung, eben
die Eigenschaftskomplexe, die oft ’Phänomene’ genannt werden; (iii) die erlebbare ’Einheit’ trotz ’Unterscheidung’.

Das Bewusstsein erlebt     unterscheidbare Phänomene nicht nur einfach so, sondern z.B. diese Phänomene auch als Elemente in einem ’Raum’, der unhintergehbarer Bestandteil des Erlebens ist. Nur deshalb kann das Bewusstsein diese Elemente auch ’in Beziehung setzen’, hier in räumliche Beziehungen wie z.B. a ist ’über’ b oder a ist ’unter b’. Zum aktuellen Erleben gehört sogar die Befähigung, (iv) ’Aktuelles’ im Vergleich zu ’Erinnertem’ zu sehen, also in einer zeitlichen Relation. Das ’Gedächtnis’
als ’Quelle’ von Erinnerungen ist selbst zwar kein Bestandteil des Bewusstseins (ein eigenes strukturell gekoppeltes System), aber diese Kopplung zwischen Bewusstsein und Gedächtnis ist funktional so ausgelegt, dass das Gedächtnis die aktuellen Phänomene quasi simultan ’kommentiert’, unaufgefordert, aber kausal dazu genötigt.

Dies ist ein klarer Fall, in dem die strukturelle Kopplung auf der Ebene des Systems Bewusstsein zum Gedächtnis hin abgeschottet erscheint, aber auf der Ebene des Systems ’Gehirns’ sind sowohl Bewusstsein wie Gedächtnis Teilsysteme, die das System Gehirn so ’prozessiert’, dass Inhalte des Bewusstseins ’für das System Bewusstsein unsichtbar’ in das System ’Gedächtnis’ ’transportiert’ werden und umgekehrt. Für das Funktionieren des Systems Bewusstsein ist diese kausale
Maschinerie wesentlich!

Wenn Luhmann an anderer Stelle feststellt, dass ”das Bewusstsein an die neurophysiologischen Prozesse ’seines’ Organismus gekoppelt [ist] ohne sich diesen Prozessen anpassen zu können. Es kann sie nicht einmal wahrnehmen…”(S.29) dann nimmt er diesen fundamentalen Zusammenhang beiläufig zur Kenntnis, zieht daraus aber keine weiteren Konsequenzen für sein Gedankenexperiment. Die Realität des biologischen Systems Körper, in das das System Gehirn eingebettet ist, und darin Bewusstsein und Gedächtnis, ist aus der Sicht des Gesamtsystems Körper auf bestimmte Funktionen ausgelegt, für deren Erfüllung viele Teilsysteme zusammen arbeiten müssen. Im Fall Bewusstsein haben wir mindestens die Teilsysteme ’Wahrnehmung’, ’Gedächtnis’ und ’Bewusstsein’. Obwohl die Teilsysteme ’Wahrnehmung’ und ’Gedächtnis’ aus Sicht des Systems Bewusstsein strukturell so ’gekoppelt’ sind, dass das Bewusstsein keinen direkten Einfluss auf die kausal eingekoppelten Irritationen hat, sind diese Irritationen in Form
von Wahrnehmungsereignissen und Erinnertem für das Funktionieren des Bewusstseins wesentlich!

Luhmanns Verwendungsweise des Systembegriffs greift hier einfach zu kurz; er selektiert zu viele wichtige empirische Phänomene im Vorfeld, um seine Verwendungsweise ’passend’ zu machen. Seine Formulierung vom ’Gedächtnis’, ”… [das] nichts anderes [sei] als die Konsistenzprüfung in der jeweils aktuellen Operation, also Aktualisierung ihres jeweils nutzbaren Verweisungszusammenhangs)…” (S.31)
kann man zumindest so verstehen, als dass er weitergehende Funktionen des Gedächtnisses in Abrede stellt. Von der Psychologie wissen wir, dass das Gedächtnis erheblich mehr leistet als eine bloße ’Konsistenzprüfung’. Das Gedächtnis arbeitet kontinuierlich (auch ohne bewusste Anteile), selektiert, abstrahiert, assoziiert, bewertet, bildete Netzwerke, ändert, interpretiert durch ’ist-ein-Exemplar-von-
Struktur X’, und vieles mehr.

In diesen Zusammenhang passen auch die Bemerkungen Luhmanns zum Verhältnis von Sprache und Bewusstsein: ”Man wird vielleicht einwenden, dass das Bewusstsein ’sprachförmig denken’ könne. Gewiss! Aber solches Denken ist keine Kommunikation. Und wenn es für sich alleine läuft, sieht das Ergebnis ungefähr so aus …. Fast nimmt die Eigenproduktion von Worten und Satzstücken dann die Form von … fluktuierenden Wortwahrnehmungen an – befreit von jeder Rücksicht auf Verständlichkeit. Operativ besetzen und reproduzieren Wort- und Satzfetzen dann das Bewusstsein mit der Evidenz ihrer Aktualität, aber nur für den Moment”.(S. 32)

Diese Sätze beziehen ihre ’Wahrheit’ aus der vorausgehenden Selektion, dass die mögliche ’Bedeutung’ von Worten, der ’Sinn’ von Sätzen’ ausschließlich im System ’Kommunikation’ verortet ist (siehe unten im Text). Diese Selektion widerspricht aber nicht nur der Selbsterfahrung jeden Sprechers/ Hörers, sondern auch zahllosen empirischen Untersuchungen. Zwar hat Wittgenstein in seiner späteren Phase alles getan, um die Idee zu kommunizieren, dass die Bedeutung sprachlicher Äußerungen sich ausschließlich durch die Beobachtung der ’Verwendung’ dieser Äußerungen im ’Kontext’ erschließen lasse, aber jede nähere Analyse kann schnell zeigen, dass diese Annahme nur so lange funktioniert, wie man den Begriff ’beobachten’ und den vorausgesetzten ’Beobachter’ mehr oder weniger ’neutralisiert’.

Es ist zwar richtig, dass man die Verwendungsweise von sprachlichen Ausdrücken im Kontext ’beobachten’ kann, aber sobald man zu ergründen versucht, warum ein Sprecher-Hörer ein Umgebungsmerkmal mit einer bestimmten sprachlichen Äußerung  verknüpft oder umgekehrt bei Hören einer bestimmten sprachlichen Äußerung auf ein bestimmtes Umgebungsmerkmal verweist, wird man feststellen, dass ohne die Annahme einer entsprechenden ’Kodierung’ dieser Beziehungen zwischen
’Ausdruck’ und ’Umgebungseigenschaften’ (es gibt ja auch Bedeutungsverweise auf Sachverhalte, die nicht in der aktuellen Situation präsent sind!) ’im’ jeweiligen Sprecher-Hörer kein einziges Sprachspiel  funktioniert. (Anmerkung: Eine Erfahrung, die die ersten Sprachlernexperimente mit Robotern sehr schnell offen gelegt haben!)

Mit der Annahme der Verortung der fundamentalen Kodierungen von Ausdrücken und Gemeintem ’im’ Beobachter, im Akteur – und zwar primär im Gedächtnis und darüber indirekt im Bewusstsein – ist die Feststellung Luhmanns, dass sowohl ”die  Zeichenhaftigkeit der Mitteilung als auch die Information selbst … nicht als Bewusstseinsoperationen in das System, nicht als Wissen eines psychischen
Systems, das vorher da ist, dann in die Kommunikation eingegeben werden…” (vgl.S. 24) dann tendenziell irreführend. Natürlich kann die Kodierung im Bewusstsein (Gedächtnis) als solche nicht in die Kommunikation gelangen, aber das Auftreten von Worten in der Kommunikation setzt die Verfügbarkeit der zugrunde liegenden Kodierungen in den Bewusstseinen (bzw. Gedächtnissen) der beteiligten
Kommunikationsteilnehmer voraus! Das Konzept einer Kommunikation als eigenständiges System, das ohne Rückgriff auf die beteiligten Bewusstseins-Systeme ’Informationen’ transportieren könnte, ist buchstäblich ’haltlos’: die Worte und Wortfolgen als Kommunikationseinheiten funktionieren ’zwischen’ Bewusstseins-System semantisch nur unter simultaner Voraussetzung der individuell verankerten
Kodierungen. Nur unter dieser Voraussetzung ist es verstehbar, dass Kommunikationseinheiten, die gekoppelt ein Bewusstsein irritieren können, dies nicht unspezifisch tun, sondern unter Voraussetzung der semantischen Kodierung aufgrund der Kommunikationseinheiten dann Bedeutungsnetzwerke im angekoppelten Bewusstsein aktivieren, die z.B. im jeweiligen Bewusstsein bestimmte Erwartungen
auslösen können. (siehe dazu S.33)

3) Kommunikation: Obwohl im vorausgehenden Abschnitt verschiedentlich deutlich wurde, dass eine Abgrenzung von ’Bewusstsein’ gegenüber ’Kommunikation’ und umgekehrt im Sinne der Systemtheorie nur bedingt funktioniert, versucht Luhmann dennoch auch die Kommunikation als eigenständiges System zu konzipieren.

Für Luhmann besitzt das System ’Kommunikation’ seine Referenz in der ”Kommunikation im sozialen System der Gesellschaft”(S. 31). Es ist nicht der ’Mensch’, der kommuniziert, sondern ”nur die Kommunikation kann kommunizieren” (S. 31). Die ”Kommunikation ist ein operativ selbständiges System. Die Erzeugung von Kommunikation aus Kommunikation ist ein selbstreferentieller Prozess.”(S.24) ”Jede
Kommunikation erzeugt von Moment zu Moment… eine eigene  Nachfolgekommunikation.”( S. 31f) Oder: ”Wenn Kommunikation in Gang kommt, bildet sie ein eigenes autopoietisches System mit eigenen rekursiv vernetzten Operationen, das sich auf die Fähigkeit des Bewusstseins zur Transparenz auf der Grundlage von Intransparenz verlassen kann.”(S. 26)

Diese Formulierungen wirken sehr ’scholastisch’ in dem Sinne, dass hier der Eindruck erweckt wird, als ob es nur darum geht, die formalen Anforderungen einer Systemtheorie zu erfüllen, ohne Rücksicht auf die Phänomene selbst. Zu sagen, dass es nicht der Mensch sei, der kommuniziert, sondern die Kommunikation selbst, klingt formal korrekt, wenn man einen bestimmten Systembegriff voraus setzt, aber berücksichtigt man den zuvor hervorgehobenen Sachverhalt, dass die Kodierung von sprachlichen Ausdrücken mit potentiell ’Gemeintem’ nur jeweils in den beteiligten Bewusstseins-Systemen vorliegen kann, und deswegen auch nur diese mögliche ’Informationen’ der Kommunikation aktualisieren können, dann macht es so recht keinen Sinn, zu sagen, nur die Kommunikation ’kommuniziere’. Das System
’Kommunikation’ erscheint eher als ein ’Sub-System’ der agierenden Bewusstseins-Systeme, die je nach interner Konstellation unterschiedliche Kommunikationselemente aktivieren, deaktivieren, verändern.

Vor diesem Hintergrund macht die Formulierung ”Was als Verstehen erreicht ist, wird daher im Kommunikationsprozess souverän entschieden und als Bedingung fürs Weitermachen bzw. für klärende Zwischenkommunikation markiert….”(S.26) nur Sinn, wenn sowohl das ’Verstehen’ wie auch das ’Entscheiden zum Weitermachen’ im Bewusstseins-System verortet ist. Die Kommunikationselemente als solche bieten keinerlei Anknüpfungspunkte weder für Verstehen noch für Entscheiden.

Es ist dann schon merkwürdig, wenn Luhmann einerseits registriert, dass es bei Kommunikation einen ’Übertragungseffekt’ gibt, der ”System und Umwelt von Moment zu Moment [koordiniert]”, aber es dann als ”eine offene Frage” ansieht, ”wie weit das psychisch gehen muss”. Allerdings schließt er aus, dass diese Koordinierung weder zum ”Bewusstseinsinhalt noch zum Mitteilungsinhalt” wird.(vgl.S.27) Würde Luhmann die empirische Verankerung der semantischen Kodierung in den beteiligten
Kommunikationsteilnehmern akzeptieren, dann wäre klar, dass  Kommunikationsereignisse über die strukturelle Kopplung bewusstseinsrelevant werden würden, sie würden im einzelnen Bewusstsein als ’Mitteilung’ dekodiert.

Durch die Strategie der Ausklammerung des individuellen Bewusstseins aus dem Kommunikationsprozess reißt Luhmann mutwillig eine Lücke auf; plötzlich gibt es keinen wirklichen Adressaten mehr in der Kommunikation. Luhmann versucht dieses ’Loch’ dadurch zu ’stopfen’, dass er den alten ’Persona’-Begriff für seine Zwecke reaktiviert: ”Personen können Adressen für Kommunikation sein… Sie können als Aufzeichnungsstellen vorausgesetzt werden…als Zurechnungspunkte für  Kausalannahmen…All das … ohne jede determinierende Auswirkung auf Bewusstseinsprozesse.”(S. 34)

Immerhin denkt Luhmann sein formales System-Konzept auf seine Weise konsequent.
Abgekoppelt vom System Bewusstsein stellt sich die Frage, was denn dann  Kommunikation überhaupt noch ’tut’. Luhmann bezieht eine klare Position: ”Jenseits der psychischen Systeme differenziert und synthetisiert Kommunikation ihre eigenen Komponenten ’Information’, ’Mitteilung’ und ’Verstehen’.”(S.24) ”Die Mitteilung wird als ’Zeichen’ für eine ’Information’ genommen.”(S. 24) ”Mitteilung und Kommunikation
werden in der Kommunikation ’aufgebaut’, ’abgebaut’, ’aktualisiert’, evtl. ’aufgezeichnet’, ’evtl. erneut ’thematisiert’.(S.24)

Unterstellt man, dass Luhmann mit ’Mitteilung’ die Ausdruckselemente (einer Sprache) sieht, mittels deren Kommunikation ’realisiert’ wird, und mittels denen dann auf eine mögliche ’Information’ ’hingewiesen’ wird, die dann wiederum ein ’Verstehen’ implizieren können, dann verheddert sich diese Interpretation wieder mit den empirischen Fakten einer im Bewusstsein-System verorteten semantischen Kodierung (Anmerkung:   Luhmann verwendet an dieser Stelle den Begriff ’Information’ völlig losgelöst von Shannon (1948) [Sha48]. Er stellt aber auch nicht sicher, wie er die ‚Referenz‘ seines Begriffs ‚Information‘ sieht.).

In diesem Zusammenhang ist auch die Feststellung von Luhmann ”Die Kommunikation teilt die Welt nicht mit, sie teilt sie ein in das, was sie mitteilt und das, was sie nicht mitteilt” (S.27) formal korrekt für seine Systemannahmen, aber mit Blick auf die Empirie und ein Systemkonzept, was die semantische Kodierung berücksichtigt, eher fragwürdig. Die ’Kommunikation’ ist für Bewusstseins-Systeme mit semantischer
Kodierung nur eine ’für sich genommen’ bedeutungslose Ereigniskette, deren Elementgrenzen nur dann und insoweit etwas ’bedeuten’, als sie durch Verbindung mit einer semantischen Kodierung virtualisierte Weltbezüge aktivieren und durch die Art ihrer Anordnung diese virtualisierten Weltbezüge ’einteilen’ und ’anordnen’. Da die individuellen semantischen Kodierungen untereinander variieren können, kann der
gleiche Strom von Kommunikationsereignissen bei den Beteiligten ganz unterschiedliche Reaktionen auslösen.

QUELLEN

  • [Bro72] G.Spencer Brown. Laws of Form. The Julian Press, Inc., New York, 1 edition, 1972. Originally published London, 1969).
  • [Luh91] Niklas Luhmann. Die Wissenschaft der Gesellschaft. Suhrkamp, Frankfurt, 2 edition, 1991.
  • [Sha48] C.E. Shannon. A mathematical theory of communication. The Bell System Technical Journal, 27:379–423, 623–656,
    1948. July and October 1948.
  • [Whi10] Randall Whitaker. THE OBSERVER WEB: Autopoiesis and Enaction. The Biology of Cognition, Autopoietic Theory, and Enactive Cognitive Science. The Theories of Humberto Maturana and Francisco Varela. Dr. Randall Whitaker, 1 edition,
    2010.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

ZUFALL – REGEL – LEBEN. MEMO ZUR PHILOSOPHIE-WERKSTATT vom 12.Nov.2017

eJournal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 13.Nov. 2017
URL: cognitiveagent.org
info@cognitiveagent.org
Autor: cagent
Email: cagent@cognitiveagent.org

PDF

ÜBERBLICK

Die Philosophiewerkstatt am 12.November 2017 (siehe Einladung) startete anhand von einfachen Computersimulationen mit grundlegenden Begriffen wie Rauschen – Ordnung,
Zufall – Regel, Regeländerungen durch Zufall, Präferenzen – Ziele.
Daraus entwickelte sich ein Gespräch, bei dem immer mehr zusätzliche
Aspekte beigesteuert wurden. Dabei überlagerten sich verschiedene
Sichten aufgrund der unterschiedlichen Ausgangspunkte.

1. SIMULATIONEN

Die Philosophiewerkstatt startete dieses Mal mit zwei einfachen Computersimulationen.

1.1 Akteur – Umgebung

In der einen Simulation konnte man einen einzelnen Akteur in einer Umgebung beobachten, der entweder nach einem Zufallsprinzip vorging oder mit
einer festen Regel.
Das Zufallsprinzip schloss zwar einen Erfolg grundsätzlich nicht aus,
setzt aber für einen nachhaltigen Erfolg voraus, dass eine genügend lange
Zeit zur Verfügung steht oder sehr viele Akteure gleichzeitig im Einsatz

 

Ideen-Netzwerk zur Sitzung vom 12.Nov.2017
Ideen-Netzwerk zur Sitzung vom 12.Nov.2017

sind, so dass das Scheitern von vielen begleitet sein kann von dem Erfolg
von wenigen.
Das Vorgehen nach einer festen Regel bot 100%-tigen Erfolg, wenn die
Regel zur Umgebung passt, aber zugleich 100%-tiges Scheitern, wenn die
Regel nicht passt. Bei einer sich verändernden Umwelt wäre die Fixierung
auf eine feste Regel also ein Todesurteil, mehr noch als nach dem Zufallsprinzip vorzugehen; Letzteres kann zumindest gelegentlich Erfolg haben.
In der Diskussion der beiden Beispiele ergab sich dann als mögliche
Verbesserung die Idee einer sich verändernden Regel.

1.2 Sich Verändernde Regel

Dazu gab es eine Simulation, in der drei einfache – zu Beginn durch Zufall
– erzeugte Melodien vorgespielt wurden. Man konnte diese relativ zueinander bewerten. Aus den beiden am höchsten bewerteten wurden wieder drei
neue Melodien gebildet und wieder zur Bewertung gestellt.
In diesem Fall waren die Melodien die ’Regeln’, die als Melodie festliegen, die aber nach Rückmeldung durch die Zuhörer ’abgeändert’ wurden.
Klar erkennbar war, dass die Melodien tatsächlich abgeändert wurden.
Es stellte sich dann aber bald die Frage, welche nun besser sei als die an-
deren?
Die Fähigkeit, eine Regel zu ändern bildet die Voraussetzung dafür, ein
regelgeleitetes Verhalten den Gegebenheiten der Umgebung anzupassen,
aber die Richtung der Änderung war damit noch nicht geklärt. Richtungen
haben mit Präferenzen zu tun, mit Werturteilen, mit Zielen.

2. CHAOS, ORDNUNG UND ZIELE

Im Kontext des Begriffs Zufall wurden auch Begriffe wie Rauschen, Entropie und Chaos angesprochen. Diese Begriffe entstammen unterschiedlichen
Sprachspielen (Zufall – Mathematik, Rauschen – Akustik, Entropie – Physik,
Chaos – Mythologie (mit neueren mathematischen Deutungen)). In der
Diskussion wurden sie als letztlich gleichbedeutend behandelt, da sie Systemzustände beschreiben, in denen sich keine Regelhaftigkeiten beobachten
lassen. Insofern stellen diese Begriffe einen Gegenpol dar zu jeder Art von
Regelhaftigkeit, unabhängig davon, wie diese zustande kommt.
Regeln bilden die Bausteine für komplexere Ordnungen, die implizit
Zielsetzungen enthalten, Präferenzen, Wertentscheidungen. Solche Präferenzen
können einen konventionellen = arbiträren Charakter haben (z.B. Verkehrsregeln),
oder aber werthaftig sein im Sinne einer Normentscheidung, die die Alter-
native nicht-diskutierbar ausschließt (z.B. Grundgesetz Art.1: ’Die Würde
des Menschen ist unantastbar…’).
Werthafte Entscheidungen hängen von Wissen ab, mehr noch: von
Überzeugungen, dass A in einem nicht-diskutierbaren Sinne besser sei
als B.
Wenn solche Wertüberzeugen kompatibel sind mit einem nachhaltigen
Leben sind solche Wertüberzeugungen hilfreich. Falls nicht, sind sie nachhaltig destruktiv und tödlich. Beispiele für Wertüberzeugungen liefern viele
institutionell-religiöse System oder Populismen, in denen Wertüberzeugungen
das Handeln anleiten, ohne dass diese – in der Regel – selbst in Frage
gestellt werden werden dürfen (Gilt abgeschwächt auch für staatliche Verfassungen).
Im Bereich des Biologischen manifestiert sich in vielen Beispielen, dass Individuen nach bestimmten individuell festen Regeln miteinander komplexe soziale Systeme realisieren, die in ihrer Gesamtwirkung die Fähigkeiten
des einzelnen Individuums weit überragen. Die hier beobachtbaren Regel
sind – jede für sich – fest programmiert.
Menschen können solche festen Regelsysteme auch leben; allerdings
besitzen sie die zusätzliche Fähigkeit, solche Regelsysteme abzuändern.

3. INDIVIDUUM – SYSTEM

Als Individuum tendiert man dazu, die Welt aus der individuellen Perspektive zu sehen und zu bewerten. Auch ein möglicher Sinn wird in der individuellen Perspektive verankert. Tatsache ist aber, dass das Individuum
weitgehend nur als Teil eines größeren Zusammenhangs (Population, Art,…,
Umwelt, …) existieren kann. Wenn der größere Zusammenhang nicht auf
die Existenz des Individuums abgestimmt ist, hungert es, dürstet, friert, ist
schutzlos, ist hilflos, … Der je größere Kontext ist also möglicherweise der
wichtigere Sinnträger.

4. DEUTUNGSBILDER

Aufgrund der unterschiedlichen Sichten, die im Gespräch zutage traten,
wurde es wichtig, sich bewusst zu machen, dass die Worte, die jemand
benutzt, die sprachlichen Äußerungen, ihre intendierten Bedeutungen über
spezifische Bedeutungsbeziehungen beziehen, die unterschiedlichen Spiel-
regeln unterliegen können.
Eine philosophische Redeweise unterliegt anderen Spielregeln als eine
experimentell-wissenschaftliche Redeweise. Manches, was experimentell-
wissenschaftlich nicht gesagt werden kann, kann philosophisch gesagt wer-
den.
So kann man philosophisch Begriffe wie z.B. Geist, Psyche, und Seele
in bestimmten Kontexten benutzen, experimentell-wissenschaftlich sind diese
Begriffe aber nur schwer, wenn überhaupt, definierbar.
Entsprechend gehören auch biblische Redeweisen, wie man sie z.B.
im Buch Genesis des Alten Testaments zur Entstehung der Erde und des
Lebens lesen kann, einem ganz anderen Sprachspiel an als jene experimentell-
naturwissenschaftlichen Redeweisen über die Entstehung des physikalischen Universums und des biologischen Lebens auf dem Planet Erde.

5. AUSBLICK

Nach diesem sehr angeregten und intensivem Gespräch wurden als Themenwünsche für die nächste Sitzung am So 9.Dez 2017 genannt:

1. Was ist der Mensch? Einerseits ist der Mensch ein biologisches
Lebewesen, Teil des allgemeinen biologischen Lebens, andererseits
verfügt der Mensch über einige Eigenschaften, die ihn von den übrigen
Lebensformen unterscheiden. Welche sind dies? Was bedeutet dies?
2. Zukunft des Menschen: wie muss man sich die Zukunft des Menschen vorstellen? Was kann, was muss sich ändern, wenn das Leben
erhalten bleiben soll?
3. Wie soll man das Zusammenspiel von Mensch und Technologie in
der Zukunft sehen? In welche Richtung könnte sich der Mensch
verändern? In welche Richtung sollte er sich verändern? Inwieweit
kann die Technik hier helfen?
4. Ist es denkbar, dass sich das Bedürfnisprofil des Menschen in der
Zukunft ändert? Muss es sich nicht sogar ändern? Welche Bedürfnisse
sind eigentlich wichtig?

KONTEXTE

Einen Überblick über alle Einträge zur Philosophiewerkstatt nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs finden sich HIER.

DIE ZUKUNFT WARTET NICHT – 2117 – PHILOSOPHISCHE WELTFORMEL – FAKE-NEWS ALS TODESENGEL

NACHTRAG: Mo, 13.März 2017

Wichtiger Nachtrag zum Komplexitätsbegriff, seinen Grenzen, und erweiterte  Diskussion zur ersten Periodisierung genannt ‚Emergent Life‘ (hauptsächlich ab Nr.25)

KONTEXT

  1. Der aktuelle Blogeintrag ist keine direkte Fortsetzung des letzten Eintrags, sondern schließt gedanklich eher an den vorletzten Beitrag an und ist von daher eher als eine Einleitung zu dem Blogeintrag über das Bewusstsein zu verstehen.
  2. Welche Themen jeweils in die Feder fließen hängt von vielerlei Faktoren ab. Generell natürlich schon von den übergreifenden Perspektiven des Blogs, dann aber auch von alltäglichen Ereignissen und Diskussionen. Dass es heute nun zu diesem sehr grundsätzlichen Beitrag gekommen ist, ist u.a. den intensiven Diskussionen mit Manfred Fassler geschuldet, der aufgrund seines Hintergrundes in Soziologie und Anthropologie die gesellschaftliche Dimension stark in die Überlegungen einbringt, während ich mich meist auf systemische Perspektiven fokussieren. Als ich versucht habe (während ich durch meine Grippe weitgehend ausgeschaltet war (und immer noch bin)), seine Aspekte mit meinen Überlegungen zusammen zu bringen, entstand schrittweise eine Struktur, ein Modell, das sich darstellt wie der Beginn einer philosophischen Weltformel, mit deren Hilfe man mit einem Male viele komplexe Einzelphänomene in die Logik eines übergeordneten Zusammenhangs einordnen kann (siehe Schaubild).

    Periodisierung der Evolution des Lebens mit dem Versuch eines systematischen Kriteriums
    Periodisierung der Evolution des Lebens mit dem Versuch eines systematischen Kriteriums

WELTFORMEL

  1. Den Begriff Weltformel kennen wir ja meist nur im Kontext der modernen Physik, die mit ihren Erklärungsmodellen zu immer umfassenderen Aussagen über das Universum kommen konnte, so umfassend, dass man tatsächlich geneigt ist, von einer Weltformel zu sprechen. Nun wissen wir aber, dass diese sogenannten Weltformeln der Physik bislang noch nicht wirklich alles erklären, geschweige denn nicht all jene Phänomene, die wir dem Bereich des biologischen Lebens zuordnen und den damit verbundenen immer komplexeren Phänomenen von Verhalten und menschlichen Gesellschaften. Es besteht auch wenig Aussicht, dass die physikalischen Weltformeln jemals zu einer völlig erschöpfenden Weltformeln werden könnte, weil schon rein mathematisch eine Theorie der Welt ohne jene, die die Theorie hervorbringen, seit Gödel 1931 entweder als grundsätzlich unvollständig oder unentscheidbar gilt.
  2. Ein anderes Hindernis besteht darin, dass die Physik als empirische Wissenschaft – wie alle anderen empirischen Disziplinen auch – schon vom Start weg nur einen kleinen Teil der möglichen Phänomene dieser Welt als Ausgangspunkt zulässt. Diese vorwissenschaftlich getroffene methodische Beschränkung auf die sogenannten intersubjektiven Phänomene, die sich mittels vereinbarter Messverfahren messen lassen, und zwar invariant mit Bezug auf den, der misst, hat sich zwar im großen und ganzen als sehr leistungsfähig erwiesen, aber anzunehmen, dass sich mit dieser methodisch eingeschränkten Phänomenmenge auf lange Sicht alles erklären lassen wird, auch das, was sich hinter den ausgeschlossenen Phänomenen verbirgt, dies ist eine vor-wissenschaftliche Annahme, für die es keinerlei Belege gibt. Die Zukunft wird zeigen, wie es sich mit diesem Ausschluss verhält.
  3. Ob es also die Physik sein wird, die uns die endgültige Weltformel liefern wird, oder doch eher die Philosophie, wird uns die Zukunft zeigen. Die Philosophie hat gegenüber der Physik (und auch gegenüber allen anderen empirischen Disziplinen), den methodisch großen Vorteil, dass die Philosophie alle anderen Disziplinen voraussetzen und einbeziehen kann. So kann ein Philosoph alle Fragmente und Entwürfe von Weltformeln der Physik nehmen und dann dazu ergänzend, erweiternd, begründend seine Weltformel formulieren. Alles, was in der Physik gilt, wird dann hier auch gelten, aber eventuell noch mehr.
  4. Die Überlegungen des Autors zu den Umrissen einer philosophischen Weltformel begannen nun aber gerade nicht so, dass er sich vor den Computer gesetzt hat und sich sagte, so, jetzt wird eine philosophische Weltformel geschrieben. Nein, so würde es auch nie funktionieren. Formeln, selbst die einfachsten, sind immer Ergebnisse von Denkprozessen, mehr oder weniger bewusst, mehr oder weniger schnell. Und eine Weltformel ist, wie man vermuten kann, wenn überhaupt, das Ergebnis von vielen Jahren Arbeit mit ganz vielen Inhalten. Und wie wir wissen, Zeit und Aufwand alleine garantieren auch keine Ergebnisse; sie können die Wahrscheinlichkeit erhöhen, etwas Interessantes zu finden, aber garantieren kann man es nicht.
  5. Das Ganze fing eher unscheinbar an. Unter dem Eindruck eines Telefonats mit Manfred Fassler begann der Autor zunächst für sich, eine Skizze jener Themen zu malen, die in diesem Blog seit 2007 aufgeschlagen sind (380 Beiträge von cagent und 52 Beiträge von cagent im Kontext der Werkstattgespräche). Er überlegte sich, ob man die Themen nach bestimmten inhaltlichen Kriterien und zeitlich ‚clustern‘ könnte. Was dabei herauskam das waren diese merkwürdigen Zylinderfiguren auf der linken Seite des Bildes.

ZEITLICHE EINTEILUNGEN

 

  1. Von oben – beginnend mit dem Big Bang – bis nach unten, zur Gegenwart, haben wir eine zeitliche Erstreckung von ca. 13.8 Mrd Jahren. Eine Einteilung hängt von vorausgehenden Kriterien ab, von einem Muster, Modell, von dem man annimmt, dass es die Menge der Ereignisse sinnvoll strukturiert.
  2. Wie man aus der Skizze ersehen kann, wurde solch eine Unterteilung vorgenommen.
  3. Im ersten Anlauf wurde versucht, mit einem Begriff der Komplexität zu arbeiten. Dahinter steht die Intuition, dass es sich bei den zu beschreibenden Ereignissen um Strukturen handelt, sich sich im Laufe der Zeit bildeten und die immer dichter wurden. Die aktuelle Unterteilung markiert solche Phasen, in denen hervorstechende Komplexitätssprünge zu verzeichnen sind.
  4. Bevor auf die Details dieser Betrachtung eingegangen wird, soll aber zunächst der benutzte Komplexitätsbegriff näher erläutert werden. Dabei sei schon hier angemerkt, dass sich im weiteren Verlauf herausgestellt hat, dass der gewählte Komplexitätsbegriff viel zu schwach ist, um jene Eigenschaften zu repräsentieren, von denen die heutige Biologie, Ethologie und Anthropologie (und möglicherweise viele weitere Disziplinen) sagen würden, dass sie als ‚wichtig‘ für das Phänomen angesehen werden.

KOMPLEXITÄT

 

  1. Vorab, es gibt in der Literatur keinen einheitlichen Komplexitätsbegriff. Im Laufe der Jahre habe ich einen eigenen Begriff von Komplexität entwickelt, den ich hier kurz vorstelle. Man kann ihn dann kritisieren oder übernehmen. Im Falle von Kritik wäre ich an Argumenten interessiert, um weiter lernen zu können, ihn vielleicht weiter zu entwickeln oder letztlich doch wieder zu verwerfen.
  2. Die Frage ist immer, mit welcher mentalen Brille man die Wirklichkeit sieht. Der berühmte Pessimist sieht überall die halbleeren Gläser, der Optimist die halbvollen. Der Tierschützer sieht überall, wie die Tiere leiden, der Chemiker sieht überall chemische Verbindungen am Werke, der Immobilienmakler potentielle Kaufobjekte, und so fort.
  3. Für die Frage der Komplexität besteht eine Möglichkeit darin, sich die mentale Brille der Systeme aufzusetzen. Mit der System-Brille besteht die Welt nur noch aus Systemen. Ein System ist Etwas, das sich von seiner Umgebung unterscheiden lässt. Diese Annahme impliziert, dass es rein abstrakt zwischen diesem unterscheidbaren Etwas und seiner Umgebung Wechselwirkungen geben kann. Sofern es um Einwirkungen auf das System geht sprechen wir einfach vom Input (I) des Systems und im umgekehrten Fall, wenn das System auf die Umgebung einwirkt, vom Output (O) des Systems. Rein abstrakt, auf der begrifflichen Ebene, hat ein System demgemäß immer einen Input und Output in Wechselwirkung mit seiner Umgebung; im konkreten, empirischen Fall, kann diese Wechselwirkung so schwach sein, dass sie sich nicht messen lässt. Dann ist die Wechselwirkung leer, oder 0 = I = O.
  4. Nimmt man ein bestimmtes System S als Bezugspunkt, dann kann man sagen, dass sich das System S auf Ebene/ Level 0 befindet. Alle Systeme, die sich mit Bezug auf das System S in seiner Umgebung befinden, wären dann auf der Ebene/ dem Level +1. Alle Systeme, die sich im System S befinden, finden sich auf Ebene/ Level -1. Sollte ein System S‘ sich auf Level -1 von System S befinden, also LEVEL(S‘,S,-1), und sollte das System S‘ selbst weiter Systeme S“ enthalten, dann lägen diese auf Level -2 von System S (und auf Level -1 zu System S‘).
  5. Beispiel: Vom menschlichen Körper wissen wir, dass er sich so betrachten lässt, dass er aus einer endlichen Anzahl von Körperorganen besteht (Level -1), die wiederum aus vielen Zellen bestehen (Level -2). Hier kann man entweder weitere Subeinheiten annehmen oder betrachtet diese Zellen als nächsten Bezugspunkt, von denen wir wissen, dass jeder Körperzelle wiederum aus einer Vielzahl von Systemen besteht (Level -3). Diese Betrachtung könnte man weiter fortsetzen bis zu den Molekülen, dann Atomen, dann subatomaren Teilchen, usw. Nimmt man die Umgebung menschlicher Körper, dann haben wir auf Level +1 andere menschliche Körper, Tiere, Pflanzen, Gebäude, Autos, Computer usw. Jedes dieser Systeme in der Umgebung ist selbst ein System mit inneren Systemen.
  6. Was bislang noch nicht gesagt wurde, ist, dass man anhand der Inputs und Outputs eines Systems sein Verhalten definiert. Die Abfolge von Inputs und Outputs konstituiert eine Folge von (I,O)-Paaren, die in ihrer Gesamtheit eine empirische Verhaltensfunktion f_io definieren, also f_io ={(i,o), …, (i,o)}, wobei man mit Hilfe einer Uhr (eine Maschine zur Erzeugung von gleichmäßigen Intervallen mit einem Zähler) jedem Input- und Outputereignis eine Zeitmarke zuordnen könnte.
  7. Während empirisch immer nur endlich viele konkrete Ereignisse beobachtet werden können, kann man abstrakt unendlich viele Ereignisse denken. Man kann also abstrakt eine theoretische Verhaltensfunktion f_th über alle möglichen denkbaren Input- und Outputereignisse definieren als f_th = I —> O. Eine empirische Verhaltensfunktion wäre dann nur eine Teilmenge der theoretischen Verhaltensfunktion: f_io c f_th. Dies hat Vorteile und Nachteile. Die Nachteile sind ganz klar: theoretisch spricht die Verhaltensfunktion über mehr Ereignisse, als man jemals beobachten kann, also auch über solche, die vielleicht nie stattfinden werden. Dies kann zu einer falschen Beschreibung der empirischen Welt führen. Demgegenüber hat man aber den Vorteil, dass man theoretisch über Ereignisse sprechen kann, die bislang noch nicht beobachtet wurden und die daher für Prognosezwecke genutzt werden können. Wenn die Theorie also sagen würde, dass es ein bestimmtes subatomares Teilchen mit der Beschaffenheit X geben müsste, was aber bislang noch nicht beobachtet werden konnte, dann könnte man aufgrund dieser Prognose gezielt suchen (was in der Vergangenheit auch schon zu vielen Entdeckungen geführt hat).
  8. Rein abstrakt kann man ein System SYS damit als eine mathematische Struktur betrachten, die über mindestens zwei Mengen Input (I) und Output (O) definiert ist zusammen mit einer Verhaltensfunktion f, geschrieben: SYS(x) genau dann wenn x = <I,O,f> mit f: I → O.
  9. Rein abstrakt gilt also, dass jedes System SYS auch weitere Systeme als interne Elemente besitzen kann, d.h. Jedes System kann Umgebung für weitere Systeme sein. Nennen wir die Gesamtheit solcher möglicher interner Systeme IS, dann müsste man die Strukturformel eines Systems erweitern zu SYS(x) gdw x = <I,O,IS,f> mit f: I x IS —> IS x O. Dies besagt, dass ein System mit weiteren internen Systemen IS in seinem Verhalten nicht nur abhängig ist vom jeweiligen Input I, sondern auch vom Output der jeweiligen internen Systeme. Aus beiden Inputs wir dann nicht nur der Systemoutput O ermittelt, sondern zugleich bekommen auch die internen Systeme einen Input (der diese internen Systeme u.U. So verändern kann, dass sie beim nächsten Mal ganz anders reagieren als vorher).
  10. In welchem Sinn könnte man nun sagen, dass ein System S komplexer ist als ein System S‘ (geschrieben S >~> S‘)?
  11. Es gibt jetzt verschiedene Möglichkeiten. Einmal (i) könnte die Anzahl der inneren Ebenen (-N) ein Ansatzpunkt sein. Ferner (ii) bietet sich die Anzahl der Systeme pro Ebene (|-n| mit n in N), ihre ‚Dichte‘, an. Schließlich (iii) macht es auch einen Unterschied, wie groß die Anzahl der möglichen verschiedenen Inputs-Outputs ist, die in ihrer Gesamtheit einen Raum möglicher Verhaltenszustände bilden (|I| x |O| = |f_io|). Rein mathematisch könnte man auch noch (iv) den Aspekt der Mächtigkeit der Menge aller Systeme einer Art SYS, also |SYS|, definieren und diese Menge – die in der Biologie Population genannt wird – als eine Art ‚Hüllensystem‘ S_pop definieren. Ein Hüllensystem wäre dann ein System, das ausschließlich Elemente einer bestimmten Art enthält. Ein Hüllensystem S_pop_a könnte zahlreicher sein als ein Hüllensystem S_pop_b, |S_pop_a| > |S_pop_b|, es könnte aber auch sein, dass sich die Mächtigkeit einer Population im Laufe der Zeit ändert. Eine Population mit einer Mächtigkeit |S_pop_x| = 0 wäre ausgestorben. Die Veränderungen selbst können Wachstumsraten und Sterberaten anzeigen.
  12. Im Folgenden nehmen wir hier an, dass ein System S komplexer ist als ein System S‘ (S >~> S‘), wenn S ein System im Sinne der Definition ist und entweder (i) mehr innere Ebenen enthält oder (ii) pro innere Ebene eine höhere Dichte aufweist oder aber (iii) der Raum möglicher Verhaltenszustände der beteiligten Systeme größer ist. Bei Gleichheit der Größen (i) – (iii) könnte man zusätzlich die Größe (iv) berücksichtigen.
  13. Beispiel: Die Milchstraße, unsere Heimatgalaxie, umfasst zwischen 150 und 400 Mrd. Sterne (Sonnen) und hat einen Durchmesser von ca. 100.000 bis 180.000 Lichtjahre. In einem einführenden Buch über die Mikrobiologie präsentiert Kegel als neueste Schätzungen, dass der menschliche Körper etwa 37 Billionen (10^12) Körperzellen umfasst, dazu 100 Billionen (10^12) Bakterien im Körper und 224 Mrd. (10^9) Bakterien auf der Haut. Dies bedeutet, dass ein einziger menschlicher Körper mit seinen Körperzellen rein quantitativ etwa 150 Galaxien im Format der Milchstraße entspricht (1 Zelle = 1 Stern) und die Bakterien darin nochmals etwa 400 Galaxien. Dies alles zudem nicht verteilt in einem Raum von ca. 550 x 100.000 – 180.000 Lichtjahren, sondern eben in diesem unserem unfassbar winzigen Körper. Dazu kommt, dass die Körperzellen (und auch die Bakterien) in intensiven Austauschprozessen stehen, so dass eine einzelne Zelle mit vielen Tausend, wenn nicht gar zigtausenden anderen Körperzellen kommuniziert (Hormone im Blut können können viele Milliarden Zellen adressieren). Diese wenigen Zahlen können ahnen lassen, mit welchen Komplexitäten wir im Bereich des Biologischen zu tun haben. Dabei ist noch nicht berücksichtigt, dass ja die Zellen im Körper meist noch in funktionellen Einheiten organisiert sind mit weiteren Untereinheiten, so dass sich hier viele Ebenen finden lassen.

KOMPLEXITÄTSEREIGNISSE

 

  1. Unter Voraussetzung des bisherigen Komplexitätsbegriffs kann man nun die Ereignisse der biologischen Evolution mit diesem Begriff beschreiben und schauen, ob es irgendwann einen hervorstechenden Komplexitätssprung gibt, der möglicherweise den Beginn einer neuen Phase markiert.
  2. An dieser Stelle wird schon deutlich, dass die Wahl eines Komplexitätsbegriffs basierend auf Systemen möglicherweise noch zu schwach ist, um den zu beschreibenden Phänomenen gerecht zu werden. Den Begriff ‚Komplexitätssprung‘ kann man zwar formal definieren (es gibt immer viele Möglichkeiten), ob nun solch ein Konzept dann in der empirischen Realität aber genau das beschreibt, was wirklich dem Phänomen optimal entspricht, das kann sich letztlich nur am empirischen Ereignis selbst anschaulich entscheiden (im positiven Fall). Ein einfacher Ansatz wäre, einen Komplexitätssprung über den Begriff des minimalen Abstands zwischen zwei Komplexitäten S und S‘ zu definieren, und unter Einbeziehung ‚einer empirisch sinnvollen Konstante‘. Dann würde immer dann, wenn ein solcher Abstand gemessen werden kann, ein Komplexitätssprung vorliegt. Was wäre aber ein ‚empirisch sinnvoller Abstand‘ in biologischer Sicht?

PERIODISIERUNG

  1. Betrachtet man nach diesen Vorbemerkungen das Schaubild, dann kann man als ersten Abschnitt ‚Emergent Life‘ erkennen. Dies identifiziert die Zeit ab dem ersten nachgewiesenen Auftreten von biologischen Zellen, vor ca. 3.5 Mrd Jahren (nach neuesten Funden evtl. sogar schon ab 3.77 Mrd Jahren). Der Übergang von Molekülen zu sich selbst reproduzierenden Zellen markiert einen gewaltigen Komplexitätssprung.
  2. Man kann versuchen, den formalen Komplexitätsbegriff darauf anzuwenden. Nimmt man beispielsweise eine eukaryotische Zelle als System S, dann kann man typische Umgebungen ermitteln, interne Organisationslevel, die Dichte auf den Leveln sowie den Raum möglicher Verhaltenszustände von jedem beteiligten System. Nimmt man als Vergleich die strukturell einfacheren prokaryotischen Zellen (die als evolutionär älter gelten), dann kann man zu unterschiedlichen Werten kommen, die im Falle der prokaryotischen Zellen kleiner ausfallen. Im Unterschied zu einer Ansammlung von irgendwelchen Molekülen wird man noch größere Unterschiede feststellen. Will man diese strukturellen Unterschiede für eine Klassifikation nutzen, dann muss man sie gewichten. Ohne hier auf die Details einer solchen Gewichtung eingehen zu können (das wäre ein eigener riesiger Artikel) stellen wir hier einfach mal fest, dass gilt: S_eukaryot >~> S_prokaryot >~> S_molecule, wobei der ‚Abstand‘ zwischen den beiden Zelltypen deutlich kleiner ist als zwischen dem einfachen Zelltyp und einem einfachen Molekül, also Distance(S_eukaryot, S_prokaryot) < Distance(S_prokaryot, S_molecule).
  3. Unterstellen wir mal, alle Details vorausgehender Klassifikationen wären erfüllt. Was wäre damit erreicht? Wir wüssten schematisch, dass wir es mit drei verschiedenen Typen von Systemen zu tun hätte mit unterschiedlichen Levels, Input-Output-Räumen, unterschiedlichen Dichten … hätten wir damit aber irgendetwas von dem erfasst, was die evolutionäre Biologie, Molekularbiologie, Zellbiologie usw. bislang als charakteristisch für die biologische Zelle erkannt zu haben meint?
  4. Einige der wichtigen Eigenschaften werden informell so beschrieben: (i) Zellen haben eine erkennbare Struktur mit Wechselwirkungen zur Umgebung (insofern sind sie Systeme); (ii) sie sind in der Lage, Energie aus der Umgebung aufzunehmen und damit unterschiedliche chemische Prozesse zu moderieren; (iii) sie sind in der Lage, die Strukturen und Funktionen dieser Struktur in Form eines speziellen Moleküls zu kodieren (Bauplan, ‚Gedächtnis‘); (iv) sie können sich mit Hilfe des Bauplans reproduzieren, wobei die Reproduktion Abweichungen zulässt.
  5. Mindestens in diesen vier genannten Eigenschaften unterscheiden sich biologische Zellen von Molekülen. Der zuvor eingeführte Komplexitätsbegriff kann hier zwar eine höhere Komplexität herausrechnen, aber tut sich schwer, die vier Leiteigenschaften angemessen zu repräsentieren. Woran liegt das?
  6. Das ist einmal der Begriff der Energie. Dieser wurde von der Physik in vielen Jahrhunderten schrittweise erarbeitet und ist eine Eigenschaft, die generisch die gesamte empirische Welt durchzieht. Letztlich liegt er allem zugrunde als Äquivalent zur bewegten Massen. Wenn man nur Strukturen von Systemen betrachtet, kommt Energie nicht wirklich vor. Wenn es nun aber eine zentrale neue Eigenschaft eines Systems ist, freie Energie für eigene Zwecke ‚verarbeiten‘ zu können, dann müsste dies in die Systemstruktur aufgenommen werden (spezielle Funktionen…). Allerdings verarbeiten sogar Moleküle in gewisser Weise Energie, allerdings nicht so komplex und produktiv wie Zellen.
  7. Dann sind dort die metabolischen Prozesse (Stoffwechselprozesse) der Zellen. Diese sind extrem vielfältig und komplex miteinander verwoben. Der abstrakte Komplexitätsbegriff kann dies zwar anzeigen, aber nur ‚äußerlich‘; die Besonderheiten dieser Prozesse werden damit nicht sichtbar.
  8. Schließlich das Phänomen des Zellkerns mit Molekülen, die einen Bauplan kodieren; man könnte dies auch als eine Form von Gedächtnis beschreiben. Zum kodierten Bauplan gibt es auch eine komplexe Dekodierungsmaschinerie. Eine rein formale Repräsentation im Komplexitätsbegriff macht die Besonderheit nicht sichtbar. Wenn man weiß, worauf es ankommt, könnte man eine entsprechende Systemstruktur zusammen mit den notwendigen Operationen definieren.
  9. Was sich hier andeutet, ist, dass die abstrakte Seite der formalen Repräsentation als solche zwar nahezu alles zulässt an Formalisierung, aber welche Struktur letztlich etwas Sinnvolles in der empirischen Welt kodiert, folgt aus der abstrakten Struktur alleine nicht. Dies muss man (mühsam) aus den empirischen Phänomenen selbst herauslesen durch eine Art induktive Modellbildung/ Theoriebildung, also das, was die empirischen Wissenschaften seit Jahrhunderten versuchen.
  10. Der Versuch, ‚auf die Schnelle‘ die sich hier andeutenden Komplexitäten zu systematisieren, wird also nur gelingen, wenn die Verallgemeinerungen die entscheidenden empirischen Inhalte dabei ’nicht verlieren‘.
  11. Ohne diese Problematik an dieser Stelle jetzt weiter zu vertiefen (darauf ist später nochmals zurück zu kommen), soll hier nur ein Gedanke festgehalten werden, der sich mit Blick auf die nachfolgende Phase anbietet: mit Blick aufs Ganze und den weiteren Fortgang könnte man in der ersten Phase von Emerging Life als grundlegendes Ereignis die Ausbildung der Fähigkeit sehen, eine Art strukturelles Gedächtnis bilden zu können, das sich bei der Weitergabe strukturell variieren lässt. Damit ist grundlegend der Ausgangspunkt für die Kumulation von Wissen unter Überwindung der reinen Gegenwart möglich geworden, die Kumulierung von ersten Wirkzusammenhängen. Diese Urform eines Gedächtnisses bildet einen ersten grundlegenden Meta-Level für ein erstes Ur-Wissen von der Welt jenseits des Systems. Der Emerging Mind aus der nächsten Phase wäre dann der Schritt über das strukturelle Gedächtnis hin zu einem lokal-dynamischen Gedächtnis.
  12. Dann stellt sich die Frage, welche der nachfolgenden Ereignisse in der Evolution eine weitere Steigerung der Komplexität manifestieren? Kandidaten kann man viele finden. Zellen haben gelernt, sich in immer komplexeren Verbänden zu organisieren, sie haben immer komplexere Strukturen innerhalb der Verbände ausgebildet, sie konnten in immer unterschiedlicheren Umgebungen leben, sie konnten innerhalb von Populationen immer besser kooperieren, konnten sich auch immer besser auf die Besonderheiten anderer Populationen einstellen (als potentielle Beute oder als potentielle Feinde), und konnten immer mehr Eigenschaften der Umgebungen nutzen, um nur einige der vielfältigen Aspekte zu nennen. Manche bildeten komplexe Sozialstrukturen aus, um in zahlenmäßig großen Populationen gemeinsam handeln zu können (Schwärme, ‚Staaten‘, Verbünde, ….). Nach vielen Milliarden Jahren, von heute aus erst kürzlich, vor einigen Millionen Jahren, gab es aber Populationen, deren zentrale Informationsverarbeitungssysteme (Nervensysteme, Gehirne), das individuelle System in die Lage versetzen können, Vergangenes nicht nur zu konservieren (Gedächtnis), sondern in dem Erinnerbaren Abstraktionen, Beziehungen, Unterschiede und Veränderungen erkennen zu können. Zugleich waren diese Systeme in der Lage Gegenwärtiges, Gedachtes und neue Kombinationen von all dem (Gedachtes, Geplantes) symbolisch zu benennen, auszusprechen, es untereinander auszutauschen, und sich auf diese Weise ganz neu zu orientieren und zu koordinieren. Dies führte zu einer revolutionären Befreiung aus der Gegenwart, aus dem Jetzt und aus dem ‚für sich sein‘. Damit war mit einem Mal alles möglich: das schrittweise Verstehen der gesamten Welt, die schrittweise Koordinierung allen Tuns, das Speichern von Wissen über den Moment hinaus, das Durchspielen von Zusammenhängen über das individuelle Denken hinaus.
  13. Als nächster Komplexitätssprung wird daher das Auftreten von Lebewesen mit komplexen Nervensystemen gesehen, die ein Bewusstsein ausbilden konnten, das sie in die Lage versetzt, miteinander ihre internen Zustände symbolisch austauschen zu können, so dass sie einen Siegeszug der Erkenntnis und des Aufbaus komplexer Gesellschaften beginnen konnten. Dieses Aufkommen des Geistes (‚Emerging Mind‘) definiert sich damit nicht nur über die direkt messbaren Strukturen (Nervensystem, Struktur, Umfang,..), sondern auch über den Umfang der möglichen Zustände des Verhaltens, das direkt abhängig ist sowohl von den möglichen Zuständen des Gehirns, des zugehörigen Körpers, aber auch über die Gegebenheiten der Umwelt. Anders ausgedrückt, das neue Potential dieser Lebensform erkennt man nicht direkt und alleine an ihren materiellen Strukturen, sondern an der Dynamik ihrer potentiellen inneren Zustände in Wechselwirkung mit verfügbaren Umwelten. Es ist nicht nur entscheidend, dass diese Systeme symbolisch kommunizieren konnten, sondern auch WAS, nicht entscheidend alleine dass sie Werkzeuge bilden konnten, sondern auch WIE und WOZU, usw.
  14. Es ist nicht einfach, dieses neue Potential angemessen theoretisch zu beschreiben, da eben die rein strukturellen Elemente nicht genügend aussagestark sind. Rein funktionelle Aspekte auch nicht. Es kommen hier völlig neue Aspekte ins Spiel.

Die Fortsezung gibt es HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 5 – neu – Version 2

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 27.August 2015
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll.

Was ist Leben?

Erst die Erde

Etwa 9.2 Mrd Jahre nach dem sogenannten Big Bang kam es zur Entstehung unseres Sonnensystems mit der Sonne als wichtigstem Bezugspunkt. Nur ca. 60 Mio Jahre später gab es unsere Erde. Die Zeitspanne, innerhalb der Spuren von Leben auf der Erde bislang identifiziert wurden, liegt zwischen -4 Mrd Jahre von heute zurück gerechnet bis ca. -3.5 Mrd Jahre. Oder, vom Beginn der Erde aus gesehen, ca. 540 Mio Jahre bis ca. 1 Mrd Jahre nach der Entstehung der Erde.

Alte Bilder vom Leben

Wenn man vom Leben spricht, von etwas Belebtem im Gegensatz zum Unbelebtem, fragt man sich sofort, wie man ‚Leben‘ definieren kann? In der zurückliegenden Geschichte gab es viele Beschreibungs- und Definitionsversuche. Einer, der heute noch begrifflich nachwirkt, ist die Sicht der Philosophie der Antike (ca. -600 bis 650) . Hier wurde das ‚Atmen‘ (gr. ‚pneo‘) als charakteristisches Merkmal für ‚Lebendiges‘ genommen, wodurch es vom ‚Unbelebtem‘ abgegrenzt wurde. Aus dem ‚Atmen‘ wurde zugleich ein allgemeines Lebensprinzip abgeleitet, das ‚Pneuma‘ (im Deutschen leicht missverständlich als ‚Geist‘ übersetzt, im Lateinischen als ’spiritus‘), das sich u.a. im Wind manifestiert und ein allgemeines kosmologisches Lebensprinzip verkörpert, das sowohl die Grundlage für die psychischen Eigenschaften eines Lebewesens bildet wie auch für seine körperliche Lebendigkeit. In der Medizin gab es vielfältige Versuche, das Pneuma im Körper zu identifizieren (z.B. im Blut, in der Leber, im Herzen, im Gehirn und den Nerven). Im philosophischen Bereich konnte das Pneuma ein heißer Äther sein, der die ganze Welt umfasst. Eine andere Auffassung sieht das Pneuma zusammengesetzt aus Feuer und Luft, woraus sich alle Körper der Welt bilden. Das Pneuma wird auch gesehen als die ‚Seele‘, die allein das Leben des Körpers ermöglicht. Bei den Stoikern wird das Pneuma-Konzept zum allumfassenden Begriff einer Weltseele gesteigert. Mit der Zeit vermischte sich der Pneuma-Begriff mit dem Begriff ’nous‘ (Kurzform für ’noos‘)(Englisch als ‚mind‘ übersetzt; Deutsch ebenfalls als ‚Geist‘), um darin die kognitiv-geistige Dimension besser auszudrücken. Weitere einflussreiche begriffliche Koordinierungen finden statt mit dem lateinischen ‚mens‘ (Deutsch auch übersetzt mit ‚Geist‘) und dem hebräischen ‚ruach‘ (im Deutschan ebenfalls mit ‚Geist‘ übersetzt; bekannt in der Formulierung ‚Der Geist Gottes (= ‚ruach elohim‘) schwebte über den Wassern‘; in der Septuaginta, der griechischen Übersetzung der hebräischen Bibel, heißt es ‚pneuma theou‘ (= der Geist Gottes)) (Anmerkung: Diese Bemerkungen sind ein kleiner Extrakt aus der sehr ausführlichen begriffsgeschichtlichen Herleitung in Sandkühler 2010)

Die Zelle im Fokus

War es für die antiken Philosophen, Mediziner und Wissenschaftler noch praktisch unmöglich, die Frage nach den detaillierten Wirkprinzipien des ‚Lebens‘ genauer zu beantworten, erarbeitete sich die moderne Naturwissenschaft immer mehr Einsichten in die Wirkprinzipien biologischer Phänomene (bei Tieren, Pflanzen, Mikroben, molekularbiologischen Sachverhalten), so dass im Laufe des 20.Jahrhunderts klar wurde, dass die Gemeinsamkeit aller Lebensphänomene auf der Erde in jener Superstruktur zu suchen ist, die heute (biologische) Zelle genannt wird.

Alle bekannten Lebensformen auf der Erde, die mehr als eine Zelle umfassen (wir als Exemplare der Gattung homo mit der einzigen Art homo sapiens bestehen aus ca. 10^13 vielen Zellen), gehen zu Beginn ihrer körperlichen Existenz aus genau einer Zelle hervor. Dies bedeutet, dass eine Zelle über alle notwendigen Eigenschaften verfügt, sich zu reproduzieren und das Wachstum eines biologischen Systems zu steuern.

So enthält eine Zelle (Anmerkung: Für das Folgende benutze ich B.Alberts et.al (2008)) alle Informationen, die notwendig sind, um sowohl sich selbst zu organisieren wie auch um sich zu reproduzieren. Die Zelle operiert abseits eines chemischen Gleichgewichts, was nur durch permanente Aufnahme von Energie realisiert werden kann. Obwohl die Zelle durch ihre Aktivitäten die Entropie in ihrer Umgebung ‚erhöht‘, kann sie gegenläufig durch die Aufnahme von Energie auch Entropie verringern. Um einen einheitlichen Prozessraum zu gewährleisten, besitzen Zellen eine Membran, die dafür sorgt, dass nur bestimmte Stoffe in die Zelle hinein- oder herauskommen.

Keine Definition für außerirdisches Leben

Obgleich die Identifizierung der Zelle samt ihrer Funktionsweise eine der größten Errungenschaften der modernen Wissenschaften bei der Erforschung des Phänomens des Lebens darstellt, macht uns die moderne Astrobiologie darauf aufmerksam, dass eine Definition der Lebensphänomene mit Einschränkung des Blicks auf die speziellen Bedingungen auf der Erde nicht unproblematisch ist. Wunderbare Bücher wie „Rare Earth“ von Peter Douglas Ward (Geboren 1949) und Donald Eugene Brownlee (Geboren 1943) „ASTROBIOLOGY. A Multidisciplinary Approach“ von Jonathan I.Lunine (Geb. 1959) machen zumindest sichtbar, wo die Probleme liegen könnten. Lunine diskutiert in Kap.14 seines Buches die Möglichkeit einer allgemeineren Definition von Leben explizit, stellt jedoch fest, dass es aktuell keine solche eindeutige allgemeine Definition von Leben gibt, die über die bekannten erdgebundenen Formen wesentlich hinausgeht. (Vgl. ebd. S.436)

Schrödingers Vision

Wenn man die Charakterisierungen von Leben bei Lunine (2005) in Kap.14 und bei Alberts et.al (2008) in Kap.1 liest, fällt auf, dass die Beschreibung der Grundstrukturen des Lebens trotz aller Abstraktionen tendenziell noch sehr an vielen konkreten Eigenschaften hängen.

Erwin Rudolf Josef Alexander Schrödinger (1887-1961), der 1944 sein einflussreiches Büchlein „What is Life? The Physical Aspect of the Living Cell“ veröffentlichte, kannte all die Feinheiten der modernen Molekularbiologie noch nicht . Schrödinger unterzog das Phänomen des Lebens einer intensiven Befragung aus Sicht der damaligen Physik. Auch ohne all die beeindruckenden Details der neueren Forschung wurde ihm klar, dass das hervorstechendste Merkmal des ‚Biologischen‘, des ‚Lebendigen‘ die Fähigkeit ist, angesichts der physikalisch unausweichlichen Zunahme der Entropie einen gegensätzlichen Trend zu realisieren; statt wachsender Unordnung als Entropie diagnostizierte er eine wachsende Ordnung als negative Entropie, also als etwas, was der Entropie entgegen wirkt.

Diesen Gedanken Schrödingers kann man weiter variieren und in dem Sinne vertiefen, dass der Aufbau einer Ordnung Energie benötigt, mittels der Freiheitsgrade eingeschränkt und Zustände temporär ‚gefestigt‘ werden können.

Fragt sich nur, warum?

Alberts et.al (2008) sehen das Hauptcharakteristikum einer biologischen Zelle darin, dass sie sich fortpflanzen kann, und nicht nur das, sondern dass sie sich selbstmodifizierend fortpflanzen kann. Die Realität biologischer Systeme zeigt zudem, dass es nicht nur um ‚irgendeine‘ Fortpflanzung ging, sondern um eine kontinuierlich optimierende Fortpflanzung.

Metastrukturen

Nimmt man diese Eckwerte ernst, dann liegt es nahe, biologische Zellen als Systeme zu betrachten, die einerseits mit den reagierenden Molekülen mindestens eine Objektebene [O] umfasst und in Gestalt der DNA eine Art Metaebene [M]; zwischen beiden Systemen lässt sich eine geeigneten Abbildung [R] in Gestalt von Übersetzungsprozessen realisieren, so dass die Metaebene M mittels Abbildungsvorschrift R in eine Objektebene O übersetzt werden kann ($latex R: M \longmapsto O$). Damit eine Reproduktion grundsätzlich gelingen kann, muss verlangt werden, dass das System mit seiner Struktur ‚lang genug‘ stabil ist, um solch einen Übersetzungsprozess umsetzen zu können. Wie diese Übersetzungsprozesse im einzelnen vonstatten gehen, ist letztlich unwichtig. Wenn in diesem Modell bestimmte Strukturen erstmals realisiert wurden, dann fungieren sie als eine Art ‚Gedächtnis‘: alle Strukturelemente von M repräsentieren potentielle Objektstrukturen, die jeweils den Ausgangspunkt für die nächste ‚Entwicklungsstufe‘ bilden (sofern sie nicht von der Umwelt ‚aussortiert‘ werden).

Die Rolle dieser Metastrukturen lässt sich letztlich nicht einfach mit den üblichen chemischen Reaktionsketten beschreiben; tut man es dennoch, verliert man die Besonderheit des Phänomens aus dem Blick. Eine begriffliche Strategie, um das Phänomen der ‚wirkenden Metastrukturen‘ in den Griff zu bekommen, war die Einführung des ‚Informationsbegriffs‘.

Information

Grob kann man hier mindestens die folgenden sprachlichen Verwendungsweisen des Begriffs ‚Information‘ im Kontext von Informationstheorie und Molekularbiologie unterscheiden:

  1. Unreflektiert umgangssprachlich (‚Information_0‘)
  2. Anhand des Entscheidungsaufwandes (Bit) (‚Information_1‘)
  3. Rein statistisch (a la Shannon 1948) (‚Information_2‘)
  4. Semiotisch informell (ohne die Semiotik zu zitieren) (‚Semantik_0‘)
  5. Als komplementär zur Statistik (Deacon) (‚Semantik_1‘)
  6. Als erweitertes Shannonmodell (‚Semantik_2‘)

Information_0

Die ‚unreflektiert umgangssprachliche‘ Verwendung des Begriffs ‚Information‘ (hier: ‚Information_0‘) brauchen wir hier nicht weiter zu diskutieren. Sie benutzt den Begriff Information einfach so, ohne weitere Erklärungen, Herleitungen, Begründungen. (Ein Beispiel Küppers (1986:41ff))

Information_1

Die Verwendung des Begriffs Information im Kontext eines Entscheidungsaufwandes (gemessen in ‚Bit‘), hier als ‚Information_1‘ geht auf John Wilder Tukey (1915-2000) zurück.

Information_2

Shannon (1948) übernimmt zunächst diesen Begriff Information_1, verzichtet dann aber im weiteren Verlauf auf diesen Informationsbegriff und führt dann seinen statistischen Informationsbegriff ein (hier: ‚Information_2‘), der am Entropiekonzept von Boltzmann orientiert ist. Er spricht dann zwar immer noch von ‚Information‘, bezieht sich dazu aber auf den Logarithmus der Wahrscheinlichkeit eines Ereignisses, was alles und jedes sein kann. Ein direkter Bezug zu einem ’speziellen‘ Informationsbegriff (wie z.B. Information_1) besteht nicht. Man kann die logarithmierte Wahrscheinlichkeit eines Ereignisses als ‚Information‘ bezeichnen (hier: ‚Information_2‘), aber damit wird der Informationsbegriff inflationär, dann ist alles eine Information, da jedes Ereignis mindestens eine Wahrscheinlichkeit besitzt. (Leider benutzt auch Carl Friedrich von Weizsäcker (1971:347f) diesen inflationären Begriff (plus zusätzlicher philosophischer Komplikationen)). Interessanterweise ist es gerade dieser inflationäre statistische Informationsbegriff Information_2, der eine sehr starke Resonanz gefunden hat.

Semantik 0

Nun gibt es gerade im Bereich der Molekularbiologie zahlreiche Phänomene, die bei einer Beschreibung mittels eines statistischen Informationsbegriffs wichtige Momente ihres Phänomens verlieren. (Dazu eine kleine Übersicht bei Godfrey-Smith, Kim Sterelny (2009)) Ein Hauptkritikpunkt war und ist das angebliche Fehlen von Bedeutungselementen im statistischen Modell von Shannon (1948). Man spricht auch vom Fehlen einer ‚Semantik‘. Allerdings wird eine Diskussion der möglichen Bedeutungsmomente von Kommunikationsereignissen unter Verwendung des Begriffs ‚Semantik‘ auch oft unreflektiert alltagssprachlich vorgenommen (hier: Semantik_0′), d.h. es wird plötzlich von Semantik_0 gesprochen (oft noch erweitert um ‚Pragmatik‘), ohne dass die Herkunft und Verwendung dieses Begriffs in der Wissenschaft der Semiotik weiter berücksichtigt wird. (Ein Beispiel für solch eine verwirrende Verwendungsweise findet sich z.B. wieder bei Weizsäcker (1971:350f), wo Information_0, Information_2 sowie Semantik_0 miteinander frei kombiniert werden, ohne Berücksichtigung der wichtigen Randbedingungen ihrer Verwendung; ganz ähnlich Küppers (1986:61ff); zur Semiotik siehe Noeth (2000)). Ein anderes neueres Beispiel ist Floridi (2015:Kap.3+4) Er benutzt zwar den Begriff ‚Semantik‘ extensiv, aber auch er stellt keinen Bezug zur semiotischen Herkunft her und verwendet den Begriff sehr speziell. Seine Verwendung führt nicht über den formalen Rahmen der statistischen Informationstheorie hinaus.

Semantik 1

Sehr originell ist das Vorgehen von Deacon (2007, 2008, 2010). Er diagnostiziert zwar auch einen Mangel, wenn man die statistische Informationstheorie von Shannon (1948) auf biologische Phänomene anwenden will, statt sich aber auf die schwierige Thematik einer expliziten Semantik einzulassen, versucht er über die Ähnlichkeit des Shannonschen statistischen Informationsbegriffs mit dem von Boltzmann einen Anschluss an die Thermodynamik zu konstruieren. Von dort zum Ungleichgewicht biologischer Systeme, die durch Arbeit und Energieaufnahme ihr Gleichgewicht zu halten versuchen. Diese Interaktionen des Systems mit der Umgebung modifizieren die inneren Zustände des Systems, die wiederum dann das Verhalten des Systems ‚umweltgerecht‘ steuern. Allerdings belässt es Deacon bei diesen allgemeinen Annahmen. Die ‚Abwesenheit‘ der Bedeutung im Modell von Shannon wird über diese frei assoziierten Kontexte – so vermutet man als Leser – mit den postulierten internen Modifikationen des interagierenden Systems begrifflich zusammengeführt. Wie dies genau gedacht werden kann, bleibt offen.

Semantik 2

So anregend die Überlegungen von Deacon auch sind, sie lassen letztlich offen, wie man denn – auch unter Berücksichtigung des Modells von Shannon – ein quasi erweitertes Shannonmodell konstruieren kann, in dem Bedeutung eine Rolle spielt. Hier eine kurze Skizze für solch ein Modell.

Ausgehend von Shannons Modell in 1948 besteht die Welt aus Sendern S, Empfängern D, und Informationskanälen C, über die Sender und Empfänger Signale S eingebettet in ein Rauschen N austauschen können (<S,D,S,N,C> mit C: S —> S x N).

Ein Empfänger-Sender hat die Struktur, dass Signale S in interne Nachrichten M dekodiert werden können mittels R: S x N —> M. Umgekehrt können auch Nachrichten M in Signale kodiert werden mit T: M —> S. Ein minimaler Shannon Sender-Empfänger hat dann die Struktur <M, R, T>. So gesehen funktionieren R und T jeweils als ‚Schnittstellen‘ zwischen dem ‚Äußeren‘ und dem ‚Inneren‘ des Systems.

In diesem minimalen Shannonmodell kommen keine Bedeutungen vor. Man kann allerdings annehmen, dass die Menge M der Nachrichten eine strukturierte Menge ist, deren Elemente Paare der Art (m_i,p_i) in M mit ‚m_i‘ als Nachrichtenelement und ‚p_i‘ als Wahrscheinlichkeit, wie oft dieses Nachrichtenelement im Kanal auftritt. Dann könnte man Shannons Forml H=-Sum(p_i * log2(p_i)) als Teil des Systems auffassen. Das minimale Modell wäre dann <M, R, T, H>.

Will man ‚Bedeutungen‘ in das System einführen, dann muss man nach der Semiotik einen Zeichenbegriff für das System definieren, der es erlaubt, eine Beziehung (Abbildung) zwischen einem ‚Zeichenmaterial‚ und einem ‚Bedeutungsmaterial‚ zu konstruieren. Nimmt man die Signale S von Shannon als Kandidaten für ein Zeichenmaterial, fragt sich, wie man das Bedeutungsmaterial B ins Spiel bringt.

Klar ist nur, dass ein Zeichenmaterial erst dann zu einem ‚Zeichen‘ wird, wenn der Zeichenbenutzer in der Lage ist, dem Zeichenmaterial eine Bedeutung B zuzuordnen. Eine einfache Annahme wäre, zu sagen, die dekodierten Nachrichten M bilden das erkannte Zeichenmaterial und der Empfänger kann dieses Material irgendwelchen Bedeutungen B zuordnen, indem er das Zeichenmaterial M ‚interpretiert‚, also I : M —> B. Damit würde sich die Struktur erweitern zu <B, M, R, T, H, I>. Damit nicht nur ein Empfänger ‚verstehen‘ kann, sondern auch ‚mitteilen‘, müsste der Empfänger als Sender Bedeutungen auch wieder ‚umgekehrt lesen‘ können, also -I: B —> M. Diese Nachrichten könnten dann wieder mittels T in Signale übersetzt werden, der Kanal sendet diese Signale S angereichert mit Rauschen N zum Empfänger, usw. Wir erhalten also ein minimal erweitertes Shannon Modell mit Bedeutung als <B, M, R, T, H, I, -I>. Ein Sender-Empfänger kann also weiterhin die Wahrscheinlichkeitsstruktur seiner Nachrichten auswerten; zusätzlich aber auch mögliche Bedeutungsanteile.

Bliebe als Restfrage, wie die Bedeutungen B in das System hineinkommen bzw. wie die Interpretationsfunktion I entsteht?

An dieser Stelle kann man die Spekulationen von Deacon aufgreifen und als Arbeitshypothese annehmen, dass sich die Bedeutungen B samt der Interpretationsbeziehung I (und -I) in einem Adaptionsprozess (Lernprozess) in Interaktion mit der Umgebung entwickeln. Dies soll an anderer Stelle beschrieben werden.

Für eine komplette Beschreibung biologischer Phänomene benötigt man aber noch weitere Annahmen zur Ontogense und zur Phylogense. Diese seien hier noch kurz skizziert. (Eine ausführliche formale Darstellung wird anderswo nachgeliefert).

Ontogenese

Von der Lernfähigkeit eines biologischen Systems muss man die Ontogenese unterscheiden, jenen Prozess, der von der Keimzelle bis zum ausgewachsenen System führt.

Die Umsetzung der Ontogenese in einem formalen Modell besteht darin, einen Konstruktionsprozess zu definieren, das aus einem Anfangselement Zmin das endgültige System Sys in SYS erstellen würde. Das Anfangselement wäre ein minimales Element Zmin analog einer befruchteten Zelle, das alle Informationen enthalten würde, die notwendig wären, um diese Konstruktion durchführen zu können, also Ontogenese: Zmin x X —> SYS. Das ‚X‘ stünde für alle die Elemente, die im Rahmen einer Ontogenese aus der Umgebung ENV übernommen werden müssten, um das endgültige system SYS = <B, M, R, T, H, I, -I> zu konstruieren.

Phylogenese

Für die Reproduktion der Systeme im Laufe der Zeiten benötigte man eine Population von Systemen SYS, von denen jedes System Sys in SYS mindestens ein minimales Anfangselement Zmin besitzt, das für eine Ontogenese zur Verfügung gestellt werden kann. Bevor die Ontogenese beginnen würde, würden zwei minimale Anfangselemente Zmin1 und Zmin2 im Bereich ihrer Bauanleitungen ‚gemischt‘. Man müsste also annehmen, dass das minimale System um das Element Zmin erweitert würde SYS = <B, M, Zmin, R, T, H, I, -I>.

Erstes Zwischenergebnis

Auffällig ist also, dass das Phänomen des Lebens

  1. trotz Entropie über dynamische Ungleichgewichte immer komplexere Strukturen aufbauen kann.
  2. innerhalb seiner Strukturen immer komplexere Informations- und Bedeutungsstrukturen aufbaut und nutzt.

So wie man bislang z.B. die ‚Gravitation‘ anhand ihrer Wirkungen erfasst und bis heute erfolglos zu erklären versucht, so erfassen wir als Lebende das Leben anhand seiner Wirkungen und versuchen bis heute auch erfolglos, zu verstehen, was hier eigentlich passiert. Kein einziges physikalisches Gesetzt bietet auch nur den leisesten Anhaltspunkt für dieses atemberaubende Geschehen.

In dieser Situation den Menschen als eine ‚vermutlich aussterbende Art‘ zu bezeichnen ist dann nicht einfach nur ‚gedankenlos‘, sondern im höchsten Maße unwissenschaftlich, da es letztlich einer Denkverweigerung nahe kommt. Eine Wissenschaft, die sich weigert, über die Phänomene der Natur nachzudenken, ist keine Wissenschaft.

Fortsetzung Folgt.

QUELLEN

  1. H.J. Sandkühler (Hg.), 2010, „Enzyklopädie Philosophie“, Hamburg: Felix Meiner Verlag, Band 1: Von A bis H, Kapitel: Geist, SS.792ff
  2. B.Alberts et.al (Hg.), 2008, „Molecular Biology of the CELL“, Kap.1, 5.Aufl., New York: Garland Science, Taylor & Francis Group
  3. Peter Douglas Ward und `Donald Eugene Brownlee (2000),“Rare Earth: Why Complex Life Is Uncommon in the Universe“, New York: Copernikus/ Springer,
  4. Jonathan I.Lunine (2005), „ASTROBIOLOGY. A Multidisciplinary Approach“, San Francisco – Boston – New York et al.: Pearson-Addison Wesley
  5. Zu Schroedinger 1944: Based on Lectures delivered under the auspices of the Institute at Trinity College, Dublin, in February 1943, Cambridge: University Press. 1944. Ich selbst habe die Canto Taschenbuchausgabe der Cambridge University von 1992 benutzt. Diese Ausgabe enthält ‚What is Life?‘, ‚Mind from Matter‘, sowie autobiographischen Angaben und ein Vorwort von Roger Penrose
  6. Anmerkung zu Schroedinger 1944: Sowohl James D. Watson (2003) wie auch ähnlich Francis Crick (1990) berichten, dass Schrödingers Schrift (bzw. einer seiner Vorträge) sie für ihre Erforschung der DNA stark angeregt hatte.
  7. James D.Watson und A.Berry(2003), „DNA, the Secret of Life“, New York: Random House
  8. Francis Crick (1990),„What Mad Pursuit: A Personal View of Scientific Discovery“, Reprint, Basic Books
  9. Peter Godfrey-Smith und Kim Sterelny (2009) Biological Information“, in: Stanford Enyclopedia of Philosophy
  10. Carl Friedrich von Weizsäcker (1971), „Die Einheit der Natur“, München: Carl Hanser Verlag
  11. Bernd-Olaf Küppers (1986), „Der Ursprung biologischer Information. Zur Naturphilosophie der Lebensentstehung“, München – Zürich: Piper Verlag.
  12. Claude E. Shannon, A mathematical theory of communication. Bell System Tech. J., 27:379-423, 623-656, July, Oct. 1948
  13. Claude E. Shannon; Warren Weaver (1949) „The mathematical theory of communication“. Urbana – Chicgo: University of Illinois Press.
  14. Noeth, W., Handbuch der Semiotik, 2. vollst. neu bearb. und erw. Aufl. mit 89 Abb. Stuttgart/Weimar: J.B. Metzler, xii + 668pp, 2000
  15. Luciano Floridi (2015) Semantic Conceptions of Information, in: Stanford Enyclopedia of Philosophy
  16. Deacon, T. (2007), Shannon-Boltzmann-Darwin: Redfining information. Part 1. in: Cognitive Semiotics, 1: 123-148
  17. Deacon, T. (2008), Shannon-Boltzmann-Darwin: Redfining information. Part 2. in: Cognitive Semiotics, 2: 167-194
  18. Terrence W.Deacon (2010), „What is missing from theories of information“, in: INFORMATION AND THE NATURE OF REALITY. From Physics to Metaphysics“, ed. By Paul Davies & Niels Henrik Gregersen, Cambridge (UK) et al: Cambridge University Press, pp.146 – 169

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 5-neu

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll.

Was ist Leben?

Erst die Erde

Etwa 9.2 Mrd Jahre nach dem sogenannten Big Bang kam es zur Entstehung unseres Sonnensystems mit der Sonne als wichtigstem Bezugspunkt. Nur ca. 60 Mio Jahre später gab es unsere Erde. Die Zeitspanne, innerhalb der Spuren von Leben auf der Erde bislang identifiziert wurden, liegt zwischen -4 Mrd Jahre von heute zurück gerechnet bis ca. -3.5 Mrd Jahre. Oder, vom Beginn der Erde aus gesehen, ca. 540 Mio Jahre bis ca. 1 Mrd Jahre nach der Entstehung der Erde .

Alte Bilder vom Leben

Wenn man vom Leben spricht, von etwas Belebtem im Gegensatz zum Unbelebtem, fragt man sich sofort, wie man ‚Leben‘ definieren kann? In der zurückliegenden Geschichte gab es viele Beschreibungs- und Definitionsversuche. Einer, der heute noch begrifflich nachwirkt, ist die Sicht der Philosophie der Antike (ca. -600 bis 650) . Hier wurde das ‚Atmen‘ (gr. ‚pneo‘) als charakteristisches Merkmal für ‚Lebendiges‘ genommen, wodurch es vom ‚Unbelebtem‘ abgegrenzt wurde. Aus dem ‚Atmen‘ wurde zugleich ein allgemeines Lebensprinzip abgeleitet, das ‚Pneuma‘ (im Deutschen leicht missverständlich als ‚Geist‘ übersetzt, im Lateinischen als ’spiritus‘), das sich u.a. im Wind manifestiert und ein allgemeines kosmologisches Lebensprinzip verkörpert, das sowohl die Grundlage für die psychischen Eigenschaften eines Lebewesens bildet wie auch für seine körperliche Lebendigkeit. In der Medizin gab es vielfältige Versuche, das Pneuma im Körper zu identifizieren (z.B. im Blut, in der Leber, im Herzen, im Gehirn und den Nerven). Im philosophischen Bereich konnte das Pneuma ein heißer Äther sein, der die ganze Welt umfasst. Eine andere Auffassung sieht das Pneuma zusammengesetzt aus Feuer und Luft, woraus sich alle Körper der Welt bilden. Das Pneuma wird auch gesehen als die ‚Seele‘, die allein das Leben des Körpers ermöglicht. Bei den Stoikern wird das Pneuma-Konzept zum allumfassenden Begriff einer Weltseele gesteigert. Mit der Zeit vermischte sich der Pneuma-Begriff mit dem Begriff ’nous‘ (Kurzform für ’noos‘)(Englisch als ‚mind‘ übersetzt; Deutsch ebenfalls als ‚Geist‘), um darin die kognitiv-geistige Dimension besser auszudrücken. Weitere einflussreiche begriffliche Koordinierungen finden statt mit dem lateinischen ‚mens‘ (Deutsch auch übersetzt mit ‚Geist‘) und dem hebräischen ‚ruach‘ (im Deutschan ebenfalls mit ‚Geist‘ übersetzt; bekannt in der Formulierung ‚Der Geist Gottes (= ‚ruach elohim‘) schwebte über den Wassern‘; in der Septuaginta, der griechischen Übersetzung der hebräischen Bibel, heißt es ‚pneuma theou‘ (= der Geist Gottes)) (Anmerkung: Diese Bemerkungen sind ein kleiner Extrakt aus der sehr ausführlichen begriffsgeschichtlichen Herleitung in der ‚Enzyklopädie Philosophie‘ (2010), herausgegeben von H.J. Sandkühler, Felix Meiner Verlag, Hamburg 2010. Buch: Von A bis Z, Kapitel: Geist,SS.792ff}

Die Zelle im Fokus

War es für die antiken Philosophen, Mediziner und Wissenschaftler noch praktisch unmöglich, die Frage nach den detaillierten Wirkprinzipien des ‚Lebens‘ genauer zu beantworten, erarbeitete sich die moderne Naturwissenschaft immer mehr Einsichten in die Wirkprinzipien biologischer Phänomene (bei Tieren, Pflanzen, Mikroben, molekularbiologischen Sachverhalten), so dass im Laufe des 20.Jahrhunderts klar wurde, dass die Gemeinsamkeit aller Lebensphänomene auf der Erde in jener Superstruktur zu suchen ist, die heute (biologische) Zelle genannt wird.

Alle bekannten Lebensformen auf der Erde, die mehr als eine Zelle umfassen (wir als Exemplare der Gattung homo mit der einzigen Art homo sapiens bestehen aus ca. 10^13 vielen Zellen), gehen zu Beginn ihrer körperlichen Existenz aus genau einer Zelle hervor. Dies bedeutet, dass eine Zelle über alle notwendigen Eigenschaften verfügt, sich zu reproduzieren und das Wachstum eines biologischen Systems zu steuern.

So enthält eine Zelle (Anmerkung: Für das Folgende benutze ich Kap.1 des wunderbaren Buches „Molecular Biology of the CELL“, 5.Aufl. 2008, hrsg. von B.Alberts et.al, New York: Garland Science, Taylor & Francis Group) alle Informationen, die notwendig sind, um sowohl sich selbst zu organisieren wie auch um sich zu reproduzieren. Die Zelle operiert abseits eines chemischen Gleichgewichts, was nur durch permanente Aufnahme von Energie realisiert werden kann. Obwohl die Zelle durch ihre Aktivitäten die Entropie in ihrer Umgebung ‚erhöht‘, kann sie gegenläufig durch die Aufnahme von Energie auch Entropie verringern. Um einen einheitlichen Prozessraum zu gewährleisten, besitzen Zellen eine Membran, die dafür sorgt, dass nur bestimmte Stoffe in die Zelle hinein- oder herauskommen.

Keine Definition für außerirdisches Leben

Obgleich die Identifizierung der Zelle samt ihrer Funktionsweise eine der größten Errungenschaften der modernen Wissenschaften bei der Erforschung des Phänomens des Lebens darstellt, macht uns die moderne Astrobiologie darauf aufmerksam, dass eine Definition der Lebensphänomene mit Einschränkung des Blicks auf die speziellen Bedingungen auf der Erde nicht unproblematisch ist. Wunderbare Bücher wie das Buch „Rare Earth: Why Complex Life Is Uncommon in the Universe“ (2000) (Anmerkung: erschienen im Verlag Copernikus/ Springer, New York.) von Peter Douglas Ward (Geboren 1949) und Donald Eugene Brownlee (Geboren 1943) oder das Buch „ASTROBIOLOGY. A Multidisciplinary Approach“ (2005) (Anmerkung: erschienen in San Francisco – Boston – New York et al. bei Pearson-Addison Wesley) von Jonathan I.Lunine (Geb. 1959) machen zumindest sichtbar, wo die Probleme liegen könnten. Lunine diskutiert in Kap.14 seines Buches die Möglichkeit einer allgemeineren Definition von Leben explizit, stellt jedoch fest, dass es aktuell keine solche eindeutige allgemeine Definition von Leben gibt, die über die bekannten erdgebundenen Formen wesentlich hinausgeht. (Vgl. ebd. S.436)

Schrödingers Vision

Wenn man die Charakterisierungen von Leben bei Lunine (2005) in Kap.14 und bei Alberts et.al (2008) in Kap.1 liest, fällt auf, dass die Beschreibung der Grundstrukturen des Lebens trotz aller Abstraktionen tendenziell noch sehr an vielen konkreten Eigenschaften hängen.

Erwin Rudolf Josef Alexander Schrödinger (1887-1961) , der 1944 sein einflussreiches Büchlein „What is Life? The Physical Aspect of the Living Cell“ veröffentlichte (Anmerkung: Based on Lectures delivered under the auspices of the Institute at Trinity College, Dublin, in February 1943, Cambridge: University Press. 1944. [B 12, B 18a.1] Ich selbst habe die Canto Taschenbuchausgabe der Cambridge University von 1992 benutzt. Diese Ausgabe enthält ‚What is Life?‘, ‚Mind from Matter‘, sowie autobiographischen Angaben und ein Vorwort on Roger Penrose)), kannte all die Feinheiten der modernen Molekularbiologie noch nicht (Anmerkung: Allerdings berichten sowohl James D. Watson in seinem Buch „DNA, the Secret of Life“ (Anmerkung: zusammen mit Berry, A. (2003), New York: Random House) wie auch ähnlich Francis Crick in seinem autobiographischen Buch „What Mad Pursuit“ (Anmerkung: What Mad Pursuit: A Personal View of Scientific Discovery (Basic Books reprint edition, 1990)), dass Schrödingers Schrift (bzw. einer seiner Vorträge) sie für ihre Erforschung der DNA stark angeregt hatte.). Schrödinger unterzog das Phänomen des Lebens einer intensiven Befragung aus Sicht der damaligen Physik. Auch ohne all die beeindruckenden Details der neueren Forschung wurde ihm klar, dass das hervorstechendste Merkmal des ‚Biologischen‘, des ‚Lebendigen‘ die Fähigkeit ist, angesichts der physikalisch unausweichlichen Zunahme der Entropie einen gegensätzlichen Trend zu realisieren; statt wachsender Unordnung als Entropie diagnostizierte er eine wachsende Ordnung als negative Entropie, also als etwas, was der Entropie entgegen wirkt.

Diesen Gedanken Schrödingers kann man weiter variieren und in dem Sinne vertiefen, dass der Aufbau einer Ordnung Energie benötigt, mittels der Freiheitsgrade eingeschränkt und Zustände temporär ‚gefestigt‘ werden können.

Fragt sich nur, warum?

Alberts et.al (2008) sehen das Hauptcharakteristikum einer biologischen Zelle darin, dass sie sich fortpflanzen kann, und nicht nur das, sondern dass sie sich selbstmodifizierend fortpflanzen kann. Die Realität biologischer Systeme zeigt zudem, dass es nicht nur um ‚irgendeine‘ Fortpflanzung ging, sondern um eine kontinuierlich optimierende Fortpflanzung.

Nimmt man versuchsweise einen abstrakten Betrachtungsstandpunkt ein, dann kann man vereinfachend annehmen, dass es sich bei biologischen Zellen um Systeme handelt, die u.a. mindestens eine Objektebene [O] und eine Metaebene [M] umfassen, mit einer geeigneten Abbildung [R], so dass man die Metaebene M in die Objektebene O mittels R abbilden kann $latex R: M \longmapsto O$ Damit könnte eine Reproduktion grundsätzlich gelingen, vorausgesetzt, das System mit seiner Struktur bleibt ‚lang genug‘ stabil.

Kann man solch eine ‚hinreichend lange‘ Stabilität garantieren, dann können minimale Systemstrukturen aufgebaut werden, und es können Reproduktionen vorgenommen werden. Wie dies im einzelnen geschieht, ist letztlich unwichtig. Die tatsächliche Realisierungsgeschichte biologischer Systeme auf der Erde ist von schwindelerregender Komplexität und zugleich von atemberaubender Schönheit. Tatsächlich gibt es an jedem Punkt des Prozesses Varianten (auch in der realen Geschichte), wenn aber bestimmte Strukturen erst einmal realisiert wurden, dann fungierten diese (Meta-)Strukturen als eine Art ‚Gedächtnis‘: alle Strukturelemente von M repräsentieren potentielle Objektstrukturen, die jeweils den Ausgangspunkt für die nächste ‚Entwicklungsstufe‘ bilden (sofern sie nicht von der Umwelt ‚aussortiert‘ werden).

Irrlicht Information

Forts. folgt.

Wer nicht warten will, bis die Fortsetzung hier erscheint, kann mitlesen, was zwischendurch gedacht und geschrieben wird, um zur Fortsetzung zu gelangen: HIER.

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

INDIVIDUUM vs. SYSTEM: Wenn das Individuum tot ist wird das System sterben …

1. Die folgenden Überlegungen müsste man eigentlich mit viel Mathematik und Empirie untermauert hinschreiben. Da ich aber auf Wochen absehbar dazu nicht die Zeit haben werde, ich den Gedanken trotzdem wichtig finde, notiere ich ihn so, wie er mir jetzt in die Finger und Tasten fließt …

PARADOX MENSCH Mai 2012

2. Am 4.Mai 2012 – also vor mehr als 2 Jahren – hatte ich einen Blogeintrag geschrieben (PARADOX MENSCH), in dem ich versucht hatte, anzudeuten, wie der eine Mensch in ganz unterschiedlichen ’sozialen Rollen‘, in ganz unterschiedlichen gesellschaftlichen Kontexten vorkommt und dort, je nach Handlungs-, Wissens- und Werteraum ganz verschiedene Dinge tun kann. Derselbe Mensch kann hundert Tausende für sich bis zum umfallen Arbeiten lassen und selbst dabei ‚reich‘ und ‚genussvoll‘ in den Tag hinein leben oder er kann als genau dieser einzelner in einer Werkhalle stehen und für einen Hungerlohn bei miserablen Bedingungen sein Leben aufarbeiten, ohne viel darüber nachdenken zu können, wie er sein Leben ändern könnte. Der Mensch in der Werkhalle kann viel intelligenter, viel begabter sein als der, der die hundert Tausende befehligt, aber der in der Werkhalle hat keine sozialen Räume, um diese seine Begabungen ausleben zu können. Vielleicht wäre er ein mathematisches Genie, ein großer Pianist, ein begnadeter Architekt, eine wunderbare Krankenschwester, ein(e) …. wir werden es in der aktuellen Situation nicht wissen, es sei denn …

3. Was sich in dem Blogeintrag von 2012 andeutet, aber nicht explizit ausgeführt wird, das ist diese ‚doppelte Sicht‘ auf die Wirklichkeit:

INDIVIDUELL-SUBJEKTIV, SYSTEMISCH – TRANSSUBJEKTIV

4. als Individuen, als einzelne ‚erleben‘ wir die Welt aus unserer subjektiven Perspektive, mit unserem einzelnen Körper, finden uns vor in einem gesellschaftlichen Kontext, der uns als Kinder ‚empfängt‘ und der von Anfang an ‚mit uns umgeht‘. Als Kinder können wir fast nichts machen; wir sind ‚Gegenstand‘ dieser Prozesse‘, sehr oft einfach nur ‚Opfer‘; der Prozess ‚macht mit uns‘ etwas. Wie wir wissen können, gibt es hier die volle Bandbreite zwischen Hunger, Quälereien, Missbrauch, Folter, Arbeit bis hin zu friedlicher Umgebung, umsorgt werden, genügend (zu viel) zu Essen haben, spielen können, lernen können usw.

5. Wir erleben die Welt aus dieser EGO-Perspektive mit dem individuellen Körper, seinem Aussehen, seiner Motorik, seinen Eigenheiten in einer Umgebung, die ihre Spielregeln hat, unabhängig von uns. Wir gewinnen ein BILD von uns, das sich über die Umgebung formt, bildet, zu unserem Bild über uns wird, eine Rückspiegelung von uns unter den Bedingungen der Umgebung. Jemand hat die Begabung zu einem Ingenieure, wird aber immer nur belohnt und unterstützt, wenn er etwas ganz anderes macht, also wird er normalerweise nie Ingenieure werden. … Wer nur überlebt, wenn er lernt sich anzupassen oder andere mit Gewalt niederhält, permanent Angst um sich verbreitet, der wird selten zu einem ‚friedlichen‘, ‚umgänglichen‘ Gegenüber …

6. Aus Sicht ‚der Welt‘, der sozialen Struktur, der Firma, der Behörde, kurz, aus Sicht ‚des Systems‘ ist ein einzelner immer dasjenige ‚Element‘, das ‚im Sinne des Systems‘ ‚funktioniert‘! Wer Lehrer in einer Schule geworden ist, wurde dies nur, weil es das ‚System Schule‘ gibt und der einzelne bestimmte ‚Anforderung‘ ‚erfüllt‘ hat. Solange er diese Anforderungen erfüllt, kann er in dem ‚System Schule‘ das Element genannt ‚Lehrer‘ sein.

7. Das System interessiert sich nicht dafür, ob und wie das einzelne Element Lehrer auf seiner subjektiven Seite die alltäglichen Ereignisse, Erlebnisse, Anforderungen verarbeitet, verarbeiten kann; wenn das Element ‚Lehrer‘ im Sinne des Systems ‚Schwächen‘ zeigt, Anforderungen länger nicht erfüllen kann, dann muss das System dieses ’schwächelnde Element‘ ‚entfernen‘, da es ansonsten sich selbst schwächen würde. Das ‚System Schule‘ als gesellschaftliches System bezieht seine Berechtigung aus der Systemleistung. Wird diese nicht erbracht, dann gerät es – je nach Gesellschaft – unter Druck; dieser Druck wird auf jedes einzelne Element weiter gegeben.

8. Solange ein einzelnes Element die Systemanforderungen gut erfüllen kann bekommt es gute Rückmeldungen und fühlt sich ‚wohl‘. Kommt es zu Konflikten, Störungen innerhalb des Systems oder hat das individuelle Element auf seiner ’subjektiven Seite‘ Veränderungen, die es ihm schwer machen, die Systemanforderungen zu erfüllen, dann gerät es individuell unter ‚Druck‘, ‚Stress‘.

9. Kann dieser Druck auf Dauer nicht ‚gemildert‘ bzw. ganz aufgelöst werden, wird der Druck das individuelle Element (also jeden einzelnen von uns) ‚krank‘ machen, ‚arbeitsunfähig‘, ‚depressiv‘, oder was es noch an schönen Worten gibt.

MENSCHENFREUNDLICHE SYSTEME

10. In ‚menschenfreundlichen‘ Systemen gibt es Mechanismen, die einzelnen, wenn Sie in solche Stresssituationen kommen, Hilfen anbieten, wie der Druck eventuell aufgelöst werden kann, so dass das individuelle Element mit seinen Fähigkeiten, Erfahrungen und seinem Engagement mindestens erhalten bleibt. In anderen – den meisten ? — Systemen, wird ein gestresstes Element, das Ausfälle zeigt, ‚ausgesondert‘; es erfüllt nicht mehr seinen ’systemischen Zweck‘. Welche der beiden Strategien letztlich ’nachhaltiger‘ ist, mehr Qualität im System erzeugt, ist offiziell nicht entschieden.

11. In ‚menschenfreundlichen Gesellschaftssystemen‘ ist für wichtige ‚Notsituationen = Stresssituationen‘ ‚vorgesorgt‘, es gibt systemische ‚Hilfen‘, um im Falle von z.B. Arbeitslosigkeit oder Krankheit oder finanzieller Unterversorgung unterschiedlich stark unterstützt zu werden. In weniger menschenfreundlichen Systemen bekommt das einzelne Element, wenn es vom ‚System‘ ‚ausgesondert‘ wird, keinerlei Unterstützung; wer dann keinen zusätzlichen Kontext hat, fällt ins ‚gesellschaftliche Nichts‘.

12. Unabhängig von ökonomischen und gesellschaftlichen Systemen bleiben dann nur ‚individuell basierte Systeme‘ (Freundschaften, Familien, Vereine, private Vereinigungen, …), die einen ‚Puffer‘ bilden, eine ‚Lebenszone‘ für all das, was die anderen Systeme nicht bieten.

INDIVIDUELLE GRATWANDERUNG

13. Ein einzelner Mensch, der sein Leben sehr weitgehend darüber definiert, dass er ‚Systemelement‘ ist, d.h. dass er/sie als Element in einem System S bestimmte Leistungen erbringen muss, um ‚mitspielen‘ zu können, und der für dieses ‚Mitspielen‘ einen ‚vollen Einsatz‘ bringen muss, ein solcher Mensch vollzieht eine permanente ‚Gratwanderung‘.

14. Da jeder einzelne Mensch ein biologisches System ist, das einerseits fantastisch ist (im Kontext des biologischen Lebens), andererseits aber natürliche ‚Grenzwerte‘ hat, die eingehalten werden müssen, damit es auf Dauer funktionieren kann, kann ein einzelner Mensch auf Dauer als ‚Element im System‘ nicht ‚absolut‘ funktionieren; es braucht Pausen, Ruhezonen, hat auch mal ’schwächere Phasen‘, kann nicht über Jahre vollidentisch 100% liefern. Dazu kommen gelegentliche Krankheiten, Ereignisse im ‚privaten Umfeld, die für die ‚Stabilisierung‘ des einzelnen wichtig sind, die aber nicht immer mit dem ‚System‘ voll kompatibel sind. Je nach ‚Menschenunfreundlichkeit‘ des Systems lassen sich die privaten Bedürfnisse mit dem System in Einklang bringen oder aber nicht. Diese zunächst vielleicht kleinen Störungen können sich dann bei einem menschenunfreundlichem System auf Dauer zu immer größeren Störungen auswachsen bis dahin, dass das einzelne individuelle Element nicht mehr im System funktionieren kann.

15. Solange ein einzelnes Element nur seine ’subjektive Perspektive‘ anlegt und seine eigene Situation nur aus seiner individuellen Betroffenheit, seinem individuellen Stress betrachtet, kann es schnell in eine Stimmung der individuellen Ohnmacht geraten, der individuellen Kraftlosigkeit, des individuellen Versagens verknüpft mit Ängsten (eingebildeten oder real begründet), und damit mit seinen negativen Gefühlen die negative Situation weiter verstärken. Das kann dann zu einem negativen ‚Abwärtsstrudel‘ führen, gibt es nicht irgendwelche Faktoren in dem privaten Umfeld, die dieses ‚auffangen‘ können, das Ganze zum ‚Stillstand‘ bringen, ‚Besinnung‘ und ’neue Kraft‘ ermöglichen und damit die Voraussetzung für eine mögliche ‚Auflösung der Stresssituation‘ schaffen.

16. Menschen, die annähernd 100% in ihr ‚Element in einem System‘ Sein investieren und annähernd 0% in ihr privates Umfeld, sind ideale Kandidaten für den individuellen Totalcrash.

17. ‚Plazebos‘ wie Alkohol, Drogen, punktuelle Befriedigungs-Beziehungen, bezahlte Sonderevents und dergleichen sind erfahrungsgemäß keine nachhaltige Hilfe; sie verstärken eher noch die individuelle Hilflosigkeit für den Fall, dass es ernst wird mit dem Stress. Denn dann helfen alle diese Plazebos nichts mehr.

WAS WIRKLICH ZÄHLT

18. Das einzige, was wirklich zählt, das sind auf allen Ebenen solche Beziehungen zu anderen, die von ‚tatsächlichem‘ menschlichen Respekt, Anerkennung, Vertrautheit, Zuverlässigkeit, und Wertschätzung getragen sind, dann und gerade dann, wenn man phasenweise seine ‚vermeintliche Stärke‘ zu verlieren scheint. Das umfasst private Wohnbereiche zusammen mit anderen sowie ‚echte‘ Freundschaften, ‚echte‘ Beziehungen, ‚gelebte‘ Beziehungsgruppen, ‚Gefühlter Sinn‘, und dergleichen mehr.

LOGIK DES SYSTEMS

19. Die ‚Logik der Systeme‘ ist als solche ’neutral‘: sie kann menschenrelevante Aspekte entweder ausklammern oder einbeziehen. Solange es ein ‚Überangebot‘ an ‚fähigen Menschen‘ für ein System gibt, kann es vielleicht menschenrelevante Aspekte ‚ausklammern‘, solange das ‚gesellschaftliche Umfeld‘ eines Systems die ‚Störungen absorbiert‘. Wie man weiß, kann aber die ‚Qualität‘ eines Systems erheblich leiden, wenn es die ‚menschenrelevanten‘ Aspekte zu stark ausklammert; auch wird ein gesellschaftliches Umfeld – wie uns die Geschichte lehrt – auf Dauer ab einem bestimmten Ausmaß an zu absorbierenden Störungen instabil, so dass auch die für sich scheinbar funktionierenden Systeme ins Schwanken geraten. Die Stabilität eines Systems ist niemals unabhängig von seiner Umgebung. So führte historisch eine auftretende krasse Vermögens- und Arbeits-Ungleichverteilung immer wieder zu starken Turbulenzen, Revolutionen, in denen Menschen sich wehren. Denn letztlich sind alle absolut gleich, jeder hat die gleichen Rechte. Das einseitige Vorenthalten von Rechten bei den einen und die einseitige Privilegierung für wenige andere hat nahezu keine Begründung in einem persönlichen Besser sein, sondern ist fast ausschließlich systemisch-historisch bedingt. Da ‚Privilegieninhaber‘ von sich aus fast nie freiwillig auf ihre Privilegien verzichten wollen und alles tun, um diese ‚abzusichern‘, wird ein systemisches Ungleichgewicht in der Regel immer schlechter; dies ist nicht nachhaltig; letztendlich führt es zur De-Stabilisierung und damit in chaotische Zustände, in der es nicht notwendig ‚Gewinner‘ geben muss, aber auf jeden Fall viele Verlierer.

20. Ein ganz anderer Aspekt ist die globale Verarmung aller Systeme, die die individuellen Potentiale systemisch unterdrücken. Da fast jeder Mensch gut ist für etwas Besonderes, führt die ‚Einkastelung‘ der Individuen in ‚tote Elemente‘ eines Systems zwangsläufig zu einer ungeheuren Ressourcenverschwendung und Verarmung, die dem System selbst wertvollste Ressourcen entzieht. Der ‚Tod des Individuums‘ ist daher auf Dauer auch über die ‚Verarmung‘ des Systems auch ein ‚Tod des Systems‘. Jedes System, das nachhaltig die Potentiale seiner Individuen samt ihrer Privatheit besser fördert und entwickelt als ein Konkurrenzsystem, wird auf Dauer besser und stabiler sein.

Einen Überblick über alle bisherige Blogeinträge nach Titeln findet sich HIER.