Archiv der Kategorie: Komplexitätsentwicklung

KOSMOLOGIE UND DER GLAUBE AN GOTT. Anmerkungen zu einem Artikel von A.Fink

PDF

Zusammenfassung

Ausgehend von einem Artikel von A.Fink werden hier einige Gedanken geäußert, die sich auf die Art und Weise beziehen, wie der Begriff Gott in diesem Artikel benutzt wird. Dies reicht bis hin zu den Grundannahmen unseres menschlichen Erkennens.

I. Kontext

Durch einen Hinweis wurde ich aufmerksam auf den Artikel von Alexander Fink (2017) [Fink:2017] zur Themenstellung Kosmologie und der Glaube an Gott. Diese Themenstellung, geschrieben aus einer christlichen Perspektive, erscheint mir interessant, da im Kontext dieses Blogs das Verhältnis von Philosophie und Wissenschaft zur Debatte steht, hierin speziell fokussiert auf die Frage der möglichen Symbiose von Menschen und intelligenten Maschinen in der Zukunft. Während das Konzept intelligente Maschine vergleichsweise einfach erscheint, bietet das Konzept Mensch unfassbar viele komplexe Fragestellungen. Unter anderem auch deswegen, da wir heute immer mehr zu erkennen meinen, dass der heutige Mensch das Ergebnis einer komplexen Entstehungsgeschichte ist, sowohl des Universums als ganzem wie auch der komplexen Evolution des Lebens innerhalb der Entwicklung des Universums. Seit dem Auftreten des Menschen als homo sapiens hat der Mensch immer komplexere Umgebungen geschaffen, zu denen neben Weltbildern zur Weltdeutung neuerdings auch intelligente Maschinen gehören, die seine selbst geschaffene Umwelt weiter anreichern.

Im Bereich der Weltbilder wird heute im Bereich der Wissenschaften gewöhnlich unterschieden zwischen sogenannten wissenschaftlichen Bildern der Welt — wissenschaftliche Theorie genannt — und solchen Überzeugungen, die Menschen in ihrem Alltag zwar auch benutzen, die aber nach den methodischen Prinzipien der empirischen Wissenschaften nicht als überprüfbar gelten. Daraus muss allerdings nicht denknotwendig folgen, dass diese Überzeugungen im nicht-wissenschaftlichen Format von vornherein falsch sind.

Ein prominenter Bereich solcher im Alltag verhafteter Überzeugungen ohne eine direkte wissenschaftliche Unterstützung ist der Bereich der religiösen Überzeugungen und der religiösen Erfahrungen, hier speziell die Auffassung, dass die bekannte Wirklichkeit auf ein — letztlich nicht genau beschreibbares — höheres Wesen zurückgeht, das mit unterschiedlichsten Namen Gott genannt wird. [Anmerkung: An dieser Stelle die Wortmarke ‚Gott‘ zu benutzen ist ein eher hilfloses Unterfangen, da in den verschiedensten Religionen und Kulturen ganz verschiedene Wortmarken benutzt werden, von denen nicht ohne weiteres klar ist, was sie meinen und ob sie von daher miteinander überhaupt vergleichbar sind. Die großen religionswissenschaftlichen Untersuchungen legen allerdings die Hypothese nahe, dass zumindest die großen Religionen wie Hinduismus, Buddhismus, Judentum, Christentum und Islam (mit jeweils vielen Spielarten) letztlich einen gemeinsamen Gottesbegriff haben, sofern es darum geht, wie in diesen Religionen Gott von den einzelnen Menschen erfahren wird. Im Glauben versuchen jene Menschen, die sich ‚Gläubige‘ nennen, diesem höchsten Wesen ‚Gott‘ Rechnung zu tragen, im Alltag und speziell im Lichte wissenschaftlicher Überzeugungen ist dann oft wenig oder gar nicht klar, wie sich denn die bekannte Wirklichkeit (einschließlich des Menschen selbst) zu dem höchsten Wesen des Glaubens verhält.]

An dieser Stelle versucht der Artikel von Fink einen Antwort zu geben für den speziellen Bereich physikalische Sicht des Universums auf der einen Seite und christlicher Glaube an einen Schöpfergott andererseits.

II. Fink – Denkrahmen

Der Artikel ist gut lesbar geschrieben und stellt ziemlich umfassend die Fakten zusammen, die die heutige Physik zur Beschaffenheit, Entstehung und Dynamik des physikalischen Universum zusammengetragen hat, ohne dabei in technische Details abzugleiten. Von daher ist es sicher ein Gewinn, wenn jemand diesen Artikel liest.

Im Artikel zeigen sich dabei grob zwei Argumentationslinien: (i) Die physikalischen Fakten, die das heutige Bild des physikalischen Universums konstituieren, und (ii) die Ansatzpunkte für eine Deutung der physikalischen Fakten im Lichte eines vorausgesetzten christlichen Glaubens an ein bestimmtes Bild eines Schöpfergottes.

A. Physikalische Fakten

Als physikalische Fakten werden z.B. genannt die räumliche Ausdehnung des Universums; eine Größe, die die alltägliche Vorstellung von räumlichen Verhältnissen jenseits alles Vorstellbaren sprengen. Dazu die zeitliche Dauer der ganzen Prozesse, die auch sowohl im ganz Großen von Milliarden Jahren sich der Vorstellung entzieht wie auch im ganz Kleinen, zu Beginn der Entstehung des bekannten Universums; hier gerät man in Größenordnungen von 10^-44 Sekunden. Die Präzision der Feinabstimmung der bekannten physikalischen Parameter, damit das Universum genau die heute bekannte Struktur und Eigenschaften angenommen hat, und nicht nirgend eine der unendlich vielen anderen Möglichkeiten.[Anmerkung: So nennt Fink z.B. für die Abstimmung der dunklen Energiedichte zur gravitativen Energiedichte eine Größenordnung von 1:10^60, für das Verhältnis von Gravitation zur elektromagnetischen Kraft eine Genauigkeit von 1:10^40]. Dazu kommen Erkenntnisse zu den Besonderheiten der Erdchemie, wie z.B. die außergewöhnlichen Fähigkeiten von Kohlenstoff im Vergleich zu anderen chemischen Verbindungen (wie z.B. Silizium), sowie die vielseitigen Eigenschaften des Wassermoleküls. Er verweist ferner auf die das Leben begünstigende Konstellation des Erd-Sonnensystems, auf die geschützte Position des Erd-Sonnensystems innerhalb der Milchstraße, sowie auf die Funktion des Magnetfeldes, und einiges mehr.

Obgleich Fink das Phänomen des biologischen Lebens mit seiner komplexen Evolutionsgeschichte weitgehend ausblendet, bieten schon die genannten physikalischen Fakten im engeren Sinne viele Ansatzpunkte, um Deutungen vornehmen zu können.

B. Physik und Gott

Während Fink im Falle der Physik ansatzweise die historische Entstehung der physikalischen Bilder anspricht, vermisst man diese im Fall der Auffassung von Gott als Schöpfer. Ohne historische Herleitung aus der Geschichte des christlichen Glaubens stellt Fink einfach fest, dass das mit der Wortmarke ‚Gott‘ Gemeinte einen freien Willen habe, rational denke und sich zuverlässig verhalte. Dies sei die tiefere Ursache dafür, dass das Universum für die menschlichen Forscher gesetzmäßig erscheine, d.h. man kann es mit rationalen Mitteln erforschen. Die hier zur Verwendung kommenden Begriffe (freier Wille, rational, zuverlässig) sind Begriffe, die im Kontext der menschlichen Welterfahrung eine gewisse — wenngleich vage — Bedeutung haben. Wendet man sie aber ohne weitere Erläuterungen direkt auf ein unbekanntes Etwas an, das irgendwie hinter und in dem ganzen Universum stehen soll, ist es nicht direkt nachvollziehbar, was diese Begriffe in diesem umfassenden Kontext bedeuten können.

Zusätzlich zu der allgemeinen Verstehbarkeit des physikalischen Universums verweist Fink auch auf jene Momente hoher Unwahrscheinlichkeit, die bei der Wahl der Parameter am Werk zu sein scheinen und die er als Argument für eine mögliche Zielgerichtetheit der ganzen Entwicklung des Universums sieht, die er wiederum als Argument für den als rationalen zuverlässigen Schöpfer mit freiem Willen angenommen hatte. Dieser Schöpfergott hat also zusätzlich noch einen Plan.

III. Kritische Anmerkungen

A. Gottesbilder

In diesem Blog gibt es mehrere Beiträge, die sich mit dem Problem beschäftigt haben, die Bedeutung der Wortmarke ‚Gott‘ in ihrer historischen Vielfalt klären zu können.

Schränkt man die Frage ein auf die christliche Tradition, so hat man es immerhin mit mittlerweile fast 2000 Jahren Interpretationsgeschichte zu tun, dazu die jüdische Vorgeschichte und die vielfältigen Wechselwirkungen mit den umgebenden Gesellschaften und Kulturen im Laufe der Jahrhunderte. Dazu kommen die diversen Aufspaltungen der christlichen Tradition in Traditionen mit unterschiedlichen Schwerpunkten (West zu Ost, Katholisch und Protestantisch, dazu viele Unterarten). In dieser gewaltigen und vielschichtigen Tradition zu sagen, was die christliche Meinung zum Schema Schöpfergott sei, erscheint fast unmöglich. Natürlich kann man sich auf einzelne Autoren beschränken oder auf speziell ausgezeichnete Lehrmeinungen, aber inwieweit diese dann als die christliche Auffassung gelten können, erscheint doch eher fraglich.

Geht man auf die historisch frühen Quellen zurück, zu den sogenannten heiligen Schriften des Neuen Testamentes, das vielfältig Bezug nimmt auf das Alte Testament, so wird die Lage nicht unbedingt einfacher. Zeigen doch gerade die 2000 Jahre andauernden Interpretationsversuche, dass es offensichtlich keine zwingend eindeutige Interpretation zu geben scheint, wie sonst hätte es sonst zu den vielen unterschiedlichen Interpretationen kommen können.[Anmerkung: Untersucht man nur die vielfältigen Übersetzungen vom Hebräischen ins Griechische und Lateinische, vom Lateinischen in die vielen Alltagssprachen, vom Griechischen in die vielen Alltagssprachen, dann sieht man schon auf dieser ersten Kodierungsstufe von möglichen Bedeutungen, dass es schon an der Wurzel keine eindeutige Bedeutung gibt.]

Aufgrund der Erkenntnisse zu der Art und Weise wie Sprache funktioniert, wie Menschen Wahrnehmen, Erinnern, Denken und kommunizieren, kann man seit mehr als 100 Jahren immer besser verstehen, warum Texte als solche keine zwingenden Botschaften enthalten können! Es gibt zwar zu allen Zeiten viele Menschen, die das behaupten und glauben, aber die reale Funktion von Sprache und menschlichem Erkennen können solche — oft fundamentalistisch genannten — Auffassungen als grob falsch erweisen.

Für Menschen, die ernsthaft Sicherheit und Wahrheit suchen, sind diese neuen Erkenntnisse beunruhigend; nicht wenige lehnen sie daher ab. Dies hilft aber nicht weiter. Wir müssen uns den Tatsachen stellen, dass unsere Suche nach Wahrheit und Sicherheit nicht so einfach durch Bezug auf irgendeinen Text eingelöst werden kann, und mag er von manchen Menschen als noch so heilig bezeichnet werden.

Menschen, die sich gegen diese neuen Erkenntnisse zur Natur von sprachlichem Verstehen und Verstehen wehren, machen oft nach einen weiteren Fehler: aus der Tatsache der Unmöglichkeit einer direkten absoluten Erkenntnis aus einem Text heraus folgern sie oft, dass es dann ja überhaupt keine Wahrheit geben würde. Dieser weitreichende Schluss folgt aus der Relativierung von Texten und sprachlicher Bedeutung nicht zwingend.

Wenn jemand im Lichte des modernen Wissens die allzu einfache Deutungen sogenannter heiliger Texte in Frage stellt, sie kritisiert, dann bedeutet dies zunächst nur, dass man sich ein paar mehr Gedanken machen muss als bisher, wie man die Wirklichkeit insgesamt deuten kann. Die Kritik an einer nativen und unkritischen Verwendung eines Gottesbegriffes, eines bestimmten, sehr menschlichen Bildes von einem Schöpfergott, muss daher nicht notwendigerweise heißen, dass man damit das damit Gemeinte (eine irgendwie geartetes Etwas, was hinter und in allem steckt/ wirkt/ …) als solches in Frage stellt oder zerstört. Wenn es tatsächlich so etwas wie ‚Gott‘ geben sollte (mag man es nun glauben oder nicht), dann würde die Existenz und die Art und Weise dieses Gotes mit Sicherheit nicht davon abhängen, ob ein paar Exemplare des homo sapiens darüber sprechen, und wie sie darüber sprechen. Allerdings kann es für uns, die wir uns als Exemplare des homo sapiens ansehen, möglicherweise einen Unterschied machen, ob und wie wir über dieses Thema reden.

B. Bilder der Welt

Aktueller Denkrahmen unter Berücksichtigung von empirischen Wissenschaften und Philosophie
Aktueller Denkrahmen unter Berücksichtigung von empirischen Wissenschaften und Philosophie

Bei der kritischen Diskussion des Artikels von Fink spielen eine Reihe von Faktoren eine Rolle. Einige im Zusammenhang mit der Verwendung der Wortmarke ‚Gott‘ wurden im vorausgehenden Abschnitt angesprochen. Weitere sollen jetzt hier angesprochen werden. Das Schaubild oben kann dazu vielleicht hilfreich sein.

1) Evolution

Aus den letzten ca. 100 Jahren konnten wir lernen, dass wir Menschen Teil eines Entwicklungsprozesses sind, die die Biologen als Evolution des biologischen Lebens bezeichnen. Ferner konnte die Struktur und die Entwicklung des bekannten physikalischen Weltalls soweit aufgehellt werden, dass auch das Zusammenspiel von Sternentwicklung und Entstehung von biologischem Leben auf der Erde viele neue, tiefe Einsichten ermöglicht hat.

2) Empirisches Wissen

Dies alles wurde möglich, weil die Menschen gelernt haben, wie man Bilder von der Welt in einer methodisch kontrollierten Weise so konstruiert, dass sie auf transparenten, reproduzierbaren Messoperationen aufbauen. Für die Interpretation dieser Messwerte wird eine mathematische Sprache benutzt, die zusammen mit einer formalen Logik die Möglichkeit bietet, Regelmäßigkeiten und Strukturen zu formulieren, sofern sie in der Gesamtheit der Messwerte vorliegen. Die Geltung der formalen Strukturen ist hier entscheidbar zurückgebunden an die Messwerte.[Anmerkung: Diese Rückbindung ist zentral, da die mathematische Sprache es erlaubt, beliebig viele Regelmäßigkeiten und Strukturen zu formulieren. Ob eine von diesen möglichen Strukturen tatsächlich etwas beschreibt, was mit der umgebenden Wirklichkeit korrespondiert, können nur vorzeigbare Messwerte entscheiden. Diese Form von Wissens nennt man gewöhnlich empirisches Wissen oder eine empirische Theorie.]

3) Wirklichkeit und Mathematik

Die Entwicklung und Nutzung von empirischem Wissen stellt viele neue Fragen zur Natur des menschlichen Erkennens, die weitgehend noch ungeklärt sind. So ist es eine bemerkenswerte Tatsache, dass die umgebende Wirklichkeit sich mit den Mitteln einer extrem einfachen mathematischen Sprache und formalen Logik beschreiben lässt.[Anmerkung: Man kann zwar mit der mathematischen Sprache sehr komplexe Ausdrücke aufbauen, doch die Sprache selbst, mit der dies geschieht, ist in ihren Grundelementen extrem einfach. Es ist keine andere Sprache bekannt, die genauso einfach oder gar noch einfacher ist.] Bislang ist nicht zu sehen, dass es irgendein Phänomen in der erfahrbaren Welt geben könnte, was sich mit dieser mathematischen Sprache nicht beschreiben lässt, es sei denn, das Phänomen selbst, das beschrieben werden soll, ist ‚in sich‘ nicht klar.

4) Virtualität und Wahrheit

Ferner wissen wir heute, dass unser bewusstes Wissen, ein funktionierendes Gehirn voraussetzt, das selbst keinen Kontakt mit der realen Welt hat. Dennoch produziert es aufgrund von Sinnesdaten von außerhalb und von innerhalb des Körpers — und im Zusammenspiel mit einem Gedächtnis — beständig virtuelle Bilder einer Welt da draußen so, dass wir in unserem Bewusstsein die virtuellen Bilder als real erleben und als real deuten. Unsere menschliche Erkenntnis ist also ein als real erlebtes virtuelles Bild einer Welt ‚da draußen‘, die wir tatsächlich niemals direkt erleben werden. Wie können wir dann jemals erkennen was wahr ist, wenn Wahrheit verstanden würde als die Übereinstimmung von etwas Gedachtem mit etwas Realem?

Diese Frage springt sofort über zu dem zuvor eingeführten Konzept des empirischen Wissens. Ist es doch gerade ein Dogma des empirischen Wissens, dass dieses sich direkt mit der realen, objektiven Welt beschäftige im Gegensatz zu anderen Wissensformen. Wenn der Mensch nun grundsätzlich gar keinen direkten Kontakt zur sogenannten realen Wel haben kann, wie kann es dann empirische Wissenschaft geben?

Die Antwort ist relativ einfach. Unser bewusstes Wissen ist zwar quasi Wissen aus zweiter Hand, d.h. von einem Gehirn generiert, das im Körper fest sitzt, aber von all den Phänomenen des Bewusstseins (PH), die dieses Gehirn erzeugt, gibt es eine echte Teilmenge von solchen Phänomenen PH_EMP, die aus jenen sensorischen Erregungsmustern gewonnen werden, die von den externen Sensoren (Augen, Ohren, Tastorgane, …) gewonnen werden. Für uns sind sie zwar abgeleitete, virtuelle Ereignisse, aber sie korrespondieren mit Ereignissen in der unterstellten Außenwelt. Sofern Wissenschaftler empirische Messprozesse vereinbaren, gibt es Messprozesse, die unabhängig vom Denken eines einzelnen Menschen gestartet und gestoppt werden können. Diese Messprozesse liefern Ereignisse, die mit externen Sinnesorganen registriert werden können, und zwar von allen, die diese Messprozesse wiederholen. Im Bewusstsein der beteiligten empirischen Wissenschaftler haben dieses Messergebnisse zwar weiterhin nur den Status von virtuellen Ereignissen, generiert vom Gehirn, aber diese Ereignisse lassen sich mit Messprozessen wiederholen, die alle Beteiligten in hinreichend gleicher Weise erleben können. Durch diese spezielle Maßnahme können Menschen ihr virtuelles Gefängnis methodisch partiell öffnen; nicht wirklich, aber für eine  empirische Form des Erkennens praktikabel. Wir haben also die echte Teilmenge der empirischen Phänomene PH_EMP c PH, die sich partiell mit Ereignissen in der angenommenen Außenwelt (W) zusammen mit anderen parallelisieren lässt.[Anmerkung: Es ist erstaunlich, wie lange die Menschen als homo sapiens gebraucht haben, bis sie diesen ‚Trick‘ entdeckt haben. Allerdings, selbst heute (2017) scheint es noch genügend viele Menschen zu geben, die diesen Zusammenhang immer noch nicht verstehen (selbst solche, die sich empirische Wissenschaftler nennen).]

Das Potential des empirischen Wissens für das Erkennen und Verstehen der umgebenden Welt ist enorm, und seine Auswirkungen neben dem reinen Verstehen im Bereich der technologischen Anwendungen erscheint schon jetzt schier unendlich.

5) Schwache Akzeptanz von Empirischem Wissen

Nicht wirklich geklärt erscheint das Verhältnis des empirischen Wissens zu den anderen Wissensformen, speziell auch zu den alten religiösen Überzeugungen, die für die meisten auch ein Stück Welterklärung waren bzw. noch sind.

In dieser Differenz von realen Erklärungsleistungen auf der einen Seite (bei aller Begrenztheit) und den vielen unwissenschaftlichen Bildern der Welt, liegt eines der vielen Probleme der Gegenwart. Der Anteil der Menschen, die empirisches Wissen nicht verstehen oder gar offen ablehnen, liegt in Ländern mit hoher Technologie aufgrund von offiziellen Untersuchungen bei ca. 20 – 30\%; betrachtet man aber seine eigene Umgebung, einschließlich der Menschen mit mindestens einem akademischen Abschluss, dann kann man den Eindruck gewinnen, dass es vielleicht umgekehrt nur 10-20\% der Menschen sind, die überhaupt verstehen, was empirisches Wissen ist. Dies ist eine sehr beunruhigende Zahl. Damit ist nicht nur der bisherige Wissensstand langfristig bedroht, sondern die Ansatzpunkte für eine Versöhnung von empirischem und nicht-empirischen Wissen werden noch schwerer.

6) Philosophie des Empirischen Wissens fehlt

Um die Problemstellung noch zu verschärfen, muss man auch auf den Sachverhalt hinweisen, dass es selbst innerhalb des empirischen Wissens große, ungelöste Probleme gibt. Dies resultiert aus der historischen Entwicklung, dass zwar mit Begeisterung immer mehr Phänomene der umgebenden Welt untersucht worden sind, das daraus resultierende empirische Wissen wurde aber nicht in allen Fällen systematisch zu einer vollen empirischen Theorie ausgebaut. Vielleicht muss man sogar sagen, dass die Physik aktuell die einzige empirische Disziplin zu sein scheint, die nicht nur vollständige empirische Theorien entwickelt hat, sondern die ihre eigene Entwicklung der Tatsache verdankt, dass ganze Theorien kritisiert und dadurch weiter entwickelt werden konnten.

Betrachtet man Gebiete wie z.B. die Gehirnwissenschaft, die Psychologie, die Soziologie, die Wirtschaftswissenschaften, die Biologie, dann muss man allerdings berücksichtigen, dass der wissenschaftliche Gegenstand dieser Disziplinen (sofern sie sich als empirische Disziplinen verstehen wollen), ungleich komplexer ist als die Physik. Der wissenschaftliche Gegenstand der Physik erscheint komplex, da wir hier bislang die meisten vollen Theorien haben, aber tatsächlich ist das Gegenstandsgebiet der anderen genannten Disziplinen unendlich viel komplexer. Dies resultiert aus der unfassbaren Komplexität des Phänomens biologisches Leben, das sowohl in den Grundformen der einzelnen biologischen Zellen, wie dann erst recht in der Interaktion von Billionen (10^12) von Zellen in einem einzelnen Organismus wie einem homo sapiens vorliegt; dazu kommen die Wechselwirkungen zwischen allen biologischen Lebensformen, nicht nur beim homo sapiens, der die Erde zur Zeit auf vielfache Weise mit sekundären komplexen Artefakten überzieht, die dynamisch sind.

7) Empirisches Wissen und Gott

Wenn man all dies weiß, wenn man sowohl um die Begrenztheit des empirischen Wissens weiß und um die Problematik der rechten Verwendung der Wortmarke ‚Gott‘, dann stellt sich die Frage, wie kann ein Mensch in der heutigen Welt noch an ein — wie auch immer geartetes — ‚höheres Wesen in und hinter allem‘ glauben? Kann man es überhaupt noch? Und falls ja, wie?

Hält man sich die Vielfalt der religiösen Anschauungen und Praktiken vor Augen, die es im Laufe der letzten Jahrtausende gegeben hat und ganz offensichtlich immer noch gibt, dann könnte man im ersten Moment völlig entmutigt werden angesichts dieser Fülle: was davon soll jetzt sinnvoll und richtig sein?

Die modernen Religionswissenschaften und vergleichenden Kulturwissenschaften haben einiges getan, um Ähnlichkeiten und Unterschiede in diesem Meer der Phänomene heraus zu arbeiten. Sehr beeindruckend fand ich das Buch von Stace (1960), der auf der Basis von vielen vergleichenden Untersuchungen eine sehr detaillierte philosophische Analyse durchgeführt hat, die sich auf den Kern religiöser Überzeugungen fokussiert hat, auf die religiösen Erfahrungen.[Anmerkung: Siehe dazu die Diskussion dieses Buches, Teil 3]

Seine Untersuchungen legen den Schluss nahe, dass es bei aller Verschiedenheit der religiösen Ausdrucksformen und Formulierungen durch alle Zeiten hindurch und quer zu allen religiösen Formen so etwas wie einen gemeinsamen Erfahrungskern zu geben scheint, der für den Menschen als Menschen charakteristisch scheint, und der nicht an irgendwelche Texte oder lokale Traditionen gebunden ist. Dass es dennoch zu unterschiedlichen Formulierungen und unterschiedlichen Interpretationen kommen konnte liegt in der Analyse von Stace (und auch im Lichte dieses Textes; siehe die vorausgehenden Abschnitte), einzig daran, dass der Mensch nicht nur konkrete Sinneserfahrungen hat, sondern zugleich immer auch von seinem angelernten Wissen aus diese Sinneserfahrungen interpretiert. Unser Gehirn arbeitet so, dass es uns (was eigentlich sehr gut ist) alle unsere sinnlichen Erfahrungen sofort im Lichte der gespeicherten Erfahrungen interpretiert. Da die Menschen an verschiedenen Orten und zu verschiedenen Zeiten unterschiedliche Dinge gelernt haben, dazu verpackt in eine der vielen zehntausenden (oder mehr) Sprachen, erscheinen die gleichen Grunderfahrungen als tausende unterschiedliche Erfahrungen, obgleich sie — so scheint es — letztlich eine gleiche Grundstruktur haben.

Sollten diese Untersuchungen und Überlegungen stimmen, dann wären sogenannte religiöse Erfahrungen keine erfundene Spezialitäten von irgendwelchen abnormen Menschen, sondern gehören zur Grundstruktur, wie ein homo sapiens sich selbst und die ganze Welt erfährt. Einen grundsätzlichen Widerspruch zu empirischen Wissenschaften kann es dann nicht geben, da ja die empirischen Wissenschaften nicht grundsätzlich die Erfahrungen von Menschen verneinen, sondern sich nur für bestimmte — nämlich die empirischen — Untersuchungen auf einen Teilbereich der verfügbaren virtuellen Phänomene des Bewusstseins beschränken.

Interessant ist, dass die empirischen Wissenschaften, obwohl sie sich methodisch beschränken, indirekt einen fundamentalen Beitrag zur Möglichkeit von trans-empirischen Erfahrungen geleistet haben. Die fortschreitenden Erkenntnisse im Bereich der Struktur der Materie (Atomphysik, Kernphysik, Quantenphysik, …) führen uns vor Augen, dass der alltägliche Eindruck der Abgeschlossenheit und Endlichkeit der menschlichen Körper ein — womöglich schwerwiegender — Trugschluss ist. Die scheinbar so abgeschlossenen endlichen menschlichen Körper bestehen ja nicht nur aus Billionen von eigenständigen Zellen, die eigenständig miteinander kommunizieren, sondern diese Zellen bestehen ja aus chemischen Molekülen, diese aus Atomen, und diese — wie die Physik uns lehrt — aus komplexen subatomaren Teilchen und Interaktionsverhältnissen, die permanent in Wechselwirkung stehen zu allem, was sich in einem Umfeld befindet, das viele Lichtjahre betragen kann. Hier stellen sich viele — weitgehend ungeklärte — Fragen.

Eine dieser ungeklärten Fragen betrifft das Verhältnis von Bewusstsein und diesen subatomar vorhandenen Ereignissen. Wieweit können sich diese Ereignisse direkt im Bewusstsein niederschlagen?

Eine andere Frage betrifft die Erfahrbarkeit von etwas, das wir ‚Gott‘ nennen. Durch alle Zeiten und Kulturen berichten Menschen von spezifischen Erfahrungen, die für diese Menschen über die Erfahrungen des Alltags hinaus weisen, ohne dass sie dafür plausible Erklärungen liefern können. Fakt ist nur, dass im Prinzip jeder Mensch diese Erfahrungen anscheinend machen kann (auch Tiere?). Ein Widerspruch zu empirischen Wissen muss hier nicht bestehen, im Gegenteil, die empirischen Wissenschaften liefern bislang die stärksten Argumente, dass dies im Prinzip nicht auszuschließen ist. Es fehlen allerdings bislang jegliche neue Deutungsmodelle. Die alten Deutungsmodelle sollte man eventuell vorläufig mit einem Fragezeichen versehen; möglicherweise versperren sie den Weg zu dem mit der Wortmarke ‚Gott‘ Gemeintem.

ZITIERTE QUELLEN


[Fin17] Alexander Fink. Kosmologie und der Glaube an Gott. Brennpunkt Gemeinde, 19(1):1–15, 2017.
[Sta60] W.T. Stace. Mysticism and Philosophy. Jeremy P.Tarcher, Inc., Los Angeles, 1st. edition, 1960.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

DIE ZUKUNFT WARTET NICHT – 2117 – PHILOSOPHISCHE WELTFORMEL – FAKE-NEWS ALS TODESENGEL

NACHTRAG: Mo, 13.März 2017

Wichtiger Nachtrag zum Komplexitätsbegriff, seinen Grenzen, und erweiterte  Diskussion zur ersten Periodisierung genannt ‚Emergent Life‘ (hauptsächlich ab Nr.25)

KONTEXT

  1. Der aktuelle Blogeintrag ist keine direkte Fortsetzung des letzten Eintrags, sondern schließt gedanklich eher an den vorletzten Beitrag an und ist von daher eher als eine Einleitung zu dem Blogeintrag über das Bewusstsein zu verstehen.
  2. Welche Themen jeweils in die Feder fließen hängt von vielerlei Faktoren ab. Generell natürlich schon von den übergreifenden Perspektiven des Blogs, dann aber auch von alltäglichen Ereignissen und Diskussionen. Dass es heute nun zu diesem sehr grundsätzlichen Beitrag gekommen ist, ist u.a. den intensiven Diskussionen mit Manfred Fassler geschuldet, der aufgrund seines Hintergrundes in Soziologie und Anthropologie die gesellschaftliche Dimension stark in die Überlegungen einbringt, während ich mich meist auf systemische Perspektiven fokussieren. Als ich versucht habe (während ich durch meine Grippe weitgehend ausgeschaltet war (und immer noch bin)), seine Aspekte mit meinen Überlegungen zusammen zu bringen, entstand schrittweise eine Struktur, ein Modell, das sich darstellt wie der Beginn einer philosophischen Weltformel, mit deren Hilfe man mit einem Male viele komplexe Einzelphänomene in die Logik eines übergeordneten Zusammenhangs einordnen kann (siehe Schaubild).

    Periodisierung der Evolution des Lebens mit dem Versuch eines systematischen Kriteriums
    Periodisierung der Evolution des Lebens mit dem Versuch eines systematischen Kriteriums

WELTFORMEL

  1. Den Begriff Weltformel kennen wir ja meist nur im Kontext der modernen Physik, die mit ihren Erklärungsmodellen zu immer umfassenderen Aussagen über das Universum kommen konnte, so umfassend, dass man tatsächlich geneigt ist, von einer Weltformel zu sprechen. Nun wissen wir aber, dass diese sogenannten Weltformeln der Physik bislang noch nicht wirklich alles erklären, geschweige denn nicht all jene Phänomene, die wir dem Bereich des biologischen Lebens zuordnen und den damit verbundenen immer komplexeren Phänomenen von Verhalten und menschlichen Gesellschaften. Es besteht auch wenig Aussicht, dass die physikalischen Weltformeln jemals zu einer völlig erschöpfenden Weltformeln werden könnte, weil schon rein mathematisch eine Theorie der Welt ohne jene, die die Theorie hervorbringen, seit Gödel 1931 entweder als grundsätzlich unvollständig oder unentscheidbar gilt.
  2. Ein anderes Hindernis besteht darin, dass die Physik als empirische Wissenschaft – wie alle anderen empirischen Disziplinen auch – schon vom Start weg nur einen kleinen Teil der möglichen Phänomene dieser Welt als Ausgangspunkt zulässt. Diese vorwissenschaftlich getroffene methodische Beschränkung auf die sogenannten intersubjektiven Phänomene, die sich mittels vereinbarter Messverfahren messen lassen, und zwar invariant mit Bezug auf den, der misst, hat sich zwar im großen und ganzen als sehr leistungsfähig erwiesen, aber anzunehmen, dass sich mit dieser methodisch eingeschränkten Phänomenmenge auf lange Sicht alles erklären lassen wird, auch das, was sich hinter den ausgeschlossenen Phänomenen verbirgt, dies ist eine vor-wissenschaftliche Annahme, für die es keinerlei Belege gibt. Die Zukunft wird zeigen, wie es sich mit diesem Ausschluss verhält.
  3. Ob es also die Physik sein wird, die uns die endgültige Weltformel liefern wird, oder doch eher die Philosophie, wird uns die Zukunft zeigen. Die Philosophie hat gegenüber der Physik (und auch gegenüber allen anderen empirischen Disziplinen), den methodisch großen Vorteil, dass die Philosophie alle anderen Disziplinen voraussetzen und einbeziehen kann. So kann ein Philosoph alle Fragmente und Entwürfe von Weltformeln der Physik nehmen und dann dazu ergänzend, erweiternd, begründend seine Weltformel formulieren. Alles, was in der Physik gilt, wird dann hier auch gelten, aber eventuell noch mehr.
  4. Die Überlegungen des Autors zu den Umrissen einer philosophischen Weltformel begannen nun aber gerade nicht so, dass er sich vor den Computer gesetzt hat und sich sagte, so, jetzt wird eine philosophische Weltformel geschrieben. Nein, so würde es auch nie funktionieren. Formeln, selbst die einfachsten, sind immer Ergebnisse von Denkprozessen, mehr oder weniger bewusst, mehr oder weniger schnell. Und eine Weltformel ist, wie man vermuten kann, wenn überhaupt, das Ergebnis von vielen Jahren Arbeit mit ganz vielen Inhalten. Und wie wir wissen, Zeit und Aufwand alleine garantieren auch keine Ergebnisse; sie können die Wahrscheinlichkeit erhöhen, etwas Interessantes zu finden, aber garantieren kann man es nicht.
  5. Das Ganze fing eher unscheinbar an. Unter dem Eindruck eines Telefonats mit Manfred Fassler begann der Autor zunächst für sich, eine Skizze jener Themen zu malen, die in diesem Blog seit 2007 aufgeschlagen sind (380 Beiträge von cagent und 52 Beiträge von cagent im Kontext der Werkstattgespräche). Er überlegte sich, ob man die Themen nach bestimmten inhaltlichen Kriterien und zeitlich ‚clustern‘ könnte. Was dabei herauskam das waren diese merkwürdigen Zylinderfiguren auf der linken Seite des Bildes.

ZEITLICHE EINTEILUNGEN

 

  1. Von oben – beginnend mit dem Big Bang – bis nach unten, zur Gegenwart, haben wir eine zeitliche Erstreckung von ca. 13.8 Mrd Jahren. Eine Einteilung hängt von vorausgehenden Kriterien ab, von einem Muster, Modell, von dem man annimmt, dass es die Menge der Ereignisse sinnvoll strukturiert.
  2. Wie man aus der Skizze ersehen kann, wurde solch eine Unterteilung vorgenommen.
  3. Im ersten Anlauf wurde versucht, mit einem Begriff der Komplexität zu arbeiten. Dahinter steht die Intuition, dass es sich bei den zu beschreibenden Ereignissen um Strukturen handelt, sich sich im Laufe der Zeit bildeten und die immer dichter wurden. Die aktuelle Unterteilung markiert solche Phasen, in denen hervorstechende Komplexitätssprünge zu verzeichnen sind.
  4. Bevor auf die Details dieser Betrachtung eingegangen wird, soll aber zunächst der benutzte Komplexitätsbegriff näher erläutert werden. Dabei sei schon hier angemerkt, dass sich im weiteren Verlauf herausgestellt hat, dass der gewählte Komplexitätsbegriff viel zu schwach ist, um jene Eigenschaften zu repräsentieren, von denen die heutige Biologie, Ethologie und Anthropologie (und möglicherweise viele weitere Disziplinen) sagen würden, dass sie als ‚wichtig‘ für das Phänomen angesehen werden.

KOMPLEXITÄT

 

  1. Vorab, es gibt in der Literatur keinen einheitlichen Komplexitätsbegriff. Im Laufe der Jahre habe ich einen eigenen Begriff von Komplexität entwickelt, den ich hier kurz vorstelle. Man kann ihn dann kritisieren oder übernehmen. Im Falle von Kritik wäre ich an Argumenten interessiert, um weiter lernen zu können, ihn vielleicht weiter zu entwickeln oder letztlich doch wieder zu verwerfen.
  2. Die Frage ist immer, mit welcher mentalen Brille man die Wirklichkeit sieht. Der berühmte Pessimist sieht überall die halbleeren Gläser, der Optimist die halbvollen. Der Tierschützer sieht überall, wie die Tiere leiden, der Chemiker sieht überall chemische Verbindungen am Werke, der Immobilienmakler potentielle Kaufobjekte, und so fort.
  3. Für die Frage der Komplexität besteht eine Möglichkeit darin, sich die mentale Brille der Systeme aufzusetzen. Mit der System-Brille besteht die Welt nur noch aus Systemen. Ein System ist Etwas, das sich von seiner Umgebung unterscheiden lässt. Diese Annahme impliziert, dass es rein abstrakt zwischen diesem unterscheidbaren Etwas und seiner Umgebung Wechselwirkungen geben kann. Sofern es um Einwirkungen auf das System geht sprechen wir einfach vom Input (I) des Systems und im umgekehrten Fall, wenn das System auf die Umgebung einwirkt, vom Output (O) des Systems. Rein abstrakt, auf der begrifflichen Ebene, hat ein System demgemäß immer einen Input und Output in Wechselwirkung mit seiner Umgebung; im konkreten, empirischen Fall, kann diese Wechselwirkung so schwach sein, dass sie sich nicht messen lässt. Dann ist die Wechselwirkung leer, oder 0 = I = O.
  4. Nimmt man ein bestimmtes System S als Bezugspunkt, dann kann man sagen, dass sich das System S auf Ebene/ Level 0 befindet. Alle Systeme, die sich mit Bezug auf das System S in seiner Umgebung befinden, wären dann auf der Ebene/ dem Level +1. Alle Systeme, die sich im System S befinden, finden sich auf Ebene/ Level -1. Sollte ein System S‘ sich auf Level -1 von System S befinden, also LEVEL(S‘,S,-1), und sollte das System S‘ selbst weiter Systeme S“ enthalten, dann lägen diese auf Level -2 von System S (und auf Level -1 zu System S‘).
  5. Beispiel: Vom menschlichen Körper wissen wir, dass er sich so betrachten lässt, dass er aus einer endlichen Anzahl von Körperorganen besteht (Level -1), die wiederum aus vielen Zellen bestehen (Level -2). Hier kann man entweder weitere Subeinheiten annehmen oder betrachtet diese Zellen als nächsten Bezugspunkt, von denen wir wissen, dass jeder Körperzelle wiederum aus einer Vielzahl von Systemen besteht (Level -3). Diese Betrachtung könnte man weiter fortsetzen bis zu den Molekülen, dann Atomen, dann subatomaren Teilchen, usw. Nimmt man die Umgebung menschlicher Körper, dann haben wir auf Level +1 andere menschliche Körper, Tiere, Pflanzen, Gebäude, Autos, Computer usw. Jedes dieser Systeme in der Umgebung ist selbst ein System mit inneren Systemen.
  6. Was bislang noch nicht gesagt wurde, ist, dass man anhand der Inputs und Outputs eines Systems sein Verhalten definiert. Die Abfolge von Inputs und Outputs konstituiert eine Folge von (I,O)-Paaren, die in ihrer Gesamtheit eine empirische Verhaltensfunktion f_io definieren, also f_io ={(i,o), …, (i,o)}, wobei man mit Hilfe einer Uhr (eine Maschine zur Erzeugung von gleichmäßigen Intervallen mit einem Zähler) jedem Input- und Outputereignis eine Zeitmarke zuordnen könnte.
  7. Während empirisch immer nur endlich viele konkrete Ereignisse beobachtet werden können, kann man abstrakt unendlich viele Ereignisse denken. Man kann also abstrakt eine theoretische Verhaltensfunktion f_th über alle möglichen denkbaren Input- und Outputereignisse definieren als f_th = I —> O. Eine empirische Verhaltensfunktion wäre dann nur eine Teilmenge der theoretischen Verhaltensfunktion: f_io c f_th. Dies hat Vorteile und Nachteile. Die Nachteile sind ganz klar: theoretisch spricht die Verhaltensfunktion über mehr Ereignisse, als man jemals beobachten kann, also auch über solche, die vielleicht nie stattfinden werden. Dies kann zu einer falschen Beschreibung der empirischen Welt führen. Demgegenüber hat man aber den Vorteil, dass man theoretisch über Ereignisse sprechen kann, die bislang noch nicht beobachtet wurden und die daher für Prognosezwecke genutzt werden können. Wenn die Theorie also sagen würde, dass es ein bestimmtes subatomares Teilchen mit der Beschaffenheit X geben müsste, was aber bislang noch nicht beobachtet werden konnte, dann könnte man aufgrund dieser Prognose gezielt suchen (was in der Vergangenheit auch schon zu vielen Entdeckungen geführt hat).
  8. Rein abstrakt kann man ein System SYS damit als eine mathematische Struktur betrachten, die über mindestens zwei Mengen Input (I) und Output (O) definiert ist zusammen mit einer Verhaltensfunktion f, geschrieben: SYS(x) genau dann wenn x = <I,O,f> mit f: I → O.
  9. Rein abstrakt gilt also, dass jedes System SYS auch weitere Systeme als interne Elemente besitzen kann, d.h. Jedes System kann Umgebung für weitere Systeme sein. Nennen wir die Gesamtheit solcher möglicher interner Systeme IS, dann müsste man die Strukturformel eines Systems erweitern zu SYS(x) gdw x = <I,O,IS,f> mit f: I x IS —> IS x O. Dies besagt, dass ein System mit weiteren internen Systemen IS in seinem Verhalten nicht nur abhängig ist vom jeweiligen Input I, sondern auch vom Output der jeweiligen internen Systeme. Aus beiden Inputs wir dann nicht nur der Systemoutput O ermittelt, sondern zugleich bekommen auch die internen Systeme einen Input (der diese internen Systeme u.U. So verändern kann, dass sie beim nächsten Mal ganz anders reagieren als vorher).
  10. In welchem Sinn könnte man nun sagen, dass ein System S komplexer ist als ein System S‘ (geschrieben S >~> S‘)?
  11. Es gibt jetzt verschiedene Möglichkeiten. Einmal (i) könnte die Anzahl der inneren Ebenen (-N) ein Ansatzpunkt sein. Ferner (ii) bietet sich die Anzahl der Systeme pro Ebene (|-n| mit n in N), ihre ‚Dichte‘, an. Schließlich (iii) macht es auch einen Unterschied, wie groß die Anzahl der möglichen verschiedenen Inputs-Outputs ist, die in ihrer Gesamtheit einen Raum möglicher Verhaltenszustände bilden (|I| x |O| = |f_io|). Rein mathematisch könnte man auch noch (iv) den Aspekt der Mächtigkeit der Menge aller Systeme einer Art SYS, also |SYS|, definieren und diese Menge – die in der Biologie Population genannt wird – als eine Art ‚Hüllensystem‘ S_pop definieren. Ein Hüllensystem wäre dann ein System, das ausschließlich Elemente einer bestimmten Art enthält. Ein Hüllensystem S_pop_a könnte zahlreicher sein als ein Hüllensystem S_pop_b, |S_pop_a| > |S_pop_b|, es könnte aber auch sein, dass sich die Mächtigkeit einer Population im Laufe der Zeit ändert. Eine Population mit einer Mächtigkeit |S_pop_x| = 0 wäre ausgestorben. Die Veränderungen selbst können Wachstumsraten und Sterberaten anzeigen.
  12. Im Folgenden nehmen wir hier an, dass ein System S komplexer ist als ein System S‘ (S >~> S‘), wenn S ein System im Sinne der Definition ist und entweder (i) mehr innere Ebenen enthält oder (ii) pro innere Ebene eine höhere Dichte aufweist oder aber (iii) der Raum möglicher Verhaltenszustände der beteiligten Systeme größer ist. Bei Gleichheit der Größen (i) – (iii) könnte man zusätzlich die Größe (iv) berücksichtigen.
  13. Beispiel: Die Milchstraße, unsere Heimatgalaxie, umfasst zwischen 150 und 400 Mrd. Sterne (Sonnen) und hat einen Durchmesser von ca. 100.000 bis 180.000 Lichtjahre. In einem einführenden Buch über die Mikrobiologie präsentiert Kegel als neueste Schätzungen, dass der menschliche Körper etwa 37 Billionen (10^12) Körperzellen umfasst, dazu 100 Billionen (10^12) Bakterien im Körper und 224 Mrd. (10^9) Bakterien auf der Haut. Dies bedeutet, dass ein einziger menschlicher Körper mit seinen Körperzellen rein quantitativ etwa 150 Galaxien im Format der Milchstraße entspricht (1 Zelle = 1 Stern) und die Bakterien darin nochmals etwa 400 Galaxien. Dies alles zudem nicht verteilt in einem Raum von ca. 550 x 100.000 – 180.000 Lichtjahren, sondern eben in diesem unserem unfassbar winzigen Körper. Dazu kommt, dass die Körperzellen (und auch die Bakterien) in intensiven Austauschprozessen stehen, so dass eine einzelne Zelle mit vielen Tausend, wenn nicht gar zigtausenden anderen Körperzellen kommuniziert (Hormone im Blut können können viele Milliarden Zellen adressieren). Diese wenigen Zahlen können ahnen lassen, mit welchen Komplexitäten wir im Bereich des Biologischen zu tun haben. Dabei ist noch nicht berücksichtigt, dass ja die Zellen im Körper meist noch in funktionellen Einheiten organisiert sind mit weiteren Untereinheiten, so dass sich hier viele Ebenen finden lassen.

KOMPLEXITÄTSEREIGNISSE

 

  1. Unter Voraussetzung des bisherigen Komplexitätsbegriffs kann man nun die Ereignisse der biologischen Evolution mit diesem Begriff beschreiben und schauen, ob es irgendwann einen hervorstechenden Komplexitätssprung gibt, der möglicherweise den Beginn einer neuen Phase markiert.
  2. An dieser Stelle wird schon deutlich, dass die Wahl eines Komplexitätsbegriffs basierend auf Systemen möglicherweise noch zu schwach ist, um den zu beschreibenden Phänomenen gerecht zu werden. Den Begriff ‚Komplexitätssprung‘ kann man zwar formal definieren (es gibt immer viele Möglichkeiten), ob nun solch ein Konzept dann in der empirischen Realität aber genau das beschreibt, was wirklich dem Phänomen optimal entspricht, das kann sich letztlich nur am empirischen Ereignis selbst anschaulich entscheiden (im positiven Fall). Ein einfacher Ansatz wäre, einen Komplexitätssprung über den Begriff des minimalen Abstands zwischen zwei Komplexitäten S und S‘ zu definieren, und unter Einbeziehung ‚einer empirisch sinnvollen Konstante‘. Dann würde immer dann, wenn ein solcher Abstand gemessen werden kann, ein Komplexitätssprung vorliegt. Was wäre aber ein ‚empirisch sinnvoller Abstand‘ in biologischer Sicht?

PERIODISIERUNG

  1. Betrachtet man nach diesen Vorbemerkungen das Schaubild, dann kann man als ersten Abschnitt ‚Emergent Life‘ erkennen. Dies identifiziert die Zeit ab dem ersten nachgewiesenen Auftreten von biologischen Zellen, vor ca. 3.5 Mrd Jahren (nach neuesten Funden evtl. sogar schon ab 3.77 Mrd Jahren). Der Übergang von Molekülen zu sich selbst reproduzierenden Zellen markiert einen gewaltigen Komplexitätssprung.
  2. Man kann versuchen, den formalen Komplexitätsbegriff darauf anzuwenden. Nimmt man beispielsweise eine eukaryotische Zelle als System S, dann kann man typische Umgebungen ermitteln, interne Organisationslevel, die Dichte auf den Leveln sowie den Raum möglicher Verhaltenszustände von jedem beteiligten System. Nimmt man als Vergleich die strukturell einfacheren prokaryotischen Zellen (die als evolutionär älter gelten), dann kann man zu unterschiedlichen Werten kommen, die im Falle der prokaryotischen Zellen kleiner ausfallen. Im Unterschied zu einer Ansammlung von irgendwelchen Molekülen wird man noch größere Unterschiede feststellen. Will man diese strukturellen Unterschiede für eine Klassifikation nutzen, dann muss man sie gewichten. Ohne hier auf die Details einer solchen Gewichtung eingehen zu können (das wäre ein eigener riesiger Artikel) stellen wir hier einfach mal fest, dass gilt: S_eukaryot >~> S_prokaryot >~> S_molecule, wobei der ‚Abstand‘ zwischen den beiden Zelltypen deutlich kleiner ist als zwischen dem einfachen Zelltyp und einem einfachen Molekül, also Distance(S_eukaryot, S_prokaryot) < Distance(S_prokaryot, S_molecule).
  3. Unterstellen wir mal, alle Details vorausgehender Klassifikationen wären erfüllt. Was wäre damit erreicht? Wir wüssten schematisch, dass wir es mit drei verschiedenen Typen von Systemen zu tun hätte mit unterschiedlichen Levels, Input-Output-Räumen, unterschiedlichen Dichten … hätten wir damit aber irgendetwas von dem erfasst, was die evolutionäre Biologie, Molekularbiologie, Zellbiologie usw. bislang als charakteristisch für die biologische Zelle erkannt zu haben meint?
  4. Einige der wichtigen Eigenschaften werden informell so beschrieben: (i) Zellen haben eine erkennbare Struktur mit Wechselwirkungen zur Umgebung (insofern sind sie Systeme); (ii) sie sind in der Lage, Energie aus der Umgebung aufzunehmen und damit unterschiedliche chemische Prozesse zu moderieren; (iii) sie sind in der Lage, die Strukturen und Funktionen dieser Struktur in Form eines speziellen Moleküls zu kodieren (Bauplan, ‚Gedächtnis‘); (iv) sie können sich mit Hilfe des Bauplans reproduzieren, wobei die Reproduktion Abweichungen zulässt.
  5. Mindestens in diesen vier genannten Eigenschaften unterscheiden sich biologische Zellen von Molekülen. Der zuvor eingeführte Komplexitätsbegriff kann hier zwar eine höhere Komplexität herausrechnen, aber tut sich schwer, die vier Leiteigenschaften angemessen zu repräsentieren. Woran liegt das?
  6. Das ist einmal der Begriff der Energie. Dieser wurde von der Physik in vielen Jahrhunderten schrittweise erarbeitet und ist eine Eigenschaft, die generisch die gesamte empirische Welt durchzieht. Letztlich liegt er allem zugrunde als Äquivalent zur bewegten Massen. Wenn man nur Strukturen von Systemen betrachtet, kommt Energie nicht wirklich vor. Wenn es nun aber eine zentrale neue Eigenschaft eines Systems ist, freie Energie für eigene Zwecke ‚verarbeiten‘ zu können, dann müsste dies in die Systemstruktur aufgenommen werden (spezielle Funktionen…). Allerdings verarbeiten sogar Moleküle in gewisser Weise Energie, allerdings nicht so komplex und produktiv wie Zellen.
  7. Dann sind dort die metabolischen Prozesse (Stoffwechselprozesse) der Zellen. Diese sind extrem vielfältig und komplex miteinander verwoben. Der abstrakte Komplexitätsbegriff kann dies zwar anzeigen, aber nur ‚äußerlich‘; die Besonderheiten dieser Prozesse werden damit nicht sichtbar.
  8. Schließlich das Phänomen des Zellkerns mit Molekülen, die einen Bauplan kodieren; man könnte dies auch als eine Form von Gedächtnis beschreiben. Zum kodierten Bauplan gibt es auch eine komplexe Dekodierungsmaschinerie. Eine rein formale Repräsentation im Komplexitätsbegriff macht die Besonderheit nicht sichtbar. Wenn man weiß, worauf es ankommt, könnte man eine entsprechende Systemstruktur zusammen mit den notwendigen Operationen definieren.
  9. Was sich hier andeutet, ist, dass die abstrakte Seite der formalen Repräsentation als solche zwar nahezu alles zulässt an Formalisierung, aber welche Struktur letztlich etwas Sinnvolles in der empirischen Welt kodiert, folgt aus der abstrakten Struktur alleine nicht. Dies muss man (mühsam) aus den empirischen Phänomenen selbst herauslesen durch eine Art induktive Modellbildung/ Theoriebildung, also das, was die empirischen Wissenschaften seit Jahrhunderten versuchen.
  10. Der Versuch, ‚auf die Schnelle‘ die sich hier andeutenden Komplexitäten zu systematisieren, wird also nur gelingen, wenn die Verallgemeinerungen die entscheidenden empirischen Inhalte dabei ’nicht verlieren‘.
  11. Ohne diese Problematik an dieser Stelle jetzt weiter zu vertiefen (darauf ist später nochmals zurück zu kommen), soll hier nur ein Gedanke festgehalten werden, der sich mit Blick auf die nachfolgende Phase anbietet: mit Blick aufs Ganze und den weiteren Fortgang könnte man in der ersten Phase von Emerging Life als grundlegendes Ereignis die Ausbildung der Fähigkeit sehen, eine Art strukturelles Gedächtnis bilden zu können, das sich bei der Weitergabe strukturell variieren lässt. Damit ist grundlegend der Ausgangspunkt für die Kumulation von Wissen unter Überwindung der reinen Gegenwart möglich geworden, die Kumulierung von ersten Wirkzusammenhängen. Diese Urform eines Gedächtnisses bildet einen ersten grundlegenden Meta-Level für ein erstes Ur-Wissen von der Welt jenseits des Systems. Der Emerging Mind aus der nächsten Phase wäre dann der Schritt über das strukturelle Gedächtnis hin zu einem lokal-dynamischen Gedächtnis.
  12. Dann stellt sich die Frage, welche der nachfolgenden Ereignisse in der Evolution eine weitere Steigerung der Komplexität manifestieren? Kandidaten kann man viele finden. Zellen haben gelernt, sich in immer komplexeren Verbänden zu organisieren, sie haben immer komplexere Strukturen innerhalb der Verbände ausgebildet, sie konnten in immer unterschiedlicheren Umgebungen leben, sie konnten innerhalb von Populationen immer besser kooperieren, konnten sich auch immer besser auf die Besonderheiten anderer Populationen einstellen (als potentielle Beute oder als potentielle Feinde), und konnten immer mehr Eigenschaften der Umgebungen nutzen, um nur einige der vielfältigen Aspekte zu nennen. Manche bildeten komplexe Sozialstrukturen aus, um in zahlenmäßig großen Populationen gemeinsam handeln zu können (Schwärme, ‚Staaten‘, Verbünde, ….). Nach vielen Milliarden Jahren, von heute aus erst kürzlich, vor einigen Millionen Jahren, gab es aber Populationen, deren zentrale Informationsverarbeitungssysteme (Nervensysteme, Gehirne), das individuelle System in die Lage versetzen können, Vergangenes nicht nur zu konservieren (Gedächtnis), sondern in dem Erinnerbaren Abstraktionen, Beziehungen, Unterschiede und Veränderungen erkennen zu können. Zugleich waren diese Systeme in der Lage Gegenwärtiges, Gedachtes und neue Kombinationen von all dem (Gedachtes, Geplantes) symbolisch zu benennen, auszusprechen, es untereinander auszutauschen, und sich auf diese Weise ganz neu zu orientieren und zu koordinieren. Dies führte zu einer revolutionären Befreiung aus der Gegenwart, aus dem Jetzt und aus dem ‚für sich sein‘. Damit war mit einem Mal alles möglich: das schrittweise Verstehen der gesamten Welt, die schrittweise Koordinierung allen Tuns, das Speichern von Wissen über den Moment hinaus, das Durchspielen von Zusammenhängen über das individuelle Denken hinaus.
  13. Als nächster Komplexitätssprung wird daher das Auftreten von Lebewesen mit komplexen Nervensystemen gesehen, die ein Bewusstsein ausbilden konnten, das sie in die Lage versetzt, miteinander ihre internen Zustände symbolisch austauschen zu können, so dass sie einen Siegeszug der Erkenntnis und des Aufbaus komplexer Gesellschaften beginnen konnten. Dieses Aufkommen des Geistes (‚Emerging Mind‘) definiert sich damit nicht nur über die direkt messbaren Strukturen (Nervensystem, Struktur, Umfang,..), sondern auch über den Umfang der möglichen Zustände des Verhaltens, das direkt abhängig ist sowohl von den möglichen Zuständen des Gehirns, des zugehörigen Körpers, aber auch über die Gegebenheiten der Umwelt. Anders ausgedrückt, das neue Potential dieser Lebensform erkennt man nicht direkt und alleine an ihren materiellen Strukturen, sondern an der Dynamik ihrer potentiellen inneren Zustände in Wechselwirkung mit verfügbaren Umwelten. Es ist nicht nur entscheidend, dass diese Systeme symbolisch kommunizieren konnten, sondern auch WAS, nicht entscheidend alleine dass sie Werkzeuge bilden konnten, sondern auch WIE und WOZU, usw.
  14. Es ist nicht einfach, dieses neue Potential angemessen theoretisch zu beschreiben, da eben die rein strukturellen Elemente nicht genügend aussagestark sind. Rein funktionelle Aspekte auch nicht. Es kommen hier völlig neue Aspekte ins Spiel.

Die Fortsezung gibt es HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

DENKEN UND WERTE – DER TREIBSATZ FÜR ZUKÜNFTIGE WELTEN (Teil 1)

  1. In dem Beitrag Digitalisierung und die Religionen vom 9.März 2016 gibt es neben vielen anderen Motiven zwei Motive, die besonders hervortreten: einmal das Momentum (i) kombinatorischer Räume, die gefüllt werden können, und zum anderen (ii) das Momentum der Auswahl, welche Teilräume wie gefüllt werden sollen.

KOMBINATORISCHER RAUM BIOLOGISCHE ZELLE

  1. Im Rahmen der biologischen Evolution auf Zellebene z.B. eröffnet sich der kombinatorische Raum an verschiedenen Stellen. Eine ist jene, wo das Übersetzungsmolekül (das Ribosom) von den gespeicherten potentiellen Informationen (DNA mit ihren Abwandlungen) eine Transformation in andere Moleküle (Proteine) überleitet , mit denen sich neue Zellstrukturen aufbauen lassen. Die Verfügbarkeit dieser Proteine, ihre chemischen Eigenschaften und die Umgebungseigenschaften definieren einen potentiellen kombinatorischen Raum, von dem im konkreten Übersetzungsprozess dann ein bestimmter Teilraum ausgewählt wird.
  2. Aber auch schon der potentielle Informationsspeicher (realisiert mittels DNA-Molekülen) selbst, wie auch seine verschiedenen Transformationsprozesse bis zum Übersetzungsprozess in Proteine repräsentieren ebenfalls kombinatorische Räume, deren Realisierung viel Spielraum zulässt.
  3. Man könnte diese molekülbasierte Informationsspeicherung, diese Transformationen der Moleküle, als eine Urform des Denkens ansehen: Moleküle fungieren als Repräsentanten möglicher Konstruktionsprozesse, und diese Repräsentanten können verändert, rekombiniert werden zu neuen Strukturen, die dann zu neuen Konstruktionsprozessen führen. Man hat also – vereinfacht – ein Funktion der Art repr: M_inf x M_tr x MMprot —> Z, d.h. die Reproduktionsfunktion repr die mittels Molekülen, die als Informationsträger fungieren (M_inf), mittels Molekülen (M_tr), die als Übersetzer fungieren und Molekülen (MM_prot), die als Proteine fungieren können, daraus neue Zellstrukturen entstehen lassen kann.

GELIEHENE PRÄFERENZEN

  1. So wundersam diese Urform des Denkens immer neue kombinatorische Räume strukturell aufspannen und dann im Reproduktionsprozess als reales Strukturen konkretisieren kann, so hilflos und arm ist dieser Mechanismus bei der Beurteilung, Bewertung, welche der möglichen Teilräume denn bevorzugt vor anderen realisiert werden sollten. Soll das Fell weiß oder schwarz sein? Benötigt man überhaupt Zähne? Wozu so komplizierte Hand- und Fingergelenke? Warum tausende Kilometer reisen, um zu brüten? … Die Urform des Denkens ist unfähig, ihre potentielle innere Vielfalt selbständig zu bewerten. Man kann auch sagen, die Urform des Denkens kann zwar kombinieren, ist aber blind wenn es darum geht, gezielt Teilräume auszuwählen, die sich als interessante Kandidaten für das Leben anbieten.
  2. Dabei ist schon die Wortwahl ‚interessante Kandidaten für das Leben‘ problematisch, da der Begriff Leben eine Schöpfung von Lebewesen ist, die viele Milliarden Jahre später erst auftreten und die versuchen im Nachhinein, von außen, durchtränkt von neuen Bedingungen, die zunächst bedeutungsleere Wortmarke Leben mit Bedeutung zu füllen. Die Urform des Denkens verfügt über keinen externen Begriff von Leben und es gibt keine Ingenieure, die der Urform des Denkens zuflüstern können, was sie tun sollen.

MOLEKÜLE ALS INFORMATIONSSPEICHER IMPLIZITE PRÄFERENZEN

  1. Allerdings beinhaltet schon die Urform des Denkens über ein Moment, das außerordentlich ist: jene Moleküle (DNA), die als Speicher potentieller Informationen dienen. Zu einem bestimmten Zeitpunkt repräsentieren diese Informations-Moleküle einen eng umgrenzten Teilraum eines kombinatorischen Raumes und wirken für den Übersetzungsprozess wie eine Art Anweisung in Form eines Bauplans. Gemessen an dem theoretisch möglichen kombinatorischen Raum stellt der Plan des Informationsmoleküls eine Auswahl dar, eine Selektion und damit zeigt sich hier eine indirekte Präferenz für die Informationen auf dem Molekül vor allen anderen möglichen Informationen. Die Urform des Denkens kann zwar im Prinzip einen riesigen potentiellen kombinatorischen Raum repräsentieren und transformieren, die konkrete Zelle aber repräsentiert in diesem riesigen Raum einen winzigen Teilbereich, mit einem aktuellen Ausgangspunkt – gegeben durch die aktuellen Informationen auf dem Informationsmolekül M_inf – und potentiellen Veränderungsrichtungen – gegeben durch die Transformationsprozesse einschließlich der verfügbaren Materialien und Pannen im Prozess. Anders formuliert, die Informationsmoleküle repräsentieren eine komplexe Koordinate (KK) im kombinatorischen Raum und die Transformationsprozesse (einschließlich Pannen und Materialien) repräsentieren eine Menge von möglichen Veränderungsrichtungen (DD), an deren Endpunkten dann jeweils neue komplexe Koordinaten KK_neu_1, …, KK_neu_n liegen.
  2. Wichtig: eine Zelle enthält über die Informationsmoleküle zwar implizite Präferenzen/ Werte, die die Urform des Denkens steuern, diese Präferenzen werden aber nicht von der Zelle selbst generiert, sondern entstehen aus einem Wechselspiel/ aus einer Interaktion mit der Umgebung! Biologische Strukturen (bis heute nur bekannt auf dem Planeten Erde in unserem Sonnensystem in einem geschützten Bereich der Galaxie Milchstraße des uns bekannten Universums) kommen nie isoliert vor, sondern als Teil einer Umgebung, die über sogenannte freie Energie verfügt.

OHNE ENERGIE GEHT NICHTS

  1. Biologische Zellen sind Gebilde, die für ihre Konstruktion und für ihr Funktionieren solche freie Energie brauchen. Der Umfang ihrer Strukturen wie auch die Dauer ihres Funktionierens hängt direkt und ausschließlich von der Verfügbarkeit solcher freien Energie ab. Bezogen auf den kombinatorischen Raum, der durch die Kombination (Informationsmoleküle, Transformationsmolekül, Bausteine) potentiell gegeben ist, ist unter Berücksichtigung der notwendigen Fähigkeit zum Finden und Verarbeiten von freier Energie nicht neutral! Definieren wir den potentiellen kombinatorischen Raum PKK für biologische Zellen als Raum für mögliche komplexe Koordination KK (also KK in PKK), dann sind im potentiellen kombinatorischen Raum nur jene Teilräume von Interesse, in denen die biologische Zelle über hinreichende Fähigkeiten verfügt, freie Energie zu finden und zu nutzen. Nennen wir die Gesamtheit dieser interessanten Teilräume PKK+, mit PKK+ subset PKK.

GEBORGTE PRÄFERENZEN

  1. Da die individuelle biologische Zelle selbst über keinerlei explizite Informationen verfügt, wo überall im potentiell kombinatorischen Raum PKK die interessanten Teilräume PKK+ liegen, stellt sie – trotz ihrer eigenen Reproduktionstätigkeit – eher ein passives Element dar, das sich mit geborgten Präferenzen im potentiellen kombinatorischen Raum PKK bewegt, ohne explizit wissen zu können, ob es auf seinem Weg durch den potentiellen kombinatorischen Raum PKK auch tatsächlich auf solche komplexen Koordinaten KK+ stößt, die ihr eine minimale Lebensfähigkeit erlauben.
  2. Da wir vom Jahr 2016 rückwärts blickend wissen, dass diese passiven Elemente es in ca. 4 Mrd Jahren geschafft haben, komplexe Strukturen unvorstellbaren Ausmaßes zu generieren (ein Exemplar des homo sapiens soll z.B. ca. 37 Billionen Körperzellen haben (davon ca. 100 Mrd als Gehirnzellen), dazu ca. 200 Billionen Bakterien in seinem Körper plus ca. 220 Milliarden auf seiner Haut (siehe dazu Kegel-Review Doeben-Henisch), muss man konstatieren, dass die permanente Interaktion zwischen biologischer Zelle und ihrer Umgebung offensichtlich in der Lage war, all diese wichtigen Informationen PKK+ im potentiellen kombinatorischen Raum PKK zu finden und zu nutzen!
  3. Für die Frage der potentiellen Präferenzen/ Werte gilt für diesen gesamten Zeitraum, dass sich die implizit gespeicherten Präferenzen nur dadurch bilden konnten, dass bestimmte generierte Strukturen (M_inf, M_tr, MM_prot) sich immer von einer positiven komplexen Koordinate zur nächsten positiven Koordinate bewegen konnten. Dadurch konnten die gespeicherten Informationen kumulieren. Aus der Evolutionsgeschichte wissen wir, dass ein Exemplar des homo sapiens im Jahr 2016 eine Erfolgsspur von fast 4 Mrd Jahren repräsentiert, während in diesem Zeitraum eine unfassbar große Zahl von zig Mrd anderen generierte Strukturen (M_inf, M_tr, MM_prot) irgendwann auf eine negative komplexe Koordinate KK- geraten sind. Das war ihr Ende.

ERHÖHUNG DER ERFOLGSWAHRSCHEINLICHKEIT

  1. Für den Zeitraum bis zum Auftreten des homo sapiens müssen wir konstatieren, dass es Präferenzen/ Werte für ein biologisches System nur implizit geben konnte, als Erinnerung an einen erreichten Erfolg im Kampf um freie Energie. Unter Voraussetzung, dass die umgebende Erde einigermaßen konstant war, war die Wahrscheinlichkeit, von einer positiven Koordinate KK+ zu einer weiteren komplexen Koordinate KK+ zu kommen um ein Vielfaches höher als wenn das biologische System nur rein zufällig hätte suchen müssen. Die gespeicherten Informationen in den Informationsmolekülen M_inf stellen somit sowohl erste Abstraktionen von potentiellen Eigenschaften wie auch von Prozessen dar. Damit war es Anfangshaft möglich, die impliziten Gesetzmäßigkeiten der umgebenden Welt zu erkennen und zu nutzen.

URSPRUNG VON WERTEN

  1. Es fragt sich, ob man damit einen ersten Ort, einen ersten Ursprung potentieller Werte identifizieren kann.
  2. Vom Ergebnis her, von den überlebensfähigen biologischen Strukturen her, repräsentieren diese einen partiellen Erfolg von Energienutzung entgegen der Entropie, ein Erfolg, der sich in der Existenz von Populationen von solchen erfolgreichen Strukturen als eine Erfolgsspur darstellt. Aber sie alleine bilden nur die halbe Geschichte. Ohne die umgebende Erde (im Sonnensystem, in der Galaxie…), wäre dieser Erfolg nicht möglich. Andererseits, die umgebende Erde ohne die biologischen Strukturen lässt aus sich heraus nicht erkennen, dass solche biologische Strukturen möglich noch wahrscheinlich sind. Bis heute ist die Physik mehr oder weniger sprachlos, wirkt sie wie paralysiert, da sie mit ihren bisherigen (trotz aller mathematischen Komplexität weitgehend naiven) Modellen nicht einmal ansatzweise in der Lage ist, die Entstehung dieser biologischen Strukturen zu erklären. Von daher müssen wir fordern, dass die umgebende Erde — letztlich aber das gesamte bekannte Universum — die andere Hälfte des Erfolgs darstellt; nur beide zusammen geben das ganze Phänomen. In diesem Fall würde ein reduktiver Ansatz nicht vereinfachen, sondern das Phänomen selbst zerstören!

ONTOLOGISCHE GELTUNG VON BEZIEHUNGEN

  1. Dies führt zu einem bis heute ungeklärten philosophischen Problem der ontologischen Geltung von Funktionen. In der Mathematik sind Funktionen die Grundbausteine von allem, und alle Naturwissenschaften wären ohne den Funktionsbegriff aufgeschmissen. Eine Funktion beschreibt eine Beziehung zwischen unterschiedlichen Elementen. In der Mathematik gehören diese Elemente in der Regel irgendwelchen Mengen an, die einfach unterstellt werden. Wendet man das mathematische Konzept Funktion auf die empirische Wirklichkeit an, dann kann man damit wunderbar Beziehungen beschreiben, hat aber ein Problem, die in der Mathematik unterstellten Mengen in der Realität direkt erkennen zu können; man muss sie hypothetisch unterstellen. Was man direkt beobachten und messen kann sind nicht die funktionalen Beziehungen selbst, sondern nur isolierte Ereignisse in der Zeit, die der Beobachter in seinem Kopf (Gehirn, Gehirnzellen…) verknüpft zu potentiellen Beziehungen, die dann, wenn sie sich hinreichend oft wiederholen, als gegebener empirischer Zusammenhang angenommen werden. Was ist jetzt empirisch real: nur die auslösenden konkreten individuellen Ereignisse oder das in der Zeit geordnete Nacheinander dieser Ereignisse? Da wir ja die einzelnen Ereignisse protokollieren können, können wir sagen, dass auch das Auftreten in der Zeit selbst empirisch ist. Nicht empirisch ist die Zuordnung dieser protokollierten Ereignisse zu einem bestimmten gedachten Muster/ Schema/ Modell, das wir zur gedanklichen Interpretation benutzen. Die gleichen Ereignisse lassen in der Regel eine Vielzahl von unterschiedlichen Mustern zu. Einigen wir uns kurzfristig mal auf ein bestimmtes Muster, auf den Zusammenhang R(X, …, Z), d.h. zwischen den Ereignissen X, …, Z gibt es eine Beziehung R.
  2. Biologische Systeme ohne Gehirn konnten solche Relationen in ihrem Informations-Moleküle zwar speichern, aber nicht gedanklich variieren. Wenn die Beziehung R stimmen würde, dann würde sie zur nächsten positiven komplexen Koordinate KK+ führen, was R im Nachhinein bestätigen würde; wenn R aber zu einer negativen komplexen Koordinate KK- führen würde, dann war dies im Nachhinein eine Widerlegung, die nicht mehr korrigierbar ist, weil das System selbst verschwunden (ausgestorben) ist.
  3. Im Gehirn des homo sapiens können wir ein Beziehungsmuster R(X, …, Z) denken und können es praktisch ausprobieren. In vielen Fällen kann solch ein Interpretationsversuch scheitern, weil das Muster sich nicht reproduzieren lässt, und in den meisten solchen Fällen stirbt der Beobachter nicht, sondern hat die Chance, andere Muster R‘ auszuprobieren. Über Versuch und Irrtum kann er so – möglicherweise irgendwann – jene Beziehung R+ finden, die sich hinreichend bestätigt.
  4. Wenn wir solch ein positiv bestätigtes Beziehungsmuster R+ haben, was ist dann? Können wir dann sagen, dass nicht nur die beteiligten empirischen Ereignisse empirisch real sind, sondern auch das Beziehungsmuster R+ selbst? Tatsächlich ist es ja so, dass es nicht die einzelnen empirischen Ereignisse als solche sind, die wir interessant finden, sondern nur und ausschließlich die Beziehungsmuster R+, innerhalb deren sie uns erscheinen.
  5. In der Wechselwirkung zwischen umgebender Erde und den Molekülen ergab sich ein Beziehungsmuster R+_zelle, das wir biologische Zelle nennen. Die einzelnen Elemente des Musters sind nicht uninteressant, aber das wirklich frappierende ist das Beziehungsmuster selbst, die Art und Weise, wie die Elemente kooperieren. Will man dieses Beziehungsmuster nicht wegreden, dann manifestiert sich in diesem Beziehungsmuster R+_zelle ein Stück möglicher und realer empirisches Wirklichkeit, das sich nicht auf seine Bestandteile reduzieren lässt. Es ist genau umgekehrt, man versteht die Bestandteile (die vielen Milliarden Moleküle) eigentlich nur dadurch, dass man sieht, in welchen Beziehungsmustern sie auftreten können.
  6. Vor diesem Hintergrund plädiere ich hier dafür, die empirisch validierten Beziehungsmuster als eigenständige empirische Objekte zu betrachten, sozusagen Objekte einer höheren Ordnung, denen damit eine ontologische Geltung zukommt und die damit etwas über die Struktur der Welt aussagen.
  7. Zurück zur Frage der Präferenzen/ Werte bedeutet dies, dass man weder an der Welt als solcher ohne die biologischen Systeme noch an den biologischen Strukturen als solche ohne die Welt irgendwelche Präferenzen erkennen kann. In der Wechselwirkung zwischen Erde und biologischen Strukturen unter Einbeziehung einer Irreversibilität (Zeit) werden aber indirekt Präferenzen sichtbar als jener Pfad im potentiellen Möglichkeitsraum der komplexen Koordinaten KK, der die Existenz biologischer Systeme bislang gesichert hat.
  8. Dieser Sachverhalt ist für einen potentiellen Beobachter unaufdringlich. Wenn der Beobachter nicht hinschauen will, wenn er wegschaut, kann er diesen Zusammenhang nicht erkennen. Wenn der Beobachter aber hinschaut und anfängt, die einzelnen Ereignisse zu sortieren und versucht, aktiv Beziehungsmuster am Beispiel der beobachteten Ereignispunkte auszuprobieren (was z.B. die Evolutionsbiologie tut), dann kann man diese Strukturen und Prozesse erkennen, und dann kann man als Beobachter Anfangshaft begreifen, dass hier ein Beziehungsmuster R+_zelle vorliegt, das etwas ganz Außerordentliches, ja Einzigartiges im ganzen bekannten Universum darstellt.

Keine direkte, aber eine indirekte, Fortsetzung könnte man in diesem Beitrag sehen.

Einen Überblick von allen Beiträgen des Autors cagent in diese Blog nach Titeln findet sich HIER.

NOTIZEN ZU DEN GROSSEN MEILENSTEINEN DER LEBENSPHÄNOMENE

  1. Wenn man Bücher wie z.B. das von B.Kegel zu den Mikroben oder jenes von Storch, Welsch und Wink zur Evolutionsbiologie (hier abgekürzt: EB) liest, dann kann man sich an der ungeheuren Vielfalt der Phänomene berauschen. Doch diese Bücher bieten zugleich Ansatzpunkte zum Verstehen, dass sich diesen Phänomenen Strukturen zuordnen lassen, innerhalb deren sie auftreten; mehr noch; man erkennt ansatzweise auch Prozesse, die solche Strukturen hervorbringen und verändern.
  2. Viele sprechen in diesem Zusammenhang von Evolution, doch darf man fragen, ob das, was normalerweise als Evolution bezeichnet wird, schon jenen Prozesse beschreibt, der tatsächlich ablaufen. Die Antwort hängt davon ab, welchen Rahmen man voraussetzt. Wieviele und welche Phänomene nehme ich ernst, will ich erklären.
  3. In EB nennen die Autoren auf S.90 zehn Ereignisse, von denen Sie sagen, dass Sie im Kontext der bekannten Lebensphänomene etwas Besonderes darstellen:
    1. Beginn des Lebens (erste Zellen), ca. -4Mrd
    2. Auftreten eukaryontischer Zellen, ca. -2Mrd
    3. Vielzellige Verbände, ca. -1.85 Mrd
    4. Hartstrukturen, ca. -0.6Mrd
    5. Räuber, ca. -0.57 Mrd
    6. Riffe, ca. -0.525
    7. Besiedlung des Landes, ca. -0.42
    8. Bäume/ Wald, ca. -0.365
    9. Flug, ca. -0.310
    10. Menschliches Bewusstsein, ca. -0.05Mrd
  4. Diesen Phänomenen ist gemeinsam, dass sie alle auf der Funktionsweise und der Kooperation von Zellen (Archaeen, Bakterien, Eukaryoten) basieren.
  5. Andererseits wissen wir, dass sie sich nicht im luftleeren Raum abgespielt haben, sondern unter sehr konkret realen Bedingungen der Erde in ihrer jeweiligen Verfassung. Dies bedeutet, diese Phänomene repräsentieren nur eine Seite, eine Hälfte, des Phänomens. Die andere Seite, die andere Hälfte ist die jeweilige Umgebung. Letztlich ist es diese Umgebung, die diktiert, vorgibt, was überhaupt möglich ist.
  6. So ist die Transformation der Umgebung von einer Nicht-Sauerstoffwelt zu einer Sauerstoffwelt ein extremes Ereignis: die biologischen Strukturen haben einen Trigger gefunden, mit dem sie die Verhältnisse unter und über Wasser so radikal geändert haben, dass nicht nur eine neue, verbesserte Form der Energieausnutzung aller Zellen möglich wurde, sondern zusätzlich entstand eine Atmosphäre, die das Wasser der Ozeane daran gehindert hat, dieses Wasser durch die UV-Strahlung praktisch verdunsten zu lassen.
    1. Beginn des Lebens (erste Zellen), ca. -4Mrd
    2. Beginn der Sauerstoffproduktion (ca. -3.5 bis -2.5 Mrd) und deren Umwandlung der Atmosphäre (ca. ab -2.4/ -2.3 Mrd)
    3. Auftreten eukaryontischer Zellen, ca. -2Mrd
    4. Vielzellige Verbände, ca. -1.85 Mrd
    5. Hartstrukturen, ca. -0.6Mrd
    6. Räuber, ca. -0.57 Mrd
    7. Riffe, ca. -0.525
    8. Besiedlung des Landes, ca. -0.42
    9. Bäume/ Wald, ca. -0.365
    10. Flug, ca. -0.310
    11. Menschliches Bewusstsein, ca. -0.05Mrd
  7. Obwohl die Entstehung der Sauerstoffwelt kein biologisches Phänomen im engeren Sinne ist, ist es dennoch ohne die Aktivität biologischer Lebensformen nicht erklärbar. Anders gesagt, zunächst ist die Erde, wie sie ist, und die biologischen Strukturen müssen sich innerhalb dieser Gegebenheiten einen Weg suchen. Nach ca. 1.5 Mrd Jahren führt aber die Aktivität der biologischen Strukturen in Interaktion mit der vorhandenen Welt dazu, diese Welt real so zu verändern, dass sie für die biologischen Strukturen eine andere Welt geworden ist. Die biologische Strukturen im Mikrobereich des Lebens hatten und haben eine solche Kraft, dass sie einen ganzen Planeten samt seiner Atmosphäre nachhaltig verändern konnten. Ohne die so entstandene Sauerstoffwelt wäre alles Leben auf der Erdoberfläche, so, wie wir es heute kennen, unmöglich.
  8. Nachdem ein Bewusstsein in der Form des menschlichen Bewusstseins auftrat, entwickelten die Menschen auf der Basis dieses Bewusstseins in relativ kurzer Zeit und dann immer schneller, Verhaltensweisen und Lebensformen mit einer Unzahl von Spielarten, bei denen es nicht ganz leicht ist, zu sagen, ob sie bedeutsam waren/ sind oder nicht. Letztlich hängt es immer von der Betrachtungsweise ab, ob etwas in einem gewählten Kontext bedeutsam erscheint. Die folgende Liste ist daher nicht zu lesen als eine dogmatische Festsetzung als vielmehr nur eine lockere Auswahl einiger Phänomene von vielen, die möglicherweise eine wichtige Rolle spielen.
    1. Beginn des Lebens (erste Zellen), ca. -4Mrd
    2. Beginn der Sauerstoffproduktion (ca. -3.5 bis -2.5 Mrd) und deren Umwandlung der Atmosphäre (ca. ab -2.4/ -2.3 Mrd)
    3. Auftreten eukaryontischer Zellen, ca. -2Mrd
    4. Vielzellige Verbände, ca. -1.85 Mrd
    5. Hartstrukturen, ca. -0.6Mrd
    6. Räuber, ca. -0.57 Mrd
    7. Riffe, ca. -0.525
    8. Besiedlung des Landes, ca. -0.42
    9. Bäume/ Wald, ca. -0.365
    10. Flug, ca. -0.310
    11. Menschliches Bewusstsein, ca. -0.05Mrd
    12. Erste Städte, ca. -10.000
    13. Schriftsprachen, ca. -3.000
    14. Gesetze
    15. Bücher
    16. Elektrizität
    17. Energiegewinnung mit fossilen Brennstoffen, Atomenergie,Wasser, Wind, Sonne, Bioreaktoren…
    18. Mobiler Verkehr
    19. Industrielle Ernährungswirtschaft
    20. Megastädte (mehr als 10 Mio Einwohner)
    21. Computer
    22. Gentechnik
    23. Vernetzte Computer
  9. Wir können heute definitiv feststellen, dass die Aktivitäten alleine des homo sapiens, einer absoluten Minderheit im Kontext des Lebens, das Ökosystem der Erde wie auch die Erde selbst schon so nachhaltig verändert hat, dass die Ressourcen für Nahrung knapp werden, dass ein gewaltiges Artensterben eingesetzt hat, dass wichtige Biotope zerstört werden, und dass das Klima sich in einer Weise zu verändern begonnen hat, das zu sehr nachhaltigen Störungen führen kann, die dann die Lebensbedingungen allgemein erschweren werden. Das komplexeste (? wie zu messen?) Produkt, was der Lebensprozess bislang hervorgebracht hat, der homo sapiens, hat offensichtlich Probleme, mit der vorfindlichen Komplexität, zu der der Mensch selbst auch gehört, fertig zu werden. Deutet man dies als mangelnde Anpassungsfähigkeit, dann sagt die bisherige Geschichte voraus, dass eine größere Katastrophe eintreten wird, durch die alle Organismen mit einem schlecht angepassten Verhalten aussterben werden.
  10. Das Besondere der aktuellen Situation ist, dass der Mensch sein Verhalten tatsächlich weitgehend selbst bestimmen kann. Wenn die Menschheit besser wüsste, was am besten zu tun ist, dann könnte sie dies einfach tun. Im Alltagsleben menschlicher Gesellschaften gibt es aber so viele Prozesse, die viel kurzsichtigere, egoistischere, emotional verblendete Ziele verfolgen, die keinerlei Bezug zum großen Ganzen haben. In dem Masse, wie diese kurzsichtigen Perspektiven die Mehrheit bilden, den Ton angeben, in dem Masse wird das gesamtmenschliche Verhalten die Erde weiterhin in wichtigen Bereichen nachhaltig zerstören und damit eine Anpassungskatastrophe einleiten.
  11. Man könnte in dieser Situation den Schluss ziehen, dass die Menschen neue geistige Konzepte, neue Verhaltensmodelle, ein neues=besseres Menschenbild, neue Regeln, neue Ethiken benötigen, um sich den veränderten Verhältnissen angemessen zu nähern. Nimmt man die allgemeinen Medien als Gradmesser für das alltägliche Denken, dann findet man hier derart primitive und rückwärtsgewandte Konzepte, dass nicht zu sehen ist, wie von hier eine ‚Erneuerung‘ des Denkens für eine gemeinsame Zukunft stattfinden soll. Begleitet wird diese regressive Medienwelt von einer – dann nicht verwunderlichen – Radikalisierung, Vereinfachung, Nationalisierung, Gewaltverherrlichung, die sich in der Politik dahingehend niederschlägt, dass Abgrenzungen, Nationalisierungen, Radikalisierungen bevorzugt werden. genau das Gegenteil wäre notwendig. Wenn das die einzige Antwort ist, die die Menschheit auf die gewachsenen Komplexitäten und zunehmenden Umweltzerstörungen zu bieten hat, dann wird es für eine nachhaltige Zukunft nicht reichen.
  12. Nachbemerkung: die obige Liste an Ereignissen könnte (und müsste) man natürlich auch nach hinten verlängern. Bis hin zum sogenannten Big Bang. Über die Stufen
    1. Big Bang
    2. Subatomare Teilchen
    3. Atome
    4. Gaswolken
    5. Sterne
    6. Moleküle
    7. Galaxien
  13. wäre auch eine Menge zu sagen. Alle wichtige Fragen hat die Physik bislang nicht gelöst. Dass die Physik bislang fantastische Ergebnisse erzielt hat ist wunderbar und anzuerkennen. Es wäre aber ein fataler Fehler, jetzt zu glauben, wir wüssten damit schon viel und könnten uns jetzt ausruhen. Nein, wir wissen gerade mal so viel, dass wir abschätzen können, dass wir fast nichts wissen. Alles hängt ab von der jeweils jungen Generation an Ingenieuren, Wissenschaftlern und Forschern. Wer hilft Ihnen, die entsprechenden Ziele zu setzen und die notwendigen Wege zu gehen?

K.G.DENBIGH: AN INVENTIVE UNIVERSE — Relektüre — Teil 3

K.G.Denbigh (1975), „An Inventive Universe“, London: Hutchinson & Co.

BISHER

Im Teil 1 der Relektüre von Kenneth George Denbighs Buch „An Inventive Universe“ hatte ich, sehr stark angeregt durch die Lektüre, zunächst eher mein eigenes Verständnis von dem Konzept ‚Zeit‘ zu Papier gebracht und eigentlich kaum die Position Denbighs referiert. Darin habe ich sehr stark darauf abgehoben, dass die Struktur der menschlichen Wahrnehmung und des Gedächtnisses es uns erlaubt, subjektiv Gegenwart als Jetzt zu erleben im Vergleich zum Erinnerbaren als Vergangen. Allerdings kann unsere Erinnerung stark von der auslösenden Realität abweichen. Im Lichte der Relativitätstheorie ist es zudem unmöglich, den Augenblick/ das Jetzt/ die Gegenwart objektiv zu definieren. Das individuelle Jetzt ist unentrinnbar subjektiv. Die Einbeziehung von ‚Uhren-Zeit’/ technischer Zeit kann zwar helfen, verschiedene Menschen relativ zu den Uhren zu koordinieren, das grundsätzliche Problem des nicht-objektiven Jetzt wird damit nicht aufgelöst.

In der Fortsetzung 1b von Teil 1 habe ich dann versucht, die Darlegung der Position von Kenneth George Denbighs Buch „An Inventive Universe“ nachzuholen. Der interessante Punkt hier ist der Widerspruch innerhalb der Physik selbst: einerseits gibt es physikalische Theorien, die zeitinvariant sind, andere wiederum nicht. Denbigh erklärt diese Situation so, dass er die zeitinvarianten Theorien als idealisierende Theorien darstellt, die von realen Randbedingungen – wie sie tatsächlich überall im Universum herrschen – absehen. Dies kann man daran erkennen, dass es für die Anwendung der einschlägigen Differentialgleichungen notwendig sei, hinreichende Randbedingungen zu definieren, damit die Gleichungen gerechnet werden können. Mit diesen Randbedingungen werden Start- und Zielzustand aber asymmetrisch.

Auch würde ich hier einen Nachtrag zu Teil 1 der Relektüre einfügen: in diesem Beitrag wurde schon auf die zentrale Rolle des Gedächtnisses für die Zeitwahrnehmung hingewiesen. Allerdings könnte man noch präzisieren, dass das Gedächtnis die einzelnen Gedächtnisinhalte nicht als streng aufeinanderfolgend speichert, sondern eben als schon geschehen. Es ist dann eine eigene gedankliche Leistungen, anhand von Eigenschaften der Gedächtnisinhalte eine Ordnung zu konstruieren. Uhren, Kalender, Aufzeichnungen können dabei helfen. Hier sind Irrtümer möglich. Für die generelle Frage, ob die Vorgänge in der Natur gerichtet sind oder nicht hilft das Gedächtnis von daher nur sehr bedingt. Ob A das B verursacht hat oder nicht, bleibt eine Interpretationsfrage, die von zusätzlichem Wissen abhängt.

Im Teil 2 ging es um den Anfang von Kap.2 (Dissipative Prozesse) und den Rest von Kap.3 (Formative Prozesse). Im Kontext der dissipativen (irreversiblen) Prozesse macht Denbigh darauf aufmerksam, dass sich von der Antike her in der modernen Physik eine Denkhaltung gehalten hat, die versucht, die reale Welt zu verdinglichen, sie statisch zu sehen (Zeit ist reversibel). Viele empirische Fakten sprechen aber gegen die Konservierung und Verdinglichung (Zeit ist irreversibel). Um den biologischen Phänomenen gerecht zu werden, führt Denbigh dann das Konzept der ‚Organisation‘ und dem ‚Grad der Organisiertheit‘ ein. Mit Hilfe dieses Konzeptes kann man Komplexitätsstufen unterscheiden, denen man unterschiedliche Makroeigenschaften zuschreiben kann. Tut man dies, dann nimmt mit wachsender Komplexität die ‚Individualität‘ zu, d.h. die allgemeinen physikalischen Gesetze gelten immer weniger. Auch gewinnt der Begriff der Entropie im Kontext von Denbighs Überlegungen eine neue Bedeutung. Im Diskussionsteil halte ich fest: Im Kern gilt, dass maximale Entropie vorliegt, wenn keine Energie-Materie-Mengen verfügbar sind, und minimale Entropie entsprechend, wenn maximal viele Energie-Materie-Mengen verfügbar sind. Vor diesem Hintergrund ergibt sich das Bild, dass Veränderungsprozesse im Universum abseits biologischer Systeme von minimaler zu maximaler Entropie zu führen scheinen (dissipative Prozesse, irreversible Prozesse, …), während die biologischen Systeme als Entropie-Konverter wirken! Sie kehren die Prozessrichtung einfach um. Hier stellen sich eine Fülle von Fragen. Berücksichtigt man die Idee des Organiationskonzepts von Denbigh, dann kann man faktisch beobachten, dass entlang einer Zeitachse eine letztlich kontinuierliche Zunahme der Komplexität biologischer Systeme stattfindet, sowohl als individuelle Systeme wie aber auch und gerade im Zusammenspiel einer Population mit einer organisatorisch aufbereiteten Umgebung (Landwirtschaft, Städtebau, Technik allgemein, Kultur, …). Für alle diese – mittlerweile mehr als 3.8 Milliarden andauernde – Prozesse haben wir bislang keine befriedigenden theoretischen Modelle

KAPITEL 4: DETERMINISMUS UND EMERGENZ (117 – 148)

Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz
Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz
  1. Dieses Kapitel widmet sich dem Thema Determinismus und Emergenz. Ideengeschichtlich gibt es den Hang wieder, sich wiederholende und darin voraussagbare Ereignisse mit einem Deutungsschema zu versehen, das diesen Wiederholungen feste Ursachen zuordnet und darin eine Notwendigkeit, dass dies alles passiert. Newtons Mechanik wird in diesem Kontext als neuzeitliche Inkarnation dieser Überzeugungen verstanden: mit klaren Gesetzen sind alle Bewegungen berechenbar.
  2. Dieses klare Bild korrespondiert gut mit der christlichen theologischen Tradition, nach der ein Schöpfer alles in Bewegung gesetzt hat und nun die Welt nach einem vorgegebenen Muster abläuft, was letztlich nur der Schöpfer selbst (Stichwort Wunder) abändern kann.
  3. Die neuzeitliche Wissenschaft hat aber neben dem Konzept des Gesetzes (‚law‘) auch das Konzept Theorie entwickelt. Gesetze führen innerhalb einer Theorie kein Eigenleben mehr sondern sind Elemente im Rahmen der Theorie. Theorien sind subjektive Konstruktionen von mentalen Modellen, die versuchen, die empirischen Phänomene zu beschreiben. Dies ist ein Näherungsprozess, der – zumindest historisch – keinen eindeutigen Endpunkt kennt, sondern empirisch bislang als eher unendlich erscheint.
  4. Eine moderne Formulierung des deterministischen Standpunktes wird von Denbigh wie folgt vorgeschlagen: Wenn ein Zustand A eines hinreichend isolierten Systems gefolgt wird von einem Zustand B, dann wird der gleiche Zustand A immer von dem Zustand B gefolgt werden, und zwar bis in die letzten Details.(S.122)
  5. Diese Formulierung wird begleitend von den Annahmen, dass dies universell gilt, immer, für alles, mit perfekter Präzision.
  6. Dabei muss man unterscheiden, ob die Erklärung nur auf vergangene Ereignisse angewendet wird (‚ex post facto‘) oder zur Voraussage benutzt wird. Letzteres gilt als die eigentliche Herausforderung.
  7. Wählt man die deterministische Position als Bezugspunkt, dann lassen sich zahlreiche Punkte aufführen, nach denen klar ist, dass das Determinismus-Prinzip unhaltbar ist. Im Folgenden eine kurze Aufzählung.
  8. Die Interaktion aller Teile im Universum ist nirgendwo (nach bisherigem Wissen) einfach Null. Zudem ist die Komplexität der Wechselwirkung grundsätzlich so groß, dass eine absolute Isolierung eines Teilsystems samt exakter Reproduktion als nicht möglich erscheint.
  9. Generell gibt es das Problem der Messfehler, der Messungenauigkeiten und der begrenzten Präzision. Mit der Quantenmechanik wurde klar, dass wir nicht beliebig genau messen können, dass Messen den Gegenstand verändert. Ferner wurde klar, dass Messen einen Energieaufwand bedeutet, der umso größer wird, je genauer man messen will. Ein erschöpfendes – alles umfassende – Messen ist daher niemals möglich.
  10. Im Bereich der Quanten gelten maximal Wahrscheinlichkeiten, keine Notwendigkeiten. Dies schließt nicht notwendigerweise ‚Ursachen/ Kausalitäten‘ aus.
  11. Die logischen Konzepte der mentalen Modelle als solche sind nicht die Wirklichkeit selbst. Die ‚innere Natur der Dinge‘ als solche ist nicht bekannt; wir kennen nur unsere Annäherungen über Messereignisse. Das, was ‚logisch notwendig‘ ist, muss aus sich heraus nicht ontologisch gültig sein.
  12. Neben den Teilchen sind aber auch biologische Systeme nicht voraussagbar. Ihre inneren Freiheitsgrade im Verbund mit ihren Dynamiken lassen keine Voraussage zu.
  13. Aus der Literatur übernimmt Denbigh die Komplexitätshierarchie (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143)
  14. Traditioneller Weise haben sich relativ zu jeder Komplexitätsstufe spezifische wissenschaftliche Disziplinen herausgebildet, die die Frage nach der Einheit der Wissenschaften aufwerfen: die einen sehen in den Eigenschaften höherer Komplexitätsstufen emergente Eigenschaften, die sich nicht auf die einfacheren Subsysteme zurückführen lassen; die Reduktionisten sehen die Wissenschaft vollendet, wenn sich alle komplexeren Eigenschaften auf Eigenschaften der Ebenen mit weniger Komplexität zurückführen lassen. Während diese beiden Positionen widersprüchlich erscheinen, nimmt das Evolutionskonzept eine mittlere Stellung ein: anhand des Modells eines generierenden Mechanismus wird erläutert, wie sich komplexere Eigenschaften aus einfacheren entwickeln können.

DISKUSSION

  1. Fasst man alle Argument zusammen, ergibt sich das Bild von uns Menschen als kognitive Theorientwickler, die mit ihren kognitiven Bildern versuchen, die Strukturen und Dynamiken einer externen Welt (einschließlich sich selbst) nach zu zeichnen, die per se unzugänglich und unerkennbar ist. Eingeschränkte Wahrnehmungen und eingeschränkte Messungen mit prinzipiellen Messgrenzen bilden die eine Begrenzung, die daraus resultierende prinzipielle Unvollständigkeit aller Informationen eine andere, und schließlich die innere Logik der realen Welt verhindert ein einfaches, umfassendes, eindeutiges Zugreifen.
  2. Die mangelnde Selbstreflexion der beteiligten Wissenschaftler erlaubt streckenweise die Ausbildung von Thesen und Hypothesen, die aufgrund der möglichen Methoden eigentlich ausgeschlossen sind.
  3. Die noch immer geltende weitverbreitete Anschauung, dass in der Wissenschaft der Anteil des Subjektes auszuklammern sei, wird durch die vertiefenden Einsichten in die kognitiven Voraussetzungen aller Theorien heute neu in Frage gestellt. Es geht nicht um eine Infragestellung des Empirischen in der Wissenschaft, sondern um ein verstärktes Bewusstheit von den biologischen (beinhaltet auch das Kognitive) Voraussetzungen von empirischen Theorien.
  4. In dem Maße, wie die biologische Bedingtheit von Theoriebildungen in den Blick tritt kann auch die Besonderheit der biologischen Komplexität wieder neu reflektiert werden. Das Biologische als Entropie-Konverter (siehe vorausgehenden Beitrag) und Individualität-Ermöglicher jenseits der bekannten Naturgesetze lässt Eigenschaften der Natur aufblitzen, die das bekannte stark vereinfachte Bild kritisieren, sprengen, revolutionieren.
  5. Die Idee eines evolutionären Mechanismus zwischen plattem Reduktionismus und metaphysischem Emergenz-Denken müsste allerdings erheblich weiter entwickelt werden. Bislang bewegt es sich im Bereich der Komplexitätsebenen (iii) Moleküle und (iv) Zellen.

Fortsetzung mit TEIL 4

QUELLEN

  1. Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

K.G.DENBIGH: AN INVENTIVE UNIVERSE — Relektüre — Teil 2

K.G.Denbigh (1975), „An Inventive Universe“, London: Hutchinson & Co.

NACHTRAG: Am 30.9.2015 habe ich noch einen Diskussionsteil angefügt

BISHER

Im Teil 1 der Relektüre von Kenneth George Denbighs Buch „An Inventive Universe“ hatte ich, sehr stark angeregt durch die Lektüre, zunächst eher mein eigenes Verständnis von dem Konzept ‚Zeit‘ zu Papier gebracht und eigentlich kaum die Position Denbighs referiert. Ich hatte sehr stark darauf abgehoben, dass die Struktur der menschlichen Wahrnehmung und des Gedächtnisses es uns erlaubt, subjektiv Gegenwart als Jetzt zu erleben im Vergleich zum Erinnerbaren als Vergangenes. Allerdings kann unsere Erinnerung stark von der auslösenden Realität abweichen. Im Lichte der Relativitätstheorie ist es zudem unmöglich, den Augenblick/ das Jetzt/ die Gegenwart objektiv zu definieren. Das individuelle Jetzt ist unentrinnbar subjektiv. Die Einbeziehung von ‚Uhren-Zeit’/ technischer Zeit kann zwar helfen, verschiedene Menschen relativ zu den Uhren zu koordinieren, das grundsätzliche Problem des nicht-objektiven Jetzt wird damit nicht aufgelöst.

In der Fortsetzung 1b von Teil 1 habe ich dann versucht, die Darlegung der Position von Kenneth George Denbighs Buch „An Inventive Universe“ nachzuholen. Der interessante Punkt hier ist der Widerspruch innerhalb der Physik selbst: einerseits gibt es physikalische Theorien, die zeitinvariant sind, andere wiederum nicht. Denbigh erklärt diese Situation so, dass er die zeitinvarianten Theorien als idealisierende Theorien darstellt, die von realen Randbedingungen – wie sie tatsächlich überall im Universum herrschen – absehen. Dies kann man daran erkennen, dass es für die Anwendung der einschlägigen Differentialgleichungen notwendig sei, hinreichende Randbedingungen zu definieren, damit die Gleichungen gerechnet werden können. Mit diesen Randbedingungen werden Start- und Zielzustand aber asymmetrisch.

Auch würde ich hier einen Nachtrag zu Teil 1 der Relektüre einfügen: in diesem Beitrag wurde schon auf die zentrale Rolle des Gedächtnisses für die Zeitwahrnehmung hingewiesen. Allerdings könnte man noch präzisieren, dass das Gedächtnis die einzelnen Gedächtnisinhalte nicht als streng aufeinanderfolgend speichert, sondern eben als schon geschehen. Es ist dann eine eigene gedankliche Leistungen, anhand von Eigenschaften der Gedächtnisinhalte eine Ordnung zu konstruieren. Uhren, Kalender, Aufzeichnungen können dabei helfen. Hier sind Irrtümer möglich. Für die generelle Frage, ob die Vorgänge in der Natur gerichtet sind oder nicht hilft das Gedächtnis von daher nur sehr bedingt. Ob A das B verursacht hat oder nicht, bleibt eine Interpretationsfrage, die von zusätzlichem Wissen abhängt.

KAPITEL 2: DISSIPATIVE PROZESSE (54-64 …)

1. Anmerkung: bei der Lektüre des Buches merke ich, dass im Buch die Seiten 65 – 96 fehlen! Das ist sehr ungewöhnlich. Die Besprechung erfolgt also zunächst mal mit dem unvollständigen Text. Ich werde versuchen, doch noch einen vollständigen Text zu bekommen.

2. Eine Argumentationslinie in diesem Kapitel greift jene physikalischen Theorien auf, die bezüglich der Zeit invariant sind. Reversibilität von Prozessen, Konservierung (z.B. von Energie) und Determiniertheit sind Begriffe, die untereinander zusammen hängen. (vgl.S.58) Eine solche ’statische‘ Theorie ist die klassische (newtonsche) Mechanik.

3. Denbigh sieht einen Zusammenhang zwischen diesem stark idealisierenden Denken, das sich an etwas ‚Festem‘ orientiert, an etwas, das bleibt, etwas, das sich konserviert, und der griechischen Denktradition, die die Grundlagen allen Wandels in den unveränderlichen Atomen entdeckten. Ein typisches Beispiel ist die chemische Reaktionsgleichung für die Umwandlung von Wasserstoff 2H_2 und Sauerstoff O_2 in Wasser 2H_2O. Die Bestandteile werden hier als unveränderlich angenommen, nur ihre Anordnung/ ihr Muster ändert sich.

4. Diesem Hang zur Verdinglichung des Denkens über die Realität steht aber die ganze Entwicklung der physikalischen Erkenntnis entgegen: die scheinbar unteilbaren Atome setzen sich aus Partikeln zusammen, und die Partikel wiederum sind umwandelbar in Energie. Materie und Energie wurden als äquivalent erkannt. Die Gesamtheit von Energie-Materie mag konstant sein, aber die jeweiligen Zustandsformen können sich ändern.

5. Der Ausgangspunkt für die Entdeckung des Begriffs Entropie war die Ungleichheit in der Umwandlung von mechanischer Energie in Wärme und umgekehrt. (vgl. S.60f) Viele solcher Asymmetrien wurden gefunden. Während eine Richtung funktioniert, funktioniert die andere Richtung höchstens partiell. (vgl. S.62) Solche höchstens partiell reversible Prozesse sind dissipativ Prozesse. Und diese Eigenschaft, die den Unterschied in der Umwandelbarkeit charakterisiert, wurde Entropie [S] genannt. Sie kommt generell Systemen zu. Liegen zwei Systeme A und B vor, so drückt die Gleichung S_B >= S_A für t_B > t_A aus, dass für alle Zeitpunkt von B (T_B) nach dem aktuellen Zeitpunkt die Entropie von B (S_B) entweder gleich oder größer ist als die von A. Die Entropie kann also nicht abnehmen, sondern nur gleich bleiben oder zunehmen.

6. Das Besondere an der Entropie ist, dass die Entropie zunehmen kann, obwohl die Energie insgesamt konstant bleibt. (vgl. S.63f) [Anmerkung: Dies deutet implizit darauf hin, dass es unterschiedliche ‚Zustandsformen‘ von Energie gibt: solche in denen Energie lokal verfügbar ist, um Umwandlungsprozesse zu ermöglichen, und solche, in denen Energie lokal nicht mehr verfügbar ist. Die Nichtverfügbarkeit von Energie wäre dann gleichbedeutend mit maximaler Entropie. Die Nichtverfügbarkeit von Energie käme einer Unveränderlichkeit von Energie gleich. Ein schwieriger Begriff, da Energie als solche ‚Zustandslos‘ ist.]

7. Ferner deuten alle bekannten physikalischen Prozesse immer nur in eine Richtung: Zunahme von Entropie. (vgl. S.64)

8. … ab hier fehlt der Text im Buch ….

KAPITEL 3: FORMATIVE PROZESSE (…97 – 116)

9. Laut Inhaltsverzeichnis fehlen bei mir die ersten 7 Seiten vom dritten Kapitel.

10. Der Text startet mit dem Begriff der Organisation, den Denbigh als ein Konzept einstuft, das oberhalb der Elemente eines Systems liegt. Seine Einführung setzt voraus, dass man am Verhalten des Systems eine Funktion erkennt, die ein spezifisches Zusammenwirken der einzelnen Elemente voraussetzt. (vgl. S.98)

11. Zur Charakterisierung einer Organisation stellt Denbigh zwei zusätzliche Postulate auf. Einmal (i) sollen die einzelnen Elemente – bezogen auf die Gesamtleistung des Systems – nur eine begrenzte Fähigkeit besitzen, die erst im Zusammenspiel mit den anderen die Systemleistung ergibt, zum anderen (ii) müssen die Elemente untereinander verbunden sein.

12. Er führt dann die Begriffe Anzahl der Verbindungen [c] ein, Anzahl der Elemente ohne Kopien [n], sowie Anzahl der Elemente mit Kopien [N] ein. Die minimale Anzahl der Verbindungen wird mit N-1 gleichgesetzt, die maximale Zahl aller paarweisen Verbindungen (inklusive der Verbindungen der Elemente mit sich selbst) wird mit N * (N-1) angegeben. Die Anzahl c aller Verbindungen liegt also irgendwo zwischen N und N^2. Nimmt man das Produkt c x n, dann berücksichtigt man nur die unterscheidbaren Elemente ohne die Kopien.(vgl. S.100)

13. Damit konstruiert er dann den theoretischen Begriff der Zusammengesetztheit (‚integrality‘) [Anmerkung: man könnte hier auch von einer bestimmten Form der Komplexität sprechen] einer Organisation basierend auf ihren Elementen und ihren Verbindungen.

14. Denbigh referiert dann, dass im Bereich des Biologischen der Grad der Zusammengesetztheit der Nachkommen von biologischen Systemen zunimmt. (vgl. S.100) In diesem Zusammenhang sind Untersuchungen von von Neumann interessant. Im Versuch zu zeigen, ob und wie man Phänomene des Biologischen mit Automaten nachbauen könnte, kam von Neumann zu dem Resultat, dass die Ausgangssysteme eine kritische Größe haben müssen, damit ihre Nachkommen einen höheren Grad der Zusammengesetztheit haben können als die Elternsysteme. In seiner Untersuchung waren dies viele Millionen ‚Elemente‘. (vgl. S.100f)

15. Ein erster interessanter Befund ist, dass der Grad der Zusammengesetztheit unabhängig ist von den Konservierungsgesetzen der Physik. (vgl. S.102f) In einem isolierten Ei kann — nach Denbigh — der Grad der Zusammengesetztheit zunehmen ohne dass die Gesamtenergie sich ändert.

16. Allerdings ändert sich normalerweise die Entropie. Innerhalb des Eis mag die Entropie abnehmen, insgesamt aber erhalten biologische Systeme den Grad ihrer Zusammengesetztheit abseits eines Gleichgewichtszustands, was nur durch ständige Zufuhr von Energie möglich ist. Lokal nimmt die Entropie am/ im System ab, im Kontext mit der Umwelt, aus der die Energie entzogen wird, nimmt aber die Entropie zu. (vgl. S.103f)

17. [Anmerkung: Es fragt sich hier, ob es Sinn macht, von der ‚globalen‘ Entropie zu sprechen, da ja die Entropie der Teilbereiche ‚Umwelt‘ und ‚System‘ für sich unterschiedlich ist. Ein System mit ‚geringerer‘ Entropie ist eigentlich nicht vergleichbar mit einem System ‚höherer‘ Entropie.]

18. Denbigh schlussfolgert hier, dass die Änderungen der Entropie und der Grad der Zusammengesetztheit unabhängig voneinander sind. (vgl. S.104)

19. [Anmerkung: Dies erscheint zweifelhaft. Denn im Falle von biologischen Systemen bedeutet die Zunahme des Grads der Zusammengesetztheit notwendigerweise Verbrauch von Energie, die der Umgebung entzogen wird (Zunahme von Entropie) und dem System zugeführt wird (Abnahme der Entropie). Die Organisiertheit biologischer Systeme erscheint daher eher wie ein Entropie-Umwandler/ -Wandler/ -Transformator. Dies hat zu tun mit Zustandsformen von Energie: es gibt jene, die von biologischen Systemen umgewandelt werden kann und solche, die nicht umgewandelt werden kann.]

20. Denbigh führt dann das Symbol phi für den Grad der Zusammengesetztheit eines einzelnen Systems s_i ein und das Symbol PHI für die Summe aller einzelnen Systeme. (vgl. S.105f) Während der Grad der Zusammengesetztheit phi_i eines einzelnen Systems von der Geburt bis zum Tode zu- bzw. abnehmen kann, bildet die Summe PHI einen Querschnitt. Mit solch einem Maß kann man sowohl beobachten, dass PHI im Laufe der Zeit – abzgl. gewisser lokaler Schwankungen – generell zunimmt, zugleich auch die Zahl der Mitglieder der Population. (vgl. 106f) Zusätzlich zum Grad der Zusammengesetztheit des individuellen Systems mss man auch den Organisationsgrad der Systemumgebung berücksichtigen: Werkzeuge, Landwirtschaft, Verkehr, Rechtssysteme, Schrift, usw. (vgl. 107f) Nimmt insgesamt der Grad der Zusammengesetztheit zu, will Denbigh von einem Prozess der Formation sprechen.

21. Denbigh spekuliert auch darüber, ob man den Grad der Zusammengesetztheit dazu benutzen kann, um den Begriff der Kreativität ins Spiel zu bringen.

22. Ferner geht es um die Entstehung biologischer Systeme. Während für die Änderungen von organisatorisch einfachen Systemen die allgemeinen physikalischen Gesetze zur Beschreibung ausreichen, haben Organisationen mit einem höheren Grad von Zusammengesetztheit die Besonderheit, dass sehr spezifische Konstellationen vorliegen müssen, die für sich genommen extrem unwahrscheinlich sind. Im Fall biologischer Systeme ist die Entstehung bislang nicht klar und erscheint extrem unwahrscheinlich.

23. Ein Denkansatz wäre – nach Denbigh –, dass sich die Komplexität in kleinere Subprobleme delegieren lässt. (Vgl.S.110f) Dazu kommt die weitere Beobachtung/ Überlegung, dass sich im Falle von biologischen Systemen feststellen lässt, biologische Systeme dazu tendieren, die Ausgangslage für die Aggregation neuer Systeme immer weiter zu optimieren. (vgl.S.112f)

24. Stellt man eine Folge wachsender Organisiertheit auf (Denbigh nennt: Partikel – Atome – Moleküle – Zellen – Organismen), dann kann man nach Denbigh einen Zuwachs an Individualität und an Kontrolle beobachten bei gleichzeitiger Abnahme der Gesetzeskonformität; letzteres besagt, dass biologische Systeme je komplexer sie werden umso weniger direkt unter irgend ein physikalisches Gesetzt fallen. (vgl. S,114f)

25. Die Funktionen, die auf den jeweils höheren Ebenen der Organisation sichtbar werden, lassen sich nicht direkt aus den Komponenten der darunter liegenden Ebenen ableiten. Sie zeigen – hier zitiert Denbigh (Polanyi 1967) – etwas Neues. Dieses Auftreten von etwas Neuem verglichen mit den bisherigen Systemeigenschaften markiert nach (Polanyi 1967) einen Prozess, den er Emergenz nennt. Das neue Ganze ‚erklärt‘ die Teile, nicht umgekehrt. (vgl. S.116)

DISKUSSION

  1. Trotz der Behinderung durch die fehlenden Seiten (ein angeblich vollständiges Exemplar ist nachbestellt) bietet der Text von Denbigh doch spannende Stichworte, die unbedingt weiter verfolgt und geklärt werden müssen. Hier nur mal erste Notizen, damit diese Aspekte nicht untergehen.
  2. Das Zusammenspiel von Energie-Materie einerseits und Entropie andererseits wirft noch viele Fragen auf. Wenn man davon ausgeht, dass die Gesamtmenge der Energie-Materie konstant ist (was letztlich nicht wirklich klar ist; es ist eine Annahme!), man aber zugleich beobachten kann, dass die Energie-Materie unterschiedliche Zustände annehmen kann, was die Wahrscheinlichkeit von Veränderungen auf allen (?) Ebenen betrifft, so bedeutet dies, dass das Reden über Energie-Materie für uns Menschen letztlich nur interessant ist, sofern Energie-Materie sich messen lässt und im Messen mögliche Veränderungen zeigt. Eine unveränderliche und unmessbare Energie-Materie existiert für uns nicht.
  3. Was wir aber messen, das sind punktuelle Ereignisse in einem unbekannten riesigen Raum von Zuständen/ Ereignissen, der sich uns weitestgehend entzieht.
  4. Wenn wir nun feststellen, dass es Veränderungsphänomene gibt (Zerfallsprozesse, Partikelabstrahlungen, Wärmeaustausch, …), dann deutet dies darauf hin, dass Energie-Materie eine große Zahl von unterschiedlichen Zuständen einnehmen kann, von denen einige so sind, dass im Zustandswechsel endliche Energie-Materie-Mengen auf andere Zustände einwirken können und dabei – falls es sich um sogenannte biologische Systeme handelt – diese andere Zustände diese verfügbare Energie-Materie-Mengen für systeminterne Prozesse nutzen können.
  5. Obwohl der Begriff der Entropie in der Literatur viele unterschiedliche Bedeutungen besitzt (dem wird noch weiter nachzugehen sein), ist ein Bedeutungskern jener, dass die Verfügbarkeit von solchen endlichen Energie-Materie-Mengen damit beschrieben wird: maximale Entropie liegt vor, wenn keine Energie-Materie-Mengen verfügbar sind, und minimale Entropie entsprechend, wenn maximal viele Energie-Materie-Mengen verfügbar sind.
  6. Während sich im Universum Veränderungsprozesse auch unabhängig von biologischen Systemen beobachten lassen, so sind die biologischen Systeme im Kontext von Entropie dennoch auffällig: während Veränderungsprozesse im Universum abseits biologischer Systeme von minimaler zu maximaler Entropie zu führen scheinen (dissipative Prozesse, irreversible Prozesse, …), zeigen sich die biologischen Systeme als Entropie-Konverter! Sie kehren die Prozessrichtung einfach um: sie nutzen die Veränderungsprozesse von minimaler zu maximaler Entropie dahingehend aus, dass sie diese lokal für endliche Zeitspannen von einem Entropielevel X zu einem Entropielevel X-n konvertieren (mit ‚X-n‘ als weniger Entropie als ‚X‘).
  7. Für diese Prozessumkehr gibt es keine physikalischen Gesetze außer der zwielichtigen Gravitation. Im Gefüge der aktuellen physikalischen Theorien passt die Gravitation bislang nicht so recht hinein, macht sie doch genau das, was die biologischen Systeme im kleinen Maßstab vorexerzieren: die Gravitation zieht Energie-Materie-Mengen so zusammen, dass die Entropie abnimmt. Die dadurch entstehenden Energie-Materie-Konstellationen sind die Voraussetzungen dafür, dass Veränderungsprozesse – und damit biologische Systeme – stattfinden können (ist Gravitation jene innere ‚Feder‘, die ein Universum auf lange Sicht immer wieder soweit zusammen zieht, bis es zum nächsten BigBang kommt?).
  8. Folgt man der Idee von den biologischen Systemen als Entropie-Konvertern, dann wird interessant, wie man das Besondere an jenen Systemen charakterisiert, die wir biologisch nennen. Denbigh offeriert hier – offensichtlich stark beeinflusst von anderen Autoren, u.a. Michael Polanyi – das Konzept eines Systems, dessen Organisation durch Elemente (n,N), Beziehungen (c) und Systemfunktionen (f,…) beschreibbar ist. Je nach Anzahl und Dichte der Verschränkungen kann man dann Organisationsgrade (Komplexitätsstufen) unterscheiden. Diese Begrifflichkeit ist noch sehr grob (verglichen z.B. mit den Details in einem Handbuch über die biologischen Zellen), aber sie bietet erste Angriffsflächen für weitergehende Überlegungen.
  9. So stellt sich die Frage nach der Entstehung solch komplexer Systeme, die bis heute nicht klar beantwortet ist.
  10. So stellt sich die Frage nach der Entwicklung solcher Strukturen von einem einfacheren Zustand zu einem komplexeren: woher kommen die viel komplexeren Strukturen und speziell dann Systemfunktionen, die sich nicht aus den Bestandteilen als solchen herleiten? Das Wort Emergenz an dieser Stelle klingt gut, erklärt aber natürlich nichts.
  11. Faktisch beobachten wir entlang einer Zeitachse eine letztlich kontinuierliche Zunahme der Komplexität biologischer Systeme sowohl als individuelle Systeme wie aber auch und gerade im Zusammenspiel einer Population mit einer organisatorisch aufbereiteten Umgebung (Landwirtschaft, Städtebau, Technik allgemein, Kultur, …).
  12. Für alle diese – mittlerweile mehr als 3.8 Milliarden andauernde – Prozesse haben wir bislang keine befriedigenden theoretischen Modelle, die das Phänomen biologischer Systeme im Kontext der gesamten Naturprozesse plausibel machen. Die bisherigen naturwissenschaftlichen Theorien erscheinen für dieses komplex-dynamische Phänomen der biologischen Systeme zu einfach, zu primitiv. Das liegt zu großen Teilen möglicherweise auch daran, dass sich die meisten Naturwissenschaftler bislang schwer tun, die Phänomene des biologischen Lebens in ihren vollen Komplexität ernst zu nehmen. Möglicherweise wird dies dadurch erschwert, dass die traditionellen Geisteswissenschaften ebenfalls die Brücke zum naturwissenschaftlichen Zusammenhang noch nicht gefunden haben. Statt sich gegenseitig zu befruchten, grenzt man sich voneinander ab.
  13. Letzte Anmerkung: in zwei vorausgehenden Beiträgen direkt (und in weiteren indirekt) hatte ich auch schon mal Bezug genommen auf das Phänomen der Komplexitätsentwicklung biologischer Systeme (siehe: Randbemerkung: Komplexitätsentwicklung (Singularität(en)) und Randbemerkung: Komplexitätsentwicklung (Singularität(en)) – Teil 2. Die Formulierungen in meinen Beiträgen war etwas schwerfällig und noch wenig überzeugend. Mit dem Ansatz von Denbigh, Polanyi und anderen lässt sich dies sicher deutlich verbessern.

 

Fortsetzung folgt

QUELLEN

1. Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.
2. John von Neumann (1966), Theory of Self-Reproducing Automata, edited and completed by Arthur W.Burks, Urbana – London: University of Illinois Press
3. Michael Polanyi (1967), The Tacit Dimension, Routledge & Keagan Paul.
4. Michael Polanyi (1968) Life’s Irreducible Structure. Live mechanisms and information in DNA are boundary conditions with a sequence of boundaries above them, Science 21 June 1968: Vol. 160 no. 3834 pp. 1308-1312
DOI: 10.1126/science.160.3834.1308 (Abstract: Mechanisms, whether man-made or morphological, are boundary conditions harnessing the laws of inanimate nature, being themselves irreducible to those laws. The pattern of organic bases in DNA which functions as a genetic code is a boundary condition irreducible to physics and chemistry. Further controlling principles of life may be represented as a hierarchy of boundary conditions extending, in the case of man, to consciousness and responsibility.)
5. Michael Polanyi (1970), Transcendence and Self-Transcendence, Soundings 53: 1 (Spring 1970): 88-94. Online: https://www.missouriwestern.edu/orgs/polanyi/mp-transcendence.htm

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

HYSTERIE: NEIN, SOLIDARITÄT: JA – DAHINTER WARTET DIE WAHRHEIT

Zur Einstimmung: European Sound – There was a Time with more than three Colours of Souls Radically Unplugged Music vom 16.Januar 2015

HYSTERIE UND SOLIDARITÄT DIESER TAGE

Die Anschläge auf das französische Satiremagazin Charlie Hebdo am Mi, den 7.Januar 2015 hat eine Solidaritätsreaktion in Frankreich und weltweit ausgelöst, wie sie Frankreich selbst so noch nie erlebt hatte. Zugleich gab es vermehrt Angriffe auf muslimische und jüdische Einrichtungen, die zu großen Verunsicherungen und realen Ängsten bei jenen Franzosen geführt haben, die damit eigentlich gar nichts zu tun haben.

NICHT WIRKLICH NEU

Das Attentat von Charlie Hebdo am 7.Januar 2015 steht nicht alleine. Mindestens seit dem 11.Sept.2001 in New York gab und gibt es terroristische Anschläge in vielen Ländern, die Entsetzen, Unverständnis und – in extremer Form – Hass hervorgerufen haben, die politischen Reaktionen veranlassten, immer mehr Kontrolle, Verstärkung von Ängsten, und auch eine deutliche Verstärkung von Feindbildern.

ALLGEMEINE VERUNSICHERUNG

Solche Attentate finden in einer Zeit statt, in der sich viele Ländern, speziell auch die westlichen, in einer spürbaren allgemeinen Verunsicherung befinden, nicht wegen den Terroristen, sondern allein schon wegen ihrer eigenen Prozesse, die immer komplexer geworden sind, immer unübersichtlicher; wo die Wissensexplosion die Wissenschaften in ihrem Kern bedroht; wo die bekannten politischen Prozesse täglich erfahrbar den Eindruck erwecken, als ob sie die Nöte, Bedürfnisse und Erwartungen der Wähler nicht mehr erkannt und tatsächlich berücksichtigt werden. Wo Lobbyisten anscheinend die Kontrolle über viele Politiker bekommen haben. Wo komplizierte gesellschaftliche Probleme tendenziell eher ‚ausgesessen‘ anstatt konstruktiv gelöst werden. Wo die meisten Medien kurzfristig – und kurzsichtig? — sich dem Geschäft der tagesnahen ‚Belustigung des Publikums‘ verschrieben zu haben scheinen, 24 Stunden täglich eine Art ‚Gehirnwäsche mit Müllinhalten‘, die wenig geeignet sind, einen klaren Blick auf die laufenden gesellschaftlichen Prozesse zu unterstützen.

VEREINFACHUNG ALS VERSUCHUNG

Vor diesem Hintergrund und in dieser Situation ist es nachvollziehbar, das nicht wenige Menschen das tun, was jedem Menschen als Verhaltensreaktion quasi angeboren ist: zu vereinfachen. Es gehört zur Überlebensstrategie des Menschen, dass sein Gehirn versucht, die vielfältigen eindrücke zu ‚ordnen‘, dadurch zu ‚vereinfachen‘, und damit die Welt lebbare zu machen. Wie weit die ‚Verarbeitungstiefe‘ solcher Vereinfachungen reichen, ist zeitabhängig (wie lange kann man sich mit einem Problem beschäftigen) und wissensabhängig (wie viel weiß man schon, um neue Ereignisse einsortieren zu können). So gesehen gab es schon immer Vereinfachungstendenzen. Davon lebt jede Propaganda, die Werbeindustrie, der Unterhaltungsindustrie, und die Fundamentalisten in jeder bekannten Religion sind auch nicht neu. In der radikalen Version eines Fundamentalisten hat sich die Vereinfachung aber so verfestigt, abgeschottet, dass eine Änderung der Anschauungen nahezu ausgeschlossen scheint; Fundamentalismus ist eine Art geistiger Kurzschluss: alles, was eine Modifizierung, Korrektur des aktuellen Weltbildes verursachen könnte, ist geächtet. Wären es nicht Menschen, die solche Haltungen einnehmen können, würde man von ‚Robotern‘ sprechen, obgleich jeder ‚echte‘ Roboter eine grundsätzliche Lernfähigkeit besitzen würde, …

ERNST NEHMEN

Eine häufig zu beobachtende Reaktion von Menschen zu anderen Menschen, die erkennbare Vereinfachungen nach außen zeigen ist ‚lächerlich machen‘, ‚Verunglimpfen‘, ‚Beschimpfen‘, ‚Verachten‘, ’nieder machen‘ und dergleichen mehr. Dies verstärkt nicht nur die Haltung der anderen, sondern zeigt auch eine gewisse Form der Hilflosigkeit bei denen, die auf solche Vereinfacher treffen. Im Falle von ‚fundamentalistischen Vereinfachern‘ ist in der Tat schwer zu sehen, was man tun kann außer sich der eigenen Mehrheit in Solidarität zu versichern. Doch die wirklich harten fundamentalistischen Vereinfachern sind in der Regel eher deutliche Minderheiten. Die große Mehrheit der Vereinfacher weiß es normalerweise einfach nicht besser; ihnen fehlen Informationen; ihnen fehlt Wissen; ihnen fehlen Medien und Politiker, die sie ernsthaft und sachkundig ‚aufklären‘, die vernünftig und ruhig informieren, die zuverlässig sind und reales Vertrauen aufbauen können.

LEICHEN IM KELLER

In ‚ruhigen‘ Zeiten, wo alles ’seinen Gang‘ geht, muss man nicht viel nachdenken, benötigt man keine spezielle Kommunikation. Jeder redet das, was alle erwarten. Nimmt aber die Komplexität zu, zeigen sich Veränderungen, entstehen Verunsicherungen durch Änderungen der Abläufe, nimmt die Vielfalt zu wegen Durchdringung, dann entsteht zunehmend der Bedarf nach Verständigung, nach Erklärung. In diesem Moment kann es sich rächen, wenn man in der Vergangenheit Probleme ‚unter den Teppich‘ gekehrt hat, wenn man in der Vergangenheit keine ‚echte Diskussionskultur‘ praktiziert hat, wenn man in der Vergangenheit die Medien in Schrottkanäle verwandelt hat, wenn die Politiker sich angewöhnt haben, ihre Wähler nur noch wahltaktisch zu sehen und zu behandeln.
In Frankreich z.B., wissen alle seit Jahren, dass die Vorstädte in ihrer Struktur und Funktionalität eine vollständige Fehlplanung waren, dass sie in ihrem Format und mit ihrer ‚Belegung‘ mit problemintensiven Gruppen das ‚Unheil‘ geradezu in Reinform gleichsam ‚züchten‘, ‚ausbrüten‘. Aber niemand hat dagegen etwas getan. Diese Vorstädte waren – und sind – tickende soziale Zeitbomben; wenn in manchen Bereichen der Gesellschaft, Menschen der Gesellschaft Schaden zufügen, dann werden sie dafür u.U. zur Verantwortung gezogen. Alle jene, die diese unseligen Vorstädte geplant und gebaut haben, wurden bislang nicht zur Verantwortung gezogen. Welcher der Planer und Erbauer würde freiwillig 5 Jahre in so einem Wohngebiet wohnen? Wenn dann einige wenige junge Menschen von vielen Zehntausenden, die dazu Grund hätten, ihre Verzweiflung in unmenschliche Taten umsetzen ist die Aufregung groß, aber alle haben Jahrelang zugesehen, wie Menschen durch solche Lebensverhältnisse geradezu ‚gezüchtet‘ werden…

WAS DIE GESCHICHTE UNS SAGEN KÖNNTE

Wagt man einen Blick zurück in die Geschichte, dann findet man zu allen Zeiten Eroberungen, Wanderungsbewegungen, Transformationsprozesse, und speziell Europa als Ganzes (Morgenland und Abendland!) war schon immer reich, um nicht zu sagen überreich an Vielfalt von Ethnien, Kulturen, Gebräuchen und Sprachen. Und Europa als Ganzes hat es erstaunlich oft geschafft, über große Zeiträume (z.B. griechisch-römische Kultur ca. 500 Jahre, arabisch-islamische Kultur ca. 700 Jahre) nicht nur Frieden zu realisieren, sondern zugleich auch Toleranz, Bildung, Gesundheit, Infrastrukturen, Wohlstand, Weiterentwicklung auf allen Ebenen. Die Kernelemente waren immer eine Toleranz für eine Koexistenz unterschiedlicher Weltanschauungen und eine umfassende Bildung aller Schichten, nicht nur für Eliten. Dies war der ‚Schmierstoff‘, der alle anderen Prozesse ermöglicht hat. Die größten Bedrohungen und Behinderungen waren immer Verabsolutierungen einzelner Anschauungen und gesellschaftsfeindliche Konzentration von Besitz (sehr massiv in diesem Sinne die römische Papstkirche zwischen 500 und ca. 1500, oder all jene absolutistischen Monarchen, die eine Spaltung zwischen Eliten und der Restbevölkerung betrieben).

So gesehen sind die ‚Zutaten‘ zu einer blühenden Gesellschaft sehr einfach: reale Toleranz, Rechtssicherheit, massive Bildung, funktionierende Infrastrukturen, darin eingebettet Handel und Wirtschaft. Dann sind alle zufrieden, jeder gibt sein Bestes.

ANFANGEN KANN MAN IMMER

Egal in welchem Zustand sich eine Gesellschaft gerade befindet: es wird immer Menschen brauchen, viele Menschen, die die entscheidenden ‚Leitbilder‘ ‚vor Augen‘ haben und sich für ihre Verwirklichung einsetzen, auf allen Ebenen, an allen Orten. Ohne diese ‚Visionäre des guten Lebens‘ geht gar nichts.

Ein weit verbreiteter Irrglauben ist, dass es die Religionen sind, die uns in solchen Fragen helfen können. Die Geschichte lehrt uns eindeutig, dass es auf keinen Fall die Religionen sind, die uns helfen, eine blühende Gesellschaft zu realisieren. Die römische Papstkirche z.B. hat über fast 1000 Jahre demonstriert, dass sie Menschen und allgemeines Wissen verachtet, staatliche Einrichtungen nahezu völlig zerstört hat, und eine elitäre feudalistische Gesellschaft gefördert hat, die die westlichen europäischen Staaten (das Abendland) nahe an den Abgrund gebracht hat. Hätte es zur gleichen Zeit nicht die hochstehende arabisch-islamische Kultur gegeben, die das griechisch-römische Erbe nicht nur aufgegriffen, sondern beeindruckend weiter entwickelt und gepflegt hätten, wer weiß, was aus Europa dann geworden wäre. Der spätere Zerfall der arabisch-islamischen Kultur zeigt aber auch, dass es nicht der Islam als solcher ist, der eine blühende Gesellschaft garantiert, sondern dass es die Kombination eines Islam war mit einer Aufgeschlossenheit für Bildung und Wissen für alle gepaart mit allen zugänglichen leistungsfähigen Infrastrukturen eingebettet in eine dominante Toleranz, die es Menschen aller Hautfarbe und Anschauung ermöglichte, ein freies, kreatives und produktives Leben zu führen.

GUT UND BÖSE, WAHR UND FALSCH

Innerhalb des allgemeinen Bedürfnisses der Menschen, ihre Welt zu ‚verstehen‘, die Ereignisse ‚einordnen‘ zu können (‚Vereinfachen‘!), gibt es auch das mindestens so starke Bedürfnis – oder ist es einfach Teil vom Wunsch nach dem Verstehen? –, zu wissen, was ‚richtig‘ ist, was ‚wahr‘ und was ‚falsch‘ ist bzw. was ‚gut‘ und ‚böse‘ ist.

In Diskussionen zu diesem Thema kann man – was jeder bestimmt schon mal selbst erlebt hat – schnell in wildeste Gespräche geraten bei denen am Ende keiner mehr so richtig weiß, was ist denn jetzt ‚wahr‘, ‚falsch‘ …. und man bleibt dann vorsichtshalber erst mal wieder bei dem, was man immer schon gewusst hat.

Nun dürfte jedem klar sein, dass ein Urteil über ‚Gut – Böse‘, ‚Wahr – Falsch‘ jeweils irgendein Kriterium K voraussetzt, anhand dessen man entscheiden kann, trifft eher das eine oder eher das andere zu. Wenn man z.B. weiß, was es heißt, dass die ‚Sonne scheint‘, dann kann man normalerweise natürlich feststellen, ob die Aussage ‚Die Sonne scheint jetzt‘, ‚zutrifft‘, also ‚wahr‘ ist, oder nicht zutrifft, also ‚falsch‘ ist. Desgleichen: wenn man sich in einer sozialen Gruppe darauf geeinigt hat, was ‚Stehlen‘ ist und dass dies in der ozialen Gruppe nicht vorkommen soll, dann können alle Mitglieder der Gruppe nach bedarf entscheiden, ob ein Mitglied der Gruppe ‚etwas gestohlen‘ hat oder nicht. Ist es wahr, dass jemand etwas gestohlen hat, dann ist dies nach dem Verständnis der Gruppe ‚Böse‘; trifft es zu (ist es wahr), dass das Mitglied nicht gestohlen hat, dann ist dies im Verständnis der Gruppe ‚Gut‘.

‚Wahrheit‘ und ‚Falschheit‘ sind in diesem Sinne entscheidbare Sachverhalte, die die Basis für unsere Weltbetrachtung bilden. ‚Gut‘ und ‚Böse‘ sind ‚Wertvorstellungen‘ von sozialen Gruppen, die – sofern sie verstehbar sind – dazu verwendet werden können, innerhalb einer sozialen Gruppe das gemeinsame Verhalten zu ‚regeln‘. Die Anwendung von Gut-Böse-Regeln setzt die Möglichkeit der Wahrheitsfindung voraus: liegen tatsächlich die Sachverhalte vor, die im Sinne von Gut-Böse bewertet werden sollen.

Gut-Böse-Regeln sind so gesehen gemeinsame Verhaltensnormen, Verhaltensregeln, können auch ‚Gesetze‘ genannt werden, kann man als ‚Moral‘ einer Gruppe verstehen oder als ‚ethische Dimension‘.

DER MISSBRAUCHTE GOTT

Solange solche Regeln in einer überschaubaren Gruppe praktiziert werden, sind sie für alle verstehbar, nachvollziehbar, und letztlich sogar diskutierbar, da sich ja u.U. die Lebensverhältnisse ändern, so dass bestimmte Regeln unter den neuen Bedingungen gar keinen Sinn mehr machen. Solche ‚offene‘ Normensystem sind lebenswichtig für eine Gruppe und zugleich produktiv-kreativ; sie werden den Umständen angepasst.

Werden solche sozialen Gruppen größer, so groß, dass nicht mehr alle miteinander reden können, dass man sich nicht mehr kennt, dann wird eine Verständigung über solche wichtigen Verhaltensnormen schwierig, eventuell so schwierig, dass man neue Mechanismen benötigt, um sie ‚abzusichern‘.

Das sogenannte Alte Testament als Teil der christlichen Bibel (und dann auch die Thorah der Juden) liefert zahllose Beispiele dafür, wie Verhaltensregeln, die zunächst nur für bestimmte lokale Gruppen/ Stämme galten, irgendwann (aufgrund von Wanderungen und Eroberungen) auch für weitere Gruppen gelten sollten. Das Mittel der Wahl war dann die Berufung auf ein ‚höheres Wesen‘, auf ‚Gott‘. Da scheinbar jeder Mensch eine gewisse Neigung hat, an ein höheres Wesen zu glauben, zugleich dieser ‚Gott‘ nicht weiter definiert ist, konnten soziale Anführer relativ leicht den individuellen unspezifischen Gottesglauben dazu benutzen, um ihn mit den jeweiligen Regelsystemen zu verknüpfen, die gerade sozial-politisch oder aufgrund bestimmter partikulärer Machtinteressen ‚gewollt‘ waren. Dass es im Alten Testament mehrere verschiedene solche Regelsysteme nebeneinander gab und gibt, zeigt nur die historische Bedingtheit all dieser Vorstellung (dies macht das Alte Testament zum Verstehen der Geschichte interessant). Wie man historisch feststellen kann, war dieses Vorgehen der Verknüpfung eines historisch gewachsenen Regelsystems mit einem unspezifischen Gottesglauben sozial erfolgreich. es ermöglichte größere komplexe soziale Gruppen auf der Basis eines gemeinsamen Regelsystems. Dieses ‚magische‘ Modell der Normenbildung hatte und hat nur den Nachteil, dass die Verhaltensnormen fortan nicht mehr offen von allen diskutierbar waren. Da die Regeln ihrer menschlichen Herkunft jetzt entrückt waren und den Status von ‚Gottes Wort‘ erlangt hatten, waren sie entweder ‚ewig‘ oder aber, es gab eine ‚Sonderklasse‘ von Menschen, die ‚Gottesmittler‘ die, obgleich sie Menschen waren, irgendwie, auf geheimnisvolle Weise, doch mehr wussten als normale Menschen (Propheten, Priester, Seher…). Die Geschichte zeigt klar, wie allzu menschlich all diese ‚Gottesmittler‘ in allen Jahrhunderten waren. Zugleich sieht man, wie solche der Realität enthobenen Regelsysteme im Laufe der zeit immer befremdlicher, immer obskurer wirken. während die Welt sich weiter verändert, die Gesellschaften sich aufgrund ihrer Aktivitäten weiter entwickeln, bleiben die künstlich festgefrorenen Regelsysteme ’starr‘, passen immer weniger, werden immer unverständlicher.

Man muss es Ganz-Europa hoch anrechnen, dass es nicht nur die drei größten Offenbarungsreligionen (Judentum, Christentum und Islam) ‚erfunden‘ hat – was als große kulturelle Leistung zu betrachten ist –, sondern zugleich auch die ‚Weiterentwicklung‘ der Offenbarungsreligion in Form des religionsfreien Staates mit einer religionsfreien Wissenschaft.

Im Konzept der religionsfreien Wissenschaft wurden die Regelsysteme wieder ‚zurückgeholt‘ aus der Sphäre der Unkontrollierbarkeit und verankert im Hier und Jetzt, wurden die Menschen wieder Herr ihrer eigenen Regeln, wurden Regeln wieder ‚kritisierbar‘, konnte man menschlich aufgestellte Regeln wieder ändern, wenn die Wirklichkeit ihnen entgegen stand. Und gestärkt durch die Erfolge der empirischen Wissenschaften gewannen auch wieder solche staatliche Regelsysteme Anerkennung und Gewicht, die wie das Griechische oder das Römische religionsfreie Regeln zur Praktizierung einer gemeinsamen und offenen Gesellschaft darstellten. Keine ‚Sonderwesen‘, keine ‚Sonderrechte‘, keine ‚Sonderwahrheiten‘ außerhalb der Kompetenz und Kontrolle der Menschen, die nach diesen Regeln leben wollen.

WAHRE RELIGION

Ist Religion damit überflüssig geworden?
Ein ganz klares NEIN!
Jetzt kann wahre Religion erstmalig anfangen.
Ganz-Europa steht vor seiner nächsten kulturellen Revolution: nach der Erfindung der Offenbarungsreligionen und des modernen, aufgeklärten Staates geht es jetzt um die wahre Religion aller Menschen in einer freien, und offenen Gesellschaft, in der Wissen offen und transparent ist, in der alle Menschen gleich sind, in der der Wohlstand für alle da ist.

Anmerkung: Dieser Beitrag kam nur zustande, weil ich mich zuvor mit dem Buch von Bergmeier Christlich-abendländische Kultur – eine Legende: Über die antiken Wurzeln, den verkannten arabischen Beitrag und die Verklärung der Klosterkultur auseinander setzen konnte, dazu auch das Gespräch in der philosophieWerkstatt v2.0 vom 11.Januar 2015.

Wer noch etwas Zeit übrig hat …. der kann folgende RUM-Komposition anhören:

Heh – Where are You?.

Es handelt sich um ein Stück das die Situation des Autors cagent schildert … und damit stellvertretend die Situation jedes einzelnen Menschen, der versucht, in Kommunniaktion zu treten. Das Artikulieren von ‚Innenleben‘ heisst nicht automatisch, dass es eine Rückmeldung gibt… die dunkle Einsamkeit ist ein Moment einer sich aufbauenden Gemeinsamlkeit in Verschiedenheit…

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

Seit einiger Zeit melde ich die Beiträge des Blogs auch bei Twitter an. Das Pseudonym ist @cagentartist und hat als Erkennungsbild einen originalen Schneemann aus Finnland, gebaut von einer Freundin. Ein Schneemann hat viele Ähnlichkeiten mit uns Menschen 🙂

FREIHEIT DIE ICH MEINE – ÜBERLEGUNGEN ZU EINER PARTEIINTERNEN DISKUSSION DER GRÜNEN

1. Bevor ich gleich ein wenig auf die wichtigsten Beiträge der Mitgliederzeitschrift ‚Schrägstrich‘ (Ausgabe Juli 2014) der Grünen eingehe, hier einige Vorüberlegungen zu den gedanklichen Koordinaten, innerhalb deren ich diese Beiträge rezipiere. Im wesentlichen handelt es sich bei diesen gedanklichen Koordinaten um jene, die ich hier im Blog bislang ansatzweise skizziert habe. Hier in einer komprimierten Form wichtige Elemente, die dann im weiteren Verlauf nach Bedarf präzisiert werden:

Aus Sicht des einzelnen: Woher? Was tun? Wohin?
Aus Sicht des einzelnen: Woher? Was tun? Wohin?

2. Ausgangspunkt des Koordinatensystem ist jeder einzelne von uns, der sich täglich konkret die Frage stellen muss, was an diesem Tag zu tun ist. Die Frage, woher man selbst kommt spielt bei den meisten in der Regel keine Rolle, höchstens soweit, dass aus der unmittelbaren Vergangenheit irgendwelche ‚Verpflichtungen‘ erwachsen sind, die in die Gegenwart hineinwirken (negatives oder positives Vermögen, erlernte Fähigkeiten, erworbenes Wissen, gewachsene Beziehungen, …). Wohin wir gehen wollen ist bei den meisten auch nur schwach ausgeprägt (Die Alltagsnotwendigkeiten stehen im Vordergrund: seine Verpflichtungen erfüllen, die Arbeitsanforderungen, den Unterhalt für das tägliche Leben, persönliche und soziale Erwartungen durch Beziehungen und Zugehörigkeiten, ein Ausbildungsziel erreichen, eine höhere Position in der Karriereleiter, …..). Übergreifende Ziele wie Erhaltung bestimmter Systeme (Ausbildung, Gesundheit, Infrastrukturen, …) sind meistens ‚delegiert‘ an Institutionen, die dafür ‚zuständig‘ sind, auf die man nur sehr begrenzt Einfluss nehmen kann. Dennoch gibt es nicht wenige, die sich in Vereinigungen engagieren, die spezifische soziale Räume aufspannen (Sport, Kleingärtner, Chöre, Parteien, Gewerkschaften, …), in denen sie ihr individuelles Handeln mit anderen verbünden.

Jeder nur als Teil einer Population in einem physikalischen Rahmen mit chemischer, biologischer und kultureller Evolution. Erfolg ist kurzfristig oder nachhaltig
Jeder nur als Teil einer Population in einem physikalischen Rahmen mit chemischer, biologischer und kultureller Evolution. Erfolg ist kurzfristig oder nachhaltig

3. Beginnt man seine eigene Situation zu analysieren, dann wird man nicht umhin kommen, festzustellen, dass man als einzelner als Mitglied einer größeren Population von Menschen vorkommt, die über unterschiedlichste Kommunikationsereignisse miteinander koordiniert sind. Das tägliche Leben erweist sich als eingebettet in einen gigantischen realen Raum, von dem man unter normalen Umständen nur einen winzigen Ausschnitt wahrnimmt. Schaut man genauer hin, dann sind wir das Produkt einer komplexen Geschichte von Werden im Laufe von vielen Milliarden Jahren. Eingeleitet durch die chemische Evolution kam es vor ca. 3.8 Milliarden Jahren zur biologischen Evolution, die dann vor – schwierig zu definieren, wann Kultur und Technik genau anfing – sagen wir ca. 160.000 Jahren mit einer kulturellen Evolution erweitert wurde. Technik sehe ich hier als Teil der kulturellen Leistungen. Eine Erfolgskategorie ist die des schieren Überlebens. Innerhalb dieser Kategorie macht es einen Unterschied wie ‚lange‘ eine Population überhaupt lebt (‚kurz‘ oder ‚lang‘). Die Frage ist nur, welche ‚Zeiteiheiten‘ man hier anlegen will, um ‚kurz‘ oder ‚lang‘ zu definieren. Aus der Perspektive eines einzelnen Menschen können ‚Jahre‘ schon sehr lang sein und ‚Jahrzehnte‘ können wie eine Ewigkeit wirken. Aus Sicht einer ‚Generation‘ sind 30 Jahre ’normal‘, 10 Generationen (also ca. 300 Jahre) sind eine Zeiteinheit, die für einzelne schon unvorstellbar sein mögen, die aber gemessen an dem Alter so mancher Arten von Lebewesen mit vielen Millionen oder gar hunderten von Millionen Jahren (die Dinosaurier beherrschten das Ökosystem von -235 bis -65 Mio, also 170 Mio Jahre lang!) nahezu nichts sind.

4. Das komplexeste bis heute bekannte Lebewesen, der homo sapiens, jene Art, zu der wir gehören, ist bislang ca. 160.000 Jahre alt (natürlich mit langer Vorgeschichte). Biologisch betrachtet ist diese Zeitspanne nahezu ein ‚Nichts‘. Insofern sollte man nicht zu früh sagen ‚Wer‘ bzw. ‚Was‘ der ‚Mensch‘ als ‚homo sapiens‘ ist. Wir leben in einem Wimpernschlag der Geschichte und wenn wir sehen, welche Veränderungen die Art homo sapiens in kürzester Zeit über die Erde gebracht hat, dann sollten wir genügend biologische Fantasie entwickeln, um uns klar zu machen, dass wir eher ganz am Anfang einer Entwicklung stehen und nicht an deren Ende.

Mensch als Teil des Biologischen hat Technik als Teil von Kultur hervorgebracht: Generisch oder arbiträr. Technik ist effizient oder nicht
Mensch als Teil des Biologischen hat Technik als Teil von Kultur hervorgebracht: Generisch oder arbiträr. Technik ist effizient oder nicht

5. Der homo sapiens ist ganz wesentlich Teil eines größeren komplexen biologischen Systems von unfassbarer ‚Tiefe‘, wo alles ineinander greift, und wo der homo sapiens aufgrund seiner Leistungsfähigkeit aktuell dabei zu sein scheint, trotz seiner kognitiven Möglichkeiten seine eigenen biologischen Voraussetzungen zu zerstören, ohne die er eigentlich nicht leben kann (Umweltverschmutzung, Ausrottung vieler wichtiger Arten, Vernichtung der genetischen Vielfalt, …).

6. Die erst langsame, dann immer schneller werdende Entwicklung von leistungsfähigen und immer ‚effizienteren‘ Technologien eingebettet in einen ‚kulturellen Raum‘ von Zeichen, Formen, Interpretationen, Normen, Regelsystemen und vielerlei Artefakten zeigt eine immense Vielfalt z.T. ‚arbiträrer‘ Setzungen, aber auch einen harten Kern von ‚generischen‘ Strukturen. ‚Generisch‘ wäre hier die Ausbildung von gesprochenen und geschriebenen Sprachen; ‚arbiträr‘ wäre die konkrete Ausgestaltung solcher Sprachen: welche Zeichensysteme, welche Laute, welche Anordnung von Lauten oder Zeichen, usw. So sind ‚Deutsch‘, ‚Arabisch‘, ‚Russisch‘ und ‚Chinesisch‘ alles Sprachen, mithilfe deren sich Menschen über die Welt verständigen können, ihre gesprochene und geschriebene Formen weichen aber extrem voneinander ab, ihre Akzent- und Intonationsstrukturen, die Art und Weise, wie die Zeichen zu Worten, Sätzen und größeren sprachlichen Strukturen verbunden werden, sind so verschieden, dass der Sprecher der einen Sprache in keiner Weise in der Lage ist, ohne größere Lernprozesse die andere Sprache zu verstehen.

7. Bei der Entwicklung der Technologie kann man die Frage stellen, ob eine Technologie ‚effizienter‘ ist als eine andere. Nimmt man den ‚Output‘ einer Technologie als Bezugspunkt, dann kann man verschiedene Entwürfe dahingehend vergleichen, dass man z.B. fragt, wie viele Materialien (erneuerbar, nicht erneuerbar) sie benötigt haben, wie viel Energie und Arbeitsaufwand in welcher Zeit notwendig war, und ob und in welchem Umfang die Umwelt belastet worden ist. Im Bereich der Transporttechnologie wäre der Output z.B. die Menge an Personen oder Gütern, die in einer bestimmten Zeit von A nach B gebracht würden. Bei der Technologie Dampfeisenbahn mussten Locks und Wagen hergestellt werden, Gleise mussten hergestellt und verlegt werden; dazu mussten zuvor geeignete Trassen angelegt werden; ein System von Signalen und Überfahrtregelungen muss für den reibungslosen Ablauf sorgen; dazu benötigt man geeignet ausgebildetes Personal; zum Betrieb der Locks benötigte man geeignete Brennstoffe und Wasser; die Züge selbst erzeugten deutliche Emissionen in die Luft (auch Lärm); durch den Betrieb wurden die Locks, die Wagen und die Schienen abgenutzt. usw.

8. Ein anderes Beispiel wäre die ‚Technologie des Zusammenwohnens auf engem Raum‘, immer mehr Menschen können heute auf immer kleineren Räumen nicht nur ‚überleben‘, sondern sogar mit einem gewissen ‚Lebensstandard‘ ‚leben‘. Das ist auch eine Effizienzsteigerung, die voraussetzt, dass die Menschen immer komplexere Systeme der Koordinierung und Interaktion beherrschen können.

Das Herz jeder Demokratie ist eine funktionierende Öfentlichkeit. Darüber leitet sich die Legislative ab, von da aus die Exekutive und die Judikative. Alles muss sich hier einfügen.
Das Herz jeder Demokratie ist eine funktionierende Öfentlichkeit. Darüber leitet sich die Legislative ab, von da aus die Exekutive und die Judikative. Alles muss sich hier einfügen.

9. Im Rahmen der kulturellen Entwicklung kam es seit ca. 250 Jahren vermehrt zur Entstehung von sogenannten ‚demokratischen‘ Staatsformen (siehe auch die z.T. abweichenden Formulierungen der englischen Wikipedia zu Democracy). Wenngleich es nicht ‚die‘ Norm für Demokratie gibt, so gehört es doch zum Grundbestand, dass es als primäre Voraussetzung eine garantierte ‚Öffentlichkeit‘ gibt, in der Meinungen frei ausgetauscht und gebildet werden können. Dazu regelmäßige freie und allgemeine Wahlen für eine ‚Legislative‘ [L], die über alle geltenden Rechte abstimmt. Die Ausführung wird normalerweise an eine ‚Exekutive‘ [E] übertragen, und die Überwachung der Einhaltung der Regeln obliegt der ‚Judikative‘ [J]. Die Exekutive gewinnt in den letzten Jahrzehnten immer mehr Gewicht im Umfang der Einrichtungen/ Behörden/ Institutionen und Firmen, die im Auftrag der Exekutive Aufgaben ausführen. Besonderes kritisch waren und sind immer Sicherheitsbehörden [SICH] und das Militär [MIL]. Es bleibt eine beständige Herausforderung, das Handeln der jeweiligen Exekutive parlamentarisch hinreichend zu kontrollieren.

Oberstes Ziel ist es, eine Demokratie zu schüzen; was aber, wenn die Sicherheit zum Selbstzweck wird und die Demokratie im Innern zerstört?
Oberstes Ziel ist es, eine Demokratie zu schüzen; was aber, wenn die Sicherheit zum Selbstzweck wird und die Demokratie im Innern zerstört?

10. Wie es in vielen vorausgehenden Blogeinträgen angesprochen worden ist, erweckt das Beispiel USA den Eindruck, dass dort die parlamentarische Kontrolle der Exekutive weitgehend außer Kraft gesetzt erscheint. Spätestens seit 9/11 2001 hat sich die Exekutive durch Gesetzesänderungen und Verordnungen weitgehend von jeglicher Kontrolle unabhängig gemacht und benutzt das Schlagwort von der ’nationalen Sicherheit‘ überall, um sowohl ihr Verhalten zu rechtfertigen wie auch die Abschottung des Regierungshandelns durch das Mittel der auswuchernden ‚Geheimhaltung‘. Es entsteht dadurch der Eindruck, dass die Erhaltung der nationalen Sicherheit, die als solche ja etwas Positives ist, mittlerweile dazu missbraucht wird, das eigene Volk mehr und mehr vollständig zu überwachen, zu kontrollieren und die Vorgänge in der Gesellschaft nach eigenen machtinternen Interessen (auf undemokratische Weise) zu manipulieren. Geheimdienstaktionen gegen normale Bürger, sogar gegen Mitglieder der Legislative, sind mittlerweile möglich und kommen vor. Der oberste Wert in einer Demokratie kann niemals die ‚Sicherheit‘ als solche sein, sondern immer nur die parlamentarische Selbstkontrolle, die in einer funktionierenden Öffentlichkeit verankert ist.

GRÜNES GRUNDSATZPROGRAM VON 2002

11. Bei der Frage nach der genaueren Bestimmung des Freiheitsbegriffs verweist Bütikofer auf SS.7ff auf das Grüne Grundsatzprogramm von 2002, das in 3-jähriger Arbeit alle wichtigen Gremien durchlaufen hatte, über 1000 Änderungsanträge verarbeitet hat und einer ganzen Vielzahl von Strömungen Gehör geschenkt hat. Schon die Präambel verrät dem Leser, welch großes Spektrum an Gesichtspunkten und Werteinstellungen Berücksichtigung gefunden haben.

12. Im Mittelpunkt steht die Würde des Menschen, der sehr wohl auch als Teil einer umfassenderen Natur mit der daraus resultierenden Verantwortung gesehen wird; der Aspekt der Nachhaltigkeit allen Handelns wird gesehen. Grundwerte und Menschenrechte sollen Orientierungspunkte für eine demokratische Gesellschaft bilden, in der das Soziale neben dem Ökonomischen gleichberechtigt sein soll. Diese ungeheure Spannweite des Lebens impliziert ein Minimum an Liberalität, um der hier waltenden Vielfalt gerecht zu werden.

13. Die Freiheit des einzelnen soll einerseits so umfassend wie möglich unterstützt werden, indem die gesellschaftlichen Verhältnisse immer ein Maximum an Wahlmöglichkeiten bereit halten sollten, zugleich muss die Freiheit aber auch mit hinreichend viel Verantwortung gepaart sein, um die jeweiligen aktuellen Situationen so zu gestalten, dass Lebensqualität und Nachhaltigkeit sich steigern.

ENGAGIERTE POLITIK vs. LIBERALISMUS UND FREIHEIT?

14. Reinhard Loske wirft auf SS.10ff die Frage auf, ob und wie sich eine ökologisch verpflichtete Politik mit ‚Liberalismus‘ vereinbaren könnte. Natürlich wäre ein unbeschränkter ‚wertfreier‘ Liberalismus ungeeignet, da sich dann keinerlei Art von Verantwortung und einer daraus resultierenden nachhaltigen Gestaltung ableiten ließe. Doch muss man dem Begriff des Liberalismus historisch gerecht werden – was Loske im Beitrag nicht unbedingt tut – , denn in historischer Perspektive war ein liberales Denken gerade nicht wertfrei, sondern explizit orientiert am Wert des Individuums, der persönlichen Würde und Freiheit, das es gegenüber überbordenden staatlichen Ansprüchen zu schützen galt, wie auch übertragen auf das wirtschaftliche Handeln, das hinreichend stark zu schützen sei gegenüber ebenfalls überbordenden staatlichem Eingriffshandeln das tendenziell immer dazu neigt, unnötig viel zu reglementieren, zu kontrollieren, ineffizient zu sein, Verantwortung zu nivellieren, usw.

15. Zugleich ist bekannt, dass wirtschaftliches Verhalten ohne jegliche gesellschaftliche Bindung dazu tendiert, die Kapitaleigner zu bevorteilen und die abhängig Beschäftigten wie auch die umgebende Gesellschaft auszubeuten (man denke nur an das Steuerverhalten von Konzernen wie z.B. google, amazon und Ikea).

16. Es muss also in der Praxis ein ‚Gleichgewicht‘ gefunden werden zwischen maximaler (wertgebundener) Liberalität einerseits und gesellschaftlicher Bindung andererseits. Doch, wie gerade die hitzigen Debatten um die richtige Energiepolitik in Deutschland und Europa zeigen, sind die Argumente für oder gegen bestimmte Maßnahmen nicht völlig voraussetzungslos; je nach verfügbarem Fachwissen, je nach verfügbaren Erfahrungen, ja nach aktueller Interessenslage kommen die Beteiligten zu unterschiedlichen Schlüssen und Bewertungen.

17. Loske selbst erweckt in seinem Beitrag den Eindruck, als ob man so etwas wie einen ‚ökologisch wahren Preis‘ feststellen kann und demzufolge damit konkret Politik betreiben kann. Angesichts der komplexen Gemengelage erscheint mir dies aber als sehr optimistisch und nicht wirklich real zu sein. Wenn man in einer solch unübersichtlichen Situation unfertige Wahrheiten zu Slogans oder gar Handlungsmaximen erhebt und gar noch versucht, sie politische durchzudrücken, dann läuft man Gefahr, wie es im letzten Bundeswahlkampf geschehen ist, dass man vor dem Hintergrund einer an sich guten Idee konkrete Maßnahmen fordert, die nicht mehr gut sind, weil sie fachlich, sachlich noch nicht so abgeklärt und begründet sind, wie es der Fall sein müsste, um zu überzeugen. Dann besteht schnell die Gefahr, mit dem Klischee der ‚Ideologen‘, ‚Fundamentalisten‘, ‚Oberlehrer‘ assoziiert zu werden, obgleich man doch so hehre Ziele zu vertreten meint.

OBERLEHRER DER NATION – NEIN DANKE

18. Im Eingangsartikel SS.4ff stellt Katharina Wagner genau diese Frage, ob verschiedene während des Wahlkampfs angekündigten konkrete Maßnahmen nicht genau solch einen Eindruck des Oberlehrerhaften erweckt haben, als ob die Grüne Partei trotz ihrer großen Werte und Ziele letztlich grundsätzlich ‚anti-liberal‘ sei. Doch bleibt ihre Position unklar. Einerseits sagt sie sinngemäß, dass sich das grüne Programm auf Freiheit verpflichtet weiß, andererseits verbindet sie die ökologische Verantwortung mit der Notwendigkeit, auch entsprechend konkrete und verpflichtende Maßnahmen zu ergreifen. So hält sie z.B. Verbote im Kontext der Gentechnik für unumgänglich. Müssen die Verbote nur besser kommuniziert werden? Gibt es verschiedene ‚Formen‘ von Regeln in einer Skala von ‚gusseisern‘ bis ‚freundliche Einladung‘?

19. Ich finde diese Argumentation unvollständig. Ihr mangelt der Aspekt – genauso wie im Beitrag von Loske –, dass das Wissen um das ‚ökologisch Angemessene‘ in der Regel höchst komplex ist; unser Wissen um die Natur, die komplexen Technologien ist in der Regel unfertig, kaum von einzelnen alleine zu überschauen und in ständiger Weiterentwicklung. Absolut klare und endgültige Aussagen hier zu treffen ist in der Regel nicht möglich. Zwar ist es verständlich, dass das politische Tagesgeschäft griffige Formeln benötigt, um Abstimmungsmehrheiten zu erzeugen, aber dieser Artefakt unseres aktuellen politischen Systems steht im direkten Widerspruch zur Erkenntnissituation und zu den Erfordernissen einer seriösen Forschung ( Mittlerweile gibt es viele Fälle, wo die Politik erheblichen Druck auf die Wissenschaft ausgeübt hat und ausübt, damit auch genau die Ergebnisse geliefert werden, die politisch gewünscht sind; das ist dann nicht nur kontraproduktiv sondern sogar wissenschaftsfeindlich, anti-liberal und auf Dauer eine massive Gefährdung unser Wissensbasis von der Welt, in der wir leben).

20. Eine politische Partei wie die der Grünen, die sich der ökologischen Dimension unserer Existenz verpflichtet wissen will, muss meines Erachtens, um ihre Glaubwürdigkeit zu wahren, weniger darauf bedacht sein, umfassende Vereinfachung durchzudrücken, sondern gerade angesichts der Verpflichtung für das Ganze massiv die wissenschaftlichen Erforschung der Phänomene unterstützen und den sich daraus ergebenden Ansätzen in ihrer ganzen Breite und Vielfalt Raum geben. Dazu müssten viel mehr Anstrengungen unternommen werden, das relevante Wissen öffentlich transparent zu sammeln und so aufzubereiten, dass es öffentlich diskutiert werden könnte. Alle mir bekannten Texte greifen immer nur Teilaspekte auf, betrachten kurze Zeiträume, vernachlässigen Wechselwirkungen, geben sich zu wenig Rechenschaften über Unwägbarkeiten und Risiken. So vieles z.B. an den Argumenten gegen Kernenergie und Gentechnik richtig ist, so fatal ist es aber, dass damit oft ganze Gebiete tabuisiert werden, die als solche noch viele andere Bereiche enthalten, die für eine ökologische Zukunft der Menschheit möglicherweise überlebenswichtig sind.

21. Kurzum, das ‚Oberlehrerhafte‘ und ‚Anti-Liberale‘ erwächst nicht automatisch aus einer Maßnahme als solcher, sondern daraus, wie sie zustande kommt und wie sie sachlich, wissensmäßig begründet ist. In einer komplexen Welt wie der unsrigen, wo die Wissenschaften selbst momentan eine akute Krise der Konsistenz und Qualität durchlaufen, erscheint es nicht gut, mangelndes Wissen durch übertriebenen Dogmatismus ersetzen zu wollen.

FREIHEIT UND GERECHTIGKEIT

22. Die zuvor schon angesprochene Komplexität findet sich ungebremst auch in dem Gespräch zwischen Dieter Schnaas, Kerstin Andreae und Rasmus Andresen (vgl. SS.8f). Hier geht es um maximal komplexe Sachverhalte zwischen verschiedenen sozialen Gruppen, Beschäftigungsverhältnissen, Einkommensstrukturen, Besteuerungssystemen, Versorgungssystemen, Umverteilung, Bildungsprozessen, Wirtschaft im allgemeinen wie auch unterschiedlichen Unternehmensformen und Wirtschaftsbereichen. Diese komplexen Begriffe auf nur zwei Seiten zu diskutieren erscheint mir unangemessen. Schon eine einigermaßen Definition jedes einzelnen dieser Begriffe würde Seiten benötigen.

23. In diesem Bereich griffige Parolen zu formulieren ist zwar eine anhaltende Versuchung und Herausforderung für jeden Politiker, aber dies ist in meinen Augen zum Scheitern verurteilt. Was immer man parolenhaft vereinfachend propagieren möchte, man wird mehr Kollateralschäden anrichten als wenn man das System zunächst einmal sich selbst überlassen würde. Beteiligte Bürger sind in der Regel in der Lage, Schwachstellen des gesellschaftlichen Systems zu erkennen, vorausgesetzt, man lässt diese zu Wort kommen. Und in der Regel wissen auch alle Beteiligte recht gut, in welche Richtung Lösungsansätze gesucht werden müssten, vorausgesetzt, man führt einen realen Dialog, transparent, undogmatisch, mit den notwendigen unterstützenden wissenschaftlichen Exkursen. Die ‚herrschenden‘ Parteien zeichnen sich hingegen bislang überwiegend dadurch aus, dass sie im Kern Lobbypolitik machen, die sie nur notdürftig mit allgemeinen Floskeln kaschieren. Im Prinzip hat die Partei der Grünen sehr gute strukturelle – und motivationale – Voraussetzungen, eine solche transparente, basisdemokratische, wissenschaftlich unterstütze Lösungsfindung zu propagieren und zu praktizieren, wenn sie etwas weniger ‚Oberlehrer‘ sein würde und etwas mehr ‚passionierter Forscher‘ und ‚kreativer Lösungsfinder‘.

WIDER DIE KONTROLLGESELLSCAFT

24. Das Thema ‚Abhören‘ ist zwar seit dem Sommer 2013 mehr und mehr im Munde aller, aber selten übersteigt die Diskussion den rein technischen Charakter des Abhörens oder führt über das bloße Lamentieren hinaus. Selbst die Bundesregierung zusammen mit den einschlägigen Behörden hat bis zu den neuesten Äußerungen der Bundeskanzlerin zum Thema wenig Substanzielles gesagt; im Gegenteil, die politische Relevanz wurde extrem herunter gespielt, die Brisanz für eine zukünftige demokratische Gesellschaft in keiner Weise erkannt.

25. Vor diesem Hintergrund hebt sich der Beitrag von Jan Philipp Albrecht (vgl. SS.6f) wohltuend ab. Er legt den Finger sehr klar auf die Versäumnisse der Bundesregierung, macht den großen Schaden für die deutsche und europäische Industrie deutlich, und er macht u.a. auch auf das bundesweite Sicherheitsleck deutlich, dass durch die Verwendung von US-amerikanischer Software in allen wichtigen Behörden und Kommunen besteht, von der man mittlerweile weiß, dass diese Software schon beim Hersteller für die US-amerikanische Geheimdienste geschützte Zugänge bereit halten. Albrecht macht die Konsequenzen für die Idee einer demokratisch selbstbestimmten Gesellschaft deutlich.

26. Was auch Albrecht nicht tut, ist, einen Schritt weiter zu gehen, und den demokratischen Zustand jenes Landes zu befragen – die USA –, aus dem heraus weltweit solche massenhaft undemokratischen Handlungen bewusst und kontinuierlich geplant und ausgeführt werden. Sind die USA noch minimal demokratisch? Müssen wir uns in Deutschland (und Europa) als Demokraten nicht auch die Frage stellen, inwieweit wir eine Verantwortung für die US-Bevölkerung haben, wenn ihre Regierung sich anscheinend schrittweise von allem verabschiedet, was man eine demokratische Regierung nennen kann? Wie können wir über Demokratie in Deutschland nachdenken, wenn unsere Partner Demokratie mindestens anders auslegen, wie wir? Diese – und weitergehende – transnationale politische Überlegungen fehlen mir in der Debatte der Grünen völlig. Wir leben nicht auf einer Insel der Seeligen. Was heißt ökologische Verantwortung auf einem Planeten, der zu mehr als 50% aus Staaten besteht, die nicht als demokratisch gelten, wobei ja selbst die sogenannten demokratischen Staaten vielfache Mängel aufweisen. Wie sollen wir z.B. die Umwelt schützen, wenn die meisten anderen Staaten keinerlei Interesse haben? usw.

FAZIT

27. Klar, die vorausgehenden Überlegungen sind sehr kursorisch, fragmentarisch. Dennoch, so unvollkommen sie sind, will man sich heute in der kaum überschaubaren Welt als einzelner eine Meinung bilden, hat man keine andere Möglichkeit, als die verschiedenen Gesprächsangebote aufzugreifen und sie mit den eigenen unvollkommenen Mitteln für sich versuchen, durchzubuchstabieren. Am Ende steht gewöhnlich keine neue Supertheorie, sondern – vielleicht – ein paar zusätzliche Querbeziehungen, ein paar neue Eindrücke, der eine der andere neue Aspekt, an dem es sich vielleicht lohnt, weiter zu denken.

28. Jeder, der heute nicht alleine vor sich hin werkeln will, braucht Netzwerke, in denen er ‚Gleichgesinnte‘ findet. Ich selbst bin zwar seit vielen Jahren offizielles Mitglied der Grünen, habe aber bislang – aus Zeitgründen – nahezu nichts gemacht (außer dass ich viele meiner FreundeInnen bewundert habe, die auf kommunaler Ebene konkrete Arbeit leisten). In den nächsten Jahren kann ich mich möglicherweise politisch mehr bewegen. Dies sind erste Annäherungsversuche, um zu überprüfen, ob und wieweit die Partei der Grünen ein geeignetes Netzwerk sein könnte, um politisch ein klein wenig mehr ‚zu tun‘. Allerdings verstehe ich mich primär als Philosoph und Wissenschaftler und ich würde den Primat des Wissens niemals aufgeben, nur um ‚irgendetwas zu tun‘ ….

Einen Überblick über alle bisherigen Blogeinträge nch Titeln findet sich HIER.

ZWISCHENREFLEXION: DEMOKRATIE – MEHR ALS NUR EIN WORT!

Letzte Änderungen (als Kommentar): 9.Sept.2013

1) In den letzten Wochen der Lektüre und Reflexionen zum Thema USA – Demokratie – Missbrauch von Demokratie – emergente Komplexität – Zukunft des Lebens auf der Erde habe ich nicht nur eine neue Nähe zu diesem alten Thema bekommen, sondern — vielleicht muss ich dies so direkt sagen — fast habe ich das Gefühl, dass ich überhaupt zum ersten Mal meine zu erahnen, welch ungeheuerliche Errungenschaft demokratische Gesellschaftsformen im Laufe der Evolution waren.
2) Für alle, die in Demokratien leben oder gar darin aufgewachsen sind, besteht allerdings immer die Gefahr, sich an das Wunderbare so zu gewöhnen, dass man es irgendwie gar nicht mehr wahrnimmt, es wird zum Alltag, ein Grau in Grau, in dem alltägliche Ereignisse die Wahrnehmung anfüllen und die ermöglichende Hintergründe verschwinden, verblassen, unwirklich werden, bis dahin, dass irgendwann niemand mehr so richtig weiß, dass man tatsächlich in einer Demokratie lebt; dass man noch versteht, was es bedeutet, in einer Demokratie zu leben, und welch ungeheure Prozesse in der Vergangenheit notwendig waren, dass es dazu kommen konnte.
3) Und es ist genau der Alltag, in dem sich einerseits der ‚Sinn von Demokratie‘ ‚erfüllt‘, indem die Menschen in einer Demokratie in einer Weise frei leben können, wie sie es in keinem anderen Gesellschaftssystem können; zum anderen ist es aber auch diese Freiheit — gerade dann, wenn sie zur ‚Normalität‘ wird — die in gewisser Weise Ertauben und Erblinden lässt für das Kostbare an ihr. Solange man genug zu Essen und zu Trinken hat wird man sich kaum darum kümmern, wo Essen und Trinken herkommt; erst wenn das Wasser knapp wird, wenn Essen ausbleibt, fängt man an, danach zu suchen. Dann kann es zu spät sein. Ohne Wasser kein Essen, ohne Essen kein Leben. Dann fehlt auch die Kraft zu allem anderen.
4) Neben der ‚Gewohnheit‘ schlechthin, die alle Gehirne einlullt (ob Reich oder Arm, ob ‚einfach‘ oder ‚gebildet‘, ob ‚machtfern‘ oder ‚machtvoll‘), sind es die Eigenart von Institutionen, die jedes Mitglied durch ihre Rollen und Regeln in ihren Bann ziehen. Davor ist keine Institution gefeit. Selbst eine ’staatliche‘ Einrichtung, die von ihrer juristischen Begründung her, dem ‚Staat dienen‘ soll, kann einem Staat nur in dem Masse dienen, wie ihre Mitglieder auch in der Weise ‚denken‘ und ‚fühlen‘, wie sie ihrem staatlichen Auftrag entspricht. Wie die Geschichte uns lehrt, gibt es zwischen dem ‚Auftrag‘ und dem ‚Denken‘ und ‚Fühlen‘ keinen Automatismus; das Handeln und das Selbstverständnis von Mitgliedern jeder Institution kann sich sehr weit von dem entfernen, was mit dem Auftrag gemeint ist. Und wenn die Leiter oder ‚Chefs‘ von Institutionen schon ’schiefliegen‘ (was sehr schnell der Fall sein kann), dann kann dies eine Institution sehr direkt und sehr schnell ‚prägen‘.
5) Da alle Institutionen diese Sollbruchstelle ‚Irrtum‘, ‚Fehlinterpretation‘, ‚unkritische Gewohnheiten‘ usw. besitzen, würde eine Demokratie versuchen, eine maximale Transparenz zwischen allen Institutionen herzustellen, Verfahren einrichten, die bewusst mit Irrtümern rechnen und die es erlauben, Irrtümer zu korrigieren. Dem steht die ’natürliche Eigentendenz‘ von Institutionen und ihren ‚Gewohnheiten‘ entgegen, sich ‚abzuschotten‘, da die Mitglieder von Institutionen ihre Arbeit und ihren Lebensunterhalt genau der Existenz dieser Institution verdanken. Je weniger Alternativen sie für sich sehen, umso mehr werden sie ‚ihre‘ Institution ’schützen‘. Alle ‚Abweichler‘ sind bedrohlich, alle ‚Neuerer‘ gefährlich! Transparenz und Erfolgskontrollen werden als ‚feindlich‘ interpretiert.
6) Diese ‚Selbstverliebtheit‘ von Institutionen ist unabhängig von ethnischen, ideologischen, politischen oder sonstigen Randbedingungen; es sind wir Menschen selbst mit unseren Bedürfnissen und Ängsten, die wir uns mit Institutionen ’solidarisieren‘, wenn wir den Eindruck haben, sie helfen uns.
7) In einer Demokratie braucht es genauso Institutionen wie in jeder anderen Gesellschaftsform. Während aber in einer Nicht-Demokratie Institutionen ausschließlich an den jeweiligen ‚Machthabern‘ und ‚Geldgebern‘ ausgerichtet sind (bei Beachtung der starken Eigeninteressen), ist in einer Demokratie eine Institution zwar auch dem ‚juristischen Auftraggeber‘ verpflichtet, daneben aber auch und nicht zuletzt der Bevölkerung, dem diese Institution ‚dienen‘ soll. Das schafft eine höhere Verantwortung, stellt eine größere Herausforderung dar, verlangt mehr von allen Beteiligten. Demokratische Gesellschaften setzen immer und überall ‚freie Bürger‘ voraus, die sich den grundlegenden Werten verpflichtet fühlen.
8) Und damit wird deutlich, wo die primäre Schwachstelle jeder Demokratie — wie aber auch letztlich jeder menschlichen Vereinigung — liegt: der ‚freie‘ und ‚wertebewusste‘ Bürger fällt nicht einfach so vom Himmel, er muss ‚entstehen‘ durch langwierige Lernprozesse, die nie aufhören. Er muss lernen, sich eine eigene Meinung zu bilden, die wirklichkeitsbezogen (= wahr) ist und zugleich ‚kritisch‘ in dem Sinne, dass er/sie weiß, warum er/sie das so sieht; er/sie hat Begründungen, kann begründen, kann Fragen stellen und kann Antworten finden.
9) Doch im Alltagsgeschäft — siehe die vielen früheren Blogeinträge –, in dem jeder um seinen Lebensunterhalt kämpfen muss, ist der Raum und die Zeit für notwendige Informations-, Kommunikations- und Denkprozesse mehr als knapp. Faktisch lässt jeder auf irgendeine Weise vieles ‚von anderen Denken‘ im Vertrauen, dass diese es schon richtig machen…. und das erscheint fast unausweichlich angesichts der — selbst erzeugten — wachsenden Komplexität der Umwelt.
10) Und in dem Masse, wie jeder auf den anderen angewiesen ist, muss er darauf vertrauen können, dass der andere das ‚Richtige‘ meint und tut. Vertrauen ist eine Grundkategorie in modernen komplexen Gesellschaften — auch wenn Vertrauen per se keine Korrektheit oder Richtigkeit garantiert. Selbst wenn der andere, dem man vertraut, beste Absichten hat, kann er irren.
11) Und hier wird wiederum deutlich, dass eine funktionierende, transparente, qualitativ hochwertige Öffentlichkeit die wichtigste Schlagader jeder lebendigen Demokratie ist. Beginnt diese zu leiden, wird diese geschwächt, wird sie verzerrt und manipuliert, dann zerbricht eine Demokratie quasi an ‚inneren Blutungen‘. Alle Mitglieder einer Demokratie — einschließlich ihrer Institutionen — werden desintegriert und partikuläre Interessen gewinnen die Oberhand (vorzugsweise Geheimdienste und Militär verbunden mit jenen Unternehmen, die dadurch profitieren (Paradebeispiel der zweit Irakkrieg)).
12) In solchen ‚verzerrten‘ undemokratischen Situationen können nur außergewöhnliche Maßnahmen (wie z.B. die von Martin Luther King oder anderen politischen Bewegungen) helfen, das allgemeine Bewusstsein so zu beeinflussen, dass eine Mehrheit sich für die notwendigen demokratischen Werte bereit findet. Demokratie ohne entsprechenden Einsatz kann es auf Dauer nie geben. Ein demokratisches Bewusstsein entsteht nicht von selbst. Es muss sich anlässlich von Fragestellungen aktiv und öffentlich formen (in diesem Kontext sind z.B. Polizeikräfte, die Demonstranten nicht mehr als ‚Bürger‘ wahrnehmen und nicht als solche behandeln, keine ‚demokratischen‘ Kräfte mehr, genauso wenig jene, die sie befehligen).
13) Doch zurück zum Grundsätzlichen: wenn die biologische Evolution nun mal diese exponentiell wachsende Komplexität aus sich heraus gesetzt hat und wir wissen, dass es ein ‚Optimum‘ nur geben kann, wenn alle Beteiligten sich dem Prozess — letztlich auf ‚demokratische‘ Weise !!! — nicht ‚unterwerfen‘, sondern sich bewusst und verstehend und motiviert ‚einordnen‘, dann ist Demokratie nicht nur ein polit-technisches Problem der hinreichenden Kommunikation, sondern auch ein Problem der ‚Motivation‘, der ‚Werte‘, ja sicher auch eines der geeigneten ‚Spiritualität‘. Woher soll all die Motivation kommen? Wie soll jemand sich für eine ‚gemeinsame Sache‘ einsetzen, wenn viele wichtige Vertreter in der Öffentlichkeit — meist aus Dummheit — ‚Egoismus‘ predigen, ‚Gewalt‘ verherrlichen, ‚Misstrauen‘ sähen, und Ähnliches mehr.
14) Nah betrachtet kann man ja niemanden zu einer ‚demokratischen Gesinnung‘ zwingen; noch so viele Anregungen und Lernprozesse bleiben ‚unvollendet‘, wenn die betreffende Person ‚von sich aus‘ ’nicht will‘. Umgekehrt heißt dies, eine demokratische Überzeugung und ein bewusstes demokratisches Verhalten sind Persönlichkeitsmerkmale von großem Wert, die einem ‚Geschenk‘ an die Gesellschaft gleich kommen. Die Menschen der amerikanischen Unabhängigkeitserklärung, die vielen Menschen und Bewegungen weltweit, die sich für die Rechte der Menschen und eine menschliche Gesellschaft einsetzen, sind alle nicht ‚Geschickte‘, sondern aus eigenem Antrieb ‚Berufene‘ für eine bessere menschliche Gesellschaft, letztlich für uns alle. ‚Demokraten‘ sind Menschen, die sich ihrer ‚Menschlichkeit‘ im Kontext aller anderen Menschen — auf die eine oder andere Weise — ‚bewusst‘ geworden sind und die mit ihrem Leben dazu beitragen wollen, dass wir ‚gemeinsam‘ eine Zukunft als ‚Menschen auf dieser Erde‘ haben.
15) Alle wissenschaftliche Erkenntnisse deuten darauf hin, dass wir den aktuellen Komplexitätssprung der Evolution nur in dem Umfang werden bewältigen können, in dem wir es schaffen, möglichst viele Bereiche der Menschheit ‚von innen her‘ dazu zu befähigen, die alltäglichen Prozesse entsprechend zu gestalten. Die Zukunft ist in diesem Sinne nicht nur eine technologische Herausforderung, sondern auch — und vielleicht je länger um so mehr — eine ‚personale‘, ’spirituelle‘ Herausforderung. Die Moral, Ethiken, Verhaltensmuster, Machtspiele der Vergangenheit werden nicht ausreichen, um die nächste Hürde zu nehmen. Bislang haben wir ‚Heilige‘ und ‚Helden‘ gern ins Museum gestellt als die großen Ausnahmen, auf möglichst hohe Podeste, dass nur ja niemand auf die Idee kommen könnte, solches Verhalten mit dem Alltag zu nahe in Verbindung zu bringen. Aber die Wahrheit ist, wir brauchen dieses ‚Heroisch-Heilige‘ für jeden von uns, letztlich. Es ist nur nicht ganz klar, wie wir diese ‚von innen getriebene‘ Bewegung wirksam fördern können. Möglicherweise müssen wir das auch gar nicht, weil jeder von uns dies ja letztlich verkörpert. Er muss sich seiner nur ‚bewusst werden‘. Der ‚freie Mensch‘ ist etwas ‚Unverfügbares‘, ein Stück ‚wahrhafter Offenbarung‘, und jede Religion, jedes politische System muss sich daran messen lassen. Ein am Leben interessiertes System kann nur in dem Masse ‚gut‘ sein, als es ‚freie Menschen‘ zulässt und fördert.

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

PHILOSOPHIE TRIFFT DAS SNOWDON SYNDROM – Erste Notizen


(Unter twitter bei ‚cagentartist‘))

Letzte Änderung: 29.Juli 2013, 00:14h

THEMATISCHER RAHMEN BISHER

1) Dieser Blog widmet sich primär der Frage nach dem neuen Weltbild: wie können, bzw. dann auch, wie sollten wir unsere Welt und das Leben in ihr ‚deuten‘, wenn wir alles Wissen zusammen nehmen, was wir uns bislang erarbeitet haben. Es ist eine grundlegend philosophische Frage insofern im Blog die Philosophie als die allgemeinste und umfassendste Reflexionseinstellung identifiziert wurde, der man sämtliche andere Disziplinen zuordnen auch. Die ‚Kunst‘ gehört zur ‚Art und Weise‘, wie man philosophieren kann. Die ‚Theologie‘ ist eine spezialisierte Fragestellung innerhalb der Philosophie, und sie ist als ‚theologia naturalis‘ nicht beliebig sondern ‚unausweichlich‘ (was nicht impliziert, dass es so etwas wie einen ‚Schöpfergott‘ geben muss).
2) Im Laufe der vielen Einzelreflexionen hat sich bislang ein Bild vom Universum und der Welt herausgeschält, in dem der klassische Begriff von ‚Geist‘ und der von ‚Materie‘ immer mehr dahingehend aufgelöst wurden , dass man sie nicht mehr trennen kann. Zwar sind die Alltagsphänomene, die wir mit ‚Geist‘ verknüpfen, grundsätzlich verschieden von den Alltagsphänomenen, die wir mit ‚Materie‘ verknüpfen, aber die wissenschaftlichen Forschungen haben uns geholfen, die Makrophänomene des Alltags mehr und mehr von ihren Grundlagen her zu verstehen und sie in den Zusammenhang einer dynamischen Entwicklung zu setzen. In dieser Perspektive verschwimmen die Abgrenzungen und es wird deutlich, dass das im Alltag über Jahrtausende Getrennte einen inneren Zusammenhang aufweist, und letztlich sich in dem, was wir alltäglich ‚geistig‘ nennen, genau jene Eigenschaften zeigen, die die sogenannte ‚Materie‘ ausmachen. Mehr noch, wir konnten lernen, das Materie und ‚Energie‘ nur zwei verschiedene Zustandsformen ein und derselben Sache sind. Während man also – Einstein vereinfachend – sagen kann Energie ist gleich Materie, müsste man im Fall des Geistes sagen, das uns vom Geist Bekannte zeigt die ‚inneren‘ Eigenschaften der Energie-Materie an, was natürlich die Frage aufwirft, was man sich unter dem ‚Inneren‘ von Materie bzw. Energie vorzustellen hat. Aus der Mathematik – und dann aus der Physik, die die Mathematik als Sprache benutzt – kennen wir den Begriff der ‚Funktion‘ (andere Worte für das Gleiche: ‚Abbildung‘, ‚Operation‘, ‚Prozedur‘, ‚Programm‘, ‚Algorithmus‘,…).

BEGRIFF DER FUNKTION

3) Funktionen definiert man als spezielle Beziehungen zwischen ‚Mengen‘. Während Mengen für irgendwelche ‚Elemente‘ stehen, die man im empirischen Bereich mit irgendetwas Messbarem verknüpfen können muss, sind die Abbildungsbeziehungen, die durch eine Funktion beschrieben werden sollen, selbst keine Objekte, nicht direkt messbar! Eine Funktion ‚zeigt sich‘ nur indirekt ‚anhand ihrer Wirkungen‘. Wenn der berühmte Apfel Newtons zu Boden fällt, kann man ein Objekt beobachten, das seine Position im Raum relativ zum Beobachter verändert. Man bekommt sozusagen eine Folge (Serie, Sequenz, …) von Einzelbeobachtungen. In der Alltagssprache hat man diese Menge von Positionsveränderungen in der Richtung ‚von oben‘ (Sicht des Beobachters) nach ‚Unten‘ mit dem Verb ‚fallen‘ zusammengefasst. Der Apfel selbst mit seiner aktuellen Position fällt nicht, aber relativ zu einem Beobachter mit Gedächtnis, gibt es eine Folge von vielen Einzelpositionen, die es ermöglichen, den Begriff der ‚Veränderung‘ mit einer ‚Richtung‘ zu ‚konstruieren‘ und in diesem nur im Beobachter existierenden ‚Wissen‘ dann das Konzept des ‚Fallens‘ zu bilden und auf die Objekte der Alltagswelt anzuwenden. Ein Beobachter, der den Begriff ‚Fallen‘ gebildet hat, ’sieht‘ ab sofort ‚fallende Objekte‘ – obwohl natürlich kein einziges Objekt tatsächlich ‚fällt‘. Das Fallen ist eine Konstruktion und dann ‚Projektion‘ unserer geistigen Struktur im Umgang mit der Alltagswelt.
4) [Anmerkung: Möglicherweise werden an dieser Stelle viele sagen, dass dies doch ‚Unsinn‘ sei, da wir doch die Veränderung ’sehen‘. Und in der Tat ist es sehr schwer bis unmöglich, diese Analyse zu vollziehen, wenn man den Vorgang nicht rekonstruiert. Eine ideale Möglichkeit, solch eine ‚Analyse durch Synthese‘ vorzunehmen ist heute gegeben durch die Computersimulation von kognitiven Prozessen, allerdings nicht automatisch; man braucht natürlich schon eine passende Theorie. Bei dem Versuch, solche Prozesse nachzubauen sieht man sehr schnell, dass noch so viele Einzelbeobachtungen keinen komplexen Begriff ergeben; würde unser Gehirn die verschiedenen Positionen des Apfels nicht ’speichern‘ und zugleich wieder auch ‚erinnern‘ können, und diese einzelnen Erinnerungen zu einem komplexeren Konzept ‚zusammenbauen‘, und zwar so, dass aktuelle Beobachtungen als ‚zugehörig‘ zu dem neuen komplexen Begriff ‚entschieden werden können‘, wir könnten keine ‚Fallbewegung‘ erkennen. Wir würden immer nur einen Apfel sehen, der eben ‚da‘ ist. Die ‚Aufschlüsselung des ‚Daseins‘ in eine komplexe ‚Bewegung‘ setzt einen komplexen Erkenntnisapparat voraus, der dies ’sichtbar‘ macht. ]

WIRKLICHKEITSSTATUS EINER FUNKTION

5) Welchen Wirklichkeitsstatus sollen wir jetzt der Eigenschaft des Fallens zusprechen? Ist es eine reine ‚Einbildung‘, eine bloße ‚gedankliche Konstruktion des Gehirns‘, zwar gültig ‚im‘ Gehirn aber nicht ‚außerhalb‘ des Gehirns, also ‚gedacht = virtuell‘ und nicht ‚real‘ existierend (allerdings auch als Gedachtes ist es etwas real Existierendes, dessen ‚Begleitwirkungen‘ man als physikalische Prozesse im Gehirn partiell messen kann)? Allerdings, wenn sich im ‚Verhalten‘ eines Objektes der Außenwelt etwas – wenngleich durch durch ‚Zwischenschaltung eines Erkenntnisprozesses‘ – zeigt, so gilt, dass es sich nicht zeigen muss. Das, was wir ‚Empirisch‘ nennen, hat die Eigenschaft, dass es sich zeigen kann, auch wenn wir nicht wollen, und sich nicht zeigen kann, obwohl wir wollen. Das – für uns als Beobachter – Empirische ist das uns gegenüber ‚Widerständige‘, das sich unserer subjektiven Kontrolle entzieht. Die Zwischenschaltung von ‚Messprozessen‘ bzw. ‚Erkenntnisprozessen‘, die in sich ‚unveränderlich‘ sind, d.h. als eine Konstante in den verschiedenen Ereignissen betrachtet werden können, erlaubt damit das Wahrnehmen von ‚Empirischem‘, und dieses Empirische zeigt sich dann auch in ‚Veränderungsprozessen‘, die zwar nur ’sichtbar‘ werden durch komplexe Operationen, die aber unter Beibehaltung der ‚konstanten‘ Erkenntnisprozesse reproduzierbar sind und damit offensichtlich etwas vom ‚Anderen‘ enthüllen, eine implizite Eigenschaft, eine ‚emergente‘ Eigenschaft, die über das Einzelereignis hinausgeht.
6) Bekommt man auf diese Weise eine erste Ahnung davon, was eine ‚Funktion‘ ist und weiß man, dass nahezu alle wichtigen Eigenschaften der Natur mittels Funktionen beschrieben werden (in der Alltagssprache die ‚Verben‘, ‚Tätigkeitswörter‘), dann kann man vielleicht ahnen, was es heißt, dass das, was wir traditionellerweise ‚Geist‘ genannt haben, ausschließlich auf solche Eigenschaften zurückgeht, die wir mittels Funktionen beschreiben: Veränderungen, die stattfinden, die keinen ‚äußeren‘ Grund erkennen lassen, sondern eher den Eindruck erwecken, dass es ‚Faktoren/ Eigenschaften‘ im ‚Innern‘ der beteiligten Elemente gibt, die wir ‚postulieren‘, um zu ‚erklären‘, was wir sehen. Aristoteles nannte solch ein Denken ‚meta-physisch‘; die moderne Physik tut nichts anderes, nur sind ihre Bordmittel ein wenig ausgeweitet worden….

STRUKTURELLE KOMPLEXITÄT WÄCHST EXPONENTIELL

7) Zwar wissen wir mit all diesen Überlegungen immer noch nicht so richtig, was ‚Geist‘ denn nun ‚eigentlich‘ ist, aber wir konnten auch sehen, dass seit dem sogenannten ‚Big Bang‘ vor ca. 13.8 Milliarden Jahren die ’strukturelle Komplexität‘ (siehe die genauere Beschreibung in den vorausgehenden Blogeinträgen) des beobachtbaren Universums – entgegen allen bekannten physikalischen Gesetzen, insbesondere gegen die Thermodynamik – exponentiell zunimmt. Wir leben heute in einer Phase, wo die Beschleunigung der Komplexitätsbildung gegenüber den Zeiten vor uns ein Maximum erreicht hat (was nicht heißt, dass es nicht ’noch schneller‘ gehen könnte). Von den vielen Merkmalen der strukturellen Komplexitätsbildung hatte ich nur einige wenige herausgegriffen. Während der homo sapiens sapiens als solcher einen gewaltigen Sprung markiert, so ist es neben vielen seiner kognitiven Fähigkeiten insbesondere seine Fähigkeit zur Koordination mit den anderen Gehirnen, seine Fähigkeit zum Sprechen, zum Erstellen komplexer Werkzeuge, die Fähigkeit komplexe soziale Rollen und Strukturen einzurichten und zu befolgen, die überindividuelle Wissensspeicherung und der Wissensaustausch, die Erfindung des Computers und der Computernetzwerke, die das lokal-individuelle Denken ins scheinbar Unendliche ausgedehnt und beschleunigt haben.

ENDE DER NATIONALSTAATEN?

8) Fasst man alle diese Veränderungsphänomene zusammen, dann entsteht der Eindruck, als ob die Entwicklung des Lebens in Gestalt des homo sapiens sapiens auf einen neuen Entwicklungssprung hinausläuft, der sowohl eine massive Veränderung seines Körpers (durch Veränderung des Genoms) mit einschließt wie auch eine massive Veränderung in der Art des konkreten Lebens: so wie es ca. 2 Milliarden Jahre gedauert hat, bis aus den einzelnen Zellen organisierte Zellverbände gebildet haben, die hochdifferenzierte ‚Körper‘ als ‚Funktionseinheit‘ ausgebildet haben, so kann man den Eindruck gewinnen, dass wir uns in solch einer Übergangsphase von einzelnen Personen, kleinen Kommunen, Städten zu einem ‚globalen Organismus‘ befinden, in dem zwar jeder einzelne als einzelner noch vorkommt, wo aber die ‚Gesamtfunktion‘ immer größere Teile der Erdpopulation umfassen wird. Die Zeit der ‚Nationalstaaten‘ neigt sich dem Ende entgegen (ein paar tausend Jahre Übergangszeit wären in der Evolution weniger wie eine Sekunde; es spricht aber alles dafür, dass es erheblich schneller gehen wird)) .

FRAGEN DURCH DAS AKTUELL NEUE

9) Dies alles wirft ungeheuer viele Fragen auf, auf die wir bislang wohl kaum die passenden Antworten haben, woher auch. Antworten ergeben sich ja immer nur aus Fragen, und Fragen ergeben sich aus Begegnung mit etwas Neuem. Das neue geschieht ja erst gerade, jetzt.

KONTROLLE ODER KREATIVITÄT?

10) Wie schon in vorausgehenden Blogeinträgen angemerkt, gibt es unterschiedliche Stile, wie einzelne, Firmen und ganze Gesellschaften mit neuen Herausforderungen umgehen. Eine beliebte Form ist die ‚Kontrolle‘ anhand ‚bekannter‘ Parameter. Evolutionstheoretisch und aus Sicht des Lernens ist dies die schlechteste aller Strategien. Es ist der schnellste Weg zum Zusammenbruch des bisherigen Systems, speziell dann wenn es wenigstens ein konkurrierendes System gibt, das statt mit Kontrolle mit gesteigerter Kreativität, Kommunikation, und erneuerter Modellbildung reagieren kann. Die Wahrscheinlichkeit mit der zweiten Strategie neuere und bessere Antworten zu finden, ist um Dimensionen größer, wenngleich nicht ohne Risiko. Die Kontrollstrategie hat aber das größere Gesamtrisiko und führt fast unausweichlich zum Scheitern, während die Kreative Strategie partiell riskant ist, aber insgesamt – sofern es überhaupt eine Lösung gibt – diese finden wird. Die Kontrollstrategie ist emotional gekoppelt an ‚Angst‘, die Kreative Strategie an ‚Vertrauen‘. (In der Tradition der christlichen Spiritualität gibt es eine Grundregel, mittels der man erkennen kann, ob man sich in Übereinstimmung mit ‚Gott‘ befindet oder nicht: das Phänomen des ‚Trostes‘, der ‚Freude‘, der ‚Gelassenheit‘, des ‚Vertrauens‘, der ‚Angstfreiheit‘; d.h. wenn ich etwas tue, was in mir ‚real‘ (!) auf Dauer keinen ‚Trost‘ bewirkt, keine ‚Freude‘, keine ‚Gelassenheit‘, kein ‚Vertrauen‘, keine ‚Angstfreiheit‘, dann bewege ich mich nicht in die Richtung, die Gott von mir erwartet. Auch wenn man nicht an die Existenz eines ‚Gottes‘ glaubt, ist es interessant, dass die Kernelemente christlicher Spiritualität nahezu identisch sind mit den Kernelementen einer modernen mathematischen Lerntheorie, die für alle lernende System gilt, die auf der Erde überleben wollen).

DAS SNOWDON SYNDROM

11) Was hat dies alles mit dem ‚Snowdon Syndrom‘ zu tun? Warum ‚Syndrom‘? Ich verstehe unter ‚Syndrom‘ hier das Zusammenspiel vieler Faktoren, die einerseits einzeln zu wirken scheinen, andererseits aber vielfältig untereinander wechselwirken, sich gegenseitig beeinflussen. Und die Ereignisse ‚um Snowdon herum‘ erscheinen mir so als ein Netzwerk von Ereignissen, Äußerungen, Entscheidungen, die, bei näherer Betrachtung, sehr wohl Zusammenhänge erkennen lassen, die sich mit der Thematik des neuen Weltbildes berühren.
12) Innerhalb der letzten knapp vier Wochen (2.-27.Juli 2013) konnte ich 48 Artikel zum Snowdon Syndrom lesen, zwei Artikel aus dem Frühjahr 2012 habe ich nachgelesen. Dazu kam die eine oder andere Sendung im Radio und Fernsehen. Bedenkt man, wie wenig Zeit man täglich hat, überhaupt Zeitung zu lesen, ist das viel. Gemessen am Thema und seinen sachlichen Verästlungen ist es verschwindend gering. Die folgenden Gedanken sollten daher nur als Denkanstöße verstanden werden.

NETZÜBERWACHUNG REIN TECHNISCH

13) Auslöser für die vielen Artikeln und Beiträgen in den Medien waren die spektakuläre Reise von Snowdon nach Hongkong, seine Weitereise nach Moskau, sein dortiges bislang aufgezwungenes Verweilen, und natürlich seine Mitteilungen über Praktiken amerikanischer Geheimdienste, insbesondere der NSA, der National Security Agency. Viele behaupteten nach den ‚Enthüllungen‘, dass sich das ja eigentlich jeder hätte denken können, dass so etwas passiert, was zumindest für alle Informatikexperten gilt, und hier insbesondere bei jenen, die sich mit Netz- und Computersicherheit beschäftigen; die wissen seit vielen Jahren nicht nur, wie man in Netze und Computer eindringen und sie manipulieren kann, sondern auch, dass dies täglich in tausendfachen Formen geschieht. Akteure sind einmal kriminelle Organisation, die hier ein Eldorado zum Geldverdienen entdeckt haben, Teile davon sind Wirtschaftsspionage, anderes sind geheimdienstliche Aktivitäten für allerlei Zwecke, u.a. einfach zur ‚Absicherung der Macht‘ bestimmter Gruppen. Für diese Experten haben die Meldungen von Snowdon in der Tat nichts wirklich Neues gebracht, höchstens ein paar mehr Details zum Ausmaß der Aktivitäten der amerikanischen Regierung.
14) Ich würde hier auch gerne unterscheiden zwischen den ‚technischen‘ Aspekten von Datenausspähungen, Datenmanipulationen einerseits und den ’sozialen‘, ‚politischen‘, ‚kulturellen‘ und ‚ethischen‘ Aspekten andererseits. Rein technisch haben die Mitteilungen von Snowdon nichts Neues erbracht. Auch die verschiedenen Techniken, die sowohl Geheimdienste wie auch Netzfirmen wie Google, Facebook und Amazon (um die bekanntesten zu nennen) anwenden, aus einer großen Datenmenge (‚big data‘) solche ‚Informationen‘ zu extrahieren, die Hinweise auf spezielle Eigenschaften oder Trends bestimmter Personen und Personengruppen liefern, sind generell bekannt, werden an vielen Universitäten und speziellen Firmen dieser Welt gelehrt und entwickelt (dazu natürlich in vielen speziellen Labors vieler Staaten im Wahn, ein spezielles Labor könnte geheim etwas entwickeln, was die vielen Universitäten nicht könnten. Das ist eine grobe Täuschung. Würde man die Gelder der NSA in alle Universitäten umleiten, wäre der kreativ-produktive Effekt auf die Gesellschaft und Wirtschaft ein Vielfaches von dem, was jetzt stattfindet. Vielleicht sollten die anderen Staaten froh sein, dass die USA auf diese Weise einen Großteil ihres Kapital quasi ‚vernichten‘, da sonst die amerikanische Wirtschaft im Bereich Computer, Software und Netzwerke noch übermächtiger wäre…)).

NETZWERKE: JENSEITS DER TECHNIK

15) Was viele erregt und aufregt, liegt daher weniger im Bereich der verwendeten Technologien, sondern in den sozialen, kulturellen, ethischen und dann auch politischen Dimensionen, die sich mit dem immer mehr publik werden neuen Computer-Netz-Technologien und ihrer Nutzung verknüpfen.
16) Für die meisten wirkten sich die neuen Technologien zunächst darin aus, dass sie im Bereich alltäglicher Kommunikation und alltäglichen Informationsaustausches ganz praktisch neue Möglichkeiten erhielten. Sehr schnell änderten sich flächendeckend alltägliche Verhaltensweisen. Dazu kam, dass nahezu alle Dienste zu Beginn ‚kostenlos‘ waren. Das Geschäftsmodell war einfach: deine Informationen als frei verwertbarer Inhalt für mich, dafür für dich deine Nutzung aller Dienste kostenfrei. Dass die Netzfirmen und die Geheimdienste damit ein Dateneldorado vorfanden, in dem sie sich mit Zustimmung der ‚Lieferanten‘ ungehemmt bewegen konnten, war vielen zunächst nicht so richtig bewusst und erschien vernachlässigbar angesichts der konkreten praktischen Nutzen auf privater Ebene. Mit der massenhaften Nutzung kam natürlich auch der wachsende Missbrauch und in den beginnenden Klagen, Streitigkeiten und Prozessen begann zaghaft ein wachsendes Bewusstsein von der Realität (und den Gefahren) der freien Nutzung zu wachsen. Dass sich die öffentliche Diskussion speziell an den Mitteilungen Snowdons dann mehr als bisher entzündete (Wer konnte bis heute überhaupt Snowdons Miteilungen überprüfen?), erscheint mir eher als ein Zufall. Das Thema war am Aufkochen und auch ohne Snowdon gab es erste alternative Geschäftsmodelle, die sich den wachsenden Unmut der großen Menge zunutze machen wollen, und bezahlte Dienste anbieten, dafür aber ohne Ausspähung und Datenmissbrauch. Der Fall Snowdon hat den ganzen Prozess jetzt womöglich nur beschleunigt. Der Wertzuwachs in der Nutzung von Netzen für viele private und zivile Zwecke ist zu groß, als dass man darauf in der Zukunft wieder verzichten möchte. Wie immer gibt es hier eine ’natürliche‘ evolutionäre Entwicklung, bei der negative Auswüchse recht schnell von der Gesellschaft weder abgestoßen werden. Die Geschäftsmodelle von Google, Facebook und Amazon (und auch andere ‚closed shops‘ wie z.B. Apple, Samsung oder Microsoft) sind schon heute eigentlich tot, was nicht heißt, dass sie es noch ein paar Jahre schaffen.

US-REGIERUNGSFORM – PROBLEMATISCHE ENTWICKLUNG?

17) Ein ernsteres Problem hat nach meinem aktuellen Verständnis allerdings das amerikanische politische System. Die USA hatten immer einen überaus mächtigen Komplex aus Geheimdiensten, Militär und Wirtschaft, deren Interessen nicht unbedingt ‚zum Wohle‘ der übrigen amerikanischen Bevölkerung waren. Dazu kommt das Ethos des ‚weißen Ritters‘, der zumindest im Umfeld des zweiten Weltkrieges die USA lange Zeit weithin als ein großes Vorbild für viele hat erstrahlen lassen. Doch seitdem häufen sich Ereignisse, die eher die schmutzigen Seiten dieses Systems nach außen kehren. In dem Zusammenhang erscheinen die Ereignisse um den 11.September 2001 als sehr verhängnisvoll. Der Kampf gegen den ‚Terrorismus‘ wurde zu einem neuen Leitthema, das so stark war, dass diesem fast alles andere untergeordnet wurde. Nach der Verabschiedung des USA-Patriot Act: Uniting (and) Strengthening America (by) Providing Appropriate Tools Required (to) Intercept (and) Obstruct Terrorism Act 2001 war die Gründung des US Staatsministerium für Sicherheit der Heimat 2002 war nach Ansicht vieler Experten die größte Veränderung in der Architektur der Exekutive seit dem Nationalen Sicherheitsvertrag von 1947. Der Schutz vor Bedrohung, speziell ‚Terrorismus‘ gewann ein Ausmaß, das fast alles andere zu ersticken drohte. Ergänzend dazu gab es seit 1978 die Verordnung zur Überwachung fremder geheimdienstlicher Aktivitäten (Foreign Intelligence Surveillance Act (FISA)), die mehrfach erweitert wurde und dabei die Grenzziehung zum Schutz der Privatsphäre selbst für Amerikaner immer schwächer werden lies (für Nichtamerikaner gibt es sowieso überhaupt keine Rechte; vor dem Gesetz ist ein Nicht-Amerikaner unterschiedslos ein rechtloses Subjekt, mit dem die Exekutive machen kann, was sie will). Das wachsende Unbehagen über die übermächtigen Zugriffsmöglichkeiten der Exekutive in die Privatsphäre des einzelnen, sollte durch Einrichtung des Staatlichen Gerichtshofes zur Überwachung der Überwachung (‚United States Foreign Intelligence Surveillance Court (FIS)) 1978 gewährleistet werden.
18) Wie der tatsächliche Verlauf seitdem mit seinen vielen Änderungen, Diskussionen und Gerichtsprozessen anzeigt, verläuft die Gesamtentwicklung eher in Richtung Ausweitung der Aktivitäten der Geheimdienste weit über die vorgesehenen Grenzwerte hinaus.
19) Es gibt zwar grundsätzlich den vierten Zusatz zur US-Verfassung, zum Schutz der Privatsphäre, auch ein Gesetz für den freien Zugang zu Informationen staatlicher Stellen (‚Freedom of Information Act (FOIA)‘), sowie zeitgleich mit dem Staatsministerium für die Sicherheit der Heimat ein Amt zur Sicherung des Schutzes der Privatsphäre (Privacy Office of the U.S. Department of Homeland Security), aber was nützt ein Verfassungsartikel, wenn die täglicher Praxis ihn beständig unterläuft und die Überwachungsgremien eher den Eindruck erwecken, dass sie alles durchwinken und sich einer öffentlichen politischen Diskussion entziehen. Wichtige kritische Gruppierungen sind hier vielleicht das Zentrum für Zivilrecht (Center for Civil Rights (CCR)) oder auch die der Vereinigung für die Grenzen der Elektronik (Electronic Frontier Foundation (EFF)) , aber der entscheidende Punkt ist, wieweit die staatlichen Stellen und die Regierung dem Bürger noch reale Freiräume einräumen, zuerst mal für die US-Bürger selbst, dann aber auch für Nicht-US-Bürger. Irgendwo gibt es die Idee der ‚Menschenrechte‘ und es wäre nicht schlecht, wenn ein Land wie USA die Menschenrecht innerhalb ihres Rechtssystems einen solchen Platz einräumen würden, der der reinen Willkür von US-Behörden gegenüber Nicht-Amerikaner einen klaren rechtlichen Rahmen geben würden. Ansonsten müßten alle Nichtamerikaner die USA aufgrund ihrer rechtlich fixierten Menschenverachtung als direkten Feind betrachten. Dies kann nicht das Ziel sein.

WHISTLEBLOWER

20) Neben dem vierten Verfassungsartikel, dem Amt zum Schutz der Privatsphäre sowie dem Spezialgericht zur Kontrolle der Geheimdiensttätigkeiten (FISA) gibt es in den USA seit 1983 auch ein eigenes Gesetz, das Beschluss zur Ermöglichung von Hinweisen zum Missbrauch (False Claims Act), das eigentlich solche Menschen schützen soll, die Missbrauch entdecken und aufdecken, es geht um die ‚Whistleblower‘, etwa ‚Zuflüsterer‘. Bekanntgewordene Fälle zeigen aber, dass dieses Gesetz von staatlichen Stellen und der Regierung auf vielfache Weise abgeschwächt und unterdrückt werden kann. Die besten Gesetze nützen nichts, wenn die staatlichen Stellen sie nicht hinreichend anwenden (Eines von mehreren beeindruckenden Negativbeispielen für ein Versagen der staatlichen Stellen ist der Bericht (und das Buch) von Peter van Buren , hier eine Liste von einschlägigen Artikeln Artikel zu Whistleblower und Staatsverhalten). Im Falle von Snowdon sieht Snowdon sich als Whistleblower, da er aus seiner Sicht in den überbordenden Aktivitäten der NSA einen ‚Missbrauch‘ sieht, den man anzeigen muss. Die NSA selbst und die Regierung sieht aber in ihrem Verhalten ein ‚gesetzeskonformes‘ Vorgehen, das den Interessen der USA dient. Aus Sicht der staatlichen Stellen ist Snowdon von daher ein ‚Verräter‘; aus Sicht derjenigen Menschen, die im Verhalten der NSA und der US-Regierung eine Grenzüberschreitung sehen, die elementare Rechtsauffassungen verletzt, ist Snowdon ein ‚Whistleblower‘. Der Ausgang ist offen.

DIE USA HABEN EINE GLOBALE BEDEUTUNG

21) Man könnte versucht sein, diese Problemlage in den USA als ‚Sache der Amerikaner‘ abzutun. Das ist meines Erachtens zu einfach. Die USA sind nicht irgendein Land. Die USA sind eines der wichtigsten Länder dieser Erde und sie werden dies auch noch einige Zeit bleiben. Dort vollzieht sich momentan ein Prozess der Umwälzung der Gesellschaft durch die neuen Computer-Netz-basierten Technologien, bei gleichzeitiger Regredierung des politischen Systems in Richtung ‚Überwachungsstaat‘. Die Beteiligten selbst sehen dies noch nicht so, da sie alles mit der Brille der ‚Bedrohung‘ und des ‚Terrorismus‘ sehen (ich unterstelle mal, dass die entscheidenden Leute tatsächlich ‚Patrioten‘ sind und keine finstren Machtmenschen, die den Staat für sich unter Kontrolle bringen wollen (in den Filmen ist es so)). Und es gibt genügend kompetente Kritikern in den USA selbst, die vielfach aufzeigen, wie ineffizient, zu teuer, und letztlich weitgehend wirkungslos diese ganzen Maßnahmen sind (für jemanden, der einen terroristischen Akt gegen die USA ausüben wollte, sind alle die Maßnahmen geradezu lächerlich; meist werden ahnungslose Bürger aufgegriffen, die aus Versehen die falschen Worte benutzt haben). Doch kann keiner voraussagen, wie dieser Transformationsprozeß ausgehen wird. Wir sollten alle daran interessiert sein, dass er nicht in einem hochtechnologischen Überwachungsstaat endet.

ABSPANN

22) Es gibt einerseits die Visionen für das große Ganze, die weder leicht noch selbstverständlich sind, und dann gibt es die unendlich vielen kleinen Schritte im Alltag, durch die sich das große Ganze realisiert oder nicht.
23) Wenn der Erfolg nur davon abhängen würde, dass wir als einzelne alles perfekt und richtig machen, würde wir beständig grandios scheitern. Der Prozeß folgt aber vielen Logiken gleichzeitig. Die meisten verstehen wir nicht.
24) Vielleicht werden Historiker später einmal sagen, dass es gut war, dass die amerikanische Regierung diese Überwachungsmonströsitäten versucht hat, um alle aufzuwecken und zur ‚Vernunft‘ zu bringen, dass es so nicht geht. Vielleicht…
25) Ob der deutsche Innenminister dabei irgendeine Rolle spielen wird? Die Bundeskanzlerin? Welch Rolle die Presse in Deutschland überhaupt spielt? Vielleicht sollten Deutsche und Amerikaner in der Öffentlichkeit mehr miteinander reden. Anders wird sich kaum etwas ändern.

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.