DENKEN UND WERTE – DER TREIBSATZ FÜR ZUKÜNFTIGE WELTEN (Teil 1)

  1. In dem Beitrag Digitalisierung und die Religionen vom 9.März 2016 gibt es neben vielen anderen Motiven zwei Motive, die besonders hervortreten: einmal das Momentum (i) kombinatorischer Räume, die gefüllt werden können, und zum anderen (ii) das Momentum der Auswahl, welche Teilräume wie gefüllt werden sollen.

KOMBINATORISCHER RAUM BIOLOGISCHE ZELLE

  1. Im Rahmen der biologischen Evolution auf Zellebene z.B. eröffnet sich der kombinatorische Raum an verschiedenen Stellen. Eine ist jene, wo das Übersetzungsmolekül (das Ribosom) von den gespeicherten potentiellen Informationen (DNA mit ihren Abwandlungen) eine Transformation in andere Moleküle (Proteine) überleitet , mit denen sich neue Zellstrukturen aufbauen lassen. Die Verfügbarkeit dieser Proteine, ihre chemischen Eigenschaften und die Umgebungseigenschaften definieren einen potentiellen kombinatorischen Raum, von dem im konkreten Übersetzungsprozess dann ein bestimmter Teilraum ausgewählt wird.
  2. Aber auch schon der potentielle Informationsspeicher (realisiert mittels DNA-Molekülen) selbst, wie auch seine verschiedenen Transformationsprozesse bis zum Übersetzungsprozess in Proteine repräsentieren ebenfalls kombinatorische Räume, deren Realisierung viel Spielraum zulässt.
  3. Man könnte diese molekülbasierte Informationsspeicherung, diese Transformationen der Moleküle, als eine Urform des Denkens ansehen: Moleküle fungieren als Repräsentanten möglicher Konstruktionsprozesse, und diese Repräsentanten können verändert, rekombiniert werden zu neuen Strukturen, die dann zu neuen Konstruktionsprozessen führen. Man hat also – vereinfacht – ein Funktion der Art repr: M_inf x M_tr x MMprot —> Z, d.h. die Reproduktionsfunktion repr die mittels Molekülen, die als Informationsträger fungieren (M_inf), mittels Molekülen (M_tr), die als Übersetzer fungieren und Molekülen (MM_prot), die als Proteine fungieren können, daraus neue Zellstrukturen entstehen lassen kann.

GELIEHENE PRÄFERENZEN

  1. So wundersam diese Urform des Denkens immer neue kombinatorische Räume strukturell aufspannen und dann im Reproduktionsprozess als reales Strukturen konkretisieren kann, so hilflos und arm ist dieser Mechanismus bei der Beurteilung, Bewertung, welche der möglichen Teilräume denn bevorzugt vor anderen realisiert werden sollten. Soll das Fell weiß oder schwarz sein? Benötigt man überhaupt Zähne? Wozu so komplizierte Hand- und Fingergelenke? Warum tausende Kilometer reisen, um zu brüten? … Die Urform des Denkens ist unfähig, ihre potentielle innere Vielfalt selbständig zu bewerten. Man kann auch sagen, die Urform des Denkens kann zwar kombinieren, ist aber blind wenn es darum geht, gezielt Teilräume auszuwählen, die sich als interessante Kandidaten für das Leben anbieten.
  2. Dabei ist schon die Wortwahl ‚interessante Kandidaten für das Leben‘ problematisch, da der Begriff Leben eine Schöpfung von Lebewesen ist, die viele Milliarden Jahre später erst auftreten und die versuchen im Nachhinein, von außen, durchtränkt von neuen Bedingungen, die zunächst bedeutungsleere Wortmarke Leben mit Bedeutung zu füllen. Die Urform des Denkens verfügt über keinen externen Begriff von Leben und es gibt keine Ingenieure, die der Urform des Denkens zuflüstern können, was sie tun sollen.

MOLEKÜLE ALS INFORMATIONSSPEICHER IMPLIZITE PRÄFERENZEN

  1. Allerdings beinhaltet schon die Urform des Denkens über ein Moment, das außerordentlich ist: jene Moleküle (DNA), die als Speicher potentieller Informationen dienen. Zu einem bestimmten Zeitpunkt repräsentieren diese Informations-Moleküle einen eng umgrenzten Teilraum eines kombinatorischen Raumes und wirken für den Übersetzungsprozess wie eine Art Anweisung in Form eines Bauplans. Gemessen an dem theoretisch möglichen kombinatorischen Raum stellt der Plan des Informationsmoleküls eine Auswahl dar, eine Selektion und damit zeigt sich hier eine indirekte Präferenz für die Informationen auf dem Molekül vor allen anderen möglichen Informationen. Die Urform des Denkens kann zwar im Prinzip einen riesigen potentiellen kombinatorischen Raum repräsentieren und transformieren, die konkrete Zelle aber repräsentiert in diesem riesigen Raum einen winzigen Teilbereich, mit einem aktuellen Ausgangspunkt – gegeben durch die aktuellen Informationen auf dem Informationsmolekül M_inf – und potentiellen Veränderungsrichtungen – gegeben durch die Transformationsprozesse einschließlich der verfügbaren Materialien und Pannen im Prozess. Anders formuliert, die Informationsmoleküle repräsentieren eine komplexe Koordinate (KK) im kombinatorischen Raum und die Transformationsprozesse (einschließlich Pannen und Materialien) repräsentieren eine Menge von möglichen Veränderungsrichtungen (DD), an deren Endpunkten dann jeweils neue komplexe Koordinaten KK_neu_1, …, KK_neu_n liegen.
  2. Wichtig: eine Zelle enthält über die Informationsmoleküle zwar implizite Präferenzen/ Werte, die die Urform des Denkens steuern, diese Präferenzen werden aber nicht von der Zelle selbst generiert, sondern entstehen aus einem Wechselspiel/ aus einer Interaktion mit der Umgebung! Biologische Strukturen (bis heute nur bekannt auf dem Planeten Erde in unserem Sonnensystem in einem geschützten Bereich der Galaxie Milchstraße des uns bekannten Universums) kommen nie isoliert vor, sondern als Teil einer Umgebung, die über sogenannte freie Energie verfügt.

OHNE ENERGIE GEHT NICHTS

  1. Biologische Zellen sind Gebilde, die für ihre Konstruktion und für ihr Funktionieren solche freie Energie brauchen. Der Umfang ihrer Strukturen wie auch die Dauer ihres Funktionierens hängt direkt und ausschließlich von der Verfügbarkeit solcher freien Energie ab. Bezogen auf den kombinatorischen Raum, der durch die Kombination (Informationsmoleküle, Transformationsmolekül, Bausteine) potentiell gegeben ist, ist unter Berücksichtigung der notwendigen Fähigkeit zum Finden und Verarbeiten von freier Energie nicht neutral! Definieren wir den potentiellen kombinatorischen Raum PKK für biologische Zellen als Raum für mögliche komplexe Koordination KK (also KK in PKK), dann sind im potentiellen kombinatorischen Raum nur jene Teilräume von Interesse, in denen die biologische Zelle über hinreichende Fähigkeiten verfügt, freie Energie zu finden und zu nutzen. Nennen wir die Gesamtheit dieser interessanten Teilräume PKK+, mit PKK+ subset PKK.

GEBORGTE PRÄFERENZEN

  1. Da die individuelle biologische Zelle selbst über keinerlei explizite Informationen verfügt, wo überall im potentiell kombinatorischen Raum PKK die interessanten Teilräume PKK+ liegen, stellt sie – trotz ihrer eigenen Reproduktionstätigkeit – eher ein passives Element dar, das sich mit geborgten Präferenzen im potentiellen kombinatorischen Raum PKK bewegt, ohne explizit wissen zu können, ob es auf seinem Weg durch den potentiellen kombinatorischen Raum PKK auch tatsächlich auf solche komplexen Koordinaten KK+ stößt, die ihr eine minimale Lebensfähigkeit erlauben.
  2. Da wir vom Jahr 2016 rückwärts blickend wissen, dass diese passiven Elemente es in ca. 4 Mrd Jahren geschafft haben, komplexe Strukturen unvorstellbaren Ausmaßes zu generieren (ein Exemplar des homo sapiens soll z.B. ca. 37 Billionen Körperzellen haben (davon ca. 100 Mrd als Gehirnzellen), dazu ca. 200 Billionen Bakterien in seinem Körper plus ca. 220 Milliarden auf seiner Haut (siehe dazu Kegel-Review Doeben-Henisch), muss man konstatieren, dass die permanente Interaktion zwischen biologischer Zelle und ihrer Umgebung offensichtlich in der Lage war, all diese wichtigen Informationen PKK+ im potentiellen kombinatorischen Raum PKK zu finden und zu nutzen!
  3. Für die Frage der potentiellen Präferenzen/ Werte gilt für diesen gesamten Zeitraum, dass sich die implizit gespeicherten Präferenzen nur dadurch bilden konnten, dass bestimmte generierte Strukturen (M_inf, M_tr, MM_prot) sich immer von einer positiven komplexen Koordinate zur nächsten positiven Koordinate bewegen konnten. Dadurch konnten die gespeicherten Informationen kumulieren. Aus der Evolutionsgeschichte wissen wir, dass ein Exemplar des homo sapiens im Jahr 2016 eine Erfolgsspur von fast 4 Mrd Jahren repräsentiert, während in diesem Zeitraum eine unfassbar große Zahl von zig Mrd anderen generierte Strukturen (M_inf, M_tr, MM_prot) irgendwann auf eine negative komplexe Koordinate KK- geraten sind. Das war ihr Ende.

ERHÖHUNG DER ERFOLGSWAHRSCHEINLICHKEIT

  1. Für den Zeitraum bis zum Auftreten des homo sapiens müssen wir konstatieren, dass es Präferenzen/ Werte für ein biologisches System nur implizit geben konnte, als Erinnerung an einen erreichten Erfolg im Kampf um freie Energie. Unter Voraussetzung, dass die umgebende Erde einigermaßen konstant war, war die Wahrscheinlichkeit, von einer positiven Koordinate KK+ u einer weiteren komplexen Koordinate KK+ zu kommen um ein Vielfaches höher als wenn das biologische System nur rein zufällig hätte suchen müssen. Die gespeicherten Informationen in den Informationsmolekülen M_inf stellen somit sowohl erste Abstraktionen von potentiellen Eigenschaften wie auch von Prozessen dar. Damit war es Anfangshaft möglich, die impliziten Gesetzmäßigkeiten der umgebenden Welt zu erkennen und zu nutzen.

URSPRUNG VON WERTEN

  1. Es fragt sich, ob man damit einen ersten Ort, einen ersten Ursprung potentieller Werte identifizieren kann.
  2. Vom Ergebnis her, von den überlebensfähigen biologischen Strukturen her, repräsentieren diese einen partiellen Erfolg von Energienutzung entgegen der Entropie, ein Erfolg, der sich in der Existenz von Populationen von solchen erfolgreichen Strukturen als eine Erfolgsspur darstellt. Aber sie alleine bilden nur die halbe Geschichte. Ohne die umgebende Erde (im Sonnensystem, in der Galaxie…), wäre dieser Erfolg nicht möglich. Andererseits, die umgebende Erde ohne die biologischen Strukturen lässt aus sich heraus nicht erkennen, dass solche biologische Strukturen möglich noch wahrscheinlich sind. Bis heute ist die Physik mehr oder weniger sprachlos, wirkt sie wie paralysiert, da sie mit ihren bisherigen (trotz aller mathematischen Komplexität weitgehend naiven) Modellen nicht einmal ansatzweise in der Lage ist, die Entstehung dieser biologischen Strukturen zu erklären. Von daher müssen wir fordern, dass die umgebende Erde die andere Hälfte des Erfolgs darstellt; nur beide zusammen geben das ganze Phänomen. In diesem Fall würde ein reduktiver Ansatz nicht vereinfachen, sondern das Phänomen selbst zerstören!

ONTOLOGISCHE GELTUNG VON BEZIEHUNGEN

  1. Dies führt zu einem bis heute ungeklärten philosophischen Problem der ontologischen Geltung von Funktionen. In der Mathematik sind Funktionen die Grundbausteine von allem, und alle Naturwissenschaften wären ohne den Funktionsbegriff aufgeschmissen. Eine Funktion beschreibt eine Beziehung zwischen unterschiedlichen Elementen. In der Mathematik gehören diese Elemente in der Regel irgendwelchen Mengen an, die einfach unterstellt werden. Wendet man das mathematische Konzept Funktion auf die empirische Wirklichkeit an, dann kann man damit wunderbar Beziehungen beschreiben, hat aber ein Problem, die in der Mathematik unterstellten Mengen in der Realität direkt erkennen zu können; man muss sie hypothetisch unterstellen. Was man direkt beobachten und messen kann sind nicht die funktionalen Beziehungen selbst, sondern nur isolierte Ereignisse in der Zeit, die der Beobachter in seinem Kopf (Gehirn, Gehirnzellen…) verknüpft zu potentiellen Beziehungen, die dann, wenn sie sich hinreichend oft wiederholen, als gegebener empirischer Zusammenhang angenommen werden. Was ist jetzt empirisch real: nur die auslösenden konkreten individuellen Ereignisse oder das in der Zeit geordnete Nacheinander dieser Ereignisse? Da wir ja die einzelnen Ereignisse protokollieren können, können wir sagen, dass auch das Auftrete in der Zeit selbst empirisch ist. Nicht empirische ist die Zuordnung dieser protokollierten Ereignisse zu einem bestimmten gedachten Muster/ Schema/ Modell, das wir zur gedanklichen Interpretation benutzen. Die gleichen Ereignisse lassen in der Regel eine Vielzahl von unterschiedlichen Mustern zu. Einigen wir uns kurzfristig mal auf ein bestimmtes Muster, auf den Zusammenhang R(X, …, Z), d.h. zwischen den Ereignissen X, …, Z gibt es eine Beziehung R.
  2. Biologische Systeme ohne Gehirn konnten solche Relationen in ihrem Informations-Moleküle zwar speichern, aber nicht gedanklich variieren. Wenn die Beziehung R stimmte, dann führte sie zur nächsten positiven komplexen Koordinate KK+, was R im Nachhinein bestätigen würde; wenn R aber zu einer negativen komplexen Koordinate KK- führen würde, dann war dies im Nachhinein eine Widerlegung, die nicht mehr korrigierbar ist, weil das System selbst verschwunden (ausgestorben) ist.
  3. Im Gehirn des homo sapiens können wir ein Beziehungsmuster R(X, …, Z) denken und können es praktisch ausprobieren. In vielen Fällen kann solch ein Interpretationsversuch scheitern, weil das Muster sich nicht reproduzieren lässt, und in den meisten solchen Fällen stirbt der Beobachter nicht, sondern hat die Chance, andere Muster R‘ auszuprobieren. Über Versuch und Irrtum kann er so – möglicherweise irgendwann – jene Beziehung R+ finden, die sich hinreichend bestätigt.
  4. Wenn wir solch ein positiv bestätigtes Beziehungsmuster R+ haben, was ist dann? Können wir dann sagen, dass nicht nur die beteiligten empirischen Ereignisse empirisch real sind, sondern auch das Beziehungsmuster R+ selbst? Tatsächlich ist es ja so, dass es nicht die einzelnen empirischen Ereignisse als solche sind, die wir interessant finden, sondern nur und ausschließlich die Beziehungsmuster R+, innerhalb deren sie uns erscheinen.
  5. In der Wechselwirkung zwischen umgebender Erde und den Molekülen ergab sich ein Beziehungsmuster R+_zelle, das wir biologische Zelle nennen. Die einzelnen Elemente des Musters sind nicht uninteressant, aber das wirklich frappierende ist das Beziehungsmuster selbst, die Art und Weise, wie die Elemente kooperieren. Will man dieses Beziehungsmuster nicht wegreden, dann manifestiert sich in diesem Beziehungsmuster R+_zelle ein Stück möglicher und realer empirisches Wirklichkeit, das sich nicht auf seine Bestandteile reduzieren lässt. Es ist genau umgekehrt, man versteht die Bestandteile (die vielen Milliarden Moleküle) eigentlich nur dadurch, dass man sieht, in welchen Beziehungsmustern sie auftreten können.
  6. Vor diesem Hintergrund plädiere ich hier dafür, die empirisch validierten Beziehungsmuster als eigenständige empirische Objekte zu betrachten, sozusagen Objekte einer höheren Ordnung, denen damit eine ontologische Geltung zukommt und die damit etwas über die Struktur der Welt aussagen.
  7. Zurück zur Frage der Präferenzen/ Werte bedeutet dies, dass man weder an der Welt als solcher ohne die biologischen Systeme noch an den biologischen Strukturen als solche ohne die Welt irgendwelche Präferenzen erkennen kann. In der Wechselwirkung zwischen Erde und biologischen Strukturen unter Einbeziehung einer Irreversibilität (Zeit) werden aber indirekt Präferenzen sichtbar als jener Pfad im potentiellen Möglichkeitsraum der komplexen Koordinaten KK, der die Existenz biologischer Systeme bislang gesichert hat.
  8. Dieser Sachverhalt ist für einen potentiellen Beobachter unaufdringlich. Wenn der Beobachter nicht hinschauen will, wenn er wegschaut, kann er diesen Zusammenhang nicht erkennen. Wenn der Beobachter aber hinschaut und anfängt, die einzelnen Ereignisse zu sortieren und versucht, aktiv Beziehungsmuster am Beispiel der beobachteten Ereignispunkte auszuprobieren (was z.B. die Evolutionsbiologie tut), dann kann man diese Strukturen und Prozesse erkennen, und dann kann man als Beobachter Anfangshaft begreifen, dass hier ein Beziehungsmuster R+_zelle vorliegt, das etwas ganz Außerordentliches, ja Einzigartiges im ganzen bekannten Universum darstellt.

Fortsetzung folgt

Einen Überblick von allen Beiträgen des Autors cagent in diese blog nach Titeln findet sich HIER.

NOTIZEN ZU DEN GROSSEN MEILENSTEINEN DER LEBENSPHÄNOMENE

  1. Wenn man Bücher wie z.B. das von B.Kegel zu den Mikroben oder jenes von Storch, Welsch und Wink zur Evolutionsbiologie (hier abgekürzt: EB) liest, dann kann man sich an der ungeheuren Vielfalt der Phänomene berauschen. Doch diese Bücher bieten zugleich Ansatzpunkte zum Verstehen, dass sich diesen Phänomenen Strukturen zuordnen lassen, innerhalb deren sie auftreten; mehr noch; man erkennt ansatzweise auch Prozesse, die solche Strukturen hervorbringen und verändern.
  2. Viele sprechen in diesem Zusammenhang von Evolution, doch darf man fragen, ob das, was normalerweise als Evolution bezeichnet wird, schon jenen Prozesse beschreibt, der tatsächlich ablaufen. Die Antwort hängt davon ab, welchen Rahmen man voraussetzt. Wieviele und welche Phänomene nehme ich ernst, will ich erklären.
  3. In EB nennen die Autoren auf S.90 zehn Ereignisse, von denen Sie sagen, dass Sie im Kontext der bekannten Lebensphänomene etwas Besonderes darstellen:
    1. Beginn des Lebens (erste Zellen), ca. -4Mrd
    2. Auftreten eukaryontischer Zellen, ca. -2Mrd
    3. Vielzellige Verbände, ca. -1.85 Mrd
    4. Hartstrukturen, ca. -0.6Mrd
    5. Räuber, ca. -0.57 Mrd
    6. Riffe, ca. -0.525
    7. Besiedlung des Landes, ca. -0.42
    8. Bäume/ Wald, ca. -0.365
    9. Flug, ca. -0.310
    10. Menschliches Bewusstsein, ca. -0.05Mrd
  4. Diesen Phänomenen ist gemeinsam, dass sie alle auf der Funktionsweise und der Kooperation von Zellen (Archaeen, Bakterien, Eukaryoten) basieren.
  5. Andererseits wissen wir, dass sie sich nicht im luftleeren Raum abgespielt haben, sondern unter sehr konkret realen Bedingungen der Erde in ihrer jeweiligen Verfassung. Dies bedeutet, diese Phänomene repräsentieren nur eine Seite, eine Hälfte, des Phänomens. Die andere Seite, die andere Hälfte ist die jeweilige Umgebung. Letztlich ist es diese Umgebung, die diktiert, vorgibt, was überhaupt möglich ist.
  6. So ist die Transformation der Umgebung von einer Nicht-Sauerstoffwelt zu einer Sauerstoffwelt ein extremes Ereignis: die biologischen Strukturen haben einen Trigger gefunden, mit dem sie die Verhältnisse unter und über Wasser so radikal geändert haben, dass nicht nur eine neue, verbesserte Form der Energieausnutzung aller Zellen möglich wurde, sondern zusätzlich entstand eine Atmosphäre, die das Wasser der Ozeane daran gehindert hat, dieses Wasser durch die UV-Strahlung praktisch verdunsten zu lassen.
    1. Beginn des Lebens (erste Zellen), ca. -4Mrd
    2. Beginn der Sauerstoffproduktion (ca. -3.5 bis -2.5 Mrd) und deren Umwandlung der Atmosphäre (ca. ab -2.4/ -2.3 Mrd)
    3. Auftreten eukaryontischer Zellen, ca. -2Mrd
    4. Vielzellige Verbände, ca. -1.85 Mrd
    5. Hartstrukturen, ca. -0.6Mrd
    6. Räuber, ca. -0.57 Mrd
    7. Riffe, ca. -0.525
    8. Besiedlung des Landes, ca. -0.42
    9. Bäume/ Wald, ca. -0.365
    10. Flug, ca. -0.310
    11. Menschliches Bewusstsein, ca. -0.05Mrd
  7. Obwohl die Entstehung der Sauerstoffwelt kein biologisches Phänomen im engeren Sinne ist, ist es dennoch ohne die Aktivität biologischer Lebensformen nicht erklärbar. Anders gesagt, zunächst ist die Erde, wie sie ist, und die biologischen Strukturen müssen sich innerhalb dieser Gegebenheiten einen Weg suchen. Nach ca. 1.5 Mrd Jahren führt aber die Aktivität der biologischen Strukturen in Interaktion mit der vorhandenen Welt dazu, diese Welt real so zu verändern, dass sie für die biologischen Strukturen eine andere Welt geworden ist. Die biologische Strukturen im Mikrobereich des Lebens hatten und haben eine solche Kraft, dass sie einen ganzen Planeten samt seiner Atmosphäre nachhaltig verändern konnten. Ohne die so entstandene Sauerstoffwelt wäre alles Leben auf der Erdoberfläche, so, wie wir es heute kennen, unmöglich.
  8. Nachdem ein Bewusstsein in der Form des menschlichen Bewusstseins auftrat, entwickelten die Menschen auf der Basis dieses Bewusstseins in relativ kurzer Zeit und dann immer schneller, Verhaltensweisen und Lebensformen mit einer Unzahl von Spielarten, bei denen es nicht ganz leicht ist, zu sagen, ob sie bedeutsam waren/ sind oder nicht. Letztlich hängt es immer von der Betrachtungsweise ab, ob etwas in einem gewählten Kontext bedeutsam erscheint. Die folgende Liste ist daher nicht zu lesen als eine dogmatische Festsetzung als vielmehr nur eine lockere Auswahl einiger Phänomene von vielen, die möglicherweise eine wichtige Rolle spielen.
    1. Beginn des Lebens (erste Zellen), ca. -4Mrd
    2. Beginn der Sauerstoffproduktion (ca. -3.5 bis -2.5 Mrd) und deren Umwandlung der Atmosphäre (ca. ab -2.4/ -2.3 Mrd)
    3. Auftreten eukaryontischer Zellen, ca. -2Mrd
    4. Vielzellige Verbände, ca. -1.85 Mrd
    5. Hartstrukturen, ca. -0.6Mrd
    6. Räuber, ca. -0.57 Mrd
    7. Riffe, ca. -0.525
    8. Besiedlung des Landes, ca. -0.42
    9. Bäume/ Wald, ca. -0.365
    10. Flug, ca. -0.310
    11. Menschliches Bewusstsein, ca. -0.05Mrd
    12. Erste Städte, ca. -10.000
    13. Schriftsprachen, ca. -3.000
    14. Gesetze
    15. Bücher
    16. Elektrizität
    17. Energiegewinnung mit fossilen Brennstoffen, Atomenergie,Wasser, Wind, Sonne, Bioreaktoren…
    18. Mobiler Verkehr
    19. Industrielle Ernährungswirtschaft
    20. Megastädte (mehr als 10 Mio Einwohner)
    21. Computer
    22. Gentechnik
    23. Vernetzte Computer
  9. Wir können heute definitiv feststellen, dass die Aktivitäten alleine des homo sapiens, einer absoluten Minderheit im Kontext des Lebens, das Ökosystem der Erde wie auch die Erde selbst schon so nachhaltig verändert hat, dass die Ressourcen für Nahrung knapp werden, dass ein gewaltiges Artensterben eingesetzt hat, dass wichtige Biotope zerstört werden, und dass das Klima sich in einer Weise zu verändern begonnen hat, das zu sehr nachhaltigen Störungen führen kann, die dann die Lebensbedingungen allgemein erschweren werden. Das komplexeste (? wie zu messen?) Produkt, was der Lebensprozess bislang hervorgebracht hat, der homo sapiens, hat offensichtlich Probleme, mit der vorfindlichen Komplexität, zu der der Mensch selbst auch gehört, fertig zu werden. Deutet man dies als mangelnde Anpassungsfähigkeit, dann sagt die bisherige Geschichte voraus, dass eine größere Katastrophe eintreten wird, durch die alle Organismen mit einem schlecht angepassten Verhalten aussterben werden.
  10. Das Besondere der aktuellen Situation ist, dass der Mensch sein Verhalten tatsächlich weitgehend selbst bestimmen kann. Wenn die Menschheit besser wüsste, was am besten zu tun ist, dann könnte sie dies einfach tun. Im Alltagsleben menschlicher Gesellschaften gibt es aber so viele Prozesse, die viel kurzsichtigere, egoistischere, emotional verblendete Ziele verfolgen, die keinerlei Bezug zum großen Ganzen haben. In dem Masse, wie diese kurzsichtigen Perspektiven die Mehrheit bilden, den Ton angeben, in dem Masse wird das gesamtmenschliche Verhalten die Erde weiterhin in wichtigen Bereichen nachhaltig zerstören und damit eine Anpassungskatastrophe einleiten.
  11. Man könnte in dieser Situation den Schluss ziehen, dass die Menschen neue geistige Konzepte, neue Verhaltensmodelle, ein neues=besseres Menschenbild, neue Regeln, neue Ethiken benötigen, um sich den veränderten Verhältnissen angemessen zu nähern. Nimmt man die allgemeinen Medien als Gradmesser für das alltägliche Denken, dann findet man hier derart primitive und rückwärtsgewandte Konzepte, dass nicht zu sehen ist, wie von hier eine ‚Erneuerung‘ des Denkens für eine gemeinsame Zukunft stattfinden soll. Begleitet wird diese regressive Medienwelt von einer – dann nicht verwunderlichen – Radikalisierung, Vereinfachung, Nationalisierung, Gewaltverherrlichung, die sich in der Politik dahingehend niederschlägt, dass Abgrenzungen, Nationalisierungen, Radikalisierungen bevorzugt werden. genau das Gegenteil wäre notwendig. Wenn das die einzige Antwort ist, die die Menschheit auf die gewachsenen Komplexitäten und zunehmenden Umweltzerstörungen zu bieten hat, dann wird es für eine nachhaltige Zukunft nicht reichen.
  12. Nachbemerkung: die obige Liste an Ereignissen könnte (und müsste) man natürlich auch nach hinten verlängern. Bis hin zum sogenannten Big Bang. Über die Stufen
    1. Big Bang
    2. Subatomare Teilchen
    3. Atome
    4. Gaswolken
    5. Sterne
    6. Moleküle
    7. Galaxien
  13. wäre auch eine Menge zu sagen. Alle wichtige Fragen hat die Physik bislang nicht gelöst. Dass die Physik bislang fantastische Ergebnisse erzielt hat ist wunderbar und anzuerkennen. Es wäre aber ein fataler Fehler, jetzt zu glauben, wir wüssten damit schon viel und könnten uns jetzt ausruhen. Nein, wir wissen gerade mal so viel, dass wir abschätzen können, dass wir fast nichts wissen. Alles hängt ab von der jeweils jungen Generation an Ingenieuren, Wissenschaftlern und Forschern. Wer hilft Ihnen, die entsprechenden Ziele zu setzen und die notwendigen Wege zu gehen?

K.G.DENBIGH: AN INVENTIVE UNIVERSE — Relektüre — Teil 3

K.G.Denbigh (1975), „An Inventive Universe“, London: Hutchinson & Co.

BISHER

Im Teil 1 der Relektüre von Kenneth George Denbighs Buch „An Inventive Universe“ hatte ich, sehr stark angeregt durch die Lektüre, zunächst eher mein eigenes Verständnis von dem Konzept ‚Zeit‘ zu Papier gebracht und eigentlich kaum die Position Denbighs referiert. Darin habe ich sehr stark darauf abgehoben, dass die Struktur der menschlichen Wahrnehmung und des Gedächtnisses es uns erlaubt, subjektiv Gegenwart als Jetzt zu erleben im Vergleich zum Erinnerbaren als Vergangen. Allerdings kann unsere Erinnerung stark von der auslösenden Realität abweichen. Im Lichte der Relativitätstheorie ist es zudem unmöglich, den Augenblick/ das Jetzt/ die Gegenwart objektiv zu definieren. Das individuelle Jetzt ist unentrinnbar subjektiv. Die Einbeziehung von ‚Uhren-Zeit’/ technischer Zeit kann zwar helfen, verschiedene Menschen relativ zu den Uhren zu koordinieren, das grundsätzliche Problem des nicht-objektiven Jetzt wird damit nicht aufgelöst.

In der Fortsetzung 1b von Teil 1 habe ich dann versucht, die Darlegung der Position von Kenneth George Denbighs Buch „An Inventive Universe“ nachzuholen. Der interessante Punkt hier ist der Widerspruch innerhalb der Physik selbst: einerseits gibt es physikalische Theorien, die zeitinvariant sind, andere wiederum nicht. Denbigh erklärt diese Situation so, dass er die zeitinvarianten Theorien als idealisierende Theorien darstellt, die von realen Randbedingungen – wie sie tatsächlich überall im Universum herrschen – absehen. Dies kann man daran erkennen, dass es für die Anwendung der einschlägigen Differentialgleichungen notwendig sei, hinreichende Randbedingungen zu definieren, damit die Gleichungen gerechnet werden können. Mit diesen Randbedingungen werden Start- und Zielzustand aber asymmetrisch.

Auch würde ich hier einen Nachtrag zu Teil 1 der Relektüre einfügen: in diesem Beitrag wurde schon auf die zentrale Rolle des Gedächtnisses für die Zeitwahrnehmung hingewiesen. Allerdings könnte man noch präzisieren, dass das Gedächtnis die einzelnen Gedächtnisinhalte nicht als streng aufeinanderfolgend speichert, sondern eben als schon geschehen. Es ist dann eine eigene gedankliche Leistungen, anhand von Eigenschaften der Gedächtnisinhalte eine Ordnung zu konstruieren. Uhren, Kalender, Aufzeichnungen können dabei helfen. Hier sind Irrtümer möglich. Für die generelle Frage, ob die Vorgänge in der Natur gerichtet sind oder nicht hilft das Gedächtnis von daher nur sehr bedingt. Ob A das B verursacht hat oder nicht, bleibt eine Interpretationsfrage, die von zusätzlichem Wissen abhängt.

Im Teil 2 ging es um den Anfang von Kap.2 (Dissipative Prozesse) und den Rest von Kap.3 (Formative Prozesse). Im Kontext der dissipativen (irreversiblen) Prozesse macht Denbigh darauf aufmerksam, dass sich von der Antike her in der modernen Physik eine Denkhaltung gehalten hat, die versucht, die reale Welt zu verdinglichen, sie statisch zu sehen (Zeit ist reversibel). Viele empirische Fakten sprechen aber gegen die Konservierung und Verdinglichung (Zeit ist irreversibel). Um den biologischen Phänomenen gerecht zu werden, führt Denbigh dann das Konzept der ‚Organisation‘ und dem ‚Grad der Organisiertheit‘ ein. Mit Hilfe dieses Konzeptes kann man Komplexitätsstufen unterscheiden, denen man unterschiedliche Makroeigenschaften zuschreiben kann. Tut man dies, dann nimmt mit wachsender Komplexität die ‚Individualität‘ zu, d.h. die allgemeinen physikalischen Gesetze gelten immer weniger. Auch gewinnt der Begriff der Entropie im Kontext von Denbighs Überlegungen eine neue Bedeutung. Im Diskussionsteil halte ich fest: Im Kern gilt, dass maximale Entropie vorliegt, wenn keine Energie-Materie-Mengen verfügbar sind, und minimale Entropie entsprechend, wenn maximal viele Energie-Materie-Mengen verfügbar sind. Vor diesem Hintergrund ergibt sich das Bild, dass Veränderungsprozesse im Universum abseits biologischer Systeme von minimaler zu maximaler Entropie zu führen scheinen (dissipative Prozesse, irreversible Prozesse, …), während die biologischen Systeme als Entropie-Konverter wirken! Sie kehren die Prozessrichtung einfach um. Hier stellen sich eine Fülle von Fragen. Berücksichtigt man die Idee des Organiationskonzepts von Denbigh, dann kann man faktisch beobachten, dass entlang einer Zeitachse eine letztlich kontinuierliche Zunahme der Komplexität biologischer Systeme stattfindet, sowohl als individuelle Systeme wie aber auch und gerade im Zusammenspiel einer Population mit einer organisatorisch aufbereiteten Umgebung (Landwirtschaft, Städtebau, Technik allgemein, Kultur, …). Für alle diese – mittlerweile mehr als 3.8 Milliarden andauernde – Prozesse haben wir bislang keine befriedigenden theoretischen Modelle

KAPITEL 4: DETERMINISMUS UND EMERGENZ (117 – 148)

Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz

Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz

  1. Dieses Kapitel widmet sich dem Thema Determinismus und Emergenz. Ideengeschichtlich gibt es den Hang wieder, sich wiederholende und darin voraussagbare Ereignisse mit einem Deutungsschema zu versehen, das diesen Wiederholungen feste Ursachen zuordnet und darin eine Notwendigkeit, dass dies alles passiert. Newtons Mechanik wird in diesem Kontext als neuzeitliche Inkarnation dieser Überzeugungen verstanden: mit klaren Gesetzen sind alle Bewegungen berechenbar.
  2. Dieses klare Bild korrespondiert gut mit der christlichen theologischen Tradition, nach der ein Schöpfer alles in Bewegung gesetzt hat und nun die Welt nach einem vorgegebenen Muster abläuft, was letztlich nur der Schöpfer selbst (Stichwort Wunder) abändern kann.
  3. Die neuzeitliche Wissenschaft hat aber neben dem Konzept des Gesetzes (‚law‘) auch das Konzept Theorie entwickelt. Gesetze führen innerhalb einer Theorie kein Eigenleben mehr sondern sind Elemente im Rahmen der Theorie. Theorien sind subjektive Konstruktionen von mentalen Modellen, die versuchen, die empirischen Phänomene zu beschreiben. Dies ist ein Näherungsprozess, der – zumindest historisch – keinen eindeutigen Endpunkt kennt, sondern empirisch bislang als eher unendlich erscheint.
  4. Eine moderne Formulierung des deterministischen Standpunktes wird von Denbigh wie folgt vorgeschlagen: Wenn ein Zustand A eines hinreichend isolierten Systems gefolgt wird von einem Zustand B, dann wird der gleiche Zustand A immer von dem Zustand B gefolgt werden, und zwar bis in die letzten Details.(S.122)
  5. Diese Formulierung wird begleitend von den Annahmen, dass dies universell gilt, immer, für alles, mit perfekter Präzision.
  6. Dabei muss man unterscheiden, ob die Erklärung nur auf vergangene Ereignisse angewendet wird (‚ex post facto‘) oder zur Voraussage benutzt wird. Letzteres gilt als die eigentliche Herausforderung.
  7. Wählt man die deterministische Position als Bezugspunkt, dann lassen sich zahlreiche Punkte aufführen, nach denen klar ist, dass das Determinismus-Prinzip unhaltbar ist. Im Folgenden eine kurze Aufzählung.
  8. Die Interaktion aller Teile im Universum ist nirgendwo (nach bisherigem Wissen) einfach Null. Zudem ist die Komplexität der Wechselwirkung grundsätzlich so groß, dass eine absolute Isolierung eines Teilsystems samt exakter Reproduktion als nicht möglich erscheint.
  9. Generell gibt es das Problem der Messfehler, der Messungenauigkeiten und der begrenzten Präzision. Mit der Quantenmechanik wurde klar, dass wir nicht beliebig genau messen können, dass Messen den Gegenstand verändert. Ferner wurde klar, dass Messen einen Energieaufwand bedeutet, der umso größer wird, je genauer man messen will. Ein erschöpfendes – alles umfassende – Messen ist daher niemals möglich.
  10. Im Bereich der Quanten gelten maximal Wahrscheinlichkeiten, keine Notwendigkeiten. Dies schließt nicht notwendigerweise ‚Ursachen/ Kausalitäten‘ aus.
  11. Die logischen Konzepte der mentalen Modelle als solche sind nicht die Wirklichkeit selbst. Die ‚innere Natur der Dinge‘ als solche ist nicht bekannt; wir kennen nur unsere Annäherungen über Messereignisse. Das, was ‚logisch notwendig‘ ist, muss aus sich heraus nicht ontologisch gültig sein.
  12. Neben den Teilchen sind aber auch biologische Systeme nicht voraussagbar. Ihre inneren Freiheitsgrade im Verbund mit ihren Dynamiken lassen keine Voraussage zu.
  13. Aus der Literatur übernimmt Denbigh die Komplexitätshierarchie (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143)
  14. Traditioneller Weise haben sich relativ zu jeder Komplexitätsstufe spezifische wissenschaftliche Disziplinen herausgebildet, die die Frage nach der Einheit der Wissenschaften aufwerfen: die einen sehen in den Eigenschaften höherer Komplexitätsstufen emergente Eigenschaften, die sich nicht auf die einfacheren Subsysteme zurückführen lassen; die Reduktionisten sehen die Wissenschaft vollendet, wenn sich alle komplexeren Eigenschaften auf Eigenschaften der Ebenen mit weniger Komplexität zurückführen lassen. Während diese beiden Positionen widersprüchlich erscheinen, nimmt das Evolutionskonzept eine mittlere Stellung ein: anhand des Modells eines generierenden Mechanismus wird erläutert, wie sich komplexere Eigenschaften aus einfacheren entwickeln können.

DISKUSSION

  1. Fasst man alle Argument zusammen, ergibt sich das Bild von uns Menschen als kognitive Theorientwickler, die mit ihren kognitiven Bildern versuchen, die Strukturen und Dynamiken einer externen Welt (einschließlich sich selbst) nach zu zeichnen, die per se unzugänglich und unerkennbar ist. Eingeschränkte Wahrnehmungen und eingeschränkte Messungen mit prinzipiellen Messgrenzen bilden die eine Begrenzung, die daraus resultierende prinzipielle Unvollständigkeit aller Informationen eine andere, und schließlich die innere Logik der realen Welt verhindert ein einfaches, umfassendes, eindeutiges Zugreifen.
  2. Die mangelnde Selbstreflexion der beteiligten Wissenschaftler erlaubt streckenweise die Ausbildung von Thesen und Hypothesen, die aufgrund der möglichen Methoden eigentlich ausgeschlossen sind.
  3. Die noch immer geltende weitverbreitete Anschauung, dass in der Wissenschaft der Anteil des Subjektes auszuklammern sei, wird durch die vertiefenden Einsichten in die kognitiven Voraussetzungen aller Theorien heute neu in Frage gestellt. Es geht nicht um eine Infragestellung des Empirischen in der Wissenschaft, sondern um ein verstärktes Bewusstheit von den biologischen (beinhaltet auch das Kognitive) Voraussetzungen von empirischen Theorien.
  4. In dem Maße, wie die biologische Bedingtheit von Theoriebildungen in den Blick tritt kann auch die Besonderheit der biologischen Komplexität wieder neu reflektiert werden. Das Biologische als Entropie-Konverter (siehe vorausgehenden Beitrag) und Individualität-Ermöglicher jenseits der bekannten Naturgesetze lässt Eigenschaften der Natur aufblitzen, die das bekannte stark vereinfachte Bild kritisieren, sprengen, revolutionieren.
  5. Die Idee eines evolutionären Mechanismus zwischen plattem Reduktionismus und metaphysischem Emergenz-Denken müsste allerdings erheblich weiter entwickelt werden. Bislang bewegt es sich im Bereich der Komplexitätsebenen (iii) Moleküle und (iv) Zellen.

Fortsetzung mit TEIL 4

QUELLEN

  1. Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

K.G.DENBIGH: AN INVENTIVE UNIVERSE — Relektüre — Teil 2

K.G.Denbigh (1975), „An Inventive Universe“, London: Hutchinson & Co.

NACHTRAG: Am 30.9.2015 habe ich noch einen Diskussionsteil angefügt

BISHER

Im Teil 1 der Relektüre von Kenneth George Denbighs Buch „An Inventive Universe“ hatte ich, sehr stark angeregt durch die Lektüre, zunächst eher mein eigenes Verständnis von dem Konzept ‚Zeit‘ zu Papier gebracht und eigentlich kaum die Position Denbighs referiert. Ich hatte sehr stark darauf abgehoben, dass die Struktur der menschlichen Wahrnehmung und des Gedächtnisses es uns erlaubt, subjektiv Gegenwart als Jetzt zu erleben im Vergleich zum Erinnerbaren als Vergangenes. Allerdings kann unsere Erinnerung stark von der auslösenden Realität abweichen. Im Lichte der Relativitätstheorie ist es zudem unmöglich, den Augenblick/ das Jetzt/ die Gegenwart objektiv zu definieren. Das individuelle Jetzt ist unentrinnbar subjektiv. Die Einbeziehung von ‚Uhren-Zeit’/ technischer Zeit kann zwar helfen, verschiedene Menschen relativ zu den Uhren zu koordinieren, das grundsätzliche Problem des nicht-objektiven Jetzt wird damit nicht aufgelöst.

In der Fortsetzung 1b von Teil 1 habe ich dann versucht, die Darlegung der Position von Kenneth George Denbighs Buch „An Inventive Universe“ nachzuholen. Der interessante Punkt hier ist der Widerspruch innerhalb der Physik selbst: einerseits gibt es physikalische Theorien, die zeitinvariant sind, andere wiederum nicht. Denbigh erklärt diese Situation so, dass er die zeitinvarianten Theorien als idealisierende Theorien darstellt, die von realen Randbedingungen – wie sie tatsächlich überall im Universum herrschen – absehen. Dies kann man daran erkennen, dass es für die Anwendung der einschlägigen Differentialgleichungen notwendig sei, hinreichende Randbedingungen zu definieren, damit die Gleichungen gerechnet werden können. Mit diesen Randbedingungen werden Start- und Zielzustand aber asymmetrisch.

Auch würde ich hier einen Nachtrag zu Teil 1 der Relektüre einfügen: in diesem Beitrag wurde schon auf die zentrale Rolle des Gedächtnisses für die Zeitwahrnehmung hingewiesen. Allerdings könnte man noch präzisieren, dass das Gedächtnis die einzelnen Gedächtnisinhalte nicht als streng aufeinanderfolgend speichert, sondern eben als schon geschehen. Es ist dann eine eigene gedankliche Leistungen, anhand von Eigenschaften der Gedächtnisinhalte eine Ordnung zu konstruieren. Uhren, Kalender, Aufzeichnungen können dabei helfen. Hier sind Irrtümer möglich. Für die generelle Frage, ob die Vorgänge in der Natur gerichtet sind oder nicht hilft das Gedächtnis von daher nur sehr bedingt. Ob A das B verursacht hat oder nicht, bleibt eine Interpretationsfrage, die von zusätzlichem Wissen abhängt.

KAPITEL 2: DISSIPATIVE PROZESSE (54-64 …)

1. Anmerkung: bei der Lektüre des Buches merke ich, dass im Buch die Seiten 65 – 96 fehlen! Das ist sehr ungewöhnlich. Die Besprechung erfolgt also zunächst mal mit dem unvollständigen Text. Ich werde versuchen, doch noch einen vollständigen Text zu bekommen.

2. Eine Argumentationslinie in diesem Kapitel greift jene physikalischen Theorien auf, die bezüglich der Zeit invariant sind. Reversibilität von Prozessen, Konservierung (z.B. von Energie) und Determiniertheit sind Begriffe, die untereinander zusammen hängen. (vgl.S.58) Eine solche ’statische‘ Theorie ist die klassische (newtonsche) Mechanik.

3. Denbigh sieht einen Zusammenhang zwischen diesem stark idealisierenden Denken, das sich an etwas ‚Festem‘ orientiert, an etwas, das bleibt, etwas, das sich konserviert, und der griechischen Denktradition, die die Grundlagen allen Wandels in den unveränderlichen Atomen entdeckten. Ein typisches Beispiel ist die chemische Reaktionsgleichung für die Umwandlung von Wasserstoff 2H_2 und Sauerstoff O_2 in Wasser 2H_2O. Die Bestandteile werden hier als unveränderlich angenommen, nur ihre Anordnung/ ihr Muster ändert sich.

4. Diesem Hang zur Verdinglichung des Denkens über die Realität steht aber die ganze Entwicklung der physikalischen Erkenntnis entgegen: die scheinbar unteilbaren Atome setzen sich aus Partikeln zusammen, und die Partikel wiederum sind umwandelbar in Energie. Materie und Energie wurden als äquivalent erkannt. Die Gesamtheit von Energie-Materie mag konstant sein, aber die jeweiligen Zustandsformen können sich ändern.

5. Der Ausgangspunkt für die Entdeckung des Begriffs Entropie war die Ungleichheit in der Umwandlung von mechanischer Energie in Wärme und umgekehrt. (vgl. S.60f) Viele solcher Asymmetrien wurden gefunden. Während eine Richtung funktioniert, funktioniert die andere Richtung höchstens partiell. (vgl. S.62) Solche höchstens partiell reversible Prozesse sind dissipativ Prozesse. Und diese Eigenschaft, die den Unterschied in der Umwandelbarkeit charakterisiert, wurde Entropie [S] genannt. Sie kommt generell Systemen zu. Liegen zwei Systeme A und B vor, so drückt die Gleichung S_B >= S_A für t_B > t_A aus, dass für alle Zeitpunkt von B (T_B) nach dem aktuellen Zeitpunkt die Entropie von B (S_B) entweder gleich oder größer ist als die von A. Die Entropie kann also nicht abnehmen, sondern nur gleich bleiben oder zunehmen.

6. Das Besondere an der Entropie ist, dass die Entropie zunehmen kann, obwohl die Energie insgesamt konstant bleibt. (vgl. S.63f) [Anmerkung: Dies deutet implizit darauf hin, dass es unterschiedliche ‚Zustandsformen‘ von Energie gibt: solche in denen Energie lokal verfügbar ist, um Umwandlungsprozesse zu ermöglichen, und solche, in denen Energie lokal nicht mehr verfügbar ist. Die Nichtverfügbarkeit von Energie wäre dann gleichbedeutend mit maximaler Entropie. Die Nichtverfügbarkeit von Energie käme einer Unveränderlichkeit von Energie gleich. Ein schwieriger Begriff, da Energie als solche ‚Zustandslos‘ ist.]

7. Ferner deuten alle bekannten physikalischen Prozesse immer nur in eine Richtung: Zunahme von Entropie. (vgl. S.64)

8. … ab hier fehlt der Text im Buch ….

KAPITEL 3: FORMATIVE PROZESSE (…97 – 116)

9. Laut Inhaltsverzeichnis fehlen bei mir die ersten 7 Seiten vom dritten Kapitel.

10. Der Text startet mit dem Begriff der Organisation, den Denbigh als ein Konzept einstuft, das oberhalb der Elemente eines Systems liegt. Seine Einführung setzt voraus, dass man am Verhalten des Systems eine Funktion erkennt, die ein spezifisches Zusammenwirken der einzelnen Elemente voraussetzt. (vgl. S.98)

11. Zur Charakterisierung einer Organisation stellt Denbigh zwei zusätzliche Postulate auf. Einmal (i) sollen die einzelnen Elemente – bezogen auf die Gesamtleistung des Systems – nur eine begrenzte Fähigkeit besitzen, die erst im Zusammenspiel mit den anderen die Systemleistung ergibt, zum anderen (ii) müssen die Elemente untereinander verbunden sein.

12. Er führt dann die Begriffe Anzahl der Verbindungen [c] ein, Anzahl der Elemente ohne Kopien [n], sowie Anzahl der Elemente mit Kopien [N] ein. Die minimale Anzahl der Verbindungen wird mit N-1 gleichgesetzt, die maximale Zahl aller paarweisen Verbindungen (inklusive der Verbindungen der Elemente mit sich selbst) wird mit N * (N-1) angegeben. Die Anzahl c aller Verbindungen liegt also irgendwo zwischen N und N^2. Nimmt man das Produkt c x n, dann berücksichtigt man nur die unterscheidbaren Elemente ohne die Kopien.(vgl. S.100)

13. Damit konstruiert er dann den theoretischen Begriff der Zusammengesetztheit (‚integrality‘) [Anmerkung: man könnte hier auch von einer bestimmten Form der Komplexität sprechen] einer Organisation basierend auf ihren Elementen und ihren Verbindungen.

14. Denbigh referiert dann, dass im Bereich des Biologischen der Grad der Zusammengesetztheit der Nachkommen von biologischen Systemen zunimmt. (vgl. S.100) In diesem Zusammenhang sind Untersuchungen von von Neumann interessant. Im Versuch zu zeigen, ob und wie man Phänomene des Biologischen mit Automaten nachbauen könnte, kam von Neumann zu dem Resultat, dass die Ausgangssysteme eine kritische Größe haben müssen, damit ihre Nachkommen einen höheren Grad der Zusammengesetztheit haben können als die Elternsysteme. In seiner Untersuchung waren dies viele Millionen ‚Elemente‘. (vgl. S.100f)

15. Ein erster interessanter Befund ist, dass der Grad der Zusammengesetztheit unabhängig ist von den Konservierungsgesetzen der Physik. (vgl. S.102f) In einem isolierten Ei kann — nach Denbigh — der Grad der Zusammengesetztheit zunehmen ohne dass die Gesamtenergie sich ändert.

16. Allerdings ändert sich normalerweise die Entropie. Innerhalb des Eis mag die Entropie abnehmen, insgesamt aber erhalten biologische Systeme den Grad ihrer Zusammengesetztheit abseits eines Gleichgewichtszustands, was nur durch ständige Zufuhr von Energie möglich ist. Lokal nimmt die Entropie am/ im System ab, im Kontext mit der Umwelt, aus der die Energie entzogen wird, nimmt aber die Entropie zu. (vgl. S.103f)

17. [Anmerkung: Es fragt sich hier, ob es Sinn macht, von der ‚globalen‘ Entropie zu sprechen, da ja die Entropie der Teilbereiche ‚Umwelt‘ und ‚System‘ für sich unterschiedlich ist. Ein System mit ‚geringerer‘ Entropie ist eigentlich nicht vergleichbar mit einem System ‚höherer‘ Entropie.]

18. Denbigh schlussfolgert hier, dass die Änderungen der Entropie und der Grad der Zusammengesetztheit unabhängig voneinander sind. (vgl. S.104)

19. [Anmerkung: Dies erscheint zweifelhaft. Denn im Falle von biologischen Systemen bedeutet die Zunahme des Grads der Zusammengesetztheit notwendigerweise Verbrauch von Energie, die der Umgebung entzogen wird (Zunahme von Entropie) und dem System zugeführt wird (Abnahme der Entropie). Die Organisiertheit biologischer Systeme erscheint daher eher wie ein Entropie-Umwandler/ -Wandler/ -Transformator. Dies hat zu tun mit Zustandsformen von Energie: es gibt jene, die von biologischen Systemen umgewandelt werden kann und solche, die nicht umgewandelt werden kann.]

20. Denbigh führt dann das Symbol phi für den Grad der Zusammengesetztheit eines einzelnen Systems s_i ein und das Symbol PHI für die Summe aller einzelnen Systeme. (vgl. S.105f) Während der Grad der Zusammengesetztheit phi_i eines einzelnen Systems von der Geburt bis zum Tode zu- bzw. abnehmen kann, bildet die Summe PHI einen Querschnitt. Mit solch einem Maß kann man sowohl beobachten, dass PHI im Laufe der Zeit – abzgl. gewisser lokaler Schwankungen – generell zunimmt, zugleich auch die Zahl der Mitglieder der Population. (vgl. 106f) Zusätzlich zum Grad der Zusammengesetztheit des individuellen Systems mss man auch den Organisationsgrad der Systemumgebung berücksichtigen: Werkzeuge, Landwirtschaft, Verkehr, Rechtssysteme, Schrift, usw. (vgl. 107f) Nimmt insgesamt der Grad der Zusammengesetztheit zu, will Denbigh von einem Prozess der Formation sprechen.

21. Denbigh spekuliert auch darüber, ob man den Grad der Zusammengesetztheit dazu benutzen kann, um den Begriff der Kreativität ins Spiel zu bringen.

22. Ferner geht es um die Entstehung biologischer Systeme. Während für die Änderungen von organisatorisch einfachen Systemen die allgemeinen physikalischen Gesetze zur Beschreibung ausreichen, haben Organisationen mit einem höheren Grad von Zusammengesetztheit die Besonderheit, dass sehr spezifische Konstellationen vorliegen müssen, die für sich genommen extrem unwahrscheinlich sind. Im Fall biologischer Systeme ist die Entstehung bislang nicht klar und erscheint extrem unwahrscheinlich.

23. Ein Denkansatz wäre – nach Denbigh –, dass sich die Komplexität in kleinere Subprobleme delegieren lässt. (Vgl.S.110f) Dazu kommt die weitere Beobachtung/ Überlegung, dass sich im Falle von biologischen Systemen feststellen lässt, biologische Systeme dazu tendieren, die Ausgangslage für die Aggregation neuer Systeme immer weiter zu optimieren. (vgl.S.112f)

24. Stellt man eine Folge wachsender Organisiertheit auf (Denbigh nennt: Partikel – Atome – Moleküle – Zellen – Organismen), dann kann man nach Denbigh einen Zuwachs an Individualität und an Kontrolle beobachten bei gleichzeitiger Abnahme der Gesetzeskonformität; letzteres besagt, dass biologische Systeme je komplexer sie werden umso weniger direkt unter irgend ein physikalisches Gesetzt fallen. (vgl. S,114f)

25. Die Funktionen, die auf den jeweils höheren Ebenen der Organisation sichtbar werden, lassen sich nicht direkt aus den Komponenten der darunter liegenden Ebenen ableiten. Sie zeigen – hier zitiert Denbigh (Polanyi 1967) – etwas Neues. Dieses Auftreten von etwas Neuem verglichen mit den bisherigen Systemeigenschaften markiert nach (Polanyi 1967) einen Prozess, den er Emergenz nennt. Das neue Ganze ‚erklärt‘ die Teile, nicht umgekehrt. (vgl. S.116)

DISKUSSION

  1. Trotz der Behinderung durch die fehlenden Seiten (ein angeblich vollständiges Exemplar ist nachbestellt) bietet der Text von Denbigh doch spannende Stichworte, die unbedingt weiter verfolgt und geklärt werden müssen. Hier nur mal erste Notizen, damit diese Aspekte nicht untergehen.
  2. Das Zusammenspiel von Energie-Materie einerseits und Entropie andererseits wirft noch viele Fragen auf. Wenn man davon ausgeht, dass die Gesamtmenge der Energie-Materie konstant ist (was letztlich nicht wirklich klar ist; es ist eine Annahme!), man aber zugleich beobachten kann, dass die Energie-Materie unterschiedliche Zustände annehmen kann, was die Wahrscheinlichkeit von Veränderungen auf allen (?) Ebenen betrifft, so bedeutet dies, dass das Reden über Energie-Materie für uns Menschen letztlich nur interessant ist, sofern Energie-Materie sich messen lässt und im Messen mögliche Veränderungen zeigt. Eine unveränderliche und unmessbare Energie-Materie existiert für uns nicht.
  3. Was wir aber messen, das sind punktuelle Ereignisse in einem unbekannten riesigen Raum von Zuständen/ Ereignissen, der sich uns weitestgehend entzieht.
  4. Wenn wir nun feststellen, dass es Veränderungsphänomene gibt (Zerfallsprozesse, Partikelabstrahlungen, Wärmeaustausch, …), dann deutet dies darauf hin, dass Energie-Materie eine große Zahl von unterschiedlichen Zuständen einnehmen kann, von denen einige so sind, dass im Zustandswechsel endliche Energie-Materie-Mengen auf andere Zustände einwirken können und dabei – falls es sich um sogenannte biologische Systeme handelt – diese andere Zustände diese verfügbare Energie-Materie-Mengen für systeminterne Prozesse nutzen können.
  5. Obwohl der Begriff der Entropie in der Literatur viele unterschiedliche Bedeutungen besitzt (dem wird noch weiter nachzugehen sein), ist ein Bedeutungskern jener, dass die Verfügbarkeit von solchen endlichen Energie-Materie-Mengen damit beschrieben wird: maximale Entropie liegt vor, wenn keine Energie-Materie-Mengen verfügbar sind, und minimale Entropie entsprechend, wenn maximal viele Energie-Materie-Mengen verfügbar sind.
  6. Während sich im Universum Veränderungsprozesse auch unabhängig von biologischen Systemen beobachten lassen, so sind die biologischen Systeme im Kontext von Entropie dennoch auffällig: während Veränderungsprozesse im Universum abseits biologischer Systeme von minimaler zu maximaler Entropie zu führen scheinen (dissipative Prozesse, irreversible Prozesse, …), zeigen sich die biologischen Systeme als Entropie-Konverter! Sie kehren die Prozessrichtung einfach um: sie nutzen die Veränderungsprozesse von minimaler zu maximaler Entropie dahingehend aus, dass sie diese lokal für endliche Zeitspannen von einem Entropielevel X zu einem Entropielevel X-n konvertieren (mit ‚X-n‘ als weniger Entropie als ‚X‘).
  7. Für diese Prozessumkehr gibt es keine physikalischen Gesetze außer der zwielichtigen Gravitation. Im Gefüge der aktuellen physikalischen Theorien passt die Gravitation bislang nicht so recht hinein, macht sie doch genau das, was die biologischen Systeme im kleinen Maßstab vorexerzieren: die Gravitation zieht Energie-Materie-Mengen so zusammen, dass die Entropie abnimmt. Die dadurch entstehenden Energie-Materie-Konstellationen sind die Voraussetzungen dafür, dass Veränderungsprozesse – und damit biologische Systeme – stattfinden können (ist Gravitation jene innere ‚Feder‘, die ein Universum auf lange Sicht immer wieder soweit zusammen zieht, bis es zum nächsten BigBang kommt?).
  8. Folgt man der Idee von den biologischen Systemen als Entropie-Konvertern, dann wird interessant, wie man das Besondere an jenen Systemen charakterisiert, die wir biologisch nennen. Denbigh offeriert hier – offensichtlich stark beeinflusst von anderen Autoren, u.a. Michael Polanyi – das Konzept eines Systems, dessen Organisation durch Elemente (n,N), Beziehungen (c) und Systemfunktionen (f,…) beschreibbar ist. Je nach Anzahl und Dichte der Verschränkungen kann man dann Organisationsgrade (Komplexitätsstufen) unterscheiden. Diese Begrifflichkeit ist noch sehr grob (verglichen z.B. mit den Details in einem Handbuch über die biologischen Zellen), aber sie bietet erste Angriffsflächen für weitergehende Überlegungen.
  9. So stellt sich die Frage nach der Entstehung solch komplexer Systeme, die bis heute nicht klar beantwortet ist.
  10. So stellt sich die Frage nach der Entwicklung solcher Strukturen von einem einfacheren Zustand zu einem komplexeren: woher kommen die viel komplexeren Strukturen und speziell dann Systemfunktionen, die sich nicht aus den Bestandteilen als solchen herleiten? Das Wort Emergenz an dieser Stelle klingt gut, erklärt aber natürlich nichts.
  11. Faktisch beobachten wir entlang einer Zeitachse eine letztlich kontinuierliche Zunahme der Komplexität biologischer Systeme sowohl als individuelle Systeme wie aber auch und gerade im Zusammenspiel einer Population mit einer organisatorisch aufbereiteten Umgebung (Landwirtschaft, Städtebau, Technik allgemein, Kultur, …).
  12. Für alle diese – mittlerweile mehr als 3.8 Milliarden andauernde – Prozesse haben wir bislang keine befriedigenden theoretischen Modelle, die das Phänomen biologischer Systeme im Kontext der gesamten Naturprozesse plausibel machen. Die bisherigen naturwissenschaftlichen Theorien erscheinen für dieses komplex-dynamische Phänomen der biologischen Systeme zu einfach, zu primitiv. Das liegt zu großen Teilen möglicherweise auch daran, dass sich die meisten Naturwissenschaftler bislang schwer tun, die Phänomene des biologischen Lebens in ihren vollen Komplexität ernst zu nehmen. Möglicherweise wird dies dadurch erschwert, dass die traditionellen Geisteswissenschaften ebenfalls die Brücke zum naturwissenschaftlichen Zusammenhang noch nicht gefunden haben. Statt sich gegenseitig zu befruchten, grenzt man sich voneinander ab.
  13. Letzte Anmerkung: in zwei vorausgehenden Beiträgen direkt (und in weiteren indirekt) hatte ich auch schon mal Bezug genommen auf das Phänomen der Komplexitätsentwicklung biologischer Systeme (siehe: Randbemerkung: Komplexitätsentwicklung (Singularität(en)) und Randbemerkung: Komplexitätsentwicklung (Singularität(en)) – Teil 2. Die Formulierungen in meinen Beiträgen war etwas schwerfällig und noch wenig überzeugend. Mit dem Ansatz von Denbigh, Polanyi und anderen lässt sich dies sicher deutlich verbessern.

 

Fortsetzung folgt

QUELLEN

1. Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.
2. John von Neumann (1966), Theory of Self-Reproducing Automata, edited and completed by Arthur W.Burks, Urbana – London: University of Illinois Press
3. Michael Polanyi (1967), The Tacit Dimension, Routledge & Keagan Paul.
4. Michael Polanyi (1968) Life’s Irreducible Structure. Live mechanisms and information in DNA are boundary conditions with a sequence of boundaries above them, Science 21 June 1968: Vol. 160 no. 3834 pp. 1308-1312
DOI: 10.1126/science.160.3834.1308 (Abstract: Mechanisms, whether man-made or morphological, are boundary conditions harnessing the laws of inanimate nature, being themselves irreducible to those laws. The pattern of organic bases in DNA which functions as a genetic code is a boundary condition irreducible to physics and chemistry. Further controlling principles of life may be represented as a hierarchy of boundary conditions extending, in the case of man, to consciousness and responsibility.)
5. Michael Polanyi (1970), Transcendence and Self-Transcendence, Soundings 53: 1 (Spring 1970): 88-94. Online: https://www.missouriwestern.edu/orgs/polanyi/mp-transcendence.htm

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

FREIHEIT DIE ICH MEINE – ÜBERLEGUNGEN ZU EINER PARTEIINTERNEN DISKUSSION DER GRÜNEN

1. Bevor ich gleich ein wenig auf die wichtigsten Beiträge der Mitgliederzeitschrift ‚Schrägstrich‘ (Ausgabe Juli 2014) der Grünen eingehe, hier einige Vorüberlegungen zu den gedanklichen Koordinaten, innerhalb deren ich diese Beiträge rezipiere. Im wesentlichen handelt es sich bei diesen gedanklichen Koordinaten um jene, die ich hier im Blog bislang ansatzweise skizziert habe. Hier in einer komprimierten Form wichtige Elemente, die dann im weiteren Verlauf nach Bedarf präzisiert werden:

Aus Sicht des einzelnen: Woher? Was tun? Wohin?

Aus Sicht des einzelnen: Woher? Was tun? Wohin?

2. Ausgangspunkt des Koordinatensystem ist jeder einzelne von uns, der sich täglich konkret die Frage stellen muss, was an diesem Tag zu tun ist. Die Frage, woher man selbst kommt spielt bei den meisten in der Regel keine Rolle, höchstens soweit, dass aus der unmittelbaren Vergangenheit irgendwelche ‚Verpflichtungen‘ erwachsen sind, die in die Gegenwart hineinwirken (negatives oder positives Vermögen, erlernte Fähigkeiten, erworbenes Wissen, gewachsene Beziehungen, …). Wohin wir gehen wollen ist bei den meisten auch nur schwach ausgeprägt (Die Alltagsnotwendigkeiten stehen im Vordergrund: seine Verpflichtungen erfüllen, die Arbeitsanforderungen, den Unterhalt für das tägliche Leben, persönliche und soziale Erwartungen durch Beziehungen und Zugehörigkeiten, ein Ausbildungsziel erreichen, eine höhere Position in der Karriereleiter, …..). Übergreifende Ziele wie Erhaltung bestimmter Systeme (Ausbildung, Gesundheit, Infrastrukturen, …) sind meistens ‚delegiert‘ an Institutionen, die dafür ‚zuständig‘ sind, auf die man nur sehr begrenzt Einfluss nehmen kann. Dennoch gibt es nicht wenige, die sich in Vereinigungen engagieren, die spezifische soziale Räume aufspannen (Sport, Kleingärtner, Chöre, Parteien, Gewerkschaften, …), in denen sie ihr individuelles Handeln mit anderen verbünden.

Jeder nur als Teil einer Population in einem physikalischen Rahmen mit chemischer, biologischer und kultureller Evolution. Erfolg ist kurzfristig oder nachhaltig

Jeder nur als Teil einer Population in einem physikalischen Rahmen mit chemischer, biologischer und kultureller Evolution. Erfolg ist kurzfristig oder nachhaltig

3. Beginnt man seine eigene Situation zu analysieren, dann wird man nicht umhin kommen, festzustellen, dass man als einzelner als Mitglied einer größeren Population von Menschen vorkommt, die über unterschiedlichste Kommunikationsereignisse miteinander koordiniert sind. Das tägliche Leben erweist sich als eingebettet in einen gigantischen realen Raum, von dem man unter normalen Umständen nur einen winzigen Ausschnitt wahrnimmt. Schaut man genauer hin, dann sind wir das Produkt einer komplexen Geschichte von Werden im Laufe von vielen Milliarden Jahren. Eingeleitet durch die chemische Evolution kam es vor ca. 3.8 Milliarden Jahren zur biologischen Evolution, die dann vor – schwierig zu definieren, wann Kultur und Technik genau anfing – sagen wir ca. 160.000 Jahren mit einer kulturellen Evolution erweitert wurde. Technik sehe ich hier als Teil der kulturellen Leistungen. Eine Erfolgskategorie ist die des schieren Überlebens. Innerhalb dieser Kategorie macht es einen Unterschied wie ‚lange‘ eine Population überhaupt lebt (‚kurz‘ oder ‚lang‘). Die Frage ist nur, welche ‚Zeiteiheiten‘ man hier anlegen will, um ‚kurz‘ oder ‚lang‘ zu definieren. Aus der Perspektive eines einzelnen Menschen können ‚Jahre‘ schon sehr lang sein und ‚Jahrzehnte‘ können wie eine Ewigkeit wirken. Aus Sicht einer ‚Generation‘ sind 30 Jahre ’normal‘, 10 Generationen (also ca. 300 Jahre) sind eine Zeiteinheit, die für einzelne schon unvorstellbar sein mögen, die aber gemessen an dem Alter so mancher Arten von Lebewesen mit vielen Millionen oder gar hunderten von Millionen Jahren (die Dinosaurier beherrschten das Ökosystem von -235 bis -65 Mio, also 170 Mio Jahre lang!) nahezu nichts sind.

4. Das komplexeste bis heute bekannte Lebewesen, der homo sapiens, jene Art, zu der wir gehören, ist bislang ca. 160.000 Jahre alt (natürlich mit langer Vorgeschichte). Biologisch betrachtet ist diese Zeitspanne nahezu ein ‚Nichts‘. Insofern sollte man nicht zu früh sagen ‚Wer‘ bzw. ‚Was‘ der ‚Mensch‘ als ‚homo sapiens‘ ist. Wir leben in einem Wimpernschlag der Geschichte und wenn wir sehen, welche Veränderungen die Art homo sapiens in kürzester Zeit über die Erde gebracht hat, dann sollten wir genügend biologische Fantasie entwickeln, um uns klar zu machen, dass wir eher ganz am Anfang einer Entwicklung stehen und nicht an deren Ende.

Mensch als Teil des Biologischen hat Technik als Teil von Kultur hervorgebracht: Generisch oder arbiträr. Technik ist effizient oder nicht

Mensch als Teil des Biologischen hat Technik als Teil von Kultur hervorgebracht: Generisch oder arbiträr. Technik ist effizient oder nicht

5. Der homo sapiens ist ganz wesentlich Teil eines größeren komplexen biologischen Systems von unfassbarer ‚Tiefe‘, wo alles ineinander greift, und wo der homo sapiens aufgrund seiner Leistungsfähigkeit aktuell dabei zu sein scheint, trotz seiner kognitiven Möglichkeiten seine eigenen biologischen Voraussetzungen zu zerstören, ohne die er eigentlich nicht leben kann (Umweltverschmutzung, Ausrottung vieler wichtiger Arten, Vernichtung der genetischen Vielfalt, …).

6. Die erst langsame, dann immer schneller werdende Entwicklung von leistungsfähigen und immer ‚effizienteren‘ Technologien eingebettet in einen ‚kulturellen Raum‘ von Zeichen, Formen, Interpretationen, Normen, Regelsystemen und vielerlei Artefakten zeigt eine immense Vielfalt z.T. ‚arbiträrer‘ Setzungen, aber auch einen harten Kern von ‚generischen‘ Strukturen. ‚Generisch‘ wäre hier die Ausbildung von gesprochenen und geschriebenen Sprachen; ‚arbiträr‘ wäre die konkrete Ausgestaltung solcher Sprachen: welche Zeichensysteme, welche Laute, welche Anordnung von Lauten oder Zeichen, usw. So sind ‚Deutsch‘, ‚Arabisch‘, ‚Russisch‘ und ‚Chinesisch‘ alles Sprachen, mithilfe deren sich Menschen über die Welt verständigen können, ihre gesprochene und geschriebene Formen weichen aber extrem voneinander ab, ihre Akzent- und Intonationsstrukturen, die Art und Weise, wie die Zeichen zu Worten, Sätzen und größeren sprachlichen Strukturen verbunden werden, sind so verschieden, dass der Sprecher der einen Sprache in keiner Weise in der Lage ist, ohne größere Lernprozesse die andere Sprache zu verstehen.

7. Bei der Entwicklung der Technologie kann man die Frage stellen, ob eine Technologie ‚effizienter‘ ist als eine andere. Nimmt man den ‚Output‘ einer Technologie als Bezugspunkt, dann kann man verschiedene Entwürfe dahingehend vergleichen, dass man z.B. fragt, wie viele Materialien (erneuerbar, nicht erneuerbar) sie benötigt haben, wie viel Energie und Arbeitsaufwand in welcher Zeit notwendig war, und ob und in welchem Umfang die Umwelt belastet worden ist. Im Bereich der Transporttechnologie wäre der Output z.B. die Menge an Personen oder Gütern, die in einer bestimmten Zeit von A nach B gebracht würden. Bei der Technologie Dampfeisenbahn mussten Locks und Wagen hergestellt werden, Gleise mussten hergestellt und verlegt werden; dazu mussten zuvor geeignete Trassen angelegt werden; ein System von Signalen und Überfahrtregelungen muss für den reibungslosen Ablauf sorgen; dazu benötigt man geeignet ausgebildetes Personal; zum Betrieb der Locks benötigte man geeignete Brennstoffe und Wasser; die Züge selbst erzeugten deutliche Emissionen in die Luft (auch Lärm); durch den Betrieb wurden die Locks, die Wagen und die Schienen abgenutzt. usw.

8. Ein anderes Beispiel wäre die ‚Technologie des Zusammenwohnens auf engem Raum‘, immer mehr Menschen können heute auf immer kleineren Räumen nicht nur ‚überleben‘, sondern sogar mit einem gewissen ‚Lebensstandard‘ ‚leben‘. Das ist auch eine Effizienzsteigerung, die voraussetzt, dass die Menschen immer komplexere Systeme der Koordinierung und Interaktion beherrschen können.

Das Herz jeder Demokratie ist eine funktionierende Öfentlichkeit. Darüber leitet sich die Legislative ab, von da aus die Exekutive und die Judikative. Alles muss sich hier einfügen.

Das Herz jeder Demokratie ist eine funktionierende Öfentlichkeit. Darüber leitet sich die Legislative ab, von da aus die Exekutive und die Judikative. Alles muss sich hier einfügen.

9. Im Rahmen der kulturellen Entwicklung kam es seit ca. 250 Jahren vermehrt zur Entstehung von sogenannten ‚demokratischen‘ Staatsformen (siehe auch die z.T. abweichenden Formulierungen der englischen Wikipedia zu Democracy). Wenngleich es nicht ‚die‘ Norm für Demokratie gibt, so gehört es doch zum Grundbestand, dass es als primäre Voraussetzung eine garantierte ‚Öffentlichkeit‘ gibt, in der Meinungen frei ausgetauscht und gebildet werden können. Dazu regelmäßige freie und allgemeine Wahlen für eine ‚Legislative‘ [L], die über alle geltenden Rechte abstimmt. Die Ausführung wird normalerweise an eine ‚Exekutive‘ [E] übertragen, und die Überwachung der Einhaltung der Regeln obliegt der ‚Judikative‘ [J]. Die Exekutive gewinnt in den letzten Jahrzehnten immer mehr Gewicht im Umfang der Einrichtungen/ Behörden/ Institutionen und Firmen, die im Auftrag der Exekutive Aufgaben ausführen. Besonderes kritisch waren und sind immer Sicherheitsbehörden [SICH] und das Militär [MIL]. Es bleibt eine beständige Herausforderung, das Handeln der jeweiligen Exekutive parlamentarisch hinreichend zu kontrollieren.

Oberstes Ziel ist es, eine Demokratie zu schüzen; was aber, wenn die Sicherheit zum Selbstzweck wird und die Demokratie im Innern zerstört?

Oberstes Ziel ist es, eine Demokratie zu schüzen; was aber, wenn die Sicherheit zum Selbstzweck wird und die Demokratie im Innern zerstört?

10. Wie es in vielen vorausgehenden Blogeinträgen angesprochen worden ist, erweckt das Beispiel USA den Eindruck, dass dort die parlamentarische Kontrolle der Exekutive weitgehend außer Kraft gesetzt erscheint. Spätestens seit 9/11 2001 hat sich die Exekutive durch Gesetzesänderungen und Verordnungen weitgehend von jeglicher Kontrolle unabhängig gemacht und benutzt das Schlagwort von der ’nationalen Sicherheit‘ überall, um sowohl ihr Verhalten zu rechtfertigen wie auch die Abschottung des Regierungshandelns durch das Mittel der auswuchernden ‚Geheimhaltung‘. Es entsteht dadurch der Eindruck, dass die Erhaltung der nationalen Sicherheit, die als solche ja etwas Positives ist, mittlerweile dazu missbraucht wird, das eigene Volk mehr und mehr vollständig zu überwachen, zu kontrollieren und die Vorgänge in der Gesellschaft nach eigenen machtinternen Interessen (auf undemokratische Weise) zu manipulieren. Geheimdienstaktionen gegen normale Bürger, sogar gegen Mitglieder der Legislative, sind mittlerweile möglich und kommen vor. Der oberste Wert in einer Demokratie kann niemals die ‚Sicherheit‘ als solche sein, sondern immer nur die parlamentarische Selbstkontrolle, die in einer funktionierenden Öffentlichkeit verankert ist.

GRÜNES GRUNDSATZPROGRAM VON 2002

11. Bei der Frage nach der genaueren Bestimmung des Freiheitsbegriffs verweist Bütikofer auf SS.7ff auf das Grüne Grundsatzprogramm von 2002, das in 3-jähriger Arbeit alle wichtigen Gremien durchlaufen hatte, über 1000 Änderungsanträge verarbeitet hat und einer ganzen Vielzahl von Strömungen Gehör geschenkt hat. Schon die Präambel verrät dem Leser, welch großes Spektrum an Gesichtspunkten und Werteinstellungen Berücksichtigung gefunden haben.

12. Im Mittelpunkt steht die Würde des Menschen, der sehr wohl auch als Teil einer umfassenderen Natur mit der daraus resultierenden Verantwortung gesehen wird; der Aspekt der Nachhaltigkeit allen Handelns wird gesehen. Grundwerte und Menschenrechte sollen Orientierungspunkte für eine demokratische Gesellschaft bilden, in der das Soziale neben dem Ökonomischen gleichberechtigt sein soll. Diese ungeheure Spannweite des Lebens impliziert ein Minimum an Liberalität, um der hier waltenden Vielfalt gerecht zu werden.

13. Die Freiheit des einzelnen soll einerseits so umfassend wie möglich unterstützt werden, indem die gesellschaftlichen Verhältnisse immer ein Maximum an Wahlmöglichkeiten bereit halten sollten, zugleich muss die Freiheit aber auch mit hinreichend viel Verantwortung gepaart sein, um die jeweiligen aktuellen Situationen so zu gestalten, dass Lebensqualität und Nachhaltigkeit sich steigern.

ENGAGIERTE POLITIK vs. LIBERALISMUS UND FREIHEIT?

14. Reinhard Loske wirft auf SS.10ff die Frage auf, ob und wie sich eine ökologisch verpflichtete Politik mit ‚Liberalismus‘ vereinbaren könnte. Natürlich wäre ein unbeschränkter ‚wertfreier‘ Liberalismus ungeeignet, da sich dann keinerlei Art von Verantwortung und einer daraus resultierenden nachhaltigen Gestaltung ableiten ließe. Doch muss man dem Begriff des Liberalismus historisch gerecht werden – was Loske im Beitrag nicht unbedingt tut – , denn in historischer Perspektive war ein liberales Denken gerade nicht wertfrei, sondern explizit orientiert am Wert des Individuums, der persönlichen Würde und Freiheit, das es gegenüber überbordenden staatlichen Ansprüchen zu schützen galt, wie auch übertragen auf das wirtschaftliche Handeln, das hinreichend stark zu schützen sei gegenüber ebenfalls überbordenden staatlichem Eingriffshandeln das tendenziell immer dazu neigt, unnötig viel zu reglementieren, zu kontrollieren, ineffizient zu sein, Verantwortung zu nivellieren, usw.

15. Zugleich ist bekannt, dass wirtschaftliches Verhalten ohne jegliche gesellschaftliche Bindung dazu tendiert, die Kapitaleigner zu bevorteilen und die abhängig Beschäftigten wie auch die umgebende Gesellschaft auszubeuten (man denke nur an das Steuerverhalten von Konzernen wie z.B. google, amazon und Ikea).

16. Es muss also in der Praxis ein ‚Gleichgewicht‘ gefunden werden zwischen maximaler (wertgebundener) Liberalität einerseits und gesellschaftlicher Bindung andererseits. Doch, wie gerade die hitzigen Debatten um die richtige Energiepolitik in Deutschland und Europa zeigen, sind die Argumente für oder gegen bestimmte Maßnahmen nicht völlig voraussetzungslos; je nach verfügbarem Fachwissen, je nach verfügbaren Erfahrungen, ja nach aktueller Interessenslage kommen die Beteiligten zu unterschiedlichen Schlüssen und Bewertungen.

17. Loske selbst erweckt in seinem Beitrag den Eindruck, als ob man so etwas wie einen ‚ökologisch wahren Preis‘ feststellen kann und demzufolge damit konkret Politik betreiben kann. Angesichts der komplexen Gemengelage erscheint mir dies aber als sehr optimistisch und nicht wirklich real zu sein. Wenn man in einer solch unübersichtlichen Situation unfertige Wahrheiten zu Slogans oder gar Handlungsmaximen erhebt und gar noch versucht, sie politische durchzudrücken, dann läuft man Gefahr, wie es im letzten Bundeswahlkampf geschehen ist, dass man vor dem Hintergrund einer an sich guten Idee konkrete Maßnahmen fordert, die nicht mehr gut sind, weil sie fachlich, sachlich noch nicht so abgeklärt und begründet sind, wie es der Fall sein müsste, um zu überzeugen. Dann besteht schnell die Gefahr, mit dem Klischee der ‚Ideologen‘, ‚Fundamentalisten‘, ‚Oberlehrer‘ assoziiert zu werden, obgleich man doch so hehre Ziele zu vertreten meint.

OBERLEHRER DER NATION – NEIN DANKE

18. Im Eingangsartikel SS.4ff stellt Katharina Wagner genau diese Frage, ob verschiedene während des Wahlkampfs angekündigten konkrete Maßnahmen nicht genau solch einen Eindruck des Oberlehrerhaften erweckt haben, als ob die Grüne Partei trotz ihrer großen Werte und Ziele letztlich grundsätzlich ‚anti-liberal‘ sei. Doch bleibt ihre Position unklar. Einerseits sagt sie sinngemäß, dass sich das grüne Programm auf Freiheit verpflichtet weiß, andererseits verbindet sie die ökologische Verantwortung mit der Notwendigkeit, auch entsprechend konkrete und verpflichtende Maßnahmen zu ergreifen. So hält sie z.B. Verbote im Kontext der Gentechnik für unumgänglich. Müssen die Verbote nur besser kommuniziert werden? Gibt es verschiedene ‚Formen‘ von Regeln in einer Skala von ‚gusseisern‘ bis ‚freundliche Einladung‘?

19. Ich finde diese Argumentation unvollständig. Ihr mangelt der Aspekt – genauso wie im Beitrag von Loske –, dass das Wissen um das ‚ökologisch Angemessene‘ in der Regel höchst komplex ist; unser Wissen um die Natur, die komplexen Technologien ist in der Regel unfertig, kaum von einzelnen alleine zu überschauen und in ständiger Weiterentwicklung. Absolut klare und endgültige Aussagen hier zu treffen ist in der Regel nicht möglich. Zwar ist es verständlich, dass das politische Tagesgeschäft griffige Formeln benötigt, um Abstimmungsmehrheiten zu erzeugen, aber dieser Artefakt unseres aktuellen politischen Systems steht im direkten Widerspruch zur Erkenntnissituation und zu den Erfordernissen einer seriösen Forschung ( Mittlerweile gibt es viele Fälle, wo die Politik erheblichen Druck auf die Wissenschaft ausgeübt hat und ausübt, damit auch genau die Ergebnisse geliefert werden, die politisch gewünscht sind; das ist dann nicht nur kontraproduktiv sondern sogar wissenschaftsfeindlich, anti-liberal und auf Dauer eine massive Gefährdung unser Wissensbasis von der Welt, in der wir leben).

20. Eine politische Partei wie die der Grünen, die sich der ökologischen Dimension unserer Existenz verpflichtet wissen will, muss meines Erachtens, um ihre Glaubwürdigkeit zu wahren, weniger darauf bedacht sein, umfassende Vereinfachung durchzudrücken, sondern gerade angesichts der Verpflichtung für das Ganze massiv die wissenschaftlichen Erforschung der Phänomene unterstützen und den sich daraus ergebenden Ansätzen in ihrer ganzen Breite und Vielfalt Raum geben. Dazu müssten viel mehr Anstrengungen unternommen werden, das relevante Wissen öffentlich transparent zu sammeln und so aufzubereiten, dass es öffentlich diskutiert werden könnte. Alle mir bekannten Texte greifen immer nur Teilaspekte auf, betrachten kurze Zeiträume, vernachlässigen Wechselwirkungen, geben sich zu wenig Rechenschaften über Unwägbarkeiten und Risiken. So vieles z.B. an den Argumenten gegen Kernenergie und Gentechnik richtig ist, so fatal ist es aber, dass damit oft ganze Gebiete tabuisiert werden, die als solche noch viele andere Bereiche enthalten, die für eine ökologische Zukunft der Menschheit möglicherweise überlebenswichtig sind.

21. Kurzum, das ‚Oberlehrerhafte‘ und ‚Anti-Liberale‘ erwächst nicht automatisch aus einer Maßnahme als solcher, sondern daraus, wie sie zustande kommt und wie sie sachlich, wissensmäßig begründet ist. In einer komplexen Welt wie der unsrigen, wo die Wissenschaften selbst momentan eine akute Krise der Konsistenz und Qualität durchlaufen, erscheint es nicht gut, mangelndes Wissen durch übertriebenen Dogmatismus ersetzen zu wollen.

FREIHEIT UND GERECHTIGKEIT

22. Die zuvor schon angesprochene Komplexität findet sich ungebremst auch in dem Gespräch zwischen Dieter Schnaas, Kerstin Andreae und Rasmus Andresen (vgl. SS.8f). Hier geht es um maximal komplexe Sachverhalte zwischen verschiedenen sozialen Gruppen, Beschäftigungsverhältnissen, Einkommensstrukturen, Besteuerungssystemen, Versorgungssystemen, Umverteilung, Bildungsprozessen, Wirtschaft im allgemeinen wie auch unterschiedlichen Unternehmensformen und Wirtschaftsbereichen. Diese komplexen Begriffe auf nur zwei Seiten zu diskutieren erscheint mir unangemessen. Schon eine einigermaßen Definition jedes einzelnen dieser Begriffe würde Seiten benötigen.

23. In diesem Bereich griffige Parolen zu formulieren ist zwar eine anhaltende Versuchung und Herausforderung für jeden Politiker, aber dies ist in meinen Augen zum Scheitern verurteilt. Was immer man parolenhaft vereinfachend propagieren möchte, man wird mehr Kollateralschäden anrichten als wenn man das System zunächst einmal sich selbst überlassen würde. Beteiligte Bürger sind in der Regel in der Lage, Schwachstellen des gesellschaftlichen Systems zu erkennen, vorausgesetzt, man lässt diese zu Wort kommen. Und in der Regel wissen auch alle Beteiligte recht gut, in welche Richtung Lösungsansätze gesucht werden müssten, vorausgesetzt, man führt einen realen Dialog, transparent, undogmatisch, mit den notwendigen unterstützenden wissenschaftlichen Exkursen. Die ‚herrschenden‘ Parteien zeichnen sich hingegen bislang überwiegend dadurch aus, dass sie im Kern Lobbypolitik machen, die sie nur notdürftig mit allgemeinen Floskeln kaschieren. Im Prinzip hat die Partei der Grünen sehr gute strukturelle – und motivationale – Voraussetzungen, eine solche transparente, basisdemokratische, wissenschaftlich unterstütze Lösungsfindung zu propagieren und zu praktizieren, wenn sie etwas weniger ‚Oberlehrer‘ sein würde und etwas mehr ‚passionierter Forscher‘ und ‚kreativer Lösungsfinder‘.

WIDER DIE KONTROLLGESELLSCAFT

24. Das Thema ‚Abhören‘ ist zwar seit dem Sommer 2013 mehr und mehr im Munde aller, aber selten übersteigt die Diskussion den rein technischen Charakter des Abhörens oder führt über das bloße Lamentieren hinaus. Selbst die Bundesregierung zusammen mit den einschlägigen Behörden hat bis zu den neuesten Äußerungen der Bundeskanzlerin zum Thema wenig Substanzielles gesagt; im Gegenteil, die politische Relevanz wurde extrem herunter gespielt, die Brisanz für eine zukünftige demokratische Gesellschaft in keiner Weise erkannt.

25. Vor diesem Hintergrund hebt sich der Beitrag von Jan Philipp Albrecht (vgl. SS.6f) wohltuend ab. Er legt den Finger sehr klar auf die Versäumnisse der Bundesregierung, macht den großen Schaden für die deutsche und europäische Industrie deutlich, und er macht u.a. auch auf das bundesweite Sicherheitsleck deutlich, dass durch die Verwendung von US-amerikanischer Software in allen wichtigen Behörden und Kommunen besteht, von der man mittlerweile weiß, dass diese Software schon beim Hersteller für die US-amerikanische Geheimdienste geschützte Zugänge bereit halten. Albrecht macht die Konsequenzen für die Idee einer demokratisch selbstbestimmten Gesellschaft deutlich.

26. Was auch Albrecht nicht tut, ist, einen Schritt weiter zu gehen, und den demokratischen Zustand jenes Landes zu befragen – die USA –, aus dem heraus weltweit solche massenhaft undemokratischen Handlungen bewusst und kontinuierlich geplant und ausgeführt werden. Sind die USA noch minimal demokratisch? Müssen wir uns in Deutschland (und Europa) als Demokraten nicht auch die Frage stellen, inwieweit wir eine Verantwortung für die US-Bevölkerung haben, wenn ihre Regierung sich anscheinend schrittweise von allem verabschiedet, was man eine demokratische Regierung nennen kann? Wie können wir über Demokratie in Deutschland nachdenken, wenn unsere Partner Demokratie mindestens anders auslegen, wie wir? Diese – und weitergehende – transnationale politische Überlegungen fehlen mir in der Debatte der Grünen völlig. Wir leben nicht auf einer Insel der Seeligen. Was heißt ökologische Verantwortung auf einem Planeten, der zu mehr als 50% aus Staaten besteht, die nicht als demokratisch gelten, wobei ja selbst die sogenannten demokratischen Staaten vielfache Mängel aufweisen. Wie sollen wir z.B. die Umwelt schützen, wenn die meisten anderen Staaten keinerlei Interesse haben? usw.

FAZIT

27. Klar, die vorausgehenden Überlegungen sind sehr kursorisch, fragmentarisch. Dennoch, so unvollkommen sie sind, will man sich heute in der kaum überschaubaren Welt als einzelner eine Meinung bilden, hat man keine andere Möglichkeit, als die verschiedenen Gesprächsangebote aufzugreifen und sie mit den eigenen unvollkommenen Mitteln für sich versuchen, durchzubuchstabieren. Am Ende steht gewöhnlich keine neue Supertheorie, sondern – vielleicht – ein paar zusätzliche Querbeziehungen, ein paar neue Eindrücke, der eine der andere neue Aspekt, an dem es sich vielleicht lohnt, weiter zu denken.

28. Jeder, der heute nicht alleine vor sich hin werkeln will, braucht Netzwerke, in denen er ‚Gleichgesinnte‘ findet. Ich selbst bin zwar seit vielen Jahren offizielles Mitglied der Grünen, habe aber bislang – aus Zeitgründen – nahezu nichts gemacht (außer dass ich viele meiner FreundeInnen bewundert habe, die auf kommunaler Ebene konkrete Arbeit leisten). In den nächsten Jahren kann ich mich möglicherweise politisch mehr bewegen. Dies sind erste Annäherungsversuche, um zu überprüfen, ob und wieweit die Partei der Grünen ein geeignetes Netzwerk sein könnte, um politisch ein klein wenig mehr ‚zu tun‘. Allerdings verstehe ich mich primär als Philosoph und Wissenschaftler und ich würde den Primat des Wissens niemals aufgeben, nur um ‚irgendetwas zu tun‘ ….

Einen Überblick über alle bisherigen Blogeinträge nch Titeln findet sich HIER.

ZWISCHENREFLEXION: DEMOKRATIE – MEHR ALS NUR EIN WORT!

Letzte Änderungen (als Kommentar): 9.Sept.2013

1) In den letzten Wochen der Lektüre und Reflexionen zum Thema USA – Demokratie – Missbrauch von Demokratie – emergente Komplexität – Zukunft des Lebens auf der Erde habe ich nicht nur eine neue Nähe zu diesem alten Thema bekommen, sondern — vielleicht muss ich dies so direkt sagen — fast habe ich das Gefühl, dass ich überhaupt zum ersten Mal meine zu erahnen, welch ungeheuerliche Errungenschaft demokratische Gesellschaftsformen im Laufe der Evolution waren.
2) Für alle, die in Demokratien leben oder gar darin aufgewachsen sind, besteht allerdings immer die Gefahr, sich an das Wunderbare so zu gewöhnen, dass man es irgendwie gar nicht mehr wahrnimmt, es wird zum Alltag, ein Grau in Grau, in dem alltägliche Ereignisse die Wahrnehmung anfüllen und die ermöglichende Hintergründe verschwinden, verblassen, unwirklich werden, bis dahin, dass irgendwann niemand mehr so richtig weiß, dass man tatsächlich in einer Demokratie lebt; dass man noch versteht, was es bedeutet, in einer Demokratie zu leben, und welch ungeheure Prozesse in der Vergangenheit notwendig waren, dass es dazu kommen konnte.
3) Und es ist genau der Alltag, in dem sich einerseits der ‚Sinn von Demokratie‘ ‚erfüllt‘, indem die Menschen in einer Demokratie in einer Weise frei leben können, wie sie es in keinem anderen Gesellschaftssystem können; zum anderen ist es aber auch diese Freiheit — gerade dann, wenn sie zur ‚Normalität‘ wird — die in gewisser Weise Ertauben und Erblinden lässt für das Kostbare an ihr. Solange man genug zu Essen und zu Trinken hat wird man sich kaum darum kümmern, wo Essen und Trinken herkommt; erst wenn das Wasser knapp wird, wenn Essen ausbleibt, fängt man an, danach zu suchen. Dann kann es zu spät sein. Ohne Wasser kein Essen, ohne Essen kein Leben. Dann fehlt auch die Kraft zu allem anderen.
4) Neben der ‚Gewohnheit‘ schlechthin, die alle Gehirne einlullt (ob Reich oder Arm, ob ‚einfach‘ oder ‚gebildet‘, ob ‚machtfern‘ oder ‚machtvoll‘), sind es die Eigenart von Institutionen, die jedes Mitglied durch ihre Rollen und Regeln in ihren Bann ziehen. Davor ist keine Institution gefeit. Selbst eine ’staatliche‘ Einrichtung, die von ihrer juristischen Begründung her, dem ‚Staat dienen‘ soll, kann einem Staat nur in dem Masse dienen, wie ihre Mitglieder auch in der Weise ‚denken‘ und ‚fühlen‘, wie sie ihrem staatlichen Auftrag entspricht. Wie die Geschichte uns lehrt, gibt es zwischen dem ‚Auftrag‘ und dem ‚Denken‘ und ‚Fühlen‘ keinen Automatismus; das Handeln und das Selbstverständnis von Mitgliedern jeder Institution kann sich sehr weit von dem entfernen, was mit dem Auftrag gemeint ist. Und wenn die Leiter oder ‚Chefs‘ von Institutionen schon ’schiefliegen‘ (was sehr schnell der Fall sein kann), dann kann dies eine Institution sehr direkt und sehr schnell ‚prägen‘.
5) Da alle Institutionen diese Sollbruchstelle ‚Irrtum‘, ‚Fehlinterpretation‘, ‚unkritische Gewohnheiten‘ usw. besitzen, würde eine Demokratie versuchen, eine maximale Transparenz zwischen allen Institutionen herzustellen, Verfahren einrichten, die bewusst mit Irrtümern rechnen und die es erlauben, Irrtümer zu korrigieren. Dem steht die ’natürliche Eigentendenz‘ von Institutionen und ihren ‚Gewohnheiten‘ entgegen, sich ‚abzuschotten‘, da die Mitglieder von Institutionen ihre Arbeit und ihren Lebensunterhalt genau der Existenz dieser Institution verdanken. Je weniger Alternativen sie für sich sehen, umso mehr werden sie ‚ihre‘ Institution ’schützen‘. Alle ‚Abweichler‘ sind bedrohlich, alle ‚Neuerer‘ gefährlich! Transparenz und Erfolgskontrollen werden als ‚feindlich‘ interpretiert.
6) Diese ‚Selbstverliebtheit‘ von Institutionen ist unabhängig von ethnischen, ideologischen, politischen oder sonstigen Randbedingungen; es sind wir Menschen selbst mit unseren Bedürfnissen und Ängsten, die wir uns mit Institutionen ’solidarisieren‘, wenn wir den Eindruck haben, sie helfen uns.
7) In einer Demokratie braucht es genauso Institutionen wie in jeder anderen Gesellschaftsform. Während aber in einer Nicht-Demokratie Institutionen ausschließlich an den jeweiligen ‚Machthabern‘ und ‚Geldgebern‘ ausgerichtet sind (bei Beachtung der starken Eigeninteressen), ist in einer Demokratie eine Institution zwar auch dem ‚juristischen Auftraggeber‘ verpflichtet, daneben aber auch und nicht zuletzt der Bevölkerung, dem diese Institution ‚dienen‘ soll. Das schafft eine höhere Verantwortung, stellt eine größere Herausforderung dar, verlangt mehr von allen Beteiligten. Demokratische Gesellschaften setzen immer und überall ‚freie Bürger‘ voraus, die sich den grundlegenden Werten verpflichtet fühlen.
8) Und damit wird deutlich, wo die primäre Schwachstelle jeder Demokratie — wie aber auch letztlich jeder menschlichen Vereinigung — liegt: der ‚freie‘ und ‚wertebewusste‘ Bürger fällt nicht einfach so vom Himmel, er muss ‚entstehen‘ durch langwierige Lernprozesse, die nie aufhören. Er muss lernen, sich eine eigene Meinung zu bilden, die wirklichkeitsbezogen (= wahr) ist und zugleich ‚kritisch‘ in dem Sinne, dass er/sie weiß, warum er/sie das so sieht; er/sie hat Begründungen, kann begründen, kann Fragen stellen und kann Antworten finden.
9) Doch im Alltagsgeschäft — siehe die vielen früheren Blogeinträge –, in dem jeder um seinen Lebensunterhalt kämpfen muss, ist der Raum und die Zeit für notwendige Informations-, Kommunikations- und Denkprozesse mehr als knapp. Faktisch lässt jeder auf irgendeine Weise vieles ‚von anderen Denken‘ im Vertrauen, dass diese es schon richtig machen…. und das erscheint fast unausweichlich angesichts der — selbst erzeugten — wachsenden Komplexität der Umwelt.
10) Und in dem Masse, wie jeder auf den anderen angewiesen ist, muss er darauf vertrauen können, dass der andere das ‚Richtige‘ meint und tut. Vertrauen ist eine Grundkategorie in modernen komplexen Gesellschaften — auch wenn Vertrauen per se keine Korrektheit oder Richtigkeit garantiert. Selbst wenn der andere, dem man vertraut, beste Absichten hat, kann er irren.
11) Und hier wird wiederum deutlich, dass eine funktionierende, transparente, qualitativ hochwertige Öffentlichkeit die wichtigste Schlagader jeder lebendigen Demokratie ist. Beginnt diese zu leiden, wird diese geschwächt, wird sie verzerrt und manipuliert, dann zerbricht eine Demokratie quasi an ‚inneren Blutungen‘. Alle Mitglieder einer Demokratie — einschließlich ihrer Institutionen — werden desintegriert und partikuläre Interessen gewinnen die Oberhand (vorzugsweise Geheimdienste und Militär verbunden mit jenen Unternehmen, die dadurch profitieren (Paradebeispiel der zweit Irakkrieg)).
12) In solchen ‚verzerrten‘ undemokratischen Situationen können nur außergewöhnliche Maßnahmen (wie z.B. die von Martin Luther King oder anderen politischen Bewegungen) helfen, das allgemeine Bewusstsein so zu beeinflussen, dass eine Mehrheit sich für die notwendigen demokratischen Werte bereit findet. Demokratie ohne entsprechenden Einsatz kann es auf Dauer nie geben. Ein demokratisches Bewusstsein entsteht nicht von selbst. Es muss sich anlässlich von Fragestellungen aktiv und öffentlich formen (in diesem Kontext sind z.B. Polizeikräfte, die Demonstranten nicht mehr als ‚Bürger‘ wahrnehmen und nicht als solche behandeln, keine ‚demokratischen‘ Kräfte mehr, genauso wenig jene, die sie befehligen).
13) Doch zurück zum Grundsätzlichen: wenn die biologische Evolution nun mal diese exponentiell wachsende Komplexität aus sich heraus gesetzt hat und wir wissen, dass es ein ‚Optimum‘ nur geben kann, wenn alle Beteiligten sich dem Prozess — letztlich auf ‚demokratische‘ Weise !!! — nicht ‚unterwerfen‘, sondern sich bewusst und verstehend und motiviert ‚einordnen‘, dann ist Demokratie nicht nur ein polit-technisches Problem der hinreichenden Kommunikation, sondern auch ein Problem der ‚Motivation‘, der ‚Werte‘, ja sicher auch eines der geeigneten ‚Spiritualität‘. Woher soll all die Motivation kommen? Wie soll jemand sich für eine ‚gemeinsame Sache‘ einsetzen, wenn viele wichtige Vertreter in der Öffentlichkeit — meist aus Dummheit — ‚Egoismus‘ predigen, ‚Gewalt‘ verherrlichen, ‚Misstrauen‘ sähen, und Ähnliches mehr.
14) Nah betrachtet kann man ja niemanden zu einer ‚demokratischen Gesinnung‘ zwingen; noch so viele Anregungen und Lernprozesse bleiben ‚unvollendet‘, wenn die betreffende Person ‚von sich aus‘ ’nicht will‘. Umgekehrt heißt dies, eine demokratische Überzeugung und ein bewusstes demokratisches Verhalten sind Persönlichkeitsmerkmale von großem Wert, die einem ‚Geschenk‘ an die Gesellschaft gleich kommen. Die Menschen der amerikanischen Unabhängigkeitserklärung, die vielen Menschen und Bewegungen weltweit, die sich für die Rechte der Menschen und eine menschliche Gesellschaft einsetzen, sind alle nicht ‚Geschickte‘, sondern aus eigenem Antrieb ‚Berufene‘ für eine bessere menschliche Gesellschaft, letztlich für uns alle. ‚Demokraten‘ sind Menschen, die sich ihrer ‚Menschlichkeit‘ im Kontext aller anderen Menschen — auf die eine oder andere Weise — ‚bewusst‘ geworden sind und die mit ihrem Leben dazu beitragen wollen, dass wir ‚gemeinsam‘ eine Zukunft als ‚Menschen auf dieser Erde‘ haben.
15) Alle wissenschaftliche Erkenntnisse deuten darauf hin, dass wir den aktuellen Komplexitätssprung der Evolution nur in dem Umfang werden bewältigen können, in dem wir es schaffen, möglichst viele Bereiche der Menschheit ‚von innen her‘ dazu zu befähigen, die alltäglichen Prozesse entsprechend zu gestalten. Die Zukunft ist in diesem Sinne nicht nur eine technologische Herausforderung, sondern auch — und vielleicht je länger um so mehr — eine ‚personale‘, ’spirituelle‘ Herausforderung. Die Moral, Ethiken, Verhaltensmuster, Machtspiele der Vergangenheit werden nicht ausreichen, um die nächste Hürde zu nehmen. Bislang haben wir ‚Heilige‘ und ‚Helden‘ gern ins Museum gestellt als die großen Ausnahmen, auf möglichst hohe Podeste, dass nur ja niemand auf die Idee kommen könnte, solches Verhalten mit dem Alltag zu nahe in Verbindung zu bringen. Aber die Wahrheit ist, wir brauchen dieses ‚Heroisch-Heilige‘ für jeden von uns, letztlich. Es ist nur nicht ganz klar, wie wir diese ‚von innen getriebene‘ Bewegung wirksam fördern können. Möglicherweise müssen wir das auch gar nicht, weil jeder von uns dies ja letztlich verkörpert. Er muss sich seiner nur ‚bewusst werden‘. Der ‚freie Mensch‘ ist etwas ‚Unverfügbares‘, ein Stück ‚wahrhafter Offenbarung‘, und jede Religion, jedes politische System muss sich daran messen lassen. Ein am Leben interessiertes System kann nur in dem Masse ‚gut‘ sein, als es ‚freie Menschen‘ zulässt und fördert.

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

KULTURELLE AUTOIMMUNREAKTIONEN? oder: KONTROLLWAHN UND DIE ANGST UM SICH SELBST


(Unter twitter bei ‚cagentartist‘))

1) Treffen die Überlegungen im Blogeintrag ‚EMERGING MIND – Mögliche Konsequenzen‘ zu, dann befinden wir uns im Jahr 2013 an einem Punkt der Entwicklung des Geistes auf der Erde, der einen sich andeutenden umfassenden kulturellen Umbruch markiert.
2) In der Geschichte des Lebens auf der Erde gab es viele solcher Umbruchzonen, wobei der Begriff ‚Umbruchzone‘ nicht unproblematisch ist; schließlich ist jeder Abschnitt in der bisherigen Entwicklung letztlich eine Umbruchphase. Es scheint aber so zu sein, dass man Phasen unterscheiden kann, in denen aus Sicht der Beteiligten anscheinend ‚Weniger‘ oder gar ‚Nichts‘ geschieht gegenüber solchen, wo die Umbrüche durch real stattfindenden Veränderungen offensichtlicher zu sein scheinen.
3) Beispiele für global sichtbar werdende Strukturumbrüche waren die zuvor genannten ’neuen Strukturen S‘, die sich zum Vorausgehenden deutlich abhoben (Von der Anfangs-Energie zu den Quanten, von den Quanten zu den Atomen, …., von den einzelnen Zellen zu organisierten Zellverbänden, … die Sesshaftwerdung mit Ackerbau und Stadtbildung, ….. Motorisierung des Verkehrs, …. Gemeinsame Datenräume durch das Internet….).
4) Neben diesen Änderungen, die sich in realen Strukturänderungen widerspiegeln, gab es aber auch Änderungen, die sich in den semiotischen Räumen, in den deutenden ‚Weltbildern‘ abspielten, die nicht minder ‚real‘ und ‚wirksam‘ waren. So führte das Aufkommen experimenteller und formaler Methoden in der Renaissance nicht nur zu neuen Detailansichten, nein, es entstanden neue Zusammenhänge, neue Deutungsmuster, die sich zu einem kognitiven, wissensmäßigen Gegensatz zu den bisherigen Deutungsmustern aufbauten, weltanschauliche Konflikte hervorriefen, die die damals Mächtigen (die katholische Kirche) meinten, mit ‚Gewalt‘ kontrollieren und unterdrücken zu müssen. Galilei als ein Repräsentant dieser neuen Gedankenwelt sollte sich verleugnen, sollte abschwören, doch ca. 100 Jahre später waren diese neuen, gefährlich erscheinenden Gedanken in vielfältiger Weise in die Öffentlichkeit vorgedrungen. Die Erde bewegt sich um die Sonne und das Weltall ist erheblich größer, als sich jeder zuvor vorstellen konnte.
5) Weitere Umbrüche in der Deutung der Welt folgten (geologisch die Erde als Teil eines größeren Veränderungsprozesses, die biologische Evolution, das Gehirn als Organ des Fühlens und Denkens abhängig von physikalisch-chemischen Prozessen, die alltägliche Wirklichkeit als Artefakt unseres Denkens verglichen mit den zugrunde liegenden molekularen, atomaren, quantenhaften Strukturen, usw.). Allerdings scheint es so zu sein, dass die Ausbildungsprozesse mit der Explosion dieses Wissens über die Welt und uns selbst immer weniger Schritt halten können. In der Alltagswelt heute durchdringen zwar immer mehr technische Produkte als Konsequenz des erweiterten Denkens unseren Lebensraum, aber man hat nicht den Eindruck, dass im gemeinsamen öffentlichen Denken dieses Wissen tatsächlich ‚angekommen‘ ist.
6) Während digital gespeichertes Wissen sich – zumindest im Prinzip – beliebig schnell in beliebigen Mengen überall hin kopieren lässt, sich rasant schnell nahezu beliebigen formalen Operationen unterziehen lässt, haben die menschlichen biologischen Gehirne eine ihnen eingeborene eigene Langsamkeit, Trägheit, Begrenztheit, die dem Entstehen und dem Verwandeln von Wissen im einzelnen einen natürlichen Widerstand entgegen setzen. Was immer ein Individuum A in einer Generation G(t) schon alles erkannt und gedacht haben mag, ein Individuum B aus Generation G(t’>t) weiß dies alles nicht, es sei denn, er durchläuft ähnliche mühsame Lernprozesse. Solche Lernprozesse sind aber nicht notwendig, nicht zwingend, verlaufen nicht automatisch, und sind in ihren möglichen Inhalten nicht wirklich voraussagbar: keine Lernumgebung kann sicher stellen, dass die Inhalte, die die Lernorganisatoren intendieren, auch tatsächlich so in einem lernenden Individuum ‚entstehen‘.
7) Es ist von daher nicht erstaunlich, dass in einer Gesellschaft mit immer ‚mehr‘ und immer ‚komplexeren‘ Wissen immer weniger Menschen in der Lage sind, das bereits schon zuvor errungene Wissen für sich selbst erneut ‚wieder zu entdecken‘ und ‚für sich nutzbar‘ zu machen. Historisch bekannt ist der Untergang der griechischen Denkwelt samt ihren Schriften, der in Europa dann gut 1000 Jahre zu einer ‚Verdunklung‘ des Wissens geführt hatte. Erst über den Umweg vom Griechischen zum Arabischen (das damals das Wissen der Welt in sich aufsog) und dann wieder ins Lateinischen kam das ‚Licht der Erkenntnis‘ wieder nach Mitteleuropa. Ein langwieriger Übersetzungs- und Lernprozess, der nur durch den Aufbau eines neuen Ausbildungssystems (Schulen, erste Universitäten, Abschreiben, Kopieren und Übersetzen vieler Schriften…) über viele Jahrhunderte den Wissensstand von vorher ‚rekonstruierte‘ und durch diese aktive Rekonstruktion dann auch weiter entwickelte.
8) Wir leben heute in einer Welt von bizarren Wissensgegensätzen: während wir einerseits über einen Wissensschatz verfügen, der differenzierter und größer ist als jemals zuvor, erleben wir zugleich, dass viele Menschen, die meisten (?), sich in ihrem Wissen fragmentiert erleben, unvollständig oder, noch schlimmer, dass sie heute Weltbilder pflegen und für wahr halten, die 1000, 2000 Jahre alt sind, die mehrfach widerlegt wurden, aber die sie benutzen, als ob es die aktuellen Wahrheiten sind. Dies betrifft nicht nur solche Menschen, die aufgrund ihrer Lebensumstände keine oder fast keine Ausbildung genießen konnten, sondern sogar solche die Abitur haben, die studiert haben, ja sogar solche, die einen Doktortitel erworben haben. Unsere Wissenslandschaft ist mittlerweile so komplex und zerklüftet, dass Menschen mit Doktortiteln auftreten können und den letzten ‚Unsinn‘ erzählen, ohne dass ihnen bewusst ist, dass dem so ist.
9) In dieser Situation macht es keinen Sinn, die einzelnen dafür haftbar zu machen (obgleich natürlich schon jeder bis zu einem gewissen Grad Verantwortung für sein eigenes Denken trägt), sondern man muss den Kontext berücksichtigen, innerhalb dessen jemand heute Denken kann bzw. muss. Aus Sicht einer modernen Lerntheorie scheint es so zu sein, dass die Rahmenbedingungen für ein individuelles Lernen schwieriger denn je sind. Die Vielfalt der Methoden und die ungeheure Fülle an Fakten sind von einem einzelnen biologischen Gehirn nicht mehr bewältigbar. Eine Situation, die ich vor vielen Jahren schon mal als ’negative Komplexität‘ bezeichnet hatte: Komplexität, die da ist, die aber von uns nicht mehr hinreichend verarbeitet werden kann.
10) In einer solchen Situation wird es für alle Entscheidungsträger – insbesondere auch politisch Verantwortliche – immer schwieriger, das ‚Richtige‘ zu tun. Die Angst, dass alles aus dem Ruder läuft, außer Kontrolle gerät, ist real. Die Versuchung, durch immer mehr ‚Kontrollen‘ dieser ‚Unübersichtlichkeit‘ Herr zu werden ist real gegeben, wird immer stärker. Bedenkt man nun, dass diejenigen Menschen, die in höhere Verwaltungs- und Entscheidungspositionen drängen, tendenziell eher egozentriert sind, machthungrig, ’nicht zimperlich‘, es mit der Wahrheit eher nicht so genau nehmen, usw., dann erstaunt es nicht, zu sehen, wie heute weltweit in immer mehr Staaten die führenden Politiker autokratische Züge entwickeln, Meinungsfreiheit mehr und mehr unterdrücken, Technik dazu benutzen, immer mehr Datenströme und Lebenszuckungen der Menschen zu kontrollieren, einfache (in der Regel falsche) Weltbilder favorisieren, sich auch in sogenannten demokratischen Gesellschaften die Mächtigen von ‚den anderen‘ durch immer mehr Pseudoprivilegien abzusondern trachten, sich die alten absolutistischen Klassen von ‚früher‘ neu bilden.
11) Diese Phänomene stehen in seltsamem Kontrast zur tatsächlichen globalen Entwicklung des Lebens. Sie repräsentieren ‚Rückfälle‘, eine Art von ‚Verweigerung der Zukunft‘, sind ‚Reflexe‘ des ‚alten‘ Menschen vor der anrückenden Zukunft, die von jedem einzelnen Menschen und dann von den Gemeinschaften mehr verlangt als jeder einzelne bislang gewohnt ist, zu geben. Ob diese Reflexe stärker sind als das Neue, ob der Prozess des Lebens auf der Erde durch diese Anti-Reflexe zum Scheitern kommt, ist offen. Die ungeheure Wucht des bisherigen Lebens-Prozesses im Universum und auf der Erde kann den Verdacht nähren, dass die immanenten Faktoren dieses Prozesses stärker sind als die Abwehrreflexe eines Stadiums von Leben, das zu überschreiten ist. Wirklich wissen tut es vermutlich niemand, wie auch.
12) Vom individuellen biologischen Körper kennen wir nicht nur das Immunsystem, das auf geradezu fantastische Weise praktisch in jeder Sekunde gewaltige Abwehrschlachten gegen Millionen und Milliarden von Mikroorganismen führt. Wir haben gelernt, dass dieses Immunsystem sich auch irren kann; dann fängt es an, körpereigene Zellen zu bekämpfen, eine sogenannte Autoimmunreaktion. Wenn man sich den Lebensprozess auf der Erde anschaut, wie sich tatsächlich weltweit momentan in fast allen Ländern die politisch Verantwortlichen gegen den Trend stellen, dann drängt sich unwillkürlich das Bild einer globalen kulturellen Autoimmunreaktion auf: die Verantwortlichen, die für das Wohl ihrer jeweiligen Gesellschaften verantwortlich sind, wenden sich gegen ihre eigenen Gesellschaften, indem sie sich selbst zu ernst nehmen und das kreative Potential der jüngeren Generation mehr oder weniger mit Füssen treten (was nicht heißt, dass es auch viele Jüngere gibt, die sich totalitären Weltbildern zugewandt haben, die nicht besser sind; woher sollen sie es auch wissen?).
13) In diesem Kontext spielen die sogenannten ‚Offenbarungsreligionen‘ (die bekanntesten sind das Judentum, das Christentum, und der Islam) eine zwielichtige Rolle. Insofern sie alle einen ‚heißen Kern‘ haben der auf einen allumfassenden Schöpfergott ausgerichtet ist, haben sie prinzipiell einen ‚Anschluss‘ an den Lebensprozess im Universum; insofern sie aber diesen heißen Kern mit allzu viel historischen Zufälligkeiten, allzu zeitgebundenem Menschlichen aus ihren Entstehungszeiten um diesen Kern herum gesponnen haben, ist die immanente Sprengkraft eines universalen Gottesbildes weitgehend ‚abgedunkelt‘ worden durch Dinge, die irreführend oder falsch sind und die in der Vergangenheit allzu oft für persönliche Machtspielchen missbraucht wurden. Die Unwissenheit von Menschen für persönliche Machtinteressen zu instrumentalisieren ist eines der größten Verbrechen, das ein Mensch begehen kann (ein Gedanke, der sich u.a. im Neuen Testament der Christen findet; dort wird es Jesus von Nazareth als Aussage zugeschrieben (viele der heutigen Zeitungen, Radiostationen und Fernsehsender mit ihren Verantwortlichen haben in dieser Hinsicht möglicherweise schlechte Karten….)).

Eine Übersicht über alle bisherigen Blogbeiträge nach titeln findet sich HIER.

EMERGING MIND PROJECT – SICHTBARMACHUNG DES GEISTES PROJEKT – Erste Lebenszeichen

VORGESCHICHTE

1) In der Vergangenheit wurde in diesem Blog schon öfters über das Emerging Mind Project gesprochen; zu Beginn noch unter einem anderen Namen. Wobei letztlich – wer diesen Blog intensiv liest, wird es merken bzw. gemerkt haben – der ganze Blog im Grunde auf dieses Projekt hingeführt hat – was sich natürlich erst im Nachhinein so feststellen lässt.
2) Einige Blogeinträge, die einen besonders deutlichen Bezug haben zum Emerging Mind Project sind etwa die folgenden: Erste öffentliche Idee zu einem Projekt; damals noch ‚Reengineering Goethes Faust‘ genannt.; Treffen im Cafe Siesmayer; die Projekt-Idee gewinnt weiter an Fahrt. Überlegungen zu ein paar theoretischen Begriffen; Im Anschluss an die Brasilienvorträge erste Konkretisierungen des ‚Geist‘-Begriffs im Kontext der Evolution; das zog weitere Kreise; die ausführliche Reflexion zu Kauffmans Buch brachte an vielen Punkten wertvolle Anregungen; Beobachtungen im Kontext des Komplexitätsbegriffs und seiner Verdichtung in der globalen Evolution; weitere Präzisierung zur Beschleunigung der Komplexitätsentwicklung.

ROLLE DES BLOGS FÜR EMP

3) Im Blog geht es auf der persönlichen Seite um die Klärung der eigenen Fragen und Gedanken; auf der offiziellen Ebene geht es um eine philosophische Auseinandersetzung mit dem heute verfügbaren Wissen um unsere gemeinsame Welt. Dabei kam es bislang schon zu erstaunlichen Umakzentuierungen. Aus meiner Sicht besonders stimulierend ist die Klärung des Verhältnisses von Philosophie und Wissenschaft (Wissenschaft als Untergebiet der Philosophie), Philosophie und Kunst (Kunst ist der kreative Teil des Denkens), Philosophie und Theologie (Theologie als jener Teil der Philosophie, der sich speziell mit der Frage der möglichen ‚Botschaft in allem‘ beschäftigt und den sich daraus ergebenden spezifischen Anforderungen an den einzelnen (Spiritualität)). Eine Konsequenz vom letzten Punkt scheint zu sein, dass alle bisherigen Religionen damit in einer einzigen Religion münden, in einem Universum, mit einem Sinn für alle (was nicht heißt, dass alle den einen Sinn in gleicher Weise ‚interpretieren‘).

EMERGING MIND PROJECT – INM 11.Juni 2013

4) Am 11.Juni 2013 gab es im Institut für neue Medien (INM)(Frankfurt) eine erste öffentliche Veranstaltung im Rahmen der unplugged heads Reihe, die sich offiziell dem Emerging Mind Projekt widmete. Michael Klein (Mitgründer und Direktor des INMs), Gerd Doeben-Henisch (Professur für ‚Dynamisches Wissen‘ an der FH Frankfurt, Mitgründer und Vorstand des INM), Manfred Faßler (Professor am Institut für Kulturanthropologie und Europäische Ethnologie an der Johann Wolfgang Goethe-Universität in Frankfurt am Main. Seine Forschungs- und Lehrbereiche sind die Medienevolution und medienintegrierte Wissenskulturen. )
5) Dieses Treffen diente dem Zweck, das öffentliche Gespräch zum Projekt zu eröffnen und war – auch entsprechend der offenen Gesprächskultur der unplugged heads Reihe – sehr locker. Im Folgenden folgt keine Beschreibung dieses Gesprächs sondern ein paar Gedanken, die der Autor des Blogs im Anschluss an dieser Veranstaltung hatte.

EXPERIMENTELLE MUSIK

6) Wer rechtzeitig da war, konnte zur Einstimmung ein Stück experimentelle Musik hören mit dem Titel They Appear and Disappear von cagentArtist. Gegen Ende wurde auch noch das Stück Another Pattern-Cloud Exercise, extended aufgeführt, ebenfalls von cagentArtist. Bei dieser Musik handelt es sich nicht um Musik für den Konzertsaal, sondern um ‚Labormusik‘, die nach der ‚Radically Unplugged‘ Methode im Labor erzeugt wird zur Erforschung des Klangraums unter spezifischen Randbedingungen.

IDEENGESCHICHTLICHER WENDEPUNKT?

7) An diesem Abend kamen in sehr intensiven 3 Stunden sehr viele interessante Aspekte zur Sprache. Mir selbst wurde im Laufe des Abends bewusst, dass man die Geschichte der Ideen möglicherweise neu strukturieren könnte bzw. müsste. Der große ‚Umschaltpunkt‘ wäre dann die Zeit des Auftretens der neuen experimentellen und formalen Wissenschaften (ungefähr ab der Renaissance) bis zum Emerging Mind project. Denn bis zum Aufkommen und zur gesellschaftlich relevanten Etablierung der neueren Wissenschaften konnotierten die Menschen das ‚Lebendige‘ im Gegensatz um ‚Nichtlebendigen‘ mit etwas Besonderem, schrieben im besondere Eigenschaften zu, und einer der dabei benutzten Begriffe (mit jeweils anderen Worten in anderen Sprachen) war der Begriff ‚Geist‘, der insbesondere dem Lebewesen Mensch inne zu wohnen schien.

‚GEIST‘ FRÜHER

8) Der Begriff ‚Geist‘ ist aber – wie sich jeder in den Zeugnissen der Geschichte überzeugen kann – alles andere als klar und gebunden an eine Vielzahl von ‚Manifestationen‘, die alle Bereiche überdecken: normales Leben, Rhetorik, Handwerk, Kunst, Philosophie usw. Man kann diesen Begriff wie so eine Art ‚imaginären Fluchtpunkt aller Projektionen‘ ansehen, die man auf den Menschen aufgrund seines erfahrbaren Verhaltens richten konnte. Mit neuzeitlichen Begriffen könnte man mit Kant vielleicht von einer allgemeinen ‚transzendentalen Bedingung‘ sprechen, die man annehmen muss, um die verschiedenen Erscheinungsweisen des Menschen zu verstehen. Noch moderner könnte man von einer ‚Funktion‘ sprechen, die dem ‚Körper‘ des Menschen eben jene charakteristischen Eigenschaften verleiht, die wir als spezifisch ‚Menschlich‘ ansehen gelernt haben.
9) Nebenbei: Es gibt ein starkes Wechselverhältnis zwischen diesen Auffassungen von ‚Geist‘ und der Annahme einer menschlichen ‚Seele‘. Ich habe aber nicht den Eindruck, dass dieses Verhältnis bislang abschließend geklärt wurde. Dies mag darin begründet sein, dass beide Begriffe ‚geist‘ und ‚Seele‘ in sich weitgehend unbestimmt sind; sie leben von ‚Randbedingungen‘, von ‚Konnotationen‘, von ‚Manifestationen‘, von begrifflich-logischen Schlüssen, die wenig Anhaltspunkte in der Realität haben.

AUSTREIBUNG DES BEGRIFFES ‚GEIST‘

10) Für den Gesamtzusammenhang wichtig ist es, dass diese über viele tausend Jahre anhaltende vage Sprechweise von ‚Geist‘ mit der Entwicklung der experimentellen und formalen Wissenschaften immer mehr an Anhaltspunkten verloren hat. Die Erforschung der realen Natur und des Weltalls konnte zunächst nirgends ‚Geist‘ entdecken und trugen damit zum Bilde eines ‚toten, leeren Weltalls‘ bei. Parallel führten die Untersuchungen der Entstehung der Lebensformen und des Körpers dazu, dass man zwar immer mehr Details der Körper und ihres ‚Formenwandels‘ entdeckte, aber auch nirgends ‚Geist‘ dingfest machen konnte. Im Körper fand man über all nur Zellen; auch isolierte Zellen im Gehirn (ca. 100*10^6), und jede Zelle zerfällt in Moleküle, diese in Atome, diese in Quanten, usw. Nirgends traf man auf ‚Geist‘. Damit geriet das Selbstbild des Menschen, seine Besonderheiten immer mehr in einen Erklärungsnotstand. Theologische Interpretationen verlieren weitgehend ihre rationale Basis; sie hängen quasi ‚in der Luft‘.
11) Betrachtet man die verschiedenen einzelwissenschaftlichen Erkenntnisse, dann sind sie alle transparent, nachvollziehbar, wirken sie rational. Allerdings leiden nahezu alle diese Erkenntnisse an der einzelwissenschaftlichen Zersplitterung; keine Disziplin hat mehr die Zusammenhänge im Blick.

RÜCKKEHR DES ‚GEISTES‘ – MENS REDIVIVUS?

12) Die massivste Erschütterung dieses trostlosen Blicks auf unendlich viele Einzelteile, die sich im Dunst der Quanten und primären Anfangsenergie zu verlieren scheinen, kommt nun aber ausgerechnet nicht von den Geisteswissenschaften (dazu sind ihre Elfenbeintürme doch ein bisschen zu hermetisch geworden), auch nicht von der Anatomie und den Neurowissenschaften, sondern von jener Disziplin, die die Entzauberung des alten Weltbildes als erste begonnen hatte: von der Physik.
13) Es sind letztlich Physiker, die auf unterschiedliche Weise die Ungereimtheiten der Strukturbildungen seit dem Energieausbruch des Big Bang bemerken und beim Namen nennen. Schon der Übergang von reiner Energie zu Quanten gibt fundamentale Fragen auf. Während das Gesetz von der Entropie bei Vorliegen von Energieungleichheiten (sprich Strukturen) einen großen Teil von Vorgängen des gerichteten Ausgleichs beschreiben kann, versagt das Entropiegesetz vollständig für den umgekehrten Vorgang, für die Erklärung einer anhaltenden Strukturbildung, und nicht nur einer ‚Strukturbildung einfach so‘, sondern einer Strukturbildung mit einer sich exponentiell beschleunigten Komplexität.
14) Angestoßen von diesen drängenden Fragen der Physiker kann man beginnen, die verschiedenen Evolutionen (chemische, biologische, soziale, usw.) als ‚Hervorbringungen von immer komplexeren Strukturen‘ zu sehen, für die bestimmte ‚Strukturbildungsfunktionen‘ zu unterstellen sind, die weitab vom ‚Zufall‘ operieren.
15) Erste Indizien deuten darauf hin, dass die exponentielle Beschleunigung daraus resultiert, dass die zum Zeitpunkt t entstandenen Strukturen S mitursächlich dafür sind, dass die nächsten noch komplexeren Strukturen S‘ zum Zeitpunkt t+n gebildet werden können. Wir haben also eine Art Zusammenhang S'(t+n) = f(S(t)) mit ‚f‘ als der unbekannten Funktionalität, die dies ermöglicht.
16) Wenn man jetzt weiß, dass Funktionen (man denke nur an einfache Additionen oder Subtraktionen) nicht an den Elementen ablesbar sind (also man hat ‚4‘, ‚2‘, und nach der Addition hat man ‚6‘), sondern als Funktionszusammenhang in einem ‚anderen Medium‘ vorausgesetzt werden müssen, dann ist klar, dass die Analyse der Bestandteile von Körpern oder Zellen oder Atomen usw. niemals das zutage fördern, was eigentlich interessant ist, nämlich deren Funktionalität. Wenn nun also das mit ‚Geist‘ Gemeinte mit solchen zu unterstellenden (da sich in Ereignissen manifestierende) Funktionen konnotieren würde, dann wäre klar, dass die vielen einzelwissenschaftlichen Detailanalysen so gut wie keine interessanten Zusammenhänge enthüllen können; die ‚Unsichtbarkeit‘ von ‚Geist‘ wäre dann nicht der Tatsache geschuldet, dass es so etwas wie ‚Geist‘ nicht gäbe, sondern der Tatsache, dass wir nur ‚falsch hinschauen‘.
17) Hier bleibt einiges zu tun.

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

Randbemerkung: Komplexitätsentwicklung (Singularität(en)) – Teil 2

Letzte Änderung: 24.Mai 2013, 09h15m

1) In dem vorausgehenden Beitrag Komplexitätsentwicklung – Teil 1 gab es erste Skizzen zu möglichen ‚Kurven‘, in denensich in einer ersten Annäherung eine Form von ‚Beschleunigung‘ komplexitätssteigernder Ereignisse andeutete. Irgendwie haben diese Gedanken weitergearbeitet. Nach weiterem Durchdenken und Betrachten verfügbarer Daten hat sich das Bild weiter verschärft, ohne dass ich zu weit gehen konnte; dazu fehlt einfach die Zeit.
2) Das nachfolgende Bild zeigt exemplarisch in der ersten Spalte Daten von evolutionären Ereignissen, die stattgefunden haben, und zwar wieviele Jahre ‚vor heute‘ (Before NOW = 2013)(in Mrd.Jahren, 10^9). In der zweiten Spalte ist die Differenz zwischen jeweils zwei benachbarten Jahren angegeben, d.h. wie lange hat es gedauert, bis es zum nächsten Ereignis kam. Da diese Zahlen in einer Spannweite von 10^10 bis 10^0 liegen, habe ich diese in LOG-Werte umgerechnet (z.B. log(1000)=6.9077553). Dadurch rücken die Zahlen enger zusammen.

The Event Time is given in 10^9 years before NOW=2013. The Differences are tacken from two adjacent events. The LOG-values are taken from the differences

The Event Time is given in 10^9 years before NOW=2013. The Differences are tacken from two adjacent events. The LOG-values are taken from the differences

3) Im Allgemeinen gilt, wenn eine Folge von Werten LOG-Werte darstellen (siehe folgendes Bild), die man als eine (monoton steigende) Gerade repräsentieren kann, dann repräsentieren die zugehörigen Ausgangswert eine exponentiell ansteigende Kurve (siehe nachfolgendes Bild).

Lineare Log-Werte (oberes Bild) können exponentiell wachsende Ausgangswerte (unteres Bild) repräsentieren

Lineare Log-Werte (oberes Bild) können exponentiell wachsende Ausgangswerte (unteres Bild) repräsentieren

4) Betrachtet man (im nachfolgenden Bild) die LOG-Werte der realen Abstände zwischen den realen Ereignissen, dann bilden diese zwar keine ideale Gerade, man kann aber deutlich erkennen, dass sie monoton fallend sind, was eine Gerade annähert. Dies bedeutet, dass die zugehörigen realen Differenzwert (siehe vorausgehende Tabelle zweite Spalte) sich exponentiell verhalten, und zwar immer schneller immer kleiner werden. Was dazu führt, dass die letzten komplexitätssteigernden Ereignisse so eng beieinanderliegen, dass sie im ursprünglichen Maßstab nicht mehr unterscheidbar sind. Dies stellt eine ‚Verdichtung‘ dar.

Graphical representation of the LOG-values.

Graphical representation of the LOG-values.

5) Die Liste der Ereignisse wurde wie folgt gewählt:

  1. ‚AgeUniv‘ steht für das Alter des bekannten Universums (‚age of universe‘), das vom sogenannten ‚Big Bang‘ aus gerechnet wird.
  2. ‚ChemicalEvolStart‘ steht für den Beginn der chemischen Evolution (’start of chemical evolution‘). Hier kann man zwei Standpunkte einnehmen: Entweder (i) indem man den Beginn der chemischen Evolution generell in die Phase des ersten Auftretens von Atomen überhaupt verlagert, oder (ii) in die Phase der Molekülbildung seit Beginn der Erde. Im Fall (i) würde die chemische Evolution in eine frühe Phase des Big Bangs selbst fallen, da sich schon dort erste Synthesen von Kernen vollzogen haben (siehe: Erste Kernsynthesen); dazu auch Inflationsmodell). Ich tendiere dazu, die chemische Evolution erst nach der Entstehung der Erde zu beginnen lassen, da hier die Ereignisse gezählt werden sollen, die für die biologische Evolution auf der Erde zentral waren. Doch kann man das sicher diskuteren.
  3. ‚BiolEvolStart‘ steht für den Beginn der biologischen Evolution, die mit dem Auftreten erster Zellen beginnt. Nach neuesten Untersuchungen (auch: Ergebnisse 2 wird dies schon einige Zeit vor den ersten archäologisch nachweisbaren Artefakten angeonommen.!
  4. ‚TerraBactStart‘ steht für ‚Terrabakterien‘, den ersten Lebensformen, die das Land besiedelt haben.
  5. ‚MultiCellStart‘ markiert die ersten multizellulären Organismen.
  6. ‚AnimalStart‘ markiert die ersten Tiere.
  7. ‚LandColonStart‘ markiert den Beginn der Kolonisierung des Landes.
  8. ‚UpApesStart‘ steht für den Beginn des aufrechten Gangs, der lange vor dem Auftreten des homo sapiens sapiens stattfand!
  9. ‚StoneTooles‘ markiert das erste Auftreten von Steinwerkzeugen.
  10. ‚HuntingStart‘ markiert den Beginn von Jagden in Gruppen.
  11. ‚FireStart‘ markiert die Erfindung des Feuers.
  12. ‚HomoSap2‘ repräsentiert das Autreten des homo sapiens sapiens in Afrika; nach heutigen Erkenntnissen die Vorfahren aller Menschen, die heute auf der Erde leben.
  13. ‚AgricultureStart‘ der Beginn von Ackerbau und Viehzucht. Die entscheidende Voraussetzung für die Ernährung von mehr Menschen.
  14. ‚CityStart‘: Als eine Konsequenz aus dem fortschreitenden Ackerbau ist die Entwicklung größerer Ansiedlungen bis hin zur Bildung erster Städte (‚CityStart‘).
  15. ‚ScriptStart‘: Es kam ein paar tausend Jahre Später zur Entwicklung der Schrift (‚ScriptStart‘).
  16. ‚RailStart‘: Viele tausend Jahre später kam es zur Erfindung der Eisenbahn (‚ RailStart‘),
  17. des Telefons (‚PhoneStart‘)
  18. und des Autos (‚CarStart‘), die alle zusammen die Verbindung zwischen den Menschen auf dem Land verbesserten.
  19. ‚CompStart‘ leitet das Zeitalter der ‚programmierbaren Maschinen‘ (= Computern) ein.
  20. ‚WWWStart‘ markiert dann den Beginn der Vernetzung von Computern weltweit.

6) Natürlich ist diese Tabelle ergänzungsbedürftig und sicher kann man über Details diskutieren, doch zeigt sich ein grundlegender Tabestand schon mit diesen Daten als kaum noch übersehbar: es gibt eine klare Zunahme an Komplexität, und die Geschwindigkeit dieser Zunahme ist nicht linear sondern exponentiell.
7) Natürlich müsste man hier auch nochmals die Kriterien von Komplexität genauer beschreiben und worin genau die ‚Effekte‘ dieser sich verdichtenden Komplexität bstehen. Dies wird geschehen, sobald ich Zeit haben werde, dies aufzuschreiben.

Keine direkte, aber eine thematische, Fortsetzung findet sich in der Besprechung und Diskussion des Buches An Inventive Uiverse von Denbigh. Siehe zusammenfassend den Teil 4 der Besprechung.

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet man HIER