Archiv für den Monat: März 2013

REDUKTIONISMUS, EMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 5

Vorheriger Beitrag Teil 4

Letzte Änderung (mit Erweiterungen): 12.April 2013, 06:26h

ALLGEMEINE EINSCHÄTZUNGEN ZU SEELE, GEIST UND WISSENSCHAFTEN

1. Im nächsten Kapitel ‚Mind‘ (etwa ‚Geist‘ (es gibt keine eindeutigen begrifflichen Zuordnungen in diesem Fall)) (SS.177-196) handelt Kauffman vom ‚Geist‘ des Menschen einschließlich dem besonderen Aspekt ‚(Selbst-)Bewusstsein‘ (‚consciousness‘) mit jenen Beschreibungsversuchen, die er für nicht zutreffend hält. Es folgt dann ein Kapitel ‚The Quantum Brain‘ (etwa ‚Das Quantengehirn‘) (SS.197-229), in dem er seine mögliche Interpretation vorstellt. Seine eigene Grundüberzeugung stellt er gleich an den Anfang, indem er sagt, dass der menschliche Geist (i) nicht ‚algorithmisch‘ sei im Sinne eines berechenbaren Ereignisses, sondern (ii) der Geist sei ‚Bedeutung und tue Organisches‘ (‚is a meaning and doing organic system‘). (iii) Wie der Geist Bedeutung erzeuge und sein Verhalten hervorbringe, das sei jenseits der aktuellen wissenschaftlichen Erklärungsmöglichkeiten.(vgl. S.177)
2. [Anmk: Seiner grundsätzlichen Einschätzung, dass eine vollständige wissenschaftliche Erklärung bislang nicht möglich sei (iii), kann ich nur zustimmen; wir haben mehr Fragen als Antworten. Die andere Aussage (ii), dass Geist ‚is a meaning and doing organic system‘, ist schwierig zu verstehen. Was soll es heißen, dass der Geist (‚mind‘) ‚doing organic system‘? Hier kann man nur raten. Ein sehr radikaler Interpretationsversuch wäre, zu sagen, dass der ‚Geist‘ etwas ist, was die Entstehung von organischen Systemen ermöglicht. Damit würde Geist fast schon zu einem ‚inneren Prinzip der Materie‘. Aus den bisherigen Ausführungen von Kauffmann gäbe es wenig Anhaltspunkte, das zu verstehen. Die andere Aussage (i), dass ‚Geist‘ (‚mind‘) ‚Bedeutung‘ sei, ist ebenfalls nicht so klar. Die Standardinterpretation von ‚Bedeutung‘ wird von der Semiotik geliefert. Innerhalb der Semiotik ist aber speziell der Begriff der Bedeutung, wie man sehr schnell sehen kann keinesfalls einfach oder klar. Ohne eine eigene Theorie verliert man sich in den historisch gewachsenen Verästelungen. Es gibt eine Vielzahl von Denkversuchen, die sich nicht auf einen gemeinsamen Denkrahmen zurückführen lassen. Die Geschichte der Ideen ist generell ein faszinierendes Phänomen ohne eine zwingende Logik. Die muss man sich selbst erarbeiten.]

ALGORITHMISIERUG VON GEIST

3. Auf den Seiten 178-182 zählt er einige wichtige Personen und Konzepte auf, die der Begriff ‚algorithmisch‘ in seiner historischen Entwicklung konnotiert. Da ist einmal Turing, der ein mathematisches Konzept von ‚Berechenbarkeit‘ gefunden hat, das bis heute die Grundlage für alle wichtigen Beweise bildet. Daneben von Neumann, der ’nebenher‘ eine Architektur für reale Computer erfunden hat, die als Von-Neumann-Architektur zum Ausgangspunkt der modernen programmierbaren Computers geworden ist. Ferner stellt er McCulloch vor und Pitts. McCulloch und Pitts gelten als jene, die als erstes eine erfolgreiche Formalisierung biologischer Nervenzellen durchgeführt haben und mit ihren McCulloch-Pitts Neuronen das Gebiet der künstlichen neuronalen Zellen begründeten. Das Besondere am frühen Konzept von McCulloch-Pitts war, dass sie nicht nur ein formales Modell von vernetzten künstlichen Neuronen definierten, sondern dass sie zusätzlich eine Abbildung dieser Neuronen in eine Menge formaler Aussagen in dem Sinne vornahmen, dass ein Neuron nicht nur eine Prozesseinheit war mit dem Zustand ‚1‘ oder ‚0‘, sondern man ein Neuron zugleich auch als eine Aussage interpretieren konnte, die ‚wahr‘ (‚1‘) sein konnte oder ‚falsch‘ (‚0‘). Damit entstand parallel zu den ‚rechnenden‘ Neuronen – in einer ’symbolischen‘ Dimension – eine Menge von interpretierten logischen Aussagen, die man mit logischen Mitteln bearbeiten konnte. Kauffman diskutiert den Zusammenhang zwischen diesen drei Konzepten nicht, stellt dann aber einen Zusammenhang her zwischen dem Formalisierungsansatz von McCulloch-Pitts und seinem eigenen Konzept eines ‚Boolschen Network Modells‘ (‚Boolean network model‘) aus Kapitel 8 her [hatte ich im Detail nicht beschrieben][Anmerkung: Vor einigen Jahren hatte ich mal versucht, die Formalisierungsansätze von McCulloch und Pitts zu rekonstruieren. Sie benutzen die Logik, die damals Carnap entwickelt hatte, erweitert um den Faktor Zeit. Mir ist keine konsistente Rekonstruktion gelungen, was nicht viel besagen muss. Möglicherweise war ich zu dumm, zu verstehen, was Sie genau wollen.]
4. Sowohl am Beispiel des ‚rechnenden Neurons‘ (was Kauffman und viele andere als ’subsymbolisch‘ bezeichnen) wie auch am Beispiel der interpretierten Aussagen (die von Kauffman als ’symbolisch‘ bezeichnete Variante) illustriert Kauffman, wie diese Modelle dazu benutzt werden können, um sie zusätzlich in einer dritten Version zu interpretieren, nämlich als ein Prozessmodell, das nicht nur ‚Energie‘ (‚1‘, ‚0‘) bzw. ‚wahr’/ ‚falsch‘ verarbeitet, sondern diese Zustände lassen sich abbilden auf ‚Eigenschaften des Bewusstseins‘, auf spezielle ‚Erlebnisse‘, die sich sowohl als ‚elementar’/ ‚atomar‘ interpretieren lassen wie auch als ‚komplex’/ ‚abstrahiert‘ auf der Basis elementarer Erlebnisse. (vgl. S.180f)
5. [Anmerkung: Diese von Kauffman eingeführten theoretischen Konzepte tangieren sehr viele methodische Probleme, von denen er kein einziges erwähnt. So muss man sehr klar unterscheiden zwischen dem mathematischen Konzept der Berechenbarkeit von Turing und dem Architekturkonzept von von Neumann. Während Turing ein allgemeines mathematisches (und letztlich sogar philosophisches!) Konzept von ‚endlich entscheidbaren Prozessen‘ vorstellt, das unabhängig ist von irgend einer konkreten Maschine, beschreibt von Neumann ein konkrete Architektur für eine ganze Klasse von konkreten Maschinen. Dass die Nachwelt Turings mathematisches Konzept ‚Turing Maschine‘ genannt hat erweckt den Eindruck, als ob die ‚Turing Maschine‘ eine ‚Maschine sei. Das aber ist sie gerade nicht. Das mathematische Konzept ‚Turing Maschine‘ enthält Elemente (wie z.B. ein beidseitig unendliches Band), was niemals eine konkrete Maschine sein kann. Demgegenüber ist die Von-Neumann-Architektur zu konkret, um als Konzept für die allgemeine Berechenbarkeit dienen zu können. Ferner, während ein Computer mit einer Von-Neumann-Architektur per Definition kein neuronales Netz ist, kann man aber ein neuronales Netz auf einem Von-Neumann-Computer simulieren. Außerdem kann man mit Hilfe des Turing-Maschinen Konzeptes untersuchen und feststellen, ob ein neuronales Netz effektiv entscheidbare Berechnungen durchführen kann oder nicht. Schließlich, was die unterschiedlichen ‚Interpretationen‘ von neuronalen Netzen angeht, sollte man sich klar machen, dass ein künstliches neuronales Netz zunächst mal eine formale Struktur KNN=[N,V,dyn] ist mit Mengen von Elementen N, die man Neuronen nennt, eine Menge von Verbindungen V zwischen diesen Elementen, und einer Übergangsfunktion dyn, die sagt, wie man von einem aktuellen Zustand des Netzes zum nächsten kommt. Diese Menge von Elementen ist als solche völlig ’neutral‘. Mit Hilfe von zusätzlichen ‚Abbildungen‘ (‚Interpretationen‘) kann man diesen Elementen und ihren Verbindungen und Veränderungen nun beliebige andere Werte zuweisen (Energie, Wahr/Falsch, Erlebnisse, usw.). Ob solche Interpretationen ’sinnvoll‘ sind, hängt vom jeweiligen Anwendungskontext ab. Wenn Kauffman solche möglichen Interpretationen aufzählt (ohne auf die methodischen Probleme hinzuweisen), dann sagt dies zunächst mal gar nichts.]

GEHIRN ALS PHYSIKALISCHER PROZESS

6. Es folgt dann ein kurzer Abschnitt (SS.182-184) in dem er einige Resultate der modernen Gehirnforschung zitiert und feststellt, dass nicht wenige Gehirnforscher dahin tendieren, das Gehirn als einen Prozess im Sinne der klassischen Physik zu sehen: Bestimmte neuronale Muster stehen entweder für Vorgänge in der Außenwelt oder stehen in Beziehung zu bewussten Erlebnissen. Das Bewusstsein hat in diesem Modell keinen ‚kausalen‘ Einfluss auf diese Maschinerie, wohl aber umgekehrt (z.B. ‚freier Wille‘ als Einbildung, nicht real).
7. [Anmk: Das Aufzählen dieser Positionen ohne kritische methodische Reflexion ihrer methodischen Voraussetzungen und Probleme erscheint mir wenig hilfreich. Die meisten Aussagen von Neurowissenschaftlern, die über die Beschreibung von neuronalen Prozessen im engeren Sinne hinausgehen sind – vorsichtig ausgedrückt – mindestens problematisch, bei näherer Betrachtung in der Regel unhaltbar. Eine tiefergreifende Diskussion mit Neurowissenschaftlern ist nach meiner Erfahrung allerdings in der Regel schwierig, da ihnen die methodischen Probleme fremd sind; es scheint hier ein starkes Reflexions- und Theoriedefizit zu geben. Dass Kauffman hier nicht konkreter auf eine kritische Lesart einsteigt, liegt möglicherweise auch daran, dass er in den späteren Abschnitten einen quantenphysikalischen Standpunkt einführt, der diese schlichten klassischen Modellvorstellungen von spezifischen Voraussetzungen überflüssig zu machen scheint.]

KOGNITIONSWISSENSCHAFTEN; GRENZEN DES ALGORITHMISCHEN

8. Es folgt dann ein Abschnitt (SS.184-191) über die kognitiven Wissenschaften (‚cognitive science‘). Er betrachtet jene Phase und jene Strömungen der kognitiven Wissenschaften, die mit der Modellvorstellung gearbeitet haben, dass man den menschlichen Geist wie einen Computer verstehen kann, der die unterschiedlichsten Probleme ‚algorithmisch‘, d.h. durch Abarbeitung eines bestimmten ‚Programms‘, löst. Dem stellt Kauffman nochmals die Unentscheidbarkeits- und Unvollständigkeitsergebnisse von Gödel gegenüber, die aufzeigen, dass alle interessanten Gebiete der Mathematik eben nicht algorithmisch entscheidbar sind. Anhand der beiden berühmten Mathematiker Riemann und Euler illustriert er, wie deren wichtigsten Neuerungen sich nicht aus dem bis dahin Bekanntem algorithmisch ableiten ließen, sondern auf ‚kreative Weise‘ etwas Neues gefunden haben. Er zitiert dann auch die Forschungen von Douglas Medin, der bei seinen Untersuchungen zur ‚Kategorienbildung‘ im menschlichen Denken auf sehr viele ungelöste Fragen gestoßen ist. Wahrscheinlichkeitstheoretische Ansätze zur Bildung von Clustern leiden an dem Problem, dass sie nicht beantworten können, was letztlich das Gruppierungskriterium (‚Ähnlichkeit‘, welche?) ist. Aufgrund dieser grundsätzlichen Schwierigkeit, ‚Neues‘, ‚Innovatives‘ vorweg zu spezifizieren, sieht Kauffman ein grundsätzliches Problem darin, den menschlichen Geist ausschließlich algorithmisch zu definieren, da Algorithmen – nach seiner Auffassung – klare Rahmenbedingungen voraussetzen. Aufgrund der zuvor geschilderten Schwierigkeiten, solche zu bestimmten, sieht er diese nicht gegeben und folgert daraus, dass die Annahme eines ‚algorithmischen Geistes‘ unzulänglich ist.
9. [Anmk: Die Argumente am Beispiel von Goedel, Riemann, Euler, und Medin – er erwähnte auch noch Wittgenstein mit den Sprachspielen – würde ich auch benutzen. Die Frage ist aber, ob die Argumente tatsächlich ausreichen, um einen ‚algorithmischen Geist‘ völlig auszuschliessen. Zunächst einmal muss man sich klar machen, dass es ja bislang überhaupt keine ‚Theorie des Geistes an sich‘ gibt, da ein Begriff wie ‚Geist‘ zwar seit mehr als 2500 Jahren — betrachtet man nur mal den europäischen Kulturkreis; es gibt ja noch viel mehr! — benutzt wird, aber eben bis heute außer einer Unzahl von unterschiedlichen Verwendungskontexten keine einheitlich akzeptierte Bedeutung hervorgebracht hat. Dies hat u.a. damit zu tun, dass ‚Geist‘ ja nicht als ‚direktes Objekt‘ vorkommt sondern nur vermittelt in den ‚Handlungen‘ und den ‚Erlebnissen‘ der Menschen in unzähligen Situationen. Was ‚wirklich‘ mit ‚Geist‘ gemeint ist weiß insofern niemand, und falls doch, würde es allen anderen nichts nützen. Es gibt also immer nur partielle ‚Deutungsprojekte‘ von denen die kognitive Psychologie mit dem Paradigma vom ‚Geist‘ als ‚Computerprogramm‘ eines unter vielen ist. Hier müsste man dann nochmals klar unterscheiden, ob die psychologischen Modelle explizit einen Zusammenhang mit einer zugrunde liegenden neuronalen Maschinerie herstellen oder nicht. Versteht man die wissenschaftliche Psychologie als ein ‚empirisches‘ Deutungsprojekt, dann muss man annehmen, dass sie solch einen Zusammenhang explizit annimmt. Damit wäre ein algorithmisches Verhalten aus der zugrunde liegenden neuronalen Maschinerie herzuleiten. Da man nachweisen kann, dass ein neuronales Netz mindestens so rechenstark wie eine Turingmaschine ist, folgt daraus, dass ein neuronales Netzwerk nicht in allen Fällen algorithmisch entscheidbar ist (Turing, 1936, Halteproblem). Dies bedeutet, dass selbst dann, wenn der menschliche Geist ‚algorithmisch‘ wäre, daraus nicht folgt, dass er alles und jedes berechnen könnte. Andererseits, wie wir später sehen werden, muss man die Frage des Gehirns und des ‚Geistes‘ vermutlich sowieso in einem ganz anderen Rahmen bedenken als dies in den Neurowissenschaften und den Kognitionswissenschaften bislang getan wird.]

GEIST OPERIERT MIT ‚BEDEUTUNG‘

10. Es folgen (SS.192-196) Überlegungen zur Tatsache, dass der ‚Geist‘ (‚mind‘) mit ‚Bedeutung‘ (‚meaning‘) arbeitet. Welche Zeichen und formale Strukturen wir auch immer benutzen, wir benutzen sie normalerweise nicht einfach ’nur als Zeichenmaterial‘, nicht nur rein ’syntaktisch‘, sondern in der Regel im Kontext ‚mit Bezug auf etwas anderes‘, das dann die ‚Bedeutung‘ für das benutzte Zeichenmaterial ausmacht. Kauffman bemerkt ausdrücklich, dass Shannon in seiner Informationstheorie explizit den Aspekt der Bedeutung ausgeschlossen hatte. Er betrachtete nur statistische Eigenschaften des Zeichenmaterials. Ob ein Zeichenereignis eine Bedeutung hat bzw. welche, das muss der jeweilige ‚Empfänger‘ klären. Damit aber Zeichenmaterial mit einer möglichen Bedeutung ‚verknüpft‘ werden kann, bedarf es eines ‚Mechanismus‘, der beides zusammenbringt. Für Kauffman ist dies die Eigenschaft der ‚Agentenschaft‘ (‚agency‘). Wie der menschliche Geist letztlich beständig solche neuen Bedeutungen erschafft, ist nach Kauffman bislang unklar.
11. Es folgen noch zwei Seiten Überlegungen zur Schwierigkeit, die nichtlineare Relativitätstheorie und die lineare Quantentheorie in einer einzigen Theorie zu vereinen. Es ist aber nicht ganz klar, in welchem Zusammenhang diese Überlegungen zur vorausgehenden Diskussion zum Phänomen der Bedeutung stehen.

Fortsezung mit Teil 6.

Ein Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER

REDUKTIONISMUS, EMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 4

Vorausgehender Teil 3

NICHTVORAUSSAGBARKEIT DER WIRTSCHAFT

1. Im Kapitel ‚The Evolution of the Economy‘ (‚Die Evolution der Wirtschaft‘) (SS.150-176) beschreibt Kauffman, wie sich die bislang aufgefundenen Eigenschaften der Nichtergodizität und der Präadaptation auch im Bereich der Wirtschaft – bei ihm in Anlehnung an die ‚biosphere‘ ‚ecosphere‘ genannt – wiederfinden, mit allerlei Konsequenzen. Z.B. folgt aus der Annahme der Gültigkeit seiner Modellvorstellungen, dass eine Wirtschaft – in der Theorie – am besten gedeihen kann, wenn es eine möglichst große Vielfalt gibt. Denn dann ist die Chance zur Bildung neuer, innovativer – koevolutionärer – Lösungen am höchsten. Das System stimuliert sich dann quasi ’selbst‘, immer mehr. Zugleich folgt aus seinem Modell die prinzipielle Nichtvoraussagbarkeit der diversen Entwicklungen. (vgl.S.150f)
2. Als ein Beispiel für die Schwierigkeit der Voraussagbarkeit des wirtschaftlichen Geschehens und der Nichtreduzierbarkeit dieser Vorgänge auf die Physik führt Kauffman das berühmte Arrow-Debreu Modell des kompetitiven Gleichgewichts an (heute ein Kern der General equilibrium theory). Das Arrow-Debreu Modell wird bisweilen auch Arrow-Debreu-McKenzie Modell genannt, da neben Kenneth Arrow und Gérard Debreu später Lionel W.McKenzie einige Verbesserungen in das Modell eingebracht hatte.
3. Die Nichtreduzierbarkeit auf die Physik sieht Kauffman dadurch gegeben, dass die teilnehmenden Markt-Akteure u.a. auch mit ‚Werten‘ operieren, die sie den verschiedenen handelbaren Gütern zuordnen. Da nach Kauffman physikalische Modelle nur über reale Ereignisse in der realen Welt operieren können, folgt für ihn aus dieser Annahme die Nichtanwendbarkeit der Physik. (vgl. S.155) [Anmerkung: Wie schon früher angemerkt, hängt diese Schlussfolgerung an einer bestimmten Definition von Physik. Wenn man davon ausgeht, dass die Physik sich prinzipiell mit der ‚ganzen‘ Natur beschäftigt, dann würde sich die Physik – mit wachsenden Einsichten in die Besonderheiten der Welt – konzeptuell beständig weiter ausdehnen! Vom Selbstverständnis einer Physik her wären dann auch Akteure mit Werturteilen nicht notwendigerweise aus einer physikalischen Theoriebildung ausgeschlossen. Dann aber wären alle heute bekannten wissenschaftlichen Disziplinen nur ‚Spielarten‘ der einen Disziplin Physik. Das wirkt auch nicht sehr überzeugend. Hier stellt sich die wissenschaftstheoretische Frage nach der Abgrenzbarkeit der verschiedenen Disziplinen voneinander bzw. nach ihrer möglichen inhaltlichen Beziehung. Ich habe nicht den Eindruck, dass diese Frage bislang irgendwo nennenswert diskutiert wird. Aus ökonomischen und politischen Überlebensinteressen heraus erscheint eine erfolgreiche Abgrenzung meist erfolgversprechender als eine diffuse Vereinigung.]
4. Die Nichtanwendbarkeit der ökonomischen Modelle – und damit die Unmöglichkeit einer seriösen Voraussagbarkeit – sieht Kauffman sowohl in der Nichtvoraussagbarkeit der zu einem bestimmten Zeitpunkt tatsächlich vorhandenen Güter gegeben wie auch in der Nichtvoraussagbarkeit der zu einem bestimmten Zeitpunkt neu erfundenen Güter.(vgl. S.155) Der tiefere Grund scheint in der Unmöglichkeit zu liegen, den ökonomischen Entwicklungsprozess selbst zu modellieren.(vgl. S.156).
5. Kauffman erwähnt auch die Theorien game theory (‚Spieltheorie‘) und rational expectations (‚Rationale Erwartungen‘). In beiden Fällen sieht er eine Nichtanwendbarkeit in der Realität, da diese Theorien – wie schon im Falle der zuvor erwähnten Gleichgewichtstheorie – die zugrunde liegenden nicht voraussagbaren Entwicklungsprozesse weder beschreiben noch in Rechnung stellen können. (vgl. SS.156-158)
6. [Anmk: In der grundsätzlichen Kritik würde ich Kauffman zwar folgen, aber die Frage ist, ob man damit diesen verschiedenen Theoriebildungen gerecht wird. Insofern die genannten Theorien einen ‚totalen‘ Erklärungsanspruch erheben, muss man sie sicher kritisieren, da sonst falsche Erwartungen geweckt werden. Aber der Wert dieser Theorien liegt in der Praxis meist darin, dass die beteiligten Wissenschaftler mit Hilfe solcher Theorien (= Modellen) versuchen, ihr Verständnis der wirtschaftlichen Vorgänge zu klären und zu schärfen. Ohne solche Modelle gäbe es nur ein Grau-in-Grau von Datenfluten ohne erkennbare Strukturen. Mit solchen Modellen zeigen sich mögliche interessante Strukturen, die Anlass geben können, weiter zu denken. Und in allen drei Fällen kann man beobachten, wie diese Modellbildungen eine anhaltende Diskussion erzeugt haben und erzeugen, die zu immer weiteren Klärungen voranschreitet, einschließlich massiver Kritik, warum das Modell als Ganzes oder Teile davon nicht anwendbar sind. ]

WIRTSCHAFT UND AUTOKATALYSE

7. Nachdem Kauffman drei sehr prominente Modelle ökonomischen Geschehens in dem Punkt kritisiert hat, dass sie den allem Geschehen zugrunde liegende Prozess der Entwicklung nicht beschreiben, stellt er selbst ein Modell für solch einen Entwicklungsprozess vor. Dazu benutzt er wieder sein schon mehrfach zitiertes ‚autokatalytisches Modell‘. Die Kernidee ist ja, dass es zu einem bestimmten Zeitpunkt eine bestimmte Menge von Gütern und Akteuren gibt. Zu einem Gut gibt es entweder ein ‚komplimentäres‘ Gut (ein Auto benötigt Reifen, eine Innenausstattung, usw.) oder ein ’substituierendes‘ Gut (z.B. statt Dampfantrieb ein Elektroantrieb). Diese komplimentären und ersetzenden Möglichkeiten stehen ferner in Wechselwirkungen mit einem an Akteure gebundenen Bedarf, der seiner Natur nach in keiner Weise umfassend und erschöpfend beschrieben noch vorweg genommen werden. Man kann leicht sehen, wie diese wechselseitigen ‚Stimulationen‘ umso vielfältiger und intensiver sein können, als die aktuelle Menge an verfügbaren Gütern und erwartenden Akteuren größer und vielfältiger ist. Kauffman spricht hier von Ko-Konstruktionen bzw. Ko-Evolution. Und, so wenig dieser gesamte Prozess des sich wechselseitigen Stimulierens und Hervorbringens in irgend einer Weise voraussagbar ist, so wenig ist auch das erfinderische Verhalten der beteiligten Akteure, der Menschen, als solches voraussagbar. (SS.158-163)
8. Auf den Seiten 163-172 stellt Kauffman dann konkrete Simulationen vor, die mit Computerversionen des Modells gerechnet worden sind. Die Details spielen hier keine Rolle. Allerdings zeigt sich in diesen Simulationen, dass verschiedene Phänomene in diesem Modell einem ‚Potenzgesetz‘ (‚power law‘) folgen. Damit stellt er eine Verbindung her zum Modell der ’selbstorganisierenden Kritikalität‘ Self-organized criticality (SOC), das in der Physik entdeckt worden war zur Beschreibung komplexer Phänomene in der Natur. Er selbst konnte in Experimenten nachweisen, wie sich die Verteilung der Lebenszeit von Individuen oder die Verteilung von Aussterbensereignisse mit solch einem Modell beschreiben lassen.(vgl. S.172f) Das Modell der selbsorganisierenden Kritikalität lies sich auch anhand der Daten der Lebenszeit von Firmen nachweisen. (vgl.S.174)

GRENZEN VON COMPUTERMODELLEN ZUR VORAUSSAGE WIRTSCHAFTLICHER PROZESSE

9. Abschliessend zweifelt er daran, dass man mittels Computersimulationen wirtschaftliche Prozesse so simulieren könne, dass man daraus belastbare Vorhersagen für die Zukunft gewinnen könnte.(vgl.S.174) Nochmals zitiert er Gödel mit seinem Unvollständigkeitsbeweis und stellt mit Blick auf die ökonomischen Modelle fest, dass die Ergebnisse von Gödel im Falle der Ökonomie auf jeden Fall auch zutreffen.
10. [Anmk: Eine detaillierte Diskussion der verschiedenen von Kauffman zitierten Modelle und Theorien ist in dem hier gesetzten Rahmen einer ersten Besprechung nicht geeignet. In anderen Kontexten werde ich verschiedene dieser Modelle noch genauer untersuchen und dann bei Gelegenheit im Blog darüber berichten. Die grundsätzliche Stossrichtung der Argumentation erscheint mir aber plausibel und wichtig. In der Tat ist es die innere Logik des Prozesses selbst, die interessant ist und die daraus sich ergebende Nichtvoraussagbarkeit der nächsten Prozesschritte. Dennoch geschieht das Ganze nicht vollständig ‚planlos‘, was sich aus verschiedenen Voraussetzungen ergibt. Hier zeigt sich eine interessante Paradoxie, die weiter zu ergründen ist.]

Zur Fortsetzung siehe Teil 5

Eine Übersicht über alle bisherigen Einträge in den Blog nach Titeln findet sich HIER.

REDUKTIONISMUS, EMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 3

Vorausgehender Teil 2

Letzte Änderung (mit Erweiterung): 24.März 2013

ZUSAMMENFASSUNG TEIL 1-2:

(1) Nach einer Charakterisierung des ‚Reduktionismus‘ am Beispiel der modernen Physik führte Kauffman verschiedene Argumente gegen diesen Reduktionismus an. Daraus und aus weiteren Argumenten formte er dann Argumente für die Nichtreduzierbarkeit des Biologischen auf das Physikalische. Diese führten dann zurück zum Ursprung des Lebens, zur unglaublichen Komplexität dieses Anfang und zugleich der anhaltenden Schwierigkeit, diesen Anfang plausibel erklären zu können. Kauffman präsentiert dabei auch ein eigenes Modell, das Modell der autokatalytischen Mengen, das — zumindest mathematisch – viele der wichtigen Fragen zu erklären scheint. Die dann folgenden Gedanken sind sehr ‚dicht‘ und kombinieren mehrere komplexe Konzepte: z.B. Begriffe wie ‚Bedeutung‘, ‚Wert‘, ‚Handeln‘, ‚Handelnder‘, ‚Zeichen‘ als wichtige Eigenschaften des Biologischen. Dazu die Frage nach möglichen Vorläufern, nach ‚allerersten Handelnden‘, sozusagen ‚Protoagenten‘. Zusätzlich wird angenommen, dass sich auf das Verhalten eines biologischen Systems der Begriff ‚zielgerichtet‘ anwenden lässt, der weitere Begriffe wie ‚Bedeutung‘, ‚Wert‘, ‚Absicht‘ und ‚Handelnder‘ impliziert. Schon auf der Ebene einer einzelnen Zelle sieht Kauffman alle wichtigen Eigenschaften als gegeben an: Zellen können ‚entdecken‘ (‚detect‘), sie haben eine ‚Wahl‘ (‚choice‘), und sie können ‚handeln‘ (‚act‘). Zusätzlich können sie sich ‚reproduzieren‘ und können mindestens einen ‚Arbeitszyklus‘ (‚work cycle‘ (im Sinne einer Carnot-Maschine) ausführen. Zusätzlich aber, und dies hebt Kauffman hervor, benötigen diese Systeme die Fähigkeit, diese Zufuhr von freier Energie zu organisieren. Dazu gehört die Fähigkeit der ‚Speicherung‘ von Energie und der Selbstreproduktion. Kauffman schlägt vor, diese ‚Zielgerichtetheit‘, die ein außenstehender Betrachter in solch einem evolutionären Prozess ‚erkennen‘ kann, als eine spezifische Eigenschaft solcher Systeme zu sehen, die er ‚Handlungsfähigkeit‘ (‚agency‘) nennt. Am Beispiel eines einfachen Bakteriums verdeutlicht Kauffman diese Begriffe weiter und führt an dieser Stelle fundamentale Begriffe kognitiver Prozesse ein wie ‚Semiose‘, ‚Zeichen‘, ‚Bedeutung‘, Absicht‘ usw. In diesem Zusammenhang erwähnt Kauffman nochmals David Hume (1711 – 1776), der die philosophische These aufgestellt hatte, dass man aus einem einfache ‚Sein‘, aus bloßen ‚Fakten‘, kein ‚Sollen‘ ableiten kann. Die zuvor von Kauffman vorgelegte Interpretation eines Proto-Handelnden würde dies einerseits bestätigen (der Gradient als solcher impliziert nichts), aber andererseits würde deutlich, dass ein Faktum (der Gradient) innerhalb der Beziehung zu einem System, das diesen Gradienten als ‚Zeichen‘ für etwas ‚interpretieren‘ kann, das für das System einen ‚Wert‘ darstellt, in den ‚Kontext eines Sollens‘ geraten kann, das vom interpretierenden System ausgeht. Während Arbeit für einen Physiker nach Kauffman beschrieben werden kann als eine ‚Kraft die über eine Distanz wirken kann‘, reicht dies nach Peter Atkins (Chemiker) nicht aus: Arbeit nimmt auch Bezug auf ‚Einschränkungen‘ (‚constraints‘), durch die die Freiheitsgrade verringert werden und diese Einschränkungen wiederum erlauben neue Arbeit. Er nennt dies das ‚Vorantreiben der Organisation von Prozessen‘ (‚propagating the organization of processes‘). Er erwähnt in diesem Zusammenhang den Unterschied zwischen ‚Wärme‘ (‚heat‘) und ‚Arbeit (‚work‘). Die maximale Verschiedenheit von Bewegungen in einem Gas liegt vor, wenn die Moleküle eine maximale Bewegungsfreiheit haben, also ein Minimum an Einschränkungen. Dieser Zustand erzeugt ‚Wärme‘ aber leistet keine ‚Arbeit‘. Um ‚Arbeit‘ zu verrichten muss man die Freiheitsgrade ‚einschränken‘. Kauffman kritisiert ferner das sehr verbreitete Konzept der ‚Information‘ nach Shannon bzw. das algorithmische Informationskonzept von Kolmogorov und meint, dass dieser Informationsbegriff zu kurz greift. Beiden Konzepten ist gemeinsam, dass sie letztlich nur nach der Menge der Informationen fragen, die übermittelt wird, aber vollständig offen lassen, ‚was‘ Information denn letztlich ist.
(2) [ANMERKUNG: Schon die bisherigen Ausführungen zeigen, dass Kauffmans Reflexionen sich komplexer Begriffe (‚Handelnder‘, ‚Semiose‘,…) bedienen, die er von ‚außen‘ an das ‚Phänomen‘ heranträgt. Die Phänomene selbst ‚zwingen‘ diese Begriffe ’nicht‘ auf; als reflektierender Beobachter kann man aber bei Kenntnis solcher Konzepte ‚Ansatzpunkte im Phänomen‘ sehen, die die Anwendung solcher Begriffe ’nahelegen‘. Folgt man seinen Deutungsvorschlägen, dann kann man in der Tat zwischen den Phänomenen und den vorgeschlagenen Begriffen eine Reihe von Zusammenhängen ‚erkennen‘, die die ‚reinen Fakten‘ in ‚komplexe Phänomene‘ ‚verwandeln‘, die sich einer aktuell möglichen physikalischen Interpretation entziehen.]
(3) Auf den SS.101-119 untersucht Kauffman unter der Überschrift ‚Order for Free‘ verschiedene mathematische Modelle, die emergente Phänomene simulieren. Auf die technischen Details gehe ich hier nicht weiter ein. [Anmk: Ich werde diese Modelle ab SS2013 im Rahmen meiner Vorlesungen testen und dann gelegentlich nochmal darüber berichten. Für die zentralen Aussagen der folgenden Kapitel spielen die Details keine Rolle.]

NICHTERGODISCHES UNIVERSUM

(4) Auf den SS 120-128 untersucht Kauffman das ‚Nichtergodische Universum‘ (Nonergodic Universe‘). Mit ‚Ergodizität‘ (‚Ergodicity‘) ist eine gewisse ‚Gleichheit‘ gemeint, die sich in der Gesamtheit der Ereignisse feststellen lässt, die unter Voraussetzung einer ‚Endlichkeit‘ eine ‚Wiederholbarkeit‘ impliziert. ‚Nichtergodizität‘ meint dann, dass nicht alle Ereignisse gleich häufig sind; damit wird das, was tatsächlich vorkommt, ‚besonders‘. Und Kauffman geht davon aus, dass die Entwicklung des Universums in allen bekannten Phasen in diesem Sinne besonders, ‚einzigartig‘ (‚unique‘) ist und sich hierin ’nicht wiederholt‘. (vgl. S.120f)
(5) Mittels einer Modellrechnung versucht er dies zu verdeutlichen: er nimmt das Beispiel von Proteinen mit jeweils L=200 Aminosäurebausteinen (tatsächliche Proteine können erheblich länger sein). Nimmt man an, dass 20 verschiedene Aminosäurebausteine verfügbar sind, dann ergibt sich die Menge aller möglichen Kombinationen als 20^200, dies entspricht 1.6 * 10^260. Als Alter des Universums nimmt er 10^17 s an. Ferner nimmt Kauffman beispielhaft an, dass für die Bildung eines Moleküls 10^-15 s benötigt würden. Er errechnet dann die Zahl von 10^67 Wiederholungen der gesamten Geschichte des Universums, um alle möglichen Poteine zu bilden [Anmk1: ich hatte 1.6*10^213 errechnet]. [Anmk2: Die Annahme von Kauffman setzt voraus, dass die Proteine nacheinander gebildet werden. Würde man annehmen, dass der Bildungsprozess parallel stattfinden würde, könnten natürlich zur gleichen Zeit viel mehr Proteine gebildet werden. Nimmt man – sehr idealisierend – an, dass sich innerhalb von 10^-15 s 10^80 Proteine bilden würden, dann wären dies innerhalb eines Durchlaufs des Universums vom BigBang bis heute 10^112 verschiedene Proteine. Das entspräche einem verschwindend kleinen Prozentsatz von 9.95*10^-111 % aller möglichen Proteine (der Länge 20). Das würde bedeuten, dass die Geschichte des gesamten Universums auch in diesem extrem unwahrscheinlichen Fall paralleler Erzeugung noch 1.6*10^148 mal wiederholt werden müsste, um alle möglichen Proteine der bescheidenen Länge L=200 zu bilden. Die Annahme eines ergodischen Universums für den Bereich der biogenen Moleküle erscheint also als stark unzutreffend.]
(6) Und Kauffman merkt an, dass dieser nicht-ergodische Charakter sich auf alle komplexen Phänomene oberhalb der Atome erstreckt.(vl. S.123). [Anmk: In Abwandlung der Kauffmanschen Überlegungen zu den autokatalytischen Prozessen könnte man auch folgende Überlegung formulieren: bei allen Prozessen, in denen sich komplexe Strukturen aus einfacheren Strukturen bilden, beobachten wir, dass in einem bestimmten Raumgebiet R_i sich eine spezifische Anfangsmenge S_j von Strukturen gebildet hat, deren Nachfolgezustand nf(S_j)=S_(j+1) sich durch Stattfinden bestimmter endlicher Veränderungen ’nf‘ (Operationen) bilden. D.h. die Menge der möglichen nachfolgenden Strukturen ist nachhaltig bestimmt durch die vorausgehende Stufe. Dadurch wird die Menge der ‚formal möglichen‘ Strukturen eingeschränkt auf die Menge der ‚historisch möglichen‘ Strukturen. Dies kann ’negativ‘ wirken im Sinne einer unnötigen Beschränkung. Man kann diesen Prozess aber auch so verstehen, dass die zu einem bestimmten Zeitpunkt ‚erreichten‘ Strukturen eine Art ‚Strukturgedächtnis‘ bilden von dem, was möglich ist. Die nachfolgenden Zeitpunkte müssen also nicht bei ‚Punkt Null‘ anfangen sondern können die ‚bisherigen Erfahrungen‘ nutzen. Das wiederum wäre im Sinn einer ‚Wissensbildung‘ ein ‚positiver‘ Fortschritt und wäre genau jene Form von ‚Beschleunigung‘, die die realen evolutionären Prozesse von den formalen Modellen reiner Zufälle unterscheidet. Da sich ferner nur solche Strukturen auf Dauer behaupten können, die sich im Kontext ‚bewähren‘, weil sie den ‚Gegebenheiten entsprechen‘, bilden solche ‚memorierten Strukturen‘ nicht nur eine ’neutrale, zufallsgesteuerte‘ Selektion, sondern eine ‚ko-evolutive‘ Entwicklung im Sinne eines strukturellen ‚Echos‘ auf das, was durch die Vorgabe der jeweiligen Umgebung ‚erwartet‘ wird.] Und nach weiteren spekulativen Modellexperimenten (vgl. S.123ff) folgert er dann, dass durch das Aufkommen von nichtergodischen = historischen Prozessen die Gewinnung von zureichenden Wahrscheinlichkeiten im realen Universum prinzipiell nicht möglich ist (höchstens unter sehr speziellen Randbedingungen). Damit gewinnt das Universum einen sowohl nicht-zufälligen Charakter und besitzt doch – quasi paradox — zugleich eine Nichtvoraussagbarkeit.(vgl.S.127f)

ADAPTION, PRÄADAPTION, KO-EVOLUTION

(7) Im folgenden Kapitel ‚Breaking The Galilean Spell‘ (etwa: Das Brechen von Galileis Zauber)(SS.129-149) versucht Kauffman nicht nur das, was er den ‚Zauber Galileis‘ nennt, ‚auszutreiben‘ (vgl.S.131), sondern auch – positiv – die Grundlage zu legen für seine ‚Wiederentdeckung des Heiligen‘.(vgl. S.130) Zur Erinnerung: Der ‚Zauber Galileis‘ besteht für Kauffman darin, dass die neue Form der wissenschaftlichen Beschreibbarkeit der Natur, die – natürlich nicht nur – mit Galilei begann und dann in den empirischen Wissenschaften (mit Newton, Schroedinger, mit Einstein usw.) eine ungeheuerliche Erfolgsgeschichte geschrieben hat, den Eindruck entstehen lies, als ob man das Verhalten der Natur mit einigen wenigen Gesetzen mathematisch vollständig beschreiben kann. Zeigten schon die Ausführungen in den vorausgehenden Kapiteln zur ‚Nichtergodizität‘ des Universums, dass diese Beschreibbarkeit nicht vollständig sein kann, so bringt jetzt Kauffmann nochmals speziell die biologische Evolution ins Spiel. Seine Hauptthese lautet: Das Biologische ist radikal nichtvorhersagbar und endlos kreativ. (vgl.S.130).
(8) Die zentralen Begriffe hier sind ‚Adaptation‘ und dann ‚Präadaptation‘. Mit ‚Adaptation‘ ist generell der Prozess gemeint, dass bestimmte genetisch kodierte Eigenschaften sich im Laufe der Interaktion mit den jeweiligen Umgebungen nicht nur generell ‚verändern‘ können, sondern dass es bestimmte Eigenschaften sind, die sich im Laufe der Zeit auf diese Weise ‚passend‘ zu einer bestimmten Umgebung ‚herausbilden‘. Diese biologische Eigenschaften (Kauffman macht dies am Beispiel der Entwicklung des Organs Herz fest) sind nach Kauffman weder erkenntnismäßig noch ontologisch mit den bekannten physikalischen Gesetzen voraussagbar. (vgl. S.131) Der Grund hierfür ist der Mangel an wiederkehrenden Eigenschaften. Weder sind jene Konstellationen voraussagbar, die zur Herausbildung des Herzens geführt haben, noch konnte man die dann tatsächliche Herausbildung des Herzens voraussagen, da die jeweiligen genetischen Kombinationen (nach Kauffman) prinzipiell nicht voraussagbar sind. ‚Prädaptation‘ ist eine Art Verfeinerung des Begriffs ‚Adaptation‘ dahingehend, dass es innerhalb einer genetischen Information Teilinformationen geben kann, die über lange Zeit hin keine besondere ‚Bedeutung‘ besaßen, bis irgendwann eine Konstellation Auftritt in der es plötzlich eine interessante ‚Verwendung‘ gibt. (vgl. S.131f) Berücksichtigt man den zusätzlichen Umstand, dass Adaptationsprozesse zeitgleich mit unzählig vielen anderen Adaptationsprozessen verlaufen, dann bilden solche Phänomene des sich ‚wechselseitig die Bälle Zuspielens‘ die Grundlage für das, was wir ‚Koevolution‘ nennen. Ein Adaptationsprozess alleine könnte noch so viele ‚Ansatzpunkte‘ (präadaptive Voraussetzungen) bieten; eine bestimmte Entwicklung würde nur stattfinden, wenn entsprechend parallel andere Entwicklungen zeitgleich auch verfügbar wären. Die in der Wechselwirkung sich dann zeigenden neuen Eigenschaften sagen etwas aus, über die beteiligten Prozesse, sind aber natürlich nicht voraussagbar im Sinne der klassischen Physik. Für eine Voraussagbarkeit würde man ein umfassendes Wissen aller möglichen künftigen Umgebungen benötigen samt der zugehörigen beteiligten adaptiven Prozesse. Nach Kauffman hat dieses Wissen niemand, es nicht verfügbar, also kann man auch nichts voraussagen. (vgl. S.132f).
(9) [Anmk: An dieser Stelle ist Vorsicht geboten. Zwar liegt hier sicher keine Voraussagbarkeit im Sinne der klassischen Physik vor, aber die klassische Physik wurde ja schon längst um die Quantenphysik erweitert. In der Quantenphysik weiß man deutlich weniger als im Falle von biologischen adaptiven Prozessen, und dennoch kann man quantenphysikalisch vieles ‚erklären‘. Ich halte es für möglich und wahrscheinlich, zu einer Theoriebildung im Zwischenbereich von Quantenphysik und klassischer Physik zu kommen, die mit beiden Bereichen ‚kompatibel‘ ist und die in der Tat die klassisch nicht voraussagbaren biologischen adaptiven Phänomene ‚erklären‘ und in gewisser Weise auch ‚voraussagen‘ kann. Dazu müsste man nur den Theoriebegriff entsprechend anpassen, was bislang – so scheint es – einfach noch niemand getan hat. Warum eigentlich nicht?]

KREATIVITÄT

(10) Durch diese wechselseitigen Abhängigkeiten der biologischen adaptiven Entwicklungen voneinander sind sie nicht nur schwer (bis garnicht) voraussagbar, sondern sie sind auch fragil, anfällig für ein kommendes Scheitern, wenn bestimmte Randbedingungen wieder wegfallen, die sie voraussetzen. (vgl. S.133) Identifiziert man diese ‚partiell gesetzlose‘ Situation mit ‚Kreativität‘ in dem Sinne, dass in einer ‚offenen‘ Situation beständig ’neue‘ Strukturen generiert werden, dann ist diese ‚endlose (‚ceaseless‘) Kreativität eine Form, die man mit dem Begriff ‚Gott‘ in Verbindung bringen kann, sozusagen eine natürliche Form von ‚Heiligkeit‘ (’sacred‘). (vgl.S.135) [Anmk: das englische Wort ’sacred‘, das Kauffman benutzt, ist eigentlich ein Adjektiv und kommt alleine als Substantiv eigentlich nicht vor. Er benutzt es aber so, wie wir im Deutschen das Wort ‚das Heilige‘ benutzen.]
(11) Auf die Frage, ob man die Gesetzeslosigkeit der biologischen adaptiven Prozesse ‚beweisen‘ könne, mein Kauffman mit Hinweis auf Goedels Unvollständigkeitsbeweis, dass die Voraussetzung für solch einen Beweis nicht gegeben seien, da mit der beständigen Erzeugung neuer nicht voraussagbarer Fakten kein vollständiges abgeschlossenes System vorliege, das einen solchen Beweis erlaube. (vgl.S.135)[Anmk: Das scheint mir zu wenig. Es geht ja hier nicht um die Fakten im einzelnen, sondern um die strukturellen Rahmenbedingungen, unter denen bestimmte Fakten auftreten bzw. nicht auftreten. Ich sehe zwar momentan auch niemanden, der einen solchen Beweis dafür oder dagegen bislang geführt hat, aber ich würde momentan nicht ausschließen wollen, dass wir zumindest mehr sagen können, als es Kauffman hier tut. Immerhin legt er hier den Finger auf die ‚Wunde’… ]

Teil 4

Einen Überblick über alle vorausgehenden Einträge in den Blog nach Themen findet sich HIER

FLIEGENDE GEDANKEN – BEHARRENDE REALITÄT – NEUE ETHIK

1. Betrachten wir unser Denken, dann können unsere Gedanken uns erscheinen wie ‚fliegende Tänzer‘, die zu einer wilden, neuen Musik dahinfliegen, scheinbar schwerelos, für die es nur bedingt Raum und Zeit gibt.
2. Die ungeheure emergente Wucht des Biologischen, das die tote Oberfläche des Planeten Erde im Laufe der Zeit (ca. 3.8 Milliarden Jahre) in ein Faszinosum Billionenfach miteinander verwobener Energie-, Informations-, Zeichen-, Handlungs- und vieler anderer Prozesse verwandelt hat, hat sich in der Existenz von ‚Gedankenräumen‘ ein Medium geschaffen, das nicht nur das biologische Geschehen selbst in seinen Grundfesten erschüttern kann und schon längst direkt betrifft, sondern der materielle Träger dieses In-Materie-Sich-Ereignenden-Lebens, die Erde, wird zunehmend Gestaltungsgegenstand dieser Gedankenräume.
3. Real existierende Gedankenräume, individuell Milliardenfach, ‚vereinigt‘ kaum fassbar, ‚beschleunigen‘ die strukturelle Erweiterung des Biologischen in zuvor ungeahnter Weise. Brauchte es zuvor für eine strukturelle Veränderung sowohl der Körper wie auch der Umwelten Generationen, können heute Gedanken in Sekunden — und technologisch unterstützt — gar in Bruchteilen von Sekunden neue Strukturen vorwegnehmen, deren Komplexität nach oben prinzipiell keine Grenzen kennen.
4. Wir sind lebende Zeugen eines Evolutionssprungs ungeahnten Ausmaßes.
5. Diese ‚Explosion möglichen Lebens‘ in Gestalt real existierender Gedankenräume ist allerdings, wie jeder an sich selber überprüfen kann, tatsächlich noch nicht von dieser Schwerelosigkeit, die die ‚Gedanken an sich‘ zu haben scheinen. Welche Gedankenräume auch immer wir uns anschauen, sie treten nicht ‚losgelöst‘ auf, sondern — bislang — ausschließlich ‚eingebettet‘ in energetische Prozesse, die an Molekülkomplexe gebunden sind, die wir Körper nennen. Und diese Körper haben als Molekülkomplex physikalische Dimensionen wie Volumen, Gewicht, Energieverbrauch, usw. Ferner werden diese Gedanken realisiert mittels wechselnder Ladungszustände, deren Aufrechterhaltung und deren Veränderungen minimale ‚Prozesszeiten‘ benötigen. Wir können noch nicht — zumindest nicht mit dem aktuellen konkreten Körper — beliebig ’schnell‘ oder beliebig ‚viel‘.
6. Durch diese Beschränkungen durch die aktuellen Körper sind die Gedanken, die wir tatsächlich denken können, nur ein winziger Bruchteil all der Gedanken, die möglich wären. Ganz ohne Gedanken wären wir vollständig ‚blind‘ und es gäbe auch überhaupt kein Leben. Mit den paar Gedanken, die wir zur Zeit denken können, blinzeln wir beständig mit den Augen, da wir etwas ’sehen‘, aber wir sehen eigentlich nicht viel sehr klar.
7. Dazu kommt — das wissen wir alle — , dass wir zur gleichen Zeit nur sehr wenige Gedanken aktiv bewältigen können, dass wir ‚komplexere‘ Konzepte mühsam durch vorausgehende ‚einfachere‘ Konzepte ‚vorbereiten müssen; komplexere Konzepte setzen einfachere unumgänglich voraus, andernfalls gäbe es keine komplexere Konzepte. Dann sind da all die unterschiedlichen ’steuernden‘ Faktoren, jene, die dafür verantwortlich, was wir denken wollen, ob wir überhaupt denken wollen, was wir für ‚wichtig‘ empfinden, was als ‚unwichtig‘, usw. Wer in seinem Leben in einer Situation gelebt hat, die nie die Möglichkeit gewährte, jene Gedanken kennen zu lernen, die man braucht, um das Geschehen des Lebens auf der Erde zu verstehen, der wird es einfach nicht sehen und deshalb wird sein Weltbild ganz anders aussehen als das eines Menschen, der dies konnte. Zwei verschiedene Weltbilder A und B in der gleichen Welt. Unsere Gehirne kennen die Welt nicht; sie versuchen sie für uns zu ‚errechnen‘. Wenn wir ihnen den falschen ‚Input‘ geben, dann laufen die Gehirne zwangsläufig in die Irre.
8. In diesen Tagen bot sich das mediale Superspektakel der Wahl eines neuen Papstes und dessen erstes Auftreten. Wenn man nach einem Beispiel sucht für den Unterschied zwischen der Freiheit der Gedanken und der Beharrung der Realität dann sicher dieses Geschehen in der katholischen Kirche.
9. In Teilen von Europa (und zum Glück auch in Teilen der übrigen Welt) gibt es Gedankenwelten, in denen jenseits von traditionell-religiösen Mustern das Leben der Menschen auf dieser Erde neu gedacht werden kann, Gedanken, für die viele Jahrhunderte unter größten Mühen gekämpft werden musste. In großen Teilen der übrigen Welt sind diese Gedanken bei den Menschen unbekannt. Aus diesen Sichten wirken die europäischen Gedanken befremdlich, unverständlich, Verrat am alten, unnötig, usw.
10. So hat z.B. in weiten Teilen Europas die Frau eine Stellung gewinnen können, die ihren Fähigkeiten und ihrer Würde besser gerecht werden — so sagen wir — als in vielen anderen kulturellen Mustern, z.B. auch besser als in der offiziellen katholischen Kirche. Dies ist ein Punkt von vielen. Diese ‚Ungleichzeitigkeit‘ von Gedanken ist ein Hinweis darauf, dass die Welt der Gedanken als Teil einer ‚Kultur‘ seine Zeit benötigt, und durch das heute fast schon erzwungene ‚Miteinander von Verschiedenem‘, diese ‚Ungleichzeitigkeit‘, zu einem Problem werden kann. ‚Auf Kommando‘ lassen sich ungleichzeitige Gedankenräume nicht verändern. Die Verknüpfung von Gedanken mit konkreten Körpern und deren Einbettung in reale Lebensabläufe impliziert, dass die Veränderungen der Gedanken meistens auch reale Lebensabläufe ändern würde. Hier aber fühlen sich Menschen persönlich betroffen, real bedroht, real in Frage gestellt, usw. ‚Gedanken‘ sind eben nicht ‚reine‘ Gedanken, sondern ‚Repräsentanten‘ einer ‚realen‘ wie auch einer ‚möglichen‘ Welt. Wir Menschen hängen — fast schon fanatisch — am Realen (Vieles, was in diesem Zusammenhang über ‚Integration‘ gesagt wird, wirkt bezogen auf die reale Ungleichzeitigkeit und die hier notwendigen Maßnahmen erschreckend naiv, aber es ist ja auch nicht ganz leicht, in einer solchen komplexen Situation einen Weg zu finden, der allen ‚gerecht‘ wird, wenn doch ‚Gerechtigkeit‘ an den jeweiligen verschiedenen (!) Gedankenräumen festgemacht wird).
11. So wenig ein einzelner in der heutigen Situation vielleicht weiß oder überhaupt wissen kann, was genau als nächstes zu tun ist, so wahrscheinlich scheint es zu sein, dass die ‚Gesamtbewegung‘ der Evolution nur eine Richtung zu kennen scheint: Fortführung und Intensivierung von mehr Gedankenräumen durch immer stärkere Integration der individuellen Gedankenräume in einen großen Raum. Dazu gehört die Technologie als Teil (!) der biologischen Evolution wie auch die schrittweise Veränderung der gesellschaftlichen und kulturellen Strukturen. Es geht nicht um die ‚Auslöschung‘ des Individuums, sondern um die zunehmende Integration der einzelnen Individuen in eine Form eines ‚vernetzten‘ Superorganismus, der als Ganzer um so besser ist, als jedes Mitglied ‚optimal‘ ist.
12. Mit diesem Superorganismus sind nicht die totalitären Muster der Vergangenheit gemeint, in denen einzelne Starke ganz Völker unterjocht haben, sondern selbstorganisierende Systeme in denen jeder seine kreativen Potentiale maximal nutzt, aber in einer Kultur des wechselseitigen voneinander Lernens. Da keiner das künftige Wissen schon hat sondern alle gemeinsam auf der Suche sind ist jeder einzelne maximal wichtig. Es kann immer nur ein einzelner sein, der etwas Neues entdeckt, und es kann nur der Superorganismus sein, der es entsprechend umsetzt zum Wohl für alle.
13. In dem kommenden biologischen Superorganismus gibt es keine einzelnen mehr, die alles entscheiden, aber es gibt auch keine einzelnen mehr, die einfach im ‚Nichts‘ dahinvegetieren können.
14. Dafür braucht es eine weit entwickeltere Ethik und Spiritualität, als wir zur Zeit haben. Solange Menschen denken, sie brauchen z.B. einen bestimmten Papst, um selber religiös leben zu können, so lange sind wir noch sehr weit weg von der neuen Kultur der sich wechselseitig helfenden Menschen. Es bleibt mir unbegreiflich, warum Menschen Jahre, Jahrzehnte darüber lamentieren, warum ein paar alte Männer in der vatikanischen Kurie oder überhaupt in einer Kirche gewisse Dinge nicht erlauben, wo sie es doch einfach tun könnten. Wozu brauchen sie diese alten Männer? Wer einem Jesus nachfolgen will kann dies überall und immer tun; dazu muss er niemanden fragen. Wer Gott in allem erkennen will, kann dies tun, niemand kann ihn daran hindern. Solange wir in ‚Stellvertreterkategorien‘ denken sind wir verloren. Jeder einzelne Mensch ist selbst ein potentieller Heiliger, er muss sich dies nur zugestehen. Niemand kann ihn letztlich daran hindern, das Richtige zu tun, wenn er will. Meine Geburt war unfreiwillig, meinen Tod kann ich frei wählen, und das Leben bis dahin auch, mitsamt den realen Umständen, auf die ich keinen Einfluss habe. Solange wir auf ein Wunder durch andere warten verpassen wir unser eigenes Wunder, und das ist das, worüber sich vielleicht andere freuen würden, dass wir ein Wunder für die sind….
15. Die Welt ist nicht einfach, aber voller Geheimnisse.

Eine Übersicht über alle beiträge findet sich HIER

DIE GROSSE VEREINIGUNG: Philosophie, Wissenschaft, Kunst und Religion?

1. Nachdem in den letzten Wochen — zumindest gedanklich — die ‚Vereinigung‘ von getrennten Bereichen fortgesetzt wurde (Seit Januar 2012 Philosophie und Wissenschaft, seit Februar 2013 Philosophie, Wissenschaft und Theologie/ Religion), blieb die Frage nach der Rolle der Kunst bislang außen vor.
2. Dies gründet nicht darin, dass ich selbst etwas gegen Kunst hätte — partiell war und bin ich selbst künstlerisch engagiert –, aber auch mir geht es so wie vielen (den meisten?) heute, dass diese Bereiche in unser Gesellschaft akribisch getrennt werden. In den Schulen, insbesondere den Hochschulen des Landes, sind diese Bereiche voneinander abgeschottet. In den großen Zeitungen sind die Redaktionen ebenfalls säuberlich getrennt: hier die Wissenschaften, hier das Feuilleton als Sammelstelle für Alles, was nicht Wissenschaft ist, ausgenommen Politik und Wirtschaft.
3. Und da wir uns im Normalfall eher innerhalb der vorgebahnten gesellschaftlichen Rollen und Leitplanken bewegen, praktizieren wir ein gedankliches Schisma, das — zumindest Europa und die davon beeinflussten anderen Länder — seit Jahrhunderten besteht.
4. Nun geht es nicht unbedingt um eine ‚Gleichmacherei‘, als ob Kunst gleich Wissenschaft sei oder umgekehrt, aber zumindest um die Frage der ‚inneren Beziehung‘ zwischen Philosophie, Wissenschaft, Kunst und Religion.
5. Für eine solche Fragestellung gibt es viele Gründe: Trotz vieler wissenschaftlicher Disziplinen, vieler unterschiedlicher Künste, leben wir in EINER Welt, in der dies alles ‚gleichzeitig‘ passiert, als reales Geschehen. Also sind es ‚genuine Phänomene‘ dieser einen Welt, die etwas, über die Eigenschaften dieser Welt sagen. Ferner ist es EINE spezifische Gattung, der homo sapiens sapiens, der all diese Verhaltensweise aufweist, manifestiert. Trotz aller Unterschiedlichkeit entspringen alle diese verschiedenen Phänomene einer Quelle und illustrieren je auf ihre Weise Eigenschaften dieser einen Quelle.
6. Eine Abschottung dieser verschiedenen Phänomene voneinander wäre radikal ‚unphilosophisch‘, würde dies doch bedeuten, dass man das, was die Grundlage allen Erkennens bildet, Phänomene als Teil des Erlebensraumes, ‚verdrängen‘, ‚verleugnen‘ würde. Das kann nicht angehen. Philosophisch haben wir keine ‚Metaregel‘, die es uns erlauben würde, beliebige Phänomene zu ‚Un-Phänomenen‘ zu erklären. Das oberste philosophisches Prinzip lautet, JEDES Phänomen zunächst mal als Phänomen zu akzeptieren. Wie man dieses dann später ‚interpretiert‘, ist eine nachgeordnete Frage, verlangt jedoch — zumindest im philosophischen Denken — maximale ‚Transparenz‘.
7. Die Hauptaufgabe der Philosophie angesichts der Vielfalt der Phänomene ist also die ‚Wahrung der Vielfalt‘ mit allen verfügbaren denkerischen Mitteln.
8. Die empirischen Wissenschaften haben sich in den Jahrhunderten seit ihrer Profilierung (kein einzelnes Anfangsdatum; schleichender gesellschaftlicher Prozess) dadurch ausgezeichnet, dass sie in Kombination von ‚empirischen Messverfahren‘ und ‚mathematischer Modellierung‘ TEILBEREICHE der Phänomenwelt untersucht haben. Ihre Ergebnisse sind zweilfellos atemberaubend. Dennoch sollte man vor lauter Begeisterung nicht den Blick dafür verlieren, dass es eben TEILBEREICHE des Phänomenraumes sind, d.h. dass diese Untersuchungen nur möglich waren, weil man ‚methodisch bewusst‘ viele andere Phänomene ‚ausgeklammert‘ hat, da sie mit empirischen Mitteln nicht untersuchbar waren. Zugleich hat die empirische Wissenschaft im Laufe der Jahrhunderte deutliche ‚gedankliche Entwicklungen‘ erlebt: mathematische Modelle wurden laufend verändert, verfeinert, bisweilen durch völlig neue Paradigmen ‚ersetzt‘ (z.B. klassische Physik a la Newton und Quantenphysik).
9. Es scheint so zu sein, dass die ‚Ausklammerung‘ der nicht empirisch messbaren Phänomene — mangels hinreichender philosophischer Reflexion ?! — bei vielen Akteuren zu dem Eindruck geführt hat, dass die REDUIZIERTEN (nicht ‚reduktionistisch‘!) empirischen Theorien eigentlich schon ‚Alles‘ abdecken, was sie natürlich nicht tun, da sie ja einen Großteil der Phänomene schlichtweg ausklammern. Sachlich gesehen ist dies kein Problem, aber psychologisch und machtpolitisch ist es natürlich ‚angenehmer‘, eine gesellschaftlich ’starke‘ Position zu haben als eine ’schwache‘ (z.B. die geisteswissenschaftlichen Disziplinen als ‚Sorgenkinder‘ der zunehmend ökonomisierten Universitäten). Eine Aufrechterhaltung des empirischen Interpretationsmonopols ist also weniger philosophisch-rational begründet als vielmehr psychologisch, soziologisch usw.
10. Dies so sachlich zu diagnostizieren, ist eine Sache. Eine andere Frage ist, wie man sich denn ein weniger abgrenzendes, sondern eher ein konstruktives Verhältnis zwischen empirischen Wissenschaften und den Künsten vorstellen soll? (Also Geisteswissenschaften erweitert um Kunst!)
11. Ein Verständnis der Künste könnte der kreativ-spielerische Umgang mit der ganzen Bandbreite der Phänomene sein ohne die methodisch induzierten Grenzen durch die empirischen Messverfahren. Dies würde sowohl neue Phänomene wie auch neue, implizite Zusammenhänge in diesen Phänomenen sichtbar machen, die für das, was wir als homo sapiens sapiens in dieser Welt sind/ sein können, wesentlich sind. Denn wir ‚kennen‘ uns nur ‚im Vollzug‘. Wer wir ’sind‘ bzw. wer wir ’sein können‘ zeigt sich nur im ‚praktischen Ausloten‘ der Möglichkeiten. Die methodisch induzierten Grenzen der Phänomenselektion der empirischen Wissenschaften sind im Grundsatz zu eng und — falsch verstanden — ideologisch gefährlich. Genauso wenig wie wir philosophisch auftretende Phänomene einfach ‚beiseite schieben‘ können, genauso wenig dürfen wir von vornherein bestimmte Verhaltensweisen einfach — ohne sehr harte Gründe — verbieten, da nur so überhaupt die Phänomene sichtbar werden können, die uns zu neuen, erweiterten Erkenntnissen führen können.
12. Dass bestimmte Phänomenproduktionen wie z.B. bestimmte Formen von ‚Musik‘ oder bestimmte ‚Bilder‘, in Menschen ‚angenehme Gefühle‘ anregen können, dürfte nicht das primäre und nicht das einzige Interesse in der Phänomenproduktion sein. Sonst würde durch solche spezielle Gefühle der gleiche selektierende Isolationseffekt entstehen, wie durch die methodisch induzierten Eingrenzungen der empirischen Wissenschaften (Die Geschichte ist voll von ‚Moden‘ und ‚Trends‘, die sich gewandelt haben und die sich selbst wechselseitig außer Kraft gesetzt haben. Die Rolle und Bedeutung von ‚Gefühlen‘ bei der Bewertung von Wirklichkeit wäre eine eigene Reflexion wert).
13. Die Auslotung des Möglichen im Rahmen einer kreativ-spielerischen Kunst könnte also die Grundlage für ein vertieftes Verständnis dessen sein, was/ wer/ wie wir sind. Zugleich würde eine solche prinzipiell unbegrenzte Phänomenproduktion aber nur dann zu einem ‚gesellschaftlich wirksamen Sinn‘ führen, wenn diese Phänomene ‚angemessen‘ kommuniziert würden bzw. wenn evtl. möglichst viele ähnliche Phänomenproduktionen vollziehen würden, da diese dann als ‚Teile von ihnen selbst‘ sie unmittelbar betreffen und prägen. Es ist zu fragen, ob die heute beobachtbare ‚Spezialisierung und Professionalisierung‘ von künstlerischer Phänomenproduktion nicht eher ein hochgezüchtetes Randphänomen von künstlerischer Aktivität ist, die nah dran ist an bloßer ‚Gefälligkeit‘ und Stereotypisierung und genau den kreativ-spielerischen Charakter verliert. Von gesellschaftlicher ‚Rezeption‘ kann bei dem heutigen hochspezialisierten organisierten Kunstbetrieb kaum gesprochen werden (Welche verschwindende Minderheit von Spezialisten liest Feuilletons?).
14. Dies ist ein weites Feld und kann hier jetzt nicht angemessen behandelt werden. Es geht nur darum, einen ersten Orientierungspfosten zu setzen, um anzudeuten, dass eine stärkere Interaktion von Kunst einerseits und Philosophie und Wissenschaft andererseits auch entsprechende gesellschaftliche Formen und Kommunikationsprozesse erfordert.
15. Die notwendige kommunikative Aufarbeitung neuer — künstlerisch hervorgebrachter — Phänomene muss sicherlich auf vielen Ebenen vollzogen werden. Für den methodischen Gesamtzusammenhang ist die Philosophie zuständig. Für die Erweiterung der wissenschaftlichen Untersuchungen ist die Wissenschaft selbst in enger Kooperation mit der Philosophie zuständig (z.B. auch in der Form der ‚Wissenschaftstheorie‘).
16. Letzteres kann aber nur funktionieren, wenn der Wissenschafts- und Philosophiebetrieb eine kontinuierliche Reflexion pflegen, die diese Fragen als ’normale Fragen‘ in der Routinepraxis ‚pflegen‘. Davon sind wir weit, weit entfernt. Das geschichtlich gewachsene Schisma ist tief verankert in den Köpfen aller Beteiligten und die — ungerechtfertigt unterstellte? — Eitelkeit in den Köpfen der Wissenschafts und/ oder Feuilleton-Redaktionen der Medien tut ihr Ihriges, um dieses Schisma täglich am Leben zu erhalten. Das gelegentlich immer wieder aufflammende Wehklagen der einen über diesen unseligen Zustand oder die abwertenden Bemerkungen der anderen helfen hier nicht weiter.
17. In einem internationalen Projekt, das ich in diesen Monaten zu starten versuche (lange Vorläufe in den letzten Jahren) versuchen wir ein radikal technologisches Experiment direkt mit Kunst und Philosophie zu verknüpfen. Sowohl ‚Reengineering von Goethe‘ wie auch ‚Goethefizierung von künstlicher Intelligenz‘ als platte Formeln, um etwas Komplexes anzudeuten.
18. Wie schon in vorausgehenden Blogeinträgen besprochen, führen die ‚emergenten‘ Phänomene die heutigen empirischen Wissenschaften an die Grenzen ihrer aktuellen Methoden und Modellen. In einer Metareflexion kann man erkennen, dass die empirischen Wissenschaften die Auflösungen der methodischen Aporien nur nur Erweiterung ihrer Modellbildungen durch Einbeziehung höherer Komplexitätsstufen auflösen kann. Diese können aber genau von jenen Disziplinen eingebracht werden, die sich mit ‚Handlung‘, ‚Sprache‘, ‚Bewusstsein‘, ‚Wissen‘, ‚Gefühlen‘, ‚Kunst‘ usw. beschäftigen. Diese ‚Zwitter-Disziplinen‘ — teils empirisch, prinzipiell mathematisch — können Brücken bauen zwischen den verschiedenen bislang schismatisch aufgesplitterten Phänomenmengen. Zwitter-Disziplinen haben kein Problem mit Kunst bzw. künstlerischen Phänomenen.
19. In diesem weit aufgespannten Raum von Philosophie (Kampf für alle Phänomene), empirisches Wissenschaft (Präzisierung des empirisch Messbaren), Zwitter-Disziplinen (Integration der empirischen und nicht-empirischen Phänomene) sowie Kunst (kreativ-spielerische Auslotung des Phänomenraumes) ist prinzipiell Raum für Religion, eigentlich mehr denn je. Ich verstehe unter Religion eine menschliche Haltung dahingehend, dass ein religiöser Mensch die Vielfalt des Phänomenraumes nicht nur als ‚unbeteiligter Zuschauer‘ sieht, sondern sich als ‚Teil des Ganzen‘ begreift. Dadurch verlieren die Phänomene ihren neutralen Status: sie werden zu möglichen ‚Zeichen‘ einer ‚impliziten Bedeutung‘, die sich in der Interaktion mit der Welt ‚zeigen kann‘. Dies verlangt allerdings einen ‚bewussten‘ Umgang mit der Welt als einer Welt, die einem ’nicht egal‘ ist. Alle religiös-mystischen Traditionen, die ich kenne, sind in diesem Punkt kompatibel. Die Gesamtheit des Wissens, wie es sich in Philosophie, Wissenschaften und Kunst erschließt, ist für eine so verstandene Religiosität kein Gegensatz, sondern ganz im Gegenteil ‚Ermöglichungsgrund‘ eines verantworteten Umgangs mit der Welt. Die ‚geistigen Besonderheiten‘, die viele offizielle Religionsgemeinschaften im Laufe ihrer Geschichte produziert haben, wirken vor diesem Hintergrund befremdlich und eher religionsfeindlich (eine leicht paradoxe Formulierung).

Einen Überblick über alle bisherigen Blogeinträge nach Themen findet sich HIER

Kunst als eigene Aktivität

Ich habe vor einigen Jahren, angeregt durch philosophische Reflexionen, begonnen, eigene ‚Kunstexperimente‘ zu realisieren. Ein Bereich ist die experimentelle Musik nach dem Konzept der ‚radically unplugged music (RUM)‘. Dazu habe ich mittlerweile mehr als 400 Musikstücke generiert. ‚Radically Unplugged‘ heisst, dass man nicht nach Noten spielt, das man vorher nicht probt, dass keine Stimme weiss was die andere als nächstes tun wird. Dadurch ist es möglich, dass Personen sich am Experiment beteiligen, die als ‚unmusikalisch‘ gelten, die keine Noten lesen können, ja, die nicht einmal ein Instrument spielen können. Hier ein Stück, das ich gestern ‚produziert‘ habe: ‚Coming To An End‘

Hinweis: Wer sich dieses Klangexperiment anhören möchte, sollte unbedingt darauf achten, über eine sehr gute Soundkarte und einen sehr guten Kopfhörer zu verfügen (noch besser eine Soundanlage mit guten Boxen), andernfalls sind viele Klanganteile nur sehr schlecht oder garnicht hörbar!

HABEN WIR EIN PROBLEM? – Zur Problematik des kognitiven WIR-Modells

ALLTÄGLICHE PROBLEME

1. Wenn man sich die täglichen Nachrichtenmeldungen anschaut, die über die diversen Medien zugänglich sind — trotz ihrer großen Zahl sicher nur eine kleine Auswahl dessen, was tatsächlich alles passiert –, dann könnte man dazu neigen, zu sagen, dass die Frage aus der Überschrift dumm und lächerlich ist: natürlich haben wir Probleme, viel zu viele.
2. Doch sind diese ‚täglichen Probleme‘ nicht das, was ich meine. Dass einzelne Personen gestresst sind, krank werden, leiden, sterben, überall auf der Welt, in jedem Land (wenn auch mit unterschiedlichen Randbedingungen), das gehört quasi zum konkreten Leben dazu. Dafür kann man ‚Randbedingungen‘ verantwortlich machen: Gesetze, wirtschaftliche Bedingungen, korrupte Verhaltensweisen von Institutionen, schlechte Organisationen von Institutionen, spezielle agrarische oder klimatische Konstellationen, usw. Mit diesen kann (und muss!) man sich auseinandersetzen.
3. Man kann das Ganze auch noch eine Nummer größer betrachten: den Einfluss ganzer Nationen oder gar der ganzen Menschheit auf die Natur: Auslutschen vorhandener nicht erneuerbarer Ressourcen, Umweltzerstörungen als Einengung der verfügbaren Lebensbasis, Zerstörung der Ökologie der Meere bis hin zur Ausrottung von immer mehr Lebensformen im Meer, Vernichtung von Lebensformen auf dem Land, Verlust der Kontrolle wichtiger Wachstumsprozesse, usw. Auch mit diesen müssen wir uns auseinandersetzen, wollen wir überleben. Wobei man sich hier fragen ob wir überhaupt ‚überleben wollen‘? Und wer sind ‚wir‘? Gibt es dieses ‚wir‘ überhaupt, das sich über alle Kulturen und Nationen hinweg als ‚innere Einheit‘ in der Vielfalt zeigt, die aus Vielfalt kein ‚Chaos‘ macht, sondern ’nachhaltige Ordnung‘?

TREND DER EVOLUTION

4. Hier nähern wir uns dem, was ich mit ‚Problem‘ meine. Wenn alle bisherigen Überlegungen im Blog zutreffen, dann manifestiert sich die Besonderheit des Phänomens Lebens in dem unübersehbaren ‚Trend‘ zu immer mehr Komplexität in mindestens den folgenden Richtungen: (i) individuelle biologische Systeme werden immer komplexer; (ii) dadurch werden immer komplexere Interaktionen und damit Koordinierungen möglich; (iii) es entstehen biologisch inspirierte nicht-biologische Systeme als artifizielle (= technologische) Systeme, die in das biologische Gesamtphänomen integriert werden; (iv) sowohl das Individuum als auch die Gesamtheit der Individuen unterstützt von der Technologie wirken immer intensiver und nachhaltiger auf ’sich selbst‘ und auf das Gesamtsystem zurück; (v) aufgrund der entstandenen kulturellen Vernetzungsmuster (schließt politische Subsysteme mit ein) können einzelne Individuen eine ‚Verfügungsgewalt‘ bekommen, die es ihnen erlaubt, als individuelle Systeme (trotz extrem limitierten Verstehen) große Teile des Gesamtsystems konkret zu verändern (positiv wie negativ); (vi) die schiere Zahl der Beteiligten und die anschwellende Produktion von Daten (auch als Publikationen) hat schon lange die Verarbeitungskapazität einzelner Individuen überschritten. Damit verlieren kognitive Repräsentationen im einzelnen mehr und mehr ihren Zusammenhang. Die Vielfalt mutiert zu einem ‚kognitiven Rauschen‘, durch das eine ‚geordnete‘ kognitive Verarbeitung praktisch unmöglich wird.

VERANTWORTUNG, KOORDINIERUNG, WIR

5. Die Frage nach der ‚Verantwortung‘ ist alt und wurde zu allen Zeiten unterschiedlich beantwortet. Sie hat eine ‚pragmatische‘ Komponente (Notwendigkeiten des konkreten Überlebens) und eine ‚ideologische‘ (wenige versuchen viele für ihre persönlichen Machtinteressen zu instrumentalisieren). Der ‚Raum‘ der ‚Vermittlung von Verantwortung‘ war und ist immer der Raum der ‚Interaktion und Koordination‘: dort, wo wir versuchen, uns zu verständigen und uns zu koordinieren, dort stehen wir vor der Notwendigkeit, uns wechselseitig Dinge zu ‚repräsentieren‘, damit evtl. zu ‚erklären‘, und dadurch vielleicht zu ‚motivieren‘. Ein mögliches ‚WIR‘ kann nur in diesem Wechselspiel entstehen. Das ‚WIR‘ setzt die Dinge zueinander in Relation, gibt dem einzelnen seine ‚individuelle Rolle‘. Nennen wir das ‚Repräsentieren von Gemeinsamkeiten‘ und die damit evtl. mögliche ‚Erklärung von Gegebenheiten‘ mal das ‚kognitive WIR-Modell‘.

6. Es kann sehr viele kognitive WIR-Modelle geben: zwischen zwei Personen, zwischen Freunden, in einer Institution, in einer Firma, in einem Eisenbahnabteil, …. sie alle bilden ein ‚Netzwerk‘ von kognitiven WIR-Modellen; manche kurzfristig, flüchtig, andere länger andauernd, nachhaltiger, sehr verpflichtend. Kognitive WIR-Modelle sind die ‚unsichtbaren Bindeglieder‘ zwischen allen einzelnen.

KOGNITIVE WIR-MODELLE IM STRESS

7. Jeder weiß aus seiner eigenen Erfahrung, wie schwer es sein kann, schon alleine zwischen zwei Personen ein kognitives WIR-Modell aufzubauen, das die wichtigsten individuellen ‚Interessen‘ ‚befriedigend‘ ‚integriert/erklärt‘. Um so schwieriger wird es, wenn die Zahl der Beteiligten zunimmt bzw. die Komplexität der Aufgabe (= wir sprechen heute oft und gerne von ‚Projekten‘) ansteigt. Der Bedarf an Repräsentationen und vermittelnder Erklärung steigt rapide. Die verfügbare Zeit nimmt in der Regel aber nicht entsprechend zu. Damit steigt der Druck auf alle Beteiligten und die Gefahr von Fehlern nimmt überproportional zu.
8. Man kann von daher den Eindruck gewinnen, dass das Problem der biologischen Evolution in der aktuellen Phase immer mehr zu einem Problem der ‚angemessenen kognitiven Repräsentation‘ wird, gekoppelt an entsprechende ‚koordinierende Prozesse‘. Moderne Technologien (speziell hier Computer und Computernetzwerke) haben zwar einerseits das Repräsentieren und die ‚Gemeinsamkeit‘ des Repräsentierten dramatisch erhöht, aber die kognitiven Prozesse in den individuellen biologischen Systemen hat nicht in gleicher Weise zugenommen. Sogenannte soziale Netze haben zwar gewisse ‚Synchronisationseffekte‘ (d.h. immer mehr Gehirne werden auf diese Weise ‚kognitive gleichgeschaltet), was den Aufbau eines ‚kognitiven WIRs‘ begünstigt, aber durch den limitierenden Faktor der beteiligten individuellen Gehirne kann die Komplexität der Verarbeitung in solchen sozialen Netzen nie sehr hoch werden. Es bilden sich ‚kognitive WIR-Modell Attraktoren‘ auf niedrigem Niveau heraus, die die beteiligten als ‚kognitiv angenehm‘ empfinden können, die aber die tatsächlichen Herausforderungen ausklammern.

OPTIMIERUNG VON KOGNITIVEN WIR-MODELLEN

9. An dieser Stelle wäre auch die Rolle der offiziellen Bildungsinstitutionen (Kindergarten, Schule, Betrieb, Hochschule…), zu reflektieren. In welchem Sinne sind sie bereit und fähig, zu einer Verbesserung der kognitiven WIR-Modelle beizutragen?
10. Das Problem der ‚Optimierung‘ der kognitiven Selbstmodelle verschärft sich dadurch, dass man allgemein einen Sachverhalt X nur dann optimieren kann, wenn man einen Rahmen Y kennt, in den man X so einordnen kann, dass man weiß, wie man unter Voraussetzung des Rahmens Y einen Sachverhalt X zu einem Sachverhalt X+ optimieren kann. Der ‚Rahmen‘ ist quasi ein ‚kognitives Meta-Modell‘, das einen erst in die Lage versetzt, ein konkretes Objekt-Modell zu erarbeiten. Im Alltag sind diese ‚Rahmen‘ bzw. ‚Meta-Modelle‘ die ‚Spielregeln‘, nach denen wir vorgehen. In jeder Gesellschaft ist grundlegend (oft implizit, ’stillschweigend‘) geregelt, wann und wie eine Person A mit einer Person B reden kann. Nicht jeder darf mit jedem zu jedem Zeitpunkt über alles reden. Es gibt feste Rituale; verletzt man diese, kann dies weitreichende Folgen haben, bis hin zum Ausschluss aus allen sozialen Netzen.
11. Sollen also die kognitiven WIR-Modelle im großen Stil optimiert werden, brauchen wir geeignete Meta-Modelle (Spielregeln), wie wir dies gemeinsam tun können. Einfache Lösungen dürfte in diesem komplexen Umfeld kaum geben; zu viele Beteiligten und zu viele unterschiedliche Interessen sind hier zu koordinieren, dazu ist die Sache selbst maximal komplex: es gibt — nach heutigem Wissensstand — kein komplexeres Objekt im ganzen Universum wie das menschliche Gehirn. Das Gehirn ist so komplex, dass es sich prinzipiell nicht selbst verstehen kann (mathematischer Sachverhalt), selbst wenn es alle seine eigenen Zustände kennen würde (was aber nicht der Fall ist und auch niemals der Fall sein kann). Die Koordinierung von Gehirnen durch Gehirne ist von daher eigentlich eine mathematisch unlösbare Aufgabe. Dass es dennoch bis jetzt überhaupt soweit funktioniert hat, erscheint nur möglich, weil es möglicherweise ‚hinter‘ den beobachtbaren Phänomenen Gesetzmäßigkeiten gibt, die ‚begünstigen‘, diese unfassbare Komplexität partiell, lokal ‚einzuschränken‘.

Ein Überblück über alle Blogeinträge nach Themen findet sich HIER

EMERGENTE PHÄNOMENE, BEOBACHTER, GEIST -Teil 2

(Dieser Beitrag bildet die Forsetzung von Überlegungen aus einem vorhergehenden Beitrag)

Eine Schema, wie Leben im Universum entstehen konnte (in späteren Blogeinträgen weiter verfeinert)
Eine Schema, wie Leben im Universum entstehen konnte (in späteren Blogeinträgen weiter verfeinert)

UPDATE EVOLUTION

In einem Diagramm vom Dezember 2009 (siehe Bilde oben) hatte ich eine ‚Gesamtschau‘ der Evolution ‚in einem Bild‘ versucht. Dabei hatte ich eine Aufteilung in ’subatomar‘ und ‚atomar und komplexer‘ vorgenommen. Die Überlegungen kreisten seitdem meistens um die Phänomene oberhalb der atomaren Komplexitätsebene. Dabei schälten sich dann diverse interessante Problemstellungen heraus. In den letzten Monaten war es vor allem das Problem der ‚Emergenz‘, das mich mehr und mehr beschäftigte (sofern die normale Arbeit dazu überhaupt Zeit lies). In mehreren Anläufen, Texten und Vorträgen kam ich bis zu dem Punkt, dass die sich in den emergenten Phänomenen zeigende Funktionalität in keiner Weise durch Rekurs auf die beteiligten Komponenten alleine erklärbar ist (kein ‚Reduktionismus‘, (z.B. der molekulare Prozess der Selbstreproduktion in struktureller Entsprechung zum mathematischen Konzept einer Turingmaschine)) sondern eine Funktionalität auf einer ‚höheren Ebene‘ voraussetzt. Als möglicher ‚Raum für Funktionalitäten‘ bietet sich hier aber nur jener ‚Raum‘ an, innerhalb dessen es zu diesen Prozessen kommt. Hier gibt es nur den Raum der Atome bzw. den subatomaren Bereich. Die heutige Physik beschreibt diesen Raum u.a. mit den Mitteln der Quantenphysik. Als Nichtphysiker hält man dazu gewöhnlich einen gebührenden Abstand (die für die Beschreibung quantenphysikalischer Phänomene benutzte Mathematik ist für einen Nicht-Quantenphysiker in der Regel ‚unverdaulich‘; Ausnahme aber z.B. die Vorlesungen von Feynman (siehe Lit. unten).

QUANTENPHYSIK

An dieser Stelle kam eine entscheidende Anregung bei der fortdauernden Lektüre (jetzt wieder) von Kauffman (‚Reinventing…). Im Kap.13 des Buches referiert er wichtige Positionen der Philosophie des Geistes (einschließlich neurobiologischer Interpretationen), zeigt deren logischen Aporien bei der Erklärung von ‚Geist‘ und ‚Bewusstsein‘ durch Reduktion auf neuronale Aktivitäten auf und spielt dann diverse theoretische Szenarien durch, für die er Erkenntnisse der Quantenphysik benutzt. Zuerst fand ich dies eigentümlich, aber bei weiterem Lesen und Nachdenken habe ich den Eindruck, dass diese Überlegungen höchst interessant sind und nach allem, was ich bislang weiß, den einzig erkennbaren theoretischen Ansatzpunkt liefern, der im Einklang mit den empirischen Wissenschaften steht und doch der Besonderheit der emergenten Phänomene Bewusstsein und Geist eventuell gerecht werden könnte.

Quantum space and Classical Space; Below bodies being open in the direction of quantum space
Quantum space and Classical Space; Below bodies being open in the direction of quantum space

Die Grundidee ist recht simpel. Die empirisch-mathematischen Details beliebig schwierig. Ich habe folgendes verstanden (siehe Handskizze):

1. Im Bereich der subatomaren Teilchen (Quanten) lässt sich nur noch messen, wenn man dabei das zu messende Objekt verändert (Heisenberg, Unschärferelation). Viele kreative Experimente (siehe dazu z.B. das Büchlein von Feynman) legen die Interpretation nahe, dass die Teilchen sich in einem kontinuierlichen Raum möglicher Zustände aufhalten, in dem sie alle Zustände (aus unserer Sicht) quasi ‚gleichzeitig‘ einnehmen (mit unterschiedlichen Wahrscheinlichkeiten). Alles, was ‚geht‘ (Freiheitsgrade), ‚wird gemacht‘. Durch Versuchsanordnungen wird der Möglichkeitsraum punktuell ‚eingeengt‘ und der Raum ‚passt sich‘ den Versuchsanordnungen ‚an‘. Man ‚misst als Phänomen, was sich bei Unterstellung der wahrscheinlichen Verteilungen ergeben würde. Dazu gehören viele spezielle Effekte, die ich hier beiseite lasse.
2. Neben diesem Quantenraum als ‚grundlegender Realität‘ für die messbaren Phänomene gibt es aber auch den konkret realisierten physikalischen Zustand, wie wir ihn als ‚real uns umgebende Welt‘ erfahren. Dieser ‚klassische physikalische Raum‘ erscheint von dem Quantenraum mit seinen floatenden Möglichkeiten ‚abgekoppelt‘ (‚decoherent‘). Er stellt genau eine von unzählig vielen Möglichkeiten dar, was ‚hätte passieren können‘. Abkopplung heißt hier u.a. ‚Verlust an Informationen‘, herausgenommen aus dem ‚Phasenraum‘ der floatenden Möglichkeiten.
3. Trotz der Realität des konkreten klassischen physikalischen Raumes müssen wir annehmen, dass damit der parallel bestehende Quantenraum nicht vollständig aufgehoben wird; er besteht weiter, wahrt eine Kontinuität, bildet weiter die ‚Grundlage‘ für neue ‚Realisierungen‘.
4. Soweit ich bislang sehe ist diese ‚Koexistenz‘ von Quantenraum und konkreter Realisierung bislang nicht vollständig geklärt, speziell nicht die Frage, wie beständig Realisierungen (Dekohärenzen) stattfinden können, ohne den Quantenraum aufzuheben. Darüberhinaus ist nicht wirklich klar, warum es genau zu den bestimmten Realisierungen kommt, die aus unserer Beobachtersicht gewisse ‚Regeln‘ einhalten, obgleich der Quantenraum aus sich heraus nicht auf eine bestimmte Realisierungen abonniert ist.

META-FUNKTIONALITÄT

Die vorausgehenden Überlegungen sind natürlich extrem vereinfachend, lassen dadurch aber vielleicht die großen Linien hervortreten.

Bezogen auf die von mir geäußerte Vermutung, dass die emergenten Phänomene durch vorauszusetzende Funktionalitäten erklärt werden müssen würde durch Einbeziehung des Quantenraums zumindest dahingehend eine Verstärkung erfahren, dass der Quantenraum beliebig komplexe Funktionalitäten ‚beherbergen‘ kann. Aber hier stehen wir noch ziemlich am Anfang.

Kauffman bringt in seinem Buch mehrere Beispiele (z.B. S.210f, Photosynthese), wo anhand konkreter biologischer (chemischer, physikalischer) Prozesse nachgewiesen werden konnte, wie diese konkreten Prozesse nur erklärbar sind durch die Annahme des zugleich bestehenden Quantenraumes.

GEFANGEN IM KÖRPER ALS KOGNITIVE TÄUSCHUNG

Macht man sich diese Fundierung aller Makrophänomene im Quantenraum klar, dann folgt daraus, dass die scheinbare ‚Gefangenheit‘ unseres ‚Geistes‘ in einem konkreten, endlichen Körper, nur eine scheinbare ist. Der Körper ist (mit viel Fantasie auf der Handskizze in der unteren Hälfte erkennbar) in dieser Sicht nur so eine Art ‚Ausstülpung‘ des Quantenraumes an einem bestimmten Punkt in eine ‚vorübergehende Konkretisierung‘ bei gleichzeitiger Aufrechterhaltung der Einbettung in den Quantenraum. Dies bedeutet, bei näherer Betrachtung, dass jeder Mensch ‚in Richtung des Quantenraumes‘ ‚offen‘ ist. Dies wiederum bedeutet, dass jeder Mensch durch seine Einbettung in den Quantenraum mit jedem Punkt des bekannten Universums direkt kommunizieren kann. Diese Kommunikation — so sie stattfindet — verläuft mindestens mit Lichtgeschwindigkeit. Anders gewendet, sofern wir in den Quantenraum ‚eingebettet‘ sind ist jeder von uns zum übrigen Raum hin ‚vollständig offen‘. Im Quantenraum gibt es keine lokale Abgrenzung. Diese wird nur mit Hilfe des transienten Körpers für eine verschwindend kurze Zeit künstlich eingerichtet, um punktuell ‚Individualitäten‘ sichtbar zu machen.

Warum der Quantenraum diese punktuellen transienten ‚Ausstülpungen‘ vornimmt erschließt sich uns bislang nicht. Aber wir stehen ja auch mit dem Erkennen hier erst ganz am Anfang.

LITERATURHINWEISE
Richard P. Feynman (Author), A. Zee (Introduction), „QED: The Strange Theory of Light and Matter“, Publisher: Princeton University Press (April 4, 2006), ISBN-10: 0691125759, ISBN-13: 978-0691125756

Gerd Doeben-Henisch, Kurze Review online: http://www.amazon.com/gp/cdp/memberreviews/A1D6994DSB8K4M/ref=cm_cr_dp_auth_rev?ie=UTF8&sort_by=MostRecentReview

Kauffman, S.A., Reinventing the Sacred. A new View of Science, Reason, and Religion. New York: Basic Books, 2008 (Paperback 2010)

Eine Übersicht über alle bisherigen Blogeinträge anhand der Themen findet sich HIER

EMERGENTE PHÄNOMENE, BEOBACHTER, GEIST

  1. In dem anregenden Buch von Kaufmann ‚Reinventing the Sacred‘ (dessen Besprechung in diesem Blog noch immer nicht beendet ist….) wird sehr oft und in vielfältiger Weise über solche Phänomene der beobachtbaren Welt gesprochen, die ‚da‘ sind, die ‚auftreten‘, die aber in ihrer erfahrbaren Form nicht aus den bekannten Eigenschaften ihrer ‚Bestandteile‘ erklärbar sind. Für solche Phänomene hat sich der Begriff ‚emergente‘ Phänomene eingebürgert.
  2. Insgesamt gesehen ist das Reden über emergente Phänomene nichts Neues. Möglicherweise kann man sogar das Reden über das Phänomen ‚Geist‘ hier subsumieren (sieht man mal von der generellen Problematik ab, dass die Wortmarke ‚Geist‘ allein schon im europäischen Kulturkreis mindestens seit den Griechen und Semiten (nous, pneuma, psyche, ruach, ruh,…) in so vielfältiger Weise auftritt, dass eine klare Bedeutungszuordnung ausgeschlossen erscheint): der Mensch kann an sich und am ‚anderen‘ Menschen so viele Phänomene des ‚Ausdrucks‘, der ‚Mitteilung‘, des ‚absichtsvollen Handelns‘ usw. erfahren, die allesamt nicht ‚erklärbar‘ sind, versucht man sie auf die beteiligten Bestandteile wie körperliche Organe, Muskeln, Knochen, Gehirnzellen usw. zurück zu führen. Jeglicher Reduktionismus in der Art einer solchen ‚Rückführung‘ ist im Ansatz schon so lächerlich, dass es verwundern kann, warum dann — im Umkehrschluss — heute nicht viel mehr selbstreflektierende Wissenschaftler die erkenntnismäßige Provokation solcher ‚emergenter‘ Phänomene konstatieren.
  3. In meinen letzten drei öffentlichen Vorträgen (YPO Nov.12, Salon Slalom Nov.12, Interdisz.Arbeitsgruppe der Universität Unicamp (Campinas, Brasilien) Febr.13) habe ich auf diese Problematik am Beispiel des Selbstreproduktionsmechanismusses der biologischen Zellen hingewiesen. Vereinfachend: ein Molekül (Ribosom) bekommt als Input andere Moleküle (mRNA, tRNA), die von einem weiteren Molekül (DNA) ‚gesteuert‘ werden, und dieser Input wird vom Ribosom-Molekül ‚abgebildet‘ auf eine Menge anderer Moleküle (Proteine). Dieser hochkomplexe Abbildungsprozess lässt sich nicht durch Rekurs auf die beteiligten Moleküle und deren physikalische Eigenschaften erklären (was schon viele andere festgestellt haben).
  4. Ich versuche das Problem immer so zu erklären: nahezu jeder benutzt heute Computer (mindestens in der Form eines Smartphones). Jeder weiß, dass die möglichen ‚Verhaltensweisen‘ seines Computers von der ‚Software‘ abhängt, die die Hardware steuert (und natürlich auch von der Hardware selbst insoweit diese festlegt, was durch eine Software alles gesteuert werden kann). Mit einer geeigneten ‚App‘ (= Stück Software) kann ich ein Android Smartphone in einen ‚Kompass‘ verwandeln, kann eine Klanganalyse machen lassen, um Instrumente zu stimmen, kann eine ‚Wasserwaage‘ simulieren, ein Musikinstrument, usw. Würde man jetzt jemanden die Aufgabe stellen, zu analysieren, warum ein Computer solche bestimmten (‚emergenten‘!) Verhaltensweise zeigt und dieser ‚Beobachter‘ dürfte nur die erzeugende Hardware anhand ihrer physikalischen Eigenschaften untersuchen, er wäre nicht in der Lage, die verursachenden komplexen Funktionen zu entdecken. Denn das, was wir die ‚Software‘ nennen, ist für uns zwar als ein ‚Text‘ vorstellbar, aber die Software, die im Computer wirksam ist, existiert im Computer nur in Form von tausenden, Millionen, Milliarden usw. von Ladungszuständen, die über die Chips verteilt sind. Ohne Kenntnis der logischen Architektur dieser Hardware ist eine Rekonstruktion dieser komplexen Funktionen ‚in der Hardware‘ nur aufgrund der physikalischen Eigenschaften grundsätzlich unmöglich (Laut Turing ist diese Kenntnis sogar unmöglich, wenn man alle logischen Informationen über die Struktur hätte; Halteproblem). Das lernt jeder Informatikstudent in den ersten Semestern. Dennoch glauben wir, dass wir im Falle komplexer (= ‚emergenter‘?) Phänome in der materiellen Struktur der uns umgebenden Welt alle ‚wichtigen‘ Eigenschaften erkennen könnten nur durch Beschränkung auf die physikalischen Eigenschaften der beteiligten ‚materiellen Komponenten‘.
  5. Eine philosophische Konsequenz aus diesem Sachverhalt ist, dass wir unsere Rolle als ‚Beobachter der Natur‘ kritisch überdenken müssen (Heisenberg war einer von vielen, die dies schon zu seinen Zeiten angesichts der neuen Erkenntnisse der Physik laut gedacht hatte). Im Analogieschluss von der Unmöglichkeit des Erkennens einer komplexen Funktion, die sich zu ihrer Ausführung tausender, Milliarden usw. materieller Einzelzustände ‚bedient‘ müssten wir bereit sein, die Arbeitshypothese zu bilden, dass das Erkennen von sogenannten ‚emergenten‘ Phänomenen unter Umständen von uns genau dies verlangt: die Annahme von komplexen Funktionen, die ‚hinter‘ den vielen materiellen ‚Einzelteilen‘ ‚operieren‘. Dies wirft natürlich die frage nach dem ‚Medium‘ auf, in dem sie operieren. Im Falle der Computerhardware wissen wir, dass es Eigenschaften der Hardware selbst sind, die die ‚Umsetzung, Realisierung‘ der ‚inhärenten‘ komplexen Funktionen erlaubt. Warum also nicht als Arbeitshypothese annehmen, dass die uns — allzuwenig — bekannte Materie möglicherweise inhärente Eigenschaften besitzt, die erst im Zusammenwirken vieler Komponenten ’sichtbar‘ werden.
  6. Natürlich wirkt solch eine Annahme auf so manche im ersten Moment ‚erschreckend‘, da damit die von sehr vielen (den meisten?) als ziemlich ‚tod‘ erklärte Materie mit einem Mal zum Ort ungeahnter komplexer Eigenschaften wird, von denen die komplexen biologischen Phänomene möglicherweise nur eine kleine Kostprobe sind. Das Faszinosum ‚Geist‘ wäre dann möglicherweise auch nichts Besonderes mehr, wäre es doch nur das ‚Aufscheinen‘ der inhärenten funktionalen Eigenschaften der Materie.
  7. Sollten diese Spekulationen zutreffen, dann würde die Physik nahtlos in die Philosophie (und möglicherweise sogar Theologie) übergehen, und umgekehrt. Die schon immer äußerst bizarre Aufsplitterung der einen Welt in eine Vielzahl von miteinander unvermittelten Kategorien wäre dann als ein reiner Artefakt unseres unbeholfenen Denkens diagnostiziert.
  8. Bleibt die eher psychologische (oder gar ’spirituelle‘) Frage, warum wir Menschen so dauerhaft krampfhaft an unsinnigen Konzepten festzuhalten versuchen, wenn die Phänomene selbst unser Denken doch so ‚alt‘ aussehen lassen…-:)?

Eine fortsetzung zu diesem Beitrag findet sich HIER

Eine Übersicht über alle bisherigen Blogeinträge nach Themen findet sich HIER