Archiv der Kategorie: Emergenz

REVIEW: THE WORLD ACCORDING TO TOMDISPATCH – Teil 6

T.Engelhardt (ed), „The World Acording to TomDispatch. America in the New Age of Empire“, London-New York: Verso, 2008

Diesem Text ging voraus: Teil 5.

ZWISCHENERGEBNISSE NACH Teilen 1-5

1) Fassen wir kurz zusammen, was sich bisher ergeben hat: ausgehend von den philosophischen Reflexionen zum Phänomen einer markanten emergenten Komplexität des biologischen Lebens zeigte sich Kommunikation und eine funktionierende Öffentlichkeit als zentrale Bedingungen für das Funktionieren dieser Komplexität. Um dies gesellschaftlich zu ermöglichen wurden in modernen Demokratien Verfassungen geschaffen, in denen weitgehende Freiheitsrechte zum Schutze des Individuums verankert wurden (z.B. USA, Deutschland). Begleitet von heftigen Diskussionen wurden in Deutschland unter speziellen Bedingungen (‚Lauschangriff‘) eine Aufhebung solcher Rechte durch Regierungsstellen erlaubt; in den USA gibt es eine lange Geschichte von Ausdeutungen zum vierten Zusatz der Verfassung, die Stand 2013 — zwar nicht dem Wortlaut nach, aber faktisch — einer fast vollständigen Aufhebung dieser Freiheitsrechte gleichkommt. Engelhardt skizziert in der Einleitung zu seinem Buch die Entwicklung in den USA nach 9/11 als dramatische Verstärkung von Geheimdiensten und Militär in einer ‚unipolaren Welt‘. Dies wird begleitet durch eine weitgehende Abschottung der Regierung nach außen. Im ersten Kapitel zeigt Engelhardt anhand konkreter Daten auf, wie die Ereignisse von 9/11 auf eine medial imprägnierte Öffentlichkeit treffen, die — geprägt von den tiefsitzenden Bildern der Medien der letzten Jahrzehnte — die Ereignisse in einer bevorzugten Weise deuten; in einer Weise, die von der Regierung mitgesteuert wird und für bestimmte Pläne ausgenutzt werden. Engelhardt kann dann anhand einiger Fakten zum neuen Ground-Zero Mahnmal aufzeigen, dass es hier nicht um ein ’normales‘ Denkmal geht, sondern dass das Gedenken an das Ereignis und die Toten von 9/11 für eine bestimmte Politik in einer Weise ‚instrumentalisiert‘, die viele ernsthafte Fragen aufwirft. In dem nachfolgenden Kapitel mit dem Titel ‚The Empire that Fell as it Rose‘ gibt es einen Briefdialog zwischen Tom Engelhardt und Jonathan Schell, in dem Schell anhand der historischen Daten zu dem Schluss kommt, dass die USA sich nach dem zweiten Weltkrieg scheinbar unaufhaltsam in eine imperiale — alles beherrschende — Macht entwickelt haben. Dass die US-amerikanische Regierung sich, gestützt auf ein alle Massen sprengendes Militär im Verein mit einem Netzwerk von nicht mehr kontrollierbaren Geheimdiensten, in ein imperiales Machtdenken hinein gesteigert haben, das für die Realität weitgehend ‚erblindet‘ ist. In seiner Antwort sagt Engelhardt, dass er die Einschätzung von Schell als Nichthistoriker zwar nicht historisch-wissenschaftlich verifizieren kann, dass aber sein Wissen um die aktuellen Fakten in den USA das Bild von Schell ohne weiteres stützt (es folgt eine Aufzählung von Fakten). So sehr viele sehen, dass der Weg des Imperialismus eigentlich kein brauchbares Konzept für die Zukunft ist, so sehr sind aber selbst die (amerikanischen?) Kritiker von diesem imperialen Denken ‚verseucht‘ (‚brainwashed‘), dass sie sich nicht vorstellen können, wie denn ein nicht-imperiales Modell real funktionieren kann.

BEGINN EINER MULTIPOLAREN WELT

2) In dem folgenden Kapitel „No longer the ‚Lone‘ Superpower“ beschreibt dann Chalmers Johnson dass die USA faktisch nicht mehr die einzige Super Power sind. Aber mehr noch, mit Blick auf die Vergangenheit, in der diverse Weltmächte daran scheiterten, aufkommenden gesellschaftlichen Wandel ‚friedlich‘ zu lösen, stellt er die Frage, ob und wie es den USA gelingt, das neuerliche Erstarken Chinas (und einiger anderer potentieller Konkurrenten wie z.B. Russland, Indien, Brasilien) in einem friedlichen Prozess aufzufangen, oder ob es bei der konkreten Konfrontationen in Asien (speziell China – Japan) schließlich doch wieder zu einem Krieg der Machtinteressen kommt, der vieles zerstört und wenig aufbaut?
3) Johnson trägt viele Fakten zusammen, um zu verdeutlichen, wie stark und nachhaltig der Aufstieg Chinas ist bei gleichzeitigem Abfall Japans. Allein schon demographisch ist Japan dabei, seine Bevölkerung nahezu zu halbieren, während die Bevölkerung Chinas stabil bleiben wird mit einem deutlichen Männerüberschuss. Parallel finanziert die USA militärische Basen in Asien, die sie täglich (!) einige Milliarden US-Dollar kosten. Anstatt in solch einer Situation den Ausgleich zu suchen, schürt die USA massiv die Konfrontation zwischen China und Japan (und damit auch zwischen China und den USA). (vgl.SS.37-39)
4) Nach dem zweiten Weltkrieg übernahm Japan die Rolle eines pazifistischen Staates, allerdings bei gleichzeitiger Erlaubnis, dass die USA ca. 91 Militärbasen in Japan unterhielten (samt dem Hauptstützpunkt der 7.US-Flotte) mit jeglichen Rechten für die USA ohne Kontrolle durch Japan. Nach dem Ende des kalten Krieges 1991 tat die US-amerikanische Politik dann alles, um Japan dazu zu bewegen, seine Verfassung zu ändern und sich wieder selbst zu bewaffnen. Japan sollte einen Gegenpol zu Nordkorea und China spielen. Und tatsächlich hat Japan ab 1992 damit begonnen, seine militärischen Möglichkeiten schrittweise zu erweitern, also aufzurüsten. Dazu gehörte die Bereitschaft Japans, militärische Aktionen der UN zu unterstützen oder sich am Star-Wars Programm der USA zu beteiligen. Dieser Prozess wurde intensiver nach der Wahl des japanischen Ministerpräsidenten Junichiro Kouzumi, der ein intimer Freund von Georg Bush war und ihn u.a. aktiv im Irakkrieg unterstützte.(vgl. SS.40-42)
5) Junichiro Kouzumi, holte sehr viele anti-chinesische Hardliner (und Militär orientierte) Minister in sein Kabinett und unterstütze ausdrücklich eine Pro-Taiwan Politik. Im Gegensatz zu Korea, das Japan von 1910 – 1945 besetzt hielt, wo es viele Unrechtsverletzungen begangen hat, wo Krieg stattfand, ging Japan mit Taiwan wohlwollend um und es kam zu keinen Kriegshandlungen. Von daher war die Stimmung der Bevölkerung in Taiwan eher japanfreundlich. Das Ziel ist eine ‚eigene japanische Verfassung‘ mit eigenem Militär. Die USA sind interessiert ihre Basen zu verstärken und das japanische Exportverbot für Militärtechnologie aufzuheben, damit Japan beim Star-Wars-Programm mitwirken kann. In all diesen Jahren ist auch eine starke ‚Renationalisierung‘ zu beobachten. (vgl. SS.42-44)
6) Während Japan einem eher konservativ-nationalistischen Kurs folgte in enger Gefolgschaft zu den USA, änderte sich die Stimmung in Taiwan. Sowohl politisch wie wirtschaftlich öffnete sich Taiwan zusehends für China, während China seine Position gegenüber Taiwan als zu China gehörig bekräftigte.(vgl. SS.44-46)
7) Die direkten Beziehungen zwischen China und Japan haben sich kontinuierlich verschlechtert. Ausgangspunkt sind u.a. die geschätzten 23 Millionen toten Chinesen, die Japans Krieg gegen China hervorgebracht hat (mehr als die Opfer von Hitler und Stalin zusammen), die Tatsache von 30 Mrd. Dollar Entschädigungszahlung, die Japan gegenüber China geleistet hat (obgleich China nie um Reparationen gebeten haben soll)(das viel kleinere Deutschland zahlte gegenüber seinen Opfern 80 Mrd), sowie vor allem, dass Japan seine Schuld nie anerkannt hat. Stattdessen stellte Japan sich dar als der ‚Befreier‘ Asiens, das selbst ein Opfer des europäisch-amerikanischen Imperialismus war. Bei zahlreichen Gelegenheiten, bei denen China Japan eine Brücke zu bauen versuchte, lehnte Japan dies nicht nur stolz ab, sondern tat dies in einer Weise, die wiederum die Chinesen als beleidigend empfinden mussten. Das ist kein gutes Klima. Parallele Aktionen der USA, die China provozierten (z.B. der Absturz eines US-amerikanischen elektronischen Aufklärungsflugzeuges über China am 1.April 2001; während China sich viele Tage zurück hielt, um den USA die Gelegenheit zu geben, sich zu entschuldigen, heizten amerikanische Politiker die Stimmung gegen China mit falschen Behauptungen auf). Während Chinas wirtschaftliche Entwicklung nach 2001 dynamisch Fortschritte erzielte (und die USA im Irakkrieg Ressourcen verschleuderte (in der Hoffnung an die Ölquellen zu kommen)) und parallel weltweit friedlich nach Ressourcen Ausschau hielt, begannen die USA ab 2004 mit einem gewaltigen militärischem Aufrüstungsprogramm im pazifischen Raum. In diesem Zusammenhang bezog Japan explizite Position, indem es sich zu militärischen Aktionen bereit erklärte, wenn Taiwan gefährdet würde. Das alles war natürlich nicht dazu angetan, das Verhältnis zu China zu entspannen.(vgl. SS.47-52)
8) Auf dem Wege wirtschaftlichen Austausches beginnt China mit immer mehr Ländern in allen Kontinenten vorteilhafte wirtschaftliche Beziehungen für beide Seiten aufzubauen, z.B. Iran, Venezuela, Kuba, Argentinien, Bolivien, Chile, Europa; dabei werden zugleich oft die Beziehungen von Japan und den USA zu diesen Ländern (nicht notwendigerweise) geschwächt. Viele Länder (einschließlich der EU) begrüßen diese Entwicklung in Richtung einer multipolaren Welt ausdrücklich. Das Verhalten der USA, auf diese Entwicklung vorwiegend imperialistisch-militärisch zu reagieren, durch Verschärfung der Gegensätze, erscheint im Lichte der Geschichte als nicht sehr weise.(vgl. SS.52-58)

Fortsetzung folgt mit Teil 7.

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

M.DONALD – EVOLUTION DES MENSCHLICHEN BEWUSSTSEINS – Kurzbesprechung, Teil 1

Merlin Donald, A Mind So Rare. The Evolution of Human Consciousness. New York – London: W.W.Norton & Company, 2001

Zur Person von Merlin Donald gibt es einen Eintrag in der englischen Wikipedia und einen kurzen Text der Case Western University. Das aktuelle Buch ist eine Art Weiterentwickung seines Buches von 1991 (s.u.).

1) Dass ich bei einem Buch nur ausgewählte Kapitel bespreche ist neu. Liegt aber darin begründet, dass die im Kontext dieses Blogs interessante Thesen sich erst in den Schlusskapiteln finden (und weil die knappe Zeit eine Auswahl erzwingt).
2) Im Vorwort (‚Prologue‘) (vgl. SS.X – XIV) macht Donald darauf aufmerksam dass wissenschaftlicher Fortschritt nicht selten erst möglich wurde, wenn wir anscheinend gültige alltäglich Wahrheiten als trügerisch und falsch erkannt haben (z.B. erwiesen sich die Atome Demokrits im Laufe der Zeit nicht nur nicht als nicht ’solide‘, sondern die Unterscheidung zwischen Energie und Materie brach grundsätzlich in sich zusammen). Ähnlich erwiesen sich viele Anschauungen der Philosophie und der Psychologie über den menschlichen Geist als Täuschungen. Die Realität unserer Körper bestätigt keine einzige der Anschauungen der letzten Jahrtausende. Ein Schwerpunkt des Buches von Donald liegt darin, dass er die Besonderheit des menschlichen Geistes nicht in der Besonderheit der spezifischen Beschaffenheit des Gehirns alleine liegt (wenngleich es welche aufweist), sondern in der Fähigkeit, ‚Kultur‘ (‚culture‘) hervorzubringen und zu assimilieren. (vgl. S.XIII) Der menschliche ‚Geist‘ (‚mind‘) existiert nicht ‚für sich‘, sondern nur eingewoben in das Netzwerk einer Kultur. Für sich genommen ist ein einzelnes Gehirn isoliert, eingeschlossen in einen Körper, vollständig ’solipsistisch‘. Und es ist eine spannende Frage, wie es möglich war, dass die einzelnen Gehirne ihre Isoliertheit und Gefangenschaft im einzelnen Körper entkommen konnten.
3) Im Kap.1 zeichnet er ein wenig das Spannungsverhältnis zwischen dem Thema ‚Bewusstsein‘ einerseits und dem Thema ‚Evolution‘ andererseits nach. Im Allgemeinen sehen – nach Donald – Vertreter der Evolutionstheorie das Phänomen des Bewusstseins als etwas an, das ganz und gar unwissenschaftlich ist. (vgl. S.1) Als ‚Anti-Bewusstseins-Denker‘ nennt er ausdrücklich die Namen Daniel Dennett (der sich selbst als ‚Philosoph‘ bezeichnet) und den Psychologen Stephen Pinker. (vgl. S.1f) Die Grundthese von diesen beiden und anderen, die Donald nur ‚evolutionäre Hardliner‘ nennt, besteht nach Donald darin, dass sie die ‚Gene‘ und die ‚Maschinerie der Neuronen‘ zu den eigentlichen ‚Akteuren‘ erklären und dem Phänomen des Bewusstseins nur eine ephemere Rolle zubilligen. Die Erfolge der künstlichen Intelligenzforschung nutzen sie dann als zusätzlichen Hinweis darauf, dass man für die Erklärung sogenannter ‚geistiger Eigenschaften‘ keine speziellen ‚geistigen Eigenschaften‘ benötigt, sondern dass die normale ‚Hardware‘ – also sowohl die Chips der Computer wie die Zellen des Gehirns – ausreiche, um diese ‚Geistigkeit‘ – auch in Form eines ‚Bewusstseins‘ – zu erzeugen. (vgl. S.2f) Entsprechend sind auch emergente Phänomene wie ‚Kultur‘ nur Ausstülpungen der zugrunde liegenden ‚Hardware‘. (vgl. S.3) Richard Dawkins hat in diesem Kontext das Denkmodell der ‚Meme‘ eingeführt; diese sieht er in Analogie zu den Genen als Grundelemente kulturellen Denkens.(vgl. S.4) Der einzelne Mensch ist nach Donald in diesem Modell von Dawkins ein willenloses Etwas, von ‚unten‘ determiniert durch die Gene und die übermächtige Hardware des Körpers, von außen durch eine vorgegebene Umwelt und dann, zusätzlich, durch die Meme der Kultur, die von außen in ihn eindringen und seine Wahrnehmung und sein Denken steuern.(vgl. S.4)
4) Diesem das Bewusstsein herunter spielende Denken setzt Donald zahlreiche empirische Befunde entgegen (Oliver Sacks, Melvyn Goodale, A.D.Milner, Tony Marcel, Ariel Mack, Irvin Rock, Peter Juszyck), die alle zusammen die Hypothese unterstützen sollen, dass nahezu alle wichtigen Lernleistungen ganz bestimmte Aufmerksamkeitsleistungen und Bewusstheit voraussetzen. Nachdem man etwas mit Aufmerksamkeit und Bewusstsein gelernt hat, kann man es oft ‚automatisieren‘. Außerdem zeigt sich, dass diese charakteristischen ‚Bewusstheiten‘ mit bestimmten Gehirnarealen korrelieren; werden diese beschädigt sind diese Bewusstheiten nicht mehr verfügbar. (vgl. SS.4-7)
5) Donald sieht sich selbst nicht im Gegensatz zu einer evolutionären Sicht der Entstehung des Lebens. Im Gegensatz zu jenen, die er evolutionäre Hardliner nennt, betrachtet er aber das Phänomen des Bewusstseins, so, wie es sich bei den Menschen dann zeigte, als eine Entwicklung, die etwas Besonderes repräsentiert, das den Menschen von anderen Lebewesen unterscheidet. Natürlich gibt es reale Veränderungen im Gehirn selbst, die nachweisbar sind, aber diese Veränderungen der ‚Hardware‘ erklärt als solche nicht den zusätzlichen ‚Funktionszuwachs‘, der letztlich der Schlüssel zu allem ist, was den Menschen von den anderen Lebewesen markant unterscheidet; das Phänomen der ‚Sprachen‘ ist hier nur ein Aspekt, wenngleich vielleicht ein sehr zentraler. Während alle anderen Lebewesen – soweit wir heute erkennen können – weitgehend von ihren genetisch induzierten Programmen bestimmt sind, hat der Mensch die Fähigkeit erlangt, durch sein Selbstbewusstsein und durch seine Sprachfähigkeit die vorgegebenen Bahnen eindrücklich und nachhaltig aufzubrechen, nicht nur einmal, sondern andauernd. (vgl. S.7f)
6) Donald gibt auch zu, dass er selbst noch keine ‚Theorie des Selbstbewusstseins‘ im engeren Sinn habe und er sieht auch nicht, dass es solch eine Theorie in naher Zukunft geben könnte. Was er aber versucht, das ist die Inblicknahme des Phänomens ‚Selbstbewusstsein‘ in all seinen Manifestationen, in der Hoffnung, dass dann in der Zukunft vielleicht so langsam eine Theorie entstehen könnte, die diese Manifestationen in Beziehung setzen kann zu der zugrunde liegenden Maschinerie.(vgl. S.8f)
7) [Anmerkung: Donald benutzt ohne erkennbare Logik verschiedene Wortmarken abwechselnd, wenn er von (Selbst-)Bewusstsein spricht, z.B. ‚awareness‘, ‚consciousness‘, ’subjective awareness‘. Mir kommt es so vor, als ob die Wortmarke ‚conscsiousness‘ am häufigsten vorkommt. ]
8) Nach Donald fängt das Problem auch schon mit der Schwierigkeit einer klaren Definition an. Er selbst lehnt es ab, das Phänomen des ‚Selbstbewusstseins‘ z.B. auf reine ’sensorische Empfindung‘ oder auf ‚Sprache‘ zu reduzieren. Für ihn zeigt sich das Phänomen auf vielen Ebenen und in vielen Brennpunkten gleichzeitig und es ist zugleich tief verwurzelt in einem evolutionären Prozess. Unsere Art, Dinge ‚bewusst‘ tun zu können zeichnet uns aus vor allen anderen Arten. (vgl. SS.8-10) Dies schließt nicht aus, dass wir Teile unsere zerebralen Maschinerie mit anderen Lebewesen teilen, aber eben nicht alles. (vgl. S.10f) Und das Besondere des Menschen ist eben, dass seine zerebrale Maschinerie nicht nur Sprache und Kultur ermöglicht, sondern – und das ist das absolut Besondere – dass Sprache und Kultur auf den einzelnen Menschen so zurückwirken können, dass er als Teil von Sprache und Kultur einfach ein ‚anderes Wesen‘ wird als ohne diese beiden Elemente. (vgl. S.11)
9) [Anmerkung: Der Text von Donald liest sich recht packend, fast dramatisch. Man spürt, wie er mit den starken Tendenzen in Wissenschaft und Philosophie ringt, das Phänomen des Selbstbewusstseins ‚klein zu reden‘, es ‚weg zu reden‘. Während man es bei empirischen Wissenschaftlern fast noch verstehen kann, dass sie eine ’natürliche Scheu‘ vor zu komplexen Phänomenen haben, die sich einer einfachen empirischen Analyse entziehen, gewinnt es bei Menschen, die sich Philosophen nennen, dann schon fast bizarre Züge. Andererseits, auch das ‚Kleinreden‘ von Phänomenen kann seinen Wert haben und die Position eines Daniel Dennett hat in ihrer Radikalität so manchen vielleicht aufgeschreckt und dazu gebracht, doch auch einmal selbst über das Phänomen Selbstbewusstsein nachzudenken und nicht nur ’nachdenken zu lassen‘.]
10) [Anmerkung: Wie bei allen ‚emergenten‘ Phänomenen (z.B. ‚Wärme‘, ‚Phänotypen‘, ‚Verhalten‘ usw.) ist es natürlich immer am einfachsten sich einer Erklärung ganz zu verweigern und einfach nur auf die hervorbringenden Einzelelemente zu verweisen, die mit dem emergenten Phänomen korrelieren. So sind die einzelnen neuronalen Zellen in einem Nervensystem als solche aufweisbar und man kann einzelne ihrer Eigenschaften ‚messen‘. Aber mit noch so vielem Aufweisen einzelner Zellen kann man das Gesamtverhalten von z.B. nur zwei einzelnen Zellen NICHT erklären, die sich z.B. wie ein logisches Gatter (UND, ODER) verhalten. Von einer ‚höheren Betrachtungsebene‘ aus ist klar, dass es genau diese logische Struktur ist, die da ‚am Werke‘ ist, aber diese logische Struktur als solche ist kein ‚Objekt‘ wie die einzelnen, beteiligten Zellen. Die logische Struktur ist eine ‚Funktion‘ die sich ‚implizit im Verhalten zeigt‘, wenn man das Verhalten entsprechend ‚betrachtet‘. D.h. im ‚Zusammenwirken‘ beider einzelner Zellen zeigt sich eine ‚Eigenschaft‘, die sie beide ‚zusammen‘ haben, aber nur zusammen; bei Betrachtung jeder Zelle für sich würde diese Eigenschaft nicht sichtbar werden. Die Frage ist dann, wie man den ‚ontologischen Status‘ dieser ‚gemeinsamen Eigenschaft‘ bewertet. Die gemeinsame Eigenschaft ist ‚manifest‘, ‚real‘ beim ‚Zusammenwirken‘ und auch nur für denjenigen, der das Zusammenwirken als Zusammenwirken ‚beobachtet‘. Ohne einen Beobachter werden sich beide Zellen – nach unserem Wissen – genauso verhalten, aber für den menschlichen Erkenntnisraum erschließt sich dieser Sachverhalt nur, wenn es wenigstens einen menschlichen Beobachter gibt, der speziell auf das Zusammenwirken der beiden Zellen achtet und der darüber hinaus in der Lage ist, ein ‚Konzept‘ wie das des ‚logischen Gatters‘ oder einer ‚boolschen logischen Funktion‘ zu denken. Jemand, der keine Ahnung von Logik hat, würde das Verhalten der beiden Zellen, obgleich es da wäre, gar nicht wahrnehmen. ]
11) [Anmerkung: Das emergente Phänomen des Selbstbewusstseins ist zwar um ein Unendliches komplexer als unser Zwei-Neuronen-Modell eines logischen Gatters (es gibt ca. 100 Mrd. Nervenzellen die mit dem Phänomen des Selbstbewusstseins korrelieren…), es ist aber strukturell sehr ähnlich. Sollte es spezielle Verhaltenseigenschaften der 100 Mrd. Neuronen geben, die sich eben nur in ihrem Zusammenwirken zeigen, und zwar als ‚reale‘ Eigenschaften, dann wäre es eine Form von ‚kognitiver Blindheit‘, diese nicht wahrzunehmen, nur weil man die dazu notwendigen begrifflichen Konzepte nicht parat hätte. Bei Dennett und Pinker könnte man – wenn man Donald liest – den Verdacht hegen, dass sie von solch einer Spielart ‚kognitiver Blindheit‘ betroffen sind, dass sie nicht einmal im Ansatz anzunehmen scheinen, dass es reale komplexe Eigenschaften geben kann, die sich nur im Zusammenspiel von vielen einzelnen Elementen – in ‚emergenter‘ Weise, wie man so schön sagt – zeigen können. Wenn man bedenkt, wie schwer wir uns mit unserem Denken tun, schon bei vergleichsweise einfachen emergenten Phänomenen (z.B. bei logischen Sachverhalten mit nur ein paar Duzent logischen Operatoren) den Überblick zu behalten, dann wundert es vielleicht nicht, wenn wir bei so unendlich komplexen Phänomen wie den verschiedenen Verhaltenseigenschaften des Gehirns uns eher auf die ‚kognitive Flucht‘ begeben als uns der mühsamen Analyse ihrer impliziten Logik zu unterziehen. ]

Zur Fortsetzung siehe HIER.

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

QUELLENNACHWEISE

Ein älteres Buch von Donald:

Merlin Donald, Origins of the Modern Mind. Three stages in the evolution of culture and cognition. Cambridge (MA) – London: Harvard University Press, 1991

EMERGING MIND – Mögliche Konsequenzen

Letzte Änderung: 9.April 2015, 12:10h – Minimale Korrekturen; Lesbarkeit verbessert durch Abstände; Zwischenüberschriften

1) Die ganzen Überlegungen zum ‚Emerging Mind‘ sind noch sehr anfangshaft, spekulativ. Andererseits, angesichts der vielen ungelösten Fragen, ohne diese Arbeitshypothese und die interessanten Zusammenhänge mit dieser Arbeitshypothese ist es eigentlich unmöglich, diese Arbeitshypothese nicht weiter zu denken. Fehler zeigten sich ja im allgemeinen am ehesten dann, wenn man versucht, eine Hypothese konsequent anzuwenden und sie auf diese Weise immer mehr ‚Überprüfungen‘ unterzieht.

EMPIRISCHES UNIVERSUM ALS FOLGE VON STRUKTUREN

2) Bisheriger Ausgangspunkt ist ja die Annahme einer Prozesskette S*(t+n) = f(S(t)) mit ‚t‘ als einem Zeitpunkt, ‚S‘ als einer identifizierbaren Struktur zu diesem Zeitpunkt und ‚f‘ als eines funktionalen Zusammenhanges, der die Struktur ‚S‘ in die Struktur ‚S*‘ überführt.

3) In vorausgehenden Einträgen hatte ich exemplarisch mögliche Strukturen identifiziert beginnend mit dem Energieausbruch E des BigBang, der dann in der nachfolgenden Abkühlung immer mehr Strukturen ‚hervorgebracht‘ (=f?) hat: Quanten [Q], Atome [At], Moleküle [Mol], usw. Man bekommt dann eine Prozesskette der Art EMPIRISCHER-KOSMOS = S_Q(t+n1) = f(S_E(0)), S_At(t+n1+n2) = f(S_Q(t+n1) ), usw. wobei die Energie eine Art ‚Nullstruktur‘ ist verglichen mit den folgenden Strukturausprägungen.

4) Bedenkt man ferner, dass jede Funktion ‚f‘ in der ‚Realität‘ eine ‚reale Abbildung‘ sein muss, d.h. eine ‚Operation‘, die ‚real etwas bewirkt‘, dann bedeutet dies, dass man parallel zu den Strukturen S_i(), die man zu verschiedenen Zeitpunkten unterscheiden kann, für die Veränderungsoperation ‚f‘ (von der noch unklar ist, ob es immer die ‚gleiche‘ ist), einen ‚Träger‘ annehmen muss, ein ‚Medium‘, das diese Ausführung ermöglicht. In der klassischen Makrophysik gibt es neben den unterscheidbaren Makrostrukturen ’nichts Konkretes‘, was als Träger in Frage kommt ausser den ‚beobachtbaren Kräften‘, die wir durch ihre spezifischen ‚Manifestationen‘ ‚indirekt‘ erkennen und die wir hypothetisch in Form von ‚Gesetzen‘ benennen und damit ‚dingfest‘ machen. Im Licht der Quantenphysik (was sich bislang vielleicht eher noch als ein ‚Halbdunkel‘ darstellt, das wir noch kaum verstehen…) muss man annehmen, dass die Wahrscheinlichkeitsfelder ihre Kohärenz immer wieder durch ‚Kräfte‘ verlieren, die dann zu den tatsächlich beobachtbaren Makroereignissen führen. Diese in der Quantenfeld lokalisierten hypothetischen Kräfte bieten sich als Kandidaten für den Operator ‚f‘ an, der die unterschiedlichen Strukturbildungen E → S_Q → S_At → … ermöglicht.

ENERGIE: EINMAL UND IMMER WIEDER

5) Neben vielen interessanten Aspekten ist bemerkenswert, dass diese Prozesskette EMPIRISCHER-KOSMOS bis zur Strukturform der Moleküle durch eine einmalige Energiezufuhr (’statisch‘) diese Strukturen erhält; jenseits der Moleküle S_Mol, ab der Strukturform ‚Zelle‘ S_Cell, benötigen diese komplexe Strukturen kontinuierlich eine beständige Zufuhr von Energie (‚dynamisch‘) in Form von chemisch gebundener Energie, die dann mittels Metabolismus ‚freigesetzt‘ und für verschiedene energieintensive Prozesse genutzt wird. Mit fortschreitender Komplexität der Strukturformen (Pflanzen, Tiere, Hominiden, …) wird der Aufwand immer grösser und die Formen von Energiegewinnung, -transport, -speicherung, -verwertung immer komplexer.

ENTSTEHUNG VON ZEICHEN INNERHALB DER MATERIE

6) Ferner ist bemerkenswert, dass bei fortschreitender Komplexität der Strukturformen sich solche molekular basierte Strukturen bilden können, die dann Repräsentationen auf einer höheren Ebene realisieren können, chemische Ereignisse, die als Zeichen funktionieren, die Bedeutungsbeziehungen realisieren können (= semiotischer Raum, Semiose, Zeichenprozesse). Damit ist es möglich, sich von der Konkretheit molekularer Strukturen in gewisser Weise zu befreien und im semiotischen Raum abstrakte Strukturen aufzubauen, die für beliebige Strukturen stehen können. Nicht nur lassen sich damit die vorfindlichen molekularen Strukturen ‚abbilden‘, ‚modellieren‘, sondern man kann mit ihnen ‚herumspielen‘, sie beliebig ‚variieren‘, ‚kombinieren‘, und damit den realen Augenblick ‚transzendieren‘. Im semiotischen Raum kann die reale Gegenwart durch eine erinnerbare Vergangenheit und eine potentielle Zukunft erweitert werden. Dieser Prozess ist schleichend und gewinnt in den höheren Säugetieren, bei den Hominiden und speziell beim homo sapiens sapiens einen vorläufigen Höhepunkt.

BESCHLEUNIGUNG DER KOMMUNIKATION

7) Seit der Verfügbarkeit des semiotischen Raumes innerhalb eines Systems kann man eine dramatische Beschleunigung in der Kommunikation und Koordinierung zwischen den Teilnehmern beobachten, Explosion an Werkzeug, Verfahren, Regeln, Organisation usw.

FLEXIBILISIERUNG DER ENERGIEZUFUHR

8) Die nächste grosse Revolution findet statt, als es gelingt, die molekül-basierten semiotischen Räume mit Hilfe von atomar-basierten Technologien in den wesentlichen Signal- und Zeicheneigenschaften zu kopieren (= Computer), so dass nun die Bildung von ‚künstlichen (technischen) semiotischen Räumen‘ möglich wurde, in Kombination mit einer globalen Vernetzung (= Computernetzwerke, Internet, WWW). Während molekül-basierte semiotische Räume chemisch gebundene Energie zu ihrem ‚Betrieb‘ benötigen, benötigen die atomar-basierten semiotischen Räume Energie in Form von technisch manipulierbaren Potentialunterschieden (= Elektrizität). Diese Form ist universeller und flexibler.

STEIGERUNG DER KOMPLEXITÄT

9) Seit der Verfügbarkeit von künstlichen — auf elektrischer Energie basierenden — semiotischen Räumen konnte die Komplexitätsentwicklung sowohl in ihrer inhärenten Komplexität wie auch in der Geschwindigkeit ihrer Entwicklungen weiter gesteigert werden.

MODIFIKATIONEN DES VERÄNDERUNGSOPERATORS

10) Interessant ist, dass der Veränderungsoperator ‚f‘ nun deutlich unterschieden werden kann. Während der Übergang von der Struktur ‚vor dem HS (‚homo sapiens‘)‘ – also etwa S_PreHs(t) – zur Struktur S_Hs(t+n) noch mit dem Operator ‚f‘ geschrieben werden kann S_Hs(t+n) = f(S_PreHs(t)) ist der Übergang von der Struktur S_Hs zu der neuen Struktur S_NetComp(t) von S_Hs vorgenommen worden, also S_NetComp(t+n) = f_hs(S_Hs(t+n)). Dies ist möglich, weil die impliziten semiotischen Räume von Hs die Definition von Operatoren ermöglichen, die dann ‚umgesetzt‘ werden können. Allerdings wird man wohl annehmen müssen, dass in diese Umsetzung f_hs wohl auch das allgemeine ‚f‘ mit eingeht, also genauer S_NetComp(t+n) = f_hs u f(S_Hs(t+n)).

11) Aktuell sind die künstlichen technischen Strukturen S_NetComp noch nicht in der Lage, sich selber zu vervielfältigen. Grundsätzlich ist nicht zu sehen, warum dies nicht eines Tages möglich sein sollte.

12) Klar ist allerdings, dass der Veränderungsoperator ‚f‘ nun als zusätzliche Teilkomponente f_NetComp enthält, also S_Future(t+n) = f u f_NetComp(S_Past(t)).

PROJEKTION IN DIE ZUKUNFT

13) So mächtig die Kombination ‚f u f_NetComp‘ wirkt, so fragil ist das Ganze. Würde aus irgendwelchen Gründen mal kein Strom verfügbar sein, dann würde S_NetComp vollständig ausfallen und damit würden schon heute weite Bereiche der ‚Zivilisation‘ weitgehend zusammenbrechen.

14) Ein weiterer Aspekt deutet sich an: aufgrund der heute verfügbaren Daten wissen wir, dass der aktuelle Körper des Menschen nur ein ‚Durchgangsstadium‘ markiert. Viele Millionen Jahre vorher sah dieser Körper anders aus und gehen wir weiter zurück, dann verlieren sich die heute bekannten Strukturen in immer fremdartigeren Formen, die kaum noch etwas mit der heutigen Gestalt zu tun haben. Umgekehrt müssen wir also davon ausgehen, dass sich – auch ohne unser Zutun – die aktuelle Körperform weiter verändern wird.

15) Dazu kommt der Aspekt, dass wir mittels des impliziten semiotischen Raumes wie auch durch die heute extern verfügbaren künstlichen semiotischen Räume samt hochentwickelter Werkzeuge den Umbau der aktuellen Körperformen aktiv betreiben könnten (und möglicherweise auch sollten?).

16a) Andererseits stellt sich aber die Grundsatzfrage, ob die Linie der molekülbasierten Körper überhaupt weiterverfolgt werden sollte. Die künstlichen semiotischen Räume mit der Energieversorgung durch flexiblen Strom bieten u.U. auf Dauer bessere Chancen, sich im Universum zu behaupten. Dies rührt dann aber an der Grundsatzfrage, ob die materielle Hülle einer Struktur (im Falle des HS sein molekülbasierter Körper) tatsächlich wichtig ist.

VERORTUNG DES GEISTES

16b) Wenn die Arbeitshypothese stimmt, dass die entscheidenden Operatoren ‚f‘ letztlich von den realisierten Strukturen unabhängig sind, sondern sich nur unter Verfügbarkeit solcher materieller Strukturen ‚zeigen‘, dann würde es für diese(n) Operator ‚f‘ egal sein, ob das ‚Medium‘ chemische Moleküle sind oder atombasierte Strukturen. Nicht das Medium repräsentiert den Geist, sondern der Geist wird anlässlich verfügbarer Strukturen ’sichtbar‘. Die Annahme wäre also etwa die, dass ‚Geist‘ subset E und ‚f‘ in ‚Geist‘ als dem vorab gegebenem ‚Medium‘ gründet; innerhalb von diesem Geist können Veränderungsoperatoren angewendet werden.

17) Der ‚Geist‘ wäre in diesem Sinne das (für uns) vorweg schon immer Gegebene, das quasi ‚Untötbare‘, und nur in dem Maße, wie es hinreichend geeignete Strukturen (welcher Art auch immer) gibt, kann sich dieser Geist durch seine ‚Wirkungen‘ (= Manifestationen, Ereignisse, Wirkungen, Phänomene) zeigen (für uns, die wir aktuell eine spezifische Struktur haben und mit dieser spezifischen Struktur nur ganz bestimmte Dinge erkennen können!!!).

18) Damit wäre jede bekannte Lebensform eine Form von ‚Geistesmanifestation‘, nur unterschiedlich differenziert. Niemand hätte einem anderen irgendetwas voraus.

19) Bizarre Ethiken, die aus dem darwinischen Evolutionsbegriff irgendwelche ‚Vorteile‘ herauszurechnen versuchten, würden sich – falls diese neue Arbeitshypothese stimmen würde – als sehr kurzsichtig erweisen. In der Evolution geht es nicht um das ‚Recht des Stärkeren‘, sondern um den Aufbau solcher komplexer Strukturen, die immer mehr von dem ‚Geist‘ sichtbar machen, der schon immer da ist und von dem jede partielle individuelle Struktur immer nur ein kleines Zipfelchen sichtbar machen kann. Klar ist in diesem Szenario auch, dass der einzelne als solcher keine grundlegende Bedeutung besitzt, höchstens in dem Sinne, dass er dazu beiträgt, das gemeinsame Ganze voran zu bringen. Der Kult um persönlichen Besitz, persönliche Macht, individuelle Schönheit und ‚Ruhm‘ hat hier keinen Platz. Er wirkt seltsam bizarr, fremdartig, lächerlich. Die Zukunft wird den symbiotischen Gemeinschaften gehören, wo die Fähigkeiten von jedem maximal entwickelt und in ein gemeinsames Ziel eingebunden werden können. Insofern bleibt Individualität wichtig, aber nur als Teil eines gemeinsamen Ganzen.

Siehe auch die neue Emerging Mind Webseite!

Einen Überblick über alle bisherigen Beiträge nach Titeln findet sich HIER.

REDUKTIONISMUS – EMERGENZ – KREATIVITÄT – GOTT: S.A.Kaufman – Epilog

1. Es gibt nur wenige Bücher, denen ich so viel Zeit für eine Diskussion gewidmet habe (was nicht heißt, dass es nicht auch andere Bücher gibt, die großartig sind oder denen man viel Zeit widmen sollte). Und, diesen Blog mit ‚Epilog‘ zu überschreiben gibt nicht die ganze Wahrheit wieder. Das Wort ‚Epilog‘ könnte den Eindruck erwecken als ob die Sache damit ‚abgeschlossen‘ sei, etwas, das ‚hinter‘ uns liegt. Dem ist aber nicht so, in keiner Weise. Die Gedanken, die Kauffman in seinem Buch aufblitzen läßt sind eher wie ‚Blitze‘, die in einer großen Dunkelheit für einen kurzen Moment in der Nacht Dinge sichtbar werden lassen, an die man ’normalerweise‘ so nicht denkt.
2. Gewiss kann man an seinem Buch auch viel Kritik üben: streckenweise sehr langatmig, viele Formulierungen wiederholen sich immer wieder, die Quellen sind oft nicht klar, es fehlt eine strenge Systematik, die alle Teile erfasst, sehr Wissenschaftliches paart sich teilweise mit sehr Spekulativem, usw. Alles dies ist richtig. Aber betrachtet man alles zusammen, nimmt man alle Aussagen als Teile eines großen Akkords, dann blitzt in all den Fragmenten eine Gesamtsicht auf, die – nach allem, was ich kenne, weiß und verstehe – sehr ungewöhnlich ist, originell, wissenschaftlich sehr begründet und – vor allem – Dinge zusammen bringt, die für gewöhnlich getrennt sind.

EIN AUßERGEWÖHNLICHES BUCH

3. Insofern würde ich sagen, ja, es ist ein sehr außergewöhnliches Buch.

KRITIK AN EINER ZU ENGEN WISSENSCHAFTLICHEN WELTSICHT

4. Es gibt immer wieder Wissenschaftler die ihre eigene Disziplin kritisieren. Aber es ist selten. Meist sind es Nobelpreisträger, die keine Angst mehr haben müssen, dass die eigene Zunft Sie danach sozial ausgrenzt. Kauffman ist kein Nobelpreisträger, und doch hat er den Mut, dies zu tun. Dies liegt nach meiner Einschätzung vor allem darin begründet, dass er nicht nur innerhalb einer einzigen Disziplin geforscht hat, sondern in verschiedenen Disziplinen, mehr noch, er hat sich nicht nur ‚innerhalb‘ der Paradigmen bewegt, sondern er hat sich mit Phänomenen beschäftigt, die es verlangt haben, auch immer ‚über‘ die anzuwendenden Methoden nachzudenken. Dadurch sind ihm natürlich die Schwachstellen des Vorgehens aufgefallen, dadurch hat er begonnen, über alternative Sichten nachzudenken.
5. Eine der zentralen Schwachstelle trägt den Namen ‚Physikalischer Reduktionismus‘. Damit verbindet sich die Auffassung, dass es zur Erklärung der Phänomene in dieser Welt ausreiche, diese in eine kausale Beziehung zu setzen zu den ‚zugrunde liegenden elementaren Bestandteilen‘; als solche elementaren Bestandteile gelten Moleküle, Atome, und subatomaren Partikel. Diese Art von ‚wissenschaftlicher (reduzierender) Erklärung‘ macht aus der Gesamtheit aller Phänomene ein Wirkungsfeld von elementaren (letzlich physikalischen) Teilchen und elementaren Kräften.
6. Kauffman hat durch seine vielfältigen Arbeiten aber den Eindruck gewonnen, dass bei dieser Erklärungsweise sehr viele Besonderheiten der Phänomene oberhalb der Atome (ab einem bestimmten Komplexitätsgrad vielleicht sogar alle Besonderheiten) auf der Strecke bleiben. Sie werden epistemisch ‚unsichtbar‘. Für einfache Gemüter ist dies OK. Für differenzierter denkende Menschen, wie Kauffman einer ist, stellen sich hier aber Fragen. Und es ist genau hier wo sich die besondere Qualität von Kauffman zeigt: er stellt sehr viele Fragen, er geht ihnen auf vielfältige Weise nach, und kommt dann zum Ergebnis, dass eine reduktionistische Sicht letztlich genau die interessanten Phänomene zerstört. Nicht das Zurückfragen nach möglichen elementaren Bestandteilen ist der Fehler, sondern der Verzicht auf eine Beschäftigung mit der Makroebene selbst, mit der Komplexität, die sich gerade in den Makrophänomenen manifestiert.

NICHTVORAUSSAGBARKEIT

7. In für den Leser z.T. sehr mühevollen, aber von der Sache her sehr wohl berechtigten, Analysen unterschiedlichster Phänomenbereiche (grob: Biologie, Wirtschaft, Physik) gelingt es Kauffman immer wieder aufzuzeigen, dass eine reduzierende Betrachtungsweise genau das verfehlt, übersieht, was dieses Phänomen ausmacht. Und in all seinen vielfältigen Beispielen ist es u.a. die ‚Nichtvoraussagbarkeit‘, die man überall feststellen kann. Es beginnt bei der generellen ‚Nichtergodizität‘ des Universums als Ganzem, es setzt sich fort im Bereich der Molekülbildungen, der Zellentstehung, der Herausbildung von Lebensformen, in der generellen Nichtvoraussagbarkeit von Gehirnaktivitäten, die wechselseitigen Beeinflussungen von Naturprozessen im allgemeinen und biologischen Formen als Besonderem (Evolution, Ko-Evolution), die Wechselwirkungen unter biologischen Akteuren, die Wechselwirkungen eines wirtschaftlichen Verhaltens, die ihrer Natur nach in keiner Weise mehr voraussagbar sind, und vieles mehr. Wer die Sehweise von Kauffman übernimmt für den wird die Welt sehr vielfältig, sehr besonderes, sehr dynamisch, grundsätzlich nicht voraussagbar.

QUANTENPHYSIK

8. Kauffman macht sich die Mühe, die Eigenschaft der Nichtvoraussagbarkeit auf sehr vielen Ebenen aufzuzeigen. Letztlich wurzelt sie aber schon in der Grundlage von allem, im ‚Medium‘ von aller erfahrbaren Wirklichkeit, die die Wissenschaft als ‚Quantenwelt‘ enttarnt hat. Die aus dem menschlichen Alltag bekannte Raum-Zeit-Welt mit ihren Makroeigenschaften ist ein Artefakt unseres Körpers und des darin eingebetteten Gehirns, das uns mit Erkenntnissen über diese Welt versorgt. ‚Hinter‘ den alltäglichen Phänomenen existiert nach den heutigen wissenschaftlichen Erkenntnissen aber eine Welt von Quanten, deren mathematische Beschreibung uns darüber belehrt, dass es sich hier nur noch um Wahrscheinlichkeitsfelder handelt: Was zu einem bestimmten Zeitpunkt an einem bestimmten Ort an Eigenschaften gegeben sein soll lässt sich grundsätzlich nur als ein Wert in einer Wahrscheinlichkeitsverteilung angeben. Zusätzlich enthüllt diese Quantenwelt Eigenschaften von Wechselwirkungen zwischen den Quanten, die mit der Alltagserfahrung nicht kompatibel sind (so können z.B. Quanten in einer Geschwindigkeit und über Entfernungen interagieren, die in der Alltagswelt unmöglich sind).
9. Nimmt man die quantenphysikalische Sicht ernst, dann hat man ein großes Problem, nämlich die ‚Koexistenz‘ von Quantenwelt und physikalischer Makrowelt zu erklären. Die Konkretheit der alltäglichen Makrowelt bildet quantenphysikalisch eine ‚Dekohärenz‘, die zu erklären bislang schwerfällt. Dazu kommt, dass diese Dekohärenz aus Sicht des Alltags ‚andauert‘, dass aber zugleich die Kohärenz der Quantenwelt nicht aufgehoben wird. Hier herrscht bislang ein großes Schweigen der Physik.
10. Kauffman vermutet vor dem Hintergrund der Quantenwelt, dass wir viele Eigenschaften des Gehirns möglicherweise nur durch Rückgriff auf diese Quantenwelt wirklich verstehen können; Genaues kann er nicht sagen, obgleich er Autoren zitiert, die (ähnlich wie Descartes mit seiner Zirbeldrüse) versuchen, konkrete Strukturen in der Biochemie der neuronalen Maschinerie zu identifizieren, die für die ‚Übersetzung der Quanteneffekte‘ in die Makrowelt eines Gehirns verantwortlich sind. Man kann sich über diese Erklärungsversuche lustig machen, zeigen sie aber doch auch, dass selbst die besten Denker unserer Zeit bislang hier vor mehr Rätseln stehen als Antworten.

KREATIVITÄT, HEILIGES, GOTT

11. Eine Kehrseite von Nichtvoraussagbarkeit ist die ‚Kreativität‘. Denn um immer wieder neue Ereignisse, Ereignisketten, Strukturen, komplexe Wechselwirkungen hervorbringen zu können, benötigt man Verhaltensweisen, Rahmenbedingungen, die das ermöglichen. Kauffman meint in der Vielfalt dieser nicht voraussagbaren Prozessen eine ‚Kreativität‘ ‚am Werke‘ zu sehen, die sich vom physikalischen Anfang des Universums, über Materiebildung, Sternenbildungen, Galaxien, Sonnensystem, Leben auf der Erde usw. in gleicher Weise manifestiert. Eine Kreativität, die geradezu eine ‚innere Eigenschaft‘ unseres Universums zu sein scheint. Und dass es genau diese Kreativität ist, die das eigentlich zu erklärende Phänomen bildet, das, an dem sich alle Wissenschaften zu messen haben. Es überrascht dann nicht, wenn Kauffman für diese Zentraleigenschaft des Universums den Begriff ‚Heiliges‘ (’sacred‘) vorschlägt, und im zweiten Schritt (oder im ersten, das lässt sich hier nicht genau sagen), den Begriff ‚Gott‘ (‚god‘).

KRITIK WEGEN GOTT?

12. Speziell an dieser Stelle könnte man Kritik laut werden lassen. Schließlich haben genau die Begriffe ‚Gott‘ und ‚Heiliges‘ in der menschlichen Geschichte in nahezu allen Kulturen seit mindestens 2000 – 3000 Jahren eine lange und vielschichtige Tradition. Die Kritik bestände darin, Kauffman vorzuwerfen, dass er sich nicht genügend um die Vermittlung zwischen seiner Verwendungsweise der Begriffe ‚Gott‘ und ‚Heiliges‘ und der vielfältigen Verwendungsweisen dieser Begriffe in der bisherigen kulturellen Geschichte gekümmert habe. Dies sei eigentlich eines Wissenschaftlers unwürdig.
13. Einerseits würde ich diese Kritik auch erheben. Andererseits muss man aber auch klar sehen, dass die Aufgabe eines konstruktiven Dialoges zwischen dem Erklärungsansatz von Kauffman und den bisherigen Verwendungsweisen des Begriffs ‚Gott‘ und ‚Heiliges‘ (z.B. in der jüdischen, dann in der jüdisch-christlichen, und dann noch in der jüdisch-christlich-islamischen Tradition) eine gewaltige Aufgabe ist, die kaum ein Mensch alleine leisten kann, sondern vermutlich sehr vieler Menschen bedarf, die zudem vermutlich über mehrere Generationen hinweg solch einen Reflexionsprozess leisten müssten.
14. Ich persönlich sehe zwischen dem Kern eines jüdisch-christlichen (vermutlich auch jüdisch-christlichen-islamischen) Gottesbegriffs und dem Ansatz von Kauffman keinerlei Gegensatz. Aber ich bin Theologe, Philosoph und Wissenschaftler und habe mich mehrere Jahrzehnte mit diesen Fragen beschäftigt. Für jemanden, der diese Gelegenheit nicht hatte, ist diese Fragestellung möglicherweise eher ‚undurchdringlich‘ und von daher kaum entscheidbar.

UND SONST

15. Diese wenigen Gedanken können die Breite und Tiefe, die Vielfalt der Gedanken von Kauffman in seinem Buch nicht einmal annähernd wiedergeben. Wer sich also von den hier angeschnittenen Themen angesprochen fühlt, sollte dieses Buch unbedingt selber lesen. Allerdings sage ich ganz offen: das Buch ist hart zu lesen, z.T. wegen des spezifischen Inhalts, z.T. wegen einer nicht ganz straffen Systematik, z.T. wegen vieler Wiederholungen bestimmter Gedanken. Aber ich halte es trotz dieser Schwächen für eine sehr, sehr wichtiges Buch. Mir persönlich hat es eine Menge an Klärungen gebracht.

SYNOPSYS DER EINTRÄGE ZU KAUFFMAN

REDUKTIONISMUS – EMERGENZ – KREATIVITÄT – GOTT: S.A.Kaufman – Teil1. Zusammenstellung vieler Phänomene und Erkenntnisse, die die Position eines physikalischen Reduktionismus in Frage stellen. Dann Verlagerung zu den grundlegenden Mechanismen des Biologischen und Vorstellen des autokatalytischen Modells zur Modellierung biologischer Emergenz.

REDUKTIONISMUS – EMERGENZ – KREATIVITÄT – GOTT: S.A.Kaufman – Teil2. Es werden dann wichtige Konzepte vorgestellt und diskutiert: Agentenschaft, Arbeit und Information. Information ist zu wenig, Arbeit ist mehr als Wärme, Agentenschaft impliziert Werte.

REDUKTIONISMUS – EMERGENZ – KREATIVITÄT – GOTT: S.A.Kaufman – Teil 3. Anhand der Begriffe ‚Adaption‘. ‚Präadaption‘ sowie ‚Ko-Evolution‘ versucht er die Behauptung von der Nichtvoraussagbarkeit des Universums zu motivieren. Dazu das sehr starke Argument von der ‚Nichtergodizität‘ des Universums. Erste Einführung des Begriffs ‚Kreativität‘.

REDUKTIONISMUS – EMERGENZ – KREATIVITÄT – GOTT: S.A.Kaufman – Teil 4. Zitiert prominente Modelle, die den Anspruch erheben, das wirtschaftliche Geschehen zu beschreiben. Diskutiert die Grenzen dieser Modelle. Stellt seine autokatalytischen Modellierungsversuche vor. Zeigt die prinzipiellen Grenzen auf, die eine Beschreibung wirtschaftlicher Vorgänge unmöglich macht.

REDUKTIONISMUS – EMERGENZ – KREATIVITÄT – GOTT: S.A.Kaufman – Teil 5. Es folgen einige allgemeine Einschätzungen zu ‚Seele‘, ‚Geist‘ und ‚Wissenschaften‘, die nicht klar einordenbar sind. Längere Diskussion zur Algorithmisierung und Nichtalgorithisierung von Geist, Geirn als physikalischem Prozess, kognitiven Modellen und deren Grenzen, Geist und Bedeutung.

REDUKTIONISMUS – EMERGENZ – KREATIVITÄT – GOTT: S.A.Kaufman – Teil 6. Zunächst einmal Warnung, da das Folgende sehr spekulativ sei. Ordnet die Neurowissenschaften der klassischen Sicht der Physik zu. Ein quantenphysikalischer Ansatz wäre besser. Erinnerung an Positionen der Phiilosophie und deren eigene Fragwürdigkeit. Erwähnt die Position der sogenannten ’starken KI‘. Quantenphysik, ‚Geist‘, ‚Selbstbewusstsein‘, Möglichkeiten und Grenzen. Emergenz statt Reduktionismus. Drei harte Argumente gegen den Geist ‚Epiphänomenalismus‘, ‚Qualia‘ und ‚freier Wille‘. ‚Geist‘ als Phänomen der ‚Natur‘. Eigener Gottesbegriff.

REDUKTIONISMUS – EMERGENZ – KREATIVITÄT – GOTT: S.A.Kaufman – Teil 7. Zusammenfassung der bisherien Erkenntnisse und wiederholt Einführung eines eigenen Gotesbegriffs (kritische Anmerkung dazu). Prinzipielle Unabgeschlossenheit allen Wissens. Wissenschaft und Nicht-Wissenschaft: ‘Kunst’ als Form der Kreativität gehört letztlich zum inneren Prinzip des kreativ-evolutionären Geschehens. Nochmals ‚Gott‘ (und kritische Anmerkugen). Faktum des Bösen. Begriff der ‚Agentenschaft‘ führt zu ‚Bedeutung‘ und ‚Werten‘, Ethik. Kritisiert den ‘Deontologismus’ und den ‘Konsequentialismus’ innerhalb der Ethik. Werte als ‚Pareto-Optimum‘. Globale Ethik. Nochmals ‚Gott‘ und ‚Heiligkeit‘

Ein Überblick zu allen bisherigen Einträgen des Blogs nach Titeln findet sich HIER

REDUKTIONISMUS, EMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 6

Vorheriger Beitrag Teil 5

Letzte Änderungen: 15.April 2013, 09:30h

WARNUNG – SPEKULATIV

1. Auf den Seiten 197-229 versucht Kauffman, die Besonderheiten des Phänomens ‚Geist‘ mit den Denkmodellen der Quantenphysik zu reflektieren. Und er warnt seine Leser, dass dieses Kapitel seines Buches vermutlich die wissenschaftlich unsicherste Passage im ganzen Buch sei.(vgl.S.197, 222). Auch macht er darauf aufmerksam, dass es mit Roger Penrose schon andere gab, die Ähnliches zu denken versucht haben.
2. [Anmerkung: Wer den Beitrag über Penrose in der englischen Wikipedia liest, wird feststellen, dass Penrose und seine Partner Hameroff in ihrer Hypothesenbildung sehr weit gehen und damit eine eigenständige Diskussion auf internationaler Ebene ausgelöst haben. Im Kontext ‚Quantenphysik‘ und ‚Bewusstsein/ Geist‘ wird auch Niels Bohr erwähnt sowie Eugen Wigner. Bei letzterem ist der Zusammenhang offensichtlich; bei Planck konnte ich es noch nicht verifizieren.]

NEUROWISSENSCHAFTEN ‚KLASSISCH‘

3. Ausgangspunkt für dieses Kapitel ist die Position der Neurowissenschaftler, so wie Kauffman sie sieht: sie nehmen das Gehirn als eine Ansammlung von Neuronen, die untereinander auf biochemische Weise im nicht-quantenphysikalischen Sinne kausal verknüpft sind; dies entspricht einem geschlossenen Raum kausaler Verknüpfung, in dem es zu jedem Ereignis eine erschöpfende Ursache gibt. Das, was wir im Alltag ‚Geist‘, ‚Bewusstsein‘ (inklusive ‚freiem Willen‘) nennen, ist in diesem Modell eine Eigenschaft dieser kausalen Maschinerie. Daraus ergibt sich dann, dass das ‚Bewusstsein‘ nicht diese kausale Maschinerie beeinflusst, sondern die kausale Maschinerie erzeugt die Phänomene des Bewusstseins bzw. das Bewusstsein überhaupt. Einen freien Willen gibt es in diesem Szenario daher nicht. Dies bedeutet, dass die einzelnen Menschen nicht moralisch verantwortlich sein können für das, was sie tun.(vgl. S.197f)

KEIN ABSOLUTER KAUSALER RAUM

4. Dieses sehr einfache, deterministische Bild vorausgesetzt [Anmerkung: was selbst ohne Quantenphysik m.E. so kaum haltbar ist] spekuliert Kauffman, welche neuen Perspektiven sich ergeben würden, wenn man die quantenphysikalischen Grundlagen aller Makrophänomene ernst nehmen würde. Da der quantenphysikalische Raum grundsätzlich ‚akausal‘ ist, würden letztlich alle ’scheinbar kausalen‘ Prozesse sich in einem umfassenden ‚akausalen Rauschen‘ auflösen. Letztlich wäre gar nichts mehr ‚kausal‘. Ob daraus tatsächlich etwas ‚Konstruktives‘ folgen würde, lässt Kauffman offen, aber zumindest wäre die vereinfachende ‚Abschliessung‘ aller interessanten empirischen Phänomene in einer deterministischen Feinstruktur aufgebrochen.(vgl. S.199)
5. [Anmerkung: Dass die bloße Annahme eines akausalen quantenphysikalischen Raumes als ‚Grundlage für alles‘ in gewisser Weise noch nichts erklärt, kann man an der Tatsache erkennen, dass nahezu alles, was das menschliche Weltbild ausmacht, auf ‚Regelmäßigkeiten‘ basiert, die sich vom allgemeinen ‚Rauschen‘ abheben. Dies bedeutet, dass der akausale quantenphysikalische Raum ‚als solcher‘ von sich aus nicht automatisch Erklärungen liefert, er bietet nur einen ‚Ausgangspunkt‘ für mögliche Erklärungen ‚regelmäßiger‘ Phänomene, die wir in diesem Zusammenhang als ‚emergent‘ begreifen, d.h. als Phänomene, die im akausalen quantenphysikalischen Raum ‚gründen‘, die aber in ihrem Zusammenhang und ihrer Komplexität Eigenschaften des quantenphysikalischen Raumes sichtbar machen, die allein aus seinen ‚Bestandteilen‘ nicht so ohne weiteres abgeleitet werden können. ]

IDENTITÄTSTHEORIE UND SO

6. Kaufmann zitiert in diesem Kontext beiläufig noch die Positionen der ‚Identitätstheorie‘, des ‚Dualismus‘, den ‚radikalen Idealismus eines Berkeley, zwei Sprachphilosophen Ryle und Searl, sowie zwei neuere Philosophen Flanagan und Churchland.
7. Zentral erscheint mir seine Bemerkung, dass das Faktum der ‚Bewusstheit als solcher‘ (‚awareness itself‘) unabhängig von allen angebotenen Interpretationsmodellen das primäre Phänomen darstellt, das es zu erklären und zu gewichten gilt. Die persönliche Erfahrung jedes einzelnen ist ‚privat‘ im strengsten Sinne; niemand anderes kann sie einsehen. Und was immer wir uns an Erklärungsmodellen erarbeiten, sie alle setzen diese Privatheit des subjektiven Erlebens als primäre Basis voraus.(vgl. S.199)
8. Kauffman zitiert Descartes in diesem Kontext als jener Philosoph, der das Selbstbewusstsein in Form eines sich gewissen Denkens als primären, einzig nicht bezweifelbaren Punkt aller Erkenntnis angenommen hatte Descartes (1596-1650). In seinen weiteren Reflexionen und Analysen hatte Descartes dann die Konkretheit, Veränderlichkeit und Zufälligkeit des Körpers, der ganzen Körperwelt und der darauf aufbauenden Wahrnehmung als ontologisch verschieden zu der Klarheit, Allgemeingültigkeit und Zuverlässigkeit des Denkens zum Ausgangspunkt genommen für das Postulat, dass das Denken einer anderen Substanz als jener der veränderlichen Körperwelt zugehöre. Daraus ergab sich für ihn eine Art ‚Dualismus‘ des Veränderlichen gegenüber dem Unveränderlichen. Diese Dualismus-Hypothese brachte eine Reihe von Denkproblemen mit sich.(vgl.S.199)
9. Aufgrund der fortschreitenden Erkenntnisse, wie der Körper, speziell das Nervensystem und hier das Gehirn, funktionieren, hat sich heute vielfach die Hypothese von der ‚Identität von Gehirn und Geist‘ durchgesetzt (hier als Oberbegriff für die verschiedenen Spielarten einer Gehirn-Geist-Identätstheorie. Diese Identitätstheorie schließt die Dualismus-Hypothese von Descartes aus. Kauffman sagt, dass er diese Gehirn-Geist-Identitätstheorie übernimmt, sie aber dann mit dem quantenphysikalischen Modell vereinen möchte.(vgl.S.199) In diesem Kontext sollte man auch die klassische Neurobiologie nennen, für die Kauffman als Vertreter Christof Koch zitiert. Diese nimmt an, dass es zu allen Phänomenen des Bewusstseins entsprechende neuronale Strukturen und Prozesse gibt, die kausal verantwortlich sind für das Auftreten der bewussten Ereignisse. Im Detail stellen sich hier eine Menge von ungelösten Fragen. Auch kann man von den neurologischen Daten D_nn in keiner Weise direkt auf Phänomene (= Ereignisse des individuellen Bewusstseins) D_ph schliessen. Ein geeigneter theoretischer Rahmen fehlt. (vgl. S.202f)
10. [Anmerkung: Wie schon verschiedentlich in diesem Blog angemerkt, ist die Bezeichnung ‚Geist-Identitätstheorie‘ aus philosophischer Sicht mindestens unglücklich in der Wortwahl. Da die Neurowissenschaften empirisch Daten D_nn aus der 3.Person-Perspektive haben, Daten zum Selbstbewusstsein D_ph aber nur in der 1.Person vorliegen, haben wir zwei verschiedene Datenbereiche, die ontologisch vollständig verschieden sind (D_nn cut D_ph = 0). Hier von einer ‚Identität‘ zu reden ist sehr irreführend und sachlich falsch. Denkbar wäre, dass es zu jedem Datenbereich eine Theorie TH(D_nn), TH(D_ph) gibt (bis heute hat dies aber noch niemand geschafft), und sich zwischen den verschiedenen Theorien irgendwelche Abbildungsbeziehungen konstruieren lassen (wer wird der erste sein?). Rein formal hätten wir dann irgendwelche ‚Morphismen‘, deren ontologische Deutungen dennoch keine Identität zulassen würden. Es scheint, dass sich die Philosophen die Sache mit der Identitätstheorie etwas einfach machen. Eine solche korrigierte Formalisierung führt aber weder zurück zu einem Dualismus a la Descartes noch zu einem Idealismus a la George Berkeley (1685-1753). Dies sollte an anderer Stelle weiter diskutiert werden.]

SPRACHNAHE PHILOSOPHIE

11. Kauffman erwähnt auch noch die ’sprachnahen‘ Philosophen Gilbert Ryle (1900 – 1976) und John Searle (1932 – ), die bei ihren Analysen des Verhaltens (einschließlich Sprechens) auf eine Einbeziehung des Begriffs ‚Bewusstsein‘ verzichteten mit der Begründung, dass der Begriff ‚Bewusstsein‘ kaum klar zu fassen sei. Damit wiederholen Sie aber eigentlich nur Positionen von Ludwig Wittgenstein (1889 – 1951), der die Problematik jeglicher sprachlicher Bedeutung zuvor schon in vielfältigen Analysen aufgedeckt hatte.(vgl.S.200)
12. [Anmerkung: entsprechend der allgemeinen Erkenntnistheorie, die den Überlegungen in diesem Blog zugrunde liegen, haben wir es grundsätzlich mit drei heterogenen Datenbereichen zu tun (D_nn, D_ph, D_sr (= Verhalten, 3.Person)), deren saubere Aufarbeitung und Integration in einer umfassenden Theorie bis heute nicht einmal in Ansätzen vorliegt. Es gibt ja nicht einmal Konsensus über die Besonderheit dieser drei Datenbereiche geschweige denn einen Konsens, dass und wie man damit umgehen soll. Diesen Mangel an erkenntnistheoretischem und dann auch wissenschaftstheoretischem Konsens merkt man überall auf Schritt und tritt.]
13. Kauffman erwähnt auch noch die Philosophen Paricia Smith Churchland (1943-) und Owen Flanagan (1949 – ) im Kontext der Diskussionen zur ‚Einheit des Bewusstseins‘. Während das Bewusstsein in der subjektiven Perspektive als ‚eines‘ erscheint deuten die medizinischen Befunde drauf hin, dass sich das Bewusstsein aus vielen Teilleistungen zusammensetzt, die einzeln und partiell verändert werden oder ganz ausfallen können, ohne dass deswegen das subjektive Gefühl eines ‚einzigen einen Bewusstseins‘ verschwindet.(vgl. S.200)

STARKE KI

14. Es wird dann die sogenannte ‚Starke Künstliche Intelligenz-Hypothese‘ erwähnt, die annimmt, dass bei einer genügend großen Anzahl von verknüpften rechnenden Elementen ‚ab einem bestimmten Punkt automatisch‘ ‚Selbstbewusstsein‘ entstehen würde. Als einziges hartes Argument gegen diese Hypothese führt Kauffman die die Hypothese an, dass die starke KI-Hypothese voraussetze, dass diese intelligenz ‚algorithmisch‘ sein müsse und dass nach Kauffman der ‚Geist‘ (‚mind‘) vermutlich niht algorithmisch sei.(vgl. S.201f)
15. [Anmerkung: Die Formulierung der starken KI-Hypothese (’strong artificial intelligence hypothesis‘, ’strong ai-hypothesis‘) geht zurück auf den Philsophen John Searl (s.o.) und ist alles andere als sehr klar. Nicht nur sind die verwendeten Begriffe in sich oft unscharf, sondern – wie die sehr ausufernde Diskussion zeigt – ist die ganze Problemstellung alles andere als klar. Mit einem Satz festzustellen, dass sich das Problem erledigt habe, weil klar sei, dass der ‚Geist‘ nicht algorithmisch sei, stellt daher möglicherweise eine grobe Vereinfachung dar. Abgesehen davon spring Kaufman von dem Begriff ‚Selbstbewusstsein‘ einfach zum Begriff ‚Geist‘ dabei unterstellend, dass beide Begriffe hinreichend ähnlich seien. Das aber ist eine schwierige Frage. Ich sehe keinen einfachen Zusammenhang zwischen beiden Begriffen. ]

SELBSTBEWUSSTSEIN UND QUANTENPHYSIK

16. Den nächsten sehr langen Abschnitt leitet Kauffman ein mit der Bemerkung, dass er und Penrose davon ausgehen, dass das Selbstbewusstsein (‚consciousness‘) von sehr speziellen physikalischen Bedingungen abhängt. [Anmerkung: Eine Assoziation zu Descartes kühner Arbeitshypothese, die denkende Materie (res extensa) mit der kontingenten Materie (res extensa) über die ‚Zirbeldrüse‘ verknüpft zu denken, drängt sich unwillkürlich auf. Descartes wusste nicht wirklich, was dieses ‚Selbstbwusstsein‘ mit dem ‚Ich denke‘ genau ist; es erschien ihm ‚anders‘ als die kontingente materielle Körperwelt. Um diesen logischen Bruch denkerisch zu kitten erfand Descartes die Hypothese mit der Zirbeldrüse. Niemand würde sie heute so nehmen, wie Descartes sich das gedacht hatte. Doch das Vorgehen von Kauffman an dieser Stelle wirkt ähnlich. Bislang konnte er in keiner Weise erklären, was er wirklich mit ‚Selbstbewusstsein‘ oder gar ‚Geist‘ meint. Dennoch entwickelt er eine neue Hypothese, dass bestimmte quantenphysikalische Besonderheiten die Grundlage für eben jenes Unbekannte sein könnten… Rein logisch ersetzt hier die Spekulation über die Quantenphysik den cartesischen Begriff der Zirbeldrüse ohne zu große Aussicht auf mehr Klarheit (allerdings erweitert sich der Raum möglicher Hypothesen natürlich erheblich und ich stimme Kauffman soweit zu, dass jede tatsächlich weiterführende Antwort nur unter Einbeziehung der Quantenphysik funktionieren wird). ](vgl. S.203f)
17. Das leitende ‚Motiv‘ für die Einbeziehung der Quantenphysik ist das schon zuvor mehrfach erwähnte Argument, dass der menschliche Geist (‚mind‘) ’nicht algorithmisch‘ sei, was nach Kauffman nicht impliziert, dass er völlig ‚akausal‘ (‚acausal‘) sei. [Man beachte, das er beständig zwischen den Begriffen ‚Geist‘ (‚mind‘) und ‚Selbstbewusstsein‘ (‚consciousness‘) hin und her springt obgleich beide Begriffe nach meinem Verständnis sehr verschieden sind und beide Begriffe bislang sich jeder Definition weitgehend entziehen. Man könnte stattdessen auch einfach von ‚S‘ und ‚G‘ reden, diese wechselweise vertauschen und davon sprechen, dass sie nicht algorithmisch seien. Die argumentative Luft, in der sich Kauffman hier bewegt, ist sehr dünn geworden. Daneben ist auch die Aussage, ‚G‘ bzw. ‚S‘ sei nicht algorithmisch letztlich kaum zu verstehen. Ist doch mehr oder weniger unklar, was es heißen würde, dass S-G ‚algorithmisch‘ seien (das hatte Kauffman zuvor nicht wirklich erklärt. Aber er hat dafür argumentiert, dass es nicht so sei…).] (vgl. S.204)
18. Die Einbeziehung der Quantenphysik führt zu dem generellen Paradox, dass die Quantenwelt als solche nur aus Wahrscheinlichkeitsverteilungen besteht, die als solche ‚akausal‘ sind, während die ‚reale = makroskopische‘ Welt aktuelle konkrete Instanzen präsentiert, die in bestimmten Perspektiven ‚kausale Muster‘ erkennen lassen.(vgl. S.204f) Kauffman zitiert dann Richard Feynman (1918 – 1988) mit Beispielen, die diese Eigenschaften illustrieren sollen. Der entscheidende Punkt aber ist der Übergang vom unbeschränkten Quantenzustand zu einer ‚Aktualisierung‘, bei der/ in der wichtige Quanteninformationen verlorengehen. Als Erklärungsversuch für diesen Übergang verweist Kauffman auf die Dekohärenztheorie als zur Zeit am meisten akzeptierte theoretische Beschreibung dieser Aktualisierungsphänomene.(vgl. SS.205-208)
19. Es ist genau dieses Dekohärenzphänomen was Kauffman dann aufgreift, um damit die Interaktion zwischen einem ‚quantenphysikalischen kohärentem selbstbewussten Geist (qkSG)‘ und ‚Aktualisierungen in der klassischen physikalischen Welt‘ zu interpretieren.[Anmerkung: War zuvor schon der Status der Begriffe ‚Selbstbewusstsein (S)‘ und ‚Geist (G)‘ je für sich schon unklar, wird diese Unklarheit durch die Kombination ’selbstbewusster Geist (SG)‘ (‚conscious mind‘) nicht unbedingt besser.] Auf jeden Fall ist die Einwirkung dieses qkSG auf die Materie nicht kausal. Andererseits stellt Kauffman fest, dass der Vorgang der Dekohärenz bislang kaum verstanden ist. (vgl. S.208) [Anmerkung: Damit verknüpft sich die unklare Bedeutung von SG mit der Unklarheit der postulierten Dekohärenz. ] Dann setzt Kauffman den bislang kaum fassbaren Begriff qkSG mit der ‚res cogitans‘ von Descartes gleich und die aktualisierte Materie mit der ‚res extensa‘.(vgl. S.209). [Anmerkung: Dies ist eine stimulierende Überlegung, aber wenn vor der Einführung von qkSG schon keine wirkliche Bedeutung für SG – geschweige denn qkSG – verfügbar war, dann führt uns diese Gleichsetzung auch nicht weiter. Descartes hatte keine wirkliche Definition für seine ‚res cogitans‘. Bei ihm war es eine Vermischung von phänomenalen Eigenschaften erweitert um Spekulationen über eine mögliche allgemeine (ideale) Natur des ‚Geistes‘, ein Begriff, der als solcher keine wirkliche Bedeutung besitzt. Möglicherweise könnte man in einer ‚Metatheorie‘ zur Phänomenologie ein paar allgemeinere Begriffe ‚jenseits der Phänomene‘ einführen, ihr ontologischer Status wäre aber unklar. Descartes hat dies nicht getan und ich kenne auch keinen anderen Philosophen, der dies bislang wirklich geschafft hat. Den cartesischen Begriff ‚res cogitans‘ hier zu benutzen täuscht daher eine Bedeutung vor, die es so nicht gibt.]
20. In diesem Kontext führt Kauffman auch den Begriff ‚immateriell‘ (‚immaterial‘) ein und definiert ihn als eine mögliche Eigenschaft im quantenphysikalischen Raum, die ’nicht objektiv real‘ ist. (vgl. S.209)
21. Interessant ist auch das Phänomen, dass ein kohärenter quantenphysikalischer Zustand beim Auftreten von Dekohärenz nicht aufgehoben werden muss. Es gibt Beispiele dafür, dass Dekohärenz auftreten kann und der kohärente Zustand bleibt weiter bestehen bzw. dass es Mechanismen gibt, Kohärenz/ Dekohärenz kontrolliert zu nutzen. Dazu gehören auch neuere Modelle, wie Quanten-Computer funktionieren könnten. (vgl. SS.210-214) Aufgrund eigener Untersuchungen hält Kauffman es für möglich, dass jede Zelle so strukturiert ist, dass kohärente quantenphysikalische Austauschprozesse zwischen den Proteinen möglich sind. (vgl. S.220) Das Phänomen der Qantenverknüpftheit (‚quantum entanglement‘) verweist zusätzlich auf das Phänomen, dass Quanten in beliebiger Entfernung voneinander gemeinsame Eigenschaften haben können. (vgl. S.222)

REDUKTIONISMUS ABGEMILDERT DURCH EMERGENZ

22. Kauffman stellt dann nochmals fest, dass im Falle, dass seine Überlegungen zur Quantennatur des Geistes stimmen würden, also die angenommene Verlagerung des Geistes in den Quantenraum, der über Kohärenz/ Dekohärenz mit dem makroskopischen Raum der Körper interagiert, dass diese Annahme auch eine Art ‚Reduktionismus‘ darstellen würde, einen Reduktionismus, den er zu Beginn seines Buches ja gerade bekämpft hat. Er schwächt dann aber ab, indem er darauf verweist, dass sich aus diesem Reduktionismus von Geist auf quantenphysikalische Strukturen nichts deterministisch ableiten lässt. Nahezu alle Phänomene der biologischen Evolution repräsentieren Strukturen, die sich in dieser Konkretheit aus dem vorausgesetzten quantenphysikalischen Raum nicht voraussagen lassen. (vgl. S.222f)

DIE HARTEN ARGUMENTE GEGEN DEN GEIST HARREN EINER ANTWORT

23. Abschließend zu seinem Kapitel über die Hypothese, den ’selbstbewussten Geist‘ quantenphysikalisch zu interpretieren, listet Kauffman nochmals drei zentrale philosophische Argumente gegen die Annahme eines ‚Geistes‘ als unterschieden vom Gehirn an, die beantwortet sein wollen.
24. Als erstes verweist er nochmals auf den Ephiphänomenalismus, der die geistigen Phänomene als Begleiterscheinungen einer aktiven neuronalen Maschinerie sieht, da es bislang an überzeugenden Argumenten fehlt, die erklären, wie der ‚Geist‘ (für den es als solchen keine überzeugende Beschreibung gibt), auf das Gehirn, auf den Körper einwirken kann.(vgl. S.224) Dazu gehört auch das Problem, dass es völlig unklar sei, wie ‚Geist‘ direkt auf ‚Geist‘ wirken könne ohne Einbeziehung neuronaler Prozesse. (vgl. S.224f) Kauffman verweist darauf, dass, könnte man die Hypothese einer quantenphysikalischen Interpretation eines selbstbewussten Geistes qkSG beweisen, sich diese Probleme auflösen würden, da ein qkSG auf vielfache Weise mit sich selbst interagieren könnte ohne über den Umweg neuronaler Prozesse und doch zugleich auch über Dekohärenz neuronale Prozesse beeinflussen könnte. (vgl. S.225f)
25. Als zweites Problem erwähnt Kauffman das Problem der subjektiven Erfahrung selbst, oft das Problem der Qualia (DE)/ Qualia (EN) genannt. Hier sagt Kauffman, dass es bislang völlig unklar ist, ob und wie eine quantenphysikalische Interpretation von Geist hier neue Interpretationsansätze liefern kann. [Anmerkung: Schaut man in die Wikipediastichworte – sowohl in der deutschsprachigen wie auch in der englischsprachigen Version – nach, wird man schnell feststellen können, dass die Sachlage in diesem Bereich nur als ‚verworren‘ bezeichnet werden kann.] Allerdings bemerkt Kauffman zurecht, dass wir aus der Tatsache, dass momentan noch keiner eine schlüssige Erklärung auf der Basis der Quantenphysk anbieten kann, auch nicht folgt, dass es keine gibt. Aktuell ist nicht auszuschließen, dass es später mal eine brauchbare Erklärung geben kann. (cgl. S.226f)
26. Das dritte und letzte genannte Problem ist das Phänomen des freien Willens (EN)/ freien Willens (DE). Kauffman thematisiert zunächst den Aspekt des ‚Nicht-Determiniert-Seins‘ als einer Forderung an das Gegebensein eines freien Willens. Würde die quantenphysikalische Interpretation stimmen, dann sähe er hier eine Möglichkeit, das Determinismusproblem zu lösen. Bezüglich des zweiten Aspekts der ‚moralischen Verantwortung‘ bleibt er einen Hinweis schuldig. (vgl.S.227f) [Anmerkung: Liest man sich in die Wikipediastichworte ein, so sieht man nicht nur, dass es – wie meistens – zwischen der deutschen und der englischen Version große Unterschiede gibt, sondern wie vielschichtig und damit letztlich unklar das Konzept des freien Willens ist. Generell spielt es in der Alltagskultur der westlichen Länder eine zentrale Rolle, insbesondere im Rechtssystem, aber seine philosophische Behandlung ist alles andere als zufriedenstellend.]
27. Damit ist das Ende der beiden Kapitel über den Geist erreicht. Trotz vieler kritischer Anmerkungen im Detail – eine abschließende Reflexion wird noch folgen – waren dies außerordentlich anregende Kapitel. Für Kauffman war es wichtig, zu zeigen, dass das Phänomen des ‚Selbstbewusstseins‘ [hier lässt er den Begriff ‚Geist‘ wieder mal weg] ein natürliches Phänomen ist, ein genuiner Teil der Evolution, den zu erklären, es keines ‚Schöpfergottes‘ (‚creator god‘) brauche.(vgl. S.229)
28. [Anmerkung: Seinen Schlusssatz, dass man für dies alles keine Annahme über einen ‚Schöpfergott‘ brauche, macht natürlich nur Sinn, wenn man den Begriff ‚Schöpfergott‘ in einer Weise definiert, der den bekannten naturwissenschaftlichen Daten zum evolutionären Prozess widerspricht. Dies muss aber keinesfalls so sein. Denn schon in der jüdisch-christlichen Tradition gibt es ja nicht einen einzigen, klar definierten Gottesbegriff, sondern die vielen verschiedenen Schriften der Bibel zeichnen sehr unterschiedliche Bilder. Dazu kommt, dass nirgends explizit von der Evolution die Rede ist, da ja die Menschen zu den Zeiten, als die Texte der Bibel verfasst worden sind, von all dem nichts wussten. Und die wenigen Texte, die direkt Bezug nehmen auf die Entstehung der bekannten Welt – insbesondere die beiden sogenannten ‚Schöpfungsberichte‘ zu Beginn des Buches Genesis – sind sprachlich und inhaltlich so verschieden (weil sie aus verschiedenen Zeiten von verschiedenen Autoren stammen), dass sich jede weiterreichende Interpretation auf der Basis dieser beiden Texte verbietet. Zumindest in der christlichen Tradition gibt es kein klar definiertes Bild eines Schöpfergottes, das den neueren naturwissenschaftlichen Erkenntnissen entgegen stehen würde (wobei man bedenken sollte, dass sich innerhalb der Wissenschaft die naturwissenschaftlichen Bilder von der Welt mindestens seit Galilei immer wieder und stark verändert haben. Gerade in unserer Zeit durchläuft die Wissenschaft in vielen Bereichen wieder einmal grundlegende Korrekturen, deren Ende noch gar nicht abzusehen sind). Das Wenige, was sich von einem christlichen Gottesbegriff ableiten lässt deutet eher auf eine Art ‚Koevolution von Allem‘ hin, in der dem Leben (speziell dem Menschen?) eine besondere Rolle zugedacht ist. Worin die genau besteht, ist eher unklar und muss von den Handelnden selbst schrittweise ermittelt werden (falls es überhaupt eine mögliche Klärung gibt). Ich habe nicht den Eindruck, dass sich innerhalb des Christentums irgendjemand für diese Klärung des Gesamtzusammenhangs ernsthaft interessiert. Man hört höchstens immer wieder von obskuren Abwehrschlachten von sogenannten ‚Fundamentalisten‘, die offensichtlich ihre eigene Bibel nicht kennen.]

Die Fortsetzung findet sich HIER: Teil 7.

Ein Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER

DIE GROSSE VEREINIGUNG: Philosophie, Wissenschaft, Kunst und Religion?

1. Nachdem in den letzten Wochen — zumindest gedanklich — die ‚Vereinigung‘ von getrennten Bereichen fortgesetzt wurde (Seit Januar 2012 Philosophie und Wissenschaft, seit Februar 2013 Philosophie, Wissenschaft und Theologie/ Religion), blieb die Frage nach der Rolle der Kunst bislang außen vor.
2. Dies gründet nicht darin, dass ich selbst etwas gegen Kunst hätte — partiell war und bin ich selbst künstlerisch engagiert –, aber auch mir geht es so wie vielen (den meisten?) heute, dass diese Bereiche in unser Gesellschaft akribisch getrennt werden. In den Schulen, insbesondere den Hochschulen des Landes, sind diese Bereiche voneinander abgeschottet. In den großen Zeitungen sind die Redaktionen ebenfalls säuberlich getrennt: hier die Wissenschaften, hier das Feuilleton als Sammelstelle für Alles, was nicht Wissenschaft ist, ausgenommen Politik und Wirtschaft.
3. Und da wir uns im Normalfall eher innerhalb der vorgebahnten gesellschaftlichen Rollen und Leitplanken bewegen, praktizieren wir ein gedankliches Schisma, das — zumindest Europa und die davon beeinflussten anderen Länder — seit Jahrhunderten besteht.
4. Nun geht es nicht unbedingt um eine ‚Gleichmacherei‘, als ob Kunst gleich Wissenschaft sei oder umgekehrt, aber zumindest um die Frage der ‚inneren Beziehung‘ zwischen Philosophie, Wissenschaft, Kunst und Religion.
5. Für eine solche Fragestellung gibt es viele Gründe: Trotz vieler wissenschaftlicher Disziplinen, vieler unterschiedlicher Künste, leben wir in EINER Welt, in der dies alles ‚gleichzeitig‘ passiert, als reales Geschehen. Also sind es ‚genuine Phänomene‘ dieser einen Welt, die etwas, über die Eigenschaften dieser Welt sagen. Ferner ist es EINE spezifische Gattung, der homo sapiens sapiens, der all diese Verhaltensweise aufweist, manifestiert. Trotz aller Unterschiedlichkeit entspringen alle diese verschiedenen Phänomene einer Quelle und illustrieren je auf ihre Weise Eigenschaften dieser einen Quelle.
6. Eine Abschottung dieser verschiedenen Phänomene voneinander wäre radikal ‚unphilosophisch‘, würde dies doch bedeuten, dass man das, was die Grundlage allen Erkennens bildet, Phänomene als Teil des Erlebensraumes, ‚verdrängen‘, ‚verleugnen‘ würde. Das kann nicht angehen. Philosophisch haben wir keine ‚Metaregel‘, die es uns erlauben würde, beliebige Phänomene zu ‚Un-Phänomenen‘ zu erklären. Das oberste philosophisches Prinzip lautet, JEDES Phänomen zunächst mal als Phänomen zu akzeptieren. Wie man dieses dann später ‚interpretiert‘, ist eine nachgeordnete Frage, verlangt jedoch — zumindest im philosophischen Denken — maximale ‚Transparenz‘.
7. Die Hauptaufgabe der Philosophie angesichts der Vielfalt der Phänomene ist also die ‚Wahrung der Vielfalt‘ mit allen verfügbaren denkerischen Mitteln.
8. Die empirischen Wissenschaften haben sich in den Jahrhunderten seit ihrer Profilierung (kein einzelnes Anfangsdatum; schleichender gesellschaftlicher Prozess) dadurch ausgezeichnet, dass sie in Kombination von ‚empirischen Messverfahren‘ und ‚mathematischer Modellierung‘ TEILBEREICHE der Phänomenwelt untersucht haben. Ihre Ergebnisse sind zweilfellos atemberaubend. Dennoch sollte man vor lauter Begeisterung nicht den Blick dafür verlieren, dass es eben TEILBEREICHE des Phänomenraumes sind, d.h. dass diese Untersuchungen nur möglich waren, weil man ‚methodisch bewusst‘ viele andere Phänomene ‚ausgeklammert‘ hat, da sie mit empirischen Mitteln nicht untersuchbar waren. Zugleich hat die empirische Wissenschaft im Laufe der Jahrhunderte deutliche ‚gedankliche Entwicklungen‘ erlebt: mathematische Modelle wurden laufend verändert, verfeinert, bisweilen durch völlig neue Paradigmen ‚ersetzt‘ (z.B. klassische Physik a la Newton und Quantenphysik).
9. Es scheint so zu sein, dass die ‚Ausklammerung‘ der nicht empirisch messbaren Phänomene — mangels hinreichender philosophischer Reflexion ?! — bei vielen Akteuren zu dem Eindruck geführt hat, dass die REDUIZIERTEN (nicht ‚reduktionistisch‘!) empirischen Theorien eigentlich schon ‚Alles‘ abdecken, was sie natürlich nicht tun, da sie ja einen Großteil der Phänomene schlichtweg ausklammern. Sachlich gesehen ist dies kein Problem, aber psychologisch und machtpolitisch ist es natürlich ‚angenehmer‘, eine gesellschaftlich ’starke‘ Position zu haben als eine ’schwache‘ (z.B. die geisteswissenschaftlichen Disziplinen als ‚Sorgenkinder‘ der zunehmend ökonomisierten Universitäten). Eine Aufrechterhaltung des empirischen Interpretationsmonopols ist also weniger philosophisch-rational begründet als vielmehr psychologisch, soziologisch usw.
10. Dies so sachlich zu diagnostizieren, ist eine Sache. Eine andere Frage ist, wie man sich denn ein weniger abgrenzendes, sondern eher ein konstruktives Verhältnis zwischen empirischen Wissenschaften und den Künsten vorstellen soll? (Also Geisteswissenschaften erweitert um Kunst!)
11. Ein Verständnis der Künste könnte der kreativ-spielerische Umgang mit der ganzen Bandbreite der Phänomene sein ohne die methodisch induzierten Grenzen durch die empirischen Messverfahren. Dies würde sowohl neue Phänomene wie auch neue, implizite Zusammenhänge in diesen Phänomenen sichtbar machen, die für das, was wir als homo sapiens sapiens in dieser Welt sind/ sein können, wesentlich sind. Denn wir ‚kennen‘ uns nur ‚im Vollzug‘. Wer wir ’sind‘ bzw. wer wir ’sein können‘ zeigt sich nur im ‚praktischen Ausloten‘ der Möglichkeiten. Die methodisch induzierten Grenzen der Phänomenselektion der empirischen Wissenschaften sind im Grundsatz zu eng und — falsch verstanden — ideologisch gefährlich. Genauso wenig wie wir philosophisch auftretende Phänomene einfach ‚beiseite schieben‘ können, genauso wenig dürfen wir von vornherein bestimmte Verhaltensweisen einfach — ohne sehr harte Gründe — verbieten, da nur so überhaupt die Phänomene sichtbar werden können, die uns zu neuen, erweiterten Erkenntnissen führen können.
12. Dass bestimmte Phänomenproduktionen wie z.B. bestimmte Formen von ‚Musik‘ oder bestimmte ‚Bilder‘, in Menschen ‚angenehme Gefühle‘ anregen können, dürfte nicht das primäre und nicht das einzige Interesse in der Phänomenproduktion sein. Sonst würde durch solche spezielle Gefühle der gleiche selektierende Isolationseffekt entstehen, wie durch die methodisch induzierten Eingrenzungen der empirischen Wissenschaften (Die Geschichte ist voll von ‚Moden‘ und ‚Trends‘, die sich gewandelt haben und die sich selbst wechselseitig außer Kraft gesetzt haben. Die Rolle und Bedeutung von ‚Gefühlen‘ bei der Bewertung von Wirklichkeit wäre eine eigene Reflexion wert).
13. Die Auslotung des Möglichen im Rahmen einer kreativ-spielerischen Kunst könnte also die Grundlage für ein vertieftes Verständnis dessen sein, was/ wer/ wie wir sind. Zugleich würde eine solche prinzipiell unbegrenzte Phänomenproduktion aber nur dann zu einem ‚gesellschaftlich wirksamen Sinn‘ führen, wenn diese Phänomene ‚angemessen‘ kommuniziert würden bzw. wenn evtl. möglichst viele ähnliche Phänomenproduktionen vollziehen würden, da diese dann als ‚Teile von ihnen selbst‘ sie unmittelbar betreffen und prägen. Es ist zu fragen, ob die heute beobachtbare ‚Spezialisierung und Professionalisierung‘ von künstlerischer Phänomenproduktion nicht eher ein hochgezüchtetes Randphänomen von künstlerischer Aktivität ist, die nah dran ist an bloßer ‚Gefälligkeit‘ und Stereotypisierung und genau den kreativ-spielerischen Charakter verliert. Von gesellschaftlicher ‚Rezeption‘ kann bei dem heutigen hochspezialisierten organisierten Kunstbetrieb kaum gesprochen werden (Welche verschwindende Minderheit von Spezialisten liest Feuilletons?).
14. Dies ist ein weites Feld und kann hier jetzt nicht angemessen behandelt werden. Es geht nur darum, einen ersten Orientierungspfosten zu setzen, um anzudeuten, dass eine stärkere Interaktion von Kunst einerseits und Philosophie und Wissenschaft andererseits auch entsprechende gesellschaftliche Formen und Kommunikationsprozesse erfordert.
15. Die notwendige kommunikative Aufarbeitung neuer — künstlerisch hervorgebrachter — Phänomene muss sicherlich auf vielen Ebenen vollzogen werden. Für den methodischen Gesamtzusammenhang ist die Philosophie zuständig. Für die Erweiterung der wissenschaftlichen Untersuchungen ist die Wissenschaft selbst in enger Kooperation mit der Philosophie zuständig (z.B. auch in der Form der ‚Wissenschaftstheorie‘).
16. Letzteres kann aber nur funktionieren, wenn der Wissenschafts- und Philosophiebetrieb eine kontinuierliche Reflexion pflegen, die diese Fragen als ’normale Fragen‘ in der Routinepraxis ‚pflegen‘. Davon sind wir weit, weit entfernt. Das geschichtlich gewachsene Schisma ist tief verankert in den Köpfen aller Beteiligten und die — ungerechtfertigt unterstellte? — Eitelkeit in den Köpfen der Wissenschafts und/ oder Feuilleton-Redaktionen der Medien tut ihr Ihriges, um dieses Schisma täglich am Leben zu erhalten. Das gelegentlich immer wieder aufflammende Wehklagen der einen über diesen unseligen Zustand oder die abwertenden Bemerkungen der anderen helfen hier nicht weiter.
17. In einem internationalen Projekt, das ich in diesen Monaten zu starten versuche (lange Vorläufe in den letzten Jahren) versuchen wir ein radikal technologisches Experiment direkt mit Kunst und Philosophie zu verknüpfen. Sowohl ‚Reengineering von Goethe‘ wie auch ‚Goethefizierung von künstlicher Intelligenz‘ als platte Formeln, um etwas Komplexes anzudeuten.
18. Wie schon in vorausgehenden Blogeinträgen besprochen, führen die ‚emergenten‘ Phänomene die heutigen empirischen Wissenschaften an die Grenzen ihrer aktuellen Methoden und Modellen. In einer Metareflexion kann man erkennen, dass die empirischen Wissenschaften die Auflösungen der methodischen Aporien nur nur Erweiterung ihrer Modellbildungen durch Einbeziehung höherer Komplexitätsstufen auflösen kann. Diese können aber genau von jenen Disziplinen eingebracht werden, die sich mit ‚Handlung‘, ‚Sprache‘, ‚Bewusstsein‘, ‚Wissen‘, ‚Gefühlen‘, ‚Kunst‘ usw. beschäftigen. Diese ‚Zwitter-Disziplinen‘ — teils empirisch, prinzipiell mathematisch — können Brücken bauen zwischen den verschiedenen bislang schismatisch aufgesplitterten Phänomenmengen. Zwitter-Disziplinen haben kein Problem mit Kunst bzw. künstlerischen Phänomenen.
19. In diesem weit aufgespannten Raum von Philosophie (Kampf für alle Phänomene), empirisches Wissenschaft (Präzisierung des empirisch Messbaren), Zwitter-Disziplinen (Integration der empirischen und nicht-empirischen Phänomene) sowie Kunst (kreativ-spielerische Auslotung des Phänomenraumes) ist prinzipiell Raum für Religion, eigentlich mehr denn je. Ich verstehe unter Religion eine menschliche Haltung dahingehend, dass ein religiöser Mensch die Vielfalt des Phänomenraumes nicht nur als ‚unbeteiligter Zuschauer‘ sieht, sondern sich als ‚Teil des Ganzen‘ begreift. Dadurch verlieren die Phänomene ihren neutralen Status: sie werden zu möglichen ‚Zeichen‘ einer ‚impliziten Bedeutung‘, die sich in der Interaktion mit der Welt ‚zeigen kann‘. Dies verlangt allerdings einen ‚bewussten‘ Umgang mit der Welt als einer Welt, die einem ’nicht egal‘ ist. Alle religiös-mystischen Traditionen, die ich kenne, sind in diesem Punkt kompatibel. Die Gesamtheit des Wissens, wie es sich in Philosophie, Wissenschaften und Kunst erschließt, ist für eine so verstandene Religiosität kein Gegensatz, sondern ganz im Gegenteil ‚Ermöglichungsgrund‘ eines verantworteten Umgangs mit der Welt. Die ‚geistigen Besonderheiten‘, die viele offizielle Religionsgemeinschaften im Laufe ihrer Geschichte produziert haben, wirken vor diesem Hintergrund befremdlich und eher religionsfeindlich (eine leicht paradoxe Formulierung).

Einen Überblick über alle bisherigen Blogeinträge nach Themen findet sich HIER

Kunst als eigene Aktivität

Ich habe vor einigen Jahren, angeregt durch philosophische Reflexionen, begonnen, eigene ‚Kunstexperimente‘ zu realisieren. Ein Bereich ist die experimentelle Musik nach dem Konzept der ‚radically unplugged music (RUM)‘. Dazu habe ich mittlerweile mehr als 400 Musikstücke generiert. ‚Radically Unplugged‘ heisst, dass man nicht nach Noten spielt, das man vorher nicht probt, dass keine Stimme weiss was die andere als nächstes tun wird. Dadurch ist es möglich, dass Personen sich am Experiment beteiligen, die als ‚unmusikalisch‘ gelten, die keine Noten lesen können, ja, die nicht einmal ein Instrument spielen können. Hier ein Stück, das ich gestern ‚produziert‘ habe: ‚Coming To An End‘

Hinweis: Wer sich dieses Klangexperiment anhören möchte, sollte unbedingt darauf achten, über eine sehr gute Soundkarte und einen sehr guten Kopfhörer zu verfügen (noch besser eine Soundanlage mit guten Boxen), andernfalls sind viele Klanganteile nur sehr schlecht oder garnicht hörbar!

EMERGENTE PHÄNOMENE, BEOBACHTER, GEIST -Teil 2

(Dieser Beitrag bildet die Forsetzung von Überlegungen aus einem vorhergehenden Beitrag)

Eine Schema, wie Leben im Universum entstehen konnte (in späteren Blogeinträgen weiter verfeinert)
Eine Schema, wie Leben im Universum entstehen konnte (in späteren Blogeinträgen weiter verfeinert)

UPDATE EVOLUTION

In einem Diagramm vom Dezember 2009 (siehe Bilde oben) hatte ich eine ‚Gesamtschau‘ der Evolution ‚in einem Bild‘ versucht. Dabei hatte ich eine Aufteilung in ’subatomar‘ und ‚atomar und komplexer‘ vorgenommen. Die Überlegungen kreisten seitdem meistens um die Phänomene oberhalb der atomaren Komplexitätsebene. Dabei schälten sich dann diverse interessante Problemstellungen heraus. In den letzten Monaten war es vor allem das Problem der ‚Emergenz‘, das mich mehr und mehr beschäftigte (sofern die normale Arbeit dazu überhaupt Zeit lies). In mehreren Anläufen, Texten und Vorträgen kam ich bis zu dem Punkt, dass die sich in den emergenten Phänomenen zeigende Funktionalität in keiner Weise durch Rekurs auf die beteiligten Komponenten alleine erklärbar ist (kein ‚Reduktionismus‘, (z.B. der molekulare Prozess der Selbstreproduktion in struktureller Entsprechung zum mathematischen Konzept einer Turingmaschine)) sondern eine Funktionalität auf einer ‚höheren Ebene‘ voraussetzt. Als möglicher ‚Raum für Funktionalitäten‘ bietet sich hier aber nur jener ‚Raum‘ an, innerhalb dessen es zu diesen Prozessen kommt. Hier gibt es nur den Raum der Atome bzw. den subatomaren Bereich. Die heutige Physik beschreibt diesen Raum u.a. mit den Mitteln der Quantenphysik. Als Nichtphysiker hält man dazu gewöhnlich einen gebührenden Abstand (die für die Beschreibung quantenphysikalischer Phänomene benutzte Mathematik ist für einen Nicht-Quantenphysiker in der Regel ‚unverdaulich‘; Ausnahme aber z.B. die Vorlesungen von Feynman (siehe Lit. unten).

QUANTENPHYSIK

An dieser Stelle kam eine entscheidende Anregung bei der fortdauernden Lektüre (jetzt wieder) von Kauffman (‚Reinventing…). Im Kap.13 des Buches referiert er wichtige Positionen der Philosophie des Geistes (einschließlich neurobiologischer Interpretationen), zeigt deren logischen Aporien bei der Erklärung von ‚Geist‘ und ‚Bewusstsein‘ durch Reduktion auf neuronale Aktivitäten auf und spielt dann diverse theoretische Szenarien durch, für die er Erkenntnisse der Quantenphysik benutzt. Zuerst fand ich dies eigentümlich, aber bei weiterem Lesen und Nachdenken habe ich den Eindruck, dass diese Überlegungen höchst interessant sind und nach allem, was ich bislang weiß, den einzig erkennbaren theoretischen Ansatzpunkt liefern, der im Einklang mit den empirischen Wissenschaften steht und doch der Besonderheit der emergenten Phänomene Bewusstsein und Geist eventuell gerecht werden könnte.

Quantum space and Classical Space; Below bodies being open in the direction of quantum space
Quantum space and Classical Space; Below bodies being open in the direction of quantum space

Die Grundidee ist recht simpel. Die empirisch-mathematischen Details beliebig schwierig. Ich habe folgendes verstanden (siehe Handskizze):

1. Im Bereich der subatomaren Teilchen (Quanten) lässt sich nur noch messen, wenn man dabei das zu messende Objekt verändert (Heisenberg, Unschärferelation). Viele kreative Experimente (siehe dazu z.B. das Büchlein von Feynman) legen die Interpretation nahe, dass die Teilchen sich in einem kontinuierlichen Raum möglicher Zustände aufhalten, in dem sie alle Zustände (aus unserer Sicht) quasi ‚gleichzeitig‘ einnehmen (mit unterschiedlichen Wahrscheinlichkeiten). Alles, was ‚geht‘ (Freiheitsgrade), ‚wird gemacht‘. Durch Versuchsanordnungen wird der Möglichkeitsraum punktuell ‚eingeengt‘ und der Raum ‚passt sich‘ den Versuchsanordnungen ‚an‘. Man ‚misst als Phänomen, was sich bei Unterstellung der wahrscheinlichen Verteilungen ergeben würde. Dazu gehören viele spezielle Effekte, die ich hier beiseite lasse.
2. Neben diesem Quantenraum als ‚grundlegender Realität‘ für die messbaren Phänomene gibt es aber auch den konkret realisierten physikalischen Zustand, wie wir ihn als ‚real uns umgebende Welt‘ erfahren. Dieser ‚klassische physikalische Raum‘ erscheint von dem Quantenraum mit seinen floatenden Möglichkeiten ‚abgekoppelt‘ (‚decoherent‘). Er stellt genau eine von unzählig vielen Möglichkeiten dar, was ‚hätte passieren können‘. Abkopplung heißt hier u.a. ‚Verlust an Informationen‘, herausgenommen aus dem ‚Phasenraum‘ der floatenden Möglichkeiten.
3. Trotz der Realität des konkreten klassischen physikalischen Raumes müssen wir annehmen, dass damit der parallel bestehende Quantenraum nicht vollständig aufgehoben wird; er besteht weiter, wahrt eine Kontinuität, bildet weiter die ‚Grundlage‘ für neue ‚Realisierungen‘.
4. Soweit ich bislang sehe ist diese ‚Koexistenz‘ von Quantenraum und konkreter Realisierung bislang nicht vollständig geklärt, speziell nicht die Frage, wie beständig Realisierungen (Dekohärenzen) stattfinden können, ohne den Quantenraum aufzuheben. Darüberhinaus ist nicht wirklich klar, warum es genau zu den bestimmten Realisierungen kommt, die aus unserer Beobachtersicht gewisse ‚Regeln‘ einhalten, obgleich der Quantenraum aus sich heraus nicht auf eine bestimmte Realisierungen abonniert ist.

META-FUNKTIONALITÄT

Die vorausgehenden Überlegungen sind natürlich extrem vereinfachend, lassen dadurch aber vielleicht die großen Linien hervortreten.

Bezogen auf die von mir geäußerte Vermutung, dass die emergenten Phänomene durch vorauszusetzende Funktionalitäten erklärt werden müssen würde durch Einbeziehung des Quantenraums zumindest dahingehend eine Verstärkung erfahren, dass der Quantenraum beliebig komplexe Funktionalitäten ‚beherbergen‘ kann. Aber hier stehen wir noch ziemlich am Anfang.

Kauffman bringt in seinem Buch mehrere Beispiele (z.B. S.210f, Photosynthese), wo anhand konkreter biologischer (chemischer, physikalischer) Prozesse nachgewiesen werden konnte, wie diese konkreten Prozesse nur erklärbar sind durch die Annahme des zugleich bestehenden Quantenraumes.

GEFANGEN IM KÖRPER ALS KOGNITIVE TÄUSCHUNG

Macht man sich diese Fundierung aller Makrophänomene im Quantenraum klar, dann folgt daraus, dass die scheinbare ‚Gefangenheit‘ unseres ‚Geistes‘ in einem konkreten, endlichen Körper, nur eine scheinbare ist. Der Körper ist (mit viel Fantasie auf der Handskizze in der unteren Hälfte erkennbar) in dieser Sicht nur so eine Art ‚Ausstülpung‘ des Quantenraumes an einem bestimmten Punkt in eine ‚vorübergehende Konkretisierung‘ bei gleichzeitiger Aufrechterhaltung der Einbettung in den Quantenraum. Dies bedeutet, bei näherer Betrachtung, dass jeder Mensch ‚in Richtung des Quantenraumes‘ ‚offen‘ ist. Dies wiederum bedeutet, dass jeder Mensch durch seine Einbettung in den Quantenraum mit jedem Punkt des bekannten Universums direkt kommunizieren kann. Diese Kommunikation — so sie stattfindet — verläuft mindestens mit Lichtgeschwindigkeit. Anders gewendet, sofern wir in den Quantenraum ‚eingebettet‘ sind ist jeder von uns zum übrigen Raum hin ‚vollständig offen‘. Im Quantenraum gibt es keine lokale Abgrenzung. Diese wird nur mit Hilfe des transienten Körpers für eine verschwindend kurze Zeit künstlich eingerichtet, um punktuell ‚Individualitäten‘ sichtbar zu machen.

Warum der Quantenraum diese punktuellen transienten ‚Ausstülpungen‘ vornimmt erschließt sich uns bislang nicht. Aber wir stehen ja auch mit dem Erkennen hier erst ganz am Anfang.

LITERATURHINWEISE
Richard P. Feynman (Author), A. Zee (Introduction), „QED: The Strange Theory of Light and Matter“, Publisher: Princeton University Press (April 4, 2006), ISBN-10: 0691125759, ISBN-13: 978-0691125756

Gerd Doeben-Henisch, Kurze Review online: http://www.amazon.com/gp/cdp/memberreviews/A1D6994DSB8K4M/ref=cm_cr_dp_auth_rev?ie=UTF8&sort_by=MostRecentReview

Kauffman, S.A., Reinventing the Sacred. A new View of Science, Reason, and Religion. New York: Basic Books, 2008 (Paperback 2010)

Eine Übersicht über alle bisherigen Blogeinträge anhand der Themen findet sich HIER

EMERGENTE PHÄNOMENE, BEOBACHTER, GEIST

  1. In dem anregenden Buch von Kaufmann ‚Reinventing the Sacred‘ (dessen Besprechung in diesem Blog noch immer nicht beendet ist….) wird sehr oft und in vielfältiger Weise über solche Phänomene der beobachtbaren Welt gesprochen, die ‚da‘ sind, die ‚auftreten‘, die aber in ihrer erfahrbaren Form nicht aus den bekannten Eigenschaften ihrer ‚Bestandteile‘ erklärbar sind. Für solche Phänomene hat sich der Begriff ‚emergente‘ Phänomene eingebürgert.
  2. Insgesamt gesehen ist das Reden über emergente Phänomene nichts Neues. Möglicherweise kann man sogar das Reden über das Phänomen ‚Geist‘ hier subsumieren (sieht man mal von der generellen Problematik ab, dass die Wortmarke ‚Geist‘ allein schon im europäischen Kulturkreis mindestens seit den Griechen und Semiten (nous, pneuma, psyche, ruach, ruh,…) in so vielfältiger Weise auftritt, dass eine klare Bedeutungszuordnung ausgeschlossen erscheint): der Mensch kann an sich und am ‚anderen‘ Menschen so viele Phänomene des ‚Ausdrucks‘, der ‚Mitteilung‘, des ‚absichtsvollen Handelns‘ usw. erfahren, die allesamt nicht ‚erklärbar‘ sind, versucht man sie auf die beteiligten Bestandteile wie körperliche Organe, Muskeln, Knochen, Gehirnzellen usw. zurück zu führen. Jeglicher Reduktionismus in der Art einer solchen ‚Rückführung‘ ist im Ansatz schon so lächerlich, dass es verwundern kann, warum dann — im Umkehrschluss — heute nicht viel mehr selbstreflektierende Wissenschaftler die erkenntnismäßige Provokation solcher ‚emergenter‘ Phänomene konstatieren.
  3. In meinen letzten drei öffentlichen Vorträgen (YPO Nov.12, Salon Slalom Nov.12, Interdisz.Arbeitsgruppe der Universität Unicamp (Campinas, Brasilien) Febr.13) habe ich auf diese Problematik am Beispiel des Selbstreproduktionsmechanismusses der biologischen Zellen hingewiesen. Vereinfachend: ein Molekül (Ribosom) bekommt als Input andere Moleküle (mRNA, tRNA), die von einem weiteren Molekül (DNA) ‚gesteuert‘ werden, und dieser Input wird vom Ribosom-Molekül ‚abgebildet‘ auf eine Menge anderer Moleküle (Proteine). Dieser hochkomplexe Abbildungsprozess lässt sich nicht durch Rekurs auf die beteiligten Moleküle und deren physikalische Eigenschaften erklären (was schon viele andere festgestellt haben).
  4. Ich versuche das Problem immer so zu erklären: nahezu jeder benutzt heute Computer (mindestens in der Form eines Smartphones). Jeder weiß, dass die möglichen ‚Verhaltensweisen‘ seines Computers von der ‚Software‘ abhängt, die die Hardware steuert (und natürlich auch von der Hardware selbst insoweit diese festlegt, was durch eine Software alles gesteuert werden kann). Mit einer geeigneten ‚App‘ (= Stück Software) kann ich ein Android Smartphone in einen ‚Kompass‘ verwandeln, kann eine Klanganalyse machen lassen, um Instrumente zu stimmen, kann eine ‚Wasserwaage‘ simulieren, ein Musikinstrument, usw. Würde man jetzt jemanden die Aufgabe stellen, zu analysieren, warum ein Computer solche bestimmten (‚emergenten‘!) Verhaltensweise zeigt und dieser ‚Beobachter‘ dürfte nur die erzeugende Hardware anhand ihrer physikalischen Eigenschaften untersuchen, er wäre nicht in der Lage, die verursachenden komplexen Funktionen zu entdecken. Denn das, was wir die ‚Software‘ nennen, ist für uns zwar als ein ‚Text‘ vorstellbar, aber die Software, die im Computer wirksam ist, existiert im Computer nur in Form von tausenden, Millionen, Milliarden usw. von Ladungszuständen, die über die Chips verteilt sind. Ohne Kenntnis der logischen Architektur dieser Hardware ist eine Rekonstruktion dieser komplexen Funktionen ‚in der Hardware‘ nur aufgrund der physikalischen Eigenschaften grundsätzlich unmöglich (Laut Turing ist diese Kenntnis sogar unmöglich, wenn man alle logischen Informationen über die Struktur hätte; Halteproblem). Das lernt jeder Informatikstudent in den ersten Semestern. Dennoch glauben wir, dass wir im Falle komplexer (= ‚emergenter‘?) Phänome in der materiellen Struktur der uns umgebenden Welt alle ‚wichtigen‘ Eigenschaften erkennen könnten nur durch Beschränkung auf die physikalischen Eigenschaften der beteiligten ‚materiellen Komponenten‘.
  5. Eine philosophische Konsequenz aus diesem Sachverhalt ist, dass wir unsere Rolle als ‚Beobachter der Natur‘ kritisch überdenken müssen (Heisenberg war einer von vielen, die dies schon zu seinen Zeiten angesichts der neuen Erkenntnisse der Physik laut gedacht hatte). Im Analogieschluss von der Unmöglichkeit des Erkennens einer komplexen Funktion, die sich zu ihrer Ausführung tausender, Milliarden usw. materieller Einzelzustände ‚bedient‘ müssten wir bereit sein, die Arbeitshypothese zu bilden, dass das Erkennen von sogenannten ‚emergenten‘ Phänomenen unter Umständen von uns genau dies verlangt: die Annahme von komplexen Funktionen, die ‚hinter‘ den vielen materiellen ‚Einzelteilen‘ ‚operieren‘. Dies wirft natürlich die frage nach dem ‚Medium‘ auf, in dem sie operieren. Im Falle der Computerhardware wissen wir, dass es Eigenschaften der Hardware selbst sind, die die ‚Umsetzung, Realisierung‘ der ‚inhärenten‘ komplexen Funktionen erlaubt. Warum also nicht als Arbeitshypothese annehmen, dass die uns — allzuwenig — bekannte Materie möglicherweise inhärente Eigenschaften besitzt, die erst im Zusammenwirken vieler Komponenten ’sichtbar‘ werden.
  6. Natürlich wirkt solch eine Annahme auf so manche im ersten Moment ‚erschreckend‘, da damit die von sehr vielen (den meisten?) als ziemlich ‚tod‘ erklärte Materie mit einem Mal zum Ort ungeahnter komplexer Eigenschaften wird, von denen die komplexen biologischen Phänomene möglicherweise nur eine kleine Kostprobe sind. Das Faszinosum ‚Geist‘ wäre dann möglicherweise auch nichts Besonderes mehr, wäre es doch nur das ‚Aufscheinen‘ der inhärenten funktionalen Eigenschaften der Materie.
  7. Sollten diese Spekulationen zutreffen, dann würde die Physik nahtlos in die Philosophie (und möglicherweise sogar Theologie) übergehen, und umgekehrt. Die schon immer äußerst bizarre Aufsplitterung der einen Welt in eine Vielzahl von miteinander unvermittelten Kategorien wäre dann als ein reiner Artefakt unseres unbeholfenen Denkens diagnostiziert.
  8. Bleibt die eher psychologische (oder gar ’spirituelle‘) Frage, warum wir Menschen so dauerhaft krampfhaft an unsinnigen Konzepten festzuhalten versuchen, wenn die Phänomene selbst unser Denken doch so ‚alt‘ aussehen lassen…-:)?

Eine fortsetzung zu diesem Beitrag findet sich HIER

Eine Übersicht über alle bisherigen Blogeinträge nach Themen findet sich HIER

REDUKTIONISMUS, ERMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 1

ZUSAMMENHANG MIT DEM BLOG

Letzte Korrekturen: 23.März 2013

(1)Der Zusammenhang mit dem Blog besteht darin, dass im Blog der klassische Widerspruch zwischen ‚Geist‘ auf der einen Seite und ‚Materie‘ auf der anderen von vielen Seiten neu reflektiert wird. Dabei zeigte sich u.a. dass durch die Einbeziehung der neueren Erkenntnisse über das Biologische und seiner Entstehung die Phänomene des Biologischen zu einer neuen Sicht der Materie und der Energie führen können, zu einer Sicht, die deutlich macht, dass die klassische Sicht der Physik sich immer mehr als unbefriedigend erweist. Ergänzt wurden diese Reflexionen durch frühere Einträge im Blog, in denen auch die Sicht des ‚Geistes‘ aus Sicht der Philosophie dahingehend ‚aufgebrochen‘ worden sind, dass auch die klassische Philosophie im Lichte der neueren Erkenntnisse zum Leben ihre eigenen Erkenntnisvoraussetzungen neu bedenken kann und auch muss (dies wurde spätestens seit dem Vortrag in Bremerhaven offenbar!). Zwar bedeutet die Einbeziehung naturwissenschaftlicher Erkenntnisse eine ‚Verletzung‘ des klassischen philosophischen – und insbesondere des phänomenologischen – Paradigmas, aber es bedeutet keine vollständige Auflösung noch gar eine ‚Zerstörung‘ der Philosophie, sondern – möglicherweise – eine notwendige ‚Erneuerung‘, die schließlich dazu führen kann, die unselige Trennung zwischen Geistes- und Naturwissenschaften aufzuheben. Diese Trennung erscheint im neuen Denken als ein ‚Artefakt‘ des klassischen Denkens aufgrund falscher Voraussetzungen.
(2) Diese veränderte Sicht auf das Verhältnis zwischen ‚Geist‘ und ‚Materie/ Energie‘ wirkt sich auch aus auf eine veränderte Sicht zum Glauben an das mit ‚Gott‘ Gemeinte, zur Rolle der Religionen und Kirchen (siehe z.B. den Blog zum 24.Dez.2012 und seinen Teil 2).
(3)In diesem Zusammenhang bin ich auf das Buch von Stuart Alan Kauffman gestossen „Reinventing The Sacred. A new View of Science, Reason, and Religion.“ (etwa: Die Wiederentdeckung des Heiligen. Eine neue Sicht der Wissenschaft, des Verstandes und der Religion). Veröffentlicht 2008 (siehe weitere Angaben zu Kauffman unten).

EINSTIEG IN DAS BUCH

(4) Die Einleitung und das erste Kapitel sind ein wenig ’schleppend‘ und ich war schon fast versucht, es wieder weg zu legen, aber dann ab S.10 nimmt das Bucht deutlich Fahrt auf. Und ich habe den Eindruck, dieses Buch kann helfen, die neue Sicht insbesondere im Bereich Physik und Biologie weiter zu differenzieren. Außerdem hat das Buch die unangenehme Eigenschaft, dass Kauffman praktisch nirgends richtig zitiert. Es gibt zwar im Anhang verschiedene Quellenangaben, aber im Text werden die Namen von Autoren oder deren Aussagen zwar erwähnt, aber es gibt keine klare Quellenangaben. Das ist schade, ärgerlich und erschwert das Nachlesen (in diesem Blog mache ich das zwar auch sehr oft, aber es ist auch ein Blog und keine offizielle Veröffentlichung).
(5) Das große Thema des Buches ist nach Kauffman die Unzulänglichkeit einer Physik (bzw. der ganzen Naturwissenschaft), sofern sie sich ‚reduktionistisch‘ versteht, d.h. die Wirklichkeit ausschließlich interpretiert als Rückführung aller Phänomene auf eine Ansammlung von Teilchen. Dieser Denkweise hält er Fakten entgegen, die aus seiner Sicht etwas anderes repräsentieren: die ‚Emergenz‘ des Biologischen, das sich von der Molekülebene aus bis hin zu den komplexen gesellschaftlichen Ausprägungen als eine Form des ‚Zusammenwirken‘ zeigt, die sich nicht aus den physikalischen Gesetzen ableiten lässt, aber dennoch ‚real‘ ist. D.h. es gibt Realität, die uns alle bestimmt, die sich nicht physikalisch (bzw. allgemeiner ’naturwissenschaftlich‘) erklären lässt.
(6) In diesem ‚irreduziblen‘ Phänomen des ‚Biologischen‘ sieht Kauffman eine ‚Kreativität‘ am Werk, die typisch ist für diese Phänomene und er möchte den Begriff ‚Gott‘ für diese das ganze Universum durchwaltende ‚Kreativität‘ benutzen, sozusagen das mit ‚Gott‘ Gemeinte als das sich überall ‚kreativ‘ Zeigende und darin sich Manifestierende (vgl. z.B. S.XI). In diesem Verständnis sieht er einen Anknüpfungspunkt an den weltweiten Glauben an einen Schöpfergott (‚creator god‘), speziell natürlich in der jüdisch-christlichen Tradition (vgl. S.XII). Damit wird das Göttliche stückweise ‚empirisch‘, was neue Ansatzpunkte liefert für ein in der Welt lokalisierte ‚Spiritualität (’spirituality‘), für eine Wiederentdeckung des ‚Heiligen‘ (’sacred‘).(vgl. S.XII)
(7) Den ‚Reduktionismus‘ sieht er schon in den Anfängen der Wissenschaft (Galilei, Descartes, Newton, Laplace) gegeben (vgl. S.2), er kulminiert in der modernen Sicht, dass die Physik letztlich annimmt, dass wir ‚am Grunde‘ der Materie nur ‚Partikel oder Strings haben, die sich in Bewegung befinden‘ (vgl. S.3). Aber mit dieser Basis lässt sich die Vielfalt der biologischen Phänomene nicht beschreiben, auf keinen Fall ‚voraussagen‘. (vgl. S.3ff) Und von daher kann er sagen, dass diese (biologischen) Phänomene (dazu gehören auch die gesellschaftlichen Ausprägungen, insbesondere die Wirtschaft) jenseits der bisherigen Naturgesetze liegen. (Vgl. S.5)
(8) Für Kauffman charakteristisch am Biologischen ist neben seiner vollständigen Nicht-Voraussagbarkeit dass es sich trotz nicht vorhandener Gesetze quasi von selbst organisiert, eine große Vielfalt entwickelt, dabei aber kohärent bleibt.(vgl. S.6) Eine Besonderheit des Biologischen in ihrem selbstorganisatorischen Auftreten ist auch die Eigenschaft der ‚Agentenschaft‘ (‚agency‘), die einhergeht mit Fragen von ‚Werten‘ (‚values‘) und des ‚Tuns‘ (‚doings‘). Biologische Systeme sind nicht ’neutral‘, sondern sie sehen in allem ‚Werte‘. (vgl. SS.6-9)
(9) Und in diesem Kontext der sich überall zeigenden Kreativität wiederholt er seinen Vorschlag aus dem Vorwort, dass das mit ‚Gott‘ Gemeinte zu sehen ist als dasjenige, was sich in all dem manifestiert. Dazu gehört auch eine entsprechende ‚Mystik‘.(vgl. S.6,9)

REDUKTIONISMUS (VERSUCH DER ZURÜCKFÜHRUNG ALLER PHÄNOMENE AUF EINFACHSTE ELEMENTE)

(10)Der Punkt ohne Wiederkehr der Reduktionisten sind die einfachsten, kleinsten Elemente/ Teilchen/ Strings mit ihrer ‚Selbstbewegung‘, hinter und neben denen nichts mehr geht. Kauffman zitiert hier u.a. das Diktum des (großen?) Physikers Weinberg „Je mehr wir das Universum verstehen, umso bedeutungsloser wird es.“(vgl. S.10)
(11)Diese Art des reduktionistischen Denkens weist vielerlei Schwachstellen und Ungereimtheiten auf. Ungereimtheiten, die nah betrachtet eigentlich schon eher eklatante Denkfehler sind, bei denen man sich nur wundern kann, dass Nobelpreisträger sie nicht wahrhaben wollen. Doch zunächst wiederholt Kaufffman einige dieser Ungereimtheiten auf den SS.10-18. Mit der Fixierung des Blicks auf letzte kleinste Elemente gibt es keine ‚Handelnde‘ (‚agency‘) mehr, damit keine ‚Werte‘ und keine ‚Bedeutung‘. Eine ‚teleologische Sprache‘ ist verpönt. Newtons Gesetze induzieren einen umfassenden Determinismus (allerdings noch mit einer umkehrbaren Zeit!). Theistische Gottesauffassungen tendieren nun zu ‚Deistischen‘ (Gott als ‚Uhrmacher‘-Typ…); Gott interveniert nicht mehr. (vgl.S.15) Ein ‚freier Wille‘ wird fragwürdig. Wie soll der Geist mit einem mechanistischen Körper interagieren? Descartes kreiert den expliziten Dualismus.(vgl. S.15)

ARGUMENTE GEGEN EINEN NAIVEN REDUKTIONISMUS

(12)Kauffman zitiert auf den SS.19-21 den Physiker und Nobelpreisträger Philip W.Anderson, der in einer Arbeit 1972 darauf aufmerksam gemacht hat, dass es mit steigender Komplexität in der Anordnung der Atome in Moleküle ‚Symmetriebrüche‘ dahingehend gibt, dass die Lokalisierung der Atome in diesen Verbindungen ab einem bestimmten Punkt nicht mehr in alle mögliche Richtungen stattfindet, sondern nur noch in bestimmte (man spricht von ‚Chiralität‘ im Sinne von ‚Rechts-‚ oder ‚Linkshändigkeit‘). Dies bedeutet, dass auf einer ‚höheren‘ Organisationsebene ‚Phänomene‘ ‚real‘ werden, die sich nicht aus den einzelnen ‚Bestandteilen‘ ‚ableiten‘ lassen. Ein Reduktionismus würde hier nicht nur nichts erklären, sondern würde – im Gegenteil – reale Phänomene ‚leugnen‘.
(13)Kauffman zitiert auf den SS.22f nochmals Anderson mit einer Überlegung zur Berechenbarkeit und dass dieser Berechenbarkeitsbegriff nicht auf physikalischen Eigenschaften beruht. Hier gehen nach meinem Verständnis aber verschiedene Dinge durcheinander. (i) Die Vermischung des Konzepts ‚Turingmaschine‘ von Turing mit dem Rechnerarchitekturkonzept von von Neumann: Turing hatte keine Rechnerarchitektur beschrieben sondern ein logisch-mathematisches Konzept für Berechenbarkeit formuliert, das keinerlei Annahmen bzgl. einer bestimmten Architektur trifft (im Gegensatz zu von Neumann); (ii) die Anführung der Unentscheidbarkeits- und Unvollständigkeitsbeweise von Goedel und Turing an dieser Stelle wirken ein wenig ‚Beziehungslos‘; man weiß nicht so richtig, was sie hier sollen; (iii) die Beweise mit Hilfe der Turingmaschine sind nicht an konkrete physikalische Eigenschaften geknüpft: dies benutzt Anderson/ Kauffman als Argumente gegen den Reduktionismus. Hier zeigen sich Eigenschaften auf einer ‚höheren Ebene‘, die sich nicht auf einzelne Bestandteil zurückführen lassen.
(14)Kauffman erwähnt auf SS.23f das philosophische Konzept der ’supervenience‘ (von vielen einzelnen Aussagen auf einer ‚tieferen‘ Ebene auf eine Aussage auf einer ‚höheren‘ Ebene schließen, wobei die ‚höhere‘ Ebene ‚types‘ (Typen, Klassen) verkörpert und die tiefere (Realisierungs-)Ebene ‚token‘ (Instanzen, Elemente der Klassen). Diese Einlassung bleibt allerdings zu vage, um ihre Tragweite beurteilen zu können.
(15)Kauffman zitiert dann einen anderen Nobelpreisträger, den Physiker Robert Laughlin (SS.24f). Am Beispiel von Gasen und festen Körpern macht Laughlin darauf aufmerksam, dass viele reale Eigenschaften von solchen großen Aggregaten nur messbar und definierbar sind auf der Ebene der Gesamtaggregate; eine Rückführung auf die einzelnen Bestandteile macht keinen Sinn.
(16)Kauffman zitiert ferner (S.25) den Physiker Leo Kadanoff (kein Nobelpreisträger, aber lange Jahre Präsident der amerikanischen Gesellschaft der Physiker (‚American Physical Society (APS)‘). Er konnte aufzeigen, dass die Navier-Stokes Gleichungen für das Verhalten von Flüssigkeiten, die nicht quantenmechanisch abgeleitet werden können, von einem idealisierten (mathematischen) Modell abgeleitet werden können. Auch diese Eigenschaften hängen also nicht ab von den zugrunde liegenden Elementen/ Teilchen/ Strings.
(17)Auf den SS.25-27 erwähnt Kauffman das Beispiel der klassischen Thermodynamik von Sadi Carnot, nach dem (2.Hauptsatz der Thermodynamik) die Entropie in einem geschlossenen System nur zunehmen kann. Dies bedeutet, dass die Zeit nur eine Richtung kennt. Damit entsteht ein Widerspruch zur klassischen Mechanik von Newton, in der die Zeit sowohl ‚vorwärts‘ wie auch ‚rückwärts‘ laufen konnte. Boltzman, Gibbs und andere haben zwar versucht, diesen Widerspruch durch Einführung der statistischen Mechanik zu lösen (alle Elemente streben dem Zustand einer ‚höheren Wahrscheinlichkeit‘ zu), aber diese Begründung erfolgt nicht aus den Elementen selbst, sondern aufgrund von Zusammenhängen, die über die einzelnen Elemente hinausgehen (Kauffman zitiert stattdessen ein anderes Argument, das mich nicht überzeugt).
(18)Auf den SS.27f diskutiert Kauffman das Problem der Naturkonstanten. Das Standard-Modell der Physik vereint mit der allgemeinen Relativitätstheorie können das bekannte Universum nur erklären, wenn sie 23 spezielle Naturkonstanten annehmen. Die konkreten Werte dieser Konstanten lassen sich nicht irgend woher aus einem Modell generisch ableiten, sondern müssen speziell, von Hand, bestimmt werden. Verändert man einzelne Werte auch nur geringfügig, dann hätten wir ein vollständig anderes Universum. Nach dem Physiker Lee Smolin würde schon eine Abweichung in der Größenordnung von (1/10)^27 das Universum ‚lebensunfreundlich‘ machen. (Vgl.S.28). Diese speziellen Makroeigenschaften lassen sich in keiner Weise aus den bekannten Eigenschaften der einzelnen Elemente/ Teilchen/ Strings ableiten. Sie zeigen sich nur im Zusammenhang.
(19)Mögliche Antworten (vgl. S.28f) sind das starke und das schwache anthropische Prinzip: (i) Im starken anthropischen Prinzip wird ein Schöpfer-Gott angenommen, der die Welt genauso geschaffen hat, wie sie nun mal für ‚Leben‘ günstig ist. Dies ist aber keine überzeugende Antwort. (ii) Im schwachen anthropischen Prinzip nimmt man eine Vielzahl von Welten an. Einige von diesen haben die Parameter so, wie sie für das Leben ‚günstig‘ sind; unser Universum ist eines davon.
(20)Die Annahme einer Vielzahl möglicher Universen hat bislang die meisten Argumente für sich. Die Position des klassischen Reduktionismus wirkt in diesem Kontext mehrfach unglaubwürdig und letztlich argumentativ schwach.

DIE NICHTREDUZIERBARKEIT DER BIOLOGIE AUF DIE PHYSIK

(21)Auf den Seiten 31-43 entwickelt Kauffman zusätzliche Argumente, warum der klassische Reduktionismus nicht funktioniert, indem er die Besonderheiten der Biologie thematisiert. Allerdings springt er nach meinem Verständnis bisweilen zwischen verschiedenen Argumenten im Text hin und her, was die Argumentation erschwert.
(22)So ist der anfängliche Hinweis des Einflusses von Malthus auf Darwin wenig geeignet, die Besonderheit des Phänomens des Biologischen heraus zu stellen. Dies ist schon eher gegeben mit der Einsicht Darwins, dass zwischen der Elterngeneration und der Kindgeneration Veränderungen stattfinden können, die je nach Kontext mehr oder weniger ‚erfolgreich‘ sein können. Dies führte einerseits zum Aufsprengen des statischen Klassifikationssystems von Carl Linnaeus (vgl. S.32) und erlaubte eine zunehmende ‚logische‘ Interpretation der geologischen Befunde. (vgl.S.33) In den 1930igern vereinigte sich das evolutionäre Konzept Darwins mit der modernen Genetik (Mayer, Dobzhansky u.a.), weiter intensiviert durch die Erkenntnisse der Molekularbiologie ab den 1950igern (Watson, Crick u.a.).(vgl. S.33) Das Feststellen von Eigenschaften auf höherer Ebene der Komplexität, die sich nicht aus den zugrunde liegenden Elementen direkt ableiten lassen, nennt Kauffman dann ‚epistemologische Emergenz‘ (also etwa ‚Emergenz aus erkenntnistheoretischer Sicht‘), und die reale Gegebenheit von biologischen Strukturen höherer Komplexität bezeichnet er als ‚ontologische Emergenz‘. (vgl. S.34)
(23)Die Entstehung der vielen, immer komplexeren Arten, dazu stark variierend, lässt sich nach Kauffman nicht allein aus den beteiligten Elementen ableiten. Dies ist allein schon deshalb schwierig, weil viele wichtige beteiligten Faktoren ‚zufälliger‘ Natur sind. (vgl. S.37f) Dazu kommt aber noch ein ganz anderer Umstand. Nimmt man – mit den meisten Physikern – an, dass die Raum-Zeit kontinuierlich ist [Anmerkung: was nicht zwingend der Fall sein muss], dann hat Georg Cantor (1845 – 1918) aufgezeigt, dass die reellen Zahlen eine überabzählbar große Menge darstellen. Dies bedeutet, man kann sie nicht aufzählen. Dies wiederum bedeutet, dass es keinen Computer geben kann, diese Menge zu simulieren. Dies gilt dann auch für ein Universum mit einer kontinuierlichen Raum-Zeit.(vgl. S.39f)
(24)Dieses letzte Argument von Kauffman mit der Nichtaufzählbarkeit empfinde ich als wenig zwingend (wenngleich die Nichtaufzählbarkeit als solche natürlich Fakt ist). Wichtiger sind vielmehr jene Argumente, die auf zentrale Eigenschaften des Biologischen abheben, die sich nicht aus den Bestandteilen alleine ableiten lassen. In diesem Sinne verweist Kauffman auf den Umstand, dass der Mechanismus der Selbstreproduktion nicht an ein bestimmtes Material gebunden ist und sich von daher im gesamten Universum ‚irgendwo‘ ereignen könnte. (vgl. S.40f) In diesen Zusammenhang gehört das Astrobiologie-Programm und die Entwicklung einer ‚Allgemeinen Biologie‘, die über die Bedingungen des Lebens auch jenseits der Bedingungen auf der Erde nachdenkt.
(25)Kauffman spekuliert dann auch darüber, dass die Entdeckung des evolutionären Prinzips durch Darwin nicht nach dem Muster der ‚Induktion‘ entstanden sei, also viele einzelne Beispiele und dann eine verallgemeinernde Idee, sondern dass Darwins Überlegungen auf einer komplexeren Ebene abgelaufen seien, auf der er seine Konzepte definiert habe. (vgl.41-43) Diese Überlegungen erscheinen mir sehr spekulativ und wenig hilfreich. Entscheidend ist, ob wir empirische Phänomene einer Art P haben, die sich nicht aus den Eigenschaften P‘ vermuteter ‚einfacherer‘ Bestandteile direkt ableiten lassen. Wenn nicht, dann haben wir mit den Phänomenen P ‚genuine‘ empirische Phänomene, die erst auf einer höheren Organisationsstufe ’sichtbar‘ werden. Ob diese Einsichten ‚induktiv‘ oder ‚deduktiv‘ gewonnen wurden, spielt keine Rolle.
(26)Als solche ‚genuinen‘ Eigenschaften der Biologie nennt Kauffman Eigenschaften wie sie mit den Begriffen ‚Leben‘, ‚Handelnder‘, ‚Wert‘, ‚Bedeutung‘, ‚Bewusstsein‘ bezeichnet werden.

URSPRUNG DES LEBENS

(27)Auf den SS.44-71 versucht Kauffman, den Ursprung des Lebens mit den Augen einer Allgemeinen Biologie zu bestimmen, die als Disziplin nicht nur völlig eigenständig gegenüber einer Physik ist, sondern darüber hinaus diese sogar beeinflussen und herausfordern kann. [ANMERKUNG: in einem Gespräch mit meinem Freund, dem Physiker MW (nicht zu verwechseln mit dem Physiker vom Cafe Siesmayer, das war der Freund und Physiker MK), hatten wir letztlich den Punkt der Disziplingrenzen diskutiert. Er meinte, dass es keine klaren Grenzen gäbe, wo die Physik anfängt oder aufhört. Letztlich hat die Physik einen ganz allgemeinen Erklärungsanspruch bzgl. der erfahrbaren Natur. Wenn sie das Biologische als eigenständiges Naturphänomen akzeptieren würde – woran sie niemand hindern kann außer sie sich selbst – dann gäbe es keine Abgrenzung hin zur Biologie).
(28) Die Ideen zur Entstehung des Lebens konzentrieren sich letztlich um die Frage eines geeigneten Modells, die Entstehung einer biologischen Zelle zu erklären. Eine Zelle wird dabei als ein ‚offenes System‘ angenommen, das sich nicht in einem Gleichgewichtszustand‘ befindet und zur Erhaltung dieses Nicht-Gleichgewichts beständig Energie zuführen muss. Zusätzlich besitzt sie die besondere Eigenschaft, sich selbst vollständig zu Duplizieren. (vgl.S.46f) Da eine ’normale‘ Zelle schon sehr komplex ist, wird nach ‚einfacheren Vorläuferstufen‘ gefragt, aus denen sich dann das komplexere Modell herleiten lässt.
(29)Nach Kauffman versteht die Wissenchaft bis heute nicht genau, wie die Verdopplungsfähigkeit genau funktioniert. Er will daher zunächst der Frage nachgehen wie sich Moleküle in einfachen Systemen reduplizieren können.(vgl.S.47)
(30)Kauffman diskutiert dann mehrere Theorieansätze (vgl. SS.47-54), bis er den Theorieansatz vorstellt, den er ‚kollektive Autokatalyse‘ nennt. Damit ist gemeint, dass die Molküle einer Menge sich zwar nicht selbst reproduzieren können, aber sie dienen sich wechselseitig als Katalysatoren, dass andere Moleküle dies tun können.(vgl. S.55) In diesem Sinne sind z.B. die Zellen in unserem Körper ‚autokatalytische‘ Zellen: die einzelnen Moleküle in der Zelle können sich selbst nicht vermehren, aber die Zelle als ganze wirkt als Katalysator dafür, dass die vielen Moleküle im Innern der Zelle dies können.(vgl.S.56) Dies bedeutet, dass das Gesamtverhalten ein wesentlicher Faktor darstellt, damit zwischen den Elementen bestimmten Reaktionen möglich sind.(vgl. S.58f)
(31)Für die Theorie der autokatalytischen Mengen benutzt Kauffman das Konzept des ‚Zufallsgraphen‘ (random graphs) von Paul Erdös und Alfréd Rényi (1959), der dann zum Konzept des ‚chemisch-Reaktionsgraphen‘ erweitert wird. Die verschiedenen chemischen Reaktionen werden dann in Form unterschiedlicher verbindender Kanten/ Pfeile repräsentiert. (vgl.SS.61ff) Mit Hilfe dieses Graphenkonzeptes lässt sich einfach ein ‚aktueller‘ Zustand definieren und ein ‚Nachfolgezustand‘, durch den die Menge der ‚möglichen neuen Nachbarn‘ (‚the adjacent possible‘) definierbar wird.(vgl.S.64) Im Übergang zu den neuen Nachbarn wird ein neuer aktueller Zustand zusammen mit den soeben neuen Nachbarn definiert, der wieder neue Nachbarn erlaubt, usw. Mit Hilfe dieses ‚Ausbreitungskonzeptes‘ will Kauffman auch ‚Kreativität‘ definieren, die Kreativität des Universums. (vgl. S.64) Simulation einfacher Modelle solcher autokatalytischer Mengen haben nun gezeigt, dass ab einer bestimmten Anzahl von Elementen die ‚Reaktionsdichte‘ natürlicherweise zunimmt, was dann sehr schnell zu großen ‚Clustern‘ führt.(vgl.S.65f)
(32)Andere haben diese Modelle dahingehend weiterentwickelt, dass sie sich ‚vererben‘ können und bei dieser Vererbung Veränderungen erlauben.(vgl. S.67f) Weitere Eigenschaften (Quellen von freier Energie, Metabolismus) lassen sich in dieses Modell integrieren. (vgl.SS.68-70) Noch ist offen, ob sich dieses mathematische Modell voll lauf reale Molekülmengen anwenden lässt. Klar ist allerdings, dass sich die Eigenschaften des Gesamtsystems nicht aus den Bestandteilen alleine herleiten lässt. Ein klassischer Reduktionismus wäre also ausgeschlossen.
(33)Fortsetzung folgt … kritische Auseinandersetzung am Schluss…

Fortsetzung von TEIL 2

Quellen:

Kauffman, S.A., Reinventing the Sacred. A new View of Science, Reason, and Religion. New York: Basic Books, 2008 (Paperback 2010)

Über S.A.Kauffman in der Englischen Wikipedia: http://en.wikipedia.org/wiki/Stuart_Kauffman (Zuletzt besucht 5.Jan.2013)

Interessante Vorlesungen von Kauffman als Videos: http://csb.cs.tut.fi/stu_news.php (Zuletzt besucht 5.Jan.2013)

Eine Übersicht über alle bisherige Blogeinträge nach Themen findet sich HIER

Der Ursprung und die Evolution des Lebens auf der Erde. Leben als ein kosmischer Imperativ. Reflexionen zum Buch von Christian de Duve. Teil 2

Christian de Duve, VITAL DUST. Life as a Cosmic Imperative, New York: Basic Books, 1995

Beginn: 20.Okt.2012, 18:10h

Letzte Änderung: 25.Okt.2012, 07:40h

Für Teil1 siehe HIER.

  1. Duve beginnt seine Rekonstruktion in der Frühzeit der Erde, in der es zwar einfache chemische Stoffe gab, insbesondere die fünf häufigsten Elemente (CHNOPS = (C) Carbon = Kohlenstof, (H) Hydrogen = Wasserstoff, (N) Nitrogen, (O) Oxygen = Sauerstoff, (P) Phosphor, (S) Sulfur = Schwefel ), aber noch nicht die komplexen Verbindungen, die im späteren Verlauf wichtige Funktionen im Leben übernahmen.(vgl. S.15)
  2. Die Frage nach der genauen Konstellation von chemischen Elementen in der Frühzeit der Erde für die Entstehung lebensermöglichender (:= biogener) chemischer Verbindungen lässt sich bislang noch nicht vollständig klären. Als hauptsächlichste Szenarien werden favorisiert entweder flache warme Gewässer oder hydrothermale Schlote in dunkler Tiefsee oder Kombinationen von beidem.(vgl. 15-18)
  3. Verschiedene theoretische Ansätze (Oparin 1924, Watson und Crick 1953), sowie neuartige Experimente (Miller und Urey 1952/ 1953) zeigten auf, dass rein chemische Prozesse möglich sind, die zur Bildung komplexerer biogener Verbindungen führen können; allerdings wurden in keinem Experiment jene chemischen Verbindungen gefunden, die für biogene Verbindungen als ausreichend erachtet werden.(vgl. S.18f)
  4. Mit der Verbesserung der Beobachtungsmethoden und hier speziell der Spektroskopie konnte man herausfinden, dass sich im interstellaren Raum überall nicht nur genügend chemische Elemente finden, sondern sogar viele chemische Verbindungen, die als biogen qualifiziert werden können. Zusammenfassend gilt es nach Duve als erwiesen, dass zahlreiche biogene chemische Verbindungen sowohl unter den Bedingungen der frühen Erde, im interstellaren Raum, wie auch in Kometen und Meteoriten entstehen können und die extraterrestrischen Verbindungen ein Eindringen in die Atmosphäre der Erde samt Aufschlag überleben können. (vgl. S.19f)
  5. Für das Zusammenwirken verschiedener chemischer Verbindungen in Richtung Ermöglichung von noch komplexeren biogenen chemischen Verbindungen geht Duve von folgenden Annahmen aus: (i) Aminosäuren sind die auffälligsten (‚conspicuous‘) chemischen Verbindungen der abiotischen Chemie auf der Erde wie auch im interstellaren Raum; (ii) Aminosäuren sind die Bausteine von Proteinen; (iii) Proteine sind zentrale Faktoren in biologischen Strukturen, insbesondere funktionieren Proteine in heutigen biologischen Strukturen als ‚Enzyme‘, durch die wichtige chemische Reaktionen stattfinden; (iv) nach Cricks Hypothese von 1957 fließt ‚Information‘ [Anmk: Begriff hier nicht erklärt, aber im nächsten Abschnitt] immer von den Nukleinsäuren zu den Proteinen, niemals umgekehrt. Letztere Hypothese wurde von Czech und Altmann dahingehend unterstützt, als diese Wissenschaftler herausfanden, dass Nukleinsäuren (’nucleic acids‘) in Form von Ribonucleinsäuren (RNA) katalytische Eigenschaften besitzen und es eben die RNA ist, die in heutigen biologischen Strukturen sowohl die Informationen zur Konstruktion von Proteinen besitzt wie auch katalytische Eigenschaften, um solche Prozesse in Gang zu setzen. Die Hypothese von der ‚RNA-Welt‘ war geboren, die der Proteinwelt vorausgeht. (vgl.SS.20-22)
  6. Ein RNA-Molekül besteht aus vielen (tausenden) Elementen genannt ‚Nukleotide‘, die jeweils aus einer Strukturkomponente und einer Informationskomponente bestehen. Eine Informationskomponente ist ein ein 4-elementiges Wort über dem Alphabet {A,G,C,U}(‚Adenin, Guanin, Cyatin, Uracil‘). Nach Duve ist es bislang nicht klar, wie es unter den Bedingungen der frühen Erde zur Ausbildung von RNA-Molekülen kommen konnte.(vgl.S.22f)
  7. [Anmerkung: Die Anzahl möglicher RNA-Moleküle ist rein theoretisch immens groß. Schon bei einer Länge von nur 100 Nukleotiden gibt es 1.6*10^60 viele mögliche Ausprägungen. Bei einer Länge von 1000, also 4^1000, versagt schon ein Standardrechenprogramm auf einem Standardcomputer, um die Zahl auszurechnen. ‚Reale RNA-Moleküle‘ – nennen wir sie RNA+ — bilden nur eine kleine Teilmenge aus der Menge der theoretisch möglichen RNA-Moleküle – also RNA+ subset RNA –. Die RNA+ repräsentieren diejenige Menge, die unter den realen Bedingungen der Erde chemisch möglich sind und die einen ‚Mehrwert‘ liefern. ]
  8. Von ‚hinten her‘ betrachtet ist klar, dass es einen Weg von den einfachen chemischen Verbindungen zu den komplexen biologischen Strukturen geben musste. Vom heute bekannten chemischen Mechanismus her ist ferner klar, dass es ein Weg von vielen kleinen Schritten gewesen sein musste, der immer nur von dem ausgehen konnte, was zu einem bestimmten Zeitpunkt gerade erreicht worden war. Nach Duve sollte man den Weg der chemischen Evolution anhand der Rolle der Enzyme untersuchen. Denn Enzyme sind für fast alle chemischen Reaktionen wichtig. Wenn es aber keine Proteine waren, die diese katalytische (= enzymatische) Rolle spielten [, da diese ja erst durch die RNA-Moleküle gezielt produziert wurden?], welche chemischen Verbindungen waren es dann? (vgl. SS.24-26)
  9. Elemente, die ‚katalytisch‘ wirken, beschreibt Duve als solche, durch deren Präsenz andere Moleküle miteinander reagieren und sich verbinden können, ohne dass die katalytischen Elemente selbst dabei ‚konsumiert‘ würden. Die katalytischen Elemente können daher beliebig oft ihre Wirkung entfalten. Zusätzlich bewirken katalytische Elemente in der Regel eine ‚Beschleunigung‘ des Prozesses und sie tragen dazu bei, dass sich die ‚Ausbeute‘ (‚yield‘) erhöht. (vgl. S.26f)
  10. Duve zitiert dann unterschiedliche theoretische Ansätze, mit welchen chemischen Stoffen sich katalytische Wirkungen erzielten lassen können sollten. Bislang konnte aber keiner der vielen Ansätze wirklich überzeugen.(vgl. S.28f)
  11. Besonders erwähnt werden ‚Peptide‘; dies sind Ketten von aneinandergereihten Aminosäuren. Die Übergänge zwischen Peptiden, Polypeptiden und Proteinen sind fließend. Aminosäuren, aus denen Peptide (und Proteine) bestehen, gehörten – nach Annahme – zu den ersten organischen Verbindungen der frühen Erde. Und erste Entdeckungen von möglichen Verbindungsarten (‚bonds‘), die aus Aminosäuren erste einfache ‚Ketten‘ machen können, wurden in den 1950iger Jahren gemeldet.(vgl.S.29f)
  12. Eine besondere Rolle scheinen nach Duve hier Verbindungen der Art ‚Esther‘ und ‚Thioesther‘ zu spielen. Nicht nur, dass diese in der heute bekannten Welt eine Schlüsselrolle spielen, sondern die Thioester entstehen aus dem Gas ‚Schwefelwasserstoff‘ (H_2S), das auf der frühen Erde überall vorhanden war. Allerdings gilt für diese Verbindungen, dass ihre Synthese die Verfügbarkeit von Kondensierungsprozessen voraussetzen, die ‚Energie‘ benötigen, um Sauerstoffatome herauszulösen. Die Machbarkeit dieser Synthesen unter Bedingungen, die der frühen Erde zu gleichen scheinen, wurde 1993 von Miller und Schlesinger demonstriert. (vgl.S.30-32)
  13. Aus all diesen verschiedenen Teilerkenntnissen bildet Duve seine persönliche Arbeitshypothese, dass relativ kurze und nicht zu geordnete Ketten von Aminosäuren entstehen konnten, die Duve dann ‚Multimere‘ nennt, ‚kürzer‘ als ‚Polymere‘, aber mehr als ‚Oligomere‘. Allerdings war eine solche Entstehung nur dann möglich, wenn genügend ‚Energie‘ zur Verfügung stand, diese Komplexifikationsprozesse zu unterstützen. Grundsätzlich gab es in und auf der frühen Erde genügend Energie. (vgl. S.32-34)
  14. Im Kern ist gefordert, Mechanismen zu finden, durch die Elektronen ihre Energieniveaus ändern, entweder mittels Energie ihr ‚Niveau‘ erhöhen oder vermindern. Dies kann verbunden sein mit einem ‚Transfer‘ von einem Ort, dem ‚Elektronen-Spender (‚donor‘)(mit höherem Energielevel), zum ‚Elektronen-Empfänger (‚acceptor‘)(niedrigerer Energielevel). Sowohl der Spender wie der Empfänger ändern dadurch ihre chemische Natur. Der Verlust von Elektronen wird auch ‚Oxidation‘ genannt, der Gewinn ‚Reduktion‘. Duve berichtet von zwei solcher Mechanismen: einer, der mit UV-Strahlen und Eisenionen in Oberflächenwasser funktioniert, ein anderer, der an das Vorhandensein von Schwefelwasserstoff gebunden ist, was in den dunklen Tiefen der Weltmeere gegeben war. Mit diesen Überlegungen wurde die Möglichkeit der Verfügbarkeit von Elektronen sichtbar gemacht; wie steht es aber mit der ‚Synthese‘, dem Herstellen von ‚Verbindungen‘ (‚bonds‘) zwischen Elementen? (vgl. SS.35-39)
  15. Überlegungen zum ATP-Molekül und seinen diversen Vorstufen (AMP –> ADP –> ATP) führen zur Klärung von zwei möglichen Synthesemöglichkeiten: Pyrophosphate oder Thioester. (vgl. SS.39-41) Entscheidend dabei ist, dass der Elektronentransfer eingebettet ist in einen Kreislauf, der sich wiederholen kann und dass die gespendeten Elektronen direkt nutzbar sind für Synthesen. Ein zentraler Mechanismus im Kontext von gespendeten Elektronen ist nach Duve die Erzeugung (‚formation‘) von Thioester, der dann im weiteren Schritt zur Erzeugung von ATP führen kann. Thioester kommen in heutigen biologischen Systemen eine Schlüsselrolle zu. Das Problem: sie brauchen zu ihrer Entstehung selbst Energie. Bei genügender Hitze und in der Gegenwart von Säure kann Thiol sich allerdings spontan zu Thioester verbinden. Die zahlreichen heißen Quellen in der Tiefsee bieten solche Bedingungen. Alternativ können solche Prozesse aber auch in der Atmosphäre ablaufen oder, ganz anders, im Wasser, mit Unterstützung von UV-Licht und Eisen-(III) (= ‚ferric iron‘) bzw. Eisen-(II) (=ferrous iron‘), wodurch sich Thioester-Verbindungen erzeugen lassen. Duve sagt ausdrücklich, dass es sich hier um Arbeitshypothesen aufgrund der ihm verfügbaren Evidenzen handelt. (vgl. SS.41-45)
  16. [Anmerkung: Die Vielfalt und Tiefe der Details im Text von Duve, die in dieser Zusammenfassung stark abgemildert wurden, sollte nicht vergessen lassen, dass es bei all diesen Untersuchungen letztlich um einige wenige Hauptthemen geht. Grundsätzlich geht es um die Frage, wie überhaupt Mechanismen denkbar sind, die scheinbar gegen die Entropie arbeiten. Und letztlich wird sichtbar, dass es die zur Zeit im Universum noch frei verfügbare Energie ist, die das Freisetzen von Elektronen auf einem höheren Energieniveau ermöglichen, wodurch andere Prozesse (katalytisch) ermöglicht werden, die zu neuen Bindungen führen. Und es sind genau diese neuen Verbindungen, durch die sich ‚Information‘ in neuer Weise bilden kann, eine Art ‚prozeßgesteuerte Information‘. Dass diese prozeßgesteuerte Information in Form von Peptiden, dann RNAs und DNAs schließlich fähig ist, immer komplexere chemische Prozesse selbst zu steuern, Prozesse, in denen u.a. dann Proteine entstehen können, die immer komplexere materielle Strukturen bilden mit mehr Informationen und mit mehr Energieverbrauch, das ist aus der puren chemischen Kombinatorik, aus den primären physikalischen Eigenschaften der beteiligten Komponenten nicht direkt ablesbar.
  17. Dies zeigt sich eigentlich erst auf einer ‚Metaebene‘ zur primären Struktur, im Lichte von Abstraktionen unter Benutzung symbolischer Strukturen (Theorien), im Raum des ‚bewussten Denkens‘, das selbst in seinem Format ein Produkt dieses biologischen Informationsgeschehens ist. Die schiere Größe des mathematischen kombinatorischen Raumes der Möglichkeiten, wie die beteiligen Materialien sich formieren können, zeigt die absolute Unsinnigkeit, dieses komplexe Geschehen vollständig dem ‚reinen Zufall‘ zuzuschreiben. Aus der denkerischen Unmöglichkeit einer bloß zufallsgesteuerten Entstehung von Leben folgt zwingend, dass die zufälligen Generatoren eingebettet sein müssen in einen Kontext von ‚Präferenzen‘, die sich aus dem gesamten Kontext (Energie –> Materie –> Sterne, Planeten… –> Planet Erde –> physikalisch-chemische Eigenschaften …) herleiten. Die Entstehung bestimmter chemischer Verbindungen ist eben nicht beliebig sondern folgt den physikalischen Eigenschaften der beteiligten Komponenten. Determinismus kombiniert mit freier Kombinatorik ist ein Medium von Emergenz, in dem sich offensichtlich Schritt für Schritt all das zeigt, was in der ‚Vorgabe‘ der beteiligten materiellen Strukturen ‚angelegt‘ ist.
  18. Legt man die aus der Vergangenheit bekannten Deutungen von ‚Materie‘ und ‚Geist‘ als ‚zeitgebunden‘ und heute irreführend beiseite, dann zeigt sich das atemberaubende Bild einer graduellen, inkrementellen ‚Sichtbarwerdung‘ von ’neuem Geist‘ als der ‚inneren Form der Materie‘ sprich der ‚inneren Form der Energie‘. Alle mir bekannten ‚Bilder‘ und ‚Sprechweisen‘ von ‚Geist‘ und ‚Seele‘ aus der Vergangenheit sind, verglichen mit dem Bild, das sich uns heute mehr und mehr bietet geradezu armselig und primitiv. Warum tun wir uns dies an? Literatur, Musik, bildende Künste usw. sind Ausformung von ‚Geist‘, ja, aber eben von einem universalen kosmischen Geist, der alles bis in die allerletzten Winkel der Atome und atomaren Partikel durchdringt, und der die ‚künstliche Abschottung‘ der sogenannten ‚Geisteswissenschaften‘ von den ‚Naturwissenschaften in keiner Weise mehr gerechtfertigt erscheinen lässt.]
  19. Duve lässt keinen Zweifel an dem hochspekulativen Charakter seiner Überlegungen zu den Vorstufen einer möglichen RNA-Welt. Die verschiedenen Überlegungen, die er vorstellt, klingen nichtsdestoweniger interessant und lassen mögliche Mechanismen erkennen. Klar ist auf jeden Fall, dass mit dem Auftreten ‚informationsrelevanter‘ RNA-Moleküle das Zeitalter der ‚chemischen Evolution‘ – ohne erkennbare autonom wirkender Informationsstrukturen – zu Ende geht und mit dem Auftreten von RNA-Molekülen das Zeitalter der ‚biologischen Evolution‘ beginnt. Leitprinzip in allem Geschehen ist die Einhaltung der physikalisch-chemischen Gesetze und der Aufbau des Komplexeren aus einfacheren Vorstufen. (vgl. SS.46-51)


  20. Fortsetzung Teil 3

 

Für einen Überblick über alle bisherigen Einträge nach Titeln siehe HIER