RINGEN UM DAS BEWUSSTSEIN. BEISPIEL CHALMERS 1995 – Problem of Consciousness

(Letzte Aktualisierung: Do 28.Juli 2016, 13:06h)

David J.Chalmers, FACING UP THE PROBLEM OF CONSCIOUSNESS, Journal of Consciousness Studies, 2, No. 3, 1995, pp.200-219

KONTEXT

  1. In einem vorausgehenden Blogeintrag mit dem Titel THOMPSON: MIND IN LIFE – Review – Teil 1 hatte ich damit begonnen, eine neue Variante phänomenologischer Forschung zu besprechen, die unter dem Titel Neurophänomenologie begründet worden war. Dieser Ansatz geht zurück auf Varela, der dazu 1996 einen grundlegenden Artikel im JoCS geschrieben hatte, in dem er wiederum auf einen Artikel von Chalmers 1995 geantwortet hatte. Seine Antwort umfasste dann gleich einen kompletten konstruktiven Vorschlag, wie man es anders machen könnte. Bevor der Artikel von Varela hier zur Sprache kommen soll, hier zunächst eine Reflexion auf den Beitrag von Chalmers 1995, der seitdem in zahllosen weiteren Artikeln intensiv diskutiert worden ist.

OBJEKTIV – SUBJEKTIV

Rekonstruktion der theoretischen Begriffe von Chalmers (1995) Kap.1-2

Rekonstruktion der theoretischen Begriffe von Chalmers (1995) Kap.1-2

  1. Im Kapitel 2 (siehe Bild) startet Chalmers seine Überlegungen zum Bewusstsein mit einer Fallunterscheidung in objektive Aspekte des Problems und in subjektive Aspekte.

  2. Die objektiven Aspekte lassen sich nach Chalmers – im Prinzip – im Rahmen der bekannten wissenschaftlichen Disziplinen relativ einfach aufklären. Als wissenschaftliche Disziplinen führt er nur eine einzige an, nämlich die Kognitionswissenschaft (‚cognitive science‘), innerhalb deren er drei methodische Ansätze unterscheidet: computerhaft (‚computational‘), neurophysiologisch und neuronal (’neural‘).

  3. Als Phänomene, die er für die Methoden der Kognitionswissenschaft im Prinzip als einfach (‚easy‘) erklärbar einstuft, zählt er auf: Umgebungsreize, verbale Äußerungen, Aufmerksamkeit, Verhaltenskontrolle, Wachheit und Schlaf, Verhaltenskontrolle und diverse interne Zustände.

  4. Daneben erkennt er aber auch noch eine subjektive Dimension im Wirklichkeitszugang. Diese erschließt sich im Darin sein (‚to be in them‘) in inneren, mentalen Zuständen. Hier trifft man auf Phänomene, Qualia, befindet man sich im Raum des Bewusstseins, im Bewusstsein.

  5. Die subjektive Dimension befindet sich außerhalb des Zugriffs der objektiven Methoden. Insofern nennt er die Fragen des Bewusstseins, die sich im subjektivne Zugang erschließen, als harte (‚hard‘) Fragen. Er spricht hier vom harten Problem (‚hard problem‘) des Bewusstseins.

FUNKTIONALE ERKLÄRUNG MIT GRENZEN

Chalmers (1995) Kap.3 Behauptungen zur begrifflichen Kluft zwischen funktionaler Erklärung und Bewusstseinserfahrung

Chalmers (1995) Kap.3 Behauptungen zur begrifflichen Kluft zwischen funktionaler Erklärung und Bewusstseinserfahrung

  1. Das 3.Kapitel läuft auf die These von der begrifflichen Kluft (‚explanatory gap‘) zwischen funktionaler Erklärung objektiver Phänomene einerseits und der korrelierenden Existenz des subjektiven Phänomens des Bewusstseins hinaus (vgl. Bild 2).

  2. Dies setzt voraus, dass die Wissenschaften, die objektive Phänomene im Umfeld des Bewusstseins erklären, dies mit Hilfe von funktionalen Erklärungen tun können. In einer funktionalen Erklärung F werden die beobachtbaren (zu erklärenden) Phänomene X in Beziehung gesetzt zu anderen beobachtbaren Phänomenen Y, und zwar so, dass der Zusammenhang einen Mechanismus (‚mechanism‘) erkennen lässt, aufgrund dessen das Auftreten von X in Abhängigkeit von Y akzeptiert werden kann. Entsprechend den zuvor angeführten Methoden der Kognitionswissenschaft(en) sieht Chalmers drei Arten von möglichen Mechanismen: (i) Computermodelle, (ii) kognitive Modelle und (iii) neuronale Modelle.

  3. Chalmers sieht keine Möglichkeit, das korrelierende Auftreten einer Bewusstseinserfahrung B im Kontext von beobachtbaren Phänomenen X und Y ebenfalls durch eine funktionale Erklärung G so zu erklären, dass sich zwischen X und Y einerseits und B andererseits ein Mechanismus angeben lässt, der als Erklärung akzeptierbar sei.

  4. Diese Unmöglichkeit der Angabe einer weiteren funktionalen Erklärung versteht Chalmers als Erklärungslücke (‚explanatory gap‘).

BEISPIELE (REDUKTIVER ERKLÄRUNG) (Kap.4)

Chalmers 1995 kap.4 illustrierende Beispiele

Chalmers 1995 kap.4 illustrierende Beispiele

  1. Im Kap.4 stellt Chalmers verschiedene Autoren vor, mittels deren er seine zuvor eingeführte Klassifikation illustrieren möchte. (vgl. Bild 3)

  2. Diese Beispiele sind aber so karg beschrieben, dass man sie kaum verwerten kann. Als Beleg soll das Zitat von Edelman dienen. Im Buch von Edelman (1989) wird ein sehr ausführliches Bild von den Forschungen zum Bewusstsein vermittelt. Das Stichwort vom ’neuronalen Darwinismus‘ greift hier viel zu kurz (das Buch Edelmans von 1992 Bright Air, Brilliant Fire: On the Matter of thre Mind, das noch umfassender ist, wird erst gar nicht erwähnt)(Anmerkung: In seinem Buch The Conscious Mind (1996) ist Chalmers hier genauer und hilfreicher. Die Bemerkungen hier im Artikel erscheinen da eher nutzlos).

  3. Die Stichworte zu Koch/ Crick und Baars lassen noch am ehesten deren Ideen erkennen. Nach Koch/Crick sind es synchronisierende Oszillationen im Gehirn (Bindungstheorie), die unterschiedliche Aktivitäten bündeln und so komplexe Zustände möglich machen, die eventuell als Korrelate des Bewusstseins (‚correlates of experience‘) angesehen werden können. Ähnlich und doch weitergehender (spekulativer) argumentiert Baars. Er sieht einen Zusammenhang zwischen den Inhalten des Bewusstseins (‚contens of consciousness‘) und dem, was er den globalen Arbeitsbereich (‚global workspace‘) des Gehirns nennt: dies soll jener Bereich sein, in den viele andere Bereiche des Gehirns wichtige Informationen abbilden, über die alle spezialisierten Bereiche kommunizieren. Er nennt dies ein gemeinsames schwarzes Brett (‚communal blackboard‘).

  4. Was immer such die einzelnen Beispiele im einzelnen – nach Chalmers – sagen bzw. sagen wollen, für Chalmers bietet keines der Beispiele (also: keiner der Autoren) eine wirkliche Antwort auf die Frage, warum (‚why‘) es das Phänomen des Bewusstseins parallel zu diesen vielen Prozessen gibt und wie (‚how‘) der Zusammenhang zwischen den physiologischen und den phänomenalen Phänomenen genau zu denken ist.

WEITERE BEISPIELE (REDUKTIVER ERKLÄRUNG) (Kap.5)

  1. In Kap.5 wir die kursorische Aufzählung weiterer Beispiele fortgesetzt, in der Erklärungsansätze genannt werden, die mit dem Phänomen des Bewusstseins Berührungen aufweisen, aber nichts wirklich erklären sollen.

  2. So wird wird das Konzept nicht-algorithmischer Prozesse von Penrose (1989, 1994) erwähnt. Ein Zusammenhang mit dem Phänomen des Bewusstseins sieht Chalmers nicht.(p.207)

  3. Ähnlich stellt Chalmers auch einen Erklärungszusammenhang zwischen chaotischen und nichtlinearen Prozessen ebenso wenig mit quantentheoretischen Modellen (Hameroff 1994) in Frage. Was erklären diese? (vgl. p.207f)

  4. Chalmers wiederholt hier sein Axiom, dass jede Art von Erklärung physikalischer Prozesse alleine nicht ausreichend sein kann, das Phänomen des Bewusstseins als solches zu erklären. Die Emergenz von Bewusstseinserfahrung entzieht sich einer rein physikalischen Erklärung. Phänomene des Bewusstseins können sich im Kontext von physikalischen Prozessen zeigen, sie müssen es aber nicht.(p.208)

NEUE FUNDAMENTALE ENTITÄTEN

Chalmers 1995 Kap.5 Nicht-reduzierende Theorien

Chalmers 1995 Kap.5 Nicht-reduzierende Theorien

  1. Nachdem Chalmers – aus seiner Sicht – herausgearbeitet hat, dass eine Erklärung der Phänomene des Bewusstseins mittels physikalischer Gesetze nicht möglich erscheint, folgt er der Strategie der Physik aus der Vergangenheit, indem man für nicht-reduzierbare Phänomene dann postuliert, dass sie fundamentale Phänomene seien, die ihre eigenen Gesetze benötigen.(vgl. Bild 5)

  2. Insofern diese neuen fundamentale Phänomene nicht isoliert von den physikalischen Phänomenen auftreten, nennt er sie emergente Phänomene, deren korrelierendes Auftreten im Kontext physikalischer Phänomene sich gegebenenfalls mit zusätzlichen überbrückenden Prinzipien (Brückenprinzipien, ‚bridging principles‘) beschreiben lassen.

  3. Die Betrachtung von Phänomenen führt meist auch zur Frage von damit zusammenhängenden möglichen Existenzen (Ontologien, ‚ontologies‘).

  4. Fall sich mit den Phänomenen des Bewusstseins Existenzen ganz eigener Art verknüpfen würden, dann läge eine neue Art von Dualismus (im Stile von Descartes und anderen) vor. Soweit will Chalmers aber nicht gehen. Obwohl es sich bei den Phänomenen des Bewusstseins um nicht-reduzierbare, und damit fundamentale Phänomene handelt, will er sie nicht gänzlich von der natürlichen Ontologie getrennt sehen, wie sie von der Physik beschrieben wird.

  5. Interessanterweise sieht Chalmers eine Theorie des Bewusstseins näher bei der Physik als bei der Biologie, der er jegliche fundamentale Prinzipien im Sinne des Bewusstseins abspricht.(p.211)

AUSBLICK AUF EINE THEORIE DES BEWUSSTSEINS

Chalmers 1995 - Elemente einer neuen Theorie des Bewusstseins

Chalmers 1995 – Elemente einer neuen Theorie des Bewusstseins

  1. Unabhängig davon, was Chalmers über andere Autoren gesagt hat (treffend oder nicht treffend), hat er seine eigene Meinung zu einer möglichen Theorie des Bewusstseins.

  2. Zu Beginn des Kap.7 skizziert er einige grundlegende Annahmen, auf deren Basis er dann weiter voranschreitet.

  3. Wie in Bild 7 angedeutet, soll eine mögliche Theorie des Bewusstseins einfach und kohärent sein und soll Aussagen über reproduzierbare Fakten möglich machen.

  4. Als Basis für die Theorie gibt es einerseits die Eigenschaften der bewusstseinsbasierten Erfahrung, zu denen jeder einzeln, für sich einen direkten Zugang hat, und andererseits empirische Phänomene, wie Umwelt, Körper und Gehirn, speziell auch sprachliche Äußerungen, über die man indirekt auf Eigenschaften des Bewusstseins schließen kann.

  5. Ferner postuliert Chalmers spezielle psycho-physische Brückenprinzipien, die einen Zusammenhang zwischen korrelierenden physikalischen und bewusstseinsbezogenen Phänomenen herstellen.

PRINZIP DER STRUKTURELLEN KOHÄRENZ

  1. Als eine mögliche Richtschnur für die Formulierung der Inhalte einer möglichen Theorie des Bewusstseins beschreibt Chalmers das Prinzip der strukturellen Kohärenz.

  2. Diese Kohärenz sieht er gegeben zwischen dem empirischen Phänomen der Aufmerksamkeit (‚attention‘) und den den subjektiven Phänomenen des Bewusstseins.

  3. Der Begriff der ‚Aufmerksamkeit‘ wird definiert über empirische Phänomene und deren funktionalen Beziehungen.

  4. Ohne eine weitere Analyse der subjektiven Phänomene vorgelegt zu haben behauptet Chalmers nun, dass die Phänomene im Kontext der empirischen Aufmerksamkeit eine bestimmte Struktur erkennen lassen, die sich auch im Bereich der subjektiven Phänomene finde. Er geht sogar soweit, die Ähnlichkeit zwischen beiden Strukturen (Struktur der Aufmerksamkeit, Struktur des Bewusstseins) als isomorph zu bezeichnen (p.213).

  5. Zugleich schränkt er diese Ähnlichkeit dahingehend ein, dass subjektive Phänomene Eigenschaften haben, die sich nicht in der strukturellen Ähnlichkeit erschöpfen. Die kohärente Strukturen beschränken das beobachtbare Verhalten subjektiver Phänomene, aber erschöpfen sie nicht. (vgl.p.213)

  6. Sofern man solch eine strukturelle Kohärenz feststellen kann, macht es nach Chalmers Sinn, die empirischen Phänomene der Aufmerksamkeit als Korrelate bewusster Erfahrung zu bezeichnen.

PRINZIP DER ORGANISATORISCHEN INVARIANZ

  1. Chalmers formulierte noch ein weiteres Prinzip, das von der organisatorischen Invarianz. Es ist kein mathematisches Prinzip, sondern eher ein Postulat über empirische Strukturen.

  2. Ausgangspunkt sind zwei Systeme S1 und S2. Beide haben eine funktionale Organisation, d.h. Es gibt jeweils irgendwelche Mengen von Elementen M1 und M2 und jeweils irgendwelche Funktionen F1 und F2, die über den Mengen M1 und M2 definiert sind, also S1(x) iff x=<M1,F1> bzw. S2(x) iff x=<M2,F2>.

  3. Chalmers postuliert nun, dass, wenn beide Systeme S1 und S2 die gleiche funktionale Organisation haben (‚functional organization‘), dass sie (?) dann auch die qualitativ gleiche Erfahrung (‚qualitatively identical experience‘) haben.

  4. Diese Formulierung wirft einige Fragen auf.

  5. Nimmt man an, dass er mit Erfahrung wie zuvor im Text immer die Erfahrung des Bewusstseins meint, dann stellt sich die Frage, in welchem Sinne ein System S1 oder S2 eine bewusste Erfahrung haben sollen? Nach allem zuvor Gesagtem haben empirische Systeme nicht notwendigerweise eine bewusste Erfahrung.

  6. Wenn Chalmers aber meint, dass die Systeme S1 und S2 für empirische Systeme stehen, die Korrelate von bewussten Erfahrungen sind, dann würde das Prinzip besagen wollen, dass zwei verschiedene empirische Systeme S1 und S2, die Korrelate von jeweils einem Bewusstsein B1 bzw. B2 sind, diesen korrelierenden Bewusstseinen B1 und B2 jeweils identische Erfahrungen übermitteln.

  7. Direkt beweisbar ist dieses Prinzip nicht, da der direkte Zugriff auf bewusste Erfahrungen von den beiden Bewusstseinen fehlt, aber es ist eine sehr plausible Arbeitshypothese. (vgl. p.215) Diese Arbeitshypothese würde es zumindest ansatzweise verständlich machen, warum zwei verschiedene Menschen ansatzweise über ähnliche Erfahrungen verfügen können.

DIE THEORIE DES DOPPELTEN ASPEKTS DER INFORMATION

  1. Chalmers klassifiziert die beiden vorausgehenden Prinzipien als nicht basale Prinzipien. Nichts desto Trotz sind sie für ihn hilfreiche Beschränkungen (‚constraints‘).

  2. Jetzt will er ein erstes basales Prinzip mit Hilfe des Begriffs der Information einführen.

  3. Bei dieser Einführung des Begriffs Information bezieht er sich zwar ausdrücklich auf Shannon (1948), ersetzt aber die Begrifflichkeit von Shannon sogleich durch die Begrifflichkeit von Bateson (1972), indem er die einzelnen physikalischen Informationen als Differenzen bezeichnet, die eine Differenz konstituieren (Originalzitat Bateson: A „bit“ of information is definable as a difference which makes a difference. Such a difference, as it travels and undergoes successive transformation in a circuit, is an elementary idea. (Bateson 1972, p.335)

  4. Dann überträgt er diese Begrifflichkeit auf die empirischen und auf die subjektiven Phänomene, indem er für die Menge der korrelierenden empirischen Phänomene einen Informationsraum Ie postuliert und für die Menge der subjektiven Phänomene auch einen Informationsraum Is. Ferner postuliert er, dass die Elemente in jedem dieser Räume durch eine Menge von Differenzen charakterisiert werden – also <Ie,De> sowie <Is, Ds> –, dass jedem dieser Räume mit diesen Differenzen dann eine Struktur Ste(x) iff x= <Ie,De> sowie Sts(x) iff x=<Is, Ds> zukomme, die sich direkt korrespondieren (‚directly correspond‘), also CORR(STe, Sts).

  5. Aus den Postulaten werden dann sogleich Behauptungen der Art, dass man sowohl in den empirischen Prozessen wie auch in den subjektiven Erfahrungen die gleichen abstrakten Informationsräume finde.

  6. Nachdem Chalmers die Begriffe Information und Differenz für die theoretische Beschreibung eingeführt hat (niemand hat ihn dazu gezwungen!), folgert er dann aus seinen eigenen Annahmen, als Hypothese, dass Information zwei Aspekte habe: einen physikalischen und einen phänomenalen (:= subjektiven).

  7. Nach diesen begrifflichen Verschiebungen erklärt er dann diese letzte Hypothese zu einem basalen Prinzip, aus dem hervorgehe, dass sich immer dann Erfahrung eines Bewusstseins vorfindet, wenn ein entsprechender physikalischer Prozessraum gegeben ist.(vgl. p.216)

DISKURS

KEINE DOPPEL-ASPEKT THEORIE DER INFORMATION

  1. Chalmers selbst klassifiziert seine Doppel-Aspekt Überlegungen als eher eine Idee denn eine Theorie (vgl. p.217) bzw. weiter vorne als extrem spekulativ und unterbestimmt.

  2. Dies würde ich hier unterschreiben. Denn die Verwendung des Wortes Information durch Chalmers erscheint sehr fragwürdig.

  3. Der Informationsbegriff bei Shannon (1948) setzt einen sehr speziellen Kontext voraus, auf den Shannon klar und deutlich hinweist. Es geht bei der Verwendung des Begriffs der Information bei Shannon NICHT um den Begriff von Information, wie er im Alltag oder bei wichtigen biologischen Kontexten vorkommt, wo unterschiedliche bedeutungsvolle/ semantische Kontexte eine Rolle spielen, sondern AUSSCHLIESSLICH um die jeweiligen Signalereignisse und deren Wahrscheinlichkeiten. Diese Signalereignisse als solche haben weder irgendeinen Informationswert noch eine irgendwie geartete Bedeutung. Es sind einfach Eigenschaften aus einem Eigenschaftsraum, die sich natürlich qua Eigenschaften durch Unterschiede/ Differenzen indirekt charakterisieren lassen. Aber der Begriff der Differenz setzt ein X und Y voraus, die minimale Eigenschaften Px und Py besitzen, aufgrund deren sie sich unterscheiden lassen. Nur unter Voraussetzung von solchen Elementen samt Eigenschaften lässt sich eine Differenz definieren. Ein System von Differenzrelationen setzt mathematisch eine Menge von Elementen voraus, aufgrund deren sich die Relationen definieren lassen.

  4. Der Sprachgebrauch von Bateson (1972) mit seinen Differenzen mag irgendwie interessant klingen, ist aber mathematisch irreführend. Eine Differenz ist abgeleitet von dem X, das sich von anderem Nicht-X unterscheiden lässt. Die Unterscheidbarkeit von Ereignissen X in der Wahrnehmung ist biologisch natürlich bedeutsam, aber das Ereignis als solches keinesfalls, nur die Relationen zu einem Y, das sich biologisch als ‚relevant‘ erweist.

  5. Streichen wir also den Begriff der Differenz im Kontext von Information, da redundant, bleibt der Informationsbegriff, angeblich nach Shannon.

  6. Bei Shannon aber ging es nur um Signalereignisse und deren wahrscheinliches Auftreten, ohne jeglichen Bedeutungsbezug.

  7. Natürlich kann man sowohl die empirischen wie auch die subjektiven Phänomene abstrakt als Ereignisse betrachten, die mit gewissen Wahrscheinlichkeiten auftreten. Das würde aber genau jene Qualitäten an diesen Ereignissen verdecken, die sie für ein biologisches System interessant machen. Biologisch interessant sind ausschließlich Ereignisse, sofern sie Bezug haben zum Überleben generell und innerhalb dessen zu speziellen Kontexten des Überleben. Es sind gerade diese Kontexte, die sich mit Ereignissen assoziieren lassen, durch die Ereignisse mit Bedeutung aufgeladen werden, sodass diese Ereignisse im biologischen Sinn informativ sind.

  8. Dieser fundamentale Aspekt von Information wurde von Shannon ganz bewusst ausgeklammert, da er dies für seinen Anwendungsfall nicht benötigt hat. Bateson und Chalmers brauchen es eigentlich, folgen hier aber – blindlings? – Shannon, obgleich dieser sogar ein großes Warnschild gleich zu Beginn seines Textes aufgestellt hat. DIES IST NICHT INFORMATION IM ÜBLICHEN SINNE!!!

STRUKTURELLE KOHÄRENZ VON WAS?

  1. Nach dieser Entmystifizierung des Differenz- und Informationsbegriffs bleibt von der Doppel-Aspekt Theorie der Information nur noch das übrig, was Chalmers schon zuvor mit dem nicht-basalen Prinzip der strukturalen Kohärenz ausgedrückt hat, dass nämlich die korrelierenden empirischen Phänomene und die subjektiven Phänomene strukturell ähnlich seien. Chalmers bleibt eine Definition jener Strukturen schuldig, die er als gegeben voraussetzt, von denen er immerhin sagt, dass sie isomorph seien, und doch wiederum nicht so, dass alle subjektiven Phänomene durch die empirischen Phänomene dadurch voll bestimmt wären. Eigentlich impliziert Isomorphie eine 1-zu-1 Abbildung; aber dann doch nicht ganz? Was meint er dann?

  2. Wenn man von einer Strukturähnlichkeit zwischen zwei Strukturen S1 und S2 spricht, geht man normalerweise davon aus, dass die beiden Strukturen S1 und S2 nicht nur einfach gegeben sind, sondern auch in ihrer Beschaffenheit genau beschrieben/ definiert sind. Kann man das von den subjektiven Phänomenen des Bewusstseins sagen? Außer von Husserl sind mir keine ausführlichen Untersuchungen zu den Phänomenen des Bewusstseins bekannt, und von Husserls Untersuchungen kann man weder sagen, sie seien vollständig noch liegen sie in einer Form vor, die man als formal befriedigend bezeichnen könnte (obwohl Husserl von der Ausbildung her auch Mathematiker war und von daher das Rüstzeug haben konnte). Diskutabel wäre hier vielleicht Carnaps logischer Stufenbau (1928), der der Struktur von Husserl – soweit bekannt – sehr eng folgen soll. Wovon also spricht Chalmers, wenn er die Strukturähnlichkeit zwischen empirischen und subjektiven Phänomenen behauptet?

WAS BLEIBT VON CHALMERS KRITIK?

NICHTREDUZIERBARKEIT

  1. Der zentrale Punkt von Chalmers Kritik dürfte wohl die Nichtreduzierbarkeit des Subjektiven auf Empirisches sein. Im subjektiv zugänglichen Erfahrungsraum des Bewusstseins erschließen sich Phänomene, die über die rein objektiv-empirischen Phänomene hinausgehen.

  2. In seiner ablehnenden Kritik empirischer Ansätze kommt immer wieder auch der Begriff der Funktion vor; funktionale-empirische Erklärungsansätze sollen nicht reichen. Diese Formulierung kann missverständlich sein. Denn der Versuch, den Raum der subjektiven Phänomene als Phänomene sui generis zu beschreiben, wird – wie auch im Fall empirischer Phänomene – Elementarereignisse einführen, über diese Elementarereignisse diverse Relationen und Funktionen,  und damit letztendlich eine Struktur des subjektiven Phänomenraumes definieren, mittels der man dann möglicherweise Vergleiche, Abbildungen auf andere Strukturen vornehmen kann, z.B. auch, wie von Chalmers praktiziert, auf die Struktur der mit dem Bewusstsein korrelierenden empirischen Phänomene.

  3. Hier stellt sich allerdings das spezielle Problem einer simultanen Abhängigkeit von korrelierenden empirischen und subjektiven Phänomenen: man kann ja nur in dem Maße davon sprechen, dass ein empirisches Phänomen Pe mit einem subjektiven Phänomen Ps korreliert, wenn es ein subjektives Phänomen Ps gibt, das als Ausgangspunkt dient! Ein empirisches Phänomen Pe als solches lässt keinerlei Rückschluss auf ein irgendwie geartetes subjektives Phänomen Ps zu. Die Brückenprinzipien, von denen Chalmers in seinem Artikel spricht, sind induktiv simultan zu definieren. Sie sind nicht einfach da. Es sind nicht die Brückenprinzipien, mittels deren man aus den empirischen Phänomenen Pe die subjektiven Phänomene Ps ableitet, sondern es sind die subjektiven Phänomenen Ps, die sich mit empirischen Phänomenen Pe korrelieren lassen, und aufgrund solcher realisierten Korrelationen kann man vielleicht Brückenprinzipien definieren.

  4. Dies gilt insbesondere auch am Beispiel der sprachlichen Äußerungen, die Chalmers explizit als Indikatoren möglicher subjektiver Erfahrung nennt. Der Sprachschall als solcher bildet ein empirisches Phänomen Pe, dem möglicherweise subjektive Bedeutungsinhalte Ps korrelieren können. Ob dies der Fall ist, kann nur der Sprechende selbst entscheiden, sofern er einen direkten Zugang zu seinen subjektiven Phänomenen hat und von daher weiß, ob sich mit einem bestimmten Sprachschall tatsächlich ein bestimmter subjektiver Sachverhalt verknüpft. Von daher sind sprachliche Äußerungen niemals ein Ersatz für die damit hypothetisch unterstellten subjektiven Phänomene.

Einen Überblick über alle Beiträge von Autor cagent  nach Titeln findet sich HIER.

THOMPSON: MIND IN LIFE – Review – Teil 1

Evan Thompson, Mind in Life. Biology, Phenomenology, and the Sciences of Mind. Harvard – London, The Belknap Press o f Harvard University Press, 2007

PHILOSOPHIE UND WISSENSCHAFTEN – EIN MOTIV

  1. Das Motiv für die Lektüre dieses Buches rührt von der anhaltenden Auseinandersetzung von cagent zu den philosophischen Grundlagen unseres Weltbildes. Egal ob man sich mit psychologischen Modellbildungen beschäftigt, mit biologischen oder neurowissenschaftlichen, man stößt immer wieder auf die methodischen Ränder dieser Disziplinen, durch die ein direkter Zugriff auf die Inhalte des Bewusstseins nicht möglich ist (siehe Bild 1). Es bleiben immer nur Korrelationen mit etwas, das man dem Bewusstsein zurechnet, aber man kommt niemals direkt an die Daten des Bewusstseins heran.

Die drei großen Blickweisen auf den Menschen (Verhalten, Gehirn, Bewusstsein) und deren möglichen Verknüpfungen

Die drei großen Blickweisen auf den Menschen (Verhalten, Gehirn, Bewusstsein) und deren möglichen Verknüpfungen

  1. Dieses Problem ist nicht neu, es ist letztlich uralt, aber durch die Fortschritte der empirischen Wissenschaften wird die Besonderheit des Phänomens des Bewusstseins klarer als je zuvor.

  2. Welcher Philosoph das Phänomen des Bewusstseins bislang am besten beschrieben haben soll, ist schwer zu sagen. Jeder große Philosoph hat auf seine Weise interessante Aspekte enthüllt. Aus Sicht der heutigen Methoden und Erkenntnisse erscheint cagent das Vorgehen von Edmund Husserl mit seinem phänomenologischen Forschungsprogramm bislang als am ehesten geeignet zu sein, eine Brücke zu schlagen zu den heutigen empirischen Wissenschaften, ohne dabei das Alleinstellungsmerkmal des philosophischen Denkens und die Besonderheiten des Untersuchungsgegenstandes aufgeben zu müssen.

  3. Entscheidend für das Projekt einer verbesserten Integration von philosophischem mit empirischem Denken wird der benutze Erkenntnis- und Wissenschaftsbegriff sein. Trotz ca. 100 Jahren Wissenschaftsphilosophie kann man aber nicht behaupten, dass es in allen wissenschaftlichen Disziplinen heute einen einheitlichen Wissenschaftsbegriff gibt, der sich auch in entsprechend gemeinsamen Methoden und Darstellungsweisen ausdrückt.

  4. Der Autor cagent greift zu diesem Zweck zurück auf die Tradition der Wissenschaftstheorie, wie sie zuletzt im Institut für Logik und Wissenschaftstheorie der Ludwig-Maximilians Universität München in den 80iger Jahren des 20.Jahrhunderts praktiziert wurde (dies Institut existiert in der damaligen Form nicht mehr). Diese Sicht wurzelte stark u.a. auch in der Tradition des Wiener Kreises, mit all den Schwachstellen, die sich daraus ergaben. Dennoch kann man aus dieser Position eine Arbeitshypothese herleiten, die nachvollziehbar und kritisierbar ist. Diese Position sei hier mit der Abkürzung LMU-ILWT bezeichnet.

  5. Ein wesentlicher Punkt in der Position des LMU-ILWT besteht in der Forderung nach einer angemessen Formalisierung intendierter wissenschaftlicher Sachverhalte in einer Disziplin. Heute könnte man die Formalisierungsanforderung ergänzen um den Punkt von brauchbaren Simulationsmodellen, mit deren Hilfe sich die Auswirkungen einer formalen Theorie sichtbar und ansatzweise überprüfbar machen lassen.

  6. Die Anforderungen lassen sich an jede empirische Theorie stellen und einlösen, was aber faktisch immer nur partiell passiert. Den meisten Wissenschaftlern fehlt das Knowhow (und die Zeit, und die Werkzeuge), um diese Anforderung wirklich einzulösen.

  7. Im Rahmen eines Programms zur Integration von Philosophie und empirischen Wissenschaften ist zu überprüfen, ob und wieweit sich auch die Position der Philosophie entsprechend formalisieren und simulieren lässt. Von den meisten Philosophen wird solch eine Gedanke eher abgelehnt.

  8. Im Falle eines phänomenologischen Forschungsprogramms im Stile von Edmund Husserl ist solch eine Überlegung aber keinesfalls abwegig, sondern gehört sogar in gewisser Weise zum Forschungsprogramm selbst.

  9. Im Rückgang auf die Grunddaten des bewussten Erlebens, Fühlens, Denkens usw. zeigt sich eine Vielfalt von Phänomenen in einer spezifischen Dynamik mit impliziten Strukturen, die zu formalisieren genauso sich anbietet wie die Formalisierung von komplexen Phänomene aus dem Bereich der biologischen Evolution oder der Entstehung des physikalischen Universums.

  10. Es gab sogar einen berühmten Versuch solch einer Formalisierung. Das Buch von Rudolf Carnap Der Logische Aufbau der Welt (1928) erscheint als  eine  1-zu-1 Übersetzung jenes Konstitutionsprozesses der Phänomene des Bewusstseins, wie sie Husserl in den Ideen I + II (sowie in anderen Schriften) über Jahrzehnte entwickelt hat. Allerdings hat Carnap sowohl im Stufenbau wie auch in seiner Autobiographie alles daran getan, diesen Bezug zu Husserls Denken und Werk zu verdecken. (Anmerkung: Eine neuere, sehr ausführliche und gründlich recherchierte Untersuchung zum Verhältnis von Carnaps Stufenbau zum Denken Husserls, die diese Nähe Carnaps zu Husserl belegt,  findet sich in einem Beitrag von Verena Mayer (München), der demnächst erscheinen wird.)
  11. Der Stufenbau Carnaps wurde mehrfach heftig kritisiert. Dennoch ist die Grundidee, auch die Phänomene des Bewusstseins einer formalen Analyse zu unterziehen naheliegend und konsequent. Es gibt keinen Grund, dies nicht zu tun. Die grundsätzliche Problematik einer Versprachlichung von Erkennen wird dadurch natürlich nicht aufgehoben und nicht geheilt, aber im Raum des menschlichen Erkennens gibt es keine Alternativen. Unser Denken befindet sich kontinuierlich in einem Ringen um Artikulation, die als solche notwendig ist, aber als solche niemals das Erkannte ganz erschöpfen kann. Das bekannte Ungenügen ist keine Entschuldigung, es gar nicht zu tun. Denn die Alternative zu einer unvollkommenen Artikulation ist gar keine Artikulation.
  12. Je mehr die empirischen Wissenschaften die Grenzen des Redens über das Bewusstsein immer klarer erfahrbar machen, umso eindringlicher entsteht die Aufforderung, sich als Philosoph erneut darüber Gedanken zu machen, ob und wie solch ein Programm einer erneuerten Theorie des Bewusstseinserlebens im Kontext von Entwicklungs-, Verhaltens-, Gehirn- und Körperwissenschaften (um nur die wichtigsten zu nennen) aussehen könnte. Arbeitshypothese ist, das phänomenologische Forschungsprogramm von Husserl als Leitschnur zu nehmen erweitert um das wissenschaftsphilosophische Instrumentarium einer modernen Wissenschaftstheorie im Stil von LMU-ILWT.
  13. In diesem Kontext finde ich ein Buch wie das von Thompson reizvoll, zumal Thompson sich in den letzten Jahren in einem Netzwerk von Forschern bewegt hat, denen man das Label ‚Naturalisierung der Phänomenologie‘ anheften könnte. Diese Forscher hatten ihren eigenen Lernprozess mit dem Forschungsprogramm von Husserl.

THOMPSON Kap.1 (SS.3-15)

ENAKTIVE VORGEHENSWEISE

  1. In diesem einführenden Kapitel versucht Thompson eine historische Einordnung vorzunehmen zwischen jenem philosophisch-wissenschaftlichen Paradigma, dem er sich zugehörig fühlt und das er Enaktiv (Englisch: ‚enactive‘) nennt, und jenen anderen Strömungen, die er als vorbereitend für den eigenen Standpunkt ansieht. Der Begriff ‚enaktiv‘ ist ein Kunstwort, in dem die Idee einer Realisierung eines Gesetzes durch Verkörperung in der Zeit ausgedrückt werden soll. (vgl. S.13) Der Begriff geht zurück auf das Buch The Embodied Mind, das Thompson zusammen mit Varela und Rosch 1991 verfasst hatte.
  2. Im einzelnen zählt Thompson fünf Aspekte auf, die für eine enaktive Vorgehensweise in seinem Verständnis wichtig sind.(vgl. Dazu S.13)
  3. Zum einen (i) ist dies der Aspekt der Autonomie lebender Systeme. Im Rahmen ihrer Möglichkeiten organisieren sie sich komplett selbst und in diesem Rahmen generieren sie ihren spezifischen Erkenntnisraum (‚cognitive domain‘).
  4. Innerhalb dieser generellen Autonomie arbeitet (ii) das Nervensystem (das Gehirn) ebenfalls autonom. Mit Schnittstellen zu Ereignissen außerhalb des Gehirns arbeitet das Gehirn aber vollständig selbstbezüglich und erschafft in dieser Selbstbezüglichkeit seine eigenen Bedeutungsstrukturen.
  5. Ferner gilt (iii): Erkenntnis (‚cognition‘) ist in diesem Kontext ein Moment an einem dynamischen Verhalten, das zwar über sensorische und motorische Kopplungen mit einer Umwelt interagiert, aber diese Kopplung führt nicht zu einer 1-zu-1-Determinierung des Systems. Das System hat eine Eigendynamik, die über diese Interaktion weit hinausgeht.
  6. Im Rahmen solch einer eingebetteten Kognition ist (iv) das Bild einer Welt nicht einfach eine Entsprechung, nicht eine direkte Repräsentation der empirischen Außenwelt, sondern ein dynamisches Produkt aus Interaktion und systeminternen generierenden Prozessen, die ein systemspezifisches Modell einer unterstellten Welt erzeugen.
  7. Schließlich: (v) Erfahrung (‚experience‘) ist in diesem Kontext nicht irgendein Nebeneffekt (‚epiphenomenal side issue‘), sondern der wesentliche Aspekt für ein Verständnis von Geist (‚mind‘). Von daher ist es notwendig genau diese Erfahrung zu untersuchen, und die beste Methode dafür ist nach Thompson eine phänomenologische Vorgehensweise.
  8. Bevor auf diese Punkte näher eingegangen wird sei hier noch ein kurzer Blick gestattet auf den Ausblick von Thompson auf andere, konkurrierende Ansätze.(sehe Bild 2)

KOGNITIVISMUS, KONNEKTIONISMUS, VERKÖRPERTER DYNAMIZISMUS

Aufschlüsselung der Leitbegriffe von Thompson in Kap.1

Aufschlüsselung der Leitbegriffe von Thompson in Kap.1

  1. Letztlich organisiert er seine Umschau mit den Begriffen Kognitivismus (‚cognitivism‘), Konnektionismus (‚connectionism‘) und Verköperter Dynamizismus (‚embodied dynamicism‘).
  2. Das Problem mit diesen Begriffen ist, dass sie nicht sehr scharf sind, eher vage. Dies zeigt sich sofort, wenn man versucht, konkrete Forscher diesen Richtungen zuzuordnen und dabei den Inhalt ihrer Schriften einbezieht. Die meisten Forscher haben in ihrem Leben eine Lerngeschichte, die sie mit einer bestimmten Position anfangen lässt und sie dann zu weiteren, neuen Positionen führt. Ordnet man nun bestimmte Forscher aufgrund bestimmter Ansichten im Jahr X einer bestimmten Ähnlichkeitsklasse M zu, so gilt dies oft nur für eine bestimmte Zeitspanne. Außerdem sind bestimmte Paradigmen (wie z.B. gerade der sogenannte Kognitivismus) in sich so komplex und vielfältig, dass eine saubere Definition in der Regel kaum möglich ist.
  3. So definiert Thompson den Begriff Kognitivismus einleitend gar nicht sondern zitiert in lockerer Folge unterschiedliche Autoren und Konzepte, die man sowohl der schwammigen Kognitionswissenschaft (‚cognitive science‘) zuordnen kann wie auch der Kognitionspsychologie (‚cognitive psychology‘), die sich als Gegenbewegung zur Verhaltenspsychologie (‚beavioral psychology‘, ‚behaviorism‘) gebildet hatte. Daneben gibt es auch Strömungen in der Philosophie, die sich unterschiedlich mit dem Kognitivismus und der Kognitionspsychologie überlappt haben und immer noch überlappen. In allem dabei die neue erstarkende Rolle von computerbasierten Modellen und Simulationen.(vgl. SS.4-8)
  4. In all diesen – nicht immer klaren – Positionen erkennt Thompson charakteristische Defizite.
  5. Die Verbannung der direkten Beobachtung von Geist und Bewusstsein im Rahmen einer empirischen Verhaltenspsychologie (zur Zeit ihrer Entstehung ein wichtiges Anliegen, um die einseitige Orientierung an der Introspektion aufzubrechen), führte im weiteren Verlauf zu einer ideologischen Verhärtung der Methoden, die sich dann auch in der Kognitionspsychologie und der frühen Kognitionswissenschaft (samt Teilen der Philosophie) weiter vererbte. Die Einbeziehung von Computermodellen verstärkte die Tendenz, die Arbeitsmodelle der Kognition im Stile von – rein symbolischen – Informationsverarbeitungsprozessen zu sehen, die einen gewissen Anschluss an die moderne Gehirnforschung erlaubte. Allerdings war (und ist) die Übereinstimmung des Computerparadigmas und des Gehirnparadigmas – je nach Betrachtungsstandpunkt – nur partiell ähnlich. Dazu kam – nach Thompson – eine isolierte Betrachtung individueller kognitiver Prozesse ohne den Faktor der umgebenden Kultur. Der Zusammenhang zwischen Bewusstsein und all den anderen Wissenschaftsbereichen wurde damit letztlich immer unklarer, war (und ist immer noch weitgehend) geradezu geächtet, und die resultierenden Theorie (sofern es überhaupt Theorien waren) wirkten aufgrund ihrer Eingangsbeschränkungen oft sehr verzerrt.
  6. Im Konnektionismus (‚connectionism‘), der nach anfänglichen Startschwierigkeiten ab den 80iger Jahren des 20.Jahrhunderts deutlich an Boden gewann, sieht Thompson einen gewissen Fortschritt derart, dass neue Erkenntnisse der Gehirnforschung und der Forschung mit künstlichen neuronalen Netzen deutlich machten, dass das Konzept eines deduktiven Denkens mittels Symbolen einer abstrakten Ebene zugehört, die tieferliegend mittels vernetzten Neuronen realisiert wird, die direkt keine Symbole verkörpern, sondern ein Netzwerk von Ereignissen, die dynamisch unterschiedlichste Abstraktionsebenen und Wechselwirkungen realisieren. Ein Verständnis von Geist muss also tiefer ansetzten als lange Zeit gedacht. Thompson kritisiert am Konnektionismus, dass dieser die Verkopplung mit der Welt nur ungenügend berücksichtigt habe. Für die ersten Jahrzehnte mag dies stimmen. Aber in den letzten Jahren hat sich dies radikal gewandelt (Beispiel google Algorithmen, IBMs Watson, Roboter, usw.). Was allerdings als Kritik bestehen bleibt ist Thompsons Diagnose, dass auch der Konnektionismus bislang ein Riesenproblem mit dem Bewusstsein hat.
  7. Der Begriff des verkörperten Dynamizismus (‚embodied dynamicism‘) erscheint besonders problematisch. Thompson sieht hier ein Zusammengehen der Strömung Dynamischer (selbstorganisierter) Systeme (‚dynamic (self-organizing) systems‘) und Verköperter Systeme (‚embodied systems‘). Dazu gehört, dass solche Systeme nicht einfach nur die Umwelt 1-zu-1 abbilden, sondern ihre Interaktion mit der Umwelt durch autonome, nicht-lineare Prozesse individuell gestalten. Thompson sieht in der Strömung eines verkörperten Dynamizismus Ansätze sowohl für eine Einbeziehung des Bewusstseins wie auch des Vor- und Nicht-Bewusstseins.(vgl. S.11f)
  8. In dieser vorausgehenden Strömung, dem verkörperten Dynamizismus, sieht Thompson dann auch den Übergang zu jener Richtung, der er sich selbst zugehörig fühlt und die für ihn die Lösung wichtiger Fragen ermöglichen soll, besser als in den vorausgehend charakterisierten Strömungen.

ENAKTIVES VORGEHEN und PHÄNOMENOLOGIE

  1. Nach diesen Einkreisungen der Notwendigkeit einer direkten Analyse des Bewusstseins deutet Thompson kurz an, wie er sich diese Analyse vorstellt.
  2. Es soll primär die phänomenologische Methode von Husserl und auch von Merleau-Ponty sein, dies aber im Rahmen der (selbstorganisierenden, autopoietischen) Autonomie und Intentionalität des Lebens allgemein. Ferner soll die Neurobiologie einbezogen werden, was die Notwendigkeit einer Neuro-Phänomenologie begründet.(vgl. S.15)

DISKUSSION

  1. Wie schon angedeutet, erscheint die allgemeine Lageskizze, die Thompson gibt, als problematisch, da die Begriffe nicht allzu scharf sind und eine wirkliche genau Zuordnung einzelner Personen zu bestimmten Richtungen in solch einem Kontext schwierig ist.
  2. Auch ist nach dieser Einleitung noch nicht ganz klar, wie Thompson sein Programm einlösen wird. Die skizzierte enaktive Vorgehensweise lässt viel Spielraum für alternative Konzepte.

Einen Überblick über alle Blogbeiträge von cagent nach Titeln findet sich HIER.

BREXIT – EIN POLITISCHES EREIGNIS IN EINER PHILOSOPHISCHEN SICHT

DAS EREIGNIS

  1. Als es dann geschah taten viele überrascht, Befürworter feierten, Börsenkurse gaben nach … und dann war doch alles irgendwie anders als gedacht.
  2. Der vorherrschende Eindruck am Tag 7 danach ist: keiner hat einen wirklichen Plan.
  3. Die Suche nach Gründen, Motiven, Wer ist schuldig, Wer will was, Wer ist Gewinner oder Verlierer, ist im vollen Gange. Radiodiskussionen, Fernsehrunden, alle stehen im Banne des Ereignisses. Der Austritt eines Mitglieds aus der Europäischen Union (EU) ist neu; war so noch nie da; keiner hat Erfahrung im Umgang damit.
  4. So fühlt sich jeder eingeladen, herausgefordert – oder gar berufen –, eine Deutung der Ereignisse beizusteuern.

AUSTRITT WANN?

  1. Dies fängt schon mit der Austrittsklausel des Vertrags der Europäischen Union an. Schlicht ist sie, und lässt darin so viel Handlungsspielraum: es wird gesagt, was geschieht, wenn ein Mitgliedsland seinen Austrittswunsch mitteilt, es ist aber offen, wann das Vereinigte Königreich seinen Austrittswunsch tatsächlich mitteilt. Muss dies sofort sein, wie einige heißblütig fordern, oder können sie sich beliebig lang Zeit lassen? Aktuell scheint sich niemand so richtig motiviert zu fühlen, diesen Antrag offiziell schnell zu stellen. Und wenn er nie gestellt wird?

UNRUHE

  1. Während die Motivlage bei den verschiedenen aktiven Politikern sehr unterschiedlich zu sein scheint, scharrt die Wirtschaft schon gut hörbar mit den Füßen. Von Veränderung der Geschäftsbedingungen durch einen Austritt ist die Rede; Gewinne und Verluste müssen neu kalkuliert werden. Wann muss man handeln? Hat man nicht schon morgen verloren wenn man heute nicht handelt? Immobilienspekulationen beginnen zu glühen. Banken, Telekommunikationsanbieter …. müssen wir nicht unseren Geschäftssitz verlegen?
  2. Im Vereinigten Königreich selbst brechen derweil Unterschiede, Fronten, an allen Ecken und Enden auf. Die junge Generation soll sich um ihre Zukunft betrogen fühlen, ging aber zahlenmäßig nicht so zur Wahl wie die älteren Befürworter des Brexits. Die Regionen abseits von London, abseits der globalen Finanzmärkte, bäumten sich auf, probten mit dem Referendum den Aufstand. Nordirland und Schottland – besonders Schottland – wittern eine Chance, ihre unvollständige politische Autonomie auszubauen, zu erweitern. Und in den Parteien (immerhin 15) brodelt es; innerparteiliche Gegensätze führen teilweise zu offenen Schlachten um Positionen und Ämtern (Labour Partei, dann auch bei den Konservativen). Fremdenfeindliche Äußerungen und Handlungen nehmen deutlich zu; speziell polnische Bürger sahen sich in diesen Tagen fremdenfeindlichen Taten ausgesetzt; Politik und Öffentlichkeit zeigte sich bestürzt.

TRITTBRETTFAHRER

  1. Führer von nationalistisch gestimmten Parteien und Bewegungen sehen sich im Aufwind. Allen voran Marin Le Pen von der Front National in Frankreich, Geert Wilders von der Partei für die Freiheit (Niederlande) und Heinz-Christian Strache von der Freiheitlichen Partei Österreichs; aber nicht nur diese. In öffentlichen Stellungnahmen interpretieren sie den Brexit als Ausdruck der Unzufriedenheit der Bürger mit den europäischen Institutionen, in denen man – vereinfachend ausgedrückt – politisch unkontrollierte Monster sieht, die bürgerfern tun was sie wollen.

VERDECKTE MITVERANTWORTUNG ALLER REGIERUNGEN

  1. Dass tatsächlich die europäische Kommission – sozusagen die Exekutive der EU – letztlich nichts ohne die Zustimmung der nationalen Regierungen tun kann, wird dabei gerne in den Hintergrund gedrängt; zur Verteidigung hört man Ex-Mitglieder der der EU-Kommission sagen, dass nationale Regierungen in Brüssel oft A beschlossen haben, dann aber zu Hause so redeten, als ob sie ja für non-A waren, aber die ‚bösen Menschen in Brüssel‘ hätten das wieder mal anders geregelt…

GEMEINSAM OHNE GEMEINSAMKEIT?

  1. Und dann dieses Grunddilemma: möglichst viel Freiheit für die Mitglieder der EU, aber es gibt Aufgaben, die lassen sich nur gemeinschaftlich lösen. Jüngstes Beispiel die Sicherung der Außengrenzen um die innereuropäische Freiheit zu gewährleisten. Wer gibt wie viel nationale Souveränität auf, damit eine gemeinsame europäische Handlung zustande kommt? Wer gibt nationale Daten preis, damit es zu einer europäischen Staatsanwaltschaft und Polizei kommt?

WAS IST SCHON EUROPA?

  1. Im globalen geographischen Koordinatensystem ist Europa nur eine Region unter vielen. Und andere Regionen sind – oder werden – politisch und wirtschaftlich deutlich stärker: Russland, Indien, China, asiatischer Raum, USA, Kanada, Südamerika, Afrika …. welche Rolle würde hier ein einzelnes kleines Land wie die Niederlande, Österreich, Teile Englands …. spielen?
  2. Die nicht nachlassenden Migrationsströme sind Indikatoren von tiefsitzenden gesellschaftlichen Konflikten, die sich nicht nur auf ein Land beschränken. Weitgehend liegen sie außerhalb der EU, sind der direkten und schnellen Einflussnahme der EU entzogen. Ein langfristiges gemeinschaftliches strategisches Verhalten wäre angebracht – aber Misstrauen und Kurzsichtigkeit lähmt ein gemeinsames Verhalten.

BLUTIGE VERGANGENHEIT UND EXTERNE HILFE

  1. Europa hat viele Jahrhunderte, eigentlich sogar Jahrtausende erlebt, in denen religiöse Überzeugungen immer wieder zu Unterdrückung Andersdenkender geführt haben, zu Gefängnis und Folter, zu blutigen Auseinandersetzungen, zu Verbot von Erziehung und Wissenschaft. Bis irgendwann Wissenschaft, Handel, Rechtssysteme unterstützt durch hinreichend viele Mehrheiten neue gesellschaftliche Modelle ermöglicht haben, in denen Menschen unabhängig von ihren speziellen religiösen Anschauungen friedlich miteinander leben konnten. Unbestreitbare Höhepunkte im Wahnsinn der Selbstvernichtung waren aber sicher die zwei großen Kriegen mit vielen Millionen Toten. Es war nicht voraus zu sehen, dass es inmitten des Infernos des zweiten Weltkriegs (einschließlich Asiens) in einer ethischen Sternstunde der Menschheit zur Gründung der Vereinten Nationen und der Verkündigung der Menschenrechte kam, die dann mit der äußerlich aufgezwungenen Neuordnung Deutschlands nach dem Kriegsende eine Entwicklung begünstigte,die zur europäischen Wirtschaftsgemeinschaft   und dann – beeinflusst durch das Ende des Kalten Krieges – zur Ausbildung der Europäischen Union führte. Diese massiven äußeren Geburtshilfen vergisst man leicht.

DIE GEISTER DER VERGANGENHEIT KOMMEN WIEDER

  1. Trotz all der Schrecken kann man heute partiell eine Wiederbelebung von vielen jener Strömungen beobachten, die in der Vergangenheit zu Unterdrückung und Krieg geführt haben: Abschottungen gegen das Fremde, Unterdrückung von differenzierten Betrachtungen, Überbetonungen von konfessionellen Unterschieden; eine naive-unkritische Religiosität mit blinden Allmachtsansprüchen im Dienste politischer Interessen…

UNGELÖSTE HAUSAUFGABEN

  1. Die ‚amtierende‘ Politik befindet sich diesen Strömungen gegenüber in keiner Position der Stärke. Das Ausmaß an Lobbyismus in der Politik ist kaum noch zu überbieten (und verhindert bislang durchgreifende Gesetze zu mehr Transparenz). Die Kluft zwischen Reich und Arm nimmt seit Jahren nur zu. Die Verschuldung von Banken auf Kosten aller wird hingenommen. Auf die zunehmende Verarmung großer Bevölkerungsteile wird nur stumpfsinnig mit noch mehr Sparprogrammen reagiert. Für die dramatische Jugendarbeitslosigkeit in südlichen Ländern (schwächelnde Wirtschaft) findet man keine Konzepte. Infrastrukturen zerfallen (auch in Deutschland). Die globale Digitalisierung entmachtet schleichend ganze Regionen und Industrien.
  2. Die Anzahl wirklich demokratischer Länder in der Welt nimmt ab. Jene, die noch offiziell demokratisch sind, zeigen einheitlich Phänomene des Zerfalls an Transparenz, an Öffentlichkeit, an sozialer Durchlässigkeit, wirtschaftliche Prosperität, Rechtssicherheit, moralischem Verhalten.

ANZEICHEN EINER GLOBALEN SELBSTZERSTÖRUNG?

  1. Sind dies alles Anzeichen eines schleichenden Zerfalls? Erleben wir ein globales Selbstzerstörungsprogramm? Ist dies unvermeidlich?

FUNDAMENTALE MACHT DER FREIHEIT

  1. Um mit dem letzten Punkt anzufangen: unvermeidlich ist eigentlich nichts. Tatsächlich können wir Menschen uns weitgehend entscheiden; dies haben Menschen oft genug bewiesen. Selbst in der größten Not und Bedrohung können Menschen sich – unter Einsatz ihres Lebens – letztlich für alles entscheiden, für alles, was ihnen wertvoll und wichtig erscheint.

ABHÄNGIGKEIT VON WERTEN

  1. Und das ist der Knackpunkt: was ihnen wertvoll und wichtig erscheint. Was erscheint Menschen wertvoll und wichtig?

MEDIUM WISSEN

  1. Dies ist weitgehend abhängig von ihrem Wissen, ihren Erfahrungen. Wissen und Erfahrungen bildet sich heraus im Laufe des Lebens durch Erlebnisse, Handlungen. Diese finden nicht isoliert statt sondern in Umgebungen mit anderen Menschen, in Beziehungen, als Teil von Gemeinschaften, unter dem Eindruck des Verhaltens und Redens anderer. Kein Mensch weiß einfach so irgendetwas. Kein Mensch hat von vornherein eine Präferenz (Wertigkeit) für irgendetwas. Essen müssen zwar alle, aber was man wie und wo isst, das haben Menschen zu verschiedenen Zeiten an verschiedenen Orten sehr unterschiedlich praktiziert. Dass es Mann und Frau gibt, die vereint Nachkommen erzeugen und großziehen können war und ist zu allen Zeiten für alle gleich, aber wie Männer und Frauen miteinander leben, mit ihren Kindern, wie sie erziehen, das war und ist bis heute an verschiedenen Orten sehr verschieden. Und so in allen Bereichen. Die Welt ist dem Menschen immer vorgegeben, aber wie der Mensch mit der Welt umgeht, sie interpretiert und deutet, welche Präferenzen (Werte) er folgt, dies war zu allen Zeiten unterschiedlich und ist bis heute starken Wandlungen unterworfen.

WIR SIND ETWAS NEUES

  1. Die Welt im Jahr 2016 (nach verbreiteter westlicher Zeitrechnung, es gab und gibt alternative Konventionen) ist eine Welt, die es so vorher noch nie gab. Diese Welt und ihre Dynamik zu verstehen, erfordert permanent eine gewisse Anstrengung, komplexes und neues Denken, und lebt unter dem andauernden Vorbehalt, dass man eine wirkliche Prognose nicht abgeben kann, da ja die Menschen selber durch ihr Verhalten die Entwicklung direkt mit beeinflussen. Wenn große Teile der Menschen aufgrund von mangelndem Wissen, beschränkenden Präferenzen, leistungsschwachen Institutionen, starken Ängsten und anderen Emotionen notwendige Aufgaben heute nicht sehen und nicht anpacken, wird der weitere Verlauf natürlich ganz anders aussehen, als wenn sie es könnten und täten. Ideologische Verzeichnungen der gegenwärtigen Situation gepaart mit falschen Emotionen verhindern nicht nur das Notwendige, sie verschärfen Missstände und Mangel.
  2. Auf der Zeitachse hat das Jahr 2016 einen Vorlauf von ca. 200.000 Jahren Geschichte des homo sapiens sapiens. Dieser wiederum hat einen Vorlauf von ca. 20 Mio Jahren an Lebewesen der Menschenartigen (hominoidea). Diese wiederum haben einen Vorlauf von stolzen ca. 3.8 Milliarden Jahren an Leben auf dieser Erde.
  3. Im Lichte dieser ganzen Entwicklung ist der homo sapiens sapiens – also wir – das erste Lebewesen auf der Erde – wenn nicht im ganzen Universum –, das über die grundlegende Fähigkeit verfügt, nicht nur durch sein Gehirn aus der Gegenwart auszubrechen, in die Vergangenheit zu schauen, ansatzweise auch in mögliche Zukünfte, sondern zusätzlich auch über die Möglichkeit verfügt, die Frage nach den wichtigen Präferenzen (Werten) explizit zu stellen. Alle Lebewesen vor dem Homo sapiens sapiens wurden entwickelt; der homo sapiens sapiens kann zum ersten Mal den vorgezeichneten Gang der Entwicklung unterbrechen, kann seine eigenen Baupläne abändern, und kann mit einem Mal – bis zu einem gewissen Grad – seinen eigenen Schöpfer spielen. Dies ist qualitativ neu.

RADIKAL NEU – KEIN SELBSTLÄUFER

  1. Wie die aktuelle Situation zeigt, ist aber genau dies schwierig, kein Selbstläufer, unbequem, stark verunsichernd. Die ungeheure Masse des Wissens, über die der homo sapiens sapiens heute dank Computer, Internet, Datenbanken, entsprechend technischen und sozialen Strukturen verfügen kann, ist für diese Aufgabe einerseits eine Voraussetzung, andererseits aber auch das Problem: das bisherige menschliche Gehirn ist auf diese Datenflut nicht eingestellt. Das aktuelle menschliche Gehirn ist sehr, sehr endlich in seinen Aufnahme- und Verarbeitungskapazitäten. Selbst wenn die Computer immer schneller und datenmäßig umfassender würden, das aktuelle menschliche Gehirn kann nicht mithalten.
  2. Dazu kommt, dass Daten als solche noch kein Wissen darstellen. Was man braucht sind verallgemeinernde Begriffe, Zuordnungen, Abbildungen, organisiert in komplexen begrifflichen (letztlich dann mathematischen) Modellen. Die Wissenschaft selbst verfügt bislang kaum über Modelle für das Miteinander der Disziplinen, geschweige denn für das Ganze. Und es darf dann nicht verwundern, dass der gesellschaftliche Alltag von Denkvorstellungen durchtränkt ist, die weitab liegen von dem, was die Wissenschaft schon weiß. Selbst der Wissenschaftsbetrieb unterliegt oft Präferenzen in den Köpfen der Handelnden, die mit den Zielen und Aufgaben der Wissenschaften nicht viel zu tun haben.

EUROPÄISCHER GEIST

  1. Wenn also jetzt Europa um das rechte Selbstverständnis ringt, um die richtigen Bilder für seine möglichen Zukünfte, dann findet dieses Ringen statt in einer Gemengelage von altem, partiellen Wissen mit alten (überholten?) Präferenzen, ein-gesprengten neuen Erkenntnissen, divergierenden Interessen und Emotionen.
  2. Während die einen diese Vielfalt und scheinbare Ineffizienz beklagen und als Anzeichen von Schwäche deuten, gibt es sehr wohl Argumente, dass diese Vielfalt und scheinbare Ineffizienz gerade auch ein Stärke von Europa sein kann. Allerdings die Vielfalt der Länder auf dieser Erde ist ebenfalls eine Stärke. Die bisherige Erfolgsgeschichte des Lebens auf der Erde entstand gerade aus der unbändigen Vielfalt und dem Mut zu neuen Experimenten. Das Kennzeichen wahrer Zukunft ist gerade, dass man sie im Moment der Entscheidung nicht ganz kennt.
  3. Die vielfach beobachtbare Tendenz, auf altes Bekanntes zurück zu greifen, um den Status Quo zu erhalten (für aktuelle Machtinhaber attraktiv), ist aufs Große Ganze gesehen in der Regel falsch.
  4. Es bleibt also eine spannende Frage über wie viel Esprit, wie viel Kreativität, wie viel Leistungsfähigkeit Europa verfügt, um eine grundsätzlich nicht ganz wissbare Zukunft so zu meistern, dass möglichst viel Lebensqualität für möglichst viele Menschen dabei entsteht.

Für einen Überblick über alle Blockeinträge von Autor cagent nach Titeln siehe HIER.

CONSCIOUSNESS – BEWUSSTSEIN. Review von Nick Lane’s Kap.9 aus ‚Life Ascending‘ (2009)

Nick Lane „Life Ascending“, London: Profile Books Ltd, 2009 (Paperback 2010)

KONTEXT ZU DIESEM EINTRAG

  1. Dieser Blogeintrag beschäftigt sich mit Kap.9 von Nick Lane’s Buch (s.o.) mit dem Thema Consciousness (Bewusstsein). Dieser Besprechung gingen schon drei andere voraus. Diese finden sich hier.
  2. Das Erkenntnisinteresse liegt hier einmal darin, seine Position darzustellen, zum anderen aber auch, um seine Position einzuordnen in den größeren erkenntnistheoretischen und wissenschaftsphilosophischen Kontext der Frage nach der möglichen Rolle von Bewusstseinsdaten im Verhältnis zu den empirischen Verhaltens- und Körperwissenschaften.
  3. Wie man aus den bisherigen Blogeinträgen von cagent leicht entnehmen kann, spielte diese Frage von Anbeginn des Blogs eine wichtige Rolle.

BEWUSSTSEIN IN EINEM KÖRPER

Notizen Teil 1 zur Lektüre von Kap.9 aus Nick Lane's Buch 'Life Ascending' (2009)

Notizen Teil 1 zur Lektüre von Kap.9 aus Nick Lane’s Buch ‚Life Ascending‘ (2009)

  1. Ausgangspunkt ist die Annahme, dass das Phänomen des menschlichen Bewusstseins normalerweise im Kontext eines Gehirns in einem Körper erfahren wird.
  2. Der Körper entsteht im Rahmen eines Wachstumsprozesses (Ontogenese) aus einer befruchteten Zelle.
  3. Jeder individuelle Körper ist Teil einer umfassenderen Population, die immer das Ergebnis eines evolutionären Entstehungsprozesses ist.
  4. Das Verhalten der Ausgangs-Zelle im Wachstumsprozess wird von Genen gesteuert. Diese bestimmen das entstehende Gehirn in seinen Grundstrukturen (z.B. Größe der Gehirnbereiche, Verhältnis von aktivierenden und hemmenden Neuronen, die quantitativen Mengen der verschiedenen Neurotransmitter, usw.).(vgl. S.247)
  5. Aufgrund des Verhältnisses von ca. 1 Gen zu ca. 8 Mrd. Synapsen (nach Christoph Koch, vgl. S.247) ist klar, dass die Gene nicht die Details der neuronalen Verschaltungen festlegen können. Diese ergibt sich vielmehr aus der Interaktion des Gehirns mit seiner Umgebung (dem Körper). Durch diese Interaktionen (= Lernprozesse) werden manche Verbindungen gestärkt, andere schwächen sich ab; die ungenutzten sterben weg.

DREI WEISEN DER REALITÄT

Notizen Teil 2 zur Lektüre von Kap.9 aus Nick Lane's Buch 'Life Ascending' (2009)

Notizen Teil 2 zur Lektüre von Kap.9 aus Nick Lane’s Buch ‚Life Ascending‘ (2009)

  1. Interessant ist, dass das Reden über das Phänomen des Bewusstseins mindestens drei Wirklichkeitsbereiche voraussetzt: (i) Es gibt einmal den Körper, in dem physikalische, chemische, Biochemische Prozesse ablaufen, die u.a. körperinterne Zustände und Zustandsänderungen kodieren, repräsentieren und miteinander interagieren lassen.
  2. Dann gibt es (ii) Objekte und Ereignisse außerhalb des Körpers, durch die die Körperprozesse nur insoweit tangiert werden, als diese körperexternen Gegebenheiten sich durch Interaktion mit dem Körper irgendwie als Zustandsänderungen im Körper ZVe niederschlagen. Diese körperinternen Zustandsänderungen ZV sind nicht die verursachenden Objekte selbst!
  3. Insofern die extern verursachten Zustandsänderungen des Körpers wiederum mit Teilen des Gehirns interagieren, kann das Gehirn (nn) unterschiedliche Verrechnungsprozesse starten, die zu unterschiedlichen Ereignisstrukturen (ZVnn) führen (also eine Abbildung der Art nn: ZVe —> ZVnn, oder rekursiv: nn: ZVe x ZVnn —> ZVnn x ZVe).
  4. Dass die vom Gehirn errechneten Repräsentationen ZVnn irgend etwas mit der realen Welt außerhalb des Körpers zu tun haben, ist – im ersten Ansatz gedacht – zunächst eher unwahrscheinlich. Warum sollte es einen Zusammenhang geben? Dem steht die tägliche Erfahrung gegenüber, dass jeder Mensch normalerweise das Gefühl hat, dass das Bild, das sein Gehirn von der Außenwelt erzeugt, genau diese Außenwelt ist. Das ist ein Paradox.
  5. Schließlich gibt es noch (iii) die Erlebnisse aus der ersten Person Perspektive, die individuellen persönlichen (privaten, subjektiven) Erlebnisse, Wahrnehmungen, Gefühle, die zwar jeder hat, aber die von einer anderen Person (dritte Person Perspektive, intersubjektiv, empirisch) nicht direkt wahrgenommen werden können.
  6. Für die wahrnehmende Person sind diese subjektiven Erlebnisse real, unmittelbar erlebbar, eine Vielzahl unterscheidbarer Eigenschaften (Qualitäten, Qualia), die alle zusammen vereint erscheinen, eingebunden in ein erlebbares Ganzes, dabei kontinuierlich fließend, d.h. jede Situation geht unmerklich über in die nächste.
  7. Das zweite Paradox ist, dass dieses subjektive Erleben der Welt aus sich heraus keinerlei Rückschlüsse zulässt über jene (neuronalen, physiologischen) Prozesse im Körper, die in der Tat diesen subjektiven Erlebnisstrom erst ermöglichen.
  8. Während sich die physiologischen und neuronalen Prozesse biochemisch beschreiben lassen, man sie detailliert messen kann, entziehen sich die subjektiven Wahrnehmungen jedem messenden Zugriff. Während einige der neuronalen Prozesse zeitlich mit bewussten Wahrnehmungen korrelieren, gilt dies für die große Masse der neuronalen Prozesse nicht. Deren Ablauf erscheint völlig unkorreliert mit möglichen bewussten Wahrnehmungen. Wann ist ein biochemischer Prozess mit Bewusstsein verknüpft, wann nicht? Dies gilt – nach dem Philosophen David Chalmers – als das sogenannte ‚harte Problem‘ des Bewusstseins. (vgl. S.236)

INTERAKTIONEN GEHIRN UND BEWUSSTSEIN

Notizen Teil 3 zur Lektüre von Kap.9 aus Nick Lane's Buch 'Life Ascending' (2009)

Notizen Teil 3 zur Lektüre von Kap.9 aus Nick Lane’s Buch ‚Life Ascending‘ (2009)

  1. Obwohl die genaue Natur des Wechselverhältnisses zwischen intersubjektivem (= empirischem) Gehirn (NN) und subjektivem Bewusstsein (PH) bislang nicht aufgeklärt werden konnte, gibt es doch sehr viele konkrete Fälle, durch die man mögliche Hypothesen über die Wechselwirkung zwischen NN und PH aufstellen kann.
  2. Eine Klasse von Fällen beruht auf Verletzungen/ Zerstörungen/ Ausfällen bestimmter physischer Teile des Gehirns (NN*), die mit typischen Veränderungen im Verhalten der betreffenden Personen (SR*) korrelieren bzw. die oft auch von den betreffenden Personen (PH*) verbal kommentiert werden. Also eine Abbildung der Form: CORR(NN*, SR*). Eine andere Klasse von Fällen beruht auf der umgekehrten Wirkrichtung: man erzeugt bewusst bestimmte Verhaltensreize S‘, die dann bei einem bestimmten Gehirn NN zu bestimmten Gehirnaktivitäten (NN(t)) sowie zu bestimmten Antwortreizen R‘ führen. also nn: S‘ x NN —> NN x R‘.
  3. Zu den einzelnen Fällen siehe SS.238ff
  4. Aus all den Experimenten schält sich heraus, dass das bewusste Erleben von der Art der neuronalen Prozesse direkt und reproduzierbar beeinflusst wird, obgleich bis heute unklar ist, was genau die bewussten Erlebnissen sind.
  5. Ferner zeigt sich, dass das subjektive Erleben zwar als eine Einheit von vielen Eigenschaften (Qualia) zugleich erscheint, die korrelierenden neuronalen Prozesse aber über das ganze Gehirn verteilt sein können. Aus diesem Befund wir die Hypothese hergeleitet, dass dass das Gehirn über Mechanismen verfügt, unterschiedliche Prozesse und Bereiche zum richtigen Zeitpunkt und sachlich angemessen zu korrelieren (hier werden genannt Edelman, Crick und Koch, sowie Singer). (vgl. SS.245ff) Dazu gehört auch die verfeinernde Annahme, dass die Vielzahl der Prozesse eine bottom-up Struktur haben, eine implizite Hierarchie, in der viele Details im weiteren Verlauf immer mehr abstrahiert und mit anderen Prozessen korreliert werden. Nur die obersten Stufen dieser Hierarchie (nicht alle) sind gewöhnlich bewusst.
  6. Letztere Annahme macht es zwar einerseits plausibel, warum und wie das Bewusstsein situationsbezogen genau jene groben Strukturen wahrnimmt, um die es gerade geht, ohne all die Milliarden Details im Untergrund, macht es aber noch spannender mit der Frage, wann, wie, und warum bestimmte biochemische Prozesse in solche bewusste Tatbestände umschlagen und andere nicht. Die berühmte Frage nach den neuronalen Korrelaten des Bewusstseins (NKB) (’neurol correlates of consciousness (NCC)‘)(vgl. S.243)

ERSTE LOKALISIERUNG DES BEWUSSTSEINS

  1. Berücksichtigt man all die vorangehenden Fakten und Hypothesen, dann bleibt es immer noch offen, ob man das Bewusstsein doch noch irgendwie weiter einkreisen kann. Lane lässt sich hier u.a. von Wissenschaftlern wie Julian Jaynes, Derik Denton, Steven Rose, Gerald M.Edelman, Antonio Damasio und José Musacchio inspirieren.
  2. Danach ermutigen  zahlreiche Befunde die Hypothese, dass das Bewusstsein primär im alten Teil des Gehirns gründet (Gehirnstamm, Mittelhirn), in dem die vielfältigen Körperzustände repräsentiert und kontrolliert werden. Hier sind auch die primären Emotionen wie Hunger, Durst, Angst, sexuelle Lust und Schmerz verankert, die alle für das Überleben des Organismus von zentraler Bedeutung sind. Diese kommentieren alle Körperzustände automatisch und wirken sich direkt steuernd auf das Verhalten aus. Jüngere Gehirnteile (wie der Neokortex) können zwar das sachliche Weltbild erheblich weiter ausdehnen, differenzieren, setzen aber das primäre Körpermodell mit seinen emotionalen Kommentaren weiterhin voraus.
  3. Nach Lane sieht Damasio das moderne Selbstbewusstsein verortet als eine neue Berechnungsstufe oberhalb des alten Körpermodells und den neuen Sachdimensionen. Das ausgeweitete und differenziertere Bild der Objekte und Ereignisse in der Außenwelt vermittelt durch den Neokortex wird permanent in seinen Wechselwirkungen mit dem Körpermodell abgeglichen. Dieses liefert auch kontinuierlich emotionale Kommentare. Auf der abstrakteren Ebene können die Körperdaten mit den neuen Situationsmodellen verrechnet werden. Sprache bedeutet sowohl eine neue Repräsentationsebene (Laute, Zeichen, Gesten, …= Syntax)) wie auch eine neue Bedeutungsebene (Abbildung von Zeichenrepräsentanten auf Objektrepräsentanten, einschließlich den Emotionen = Semantik, auch Pragmatik). Insofern jeder Mensch eine hinreichend ähnliche neuronale Struktur besitzt ist auf diese Weise begrenzt eine Kommunikation über die jeweils subjektiven Zustände möglich, aber nur soweit, als die beteiligten Personen über hinreichend ähnliche Erfahrungen verfügen.

ONTOLOGISCHER STATUS DES BEWUSSTSEINS

  1. Bleibt noch die Frage, wie man die Phänomene des Bewusstseins ontologisch einordnen kann/ soll.
  2. Für den Wahrnehmenden sind sie subjektiv real. Verglichen mit Prozessen außerhalb des bewussten Wahrnehmungsraumes ist ihr Status völlig offen.
  3. Lane diskutiert auch explizit Hypothesen aus dem Bereich der Quantenphysik. (vgl. SS.252ff) Doch weder lassen sich diese Hypothesen bisher experimentell überprüfen noch sind sie logisch überzeugend. Die Phänomene des Bewusstseins reräsentiern keine Quantenstruktur.(vgl. S.254)

ABSPANN

  1. Dieses Kapitel 9 von Lane (hier nur in Teilen wieder gegeben) liefert inhaltlich mehr Anregungen als so manches komplettes Buch zum Thema Bewusstsein.
  2. Viele Fragen sind weiterhin offen.
  3. Interessant ist die Frage, wie sich die bekannten psychologischen und neuropsychologischen Gedächtnismodelle zu dieser (anfangshaften) Theorie des Bewusstseins verhalten.
  4. Bislang werden diese Gedächtnismodell unabhängig von Fragen der Bewusstseinstheorie oder der Gehirnentwicklung diskutiert. Auch haben die so einflussreichen Emotionen in diesen Theorien keinen rechten Platz.
  5. Ferner ist das methodische Problem einer Theorie des Bewusstseins angesichts der Vielzahl an Disziplinen und Methoden keineswegs geklärt. So rekurrieren die Gehirnforscher oft und gerne auf korrelierendes Verhalten oder auf korrelierende Bewusstseinstatbestände, ohne dass sie aber auf die methodischen Probleme dieser andersartigen Daten explizit eingehen noch dass sie überhaupt explizite verhaltensbasierte oder bewusstseinsbasierte Theorien voraussetzen. Neuropsychologie und Neurophänomenologie sind wirkliche Desiderata, die allerdings sowohl eine theoriefähige Psychologie wie auch eine theoriefähige Phänomenologie voraussetzen.
  6. Zur Frage der ontologischen Geltung würde ich gerne die Hypothese beisteuern, dass möglicherweise die Bewusstseinsdaten emergente Phänomene sind analog wie viele andere Phänomene, wie z.B. auch die Gravitation. Dies bedeutet, dass unsere Materie nicht nur jene Eigenschaften implizit enthält, die sich im Verlauf der biologischen Evolution in immer komplexeren Zusammenhängen gezeigt haben, sondern im synchronisierten Zusammenwirken von Milliarden von Neuronen entsteht ein Ereignisfeld, das genau jene Qualität zeigt, die wir Bewusstsein nennen. Analog ist die Gravitation auch nur erfahrbar in bestimmten Konstellationen von Materie, ohne dass die Gravitation solch ein einzelner Körper wäre.

Eine Überscht über alle bisherigen Blogenträge des Autors cagent nach Titeln findet sich HIER.

Notiz: INNOVATION ALS METHODE. FLEXIBLER KOGNITIVER SCHWERPUNKT. Nachhall zu einem Gespräch

NEUES IM ALLTAG

  1. Im Alltag passiert es ständig: man trifft auf etwas, was man nicht kennt, was anders ist, was sich anders verhält als gewohnt.

WAS TUN?

  1. Natürlich tut man das, was man immer spontan tut: man versucht es mit Bekanntem zu vergleichen; man versucht, das Neue in bekannte Muster einzuordnen. Man sucht nach Anhaltspunkten, es zu bewerten.
  2. Stellt es eine mögliche Bedrohung des Status Quo dar oder könnte es hilfreich sein? Eröffnet es neue, interessante Handlungs- und damit Erfahrungsmöglichkeiten mit positiven Erweiterungen oder kann es schaden?

SEX-ROBOTER

  1. Im Rahmen eines Workshops wurde unsere Arbeitsgruppe mit unterschiedlichen Szenarien konfrontiert. Eines war ein Videobericht über die Produktion von Sex-Robotern(weibliche; es gibt aber auch männliche sowie transgender Typen).

UND NUN?

  1. Zunächst reagierten alle zurückhaltend, tastend, fragend, befremdet, was soll das? Soll das was mit Liebe zu tun haben? Ist das nicht abartig (verglichen mit der offiziellen Norm, was ‚man so tut‘)?

PUPPEN SIND BEKANNT

  1. Es kamen dann aber Beispiele von Menschen (Kinder, aber auch Erwachsene), die mit Puppen spielen. Puppen haben eine sehr lange Tradition in allen Kulturen. Puppen (leblose Puppen!) regen die Fantasie an, dienen als Projektionsflächen, lassen Rollenspiele zu, ermöglichen Kindern soziale Situationen durchzuspielen, ihre Emotionen auszuprobieren, in spielerischen Interaktionen mit anderen versuchsweise auszuprobieren, wie sich etwas anfühlen würde.
  2. Bei Erwachsenen kennt man die Situation, dass sie Puppen als Ersatzpersonen benutzen: Paare haben Puppen als Kinderersatz, Einzelpersonen haben Puppen als Partnerersatz. Man kann dies vielleicht so lesen, dass ein emotionales und soziales Defizit durch solche Puppen einen leichten Ausgleich erfährt, zumindest so viel, dass diese Menschen dadurch weniger an dem Defizit leiden, den Ersatz sogar genießen können, sich daran freuen.

SOZIALE ROBOTER

  1. Dann gibt es heute in manchen Ländern (speziell Japan) schon tierähnliche Roboter als Haustiere, die vereinsamten Personen den Alltag sozial anreichern. Die berichteten emotionalen Bindungen werden als positiv empfunden.

HAUSTIERE

  1. Was ist mit all den Tierliebhabern? Ja, es sind reale biologische Wesen, aber sind diese Emotionen so anders als bei den künstlichen Puppen oder Robotern? Die emotionale Bindung an die künstlichen Puppen oder Roboter kann, wie wir wissen, sehr stark sein.

VIRTUELLE PARTNER

  1. Nimmt man dazu die vielen Millionen online ComputerspielerInnen: sie spielen oft täglich, oft tägliche mehr als eine Stunde. Nicht wenige sind richtig süchtig (Spielsucht). Während bei den einen diese Spielsucht zum Verfall traditioneller sozialer Bindungen führt, gibt es aber auch den starken Trend, über die Beziehungen in der virtuellen Welt Freundeskreise in der realen Welt aufzubauen. Es entstehen neue, spannende reale soziale Beziehungen.

ZURÜCK ZUM SEX-ROBOTER

  1. Zurück zu den Sex-Robotern. Die moderne Technik macht es möglich, dass es menschenähnliche, aber vom Hersteller bewusst nicht ganz ähnliche, Maschinen gibt, die speziell für sexuelle Handlungen gebaut werden. Allerdings geht das Interesse der Produzenten deutlich über die reine Sexualität hinaus. Das Aussehen, das Verhalten, insbesondere die Dialogfähigkeiten der Sex-Roboter wird ständig verbessert und ausgeweitet.
  2. Jemand berichtete von einer Videodokumentation zu einem Mann, der eine Sex-Puppe (kein Roboter!) hatte, die für ihn zu einem Partnerersatz geworden ist. Jetzt könnte man dies nach bestimmten Partner-Idealen als defizitär, abartig klassifizieren. Aber offensichtlich hat diese Puppe den Mann in einem bestimmten Bereich sein Gefühlslebens stabilisiert. Könnte man daraus vermuten, dass Sex-Roboter dann auch zu einer Ausweitung des Beziehungstyps führen? Der Sex mag der Aufhänger sein, aber das emotionale Feld, das durch solch eine Maschine ausgelöst wird, kann erheblich umfangreicher sein. Blendet man mal aus, dass solche Sex-Roboter natürlich auch eine neue Möglichkeiten bietet, Menschen auszuspionieren, sie zu steuern, sie zu erpressen, könnten solche emotionale Felder auch mögliche Brücken sein zu erweiterten sozialen Kontakten.
  3. Eine andere Teilnehmerin erinnerte daran, dass es bei den Griechen absolut üblich war, dass systematisch junge Männer, eher noch Kinder, älteren Männern zugeführt wurden, und dass die Auffassung bestand, das man ausgehend von der Sexualität/ Erotik zu umfassenderen Liebeserfahrungen kommen könne. Heute wird dies in vielen Ländern als Pädophilie eingestuft und gesellschaftlich geächtet (und nach heutigem Kenntnisstand auch weitgehend gerechtfertigt, da wir gelernt haben, was dies mit der Psyche von Kindern anrichtet).
  4. Interessant ist auch, dass der Begriff ‚emotionale Robotik‘ mittlerweile zusammen geschrumpft ist auf ‚klinisch reine‘ Anwendungen von Robotern in Wechselwirkung mit Menschen, in denen der emotionale Anteil auf einige wenige Emotionen (wobei offen bleibt, was da überhaupt Emotionen sein sollen) eingeschränkt wurde. Während sich zum Stichwort ‚emotionale Robotik‘ (DE) über 500.000 Links finden, sind es bei google (DE) bei ‚Sexroboter‘ ’nur‘ etwa 36.000.
  5. Gemessen an vielen tradierten Vorstellungen zu Sex und Liebe erscheint der Sex-Roboter als unangemessen. Zugleich muss man aber auch sagen, dass die tradierten Bildern von Sex und Liebe meistens sehr schlicht, dazu oft noch ideologisch verbrämt, sind, die wenig mit der biologischen und psychischen Realität zu tun haben. Man müsste mal abwarten, wie Menschen diese neue Technologie erleben, wie sie sich auswirkt.

BLINDE FLECKEN BEI WAHRNEHMUNG SOZIALER REALITÄT

  1. Das Autofahren produziert jedes Jahr viele tausend Tote; aber das regt praktisch niemand auf. Man betrachtet es als den gesellschaftlichen Preis für die Mobilität.
  2. Der übermäßige Zuckeranteil in sehr vielen Lebensmitteln macht immer größere Anteile der Bevölkerung übergewichtig und schwer krank. Die Gesellschaft erleidet damit eine vielfache Belastung, nicht zu reden von den vielen Milliarden Gesundheitskosten, die entstehen.
  3. Schon heute gibt es Untersuchungen, die zeigen, das große Anteile der Kinder und Jugendliche (aber auch Erwachsene), durch die Smartphones und umfassend verfügbaren Netze psychisch abhängig von diesen Geräten geworden sind. Sie können sie nicht mehr ausschalten, sie können nicht mehr einfach so irgendwo sitzen, gehen, sich mit anderen unterhalten. Menschen sitzen am gleichen Tisch und jeder macht irgendetwas mit seinem Smartphone; nur direkt miteinander reden, das funktioniert nicht mehr.

UMGANG MIT NEUEM

  1. Was haben alle diese Beispiele gemeinsam? Neue Gegenstände, neue Technologien, eröffnen neue Erfahrungs- und Handlungsmöglichkeiten. Menschen können durch den Gebrauch sich selbst, ihre Gefühle, anders als vorher erleben. Sie können darin auch andere oft neu erleben. Die Gesamtheit der Wirkungen entfaltet sich aber meist erst nach längerer Zeit, nach längerem Gebrauch. Wenn es wirklich etwas Neues ist, dann kann man es nicht vorab mit dem alten Wissen angemessen begreifen, verstehen, bewerten. Natürlich schließt dies ein Risiko ein: es kann sein, dass der Schaden nachher größer ist als der Nutzen. Dann ist das Klagen groß und jeder wusste es besser. Es kann aber auch sein, dass neue Erfahrungs- und Lebensmöglichkeiten entdeckt werden. Dann freuen sich alle. Vorher wissen konnte man dies aber real nicht. Das Neue ist ohne reales Risiko nicht zu haben. Der Preis einer besseren Zukunft ist immer die Möglichkeit von Verlust und Scheitern.

Einen Überblick über alle Blog-Einträge von Autor cagent nach Titeln findet sich HIER.

FOLGT AUS DER ANNAHME VON EMERGENZ DIE FUNKTION-IN-MATERIE HYPOTHESE? Anmerkungen zu Monod, Dawkins, Wilson und speziell Kauffman

Here You can find an audio-version in English, which is not a direct translation of the German text below. Rather it is
an unplugged version of the ideas without a given English Text.
Please excuse my bad English. I did it as a special tribute for Stuart Kauffman, who did such a great Job with his ‚Reinventing the Sacred‚.

  1. Die letzten beiden Blogeinträge standen unter dem Eindruck des evolutionär ungeheuerlichen Phänomens der neuen Geistigkeit eines homo sapiens sapiens (hss, Mensch), der in der Lage ist, die Gegenwart eines Jetzt zu überwinden, indem er über Gedächtnis, Abstraktion, Vergleich, Schlussfolgern und weiteren kognitiven Eigenschaften verfügt, die es ihm ermöglichen, das jeweilige Jetzt einzureihen in eine Folge von Jetzten, in Veränderungen, in Prozesse, in darin waltenden Beziehungen/ Relationen/ Regeln.
  2. Diese Beobachtungen sind nicht singulär. Angeregt durch Gespräche mit meinem Freund MaFa wurde ich ausdrücklich aufmerksam auf jene soziobiologische Diskussion, die sich im Kontext von Personen wie Jacques Monod, Richard Dawkins und Edward O.Wilson findet.
Monod-Dawkins-Wilson

Monod-Dawkins-Wilson

  1. Das Leitthema von Monod, Dawkins und Wilson lässt sich vielleicht zusammenfassen in der These, dass die beobachtbaren Phänotypen und Verhaltensweisen von biologischen Systemen grundlegend und primär von ihren Genen bestimmt wird. Was immer die verschiedenen biologischen Systeme tun (einschließlich des hss), sie folgen in ihrem Tun den grundlegenden Interessen der Gene.
  2. Diese Gedanken sind primär stimuliert durch die Erkenntnisse der modernen Evolutionsbiologie, Molekulabiologie und Genetik. Ein Blick in die mikrobiologischen chemischen Prozesse von Selbstreproduktion lässt wenig Raum für andere Gedanken. Was wir dort sehen sind Moleküle, die miteinander wechselwirken und in diesen Wechselwirkungen neue Moleküle, ganze Zellen generieren, die wieder das Gleiche tun. In dieser Perspektive ist kein Raum für irgend etwas anderes.
  3. Schon stark abstrahierend könnte man die Struktur des DNA-Moleküls (das von anderen Molekülen als Informationsträger interpretiert wird) als Speicher vergangener Erfolgsrezepte deuten und die nicht voraussagbare Variabilität innerhalb des Reproduktionsprozesses als zufälliges Geschehen, das keinerlei außen geleitete Beeinflussungen (Monod) erkennen lässt.
  4. Auffällig ist, dass alle Autoren, insbesondere aber Monod und Dawkins, diese Beobachtungen und Überlegungen zum Anlass nehmen, neben den biologischen Sachverhalten noch kulturelle Interpretationsmuster und -praktiken zu kritisieren, die sich als Religionen darstellen und die das Wort Gott dazu benutzt haben/ benutzen, um dem grundlegend biologischen Geschehen eine spezielle religiöse Deutung unter zu legen: diese beobachtbaren biologischen Prozesse seien letztlich in einem größeren Kontext zu sehen, nämlich dass es einen umfassenden schaffenden Gott gibt (Creator, Schöpfer), der dies alles angestoßen hat und ermöglicht.
Stuart Kauffman - Benutze Texte

Stuart Kauffman – Benutze Texte

  1. Stuart Kauffman, der sich Jahrzehnte mit den physikalischen, biochemischen und molekularbiologischen Grundlagen des Lebens auseinander gesetzt hat, der aber zugleich komplexe mathematische Modellbildungen und Simulationen einbezogen hat, kommt bei den Themen der vorgenannten Autoren zu anderen Schlussfolgerungen.
Abrahamitiche Religionen nd moderner Reduktionismus

Abrahamitiche Religionen nd moderner Reduktionismus

  1. Zunächst einmal macht er darauf aufmerksam, dass in der Tat historisch die abrahamitischen Religionen (Judentum, Christentum, Islam) das Wort Gott sowohl für die letzten umfassenden Erklärungen benutzt haben (Gott als Schöpfer) wie auch als letzte Quelle jeglicher Moralität. Und es war die moderne empirische Wissenschaft, die mit ihrem neuen methodischen Zugang zur Erforschung der Welt zwar neue, starke, belastbare Fakten geschaffen hat, aber keinen Raum mehr lässt für Werte oder spirituelles Erleben. Mit der Kritik an einer problematischen Verwendung des Wortes Gott wurden gleich viele einschlägige Phänomene mit beerdigt. Der modernen Gesellschaft mangelt es daher an jeglicher Basis, um solche Wertsysteme zu schaffen, die jede moderne – und globale – Gesellschaft benötigt, um zu funktionieren.
  2. Kauffman sieht hier eine Art Überreaktion der modernen Wissenschaft, die vor lauter Bemühen, unberechtigte Deutungsansprüche seitens der etablierten Religionen abzuwehren, dabei auch Aspekte ausklammert, die eigentlich zum legitimen Phänomenbereich der Wissenschaften gehören sollten. Diese Überreaktion macht sich fest an einer Denkhaltung, die er Reduktionismus nennt.
  3. Die Diskussion über Reduktionismus ist nicht neu und hat schon zu vielen theoretischen Diskursen vor Kauffman Anlass gegeben. Kauffman greift diese Debatte aber wieder auf und macht anhand zahlreicher Beispiele deutlich, dass die Rückführung komplexer Phänomene auf einfache Bestandteile vielfach zu absurden Rekonstruktionen führt, die im Endeffekt das auslösende komplexe Phänomen praktisch zum Verschwinden bringen, nicht aber wirklich erklären.
  4. Anders gesagt, sei KP ein komplexes Phänomen mit Verhaltenseigenschaft f_kp, das man in Beziehung setzt zu einfacheren Bestandteilen E={e1, …, en}. Dann müsste man Gesetzmäßigkeiten f_e für die Bestandteile E finden, die so sind, dass sich ihre Funktionalität f_e direkt parallelisieren lässt mit der komplexen Funktionalität f_kp. Also ein Zustand S1_e mit Elementen E geht mittels f_e über in einen anderen Zustand S2_e, und parallel, synchron geht ein Zustand S1_kp über in einen anderen Zustand S2-Kp mittels der Funktion f_kp.
  5. Beispiel: ich tippe (komplexes Phänomen KP) bei meinem Computer die Taste ‚A‘ und auf dem Bildschirm erscheint ein ‚A‘. Tief unten im Computer, sagen wir auf der Ebene der logischen Gattern (elementare Bestandteile ) , realisiert in der Hardware, gibt es tausende, hunderttausende oder mehr elektrische Potentiale, wild verteilt im Mehr von vielen Milliarden elektrischen Potentialen, die ihren Zustand ändern, ohne dass man an den vielen logischen Gattern irgend eine Eigenschaft erkennen könnte, warum gerade diese nun ihr Potential ändern und nicht andere. Eine Beschreibung von Potentialänderungen auf der Gatterebene ist zwar möglich, wäre aber wenig hilfreich, um die vielen hunderttausend unterschiedlichen Phänomene auf der Nutzerebene zu unterscheiden. Dies wäre noch schwieriger, würde man noch tiefer steigen und auf die Ebene der Atome zurückgehen, die letztlich jedem logischen Gatter in der Hardware zugrunde liegen. Damit würde jeder Versuch einer systematischen Zuordnung zu komplexen Phänomenen sinnlos.
  6. Analog wäre dies, wenn man die Vielfalt biologischer Phänotypen auf das Verhalten zugrunde liegender Atome zurückführen würde. Man würde alle jene Phänomene verlieren, die gerade das Besondere ausmachen.
  7. Damit stellt sich die Frage, wie man denn komplexe Phänomene anders betrachten kann als im Stil eines Phänomen-vernichtenden Reduktionismus ohne dabei Wissenschaftlichkeit einzubüßen?

EMERGENZ

Emergenz - Enige Thesen von Kauffman

Emergenz – Enige Thesen von Kauffman

  1. Kauffman bringt an dieser Stelle den Begriff Emergenz ins Spiel und erklärt ihn in dem Sinne, dass er sagt, dass erkenntnistheoretisch (epistemologisch) die Rückführung eines Komplexen auf seine Bestandteile dann sinnlos wird, wenn man von den Bestandteilen selbst aus das Komplexe nicht konstruieren könnte. In diesem Fall kommt dem Phänomen eine ontologische Geltung zu, d.h. das Phänomen ist empirisch real, existierend und damit ein mögliches Objekt der empirischen Wissenschaft. Statt es also weg zu interpretieren durch einen sachfremden Reduktionismus muss man stattdessen nach neuen wissenschaftlichen Erklärungen suchen, die dem Phänomen gerecht werden.
  2. So sind es ja auch nicht die Gene selbst, die dem Selektionsprinzip der Natur unterworfen werden, sondern nur jene emergenten Eigenschaften der Phänotypen (Körper), die als reale Phänomene in der empirischen Welt real wechselwirken und darin entweder Leben erhalten oder Leben verlieren können. Die Gene profitieren nur indirekt von diesem Geschehen, insofern sie Teile eines größeren Ganzen sind, das als dieses Ganze eine funktionale Rolle spielt und nur insofern das Ganze überlebt dann auch mit überleben. Die Gene als solche sind nicht überlebensfähig, wohl aber als Teil eines Ganzen, das mehr ist als seine Teile!
  3. Insofern müsste man sagen, dass emergente Phänomene solche sind, die als Ganzes eine Funktionalität, ein Verhalten zeigen, das möglich ist in dieser umfassenden Konstellation. Die Rückführung auf die einzelnen Teile des komplexen Phänomens würde dieser komplexen Verhaltensweise die materielle Basis nehmen. (Etwas Ähnliches haben wir ja auch bei vielen physikalischen Phänomenen. So ist das Phänomen der Gravitation zwar als Wirkung (Verhalten, Funktionalität) zwischen Körpern beobachtbar, aber bei Betrachtung eines einzelnen Körpers alleine wäre sie nicht vorhanden.)
  4. Dies führt – über Kauffman hinausgehend – zu der Überlegung, dass komplexe (emergente) Phänomene nur möglich sind, weil ihre Funktionalität (Verhaltensweise) grundsätzlich in den beteiligten materiellen Komponenten angelegt ist. Diese Verhaltensweisen können sich aber nur zeigen, wenn eine entsprechende Anordnung/ Konstellation der beteiligten materiellen Komponenten vorliegt. Ich nenne dies die Funktion-in-Materie Hypothese. D.h. das, was wir Materie nennen, das ist ein Material, das implizit potentiell nahezu unendlich viele Funktionalitäten (Verhaltensweisen) erlaubt, je nachdem , wie man das Material anordnet.
  5. So wissen wir aus der Chemie, dass sich mit den bekannten Atomen als Bausteinen je nach Kontext nahezu unendlich viele Atomkombinationen (Moleküle) erzeugen lassen, die jeweils ganz andere Verhaltensweisen (Funktionalitäten) zeigen. Diese Funktionalitäten sind real, sie sind nicht zufällig, sondern sie sind die realen Manifestationen von realen Eigenschaften der beteiligten materiellen Komponenten. Sie müssen nicht erfunden werden, sondern sie sind implizit schon immer fester Bestandteil der materiellen Komponenten.
  6. So ist auch die Frage nach dem Ursprung des biologischen Lebens, die sich erst seit kurzem einer möglichen Antwort nähert, letztlich keine Frage nach einem unerklärbaren Wunder, sondern nur die Frage nach jener Konstellation von Materie (Atomen, Molekülen, Kontextbedingungen), durch die genau jene Funktionalitäten zum Zuge kommen konnten, die einerseits implizit zur Verfügung sehen, die sich aber andererseits erst bei entsprechender (auch komplexer) Anordnung zeigt.

BEWUSSTSEIN

  1. Dies lässt möglicherweise auch das Phänomen des (menschlichen) Bewusstseins bzw. die Phänomene des Geistigen in einem neuen Licht erscheinen. Für viele (auch für mich) ist das Phänomen des menschlichen Bewusstseins auf jeden Fall ein emergentes Phänomen im vollen Sinne (nicht erklärbar durch seine Teile, sprich hier die neuronale Zellen).
  2. Für manche (Kauffman, Edelman, …) impliziert die Besonderheit dieses Bewusstseins u.a., dass es von der physikalischen Kausalität seiner Bestandteile abgekoppelt ist, und man versucht diese spezielle Autonomie des Denkens und Wollens durch Rückgriff auf quantenphysikalische Überlegungen zu erklären. Möglicherweise sind diese akrobatischen Denküberlegungen nicht notwendig.
  3. Einmal gibt es seit der Einführung des philosophisch-mathematischen Konzepts der Turingmaschine den logisch-mathematischen Beweis, dass selbst das Verhalten einer voll deterministischen endlichen Turingmaschine, deren Beschaffenheit vollständig bekannt ist, prinzipiell nicht in allen Fällen vorausgesagt werden kan; es ist nicht entscheidbar,  was diese Machine im nächsten Schritt tun wird (das berühmte Halteproblem). Wäre also unser Gehirn formal einer Turingmaschine äquivalent (was manche bezweifeln, weil sie glauben, das Gehirn sei komplexer als eine Turingmaschine), dann wäre das Verhalten des Gehirns nicht in allen Fällen voraussagbar. Wäre das Gehirn noch komplexer, würde sich jede Aussage über ein mögliches Verhalten erübrigen; wir wüssten nicht einmal, wie wir die Frage formulieren sollten.
  4. Zum anderen impliziert ja der Begriff der Emergenz, dass sich das komplexe Phänomen gerade nicht aus seinen Bestandteilen ableiten lässt, sonst hätten wir gar kein emergentes Phänomen. Genauso wenig, wie man aus den logischen Gattern eines Computers irgendeine der komplexen Verhaltensweisen ableiten könnte, die die Programmierung für die Benutzer zur Verfügung stellen, genauso (und noch viel weniger) kann man aus den Neuronen des Gehirns seine erfahrbare komplexe Funktionalität ableiten. Es ist eben so, dass bei einem emergenten Phänomen die simultane Koexistenz der Bestandteile eine Funktionalität sichtbar und möglich macht, die originär ist, nicht herleitbar und erklärbar aus seinen Bestandteilen. Die vielen Diskussionen um Willensfreiheit und deren Infragestellung durch Messungen elektrischer Potentiale einzelner Neuronen ist in diesem Kontext theoretisch absurd und lächerlich.
  5. Dieses hier unterstellte Verständnis von Emergenz wirft allerdings ein neues Licht auf die ganze Frage von Bewusstsein und Geist im philosophischen Sinne.
  6. Generell ist es zwar schwierig, überhaupt über Geist zu reden, da die vielen philosophischen Texte mit so unterschiedlichen Begriffen, Methoden und Blickweisen operieren, aber jeder kann ja sein eigenes Bewusstsein betrachten, seine eigene Geistigkeit, und an dieser ablesen, dass alle unsere Vorstellungs- und Denkinhalte so sind, dass man von diesen in keiner Weise auf die Art ihrer Hervorbringung, nämlich durch eine komplexe neuronale Maschinerie, schließen kann. Das Bewusstsein bildet ein geschlossenes System von Phänomenen, die einer eigenen Logik folgen, die sich zwar eines Körpers und einer unterstellten Außenwelt bedienen kann, aber zugleich in einer speziellen Weise autonom ist: prinzipiell kann alles gedacht werden, alles kann abgeändert werden, alles kann gewollt werden. Im Bewusstsein, im menschlichen Geist, erscheint alles beliebig klein oder groß, alles erscheint möglich. Man kann sogar die ermöglichende materielle Welt als solche untersuchen, beschreiben, neu denken, abändern. Jeder Versuch, diese Phänomene des Bewusstseins, des menschlichen Geistes, auf die ermöglichenden materiellen Bestandteile, zu reduzieren, ist vollständig unsinnig, geradezu absurd.

AGENCY, WERTE

  1. Es ist vor diesem Hintergrund nicht verwunderlich, dass Kauffman in all den emergenten Phänomenen des Lebens – beginnend bei der einfachsten Zelle – eine neue Qualität von Realität am Werke sieht, die er Agentenschaft (‚agency‘) nennt, eine Struktur des autonomen Handelns, die sich in diesem Handeln in keiner Weise mit physikalischen Gesetzen voraussagen lässt. Im Lichte dieser neuen universellen biologischen Agentenschaft werden die bloßen Fakten eingebettet in Verhaltensdynamiken, die nicht mehr nur und alleine von den beschreibbaren Fakten bestimmt/ determiniert sind, sondern die aufgrund ihrer jeweiligen Autonomie neue Zusammenhänge, neue Bewertungen der Fakten sichtbar machen, die die Bedeutung von Fakten für mögliche Lebensprozesse generieren, die als Anhaltspunkte für eine universelle Bewertung von Leben auf der Erde bzw. im ganzen Universum dienen können. Diese neue Form von Bewertungen jenseits bloßer Fakten kann man Werte nennen.
  2. In der bekannten Kulturgeschichte des hss finden sich immer und überall unterschiedliche Bewertungen (Werte) von Verhaltensweisen. Zum Teil kann man ihre Verwurzelung in konkreten Lebensabläufen nach vollziehen, z.T wurden sie aber daraus losgelöst und mit speziellen Autoritäten (oft mit den Namen von Göttern) verknüpft, um ihnen eine über die momentane Situation hinausgehende Geltung zu verschaffen. So verständlich diese Überhöhung von Geltungen für manche Interessengruppen sein mag, auf lange Sicht sind sie lebensfeindlich, da sie die konkreten Bedingungen ihrer Geltung verwischen und sie damit einer notwendigen Transparenz und Kritisierbarkeit entziehen. Emergente Lebensprozesse brauchen Erkenntnisse über lebensfördernde oder lebensfeindliche Wirkungen von Verhalten. Entzieht man diese Erkenntnisse der direkten Kontrolle (durch unhinterfragbare Autoritäten), dann macht man emergente Lebensprozesse blind. Alle bekannten Religionen haben sich dieser Werteverschleierung schuldig gemacht. Alle bekannten Diktaturen benutzen die Methode der Werteverschleierung, um ihren speziellen, letztlich lebensfeindlichen, Prozesse zu begründen. Leider muss man die Wissenschaft, sofern sie reduktiv argumentiert, hier einbeziehen. Durch reduktive Denkstrategien werden nahezu alle lebenswichtigen emergente Phänomene verbal, denkerisch (zum Glück nicht ontologisch) vernichtet.

HEILIGER STUART KAUFFMAN 🙂

  1. Wenn man bedenkt, welch harten Denkweg Start Kauffman von der Physik, Molekularbiologie, Komplexitätstheorie – um nur die wichtigsten Felder zu nennen – hin zu den emergenten Phänomenen zurückgelegt hat, und dann sieht, wie er viele wichtigen emergenten Phänomene (auch Bewusstsein, auch Spiritualität) dem wissenschaftlichen Denken wieder zugeführt hat, dann kommt ihm – aus meiner Sicht – eine große Ehrung zu. Es dürfte nicht all zu viele geben, die ihm in dieser Rolle, in diesem umfassend komplexen Denken mit Offenheit für die emergenten Phänomene, gleich tun. Das eben gehört zum Wunder von Agency, von lebensbasierter Spiritualität, von Emergenz, von menschlicher Geistigkeit.

Eine Übersicht über alle Blogeinträge von cagent nach Titeln findet sich HIER.

MEMO: AUGE IN AUGE MIT DER KÜNSTLICHEN INTELLIGENZ. PHILOSOPHIESOMMER 2016 IN DER DENKBAR – Sitzung vom 12.Juni 2016

Entsprechend den vielfachen Wünschen der Teilnehmer war für die Sitzung am 12.Juni 2016 ein Experte für intelligente Maschinen eingeladen worden, eine kleine Einführung in die aktuelle Situation zu geben.

Ziel des Beitrags sollte es sein, anhand konkreter Beispiele ein wenig mehr zu verdeutlichen, was intelligente Maschinen wirklich leisten können. Im anschließenden Diskurs sollte es wieder darum gehen, diesen Beitrag als Ausgangspunkt zu nehmen, um die Fragen der anwesenden Teilnehmer und ihre Gedanken zu Worte kommen zu lassen.

Gedankenskizze von der Sitzung des Philosophiesommers 2016 in der DENKBAR vom 12.Juni 2016

Gedankenskizze von der Sitzung des Philosophiesommers 2016 in der DENKBAR vom 12.Juni 2016

Das Diagramm gibt einen ersten Überblick über die Struktur der Sitzung. Im Einstieg wurden in lockerer Form verschiedene Videos vorgestellt, immer wieder unterbrochen durch ad hoc Erläuterungen, die sehr konkrete Eindrücke von den agierenden Forschern und ihren Algorithmen vermittelten. Danach gab es ein sehr lebhaftes Gespräch, in dem weniger die Details der Algorithmen diskutiert wurden, sondern mehr die Gefühle, Befürchtungen und Fragen, die das Ganze bei allen auslöste.

KI DIREKT

Das Gebiet der KI ist ziemlich groß. An diesem Tag wurde von einem kleinen Ausschnitt berichtet, er sich aber zur Zeit im Zentrum größten Interesses befindet. Es ging vornehmlich um Bilderkennung und ein bisschen um Methoden des anfangshaften Verstehens von Sprache.

Bei der Bilderkennung wurden Beispiel gezeigt, wie Rechner heute Szenen analysieren und darin dann einzelne Objekte erkennen könne; wie dann in einer Folge von Szenen die erkannten Objekte räumliche Strukturen bilden können (Räume, Straßen, …), in denen man dann nach Pfaden/ Wegen suchen kann. Unter den Videos war auch eine künstlerische Anwendung, die zeigte, dass man diese Technologien auch ganz anders einsetzen kann. (Ergänzend kann man z.B. auch hinweisen auf Bereiche wie die Musik, in der KI mittlerweile komplexe Musikstücke analysieren und neu arrangieren kann, und sogar als eigenständiger Musiker in einer Band mitspielen kann, z.B. „Wunder der Technik Musikalische Drohnen ersetzen das Orchester „, oder „Neue Jobs für Roboter„).

Bei dem anfangshaften Verstehen von Sprache wurden Methoden vorgestellt, die aus den Verteilungen von Worten und Wortverbindungen zu Bedeutungsschätzungen kommen können, und auch hier wieder alltagspraktische Anwendungen wie jene, bei der Texte eines Politikers künstlerisch so abgewandelt werden konnten, dass sie wie die Texte dieses Politikers aussahen, aber vom Algorithmus produziert worden waren. Aber auch hier gilt, dass dies nur ein kleiner Ausschnitt von dem war, was heute schon im Einsatz ist (man denke an den sogenannten Roboter-Journalismus, wo die Nachrichten und Artikel ganzer Webseiten mittlerweile komplett durch Algorithmen erstellt werden, z.B. „Roboterjournalismus: Maschinen ohne Moral“ oder „Automatisierter Journalismus: Nehmen Roboter Journalisten den Job weg?)

GESPRÄCH : WIDERHALL IN UNS

Bei den Teilnehmern überwog die Skepsis die Faszination.

KI AKTEURE

Auffällig war den meisten, wie jung die Akteure in der Szene waren, selbst die Chefs und CEOs von milliardenschweren Unternehmen. Wie diese (scheinbar) unbekümmert die Vorzüge ihrer Technik priesen, begeistert, enthusiastisch; Nachdenklichkeiten, kritische Überlegungen sah man nicht (im Kontrast dazu vielleicht die Eindrücke, die man von deutschen Konzernen hat mit ihren schwerfälligen autoritären Strukturen, mit ihren zementierten Abläufen, der großen Risikoaversion…). Der Geist der KI-Akteure hingegen erzeugt Neues, Innovatives, bewegt die Welt. In Erinnerungen an den Bau der Atombombe mit den begeisterten Forschern für das technische faszinierend Machbare stellte sich mancher aber auch die Frage, ob diese Unbekümmertheit, diese emotionslose Technik, nicht auch gefährlich ist (je mehr Bilderkennung z.B. im öffentlichen Bereich, dann auch mehr umfassende Kontrolle, Überwachung. Das ‚System‘ weiß dann immer, wo man gerade ist und mit wem er zusammen ist (immerhin hat sich das US-Verteidigungsministerium den Chef von Alphabet (dazu gehört google) mittlerweile offiziell als Berater geholt)). Andere fragten sich, ob es in Zukunft eigentlich nur noch Informatiker gibt (quasi als allfällige Diener der KI), während alle anderen überflüssig werden.

OFFENE ZIELE

Sieht man die aktuelle Techniksituation als Momentaufnahme eines Prozesses mit einer Geschichte und möglichen Zukünften, dann kann (und muss?) man die Frage, nach dem darin wirkenden Fortschrittsbegriff stellen, nach den wirkenden Kriterien.

WAS IST INTELLIGENZ?

Ein Teilaspekt ist der Begriff der Künstlichen Intelligenz mit dem Teilbegriff Intelligenz. Was ist damit eigentlich gemeint? Auf welche Intelligenz bezieht man sich? In der Psychologie benutzt man seit ca. 100 Jahren einen operationalisierten Intelligenzbegriff zur Messung der Intelligenz (Binet). Doch diese Betrachtungsweise ist sehr quantifizierend und wird vielfach kritisiert, auch mit Verweis auf kulturelle Unterschiede. Im Unterschied zur Pschologie findet man im Bereich der KI selbst bzw. in der Informatik keine einheitliche Definition von Intelligenz (siehe z.B. KI ). Während die KI im klassischen Sinne sich an der Intelligenz von biologischen Systemen orientiert, die nachempfunden werden soll, findet sich heute vielfach ein engeres, ingenieurmäßiges Verstehen von KI als Maschinelles Lernen. Hier wird die Frage nach Intelligenz im allgemeinen gar nicht mehr gestellt. Stattdessen gibt es immer konkrete, spezielle Aufgabenstellungen, die technisch gelöst werden sollen, und die Lösung konzentriert sich dann ausschließlich auf diese eingeschränkten Aspekte.

SELBSTBESCHREIBUNG DES MENSCHEN ALS MASCHINE

Die Diskussion um den Intelligenzbegriff streift auch das Phänomen, dass die Menschen in nahezu allen Epochen dahin tendieren, sich selbst immer im Licht der neuesten Erkenntnisse und Techniken zu beschreiben, sozusagen auf der Suche nach sich selbst. Eigentlich weiß kein Mensch so richtig, wer er ist und ist dankbar für jedes Bild, was man ihm anbietet. So vergleichen sich Kinder heute häufig mit einem PC: ‚mein Kopf ist wie ein Computer‘; ‚ich habe das nicht abgespeichert‘; ‚meine Festplatte ist leer’…. Zu Zeiten eines La Mettrie (1709 – 1751)  wurde der Geist der Dualisten (vor allem repräseniert duch Descartes) aus dem Körper des Menschen verbannt; der Körper war nur noch eine Maschine (im damaligen Verständnis) ohne Geist.

VIRTUALITÄT ALS GEFAHR?

Mit Blick auf die KI und die enorme Zunahme an digitalen Räumen als virtuelle Welten wurde auch die Frage aufgeworfen, wieweit dies eine Gefahr darstellt? Verzetteln wir uns nicht? Wissen wir noch Virtuelles und Reales auseinander zu halten? Dazu sei angemerkt, dass sich das Erleben und Denken des Menschen ja primär in seinem Gehirn abspielt, das als Gehirn im Körper sitzt ohne direkten Weltbezug. D.h. schon das normale Denken des Menschen hat das Problem, dass es dem einzelnen zwar real erscheint, inhaltlich aber – bezogen auf eine unterstellte Außenwelt – mit der Außenwelt nicht automatisch übereinstimmen muss. Es gehört ja gerade zur Kulturgeschichte des Menschen, dass er mühsam lernen musste, dass die meisten Gedanken der Vergangenheit eben nur Gedanken waren und nicht die Welt beschrieben haben, wie sie wirklich (=empirisch überprüfbar) ist. Insofern stellen die neuen virtuellen Welten nichts wirklich Neues dar, wohl aber eine Modifikation der Situation, die neu verstanden und gelernt werden muss.

BRAUCHEN WIR NOCH MEHR EVOLUTION?

Greift man nochmals den Gedanken auf, dass die aktuelle Techniksituation als Momentaufnahme eines Prozesses mit einer Geschichte und möglichen Zukünften Teil der Evolution ist, wurde gefragt, ob wir noch mehr Evolution brauchen? Außerdem, welches Ziel hat diese Evolution?

Mit Blick auf den Blogeintrag vom 11.Juni 2016 wurde eingeblendet, dass sich die Frage nach der Evolution möglicherweise anders stellt. Schliesslich sind wir selbst, alle Menschen, alle Lebewesen, Produkt der Evolution, wir sind Teilnehmer, aber bislang nicht als Herren des Geschehens. Und vieles spricht dafür, dass alle Phänomene im Umfeld des Menschen auch nicht los lösbar sind von der Evolution. Sie gehören quasi dazu, wenn auch vielleicht in einem neuen qualitativen Sinn. Soweit wir heute erkennen können, ist es seit dem Auftreten des homo sapiens sapiens (hss) zum ersten Mal seit dem Auftreten des Lebens auf der Erde möglich, dass das Leben als Ganzes sich in Gestalt des hss sich quasi selbst anschauen kann, es kann sich mehr und mehr verstehen, es kann seine eigenen Baupläne lesen und mehr und mehr abändern. Dies eröffnet für das Leben auf der Erde (und damit im ganzen bekannten Universum) eine völlig neue und radikale Autonomie. Die allgemeine physikalische Entropie wird bislang dadurch zwar nur lokal aufgehoben, aber immerhin, dass es überhaupt möglich ist, über die bekannten Naturgesetze hinaus durch bestimmte Prozesse Strukturen zu erzeugen, die der Entropie zuwider laufen, ist ein bemerkenswertes Faktum, das bislang von der Physik so gut wie gar nicht zur Kenntnis genommen wird (und auch nicht von den Akteuren selbst, dem hss).

RADIKALE AUTONOMIE

Möglicherweise ist die fundamentale Tragweite der neuen radikalen Autonomie des Lebens auch deshalb noch nicht so recht ins Bewusstsein getreten, weil im Alltag, im konkreten Dasein, die körperlichen Grenzen sehr deutlich sind, die ganze Trieb-, Bedürfnis-, und Emotionsstruktur des Menschen in ihrer Konkretheit und Intensität vielfach als so stark empfunden wird, dass man die großen Linien, die geradezu kosmologische Dimension dieser radikalen Autonomie noch kaum wahrnimmt.

Dazu kommt, dass die Tatsache, dass sich fast alle interessanten Prozesse im Innern des Menschen abspielen, es notwendig macht, dass diese inneren Prozesse über Kommunikation miteinander koordiniert werden müssten. Dies ist aufwendig und schwierig. Viele (die meisten) Menschen scheitern hier, kapitulieren. So verharren sie – und damit ganze Generationen – in bestimmten Empfindungs-, Denk- und Handlungsmustern, die nicht weiter führen, die eher Rückschritt bedeuten.

Aktuell erscheint es offen, in welche der vielen möglichen Zukünfte wir uns bewegen werden. Werden demnächst die intelligenten Maschinen alles übernehmen, weil der hss ausgedient hat? Oder wird es doch bei einer Symbiose auf hohem Niveau bleiben, in der der hss die intelligenten Maschinen für sich nutzt und die intelligenten Maschinen durch den Menschen Räume erobern können, die ihnen sonst verschlossen wären? Oder – und diese dritte Möglichkeit sieht aktuell – soweit ich sehe – eigentlich noch niemand – wird er Mensch in den nächsten Jahren neu erwachen und begreifen, dass diese radikale Autonomie etwas radikal Neues darstellt, etwas, das es so noch nie zuvor in den 13.8 Mrd Jahren gegeben hatte?

Um die radikale Autonomie nutzen zu können, muss der Mensch erstmalig in der Geschichte des Lebens die Frage nach den Werten, nach den Zielen, wohin die Reise eigentlich gehen soll, selber stellen … und beantworten. Bis zum hss gab es keine Wertediskussion. Die Evolution stellte einen Prozess dar, in dem bestimmte Lebensformen im Kontext der Erde überlebt hatten; das waren die einzigen Werte im Nachhinein. Vor der Neuwerdung im Reproduktionsprozess gab es keine expliziten Werte. Es gab bisherige Erfolge und viel Zufall.

Einen Überblick über alle Beiträge zum Philosophiesommer/ zur Philosophiewerkstatt nach Titeln findet sich HIER.

EIN EVOLUTIONSSPRUNG PASSIERT – JETZT – UND NIEMAND BEMERKT ES?

FANTASIE ALLÜBERALL

  1. Die Geschichte der Menschheit ist voll von Fantasien, Träumen, Mythen, Utopien, Science Fiction. Heutzutage wird die Bilderflut noch verstärkt durch die vielen medialen Kanälen, in denen das Gehirn überschwemmt wird mit Bildern, die sich kaum noch einordnen lassen lassen als real, oder als fantastisch oder was genau?

WUNDERBARES GEHIRN

  1. Diese Bilderflut ist möglich durch ein Gehirn, das in der Lage ist, aktuell Gegebenes, das Jetzt, durch Erinnerungen, Abstraktionen, freie Kombinationen hinter sich zu lassen. Das Jetzt kann darin zu einem Moment in einer Folge werden, und die Folge wird zu einem Ist, das zwar passiert, aber beeinflussbar ist. Der hss lernt, dass er selbst kein rein passives Etwas ist, sondern auf vielfältige Weise Einfluss nehmen kann auf das Jetzt, auf die Folgen von Momenten. Er lernt, dass er den Gang der Dinge verändern kann.

JENSEITS DES JETZT

  1. Dieses Wissen um das Mehr jenseits des Jetzt ist uns vertraut, ist uns so vertraut, dass es uns gar nicht mehr auffällt. Aber es sollte uns auffallen, es sollte uns geradezu elektrisieren, denn fast 13.8 Mrd Jahre lang gab es – nach aktuellem Wissen – keine aktuelle Lebensform im gesamten Universum, die über diese Fähigkeit verfügte.
Evolution durchbricht mit dem hss den objektivn Gang der Dinge: hss kann auch ohne Tod Innovationen herbeiführen. Der Prozess hat ein 'Selbst' bekommen

Evolution durchbricht mit dem hss den objektivn Gang der Dinge: hss kann auch ohne Tod Innovationen herbeiführen. Der Prozess hat ein ‚Selbst‘ bekommen

DAS LEBEN VOR DEM MENSCHEN

EINE KETTE AN INNOVATIVEN EXPLOSIONEN

  1. Das Leben vor dem hss war ein Getriebenes: nach ca. 10 Mrd Jahren universalem kosmischen Geschehen, das u.a. unser Sonnensystem mit unserer Erde hervorgebracht hatte, entstanden auf der Erde, in den Tiefen der Ozeane, jene chemischen Strukturen, die wir heute als erste Zellen bezeichnen. Schon diese erste – einfache – Zellen sind ein Wunderwerk molekularer Strukturen und chemischer Prozessketten. Mit diesen ersten Zellen war es erstmalig möglich, selbständig Energie in Form von freien Ladungen aus der Umgebung über eine Membranoberfläche in das Innere der Zelle zu transportieren und diese Energie für unterschiedliche chemische Prozesse zu nutzen. Dies war eine Sensation. Entgegen der allgemeinen Entropie gab es hier physikalische Prozesse, die freie Energie aus der Umgebung abzapften und sie – entgegen der Entropie – für den Aufbau lokaler Strukturen, also lokaler Ordnungen, nutzten. In der allgemeinen Physik sind solche Prozesse nicht vorgesehen und bis heute nicht erklärbar.
  2. Diese ersten Wunderwerke des Lebens konnten sich auch schon selbst reproduzieren. Schon da gab es spezielle Moleküle – heute DNA Moleküle genannt –, die von anderen Molekülen so benutzt wurden, als ob sie eine Bauanleitung darstellten. Die einzelnen Elemente dieser Bauanleitungsmoleküle wurden als Elemente eines Kodes interpretiert, aus dem man entnehmen konnte, wie man eine neue Zelle bauen kann. Wie es zu dieser originellen Arbeitsteilung – von Informationsspeicher hier und Informationen lesen und übersetzen dort — kam ist bis heute noch eher im Dunkeln. Mit dem heutigen Wissen können wir aber in dieser Struktur der Interpretation eines Kodes und darauf aufbauend die Aktivität einer Konstruktion als strukturidentisch mit dem Konzept einer Turingmaschine erkennen. Die Turingmaschine, das zentrale philosophisch-mathematische Konzept unserer Tage für das, was ein Computer sein kann, ist in diesen ersten einfachen Zellen schon realisiert. Jede Zelle ist in dem Sinne ein Computer! Mit dem Computer haben wir so gesehen nichts Neues erfunden, nur etwas sehr, sehr Altes auf neuer Ebene wieder endeckt.
  3. Und noch etwas Grundlegendes ist zu beachten: der Reproduktionsprozess war nie ein 1-zu-1 Prozess. Die neuen Strukturen wichen von den vorausgehenden immer irgendwie ab, mal weniger, mal mehr. Dies hatte zur Folge, dass die nachfolgenden Generationen neue Formen (Phänotypen) ausbildeten, die darin über neue Fähigkeiten verfügten, die andere Organismen nicht besaßen. Wenn diese neuen Fähigkeiten das Überleben verbesserten, erhöhten sich die Chancen auf Nachkommen; andernfalls wurden sie geringer. Der stillschweigende Maßstab für Erfolg/ Misserfolg war jeweils die Passung zur vorhandenen Erde samt ihren Gegebenheiten. Einem Lebewesen vor dem hss war es nicht möglich, ein eigenes Wertesystem unabhängig von den Vorgaben der Erde zu entwickeln. Dies bedeutet, dass es in der Zeit von ca. -3.8 Mrd Jahren bis ca. -200.000 (oder etwas früher, wenn man die früheren menschenähnlichen Wesen mit einbeziehen will) einem Lebewesen nicht möglich war, ein eigenständiges Ziel-/ Wertesystem über die realen Lebenserfordernisse hinaus auszubilden.
  4. Verschärft wird diese Situation auch noch dadurch, dass bei dieser beschränkten Innovationsfähigkeit der Lebewesen (nur bei Reproduktion) die Notwendigkeit eines Todes, also einer beschränkten Lebenszeit, unausweichlich war. Durch die beständige Veränderung der Erde sowie durch die parallele dynamische Entwicklung aller Lebensformen bestand zwischen allen Lebensformen und der Lebenssituation eine kontinuierliche Konkurrenzsituation. Ohne häufige Reproduktionen und durch Sterben wäre jene Innovationsrate gefährdet gewesen, die zum Überleben notwendig war.
  5. Bis zur Lebensform eines hss waren aber aus Sicht er ersten einfachen Zellen noch viele Hürden zu nehmen. So waren die ersten Zellen in ihrer potentiellen Größe massiv beschränkt: solange Energie nur über die Membranen in den Zellkörper kam war durch das Missverhältnis zwischen Oberflächenzunahme (quadratisch) und Volumenzunahmen (kubisch) eine Wachstumsgrenze eingebaut. Es hat etwa 1.7 Mrd Jahre gedauert, bis das Leben einen Weg gefunden hat, durch Einbau vieler einzelner Zellen – später Mitochondrien genannt – in eine Gastzelle die Membranoberfläche zu vervielfachen.
  6. Viele weitere Details sind hier wichtig (sehr schön erklärt u.a. in dem Buch von Nick Lane (2009) Life Ascending).
  7. Im Endeffekt führte die Fähigkeit zu immer komplexeren Prozessen mit immer komplexeren Kooperationen dazu, dass (nach dem großen Sauerstoffereignis) Lebensformen auf dem Land Fuß fassen konnten und nach einer weiter langen Zeit von fast 500 Mio Jahren dann jene Lebensform möglich wurde, die wir als hss kennen.

DAS AUFTRETEN DES MENSCHEN IST EINE ZÄSUR

  1. Der hss verkörperte dann genau diese Lebensform die zum ersten Mal Erstaunliches vermochte.
  2. Der hss konnte durch sein Gedächtnis, seine Abstraktionsfähigkeiten, seine gedanklichen Kombinationen mit einem Male — nach ca. 13.8 Mrd Jahren – als erste Lebensform auf der Erde aus dem Jetzt ausbrechen und mögliche Zukünfte versuchsweise denken.
  3. Der hss konnte durch sein Denken, Kommunizieren, seine Technologie, seine Organisationsformen, seine Wissenskulturen erstmalig die Fähigkeit erlangen, die Baupläne des Lebens zu lesen, sie Anfangshaft zu verstehen. Prinzipiell könnte er jetzt strukturelle Innovationen während des Lebens einer Generation einleiten, ohne dafür zuerst sterben zu müssen. Der Tod des Körpers wäre nicht mehr notwendig.
  4. Durch diese neue Autonomie des Erkennens, Handelns und Gestaltens hat der hss aber ein ganz neuartiges Problem: zum ersten Mal steht er selbst vor der Frage, wohin die Reise eigentlich gehen soll? Zuvor wurde die Frage indirekt durch das Faktum des Überlebens beantwortet. Jetzt muss er sich selbst die Frage stellen, welche der vielen möglichen erkennbaren Zukünfte sind Lebenswert?

ZWISCHENSPIEL: RELIGIONEN

  1. Viele Jahrtausende haben Menschen in Gestalt sogenannter Religionen Antworten hergeleitet, die heutigen Erkenntnisansprüchen nicht mehr genügen, die aber die Menschen in diesen Zeiten benutzt haben, um sich das Unerklärliche zu erklären. Und auch heute scheint es so zu sein, dass eine sehr große Anzahl der Menschen diese alten Religionen immer noch als Hilfsmittel benutzen, um Antworten auf Fragen zu finden, die die Wissenschaften bislang nicht gegeben haben.
  2. Im Kern von Religionen – nicht allen: der Buddhismus kann anders interpretiert werden – steht gewöhnlich ein zentraler Begriff Gott. Aber, was man leicht übersieht, alles, was über Gott bislang gesagt wurde, haben letztlich Menschen gesagt, die von sich behaupten, sie haben mit Gott geredet bzw. er mit ihnen. Da alle diese Menschen unterschiedliche Sprachen sprechen, dann noch zu Zeiten, die tausende Jahre her sind, haben wir nicht nur ein Sprachproblem (Sanskrit, Hebräisch, Griechisch, Arabisch, …), sondern auch ein Verstehensproblem (wer weiß schon, welche Vorstellungen Menschen vor tausenden von Jahren mit bestimmten Ausdrücken verbunden haben). Dazu haben wir ein Überlieferungproblem: wer hat eigentlich wann was von wem aufgeschrieben? Welche Texte sind überhaupt original erhalten? Wie oft wurden Texte aus einer Zeit von Menschen in einer nachfolgenden Zeit überarbeitet und dabei verändert?
  3. Schon allein der Versuch, aus der Vielfalt dieser Texte (und dazu noch aus der ungeheuren Fülle nachfolgender Kommentare und Interpretationen) heute ein zuverlässiges und einheitliches Bild von Gott zu gewinnen, muss scheitern. Es ist vollständig unmöglich, nicht nur rein faktisch aufgrund der Vielzahl und Fülle, aber auch inhaltlich methodisch: die geistigen und begrifflichen Voraussetzungen der vielen Texte sind derart verschieden, dass Worte, die gleich klingen, von ihrem begrifflich-methodischen Kontext her etwas vollständig Verschiedenes bedeuten können.
  4. Angesichts dieser Sachlage mutet es merkwürdig an, wie manchmal Naturwissenschaftler sich berufen fühlen, die Erkenntnisse der Naturwissenschaften gegen ein falsches Gottesbild zu verteidigen und dabei selber bizarre Gottesvorstellungen als Feindbilder benutzen, wo man sich nur fragen kann, wo sie die hergezaubert haben. Natürlich gab es Zeiten (und sie sind noch nicht überwunden), da unterschiedlichste Religionsvertreter versucht haben (und versuchen) neueste Erkenntnisse der Naturwissenschaften mit ihrem spezifischen religiösen Weltbild zu versöhnen. Ein Beispiel sind die sogenannten kreationistischen Deutungen der Evolution. Aber die Ausgangslage einer religiös motivierten Argumentation ist in sich so verworren und schwammig, dass jeglicher Gesprächsversuch hier im Ansatz sinnlos ist. Die Vertreter der Religionen sind ja nicht einmal in der Lage, sich untereinander zu verständigen; warum sollte man sich mit diesen Positionen dann überhaupt auseinandersetzen? Worin besteht diese Position überhaupt? Es ist ein bisschen wie mit dem Märchen von des Kaisers neuen Kleidern: jeder tut so, als ob die Sache mit Gott doch klar sei, aber keiner will zugeben, dass er eigentlich nichts Genaues weiß…

ZURÜCK IN DIE REALE ZUKUNFT

  1. Kommen wir zurück zur realen Welt, in der wir uns mit unseren Körpern vorfinden. Von dieser Welt haben wir gelernt, wie sie eine unfassbare Fülle an Lebensformen hervorgebracht hat bis zu jener, dem hss, der über erstaunlich neue Fähigkeiten verfügt. Bricht schon das Phänomen der Evolution bis zum hss die bekannten Denkmodelle der Physik, so ist dies neue Phänomen hss mit seinem Gedächtnis, seinem Denken, seiner Zukunftsfähigkeit, seiner Veränderungsfähigkeit, seiner autonomen Frage nach der richtigen Zukunft ein radikaler Systembruch. Das Erscheinen des hss markiert das Ende der klassischen empirischen Wissenschaften. Alles, was die empirischen Wissenschaften bislang entdeckt haben, ist richtig, aber das, was die Physik bislang gedacht hat, ist schlicht zu wenig (auch schon für den engeren Bereich der unbelebten Materie (dunkle Materie, dunkle Energie), wie wir lernen durften).
  2. Sollte es tatsächlich so etwas wie einen Gott geben (was niemand letztlich ganz ausschließen kann, genauso wenig wie man es beweisen kann), dann wäre er in allem anwesend und würde sich darin zeigen. Wir müssten ihn nicht erfinden. Egal was wir tun, er wäre da. Wäre er hingegen nicht da, wäre es auch egal, was wir tun. Wir könnten ihn nicht herbei zaubern.
  3. Schon eine christliche Theologie hat ja (wenngleich rein spekulativ) angenommen, dass Gott sich aus der Transzendenz in die Immanenz bewegen könne (Inkarnation), und dass es in der Immanenz (also in unserer Körperwelt) eine erfahrbare Gegenwart Gottes geben könne. Nahezu alle christlichen Ordensgründer und Ordensgründerinnen berichten von ihren persönlichen Erfahrungen mit Gott, bis dahin, dass ein Ignatius von Loyola, der Mitbegründer des Jesuitenordens, geradezu lehrt, dass Gott sine causa in den Menschen direkt wirken könne. Entsprechende Berichte finden sich auch bei Mitgliedern von anderen Religionen. Zur Überzeugung der Religionen gehört auch, dass die Menschen die Welt gestalten sollen. Die Überzeugungen aller Religionen ist auch, dass das Leben nach dem körperlichen Tod nicht endet, sondern irgendwo (man nennt es Himmel) weiter geht, dann sogar viel besser und schöner.
  4. Wie gesagt, gäbe es so etwas wie Gott, dann müssten wir ihn nicht erfinden, allerdings müssten wir ihn entdecken, so wie wir alle Wirklichkeit, in der wir uns vorfinden, vermittelt durch unseren Körper entdecken, sortieren, verbinden, interpretieren müssen, um zu wissen, wer wir tatsächlich sind, die anderen, die Erde, das Leben, wie sich alles bewegt. So gesehen wäre Alles Theologie, aber nur, wenn wir Gott voraussetzen. Tun wir dies nicht (und es ist methodisch erlaubt, dies nicht zu tun), ist das Gleiche, was vorher Theologie heißt, einfach Wissenschaft vom Leben im Universum, und möglicherweise darüber hinaus. Die Worte mögen verschieden sein, die Sache ist die gleiche.
  5. Ein möglicher Gott stellt für eine radikale Wissenschaft keine Bedrohung dar, wohl aber pseudoreligiöse Ansprüche, die im Namen eines unbekannten Gottes vorgebracht werden, die aber letztlich nur jene Wahrheit verweigern wollen, die uns alle frei macht, die die unfassbare neue Autonomie des hss freilegt.

Einen Überblick über alle Blogeinträge von cagent nach Titeln findet sich HIER.

EINLADUNG PHILOSOPHIESOMMER 2016 DENKBAR – KI DIREKT

Entsprechend dem Plan vom 9.Februar 2016 kommt hier die Einladung zum nächsten Treffen in der

DENKBAR Frankfurt

Spohrstrasse 46a

(Achtung: Parken schwierig! Man muss wirklich im Umfeld suche

NÄCHSTES THEMA

Da viele Teilnehmer beim letzten Treffen  sagten, dass sie sich unter intelligenten Maschinen immer noch nichts Rechtes vorstellen können, wurde ein anwesender Experte für intelligente Maschinen (aus der Gattung homo sapiens sapiens) gebeten, für das nächste Treffen am 12.6.2016 15:00 – 18:00h eine kleine Einführung in die aktuelle Situation zu geben.

Ziel des Beitrags sollte es sein, anhand konkreter Beispiele ein wenig mehr zu verdeutlichen, was intelligente Maschinen wirklich leisten können. Im anschließenden Diskurs sollte es wieder darum gehen, diesen Beitrag als Ausgangspunkt zu nehmen, um die Fragen der anwesenden Teilnehmer und ihre Gedanken zu Worte kommen zu lassen. Konkret ist folgendes geplant:

PROGRAMMVORSCHLAG

Moderation: Gerd Doeben-Henisch

15:00 Begrüßung

15:05 Einführung ins Thema durch einen KI-Experten

15:45 Gemeinsamer Diskurs I, Sichtbarmachung von Positionen

16:45 Blubberpause (Jeder kann mit jedem reden; Essen und Trinken)

17:00 Gemeinsamer Diskurs II, erste Zusammenfassungen, Tendenzen

17:45 Schlussstatements und Thema für das nächste Treffen

18:00 Ende

Langsames Wegdiffundieren der Teilnehmer ….

SONDERTREFFEN?

Eigentlich ist das Treffen am 12.Juni das letzte Treffen vor der Sommerpause. Da das Thema zur Zeit aber so spannend ist wird gefragt werden, wer für ein weiteres Treffen im Juli wäre. Sollten genügend Interessen zusammen kommen, könnte es am So 10.Juli 2016 noch ein letztes Treffen vor der Sommerpause geben.

 

Einen Überblick über alle bisherigen Themen des Philosophiesommers (und der Philosophiewerkstatt) nach Titeln  findet sich HIER.