DIE NATUR DER ERKLÄRUNG – Kenneth Craig – Diskussion

PDF

ÜBERBLICK

Craik führt in diesem Buch eine breit angelegte Diskussion im Spannungsfeld von Philosophie, Psychologie, Physiologie, Physik und Technik, die einige Hauptthemen erkennen lässt: ein Plädoyer für ein kausales Verständnis der realen Welt, für die Rekonstruktion von Bewusstsein durch Rückgriff auf das Nervensystem, für die zentrale Rolle mentaler Modelle, sowie für die wichtige Rolle von Sprache in allem Erklären.

I. KONTEXT

Alle Themen, die Craik in seinem Buch ”The Nature of Explanation” [Cra43] anspricht, sind Themen, die in verschiedenen Blogeinträgen schon zur Sprache gekommen sind. Das Buch wird daher etwas intensiver diskutiert, um damit die Position des Blogs weiter zu klären. Dabei ist zu beachten, dass Craik nicht nur eine große Linie verfolgt, sondern im Verlauf des Textes viele andere Themen anspricht, die irgendwie auch mit der großen Linie zusammenhängen. Dies macht die Lektüre manchmal etwas mühsam, wenngleich immer interessant. Dem Interesse des Blogs folgend werden daher nur einige Hauptthemen hier weiter diskutiert. Eine Lektüre dieser Themen ersetzt nicht die eigene Lektüre seines Buches.

II. ERKLÄRUNG DURCH KAUSALITÄT

K.Craik - Stichworte aus Kap.1-4

K.Craik – Stichworte aus Kap.1-4

Das Schaubild 1 enthält nur einige der einschlägigen Stichworte von Craig aus den ersten vier Kapiteln, und auch nur kursorisch.

Aus den vielen Argumenten, die gegen die Möglichkeit einer Erklärung durch Kausalität sprechen, stammt das prominenteste von David Hume (1711 – 1776), für den die Beschaffenheit der sinnlichen Wahrnehmung keinen direkten Schluss auf eine kausaler Beziehung der Art ’B ist da durch A’ zulässt. Zu einem bestimmten Augenblick
haben wir einen Momenteindruck, beim nächsten Augenblick auch. Zwischen verschiedenen Augenblicken kann es zwar Unterschiede geben, aber diese lassen nicht zwingend eine Interpretation in Richtung einer kausalen Beziehung zu.

Neben sehr vielen anderen Positionen bespricht Craik auch die Position der modernen Physik sofern sie quantenmechanische Modelle benutzt. Angesichts einer prinzipiellen Messungenauigkeit (Heisenberg, Unschärferelation) und unbeobachtbaren Objekten soll eine direkte kausale Zuschreibung nicht mehr möglich sein. Es gibt nur noch
Regelmäßigkeiten in Form von statistischen Tendenzen. Craik kritisiert in diesem Zusammenhang, dass man aus den Grenzen der Beobachtbarkeit nicht notwendigerweise darauf schließen kann, dass es deswegen grundsätzlich
keine Kausalität mehr gäbe. Ferner weist er anhand vieler Beispiele darauf hin, dass die Theorien der Wahrscheinlichkeit als Theorien starke implizite Annahmen über die vorausgesetzten Ereignismengen machen, die grundlegende Wechselwirkungen, auch in Form kausaler Beziehungen, voraussetzen.

 

Aus der Sicht Craiks ist die Position Humes nicht ganz korrekt, da das sinnliche Material immer schon in eine Raumstruktur eingebettet ist, die implizite Wechselbeziehungen realisiert (zwei gleichartige Objekte können nicht zugleich auf ein und derselben Raumstelle sein); ferner gehört die Zeitstruktur zur Wahrnehmung (darin über die
rein sinnlichen Anteile hinausgehend), die zumindest potentielle Abfolgen erkennen lassen (B folgt auf A in der Zeit). Dies impliziert zwar nicht unmittelbar eine kausale Beziehung, bietet aber einen Anknüpfungspunkt für eine Hypothese und Experimente. Im Rahmen der Zeitstruktur kann man z.B. allerlei Veränderungen beobachten, z.B.
auch eine Veränderung von Energieleveln. Diese bieten Ansatzpunkte für Hypothesen und Experimente.

Für Craik realisiert sich empirische Wissenschaft durch das Ernst nehmen von vorfindlichen Gegebenheiten, von Fakten, bezogen auf die man Hypothesen bzgl. möglicher Zusammenhänge formulieren kann. Diese Hypothesen kann man dann in Experimenten überprüfen. Sofern sich die Hypothesen bestätigen lassen, soll dies eine gewisse Zufriedenheit auslösen. Geprüfte Zusammenhänge ermöglichen Verstehen, Einsicht, erlauben Voraussagen, mit Voraussagen kann man zukünftige Situationen vorweg nehmen, um sich dadurch auf kommende Situation einzustellen.
Ferner erlaubten geprüfte Zusammenhänge auch unterschiedliche praktische Nutzungen.
Fehlen geprüfte Zusammenhänge, dann kann dies zu Enttäuschungen, ja zu Frustrationen führen. Man kann dann nichts ableiten, nichts voraus sagen, nicht wirklich planen; auch eine praktische Nutzung ist nicht möglich. Man versteht das auslösende Phänomen dann nicht wirklich.

III. DENKEN UND NERVENSYSTEM

K.Craik - Die Erkennungsleistung des Systems Mensch

K.Craik – Die Erkennungsleistung des Systems Mensch

Nach zahlreichen vorausgehenden kritischen Anmerkungen zu unterschiedlichen Positionen in der Philosophie und in den Wissenschaften, geht Craik davon aus, dass der Mensch in einer realen Welt vorkommt. Einige der Ereignisse in dieser Welt können von Sinnesorganen beobachtet werden. Beobachten heißt hier, dass diese Ereignisse sowohl
in interne neuronale Ereignisse übersetzt werden, zusätzlich aber auch in eine symbolischer Sprache  mittels der Bezug genommen werden kann auf viele interne Gegebenheiten, Ereignisse und Prozesse. Das Andere der Symbole ist dann ihre Bedeutung (’meaning’). Was immer auch intern im einzelnen geschieht, es gibt unterschiedliche Prozesse, die abstrakt als Denken, Schlüsse ziehen, Voraussagen machen beschrieben werden. Ein wesentliches Element dieser Prozesse ist das Generieren von internen, mentalen Modellen, deren Analogien mit der realen
Außenwelt so groß sind, dass wichtige Eigenschaften und Prozesse der Außenwelt in ihren kausalen Beziehungen so nachgebildet werden können, dass auf ihrer Basis einigermaßen zuverlässige Voraussagen über die Zukunft gemacht werden können, die sich überprüfen lassen.

Craik wirft auch die Frage auf, welche Eigenschaften am Nervensystem es wohl sind, die alle diese Leistungen ermöglichen? Anhand verschiedener Verhaltensphänomene (visueller Reiz, Retina, Adaption, Differenzierung, Ähnlichkeit, bewusst – unbewusst, Reflexe, Zahlen und deren Nutzung, Gedächtnis, Lernen, Gefühle, …) diskutiert er
dann die Anforderungen, die an das System gestellt werden und überlegt, ob und wie diese Anforderungen rein technisch bzw. mittels des Nervensystems eingelöst werden könnten. Diese Überlegungen sind in ihrem grundsätzlichen Charakter interessant, aber der Stand des Wissens in seiner Zeit zum Nervensystem und zu neuronalen Modellen
war nicht ausreichend, um alle diese Phänomene verbindlich diskutieren zu können.
Immer wieder stellt er die zentrale Rolle der symbolischen Sprache heraus, mittels der sich komplexe Strukturen und Modelle generieren lassen, mit denen Erklärungen möglich werden, Voraussagen und auch die Koordinierung zwischen den Gehirnen.

Bei seiner Beschreibung der realen Welt fällt auf, dass er stark fixiert ist auf einfache physikalische Strukturen; die Besonderheit und Komplexität biologischer Systeme tritt wenig hervor. Dies obgleich er ja die komplexen Strukturen von Menschen sehr wohl diskutiert.

Er sieht allerdings schon ein Eigengewicht der mentalen logischen Strukturen gegenüber der ’reinen Maschinerie’ des Nervensystems, insofern das Nervensystem als solches funktioniert unabhängig von Logik und Bedeutung. In wissenschaftlichen Kontexten aber muss auch Logik und Bedeutung stimmen, andernfalls gelingt die Argumentation
nicht. Allerdings, auch hier gilt, dass auch eine Logik und mögliche Bedeutungen im mentalen Bereich ebenfalls Leistungen des Nervensystems sind. Das gerade ist das Besondere. Reine Introspektion kann zwar die phänomenale Seite des Geistes enthüllen, nicht aber seine neuronale Seite. Dazu bedarf es mehr als Introspektion.

Craik postuliert auch den Faktor der Gefühle (’feelings’) und der Emotionen (’emotions’) als grundlegend für das Verhalten. Zufriedenheit und Unglücklich sein sind starke Motive für das gesamte Verhalten. Wissenschaft lebt davon, Kunst, aber auch viele psychische Krankheiten scheinen mit einem Missmanagement der Gefühle zu tun zu haben.
Das Wechselspiel zwischen Gefühlen und dem gesamten Lebensprozess umschließt nach Craik viele Faktoren, viele dabei oft unbewusst, so dass das Erkennen der Zusammenhänge in der Regel nicht einfach ist. Klassische Ethik und Moral dagegen tendieren zu Vereinfachungen, die dann sachlich unangemessen sind.

IV. DISKURS

Die vorgestellten Gedanken von Craik sind, wohlgemerkt, nur eine Art Extrakt, viele interessante Details bleiben ungesagt. Für das Anliegen des Blogs kann dies aber u.U. genügen.

Das Thema empirische Wissenschaft, Messen, Erklären usw. steht in Übereinstimmung mit dem, was bislang angenommen wurde. Craik ist sehr bemüht, die Perspektive der Introspektion zu übersteigen, da er zu Recht erkennt, dass diese allein nicht ausreicht. Zugleich sieht er sehr wohl eine gewisse Eigenständigkeit der introspektiven Dimension. Was er aber nicht leistet, das ist ein Aufweis, wie man methodisch sauber beide Dimensionen kombiniert [Anmerkung: Dass eine empirischer Herangehensweise allein die Gesamtheit des Phänomens aber auch nicht erreichen kann, dies spricht Craik nicht
an. Letztlich haben wir es hier mit einem methodischen Deadlock zu tun: Introspektion benötigt zusätzlich empirische Methoden, empirische Methoden benötigen zusätzlich sehr dringend Introspektion. Dieses methodische Problem ist bis heute nicht befriedigend gelöst.] Im Blog gab es dazu zumindest einige Versuche.

Die gezielte Nachfrage danach, wie man welche der introspektiv und im Verhalten zugänglichen Eigenschaften des Menschen mittels neuronaler Mechanismen modellieren könnte, wurde hier im Blog noch nicht diskutiert. Es gibt dazu einige Skript aus Vorlesungen, die aber bislang keinen Eingang in den Blog gefunden haben [Anmerkung: Dazu findet sich mehr in dem korrespondierenden Blog uffmm.org.4].  Die Frage
ist aber tatsächlich philosophisch relevant. Die Frage wurde vom Autor cagent bislang deswegen in diesem Blog kaum diskutiert, weil er der Frage nachging, ob und wieweit man neuronale Netze durch andere mathematisch äquivalente Mechanismen ersetzen kann um dann die Fragen nach der Substitution dann mit diesen anderen Strukturen zu untersuchen. In den letzten Jahren sind neuronale Netze so populär geworden, dass sich kaum jemand noch dafür interessiert, ob und welche alternativen Formalismen es auch tun würden und möglicherweise einfacher. Grundsätzlich ist seit langem bekannt, dass neuronalen Netze nicht mehr können als im Konzept der Turingmaschine definiert ist. Man muss also aus theoretischen Gründen keine Neuronalen Netze benutzen, wenn
sie denn nicht speziell besondere Vorteile bieten.

Die Lektüre von Craik hat allerdings dazu ermutigt, die Idee der parallelen Analyse von Verhalten, Introspektiv zugänglichem Bewusstseinsraum, sowie Physiologie des Gehirns im Körper weiter Raum zu geben, immer natürlich auch mit Blick auf evolutionäre Entwicklungen unter Einschluss der Kultur. Ferner sollte dabei die parallele Entwicklung intelligenter Maschinen mit reflektiert werden, sehr wohl in Bezugssetzung zu den biologischen Systemen.

 

Vor lauter Faszination durch die moderne Technik geht vielfach unter, dass die Naturwissenschaften in den letzten 10 Jahren ungeheuerlich interessante Aspekte des biologischen Lebens (und der umgebenden Welt) zutage gefördert haben, die das Bild vom Menschen im Universum eigentlich radikal verändern könnten. Obwohl die Roboter und die KI-Programme vergleichsweise simple Strukturen darstellen, die jeder intelligente Schüler verstehen könnte, wenn man es ihm denn erzählen würde, stoßen wir im biologischen Leben auf immer unfassbare Komplexitäten und Verschiebungen von Perspektiven, die eigentlich alle Aufmerksamkeit erfordern würden.

QUELLEN
[Cra43] Kenneth Craik. The Nature of Explanation. Cambridge University Press, Cambridge (UK), 1 edition, 1943.

 KONTEXTE

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

RINGEN UM DAS BEWUSSTSEIN. BEISPIEL CHALMERS 1995 – Problem of Consciousness

(Letzte Aktualisierung: Do 28.Juli 2016, 13:06h)

David J.Chalmers, FACING UP THE PROBLEM OF CONSCIOUSNESS, Journal of Consciousness Studies, 2, No. 3, 1995, pp.200-219

KONTEXT

  1. In einem vorausgehenden Blogeintrag mit dem Titel THOMPSON: MIND IN LIFE – Review – Teil 1 hatte ich damit begonnen, eine neue Variante phänomenologischer Forschung zu besprechen, die unter dem Titel Neurophänomenologie begründet worden war. Dieser Ansatz geht zurück auf Varela, der dazu 1996 einen grundlegenden Artikel im JoCS geschrieben hatte, in dem er wiederum auf einen Artikel von Chalmers 1995 geantwortet hatte. Seine Antwort umfasste dann gleich einen kompletten konstruktiven Vorschlag, wie man es anders machen könnte. Bevor der Artikel von Varela hier zur Sprache kommen soll, hier zunächst eine Reflexion auf den Beitrag von Chalmers 1995, der seitdem in zahllosen weiteren Artikeln intensiv diskutiert worden ist.

OBJEKTIV – SUBJEKTIV

Rekonstruktion der theoretischen Begriffe von Chalmers (1995) Kap.1-2

Rekonstruktion der theoretischen Begriffe von Chalmers (1995) Kap.1-2

  1. Im Kapitel 2 (siehe Bild) startet Chalmers seine Überlegungen zum Bewusstsein mit einer Fallunterscheidung in objektive Aspekte des Problems und in subjektive Aspekte.

  2. Die objektiven Aspekte lassen sich nach Chalmers – im Prinzip – im Rahmen der bekannten wissenschaftlichen Disziplinen relativ einfach aufklären. Als wissenschaftliche Disziplinen führt er nur eine einzige an, nämlich die Kognitionswissenschaft (‚cognitive science‘), innerhalb deren er drei methodische Ansätze unterscheidet: computerhaft (‚computational‘), neurophysiologisch und neuronal (’neural‘).

  3. Als Phänomene, die er für die Methoden der Kognitionswissenschaft im Prinzip als einfach (‚easy‘) erklärbar einstuft, zählt er auf: Umgebungsreize, verbale Äußerungen, Aufmerksamkeit, Verhaltenskontrolle, Wachheit und Schlaf, Verhaltenskontrolle und diverse interne Zustände.

  4. Daneben erkennt er aber auch noch eine subjektive Dimension im Wirklichkeitszugang. Diese erschließt sich im Darin sein (‚to be in them‘) in inneren, mentalen Zuständen. Hier trifft man auf Phänomene, Qualia, befindet man sich im Raum des Bewusstseins, im Bewusstsein.

  5. Die subjektive Dimension befindet sich außerhalb des Zugriffs der objektiven Methoden. Insofern nennt er die Fragen des Bewusstseins, die sich im subjektivne Zugang erschließen, als harte (‚hard‘) Fragen. Er spricht hier vom harten Problem (‚hard problem‘) des Bewusstseins.

FUNKTIONALE ERKLÄRUNG MIT GRENZEN

Chalmers (1995) Kap.3 Behauptungen zur begrifflichen Kluft zwischen funktionaler Erklärung und Bewusstseinserfahrung

Chalmers (1995) Kap.3 Behauptungen zur begrifflichen Kluft zwischen funktionaler Erklärung und Bewusstseinserfahrung

  1. Das 3.Kapitel läuft auf die These von der begrifflichen Kluft (‚explanatory gap‘) zwischen funktionaler Erklärung objektiver Phänomene einerseits und der korrelierenden Existenz des subjektiven Phänomens des Bewusstseins hinaus (vgl. Bild 2).

  2. Dies setzt voraus, dass die Wissenschaften, die objektive Phänomene im Umfeld des Bewusstseins erklären, dies mit Hilfe von funktionalen Erklärungen tun können. In einer funktionalen Erklärung F werden die beobachtbaren (zu erklärenden) Phänomene X in Beziehung gesetzt zu anderen beobachtbaren Phänomenen Y, und zwar so, dass der Zusammenhang einen Mechanismus (‚mechanism‘) erkennen lässt, aufgrund dessen das Auftreten von X in Abhängigkeit von Y akzeptiert werden kann. Entsprechend den zuvor angeführten Methoden der Kognitionswissenschaft(en) sieht Chalmers drei Arten von möglichen Mechanismen: (i) Computermodelle, (ii) kognitive Modelle und (iii) neuronale Modelle.

  3. Chalmers sieht keine Möglichkeit, das korrelierende Auftreten einer Bewusstseinserfahrung B im Kontext von beobachtbaren Phänomenen X und Y ebenfalls durch eine funktionale Erklärung G so zu erklären, dass sich zwischen X und Y einerseits und B andererseits ein Mechanismus angeben lässt, der als Erklärung akzeptierbar sei.

  4. Diese Unmöglichkeit der Angabe einer weiteren funktionalen Erklärung versteht Chalmers als Erklärungslücke (‚explanatory gap‘).

BEISPIELE (REDUKTIVER ERKLÄRUNG) (Kap.4)

Chalmers 1995 kap.4 illustrierende Beispiele

Chalmers 1995 kap.4 illustrierende Beispiele

  1. Im Kap.4 stellt Chalmers verschiedene Autoren vor, mittels deren er seine zuvor eingeführte Klassifikation illustrieren möchte. (vgl. Bild 3)

  2. Diese Beispiele sind aber so karg beschrieben, dass man sie kaum verwerten kann. Als Beleg soll das Zitat von Edelman dienen. Im Buch von Edelman (1989) wird ein sehr ausführliches Bild von den Forschungen zum Bewusstsein vermittelt. Das Stichwort vom ’neuronalen Darwinismus‘ greift hier viel zu kurz (das Buch Edelmans von 1992 Bright Air, Brilliant Fire: On the Matter of thre Mind, das noch umfassender ist, wird erst gar nicht erwähnt)(Anmerkung: In seinem Buch The Conscious Mind (1996) ist Chalmers hier genauer und hilfreicher. Die Bemerkungen hier im Artikel erscheinen da eher nutzlos).

  3. Die Stichworte zu Koch/ Crick und Baars lassen noch am ehesten deren Ideen erkennen. Nach Koch/Crick sind es synchronisierende Oszillationen im Gehirn (Bindungstheorie), die unterschiedliche Aktivitäten bündeln und so komplexe Zustände möglich machen, die eventuell als Korrelate des Bewusstseins (‚correlates of experience‘) angesehen werden können. Ähnlich und doch weitergehender (spekulativer) argumentiert Baars. Er sieht einen Zusammenhang zwischen den Inhalten des Bewusstseins (‚contens of consciousness‘) und dem, was er den globalen Arbeitsbereich (‚global workspace‘) des Gehirns nennt: dies soll jener Bereich sein, in den viele andere Bereiche des Gehirns wichtige Informationen abbilden, über die alle spezialisierten Bereiche kommunizieren. Er nennt dies ein gemeinsames schwarzes Brett (‚communal blackboard‘).

  4. Was immer such die einzelnen Beispiele im einzelnen – nach Chalmers – sagen bzw. sagen wollen, für Chalmers bietet keines der Beispiele (also: keiner der Autoren) eine wirkliche Antwort auf die Frage, warum (‚why‘) es das Phänomen des Bewusstseins parallel zu diesen vielen Prozessen gibt und wie (‚how‘) der Zusammenhang zwischen den physiologischen und den phänomenalen Phänomenen genau zu denken ist.

WEITERE BEISPIELE (REDUKTIVER ERKLÄRUNG) (Kap.5)

  1. In Kap.5 wir die kursorische Aufzählung weiterer Beispiele fortgesetzt, in der Erklärungsansätze genannt werden, die mit dem Phänomen des Bewusstseins Berührungen aufweisen, aber nichts wirklich erklären sollen.

  2. So wird wird das Konzept nicht-algorithmischer Prozesse von Penrose (1989, 1994) erwähnt. Ein Zusammenhang mit dem Phänomen des Bewusstseins sieht Chalmers nicht.(p.207)

  3. Ähnlich stellt Chalmers auch einen Erklärungszusammenhang zwischen chaotischen und nichtlinearen Prozessen ebenso wenig mit quantentheoretischen Modellen (Hameroff 1994) in Frage. Was erklären diese? (vgl. p.207f)

  4. Chalmers wiederholt hier sein Axiom, dass jede Art von Erklärung physikalischer Prozesse alleine nicht ausreichend sein kann, das Phänomen des Bewusstseins als solches zu erklären. Die Emergenz von Bewusstseinserfahrung entzieht sich einer rein physikalischen Erklärung. Phänomene des Bewusstseins können sich im Kontext von physikalischen Prozessen zeigen, sie müssen es aber nicht.(p.208)

NEUE FUNDAMENTALE ENTITÄTEN

Chalmers 1995 Kap.5 Nicht-reduzierende Theorien

Chalmers 1995 Kap.5 Nicht-reduzierende Theorien

  1. Nachdem Chalmers – aus seiner Sicht – herausgearbeitet hat, dass eine Erklärung der Phänomene des Bewusstseins mittels physikalischer Gesetze nicht möglich erscheint, folgt er der Strategie der Physik aus der Vergangenheit, indem man für nicht-reduzierbare Phänomene dann postuliert, dass sie fundamentale Phänomene seien, die ihre eigenen Gesetze benötigen.(vgl. Bild 5)

  2. Insofern diese neuen fundamentale Phänomene nicht isoliert von den physikalischen Phänomenen auftreten, nennt er sie emergente Phänomene, deren korrelierendes Auftreten im Kontext physikalischer Phänomene sich gegebenenfalls mit zusätzlichen überbrückenden Prinzipien (Brückenprinzipien, ‚bridging principles‘) beschreiben lassen.

  3. Die Betrachtung von Phänomenen führt meist auch zur Frage von damit zusammenhängenden möglichen Existenzen (Ontologien, ‚ontologies‘).

  4. Fall sich mit den Phänomenen des Bewusstseins Existenzen ganz eigener Art verknüpfen würden, dann läge eine neue Art von Dualismus (im Stile von Descartes und anderen) vor. Soweit will Chalmers aber nicht gehen. Obwohl es sich bei den Phänomenen des Bewusstseins um nicht-reduzierbare, und damit fundamentale Phänomene handelt, will er sie nicht gänzlich von der natürlichen Ontologie getrennt sehen, wie sie von der Physik beschrieben wird.

  5. Interessanterweise sieht Chalmers eine Theorie des Bewusstseins näher bei der Physik als bei der Biologie, der er jegliche fundamentale Prinzipien im Sinne des Bewusstseins abspricht.(p.211)

AUSBLICK AUF EINE THEORIE DES BEWUSSTSEINS

Chalmers 1995 - Elemente einer neuen Theorie des Bewusstseins

Chalmers 1995 – Elemente einer neuen Theorie des Bewusstseins

  1. Unabhängig davon, was Chalmers über andere Autoren gesagt hat (treffend oder nicht treffend), hat er seine eigene Meinung zu einer möglichen Theorie des Bewusstseins.

  2. Zu Beginn des Kap.7 skizziert er einige grundlegende Annahmen, auf deren Basis er dann weiter voranschreitet.

  3. Wie in Bild 7 angedeutet, soll eine mögliche Theorie des Bewusstseins einfach und kohärent sein und soll Aussagen über reproduzierbare Fakten möglich machen.

  4. Als Basis für die Theorie gibt es einerseits die Eigenschaften der bewusstseinsbasierten Erfahrung, zu denen jeder einzeln, für sich einen direkten Zugang hat, und andererseits empirische Phänomene, wie Umwelt, Körper und Gehirn, speziell auch sprachliche Äußerungen, über die man indirekt auf Eigenschaften des Bewusstseins schließen kann.

  5. Ferner postuliert Chalmers spezielle psycho-physische Brückenprinzipien, die einen Zusammenhang zwischen korrelierenden physikalischen und bewusstseinsbezogenen Phänomenen herstellen.

PRINZIP DER STRUKTURELLEN KOHÄRENZ

  1. Als eine mögliche Richtschnur für die Formulierung der Inhalte einer möglichen Theorie des Bewusstseins beschreibt Chalmers das Prinzip der strukturellen Kohärenz.

  2. Diese Kohärenz sieht er gegeben zwischen dem empirischen Phänomen der Aufmerksamkeit (‚attention‘) und den den subjektiven Phänomenen des Bewusstseins.

  3. Der Begriff der ‚Aufmerksamkeit‘ wird definiert über empirische Phänomene und deren funktionalen Beziehungen.

  4. Ohne eine weitere Analyse der subjektiven Phänomene vorgelegt zu haben behauptet Chalmers nun, dass die Phänomene im Kontext der empirischen Aufmerksamkeit eine bestimmte Struktur erkennen lassen, die sich auch im Bereich der subjektiven Phänomene finde. Er geht sogar soweit, die Ähnlichkeit zwischen beiden Strukturen (Struktur der Aufmerksamkeit, Struktur des Bewusstseins) als isomorph zu bezeichnen (p.213).

  5. Zugleich schränkt er diese Ähnlichkeit dahingehend ein, dass subjektive Phänomene Eigenschaften haben, die sich nicht in der strukturellen Ähnlichkeit erschöpfen. Die kohärente Strukturen beschränken das beobachtbare Verhalten subjektiver Phänomene, aber erschöpfen sie nicht. (vgl.p.213)

  6. Sofern man solch eine strukturelle Kohärenz feststellen kann, macht es nach Chalmers Sinn, die empirischen Phänomene der Aufmerksamkeit als Korrelate bewusster Erfahrung zu bezeichnen.

PRINZIP DER ORGANISATORISCHEN INVARIANZ

  1. Chalmers formulierte noch ein weiteres Prinzip, das von der organisatorischen Invarianz. Es ist kein mathematisches Prinzip, sondern eher ein Postulat über empirische Strukturen.

  2. Ausgangspunkt sind zwei Systeme S1 und S2. Beide haben eine funktionale Organisation, d.h. Es gibt jeweils irgendwelche Mengen von Elementen M1 und M2 und jeweils irgendwelche Funktionen F1 und F2, die über den Mengen M1 und M2 definiert sind, also S1(x) iff x=<M1,F1> bzw. S2(x) iff x=<M2,F2>.

  3. Chalmers postuliert nun, dass, wenn beide Systeme S1 und S2 die gleiche funktionale Organisation haben (‚functional organization‘), dass sie (?) dann auch die qualitativ gleiche Erfahrung (‚qualitatively identical experience‘) haben.

  4. Diese Formulierung wirft einige Fragen auf.

  5. Nimmt man an, dass er mit Erfahrung wie zuvor im Text immer die Erfahrung des Bewusstseins meint, dann stellt sich die Frage, in welchem Sinne ein System S1 oder S2 eine bewusste Erfahrung haben sollen? Nach allem zuvor Gesagtem haben empirische Systeme nicht notwendigerweise eine bewusste Erfahrung.

  6. Wenn Chalmers aber meint, dass die Systeme S1 und S2 für empirische Systeme stehen, die Korrelate von bewussten Erfahrungen sind, dann würde das Prinzip besagen wollen, dass zwei verschiedene empirische Systeme S1 und S2, die Korrelate von jeweils einem Bewusstsein B1 bzw. B2 sind, diesen korrelierenden Bewusstseinen B1 und B2 jeweils identische Erfahrungen übermitteln.

  7. Direkt beweisbar ist dieses Prinzip nicht, da der direkte Zugriff auf bewusste Erfahrungen von den beiden Bewusstseinen fehlt, aber es ist eine sehr plausible Arbeitshypothese. (vgl. p.215) Diese Arbeitshypothese würde es zumindest ansatzweise verständlich machen, warum zwei verschiedene Menschen ansatzweise über ähnliche Erfahrungen verfügen können.

DIE THEORIE DES DOPPELTEN ASPEKTS DER INFORMATION

  1. Chalmers klassifiziert die beiden vorausgehenden Prinzipien als nicht basale Prinzipien. Nichts desto Trotz sind sie für ihn hilfreiche Beschränkungen (‚constraints‘).

  2. Jetzt will er ein erstes basales Prinzip mit Hilfe des Begriffs der Information einführen.

  3. Bei dieser Einführung des Begriffs Information bezieht er sich zwar ausdrücklich auf Shannon (1948), ersetzt aber die Begrifflichkeit von Shannon sogleich durch die Begrifflichkeit von Bateson (1972), indem er die einzelnen physikalischen Informationen als Differenzen bezeichnet, die eine Differenz konstituieren (Originalzitat Bateson: A „bit“ of information is definable as a difference which makes a difference. Such a difference, as it travels and undergoes successive transformation in a circuit, is an elementary idea. (Bateson 1972, p.335)

  4. Dann überträgt er diese Begrifflichkeit auf die empirischen und auf die subjektiven Phänomene, indem er für die Menge der korrelierenden empirischen Phänomene einen Informationsraum Ie postuliert und für die Menge der subjektiven Phänomene auch einen Informationsraum Is. Ferner postuliert er, dass die Elemente in jedem dieser Räume durch eine Menge von Differenzen charakterisiert werden – also <Ie,De> sowie <Is, Ds> –, dass jedem dieser Räume mit diesen Differenzen dann eine Struktur Ste(x) iff x= <Ie,De> sowie Sts(x) iff x=<Is, Ds> zukomme, die sich direkt korrespondieren (‚directly correspond‘), also CORR(STe, Sts).

  5. Aus den Postulaten werden dann sogleich Behauptungen der Art, dass man sowohl in den empirischen Prozessen wie auch in den subjektiven Erfahrungen die gleichen abstrakten Informationsräume finde.

  6. Nachdem Chalmers die Begriffe Information und Differenz für die theoretische Beschreibung eingeführt hat (niemand hat ihn dazu gezwungen!), folgert er dann aus seinen eigenen Annahmen, als Hypothese, dass Information zwei Aspekte habe: einen physikalischen und einen phänomenalen (:= subjektiven).

  7. Nach diesen begrifflichen Verschiebungen erklärt er dann diese letzte Hypothese zu einem basalen Prinzip, aus dem hervorgehe, dass sich immer dann Erfahrung eines Bewusstseins vorfindet, wenn ein entsprechender physikalischer Prozessraum gegeben ist.(vgl. p.216)

DISKURS

KEINE DOPPEL-ASPEKT THEORIE DER INFORMATION

  1. Chalmers selbst klassifiziert seine Doppel-Aspekt Überlegungen als eher eine Idee denn eine Theorie (vgl. p.217) bzw. weiter vorne als extrem spekulativ und unterbestimmt.

  2. Dies würde ich hier unterschreiben. Denn die Verwendung des Wortes Information durch Chalmers erscheint sehr fragwürdig.

  3. Der Informationsbegriff bei Shannon (1948) setzt einen sehr speziellen Kontext voraus, auf den Shannon klar und deutlich hinweist. Es geht bei der Verwendung des Begriffs der Information bei Shannon NICHT um den Begriff von Information, wie er im Alltag oder bei wichtigen biologischen Kontexten vorkommt, wo unterschiedliche bedeutungsvolle/ semantische Kontexte eine Rolle spielen, sondern AUSSCHLIESSLICH um die jeweiligen Signalereignisse und deren Wahrscheinlichkeiten. Diese Signalereignisse als solche haben weder irgendeinen Informationswert noch eine irgendwie geartete Bedeutung. Es sind einfach Eigenschaften aus einem Eigenschaftsraum, die sich natürlich qua Eigenschaften durch Unterschiede/ Differenzen indirekt charakterisieren lassen. Aber der Begriff der Differenz setzt ein X und Y voraus, die minimale Eigenschaften Px und Py besitzen, aufgrund deren sie sich unterscheiden lassen. Nur unter Voraussetzung von solchen Elementen samt Eigenschaften lässt sich eine Differenz definieren. Ein System von Differenzrelationen setzt mathematisch eine Menge von Elementen voraus, aufgrund deren sich die Relationen definieren lassen.

  4. Der Sprachgebrauch von Bateson (1972) mit seinen Differenzen mag irgendwie interessant klingen, ist aber mathematisch irreführend. Eine Differenz ist abgeleitet von dem X, das sich von anderem Nicht-X unterscheiden lässt. Die Unterscheidbarkeit von Ereignissen X in der Wahrnehmung ist biologisch natürlich bedeutsam, aber das Ereignis als solches keinesfalls, nur die Relationen zu einem Y, das sich biologisch als ‚relevant‘ erweist.

  5. Streichen wir also den Begriff der Differenz im Kontext von Information, da redundant, bleibt der Informationsbegriff, angeblich nach Shannon.

  6. Bei Shannon aber ging es nur um Signalereignisse und deren wahrscheinliches Auftreten, ohne jeglichen Bedeutungsbezug.

  7. Natürlich kann man sowohl die empirischen wie auch die subjektiven Phänomene abstrakt als Ereignisse betrachten, die mit gewissen Wahrscheinlichkeiten auftreten. Das würde aber genau jene Qualitäten an diesen Ereignissen verdecken, die sie für ein biologisches System interessant machen. Biologisch interessant sind ausschließlich Ereignisse, sofern sie Bezug haben zum Überleben generell und innerhalb dessen zu speziellen Kontexten des Überleben. Es sind gerade diese Kontexte, die sich mit Ereignissen assoziieren lassen, durch die Ereignisse mit Bedeutung aufgeladen werden, sodass diese Ereignisse im biologischen Sinn informativ sind.

  8. Dieser fundamentale Aspekt von Information wurde von Shannon ganz bewusst ausgeklammert, da er dies für seinen Anwendungsfall nicht benötigt hat. Bateson und Chalmers brauchen es eigentlich, folgen hier aber – blindlings? – Shannon, obgleich dieser sogar ein großes Warnschild gleich zu Beginn seines Textes aufgestellt hat. DIES IST NICHT INFORMATION IM ÜBLICHEN SINNE!!!

STRUKTURELLE KOHÄRENZ VON WAS?

  1. Nach dieser Entmystifizierung des Differenz- und Informationsbegriffs bleibt von der Doppel-Aspekt Theorie der Information nur noch das übrig, was Chalmers schon zuvor mit dem nicht-basalen Prinzip der strukturalen Kohärenz ausgedrückt hat, dass nämlich die korrelierenden empirischen Phänomene und die subjektiven Phänomene strukturell ähnlich seien. Chalmers bleibt eine Definition jener Strukturen schuldig, die er als gegeben voraussetzt, von denen er immerhin sagt, dass sie isomorph seien, und doch wiederum nicht so, dass alle subjektiven Phänomene durch die empirischen Phänomene dadurch voll bestimmt wären. Eigentlich impliziert Isomorphie eine 1-zu-1 Abbildung; aber dann doch nicht ganz? Was meint er dann?

  2. Wenn man von einer Strukturähnlichkeit zwischen zwei Strukturen S1 und S2 spricht, geht man normalerweise davon aus, dass die beiden Strukturen S1 und S2 nicht nur einfach gegeben sind, sondern auch in ihrer Beschaffenheit genau beschrieben/ definiert sind. Kann man das von den subjektiven Phänomenen des Bewusstseins sagen? Außer von Husserl sind mir keine ausführlichen Untersuchungen zu den Phänomenen des Bewusstseins bekannt, und von Husserls Untersuchungen kann man weder sagen, sie seien vollständig noch liegen sie in einer Form vor, die man als formal befriedigend bezeichnen könnte (obwohl Husserl von der Ausbildung her auch Mathematiker war und von daher das Rüstzeug haben konnte). Diskutabel wäre hier vielleicht Carnaps logischer Stufenbau (1928), der der Struktur von Husserl – soweit bekannt – sehr eng folgen soll. Wovon also spricht Chalmers, wenn er die Strukturähnlichkeit zwischen empirischen und subjektiven Phänomenen behauptet?

WAS BLEIBT VON CHALMERS KRITIK?

NICHTREDUZIERBARKEIT

  1. Der zentrale Punkt von Chalmers Kritik dürfte wohl die Nichtreduzierbarkeit des Subjektiven auf Empirisches sein. Im subjektiv zugänglichen Erfahrungsraum des Bewusstseins erschließen sich Phänomene, die über die rein objektiv-empirischen Phänomene hinausgehen.

  2. In seiner ablehnenden Kritik empirischer Ansätze kommt immer wieder auch der Begriff der Funktion vor; funktionale-empirische Erklärungsansätze sollen nicht reichen. Diese Formulierung kann missverständlich sein. Denn der Versuch, den Raum der subjektiven Phänomene als Phänomene sui generis zu beschreiben, wird – wie auch im Fall empirischer Phänomene – Elementarereignisse einführen, über diese Elementarereignisse diverse Relationen und Funktionen,  und damit letztendlich eine Struktur des subjektiven Phänomenraumes definieren, mittels der man dann möglicherweise Vergleiche, Abbildungen auf andere Strukturen vornehmen kann, z.B. auch, wie von Chalmers praktiziert, auf die Struktur der mit dem Bewusstsein korrelierenden empirischen Phänomene.

  3. Hier stellt sich allerdings das spezielle Problem einer simultanen Abhängigkeit von korrelierenden empirischen und subjektiven Phänomenen: man kann ja nur in dem Maße davon sprechen, dass ein empirisches Phänomen Pe mit einem subjektiven Phänomen Ps korreliert, wenn es ein subjektives Phänomen Ps gibt, das als Ausgangspunkt dient! Ein empirisches Phänomen Pe als solches lässt keinerlei Rückschluss auf ein irgendwie geartetes subjektives Phänomen Ps zu. Die Brückenprinzipien, von denen Chalmers in seinem Artikel spricht, sind induktiv simultan zu definieren. Sie sind nicht einfach da. Es sind nicht die Brückenprinzipien, mittels deren man aus den empirischen Phänomenen Pe die subjektiven Phänomene Ps ableitet, sondern es sind die subjektiven Phänomenen Ps, die sich mit empirischen Phänomenen Pe korrelieren lassen, und aufgrund solcher realisierten Korrelationen kann man vielleicht Brückenprinzipien definieren.

  4. Dies gilt insbesondere auch am Beispiel der sprachlichen Äußerungen, die Chalmers explizit als Indikatoren möglicher subjektiver Erfahrung nennt. Der Sprachschall als solcher bildet ein empirisches Phänomen Pe, dem möglicherweise subjektive Bedeutungsinhalte Ps korrelieren können. Ob dies der Fall ist, kann nur der Sprechende selbst entscheiden, sofern er einen direkten Zugang zu seinen subjektiven Phänomenen hat und von daher weiß, ob sich mit einem bestimmten Sprachschall tatsächlich ein bestimmter subjektiver Sachverhalt verknüpft. Von daher sind sprachliche Äußerungen niemals ein Ersatz für die damit hypothetisch unterstellten subjektiven Phänomene.

Einen Überblick über alle Beiträge von Autor cagent  nach Titeln findet sich HIER.

K.G.DENBIGH: AN INVENTIVE UNIVERSE — Relektüre — Teil 3

K.G.Denbigh (1975), „An Inventive Universe“, London: Hutchinson & Co.

BISHER

Im Teil 1 der Relektüre von Kenneth George Denbighs Buch „An Inventive Universe“ hatte ich, sehr stark angeregt durch die Lektüre, zunächst eher mein eigenes Verständnis von dem Konzept ‚Zeit‘ zu Papier gebracht und eigentlich kaum die Position Denbighs referiert. Darin habe ich sehr stark darauf abgehoben, dass die Struktur der menschlichen Wahrnehmung und des Gedächtnisses es uns erlaubt, subjektiv Gegenwart als Jetzt zu erleben im Vergleich zum Erinnerbaren als Vergangen. Allerdings kann unsere Erinnerung stark von der auslösenden Realität abweichen. Im Lichte der Relativitätstheorie ist es zudem unmöglich, den Augenblick/ das Jetzt/ die Gegenwart objektiv zu definieren. Das individuelle Jetzt ist unentrinnbar subjektiv. Die Einbeziehung von ‚Uhren-Zeit’/ technischer Zeit kann zwar helfen, verschiedene Menschen relativ zu den Uhren zu koordinieren, das grundsätzliche Problem des nicht-objektiven Jetzt wird damit nicht aufgelöst.

In der Fortsetzung 1b von Teil 1 habe ich dann versucht, die Darlegung der Position von Kenneth George Denbighs Buch „An Inventive Universe“ nachzuholen. Der interessante Punkt hier ist der Widerspruch innerhalb der Physik selbst: einerseits gibt es physikalische Theorien, die zeitinvariant sind, andere wiederum nicht. Denbigh erklärt diese Situation so, dass er die zeitinvarianten Theorien als idealisierende Theorien darstellt, die von realen Randbedingungen – wie sie tatsächlich überall im Universum herrschen – absehen. Dies kann man daran erkennen, dass es für die Anwendung der einschlägigen Differentialgleichungen notwendig sei, hinreichende Randbedingungen zu definieren, damit die Gleichungen gerechnet werden können. Mit diesen Randbedingungen werden Start- und Zielzustand aber asymmetrisch.

Auch würde ich hier einen Nachtrag zu Teil 1 der Relektüre einfügen: in diesem Beitrag wurde schon auf die zentrale Rolle des Gedächtnisses für die Zeitwahrnehmung hingewiesen. Allerdings könnte man noch präzisieren, dass das Gedächtnis die einzelnen Gedächtnisinhalte nicht als streng aufeinanderfolgend speichert, sondern eben als schon geschehen. Es ist dann eine eigene gedankliche Leistungen, anhand von Eigenschaften der Gedächtnisinhalte eine Ordnung zu konstruieren. Uhren, Kalender, Aufzeichnungen können dabei helfen. Hier sind Irrtümer möglich. Für die generelle Frage, ob die Vorgänge in der Natur gerichtet sind oder nicht hilft das Gedächtnis von daher nur sehr bedingt. Ob A das B verursacht hat oder nicht, bleibt eine Interpretationsfrage, die von zusätzlichem Wissen abhängt.

Im Teil 2 ging es um den Anfang von Kap.2 (Dissipative Prozesse) und den Rest von Kap.3 (Formative Prozesse). Im Kontext der dissipativen (irreversiblen) Prozesse macht Denbigh darauf aufmerksam, dass sich von der Antike her in der modernen Physik eine Denkhaltung gehalten hat, die versucht, die reale Welt zu verdinglichen, sie statisch zu sehen (Zeit ist reversibel). Viele empirische Fakten sprechen aber gegen die Konservierung und Verdinglichung (Zeit ist irreversibel). Um den biologischen Phänomenen gerecht zu werden, führt Denbigh dann das Konzept der ‚Organisation‘ und dem ‚Grad der Organisiertheit‘ ein. Mit Hilfe dieses Konzeptes kann man Komplexitätsstufen unterscheiden, denen man unterschiedliche Makroeigenschaften zuschreiben kann. Tut man dies, dann nimmt mit wachsender Komplexität die ‚Individualität‘ zu, d.h. die allgemeinen physikalischen Gesetze gelten immer weniger. Auch gewinnt der Begriff der Entropie im Kontext von Denbighs Überlegungen eine neue Bedeutung. Im Diskussionsteil halte ich fest: Im Kern gilt, dass maximale Entropie vorliegt, wenn keine Energie-Materie-Mengen verfügbar sind, und minimale Entropie entsprechend, wenn maximal viele Energie-Materie-Mengen verfügbar sind. Vor diesem Hintergrund ergibt sich das Bild, dass Veränderungsprozesse im Universum abseits biologischer Systeme von minimaler zu maximaler Entropie zu führen scheinen (dissipative Prozesse, irreversible Prozesse, …), während die biologischen Systeme als Entropie-Konverter wirken! Sie kehren die Prozessrichtung einfach um. Hier stellen sich eine Fülle von Fragen. Berücksichtigt man die Idee des Organiationskonzepts von Denbigh, dann kann man faktisch beobachten, dass entlang einer Zeitachse eine letztlich kontinuierliche Zunahme der Komplexität biologischer Systeme stattfindet, sowohl als individuelle Systeme wie aber auch und gerade im Zusammenspiel einer Population mit einer organisatorisch aufbereiteten Umgebung (Landwirtschaft, Städtebau, Technik allgemein, Kultur, …). Für alle diese – mittlerweile mehr als 3.8 Milliarden andauernde – Prozesse haben wir bislang keine befriedigenden theoretischen Modelle

KAPITEL 4: DETERMINISMUS UND EMERGENZ (117 – 148)

Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz

Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz

  1. Dieses Kapitel widmet sich dem Thema Determinismus und Emergenz. Ideengeschichtlich gibt es den Hang wieder, sich wiederholende und darin voraussagbare Ereignisse mit einem Deutungsschema zu versehen, das diesen Wiederholungen feste Ursachen zuordnet und darin eine Notwendigkeit, dass dies alles passiert. Newtons Mechanik wird in diesem Kontext als neuzeitliche Inkarnation dieser Überzeugungen verstanden: mit klaren Gesetzen sind alle Bewegungen berechenbar.
  2. Dieses klare Bild korrespondiert gut mit der christlichen theologischen Tradition, nach der ein Schöpfer alles in Bewegung gesetzt hat und nun die Welt nach einem vorgegebenen Muster abläuft, was letztlich nur der Schöpfer selbst (Stichwort Wunder) abändern kann.
  3. Die neuzeitliche Wissenschaft hat aber neben dem Konzept des Gesetzes (‚law‘) auch das Konzept Theorie entwickelt. Gesetze führen innerhalb einer Theorie kein Eigenleben mehr sondern sind Elemente im Rahmen der Theorie. Theorien sind subjektive Konstruktionen von mentalen Modellen, die versuchen, die empirischen Phänomene zu beschreiben. Dies ist ein Näherungsprozess, der – zumindest historisch – keinen eindeutigen Endpunkt kennt, sondern empirisch bislang als eher unendlich erscheint.
  4. Eine moderne Formulierung des deterministischen Standpunktes wird von Denbigh wie folgt vorgeschlagen: Wenn ein Zustand A eines hinreichend isolierten Systems gefolgt wird von einem Zustand B, dann wird der gleiche Zustand A immer von dem Zustand B gefolgt werden, und zwar bis in die letzten Details.(S.122)
  5. Diese Formulierung wird begleitend von den Annahmen, dass dies universell gilt, immer, für alles, mit perfekter Präzision.
  6. Dabei muss man unterscheiden, ob die Erklärung nur auf vergangene Ereignisse angewendet wird (‚ex post facto‘) oder zur Voraussage benutzt wird. Letzteres gilt als die eigentliche Herausforderung.
  7. Wählt man die deterministische Position als Bezugspunkt, dann lassen sich zahlreiche Punkte aufführen, nach denen klar ist, dass das Determinismus-Prinzip unhaltbar ist. Im Folgenden eine kurze Aufzählung.
  8. Die Interaktion aller Teile im Universum ist nirgendwo (nach bisherigem Wissen) einfach Null. Zudem ist die Komplexität der Wechselwirkung grundsätzlich so groß, dass eine absolute Isolierung eines Teilsystems samt exakter Reproduktion als nicht möglich erscheint.
  9. Generell gibt es das Problem der Messfehler, der Messungenauigkeiten und der begrenzten Präzision. Mit der Quantenmechanik wurde klar, dass wir nicht beliebig genau messen können, dass Messen den Gegenstand verändert. Ferner wurde klar, dass Messen einen Energieaufwand bedeutet, der umso größer wird, je genauer man messen will. Ein erschöpfendes – alles umfassende – Messen ist daher niemals möglich.
  10. Im Bereich der Quanten gelten maximal Wahrscheinlichkeiten, keine Notwendigkeiten. Dies schließt nicht notwendigerweise ‚Ursachen/ Kausalitäten‘ aus.
  11. Die logischen Konzepte der mentalen Modelle als solche sind nicht die Wirklichkeit selbst. Die ‚innere Natur der Dinge‘ als solche ist nicht bekannt; wir kennen nur unsere Annäherungen über Messereignisse. Das, was ‚logisch notwendig‘ ist, muss aus sich heraus nicht ontologisch gültig sein.
  12. Neben den Teilchen sind aber auch biologische Systeme nicht voraussagbar. Ihre inneren Freiheitsgrade im Verbund mit ihren Dynamiken lassen keine Voraussage zu.
  13. Aus der Literatur übernimmt Denbigh die Komplexitätshierarchie (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143)
  14. Traditioneller Weise haben sich relativ zu jeder Komplexitätsstufe spezifische wissenschaftliche Disziplinen herausgebildet, die die Frage nach der Einheit der Wissenschaften aufwerfen: die einen sehen in den Eigenschaften höherer Komplexitätsstufen emergente Eigenschaften, die sich nicht auf die einfacheren Subsysteme zurückführen lassen; die Reduktionisten sehen die Wissenschaft vollendet, wenn sich alle komplexeren Eigenschaften auf Eigenschaften der Ebenen mit weniger Komplexität zurückführen lassen. Während diese beiden Positionen widersprüchlich erscheinen, nimmt das Evolutionskonzept eine mittlere Stellung ein: anhand des Modells eines generierenden Mechanismus wird erläutert, wie sich komplexere Eigenschaften aus einfacheren entwickeln können.

DISKUSSION

  1. Fasst man alle Argument zusammen, ergibt sich das Bild von uns Menschen als kognitive Theorientwickler, die mit ihren kognitiven Bildern versuchen, die Strukturen und Dynamiken einer externen Welt (einschließlich sich selbst) nach zu zeichnen, die per se unzugänglich und unerkennbar ist. Eingeschränkte Wahrnehmungen und eingeschränkte Messungen mit prinzipiellen Messgrenzen bilden die eine Begrenzung, die daraus resultierende prinzipielle Unvollständigkeit aller Informationen eine andere, und schließlich die innere Logik der realen Welt verhindert ein einfaches, umfassendes, eindeutiges Zugreifen.
  2. Die mangelnde Selbstreflexion der beteiligten Wissenschaftler erlaubt streckenweise die Ausbildung von Thesen und Hypothesen, die aufgrund der möglichen Methoden eigentlich ausgeschlossen sind.
  3. Die noch immer geltende weitverbreitete Anschauung, dass in der Wissenschaft der Anteil des Subjektes auszuklammern sei, wird durch die vertiefenden Einsichten in die kognitiven Voraussetzungen aller Theorien heute neu in Frage gestellt. Es geht nicht um eine Infragestellung des Empirischen in der Wissenschaft, sondern um ein verstärktes Bewusstheit von den biologischen (beinhaltet auch das Kognitive) Voraussetzungen von empirischen Theorien.
  4. In dem Maße, wie die biologische Bedingtheit von Theoriebildungen in den Blick tritt kann auch die Besonderheit der biologischen Komplexität wieder neu reflektiert werden. Das Biologische als Entropie-Konverter (siehe vorausgehenden Beitrag) und Individualität-Ermöglicher jenseits der bekannten Naturgesetze lässt Eigenschaften der Natur aufblitzen, die das bekannte stark vereinfachte Bild kritisieren, sprengen, revolutionieren.
  5. Die Idee eines evolutionären Mechanismus zwischen plattem Reduktionismus und metaphysischem Emergenz-Denken müsste allerdings erheblich weiter entwickelt werden. Bislang bewegt es sich im Bereich der Komplexitätsebenen (iii) Moleküle und (iv) Zellen.

Fortsetzung mit TEIL 4

QUELLEN

  1. Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

M.DONALD: EVOLUTION DES MENSCHLICHEN BEWUSSTSEINS – Kurzbesprechung, Teil 2

Diesem Beitrag ging voraus Teil 1.

1) Das siebte Kapitel ist überschrieben ‚The First Hybrid Minds on Earth‘ (etwa: ‚Die ersten hybriden Geister auf der Erde‘). (S.252)
2) [Anmerkung: Das Problem ist, dass es für den Plural des englischen Begriffs ‚minds‘ in diesem Kontext keine direkte Übersetzung gibt. Die Übersetzung ‚Geister‘ ist eher irreführend, da mit ‚Geister‘ im Deutschen etwas anderes assoziiert wird als mit dem Plural von ‚minds‘. Das liegt daran, dass der deutsche Singular ‚Geist‘ einmal die ‚geistige Kapazität‘ im allgemeinen meinen kann, aber auch ein ontologisch schillerndes Wesen, das als ‚Geist‘ zwar ‚irgendwie‘ da ist, aber nicht so, wie ein reales Wesen. Von der ‚geistigen Kapazität‘ im Singular gibt es im Deutschen aber keinen wirklichen Plural, also die ‚geistige Kapazität‘ in vielfachen Ausprägungen, viele ‚reale‘ Wesen mit einem ‚realen‘ Geist. Die Übersetzung von ‚mind‘ als ‚Verstand‘ oder ‚Vernunft‘ ist nicht ganz falsch, aber auch nicht ganz richtig. Aber auch von ‚Verstand‘ und ‚Vernunft‘ gibt es im Deutschen keinen Plural! Das ist eigentlich interessant. Warum kann man im Deutschen von ‚Geist‘, ‚Verstand‘ und ‚Vernunft‘ nicht im Plural sprechen bzw. denken? Faktisch sind diese Eigenschaften an individuelle Körper gebunden, von denen es viele gibt. Warum kann man im Deutschen dann nicht von ‚den Geistern‘, den ‚Verständen‘, ‚den Vernünften‘ sprechen? Ich denke, hier zeigt sich in der Sprache etwas, das man nicht so einfach hinnehmen sollte.]
3) Das Kapitel startet mit der These, dass die Entwicklung ’symbolischer Fähigkeiten‘ (’symbolic skills‘) nicht durch Beschränkung auf ein isoliertes Gehirn alleine erklärt werden können, da es sich um Phänomene handelt, die ‚inhärent vernetzte Phänomene‘ (‚inherent network phenomena‘) sind.(vgl. S.252)
4) [Anmerkung: Wenn ich einen Körper als Ansammlung von vielen Zellen (ca. 14 Billionen, 14 * 10^12) verstehe, die in ihrer Ausformung von einem genetischen Bauplan und seiner ‚Umsetzung‘ in Form von ‚Wachstum‘ abhängig sind, dann kann ich die genetische und die ontogenetische Maschinerie natürlich bis zu einem gewissen Grad beschreiben, ohne explizit Bezug auf externe Faktoren zu nehmen. Eine solche Beschreibung ist auch nicht ‚falsch‘, da das, was ich beschreibe, ja empirisch aufweisbar ist. Dennoch kann diese empirische nicht falsche Beschreibung in ihrem Verzicht auf korrelierende Kontext-Faktoren möglicherweise entscheidende Faktoren ‚unterschlagen‘ (‚verdrängen‘,…). Dies wäre dann der Fall, wenn sich die ‚körperinternen‘ Faktoren in ihren Veränderungen nur ‚verstehen lassen würden‘, wenn man die korrelierenden Faktoren einbeziehen würde. Verstehen ist aber relativ, kriterienabhängig: welche Eigenschaften erscheinen einem ‚wichtig‘, so dass man sie in eine Erklärung einbeziehen möchte? ]
5) [Anmerkung: In einer empirischen Erklärung gelten nur Phänomene, die notwendig sind, um das Auftreten eines bestimmten Phänomens auch in Form einer Voraussage ‚erklären‘ zu können, etwa: Wenn X gegeben ist, dann wird Y mit einer Wahrscheinlichkeit von p auftreten. Wenn ich mehrere biologische Arten A1, …, Ak habe, die eine Eigenschaft P0 gemeinsam haben, sich aber jeweils in mindestens einer Eigenschaft P1, …, Pk voneinander unterscheiden, dann würde eine Beschränkung auf P0 zwar nicht falsch sein, aber eben nicht alles erklären. Um die Art Ai in ihrer Besonderheit erklären zu können, müsste ich die Eigenschaften P0 + Pi erklären, nicht nur P0 alleine.]
6) [Anmerkung: Wie im Falle biologischer Systeme bekannt, entwickeln sich besondere Arten Ai mit einer Spezialeigenschaft Pi in der Regel immer in Abhängigkeit von einer besonderen Umgebungseigenschaften Ei. Dies bedeutet, man kann das Auftreten der Eigenschaft Pi bei der Art Ai nicht ‚verstehen‘, wenn man die korrelierende Eigenschaft Ei nicht berücksichtigt. Aus diesem Grund betrachtet die moderne Biologie biologische Systeme Ai niemals isoliert, sondern immer nur im Kontext von jeweiligen umgebenden Lebensräumen Ei und die ‚Wechselwirkungen‘ zwischen Umgebung und der Population der Art Ai. Diese Wechselwirkungen setzen sich zusammen aus individuellen Eigenschaften des jeweiligen individuellen biologischen Systems (z.B. spezifische Wahrnehmungsfähigkeit, Verdauungsfähigkeit, Bewegungsform, usw.) und verbunden damit mit der Zahl der Nachkommen während der Lebenszeit. Die individuellen Fähigkeiten erweisen ihre Bedeutung in der Fähigkeit, dass die Population als Ganze in jeder Generation über hinreichend viele und fähige Nachkommen verfügt. Diese Sicht der Dinge war in der Biologie nicht immer schon da; sie musste Schritt für Schritt erarbeitet werden.]
7) [Anmerkung: Die These von Donald , dass man den Kontext einbeziehen muss, ist von daher einerseits nichts grundlegend Neues. Andererseits legt er den Finger auf Kontexteigenschaften, die als solche qualitativ verschieden sind von den vorausgehenden. ‚Symbole‘ sind vieldeutige Werkzeuge, die der Mensch so in der Natur nicht vorgefunden, sondern die er selber geschaffen hat. In dem Maße, wie er sie geschaffen hat, können sie zu einem Teil seiner Umgebung werden, die wie die ’natürliche‘ Umgebung auf ihn ‚einwirken‘ kann. Und hier kommt die nächste Besonderheit: Symbole als Umgebung wirken nicht nur physisch auf den Menschen ein wie die natürliche Natur, sondern sie beeinflussen die gedanklichen Prozesse des Menschen, sie bilden ‚Formen‘, ‚Muster‘, ‚Regeln‘, Strukturen‘, ‚Inhalte‘ usw. der gedanklichen Prozesse, mit Hilfe deren sich der Mensch in seiner Welt ‚orientiert‘. Die Orientierung besteht darin, dass der Mensch ‚im Medium seiner Gedanken‘ seine Wahrnehmungen von der Welt (und sich selbst) ‚interpretiert‘. Anders gesagt: mit den Symbolen als Werkzeug schafft der Mensch eine Umgebung, die auf ihn zurückwirken kann, und mit Hilfe von der er die Welt interpretiert; eine bizarre ‚Rückkopplung‘. Dies ist keine genetisch-ontogenetisch vermittelte Koevolution sondern eine symbolisch vermittelte Koevolution ‚mit sich selbst‘; das ist eine neue Qualität. Der Mensch schafft sich in symbolischen Räumen ein Medium, das als dieses Medium auf sein Denken zurückwirkt und darin permanent sein Medium verändert.]
8) [Anmerkung: Verglichen mit der genetischen basierten Evolution ist diese Art von symbolischer Koevolution um Dimensionen schneller. Durch die ‚Ungleichzeitigkeit‘ von genetischer und symbolischer Koevolution ist ein massiver Konflikt vorprogrammiert: wird die schnellere symbolische Evolution die langsamere genetische Evolution letztlich strukturell verändern können (durch ‚Gentechnik‘) oder wird die symbolische Evolution durch Schaffung eines ‚künstlichen Geistes‘ die genetische Evolution überflüssig machen? ]
9) Diese These bedeutet im Fall der Sprache, dass es – nach Donald — nicht die Fähigkeit zum Sprechen als solche war, die zum Phänomen der Sprache in ihrem vollem Umfang geführt hat, sondern in der Bildung von ‚gedanklichen Gemeinschaften‘ (‚cognitive communities‘). Dies bedeutet, das Zusammensein und das Zusammenwirken von mehreren Menschen als solchen muss gegeben gewesen sein, damit sich aus einem elementaren ‚Sprechen‘ ein ‚Sprache‘ entwickeln konnte. (vgl. SS.252-254)
10) [Anmerkung: So suggestiv diese Formulierungen von Donald klingen mögen, so erscheint mir doch Vorsicht geboten. Wie schon das einfache Beispiel mit den beiden Nervenzellen A und B andeutete, die ein UND oder OR-Gatter realisieren: der einzelnen Zelle kann man dies Eigenschaft nicht ansehen. Noch kann man sagen, dass A sich nur so entwickeln konnte, weil es B gab (oder umgekehrt); in dem Falle reicht es aus, dass sowohl A als auch B bestimmte Grundeigenschaften besitzen, die in Kombination unterschiedliche Funktionen ‚zeigen‘. Das gleiche gilt für Atome; auch wenn man nicht sagt, dass Wasserstoff ‚H‘ sich bilden musste, weil es Sauerstoff ‚O‘ gab (oder umgekehrt), gilt, dass eine Kombination von ‚H‘ und ‚O‘ zu ‚H2O‘ möglich ist und dann in dieser Kombination ’neue‘ Eigenschaften zeigt. M.a.W. das Vorkommen von einzelnen Gehirnen im Rahmen einer Population bedeutet, dass die Gehirne ‚ihre eigene Umgebung‘ sind. Das Besondere wäre nicht die Umgebung als solche, sondern die Tatsache, dass Gehirne spezielle Eigenschaften besitzen, die, wenn sie auf ein anderes Gehirn treffen, ’sichtbar‘ werden. Im Falle der Sprache als einem vernetzten Beziehungssystem von ‚Sprachmaterial‘ (‚token‘) ‚Z‘, möglichem ‚intentionalem Gegenstand‘ ‚O'(‚real‘ oder ‚gedacht‘), ‚gewusster Bedeutungsbeziehung‘ ‚B: Z <---> O‘ und einem ’semiotischen System‘ ‚S‘ als Träger und Realisator dieser Bedeutungsbeziehungen, sind Gehirne in einem Körper – soweit wir sie kennen – die idealen Mediatoren für Sprache: Gehirne können intentionale Gegenstände O ‚repräsentieren‘, sie können Zeichenmaterial Z ‚produzieren‘, sie können beliebige Bedeutungsbeziehungen B realisieren, und sie können diese Fähigkeiten als dynamische Systeme kontinuierlich einsetzen. Dies bedeutet, die Präsenz von mindestens zwei Gehirnen bietet alle Voraussetzungen dafür, dass sich Sprache bilden kann. ]
11) [Anmerkung: Vor diesem Hintergrund erscheint es bemerkenswert, dass die Wissenschaft sich bislang so schwer tut, Sprachbildungsprozesse mit dem Computer nach zu vollziehen. Seit den pionierhaften Talking-Heads Experimenten eines Luc Steels sind wir nicht viel weiter gekommen (siehe Quellen unten) (vergleicht man die Forschungsmittel, die generell ausgegeben werden mit jenen, die für Forschungen zur künstlichen Intelligenz ausgegeben werden, so ist der Betrag für künstliche Intelligenz so niedrig, dass man ihn kaum in Prozenten ausdrücken kann. Aber ich bezweifle, ob es nur am Geld liegt.]
12) Das erste, was Kinder in solchen gedanklichen Gemeinschaften lernen müssen, das ist ein Satz von ‚reziproken Verhaltensmustern‘, in denen man sich wechselseitig der Aufmerksamkeit versichern kann. Dies wiederum geht nur, sofern die Gedächtnisstrukturen hinreichend differenziert sind. Objekte, Relationen, Strukturen, Rollen, Abläufe usw. müssen erinnert werden können; Selbstmodelle und Fremdmodelle, die Metareflexionen voraussetzen. Dies alles impliziert komplexe Lernprozesse, die wiederum Zeit brauchen und entsprechende soziale Umgebungen, die dazu beitragen, dass bestimmte Muster ’sozial einprogrammiert‘ werden. (vgl.SS.254-257)
13) [Anmerkung: Aufgrund des nachweisbaren Zusammenhangs zwischen bestimmten Umgebungseigenschaften Ei und bestimmten Eigenschaften Pi einer bestimmten Art Ai ist die Versuchung groß, diesen Zusammenhang ‚kausal‘ zu interpretieren, also im Sinne ‚weil‘ es Ei gibt, daher bildete sich Pi heraus. Mir scheint, dies ist – wenn überhaupt – höchstens die ‚halbe Wahrheit‘. Bedenkt man die Funktionsweise der genetischen basierten Evolution, so ist die primäre Quelle von möglichen Strukturen das Wechselspiel von Selbstreproduktion des genetischen Codes und der molekularen Übersetzung des Codes in Proteinstrukturen als Ontogenese. Dies bedeutet, dass – egal welche Umgebungseigenschaften jeweils gegeben sind – primär der verfügbare genetische Code und dessen molekulare Übersetzung darüber entscheidet, was sich überhaupt an Strukturen bilden kann. So könnte es grundsätzlich auch so sein, dass die Menge der genetisch bedingten Strukturen grundsätzlich nicht zu den umgebungsmäßig gegebenen Eigenschaften Ei passen würde. In diesem Fall könnten die Umgebungseigenschaften niemals ‚bewirken‘, dass sich ‚geeignete‘ Strukturen bilden. Der Eindruck von möglichen kausalen Zusammenhängen ist ‚beobachterabhängig‘ und eher ein ‚Artefakt des Denkens‘. Dass es zu scheinbaren ‚Anpassungen‘ kommen kann ist zwar ein ‚Auswahlprozesse‘ (Selektion‘), aber nicht in dem Sinne, dass die gegebenen Umgebungseigenschaften Ei aller erst die speziellen genetischen Eigenschaften Gi schaffen, die zu den phänotypischen Eigenschaften Pi führen, sondern weil der genetische und ontogenetische Prozess ‚von sich aus‘ die Eigenschaften Gi bereitstellen kann bzw. sie bereitgestellt hatte können diese dann ’selektiert‘ werden, weil jene Phänotypen, die aus diesen Gi hervorgegangen sind, mehr Nachkommen haben, als jene Phänotypen, die aus einem anderen Genotyp Gj hervorgegangen sind. Die Dramaturgie von geologischem Erdprozess und genetisch basierter Evolution ist damit in keiner Weise aufgeklärt; hier gibt es mehr Fragen als Antworten.‘]
14) Donald ergänzt seine Bemerkungen zum Gedächtnis dahingehend, dass er für das menschliche Gedächtnis postuliert, dass es die beobachtbaren Verhaltensleistungen nur unterstützen kann, wenn es in viele funktional differenzierte Bereich aufgegliedert ist, die parallel arbeiten können. So müssten wir grundsätzlich unterscheiden können zwischen ‚Selbst‘ und ‚Anderer‘, ‚Gegenwart‘, ‚Vergangenheit‘ und ‚Zukunft‘. (vgl. SS.257-259)
15) [Anmerkung: Es ist interessant, wie vage und allgemein die Aussagen zum Gedächtnis sind, obgleich doch gerade das Gedächtnis so zentral sein soll für die symbolisch vermittelte Kultur (ein ähnliches Phänomen war bei Norman zu beobachten. Auch bei ihm waren die Aussagen zum Gedächtnis sehr vage, plakativ, nicht durch harte empirische Modellbildung abgesicherten. Andererseits, wenn man sieht, wie schwer sich selbst die neuesten neurowissenschaftlichen Forschungen zum Raumgedächtnis und episodischen Gedächtnis tun, dann darf man Donald hier nicht zu hart kritisieren. Aber zumindest sollte er dann darauf hinweisen, dass es ziemlich spekulativ ist, was er da sagt…]

LITERATURHINWEISE

Steels, L.; Cooperation between distributed agents through self-organisation, Intelligent Robots and Systems ’90. ‚Towards a New Frontier of Applications‘, Proceedings. IROS ’90. IEEE International Workshop on, pp. 8 – 14 supl, 1990
Steels, Luc (1990) „Components of Expertise“ , AI Magazine Volume 11 Number 2 (1990), pp. 28-49.
Steels, L.; Mathematical analysis of behavior systems, From Perception to Action Conference, 1994., Proceedings, pp. 88 – 95, 1994
Steels, L.; A self-organizing spatial vocabulary, Artificial Life Journal, 2(3), pp. 319-332, 1995
Steels, L.; Language Games for Autonomous Robots, IEEE Intelligent Systems , Volume 16 Issue 5, pp.16 – 22, 2001
Steels, Luc; (2001) Grounding Symbols through Evolutionary Language Games. In: Cangelosi A. and Parisi D. (Eds.) Simulating the Evolution of Language Springer.
Steels, L.; Evolving grounded communication for robots, Trends in Cognitive Science 7(7), July 2003, pp.308 – 312
Steels, L.; Semiotic Dynamics for Embodied Agents, Intelligent Systems, IEEE, Volume: 21 , Issue: 3, pp. 32 – 38, 2006
Steels, L.; The Symbol Grounding Problem has been solved. So What’s Next?, In Glenberg, A.; Graesser, A.; Vega, M. de; (Eds.), Symbols, Embodiment, and Meaning, Oxford University Press, pp. 506-557, 2008
Steels, L.; Work on Symbol Grounding now needs concrete Experimentation, Intern. J. of Signs and Semiotic Systems, 1(1), pp. 57-58, 2011
Steels, Luc (2011) „Design Patterns in Fluid Construction Grammar“ , Amsterdam: John Benjamins Pub.
Steels, Luc (2011) „Modeling the cultural evolution of language.“ Physics of Life Reviews, 8(4) pp. 339-356.

Fortsetzung folgt in Teil 3.

Einen Überblick über alle bisherige Blogeinträge nach Titeln findet sich HIER.