Archiv der Kategorie: Kognition

REAL-VIRTUELL. Ein Einschub

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 1.Februar 2021 (Zuletzt 1.2.2021, 13:45h)
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

KONTEXT

Den wenigsten Menschen ist bewusst, dass das Bild von der Welt, das sie haben, nicht tatsächlich die Welt ist, wie sie unabhängig vom Gehirn (=real) ist, sondern die Welt, die das Gehirn von der Welt da draußen aus all den sensorischen und bislang gespeicherten Daten (Gedächtnis) zusammen rechnet (=virtuell). Dies erklärt, warum die gleiche Welt (da draußen) von verschiedenen Menschen so total verschieden wahrgenommen werden kann.

AUSSEN – INNEN

Übersichtsbild zu Außen-Innen. Zur Erläuterung siehe Text.

Der Begriff Außen ist letztlich nur sinnvoll im Gegensatz zu einem aufzeigbaren Innen. Beispiel für solch ein aufzeigbares Innen ist das menschliche Bewusstsein, das wiederum verweist auf kognitive Zustände unseres Gehirns, das sich in unserem Körper befindet.

Für uns als Menschen ist zunächst das subjektive Erleben unserer Bewusstseinsinhalte wie das Erleben selbst (einschließlich Denken, Vorstellen, Erinnern usw.) primär real. Im Laufe des Lebens kann man aber erkennen, dass diese primäre Realität eindeutig nicht die Welt selbst ist, da sie an unser Bewusstsein gebunden ist, das über das Gehirn in unserem Körper verankert ist. Die subjektive Realität ist eine abgeleitete Realität; unser Gehirn produziert eine virtuelle Realität, die sich für uns als subjektives Erlebende wie eine Realität darstellt!

KONVERSION: REALITÄT ZU VIRTUALITÄT

Hat man diesen Erkenntnispunkt erreicht, dass die subjektive Realität eine abgeleitete Realität ist, ein Rechenergebnis des Gehirns, das sensorische Fragmente einer Welt da draußen (=real) in neuronale Strukturen und Prozesse übersetzt/ konvertiert, die als neuronale Prozesse zwar real sind, aber in den erzeugten internen Informationsstrukturen innerhalb der neuronalen Prozesse als Repräsentanten der mit-verursachenden externen Realität ein Abbildungsprodukt, sind, erzeugt durch Abbildungsprozesse, und so gesehen nur als bildhaft, als virtuell bezeichnete werden können, dann kann man begreifen, dass ein biologischer Organismus wie der des homo sapiens — neben vielen anderen Funktionen — eine Funktion ganz speziell erkennen lässt: der gesamte Organismus ist ein Konverter von Realität in Virtualität!

Der Aufwand, der getrieben werden muss (musste), um dies zu ermöglichen ist extrem hoch und man fragt sich unwillkürlich, wofür das gut sein soll?

Bevor man eine Antwort zu geben versucht, sollte man sich noch eine weitere bemerkenswerten Funktion von homo sapiens Organismen vor Augen führen.

AUSTAUSCH: INNEN ZU INNEN

Von Bakterien und Viren ist bekannt, dass sie als Gesamtheiten schon immer einen intensiven Informationsaustausch pflegen (was mich dazu inspiriert hatte von diesen Gesamtheiten als BIOM zu sprechen und das gesamte BIOM als biologischen Super-Computer zu sehen, der die unfassbaren Formenproduktionen der Evolution in Interaktion mit den jeweiligen Umgebungen ermöglicht hat).

Durch die biologische Ermöglichung einer Konversion von Realität in neuronal ermöglichte Virtualität eröffnete sich nicht nur die Möglichkeit, im Bereich der Virtualität verschiedene kreative Prozesse zu gestalten, die abgeleitete Formen von Realität generieren können, für die es aktuell so noch keine Vorgaben in der umgebenden Realität gibt. Dies neuen Formen können indirekt zu Änderungen in der realen Welt führen, die ohne diese kreativen virtuellen Prozesse entweder gar nicht oder erst sehr viel später möglich gewesen wären. Da Änderungen nicht per se von irgendeinem Vorteil sein müssen — sie können schädlich bis zerstörerisch sein –, ist diese neuartige Befähigung zu inneren kreativen Prozessen somit zwar eine neue Chance, zugleich aber auch ein neues Risiko.

Um nun sowohl die Chance — als auch das Risiko — zu erhöhen, gibt es noch eine weitere speziell Funktion von biologischen Lebensformen — am extremsten ausgeprägt beim homo sapiens –: die zusätzliche Abbildung von kognitiven Strukturen auf andere kognitive Strukturen, bei denen die kognitiven Strukturen auf der einen Seite der Abbildung in Form eines Ausdruckssystems [E] organisiert sind. Betrachtet man kognitive Strukturen generell als kognitive Objekte [KOGOBJ], dann kann man diejenigen kognitiven Objekte, die zusätzlich speziell als kognitive Objekte innerhalb eines Ausdruckssystems E organisiert sind, als KOGOBJ-E abkürzen. Die Abbildungsbeziehung zwischen der speziellen Menge von kognitiven Objekten, die als Ausdrücke KOGOBJ-E fungieren, und allen anderen kognitiven Objekten KOGOBJ (mit KOGOBJ-E als Teilmenge!) wird normalerweise Bedeutungsbeziehung [Π] genannt, geschrieben: Π: KOGOBJ <—–> KOGOBJ-E.

Warum wieder dieser enorme zusätzliche Aufwand?

Wie wir am Verhalten des homo sapiens — Wir — sehen können, kann aufgrund der Bedeutungsbeziehung ein biologischer Organismus A die Ausdruckselemente benutzen, um auf bestimmte virtuelle Aspekte in sich Bezug zu nehmen, und diese internen Ausdruckselemente können dann in Form von Sprachlauten — oder später in der kulturellen Entwicklung auch durch Schriftzeichen — dazu genutzt werden, auf einen anderen Organismus B einzuwirken, so dass dieser — falls man die gleichen Ausdruckselemente mit der gleichen Bedeutungsbeziehung gemeinsam gelernt hat — ‚in sich selbst‘ möglicherweise ähnliche kognitiven Objekte aktiviert wie der andere biologische Organismus A möglicherweise intendiert hat.

Dieser hochkomplexe Vorgang einer zwischen-biologischen Kommunikation ermöglicht es — wie wir aus unserem Alltag wissen können — dass sich auf diese Weise — bis zu einem gewissen Grad — nicht nur das Verhalten generell koordinieren lässt, sondern dass dabei auch — wiederum nur bis zu einem gewissen Grad — inhaltliche Informationen über die Welt ausgetauscht werden können, die eine kognitive erweiterte Koordination möglich machen.

WELTBILDER: WISSENSCHAFT ODER MYTHEN?

Diese ineinander verschränkten Abbildungen von Realität in Virtualität einerseits bzw. Virtualität 1 nach Virtualität 2 andererseits stellen im Kontext der biologischen Evolution mehr als eine Revolution dar. Dies soll jetzt hier gar nicht weiter diskutiert werden. Wohl aber sei der Hinweis gestattet auf das Alltagsphänomen, dass ganze Populationen von Menschen ein virtuelles Bild von der Welt erzeugen, pflegen und danach handeln können, das teilweise oder gar überwiegend falsch ist, mit den entsprechend verheerenden Folgern für alle.

Vor diesem Hintergrund der Massen-Verirrungen — in allen Zeiten der Menschheit gegeben, auch im Jahr 2021 — stellt sich die kritische Frage, was kann eine Gesellschaft als Ganze tun, um durch ihre Kultur Massen-Verirrungen zu verhindern.

Wie Blicke zurück in die Geschichte und hinweg über alle nationale Grenzen heute andeuten, ist ein gemeinsamer Schutz vor Verirrungen alles andere als einfach. Intelligenz alleine ist offensichtlich kein ausreichender Schutz…

So zeigt ein Blick in die Geschichte der Wissenschaften, dass es selbst in der Wissenschaft trotz all der vereinbarten Qualitätssicherungen immer wieder zu strittigen Meinungen kommen kann, die ganze Schulen ausbilden, um die anderen Meinungen ‚zu bekämpfen‘ statt aus den Unterschieden konstruktiv zu lernen.

Die Aufgabe der Gestaltung einer gemeinsamen Kultur der minimalen Verirrungen ist für uns alle real, sie ist hart, sie ist schwierig, und die scheinbar einfachen und griffigen Lösungen sollten eigentlich routinemäßig schon mal eine besondere Aufmerksamkeit erregen, ob das überhaupt so stimmen kann …

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

Philosophie für Dummies [Ph4Ds]

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Datum: 24.April 2020

Letzte Änderung: zweite Audio-Datei, 2.Mai 2020 (Neuer Sound 23.Mai 2020)

KONTEXT

In den vielen hundert Beiträgen dieses Blogs blitzen viele Aspekte des philosophischen Denkens auf, teilweise werden Verbindungen sichtbar, bisweilen Umrisse von übergreifenden Strukturen, aber für einen Einsteiger ist es schwer bis unmöglich, sich aus dieser Vielfalt — auch angesichts der schieren Menge — ein klares Bild des philosophischen Denkens zu bilden. Für eine zusammenhänge systematische Darstellung war der Blog auch nie gedacht. Jetzt verstärkt sich aber der Bedarf, aus der Vielfalt doch ein zusammenhängendes Bild zu formen. Wie soll dies gehen?

Es gibt viele Strategien, wie man dies angehen kann. Aufgrund eines Anlasses in der Lehre ergab sich die Idee, mit einem kleinen Text anzufangen, der sehr wohl versucht, das Ganze im Blick zu haben, obgleich er selbst — aufgrund seiner Kürze — doch nur erste Fragmente bieten kann. Aber, es liegt in der Natur einer zusammenhängenden Vision, dass sie in der Lage ist, auch schon mit wenigen Fragmenten eine Perspektive aufblitzen zu lassen, die sich dann — quasi von selbst — in nachfolgenden Formulierungen ’selbst ergänzt‘.

Eine erste Skizze wurde im Stil einer Präsentation abgefasst (nicht Powerpoint, sondern LaTex mit der Beamer Klasse) mit 16 Seiten Inhalt plus Quellennachweisen.

Parallel dazu habe ich einen Text gesprochen, der ausgehend von der Präsentation die damit zusammenhängenden Ideen im unplugged Stil ‚laut gedacht‘ habe.

Natürlich schreit diese erste Skizze nach Weiterführung, fragt sich nur, wann sich dafür Zeit finden lässt.

Ph4Ds – PRÄSENTATION

Ph4Ds – AUDIO

(2.Mai 2020) Kürzere Fassung, erster Einstieg (17.5 Min)
Längere Fassung vom 24.April 2020 (75 Min)

BITTE UM FEEDBACK

Generell kann man ja in diesem Blog Rückmeldungen geben (was in der Vergangenheit auch immer wieder einige getan haben). Im Falle dieser beginnenden ‚Gesamtperspektive‘ fände ich es schön Rückmeldungen zu bekommen. Ob und wieweit ich dann auf die Rückmeldungen eingehe, weiß ich jetzt natürlich nicht. Aber meistens bildet jede Bemerkung, mag sie auch noch so klein sein, ein Echo das nachwirkt, ja, auch mit zeitlicher Verzögerung. Manchmal kommt es vor, dass ich einem Gedanken nachhänge, und dann poppen Erinnerungen an Gespräche, Artikel und Bücher auf, die ich viele Jahre vorher geführt oder gelesen habe …. und genau dann sind sie plötzlich von großer Bedeutung…

Soundexperiment: mehrere Drumkits, eine Melodie-Impression…

THOMPSON: MIND IN LIFE – Review – Teil 1

Evan Thompson, Mind in Life. Biology, Phenomenology, and the Sciences of Mind. Harvard – London, The Belknap Press o f Harvard University Press, 2007

PHILOSOPHIE UND WISSENSCHAFTEN – EIN MOTIV

  1. Das Motiv für die Lektüre dieses Buches rührt von der anhaltenden Auseinandersetzung von cagent zu den philosophischen Grundlagen unseres Weltbildes. Egal ob man sich mit psychologischen Modellbildungen beschäftigt, mit biologischen oder neurowissenschaftlichen, man stößt immer wieder auf die methodischen Ränder dieser Disziplinen, durch die ein direkter Zugriff auf die Inhalte des Bewusstseins nicht möglich ist (siehe Bild 1). Es bleiben immer nur Korrelationen mit etwas, das man dem Bewusstsein zurechnet, aber man kommt niemals direkt an die Daten des Bewusstseins heran.

Die drei großen Blickweisen auf den Menschen (Verhalten, Gehirn, Bewusstsein) und deren möglichen Verknüpfungen
Die drei großen Blickweisen auf den Menschen (Verhalten, Gehirn, Bewusstsein) und deren möglichen Verknüpfungen

  1. Dieses Problem ist nicht neu, es ist letztlich uralt, aber durch die Fortschritte der empirischen Wissenschaften wird die Besonderheit des Phänomens des Bewusstseins klarer als je zuvor.

  2. Welcher Philosoph das Phänomen des Bewusstseins bislang am besten beschrieben haben soll, ist schwer zu sagen. Jeder große Philosoph hat auf seine Weise interessante Aspekte enthüllt. Aus Sicht der heutigen Methoden und Erkenntnisse erscheint cagent das Vorgehen von Edmund Husserl mit seinem phänomenologischen Forschungsprogramm bislang als am ehesten geeignet zu sein, eine Brücke zu schlagen zu den heutigen empirischen Wissenschaften, ohne dabei das Alleinstellungsmerkmal des philosophischen Denkens und die Besonderheiten des Untersuchungsgegenstandes aufgeben zu müssen.

  3. Entscheidend für das Projekt einer verbesserten Integration von philosophischem mit empirischem Denken wird der benutze Erkenntnis- und Wissenschaftsbegriff sein. Trotz ca. 100 Jahren Wissenschaftsphilosophie kann man aber nicht behaupten, dass es in allen wissenschaftlichen Disziplinen heute einen einheitlichen Wissenschaftsbegriff gibt, der sich auch in entsprechend gemeinsamen Methoden und Darstellungsweisen ausdrückt.

  4. Der Autor cagent greift zu diesem Zweck zurück auf die Tradition der Wissenschaftstheorie, wie sie zuletzt im Institut für Logik und Wissenschaftstheorie der Ludwig-Maximilians Universität München in den 80iger Jahren des 20.Jahrhunderts praktiziert wurde (dies Institut existiert in der damaligen Form nicht mehr). Diese Sicht wurzelte stark u.a. auch in der Tradition des Wiener Kreises, mit all den Schwachstellen, die sich daraus ergaben. Dennoch kann man aus dieser Position eine Arbeitshypothese herleiten, die nachvollziehbar und kritisierbar ist. Diese Position sei hier mit der Abkürzung LMU-ILWT bezeichnet.

  5. Ein wesentlicher Punkt in der Position des LMU-ILWT besteht in der Forderung nach einer angemessen Formalisierung intendierter wissenschaftlicher Sachverhalte in einer Disziplin. Heute könnte man die Formalisierungsanforderung ergänzen um den Punkt von brauchbaren Simulationsmodellen, mit deren Hilfe sich die Auswirkungen einer formalen Theorie sichtbar und ansatzweise überprüfbar machen lassen.

  6. Die Anforderungen lassen sich an jede empirische Theorie stellen und einlösen, was aber faktisch immer nur partiell passiert. Den meisten Wissenschaftlern fehlt das Knowhow (und die Zeit, und die Werkzeuge), um diese Anforderung wirklich einzulösen.

  7. Im Rahmen eines Programms zur Integration von Philosophie und empirischen Wissenschaften ist zu überprüfen, ob und wieweit sich auch die Position der Philosophie entsprechend formalisieren und simulieren lässt. Von den meisten Philosophen wird solch eine Gedanke eher abgelehnt.

  8. Im Falle eines phänomenologischen Forschungsprogramms im Stile von Edmund Husserl ist solch eine Überlegung aber keinesfalls abwegig, sondern gehört sogar in gewisser Weise zum Forschungsprogramm selbst.

  9. Im Rückgang auf die Grunddaten des bewussten Erlebens, Fühlens, Denkens usw. zeigt sich eine Vielfalt von Phänomenen in einer spezifischen Dynamik mit impliziten Strukturen, die zu formalisieren genauso sich anbietet wie die Formalisierung von komplexen Phänomene aus dem Bereich der biologischen Evolution oder der Entstehung des physikalischen Universums.

  10. Es gab sogar einen berühmten Versuch solch einer Formalisierung. Das Buch von Rudolf Carnap Der Logische Aufbau der Welt (1928) erscheint als  eine  1-zu-1 Übersetzung jenes Konstitutionsprozesses der Phänomene des Bewusstseins, wie sie Husserl in den Ideen I + II (sowie in anderen Schriften) über Jahrzehnte entwickelt hat. Allerdings hat Carnap sowohl im Stufenbau wie auch in seiner Autobiographie alles daran getan, diesen Bezug zu Husserls Denken und Werk zu verdecken. (Anmerkung: Eine neuere, sehr ausführliche und gründlich recherchierte Untersuchung zum Verhältnis von Carnaps Stufenbau zum Denken Husserls, die diese Nähe Carnaps zu Husserl belegt,  findet sich in einem Beitrag von Verena Mayer (München), der demnächst erscheinen wird.)
  11. Der Stufenbau Carnaps wurde mehrfach heftig kritisiert. Dennoch ist die Grundidee, auch die Phänomene des Bewusstseins einer formalen Analyse zu unterziehen naheliegend und konsequent. Es gibt keinen Grund, dies nicht zu tun. Die grundsätzliche Problematik einer Versprachlichung von Erkennen wird dadurch natürlich nicht aufgehoben und nicht geheilt, aber im Raum des menschlichen Erkennens gibt es keine Alternativen. Unser Denken befindet sich kontinuierlich in einem Ringen um Artikulation, die als solche notwendig ist, aber als solche niemals das Erkannte ganz erschöpfen kann. Das bekannte Ungenügen ist keine Entschuldigung, es gar nicht zu tun. Denn die Alternative zu einer unvollkommenen Artikulation ist gar keine Artikulation.
  12. Je mehr die empirischen Wissenschaften die Grenzen des Redens über das Bewusstsein immer klarer erfahrbar machen, umso eindringlicher entsteht die Aufforderung, sich als Philosoph erneut darüber Gedanken zu machen, ob und wie solch ein Programm einer erneuerten Theorie des Bewusstseinserlebens im Kontext von Entwicklungs-, Verhaltens-, Gehirn- und Körperwissenschaften (um nur die wichtigsten zu nennen) aussehen könnte. Arbeitshypothese ist, das phänomenologische Forschungsprogramm von Husserl als Leitschnur zu nehmen erweitert um das wissenschaftsphilosophische Instrumentarium einer modernen Wissenschaftstheorie im Stil von LMU-ILWT.
  13. In diesem Kontext finde ich ein Buch wie das von Thompson reizvoll, zumal Thompson sich in den letzten Jahren in einem Netzwerk von Forschern bewegt hat, denen man das Label ‚Naturalisierung der Phänomenologie‘ anheften könnte. Diese Forscher hatten ihren eigenen Lernprozess mit dem Forschungsprogramm von Husserl.

THOMPSON Kap.1 (SS.3-15)

ENAKTIVE VORGEHENSWEISE

  1. In diesem einführenden Kapitel versucht Thompson eine historische Einordnung vorzunehmen zwischen jenem philosophisch-wissenschaftlichen Paradigma, dem er sich zugehörig fühlt und das er Enaktiv (Englisch: ‚enactive‘) nennt, und jenen anderen Strömungen, die er als vorbereitend für den eigenen Standpunkt ansieht. Der Begriff ‚enaktiv‘ ist ein Kunstwort, in dem die Idee einer Realisierung eines Gesetzes durch Verkörperung in der Zeit ausgedrückt werden soll. (vgl. S.13) Der Begriff geht zurück auf das Buch The Embodied Mind, das Thompson zusammen mit Varela und Rosch 1991 verfasst hatte.
  2. Im einzelnen zählt Thompson fünf Aspekte auf, die für eine enaktive Vorgehensweise in seinem Verständnis wichtig sind.(vgl. Dazu S.13)
  3. Zum einen (i) ist dies der Aspekt der Autonomie lebender Systeme. Im Rahmen ihrer Möglichkeiten organisieren sie sich komplett selbst und in diesem Rahmen generieren sie ihren spezifischen Erkenntnisraum (‚cognitive domain‘).
  4. Innerhalb dieser generellen Autonomie arbeitet (ii) das Nervensystem (das Gehirn) ebenfalls autonom. Mit Schnittstellen zu Ereignissen außerhalb des Gehirns arbeitet das Gehirn aber vollständig selbstbezüglich und erschafft in dieser Selbstbezüglichkeit seine eigenen Bedeutungsstrukturen.
  5. Ferner gilt (iii): Erkenntnis (‚cognition‘) ist in diesem Kontext ein Moment an einem dynamischen Verhalten, das zwar über sensorische und motorische Kopplungen mit einer Umwelt interagiert, aber diese Kopplung führt nicht zu einer 1-zu-1-Determinierung des Systems. Das System hat eine Eigendynamik, die über diese Interaktion weit hinausgeht.
  6. Im Rahmen solch einer eingebetteten Kognition ist (iv) das Bild einer Welt nicht einfach eine Entsprechung, nicht eine direkte Repräsentation der empirischen Außenwelt, sondern ein dynamisches Produkt aus Interaktion und systeminternen generierenden Prozessen, die ein systemspezifisches Modell einer unterstellten Welt erzeugen.
  7. Schließlich: (v) Erfahrung (‚experience‘) ist in diesem Kontext nicht irgendein Nebeneffekt (‚epiphenomenal side issue‘), sondern der wesentliche Aspekt für ein Verständnis von Geist (‚mind‘). Von daher ist es notwendig genau diese Erfahrung zu untersuchen, und die beste Methode dafür ist nach Thompson eine phänomenologische Vorgehensweise.
  8. Bevor auf diese Punkte näher eingegangen wird sei hier noch ein kurzer Blick gestattet auf den Ausblick von Thompson auf andere, konkurrierende Ansätze.(sehe Bild 2)

KOGNITIVISMUS, KONNEKTIONISMUS, VERKÖRPERTER DYNAMIZISMUS

Aufschlüsselung der Leitbegriffe von Thompson in Kap.1
Aufschlüsselung der Leitbegriffe von Thompson in Kap.1

  1. Letztlich organisiert er seine Umschau mit den Begriffen Kognitivismus (‚cognitivism‘), Konnektionismus (‚connectionism‘) und Verköperter Dynamizismus (‚embodied dynamicism‘).
  2. Das Problem mit diesen Begriffen ist, dass sie nicht sehr scharf sind, eher vage. Dies zeigt sich sofort, wenn man versucht, konkrete Forscher diesen Richtungen zuzuordnen und dabei den Inhalt ihrer Schriften einbezieht. Die meisten Forscher haben in ihrem Leben eine Lerngeschichte, die sie mit einer bestimmten Position anfangen lässt und sie dann zu weiteren, neuen Positionen führt. Ordnet man nun bestimmte Forscher aufgrund bestimmter Ansichten im Jahr X einer bestimmten Ähnlichkeitsklasse M zu, so gilt dies oft nur für eine bestimmte Zeitspanne. Außerdem sind bestimmte Paradigmen (wie z.B. gerade der sogenannte Kognitivismus) in sich so komplex und vielfältig, dass eine saubere Definition in der Regel kaum möglich ist.
  3. So definiert Thompson den Begriff Kognitivismus einleitend gar nicht sondern zitiert in lockerer Folge unterschiedliche Autoren und Konzepte, die man sowohl der schwammigen Kognitionswissenschaft (‚cognitive science‘) zuordnen kann wie auch der Kognitionspsychologie (‚cognitive psychology‘), die sich als Gegenbewegung zur Verhaltenspsychologie (‚beavioral psychology‘, ‚behaviorism‘) gebildet hatte. Daneben gibt es auch Strömungen in der Philosophie, die sich unterschiedlich mit dem Kognitivismus und der Kognitionspsychologie überlappt haben und immer noch überlappen. In allem dabei die neue erstarkende Rolle von computerbasierten Modellen und Simulationen.(vgl. SS.4-8)
  4. In all diesen – nicht immer klaren – Positionen erkennt Thompson charakteristische Defizite.
  5. Die Verbannung der direkten Beobachtung von Geist und Bewusstsein im Rahmen einer empirischen Verhaltenspsychologie (zur Zeit ihrer Entstehung ein wichtiges Anliegen, um die einseitige Orientierung an der Introspektion aufzubrechen), führte im weiteren Verlauf zu einer ideologischen Verhärtung der Methoden, die sich dann auch in der Kognitionspsychologie und der frühen Kognitionswissenschaft (samt Teilen der Philosophie) weiter vererbte. Die Einbeziehung von Computermodellen verstärkte die Tendenz, die Arbeitsmodelle der Kognition im Stile von – rein symbolischen – Informationsverarbeitungsprozessen zu sehen, die einen gewissen Anschluss an die moderne Gehirnforschung erlaubte. Allerdings war (und ist) die Übereinstimmung des Computerparadigmas und des Gehirnparadigmas – je nach Betrachtungsstandpunkt – nur partiell ähnlich. Dazu kam – nach Thompson – eine isolierte Betrachtung individueller kognitiver Prozesse ohne den Faktor der umgebenden Kultur. Der Zusammenhang zwischen Bewusstsein und all den anderen Wissenschaftsbereichen wurde damit letztlich immer unklarer, war (und ist immer noch weitgehend) geradezu geächtet, und die resultierenden Theorie (sofern es überhaupt Theorien waren) wirkten aufgrund ihrer Eingangsbeschränkungen oft sehr verzerrt.
  6. Im Konnektionismus (‚connectionism‘), der nach anfänglichen Startschwierigkeiten ab den 80iger Jahren des 20.Jahrhunderts deutlich an Boden gewann, sieht Thompson einen gewissen Fortschritt derart, dass neue Erkenntnisse der Gehirnforschung und der Forschung mit künstlichen neuronalen Netzen deutlich machten, dass das Konzept eines deduktiven Denkens mittels Symbolen einer abstrakten Ebene zugehört, die tieferliegend mittels vernetzten Neuronen realisiert wird, die direkt keine Symbole verkörpern, sondern ein Netzwerk von Ereignissen, die dynamisch unterschiedlichste Abstraktionsebenen und Wechselwirkungen realisieren. Ein Verständnis von Geist muss also tiefer ansetzten als lange Zeit gedacht. Thompson kritisiert am Konnektionismus, dass dieser die Verkopplung mit der Welt nur ungenügend berücksichtigt habe. Für die ersten Jahrzehnte mag dies stimmen. Aber in den letzten Jahren hat sich dies radikal gewandelt (Beispiel google Algorithmen, IBMs Watson, Roboter, usw.). Was allerdings als Kritik bestehen bleibt ist Thompsons Diagnose, dass auch der Konnektionismus bislang ein Riesenproblem mit dem Bewusstsein hat.
  7. Der Begriff des verkörperten Dynamizismus (‚embodied dynamicism‘) erscheint besonders problematisch. Thompson sieht hier ein Zusammengehen der Strömung Dynamischer (selbstorganisierter) Systeme (‚dynamic (self-organizing) systems‘) und Verköperter Systeme (‚embodied systems‘). Dazu gehört, dass solche Systeme nicht einfach nur die Umwelt 1-zu-1 abbilden, sondern ihre Interaktion mit der Umwelt durch autonome, nicht-lineare Prozesse individuell gestalten. Thompson sieht in der Strömung eines verkörperten Dynamizismus Ansätze sowohl für eine Einbeziehung des Bewusstseins wie auch des Vor- und Nicht-Bewusstseins.(vgl. S.11f)
  8. In dieser vorausgehenden Strömung, dem verkörperten Dynamizismus, sieht Thompson dann auch den Übergang zu jener Richtung, der er sich selbst zugehörig fühlt und die für ihn die Lösung wichtiger Fragen ermöglichen soll, besser als in den vorausgehend charakterisierten Strömungen.

ENAKTIVES VORGEHEN und PHÄNOMENOLOGIE

  1. Nach diesen Einkreisungen der Notwendigkeit einer direkten Analyse des Bewusstseins deutet Thompson kurz an, wie er sich diese Analyse vorstellt.
  2. Es soll primär die phänomenologische Methode von Husserl und auch von Merleau-Ponty sein, dies aber im Rahmen der (selbstorganisierenden, autopoietischen) Autonomie und Intentionalität des Lebens allgemein. Ferner soll die Neurobiologie einbezogen werden, was die Notwendigkeit einer Neuro-Phänomenologie begründet.(vgl. S.15)

DISKUSSION

  1. Wie schon angedeutet, erscheint die allgemeine Lageskizze, die Thompson gibt, als problematisch, da die Begriffe nicht allzu scharf sind und eine wirkliche genau Zuordnung einzelner Personen zu bestimmten Richtungen in solch einem Kontext schwierig ist.
  2. Auch ist nach dieser Einleitung noch nicht ganz klar, wie Thompson sein Programm einlösen wird. Die skizzierte enaktive Vorgehensweise lässt viel Spielraum für alternative Konzepte.

Einen Überblick über alle Blogbeiträge von cagent nach Titeln findet sich HIER.

6 THESEN ZUM LEBEN: KREATIVITÄT, KOOPERATION, KOMMUIKATION, MEHR ALS JETZT, SEXUALITÄT, DAS BÖSE – Thema des PHILOSOPHIESOMMER 2016 in der DENKBAR Frankfurt am So, 15.Mai 2016

Entsprechend dem Plan vom 9.Februar 2016 kommt hier die Einladung zur nächsten Sitzung des PHILOSOPHIESOMMERS 2016 in der

DENKBAR Frankfurt

Spohrstrasse 46a

(Achtung1: Parken schwierig! Man muss wirklich im Umfeld suchen)

(Achtung 2: Veränderte Zeiten 15:00 – 18:00h)

THEMENSTELLUNG

Am Ende der letzten Sitzung im Rahmen des Philosophie-Sommers 2016 in der DENKBAR gab es – vielleicht nicht überraschend – keine klare Themenstellung für das nächste Treffen. Der Brennpunkt der Überlegungen im Spannungsfeld von biologischen Systemen (Menschen, Tiere) und nicht-biologischen Systemen (Maschinen) ist hin- und hergerissen zwischen altbekannten, vertrauten Bildern vom Leben, der Welt und dem Menschen einerseits und den neuen, radikalen, irgendwie verwirrenden Erkenntnissen um universalen Ganzen, zum Menschen, zur Technologie. Warum können die Maschinen all das? Wo liegen natürliche Grenzen? Was sagen diese Maschinen und ihre intensive Nutzung durch den Menschen über den Menschen? Sind wir nicht letztlich mit unsren Zustandsänderungen von Materie mittels Energie nicht auch nur Maschinen, die sich in den neuen Maschinen quasi zu kopieren versuchen?

Es blieben also viele offene, beunruhigende Fragen.

SECHS THESEN ALS ANKERPUNKTE FÜR DIE DISKUSSION

Um die Diskussion weiter zu befeuern und um sie durch wichtige, zentrale neue Erkenntnisse ein wenig zu fokussieren, hier 6 Thesen, hinter die wir kaum mehr zurück können:

  1. KREATIVITÄT JENSEITS DES BEKANNTEN: Die Explosion des Lebens fand statt jenseits des aktuellen Wissens unter Ausprobieren von radikalen Alternativen und unter Eingehung eines radikalen Risikos des Scheiterns.

  2. KOOPERATION ÜBR GRENZEN HINWEG: Die Explosion des Lebens fand statt durch Erlangung der Fähigkeit, mit völlig fremden Systemen (die oft lebensbedrohlich waren) in eine Kooperation geradezu galaktischen Ausmaßes einzutreten, die eine Win-Win-Situation für alle Beteiligte bildete.

  3. ÜBERWINDUNG DES JETZT: Die Explosion des Lebens führte zu einem einzigartigen Punkt: nach 13.8 Mrd Jahren konnte sich das Leben plötzlich selbst anschauen und hat das Potential, sich selbst zu verändern.

  4. KOORDINIERUNG INDIVIDUELLER VIRTUELLER WELTEN: Die Wiedergeburt des universalen Lebens im individuellen virtuellen Denken verlangt neue, intensive Formen der Koordinierung durch symbolische Kommunikation im globalen Ausmaß.

  5. JENSEITS VON SEXUALITÄT: Die bisherige Form der Sexualität als Strategie der Mischung genetischer Informationen kombiniert mit endogenem Handlungsdruck verlangt nach radialem Umbau: genetische Kombinatorik ja, endogener Handlungsdruck nein. Mann – Frau war gestern.

  6. DYNAMIK DES BÖSEN – WO LEBT DAS GUTE: tiefsitzende Triebstrukturen im Menschen (Macht, Geld, Dünkel, …) verbünden sich schneller und effektiver im globalen Maßstab als nationale politische Systeme. Sie drohen die neuzeitlichen Freiheitsansätze des Kreativen (neben anderen Faktoren) zu ersticken.

Zum Austausch über diese 6 Thesen gibt es folgenden

PROGRAMMVORSCHLAG

Moderation: Gerd Doeben-Henisch

15:00 Begrüßung

15:05 Kurze Einführung ins Thema

15:25 Gemeinsamer Diskurs I, Sichtbarmachung von Positionen

16:30 Blubberpause (Jeder kann mit jedem reden; Essen und Trinken)

17:00 Gemeinsamer Diskurs II, erste Zusammenfassungen, Tendenzen

17:45 Schlussstatements und Thema für das nächste Treffen

18:00 Ende

Langsames Wegdiffundieren der Teilnehmer ….

Siehe das Memo zu dieser Sitzung HIER.

Einen Überblick über alle bisherigen Texte zum Philosophie-Sommer/ zur Philosophiewerkstatt findet sich HIER.

Einen Überblick über alle Texte des Autors cagent findet sich HIER.

AVICENNAS ABHANDLUNG ZUR LOGIK – Teil 15

VORGESCHICHTE

Für einen Überblick zu allen vorausgehenden Beiträgen dieser rekonstruierenden Lektüre von Avicennas Beitrag zur Logik siehe AVICENNAS ABHANDLUNG ZUR LOGIK – BLITZÜBERSICHT.

Übersicht zum Wissen K bestehend aus Ausdrücken E, Objekten O sowie Bedeutungsbeziehungen M
Übersicht zum Wissen K bestehend aus Ausdrücken E, Objekten O sowie Bedeutungsbeziehungen M

WAHR UND FALSCHE AUSSAGEN

1. Nach dem Blogeintrag Avicenna 14b gibt es jetzt Ausdrücke A, B, …, die ‚wahr‘ oder ‚falsch‘ sein können und die wir deshalb ‚Aussagen‘ (auch ‚Propositionen‘) nennen. Aussagen können mittels aussagenlogischer Operatoren wie ‚NEGATION‘, ‚UND‘, ‚IMPLIKATION‘ usw. zu komplexeren Ausdrücken so verknüpft werden, dass jederzeit ermittelt werden kann, wie der Wahrheitswert des komplexen Ausdrucks lautet, wenn die Wahrheitswerte der Teilausdrücke bekannt sind. Ob im Einzelfall eine Aussage A ‚wahr‘ oder ‚falsch‘ ist, muss durch Rückgriff auf ihre Bedeutungsbeziehung M(A) geklärt werden. Bislang ist nur klar, dass die Bedeutungsbeziehung M nur allgemein eine Beziehung zu den (kognitiven) Objekten O herstellt (siehe Grafik oben).

2. Avicenna spricht aber nicht nur von Aussagen A allgemein, sondern unterscheidet die Teilausdrücke ‚Subjekt‘ S und ‚Prädikat‘ P, zusätzlich oft noch ‚Quantoren‘ Q.

FEINSTRUKTUR DER BEDEUTUNG VON AUSDRÜCKEN

3. Man kann und muss dann die Frage stellen, ob und wie sich auf der Bedeutungsseite die Unterscheidung in S und P auf der Ausdrucksseite widerspiegelt?

ECHTE UND UNECHTE OBJEKTE

4. In vorausgehenden Blogeinträgen zu Avicenna (Avicenna 4, 5, 7 und 11) wurde schon unterschieden zwischen ‚echten‘ und ‚unechten‘ Objekten. ‚Unechte Objekte‘ sind solche Wissenstatbestände, die man zwar identifizieren und unterscheiden kann, die aber immer nur im Kontext von ‚echten Objekten‘ auftreten. ‚Unechte‘ Objekte werden meistens als ‚Eigenschaften‘ bezeichnet. Beispiel: die Farbe ‚Rot‘ können wir wahrnehmen und z.B. von der Farbe ‚Blau‘ unterscheiden, die Farbe ‚Rot‘ tritt aber nie alleine auf so wie z.B. Gegenstände (Tassen, Stühle, Früchte, Blumen, …) alleine auftreten.

5. Hier wird davon ausgegangen, dass die Objekthierarchie O primär von echten Objekten gebildet wird; unechte Objekte als Eigenschaften treten nur im Kontext eines echten Objekts auf.

GATTUNG UND ART; KATEGORIEN

6. Ein Objekt kann viele Eigenschaften umfassen. Wenn es mehr als ein Objekt gibt – also O1, O2, … — die sowohl Eigenschaften Ex gemeinsam haben wie auch Eigenschaften Ey, die unterschiedlich sind, dann kann man sagen, dass alle Objekte, die die Eigenschaften Ex gemeinsam haben, eine ‚Gattung‘ (‚genus‘) bilden, und dass man anhand der ‚unterscheidenden Eigenschaften Ey‘ unterschiedliche ‚Arten‘ (’species‘) innerhalb der Gattung unterscheiden kann.

7. Gattungen, die keine Gattungen mehr ‚über sich‘ haben können, sollen hier ‚Kategorien‘ genannt werden.

ONTOLOGISCHE UND DEFINITORISCHE (ANALYTISCHE) WAHRHEIT

8. Bislang ist der Wahrheitsbegriff $latex \top, \bot$ in dieser Diskussion an der hinreichenden Ähnlichkeit eines vorgestellten/ gedachten kognitiven) Objekts $latex a \in Oa$ mit sinnlichen wahrnehmbaren Eigenschaften $latex s \subseteq Os$ festgemacht worden. Ein ‚rein gedachtes Objekt $latex a \in Oa$ ist in diesem Sinne weder ‚wahr‘ $latex \top$ noch ‚falsch‘ $latex \bot$.

9. Setzt man allerdings eine Objekthierarchie O voraus, in der man von einem beliebigen individuellem Objekt a immer sagen kann, zu welchem Objekt Y es als seiner Gattung gehört, dann kann man eine Aussagen der Art bilden ‚a ist eine Tasse‘.

10. Wenn man zuvor in einer Definition vereinbart haben sollte, dass zum Begriff der ‚Tasse‘ wesentlich die Eigenschaften Ex gehören, und das Objekt a hätte die Eigenschaften $latex Ex \cup Ey$, dann würde man sagen, dass die Aussage ‚a ist eine Tasse‘ ‚wahr‘ ist, unabhängig davon, ob es zum kognitiven Objekt a ein ’sinnliches‘ ‚Pendant‘ geben würde oder nicht. Die Aussage ‚a ist eine Tasse‘ wäre dann ‚rein definitorisch‘ (bzw. ‚rein analytisch‘) ‚wahr.

11. Im Gegensatz zu solch einer rein definitorischen (analytischen) Wahrheit eines Objekts a, die als solche nichts darüber sagt, ob es das Objekt a ‚tatsächlich‘ gibt, soll hier die ursprünglich vereinbarte ‚Wahrheit‘ durch Bezug auf eine ’sinnliche Gegebenheit‘ $latex s \subseteq Os$ ‚ontologische‘ Wahrheit genannt werden, also einer Wahrheit, die sich auf das ‚real Seiende‘ in der umgebenden Welt W bezieht.

12. [Anmerkung: Dieses – auch im Alltagsdenken – unterstellte ‚Sein‘, die unterstellte übergreifende ‚Realität‘ ist nicht nur eine ‚Extrapolation‘ aufgrund sinnlicher Gegebenheiten ‚im‘ wissenden System, sondern ist in seiner unterstellten ‚Realität‘ auch nur eine sehr spezifische Form von Realität. Wie wir heute aufgrund immer komplexerer Messprozeduren wissen, gibt es ‚Realitäten‘, die weit jenseits aller sinnlichen Qualitäten liegen. Es fällt uns nur nicht so auf, weil diese gemessenen Eigenschaften X durch allerlei Prozeduren für unsere Sinnesorgane ‚umgerechnet‘, ‚transformiert‘ werden, so dass wir etwas ‚Sehen‘ oder ‚Hören‘, obgleich das gemessene X nicht zu sehen oder zu hören ist.]

13. Solange wir uns in unseren Aussagen auf das Enthaltensein eines Objektes a in einem Gattungsobjekts X beschränken ‚a ist ein X‘ oder das Feststellen von Eigenschaften der Art ‚a hat b‘ kann man sagen, dass eine Aussagestruktur wie (S P) wie folgt interpretiert werden kann: Es gibt einen Ausdruck A=(AsAp), bei dem ein Ausdrucksteil As sich auf ein echtes Objekt M(As) = $latex a \in Oa$ bezieht und der andere Ausdrucksteil Ap bezieht sich auf die Beziehung zwischen dem Objekt a und entweder einem Gattungsobjekt X (Ap = ‚ist ein X‘) oder auf eine Eigenschaft Y (Ap = ‚hat Y‘).

14. Derjenige Ausdrucksteil As, der sich auf das echte Objekt a bezieht, ‚von dem‘ etwas ausgesagt werden soll (‚ist ein…‘, ‚hat …‘), dieser Ausdrucksteil wird als ‚Subjekt‘ S bezeichnet, und der Ausdrucksteil Ap, mittels dem etwas über das Subjekt ausgesagt wird, wird ‚Prädikat‘ P genannt.

15. Hierbei ist eine gewisse ‚Asymmetrie‘ zu beachten. Die Bedeutung vom Ausdrucksteil As – M(As) – bezieht sich auf eine ‚konkrete‘ Eigenschaftsstruktur innerhalb der Objekthierarchie. Die Bedeutung vom Ausdrucksteil Ap – M(Ap) – bezieht sich auf eine ‚Beziehung‘ / ‚Relation’/ ein ‚Verhältnis‘ [R] zwischen dem bezeichneten Bedeutungsobjekt M(As) = a und einem anderen bezeichneten Bedeutungsobjekt M(Ap), also R(M(As), M(Ap)). Die Beziehung R ist selbst kein ‚Objekt‘ so wie das Objekt a oder das implizit angenommene ‚Bezugsobjekt‘ X bzw. Y von a. Eine solche Beziehung R setzt – um prozessural ‚hantierbar‘ zu sein – eine zusätzliche ‚Objektebene‘ voraus, auf der es ein R-Objekt gibt, das die Beziehung zwischen dem a-Objekt und dem X-Y-Objekt ‚repräsentiert.

16. [Anmerkung: Bei ’neuronalen Netzen‘ wäre das R-Objekt jenes Neuron, das die Verbindung zwischen zwei anderen Neuronen ‚realisiert‘.]

17. Fassen wir zusammen: Bei einem Ausdruck A der Art A=’Hans ist ein Mensch‘ gibt es den Ausdrucksteil As=’Hans‘ und den Ausdrucksteil Ap=’ist ein Mensch‘. Die Bedeutung des Ausdrucksteils As M(As) als M(‚Hans‘) ist ein Objekt h in der unterstellten Bedeutungshierarchie O des Sprechers, das gewisse Eigenschaften E(h) besitzt. Die Bedeutung des Ausdrucksteils Ap als M(Ap) bzw. M(‚ist ein Mensch‘) ist sowohl ein Objekt M mit Eigenschaften E(M) als auch eine Beziehung R_ist zwischen dem Objekt h und dem Objekt M, also R_ist(h,M). Die Beziehung ist definitorisch/ analytisch ‚wahr‘ wenn es gilt, dass die definierenden Eigenschaften E(M) des Objekts Mensch M auch bei den Eigenschaften E(h) von Hans zu finden sind, also $latex E(M) \subset E(h)$ .

BEZIEHUNGSRAUM – TRANSZENDENTALE BEDINGUNGEN

18.

Fortsetzung folgt

QUELLEN

  • Avicenna, ‚Avicennas Treatise on Logic‘. Part One of ‚Danesh-Name Alai‘ (A Concise Philosophical Encyclopedia) and Autobiography, edited and translated by Farang Zabeeh, The Hague (Netherlands): Martinus Nijhoff, 1971. Diese Übersetzung basiert auf dem Buch ‚Treatise of Logic‘, veröffentlicht von der Gesellschaft für Nationale Monumente, Serie12, Teheran, 1952, herausgegeben von M.Moien. Diese Ausgabe wiederum geht zurück auf eine frühere Ausgabe, herausgegeben von Khurasani.
  • Digital Averroes Research Environment
  • Nicholas Rescher (1928 – ),The Development of Arabic Logic. University of Pittsburgh Press, 1964
  • Hans-Jörg Sandkühler (Hg.) unter Mitwirkung von Dagmar Borchers, Arnim Regenbogen, Volker Schürmann und Pirmin Stekeler-Weithofer, ‚Enzyklopädie Philosophie‘, 3 Bd., Hamburg: FELIX MEINER VERLAG, 2010 (mit CD-ROM)
  • Stanford Encyclopedia of Philosophy, Aristotle’s Logic
  • Whitehead, Alfred North, and Bertrand Russell, Principia Mathematica, 3 vols, Cambridge University Press, 1910, 1912, and 1913; Second edition, 1925 (Vol. 1), 1927 (Vols 2, 3). Abridged as Principia Mathematica to *56, Cambridge University Press, 1962.
  • Alfred North Whitehead; Bertrand Russell (February 2009). Principia Mathematica. Volume One. Merchant Books. ISBN 978-1-60386-182-3.
  • Alfred North Whitehead; Bertrand Russell (February 2009). Principia Mathematica. Volume Two. Merchant Books. ISBN 978-1-60386-183-0.
  • Alfred North Whitehead; Bertrand Russell (February 2009). Principia Mathematica. Volume Three. Merchant Books. ISBN 978-1-60386-184-7

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER

AKTIVES PHILOSOPHIEREN UND ENGELHARDTs THE UNITED STATES OF FEAR – Teil 1

Engelhardt, T.; ‚The United States of Fear‘, Chicago: Haymarket Books, 2011

1. Für die letzte Philosophiewerkstatt vor der Sommerpause habe ich als unterschwellige Frage die Formulierung ins Spiel gebracht, ob aktives Philosophieren eine notwendige Bedingung für das nachhaltiges Überleben aller Menschen ist/ sein kann?

2. Diese Formulierung kann im ersten Moment sehr abstrakt wirken, fern vom Alltag.

3. In der Einleitung zu seinem Buch ‚The United States of Fear‘ (2011) beschreibt Tom Engelhardt in einer biographischen Perspektive wie er als kleiner jüdischer Junge im Nachkriegs New York der 50iger und 60iger Jahre durch Nicht-US-Filme mit Lebenssichten konfrontiert worden ist, die sein damaliges Weltbild mehr und mehr erudiert haben. Zwar ’nur Filme‘ konnte er jedoch ansatzweise die Welt aus den Augen ‚der Anderen‘ sehen, der Franzosen, der Russen und der Deutschen. Er begann zu begreifen, dass auch jenseits der Grenzen reale Menschen leben mit realen Gefühlen, Hoffnungen und Idealen, Menschen, die großes Leid erlebt haben und erleben, dass hinter den Hochglanzformeln US-amerikanisches Politik (eine Form von nationaler Propaganda) Wirklichkeiten standen und stehen, die für die Anderen alles andere als schön waren.

4. Diese Eindrücke seiner Kindheit/ Jugend haben ihn zumindest soweit verändert, dass er künftig die US-amerikanische Politik nicht mehr nur mit den typischen ‚inneramerikanischen‘ Augen zu sehen begann, sondern – zumindest ansatzweise – auch mit den Augen ‚der Anderen‘.

5. Wer Deutschland als ‚Ost‘ und ‚West‘ real erlebt hat, wer in Europa lebt, einer einmaligen historischen Vielfalt, wer real in multikulturellen Gruppierungen nicht nur funktioniert hat, sondern ansatzweise wenigstens die einzelnen Menschen mit ihren kulturbedingten Mustern direkt wahrnehmen kann, dem geschieht Ähnliches; einfache Muster vom Menschen und der Welt gelingen nicht ohne weiteres (obgleich die Existenz von fundamentalistischen Gruppierungen unterschiedlichster Färbung zeigt, dass die Wahrnehmung von ‚Vielfalt‘ nicht zwangsläufig zu entsprechend vielfältigen, differenzierten Denkmustern führen muss). Wer den Anderen in solch einer Vielfalt ernsthaft wahrnimmt, der kann danach nicht mehr nur Schwarz oder Weiß denken.

System A hat eine andere Interprettion der gemeinsamen Welt wie System B
System A hat eine andere Interprettion der gemeinsamen Welt wie System B

6. In einer starken Vereinfachung kann man sagen (siehe Diagramm), dass jeder Mensch die Welt ‚um sich herum‘ mit Hilfe seines Gehirns zu unterschiedlichen Bildern ‚verarbeitet‘. Nennt man solche ‚internen Verarbeitungen‘ vereinfachend mal ‚Kognition‘ (oder einfach ‚Denken‘), dann sind es solche kognitiven Prozesse, die im einzelnen ablaufen und die individuelle ‚kognitive Bilder‘ – auch ‚mentale Modelle‘ genannt – erzeugen. Wie man schon bei kleinen Kindern feststellen kann, wenn sie von einem gemeinsamen Erlebnis erzählen oder malen sollen, kann der einzelne die ‚gleiche Sache‘ ganz unterschiedlich ‚wahrnehmen‘ und ‚interpretieren‘.

7. Solange in solch einer Situation ein System A seine eigenen Bilder für ‚die Welt schlechthin‘ nimmt, während eine anderes System B die Welt mit anderen Bildern verknüpft hat, solange werden A und B nicht zusammen kommen. Wichtig ist hier, dass es nicht ‚die Welt an sich‘ ist, die die beiden A und B auseinander treibt, sondern die Art und Weise, wie A und B jeweils individuell die gemeinsam geteilte Welt ‚interpretieren‘. Obwohl sie ganz offensichtlich in der gleichen Welt leben, haben sie ‚in ihrem Kopf‘ unterschiedliche Welten, weil sie mit ihrem individuellen Denken die Welt ‚verändern‘ und ein ‚mentales Bild‘ erzeugen, was die gleiche Welt als ‚zwei verschiedene Welten‘ konstruiert.

8. Schaut man sich in seinem Alltag um, und beschönigt nichts, dann wird man feststellen, dass diese ‚unterschiedlichen Bilder‘ von der Welt der Normalfall sind. Dies ist unangenehm, kann Angst machen. Von daher versuchen Menschen, die sich neu begegnen, in der Regel erst mal heraus zu finden, ob sie irgendwelche gemeinsamen Anknüpfungspunkte haben, von denen her sie ein ‚gemeinsames Verstehen‘ aufbauen können. Viele Gruppierungen bilden sich nur, um solch eine kleine Menge von Gemeinsamkeiten zu finden, um die herum eine Art ‚Wir-Gefühl‘ ausgebildet wird, an dem man sich festhalten kann; dies ergibt eine gewisse ‚Sicherheit‘ im ansonsten unheimlichen Alltag. Dieses Bedürfnis nach einem ‚Wir-Gefühl‘ kann stärker sein als der Wunsch nach Wahrheit.

9. Im übrigen ist der Aufbau eines ‚Wir-Gefühls‘ anhand von Gemeinsamkeiten per se nichts Schlechtes; bis zu einem gewissen Grad ist es sogar notwendig und unvermeidlich. Schwierig wird es nur, wenn man nach dem ‚ersten Abtasten‘ bei einem ‚mentalen Modell‘ verharrt, das offensichtlich vereinfachend, unvollständig ist, und das jetzt weiter zu entwickeln wäre. Dieses ‚weiter Entwickeln‘ bedeutet aber dann in der Regel harte, mühsame Arbeit. Man muss individuelle Unterschiede benennen und sich daran gemeinsam abarbeiten; dann haben A und B eine Chance möglicherweise zu verstehen, warum sie in bestimmten Punkten zu unterschiedlichen Interpretationen gekommen sind und welche Variante möglicherweise ‚korrigiert‘ werden sollte (oder man ‚versteht‘ dann, warum es zwei Varianten geben kann).

10. Im Alltag passiert aber oft das Folgende: der jeweils ‚Stärkere‘ tendiert dazu, die ‚Schwächeren‘ zu ‚vereinnahmen‘. Der rollenmäßig ‚Schwächere‘ kann ‚wahrer‘ sein als der rollenmäßig Stärkere; aber seine Einsichten werden ‚weggeredet‘, ‚totgeschwiegen‘, ‚diskriminiert‘ usw. (es gibt hier viele Spielarten). Es gibt hier keine ‚Königswege‘, keine ‚immer funktionierende Verfahren‘, da die ‚Wahrheit‘ dasjenige ist, was zwar ‚vorgegeben‘ ist, aber die kognitiven Interpretationen des Vorgegebenen sind ‚in sich‘ nicht transparent und die ‚Wahrheit‘ existiert nicht ‚explizit gegeben‘, sondern ‚implizit anwesend‘. Wer in seiner kognitiven Interpretation bestimmte Aspekte einfach nicht sehen will — oder aufgrund von Vorurteilen sich selbst inhaltlich ‚verstellt‘ hat – wird sie auch nicht sehen.

11. Daraus folgt, dass ein erforschendes Ausgreifen des menschlichen Denkens ohne eine fundamentale ‚Demut der Sache gegenüber‘, ohne eine radikale ‚Methodentreue‘ permanent gefährdet ist, an der Sache ‚vorbei zu laufen‘, obwohl sie ‚da ist‘ (je ‚mächtiger‘ und ‚großartiger‘ sich jemand wähnt, umso größer ist die Wahrscheinlichkeit, dass er sich selbst von der Wahrheit aussperrt).

Fortsetzung folgt…

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

REVIEW: THE WORLD ACCORDING TO TOMDISPATCH – Teil 1

T.Engelhardt (ed), „The World Acording to TomDispatch. America in the New Age of Empire“, London-New York: Verso, 2008

KONTEXT BLOG

1) In diesem Blog geht es primär um das Neue Weltbild, das sich ergibt, wenn man die neuesten Erkenntnisse von Philosophie und Wissenschaft unter Einbeziehung künstlerischer Vorgehensweisen benutzt. Ein Ergebnis bisher ist das Hervortreten eines exponentiellen Komplexitätszuwachses im Kontext des biologischen Lebens auf der Erde. Für uns Menschen bedeutet dies, dass nicht nur die Anzahl der Menschen exponentiell angewachsen ist, sondern dass die Art und Weise unseres Verhaltens, unserer Interaktionen und Kommunikation samt den geschaffenen Hilfsmittel für jeden einzelnen eine ’sekundäre Umwelt‘ haben entstehen lassen, die die ‚primäre Welt‘ stark bis nahezu vollständig ‚überlagert‘, so dass die geschaffene sekundäre Welt als primäre Welt erfahren wird. Diese Rückkopplung verstärkt die Entwicklung zusätzlich (Beispiel: Internet und mobile Kommunikationsgeräte gehören zur sekundären Welt und verändern die Weltwahrnehmung und das Kommunikationsverhalten sehr grundlegend, und damit die internen (kognitiven) Modelle in den Köpfen der Beteiligten, die die Welt ausschließlich auf der Grundlage der internen Modelle wahrnehmen, interpretieren und dann handeln).
2) In dem Masse, wie sich nun der Informations- und Kommunikationsfluss in die virtuellen Datenströme verlagert, nimmt die Abhängigkeit von diesen Datenströmen zu: WAS bilden sie ab? Bilden sie es RICHTIG ab? Ist es VOLLSTÄNDIG? Ist es ZUGÄNGLICH? Gibt es Kriterien für die QUALITÄT? usw. Die Verneinung dieser Fragen hat ’negative‘ Auswirkungen in sehr vielen Dimensionen.
3) Eine Dimension, die in den letzten Beiträgen diskutiert worden ist, ist die POLITISCHE Dimension, und zwar beschränkt auf solche Länder, die den Anspruch erheben, DEMOKRATISCHE Länder zu sein. Und hier hatte ich mich auf die USA konzentriert, da die USA in mehrfachem Sinne eine Sonderstellung innerhalb der heutigen demokratischen Staaten einnehmen. Der ‚Hype‘ um die Enthüllungen von Snowdon (im Kontext von Manning und vorher WikiLeaks) hatte meine Aufmerksamkeit geweckt und ich hatte begonnen, US-amerikanische Zeitungen und Webseiten direkt zu lesen und nicht nur in deutschen Zeitungen ‚über‘ die USA. Dabei hatte ich den Eindruck gewonnen, dass es nur vordergründig um das ‚Ausspähen‘ von Daten geht (dies findet seit Jahren in immer größerem Ausmaß statt, nicht nur durch US-amerikanische Geheimdienste, sondern durch nahezu alle Geheimdienste dieser Erde, und darüber hinaus immer mehr durch ‚kriminelle‘ Organisationen, die Wirtschaftsspionage betreiben und/ oder einfach kriminelle Akte verschiedenster Art. Die ersten offiziellen Reaktionen deutscher Politiker zum Thema waren daher unglaublich lächerlich. Zur Zeit versucht die Politik den Eindruck zu erwecken, sie versuche nun zusammen mit der Wirtschaft, zumindest die Wirtschaftsspionage einzudämmen). Das eigentliche Problem kam nur ganz kurz zur Sprache sowohl in den USA als auch in Deutschland (und Europa). Das ‚eigentliche‘ Problem sehe ich in der politischen Dimension.

FREIHEITSRECHTE ALLEINE SIND ZU WENIG

4) Geht man davon aus, dass (i) auf der einen Seite der einzelne Mensch sein ‚Bild von der Welt‘ über seine Interaktionen mit dieser Welt bildet und hierin bei allen Sachverhalten, die über seine unmittelbare Umgebung hinausgehen, von ‚Darstellungen anderer‘ abhängig ist, und dass (ii) auf der anderen Seite eine Gesellschaft von Menschen nur dann gemeinschaftlich verantwortet handeln kann, wenn wenigstens ansatzweise ein ‚gemeinsam geteiltes Modell‘ besteht, dann ist klar, dass die ‚Kommunikation‘ zwischen den Mitgliedern dieser Gesellschaft die zentrale Bedingung darstellt, unter der sich solch ein gemeinsam geteiltes Modell herausbilden kann. Es ist von daher nicht überraschend, dass einer Öffentlichkeit in einem demokratischen Staat eine zentrale Rolle zukommt. Funktioniert eine Öffentlichkeit als Raum der gemeinsamen Modellbildung nicht, dann ist eine demokratische Gesellschaft im Ansatz — oder im Kern, je nachdem, wie man es sehen will — paralysiert. Ich kann den einzelnen Mitgliedern einer Gesellschaft so viele Rechte zugestehen, wie ich will, wenn es nicht möglich ist, eine Meinungsbildung so zu organisieren, dass alle ‚wichtigen‘ Informationen — und dazu gehört natürlich auch das Handeln der staatlichen Einrichtungen — ‚hinreichend verfügbar‘ sind und ‚hinreichend publiziert‘ werden, dann sind alle weiteren Rechte nahezu wertlos. Ohne funktionierende Öffentlichkeit haben staatliche Einrichtungen eine nahezu unbegrenzte Deutungshoheit und damit eine nahezu unbeschränkte Handlungsfreiheit.
5) Betrachtet man das Grundgesetz der Bundesrepublik Deutschland, dann sind die Grundrechte — hier sehr ähnlich der US-amerikanischen Verfassung — im Wesentlichen als „Abwehrrechte des Grundrechtsträgers gegenüber Handlungen von Hoheitsträgern ausgestaltet“ (siehe Link). Sie verkörpern rein juristisch zwar auch einen „Anspruch gegen den Staat auf Beseitigung einer Beeinträchtigung des durch das betreffende Grundrecht geschützte Rechtsgut“ (siehe Link), aber was nützt ein Anspruch, wenn im Falle einer nicht vorhandenen Öffentlichkeit staatliche Organe eine ‚Deutungshoheit‘ besitzen und ausüben?
6) Nun ist die Regierung in Deutschland abhängig vom Bundestag als dem einzigen direkt demokratisch legitimierten Verfassungsorgan. Doch, auch einem Bundestag würde ‚der Boden unter den Füssen‘ entzogen, wenn es keine funktionierende Öffentlichkeit mehr geben würde.
7) Historisch sehr umstritten war die Einführung des großen Lauschangriffs als erlaubter Eingriff in den eigentlich grundgesetzlich geschützten privaten Bereich (Die Grundlagen für den „Großen Lauschangriff” wurden am 16. Januar 1998 vom Bundestag und am 6. März 1998 vom Bundesrat durch Einfügung der Absätze 3 bis 6 des Art. 13 Grundgesetz (GG) gelegt. Dadurch wurde die sogenannte akustische Wohnraumüberwachung zu Zwecken der Strafverfolgung ermöglicht. Mit dem „Gesetz zur Umsetzung des Urteils des Bundesverfassungsgerichts zur akustischen Wohnraumüberwachung”[2], das der Bundestag am 12. Mai 2005 mit den Stimmen der SPD und der Grünen verabschiedete, erhielt der Große Lauschangriff seine bis heute gültige Form)(siehe Link). Sofern die parlamentarische Kontrolle (delegiert an geeignete ausführende Institutionen) ‚funktioniert‘, mag es Fälle geben, wo solch eine Grundrechtsaufhebung Sinn machen kann. Aber es bleibt eine substantielle Schwächung, da damit grundsätzlich eine Aufhebung möglich ist.
8) Dennoch, der Schutz des privaten Bereichs reicht nicht aus, das Funktionieren einer Öffentlichkeit sicher zu stellen, es ist nur eine notwendige Bedingung. Denn, selbst wenn die Privatsphäre — soweit man in der Vergangenheit sehen konnte — hinreichend geschützt wird, kann eine manipulierte Öffentlichkeit zu desaströsen Auswirkungen führen. Dies ist das Thema des Buches von Tom Engelhardt.

EINLEITUNG ZUM BUCH

9) Natürlich muss man sich fragen, woran man eine ’nicht funktionierende Öffentlichkeit‘ erkennt. Tom Engelhardt, Herausgeber des Buches und auch Autor einiger Kapitel, bringt einleitend ein Beispiel, in dem er 2005 eine stark verzeichnete — in seinen Augen irreale — Geschichte über den damaligen Präsidenten George Bush geschrieben und ins Internet gestellt hatte, als ein ‚Märchen‘. Doch zahlreiche Leser nahmen diese Geschichte und die Aussagen über den Präsidenten als ‚wahr‘. M.a.W. man erzählt eine Fantasiegeschichte und die Leser halten die Fantasie für ‚real‘. Warum? Wie ist das möglich? Natürlich ist dies nur möglich, wenn die ‚Modelle im Kopf‘ der Leser so ausgelegt sind, dass sie Fantasie als Realität nehmen! Anders formuliert, wenn die Modelle im Kopf so ausgelegt sind, dass sie Fantasie nicht mehr von Realität unterscheiden können, dann muss die Öffentlichkeit, aufgrund deren die einzelnen ihre Modelle ’speisen‘, entsprechend ‚verzerrt‘ sein. Wenn das Fakt ist, dann liegt die Arbeitshypothese nahe, dass die Öffentlichkeit nicht die Qualität besitzt, die sie in einer Demokratie besitzen sollte.(vgl. S.ix).
10) Es folgt dann auf einer Seite dicht komprimiert eine Aufzählung wichtiger Maßnahmen der US-amerikanischen Regierung von 9/11 2001 bis zum Jahr 2005 die nicht nur aufzeigen, wie hier ein ‚Monster‘ geboren wurde, sondern dieses Monster hat sich auch mit Sprachregelungen versehen, die sich über die Öffentlichkeit in die Ohren und dann in die Gehirne aller Bürger eingenistet haben, Sprachregelngen, die eklatantes Unrecht wie ‚Recht‘ erscheinen lassen. Fünf Jahre nach 9/11 2011 war die US-amerikanische Welt so monströs geworden, dass Fantasieerzählungen nicht mehr als solche erkannt wurden, sondern für ‚wahr‘ genommen worden, weil die tägliche Öffentlichkeit monströs geworden ist! (vgl. S.x) Und es war diese Verwandlung der USA, die Tom Engelhardt kurz nach 9/11 2001 zur Gründung einer Webseite http://www.tomdispatch.com/ motiviert hatte, die ursprünglich nur ein Gespräch zwischen einigen Freunden widerspiegelte, dann aber von immer mehr Menschen geteilt wurde, denen die Verwandlung der US-amerikanischen Demokratie in eine Art Monsterstaat Angst machte.

Siehe zur Fortsetzung Teil 2.

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER

REDUKTIONISMUS, EMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 5

Vorheriger Beitrag Teil 4

Letzte Änderung (mit Erweiterungen): 12.April 2013, 06:26h

ALLGEMEINE EINSCHÄTZUNGEN ZU SEELE, GEIST UND WISSENSCHAFTEN

1. Im nächsten Kapitel ‚Mind‘ (etwa ‚Geist‘ (es gibt keine eindeutigen begrifflichen Zuordnungen in diesem Fall)) (SS.177-196) handelt Kauffman vom ‚Geist‘ des Menschen einschließlich dem besonderen Aspekt ‚(Selbst-)Bewusstsein‘ (‚consciousness‘) mit jenen Beschreibungsversuchen, die er für nicht zutreffend hält. Es folgt dann ein Kapitel ‚The Quantum Brain‘ (etwa ‚Das Quantengehirn‘) (SS.197-229), in dem er seine mögliche Interpretation vorstellt. Seine eigene Grundüberzeugung stellt er gleich an den Anfang, indem er sagt, dass der menschliche Geist (i) nicht ‚algorithmisch‘ sei im Sinne eines berechenbaren Ereignisses, sondern (ii) der Geist sei ‚Bedeutung und tue Organisches‘ (‚is a meaning and doing organic system‘). (iii) Wie der Geist Bedeutung erzeuge und sein Verhalten hervorbringe, das sei jenseits der aktuellen wissenschaftlichen Erklärungsmöglichkeiten.(vgl. S.177)
2. [Anmk: Seiner grundsätzlichen Einschätzung, dass eine vollständige wissenschaftliche Erklärung bislang nicht möglich sei (iii), kann ich nur zustimmen; wir haben mehr Fragen als Antworten. Die andere Aussage (ii), dass Geist ‚is a meaning and doing organic system‘, ist schwierig zu verstehen. Was soll es heißen, dass der Geist (‚mind‘) ‚doing organic system‘? Hier kann man nur raten. Ein sehr radikaler Interpretationsversuch wäre, zu sagen, dass der ‚Geist‘ etwas ist, was die Entstehung von organischen Systemen ermöglicht. Damit würde Geist fast schon zu einem ‚inneren Prinzip der Materie‘. Aus den bisherigen Ausführungen von Kauffmann gäbe es wenig Anhaltspunkte, das zu verstehen. Die andere Aussage (i), dass ‚Geist‘ (‚mind‘) ‚Bedeutung‘ sei, ist ebenfalls nicht so klar. Die Standardinterpretation von ‚Bedeutung‘ wird von der Semiotik geliefert. Innerhalb der Semiotik ist aber speziell der Begriff der Bedeutung, wie man sehr schnell sehen kann keinesfalls einfach oder klar. Ohne eine eigene Theorie verliert man sich in den historisch gewachsenen Verästelungen. Es gibt eine Vielzahl von Denkversuchen, die sich nicht auf einen gemeinsamen Denkrahmen zurückführen lassen. Die Geschichte der Ideen ist generell ein faszinierendes Phänomen ohne eine zwingende Logik. Die muss man sich selbst erarbeiten.]

ALGORITHMISIERUG VON GEIST

3. Auf den Seiten 178-182 zählt er einige wichtige Personen und Konzepte auf, die der Begriff ‚algorithmisch‘ in seiner historischen Entwicklung konnotiert. Da ist einmal Turing, der ein mathematisches Konzept von ‚Berechenbarkeit‘ gefunden hat, das bis heute die Grundlage für alle wichtigen Beweise bildet. Daneben von Neumann, der ’nebenher‘ eine Architektur für reale Computer erfunden hat, die als Von-Neumann-Architektur zum Ausgangspunkt der modernen programmierbaren Computers geworden ist. Ferner stellt er McCulloch vor und Pitts. McCulloch und Pitts gelten als jene, die als erstes eine erfolgreiche Formalisierung biologischer Nervenzellen durchgeführt haben und mit ihren McCulloch-Pitts Neuronen das Gebiet der künstlichen neuronalen Zellen begründeten. Das Besondere am frühen Konzept von McCulloch-Pitts war, dass sie nicht nur ein formales Modell von vernetzten künstlichen Neuronen definierten, sondern dass sie zusätzlich eine Abbildung dieser Neuronen in eine Menge formaler Aussagen in dem Sinne vornahmen, dass ein Neuron nicht nur eine Prozesseinheit war mit dem Zustand ‚1‘ oder ‚0‘, sondern man ein Neuron zugleich auch als eine Aussage interpretieren konnte, die ‚wahr‘ (‚1‘) sein konnte oder ‚falsch‘ (‚0‘). Damit entstand parallel zu den ‚rechnenden‘ Neuronen – in einer ’symbolischen‘ Dimension – eine Menge von interpretierten logischen Aussagen, die man mit logischen Mitteln bearbeiten konnte. Kauffman diskutiert den Zusammenhang zwischen diesen drei Konzepten nicht, stellt dann aber einen Zusammenhang her zwischen dem Formalisierungsansatz von McCulloch-Pitts und seinem eigenen Konzept eines ‚Boolschen Network Modells‘ (‚Boolean network model‘) aus Kapitel 8 her [hatte ich im Detail nicht beschrieben][Anmerkung: Vor einigen Jahren hatte ich mal versucht, die Formalisierungsansätze von McCulloch und Pitts zu rekonstruieren. Sie benutzen die Logik, die damals Carnap entwickelt hatte, erweitert um den Faktor Zeit. Mir ist keine konsistente Rekonstruktion gelungen, was nicht viel besagen muss. Möglicherweise war ich zu dumm, zu verstehen, was Sie genau wollen.]
4. Sowohl am Beispiel des ‚rechnenden Neurons‘ (was Kauffman und viele andere als ’subsymbolisch‘ bezeichnen) wie auch am Beispiel der interpretierten Aussagen (die von Kauffman als ’symbolisch‘ bezeichnete Variante) illustriert Kauffman, wie diese Modelle dazu benutzt werden können, um sie zusätzlich in einer dritten Version zu interpretieren, nämlich als ein Prozessmodell, das nicht nur ‚Energie‘ (‚1‘, ‚0‘) bzw. ‚wahr’/ ‚falsch‘ verarbeitet, sondern diese Zustände lassen sich abbilden auf ‚Eigenschaften des Bewusstseins‘, auf spezielle ‚Erlebnisse‘, die sich sowohl als ‚elementar’/ ‚atomar‘ interpretieren lassen wie auch als ‚komplex’/ ‚abstrahiert‘ auf der Basis elementarer Erlebnisse. (vgl. S.180f)
5. [Anmerkung: Diese von Kauffman eingeführten theoretischen Konzepte tangieren sehr viele methodische Probleme, von denen er kein einziges erwähnt. So muss man sehr klar unterscheiden zwischen dem mathematischen Konzept der Berechenbarkeit von Turing und dem Architekturkonzept von von Neumann. Während Turing ein allgemeines mathematisches (und letztlich sogar philosophisches!) Konzept von ‚endlich entscheidbaren Prozessen‘ vorstellt, das unabhängig ist von irgend einer konkreten Maschine, beschreibt von Neumann ein konkrete Architektur für eine ganze Klasse von konkreten Maschinen. Dass die Nachwelt Turings mathematisches Konzept ‚Turing Maschine‘ genannt hat erweckt den Eindruck, als ob die ‚Turing Maschine‘ eine ‚Maschine sei. Das aber ist sie gerade nicht. Das mathematische Konzept ‚Turing Maschine‘ enthält Elemente (wie z.B. ein beidseitig unendliches Band), was niemals eine konkrete Maschine sein kann. Demgegenüber ist die Von-Neumann-Architektur zu konkret, um als Konzept für die allgemeine Berechenbarkeit dienen zu können. Ferner, während ein Computer mit einer Von-Neumann-Architektur per Definition kein neuronales Netz ist, kann man aber ein neuronales Netz auf einem Von-Neumann-Computer simulieren. Außerdem kann man mit Hilfe des Turing-Maschinen Konzeptes untersuchen und feststellen, ob ein neuronales Netz effektiv entscheidbare Berechnungen durchführen kann oder nicht. Schließlich, was die unterschiedlichen ‚Interpretationen‘ von neuronalen Netzen angeht, sollte man sich klar machen, dass ein künstliches neuronales Netz zunächst mal eine formale Struktur KNN=[N,V,dyn] ist mit Mengen von Elementen N, die man Neuronen nennt, eine Menge von Verbindungen V zwischen diesen Elementen, und einer Übergangsfunktion dyn, die sagt, wie man von einem aktuellen Zustand des Netzes zum nächsten kommt. Diese Menge von Elementen ist als solche völlig ’neutral‘. Mit Hilfe von zusätzlichen ‚Abbildungen‘ (‚Interpretationen‘) kann man diesen Elementen und ihren Verbindungen und Veränderungen nun beliebige andere Werte zuweisen (Energie, Wahr/Falsch, Erlebnisse, usw.). Ob solche Interpretationen ’sinnvoll‘ sind, hängt vom jeweiligen Anwendungskontext ab. Wenn Kauffman solche möglichen Interpretationen aufzählt (ohne auf die methodischen Probleme hinzuweisen), dann sagt dies zunächst mal gar nichts.]

GEHIRN ALS PHYSIKALISCHER PROZESS

6. Es folgt dann ein kurzer Abschnitt (SS.182-184) in dem er einige Resultate der modernen Gehirnforschung zitiert und feststellt, dass nicht wenige Gehirnforscher dahin tendieren, das Gehirn als einen Prozess im Sinne der klassischen Physik zu sehen: Bestimmte neuronale Muster stehen entweder für Vorgänge in der Außenwelt oder stehen in Beziehung zu bewussten Erlebnissen. Das Bewusstsein hat in diesem Modell keinen ‚kausalen‘ Einfluss auf diese Maschinerie, wohl aber umgekehrt (z.B. ‚freier Wille‘ als Einbildung, nicht real).
7. [Anmk: Das Aufzählen dieser Positionen ohne kritische methodische Reflexion ihrer methodischen Voraussetzungen und Probleme erscheint mir wenig hilfreich. Die meisten Aussagen von Neurowissenschaftlern, die über die Beschreibung von neuronalen Prozessen im engeren Sinne hinausgehen sind – vorsichtig ausgedrückt – mindestens problematisch, bei näherer Betrachtung in der Regel unhaltbar. Eine tiefergreifende Diskussion mit Neurowissenschaftlern ist nach meiner Erfahrung allerdings in der Regel schwierig, da ihnen die methodischen Probleme fremd sind; es scheint hier ein starkes Reflexions- und Theoriedefizit zu geben. Dass Kauffman hier nicht konkreter auf eine kritische Lesart einsteigt, liegt möglicherweise auch daran, dass er in den späteren Abschnitten einen quantenphysikalischen Standpunkt einführt, der diese schlichten klassischen Modellvorstellungen von spezifischen Voraussetzungen überflüssig zu machen scheint.]

KOGNITIONSWISSENSCHAFTEN; GRENZEN DES ALGORITHMISCHEN

8. Es folgt dann ein Abschnitt (SS.184-191) über die kognitiven Wissenschaften (‚cognitive science‘). Er betrachtet jene Phase und jene Strömungen der kognitiven Wissenschaften, die mit der Modellvorstellung gearbeitet haben, dass man den menschlichen Geist wie einen Computer verstehen kann, der die unterschiedlichsten Probleme ‚algorithmisch‘, d.h. durch Abarbeitung eines bestimmten ‚Programms‘, löst. Dem stellt Kauffman nochmals die Unentscheidbarkeits- und Unvollständigkeitsergebnisse von Gödel gegenüber, die aufzeigen, dass alle interessanten Gebiete der Mathematik eben nicht algorithmisch entscheidbar sind. Anhand der beiden berühmten Mathematiker Riemann und Euler illustriert er, wie deren wichtigsten Neuerungen sich nicht aus dem bis dahin Bekanntem algorithmisch ableiten ließen, sondern auf ‚kreative Weise‘ etwas Neues gefunden haben. Er zitiert dann auch die Forschungen von Douglas Medin, der bei seinen Untersuchungen zur ‚Kategorienbildung‘ im menschlichen Denken auf sehr viele ungelöste Fragen gestoßen ist. Wahrscheinlichkeitstheoretische Ansätze zur Bildung von Clustern leiden an dem Problem, dass sie nicht beantworten können, was letztlich das Gruppierungskriterium (‚Ähnlichkeit‘, welche?) ist. Aufgrund dieser grundsätzlichen Schwierigkeit, ‚Neues‘, ‚Innovatives‘ vorweg zu spezifizieren, sieht Kauffman ein grundsätzliches Problem darin, den menschlichen Geist ausschließlich algorithmisch zu definieren, da Algorithmen – nach seiner Auffassung – klare Rahmenbedingungen voraussetzen. Aufgrund der zuvor geschilderten Schwierigkeiten, solche zu bestimmten, sieht er diese nicht gegeben und folgert daraus, dass die Annahme eines ‚algorithmischen Geistes‘ unzulänglich ist.
9. [Anmk: Die Argumente am Beispiel von Goedel, Riemann, Euler, und Medin – er erwähnte auch noch Wittgenstein mit den Sprachspielen – würde ich auch benutzen. Die Frage ist aber, ob die Argumente tatsächlich ausreichen, um einen ‚algorithmischen Geist‘ völlig auszuschliessen. Zunächst einmal muss man sich klar machen, dass es ja bislang überhaupt keine ‚Theorie des Geistes an sich‘ gibt, da ein Begriff wie ‚Geist‘ zwar seit mehr als 2500 Jahren — betrachtet man nur mal den europäischen Kulturkreis; es gibt ja noch viel mehr! — benutzt wird, aber eben bis heute außer einer Unzahl von unterschiedlichen Verwendungskontexten keine einheitlich akzeptierte Bedeutung hervorgebracht hat. Dies hat u.a. damit zu tun, dass ‚Geist‘ ja nicht als ‚direktes Objekt‘ vorkommt sondern nur vermittelt in den ‚Handlungen‘ und den ‚Erlebnissen‘ der Menschen in unzähligen Situationen. Was ‚wirklich‘ mit ‚Geist‘ gemeint ist weiß insofern niemand, und falls doch, würde es allen anderen nichts nützen. Es gibt also immer nur partielle ‚Deutungsprojekte‘ von denen die kognitive Psychologie mit dem Paradigma vom ‚Geist‘ als ‚Computerprogramm‘ eines unter vielen ist. Hier müsste man dann nochmals klar unterscheiden, ob die psychologischen Modelle explizit einen Zusammenhang mit einer zugrunde liegenden neuronalen Maschinerie herstellen oder nicht. Versteht man die wissenschaftliche Psychologie als ein ‚empirisches‘ Deutungsprojekt, dann muss man annehmen, dass sie solch einen Zusammenhang explizit annimmt. Damit wäre ein algorithmisches Verhalten aus der zugrunde liegenden neuronalen Maschinerie herzuleiten. Da man nachweisen kann, dass ein neuronales Netz mindestens so rechenstark wie eine Turingmaschine ist, folgt daraus, dass ein neuronales Netzwerk nicht in allen Fällen algorithmisch entscheidbar ist (Turing, 1936, Halteproblem). Dies bedeutet, dass selbst dann, wenn der menschliche Geist ‚algorithmisch‘ wäre, daraus nicht folgt, dass er alles und jedes berechnen könnte. Andererseits, wie wir später sehen werden, muss man die Frage des Gehirns und des ‚Geistes‘ vermutlich sowieso in einem ganz anderen Rahmen bedenken als dies in den Neurowissenschaften und den Kognitionswissenschaften bislang getan wird.]

GEIST OPERIERT MIT ‚BEDEUTUNG‘

10. Es folgen (SS.192-196) Überlegungen zur Tatsache, dass der ‚Geist‘ (‚mind‘) mit ‚Bedeutung‘ (‚meaning‘) arbeitet. Welche Zeichen und formale Strukturen wir auch immer benutzen, wir benutzen sie normalerweise nicht einfach ’nur als Zeichenmaterial‘, nicht nur rein ’syntaktisch‘, sondern in der Regel im Kontext ‚mit Bezug auf etwas anderes‘, das dann die ‚Bedeutung‘ für das benutzte Zeichenmaterial ausmacht. Kauffman bemerkt ausdrücklich, dass Shannon in seiner Informationstheorie explizit den Aspekt der Bedeutung ausgeschlossen hatte. Er betrachtete nur statistische Eigenschaften des Zeichenmaterials. Ob ein Zeichenereignis eine Bedeutung hat bzw. welche, das muss der jeweilige ‚Empfänger‘ klären. Damit aber Zeichenmaterial mit einer möglichen Bedeutung ‚verknüpft‘ werden kann, bedarf es eines ‚Mechanismus‘, der beides zusammenbringt. Für Kauffman ist dies die Eigenschaft der ‚Agentenschaft‘ (‚agency‘). Wie der menschliche Geist letztlich beständig solche neuen Bedeutungen erschafft, ist nach Kauffman bislang unklar.
11. Es folgen noch zwei Seiten Überlegungen zur Schwierigkeit, die nichtlineare Relativitätstheorie und die lineare Quantentheorie in einer einzigen Theorie zu vereinen. Es ist aber nicht ganz klar, in welchem Zusammenhang diese Überlegungen zur vorausgehenden Diskussion zum Phänomen der Bedeutung stehen.

Fortsezung mit Teil 6.

Ein Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER

HABEN WIR EIN PROBLEM? – Zur Problematik des kognitiven WIR-Modells

ALLTÄGLICHE PROBLEME

1. Wenn man sich die täglichen Nachrichtenmeldungen anschaut, die über die diversen Medien zugänglich sind — trotz ihrer großen Zahl sicher nur eine kleine Auswahl dessen, was tatsächlich alles passiert –, dann könnte man dazu neigen, zu sagen, dass die Frage aus der Überschrift dumm und lächerlich ist: natürlich haben wir Probleme, viel zu viele.
2. Doch sind diese ‚täglichen Probleme‘ nicht das, was ich meine. Dass einzelne Personen gestresst sind, krank werden, leiden, sterben, überall auf der Welt, in jedem Land (wenn auch mit unterschiedlichen Randbedingungen), das gehört quasi zum konkreten Leben dazu. Dafür kann man ‚Randbedingungen‘ verantwortlich machen: Gesetze, wirtschaftliche Bedingungen, korrupte Verhaltensweisen von Institutionen, schlechte Organisationen von Institutionen, spezielle agrarische oder klimatische Konstellationen, usw. Mit diesen kann (und muss!) man sich auseinandersetzen.
3. Man kann das Ganze auch noch eine Nummer größer betrachten: den Einfluss ganzer Nationen oder gar der ganzen Menschheit auf die Natur: Auslutschen vorhandener nicht erneuerbarer Ressourcen, Umweltzerstörungen als Einengung der verfügbaren Lebensbasis, Zerstörung der Ökologie der Meere bis hin zur Ausrottung von immer mehr Lebensformen im Meer, Vernichtung von Lebensformen auf dem Land, Verlust der Kontrolle wichtiger Wachstumsprozesse, usw. Auch mit diesen müssen wir uns auseinandersetzen, wollen wir überleben. Wobei man sich hier fragen ob wir überhaupt ‚überleben wollen‘? Und wer sind ‚wir‘? Gibt es dieses ‚wir‘ überhaupt, das sich über alle Kulturen und Nationen hinweg als ‚innere Einheit‘ in der Vielfalt zeigt, die aus Vielfalt kein ‚Chaos‘ macht, sondern ’nachhaltige Ordnung‘?

TREND DER EVOLUTION

4. Hier nähern wir uns dem, was ich mit ‚Problem‘ meine. Wenn alle bisherigen Überlegungen im Blog zutreffen, dann manifestiert sich die Besonderheit des Phänomens Lebens in dem unübersehbaren ‚Trend‘ zu immer mehr Komplexität in mindestens den folgenden Richtungen: (i) individuelle biologische Systeme werden immer komplexer; (ii) dadurch werden immer komplexere Interaktionen und damit Koordinierungen möglich; (iii) es entstehen biologisch inspirierte nicht-biologische Systeme als artifizielle (= technologische) Systeme, die in das biologische Gesamtphänomen integriert werden; (iv) sowohl das Individuum als auch die Gesamtheit der Individuen unterstützt von der Technologie wirken immer intensiver und nachhaltiger auf ’sich selbst‘ und auf das Gesamtsystem zurück; (v) aufgrund der entstandenen kulturellen Vernetzungsmuster (schließt politische Subsysteme mit ein) können einzelne Individuen eine ‚Verfügungsgewalt‘ bekommen, die es ihnen erlaubt, als individuelle Systeme (trotz extrem limitierten Verstehen) große Teile des Gesamtsystems konkret zu verändern (positiv wie negativ); (vi) die schiere Zahl der Beteiligten und die anschwellende Produktion von Daten (auch als Publikationen) hat schon lange die Verarbeitungskapazität einzelner Individuen überschritten. Damit verlieren kognitive Repräsentationen im einzelnen mehr und mehr ihren Zusammenhang. Die Vielfalt mutiert zu einem ‚kognitiven Rauschen‘, durch das eine ‚geordnete‘ kognitive Verarbeitung praktisch unmöglich wird.

VERANTWORTUNG, KOORDINIERUNG, WIR

5. Die Frage nach der ‚Verantwortung‘ ist alt und wurde zu allen Zeiten unterschiedlich beantwortet. Sie hat eine ‚pragmatische‘ Komponente (Notwendigkeiten des konkreten Überlebens) und eine ‚ideologische‘ (wenige versuchen viele für ihre persönlichen Machtinteressen zu instrumentalisieren). Der ‚Raum‘ der ‚Vermittlung von Verantwortung‘ war und ist immer der Raum der ‚Interaktion und Koordination‘: dort, wo wir versuchen, uns zu verständigen und uns zu koordinieren, dort stehen wir vor der Notwendigkeit, uns wechselseitig Dinge zu ‚repräsentieren‘, damit evtl. zu ‚erklären‘, und dadurch vielleicht zu ‚motivieren‘. Ein mögliches ‚WIR‘ kann nur in diesem Wechselspiel entstehen. Das ‚WIR‘ setzt die Dinge zueinander in Relation, gibt dem einzelnen seine ‚individuelle Rolle‘. Nennen wir das ‚Repräsentieren von Gemeinsamkeiten‘ und die damit evtl. mögliche ‚Erklärung von Gegebenheiten‘ mal das ‚kognitive WIR-Modell‘.

6. Es kann sehr viele kognitive WIR-Modelle geben: zwischen zwei Personen, zwischen Freunden, in einer Institution, in einer Firma, in einem Eisenbahnabteil, …. sie alle bilden ein ‚Netzwerk‘ von kognitiven WIR-Modellen; manche kurzfristig, flüchtig, andere länger andauernd, nachhaltiger, sehr verpflichtend. Kognitive WIR-Modelle sind die ‚unsichtbaren Bindeglieder‘ zwischen allen einzelnen.

KOGNITIVE WIR-MODELLE IM STRESS

7. Jeder weiß aus seiner eigenen Erfahrung, wie schwer es sein kann, schon alleine zwischen zwei Personen ein kognitives WIR-Modell aufzubauen, das die wichtigsten individuellen ‚Interessen‘ ‚befriedigend‘ ‚integriert/erklärt‘. Um so schwieriger wird es, wenn die Zahl der Beteiligten zunimmt bzw. die Komplexität der Aufgabe (= wir sprechen heute oft und gerne von ‚Projekten‘) ansteigt. Der Bedarf an Repräsentationen und vermittelnder Erklärung steigt rapide. Die verfügbare Zeit nimmt in der Regel aber nicht entsprechend zu. Damit steigt der Druck auf alle Beteiligten und die Gefahr von Fehlern nimmt überproportional zu.
8. Man kann von daher den Eindruck gewinnen, dass das Problem der biologischen Evolution in der aktuellen Phase immer mehr zu einem Problem der ‚angemessenen kognitiven Repräsentation‘ wird, gekoppelt an entsprechende ‚koordinierende Prozesse‘. Moderne Technologien (speziell hier Computer und Computernetzwerke) haben zwar einerseits das Repräsentieren und die ‚Gemeinsamkeit‘ des Repräsentierten dramatisch erhöht, aber die kognitiven Prozesse in den individuellen biologischen Systemen hat nicht in gleicher Weise zugenommen. Sogenannte soziale Netze haben zwar gewisse ‚Synchronisationseffekte‘ (d.h. immer mehr Gehirne werden auf diese Weise ‚kognitive gleichgeschaltet), was den Aufbau eines ‚kognitiven WIRs‘ begünstigt, aber durch den limitierenden Faktor der beteiligten individuellen Gehirne kann die Komplexität der Verarbeitung in solchen sozialen Netzen nie sehr hoch werden. Es bilden sich ‚kognitive WIR-Modell Attraktoren‘ auf niedrigem Niveau heraus, die die beteiligten als ‚kognitiv angenehm‘ empfinden können, die aber die tatsächlichen Herausforderungen ausklammern.

OPTIMIERUNG VON KOGNITIVEN WIR-MODELLEN

9. An dieser Stelle wäre auch die Rolle der offiziellen Bildungsinstitutionen (Kindergarten, Schule, Betrieb, Hochschule…), zu reflektieren. In welchem Sinne sind sie bereit und fähig, zu einer Verbesserung der kognitiven WIR-Modelle beizutragen?
10. Das Problem der ‚Optimierung‘ der kognitiven Selbstmodelle verschärft sich dadurch, dass man allgemein einen Sachverhalt X nur dann optimieren kann, wenn man einen Rahmen Y kennt, in den man X so einordnen kann, dass man weiß, wie man unter Voraussetzung des Rahmens Y einen Sachverhalt X zu einem Sachverhalt X+ optimieren kann. Der ‚Rahmen‘ ist quasi ein ‚kognitives Meta-Modell‘, das einen erst in die Lage versetzt, ein konkretes Objekt-Modell zu erarbeiten. Im Alltag sind diese ‚Rahmen‘ bzw. ‚Meta-Modelle‘ die ‚Spielregeln‘, nach denen wir vorgehen. In jeder Gesellschaft ist grundlegend (oft implizit, ’stillschweigend‘) geregelt, wann und wie eine Person A mit einer Person B reden kann. Nicht jeder darf mit jedem zu jedem Zeitpunkt über alles reden. Es gibt feste Rituale; verletzt man diese, kann dies weitreichende Folgen haben, bis hin zum Ausschluss aus allen sozialen Netzen.
11. Sollen also die kognitiven WIR-Modelle im großen Stil optimiert werden, brauchen wir geeignete Meta-Modelle (Spielregeln), wie wir dies gemeinsam tun können. Einfache Lösungen dürfte in diesem komplexen Umfeld kaum geben; zu viele Beteiligten und zu viele unterschiedliche Interessen sind hier zu koordinieren, dazu ist die Sache selbst maximal komplex: es gibt — nach heutigem Wissensstand — kein komplexeres Objekt im ganzen Universum wie das menschliche Gehirn. Das Gehirn ist so komplex, dass es sich prinzipiell nicht selbst verstehen kann (mathematischer Sachverhalt), selbst wenn es alle seine eigenen Zustände kennen würde (was aber nicht der Fall ist und auch niemals der Fall sein kann). Die Koordinierung von Gehirnen durch Gehirne ist von daher eigentlich eine mathematisch unlösbare Aufgabe. Dass es dennoch bis jetzt überhaupt soweit funktioniert hat, erscheint nur möglich, weil es möglicherweise ‚hinter‘ den beobachtbaren Phänomenen Gesetzmäßigkeiten gibt, die ‚begünstigen‘, diese unfassbare Komplexität partiell, lokal ‚einzuschränken‘.

Ein Überblück über alle Blogeinträge nach Themen findet sich HIER

MENSCHENBILD IM WANDEL – Vortrag 24.Nov.2011

In Ergänzung zu diesem Block findet ein öffentlicher Vortrag statt:

Vortragsankündigung