THOMPSON: MIND IN LIFE – Review – Teil 1

Evan Thompson, Mind in Life. Biology, Phenomenology, and the Sciences of Mind. Harvard – London, The Belknap Press o f Harvard University Press, 2007

PHILOSOPHIE UND WISSENSCHAFTEN – EIN MOTIV

  1. Das Motiv für die Lektüre dieses Buches rührt von der anhaltenden Auseinandersetzung von cagent zu den philosophischen Grundlagen unseres Weltbildes. Egal ob man sich mit psychologischen Modellbildungen beschäftigt, mit biologischen oder neurowissenschaftlichen, man stößt immer wieder auf die methodischen Ränder dieser Disziplinen, durch die ein direkter Zugriff auf die Inhalte des Bewusstseins nicht möglich ist (siehe Bild 1). Es bleiben immer nur Korrelationen mit etwas, das man dem Bewusstsein zurechnet, aber man kommt niemals direkt an die Daten des Bewusstseins heran.

Die drei großen Blickweisen auf den Menschen (Verhalten, Gehirn, Bewusstsein) und deren möglichen Verknüpfungen

Die drei großen Blickweisen auf den Menschen (Verhalten, Gehirn, Bewusstsein) und deren möglichen Verknüpfungen

  1. Dieses Problem ist nicht neu, es ist letztlich uralt, aber durch die Fortschritte der empirischen Wissenschaften wird die Besonderheit des Phänomens des Bewusstseins klarer als je zuvor.

  2. Welcher Philosoph das Phänomen des Bewusstseins bislang am besten beschrieben haben soll, ist schwer zu sagen. Jeder große Philosoph hat auf seine Weise interessante Aspekte enthüllt. Aus Sicht der heutigen Methoden und Erkenntnisse erscheint cagent das Vorgehen von Edmund Husserl mit seinem phänomenologischen Forschungsprogramm bislang als am ehesten geeignet zu sein, eine Brücke zu schlagen zu den heutigen empirischen Wissenschaften, ohne dabei das Alleinstellungsmerkmal des philosophischen Denkens und die Besonderheiten des Untersuchungsgegenstandes aufgeben zu müssen.

  3. Entscheidend für das Projekt einer verbesserten Integration von philosophischem mit empirischem Denken wird der benutze Erkenntnis- und Wissenschaftsbegriff sein. Trotz ca. 100 Jahren Wissenschaftsphilosophie kann man aber nicht behaupten, dass es in allen wissenschaftlichen Disziplinen heute einen einheitlichen Wissenschaftsbegriff gibt, der sich auch in entsprechend gemeinsamen Methoden und Darstellungsweisen ausdrückt.

  4. Der Autor cagent greift zu diesem Zweck zurück auf die Tradition der Wissenschaftstheorie, wie sie zuletzt im Institut für Logik und Wissenschaftstheorie der Ludwig-Maximilians Universität München in den 80iger Jahren des 20.Jahrhunderts praktiziert wurde (dies Institut existiert in der damaligen Form nicht mehr). Diese Sicht wurzelte stark u.a. auch in der Tradition des Wiener Kreises, mit all den Schwachstellen, die sich daraus ergaben. Dennoch kann man aus dieser Position eine Arbeitshypothese herleiten, die nachvollziehbar und kritisierbar ist. Diese Position sei hier mit der Abkürzung LMU-ILWT bezeichnet.

  5. Ein wesentlicher Punkt in der Position des LMU-ILWT besteht in der Forderung nach einer angemessen Formalisierung intendierter wissenschaftlicher Sachverhalte in einer Disziplin. Heute könnte man die Formalisierungsanforderung ergänzen um den Punkt von brauchbaren Simulationsmodellen, mit deren Hilfe sich die Auswirkungen einer formalen Theorie sichtbar und ansatzweise überprüfbar machen lassen.

  6. Die Anforderungen lassen sich an jede empirische Theorie stellen und einlösen, was aber faktisch immer nur partiell passiert. Den meisten Wissenschaftlern fehlt das Knowhow (und die Zeit, und die Werkzeuge), um diese Anforderung wirklich einzulösen.

  7. Im Rahmen eines Programms zur Integration von Philosophie und empirischen Wissenschaften ist zu überprüfen, ob und wieweit sich auch die Position der Philosophie entsprechend formalisieren und simulieren lässt. Von den meisten Philosophen wird solch eine Gedanke eher abgelehnt.

  8. Im Falle eines phänomenologischen Forschungsprogramms im Stile von Edmund Husserl ist solch eine Überlegung aber keinesfalls abwegig, sondern gehört sogar in gewisser Weise zum Forschungsprogramm selbst.

  9. Im Rückgang auf die Grunddaten des bewussten Erlebens, Fühlens, Denkens usw. zeigt sich eine Vielfalt von Phänomenen in einer spezifischen Dynamik mit impliziten Strukturen, die zu formalisieren genauso sich anbietet wie die Formalisierung von komplexen Phänomene aus dem Bereich der biologischen Evolution oder der Entstehung des physikalischen Universums.

  10. Es gab sogar einen berühmten Versuch solch einer Formalisierung. Das Buch von Rudolf Carnap Der Logische Aufbau der Welt (1928) erscheint als  eine  1-zu-1 Übersetzung jenes Konstitutionsprozesses der Phänomene des Bewusstseins, wie sie Husserl in den Ideen I + II (sowie in anderen Schriften) über Jahrzehnte entwickelt hat. Allerdings hat Carnap sowohl im Stufenbau wie auch in seiner Autobiographie alles daran getan, diesen Bezug zu Husserls Denken und Werk zu verdecken. (Anmerkung: Eine neuere, sehr ausführliche und gründlich recherchierte Untersuchung zum Verhältnis von Carnaps Stufenbau zum Denken Husserls, die diese Nähe Carnaps zu Husserl belegt,  findet sich in einem Beitrag von Verena Mayer (München), der demnächst erscheinen wird.)
  11. Der Stufenbau Carnaps wurde mehrfach heftig kritisiert. Dennoch ist die Grundidee, auch die Phänomene des Bewusstseins einer formalen Analyse zu unterziehen naheliegend und konsequent. Es gibt keinen Grund, dies nicht zu tun. Die grundsätzliche Problematik einer Versprachlichung von Erkennen wird dadurch natürlich nicht aufgehoben und nicht geheilt, aber im Raum des menschlichen Erkennens gibt es keine Alternativen. Unser Denken befindet sich kontinuierlich in einem Ringen um Artikulation, die als solche notwendig ist, aber als solche niemals das Erkannte ganz erschöpfen kann. Das bekannte Ungenügen ist keine Entschuldigung, es gar nicht zu tun. Denn die Alternative zu einer unvollkommenen Artikulation ist gar keine Artikulation.
  12. Je mehr die empirischen Wissenschaften die Grenzen des Redens über das Bewusstsein immer klarer erfahrbar machen, umso eindringlicher entsteht die Aufforderung, sich als Philosoph erneut darüber Gedanken zu machen, ob und wie solch ein Programm einer erneuerten Theorie des Bewusstseinserlebens im Kontext von Entwicklungs-, Verhaltens-, Gehirn- und Körperwissenschaften (um nur die wichtigsten zu nennen) aussehen könnte. Arbeitshypothese ist, das phänomenologische Forschungsprogramm von Husserl als Leitschnur zu nehmen erweitert um das wissenschaftsphilosophische Instrumentarium einer modernen Wissenschaftstheorie im Stil von LMU-ILWT.
  13. In diesem Kontext finde ich ein Buch wie das von Thompson reizvoll, zumal Thompson sich in den letzten Jahren in einem Netzwerk von Forschern bewegt hat, denen man das Label ‚Naturalisierung der Phänomenologie‘ anheften könnte. Diese Forscher hatten ihren eigenen Lernprozess mit dem Forschungsprogramm von Husserl.

THOMPSON Kap.1 (SS.3-15)

ENAKTIVE VORGEHENSWEISE

  1. In diesem einführenden Kapitel versucht Thompson eine historische Einordnung vorzunehmen zwischen jenem philosophisch-wissenschaftlichen Paradigma, dem er sich zugehörig fühlt und das er Enaktiv (Englisch: ‚enactive‘) nennt, und jenen anderen Strömungen, die er als vorbereitend für den eigenen Standpunkt ansieht. Der Begriff ‚enaktiv‘ ist ein Kunstwort, in dem die Idee einer Realisierung eines Gesetzes durch Verkörperung in der Zeit ausgedrückt werden soll. (vgl. S.13) Der Begriff geht zurück auf das Buch The Embodied Mind, das Thompson zusammen mit Varela und Rosch 1991 verfasst hatte.
  2. Im einzelnen zählt Thompson fünf Aspekte auf, die für eine enaktive Vorgehensweise in seinem Verständnis wichtig sind.(vgl. Dazu S.13)
  3. Zum einen (i) ist dies der Aspekt der Autonomie lebender Systeme. Im Rahmen ihrer Möglichkeiten organisieren sie sich komplett selbst und in diesem Rahmen generieren sie ihren spezifischen Erkenntnisraum (‚cognitive domain‘).
  4. Innerhalb dieser generellen Autonomie arbeitet (ii) das Nervensystem (das Gehirn) ebenfalls autonom. Mit Schnittstellen zu Ereignissen außerhalb des Gehirns arbeitet das Gehirn aber vollständig selbstbezüglich und erschafft in dieser Selbstbezüglichkeit seine eigenen Bedeutungsstrukturen.
  5. Ferner gilt (iii): Erkenntnis (‚cognition‘) ist in diesem Kontext ein Moment an einem dynamischen Verhalten, das zwar über sensorische und motorische Kopplungen mit einer Umwelt interagiert, aber diese Kopplung führt nicht zu einer 1-zu-1-Determinierung des Systems. Das System hat eine Eigendynamik, die über diese Interaktion weit hinausgeht.
  6. Im Rahmen solch einer eingebetteten Kognition ist (iv) das Bild einer Welt nicht einfach eine Entsprechung, nicht eine direkte Repräsentation der empirischen Außenwelt, sondern ein dynamisches Produkt aus Interaktion und systeminternen generierenden Prozessen, die ein systemspezifisches Modell einer unterstellten Welt erzeugen.
  7. Schließlich: (v) Erfahrung (‚experience‘) ist in diesem Kontext nicht irgendein Nebeneffekt (‚epiphenomenal side issue‘), sondern der wesentliche Aspekt für ein Verständnis von Geist (‚mind‘). Von daher ist es notwendig genau diese Erfahrung zu untersuchen, und die beste Methode dafür ist nach Thompson eine phänomenologische Vorgehensweise.
  8. Bevor auf diese Punkte näher eingegangen wird sei hier noch ein kurzer Blick gestattet auf den Ausblick von Thompson auf andere, konkurrierende Ansätze.(sehe Bild 2)

KOGNITIVISMUS, KONNEKTIONISMUS, VERKÖRPERTER DYNAMIZISMUS

Aufschlüsselung der Leitbegriffe von Thompson in Kap.1

Aufschlüsselung der Leitbegriffe von Thompson in Kap.1

  1. Letztlich organisiert er seine Umschau mit den Begriffen Kognitivismus (‚cognitivism‘), Konnektionismus (‚connectionism‘) und Verköperter Dynamizismus (‚embodied dynamicism‘).
  2. Das Problem mit diesen Begriffen ist, dass sie nicht sehr scharf sind, eher vage. Dies zeigt sich sofort, wenn man versucht, konkrete Forscher diesen Richtungen zuzuordnen und dabei den Inhalt ihrer Schriften einbezieht. Die meisten Forscher haben in ihrem Leben eine Lerngeschichte, die sie mit einer bestimmten Position anfangen lässt und sie dann zu weiteren, neuen Positionen führt. Ordnet man nun bestimmte Forscher aufgrund bestimmter Ansichten im Jahr X einer bestimmten Ähnlichkeitsklasse M zu, so gilt dies oft nur für eine bestimmte Zeitspanne. Außerdem sind bestimmte Paradigmen (wie z.B. gerade der sogenannte Kognitivismus) in sich so komplex und vielfältig, dass eine saubere Definition in der Regel kaum möglich ist.
  3. So definiert Thompson den Begriff Kognitivismus einleitend gar nicht sondern zitiert in lockerer Folge unterschiedliche Autoren und Konzepte, die man sowohl der schwammigen Kognitionswissenschaft (‚cognitive science‘) zuordnen kann wie auch der Kognitionspsychologie (‚cognitive psychology‘), die sich als Gegenbewegung zur Verhaltenspsychologie (‚beavioral psychology‘, ‚behaviorism‘) gebildet hatte. Daneben gibt es auch Strömungen in der Philosophie, die sich unterschiedlich mit dem Kognitivismus und der Kognitionspsychologie überlappt haben und immer noch überlappen. In allem dabei die neue erstarkende Rolle von computerbasierten Modellen und Simulationen.(vgl. SS.4-8)
  4. In all diesen – nicht immer klaren – Positionen erkennt Thompson charakteristische Defizite.
  5. Die Verbannung der direkten Beobachtung von Geist und Bewusstsein im Rahmen einer empirischen Verhaltenspsychologie (zur Zeit ihrer Entstehung ein wichtiges Anliegen, um die einseitige Orientierung an der Introspektion aufzubrechen), führte im weiteren Verlauf zu einer ideologischen Verhärtung der Methoden, die sich dann auch in der Kognitionspsychologie und der frühen Kognitionswissenschaft (samt Teilen der Philosophie) weiter vererbte. Die Einbeziehung von Computermodellen verstärkte die Tendenz, die Arbeitsmodelle der Kognition im Stile von – rein symbolischen – Informationsverarbeitungsprozessen zu sehen, die einen gewissen Anschluss an die moderne Gehirnforschung erlaubte. Allerdings war (und ist) die Übereinstimmung des Computerparadigmas und des Gehirnparadigmas – je nach Betrachtungsstandpunkt – nur partiell ähnlich. Dazu kam – nach Thompson – eine isolierte Betrachtung individueller kognitiver Prozesse ohne den Faktor der umgebenden Kultur. Der Zusammenhang zwischen Bewusstsein und all den anderen Wissenschaftsbereichen wurde damit letztlich immer unklarer, war (und ist immer noch weitgehend) geradezu geächtet, und die resultierenden Theorie (sofern es überhaupt Theorien waren) wirkten aufgrund ihrer Eingangsbeschränkungen oft sehr verzerrt.
  6. Im Konnektionismus (‚connectionism‘), der nach anfänglichen Startschwierigkeiten ab den 80iger Jahren des 20.Jahrhunderts deutlich an Boden gewann, sieht Thompson einen gewissen Fortschritt derart, dass neue Erkenntnisse der Gehirnforschung und der Forschung mit künstlichen neuronalen Netzen deutlich machten, dass das Konzept eines deduktiven Denkens mittels Symbolen einer abstrakten Ebene zugehört, die tieferliegend mittels vernetzten Neuronen realisiert wird, die direkt keine Symbole verkörpern, sondern ein Netzwerk von Ereignissen, die dynamisch unterschiedlichste Abstraktionsebenen und Wechselwirkungen realisieren. Ein Verständnis von Geist muss also tiefer ansetzten als lange Zeit gedacht. Thompson kritisiert am Konnektionismus, dass dieser die Verkopplung mit der Welt nur ungenügend berücksichtigt habe. Für die ersten Jahrzehnte mag dies stimmen. Aber in den letzten Jahren hat sich dies radikal gewandelt (Beispiel google Algorithmen, IBMs Watson, Roboter, usw.). Was allerdings als Kritik bestehen bleibt ist Thompsons Diagnose, dass auch der Konnektionismus bislang ein Riesenproblem mit dem Bewusstsein hat.
  7. Der Begriff des verkörperten Dynamizismus (‚embodied dynamicism‘) erscheint besonders problematisch. Thompson sieht hier ein Zusammengehen der Strömung Dynamischer (selbstorganisierter) Systeme (‚dynamic (self-organizing) systems‘) und Verköperter Systeme (‚embodied systems‘). Dazu gehört, dass solche Systeme nicht einfach nur die Umwelt 1-zu-1 abbilden, sondern ihre Interaktion mit der Umwelt durch autonome, nicht-lineare Prozesse individuell gestalten. Thompson sieht in der Strömung eines verkörperten Dynamizismus Ansätze sowohl für eine Einbeziehung des Bewusstseins wie auch des Vor- und Nicht-Bewusstseins.(vgl. S.11f)
  8. In dieser vorausgehenden Strömung, dem verkörperten Dynamizismus, sieht Thompson dann auch den Übergang zu jener Richtung, der er sich selbst zugehörig fühlt und die für ihn die Lösung wichtiger Fragen ermöglichen soll, besser als in den vorausgehend charakterisierten Strömungen.

ENAKTIVES VORGEHEN und PHÄNOMENOLOGIE

  1. Nach diesen Einkreisungen der Notwendigkeit einer direkten Analyse des Bewusstseins deutet Thompson kurz an, wie er sich diese Analyse vorstellt.
  2. Es soll primär die phänomenologische Methode von Husserl und auch von Merleau-Ponty sein, dies aber im Rahmen der (selbstorganisierenden, autopoietischen) Autonomie und Intentionalität des Lebens allgemein. Ferner soll die Neurobiologie einbezogen werden, was die Notwendigkeit einer Neuro-Phänomenologie begründet.(vgl. S.15)

DISKUSSION

  1. Wie schon angedeutet, erscheint die allgemeine Lageskizze, die Thompson gibt, als problematisch, da die Begriffe nicht allzu scharf sind und eine wirkliche genau Zuordnung einzelner Personen zu bestimmten Richtungen in solch einem Kontext schwierig ist.
  2. Auch ist nach dieser Einleitung noch nicht ganz klar, wie Thompson sein Programm einlösen wird. Die skizzierte enaktive Vorgehensweise lässt viel Spielraum für alternative Konzepte.

Einen Überblick über alle Blogbeiträge von cagent nach Titeln findet sich HIER.

6 THESEN ZUM LEBEN: KREATIVITÄT, KOOPERATION, KOMMUIKATION, MEHR ALS JETZT, SEXUALITÄT, DAS BÖSE – Thema des PHILOSOPHIESOMMER 2016 in der DENKBAR Frankfurt am So, 15.Mai 2016

Entsprechend dem Plan vom 9.Februar 2016 kommt hier die Einladung zur nächsten Sitzung des PHILOSOPHIESOMMERS 2016 in der

DENKBAR Frankfurt

Spohrstrasse 46a

(Achtung1: Parken schwierig! Man muss wirklich im Umfeld suchen)

(Achtung 2: Veränderte Zeiten 15:00 – 18:00h)

THEMENSTELLUNG

Am Ende der letzten Sitzung im Rahmen des Philosophie-Sommers 2016 in der DENKBAR gab es – vielleicht nicht überraschend – keine klare Themenstellung für das nächste Treffen. Der Brennpunkt der Überlegungen im Spannungsfeld von biologischen Systemen (Menschen, Tiere) und nicht-biologischen Systemen (Maschinen) ist hin- und hergerissen zwischen altbekannten, vertrauten Bildern vom Leben, der Welt und dem Menschen einerseits und den neuen, radikalen, irgendwie verwirrenden Erkenntnissen um universalen Ganzen, zum Menschen, zur Technologie. Warum können die Maschinen all das? Wo liegen natürliche Grenzen? Was sagen diese Maschinen und ihre intensive Nutzung durch den Menschen über den Menschen? Sind wir nicht letztlich mit unsren Zustandsänderungen von Materie mittels Energie nicht auch nur Maschinen, die sich in den neuen Maschinen quasi zu kopieren versuchen?

Es blieben also viele offene, beunruhigende Fragen.

SECHS THESEN ALS ANKERPUNKTE FÜR DIE DISKUSSION

Um die Diskussion weiter zu befeuern und um sie durch wichtige, zentrale neue Erkenntnisse ein wenig zu fokussieren, hier 6 Thesen, hinter die wir kaum mehr zurück können:

  1. KREATIVITÄT JENSEITS DES BEKANNTEN: Die Explosion des Lebens fand statt jenseits des aktuellen Wissens unter Ausprobieren von radikalen Alternativen und unter Eingehung eines radikalen Risikos des Scheiterns.

  2. KOOPERATION ÜBR GRENZEN HINWEG: Die Explosion des Lebens fand statt durch Erlangung der Fähigkeit, mit völlig fremden Systemen (die oft lebensbedrohlich waren) in eine Kooperation geradezu galaktischen Ausmaßes einzutreten, die eine Win-Win-Situation für alle Beteiligte bildete.

  3. ÜBERWINDUNG DES JETZT: Die Explosion des Lebens führte zu einem einzigartigen Punkt: nach 13.8 Mrd Jahren konnte sich das Leben plötzlich selbst anschauen und hat das Potential, sich selbst zu verändern.

  4. KOORDINIERUNG INDIVIDUELLER VIRTUELLER WELTEN: Die Wiedergeburt des universalen Lebens im individuellen virtuellen Denken verlangt neue, intensive Formen der Koordinierung durch symbolische Kommunikation im globalen Ausmaß.

  5. JENSEITS VON SEXUALITÄT: Die bisherige Form der Sexualität als Strategie der Mischung genetischer Informationen kombiniert mit endogenem Handlungsdruck verlangt nach radialem Umbau: genetische Kombinatorik ja, endogener Handlungsdruck nein. Mann – Frau war gestern.

  6. DYNAMIK DES BÖSEN – WO LEBT DAS GUTE: tiefsitzende Triebstrukturen im Menschen (Macht, Geld, Dünkel, …) verbünden sich schneller und effektiver im globalen Maßstab als nationale politische Systeme. Sie drohen die neuzeitlichen Freiheitsansätze des Kreativen (neben anderen Faktoren) zu ersticken.

Zum Austausch über diese 6 Thesen gibt es folgenden

PROGRAMMVORSCHLAG

Moderation: Gerd Doeben-Henisch

15:00 Begrüßung

15:05 Kurze Einführung ins Thema

15:25 Gemeinsamer Diskurs I, Sichtbarmachung von Positionen

16:30 Blubberpause (Jeder kann mit jedem reden; Essen und Trinken)

17:00 Gemeinsamer Diskurs II, erste Zusammenfassungen, Tendenzen

17:45 Schlussstatements und Thema für das nächste Treffen

18:00 Ende

Langsames Wegdiffundieren der Teilnehmer ….

Siehe das Memo zu dieser Sitzung HIER.

Einen Überblick über alle bisherigen Texte zum Philosophie-Sommer/ zur Philosophiewerkstatt findet sich HIER.

Einen Überblick über alle Texte des Autors cagent findet sich HIER.

AVICENNAS ABHANDLUNG ZUR LOGIK – Teil 15

VORGESCHICHTE

Für einen Überblick zu allen vorausgehenden Beiträgen dieser rekonstruierenden Lektüre von Avicennas Beitrag zur Logik siehe AVICENNAS ABHANDLUNG ZUR LOGIK – BLITZÜBERSICHT.

Übersicht zum Wissen K bestehend aus Ausdrücken E, Objekten O sowie Bedeutungsbeziehungen M

Übersicht zum Wissen K bestehend aus Ausdrücken E, Objekten O sowie Bedeutungsbeziehungen M

WAHR UND FALSCHE AUSSAGEN

1. Nach dem Blogeintrag Avicenna 14b gibt es jetzt Ausdrücke A, B, …, die ‚wahr‘ oder ‚falsch‘ sein können und die wir deshalb ‚Aussagen‘ (auch ‚Propositionen‘) nennen. Aussagen können mittels aussagenlogischer Operatoren wie ‚NEGATION‘, ‚UND‘, ‚IMPLIKATION‘ usw. zu komplexeren Ausdrücken so verknüpft werden, dass jederzeit ermittelt werden kann, wie der Wahrheitswert des komplexen Ausdrucks lautet, wenn die Wahrheitswerte der Teilausdrücke bekannt sind. Ob im Einzelfall eine Aussage A ‚wahr‘ oder ‚falsch‘ ist, muss durch Rückgriff auf ihre Bedeutungsbeziehung M(A) geklärt werden. Bislang ist nur klar, dass die Bedeutungsbeziehung M nur allgemein eine Beziehung zu den (kognitiven) Objekten O herstellt (siehe Grafik oben).

2. Avicenna spricht aber nicht nur von Aussagen A allgemein, sondern unterscheidet die Teilausdrücke ‚Subjekt‘ S und ‚Prädikat‘ P, zusätzlich oft noch ‚Quantoren‘ Q.

FEINSTRUKTUR DER BEDEUTUNG VON AUSDRÜCKEN

3. Man kann und muss dann die Frage stellen, ob und wie sich auf der Bedeutungsseite die Unterscheidung in S und P auf der Ausdrucksseite widerspiegelt?

ECHTE UND UNECHTE OBJEKTE

4. In vorausgehenden Blogeinträgen zu Avicenna (Avicenna 4, 5, 7 und 11) wurde schon unterschieden zwischen ‚echten‘ und ‚unechten‘ Objekten. ‚Unechte Objekte‘ sind solche Wissenstatbestände, die man zwar identifizieren und unterscheiden kann, die aber immer nur im Kontext von ‚echten Objekten‘ auftreten. ‚Unechte‘ Objekte werden meistens als ‚Eigenschaften‘ bezeichnet. Beispiel: die Farbe ‚Rot‘ können wir wahrnehmen und z.B. von der Farbe ‚Blau‘ unterscheiden, die Farbe ‚Rot‘ tritt aber nie alleine auf so wie z.B. Gegenstände (Tassen, Stühle, Früchte, Blumen, …) alleine auftreten.

5. Hier wird davon ausgegangen, dass die Objekthierarchie O primär von echten Objekten gebildet wird; unechte Objekte als Eigenschaften treten nur im Kontext eines echten Objekts auf.

GATTUNG UND ART; KATEGORIEN

6. Ein Objekt kann viele Eigenschaften umfassen. Wenn es mehr als ein Objekt gibt – also O1, O2, … — die sowohl Eigenschaften Ex gemeinsam haben wie auch Eigenschaften Ey, die unterschiedlich sind, dann kann man sagen, dass alle Objekte, die die Eigenschaften Ex gemeinsam haben, eine ‚Gattung‘ (‚genus‘) bilden, und dass man anhand der ‚unterscheidenden Eigenschaften Ey‘ unterschiedliche ‚Arten‘ (’species‘) innerhalb der Gattung unterscheiden kann.

7. Gattungen, die keine Gattungen mehr ‚über sich‘ haben können, sollen hier ‚Kategorien‘ genannt werden.

ONTOLOGISCHE UND DEFINITORISCHE (ANALYTISCHE) WAHRHEIT

8. Bislang ist der Wahrheitsbegriff \top, \bot in dieser Diskussion an der hinreichenden Ähnlichkeit eines vorgestellten/ gedachten kognitiven) Objekts a \in Oa mit sinnlichen wahrnehmbaren Eigenschaften s \subseteq Os festgemacht worden. Ein ‚rein gedachtes Objekt a \in Oa ist in diesem Sinne weder ‚wahr‘ \top noch ‚falsch‘ \bot.

9. Setzt man allerdings eine Objekthierarchie O voraus, in der man von einem beliebigen individuellem Objekt a immer sagen kann, zu welchem Objekt Y es als seiner Gattung gehört, dann kann man eine Aussagen der Art bilden ‚a ist eine Tasse‘.

10. Wenn man zuvor in einer Definition vereinbart haben sollte, dass zum Begriff der ‚Tasse‘ wesentlich die Eigenschaften Ex gehören, und das Objekt a hätte die Eigenschaften Ex \cup Ey, dann würde man sagen, dass die Aussage ‚a ist eine Tasse‘ ‚wahr‘ ist, unabhängig davon, ob es zum kognitiven Objekt a ein ’sinnliches‘ ‚Pendant‘ geben würde oder nicht. Die Aussage ‚a ist eine Tasse‘ wäre dann ‚rein definitorisch‘ (bzw. ‚rein analytisch‘) ‚wahr.

11. Im Gegensatz zu solch einer rein definitorischen (analytischen) Wahrheit eines Objekts a, die als solche nichts darüber sagt, ob es das Objekt a ‚tatsächlich‘ gibt, soll hier die ursprünglich vereinbarte ‚Wahrheit‘ durch Bezug auf eine ’sinnliche Gegebenheit‘ s \subseteq Os ‚ontologische‘ Wahrheit genannt werden, also einer Wahrheit, die sich auf das ‚real Seiende‘ in der umgebenden Welt W bezieht.

12. [Anmerkung: Dieses – auch im Alltagsdenken – unterstellte ‚Sein‘, die unterstellte übergreifende ‚Realität‘ ist nicht nur eine ‚Extrapolation‘ aufgrund sinnlicher Gegebenheiten ‚im‘ wissenden System, sondern ist in seiner unterstellten ‚Realität‘ auch nur eine sehr spezifische Form von Realität. Wie wir heute aufgrund immer komplexerer Messprozeduren wissen, gibt es ‚Realitäten‘, die weit jenseits aller sinnlichen Qualitäten liegen. Es fällt uns nur nicht so auf, weil diese gemessenen Eigenschaften X durch allerlei Prozeduren für unsere Sinnesorgane ‚umgerechnet‘, ‚transformiert‘ werden, so dass wir etwas ‚Sehen‘ oder ‚Hören‘, obgleich das gemessene X nicht zu sehen oder zu hören ist.]

13. Solange wir uns in unseren Aussagen auf das Enthaltensein eines Objektes a in einem Gattungsobjekts X beschränken ‚a ist ein X‘ oder das Feststellen von Eigenschaften der Art ‚a hat b‘ kann man sagen, dass eine Aussagestruktur wie (S P) wie folgt interpretiert werden kann: Es gibt einen Ausdruck A=(AsAp), bei dem ein Ausdrucksteil As sich auf ein echtes Objekt M(As) = a \in Oa bezieht und der andere Ausdrucksteil Ap bezieht sich auf die Beziehung zwischen dem Objekt a und entweder einem Gattungsobjekt X (Ap = ‚ist ein X‘) oder auf eine Eigenschaft Y (Ap = ‚hat Y‘).

14. Derjenige Ausdrucksteil As, der sich auf das echte Objekt a bezieht, ‚von dem‘ etwas ausgesagt werden soll (‚ist ein…‘, ‚hat …‘), dieser Ausdrucksteil wird als ‚Subjekt‘ S bezeichnet, und der Ausdrucksteil Ap, mittels dem etwas über das Subjekt ausgesagt wird, wird ‚Prädikat‘ P genannt.

15. Hierbei ist eine gewisse ‚Asymmetrie‘ zu beachten. Die Bedeutung vom Ausdrucksteil As – M(As) – bezieht sich auf eine ‚konkrete‘ Eigenschaftsstruktur innerhalb der Objekthierarchie. Die Bedeutung vom Ausdrucksteil Ap – M(Ap) – bezieht sich auf eine ‚Beziehung‘ / ‚Relation’/ ein ‚Verhältnis‘ [R] zwischen dem bezeichneten Bedeutungsobjekt M(As) = a und einem anderen bezeichneten Bedeutungsobjekt M(Ap), also R(M(As), M(Ap)). Die Beziehung R ist selbst kein ‚Objekt‘ so wie das Objekt a oder das implizit angenommene ‚Bezugsobjekt‘ X bzw. Y von a. Eine solche Beziehung R setzt – um prozessural ‚hantierbar‘ zu sein – eine zusätzliche ‚Objektebene‘ voraus, auf der es ein R-Objekt gibt, das die Beziehung zwischen dem a-Objekt und dem X-Y-Objekt ‚repräsentiert.

16. [Anmerkung: Bei ’neuronalen Netzen‘ wäre das R-Objekt jenes Neuron, das die Verbindung zwischen zwei anderen Neuronen ‚realisiert‘.]

17. Fassen wir zusammen: Bei einem Ausdruck A der Art A=’Hans ist ein Mensch‘ gibt es den Ausdrucksteil As=’Hans‘ und den Ausdrucksteil Ap=’ist ein Mensch‘. Die Bedeutung des Ausdrucksteils As M(As) als M(‚Hans‘) ist ein Objekt h in der unterstellten Bedeutungshierarchie O des Sprechers, das gewisse Eigenschaften E(h) besitzt. Die Bedeutung des Ausdrucksteils Ap als M(Ap) bzw. M(‚ist ein Mensch‘) ist sowohl ein Objekt M mit Eigenschaften E(M) als auch eine Beziehung R_ist zwischen dem Objekt h und dem Objekt M, also R_ist(h,M). Die Beziehung ist definitorisch/ analytisch ‚wahr‘ wenn es gilt, dass die definierenden Eigenschaften E(M) des Objekts Mensch M auch bei den Eigenschaften E(h) von Hans zu finden sind, also E(M) \subset E(h) .

BEZIEHUNGSRAUM – TRANSZENDENTALE BEDINGUNGEN

18.

Fortsetzung folgt

QUELLEN

  • Avicenna, ‚Avicennas Treatise on Logic‘. Part One of ‚Danesh-Name Alai‘ (A Concise Philosophical Encyclopedia) and Autobiography, edited and translated by Farang Zabeeh, The Hague (Netherlands): Martinus Nijhoff, 1971. Diese Übersetzung basiert auf dem Buch ‚Treatise of Logic‘, veröffentlicht von der Gesellschaft für Nationale Monumente, Serie12, Teheran, 1952, herausgegeben von M.Moien. Diese Ausgabe wiederum geht zurück auf eine frühere Ausgabe, herausgegeben von Khurasani.
  • Digital Averroes Research Environment
  • Nicholas Rescher (1928 – ),The Development of Arabic Logic. University of Pittsburgh Press, 1964
  • Hans-Jörg Sandkühler (Hg.) unter Mitwirkung von Dagmar Borchers, Arnim Regenbogen, Volker Schürmann und Pirmin Stekeler-Weithofer, ‚Enzyklopädie Philosophie‘, 3 Bd., Hamburg: FELIX MEINER VERLAG, 2010 (mit CD-ROM)
  • Stanford Encyclopedia of Philosophy, Aristotle’s Logic
  • Whitehead, Alfred North, and Bertrand Russell, Principia Mathematica, 3 vols, Cambridge University Press, 1910, 1912, and 1913; Second edition, 1925 (Vol. 1), 1927 (Vols 2, 3). Abridged as Principia Mathematica to *56, Cambridge University Press, 1962.
  • Alfred North Whitehead; Bertrand Russell (February 2009). Principia Mathematica. Volume One. Merchant Books. ISBN 978-1-60386-182-3.
  • Alfred North Whitehead; Bertrand Russell (February 2009). Principia Mathematica. Volume Two. Merchant Books. ISBN 978-1-60386-183-0.
  • Alfred North Whitehead; Bertrand Russell (February 2009). Principia Mathematica. Volume Three. Merchant Books. ISBN 978-1-60386-184-7

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER

AKTIVES PHILOSOPHIEREN UND ENGELHARDTs THE UNITED STATES OF FEAR – Teil 1

Engelhardt, T.; ‚The United States of Fear‘, Chicago: Haymarket Books, 2011

1. Für die letzte Philosophiewerkstatt vor der Sommerpause habe ich als unterschwellige Frage die Formulierung ins Spiel gebracht, ob aktives Philosophieren eine notwendige Bedingung für das nachhaltiges Überleben aller Menschen ist/ sein kann?

2. Diese Formulierung kann im ersten Moment sehr abstrakt wirken, fern vom Alltag.

3. In der Einleitung zu seinem Buch ‚The United States of Fear‘ (2011) beschreibt Tom Engelhardt in einer biographischen Perspektive wie er als kleiner jüdischer Junge im Nachkriegs New York der 50iger und 60iger Jahre durch Nicht-US-Filme mit Lebenssichten konfrontiert worden ist, die sein damaliges Weltbild mehr und mehr erudiert haben. Zwar ’nur Filme‘ konnte er jedoch ansatzweise die Welt aus den Augen ‚der Anderen‘ sehen, der Franzosen, der Russen und der Deutschen. Er begann zu begreifen, dass auch jenseits der Grenzen reale Menschen leben mit realen Gefühlen, Hoffnungen und Idealen, Menschen, die großes Leid erlebt haben und erleben, dass hinter den Hochglanzformeln US-amerikanisches Politik (eine Form von nationaler Propaganda) Wirklichkeiten standen und stehen, die für die Anderen alles andere als schön waren.

4. Diese Eindrücke seiner Kindheit/ Jugend haben ihn zumindest soweit verändert, dass er künftig die US-amerikanische Politik nicht mehr nur mit den typischen ‚inneramerikanischen‘ Augen zu sehen begann, sondern – zumindest ansatzweise – auch mit den Augen ‚der Anderen‘.

5. Wer Deutschland als ‚Ost‘ und ‚West‘ real erlebt hat, wer in Europa lebt, einer einmaligen historischen Vielfalt, wer real in multikulturellen Gruppierungen nicht nur funktioniert hat, sondern ansatzweise wenigstens die einzelnen Menschen mit ihren kulturbedingten Mustern direkt wahrnehmen kann, dem geschieht Ähnliches; einfache Muster vom Menschen und der Welt gelingen nicht ohne weiteres (obgleich die Existenz von fundamentalistischen Gruppierungen unterschiedlichster Färbung zeigt, dass die Wahrnehmung von ‚Vielfalt‘ nicht zwangsläufig zu entsprechend vielfältigen, differenzierten Denkmustern führen muss). Wer den Anderen in solch einer Vielfalt ernsthaft wahrnimmt, der kann danach nicht mehr nur Schwarz oder Weiß denken.

System A hat eine andere Interprettion der gemeinsamen Welt wie System B

System A hat eine andere Interprettion der gemeinsamen Welt wie System B

6. In einer starken Vereinfachung kann man sagen (siehe Diagramm), dass jeder Mensch die Welt ‚um sich herum‘ mit Hilfe seines Gehirns zu unterschiedlichen Bildern ‚verarbeitet‘. Nennt man solche ‚internen Verarbeitungen‘ vereinfachend mal ‚Kognition‘ (oder einfach ‚Denken‘), dann sind es solche kognitiven Prozesse, die im einzelnen ablaufen und die individuelle ‚kognitive Bilder‘ – auch ‚mentale Modelle‘ genannt – erzeugen. Wie man schon bei kleinen Kindern feststellen kann, wenn sie von einem gemeinsamen Erlebnis erzählen oder malen sollen, kann der einzelne die ‚gleiche Sache‘ ganz unterschiedlich ‚wahrnehmen‘ und ‚interpretieren‘.

7. Solange in solch einer Situation ein System A seine eigenen Bilder für ‚die Welt schlechthin‘ nimmt, während eine anderes System B die Welt mit anderen Bildern verknüpft hat, solange werden A und B nicht zusammen kommen. Wichtig ist hier, dass es nicht ‚die Welt an sich‘ ist, die die beiden A und B auseinander treibt, sondern die Art und Weise, wie A und B jeweils individuell die gemeinsam geteilte Welt ‚interpretieren‘. Obwohl sie ganz offensichtlich in der gleichen Welt leben, haben sie ‚in ihrem Kopf‘ unterschiedliche Welten, weil sie mit ihrem individuellen Denken die Welt ‚verändern‘ und ein ‚mentales Bild‘ erzeugen, was die gleiche Welt als ‚zwei verschiedene Welten‘ konstruiert.

8. Schaut man sich in seinem Alltag um, und beschönigt nichts, dann wird man feststellen, dass diese ‚unterschiedlichen Bilder‘ von der Welt der Normalfall sind. Dies ist unangenehm, kann Angst machen. Von daher versuchen Menschen, die sich neu begegnen, in der Regel erst mal heraus zu finden, ob sie irgendwelche gemeinsamen Anknüpfungspunkte haben, von denen her sie ein ‚gemeinsames Verstehen‘ aufbauen können. Viele Gruppierungen bilden sich nur, um solch eine kleine Menge von Gemeinsamkeiten zu finden, um die herum eine Art ‚Wir-Gefühl‘ ausgebildet wird, an dem man sich festhalten kann; dies ergibt eine gewisse ‚Sicherheit‘ im ansonsten unheimlichen Alltag. Dieses Bedürfnis nach einem ‚Wir-Gefühl‘ kann stärker sein als der Wunsch nach Wahrheit.

9. Im übrigen ist der Aufbau eines ‚Wir-Gefühls‘ anhand von Gemeinsamkeiten per se nichts Schlechtes; bis zu einem gewissen Grad ist es sogar notwendig und unvermeidlich. Schwierig wird es nur, wenn man nach dem ‚ersten Abtasten‘ bei einem ‚mentalen Modell‘ verharrt, das offensichtlich vereinfachend, unvollständig ist, und das jetzt weiter zu entwickeln wäre. Dieses ‚weiter Entwickeln‘ bedeutet aber dann in der Regel harte, mühsame Arbeit. Man muss individuelle Unterschiede benennen und sich daran gemeinsam abarbeiten; dann haben A und B eine Chance möglicherweise zu verstehen, warum sie in bestimmten Punkten zu unterschiedlichen Interpretationen gekommen sind und welche Variante möglicherweise ‚korrigiert‘ werden sollte (oder man ‚versteht‘ dann, warum es zwei Varianten geben kann).

10. Im Alltag passiert aber oft das Folgende: der jeweils ‚Stärkere‘ tendiert dazu, die ‚Schwächeren‘ zu ‚vereinnahmen‘. Der rollenmäßig ‚Schwächere‘ kann ‚wahrer‘ sein als der rollenmäßig Stärkere; aber seine Einsichten werden ‚weggeredet‘, ‚totgeschwiegen‘, ‚diskriminiert‘ usw. (es gibt hier viele Spielarten). Es gibt hier keine ‚Königswege‘, keine ‚immer funktionierende Verfahren‘, da die ‚Wahrheit‘ dasjenige ist, was zwar ‚vorgegeben‘ ist, aber die kognitiven Interpretationen des Vorgegebenen sind ‚in sich‘ nicht transparent und die ‚Wahrheit‘ existiert nicht ‚explizit gegeben‘, sondern ‚implizit anwesend‘. Wer in seiner kognitiven Interpretation bestimmte Aspekte einfach nicht sehen will — oder aufgrund von Vorurteilen sich selbst inhaltlich ‚verstellt‘ hat – wird sie auch nicht sehen.

11. Daraus folgt, dass ein erforschendes Ausgreifen des menschlichen Denkens ohne eine fundamentale ‚Demut der Sache gegenüber‘, ohne eine radikale ‚Methodentreue‘ permanent gefährdet ist, an der Sache ‚vorbei zu laufen‘, obwohl sie ‚da ist‘ (je ‚mächtiger‘ und ‚großartiger‘ sich jemand wähnt, umso größer ist die Wahrscheinlichkeit, dass er sich selbst von der Wahrheit aussperrt).

Fortsetzung folgt…

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

REVIEW: THE WORLD ACCORDING TO TOMDISPATCH – Teil 1

T.Engelhardt (ed), „The World Acording to TomDispatch. America in the New Age of Empire“, London-New York: Verso, 2008

KONTEXT BLOG

1) In diesem Blog geht es primär um das Neue Weltbild, das sich ergibt, wenn man die neuesten Erkenntnisse von Philosophie und Wissenschaft unter Einbeziehung künstlerischer Vorgehensweisen benutzt. Ein Ergebnis bisher ist das Hervortreten eines exponentiellen Komplexitätszuwachses im Kontext des biologischen Lebens auf der Erde. Für uns Menschen bedeutet dies, dass nicht nur die Anzahl der Menschen exponentiell angewachsen ist, sondern dass die Art und Weise unseres Verhaltens, unserer Interaktionen und Kommunikation samt den geschaffenen Hilfsmittel für jeden einzelnen eine ’sekundäre Umwelt‘ haben entstehen lassen, die die ‚primäre Welt‘ stark bis nahezu vollständig ‚überlagert‘, so dass die geschaffene sekundäre Welt als primäre Welt erfahren wird. Diese Rückkopplung verstärkt die Entwicklung zusätzlich (Beispiel: Internet und mobile Kommunikationsgeräte gehören zur sekundären Welt und verändern die Weltwahrnehmung und das Kommunikationsverhalten sehr grundlegend, und damit die internen (kognitiven) Modelle in den Köpfen der Beteiligten, die die Welt ausschließlich auf der Grundlage der internen Modelle wahrnehmen, interpretieren und dann handeln).
2) In dem Masse, wie sich nun der Informations- und Kommunikationsfluss in die virtuellen Datenströme verlagert, nimmt die Abhängigkeit von diesen Datenströmen zu: WAS bilden sie ab? Bilden sie es RICHTIG ab? Ist es VOLLSTÄNDIG? Ist es ZUGÄNGLICH? Gibt es Kriterien für die QUALITÄT? usw. Die Verneinung dieser Fragen hat ’negative‘ Auswirkungen in sehr vielen Dimensionen.
3) Eine Dimension, die in den letzten Beiträgen diskutiert worden ist, ist die POLITISCHE Dimension, und zwar beschränkt auf solche Länder, die den Anspruch erheben, DEMOKRATISCHE Länder zu sein. Und hier hatte ich mich auf die USA konzentriert, da die USA in mehrfachem Sinne eine Sonderstellung innerhalb der heutigen demokratischen Staaten einnehmen. Der ‚Hype‘ um die Enthüllungen von Snowdon (im Kontext von Manning und vorher WikiLeaks) hatte meine Aufmerksamkeit geweckt und ich hatte begonnen, US-amerikanische Zeitungen und Webseiten direkt zu lesen und nicht nur in deutschen Zeitungen ‚über‘ die USA. Dabei hatte ich den Eindruck gewonnen, dass es nur vordergründig um das ‚Ausspähen‘ von Daten geht (dies findet seit Jahren in immer größerem Ausmaß statt, nicht nur durch US-amerikanische Geheimdienste, sondern durch nahezu alle Geheimdienste dieser Erde, und darüber hinaus immer mehr durch ‚kriminelle‘ Organisationen, die Wirtschaftsspionage betreiben und/ oder einfach kriminelle Akte verschiedenster Art. Die ersten offiziellen Reaktionen deutscher Politiker zum Thema waren daher unglaublich lächerlich. Zur Zeit versucht die Politik den Eindruck zu erwecken, sie versuche nun zusammen mit der Wirtschaft, zumindest die Wirtschaftsspionage einzudämmen). Das eigentliche Problem kam nur ganz kurz zur Sprache sowohl in den USA als auch in Deutschland (und Europa). Das ‚eigentliche‘ Problem sehe ich in der politischen Dimension.

FREIHEITSRECHTE ALLEINE SIND ZU WENIG

4) Geht man davon aus, dass (i) auf der einen Seite der einzelne Mensch sein ‚Bild von der Welt‘ über seine Interaktionen mit dieser Welt bildet und hierin bei allen Sachverhalten, die über seine unmittelbare Umgebung hinausgehen, von ‚Darstellungen anderer‘ abhängig ist, und dass (ii) auf der anderen Seite eine Gesellschaft von Menschen nur dann gemeinschaftlich verantwortet handeln kann, wenn wenigstens ansatzweise ein ‚gemeinsam geteiltes Modell‘ besteht, dann ist klar, dass die ‚Kommunikation‘ zwischen den Mitgliedern dieser Gesellschaft die zentrale Bedingung darstellt, unter der sich solch ein gemeinsam geteiltes Modell herausbilden kann. Es ist von daher nicht überraschend, dass einer Öffentlichkeit in einem demokratischen Staat eine zentrale Rolle zukommt. Funktioniert eine Öffentlichkeit als Raum der gemeinsamen Modellbildung nicht, dann ist eine demokratische Gesellschaft im Ansatz — oder im Kern, je nachdem, wie man es sehen will — paralysiert. Ich kann den einzelnen Mitgliedern einer Gesellschaft so viele Rechte zugestehen, wie ich will, wenn es nicht möglich ist, eine Meinungsbildung so zu organisieren, dass alle ‚wichtigen‘ Informationen — und dazu gehört natürlich auch das Handeln der staatlichen Einrichtungen — ‚hinreichend verfügbar‘ sind und ‚hinreichend publiziert‘ werden, dann sind alle weiteren Rechte nahezu wertlos. Ohne funktionierende Öffentlichkeit haben staatliche Einrichtungen eine nahezu unbegrenzte Deutungshoheit und damit eine nahezu unbeschränkte Handlungsfreiheit.
5) Betrachtet man das Grundgesetz der Bundesrepublik Deutschland, dann sind die Grundrechte — hier sehr ähnlich der US-amerikanischen Verfassung — im Wesentlichen als „Abwehrrechte des Grundrechtsträgers gegenüber Handlungen von Hoheitsträgern ausgestaltet“ (siehe Link). Sie verkörpern rein juristisch zwar auch einen „Anspruch gegen den Staat auf Beseitigung einer Beeinträchtigung des durch das betreffende Grundrecht geschützte Rechtsgut“ (siehe Link), aber was nützt ein Anspruch, wenn im Falle einer nicht vorhandenen Öffentlichkeit staatliche Organe eine ‚Deutungshoheit‘ besitzen und ausüben?
6) Nun ist die Regierung in Deutschland abhängig vom Bundestag als dem einzigen direkt demokratisch legitimierten Verfassungsorgan. Doch, auch einem Bundestag würde ‚der Boden unter den Füssen‘ entzogen, wenn es keine funktionierende Öffentlichkeit mehr geben würde.
7) Historisch sehr umstritten war die Einführung des großen Lauschangriffs als erlaubter Eingriff in den eigentlich grundgesetzlich geschützten privaten Bereich (Die Grundlagen für den „Großen Lauschangriff” wurden am 16. Januar 1998 vom Bundestag und am 6. März 1998 vom Bundesrat durch Einfügung der Absätze 3 bis 6 des Art. 13 Grundgesetz (GG) gelegt. Dadurch wurde die sogenannte akustische Wohnraumüberwachung zu Zwecken der Strafverfolgung ermöglicht. Mit dem „Gesetz zur Umsetzung des Urteils des Bundesverfassungsgerichts zur akustischen Wohnraumüberwachung”[2], das der Bundestag am 12. Mai 2005 mit den Stimmen der SPD und der Grünen verabschiedete, erhielt der Große Lauschangriff seine bis heute gültige Form)(siehe Link). Sofern die parlamentarische Kontrolle (delegiert an geeignete ausführende Institutionen) ‚funktioniert‘, mag es Fälle geben, wo solch eine Grundrechtsaufhebung Sinn machen kann. Aber es bleibt eine substantielle Schwächung, da damit grundsätzlich eine Aufhebung möglich ist.
8) Dennoch, der Schutz des privaten Bereichs reicht nicht aus, das Funktionieren einer Öffentlichkeit sicher zu stellen, es ist nur eine notwendige Bedingung. Denn, selbst wenn die Privatsphäre — soweit man in der Vergangenheit sehen konnte — hinreichend geschützt wird, kann eine manipulierte Öffentlichkeit zu desaströsen Auswirkungen führen. Dies ist das Thema des Buches von Tom Engelhardt.

EINLEITUNG ZUM BUCH

9) Natürlich muss man sich fragen, woran man eine ’nicht funktionierende Öffentlichkeit‘ erkennt. Tom Engelhardt, Herausgeber des Buches und auch Autor einiger Kapitel, bringt einleitend ein Beispiel, in dem er 2005 eine stark verzeichnete — in seinen Augen irreale — Geschichte über den damaligen Präsidenten George Bush geschrieben und ins Internet gestellt hatte, als ein ‚Märchen‘. Doch zahlreiche Leser nahmen diese Geschichte und die Aussagen über den Präsidenten als ‚wahr‘. M.a.W. man erzählt eine Fantasiegeschichte und die Leser halten die Fantasie für ‚real‘. Warum? Wie ist das möglich? Natürlich ist dies nur möglich, wenn die ‚Modelle im Kopf‘ der Leser so ausgelegt sind, dass sie Fantasie als Realität nehmen! Anders formuliert, wenn die Modelle im Kopf so ausgelegt sind, dass sie Fantasie nicht mehr von Realität unterscheiden können, dann muss die Öffentlichkeit, aufgrund deren die einzelnen ihre Modelle ’speisen‘, entsprechend ‚verzerrt‘ sein. Wenn das Fakt ist, dann liegt die Arbeitshypothese nahe, dass die Öffentlichkeit nicht die Qualität besitzt, die sie in einer Demokratie besitzen sollte.(vgl. S.ix).
10) Es folgt dann auf einer Seite dicht komprimiert eine Aufzählung wichtiger Maßnahmen der US-amerikanischen Regierung von 9/11 2001 bis zum Jahr 2005 die nicht nur aufzeigen, wie hier ein ‚Monster‘ geboren wurde, sondern dieses Monster hat sich auch mit Sprachregelungen versehen, die sich über die Öffentlichkeit in die Ohren und dann in die Gehirne aller Bürger eingenistet haben, Sprachregelngen, die eklatantes Unrecht wie ‚Recht‘ erscheinen lassen. Fünf Jahre nach 9/11 2011 war die US-amerikanische Welt so monströs geworden, dass Fantasieerzählungen nicht mehr als solche erkannt wurden, sondern für ‚wahr‘ genommen worden, weil die tägliche Öffentlichkeit monströs geworden ist! (vgl. S.x) Und es war diese Verwandlung der USA, die Tom Engelhardt kurz nach 9/11 2001 zur Gründung einer Webseite http://www.tomdispatch.com/ motiviert hatte, die ursprünglich nur ein Gespräch zwischen einigen Freunden widerspiegelte, dann aber von immer mehr Menschen geteilt wurde, denen die Verwandlung der US-amerikanischen Demokratie in eine Art Monsterstaat Angst machte.

Siehe zur Fortsetzung Teil 2.

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER

REDUKTIONISMUS, EMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 5

Vorheriger Beitrag Teil 4

Letzte Änderung (mit Erweiterungen): 12.April 2013, 06:26h

ALLGEMEINE EINSCHÄTZUNGEN ZU SEELE, GEIST UND WISSENSCHAFTEN

1. Im nächsten Kapitel ‚Mind‘ (etwa ‚Geist‘ (es gibt keine eindeutigen begrifflichen Zuordnungen in diesem Fall)) (SS.177-196) handelt Kauffman vom ‚Geist‘ des Menschen einschließlich dem besonderen Aspekt ‚(Selbst-)Bewusstsein‘ (‚consciousness‘) mit jenen Beschreibungsversuchen, die er für nicht zutreffend hält. Es folgt dann ein Kapitel ‚The Quantum Brain‘ (etwa ‚Das Quantengehirn‘) (SS.197-229), in dem er seine mögliche Interpretation vorstellt. Seine eigene Grundüberzeugung stellt er gleich an den Anfang, indem er sagt, dass der menschliche Geist (i) nicht ‚algorithmisch‘ sei im Sinne eines berechenbaren Ereignisses, sondern (ii) der Geist sei ‚Bedeutung und tue Organisches‘ (‚is a meaning and doing organic system‘). (iii) Wie der Geist Bedeutung erzeuge und sein Verhalten hervorbringe, das sei jenseits der aktuellen wissenschaftlichen Erklärungsmöglichkeiten.(vgl. S.177)
2. [Anmk: Seiner grundsätzlichen Einschätzung, dass eine vollständige wissenschaftliche Erklärung bislang nicht möglich sei (iii), kann ich nur zustimmen; wir haben mehr Fragen als Antworten. Die andere Aussage (ii), dass Geist ‚is a meaning and doing organic system‘, ist schwierig zu verstehen. Was soll es heißen, dass der Geist (‚mind‘) ‚doing organic system‘? Hier kann man nur raten. Ein sehr radikaler Interpretationsversuch wäre, zu sagen, dass der ‚Geist‘ etwas ist, was die Entstehung von organischen Systemen ermöglicht. Damit würde Geist fast schon zu einem ‚inneren Prinzip der Materie‘. Aus den bisherigen Ausführungen von Kauffmann gäbe es wenig Anhaltspunkte, das zu verstehen. Die andere Aussage (i), dass ‚Geist‘ (‚mind‘) ‚Bedeutung‘ sei, ist ebenfalls nicht so klar. Die Standardinterpretation von ‚Bedeutung‘ wird von der Semiotik geliefert. Innerhalb der Semiotik ist aber speziell der Begriff der Bedeutung, wie man sehr schnell sehen kann keinesfalls einfach oder klar. Ohne eine eigene Theorie verliert man sich in den historisch gewachsenen Verästelungen. Es gibt eine Vielzahl von Denkversuchen, die sich nicht auf einen gemeinsamen Denkrahmen zurückführen lassen. Die Geschichte der Ideen ist generell ein faszinierendes Phänomen ohne eine zwingende Logik. Die muss man sich selbst erarbeiten.]

ALGORITHMISIERUG VON GEIST

3. Auf den Seiten 178-182 zählt er einige wichtige Personen und Konzepte auf, die der Begriff ‚algorithmisch‘ in seiner historischen Entwicklung konnotiert. Da ist einmal Turing, der ein mathematisches Konzept von ‚Berechenbarkeit‘ gefunden hat, das bis heute die Grundlage für alle wichtigen Beweise bildet. Daneben von Neumann, der ’nebenher‘ eine Architektur für reale Computer erfunden hat, die als Von-Neumann-Architektur zum Ausgangspunkt der modernen programmierbaren Computers geworden ist. Ferner stellt er McCulloch vor und Pitts. McCulloch und Pitts gelten als jene, die als erstes eine erfolgreiche Formalisierung biologischer Nervenzellen durchgeführt haben und mit ihren McCulloch-Pitts Neuronen das Gebiet der künstlichen neuronalen Zellen begründeten. Das Besondere am frühen Konzept von McCulloch-Pitts war, dass sie nicht nur ein formales Modell von vernetzten künstlichen Neuronen definierten, sondern dass sie zusätzlich eine Abbildung dieser Neuronen in eine Menge formaler Aussagen in dem Sinne vornahmen, dass ein Neuron nicht nur eine Prozesseinheit war mit dem Zustand ‚1‘ oder ‚0‘, sondern man ein Neuron zugleich auch als eine Aussage interpretieren konnte, die ‚wahr‘ (‚1‘) sein konnte oder ‚falsch‘ (‚0‘). Damit entstand parallel zu den ‚rechnenden‘ Neuronen – in einer ’symbolischen‘ Dimension – eine Menge von interpretierten logischen Aussagen, die man mit logischen Mitteln bearbeiten konnte. Kauffman diskutiert den Zusammenhang zwischen diesen drei Konzepten nicht, stellt dann aber einen Zusammenhang her zwischen dem Formalisierungsansatz von McCulloch-Pitts und seinem eigenen Konzept eines ‚Boolschen Network Modells‘ (‚Boolean network model‘) aus Kapitel 8 her [hatte ich im Detail nicht beschrieben][Anmerkung: Vor einigen Jahren hatte ich mal versucht, die Formalisierungsansätze von McCulloch und Pitts zu rekonstruieren. Sie benutzen die Logik, die damals Carnap entwickelt hatte, erweitert um den Faktor Zeit. Mir ist keine konsistente Rekonstruktion gelungen, was nicht viel besagen muss. Möglicherweise war ich zu dumm, zu verstehen, was Sie genau wollen.]
4. Sowohl am Beispiel des ‚rechnenden Neurons‘ (was Kauffman und viele andere als ’subsymbolisch‘ bezeichnen) wie auch am Beispiel der interpretierten Aussagen (die von Kauffman als ’symbolisch‘ bezeichnete Variante) illustriert Kauffman, wie diese Modelle dazu benutzt werden können, um sie zusätzlich in einer dritten Version zu interpretieren, nämlich als ein Prozessmodell, das nicht nur ‚Energie‘ (‚1‘, ‚0‘) bzw. ‚wahr’/ ‚falsch‘ verarbeitet, sondern diese Zustände lassen sich abbilden auf ‚Eigenschaften des Bewusstseins‘, auf spezielle ‚Erlebnisse‘, die sich sowohl als ‚elementar’/ ‚atomar‘ interpretieren lassen wie auch als ‚komplex’/ ‚abstrahiert‘ auf der Basis elementarer Erlebnisse. (vgl. S.180f)
5. [Anmerkung: Diese von Kauffman eingeführten theoretischen Konzepte tangieren sehr viele methodische Probleme, von denen er kein einziges erwähnt. So muss man sehr klar unterscheiden zwischen dem mathematischen Konzept der Berechenbarkeit von Turing und dem Architekturkonzept von von Neumann. Während Turing ein allgemeines mathematisches (und letztlich sogar philosophisches!) Konzept von ‚endlich entscheidbaren Prozessen‘ vorstellt, das unabhängig ist von irgend einer konkreten Maschine, beschreibt von Neumann ein konkrete Architektur für eine ganze Klasse von konkreten Maschinen. Dass die Nachwelt Turings mathematisches Konzept ‚Turing Maschine‘ genannt hat erweckt den Eindruck, als ob die ‚Turing Maschine‘ eine ‚Maschine sei. Das aber ist sie gerade nicht. Das mathematische Konzept ‚Turing Maschine‘ enthält Elemente (wie z.B. ein beidseitig unendliches Band), was niemals eine konkrete Maschine sein kann. Demgegenüber ist die Von-Neumann-Architektur zu konkret, um als Konzept für die allgemeine Berechenbarkeit dienen zu können. Ferner, während ein Computer mit einer Von-Neumann-Architektur per Definition kein neuronales Netz ist, kann man aber ein neuronales Netz auf einem Von-Neumann-Computer simulieren. Außerdem kann man mit Hilfe des Turing-Maschinen Konzeptes untersuchen und feststellen, ob ein neuronales Netz effektiv entscheidbare Berechnungen durchführen kann oder nicht. Schließlich, was die unterschiedlichen ‚Interpretationen‘ von neuronalen Netzen angeht, sollte man sich klar machen, dass ein künstliches neuronales Netz zunächst mal eine formale Struktur KNN=[N,V,dyn] ist mit Mengen von Elementen N, die man Neuronen nennt, eine Menge von Verbindungen V zwischen diesen Elementen, und einer Übergangsfunktion dyn, die sagt, wie man von einem aktuellen Zustand des Netzes zum nächsten kommt. Diese Menge von Elementen ist als solche völlig ’neutral‘. Mit Hilfe von zusätzlichen ‚Abbildungen‘ (‚Interpretationen‘) kann man diesen Elementen und ihren Verbindungen und Veränderungen nun beliebige andere Werte zuweisen (Energie, Wahr/Falsch, Erlebnisse, usw.). Ob solche Interpretationen ’sinnvoll‘ sind, hängt vom jeweiligen Anwendungskontext ab. Wenn Kauffman solche möglichen Interpretationen aufzählt (ohne auf die methodischen Probleme hinzuweisen), dann sagt dies zunächst mal gar nichts.]

GEHIRN ALS PHYSIKALISCHER PROZESS

6. Es folgt dann ein kurzer Abschnitt (SS.182-184) in dem er einige Resultate der modernen Gehirnforschung zitiert und feststellt, dass nicht wenige Gehirnforscher dahin tendieren, das Gehirn als einen Prozess im Sinne der klassischen Physik zu sehen: Bestimmte neuronale Muster stehen entweder für Vorgänge in der Außenwelt oder stehen in Beziehung zu bewussten Erlebnissen. Das Bewusstsein hat in diesem Modell keinen ‚kausalen‘ Einfluss auf diese Maschinerie, wohl aber umgekehrt (z.B. ‚freier Wille‘ als Einbildung, nicht real).
7. [Anmk: Das Aufzählen dieser Positionen ohne kritische methodische Reflexion ihrer methodischen Voraussetzungen und Probleme erscheint mir wenig hilfreich. Die meisten Aussagen von Neurowissenschaftlern, die über die Beschreibung von neuronalen Prozessen im engeren Sinne hinausgehen sind – vorsichtig ausgedrückt – mindestens problematisch, bei näherer Betrachtung in der Regel unhaltbar. Eine tiefergreifende Diskussion mit Neurowissenschaftlern ist nach meiner Erfahrung allerdings in der Regel schwierig, da ihnen die methodischen Probleme fremd sind; es scheint hier ein starkes Reflexions- und Theoriedefizit zu geben. Dass Kauffman hier nicht konkreter auf eine kritische Lesart einsteigt, liegt möglicherweise auch daran, dass er in den späteren Abschnitten einen quantenphysikalischen Standpunkt einführt, der diese schlichten klassischen Modellvorstellungen von spezifischen Voraussetzungen überflüssig zu machen scheint.]

KOGNITIONSWISSENSCHAFTEN; GRENZEN DES ALGORITHMISCHEN

8. Es folgt dann ein Abschnitt (SS.184-191) über die kognitiven Wissenschaften (‚cognitive science‘). Er betrachtet jene Phase und jene Strömungen der kognitiven Wissenschaften, die mit der Modellvorstellung gearbeitet haben, dass man den menschlichen Geist wie einen Computer verstehen kann, der die unterschiedlichsten Probleme ‚algorithmisch‘, d.h. durch Abarbeitung eines bestimmten ‚Programms‘, löst. Dem stellt Kauffman nochmals die Unentscheidbarkeits- und Unvollständigkeitsergebnisse von Gödel gegenüber, die aufzeigen, dass alle interessanten Gebiete der Mathematik eben nicht algorithmisch entscheidbar sind. Anhand der beiden berühmten Mathematiker Riemann und Euler illustriert er, wie deren wichtigsten Neuerungen sich nicht aus dem bis dahin Bekanntem algorithmisch ableiten ließen, sondern auf ‚kreative Weise‘ etwas Neues gefunden haben. Er zitiert dann auch die Forschungen von Douglas Medin, der bei seinen Untersuchungen zur ‚Kategorienbildung‘ im menschlichen Denken auf sehr viele ungelöste Fragen gestoßen ist. Wahrscheinlichkeitstheoretische Ansätze zur Bildung von Clustern leiden an dem Problem, dass sie nicht beantworten können, was letztlich das Gruppierungskriterium (‚Ähnlichkeit‘, welche?) ist. Aufgrund dieser grundsätzlichen Schwierigkeit, ‚Neues‘, ‚Innovatives‘ vorweg zu spezifizieren, sieht Kauffman ein grundsätzliches Problem darin, den menschlichen Geist ausschließlich algorithmisch zu definieren, da Algorithmen – nach seiner Auffassung – klare Rahmenbedingungen voraussetzen. Aufgrund der zuvor geschilderten Schwierigkeiten, solche zu bestimmten, sieht er diese nicht gegeben und folgert daraus, dass die Annahme eines ‚algorithmischen Geistes‘ unzulänglich ist.
9. [Anmk: Die Argumente am Beispiel von Goedel, Riemann, Euler, und Medin – er erwähnte auch noch Wittgenstein mit den Sprachspielen – würde ich auch benutzen. Die Frage ist aber, ob die Argumente tatsächlich ausreichen, um einen ‚algorithmischen Geist‘ völlig auszuschliessen. Zunächst einmal muss man sich klar machen, dass es ja bislang überhaupt keine ‚Theorie des Geistes an sich‘ gibt, da ein Begriff wie ‚Geist‘ zwar seit mehr als 2500 Jahren — betrachtet man nur mal den europäischen Kulturkreis; es gibt ja noch viel mehr! — benutzt wird, aber eben bis heute außer einer Unzahl von unterschiedlichen Verwendungskontexten keine einheitlich akzeptierte Bedeutung hervorgebracht hat. Dies hat u.a. damit zu tun, dass ‚Geist‘ ja nicht als ‚direktes Objekt‘ vorkommt sondern nur vermittelt in den ‚Handlungen‘ und den ‚Erlebnissen‘ der Menschen in unzähligen Situationen. Was ‚wirklich‘ mit ‚Geist‘ gemeint ist weiß insofern niemand, und falls doch, würde es allen anderen nichts nützen. Es gibt also immer nur partielle ‚Deutungsprojekte‘ von denen die kognitive Psychologie mit dem Paradigma vom ‚Geist‘ als ‚Computerprogramm‘ eines unter vielen ist. Hier müsste man dann nochmals klar unterscheiden, ob die psychologischen Modelle explizit einen Zusammenhang mit einer zugrunde liegenden neuronalen Maschinerie herstellen oder nicht. Versteht man die wissenschaftliche Psychologie als ein ‚empirisches‘ Deutungsprojekt, dann muss man annehmen, dass sie solch einen Zusammenhang explizit annimmt. Damit wäre ein algorithmisches Verhalten aus der zugrunde liegenden neuronalen Maschinerie herzuleiten. Da man nachweisen kann, dass ein neuronales Netz mindestens so rechenstark wie eine Turingmaschine ist, folgt daraus, dass ein neuronales Netzwerk nicht in allen Fällen algorithmisch entscheidbar ist (Turing, 1936, Halteproblem). Dies bedeutet, dass selbst dann, wenn der menschliche Geist ‚algorithmisch‘ wäre, daraus nicht folgt, dass er alles und jedes berechnen könnte. Andererseits, wie wir später sehen werden, muss man die Frage des Gehirns und des ‚Geistes‘ vermutlich sowieso in einem ganz anderen Rahmen bedenken als dies in den Neurowissenschaften und den Kognitionswissenschaften bislang getan wird.]

GEIST OPERIERT MIT ‚BEDEUTUNG‘

10. Es folgen (SS.192-196) Überlegungen zur Tatsache, dass der ‚Geist‘ (‚mind‘) mit ‚Bedeutung‘ (‚meaning‘) arbeitet. Welche Zeichen und formale Strukturen wir auch immer benutzen, wir benutzen sie normalerweise nicht einfach ’nur als Zeichenmaterial‘, nicht nur rein ’syntaktisch‘, sondern in der Regel im Kontext ‚mit Bezug auf etwas anderes‘, das dann die ‚Bedeutung‘ für das benutzte Zeichenmaterial ausmacht. Kauffman bemerkt ausdrücklich, dass Shannon in seiner Informationstheorie explizit den Aspekt der Bedeutung ausgeschlossen hatte. Er betrachtete nur statistische Eigenschaften des Zeichenmaterials. Ob ein Zeichenereignis eine Bedeutung hat bzw. welche, das muss der jeweilige ‚Empfänger‘ klären. Damit aber Zeichenmaterial mit einer möglichen Bedeutung ‚verknüpft‘ werden kann, bedarf es eines ‚Mechanismus‘, der beides zusammenbringt. Für Kauffman ist dies die Eigenschaft der ‚Agentenschaft‘ (‚agency‘). Wie der menschliche Geist letztlich beständig solche neuen Bedeutungen erschafft, ist nach Kauffman bislang unklar.
11. Es folgen noch zwei Seiten Überlegungen zur Schwierigkeit, die nichtlineare Relativitätstheorie und die lineare Quantentheorie in einer einzigen Theorie zu vereinen. Es ist aber nicht ganz klar, in welchem Zusammenhang diese Überlegungen zur vorausgehenden Diskussion zum Phänomen der Bedeutung stehen.

Fortsezung mit Teil 6.

Ein Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER

HABEN WIR EIN PROBLEM? – Zur Problematik des kognitiven WIR-Modells

ALLTÄGLICHE PROBLEME

1. Wenn man sich die täglichen Nachrichtenmeldungen anschaut, die über die diversen Medien zugänglich sind — trotz ihrer großen Zahl sicher nur eine kleine Auswahl dessen, was tatsächlich alles passiert –, dann könnte man dazu neigen, zu sagen, dass die Frage aus der Überschrift dumm und lächerlich ist: natürlich haben wir Probleme, viel zu viele.
2. Doch sind diese ‚täglichen Probleme‘ nicht das, was ich meine. Dass einzelne Personen gestresst sind, krank werden, leiden, sterben, überall auf der Welt, in jedem Land (wenn auch mit unterschiedlichen Randbedingungen), das gehört quasi zum konkreten Leben dazu. Dafür kann man ‚Randbedingungen‘ verantwortlich machen: Gesetze, wirtschaftliche Bedingungen, korrupte Verhaltensweisen von Institutionen, schlechte Organisationen von Institutionen, spezielle agrarische oder klimatische Konstellationen, usw. Mit diesen kann (und muss!) man sich auseinandersetzen.
3. Man kann das Ganze auch noch eine Nummer größer betrachten: den Einfluss ganzer Nationen oder gar der ganzen Menschheit auf die Natur: Auslutschen vorhandener nicht erneuerbarer Ressourcen, Umweltzerstörungen als Einengung der verfügbaren Lebensbasis, Zerstörung der Ökologie der Meere bis hin zur Ausrottung von immer mehr Lebensformen im Meer, Vernichtung von Lebensformen auf dem Land, Verlust der Kontrolle wichtiger Wachstumsprozesse, usw. Auch mit diesen müssen wir uns auseinandersetzen, wollen wir überleben. Wobei man sich hier fragen ob wir überhaupt ‚überleben wollen‘? Und wer sind ‚wir‘? Gibt es dieses ‚wir‘ überhaupt, das sich über alle Kulturen und Nationen hinweg als ‚innere Einheit‘ in der Vielfalt zeigt, die aus Vielfalt kein ‚Chaos‘ macht, sondern ’nachhaltige Ordnung‘?

TREND DER EVOLUTION

4. Hier nähern wir uns dem, was ich mit ‚Problem‘ meine. Wenn alle bisherigen Überlegungen im Blog zutreffen, dann manifestiert sich die Besonderheit des Phänomens Lebens in dem unübersehbaren ‚Trend‘ zu immer mehr Komplexität in mindestens den folgenden Richtungen: (i) individuelle biologische Systeme werden immer komplexer; (ii) dadurch werden immer komplexere Interaktionen und damit Koordinierungen möglich; (iii) es entstehen biologisch inspirierte nicht-biologische Systeme als artifizielle (= technologische) Systeme, die in das biologische Gesamtphänomen integriert werden; (iv) sowohl das Individuum als auch die Gesamtheit der Individuen unterstützt von der Technologie wirken immer intensiver und nachhaltiger auf ’sich selbst‘ und auf das Gesamtsystem zurück; (v) aufgrund der entstandenen kulturellen Vernetzungsmuster (schließt politische Subsysteme mit ein) können einzelne Individuen eine ‚Verfügungsgewalt‘ bekommen, die es ihnen erlaubt, als individuelle Systeme (trotz extrem limitierten Verstehen) große Teile des Gesamtsystems konkret zu verändern (positiv wie negativ); (vi) die schiere Zahl der Beteiligten und die anschwellende Produktion von Daten (auch als Publikationen) hat schon lange die Verarbeitungskapazität einzelner Individuen überschritten. Damit verlieren kognitive Repräsentationen im einzelnen mehr und mehr ihren Zusammenhang. Die Vielfalt mutiert zu einem ‚kognitiven Rauschen‘, durch das eine ‚geordnete‘ kognitive Verarbeitung praktisch unmöglich wird.

VERANTWORTUNG, KOORDINIERUNG, WIR

5. Die Frage nach der ‚Verantwortung‘ ist alt und wurde zu allen Zeiten unterschiedlich beantwortet. Sie hat eine ‚pragmatische‘ Komponente (Notwendigkeiten des konkreten Überlebens) und eine ‚ideologische‘ (wenige versuchen viele für ihre persönlichen Machtinteressen zu instrumentalisieren). Der ‚Raum‘ der ‚Vermittlung von Verantwortung‘ war und ist immer der Raum der ‚Interaktion und Koordination‘: dort, wo wir versuchen, uns zu verständigen und uns zu koordinieren, dort stehen wir vor der Notwendigkeit, uns wechselseitig Dinge zu ‚repräsentieren‘, damit evtl. zu ‚erklären‘, und dadurch vielleicht zu ‚motivieren‘. Ein mögliches ‚WIR‘ kann nur in diesem Wechselspiel entstehen. Das ‚WIR‘ setzt die Dinge zueinander in Relation, gibt dem einzelnen seine ‚individuelle Rolle‘. Nennen wir das ‚Repräsentieren von Gemeinsamkeiten‘ und die damit evtl. mögliche ‚Erklärung von Gegebenheiten‘ mal das ‚kognitive WIR-Modell‘.

6. Es kann sehr viele kognitive WIR-Modelle geben: zwischen zwei Personen, zwischen Freunden, in einer Institution, in einer Firma, in einem Eisenbahnabteil, …. sie alle bilden ein ‚Netzwerk‘ von kognitiven WIR-Modellen; manche kurzfristig, flüchtig, andere länger andauernd, nachhaltiger, sehr verpflichtend. Kognitive WIR-Modelle sind die ‚unsichtbaren Bindeglieder‘ zwischen allen einzelnen.

KOGNITIVE WIR-MODELLE IM STRESS

7. Jeder weiß aus seiner eigenen Erfahrung, wie schwer es sein kann, schon alleine zwischen zwei Personen ein kognitives WIR-Modell aufzubauen, das die wichtigsten individuellen ‚Interessen‘ ‚befriedigend‘ ‚integriert/erklärt‘. Um so schwieriger wird es, wenn die Zahl der Beteiligten zunimmt bzw. die Komplexität der Aufgabe (= wir sprechen heute oft und gerne von ‚Projekten‘) ansteigt. Der Bedarf an Repräsentationen und vermittelnder Erklärung steigt rapide. Die verfügbare Zeit nimmt in der Regel aber nicht entsprechend zu. Damit steigt der Druck auf alle Beteiligten und die Gefahr von Fehlern nimmt überproportional zu.
8. Man kann von daher den Eindruck gewinnen, dass das Problem der biologischen Evolution in der aktuellen Phase immer mehr zu einem Problem der ‚angemessenen kognitiven Repräsentation‘ wird, gekoppelt an entsprechende ‚koordinierende Prozesse‘. Moderne Technologien (speziell hier Computer und Computernetzwerke) haben zwar einerseits das Repräsentieren und die ‚Gemeinsamkeit‘ des Repräsentierten dramatisch erhöht, aber die kognitiven Prozesse in den individuellen biologischen Systemen hat nicht in gleicher Weise zugenommen. Sogenannte soziale Netze haben zwar gewisse ‚Synchronisationseffekte‘ (d.h. immer mehr Gehirne werden auf diese Weise ‚kognitive gleichgeschaltet), was den Aufbau eines ‚kognitiven WIRs‘ begünstigt, aber durch den limitierenden Faktor der beteiligten individuellen Gehirne kann die Komplexität der Verarbeitung in solchen sozialen Netzen nie sehr hoch werden. Es bilden sich ‚kognitive WIR-Modell Attraktoren‘ auf niedrigem Niveau heraus, die die beteiligten als ‚kognitiv angenehm‘ empfinden können, die aber die tatsächlichen Herausforderungen ausklammern.

OPTIMIERUNG VON KOGNITIVEN WIR-MODELLEN

9. An dieser Stelle wäre auch die Rolle der offiziellen Bildungsinstitutionen (Kindergarten, Schule, Betrieb, Hochschule…), zu reflektieren. In welchem Sinne sind sie bereit und fähig, zu einer Verbesserung der kognitiven WIR-Modelle beizutragen?
10. Das Problem der ‚Optimierung‘ der kognitiven Selbstmodelle verschärft sich dadurch, dass man allgemein einen Sachverhalt X nur dann optimieren kann, wenn man einen Rahmen Y kennt, in den man X so einordnen kann, dass man weiß, wie man unter Voraussetzung des Rahmens Y einen Sachverhalt X zu einem Sachverhalt X+ optimieren kann. Der ‚Rahmen‘ ist quasi ein ‚kognitives Meta-Modell‘, das einen erst in die Lage versetzt, ein konkretes Objekt-Modell zu erarbeiten. Im Alltag sind diese ‚Rahmen‘ bzw. ‚Meta-Modelle‘ die ‚Spielregeln‘, nach denen wir vorgehen. In jeder Gesellschaft ist grundlegend (oft implizit, ’stillschweigend‘) geregelt, wann und wie eine Person A mit einer Person B reden kann. Nicht jeder darf mit jedem zu jedem Zeitpunkt über alles reden. Es gibt feste Rituale; verletzt man diese, kann dies weitreichende Folgen haben, bis hin zum Ausschluss aus allen sozialen Netzen.
11. Sollen also die kognitiven WIR-Modelle im großen Stil optimiert werden, brauchen wir geeignete Meta-Modelle (Spielregeln), wie wir dies gemeinsam tun können. Einfache Lösungen dürfte in diesem komplexen Umfeld kaum geben; zu viele Beteiligten und zu viele unterschiedliche Interessen sind hier zu koordinieren, dazu ist die Sache selbst maximal komplex: es gibt — nach heutigem Wissensstand — kein komplexeres Objekt im ganzen Universum wie das menschliche Gehirn. Das Gehirn ist so komplex, dass es sich prinzipiell nicht selbst verstehen kann (mathematischer Sachverhalt), selbst wenn es alle seine eigenen Zustände kennen würde (was aber nicht der Fall ist und auch niemals der Fall sein kann). Die Koordinierung von Gehirnen durch Gehirne ist von daher eigentlich eine mathematisch unlösbare Aufgabe. Dass es dennoch bis jetzt überhaupt soweit funktioniert hat, erscheint nur möglich, weil es möglicherweise ‚hinter‘ den beobachtbaren Phänomenen Gesetzmäßigkeiten gibt, die ‚begünstigen‘, diese unfassbare Komplexität partiell, lokal ‚einzuschränken‘.

Ein Überblück über alle Blogeinträge nach Themen findet sich HIER

MENSCHENBILD IM WANDEL – Vortrag 24.Nov.2011

In Ergänzung zu diesem Block findet ein öffentlicher Vortrag statt:

Vortragsankündigung

GOTT MISSBRAUCHEN

(1) Insofern es ‚Gott‘ als ‚Erstes‘, ‚Höchstes‘, ‚Lebenswertestes‘ usw. gibt, ist die Art und Weise, wie Menschen über dieses ‚Erste‘, ‚Höchste‘ usw. reden, nicht ganz egal. Es ist eine reale Möglichkeit, dass Menschen über ‚Gott‘ in einer Art und Weise reden, die die Sache ‚Gottes‘  ‚falsch‘ darstellt. Es ist eine reale Möglichkeit, dass Menschen ihre individuellen Bilder  und Interessen haben, die NICHT die Sache Gottes sind, und dass diese Menschen etwas ganz und gar Falsches und Schlechtes als die Sache Gottes vorgeben.

(2) Insofern ‚Gott‘ der ‚Schöpfer‘ von allem ist, kann man das ‚Ganze‘, zu dem zwangsläufig auch das Universum gehört, nicht gegen Gott ausspielen! Wer sich für den REALEN Gott interessiert, der muss sich auch für das REALE Universum interessieren. Das Wissen um das Universum, das Wissen um die REALE Welt, kann in keiner Weise gegen Gott gerichtet sein, sondern ist ein solches Wissen, das das ‚wahre Wesen‘ Gottes in diesem Bereich (der möglicherweise nur ein Teil ist) ‚enthüllt‘.

(3) Wer ‚Gott‘ suchen will, muss sich davor hüten, den ‚falschen‘ Bildern hinterher zu laufen, muss sich vor den ‚falschen‘ (natürlicherweise ’selbsternannten‘) Propheten hüten. Nur weil einer behauptet, ‚über Gott‘ zu sprechen, muss er nicht wirklich ‚im Namen Gottes‘ sprechen; nur weil jemand besonders ‚laut‘ und ‚radikal‘ auftritt, ist er nicht automatisch ein ‚wahrer‘ Verkünder. Salbungsvolle Worte, das Drücken auf die Tränendrüsen, stimmungsvolle Inszenierungen, das Einfordern von Hab und Gut, die Einschränkungen von persönlichen Freiheiten, das Verbieten anderer Denkweisen, der Appell an eine formale Autorität, das Schlecht-Reden anderer Menschen, all dies sind Gegebenheiten, die mehr als nur besondere Aufmerksamkeit fordern.

(4) Natürlich kann es passieren, dass Menschen ‚über Gott‘ sprechen und diese sind subjektiv sogar der Meinung, dass das, was sie sagen, auch ‚wirklich wahr‘ sei (obwohl es tatsächlich falsch ist). Dies ist ein schwieriger Fall. Woran können diese Menschen ‚erkennen‘, dass ihr ‚Bild von Gott‘ falsch ist? Sind Sie sich selbst bewusst, dass Sie sich selbst ‚irren‘ können?

(5) Wir als Menschen sind zwar einerseits ein unauflöslicher Teil des umspannenden Phänomen des Lebens auf dem Planeten Erde, wir weisen aber auch die Besonderheit auf, dass unsere Körper ein Gehirn besitzen, das uns in die Lage versetzt, kontinuierlich (und ‚vollautomatisch‘) ‚Bilder‘ von uns selbst und der umgebenden Welt zu haben. Diese Bilder –soviel wissen wir heute– sind nicht die Welt selbst, sondern –wie das Wort schon sagt– sind ‚Bilder‘, ‚Konstruktionen‘ unseres Gehirns auf der Basis der Ereignisse, die unsere Sinnesorgane von den Ereignissen ‚außerhalb‘   und ‚innerhalb‘ unseres eigenen Körpers liefern. Für einfache Verhaltensweisen (wie z.B. sich richtig bewegen) sind diese Bilder ausreichend geeignet. Für kompliziertere Sachverhalte sind diese Bilder schnell ‚unscharf‘, ‚missverständlich‘, ‚falsch‘.  Wer ernsthaft daran interessiert ist, dass diese seine eigenen Bilder von der Welt (und sich selbst) möglichst wenig ‚falsch‘ sind, ist herausgefordert, sich darum zu kümmern, wie er sich selbst vor der ‚Falschheit seiner eigenen Bilder‘ ’schützt‘.

(6) Die grundlegende Herausforderung besteht darin, dass jeder die ‚automatisch erstellten Bilder‘ ‚in seinem eigenen Kopf‘ auf auch für andere nachvollziebare, transparente Weise mit den Gegebenheiten seines eigenen Körpers und den Gegebenheiten außerhalb seines Körpers  ‚vergleicht‘. In manchen Fällen ist dies einfach (z.B. bei der Frage, ob das Geld für alle eingekauften Lebensmittel ausreichend ist), in anderen Fällen kann dies beliebig schwierig werden (dreht sich die Erde um die Sonne oder die Sonne um die Erde; ist das Elektron eine Welle oder ein Teilchen….). Von daher ist es vielleicht kein Zufall, dass sich das, was wir neuzeitliche Wissenschaft nennen, erst mit dem Jahrhundert Galileis so langsam zu entwickeln begann und es mehrere hundert Jahre gebraucht hat, bis die sogenannten Methoden der empirischen Wissenschaften ansatzweise ‚global‘ bekannt sind und auch angewendet werden. Dass aber selbst mehr als 400 Jahre nach Galilei  mindestens die Hälfte aller Menschen diese Methoden immer noch nicht wirklich kennt und verstanden hat und diese sogar als ‚Bedrohung‘ der eigenen Bilder von der ‚Welt‘ und von ‚Gott‘ empfindet, zeigt, wie schwer wir Menschen uns tun, die Besonderheiten unseres menschlichen Wissens soweit zu verstehen, dass wir verstehen, warum und wie unser aktuelles Wissen immerwährend gefährdet und vom Ansatz her eher falsch als richtig ist (und zwar gerade da und dort, wo es ‚interessant‘ wird).

(7) Dass jemand ‚falsche‘ Bilder in seinem Kopf mit sich herum trägt ist von daher wahrscheinlicher als dass er ‚richtige‘ Bilder hat. Den ‚wahrheitsliebenden‘ Menschen (Philosoph = philos, sophia = Freund der Weisheit) kann man vor diesem Hintergrund daran erkennen, dass er um seine grundsätzliche und andauernde ‚Bedrohung‘ durch ‚falsche‘ Bilder weiß und er grundsätzlich offen dafür ist, sich von anderen ‚Rat‘ zu holen, sich mit anderen abzustimmen, seinen Wissen immer und immer wieder neu bei jeder sich bietenden Gelegenheit zu überprüfen. Ein wahrer Philosoph würde NIEMALS behaupten, er sei im Besitz der Wahrheit!!!, weil er weiß, dass ‚wahre Wahrheit ein kontinuierlicher Prozess der Annäherung der subjektiven Bilder an die Gegebenheiten jenseits des Gehirns ist, und dieser Prozess ist solange unvollendet, als wir Erkenntnissuchende in diesem konkreten Körper mit diesem konkreten Gehirn sind.

(8) Solange Menschen um diese ihre ‚ihnen innewohnende‘ Unvollkommenheit wissen, sich aber gegenseitig wert schätzen und sich wechselseitig helfen, die individuellen Unvollkommenheiten durch gemeinsame Verständigung ‚auszugleichen‘, sind Menschen zu erstaunlichen Erkenntnissen und darauf aufbauenden (komplexen) Handlungen fähig. Das Gebäude der neuzeitlichen Wissenschaft mit der damit verwobenen Technologie und vielfältigsten ökonomischen, sozialen, politischen, kulturellen und sonstigen Leistungen ist atemberaubend (insbesondere, wenn man dies auf einer Zeitachse betrachtet und sieht, wie viele tausende, zehntausende und gar hundert tausende Jahre nichts Vergleichbares stattgefunden hat). Verkennen wir Menschen  aber unsere individuellen Grenzen und Unvollkommenheiten, dann verfestigen sich Fehler, Unvollkommenheiten, Falschheiten, verstärken sich sogar und führend zwangsläufig zu falschen Bildern, nicht selten dann sogar zu Unheil.

(9) Die ‚Liebe zur Wahrheit‘ (wahre Philosophie) verlangt also aufgrund der Art und Weise, wie wir Menschen ‚gebaut‘ sind, dass wir nicht nur um unsere eingebauten Grenzen und Unvollkommenheiten wissen, sondern dass wir auch  mit diesen Grenzen und Unvollkommenheiten in der rechten Weise umgehen. Es gibt KEIN EINZIGES BILD (kein einziger Gedanke) in unserem Kopf, der einfach AUS SICH HERAUS ‚wahr‘ ist. ALLE unsere Bilder (Gedanken) sind Konstruktionen unseres Gehirns, die letztlich (am besten mehrfach, und immer wieder) überprüft werden sollten. In diesem Zusammenhang führt ‚Selbstverliebtheit‘, ‚Eitelkeit‘, ‚Hochmut‘ und dergleichen mehr direkt und unweigerlich in die ‚Nacht der falschen Bilder‘.

(10) Es gab –und gibt– immer wieder Menschen, die an das ‚Wunder der direkten umfassenden Wahrheit‘ glauben. Sie glauben (‚Intuition‘, ‚Genie‘, ‚Offenbarung‘,…), sie könnten den langen beschwerlichen Weg der Erkenntnis, bei dem jeder allen anderen ‚dient‘ (und damit umgekehrt von allen anderen sehr viel bekommt) durch etwas ‚Wundersames‘ umgehen; durch den ‚großen Trick‘, durch das ‚Wunder schlechthin‘, durch ‚Magie‘, durch ‚Zauber‘, usw. Dies alles scheint –nach heutigem Wissen–  falsch zu sein.

(11) ALLE Menschen sind ‚Blüten‘ am ‚Baum‘ des Lebens auf dem Planeten Erde, wo schon die materielle Struktur dieses Lebens das bisherige menschliche Begreifen überfordert und bislang nur Raum für grenzenloses Staunen und Wundern läßt. Das Durchdringen der erkennbaren materiellen Strukturen und ihrer atemberaubenden Dynamik von ’scheinbarer Planlosigkeit‘ hin zu immer komplexeren Strukturen, die jeder mathematischen  ‚Zufälligkeit‘  ‚zuwiderlaufen‘, dieses ‚geistige Durchdringen‘ in Richtung eines ‚tieferen‘ und ‚umfassenderen‘ Verstehens hat bislang kaum begonnen. Viele (die meisten?) Menschen sind noch so sehr mit den ‚alten‘ und ‚falschen‘ Bildern in ihrem Kopf beschäftigt, dass sie die atemberaubende Perspektive eines umfassenden Lebensprozesses noch nicht einmal ansatzweise wahrgenommen haben. Manche reden von ‚Gott‘ als dem ‚Schöpfer‘ von allem, haben sich aber noch nie mit der Schöpfung so beschäftigt, dass Sie zu ahnen beginnen könnten, wie ‚in‘ und ‚hinter‘ dem Allem die ewige Präsenz des wahren Schöpfers spürbar wird, der soweit all unseren kleinlichen und unvollkommenen Bilder des Lebens übersteigt, dass das Reden eines einzelnen Menschen über ‚den‘ Schöpfer zwangsläufig zu einer Karikatur zu werden droht, die mehr ‚falsch‘ als ‚wahr‘ ist.

(12) Es gehört zum Geheimnis des Lebens, dass der einzelne angesichts des großen Ganzen wie ‚Nichts‘ erscheint, dass aber das große Ganze ohne jeden einzelnen tatsächlich Nichts ist…..

(13) Ein weiteres Geheimnis ist, dass niemand gezwungen ist, die Wahrheit zu suchen (eine Form von ‚Freiheit zur Unwahrheit’…); ohne die Wahrheit kann das Leben auf dem Planeten Erde allerdings untergehen….

ZUR GRAMMATIK DES SINNS (1)

(1) In dem Blogeintrag „Wir  sind nicht Nichts“ wird sichtbar, dass wir allein durch die Tatsache, dass wir aktuell leben,
an einem  Geschehen teilhaben, das dessen Tragweite und Tiefe alles übersteigt, was wir normalerweise denken und
 kommunizieren.

(2) Der mögliche ‚Sinn‘ dieses Geschehens, also ein möglicher ‚Zusammenhang‘ zwischen all den vielen ‚Aspekten‘ dieses
geradezu kosmischen Prozesses, enthüllt sich für uns Menschen –wenn überhaupt– zunächst nur als individuelles Erleben
 und Verstehen, d.h. als Erleben und Verstehen in einem einzelnen Menschen. Dies heisst NICHT, dass das Erleben und
Verstehen eines einzelnen Menschen die ’sinnbegründenden‘ Sachverhalte allererst ’schafft‘, sondern nur, dass diese
 ’sinnbegründenden‘ Sachverhalte in dem Moment des Erkennens in diesem jeweiligen Erkennen ‚bewusst‘ werden. ‚Bewusst‘
werden kann nur etwas, was schon ‚da‘ ist und in seinem Dasein ’so wirksam‘ ist, dass es ein ‚Bewusstwerden‘ bewirken kann.

(3) Darüberhinaus kann ein Sachverhalt, der eine ‚Bewusstwerdung‘ auslösen kann, diese Bewusstwerdung in mehr als einem
einzelnen Menschen zugleich auslösen; ein Sonnenaufgang (oder Untergang) kann von vielen Menschen ‚gleichzeitig‘
wahrgenommen werden, wenn Sie sich ‚im Moment des Geschehens‘ an einem ‚geeigneten Ort‘ befinden.

(4) Schon diese wenigen Gedanken lassem nebenbei erkennen, dass sich Bewusstwerdung bei Menschen mit ‚Körperlichkeit‘ paart: unser Erleben setzt eine irgenwie geartete Körperlichkeit voraus, dazu eine ‚Raumstruktur‘, und eine ‚Gerichtetheit‘ von Ereignissen als
‚Jetzt‘ und ‚Vor dem Jetzt‘ (‚vorher‘, ‚vergangen‘ als ‚Erinnerbares‘).

(5) Aufgrund unserer ‚Lebenserfahrung‘ wissen wir,  wie ‚unterschiedlich‘ einzelne Menschen das allgemeine Leben trotz
der vielen strukturellen Gemeinsamkeiten mit anderen Menschen erfahren können. Jeder ‚einzelne‘ Mensch nimmt in der
Raumstruktur des Erlebens einen charakteristischen individuellen ‚Ort‘ ein, von dem aus er die ‚umgebende Welt‘ in
einer Weise erfährt, die sich absolut von der ‚Erlebnisspur‘ eines anderen Menschen unterscheidet.

(6) Eine ‚individuelle Erlebnisspur‘ enthält ‚externe‘  und ‚interne‘ Anteile: ‚extern‘ insofern ‚etwas‘ auf das
individuelle Erleben einwirkt, und ‚intern‘, insofern diese Einwirkungen ‚Wirkungen hervorrufen‘, die den einzelnen
Menschen in seinem ‚Erinnern‘ und ‚Fühlen‘ prägen.

(7) ‚Im‘ Erleben des einzelnen Menschen ‚mischen‘ sich die internen und externen Anteile kontinuierlich; je mehr
‚Erfahrung‘ jemand hat, umso mehr beeinflussen die ‚vorhandenen‘  internen Anteile die aktuell einwirkenden Anteile.
 Dies kann ‚hilfreich‘ sein, wenn ‚bisherige Erfahrung‘ das ‚aktuell Erlebte‘ in ‚geeigneter‘ Weise ‚einordnet‘; dies
kann ‚hinderlich‘ sein wenn die bisherigen Erfahrungen irgendwie ‚verzerrt‘ sind und altuelles Erleben ‚falsch‘
‚interpretiert‘.

(8) Aufgrund unserer ‚Lebenserfahrung‘ wissen wir ferner, dass es zwischen dem Erleben verschiedener einzelner Menschen
eine Art ‚Austausch‘ durch ‚Kommunikation‘ geben kann.

(9) Kommunikation besagt, dass verschiedene Menschen über ein ‚Zeichensystem‘ (‚Sprache‘ L)verfügen, das in der Lage ist, Aspekte des individuellen Erlebens mittels ‚intersubjektivem (= externen) Zeichenmaterial‘ so zu ‚repräsentieren‘, dass ein individuelles Erleben A bestimmte Erlebnisse von A mit einer ‚Zeichenfolge‘ Z so ‚enkodieren‘ kann (enkodieren: A –> Z), dass ein anderes individuelles
Erleben B diese Zeichenfolge Z so ‚dekodieren‘ kann (dekodieren: Z –> B), dass das Erleben in B eine ‚hinreichende Ähnlichkeit‘ mit dem Erleben von A aufweist  SIMILARITY(Z(A),Z(B)).

(10)  Das grösste Problem in der zeichenbasierten (= ’sprachlichen‘) Kommunikation ist die Herstellung dieser Ähnlichkeit SIMILARITY() sowie die ’subjektive Vergewisserung‘, dass solch eine Ähnlichkeit in ‚hinreichendem Masse vorliegt.

(11) Da kein einzelner Mensch (unter ’normalen‘ Umständen),  in das Erleben eines anderen Menschen ‚direkt hineinschauen‘ kann, kann sich kein einzelner Mensch so ohne weiteres ’sicher‘ sein, dass der andere Mensch beim Gebrauch eines bestimmten Zeichenmaterials Z  (als Teil einer Sprache L) tatsächlich das ‚Gleiche‘ ‚meint‘ wie ‚er selbst‘.

(12) Zu solch einer ‚Vergewisserung‘ der ‚gemeinsamen Ähnlichkeit‘ SIMILARITY() bedarf es ‚Formen von Interaktion‘,
die ‚unabhängig‘ von dem Zeicensystem (von der Sprache L) sind, die aber zugleich  geeignet sind, die ‚Vermutung einer Ähnlichkeit‘ zu ‚unterstützen‘. Dies berührt das Problem der ‚Entstehung von Sprache‘: wie ist es möglich, dass Menschen neues Zeichenmaterial Z als Teil von L so ‚einführen‘, dass sie ’sicher‘ sein können, dass ‚alle Benutzer von L‘ ‚das Gleiche‘ ‚meinen‘?

(13) Im Falle von ‚externen Ereignissen‘, die ‚wiederholbar‘ sind und die von allen Beteiligten ‚hinreichend ähnlich wahrgenommen werden können‘, erscheint die Einführung einer ‚Verbindung‘ von ‚erlebnisauslösendem Ereignis E‘, ‚korrespondierendem Erleben Ph‘ sowie ‚repräsentierendem Zeichen Z‘ ansatzweise ’nachvollziehbar‘. Ein ‚Zeichen‘ SYMB wäre dann diese komplexe Beziehung als ganzer, d.h. ein repräsentierendes Zeichen SYMB(E,Z,Ph) ist eine Beziehung zwischen E und Z und Ph, die als diese Beziehung ‚bewusst‘ ist und als solche ‚erinnert‘ werden kann (diese Überlegungen finden sich u.a. bei den grossen Semiotikern Charles S.Peirce und Charles Morris, aber auch schon bei früheren Philosphen der Scholastik und zumindest auch bei griechischen Philosophen).

(14) Man kann ahnen, dass die Realisierung eines solchen Zeichenbegriffs in der Praxis eine sehr komplexe ‚Maschinerie‘ voraussetzt, dier hier vorläufig kein Thema sein soll (hier wären all die schönen Dinge einschlägig, die wir aus den Sprachwissenschaften kennen, der Psychologie, der Ethologie, den Neurowissenschaften, der Phonetik, der Anthropologie, der Automatentheorie usw.).

(15) Nehmen wir also an, dass Menschen in der Lage sind, repräsentierende Zeichen SYMB_i(E,Z,Ph) einzuführen, denen jeweils korrespondierende ‚erinnerbare interne Strukturen‘ SYMB_i()_x entsprechen (‚SYMB_i()_x‘ wäre dann das repräsentierende Symbol i, das von dem Individuum x erinnert werden kann). Dann wäre ein Menschen A in der Lage, internes Erleben Ph, zu dem es ein erinnerbares repräsentierendes Symbol SYMB_i(_,Z,Ph)_A gibt, mittels eines kodierenden Zeichenmaterials Z zu ‚äussern‘, und ein anderer Mensch B könnte mittels des Zeichenmaterials Z sein erinnerbares Zeichen SYMB_i(_,Z,Ph)_B ‚erinnern‘. Er würde dann ‚annehmen‘, dass das bei B durch Z induzierte Erleben Ph dem entspricht, was den A veranlasst hat, Z zu äussern.

(16) Schwieriger –bis unmöglich– wird es, wenn Menschen repräsentierende Zeichen für solches Erleben einführen wollen, dem keine direkten ‚intersubjektiven‘ Ereignisse korrespondieren (was aber sehr umfangreich geschieht).

Zwischenergebnis 1:
(i) Individuelles Erleben ist möglich, weil es etwas dem Erleben Externes gibt, was dieses Erleben auslöst
(ii) Sofern die Einführung repräsentierender Zeichen gelingt, können Individuen Teile ihres Erlebens
durch solche Zeichen ‚kommunizieren‘

(17) Was immer es an ’sinnrelevanten‘ Zusammenhängen in dem für uns relevanten Teil des Kosmos geben mag, werden wir davon nur dann und nur soviel ‚erfahren‘, insoweit diese Zusammenhänge unserem individuellen Erleben und unserer symbolischer Kommunikation  zugänglich werden. Sofern wir ein ‚Fehlen‘ von Sinn in unserem Erleben und Kommunizieren konstatieren würden, würde dies zunächst nicht besagen, dass es keinen Sinn gibt, sondern nur, dass derjenige, der dieses Fehlen konstatiert, bislang nicht in der Lage war, sein Erleben  entsprechenden ’sinnstiftenden‘ Sachverhalten in Berührung zu bringen.

(18) Ergänzend wäre anzumerken, dass der ‚Kontakt‘ mit sinnstiftenden Sachverhalten sogar stattgefunden haben kann, dass aber die ‚Art und Weise‘, wie dieses Erleben ‚kognitiv verarbeitet‘ wurde, nicht in der Lage war, die  ’sinnrelevanten Anteile‘ zu ‚erkennen‘. Erkennen ist (man lese die entsprechenden Einträge im Blog) kein völlig automatischer immer gleichförmiger Prozess, sondern ein komplexes dynamisches Geschehen, das bei gleicher Wahrnehmungslage zu gänzlich unterschiedlichen Ergebnissen kommen kann, je nachdem, ‚wie‘ jemand ‚aktiv denkt‘.

(19) Eine Feststellung, dass ‚Sinn‘ für uns ’nicht möglich‘ sei, ist unter Voraussetzung dieser Erkenntislage für uns prinzipiell nicht möglich. Wir können entweder nur feststellen, dass wir ’noch nicht‘ in der Lage sind, einen Sinn explizit zu benennen oder eben, dass uns bestimmte Sachverhalte als für uns ’sinnvoll‘ erscheinen.

(20) Hier wäre jetzt zu klären ob und wieweit wir ‚mögliche sinnvollen Sachverhalte‘ konkret, beispielhaft  identifizieren  können.