Archiv der Kategorie: Subjektivität

POPPER: FRÜH – MITTEL – SPÄT. Empirische Theorie

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 13.März 2022 – 13.März, 11:11h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Kontext

Bei diesem Beitrag handelt es sich um die Fortsetzung des Diskurses zu den zuvor besprochenen Artikeln von Popper:  „A World of Propensities“ (1988, 1990),  „Towards an Evolutionary Theory of Knowledge“ (1989,1990)[1] sowie „All Life is Problem Solving“ (1991, 1994/1999). [2] Der Beitrag „(SPÄTER) POPPER – WISSENSCHAFT – PHILOSOPHIE – OKSIMO-DISKURSRAUM“ spielt hier keine Rolle. Es wird aber direkt Bezug genommen auf einen Text von Popper von 1971 „Conjectural Knowledge: My Solution of the Problem of Induction.“[3],[4] Dieser wurde in meinem Englischen Blog diskutiert „POPPER – Objective Knowledge (1971). Summary, Comments, how to develope further„.

Vorbemerkung

Die Begegnung des Autors mit Popper spielt sich in unterschiedlichen Etappen ab. Die erste Begegnung fand statt im März 2021 mit einer Diskussion der ersten 17 Kapitel von Popper’s Frühwerk „Logik der Forschung“ (1935), allerdings in der Englischen Fassung von 1959.[5] Diese erste Begegnung war eingebettet in eine größere Diskussion (mehrere längere Posts) zum Theoriebegriff und dem Zusammenhang mit dem oksimo Projekt.

In dieser ersten Begegnung wurde die Position Poppers vornehmlich wahrgenommen aus einer bestimmten, schon bestehenden wissenschaftsphilosophischen Perspektive, zusätzlich eingefärbt durch den Blick auf die Anwendbarkeit dieses Theoriebegriffs auf das oksimo Projekt. Wenngleich für den Autor in vielfacher Hinsicht sehr erhellend, kommt die Position Popper’s nicht so richtig zum Vorschein.

Erste die Lektüre von drei Beiträgen Popper’s aus der Zeit 1988 – 1991 führte zu einer neuen mehr Popper-zentrierten Wahrnehmung. In diesem Spannungsfeld von ‚frühem‘ Popper 1935/1959 und ’spätem‘ Popper 1988 – 1991 führte die Begegnung mit dem Text des ‚mittleren‘ Popper von 1971 zu einer sehr direkten Begegnung, die die Gedanken zu Popper weiter belebten.

Popper: Früh – Mittel – Spät

Die hier provisorisch vorgenommene Einordnung Poppers in einen ‚frühe‘, bzw. ‚mittleren‘ bzw. ’späten‘ Popper ist natürlich — gemessen an dem gesamten Werk Poppers ein bisschen gewagt. Dies entspricht aber letztlich dem Stil einer Theoriebildung im Sinne von Popper, in der — ausgehend von einzelnen Beobachtungen –, schrittweise Hypothesen gebildet werden, die dann versuchsweise angewendet werden. Im Scheitern bzw. in partiellen Bestätigungen entwickelt sich dann solch eine Theorie weiter. Eine ‚absolute Endform‘ wird sie nie haben, aber sie kann immer differenzierter werden, begleitet von immer stärkeren ‚Evidenzen‘, die allerdings ‚Wahrheit‘ niemals ersetzen können.

So also hier eine meine ‚Mini-Theorie‘ über Popper anhand von nur vier Artikeln und 17 Kapiteln aus einem Buch.

Bei meiner bisherigen Lektüre entsteht der Eindruck, dass die Strukturen des ‚frühen‘ (1935 – 1959) Popper denen des mittleren‘ (1971) Popper sehr ähnlich sind. Die Texte des ’späten‘ (1988 – 1991) Popper hingegen bringen einen starken neuen Akzent in die Überlegungen ein.

Wahrheit ohne Wahrheit

Ein Grundthema des frühen und mittleren Popper ist einerseits die starke Betonung, dass ‚Wahrheit‘ — zumindest als ‚regulative Idee‘ — unverzichtbar ist, soll empirische Wissenschaft stattfinden, andererseits aber sein unermüdliches Bemühen, darauf hinzuweisen, dass die Aussagen einer Theorie, selbst wenn sie sich eine lange Zeit ‚bewährt‘ haben, dennoch keine ‚absolute Wahrheit‘ widerspiegeln; sie können jederzeit widerlegt werden.[6] Diese Position führt ‚aus sich heraus‘ natürlich zu der Frage, was denn ‚Wahrheit als regulative Idee‘ ist bzw. zu der komplementären Frage, welchen ‚Status‘ dann jene Aussagen haben, auf die Theorieentwürfe aufbauen. Was ist eine ‚Beobachtungsausage‘ (Spezialfall ein ‚Messwert‘), die zum Ausgangspunkt von Theorien werden?

Poppers Prozessmodell von Wahrheit

Man kann Poppers Konzept einer objektiven (= ‚wahren‘) empirischen Theorie von ihren ‚Bestandteilen‘ her als ein ‚Prozessmodell‘ rekonstruieren, in dem sich — auf eine nicht wirklich geklärte Weise — beobachtungsgestützte Aussagen mit einem formalen Konzept von Logik ‚vereinen‘. Details dazu finden sich in einem Englischen Blogbeitrag des Autors.

Popper löst das Problem der notwendigen Wahrheit, die eigentlich nicht da ist, aber irgendwie dann doch, indem er in seinem 1971-Text [4] die einzelnen Aspekte dieses Wahrheitsbegriffs schildert und sie dann auf den letzten Seiten (29-31) wie in einem ‚Puzzle‘ zusammenfügt, allerdings so, dass viele Details offen bleiben.

Primären Halt in der empirischen Realität bieten Beobachtungssätze, die im Fall der Überprüfung einer Theorie, die Rolle von ‚Testsätzen‘ übernehmen. Die Theorie selbst besteht aus einer Ansammlung von ‚Hypothesen‘ (‚conjectures‘), in denen einzelne Beobachtungsaussagen zueinander in Beziehung gesetzt werden, die als solche natürlich nicht beobachtet (‚gemessen‘) werden können.[7]

Bei dem Übergang vom ‚Beobachtungswert‘ (‚Messwert‘) zur ‚Hypothese‘ finden aber unweigerlich ‚Verallgemeinerungen‘ statt [8], die dann sprachlich repräsentiert werden. Nur die ‚teilnehmenden‘ Beobachter wissen ‚implizit‘, auf welches konkrete Ereignis sie sich mit ihren sprachlichen Ausdrücken beziehen. Der Versuch der Wissenschaft, dieses Problem des ‚impliziten‘ (= subjektiven)‘ Wissens durch vereinbarte Messprozeduren aufzulösen, hilft nur partiell. Das Zustandekommen des Beobachtungsereignisses wird damit zwar ‚objektiviert‘, aber die ‚Übersetzung‘ dieses objektivierten Ereignisses, das als Wahrnehmungsphänomen bei den teilnehmden Beobachtern ‚ankommt‘, wird im Beobachter ‚unbewusst‘ zu einem Konzept verarbeitet, dass dann in einen sprachlichen Ausdruck transformiert wird, der dann als Beobachtungsaussage ‚funktioniert‘. Alle, die an diesem ‚Spiel‘ [9] teilnehmen, wissen, wie sie sich verhalten sollen. Ein ‚Außenstehender‘ versteht es nicht automatisch.

Anders betrachtet, selbst objektivierenden Beobachtungsprozesse klammern die subjektvie Komponenten nicht völlig aus.

Hat man verallgemeinernde Beobachtungsaussagen („Der Main-Kinzig Kreis hat 2018 418.950 Einwohner.“, „Dieser Stein wiegt 4.5 kg.“, „Das Wasser hat eine Temperatur von 13 Grad Celsius.“) , dann kann man auf dieser Basis versuchen, Hypothesen zu bilden (z.B. bzgl. des Aspektes möglicher Veränderungen wie Einwohnerzahl, Länge, Temperatur). Im Fall der Einwohnerzahl bräuchte man dann z.B. Beobachtungen zu mindestens zwei verschiedenen Zeitpunkten‘ (2018, 2019)[14], um aus der ‚Differenz‘ Hinweise ‚abzuleiten‘, welches Ausmaß ein ‚Wachstumsfaktor‘ haben könnte. Im Fall des Main-Kinzig Kreises wird für diesen Zeitraum z.B. ein Wachstumsfaktor von 0.4% ermittelt.

Wie ist solch ein ‚abgeleiteter Wachstumsfaktor‘ einzuordnen? Er beschreibt eine ‚abgeleitete‘ Größe, mit der man eine Formel bilden könnte wie ‚Die Einwohnerzahl im Jahr t+1 = Einwohnerzahl im Jahr t + (Einwohnerzahl im Jahr t * Wachstumsfaktor). Dies ist eine Rechenanweisung, die mit beobachteten Größen (Einwohnerzahl) und daraus abgeleiteten mathematischen Eigenschaften (Wachstumsfaktor) eine ‚Voraussage‘ berechnen lässt, wie die Einwohnerzahl in nachfolgenden Jahren aussehen [14] würde, wenn der Wachstumsfaktor sich nicht verändern würde.

Klar ist, dass solch ein sprachlicher Ausdruck seine Bedeutung aus dem ‚Bedeutungswissen‘ der Teilnehmer bezieht. Der Ausdruck selbst ist nichts anderes als eine Menge von Zeichen, linear angeordnet. Also auch hier eine fundamentale ’subjektive Dimension‘ als Voraussetzung für ein ‚objektives Agieren‘.

Diese Aspekte sprachlicher Bedeutung und deren Verankerung in der inneren Struktur der Beobachter und Theoriebauer [10] diskutiert Popper nicht explizit. Wohl postuliert er eine ‚Logik‘, die die ‚Herleitung‘ von Prognosen aus den theoretischen Annahmen beschreiben soll.

Die moderne formale Logik hat viele wunderbare Eigenschaften, aber eines hat sie nicht: irgendeinen Bezug zu irgendeiner Bedeutung‘. In einem formalen Logikkalkül [11] gibt es eine Menge von formalen Ausdrücken, die als ‚Annahmen‘ funktionieren sollen, und das einzige, was man von diesen wissen muss, ist, ob sie als ‚wahr‘ eingestuft werden (was bei Annahmen der Fall ist). Was mit ‚wahr inhaltlich gemeint ist, ist aber völlig unbestimmt, zumal formale Ausdrücke als solche keine Bedeutung haben. Wenn es eine Bedeutung geben soll, dann muss man die formalen Ausdrücke an die ’subjektive Bedeutungsdimension der Teilnehmer‘ knüpfen, die nach Bedarf spezielle Messverfahren zu Hilfe nehmen.

Angenommen, man hat die ‚formalisierten Ausdrücke‘ mit den verallgemeinerten Aussagen der Hypothesen verknüpft [12] und man nutzt die Logik, um ‚Ableitungen‘ zu machen, die zu ‚Prognosen‘ führen[13], dann stellt sich das Problem, wie man das Verhältnis einer ‚abgeleiteten‘ Aussage zu einer ‚Beobachtungsaussage‘ bestimmten soll. Popper benutzt hier zwar Klassifikationen wie ‚bestätigend‘, ’nicht bestätigend‘, ‚falsifiziert‘, aber eine Diskussion im Detail zu „A bestätigt B“/ „A bestätigt B nicht“/ „A falsifiziert B“ scheitert an vielen ungeklärten Details und Randbedingungen, die im vorausgehenden Text nur angedeutet werden konnten.

Der Diskurs geht weiter.

Kommentare

[1] Karl Popper, „A World of Propensities“,(1988) sowie „Towards an Evolutionary Theory of Knowledge“, (1989) in: Karl Popper, „A World of Propensities“, Thoemmes Press, Bristol, (1990, repr. 1995)

[2] Karl Popper, „All Life is Problem Solving“, Artikel, ursprünglich ein Vortrag 1991 auf Deutsch, erstmalig publiziert in dem Buch (auf Deutsch) „Alles Leben ist Problemlösen“ (1994), dann in dem Buch (auf Englisch) „All Life is Problem Solving“, 1999, Routledge, Taylor & Francis Group, London – New York

[3] Karl R.Popper, Conjectural Knowledge: My Solution of the Problem of Induction, in: [2], pp.1-31

[4] Karl R.Popper, Objective Knowledge. An Evolutionary Approach, Oxford University Press, London, 1972 (reprint with corrections 1973)

[5] Karl Popper, The Logic of Scientific Discovery, First published 1935 in German as Logik der Forschung, then 1959 in English by  Basic Books, New York (more editions have been published  later; I am using the eBook version of Routledge (2002))

[6] Popper verweist hier gerne und häufig auf die Geschichte der Physik mit den unterschiedlichen Konzepten, wie man die Erde als Teil des Sonnensystems und dann später das ganzen Universums beschrieben hat bzw. heute beschreibt. Hauptbeispiel: Newtons System, das dann mit immer neuen Beobachtungen und dann schließlich mit Einsteins Relativitätstheorie als ‚zu eng‘ klassifiziert wurde.

[7] ‚Beziehungen‘ existieren ausschließlich in unserem ‚Denken‘ (das alte Hume Problem, das Kant schon zu lösen versuchte, und das Popper in seinen Texten wieder und wieder aufgreift). Wenn wir diese ‚gedachten Beziehungen‘ in die beobachtbaren Einzelereignisse (Zeit, Ort, Beobachter) ‚hinein-sehen‘, dann ist dies der Versuch, zu ‚prüfen‘, ob diese Beziehung sich ‚bestätigen‘ oder ‚widerlegen‘ lässt. Anmerkung: die moderne expermentelle Psychologie (auch als Neuropsychologie) hat diese Sachverhalte extensiv untersucht und mit neuen Evidenzen versehen.

[8] Wie die Alltagssprache zeigt — und die moderne Wissenschaft bestätigt –, werden konkrete empirische Phänomene immer abstrakten Konzepten zugeordnet, die dann mit Allgemeinbegriffen verknüpft werden. Ob ein konkretes Wahrnehmungsereignis zu einem abstrakten Konzept X (z.B. ‚Tasse‘) oder Y (z.B. ‚Glas‘) gehört, das entscheidet das Gehirn unbewusst (Menschen können nur entscheiden, welche sprachlichen Ausdrücke sie verwenden wollen, um die kognitven Konzepte zu ‚benennen‘).

[9] … erinnert an das Sprachspielkonzept des späten Wittgenstein …

[10] Manche glauben heute, dass die Rolle des ‚Beoachters‘ und/oder des ‚Theoriebauers‘ von ‚intelligenten Programmen‘ übernommen werden können. In ‚Kooperation mit Menschen‘ im Rahmen eines modernen Konzepts von ‚kollektiver Intelligenz‘ kann es funktionieren, aber nur in Kooperation.

[11] Es gibt nicht nur ‚einen‘ Logikkalkül, sondern — rein formal — nahezu unendliche viele. Welcher für welche Aufgabenstellung ‚geeignet‘ ist, muss im Rahmen einer konkreten Aufgabe ermittelt werden.

[12] In der Wisenschaftsphilosophie ist dies bis heute noch nicht so gelöst, dass es dazu ein allgemein akzeptiertes Verfahren gibt.

[13] Da es viele verschiedene Ableitungsbegriffe gibt, von denen bis heute kein einziger meta-theoretisch für bestimmte empirische Bereich als ‚zuverlässig im Sinne eines Kriteriums K‘ erwiesen wurde, ist die lose Bezugnahme auf einen solchen Ableitungsbegriff eigentlich zu wenig.

[14] An dieser Stelle wird deutlich, dass das Beobachten wie auch dann die Auswertung von einer ‚Menge‘ von Beobachtungswerten in unserer Körperwelt ein ‚Zeitmodell‘ voraussetzt, in dem Ereignisse ein ‚vorher‘ und ’nachher‘ haben, so dass das Konzept einer ‚Prognose’/ ‚Voraussage‘ überhaupt Sinn macht.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

Die Wiederentdeckung Gottes auf dem Planeten Erde für alle denkbaren Universen. Essay.Teil 1

PDF

Wahrheit

  1. Eine Benutzung des Wortes ‚Wahrheit‘ setzt voraus, dass es etwas gibt, was meinem eigenen Denken und Fühlen vorgelagert ist, von meinem eigenen Wollen unabhängig; egal was ich mir wünsche, vorstelle, phantasiere, denke; es ist etwas — ein X, das Andere –, das vorkommt, weil es ‚aus sich heraus‘ vorkommt.
  2. Im Alltag ist es ein Gegenstand, über den ich im Dunklen stolpere, weil ich an dieser Stelle keinen Gegenstand vermutet habe; die Sonne, die mich blendet, weil sie so tief steht; der Kaffee, den ich trinke; der Stuhl, auf dem ich sitze; mein Gegenüber, das auf mich einredet; der Regen, der mit Macht hernieder prasselt …
  3. Diese Selbstverständlichkeit kann schnell ins Wanken geraten, wenn man anfängt, darüber nachzudenken.
  4. Wir wissen, dass wir Menschen phantasieren können, träumen, wir können Halluzinationen haben, Wahnvorstellungen, … oder denken gerade nach. Diesen Beispielen ist gemeinsam, dass derjenige der phantasiert, träumt usw. ‚für sich‘, ’subjektiv‘, etwas erlebt, empfindet, denkt, was ihm in diesem Moment ‚wie wirklich‘ erscheint, obgleich andere Menschen in der Umgebung einer solchen Person zum Schluss kommen könnten, dass die aktuellen Phantasiebilder, Träume usw. nichts mit der aktuellen äußeren Situation dieser Person zu tun haben.
  5. So stellt sich die Person vor, sie sei eine Königin, obwohl sie nach offiziellen Daten nur eine Büroangestellte ist; oder jemand träumt im Schlaf, schreit, schlägt um sich, und wenn dann der Bettnachbar ihn aufweckt, berichtet der Träumer von irgendwelchen Ungeheuern, vor denen er geflohen sei. Jemand anderes hat Drogen genommen und sieht den aktuellen Raum plötzlich ganz anders, umarmt Anwesende oder beschimpft sie, obwohl es keinen äußerlich bekannten Grund dafür gibt. Andere fühlen sich verfolgt, haben panische Ängste, verstecken sich, schließen sich ein, kaufen Waffen, aber es gibt niemand, der ihnen nachstellt. Und dann der Denker: er sitzt scheinbar tatenlos auf einem Stuhl, stiert vor sich hin auf ein Spielbrett, und in seinem Kopf denkt er intensiv über verschiedene Möglichkeiten nach, welche Züge er im Spiel machen könnte, Züge, die nur in seinem Denken existieren, nicht auf dem Spielbrett.
  6. Das innere Erleben eines Menschen kann offensichtlich für den Betreffenden so ‚wirklich‘ erscheinen, wie das, was sich von der ‚Außenwelt‘ in seiner ‚Wahrnehmung‘ niederschlagen kann. Und offensichtlich gibt es hier Zustände, in denen der Betreffende in seinem Erleben nicht mehr so richtig (oder gar nicht?) entscheiden kann, ob das Erlebte nun ’nur innerlich, subjektiv‘ vorkommt, oder auch ‚zugleich äußerlich, objektiv, intersubjektiv‘, so, dass andere diese Sachverhalte von sich aus bestätigen könnten.
  7. Die Dinge werden noch schwieriger, wenn man die Sprache einbezieht.
  8. Die Sprache — gesprochen wie geschrieben (oder noch anders) — hat die Besonderheit, dass sich sprachliche Äußerungen normalerweise in kleinere Einheiten unterteilen lassen, die teilweise als diese kleineren Einheiten eine ‚Bedeutung‘ haben; im Zusammenhang der Äußerung können diese unterscheidbaren kleineren Einheiten eine ‚über die einzelne Einheit hinausgehende‘ Bedeutung besitzen. Zugleich spielt die Situation eine Rolle: die gleiche sprachliche Äußerung kann je nach der Deutung der Situation eine ganz unterschiedliche Bedeutung besitzen.
  9. Eine Äußerung wie ‚Ich bitte Dich, mir zu helfen, das Haus zu verkaufen‘, enthält kleinere Einheiten, die wir gewöhnlich ‚Worte‘ nennen. Einzelne Worte wie z.B. ‚Haus‘ haben eine Bedeutung durch Bezug auf gedachte und dann möglicherweise objektive Gegenstände mit bestimmten Eigenschaften. Andere Worte wie ‚zu‘ und ‚das‘ haben keinen direkten Gegenstandbezug. Für jemand, der die deutsche Sprache kennt, deutet sich in dieser sprachlichen Äußerung an, dass eine Person A (die mit dem ‚Ich‘) eine andere Person B (die mit dem ‚Dich‘) ‚bittet‘ bei einem Hausverkauf zu helfen. Wenn die beiden Personen A und B voneinander gesellschaftlich unabhängig sind, die Person B dem A in keiner Weise verpflichtet ist, dann ist die ausgesprochene Bitte typisch und der Ausgang offen. Wenn aber B dem A irgendwie verpflichtet ist, von A vielleicht sogar sehr direkt abhängt, dann kann diese Bitte eher als ein Befehl verstanden werden, den B dann aus gesellschaftlichen Gründen nicht wirklich ablehnen kann. Dies setzt voraus, dass man die sprachliche Äußerung als Teil eines größeren sozialen Zusammenhangs erkennt, dessen Eigenschaften die Bedeutung beeinflussen können.
  10. Es gibt aber noch weitere Unwägbarkeiten. Wenn in der Äußerung davon gesprochen wird, ‚das Haus‘ zu verkaufen, dann unterstellt A, dass B ‚weiß‘, welches Haus ‚gemeint‘ ist. Wenn die sprachliche Äußerung aber in ‚Abwesenheit des Hause‘ getätigt wird, dann existiert ‚das Haus‘ nur im ‚Wissen‘ der beiden beteiligten Personen A und B. Zumindest unterstellt A, dass B ‚weiß‘, welches Haus A ‚meint‘. Dies funktioniert, wenn es in der Vergangenheit eine Situation gab, durch die eindeutig genug ein ganz bestimmtes Haus identifiziert worden ist, also ‚das Haus‘ von dieser erinnerbaren Situation. Dies kann funktionieren. Wenn diese erinnerbare Situation aber nicht eindeutig war, wenn schon in dieser Situation zwar von ‚dem Haus‘ geredet wurde, aber schon in der damaligen Situation A an ein anderes Haus gedacht hat als B und beide diesen Unterschied nicht bemerkt haben, dann wird B möglicherweise zustimmen und für sich an ein anderes Haus H1 denken als A, der an das Haus H2 denkt. Irgendwann werden beide vielleicht merken, dass sie mit ‚das Haus‘ zwei verschiedene Objekte meinen, spätestens dann, wenn sie zu dem Haus hinfahren würden. Solange sie dies nicht tun leben Sie mit ihren privaten, subjektiven Vorstellungen von einem Hausobjekt H1 bzw. H2, benutzen die gleichen Worte, und merken nicht, dass sie beide etwas ‚Verschiedenes meinen‘.
  11. Ein Bezug zur Außenwelt unter Zuhilfenahme einer Sprache kann also unterschiedlich missverständlich sein. Die Worte können im Kopf, im ‚Innern‘, im Denken eines Sprecher-Hörers, einen Sachverhalt induzieren, hervorrufen, aktivieren, der für ‚wirklich‘ angenommen wird, obgleich sich diese Vorstellungen in den Köpfen verschiedener Sprecher-Hörer unterscheiden können, trotz gleicher Worte.
  12. Bei sogenannten ‚abstrakten Bedeutungen‘, wie sie sich bei Worten finden wie ‚Freiheit‘, ‚Demokratie‘, ‚Bewusstsein‘, ‚das Dasein‘, ‚Existenz‘, ‚Glauben‘, ‚Gott‘, ‚Paradies‘, ‚Mathematik‘ usw. kann man in der Regel nicht von vornherein von einer allen gleichermaßen bekannten ‚Bedeutung‘ ausgehen. Worte mit solchen Bedeutungen haben einen solch vielschichtigen Verwendungszusammenhang, dass man bei ihrem Gebrauch grundsätzlich vorher mit allen Beteiligten klären sollte, welche Verwendungszusammenhänge sie jeweils voraussetzen.
  13. Sprechen wir im Alltag von ‚Wahrheit‘ dann unterstellen wir einen Zusammenhang zwischen Sprecher und Umwelt derart, dass eine Aussage wie ‚Es regnet‘ sich auf einen realen, objektiven Vorgang in der Umwelt bezieht, der von anderen auch so wahrgenommen wird (oder werden kann), der jetzt stattfindet. Bei der Aussage, ‚Ich war gestern in Frankfurt‘ wird es schwieriger. Ob die Aussage als ‚wahr‘ bezeichnet wird, hängt davon ab, ob sich nachweisen lässt, dass der Sprecher einen Tag früher tatsächlich in der Stadt mit Namen Frankfurt war, und dass der Sprecher mit der Aussage ‚Ich war gestern in Frankfurt‘ diesen Sachverhalt meint. Wenn der Sprecher während der Aussage für sich gedacht hat, dass er sich nur vorgestellt hat, dass er in Frankfurt gewesen sei, dann wäre die Aussage nach üblichem Sprachverständnis ‚falsch‘, da man bei solch einer Aussage unterstellt, dass der Sprecher tatsächlich in Frankfurt war. Wenn eine Sprecherin sagen würde ‚Ich werde morgen nach Frankfurt fahren‘, dann wäre der Wahrheitsgehalt noch offen. Sie kündigt ein Ereignis an, das in der Zukunft stattfinden soll. Ob es tatsächlich stattfinden wird, muss man erst mal ’sehen‘. Es ist eher eine ‚Absichtserklärung‘, allerdings eine mit potentiellem Wahrheitsanspruch. Falls die Sprecherin während der Aussage denkt, dass Sie nicht wirklich nach Frankfurt fahren will, wäre ihr Aussage nach normalem Verständnis eine ‚Lüge‘ oder eine ‚Täuschung‘. Allerdings, wenn die Sprechsituation locker ist, man gerade ‚herum spinnt‘, man Möglichkeiten überlegt, es nicht so ganz ernst zugeht, dann wäre die Aussage eine Meinungsäußerung ohne klaren Wahrheitsstatus.
    Fassen wir zusammen: Das Reden von ‚Wahrheit‘ setzt voraus:

    1. Es gibt mindestens einen Sprecher A und mindestens einen Hörer B
    2. Beide benutzen die gleiche Sprache L in einer gemeinsam geteilten Situation S
    3. A und B können zwischen Innen (subjektiv) und Außen (objektiv) unterscheiden.
    4. Für A und B haben die hörbaren und/ oder lesbaren Ausdrücke E der Sprache L eine subjektive Bedeutung Y, die mit Sachverhalten X in der Umgebung korrespondieren können.
    5. Wenn A einen Ausdruck E mit der subjektiven Bedeutung YA(E) — aus der Sicht von A — äußert, und dieser Äußerung von E ein Sachverhalt X korrespondiert, den B auch wahrnehmen kann, so dass durch den Ausdruck E und dem Sachverhalt X bei B die subjektive Bedeutung YB(E) aktiviert wird, dann würde aus Sicht von B eine ‚wahre Aussage E‘ vorliegen, wenn der Sachverhalt X mit seiner Bedeutung YB(E) ‚korrespondiert‘.
    6. Da die subjektive Bedeutung Y eines Ausdrucks E mit einem Sachverhalt X korrespondieren soll, muss der Sachverhalt X auch als eine wahrnehmbare Größe XSprecher-Hoerer so vorliegen, dass die subjektive Bedeutung YSprecher-Hoerer sich direkt mit dem Sachverhalt vergleichen lässt. Dies bedeutet, es bedarf einer subjektiven Vergleichsoperation XSprecher-Hoerer = YSprecher-Hoerer ?. Dies bedeutet, sowohl die subjektive Bedeutung Y wie auch der wahrgenommene Sachverhalt X stellen subjektive Größen dar; sie unterscheiden sich nur durch die Art der Hervorbringung: YSprecher-Hoerer wird durch subjektive Aktivitäten generiert und XSprecher-Hoerer wird durch Sinnesorgane des Körpers über das Gehirn generiert. Die Menge der subjektiven Gegebenheiten soll hier technisch als ‚Phänomenraum (PH)‘ bezeichnet werden. Es würde dann gelten dass alle Arten von aktuell wahrgenommenen Sachverhalten X eine Teilmenge des Phänomenraums PH sind und ebenso alle aktuell generierten subjektiven Bedeutungen Y, als XNOW ⊆ PH und YNOW ⊆ PH.Ferner würde gelten YNOW ∩ XNOW = 0
    7. Dabei muss man sich klar machen, dass es zwischen der jeweiligen subjektiven Bedeutung YSprecher-Hoerer und einem sprachlichen Ausdruck E auch eine hinreichend klare und stabile Korrespondenz geben muss. Dies setzt wiederum voraus, dass der hörbare oder sichtbare sprachliche Ausdruck E eine interne Repräsentation ESprecher-Hoerer haben muss, die mit der subjektiven Bedeutungsrepräsentation YSprecher-Hoerer assoziiert ist. Dabei ist zu beachten, dass es eine sprachliche Bedeutung im engeren Sinne gibt, nur bezogen auf den Ausdruck, und eine Bedeutung im weiteren Sinne, insofern der situative Kontext C(Sprecher,Hoerer) zu berücksichtigen ist. Es muss also eine Beziehung folgender Art geben: Meaning : CSprecher-Hoerer x ESprecher-Hoerer —> YSprecher-Hoerer. Dies führt zu den Erweiterungen: CNOW ⊆ PH sowie YNOW ∩ XNOW ∩ CNOW = 0.
  14. Schon diese stark vereinfachende Rekonstruktion lässt erkennen, wie schwierig es ist, zu wirklich wahren Aussagen im Kontext einer Kommunikation zu kommen. Haben zwei Personen eine unterschiedliche Wahrnehmung, dann kann dies schon zu Missverständnissen führen. Haben Sie bei der Zuordnung zwischen wahrgenommenem Sachverhalt X und Bedeutungskonzept Y Unterschiede, funktioniert es auch nicht. Ferner muss die Situationszuordnung passen, und, am allerwichtigsten, die Zuordnung von Ausdruck und Bedeutung muss gleich sein. Alle diese Bedingungen herzustellen und zu überprüfen, erfordert viel Aufmerksamkeit und vielen guten Willen.
  15. Die vielen Kommunikationsprobleme im Alltag zeigen, dass es in der Tat schwierig ist; dazu kommen die vielfältigen systematischen Manipulationen von Sprache aus unterschiedlichsten Gründen (Lügen, Werbung, Propaganda, Indoktrination, Fälschung, Unterhaltung, Fiktion,…).

Eine  Fortsetzung findet sich HIER.

Pausenmusik 🙂

PS: Eine Ergänzung zu diesen Überlegungen könnte das Memo zur Philosophiewerkstatt vom 8.Oktober sein.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 4

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll

Rahmenbedingungen des Wissens

Wenn wir aufwachen in unserer schönen neuen Welt, können wir nachlesen, welch Böses Menschen anderen Menschen bisher zugefügt haben. Wir können Verhalten beobachten, das solch Böses hervorbringt: konkreten Handlungen, Aktionen, Objekte und Werkzeuge, die dazu benutzt werden. Was wir nicht können, nicht so ohne weiteres, das ist, in das Innere des Menschen zu schauen, warum Menschen anderen Menschen Böses zufügen.

Was geht in Menschen vor, wenn sie sich so verhalten? Wissen sie selbst so genau, was sie da tun, wenn sie etwas tun?

Was geht in Menschen vor, die andere Menschen foltern, um mit Gewalt heraus zu finden, was andere Menschen Denken oder Wissen (Siehe hier einen kurzen Überblick zur Folter)? Da auch Unschuldige unter Folter Handlungen gestehen können, die sie nie begangen haben, geht der Anwendung von Folter eine Vorverurteilung voraus: man ist schon überzeugt, dass man einen Täter vor sich hat. Zugleich verachtet man diesen Menschen, da man bereit ist, ihn zu zerstören, obgleich er möglicherweise unschuldig ist.

Und es gibt auch dies: Menschen helfen Menschen, Menschen ermöglichen Leben. Warum tun sie das?

Dort hinter den Augen

Die Antwort auf die Frage, warum Menschen dies und jenes tun, liegt offensichtlich im ‚Inneren‘ des Menschen. Dort, hinter seinen Augen, hinter seinem Gesicht, das mal lächelt, mal weint, mal zürnt, dort gibt es ‚geheimnisvolle Kräfte‘, die ihn, uns, Dich und mich, dazu bringen das eine zu tun, und das andere zu lassen.

Und, wie die moderne Biologie uns in Gestalt der Gehirnforschung lehrt, ist es vor allem das Gehirn, in dem ca. 100 Milliarden Gehirnzellen miteinander ein Dauergespräch führen, dessen Nebenwirkungen die eine oder andere Handlung ist, die wir vornehmen.

Wenn wir uns auf die moderne Biologie einlassen, auf die Gehirnwissenschaft, dann erkennen wir sehr schnell, dass das Gehirn, das unser Verhalten bestimmt, selbst keinen Kontakt mit der Welt hat. Es ist im Körper eingeschlossen, quasi abgeschottet, oder auch isoliert von der Welt jenseits des Körpers.

Das Gehirn bezieht sein Wissen über die Welt jenseits der Gehirnzellen quasi von ‚Mittelsmännern‘, von speziellen Kontaktpersonen, von Übersetzern; dies sind unsere Sinnesorgane (Augen, Ohren, Haut, Geschmackszellen, Gleichgewichtsorgan, …)(Anmerkung: Siehe: Sinnesorgan, Sensory receptor, Sensory system), die bestimmte Ereignisse aus der Welt jenseits der Gehirnzellen in die ‚Sprache des Gehirns‘ übersetzen.

Wenn wir sagen, dass wir Musik hören, wunderschöne Klänge, harmonisch oder dissonant, laut oder leise, hoch oder tief, mit unterschiedlichen Klangfarben, dann sind dies für das Gehirn ’neuronale Signale‘, elektrische Potentialänderungen, die man als ‚Signal‘ oder ‚Nicht-Signal‘ interpretieren kann, als ‚An‘ oder ‚Aus‘, oder einfach als ‚1‘ oder ‚0‘, allerdings zusätzlich eingebettet in eine ‚Zeitstruktur‘; innerhalb eines Zeitintervalls können ‚viele‘ Signale auftreten oder ‚wenige‘. Ferner gibt es eine ‚topologische‘ Struktur: das gleiche Signal kann an einem Ort im Gehirn ein ‚Klang‘ bedeuten, an einem anderen Ort eine ‚Bild‘, wieder an einem anderen Ort ein ‚Geschmack‘ oder ….

Was hier am Beispiel des Hörens gesagt wurde, gilt für alle anderen Sinnesorgane gleichermaßen: bestimmte physikalische Umwelteigenschaften werden von einem Sinnesorgan so weit ‚verarbeitet‘, dass am Ende immer alles in die Sprache des Gehirns, in die neuronalen ‚1en‘ und ‚0en‘ so übersetzt wird, dass diese Signale zeitlich und topologisch geordnet zwischen den 100 Milliarden Gehirnzellen hin und her wandern können, um im Gehirn Pflanzen, Tiere, Räume, Objekte und Handlungen jenseits der Gehirnzellen neuronal-binär repräsentieren zu können.

Alles, was in der Welt jenseits des Gehirns existiert (auch die anderen Körperorgane mit ihren Aktivitäten), es wird einheitlich in die neuronal-binäre Sprache des Gehirns übersetzt. Dies ist eine geniale Leistung der Natur(Anmerkung: Dass wir in unserem subjektiven Erleben keine ‚1en‘ und ‚0en‘ wahrnehmen, sondern Töne, Farben, Formen, Geschmäcker usw., das ist das andere ‚Wunder der Natur‘; siehe weiter unten.}.

Die Welt wird zerschnitten

Diese Transformation der Welt in ‚1en‘ und ‚0en‘ ist aber nicht die einzige Übersetzungsbesonderheit. Wir wissen heute, dass die Sinnesinformationen für eine kurze Zeitspanne (in der Regel deutlich weniger als eine Sekunde) nach Sinnesarten getrennt in einer Art ‚Puffer‘ zwischen gespeichert werden (Anmerkung: Siehe Sensory memory). Von dort können sie für weitere Verarbeitungen übernommen werden. Ist die eingestellte Zeitdauer(Anmerkung: Zeitfenster zwischen den aufeinanderfolgenden Zeitpunkten t1 und t2 (t1,t2)} verstrichen, wird der aktuelle Inhalt von neuen Daten überschrieben. Das voreingestellte Zeitfenster (t1,t2) definiert damit, was ‚gleichzeitig‘ ist.

Faktisch wird die sinnlich wahrnehmbare Welt damit in Zeitscheiben ‚zerlegt‘ bzw. ‚zerschnitten‘. Was immer passiert, für das Gehirn existiert die Welt jenseits seiner Neuronen nur in Form von säuberlich getrennten Zeitscheiben(Anmerkung: In Diskussionen, ob und wieweit ein Computer das menschliche Gehirn ’nachahmen‘ könnte, wird oft betont, der Computer sei ja ‚diskret‘, ‚binär‘, zerlege alles in 1en und 0en im Gegensatz zum ‚analogen‘ Gehirn. Die empirischen Fakten legen hingegen nahe, auch das Gehirn als eine ‚diskrete Maschine‘ zu betrachten.).

Unterscheiden sich die ‚Inhalte‘ von Zeitscheiben, kann dies als Hinweis auf mögliche ‚Veränderungen‘ gedeutet werden.

Beachte: jede Sinnesart hat ihre eigene Zeitscheibe, die dann vom Gehirn zu ’sinnvollen Kombinationen‘ ‚verrechnet‘ werden müssen.

Die Welt wird vereinfacht

Für die Beurteilung, wie das Gehirn die vielen unterschiedlichen Informationen so zusammenfügt, auswertet und neu formt, dass daraus ein ’sinnvolles Verhalten‘ entsteht, reicht es nicht aus, nur die Gehirnzellen selbst zu betrachten, was zum Gegenstandsbereich der Gehirnwissenschaft (Neurowissenschaft) gehört. Vielmehr muss das Wechselverhältnis von Gehirnaktivitäten und Verhaltenseigenschaften simultan betrachtet werden. Dies verlangt nach einer systematischen Kooperation von wissenschaftlicher Verhaltenswissenschaft (Psychologie) und Gehirnwissenschaft unter der Bezeichnung Neuropsychologie (Anmerkung: Siehe Neuropsychology).

Ein wichtiges theoretisches Konzept, das wir der Neuropsychologie verdanken, ist das Konzept des Gedächtnisses(Anmerkung: Memory). Mit Gedächtnis wird die generelle Fähigkeit des Gehirns umschrieben, Ereignisse zu verallgemeinern, zu speichern, zu erinnern, und miteinander zu assoziieren.

Ausgehend von den oben erwähnten zeitlich begrenzten sensorischen Speichern unterteilt man das Gedächtnis z.B. nach der Zeitdauer (kurz, mittel, unbegrenzt), in der Ereignisse im Gedächtnis verfügbar sind, und nach der Art ihrer Nutzung. Im Kurzzeit- und Arbeitsgedächtnis kann eine kleine Zahl von Ereignissen im begrenzten Umfang verarbeitet und mit dem Langzeitgedächtnis in begrenztem Umfang ausgetauscht werden (speichern, erinnern). Die Kapazität von sinnespezifischen Kurzzeit- und multimodalem Arbeitsgedächtnisses liegt zwischen ca. 4 (im Kurzzeitgedächtnis) bis 9 (im Arbeitsgedächtnis) Gedächtniseinheiten. Dabei ist zu beachten, dass schon im Übergang vom oben erwähnten sensorischen Speichern zum Kurzzeit- und Arbeitsgedächtnis eine starke Informationsreduktion stattfindet; grob von 100% auf etwa 25%.

Nicht alles, was im Kurz- und Arbeitsgedächtnis vorkommt, gelangt automatisch ins Langzeitgedächtnis. Ein wichtiger Faktor, der zum Speichern führt, ist die ‚Verweildauer‘ im Kurzzeit- und Arbeitsgedächtnis, und die ‚Häufigkeit‘ des Auftretens. Ob wir nach einer Speicherung etwas ‚wiederfinden‘ können, hängt ferner davon ab, wie ein Ereignis abgespeichert wurde. Je mehr ein Ereignis sich zu anderen Ereignissen in Beziehung setzen lässt, umso eher wird es erinnert. Völlig neuartige Ereignisse (z.B. die chinesischen Schriftzeichen in der Ordnung eines chinesischen Wörterbuches, wenn man Chinesisch neu lernt) können Wochen oder gar Monate dauern, bis sie so ‚verankert‘ sind, dass sie bei Bedarf ‚mühelos‘ erinnern lassen.

Ein anderer Punkt ist die Abstraktion. Wenn wir über alltägliche Situationen sprechen, dann benutzen wir beständig Allgemeinbegriffe wie ‚Tasse‘, ‚Stuhl‘, ‚Tisch‘, ‚Mensch‘ usw. um über ‚konkrete individuelle Objekte‘ zu sprechen. So nennen wir ein konkretes rotes Etwas auf dem Tisch eine Tasse, ein anderen blaues konkretes Etwas aber auch, obgleich sie Unterschiede aufweisen. Desgleichen nennen wir ein ‚vertikales durchsichtiges Etwas‘ eine Flasche, ein vertikales grünliches Etwas auch; usw.

Unser Gedächtnis besitzt die wunderbare Eigenschaft, alles, was sinnlich wahrgenommen wird, durch einen unbewussten automatischen Abstraktionsprozess in eine abstrakte Struktur, in einen Allgemeinbegriff, in eine ‚Kategorie‘ zu übersetzen. Dies ist extrem effizient. Auf diese Weise kann das Gedächtnis mit einem einzigen Konzept hunderte, tausende, ja letztlich unendlich viele konkrete Objekte klassifizieren, identifizieren und damit weiter arbeiten.

Welt im Tresor

Ohne die Inhalte unseres Gedächtnisses würden wir nur in Augenblicken existieren, ohne vorher und nachher. Alles wäre genau das, wie es gerade erscheint. Nichts hätte eine Bedeutung.

Durch die Möglichkeit des ‚Speicherns‘ von Ereignisse (auch in den abstrakten Formen von Kategorien), und des ‚Erinnerns‘ können wir ‚vergleichen‘, können somit Veränderungen feststellen, können Abfolgen und mögliche Verursachungen erfassen, Regelmäßigkeiten bis hin zu Gesetzmäßigkeiten; ferner können wir Strukturen erfassen.

Eine Besonderheit sticht aber ins Auge: nur ein winziger Teil unseres potentiellen Wissens ist ‚aktuell verfügbar/ bewusst‘; meist weniger als 9 Einheiten! Alles andere ist nicht aktuell verfügbar, ist ’nicht bewusst‘!

Man kann dies so sehen, dass die schier unendliche Menge der bisher von uns wahrgenommenen Ereignisse im Langzeitgedächtnis weggesperrt ist wie in einem großen Tresor. Und tatsächlich, wie bei einem richtigen Tresor brauchen auch wir selbst ein Codewort, um an den Inhalt zu gelangen, und nicht nur ein Codewort, nein, wir benötigen für jeden Inhalt ein eigenes Codewort. Das Codewort für das abstrakte Konzept ‚Flasche‘ ist ein konkretes ‚Flaschenereignis‘ das — hoffentlich — genügend Merkmale aufweist, die als Code für das abstrakte Konzept ‚Flasche‘ dienen können.

Wenn über solch einen auslösenden Merkmalscode ein abstraktes Konzept ‚Flasche‘ aktiviert wird, werden in der Regel aber auch alle jene Konzepte ‚aktiviert‘, die zusammen mit dem Konzept ‚Flasche‘ bislang aufgetreten sind. Wir erinnern dann nicht nur das Konzept ‚Flasche‘, sondern eben auch all diese anderen Ereignisse.

Finden wir keinen passenden Code, oder wir haben zwar einen Code, aber aus irgendwelchen Emotionen heraus haben wir Angst, uns zu erinnern, passiert nichts. Eine Erinnerung findet nicht statt; Blockade, Ladehemmung, ‚blackout‘.

Bewusstsein im Nichtbewusstsein

Im Alltag denken wir über unser Gehirn nicht so. Im Alltag haben wir subjektiv Eindrücke, Erlebnisse, Empfindungen, Gedanken, Vorstellungen, Fantasien. Wir sind ‚in‘ unserem Erleben, wir selbst ‚haben‘ diese Eindrücke. Wir empfinden alles so, als ob ‚wir‘ selbst (bei jedem einzelnen das ‚Ich‘: ‚ich habe das Erlebnis‘) diese Erlebnisse haben; es sind ‚unsere‘ Erlebnisse‘.

Die Philosophen haben diese Erlebnis- und Erkenntnisweise den Raum unseres ‚Bewusstseins‘ genannt. Sie sprechen davon, dass wir ‚Bewusstsein haben‘, dass uns die Ding ‚bewusst sind‘; sie nennen die Inhalte unseres Bewusstseins ‚Qualia‘ oder ‚Phänomene‘, und sie bezeichnen diese Erkenntnisperspektive den Standpunkt der ‚ersten Person‘ (‚first person view‘) im Vergleich zur Betrachtung von Gegenständen in der Außenwelt, die mehrere Personen gleichzeitig haben können; das nennen sie den Standpunkt der ‚dritten Person‘ (‚third person view‘)(Anmerkung: Ein Philosoph, der dies beschrieben hat, ist Thomas Nagel. Siehe zur Person: Thomas Nagel. Ein Buch von ihm, das hier einschlägig ist, ist ‚The view from nowhere‘ von 1986, New York, Oxford University Press).

Nach den heutigen Erkenntnissen der Neuropsychologie gibt es zwischen dem, was die Philosophen ‚Bewusstsein‘ nennen und dem, was die Neuropsychologen ‚Arbeitsgedächtnis‘ nennen, eine funktionale Korrespondenz. Wenn man daraus schließen kann, dass unser Bewusstsein sozusagen die erlebte ‚Innenperspektive‘ des ‚Arbeitsgedächtnisses‘ ist, dann können wir erahnen, dass das, was uns gerade ‚bewusst‘ ist, nur ein winziger Bruchteil dessen ist, was uns ’nicht bewusst‘ ist. Nicht nur ist der potentiell erinnerbare Inhalt unseres Langzeitgedächtnisses viel größer als das aktuell gewusste, auch die Milliarden von Prozessen in unserem Körper sind nicht bewusst. Ganz zu schweigen von der Welt jenseits unseres Körpers. Unser Bewusstsein gleicht damit einem winzig kleinen Lichtpunkt in einem unfassbar großen Raum von Nicht-Bewusstsein. Die Welt, in der wir bewusst leben, ist fast ein Nichts gegenüber der Welt, die jenseits unseres Bewusstseins existiert; so scheint es.

Außenwelt in der Innenwelt

Der Begriff ‚Außenwelt‘, den wir eben benutzt haben, ist trügerisch. Er gaukelt vor, als ob es da die Außenwelt als ein reales Etwas gibt, über das wir einfach so reden können neben dem Bewusstsein, in dem wir uns befinden können.

Wenn wir die Erkenntnisse der Neuropsychologie ernst nehmen, dann findet die Erkenntnis der ‚Außenwelt‘ ‚in‘ unserem Gehirn statt, von dem wir wissen, dass es ‚in‘ unserem Körper ist und direkt nichts von der Außenwelt weiß.

Für die Philosophen aller Zeiten war dies ein permanentes Problem. Wie kann ich etwas über die ‚Außenwelt‘ wissen, wenn ich mich im Alltag zunächst im Modus des Bewusstseins vorfinde?

Seit dem Erstarken des empirischen Denkens — spätestens seit der Zeit Galileis(Anmerkung: Galilei) — tut sich die Philosophie noch schwerer. Wie vereinbare ich die ‚empirische Welt‘ der experimentellen Wissenschaften mit der ’subjektiven Welt‘ der Philosophen, die auch die Welt jedes Menschen in seinem Alltag ist? Umgekehrt ist es auch ein Problem der empirischen Wissenschaften; für den ’normalen‘ empirischen Wissenschaftler ist seit dem Erstarken der empirischen Wissenschaften die Philosophie obsolet geworden, eine ’no go area‘, etwas, von dem sich der empirische Wissenschaftler fernhält. Dieser Konflikt — Philosophen kritisieren die empirischen Wissenschaften und die empirischen Wissenschaften lehnen die Philosophie ab — ist in dieser Form ein Artefakt der Neuzeit und eine Denkblokade mit verheerenden Folgen.

Die empirischen Wissenschaften gründen auf der Annahme, dass es eine Außenwelt gibt, die man untersuchen kann. Alle Aussagen über die empirische Welt müssen auf solchen Ereignissen beruhen, sich im Rahmen eines beschriebenen ‚Messvorgangs‘ reproduzieren lassen. Ein Messvorgang ist immer ein ‚Vergleich‘ zwischen einem zuvor vereinbarten ‚Standard‘ und einem ‚zu messenden Phänomen‘. Klassische Standards sind ‚das Meter‘, ‚das Kilogramm‘, ‚die Sekunde'(Anmerkung: Siehe dazu: Internationales Einheitensystem (SI)), usw. Wenn ein zu messendes Phänomen ein Objekt ist, das z.B. im Vergleich mit dem Standard ‚Meter [m]‘ die Länge 3m aufweist, und jeder, der diese Messung wiederholt, kommt zum gleichen Ergebnis, dann wäre dies eine empirische Aussage über dieses Objekt.

Die Einschränkung auf solche Phänomene, die sich mit einem empirischen Messstandard vergleichen lassen und die von allen Menschen, die einen solchen Messvorgang wiederholen, zum gleichen Messergebnis führen, ist eine frei gewählte Entscheidung, die methodisch motiviert ist. Sie stellt sicher, dass man zu einer Phänomenmenge kommt, die allen Menschen(Anmerkung: die über gleiche Fähigkeiten der Wahrnehmung und des Denkens verfügen. Blinde Menschen, taube Menschen usw. könnten hier Probleme bekommen!) in gleicher Weise zugänglich und für diese nachvollziehbar ist. Erkenntnisse, die allen Menschen in gleicher Weise zugänglich und nachprüfbar sind haben einen unbestreitbaren Vorteil. Sie können eine gemeinsame Basis in einer ansonsten komplexen verwirrenden Wirklichkeit bieten.

Die ‚Unabhängigkeit‘ dieser empirischen Messvorgänge hat im Laufe der Geschichte bei vielen den Eindruck vertieft, als ob es die ‚vermessene Welt‘ außerhalb und unabhängig von unserem Bewusstsein als eigenständiges Objekt gibt, und dass die vielen ‚rein subjektiven‘ Empfindungen, Stimmungen, Vorstellungen im Bewusstsein, die sich nicht direkt in der vermessbaren Welt finden, von geringerer Bedeutung sind, unbedeutender ’subjektiver Kram‘, der eine ‚Verunreinigung der Wissenschaft‘ darstellt.

Dies ist ein Trugschluss mit verheerenden Folgen bis in die letzten Winkel unseres Alltags hinein.

Der Trugschluss beginnt dort, wo man übersieht, dass die zu messenden Phänomene auch für den empirischen Wissenschaftler nicht ein Sonderdasein führen, sondern weiterhin nur Phänomene seines Bewusstseins sind, die ihm sein Gehirn aus der Sinneswahrnehmung ‚herausgerechnet‘ hat. Vereinfachend könne man sagen, die Menge aller Phänomene unseres Bewusstseins — nennen wir sie PH — lässt sich aufteilen in die Teilmenge jener Phänomene, auf die sich Messoperationen anwenden lassen, das sind dann die empirischen Phänomene PH_EMP, und jene Phänomene, bei denen dies nicht möglich ist; dies sind dann die nicht-empirischen Phänomene oder ‚rein subjektiven‘ Phänomene PH_NEMP. Die ‚Existenz einer Außenwelt‘ ist dann eine Arbeitshypothese, die zwar schon kleine Kindern lernen, die aber letztlich darauf basiert, dass es Phänomene im Bewusstsein gibt, die andere Eigenschaften haben als die anderen Phänomene.

In diesen Zusammenhang gehört auch das Konzept unseres ‚Körpers‘, der sich mit den empirischen Phänomenen verknüpft.

Der Andere als Reflektor des Selbst

Bislang haben wir im Bereich der Phänomene (zur Erinnerung: dies sind die Inhalte unseres Bewusstseins) unterschieden zwischen den empirischen und den nicht-empirischen Phänomenen. Bei genauerem Hinsehen kann man hier viele weitere Unterscheidungen vornehmen. Uns interessiert hier nur der Unterschied zwischen jenen empirischen Phänomenen, die zu unserem Körper gehören und jenen empirischen Phänomenen, die unserem Körper ähneln, jedoch nicht zu uns, sondern zu jemand ‚anderem‘ gehören.

Die Ähnlichkeit der Körperlichkeit des ‚anderen‘ zu unserer Körperlichkeit bietet einen Ansatzpunkt, eine ‚Vermutung‘ ausbilden zu können, dass ‚in dem Körper des anderen‘ ähnliche innere Ereignisse vorkommen, wie im eigenen Bewusstsein. Wenn wir gegen einen harten Gegenstand stoßen, dabei Schmerz empfinden und eventuell leise aufschreien, dann unterstellen wir, dass ein anderer, wenn er mit seinem Körper gegen einen Gegenstand stößt, ebenfalls Schmerz empfindet. Und so in vielen anderen Ereignissen, in denen der Körper eine Rolle spielt (Anmerkung: Wie wir mittlerweile gelernt haben, gibt es Menschen, die genetisch bedingt keine Schmerzen empfinden, oder die angeboren blind oder taub sind, oder die zu keiner Empathie fähig sind, usw.).

Generalisiert heißt dies, dass wir dazu neigen, beim Auftreten eines Anderen Körpers unser eigenes ‚Innenleben‘ in den Anderen hinein zu deuten, zu projizieren, und auf diese Weise im anderen Körper ‚mehr‘ sehen als nur einen Körper. Würden wir diese Projektionsleistung nicht erbringen, wäre ein menschliches Miteinander nicht möglich. Nur im ‚Übersteigen‘ (‚meta‘) des endlichen Körpers durch eine ‚übergreifende‘ (‚transzendierende‘) Interpretation sind wir in der Lage, den anderen Körper als eine ‚Person‘ zu begreifen, die aus Körper und Seele, aus Physis und Psyche besteht.

Eine solche Interpretation ist nicht logisch zwingend. Würden wir uns solch einer Interpretation verweigern, würden wir im Anderen nur einen leblosen Körper sehen, eine Ansammlung von unstrukturierten Zellen, und was immer der Andere tun wird, nichts von alledem könnte uns zwingen, unsere Interpretation zu verändern. Die ‚personale Wirklichkeit des Anderen‘ lebt wesentlich von unserer Unterstellung, dass er tatsächlich mehr ist als der Körper, den wir sinnlich wahrnehmen können.

Dieses Dilemma zeigt sich sehr schön in dem berühmten ‚Turing Test‘ (Anmerkung: Turingtest), den Alan Matthew Turing 1950 vorgeschlagen hatte, um zu testen, wie gut ein Computer einen Menschen imitieren kann (Anmerkung: Es war in dem Artikel: Alan Turing: Computing Machinery and Intelligence, Mind 59, Nr. 236, Oktober 1950, S. 433–460). Da man ja ‚den Geist‘ selbst nicht sehen kann, sondern nur die Auswirkungen des Geistes im Verhalten, kann man in dem Test auch nur das Verhalten eines Menschen neben einem Computer beobachten, eingeschränkt auf schriftliche Fragen und Antworten(Anmerkung: heute könnte man dies sicher ausdehnen auf gesprochene Fragen und Antworten, eventuell kombiniert mit einem Gesicht oder gar mehr}. Die vielen Versuche mit diesem Test haben deutlich gemacht — was man im Alltag auch ohne diesen Test sehen kann –, dass das beobachtbare Verhalten eines Akteurs niemals ausreicht, um logisch zwingend auf einen ‚echten Geist‘, sprich auf eine ‚echte Person‘ schließen zu können. Daraus folgt nebenbei, dass man — sollte es jemals hinreichend intelligente Maschinen geben — niemals zwingend einen Menschen, nur aufgrund seines Verhaltens, von einer intelligenten Maschine unterscheiden könnte.

Rein praktisch folgt aus alledem, dass wir im Alltag nur dann und solange als Menschen miteinander umgehen können, solange wir uns wechselseitig ‚Menschlichkeit‘ unterstellen, an den ‚Menschen‘ im anderen glauben, und mein Denken und meine Gefühle hinreichend vom Anderen ‚erwidert‘ werden. Passiert dies nicht, dann muss dies noch nicht eine völlige Katastrophe bedeuten, aber auf Dauer benötigen Menschen eine minimale Basis von Gemeinsamkeiten, auf denen sie ihr Verhalten aufbauen können.

Im positiven Fall können Unterschiede zwischen Menschen dazu führen, dass man sich wechselseitig anregt, man durch die Andersartigkeit ‚Neues‘ lernen kann, man sich weiter entwickelt. Im negativen Fall kann es zu Missverständnissen kommen, zu Verletzungen, zu Aggressionen, gar zur wechselseitigen Zerstörung. Zwingend ist keines von beidem.

Zur Fortsetzung mit Kapitel 5.

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

ERKENNTNISSCHICHTEN – PHILOSOPHISCHE LEVEL. Erste Notizen

VORBEMERKUNG

Vor fast genau drei Jahren hatte ich schon einmal einen Blogeintrag geschrieben, in dem das Wort ‚Level‘ im Kontext eines Computerspiels erwähnt wurde (siehe: SCHAFFEN WIR DEN NÄCHSTEN LEVEL? Oder ÜBERWINDEN WIR DEN STATUS DER MONADEN?
). Dort jedoch wurde die Idee des Computerspiels und der Level in einem ganz anderen Zusammenhang diskutiert. Im folgenden Text geht es tatsächlich um den Versuch, konkret verschiedene Ebenen des Denkens (Level) zu unterscheiden. Als ‚Ordnungsprinzip‘ in all dem wird einmal die zeitliche Abfolge benutzt, in der diese Level auftreten können, und eine ‚implizite Architektur‘ unseres Denkens, die sich nur ‚indirekt‘ beschreiben lässt.

DER BEGRIFF ‚LEVEL‘

1. Wer heutzutage Computerspiele spielt, der kennt das: man bewegt sich immer auf einem bestimmten ‚LEVEL‘, d.h. auf einer bestimmten Spielebene. Jede Spielebene hat eigene Regeln, eine eigene spezifische Schwierigkeit. Erst wenn man genügend Aufgaben gelöst hat, wenn man hinreichend viel Punkte erworben hat, dann darf man auf den nächsten Level. Diese Idee der Spielebene, des Level, kann man auch auf den Alltag übertragen.

FUNKTIONIEREN IM ALLTAG

2. Im Alltag stehen wir in beständiger Interaktion mit unserer alltäglichen Umgebung (Level 1). Wir nehmen wahr, wir identifizieren Objekte mit Eigenschaften, Beziehungen zwischen diesen im Raum, zeitliche Abfolgen, und wir selbst verhalten uns nach bestimmten Regeln, die uns der Alltag aufdrängt oder aufgedrängt hat: wir lernen, dass Dinge fallen können; dass es Tag und Nacht gibt; dass Menschen unterschiedlich reagieren können; dass Menschen Rollen haben können, unterschiedliche Verpflichtungen; dass es Regeln gibt, Vorschriften, Gesetze, Erwartungen anderer, Gewohnheiten, Sitten, Gebräuche. Wir lernen mit der Zeit, dass Unterschiede gemacht werden bezüglich Herkunft, Sprache, wirtschaftlicher Stellung, Glaubens- oder Weltanschauungsansicht, usw.

3. Wenn alles ‚gut‘ läuft, dann FUNKTIONIEREN wir; wir tun, was erwartet wird, wir tun, was die Spielregeln sagen; wir tun, was wir gewohnt sind; wir bekommen unsere Leistungspunkte, unsere Anerkennungen …. oder auch nicht.

4. Wenn man uns fragt, wer wir sind, dann zählen wir für gewöhnlich auf, was wir so tun, welche Rollen wir spielen, welche Berufsbezeichnungen wir tragen.

DURCH NACHDENKEN ZUM PHILOSOPHIEREN

5. Sobald man nicht mehr nur FUNKTIONIERT, sondern anfängt, über sein Funktionieren NACHZUDENKEN, in dem Moment beginnt man, zu PHILOSOPHIEREN. Man beginnt dann mit einer BEWUSSTWERDUNG: man tut etwas und zugleich wird einem bewusst, DASS man es tut. Damit beginnt Level 2.

6. Beginn man mit einer solchen bewussten Wahrnehmung des DASS, des Unterscheidbaren, des sich Ereignenden, dann wird man nicht umhin kommen, zu unterscheiden zwischen jenen Phänomenen, Ereignissen, Objekten, die ‚zwischen‘ verschiedenen Menschen – also ‚intersubjektiv‘, ‚empirisch‘, ‚objektiv‘ – verfügbar sind und jenen, die ‚rein subjektive‘ Tatbestände darstellen. Über den ‚Apfel dort auf dem Tisch‘ kann man sich mit anderen verständigen, über die eigenen Zahnschmerzen, die eigenen Gefühle, die eigenen Erinnerungen usw. nicht so ohne weiteres. Jeder kann bis zu einem gewissen Grad ‚IN SEIN BEWUSSTSEINS HINEINSCHAUEN‘ – ’subjektiv‘, ‚introspektiv‘,’phänomenologisch‘– und solche Phänomene wahrnehmen, die NICHT INTERSUBJEKTIV sind, sondern REIN SUBJEKTIV. Diese OJEKTE DER INNENWELT sind für das eigene Erleben genauso real wie die Objekte der Außenwelt, aber sie sind nicht zugleich auch von anderen Menschen wahrnehmbar. Diese bewusste Unterscheidung zwischen AUSSEN und INNEN innerhalb des Level 2 soll hier als Level 3 bezeichnet werden. Die Menge der Inhalte, die innerhalb von Level 2 und 3 bewusst wahrgenommen werden, sollen hier einfach PHÄNOMENE genannt werden mit der anfangshaften Unterscheidung von intersubjektiven Phänomenen auch als EMPIRISCHE PHÄNOMENE und rein subjektive Phänomene als NICHTEMPIRISCHE PHÄNOMENE

WELT NEU ERZÄHLEN

7. Mit dem Bewusstwerden von Level 2 und Level 3 kann eine neue Form von BESCHREIBUNG beginnen, die hier LEVEL 4 heißen soll. Dieser Level 4 stellt eine Art META-LEVEL dar; man spricht auf einem Meta-Level über einen anderen Level. Dies ist vergleichbar einem Linguisten, der die Eigenschaften einer Sprache (z.B. des Deutschen) in seiner Fachsprache beschreiben muss. So könnte es sein, dass ein Satz wie ‚Das Haus hat einen Eingang‘ auf der linguistischen Metaebene eine Beschreibung bekäme wie ‚(‚Das‘: Bestimmter Artikel)(‚Haus‘: Substantiv)(‚hat‘: Verb)(‚einen‘: unbestimmter Artikel)(‚Eingang‘: Substantiv)‘; diese Beschreibung könnte viele weitere Elemente enthalten.

8. Eine Meta-Beschreibung kann innerlich weiter strukturiert sein. Auf Level 4.0 BENENNT man nur, was man im DASS unterscheiden kann: Objekte, Eigenschaften, Beziehungen. Auf Level 4.1 kann man ABFOLGEN von benannten Phänomenen identifizieren, speziell solche, die REGELHAFT erscheinen. Aus der Gesamtheit von Benennungen und Abfolgen kann man auf Level 4.2 ein MODELL konstruieren, mittels dem eine Teilmenge von Phänomenen und deren Abfolgen FUNKTIONAL ERKLÄRT werden soll. Mit einer zusätzlichen LOGIK auf Level 4.3 kann man dann mit einem Modell FOLGERUNGEN konstruieren, die wie VORHERSAGEN benutzt werden können, die sich ÜBRPRÜFEN lassen.

9. Beschränkt man sich auf dem Level 4 auf die empirischen Phänomene, dann bilden die Level 4.0 – 4.3 das, was wir die EMPIRISCHEN WISSENSCHAFTEN nennen. Man benennt = beschreibt die Dinge dann in einer eigenen Fachsprache (Chemie, Psychologie, Physik, Linguistik, …); man definiert Messverfahren, wie man Eigenschaften reproduzierbar messen kann; und man benutzt die Mathematik und die formale Logik, um Modelle (THEORIEN) zu konstruieren.

10. Beschränkt man sich auf dem Level 4 hingegen auf die nicht-empirischen Phänomene, dann bilden die Level 4.0 – 4.3 das, was wir die SUBJEKTIVE WISSENSCHAFT nennen könnten. Auch hier würde man die Dinge mit einer eigenen Fachsprache benennen = beschreiben; man definiert Verfahren, wie man möglicherweise Eigenschaften reproduzierbar erzeugen kann; und man benutzt die Mathematik und die formale Logik, um Modelle (THEORIEN) zu konstruieren. Eine Verständigung über Theorien der subjektiven Wissenschaft wären aufgrund der subjektiven Wahrnehmungsbasen ungleich schwieriger als im Falle von empirischen Theorien, aber niht völlig augeschlossen.

KREATIVITÄT

11. Hat man das ‚automatische‘ Verhalten überwunden (so wie es alle tun, so wie man es gelernt hat), und ist sich stattdessen bewusst geworden, dass man so und so handelt, und hat man angefangen das Automatische bewusst zu rekonstruieren, dann kann man jetzt auch bewusst Alternativen durch Variationen erzeugen [Anmerkung: natürlich kann man auch ohne Reflexion ’spontan‘ Dinge anders tun, als man sie vorher getan hat, aber dies ist dann ‚überwiegend zufällig‘, während ein Kreativität in einem reflektierten Kontext sowohl ‚gerichtet‘ ist aufgrund des verfügbaren Wissens, zugleich aber auch ‚zufällig‘, jedoch in einem viel größeren Umfang; nicht nur ‚punktuell‘]. Man kann jetzt sehr bewusst fragen, ‚warum‘ muss ich dies so tun? Warum will ich dies so? Was sind die Voraussetzungen? Was sind die Motive? Was sind die Ziele? Was will man erreichen? Usw.

12. Ein Ergebnis dieser Infragestellungen kann sein, dass man bestimmte Abläufe ändert, einfach, um mal heraus zu finden, was passiert, wenn man es anders macht. Häufige Fälle: jemand hat nie Gedichte geschrieben, weil niemand ihn vorher dazu angeregt hat, Gedichte zu schreiben; oder jemand hat nie Musik gemacht, weil sie sich immer eingeredet hat, sie sei unmusikalisch. Jemand hat nie vor anderen Menschen geredet, weil er immer Angst hatte, sich zu blamieren. Usw. Kurzum bei Erreichen von Level 4 beginnt man zu ahnen, dass alles anders sein könnte, als man es bislang gewohnt war und praktiziert hatte. Nennen wir diese neu gewonnene kreative Freiheit den LEVEL 5.

Fortsetzung folgt

SÄKULARES GLAUBENBEKENNTNIS? Ein Telefonat und ein Soundtrack vom April 2014

1. Seit dem Besuch des ersten religionspolitischen Kongresses der GRÜNEN gab es sehr viele anregende Impulse. Einer berührt das Thema ‚Säkularisierung‘. Im letzten sehr langen Telefonat mit einem Mitglied der säkularen GRÜNEN skizzierte dieser das Spektrum der verschiedenen Bewegungen und Initiativen, die sich in Deutschland irgendwie der Wortmarke ’säkular‘ zuordnen lassen. Nach einem beeindruckenden Überblick entstand unter dem Strich der Eindruck, dass alle diese verschiedenartigen Bewegungen irgendwie mit der Kritik an den bekannten Religionen auch gleich ‚Gott selbst‘ eliminiert hatten und haben. Am radikalsten vielleicht die ‚Naturalisten im engeren Sinne‘ mit einer ‚Geist- und Gottfreien Materie‘.

2. Im Hin und Her des Gesprächs deutete sich an, dass wir der Überzeugung sind, dass eine Kirchen- und Religionskritik nicht automatisch auch eine ‚Abschaffung Gottes‘ impliziert, da ‚Religiosität‘ etwas so Fundamentales in Empfinden der Menschen ist, dass diese Empfindsamkeitsstruktur nicht schon durch Kritik an institutionellen Fehlformen von Religion betroffen sein muss (was im übrigen die Frage, ob und wie ‚Gott‘ sei, noch weitgehend im Hintergrund lässt).

3. Auch bieten die neuen Entwicklungen in der Wissenschaft sowie der Wissenschaftsphilosophie neue Ansatzpunkte, um die schroffe Gegenüberstellung von naturwissenschaftlichem Wissen hier und religiösem Weltverständnis dort zumindest in Frage zu stellen (ein Thema in diesem Blog seit langem).

4. Dazu kommt, dass – zumindest im Bereich der christlichen Kirchen, und hier besonders im Bereich der römischen Papstkirche – das Verhältnis zwischen ‚kirchlichem Amt‘ und ‚Spiritualität‘ – also eigener religiöser Erfahrung – seit Anbeginn problematisch war. Spätestens ab dem 5. Jahrhundert befand sich das religiöse Empfinden des einzelnen unter der vollständigen Kontrolle des Amtes. Was immer ein einzelner erleben mochte, es spielte künftig keine Rolle mehr. Es galt nur noch das, was dem Amt ‚genehm‘ war. Abweichungen wurden mit Bestrafung oder direktem Ausschluss bzw. mit dem Tod bestraft.

5. Ein prominentes Opfer dieser Verhältnisse ist der Jesuitenorden. Lange Zeit und für Viele galten die Jesuiten als besonders papsttreu und ’nah an der Macht‘. Die Wahrheit ist aber komplexer.

6. Es stimmt, dass die Jesuiten aufgrund ihrer Ordenssatzung sich dem Papst direkt ‚unterworfen‘ hatten, und es stimmt, dass diese ‚Unterwerfung‘ von ihrer Spiritualität weitgehend gedeckt wurde.

7. Was man aber nicht übersehen sollte, ist, dass das Spiritualitätsmodell der Jesuiten – soweit man es an der Autobiographie des Ordensgründers Ignatius von Loyola und seinem konkreten Wirken (und dem seiner Ordensmitglieder) ablesen kann – vom Ansatz her hochmodern ist, ganz und gar erfahrungsbasiert, und ein Modell darstellt, wie es jeder Mensch – auch heute – praktizieren könnte. Dieses Modell war so leistungsfähig, dass die Jesuiten im 16. und 17.Jahrhundert in der Lage waren, in allen Kontinenten Sprachen zu lernen, sich neue Kulturen anzueignen, sich anderen Lebensformen anzupassen, neue Gesellschaftsformen zu erfinden, also auf breiter Front Dinge zu tun, die mit dem damaligen engen Kirchen- und Religionsverständnis eigentlich nicht vereinbar waren. Diese Kreativität und Dynamik wurde ihnen dann schließlich zum Verhängnis, als die Differenz zu anderen ‚konkurrierenden‘ Orden und zu verschiedenen staatlichen Machtpositionen zu groß wurde. Es kam zum ersten weltweiten Verbot des Ordens ohne einen wirklichen Prozess, für viele völlig überraschend, verbunden mit Einkerkerungen und Tod.

8. Man kann natürlich die Frage aufwerfen, warum die Jesuiten, wenn sie doch so eine großartige Spiritualität hatten, dann nicht die Problematik der römischen Papstkirche erkannt und daraus ihre Konsequenzen gezogen haben? Eine Antwort auf diese Frage würde es erfordern, tiefer in dieses Spiritualitätsmodell einzusteigen, was an dieser Stelle jetzt nicht geschehen soll. Fakt ist nur, dass auch das jesuitische Spiritualitätsmodell von jedem einzelnen mehrjährige ‚Lernphasen‘ abverlangt in Wechselwirkung mit kognitiver Verarbeitung. Die Erfahrung der ‚Nähe Gottes‘ ersetzt keine analytische Erkenntnis! (Dies erklärt auch, warum Mohammed als Prophet sehr wohl unmittelbare Gotteserfahrungen gehabt haben kann ohne deswegen zugleich auch die volle Weite der möglichen analytischen Erkenntnisse besessen zu haben. Schon die großen islamischen Theologen des 11. Jahrhunderts gingen weit über Mohammed hinaus. Aber auch hier gilt: die mögliche berechtigte Kritik an Aussagen eines Menschen ändert nichts an der Tatsache, dass dieser Mensch genuine, authentische Erfahrungen gemacht haben kann, die für diesen Menschen sehr wichtig waren).

9. Außerdem sollte man bedenken, dass das allgemeine ‚religionsunabhängige‘ wissenschaftliche Weltwissen sich ja auch erst – nimmt man das Wirken von Galilei als einen Bezugspunkt – über ca. 350 Jahre mühsam im direkten Kampf gegen die römische Papstkirche entwickeln musste, d.h. selbst wenn es eine ’spirituelle Richtung‘ gegeben haben mag, ein ‚passendes Wissen‘ war schwer verfügbar.

10. Das, was man exemplarisch an der Geschichte des Jesuitenordens beobachten kann, kann man weitgehend auf alle Menschen in der römischen Papstkirche übertragen, die versucht haben, eine eigene, authentische Spiritualität zu leben: entweder mussten sie die Kirche verlassen oder die eigene Spiritualität so weitgehend verleugnen, dass von der Sprengkraft, die einer authentischen Spiritualität innewohnt, nicht mehr viel übrig blieb. Verständlicherweise ist diese destruktive Wirkung einer Amtskirche auf die Spiritualität ihrer Mitglieder in der offiziellen Theologie nie untersucht worden.

11. Im übrigen steht im Raum, dass dieses negative, menschenverachtende Verhalten gegenüber der individuellen Erfahrung – wie wir mittlerweile wissen können – ein durchgehender Zug vieler (aller?) organisierter (Offenbarungs-)Religionen ist, und sich auch in politischem Kontext in allen Staaten wiederfindet, die versuchen ohne demokratische Strukturen mit purer Macht die Bürger zu befehligen und zu bevormunden. Pluralität, Pressefreiheit, Toleranz usw. sind äußere Kennzeichen einer Gesellschaft, in der die subjektive Erfahrung des einzelnen – zumindest im Ansatz und grundsätzlich – akzeptiert und geachtet wird. Die formale Trennung von Staat und Religion in demokratischen Staaten ist daher nicht ein ‚weniger an Religion‘, sondern die einzige Voraussetzung für eine ‚wahre Religion‘, die in der Subjektivität des einzelnen wurzelt.

12. Allerdings kann man den Eindruck haben, dass die Bürger demokratischer Staaten, die sich von erfahrungsfeindlichen Religionen gelöst haben, deswegen nicht automatisch zu ihrer eigenen, authentischen Religiosität finden. Die negativen Beispiele der organisierten Religionen können – trotz Ablehnung – so blockierend wirken, dass trotz der Ablehnung von etwas Menschenfeindlichem deswegen noch nicht der Blick, das Gefühl, der Verstand frei ist für die konstruktive Alternative (in diesem Sinne kann/ muss man fragen, ob nicht die offiziellen Religionen selbst das größte Hindernis sind, um zur eigenen, wahren Religiosität zu finden? Natürlich haben die bekannten Religionen auch Großartiges hervorgebracht; das macht die Sache nicht einfach).

13. Hier wäre viel zu tun. Die nächsten Monate und Jahre werden zeigen, ob und wie wir alle in diesen Fragen weiterkommen werden. Aktuell kann man den Eindruck gewinnen, dass die ‚Regression‘ auf die alten, menschenverachtende Religionsmuster mehr Attraktivität besitzen als der Aufbruch in eine neue Religiosität, die dort beginnt, wo die Aufklärung, die Wissenschaft, die demokratischen Staatsformen uns hingebracht haben, in einen Raum, in dem individuelle, subjektive Erfahrung geduldet, gefördert und offiziell geschützt wird, begleitet von einem großartigen empirischen Wissen über die Welt im Universum, eingebettet in neue globale Kommunikationsformen.
14. Angeregt durch diese Gedanken fiel mir ein Soundtrack auf, den ich im April 2014 aufgezeichnet hatte und der im Kontext dieser Gedanken eine Anregung für ein ’säkulares Glaubensbekenntnis‘ sein könnte. Hier der Soundtrack (Warnung: Laufzeit 18 Minuten! Eine entspannte, ruhige Situation wird empfohlen):

15. Soundtrack vom April 2014: Säkulares Glaubensbekenntnis?.

16. ANMERKUNG: Der Soundtrack wurde nach der Methode ‚radically unplugged‘ generiert. Diese Methode hat einen direkten Bezug zum Thema dieses Blogeintrags, da die radically unplugged Methode hier einen Musikbegriff repräsentiert, der sich gegen die etablierten Dogmen von Musik stellt und den einzelnen mit seiner Subjektivität zur primären authentischen Quelle von Musik erklärt. Radically unplugged Aufnahmetechnik bedeutet, dass jeder jederzeit jede Art von Klang erzeugen und aufzeichnen kann, Manipulationen vornehmen kann, und der entstehende Klang ist immer ‚richtig‘. Natürlich kann man solche Radically Unplugged Musik (= RUM) dann nach beliebigen Kriterien diskutieren, und natürlich wird es immer Menschen geben, die aufgrund von spezieller Begabung und langjährigem Training bestimmte Klänge hervorbringen, die ohne diese Begabung und Motorik von keinem anderen live so hervorgebracht werden können. Dennoch erscheint es mir falsch, solche – irgendwo bewunderungswürdigen – Leistungen zum einzigen Maßstab zu erklären. Ziel sollte es sein, dass jeder angeregt wird, seine individuelle Klangfähigkeit zu entwickeln, da sie, wie Lesen und Schreiben, zu Grundfähigkeiten des individuellen Selbsterfahrens und Kommunizierens gehören.

17. Im übrigen leben wir in einer Zeit, in der die moderne Technik es möglich macht, dass jeder einzelne auch ohne reale Orchester und teuerste Instrumente heute Klangräume durchwandern kann, die weit über das hinaus gehen, was klassische Musikinstrumente ermöglicht haben. Die junge Generation hat dies vielfach schon erkannt und geht hier unbekümmert neue Wege, abseits der ‚Feuilletonpäpste‘ und ‚Radiooberlehrer’…

Einen Überblick über alle bisherigen Blogeinträge von cagent nach Titeln findet sich HIER.

PSYCHOLOGIE DER SUCHE – UND MANCH ANDERES. Zur Philosophiewerkstatt vom 9.Nov.2014

A) PSYCHOLOGIE DER SUCHE
B) SELBSTORGANISATION DES DENKENS
C) NEUE MUSIK
D) SUBJEKTIVE GEWISSHEIT – OBJEKTIVER RAHMEN
E) MENSCH UND COMPUTER
F) SELBSTVERNICHTUNG DES MENSCHEN?
G) PROGRAMMENTWURF FÜR So 14.Dez.2014

1. Nach dem Start der philosophieWerkstatt v2.0 am 12.Oktober (siehe einen subjektiven Bericht davon hier) hat sich die Zahl der TeilnehmerInnen mehr als verdoppelt. Dies erweiterte den Raum der Erfahrungen, die in das Gespräch eingehen können. Aber eine größere Anzahl verändert auch den Fluss eines Gespräches. Man muss lernen, wie man damit umgeht.

A) PSYCHOLOGIE DER SUCHE

2. Das Gespräch startete mit einem kurzen Bericht von der ersten Sitzung (siehe das Schaubild vom letzten Bericht). Darauf bezogen gab es unterschiedliche Rückmeldungen, die aber dieses Mal nicht alsbald zu dem ‚Gesprächsfluss‘ führte, wie er die erste Sitzung charakterisierte, sondern erweckte bei den Beteiligten den Eindruck eines auf der Stelle Tretens. Man hatte subjektiv individuell Erwartungen, aber diese fand man im aktuellen Gesprächsgeschehen nicht wieder.

Stichwortsammlung 9.Nov.2014 (rosa Ellipsen)
Stichwortsammlung 9.Nov.2014 (rosa Ellipsen)

3. In solchen Situationen einer ‚quälenden Ungewissheit‘ ist es eine häufige Versuchung, nach altbekannten Rezepten zu greifen, um ‚irgendetwas‘ zu machen, damit man überhaupt etwas macht; ‚quälende Ungewissheit‘ wird jedenfalls bei den meisten als ‚unangenehm‘ empfunden.

4. Jeder, der schon mal ein Problem in einer bestimmten Zeit lösen musste, kennt diese Situation. Man muss (oder will) eine Lösung finden, aber aktuell hat man sie noch nicht. Was tut man? Wo fängt man an? Wo sollte man suchen? Man spürt seine eigene Unzulänglichkeit. Man zweifelt an sich. Man wird unruhig? Man fragt sich, ob es die richtige Entscheidung war, sich in diese Situation zu bringen… und Ähnliches.

5. Die Gruppe hat diese Situation eines gemeinsamen Suchens ohne aktuell subjektiv befriedigende Situation sehr konstruktiv gelöst. Keiner stand auf und ging einfach weg. Jeder versucht, die Situation konstruktiv anzunehmen und doch noch eine Lösung zu finden.

6. Eine Phase von Gesprächen in kleineren Gruppen löste die Lähmung auf, führte zu lebhaften inspirierenden Gesprächen und führte dann zu einem ‚Plan‘ für das weitere Vorgehend bei der nächsten Sitzung.

B) SELBSTORGANISATION DES DENKENS

7. Die individuell-gemeinschaftliche Suche nach etwas, was in sich noch nicht so bekannt ist, wo der Weg tatsächlich ein wesentlicher Teil des Zieles ist, unterliegt gewissen Randbedingungen, die gewisse Verhaltensweisen bedingen.

8. So macht es natürlich einen Unterschied, ob man einen Abend bei ‚Punkt Null‘ beginnt, ohne Voraussetzungen in der Vergangenheit; man kann direkter zu den Punkten kommen. Da nur 1/3 der Teilnehmer vom 12.Okt.2014 auch am 9.Nov. anwesend waren, wussten 2/3 am aktuellen Abend nichts von der Vorgeschichte. Die Vermischung von letzter Sitzung und aktueller Sitzung wirkte daher weniger inspirierend sondern eher wie ein Bremsklotz. Die Gruppe erarbeitete die Hypothese, jede Sitzung mit einem bestimmten Thema anzufangen, das von einer Mehrheit als ‚gesprächswürdig‘ angesehen wird.

9. Ferner spielt natürlich die Anzahl eine Rolle. Je mehr Gesprächsteilnehmer anwesend sind, umso schwieriger wird ein Gespräch, da man auf immer mehr Erwartungshorizonte eingehen muss. Dies wird ab 4-5 Personen schon zunehmend schwer. Eine Klärung der eigenen Position zu einem Thema sollte daher einen Kommunikationsraum haben, der ‚Leichtgängig‘ ist. Die Gruppe erarbeitete daher die weitere Arbeitshypothese, zumindest zu Beginn des Treffens eine oder zwei Gesprächsphasen in kleinen Gruppen zu organisieren, die dann als Gruppe fokussiert ihre Ergebnisse allen anderen vorstellen. Anhand des Bildes, das dann aus diesen Gruppengesprächen entstehen, könnte man dann immer gemeinsame Reflexions- und Gesprächsphasen einschieben.

10. Auf diese Weise kann man überschaubare, persönliche Gesprächsprozesse erhalten, kann sich jede Gruppe dort abholen, wo sie steht, kann sich zusätzliche ein übergreifendes ‚Gedankenbild‘ entwickeln, das man im Kontext bekannter Erkenntnisse/ Modelle/ Theorien diskutiert.

C) NEUE MUSIK

11. Der Veranstalter macht unter dem Namen cagentArtist seit ca. 6 Jahren Experimente mit Klangräumen auf der Suche nach ’neuen Klängen‘. Dabei hat er vielfältige Erfahrungen gemacht beim ‚Suchen‘ nach neuen Klängen. Wie sucht man nach etwas, was man noch nicht kennt? Er hat dazu eine Methode entwickelt die das Individuum ins Zentrum stellt, die unabhängig ist von individuellen Fähigkeiten, von vieljährigen Trainingsprogrammen, unabhängig von ‚herrschendem Geschmack‘, von welchen Monopolen auch immer. Es geht um eine Begegnung mit neuen Klängen ‚für jeden‘, ‚zu jeder Zeit‘, ‚unabhängig‘ vom Monopol eines Senders, einer Redaktion, eines Sinfonieorchesters, vom Mainstream: ‚Bottom-Up‘, ‚Graswurzel‘ …. Das Bild vom großen Künstler, der eine ‚göttliche Inspiration‘ empfängt, die er ‚meisterlich‘ in eine ‚Form gießt‘, die die ‚hohe Musik‘ verkörpert, ist eine Ideologie. Sie begründet zu Unrecht eine Machtstruktur der ‚Musikwissenden hier‘ und der ‚Musikunmündigen‘ ansonsten. Dies führt zu einer Entmündigung fast aller Menschen in Sachen Musik. Oder der ‚Mainstream‘ als ‚Terror‘. Es geht um eine ‚Demokratisierung‘ des Umgangs mit Musik.

12. Es entstand im Gespräch die Idee, zu Beginn jeder Sitzung ein kurzes Musikstück aus dem Bereich der neuen Musik anzuhören und dann kurz über die ‚Emotionen‘ zu sprechen, die es auslöst, über den Weg, wie diese Klänge entstanden sind, und ob und wie man selbst einen Weg zu Klängen hätte.

D) SUBJEKTIVE GEWISSHEIT – OBJEKTIVER RAHMEN

13. In einer kurzen, aber ‚emotional wirksamen‘ Phase, gab es Dialoge zum Thema ’subjektive Gewissheit‘, z.B. dass hier ‚objektiv‘ ein Tisch sei, weil ich ihn anfassen kann, und den objektiven Erkenntnissen der modernen Physiologie und Gehirnforschung andererseits, dass das Gehirn als Zentrum vielfältiger Informationsverarbeitung im Körper, natürlich nicht den ‚Tisch als solchen‘ ‚wahrnimmt‘, sondern nur die ‚Wirkungen‘ übermittelt bekommt, die der ‚Tisch da draußen‘ auf die beteiligten Sinnesorgane auslöst. Aus den Daten der Sinnesorgane (auch der ‚inneren‘ (propriozeptiven) Sinnesorgane) konstruiert dann das Gehirn sein Bild von der ‚Welt da draußen‘.

14. Es gab bei einzelnen Schwierigkeiten, die subjektive Erkenntnis mit den Daten der modernen empirischen Wissenschaften zu verschränken. Die Schwierigkeit bestand darin, den Wahrheitsgehalt der subjektiven Erkenntisse in den objektiv-empirischen Erkenntniszusammenhang ‚einzubetten‘; die subjektive Erkenntnis wird damit nicht ‚aufgehoben‘, wohl aber ‚zusätzlich interpretiert‘.

15. Die ‚Objektivität‘ wird damit nicht vernichtet, sondern gestärkt. ‚Wahrheit‘ verschwindet nicht, sondern wird dadurch nur differenzierter. Dass es Menschen gibt, die sich ‚Philosophen‘ nennen und die aus den Erkenntnissen der modernen Wissenschaften eine allgemeine ‚Relativierung‘ ableiten, erscheint nicht zwingend, müsste aber in einem längeren differenzierten Gespräch erklärt werden.

E) MENSCH UND COMPUTER

16. Im Nachgespräch einer kleinen Gruppe wurde höchst intensiv die Frage diskutiert, ob und wieweit ein Computer einen Menschen ’nachbilden‘ oder gar ‚ersetzen‘ können. Es wurden sehr viele kluge Dinge gesagt. Die Kernfrage einer Teilnehmerin, wieweit das an die Körperlichkeit gebundene ‚Kinderkriegen‘ durch eine Frau und die damit einhergehende ‚Weiterentwicklung‘ eines Menschen/ der Menschheit durch Maschinen (Computer) ’nachgebildet‘ werden könnte, blieb trotz einiger Argumente noch etwas offen.

F) SELBSTVERNICHTUNG DES MENSCHEN?

17. Im Zusammenhang der aktuellen Diskussion um die kommende ‚Weltherrschaft der Maschinen‘ (Singularitätshypothese, Transhumanismus) kann man den Eindruck gewinnen, dass die Diskussionsteilnehmer ‚wie besoffen‘ von den Fähigkeiten der ’neuen Maschinen‘ sind, ohne sich dabei noch irgendwelche Gedanken über den Menschen zu machen. Das Wunder des Lebens auf der Erde (und damit im Universum), das sich seit ca. 4 Mrd.Jahren in extrem komplexen und erstaunlichen Prozessen abgespielt hat, wird vollständig ausgeklammert. Die vielen grundlegenden Fragen, die sich hier stellen, die alle noch nicht beantwortet sind, werden gar nicht erst diskutiert.

18. Dass die ‚alten Menschenbilder‘ der bisherigen Traditionen (insbesondere auch der großen Religionen (Hinduismus, Judentum, Buddhismus, Christentum, Islam) bei heutigem Wissensstand vielfach nicht mehr adäquat sind, ist eine Sache, aber dann den Menschen quasi einfach in der Versenkung schwinden zu lassen als sich der Herausforderung eines ’neuen Menschenbildes‘ zu stellen, ist nicht nur methodisch unsauber sondern natürlich ein direkter Angriff auf die Gesamtheit des Lebens im Universum schlechthin. Der Mensch schafft sich selbst ab; das ist mehr als Genozid (was eigentlich von der UN geächtet ist).

19. Während ‚Religion‘ eigentlich etwas Existentiell-Empirisches ist, das seine ‚Wurzeln‘ im ‚Transzendenten‘ zu ’spüren‘ meint, scheinen die ‚Institutionen‘ der Religionen eher ‚Machtgetrieben‘ zu sein, die im Konfliktfall das Existentiell-Empirische der Religion bekämpfen. Das Existentiell-Empirische wertet den einzelnen Menschen (jedes Lebewesen!?) grundlegend auf. Religiöse Erfahrung verbindet jeden potentiell mit Gott, was aber eine institutionelle Macht in Frage stellt.

20. Im Kontext der Diskussion um das ‚Neue Menschenbild‘ erscheinen die von den religiösen Institutionen ‚propagierten‘ Menschenbilder daher tendenziell ‚verzerrt‘, ‚partiell‘, ‚irreführend‘. Wenn dies zutrifft – als Autor gehe ich davon aus –, dann helfen die Menschenbilder der institutionellen Religionen uns momentan wenig in der Auseinandersetzung um das ‚Neue Menschenbild‘. Im Gegenteil, sie blockieren den Zugang zu dem ‚je größeren Bild‘ vom Menschen im Universum, vom Leben im Universum, und damit bedrohen sie die ‚Zukunft‘ des Lebens unmittelbar.

G) PROGRAMMENTWURF FÜR So 14.Dez.2014

21. Für die nächste Sitzung wurde von den Anwesenden daher folgender Programmvorschlag formuliert:
22. Eingangsbeispiel eines Experimentes zur ‚Neuen Musik‘ mit kurzem Gespräch
23. Kurze Einführung zum Thema ‚Emotionen‘
24. Erste Gesprächsrunde in kleinen Gruppen (3-4) zum Thema
25. Berichte der Gruppen und Diskussion
26. Eventuell Wiederholung Gesprächsgruppen und gemeinsame Diskussion
27. Mögliche Aufgabenstellung für nächstes Treffen
28. Offener Ausklang

Erste Vorübelegungen zur philosophieWerkstatt v2.0 am 14.12.2014 finden sich HIER.

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

INDIVIDUUM vs. SYSTEM: Wenn das Individuum tot ist wird das System sterben …

1. Die folgenden Überlegungen müsste man eigentlich mit viel Mathematik und Empirie untermauert hinschreiben. Da ich aber auf Wochen absehbar dazu nicht die Zeit haben werde, ich den Gedanken trotzdem wichtig finde, notiere ich ihn so, wie er mir jetzt in die Finger und Tasten fließt …

PARADOX MENSCH Mai 2012

2. Am 4.Mai 2012 – also vor mehr als 2 Jahren – hatte ich einen Blogeintrag geschrieben (PARADOX MENSCH), in dem ich versucht hatte, anzudeuten, wie der eine Mensch in ganz unterschiedlichen ’sozialen Rollen‘, in ganz unterschiedlichen gesellschaftlichen Kontexten vorkommt und dort, je nach Handlungs-, Wissens- und Werteraum ganz verschiedene Dinge tun kann. Derselbe Mensch kann hundert Tausende für sich bis zum umfallen Arbeiten lassen und selbst dabei ‚reich‘ und ‚genussvoll‘ in den Tag hinein leben oder er kann als genau dieser einzelner in einer Werkhalle stehen und für einen Hungerlohn bei miserablen Bedingungen sein Leben aufarbeiten, ohne viel darüber nachdenken zu können, wie er sein Leben ändern könnte. Der Mensch in der Werkhalle kann viel intelligenter, viel begabter sein als der, der die hundert Tausende befehligt, aber der in der Werkhalle hat keine sozialen Räume, um diese seine Begabungen ausleben zu können. Vielleicht wäre er ein mathematisches Genie, ein großer Pianist, ein begnadeter Architekt, eine wunderbare Krankenschwester, ein(e) …. wir werden es in der aktuellen Situation nicht wissen, es sei denn …

3. Was sich in dem Blogeintrag von 2012 andeutet, aber nicht explizit ausgeführt wird, das ist diese ‚doppelte Sicht‘ auf die Wirklichkeit:

INDIVIDUELL-SUBJEKTIV, SYSTEMISCH – TRANSSUBJEKTIV

4. als Individuen, als einzelne ‚erleben‘ wir die Welt aus unserer subjektiven Perspektive, mit unserem einzelnen Körper, finden uns vor in einem gesellschaftlichen Kontext, der uns als Kinder ‚empfängt‘ und der von Anfang an ‚mit uns umgeht‘. Als Kinder können wir fast nichts machen; wir sind ‚Gegenstand‘ dieser Prozesse‘, sehr oft einfach nur ‚Opfer‘; der Prozess ‚macht mit uns‘ etwas. Wie wir wissen können, gibt es hier die volle Bandbreite zwischen Hunger, Quälereien, Missbrauch, Folter, Arbeit bis hin zu friedlicher Umgebung, umsorgt werden, genügend (zu viel) zu Essen haben, spielen können, lernen können usw.

5. Wir erleben die Welt aus dieser EGO-Perspektive mit dem individuellen Körper, seinem Aussehen, seiner Motorik, seinen Eigenheiten in einer Umgebung, die ihre Spielregeln hat, unabhängig von uns. Wir gewinnen ein BILD von uns, das sich über die Umgebung formt, bildet, zu unserem Bild über uns wird, eine Rückspiegelung von uns unter den Bedingungen der Umgebung. Jemand hat die Begabung zu einem Ingenieure, wird aber immer nur belohnt und unterstützt, wenn er etwas ganz anderes macht, also wird er normalerweise nie Ingenieure werden. … Wer nur überlebt, wenn er lernt sich anzupassen oder andere mit Gewalt niederhält, permanent Angst um sich verbreitet, der wird selten zu einem ‚friedlichen‘, ‚umgänglichen‘ Gegenüber …

6. Aus Sicht ‚der Welt‘, der sozialen Struktur, der Firma, der Behörde, kurz, aus Sicht ‚des Systems‘ ist ein einzelner immer dasjenige ‚Element‘, das ‚im Sinne des Systems‘ ‚funktioniert‘! Wer Lehrer in einer Schule geworden ist, wurde dies nur, weil es das ‚System Schule‘ gibt und der einzelne bestimmte ‚Anforderung‘ ‚erfüllt‘ hat. Solange er diese Anforderungen erfüllt, kann er in dem ‚System Schule‘ das Element genannt ‚Lehrer‘ sein.

7. Das System interessiert sich nicht dafür, ob und wie das einzelne Element Lehrer auf seiner subjektiven Seite die alltäglichen Ereignisse, Erlebnisse, Anforderungen verarbeitet, verarbeiten kann; wenn das Element ‚Lehrer‘ im Sinne des Systems ‚Schwächen‘ zeigt, Anforderungen länger nicht erfüllen kann, dann muss das System dieses ’schwächelnde Element‘ ‚entfernen‘, da es ansonsten sich selbst schwächen würde. Das ‚System Schule‘ als gesellschaftliches System bezieht seine Berechtigung aus der Systemleistung. Wird diese nicht erbracht, dann gerät es – je nach Gesellschaft – unter Druck; dieser Druck wird auf jedes einzelne Element weiter gegeben.

8. Solange ein einzelnes Element die Systemanforderungen gut erfüllen kann bekommt es gute Rückmeldungen und fühlt sich ‚wohl‘. Kommt es zu Konflikten, Störungen innerhalb des Systems oder hat das individuelle Element auf seiner ’subjektiven Seite‘ Veränderungen, die es ihm schwer machen, die Systemanforderungen zu erfüllen, dann gerät es individuell unter ‚Druck‘, ‚Stress‘.

9. Kann dieser Druck auf Dauer nicht ‚gemildert‘ bzw. ganz aufgelöst werden, wird der Druck das individuelle Element (also jeden einzelnen von uns) ‚krank‘ machen, ‚arbeitsunfähig‘, ‚depressiv‘, oder was es noch an schönen Worten gibt.

MENSCHENFREUNDLICHE SYSTEME

10. In ‚menschenfreundlichen‘ Systemen gibt es Mechanismen, die einzelnen, wenn Sie in solche Stresssituationen kommen, Hilfen anbieten, wie der Druck eventuell aufgelöst werden kann, so dass das individuelle Element mit seinen Fähigkeiten, Erfahrungen und seinem Engagement mindestens erhalten bleibt. In anderen – den meisten ? — Systemen, wird ein gestresstes Element, das Ausfälle zeigt, ‚ausgesondert‘; es erfüllt nicht mehr seinen ’systemischen Zweck‘. Welche der beiden Strategien letztlich ’nachhaltiger‘ ist, mehr Qualität im System erzeugt, ist offiziell nicht entschieden.

11. In ‚menschenfreundlichen Gesellschaftssystemen‘ ist für wichtige ‚Notsituationen = Stresssituationen‘ ‚vorgesorgt‘, es gibt systemische ‚Hilfen‘, um im Falle von z.B. Arbeitslosigkeit oder Krankheit oder finanzieller Unterversorgung unterschiedlich stark unterstützt zu werden. In weniger menschenfreundlichen Systemen bekommt das einzelne Element, wenn es vom ‚System‘ ‚ausgesondert‘ wird, keinerlei Unterstützung; wer dann keinen zusätzlichen Kontext hat, fällt ins ‚gesellschaftliche Nichts‘.

12. Unabhängig von ökonomischen und gesellschaftlichen Systemen bleiben dann nur ‚individuell basierte Systeme‘ (Freundschaften, Familien, Vereine, private Vereinigungen, …), die einen ‚Puffer‘ bilden, eine ‚Lebenszone‘ für all das, was die anderen Systeme nicht bieten.

INDIVIDUELLE GRATWANDERUNG

13. Ein einzelner Mensch, der sein Leben sehr weitgehend darüber definiert, dass er ‚Systemelement‘ ist, d.h. dass er/sie als Element in einem System S bestimmte Leistungen erbringen muss, um ‚mitspielen‘ zu können, und der für dieses ‚Mitspielen‘ einen ‚vollen Einsatz‘ bringen muss, ein solcher Mensch vollzieht eine permanente ‚Gratwanderung‘.

14. Da jeder einzelne Mensch ein biologisches System ist, das einerseits fantastisch ist (im Kontext des biologischen Lebens), andererseits aber natürliche ‚Grenzwerte‘ hat, die eingehalten werden müssen, damit es auf Dauer funktionieren kann, kann ein einzelner Mensch auf Dauer als ‚Element im System‘ nicht ‚absolut‘ funktionieren; es braucht Pausen, Ruhezonen, hat auch mal ’schwächere Phasen‘, kann nicht über Jahre vollidentisch 100% liefern. Dazu kommen gelegentliche Krankheiten, Ereignisse im ‚privaten Umfeld, die für die ‚Stabilisierung‘ des einzelnen wichtig sind, die aber nicht immer mit dem ‚System‘ voll kompatibel sind. Je nach ‚Menschenunfreundlichkeit‘ des Systems lassen sich die privaten Bedürfnisse mit dem System in Einklang bringen oder aber nicht. Diese zunächst vielleicht kleinen Störungen können sich dann bei einem menschenunfreundlichem System auf Dauer zu immer größeren Störungen auswachsen bis dahin, dass das einzelne individuelle Element nicht mehr im System funktionieren kann.

15. Solange ein einzelnes Element nur seine ’subjektive Perspektive‘ anlegt und seine eigene Situation nur aus seiner individuellen Betroffenheit, seinem individuellen Stress betrachtet, kann es schnell in eine Stimmung der individuellen Ohnmacht geraten, der individuellen Kraftlosigkeit, des individuellen Versagens verknüpft mit Ängsten (eingebildeten oder real begründet), und damit mit seinen negativen Gefühlen die negative Situation weiter verstärken. Das kann dann zu einem negativen ‚Abwärtsstrudel‘ führen, gibt es nicht irgendwelche Faktoren in dem privaten Umfeld, die dieses ‚auffangen‘ können, das Ganze zum ‚Stillstand‘ bringen, ‚Besinnung‘ und ’neue Kraft‘ ermöglichen und damit die Voraussetzung für eine mögliche ‚Auflösung der Stresssituation‘ schaffen.

16. Menschen, die annähernd 100% in ihr ‚Element in einem System‘ Sein investieren und annähernd 0% in ihr privates Umfeld, sind ideale Kandidaten für den individuellen Totalcrash.

17. ‚Plazebos‘ wie Alkohol, Drogen, punktuelle Befriedigungs-Beziehungen, bezahlte Sonderevents und dergleichen sind erfahrungsgemäß keine nachhaltige Hilfe; sie verstärken eher noch die individuelle Hilflosigkeit für den Fall, dass es ernst wird mit dem Stress. Denn dann helfen alle diese Plazebos nichts mehr.

WAS WIRKLICH ZÄHLT

18. Das einzige, was wirklich zählt, das sind auf allen Ebenen solche Beziehungen zu anderen, die von ‚tatsächlichem‘ menschlichen Respekt, Anerkennung, Vertrautheit, Zuverlässigkeit, und Wertschätzung getragen sind, dann und gerade dann, wenn man phasenweise seine ‚vermeintliche Stärke‘ zu verlieren scheint. Das umfasst private Wohnbereiche zusammen mit anderen sowie ‚echte‘ Freundschaften, ‚echte‘ Beziehungen, ‚gelebte‘ Beziehungsgruppen, ‚Gefühlter Sinn‘, und dergleichen mehr.

LOGIK DES SYSTEMS

19. Die ‚Logik der Systeme‘ ist als solche ’neutral‘: sie kann menschenrelevante Aspekte entweder ausklammern oder einbeziehen. Solange es ein ‚Überangebot‘ an ‚fähigen Menschen‘ für ein System gibt, kann es vielleicht menschenrelevante Aspekte ‚ausklammern‘, solange das ‚gesellschaftliche Umfeld‘ eines Systems die ‚Störungen absorbiert‘. Wie man weiß, kann aber die ‚Qualität‘ eines Systems erheblich leiden, wenn es die ‚menschenrelevanten‘ Aspekte zu stark ausklammert; auch wird ein gesellschaftliches Umfeld – wie uns die Geschichte lehrt – auf Dauer ab einem bestimmten Ausmaß an zu absorbierenden Störungen instabil, so dass auch die für sich scheinbar funktionierenden Systeme ins Schwanken geraten. Die Stabilität eines Systems ist niemals unabhängig von seiner Umgebung. So führte historisch eine auftretende krasse Vermögens- und Arbeits-Ungleichverteilung immer wieder zu starken Turbulenzen, Revolutionen, in denen Menschen sich wehren. Denn letztlich sind alle absolut gleich, jeder hat die gleichen Rechte. Das einseitige Vorenthalten von Rechten bei den einen und die einseitige Privilegierung für wenige andere hat nahezu keine Begründung in einem persönlichen Besser sein, sondern ist fast ausschließlich systemisch-historisch bedingt. Da ‚Privilegieninhaber‘ von sich aus fast nie freiwillig auf ihre Privilegien verzichten wollen und alles tun, um diese ‚abzusichern‘, wird ein systemisches Ungleichgewicht in der Regel immer schlechter; dies ist nicht nachhaltig; letztendlich führt es zur De-Stabilisierung und damit in chaotische Zustände, in der es nicht notwendig ‚Gewinner‘ geben muss, aber auf jeden Fall viele Verlierer.

20. Ein ganz anderer Aspekt ist die globale Verarmung aller Systeme, die die individuellen Potentiale systemisch unterdrücken. Da fast jeder Mensch gut ist für etwas Besonderes, führt die ‚Einkastelung‘ der Individuen in ‚tote Elemente‘ eines Systems zwangsläufig zu einer ungeheuren Ressourcenverschwendung und Verarmung, die dem System selbst wertvollste Ressourcen entzieht. Der ‚Tod des Individuums‘ ist daher auf Dauer auch über die ‚Verarmung‘ des Systems auch ein ‚Tod des Systems‘. Jedes System, das nachhaltig die Potentiale seiner Individuen samt ihrer Privatheit besser fördert und entwickelt als ein Konkurrenzsystem, wird auf Dauer besser und stabiler sein.

Einen Überblick über alle bisherige Blogeinträge nach Titeln findet sich HIER.

ZUM ‚KERNGESCHÄFT‘ VON WEIHNACHTEN

Letzte Änderung: Korrektur in Nr.8, 26.Dez.2013
Letzte Änderung: Neuer RUM-Song zum Thema am Schluss des Artikels

1) Kommen wir gleich zur Sache. Was immer wir heute mit ‚Weihnachten‘ verknüpfen (Familienfeste, Geschenke einkaufen, Gänsebraten, Weihnachtsmusik, Christbaum, Weihnachtsmann, Weihnachtspost, Christkind, Christmette, …..) alles geht irgendwie — und nicht immer klar nachvollziehbar — zurück auf die biblischen Texte über die Geburt Jesu.
2) In zwei Texten der sogenannten ‚Evangelien‘ (Lukas- und Matthäusevangelium) finden sich Abschnitte, die wie eine einheitliche ‚Geschichte‘ daherkommen.
3) Nach heutigem Wissenstand (Ausschnitt) wurden diese Texte viele Jahrzehnte NACH dem Tode des Menschen Jesus von Nazareth aufgeschrieben und noch viel später zur Sammlung der Texte des sogenannten ‚Neuen Testaments‘ hinzugefügt.
4) Aus den bisherigen wissenschaftlichen Analysen zu den sogenannten Weihnachtsgeschichten (Eine kleine Zusammenfassung findet sich hier) legt sich die Interpretation nahe, dass „… es sich um literarische Fiktionen handelt, mit denen die Gottessohnschaft Christi und sein Kommen in die Welt historisch und prophetisch glaubhaft gemacht werden sollen. Es solle vermittelt werden, dass es sich bei dem Gottessohn auf Erden ihrer Ansicht nach nicht um eine mythische Gestalt, sondern um eine wahrhaftig historische Gestalt gehandelt habe.“ (Wikipedia (DE)).
5) In den heutigen historisch-wissenschaftlich geschulten Ohren mag dies im ersten Moment ‚abwertend‘ klingen: ’nicht historisch‘, muss es aber nicht. Im Gegenteil, wenn deutlich wird, dass sich in diesen Formulierungen ein ‚Glaube‘ ausspricht, eine ’spezielle Sichtweise‘ auf die (höchst wahrscheinliche) historische Gestalt Jesus von Nazareth, dann wird dieser Glaube ’sichtbar‘, ‚anfaßbar‘, diskutierbar.
6) Dieser Glaube an Jesus als ‚Gottes Sohn‘ resultiert ja zunächst aus dem Leben und Sterben Jesu und den Erlebnissen, die die Menschen nach seinem Tod mit ihm verknüpft haben (Beispiel: das sogenannte ‚Bekehrungserlebnis‘ von Saulus zu Paulus). In den Jahrzehnten nach seinem Tode entstand und verbreitete sich die Überzeugung, dass er nicht nur ein Mensch gewesen ist, sondern zugleich auch der ‚Sohn Gottes‘. Im Lichte dieses entstehenden Glaubens wurden die Geburtstexte den Textsammlungen des Matthäus- und Lukasevangeliums hinzugefügt, quasi als ‚Erklärungen des Glaubens‘ zu den historischen Fakten. Dabei wurde — so erscheint es im Nachhinein — recht freizügig von allen möglichen historischen und alttestamentlichen Überlieferungen Gebrauch gemacht.
7) Dieser Glaube an die Gottesohnschaft Jesu von Nazareth wurde aber nicht nur in den Texten der Evangelien interpretierend eingebracht, sondern prägte die Diskussion in der damaligen Welt bis zum Konzil von Chalcedon 451. Auf diesem Konzil kam es dann zu einer Lehrentscheidung, die bis heute für die katholische, die orthodoxe, die evangelische und die anglikanische Kirche gleichermaßen ein Fundament des offiziellen kirchlichen Glaubens zur Person Jesu von Nazareth darstellt. Es finden sich darin Aussagen wie die, dass Jesus „wahrhaft Gott und wahrhaft Mensch“ war, „derselbe, aus Vernunftseele und Leib, wesensgleich dem Vater der Gottheit nach, wesensgleich uns derselbe der Menschheit nach, in allem uns gleich außer der Sünde, vor Weltzeiten aus dem Vater geboren der Gottheit nach, in den letzten Tagen derselbe für uns und um unseres Heiles willen [geboren] aus Maria, der jungfräulichen Gottesgebärerin, der Menschheit nach“.(vgl. Wikipedia (DE)).
8) Der einzige Begriff in diesen Formulierungen, dem man eine fassbare Bedeutung geben könnte, wäre der einer ‚Geburt durch eine Jungfrau‘; da aber die sogenannten Geburtsgeschichten im Lichte der heutigen Erkenntnis einen späten, nicht-historischen Eintrag in die Texte über Jesus bilden, der mit starken Symbolen versucht, die Sicht des Glaubens in der realen Welt aufleuchten zu lassen, ist die Aussage über die Jungfräulichkeit der Mutter Jesu tendenziell eher theologisch interpretierend zu sehen und nicht historisch. Denn, ob die Mutter Jesu bei der Geburt tatsächlich Jungfrau war, wissen wir historisch nicht wirklich und würde eigentlich der Annahme des Dogmas, von Jesus als ‚ganzem Menschen (außer der Sünde)‘ eher weniger gerecht (außerdem kann die heutige Medizintechnik eine quasi Jungfrauengeburt vollbringen, so dass die Betonung einer Jungfrauengeburt ein Detail ist, was den Glauben an die Gottessohnschaft Jesu eher behindert als befördert).
9) Alle anderen Begriffe wie z.B. ‚Gott‘, ‚Vernunftseele‘, ‚Vater der Gottheit‘, ‚Sünde‘ haben keinerlei fassbare Bedeutung (was kein Widerspruch zur Tatsache ist, dass es in diesen Jahrhunderte Texte gab, die diese Begriffe verwendet haben). Die ‚Formel von Chalcedon‘ ist daher als Ganze eher nichtssagend, es sei denn, man macht sich die Mühe, darüber nachzudenken und zu prüfen, ob man diesen Worthülsen irgendeinen ‚Sinn‘ verleihen könnte.
10) Für uns Menschen mit einem konkreten Körper bleiben zur Konstruktion möglicher Bedeutungen nur die Mittel, die wir haben. Hier beginnt dann Philosophie, Wissenschaft, Kunst und Spiritualität.
11) Heute, 2013, wissen wir Anderes und denken wir Anders als in den ersten Jahrhunderten der christlichen Zeitrechnung, bei aller Konstanz der zugrundeliegenden Prinzipien von Natur, Körper und Denken.
12) Während das Gespräch zur Frage, was der ‚Mensch‘ sei oder wer ‚Gott‘ sein könnte, in den vergangenen Zeiten mangels Wissen schnell zum Stillstand kommen musste, können wir heute deutlich mehr sagen, wenngleich vermutlich auch nur ein ‚Fragment‘, aber ein Fragment was erheblich umfangreicher, detaillierter ist und zudem eingebettet in eine historische Dimension, die vom ‚Beginn‘ der Entstehung des heute bekannten Universums bis in die Gegenwart reicht; aber nicht nur das, wir können sogar in bestimmten Punkten begründet über die Gegenwart hinaus ’schauen‘. Die biblischen Bilder der beiden alttestamentlichen Schöpfungsberichte wirken dagegen blass, naiv, irgendwie ‚kindlich‘, und können ihr ‚Nichtwissen‘ über die Welt, das Leben auf der Erde und ‚Gott‘ in keiner Weise verbergen. Dennoch sind sie Zeugnisse vom Willen der Menschen, in ‚Allem‘ einen möglichen ‚Zusammenhang‘ sehen zu können.
13) Die Summe des heutigen Wissens hat u.a. den eigentümlichen Effekt, dass wir unser eigenes individuelles Wissen, das im Gehirn stattfindet, mittlerweile nicht nur als ’subjektives Erleben‘ anschauen können, sondern mehr und mehr auch in seiner körperlichen Bedingtheit (das Gehirn berechnet aus den Körperdaten ein ‚Modell‘ des eigenen Körpers in einer räumlichen Welt) wie auch in seinem biologischen Gewordensein (biologische Evolution, dazu chemische Evolution, dazu physikalische Evolution…).
14) Wenn wir also heute über ‚Mensch‘ und ‚Gott‘ (und auch ‚Seele‘) sprechen wollen, dann können wir dies innerhalb des überwältigenden zeitlich-materiellen Prozessgeschehens, wo sich immer mehr alle Gegensätze aufzuheben scheinen: Materie ist eine Zustandsform von Energie, Geist ist eine Funktion von energetischen Zuständen, alles kommuniziert mit allem im quantenphysikalischen Raum, usw.
15) Der scheinbare ‚Ausverkauf‘ der alten Begriffe, ihr scheinbarer ‚Bedeutungsverlust‘, ist nur so lange ein Problem, als man sich an die alten Worthülsen wie ein Schiffbrüchiger des Verstehens klammert, anstatt den Blick hinzuwenden zu dem nahen Ufer des überbordenden Wissens eines werdenden Ganzen von unermesslichem Reichtum. Die Begriffe des Konzils von Chalcedon sind ‚leer‘ (Worthülsen), das heutige Wissen ist überbordend an möglichen Bedeutungen, nicht nur rein ‚begrifflich‘, sondern auch als ‚Realität‘, auch im möglichen ‚Erleben‘.
16) Dass es keinen wirklichen ‚Tod‘ geben kann, dass alles Leben Teil des großen Ganzen ist, dass ‚Gott‘ allem jederzeit ’nahe‘ ist, ‚erfahrbar‘ usw., ergibt sich heute aus der modernen Wissenschaft quasi als ‚Abfallprodukt‘; nur, wer will es wissen? Ist es nicht viel einfacher und schöner, seinen eigenen Lieblingsideen zu huldigen? Die kennt man, die sind ‚beherrschbar‘, die kann man nach Belieben manipulieren, die kann man nicht wirklich widerlegen…. Die große Angst, die Sicherheit sucht, scheint bereit zu sein, lieber Un-Sinn zu glauben, als in einer umfassenden Wahrheit die eigene Existenz neu zu finden. Ein Effekt von ‚Spiritualität‘ besteht darin, jenes existentielle Vertrauen in einem Menschen zu ermöglichen, das man benötigt, um aus der eigenen Lüge auszuziehen und in dem Haus der Wahrheit eine neue Wohnung zu finden.

Hier ist ein Song mit dem Titel Jesus and God. Dieser Song entstand auch nach der Methode ‚Radically Unplugged‘.

Einen Überblick über die bisherigen Blogeinträge nach Titeln findet sich HIER.

ERKENNTNISSCHICHTEN – Das volle Programm…

 

  1. Wir beginnen mit einem Erkenntnisbegriff, der im subjektiven Erleben ansetzt. Alles, was sich subjektiv als ‚Gegeben‘ ansehen kann, ist ein ‚primärer‘ ‚Erkenntnisinhalt‘ (oft auch ‚Phänomen‘ [PH] genannt).

  2. Gleichzeitig mit den primären Erkenntnisinhalten haben wir ein ‚Wissen‘ um ’sekundäre‘ Eigenschaften von Erkenntnisinhalten wie ‚wahrgenommen‘, ‚erinnert‘, ‚gleichzeitig‘, ‚vorher – nachher‘, ‚Instanz einer Klasse‘, ‚innen – außen‘, und mehr.

  3. Auf der Basis der primären und sekundären Erkenntnisse lassen sich schrittweise komplexe Strukturen aufbauen, die das subjektive Erkennen aus der ‚Innensicht‘ beschreiben (‚phänomenologisch‘, [TH_ph]), aber darin auch eine systematische Verortung von ‚empirischem Wissen‘ erlaubt.

  4. Mit der Bestimmung des ‚empirischen‘ Wissens lassen sich dann Strukturen der ‚intersubjektiven Körperwelt‘ beschreiben, die weit über das ’subjektive/ phänomenologische‘ Wissen hinausreichen [TH_emp], obgleich sie als ‚Erlebtes‘ nicht aus dem Bereich der Phänomene hinausführen.

  5. Unter Einbeziehung des empirischen Wissens lassen sich Hypothesen über Strukturen bilden, innerhalb deren das subjektive Wissen ‚eingebettet‘ erscheint.

  6. Der Ausgangspunkt bildet die Verortung des subjektiven Wissens im ‚Gehirn‘ [NN], das wiederum zu einem ‚Körper‘ [BD] gehört.

  7. Ein Körper stellt sich dar als ein hochkomplexes Gebilde aus einer Vielzahl von Organen oder organähnlichen Strukturen, die miteinander in vielfältigen Austauschbeziehungen (‚Kommunikation‘) stehen und wo jedes Organ spezifische Funktionen erfüllt, deren Zusammenwirken eine ‚Gesamtleistung‘ [f_bd] des Input-Output-Systems Körpers ergibt. Jedes Organ besteht aus einer Vielzahl von ‚Zellen‘ [CL], die nach bestimmten Zeitintervallen ‚absterben‘ und ‚erneuert‘ werden.

  8. Zellen, Organe und Körper entstehen nicht aus dem ‚Nichts‘ sondern beruhen auf ‚biologischen Bauplänen‘ (kodiert in speziellen ‚Molekülen‘) [GEN], die Informationen vorgeben, auf welche Weise Wachstumsprozesse (auch ‚Ontogenese‘ genannt) organisiert werden sollen, deren Ergebnis dann einzelne Zellen, Zellverbände, Organe und ganze Körper sind (auch ‚Phänotyp‘ genannt). Diese Wachstumsprozesse sind ’sensibel‘ für Umgebungsbedingungen (man kann dies auch ‚interaktiv‘ nennen). Insofern sind sie nicht vollständig ‚deterministisch‘. Das ‚Ergebnis‘ eines solchen Wachstumsprozesses kann bei gleicher Ausgangsinformation anders aussehen. Dazu gehört auch, dass die biologischen Baupläne selbst verändert werden können, sodass sich die Mitglieder einer Population [POP] im Laufe der Zeit schrittweise verändern können (man spricht hier auch von ‚Phylogenese‘).

  9. Nimmt man diese Hinweise auf Strukturen und deren ‚Schichtungen‘ auf, dann kann man u.a. zu dem Bild kommen, was ich zuvor schon mal unter dem Titel ‚Emergenz des Geistes?‘ beschrieben hatte. In dem damaligen Beitrag hatte ich speziell abgehoben auf mögliche funktionale Unterschiede der beobachtbaren Komplexitätsbildung.

  10. In der aktuellen Reflexion liegt das Augenmerk mehr auf dem Faktum der Komplexitätsebene allgemein. So spannen z.B. die Menge der bekannten ‚Atome‘ [ATOM] einen bestimmten Möglichkeitsraum für theoretisch denkbare ‚Kombinationen von Atomen‘ [MOL] auf. Die tatsächlich feststellbaren Moleküle [MOL‘] bilden gegenüber MOL nur eine Teilmenge MOL‘ MOL. Die Zusammenführung einzelner Atome {a_1, a_2, …, a_n} ATOM zu einem Atomverband in Form eines Moleküls [m in MOL‘] führt zu einem Zustand, in dem das einzelne Atom a_i mit seinen individuellen Eigenschaften nicht mehr erkennbar ist; die neue größere Einheit, das Molekül zeigt neue Eigenschaften, die dem ganzen Gebilde Molekül m_j zukommen, also {a_1, a_2, …, a_n} m_i (mit {a_1, a_2, …, a_n} als ‚Bestandteilen‘ des Moleküls m_i).

  11. Wie wir heute wissen, ist aber auch schon das Atom eine Größe, die in sich weiter zerlegt werden kann in ‚atomare Bestandteile‘ (‚Quanten‘, ‚Teilchen‘, ‚Partikel‘, …[QUANT]), denen individuelle Eigenschaften zugeordnet werden können, die auf der ‚Ebene‘ des Atoms verschwinden, also auch hier wenn {q_1, q_2, …, q_n} QUANT und {q_1, q_2, …, q_n} die Bestandteile eines Atoms a_i sind, dann gilt {q_1, q_2, …, q_n} a_i.

  12. Wie weit sich unterhalb der Quanten weitere Komplexitätsebenen befinden, ist momentan unklar. Sicher ist nur, dass alle diese unterscheidbaren Komplexitätsebenen im Bereich ‚materieller‘ Strukturen aufgrund von Einsteins Formel E=mc^2 letztlich ein Pendant haben als reine ‚Energie‘. Letztlich handelt es sich also bei all diesen Unterschieden um ‚Zustandsformen‘ von ‚Energie‘.

  13. Entsprechend kann man die Komplexitätsbetrachtungen ausgehend von den Atomen über Moleküle, Molekülverbände, Zellen usw. immer weiter ausdehnen.

  14. Generell haben wir eine ‚Grundmenge‘ [M], die minimale Eigenschaften [PROP] besitzt, die in einer gegebenen Umgebung [ENV] dazu führen können, dass sich eine Teilmenge [M‘] von M mit {m_1, m_2, …, m_n} M‘ zu einer neuen Einheit p={q_1, q_2, …, q_n} mit p M‘ bildet (hier wird oft die Bezeichnung ‚Emergenz‘ benutzt). Angenommen, die Anzahl der Menge M beträgt 3 Elemente |M|=3, dann könnte man daraus im einfachen Fall die Kombinationen {(1,2), (1,3), (2,3), (1,2,3)} bilden, wenn keine Doubletten zulässig wären. Mit Doubletten könnte man unendliche viele Kombinationen bilden {(1,1), (1,1,1), (1,1,….,1), (1,2), (1,1,2), (1,1,2,2,…),…}. Wie wir von empirischen Molekülen wissen, sind Doubletten sehr wohl erlaubt. Nennen wir M* die Menge aller Kombinationen aus M‘ (einschließlich von beliebigen Doubletten), dann wird rein mathematisch die Menge der möglichen Kombinationen M* gegenüber der Grundmenge M‘ vergrößert, wenngleich die Grundmenge M‘ als ‚endlich‘ angenommen werden muss und von daher die Menge M* eine ‚innere Begrenzung‘ erfährt (Falls M’={1,2}, dann könnte ich zwar M* theoretisch beliebig groß denken {(1,1), (1,1,1…), (1,2), (1,2,2), …}, doch ‚real‘ hätte ich nur M*={(1,2)}. Von daher sollte man vielleicht immer M*(M‘) schreiben, um die Erinnerung an diese implizite Beschränkung wach zu halten.

  15. Ein anderer Aspekt ist der Übergang [emer] von einer ’niedrigerem‘ Komplexitätsniveau CL_i-1 zu einem höheren Komplexitätsniveau CL_i, also emer: CL_i-1 —> CL_i. In den meisten Fällen sind die genauen ‚Gesetze‘, nach denen solch ein Übergang stattfindet, zu Beginn nicht bekannt. In diesem Fall kann man aber einfach ‚zählen‘ und nach ‚Wahrscheinlichkeiten‘ Ausschau halten. Allerdings gibt es zwischen einer ‚reinen‘ Wahrscheinlich (absolute Gleichverteilung) und einer ‚100%-Regel‘ (Immer dann wenn_X_dann geschieht_Y_) ein Kontinuum von Wahrscheinlichkeiten (‚Wahrscheinlichkeitsverteilungen‘ bzw. unterschiedlich ‚festen‘ Regeln, in denen man Z%-Regeln benutzt mit 0 < Z < 100 (bekannt sind z.B. sogenannte ‚Fuzzy-Regeln‘).

  16. Im Falle des Verhaltens von biologischen Systemen, insbesondere von Menschen, wissen wir, dass das System ‚endogene Pläne‘ entwickeln kann, wie es sich verhalten soll/ will. Betrachtet man allerdings ‚große Zahlen‘ solcher biologischer Systeme, dann fällt auf, dass diese sich entlang bestimmter Wahrscheinlichkeitsverteilungen trotzdem einheitlich verhalten. Im Falle von Sterbensraten [DEATH] einer Population mag man dies dadurch zu erklären suchen, dass das Sterben weitgehend durch die allgemeinen biologischen Parameter des Körpers abhängig ist und der persönliche ‚Wille‘ wenig Einfluß nimmt. Doch gibt es offensichtlich Umgebungsparameter [P_env_i], die Einfluss nehmen können (Klima, giftige Stoffe, Krankheitserreger,…) oder indirekt vermittelt über das individuelle ‚Verhalten‘ [SR_i], das das Sterben ‚begünstigt‘ oder ‚verzögert‘. Im Falle von Geburtenraten [BIRTH] kann man weitere Faktoren identifizieren, die die Geburtenraten zwischen verschiedenen Ländern deutlich differieren lässt, zu verschiedenen Zeiten, in verschiedenen sozialen Gruppen, usw. obgleich die Entscheidung für Geburten mehr als beim Sterben individuell vermittelt ist. Bei allem Verhalten kann man mehr oder weniger starke Einflüsse von Umgebungsparametern messen. Dies zeigt, dass die individuelle ‚Selbstbestimmung‘ des Verhaltens nicht unabhängig ist von Umgebungsparametern, die dazu führen, dass das tatsächliche Verhalten Millionen von Individuen sehr starke ‚Ähnlichkeiten‘ aufweist. Es sind diese ‚gleichförmigen Wechselwirkungen‘ die die Ausbildung von ‚Verteilungsmustern‘ ermöglichen. Die immer wieder anzutreffenden Stilisierungen von Wahrscheinlichkeitsverteilungen zu quasi ‚ontologischen Größen‘ erscheint vor diesem Hintergrund eher irreführend und verführt dazu, die Forschung dort einzustellen, wo sie eigentlich beginnen sollte.

  17. Wie schon die einfachen Beispiele zu Beginn gezeigt haben, eröffnet die nächst höhere Komplexitätstufe zunächst einmal den Möglichkeitsraum dramatisch, und zwar mit qualitativ neuen Zuständen. Betrachtet man diese ‚Komplexitätsschichtungen‘ nicht nur ‚eindimensional‘ (also z.B. in eine Richtung… CL_i-1, CL_i, CL_i+1 …) sondern ‚multidimensional‘ (d.h. eine Komplexitätsstufe CL_i kann eine Vielzahl von Elementen umfassen, die eine Komplexitätstufe j<i repräsentieren, und diese können wechselseitig interagieren (‚kommunizieren‘)), dann führt dies zu einer ‚Verdichtung‘ von Komplexität, die immer schwerer zu beschreiben ist. Eine einzige biologische Zelle funktioniert nach so einem multidimensionalen Komplexitätsmuster. Einzelne Organe können mehrere Milliarden solcher multidimensionaler Einheiten umfassen. Jeder Körper hat viele solcher Organe die miteinander wechselwirken. Die Koordinierung aller dieser Elemente zu einer prägnanten Gesamtleistung übersteigt unsere Vorstellungskraft bei weitem. Dennoch funktioniert dies in jeder Sekunde in jedem Körper Billionenfach, ohne dass das ‚Bewusstsein‘ eines biologischen Systems dies ‚mitbekommt‘.

  18. Was haben all diese Komplexitätstufen mit ‚Erkenntnis‘ zu tun? Nimmt man unser bewusstes Erleben mit den damit verknüpften ‚Erkenntnissen‘ zum Ausgangspunkt und erklärt diese Form von Erkenntnis zur ‚Norm‘ für das, was Erkenntnis ist, dann haben all diese Komplexitätsstufen zunächst nichts mit Erkenntnis zu tun. Allerdings ist es dieses unser ’subjektives‘ ‚phänomenologisches‘ ‚Denken‘, das all die erwähnten ‚Komplexitäten‘ im Denken ’sichtbar‘ macht. Ob es noch andere Formen von Komplexität gibt, das wissen wir nicht, da wir nicht wissen, welche Form von Erkenntnis unsere subjektive Erkenntnisform von vornherein ‚ausblendet‘ bzw. aufgrund ihrer Beschaffenheit in keiner Weise ‚erkennt‘. Dies klingt paradox, aber in der Tat hat unser subjektives Denken die Eigenschaft, dass es durch Verbindung mit einem Körper einen indirekt vermittelten Bezug zur ‚Körperwelt jenseits des Bewusstseins‘ herstellen kann, der so ist, dass wir die ‚Innewohnung‘ unseres subjektiven Erkennens in einem bestimmten Körper mit dem Organ ‚Gehirn‘ als Arbeitshypothese formulieren können. Darauf aufbauend können wir mit diesem Körper, seinem Gehirn und den möglichen ‚Umwelten‘ dann gezielt Experimente durchführen, um Aufklärung darüber zu bekommen, was denn so ein Gehirn im Körper und damit korrelierend eine bestimmte Subjektivität überhaupt erkennen kann. Auf diese Weise konnten wir eine Menge über Erkenntnisgrenzen lernen, die rein aufgrund der direkten subjektiven Erkenntnis nicht zugänglich sind.

  19. Diese neuen Erkenntnisse aufgrund der Kooperation von Biologie, Psychologie, Physiologie, Gehirnwissenschaft sowie Philosophie legen nahe, dass wir das subjektive Phänomen der Erkenntnis nicht isoliert betrachten, sondern als ein Phänomen innerhalb einer multidimensionalen Komplexitätskugel, in der die Komplexitätsstrukturen, die zeitlich vor einem bewussten Erkennen vorhanden waren, letztlich die ‚Voraussetzungen‘ für das Phänomen des subjektiven Erkennens bilden.

  20. Gilt im bekannten Universum generell, dass sich die Systeme gegenseitig beeinflussen können, so kommt bei den biologischen Systemen mit ‚Bewusstsein‘ eine qualitativ neue Komponente hinzu: diese Systeme können sich aktiv ein ‚Bild‘ (‚Modell‘) ihrer Umgebung, von sich selbst sowie von der stattfindenden ‚Dynamik‘ machen und sie können zusätzlich ihr Verhalten mit Hilfe des konstruierten Bildes ’steuern‘. In dem Masse, wie die so konstruierten Bilder (‚Erkenntnisse‘, ‚Theorien‘,…) die tatsächlichen Eigenschaften der umgebenden Welt ‚treffen‘ und die biologischen Systeme ‚technologische Wege‘ finden, die ‚herrschenden Gesetze‘ hinreichend zu ‚kontrollieren‘, in dem Masse können sie im Prinzip nach und nach das gesamte Universum (mit all seinen ungeheuren Energien) unter eine weitreichende Kontrolle bringen.

  21. Das einzig wirkliche Problem für dieses Unterfangen liegt in der unglaublichen Komplexität des vorfindlichen Universums auf der einen Seite und den extrem beschränkten geistigen Fähigkeiten des einzelnen Gehirns. Das Zusammenwirken vieler Gehirne ist absolut notwendig, sehr wahrscheinlich ergänzt um leistungsfähige künstliche Strukturen sowie evtl. ergänzt um gezielte genetische Weiterentwicklungen. Das Problem wird kodiert durch das Wort ‚gezielt‘: Hier wird ein Wissen vorausgesetzt das wir so eindeutig noch nicht haben Es besteht ferner der Eindruck, dass die bisherige Forschung und Forschungsförderung diese zentralen Bereiche weltweit kum fördert. Es fehlt an brauchbaren Konzepten.

Eine Übersicht über alle bisherigen Beiträge findet sich hier