Archiv der Kategorie: Phänomen

Über die Welt reden

Dieser Text ist Teil des Textes „Neustart der Menschlichkeit (Rebooting humanity)“

(Die Englische Version findet sich HIER)

Autor Nr. 1 (Gerd Doeben-Henisch)

Kontakt: cagent@cognitiveagent.org

(Start: 5.Juni 2024, Letzte Änderung: 7.Juni 2024)

Ausgangspunkt

Es soll also ein ‚Text‘ geschrieben werden, der über die Welt spricht, einschließlich aller Lebewesen, und die Autoren sind im ersten Anlauf ‚Menschen‘. Bisher kennen wir keine Fälle, in denen Tiere oder Pflanzen selbst Texte schreiben: ihre Sicht des Lebens. Wir kennen nur Menschen die aus ‚ihrer menschlichen Sicht‘ über das Leben, über Tiere und Pflanzen schreiben. An dieser Vorgehensweise kann man viel kritisieren. Bei einem weiteren Nachdenken kann man dann vielleicht sogar feststellen, dass auch das ‚Schreiben von Menschen über andere Menschen und sich selbst‘ nicht ganz so trivial ist. Schon das Schreiben von Menschen ‚über sich selbst‘ ist fehleranfällig, kann völlig ‚daneben‘ laufen, kann vollständig ‚falsch‘ sein, was allerdings die Frager aufwirft, was denn ‚wahr‘ bzw. ‚falsch‘ ist. Man sollte also ein paar Gedanken darauf verwenden, wie wir Menschen so über die Welt und uns selbst reden können, dass wir gemeinsam eine Chance haben, nicht nur zu ‚fantasieren‘, sondern etwas zu erfassen, was ‚real‘ ist, was etwas von dem beschreibt, was uns als Menschen, als Lebewesen, als Bewohner dieses Planeten ‚real‘ auszeichnet. … aber dann poppt schon wieder die Frage auf, was denn ‚real‘ ist? Drehen wir uns im Kreis von Fragen mit Antworten, wo die Antworten selbst schon wieder Fragen sind, bei näherem Hinschauen?

Erste Schritte

Leben auf Planet Erde

Beim Start des Schreibens gehen wir davon aus, dass es den ‚Planet Erde‘ gibt und auf diesem Planeten gibt es etwas, das wir ‚Leben‘ nennen, und wir Menschen — zur Lebensform des Homo sapiens gehörend — sind Teil davon.

Sprache

Wir gehen auch davon aus, dass wir Menschen über die Fähigkeit verfügen, mittels Lauten miteinander zu kommunizieren. Diese Laute, die wir für die Kommunikation benutzen, nennen wir hier ‚Sprachlaute‘, um anzudeuten, dass die Gesamtheit der Laute für die Kommunikation ein ‚System‘ bilden, das wir letztlich ‚Sprache‘ nennen.

Bedeutung

Da wir Menschen auf diesem Planeten in der gleichen Situation für die ‚gleichen Objekte‘ ganz unterschiedliche Laute benutzen können, deutet sich an, dass die ‚Bedeutung‘ von Sprachlauten nicht fest an die Sprachlaute geknüpft ist, sondern irgendwie etwas mit dem zu tun hat, was ‚in unserem Kopf‘ stattfindet. Leider können wir nicht ‚in unseren Kopf‘ hineinschauen. Da scheint viel zu passieren, aber dieses Geschehen im Kopf ist ‚unsichtbar‘.[1] Trotzdem erleben wir im ‚Alltag‘, dass wir uns mit anderen ‚einigen‘ können, ob es gerade ‚regnet‘ oder ob es irgendwie ’stinkt‘ oder da auf dem Gehweg eine Mülltonne steht, die den Weg versperrt oder …. Also irgendwie scheint das ‚Geschehen im Kopf‘ bei unterschiedlichen Menschen gewisse ‚Übereinstimmungen‘ aufzuweisen, so dass nicht nur ich etwas Bestimmtes sehe, sondern der andere auch, und wir können sogar die gleichen Sprachlaute dafür benutzen. Und da ein Programm wie chatGPT meine Deutschen Sprachlaute z.B. in Englische Sprachlaute übersetzen kann, kann ich feststellen, dass ein anderer Mensch, der kein Deutsch spricht, statt meines Wortes ‚Mülltonne‘ z.B. das Wort ‚trash bin‘ benutzt und dann auch zustimmend nickt: ‚Yes, there is a trash bin‘. Wäre das ein Fall für eine ‚wahre Aussage‘?

Veränderungen und Erinnerungen

Da wir täglich erleben, wie der Alltag sich ständig ‚verändert‘, wissen wir, dass etwas, was gerade mal Zustimmung fand, im nächsten Moment keine Zustimmung mehr findet, weil die Mülltonne nicht mehr da steht. Diese Änderungen können wir aber nur bemerken, weil wir etwas haben, was wir ‚Erinnerung‘ nennen: wir können uns daran erinnern, dass eben an einer bestimmte Stelle eine Mülltonne stand, jetzt aber nicht mehr. Oder ist diese Erinnerung nur eine Einbildung? Kann ich meiner Erinnerung trauen? Wenn jetzt alle anderen sagen, da war doch keine Mülltonne, ich mich aber meine zu erinnern, was heißt dies?

Konkreter Körper

Ja, und dann mein Körper: immer wieder muss ich was trinken, etwas essen, bin nicht beliebig schnell, brauche etwas Platz, …. mein Körper ist etwas sehr Konkretes, mit allerlei ‚Empfindungen‘, ‚Bedürfnissen‘, einer bestimmten ‚Form‘, …. der sich im Laufe der Zeit sogar ändert: er wächst, er altert, er kann krank werden, …. ist er wie eine ‚Maschine‘?

Galaxien von Zellen

Wir wissen heute, dass unser menschlicher Körper weniger einer ‚Maschine‘ gleicht als vielmehr einer ‚Galaxie von Zellen‘. Unser Körper hat etwa 37 Billionen (10¹2) Körperzellen mit weiteren 100 Billionen Zellen im Darm, die für unser Verdauungssystem lebenswichtig sind, und diese Zellen zusammen bilden das ‚System Körper‘.[2] Das bislang eigentlich Unfassbare ist, dass diese ca. 140 Billionen Zellen ja jeweils komplett autonome Lebewesen sind, mit allem, was es zum Leben braucht. Und wenn man weiß, wie schwer wir uns als Menschen tun, schon zwischen fünf Menschen auf Dauer eine Kooperation aufzubauen und aufrecht zu halten, dann kann man zumindest ansatzweise ein wenig ahnen, was es heißt, dass 140 Billionen Lebewesen es in jeder Sekunde — und über viele Jahre, ja Jahrzehnte hinweg — schaffen, miteinander so zu kommunizieren und koordiniert zu handeln, dass das Gesamtkunstwerk ‚menschlicher Körper‘ existiert und funktioniert.

Entstehung als Frage

Und da es keinen ‚Befehlshaber‘ gibt, der allen Zellen ständig sagt, was sie tun sollen, erweitert sich dieses ‚Wunder des Systems Mensch‘ weiter um die Dimension, woher das Konzept kommt, das diese ‚Super-Galaxie der Zellen‘ dazu befähigt, so zu sein, wie sie sind. Wie funktioniert dies? Wie ist es entstanden?[3]

Hinter die Phänomene schauen

Im weiteren Verlauf wird es darauf ankommen, ausgehend vom Alltag nach und nach die ‚Oberfläche der Alltagsphänomene‘ zu durchdringen, um jene Strukturen sichtbar zu machen, die ‚hinter den Phänomenen‘ am Werke sind, jene Strukturen, die alles zusammenhalten und gleichzeitig alles beständig bewegen, verändern.

Grunddimension Zeit

Dies alles impliziert das Phänomen ‚Zeit‘ als Grundkategorie aller Wirklichkeit. Ohne Zeit gibt es auch keine ‚Wahrheit‘ …

[1] Spezialisten für Gehirnforschung werden natürlich gleich ihre Hand erheben und werden sagen wollen, dass sie mittlerweile sehr wohl ‚in den Kopf schauen‘ können, aber warten wir ab, was es mit diesem ‚in den Kopf hineinschauen‘ auf sich hat.

[2] Wenn wir für die Anzahl der Sterne in unserer Heimatgalaxie der Milchstraße mit geschätzten 100 – 400 Milliarden Sterne mal annehmen, dass es 200 Milliarden sind, dann würde unser Körpersystem dem Umfang von 700 Galaxien im Format der Milchstraße entsprechen, eine Zelle für einen Stern.

[3] Verschiedene Disziplinen der Naturwissenschaften, besonders sicher die Evolutionsbiologie, haben in den letzten ca. 150 Jahren viele Aspekte dieses Mega-Wunders partiell ausgeleuchtet. Man kann über die physikalische Sicht unsres Universum staunen, aber verglichen mit den Super-Galaxien des Lebens auf dem Planet Erde erscheint das physikalische Universum geradezu ‚langweilig‘ … Keine Angst: letztlich hängt beides untereinander zusammen: das eine erklärt das andere …

Geschichten erzählen

Fragmente des Alltags – ohne Kontext

Wir reden ständig über irgend etwas: das Essen, das Wetter, der Verkehr, die Preise beim Einkaufen, Tagesnachrichten, die Politik, den Chef, die Kollegen, Sportereignisse, Musik, …. meistens sind es ‚Fragmente‘ aus dem größeren Ganzen, das wir ‚Alltag‘ nennen. Menschen in einem der vielen Krisengebiete auf diesem Planeten, speziell jene in Unwetterkatastrophen oder gar im Krieg …, leben konkret in einer ganz anderen Welt, in einer Welt von Überleben und Tod.

Diese Fragmente mitten im Leben sind konkret, betreffen uns, aber sie erzählen aus sich heraus keine Geschichte, wo sie herkommen (Bomben, Regen, Hitze,…), warum sich dies ereignet, wie sie mit anderen Fragmenten zusammen hängen. Der Regen, der herunter prasselt, ist ein einzelnes Ereignis an einem bestimmten Ort zu einer bestimmten Zeit. Die Brücke, die gesperrt werden muss, weil sie überaltert ist, lässt aus sich heraus auch nicht erkennen, warum gerade diese Brücke, warum gerade jetzt, warum konnte man dies nicht ‚voraus sehen‘? Die Menschen, die ‚zu viel‘ sind in einem Land oder auch ‚zu wenig‘: Warum ist das so? Konnte man dies voraus sehen? Was können wir tun? Was sollten wir tun?

Der Strom der einzelnen Ereignisse trifft auf uns, mehr oder weniger wuchtig, vielleicht auch einfach als ‚Rauschen‘: wir sind so daran gewöhnt, dass wir bestimmte Ereignisse schon gar nicht mehr wahrnehmen. Aber diese Ereignisse als solche erzählen keine ‚Geschichte über sich selbst‘; sie finden einfach statt, scheinbar unwiderstehlich; manche sagen ‚Das ist Schicksal‘.

Bedürfnis nach Sinn

Auffällig ist, dass wir Menschen aber doch versuchen, dem Ganzen einen ‚Sinn‘ zu geben, eine ‚Erklärung‘ zu suchen, warum dies so ist. Und der Alltag zeigt, dass wir viel ‚Fantasie‘ haben, was mögliche ‚Zusammenhänge‘ oder ‚Ursachen‘ betrifft. Im Blick zurück in die Vergangenheit lächeln wir gerne über verschiedene Erklärungsversuche von unseren Vorfahren: solange man über die Details unseres Körpers und überhaupt über das Leben nichts wusste, war jede Geschichte möglich. [1] In unserer Zeit mit einer seit ca. 150 Jahren etablierter Wissenschaft gibt es aber immer noch viele Millionen von Menschen (möglicherweise Milliarden?), die von Wissenschaft nichts wissen und bereit sind, nahezu jede Geschichte zu glauben, nur weil ein anderer Mensch diese Geschichte überzeugend erzählt.

Befreiung vom Augenblick durch Worte

Aufgrund dieser Fähigkeit, mit der ‚Kraft der Fantasie‘ Dinge, die man erlebt, in eine ‚Geschichte‘ zu packen, die ‚mögliche Zusammenhänge‘ andeuten, durch die Ereignisse einen ‚gedanklichen Sinn‘ bekommen, kann der Mensch versuchen, sich aus der scheinbaren ‚Absolutheit des Augenblicks‘ in gewisser Weise zu ‚befreien‘: ein Ereignis, das sich in einen ‚Zusammenhang einordnen‘ lässt, verliert seine ‚Absolutheit‘. Allein schon durch diese Art von Erzählung gewinnt der erlebende Mensch ein Stück ‚Macht‘: im Erzählen eines Zusammenhangs kann er Erzähler das Erlebnis ‚zur Sache‘ machen, über die er ’nach eigenem Gutdünken‘ verfügen kann. Diese ‚Macht durch das Wort‘ kann ‚Angst‘ lindern, die ein Ereignis auslösen kann. Dies durchzieht die Geschichte der Menschheit von den Anfängen an, soweit es die archäologischen Zeugnisse hergeben.

Vielleicht ist es nicht verkehrt, den Menschen nicht als erstes als ‚Jäger und Sammler‘ oder als ‚Ackerbauer‘ oder so einzuordnen, sondern als ‚den, der Geschichten erzählt‘.

[1] Ein solches Zauberwort war in der griechischen Philosophie der Begriff ‚Atem‘ (griechisch „pneuma“). Der Atem kennzeichnete nicht nur das individuell Lebendige, sondern wurde auch verallgemeinert zum Lebensprinzip von allem, das sowohl Körper, Seele und Geist verband wie auch das ganze Universum durchwirkte. Im Lichte des heutigen Wissens könnte man diese ‚Erklärung‘ nicht mehr erzählen, aber vor ca. 2300 Jahren war diese Überzeugung unter allen Intellektuellen ein gewisser ‚intellektueller Standard‘, das herrschende ‚Weltbild‘; man ‚glaubte‘ es. Wer etwas anderes befand sich außerhalb dieses ‚Sprachspiels‘.

Organisation einer Ordnung

Denken erschafft Beziehungen

Sobald man mittels ‚Sprache‘ einzelne Ereignisse, Sachen, Vorgänge, Eigenschaften von Sachen und mehr ‚benennen‘ kann, verfügen Menschen offensichtlich über die Fähigkeit, mittels Sprache eben nicht nur zu ‚benennen‘, sondern ‚Benanntes‘ durch ‚Anordnung von Worten im sprachlichen Ausdruck‘ in ‚gedachte Beziehungen‘ einzubetten, wodurch das einzeln Benannte nicht mehr ‚isoliert‘ vorkommt sondern ‚gedanklich verbunden‘ mit anderem. Diese grundlegende Fähigkeit eines Menschen, ‚in seinem Kopf‘ ‚Beziehungen zu denken‘, die man ‚gar nicht sehen‘, wohl aber ‚denken‘ kann [1], ist natürlich nicht auf einzelne Ereignisse und nicht auf eine einzige Beziehung beschränkt. Letztlich können wir Menschen ‚alles‘ zum Thema machen und wir können ‚jedmögliche Beziehung‘ in unserm Kopf ‚denken‘; hier gibt es keine grundsätzliche Beschränkung.

Geschichten als Naturgewalt

Nicht nur die Geschichte ist voll von Beispielen, auch unsere Gegenwart. Dass heute trotz der unfassbaren Erfolge der modernen Wissenschaft in unserem Alltag weltweit nahezu über alle Kanäle die wildesten Geschichten mit ‚rein gedachten Beziehungen‘ erzählt und auch sofort geglaubt werden, das sollte uns zu denken geben. Unsere grundlegende Eigenschaft, dass wir Geschichten erzählen können, um die Absolutheit des Augenblicks zu durchbrechen, hat offensichtlich den Charakter einer ‚Naturgewalt‘, die so tief in uns verortet ist, dass wir sie nicht ‚ausrotten‘ können; wir können sie vielleicht ‚zähmen‘, sie vielleicht ‚kultivieren‘, aber wir können sie nicht stoppen. Es ist eine ‚elementare Eigenschaft‘ unseres Denkens, sprich: unseres Gehirns im Körper.

Gedacht und Überprüft

Die Erfahrung, dass wir, die wir diejenigen sind, die Geschichten erzählen, damit Ereignisse benennen und in Beziehungen einordnen können — und zwar letztlich unbegrenzt — kann zwar real zum Chaos führen, wenn das erzählte Beziehungsgeflecht letztlich ‚rein gedacht‘ ist, ohne echten Bezug zur ‚realen Welt um uns herum‘, aber es ist zugleich auch unser größtes Kapital, da wir Menschen uns damit nicht nur grundsätzlich von der scheinbaren Absolutheit der Gegenwart befreien können, sondern wir können mit dem Erzählen von Geschichten Ausgangspunkte schaffen, ‚zunächst bloß gedachte Beziehungen‘, die wir dann aber konkret in unserem Alltag ‚überprüfen‘ können.

Ein Ordnungssystem

Wenn jemand zufällig einen anderen Menschen sieht, der irgendwie ganz anders aussieht als er es gewohnt ist, dann bilden sich in jedem Menschen automatisch alle möglichen ‚Vermutungen‘, was das da für ein Mensch ist. Belässt man es bei diesen Vermutungen, dann können diese wilden Vermutungen den ‚Kopf bevölkern‘ und die ‚Welt im Kopf‘ wird mit ‚potentiell bösen Menschen‘ bevölkert; irgendwann sind sie dann vielleicht schlicht ‚böse‘. Nimmt man aber Kontakt zu dem anderen auf, könnte man vielleicht feststellen, dass er eigentlich nett ist, interessant, lustig oder dergleichen. Die ‚Vermutungen im Kopf‘ verwandeln sich dann in ‚konkrete Erfahrungen‘, die anders sind als zunächst gedacht. ‚Vermutungen‘ in Kombination mit ‚Überprüfung‘ können so zur Bildung von ‚wirklichkeitsnahen Vorstellungen von Beziehungen‘ führen. Damit hat ein Mensch die Chance, sein ’spontanes Geflecht an gedachten Beziehungen‘, die falsch sein können — und meistens auch sind — in ein ‚überprüftes Geflecht von Beziehungen‘ zu verwandeln. Da letztlich die gedachten Beziehungen als Geflecht für uns ein ‚Ordnungssystem‘ aufspannen, in dem die Dinge des Alltags einbettet sind, erscheint es erstrebenswert, mit möglichst ‚überprüften gedachten Beziehungen‘ zu arbeiten.

[1] Der Atem des Menschen mir gegenüber, der bei den Griechen mein Gegenüber mit der Lebenskraft des Universums verbindet, die wiederum auch mit dem Geist un d der Seele zusammenhängt …

Hypothesen und Wissenschaft

Herausforderung: Methodisch geordnetes Vermuten

Die Fähigkeit zum Denken von möglichen Beziehungen, dann auch mittels Sprache, ist angeboren [1], aber die ‚Nutzung‘ dieser Fähigkeit im Alltag, z.B. so, dass wir gedachte Beziehungen mit der Wirklichkeit des Alltags abgleichen, dieses ‚Abgleichen’/ ‚Überprüfen‘ ist nicht angeboren. Wir können es tun, müssen es aber nicht tun. Es ist von daher interessant, sich zu vergegenwärtigen, dass seit dem ersten Auftreten des Homo sapiens auf diesem Planeten [2] 99,95% der Zeit vergangen sind, bis es zur Etablierung einer organisierten modernen Wissenschaft vor ca. 150 Jahren gekommen ist. Man kann dies als Hinweis deuten, dass der Übergang vom ‚freien Vermuten‘ bis zu einem ‚methodisch geordneten systematischen Vermuten‘ alles andere als einfach gewesen sein muss. Und wenn heute immer noch ein Großteil der Menschen — trotz Schule und sogar Studium –[3] eher dem ‚freien Vermuten‘ zuneigen und sich mit geordneter Überprüfung schwer tun, dann scheint es hier tatsächlich eine nicht leichte Schwelle zu geben, die ein Mensch überwinden muss — und immer wieder neu muss — , um vom ‚freien‘ zum ‚methodisch geordneten‘ Vermuten überzugehen.[4]

Ausgangspunkt für Wissenschaft

‚Der Übergang vom alltäglichen Denken zum ‚wissenschaftlichen Denken‘ ist fließend. Das Erzeugen von ‚gedachten Beziehungen‘ in Verbindung mit Sprache aufgrund auch unserer Fähigkeit der Kreativität/ der Fantasie ist letztlich auch der Ausgangspunkt von Wissenschaft. Während wir im alltäglichen Denken eher spontan und pragmatisch ’spontan gedachte Beziehungen‘ ‚überprüfen‘, versucht die ‚Wissenschaft‘ solche Überprüfungen ’systematisch‘ zu organisieren, um dann solche ‚positiv überprüften Vermutungen‘ als ‚empirisch überprüfte Vermutungen‘ bis zum Beweis des Gegenteils als ‚bedingt wahr‘ anzunehmen. Statt von ‚Vermutungen‘ spricht die Wissenschaft gerne von ‚Hypothesen‘ oder ‚Arbeitshypothesen‘, aber es bleiben ‚Vermutungen‘ durch die Kraft unsres Denkens und durch die Kraft unserer Fantasie.[5]

[1] Dies bedeutet, die genetische Information, die der Entwicklung unseres Körpers zugrunde liegt, ist so beschaffen, dass unser Körper mit seinem Gehirn während der Wachstumsphase so aufgebaut wird, dass wir genau über diese Fähigkeit zum ‚Denken von Beziehungen‘ verfügen. Interessant hier wieder die Frage, wie es möglich ist, dass sich aus einer einzigen Zelle ca. 13 Billionen Körperzellen (die ca. 100 Billionen Bakterien im Darm kommen ‚von außen‘ dazu) so entwickeln können, dass sie als ‚Gesamteindruck‘ das ‚Bild des Menschen‘ erzeugen, das wir kennen

[2] Nach heutigem Kenntnisstand vor ca. 300.000 Jahren in Ostafrika und in Nordafrika, von wo der Homo sapiens dann die gesamte Welt erwandert und erobert hat (es gab noch Reste von anderen Menschenformen, die schon länger da waren).

[3] Repräsentative empirische Studien dazu, wie viele Menschen einer Bevölkerung dazu neigen, sind mir nicht bekannt.

[4] Berücksichtigt man, dass wir Menschen als Lebensform Homo sapiens erst nach ca. 3.8 Milliarden Jahren auf diesem Planeten erschienen sind, dann machen die 300.000 Jahre Homo sapiens grob 0,008% der gesamten Zeit aus, seitdem es Leben auf dem Planeten Erde gibt. Wir sind also nicht nur als Homo sapiens ein sehr spätes ‚Produkt‘ des Lebensprozesses, sondern innerhalb unseres Homo sapiens Lebensprozesses taucht die Fähigkeit zum ’systematischen Überprüfen von Hypothesen‘ auch erst ‚ganz spät‘ auf. Aufs ganze Leben bezogen scheint daher diese Fähigkeit extrem wertvoll zu sein, was ja auch stimmt, betrachtet man die unfassbaren Erkenntnisse, die wir als Homo sapiens mit dieser Form zu denken gewinnen konnten. fragt sich nur, wie wir mit diesem Wissen umgehen. Auch diese Verhaltensweise, systematisch überprüftes Wissen dann zu nutzen, ist nicht angeboren.

[5] Die Fähigkeit der ‚Fantasie‘ ist kein Gegensatz zum ‚Wissen‘, sondern ist etwas ganz anderes. ‚Fantasie‘ ist eine Eigenschaft, die sich in dem Moment ‚zeigt‘, wo wir anfangen zu denken, vielleicht sogar schon darin, ‚dass‘ wir überhaupt denken. Da wir im Prinzip über ‚alles‘ Nachdenken können, was unsrem Denken ‚erreichbar‘ ist, ist die Fantasie ein Faktor, der hilft, ‚Auszuwählen‘, was wir denken. Fantasie ist insoweit dem Denken vor-gelagert.

MASLOW UND DIE NEUE WISSENSCHAFT. Nachbemerkung zu Maslow (1966)

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Datum: 21.Juni 2020 (Korrekturen: 24.Juni 2020)

KONTEXT

Wenn man sich nicht nur wundern will, warum das Phänomen von ‚Fake News‘ oder ‚Verschwörungstheorien‘ so verbreitet ist und selbst vor akademischer Bildung nicht Halt macht, dann muss man versuchen, den Mechanismus zu verstehen, der diesem Phänomen zugrunde liegt. Von den vielen Zugängen zu dieser Frage finde ich das Buch von Maslow (1966) The Psychology of Science besonders aufschlussreich.

VERLUST DES PHÄNOMENS

Maslow erlebte seine Arbeit als Psychotherapeut im Spannungsfeld zur damaligen experimentellen verhaltensorientierten Psychologie im Stil von Watson. Während er als Psychotherapeut versuchte, die ganze Bandbreite der Phänomene ernst zu nehmen, die sich in der Begegnung mit konkreten Menschen ereignet, gehörte es zum damaligen Programm einer empirischen Verhaltens-Psychologie, die Phänomene im Kontext von Menschen auf beobachtbares Verhalten zu beschränken, und hier auch nur auf solche Phänomene, die sich in (damals sehr einfachen) experimentellen Anordnungen reproduzieren lassen. Außerdem galt das Erkenntnisinteresse nicht den individuellen Besonderheiten, sondern allgemeinen Strukturen, die sich zwischen allen Menschen zeigen.

Maslow verallgemeinert die Betrachtung dahingehend, dass er die Einschränkung der Phänomene aus Sicht einer bestimmten Disziplin als Charakteristisch für die Wissenschaft seiner Zeit diagnostiziert. Er meinte in dieser Ausklammerung von Phänomenen eine tiefer liegende Tendenz zu erkennen, in der letztlich die Methode über das Phänomen gestellt wird: wehe dem Phänomen, wenn es nicht zu den vereinbarten Methoden passt; es hat hier nichts zu suchen. In dem Moment, in dem die Wissenschaft von sich aus entscheiden darf, was als Phänomen gelten darf und was nicht, gerät sie in Gefahr, ein Spielball von psychologischen und anderen Dynamiken und Interessen zu werden, die sich hinter der scheinbaren Rationalität von Wissenschaft leicht verstecken können. Aus der scheinbar so rationalen Wissenschaft wird verdeckt eine irrationale Unternehmung, die sich selbst immunisiert, weil sie ja alle Phänomene ausklammern kann, die ihr nicht passen.

VERLUST DER EINHEIT

Zu der verdeckten Selbstimmunisierung von wissenschaftlichen Disziplinen kommt erschwerend hinzu, dass die vielen einzelnen Wissenschaften weder begrifflich noch prozedural auf eine Integration, auf eine potentielle Einheit hin ausgelegt sind. Dies hier nicht verstanden als eine weitere Immunisierungsstrategie, sondern als notwendiger Prozess der Integration vieler Einzelaspekte zu einem möglichen hypothetischen Ganzen. Ohne solche übergreifenden Perspektiven können viele Phänomene und daran anknüpfende einzelwissenschaftliche Erkenntnisse keine weiterreichende Deutung erfahren. Sie sind wie einzelne Findlinge, deren Fremdheit zu ihrem Erkennungszeichen wird.

SUBJEKTIV – OBJEKTIV

In der orthodoxen Wissenschaft, wie Maslow die rigorosen empirischen Wissensschaften nennt, wird ein Begriff von empirisch, von objektiv vorausgesetzt, der den Anspruch erhebt, die reale Welt unabhängig von den internen Zuständen eines Menschen zu vermessen. Dies geht einher mit der Ausklammerung der Subjektivität, weil diese als Quelle allen Übels in den früheren Erkenntnistätigkeiten des Menschen diagnostiziert wurde. Mit der Ausklammerung der Subjektivität verschwindet aber tatsächlich auch der Mensch als entscheidender Akteur. Zwar bleibt der Mensch Beobachter, Experimentator und Theoriemacher, aber nur in einem sehr abstrakten Sinne. Die inneren Zustände eines Menschen bleiben in diesem Schema außen vor, sind quasi geächtet und verboten.

Diese Sehweise ist selbst im eingeschränkten Bild der empirischen Wissenschaften heute durch die empirischen Wissenschaften selbst grundlegend in Frage gestellt. Gerade die empirischen Wissenschaften machen deutlich, dass unser Bewusstsein, unser Wissen, unser Fühlen funktional an das Gehirn gebunden sind. Dieses Gehirn sitzt aber im Körper. Es hat keinen direkten Kontakt mit der Welt außerhalb des Körpers. Dies gilt auch für die Gehirne von Beobachtern, Experimentatoren und Theoriekonstrukteuren. Keiner von ihnen sieht die Welt außerhalb des Körpers, wie sie ist! Sie alle leben von dem, was das Gehirn aufgrund zahlloser Signalwege von Sensoren an der Körperoberfläche oder im Körper einsammelt und daraus quasi in Echtzeit ein dreidimensionales Bild der unterstellten Welt da draußen mit dem eigenen Körper als Teil dieser Welt errechnet. Dies bedeutet, dass alles, was wir bewusst wahrnehmen, ein internes, subjektives Modell ist, eine Menge von subjektiven Ereignissen (oft Phänomene genannt, oder Qualia), von denen einige über Wahrnehmungsprozesse mit externen Ursachen verknüpft sind, die dann bei allen Menschen in der gleichen Situation sehr ähnliche interne Wahrnehmungsereignisse erzeugen. Diese Wahrnehmungen nennen wir objektiv, sie sind aber nur sekundär objektiv; primär sind sie interne, subjektive Wahrnehmungen. Die Selbstbeschränkung der sogenannten empirischen Wissenschaften auf solche subjektiven Phänomene, die zeitgleich mit Gegebenheiten außerhalb des Körpers korrelieren, hat zwar einen gewissen praktischen Vorteil, aber der Preis, den die sogenannten empirischen Wissenschaften dafür zahlen, ist schlicht zu hoch. Sie opfern die interessantesten Phänomene im heute bekannten Universum nur, um damit ihre einfachen, schlichten Theorien formulieren zu können.

In ihrer Entstehungszeit — so im Umfeld der Zeit von Galilelo Galilei — war es eine der Motivationen der empirischen Wissenschaften gewesen, sich gegen die schwer kontrollierbaren Thesen einer metaphysischen Philosophie als Überbau der Wissenschaften zu wehren. Die Kritik an der damaligen Metaphysik war sicher gerechtfertigt. Aber In der Gegenbewegung hat die empirische Wissenschaft gleichsam — um ein Bild zu benutzen — das Kind mit dem Bade ausgeschüttet: durch die extreme Reduktion der Phänomene auf jene, die besonders einfach sind und durch das Fehlen eines klaren Kriteriums, wie man der Gefahr entgeht, wichtige Phänomene schon im Vorfeld auszugrenzen, wurde die moderne empirische Wissenschaft selbst zu einer irrationalen dogmatischen Veranstaltung.

Es ist bezeichnend, dass die modernen empirischen Wissenschaften über keinerlei methodischen Überbau verfügen, ihre eigene Position, ihr eigenes Vorgehen rational und transparent zu diskutieren. Durch die vollständige Absage an Philosophie, Erkenntnistheorie, Wissenschaftsphilosophie — oder wie man die Disziplinen nennen will, die sich genau mit diesen Fragen beschäftigen — hat sich die empirische Wissenschaft der Neuzeit einer nachhaltigen Rationalität beraubt. Eine falsche Metaphysik zu kritisieren ist eines, aber sich selbst angemessen zu reflektieren, ein anderes. Und hier muss man ein Komplettversagen der modernen empirischen Wissenschaften konstatieren, was Maslow in seinem Buch über viele Kapitel, mit vielen Detailbeobachtungen aufzeigt.

DAS GANZE IST EIN DYNAMISCHES ETWAS

Würden die empirischen Wissenschaften irgendwann doch zur Besinnung kommen und ihren Blick nicht vor der ganzen Breite und Vielfalt der Phänomene verschließen, dann würden sie feststellen können, dass jeder Beobachter, Experimentator, Theoriemacher — und natürlich alle Menschen um sie herum — über ein reiches Innenleben mit einer spezifischen Dynamik verfügen, die kontinuierlich darauf einwirkt, was und wie wir denken, warum, wozu usw. Man würde feststellen, dass das Bewusstsein nur ein winziger Teil eines Wissens ist, das weitgehend in dem um ein Vielfaches größeren Unbewusstsein verortet ist, das unabhängig von unserem Bewusstsein funktioniert, kontinuierlich arbeitet, all unsere Wahrnehmung, unser Erinnern, unser Denken usw. prägt, das angereichert ist mit einer ganzen Bandbreite von Bedürfnissen und Emotionen, über deren Status und deren funktionale Bedeutung für den Menschen wir bislang noch kaum etwas wissen (zum Glück gab und gibt es Wissenschaften, die sich mit diesen Phänomenen beschäftigen, wenngleich mit großen Einschränkungen).

Und dann zeigt sich immer mehr, dass wir Menschen vollständig Teil eines größeren BIOMs sind, das eine dynamische Geschichte hinter sich hat in einem Universum, das auch eine Geschichte hinter sich hat. Alle diese Phänomene hängen unmittelbar untereinander zusammen, was bislang aber noch kaum thematisiert wird.

Das Erarbeiten einer Theorie wird zu einem dynamischen Prozess mit vielen Faktoren. Bei diesem Prozess kann man weder die primäre Wahrnehmung gegen konzeptuelle Modelle ausspielen, noch konzeptuelle Modelle gegen primäre Wahrnehmung, noch kann man die unterschiedlichen internen Dynamiken völlig ausklammern. Außerdem muss der Theoriebildungsprozess als gesellschaftlicher Prozess gesehen werden. Was nützt eine elitäre Wissenschaft, wenn der allgemeine Bildungsstand derart ist, dass Verschwörungstheorien als ’normal‘ gelten und ‚wissenschaftliche Theorien‘ als solche gar nicht mehr erkannt werden können? Wie soll Wissenschaft einer Gesellschaft helfen, wenn die Gesellschaft Wissenschaft nicht versteht, Angst vor Wissenschaft hat und die Wissenschaft ihrer eigenen Gesellschaft entfremdet ist?

BOTSCHAFT AN SICH SELBST?

Das biologische Leben ist das komplexeste Phänomen, das im bislang bekannten Universum vorkommt (daran ändert zunächst auch nicht, dass man mathematisch mit Wahrscheinlichkeiten herumspielt, dass es doch irgendwo im Universum etwas Ähnliches geben sollte). Es ist ein dynamischer Prozess, dessen Manifestationen man zwar beobachten kann, dessen treibende Dynamik hinter den Manifestationen aber — wie generell mit Naturgesetzen — nicht direkt beobachtet werden kann. Fasst man die Gesamtheit der beobachtbaren Manifestationen als Elemente einer Sprache auf, dann kann diese Sprache möglicherweise eine Botschaft enthalten. Mit dem Auftreten des homo sapiens als Teil des BIOMs ist der frühest mögliche Zeitpunkt erreicht, an dem das Leben ‚mit sich selbst‘ sprechen kann. Möglicherweise geht es gerade nicht um den einzelnen, wenngleich der einzelne im Ganzen eine ungewöhnlich prominente Stellung einnimmt. Vielleicht fängt die neue Wissenschaft gerade erst an. In der neuen Wissenschaft haben alle Phänomene ihre Rechte und es gibt keine Einzelwissenschaften mehr; es gibt nur noch die Wissenschaft von allen für alles ….

KONTEXT ARTIKEL

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

OBJEKTIVE WERTE? Diskussion von Stace’s ’Religion and the Modern Mind’, Teil 3: Kap.4

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
17.Juni 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

ÜBERSICHT

In Fortsetzung der vorausgehenden Teile 1 und 2 wird hier das Kap.4 besprochen. In ihm beschreibt Stace die Entstehung des modernen wissenschaftlichen Weltbildes am Beispiel der Astronomie. Bei genauerem Hinsehen kann man schon hier die ’Bruchstelle’ erkennen, wo heute (mehr als 60 Jahre nach Staces Buch) eine ’Wiedervereinigung’ von Wissenschaft und ’Moral’ (oder gar ’Religion’) nicht nur möglich, sondern geradezu ’notwendig’ erscheint.

I. KAPITEL 4

Gedankenskizze zu Staces Kap.4: Entstehung des neuzeitliches wissenschaftlichen Weltbildes
Gedankenskizze zu Staces Kap.4: Entstehung des neuzeitliches wissenschaftlichen Weltbildes

Entstehung der neuzeitlichen Wissenschaft

Die Entstehung der neuzeitlichen Wissenschaft ist eine langwierige und – wenn man sie voll aufschreiben wollte – eine komplexe Geschichte, die sich, je mehr man sich der Gegenwart nähert, in immer mehr Verfeinerungen aufspaltet und heute den Charakter einer ’großen Unübersichtlichkeit’ hat. Stace konzentriert sich auf ein Thema, lange Zeit das Hauptthema schlechthin, die ’Astronomie’, die Himmelskunde, und entwirft anhand der führenden Wissenschaftler dieser Zeit (15.Jh bis 20.Jh, kleine Rückblicke bis in die klassische Griechische Periode) holzschnittartig ein Bild der Entstehung des Neuen.

Ein Hauptcharakteristikum des neuen wissenschaftlichen Weltbildes ist der Übergang vom dominierenden ’geozentrischen Weltbild’ (die Erde als Mittelpunkt von allem) zum ’heliozentrischen Weltbild’ (die Erde dreht sich um die Sonne; die Sonne ist nicht mehr der einzige Bezugspunkt).

Vorgeschichten sind üblich

Für den Charakter von Weltbildern, die eine Kultur, eine ganze Epoche beherrschen, ist es bezeichnend, dass viele der wichtigen Grundüberzeugungen nicht einfach so ’vom Himmel gefallen sind’, sondern einen meist viele hundert Jahre andauernden ’Vorlauf’ haben, bisweilen tausende von Jahren. So auch im Fall der Diskussion ob ’geozentrisch’ oder ’heliozentrisch’. Schon lange vor dem Beginn der modernen Diskussion um ’geozentrisch’ oder ’heliozentrisch’, nämlich ca. 1800 Jahre (!) vor Kopernikus, gab es zwei griechische Mathematiker und Astronomen (Aristarch von Samos (um -310 bis um -230) und Seleukos von Seleukia (um -190 bis vor -135) ) die aufgrund ihrer Beobachtungen und Berechnungen ein klares heliozentrisches Weltbild vertraten. Für den damaligen ’Main Stream’ war das aber so ’unglaubwürdig’, dass Aristarch in die Rolle eines ’Ketzers’ gerückt worden sein soll, den man wegen ’Gottlosigkeit’ anklagen müsse.

Die Wiederkehr dieses Musters im Fall von Galileo Galilei und noch lange nach ihm (in manchen Teilen von religiösen Strömungen bis in die Gegenwart) mag als Indiz dafür gesehen werden, dass ’herrschende Weltanschauungen’ in ihrem eigenen Selbstverständnis, in ihrer Selbstbegründung, die Tendenz haben, sich ohne wirkliche Begründung ’absolut zu setzen’. Auf den ersten Blick erscheint solch ein Verhalten als ’Schutz der bestehenden Ordnung’, aber bei längerer Betrachtung ist dies ein gefährliches Spiel mit der Wahrheit, das eine ganze Kultur in die Irre und dann in den Abgrund führen kann. ’Sicherheit’ ist kein Ersatz für ’Freiheit’ und ’Wahrheit’.

Die Theoretiker

Bezeichnend für die Entwicklung von etwas Neuem ist auch, dass es letztlich nicht die ’Praktiker’ waren, nicht die ’Datensammler’, durch die das ’Neue’ sichtbar wurde, sondern eher die ’Theoretiker’, also jene Menschen, die über all die vielen ’Phänomene’ ’nachgedacht’ haben, nach irgendwelchen ’Regelhaftigkeiten’, ’Muster’ Ausschau gehalten haben, und die dies letztlich auch nur geschafft haben, weil sie in der Lage waren, die wichtigste Sprache der Menschheit zu benutzen, die es gibt, die Sprache der Mathematik. Kopernikus, Kepler, Galileo, Descartes, Huygens, Newton, Laplace – dies waren Menschen mit einer starken, primären Bildung in Mathematik. Ohne die mathematischen Kenntnisse hätten sie niemals die neue Sicht der Welt entwickeln können.

Andererseits, das gilt auch, ohne die Daten eines Tycho Brahe oder ohne bessere Messgeräte (z.B.Fernrohr), die Handwerker (und heute Ingenieure) bauen und gebaut haben, gäbe es auch nicht die Daten, die Fakten, anhand deren die Theoretiker jene Muster herauslesen konnten, die sie dann in der Sprache der Mathematik soweit ’idealisieren’, ’veredeln’ konnten, dass daraus die neuen unfassbaren Sichten entstanden, mit denen wir auch heute noch die Wirklichkeit um uns herum, das ’Rauschender Phänomene’ gedanklich sortieren, filtern, so neu anordnen können, dass wir darin und dadurch weitreichende Strukturen und Dynamiken erkennen können, die Jahrtausende unsichtbar waren, obwohl sie schon Milliarden Jahre da waren und wirkten.

Politisch Inkorrekt …

Während Kopernikus Zeit seines Lebens nur Ausschnitte aus seinem Hauptwerk ’De revolutionibus orbium coelestium’ veröffentlichte, da er damit rechnen konnte, von der Kirche als Ketzer angeklagt zu werden (der volle Text also erst 1543 erschien), legte sich Galileo Galilei (1564 – 1642) schon zu Lebzeiten mit den Vertretern der Kirche an und bewegte sich immer nah vor einer vollen Verurteilung als Ketzer mit dem dazugehörigen Tod durch Verbrennen.

Theoriebildung – Ein Muster

An der Theoriebildung von Galileo wird eine Eigenschaft sichtbar, die sich auch bei allen späteren wissenschaftlichen Theorien finden wird. Es ist das Moment der ’kreativen Irrationalität’, wie ich es mal nennen möchte. Dieses Moment findet sich in jeder wissenschaftlichen Theorie, und zwar notwendigerweise (Was heute gerne übersehen oder verschwiegen wird.). Seine Experimente zur Bewegung mit Körpern führten ihn zur Formulierung seines ersten Bewegungsgesetzes (das sich später auch in Newtons Hauptwerk ”Philosophiae Naturalis Principia Mathematica” als Teil seiner Mechanik findet) . Es besagt letztlich, dass kräftefreie Körper entweder in Ruhe bleiben oder sich geradlinig mit konstanter Bewegung bewegen (vgl. Stace (1952) [1]:64ff). Als ’Gesetz’ kann man diese Aussage nicht beweisen, man kann nur aufgrund von ’endlichen Daten’ eine ’Vermutung’ äußern, eine ’Hypothese’ formulieren, dass die bekannten Beispiele einen ’Wirkzusammenhang’ nahelegen, der sich eben auf die zuvor formulierte Weise beschreiben lässt. Solange dieser ’hypothetische Wirkzusammenhang’ sich im Experiment ’bestätigt’, so lange ist dieses Gesetz ’gültig’. Es kann im Laufe der Zeit aber auch durch neue, bisweilen ’feinere’ Beobachtungen, in ’Frage gestellt’ werden und dann –was oft geschehen ist – durch neue Formulierungen abgelöst werden.

Wichtig ist die grundlegende Figur, die sich hier zeigt: (i) Es gibt aktuell Phänomene (meistens aus der Vergangenheit), die man ’erklären möchte. Noch fehlen passende ’Regeln’. (ii) Aufgrund eines kreativen, irrationalen Denkprozesses entstehen ’Bilder von möglichen Mustern/ Regeln’, die mit den bekannten Phänomenen so ’passen’, dass man mit diesen Regeln das Auftreten der Phänomene so ’erklären’ kann, dass man ’zukünftige Phänomene’ voraussagen kann. (iii) Man erhebt diese kreativ gewonnenen Regeln in den Status von offiziellen ’Arbeitshypothesen’. (iv) Man macht Experimente mit diesen Arbeitshypothesen und ’überprüft’, ob die Arbeitshypothesen auch bei neuen, zukünftigen Phänomenen ’gültig’ bleiben. (v) Solange sich keine’ widersprüchlichen Befunde’ ergeben, gelten die Arbeitshypothesen als akzeptierte Regel.

Kreativität ist Fundamental – Logik Sekundär

Anders formuliert, mittels eines ’kreativen irrationalen’ Denkprozesses gewinnt man aus gegebenen Phänomenen ’induktiv’/ ’bottom-up’ mögliche ’erklärende Hypothesen’. Sofern man diese hat, kann man ’deduktiv’/ ’top-down’ gezielt Experimente durchführen, um die ’Gültigkeit’ dieser Arbeitshypothese zu überprüfen. Arbeitshypothesen kann man aber ’nicht logisch beweisen’, da dies voraussetzen würde, dass man  über eine noch ’allgemeinere’ Hypothese verfügt, aus der man eine ’speziellere’ Hypothese ableiten kann (So hat sich gezeigt, dass man z.B. die drei Planetengesetze von Kepler durch das spätere Gravitationsgesetz von Newton
als ’Spezialfall’ ’ableiten’ kann). Das menschliche Gehirn verfügt aber als solches nicht ’von vornherein’ (nicht ’a priori’) über irgendwelche allgemeinen Gesetze. Das Gehirn scheint aber sehr wohl in der Lage zu sein, anscheinend beliebig viele (genauer Umfang ist unbekannt) ’Regelmäßigkeiten’, sofern sie sich anhand von Phänomenen zeigen, zu erkennen und weiter zu ’verallgemeinern’. Die Geschichte zeigt, dass das ’Zusammenwirken’ von vielen Gehirnen einerseits den einzelnen bei weitem übertreffen kann, ohne allerdings — andererseits — die kreativ-irrationale Kraft des einzelnen dadurch zu ersetzen. Es bleibt immer ein spannungsvolles Wechselspiel von individueller Kreativität und kulturellem Main-Stream. Individuelle Abweichungen werden eher nicht toleriert, werden eher an die Seite gedrückt. Der ’aktuelle’ Erfolg wirkt stärker als der ’vermeintliche’. Insofern sind Kulturen große ’Echokammern’, die beständig in Gefahr sind, sich selbst zu lähmen.

Entzauberung – Entmystifizierung

Kopernikus, Galileos Fernrohr und Bewegungsgesetze, Keplers Planetengesetze, Newtons Mechanik samt dem Gravitationsgesetz, dies alles verhalf dem Denken durch neue Erklärungsmuster und unter Einsatz der mathematischen Sprache, zu einer Sicht der Dinge, die ein direktes Eingreifen ’anderer Mächte’ oder ’Gottes’ überflüssig erscheinen liesen. Im Fall von Newton ist aber zu beobachten, dass er trotz so großartiger Erklärungserfolge ’in seinem Innern’ noch eine Vorstellung von ’Gott’ hatte, die ihn dazu verleitete, einige Unregelmäßigkeiten bei den Planetenbahnen, die er nicht mit seinen Formeln erklären konnte, dann doch einem ’direkten Wirken Gottes’ zuzuschreiben. (vgl. Stace (1952) [1]:69ff) Es war dann Laplace, der die Unregelmäßigkeiten mathematisch einordnen konnte und der mit einer eigenen Theorie zur Entstehung der Sterne (bekannt als ’Nebularhypothese’) sogar meinte, er habe damit die Annahme Gottes als notwendiger erster Ursache ’erledigt’.

QUELLEN
[1] W. Stace, Religion and the Modern Mind, 1st ed. Westport (Connecticut): Greenwood Press, Publishers, 1952, reprint 1980
from Lippincott and Crowell, Publishers.

Eine Fortsetzung findet sich HIER.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

 

 

Die Wiederentdeckung Gottes auf dem Planeten Erde für alle denkbaren Universen. Essay.Teil 1

PDF

Wahrheit

  1. Eine Benutzung des Wortes ‚Wahrheit‘ setzt voraus, dass es etwas gibt, was meinem eigenen Denken und Fühlen vorgelagert ist, von meinem eigenen Wollen unabhängig; egal was ich mir wünsche, vorstelle, phantasiere, denke; es ist etwas — ein X, das Andere –, das vorkommt, weil es ‚aus sich heraus‘ vorkommt.
  2. Im Alltag ist es ein Gegenstand, über den ich im Dunklen stolpere, weil ich an dieser Stelle keinen Gegenstand vermutet habe; die Sonne, die mich blendet, weil sie so tief steht; der Kaffee, den ich trinke; der Stuhl, auf dem ich sitze; mein Gegenüber, das auf mich einredet; der Regen, der mit Macht hernieder prasselt …
  3. Diese Selbstverständlichkeit kann schnell ins Wanken geraten, wenn man anfängt, darüber nachzudenken.
  4. Wir wissen, dass wir Menschen phantasieren können, träumen, wir können Halluzinationen haben, Wahnvorstellungen, … oder denken gerade nach. Diesen Beispielen ist gemeinsam, dass derjenige der phantasiert, träumt usw. ‚für sich‘, ’subjektiv‘, etwas erlebt, empfindet, denkt, was ihm in diesem Moment ‚wie wirklich‘ erscheint, obgleich andere Menschen in der Umgebung einer solchen Person zum Schluss kommen könnten, dass die aktuellen Phantasiebilder, Träume usw. nichts mit der aktuellen äußeren Situation dieser Person zu tun haben.
  5. So stellt sich die Person vor, sie sei eine Königin, obwohl sie nach offiziellen Daten nur eine Büroangestellte ist; oder jemand träumt im Schlaf, schreit, schlägt um sich, und wenn dann der Bettnachbar ihn aufweckt, berichtet der Träumer von irgendwelchen Ungeheuern, vor denen er geflohen sei. Jemand anderes hat Drogen genommen und sieht den aktuellen Raum plötzlich ganz anders, umarmt Anwesende oder beschimpft sie, obwohl es keinen äußerlich bekannten Grund dafür gibt. Andere fühlen sich verfolgt, haben panische Ängste, verstecken sich, schließen sich ein, kaufen Waffen, aber es gibt niemand, der ihnen nachstellt. Und dann der Denker: er sitzt scheinbar tatenlos auf einem Stuhl, stiert vor sich hin auf ein Spielbrett, und in seinem Kopf denkt er intensiv über verschiedene Möglichkeiten nach, welche Züge er im Spiel machen könnte, Züge, die nur in seinem Denken existieren, nicht auf dem Spielbrett.
  6. Das innere Erleben eines Menschen kann offensichtlich für den Betreffenden so ‚wirklich‘ erscheinen, wie das, was sich von der ‚Außenwelt‘ in seiner ‚Wahrnehmung‘ niederschlagen kann. Und offensichtlich gibt es hier Zustände, in denen der Betreffende in seinem Erleben nicht mehr so richtig (oder gar nicht?) entscheiden kann, ob das Erlebte nun ’nur innerlich, subjektiv‘ vorkommt, oder auch ‚zugleich äußerlich, objektiv, intersubjektiv‘, so, dass andere diese Sachverhalte von sich aus bestätigen könnten.
  7. Die Dinge werden noch schwieriger, wenn man die Sprache einbezieht.
  8. Die Sprache — gesprochen wie geschrieben (oder noch anders) — hat die Besonderheit, dass sich sprachliche Äußerungen normalerweise in kleinere Einheiten unterteilen lassen, die teilweise als diese kleineren Einheiten eine ‚Bedeutung‘ haben; im Zusammenhang der Äußerung können diese unterscheidbaren kleineren Einheiten eine ‚über die einzelne Einheit hinausgehende‘ Bedeutung besitzen. Zugleich spielt die Situation eine Rolle: die gleiche sprachliche Äußerung kann je nach der Deutung der Situation eine ganz unterschiedliche Bedeutung besitzen.
  9. Eine Äußerung wie ‚Ich bitte Dich, mir zu helfen, das Haus zu verkaufen‘, enthält kleinere Einheiten, die wir gewöhnlich ‚Worte‘ nennen. Einzelne Worte wie z.B. ‚Haus‘ haben eine Bedeutung durch Bezug auf gedachte und dann möglicherweise objektive Gegenstände mit bestimmten Eigenschaften. Andere Worte wie ‚zu‘ und ‚das‘ haben keinen direkten Gegenstandbezug. Für jemand, der die deutsche Sprache kennt, deutet sich in dieser sprachlichen Äußerung an, dass eine Person A (die mit dem ‚Ich‘) eine andere Person B (die mit dem ‚Dich‘) ‚bittet‘ bei einem Hausverkauf zu helfen. Wenn die beiden Personen A und B voneinander gesellschaftlich unabhängig sind, die Person B dem A in keiner Weise verpflichtet ist, dann ist die ausgesprochene Bitte typisch und der Ausgang offen. Wenn aber B dem A irgendwie verpflichtet ist, von A vielleicht sogar sehr direkt abhängt, dann kann diese Bitte eher als ein Befehl verstanden werden, den B dann aus gesellschaftlichen Gründen nicht wirklich ablehnen kann. Dies setzt voraus, dass man die sprachliche Äußerung als Teil eines größeren sozialen Zusammenhangs erkennt, dessen Eigenschaften die Bedeutung beeinflussen können.
  10. Es gibt aber noch weitere Unwägbarkeiten. Wenn in der Äußerung davon gesprochen wird, ‚das Haus‘ zu verkaufen, dann unterstellt A, dass B ‚weiß‘, welches Haus ‚gemeint‘ ist. Wenn die sprachliche Äußerung aber in ‚Abwesenheit des Hause‘ getätigt wird, dann existiert ‚das Haus‘ nur im ‚Wissen‘ der beiden beteiligten Personen A und B. Zumindest unterstellt A, dass B ‚weiß‘, welches Haus A ‚meint‘. Dies funktioniert, wenn es in der Vergangenheit eine Situation gab, durch die eindeutig genug ein ganz bestimmtes Haus identifiziert worden ist, also ‚das Haus‘ von dieser erinnerbaren Situation. Dies kann funktionieren. Wenn diese erinnerbare Situation aber nicht eindeutig war, wenn schon in dieser Situation zwar von ‚dem Haus‘ geredet wurde, aber schon in der damaligen Situation A an ein anderes Haus gedacht hat als B und beide diesen Unterschied nicht bemerkt haben, dann wird B möglicherweise zustimmen und für sich an ein anderes Haus H1 denken als A, der an das Haus H2 denkt. Irgendwann werden beide vielleicht merken, dass sie mit ‚das Haus‘ zwei verschiedene Objekte meinen, spätestens dann, wenn sie zu dem Haus hinfahren würden. Solange sie dies nicht tun leben Sie mit ihren privaten, subjektiven Vorstellungen von einem Hausobjekt H1 bzw. H2, benutzen die gleichen Worte, und merken nicht, dass sie beide etwas ‚Verschiedenes meinen‘.
  11. Ein Bezug zur Außenwelt unter Zuhilfenahme einer Sprache kann also unterschiedlich missverständlich sein. Die Worte können im Kopf, im ‚Innern‘, im Denken eines Sprecher-Hörers, einen Sachverhalt induzieren, hervorrufen, aktivieren, der für ‚wirklich‘ angenommen wird, obgleich sich diese Vorstellungen in den Köpfen verschiedener Sprecher-Hörer unterscheiden können, trotz gleicher Worte.
  12. Bei sogenannten ‚abstrakten Bedeutungen‘, wie sie sich bei Worten finden wie ‚Freiheit‘, ‚Demokratie‘, ‚Bewusstsein‘, ‚das Dasein‘, ‚Existenz‘, ‚Glauben‘, ‚Gott‘, ‚Paradies‘, ‚Mathematik‘ usw. kann man in der Regel nicht von vornherein von einer allen gleichermaßen bekannten ‚Bedeutung‘ ausgehen. Worte mit solchen Bedeutungen haben einen solch vielschichtigen Verwendungszusammenhang, dass man bei ihrem Gebrauch grundsätzlich vorher mit allen Beteiligten klären sollte, welche Verwendungszusammenhänge sie jeweils voraussetzen.
  13. Sprechen wir im Alltag von ‚Wahrheit‘ dann unterstellen wir einen Zusammenhang zwischen Sprecher und Umwelt derart, dass eine Aussage wie ‚Es regnet‘ sich auf einen realen, objektiven Vorgang in der Umwelt bezieht, der von anderen auch so wahrgenommen wird (oder werden kann), der jetzt stattfindet. Bei der Aussage, ‚Ich war gestern in Frankfurt‘ wird es schwieriger. Ob die Aussage als ‚wahr‘ bezeichnet wird, hängt davon ab, ob sich nachweisen lässt, dass der Sprecher einen Tag früher tatsächlich in der Stadt mit Namen Frankfurt war, und dass der Sprecher mit der Aussage ‚Ich war gestern in Frankfurt‘ diesen Sachverhalt meint. Wenn der Sprecher während der Aussage für sich gedacht hat, dass er sich nur vorgestellt hat, dass er in Frankfurt gewesen sei, dann wäre die Aussage nach üblichem Sprachverständnis ‚falsch‘, da man bei solch einer Aussage unterstellt, dass der Sprecher tatsächlich in Frankfurt war. Wenn eine Sprecherin sagen würde ‚Ich werde morgen nach Frankfurt fahren‘, dann wäre der Wahrheitsgehalt noch offen. Sie kündigt ein Ereignis an, das in der Zukunft stattfinden soll. Ob es tatsächlich stattfinden wird, muss man erst mal ’sehen‘. Es ist eher eine ‚Absichtserklärung‘, allerdings eine mit potentiellem Wahrheitsanspruch. Falls die Sprecherin während der Aussage denkt, dass Sie nicht wirklich nach Frankfurt fahren will, wäre ihr Aussage nach normalem Verständnis eine ‚Lüge‘ oder eine ‚Täuschung‘. Allerdings, wenn die Sprechsituation locker ist, man gerade ‚herum spinnt‘, man Möglichkeiten überlegt, es nicht so ganz ernst zugeht, dann wäre die Aussage eine Meinungsäußerung ohne klaren Wahrheitsstatus.
    Fassen wir zusammen: Das Reden von ‚Wahrheit‘ setzt voraus:

    1. Es gibt mindestens einen Sprecher A und mindestens einen Hörer B
    2. Beide benutzen die gleiche Sprache L in einer gemeinsam geteilten Situation S
    3. A und B können zwischen Innen (subjektiv) und Außen (objektiv) unterscheiden.
    4. Für A und B haben die hörbaren und/ oder lesbaren Ausdrücke E der Sprache L eine subjektive Bedeutung Y, die mit Sachverhalten X in der Umgebung korrespondieren können.
    5. Wenn A einen Ausdruck E mit der subjektiven Bedeutung YA(E) — aus der Sicht von A — äußert, und dieser Äußerung von E ein Sachverhalt X korrespondiert, den B auch wahrnehmen kann, so dass durch den Ausdruck E und dem Sachverhalt X bei B die subjektive Bedeutung YB(E) aktiviert wird, dann würde aus Sicht von B eine ‚wahre Aussage E‘ vorliegen, wenn der Sachverhalt X mit seiner Bedeutung YB(E) ‚korrespondiert‘.
    6. Da die subjektive Bedeutung Y eines Ausdrucks E mit einem Sachverhalt X korrespondieren soll, muss der Sachverhalt X auch als eine wahrnehmbare Größe XSprecher-Hoerer so vorliegen, dass die subjektive Bedeutung YSprecher-Hoerer sich direkt mit dem Sachverhalt vergleichen lässt. Dies bedeutet, es bedarf einer subjektiven Vergleichsoperation XSprecher-Hoerer = YSprecher-Hoerer ?. Dies bedeutet, sowohl die subjektive Bedeutung Y wie auch der wahrgenommene Sachverhalt X stellen subjektive Größen dar; sie unterscheiden sich nur durch die Art der Hervorbringung: YSprecher-Hoerer wird durch subjektive Aktivitäten generiert und XSprecher-Hoerer wird durch Sinnesorgane des Körpers über das Gehirn generiert. Die Menge der subjektiven Gegebenheiten soll hier technisch als ‚Phänomenraum (PH)‘ bezeichnet werden. Es würde dann gelten dass alle Arten von aktuell wahrgenommenen Sachverhalten X eine Teilmenge des Phänomenraums PH sind und ebenso alle aktuell generierten subjektiven Bedeutungen Y, als XNOW ⊆ PH und YNOW ⊆ PH.Ferner würde gelten YNOW ∩ XNOW = 0
    7. Dabei muss man sich klar machen, dass es zwischen der jeweiligen subjektiven Bedeutung YSprecher-Hoerer und einem sprachlichen Ausdruck E auch eine hinreichend klare und stabile Korrespondenz geben muss. Dies setzt wiederum voraus, dass der hörbare oder sichtbare sprachliche Ausdruck E eine interne Repräsentation ESprecher-Hoerer haben muss, die mit der subjektiven Bedeutungsrepräsentation YSprecher-Hoerer assoziiert ist. Dabei ist zu beachten, dass es eine sprachliche Bedeutung im engeren Sinne gibt, nur bezogen auf den Ausdruck, und eine Bedeutung im weiteren Sinne, insofern der situative Kontext C(Sprecher,Hoerer) zu berücksichtigen ist. Es muss also eine Beziehung folgender Art geben: Meaning : CSprecher-Hoerer x ESprecher-Hoerer —> YSprecher-Hoerer. Dies führt zu den Erweiterungen: CNOW ⊆ PH sowie YNOW ∩ XNOW ∩ CNOW = 0.
  14. Schon diese stark vereinfachende Rekonstruktion lässt erkennen, wie schwierig es ist, zu wirklich wahren Aussagen im Kontext einer Kommunikation zu kommen. Haben zwei Personen eine unterschiedliche Wahrnehmung, dann kann dies schon zu Missverständnissen führen. Haben Sie bei der Zuordnung zwischen wahrgenommenem Sachverhalt X und Bedeutungskonzept Y Unterschiede, funktioniert es auch nicht. Ferner muss die Situationszuordnung passen, und, am allerwichtigsten, die Zuordnung von Ausdruck und Bedeutung muss gleich sein. Alle diese Bedingungen herzustellen und zu überprüfen, erfordert viel Aufmerksamkeit und vielen guten Willen.
  15. Die vielen Kommunikationsprobleme im Alltag zeigen, dass es in der Tat schwierig ist; dazu kommen die vielfältigen systematischen Manipulationen von Sprache aus unterschiedlichsten Gründen (Lügen, Werbung, Propaganda, Indoktrination, Fälschung, Unterhaltung, Fiktion,…).

Eine  Fortsetzung findet sich HIER.

Pausenmusik 🙂

PS: Eine Ergänzung zu diesen Überlegungen könnte das Memo zur Philosophiewerkstatt vom 8.Oktober sein.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

DIE ZUKUNFT WARTET NICHT – 2117 – PHILOSOPHISCHE WELTFORMEL – FAKE-NEWS ALS TODESENGEL

NACHTRAG: Mo, 13.März 2017

Wichtiger Nachtrag zum Komplexitätsbegriff, seinen Grenzen, und erweiterte  Diskussion zur ersten Periodisierung genannt ‚Emergent Life‘ (hauptsächlich ab Nr.25)

KONTEXT

  1. Der aktuelle Blogeintrag ist keine direkte Fortsetzung des letzten Eintrags, sondern schließt gedanklich eher an den vorletzten Beitrag an und ist von daher eher als eine Einleitung zu dem Blogeintrag über das Bewusstsein zu verstehen.
  2. Welche Themen jeweils in die Feder fließen hängt von vielerlei Faktoren ab. Generell natürlich schon von den übergreifenden Perspektiven des Blogs, dann aber auch von alltäglichen Ereignissen und Diskussionen. Dass es heute nun zu diesem sehr grundsätzlichen Beitrag gekommen ist, ist u.a. den intensiven Diskussionen mit Manfred Fassler geschuldet, der aufgrund seines Hintergrundes in Soziologie und Anthropologie die gesellschaftliche Dimension stark in die Überlegungen einbringt, während ich mich meist auf systemische Perspektiven fokussieren. Als ich versucht habe (während ich durch meine Grippe weitgehend ausgeschaltet war (und immer noch bin)), seine Aspekte mit meinen Überlegungen zusammen zu bringen, entstand schrittweise eine Struktur, ein Modell, das sich darstellt wie der Beginn einer philosophischen Weltformel, mit deren Hilfe man mit einem Male viele komplexe Einzelphänomene in die Logik eines übergeordneten Zusammenhangs einordnen kann (siehe Schaubild).

    Periodisierung der Evolution des Lebens mit dem Versuch eines systematischen Kriteriums
    Periodisierung der Evolution des Lebens mit dem Versuch eines systematischen Kriteriums

WELTFORMEL

  1. Den Begriff Weltformel kennen wir ja meist nur im Kontext der modernen Physik, die mit ihren Erklärungsmodellen zu immer umfassenderen Aussagen über das Universum kommen konnte, so umfassend, dass man tatsächlich geneigt ist, von einer Weltformel zu sprechen. Nun wissen wir aber, dass diese sogenannten Weltformeln der Physik bislang noch nicht wirklich alles erklären, geschweige denn nicht all jene Phänomene, die wir dem Bereich des biologischen Lebens zuordnen und den damit verbundenen immer komplexeren Phänomenen von Verhalten und menschlichen Gesellschaften. Es besteht auch wenig Aussicht, dass die physikalischen Weltformeln jemals zu einer völlig erschöpfenden Weltformeln werden könnte, weil schon rein mathematisch eine Theorie der Welt ohne jene, die die Theorie hervorbringen, seit Gödel 1931 entweder als grundsätzlich unvollständig oder unentscheidbar gilt.
  2. Ein anderes Hindernis besteht darin, dass die Physik als empirische Wissenschaft – wie alle anderen empirischen Disziplinen auch – schon vom Start weg nur einen kleinen Teil der möglichen Phänomene dieser Welt als Ausgangspunkt zulässt. Diese vorwissenschaftlich getroffene methodische Beschränkung auf die sogenannten intersubjektiven Phänomene, die sich mittels vereinbarter Messverfahren messen lassen, und zwar invariant mit Bezug auf den, der misst, hat sich zwar im großen und ganzen als sehr leistungsfähig erwiesen, aber anzunehmen, dass sich mit dieser methodisch eingeschränkten Phänomenmenge auf lange Sicht alles erklären lassen wird, auch das, was sich hinter den ausgeschlossenen Phänomenen verbirgt, dies ist eine vor-wissenschaftliche Annahme, für die es keinerlei Belege gibt. Die Zukunft wird zeigen, wie es sich mit diesem Ausschluss verhält.
  3. Ob es also die Physik sein wird, die uns die endgültige Weltformel liefern wird, oder doch eher die Philosophie, wird uns die Zukunft zeigen. Die Philosophie hat gegenüber der Physik (und auch gegenüber allen anderen empirischen Disziplinen), den methodisch großen Vorteil, dass die Philosophie alle anderen Disziplinen voraussetzen und einbeziehen kann. So kann ein Philosoph alle Fragmente und Entwürfe von Weltformeln der Physik nehmen und dann dazu ergänzend, erweiternd, begründend seine Weltformel formulieren. Alles, was in der Physik gilt, wird dann hier auch gelten, aber eventuell noch mehr.
  4. Die Überlegungen des Autors zu den Umrissen einer philosophischen Weltformel begannen nun aber gerade nicht so, dass er sich vor den Computer gesetzt hat und sich sagte, so, jetzt wird eine philosophische Weltformel geschrieben. Nein, so würde es auch nie funktionieren. Formeln, selbst die einfachsten, sind immer Ergebnisse von Denkprozessen, mehr oder weniger bewusst, mehr oder weniger schnell. Und eine Weltformel ist, wie man vermuten kann, wenn überhaupt, das Ergebnis von vielen Jahren Arbeit mit ganz vielen Inhalten. Und wie wir wissen, Zeit und Aufwand alleine garantieren auch keine Ergebnisse; sie können die Wahrscheinlichkeit erhöhen, etwas Interessantes zu finden, aber garantieren kann man es nicht.
  5. Das Ganze fing eher unscheinbar an. Unter dem Eindruck eines Telefonats mit Manfred Fassler begann der Autor zunächst für sich, eine Skizze jener Themen zu malen, die in diesem Blog seit 2007 aufgeschlagen sind (380 Beiträge von cagent und 52 Beiträge von cagent im Kontext der Werkstattgespräche). Er überlegte sich, ob man die Themen nach bestimmten inhaltlichen Kriterien und zeitlich ‚clustern‘ könnte. Was dabei herauskam das waren diese merkwürdigen Zylinderfiguren auf der linken Seite des Bildes.

ZEITLICHE EINTEILUNGEN

 

  1. Von oben – beginnend mit dem Big Bang – bis nach unten, zur Gegenwart, haben wir eine zeitliche Erstreckung von ca. 13.8 Mrd Jahren. Eine Einteilung hängt von vorausgehenden Kriterien ab, von einem Muster, Modell, von dem man annimmt, dass es die Menge der Ereignisse sinnvoll strukturiert.
  2. Wie man aus der Skizze ersehen kann, wurde solch eine Unterteilung vorgenommen.
  3. Im ersten Anlauf wurde versucht, mit einem Begriff der Komplexität zu arbeiten. Dahinter steht die Intuition, dass es sich bei den zu beschreibenden Ereignissen um Strukturen handelt, sich sich im Laufe der Zeit bildeten und die immer dichter wurden. Die aktuelle Unterteilung markiert solche Phasen, in denen hervorstechende Komplexitätssprünge zu verzeichnen sind.
  4. Bevor auf die Details dieser Betrachtung eingegangen wird, soll aber zunächst der benutzte Komplexitätsbegriff näher erläutert werden. Dabei sei schon hier angemerkt, dass sich im weiteren Verlauf herausgestellt hat, dass der gewählte Komplexitätsbegriff viel zu schwach ist, um jene Eigenschaften zu repräsentieren, von denen die heutige Biologie, Ethologie und Anthropologie (und möglicherweise viele weitere Disziplinen) sagen würden, dass sie als ‚wichtig‘ für das Phänomen angesehen werden.

KOMPLEXITÄT

 

  1. Vorab, es gibt in der Literatur keinen einheitlichen Komplexitätsbegriff. Im Laufe der Jahre habe ich einen eigenen Begriff von Komplexität entwickelt, den ich hier kurz vorstelle. Man kann ihn dann kritisieren oder übernehmen. Im Falle von Kritik wäre ich an Argumenten interessiert, um weiter lernen zu können, ihn vielleicht weiter zu entwickeln oder letztlich doch wieder zu verwerfen.
  2. Die Frage ist immer, mit welcher mentalen Brille man die Wirklichkeit sieht. Der berühmte Pessimist sieht überall die halbleeren Gläser, der Optimist die halbvollen. Der Tierschützer sieht überall, wie die Tiere leiden, der Chemiker sieht überall chemische Verbindungen am Werke, der Immobilienmakler potentielle Kaufobjekte, und so fort.
  3. Für die Frage der Komplexität besteht eine Möglichkeit darin, sich die mentale Brille der Systeme aufzusetzen. Mit der System-Brille besteht die Welt nur noch aus Systemen. Ein System ist Etwas, das sich von seiner Umgebung unterscheiden lässt. Diese Annahme impliziert, dass es rein abstrakt zwischen diesem unterscheidbaren Etwas und seiner Umgebung Wechselwirkungen geben kann. Sofern es um Einwirkungen auf das System geht sprechen wir einfach vom Input (I) des Systems und im umgekehrten Fall, wenn das System auf die Umgebung einwirkt, vom Output (O) des Systems. Rein abstrakt, auf der begrifflichen Ebene, hat ein System demgemäß immer einen Input und Output in Wechselwirkung mit seiner Umgebung; im konkreten, empirischen Fall, kann diese Wechselwirkung so schwach sein, dass sie sich nicht messen lässt. Dann ist die Wechselwirkung leer, oder 0 = I = O.
  4. Nimmt man ein bestimmtes System S als Bezugspunkt, dann kann man sagen, dass sich das System S auf Ebene/ Level 0 befindet. Alle Systeme, die sich mit Bezug auf das System S in seiner Umgebung befinden, wären dann auf der Ebene/ dem Level +1. Alle Systeme, die sich im System S befinden, finden sich auf Ebene/ Level -1. Sollte ein System S‘ sich auf Level -1 von System S befinden, also LEVEL(S‘,S,-1), und sollte das System S‘ selbst weiter Systeme S“ enthalten, dann lägen diese auf Level -2 von System S (und auf Level -1 zu System S‘).
  5. Beispiel: Vom menschlichen Körper wissen wir, dass er sich so betrachten lässt, dass er aus einer endlichen Anzahl von Körperorganen besteht (Level -1), die wiederum aus vielen Zellen bestehen (Level -2). Hier kann man entweder weitere Subeinheiten annehmen oder betrachtet diese Zellen als nächsten Bezugspunkt, von denen wir wissen, dass jeder Körperzelle wiederum aus einer Vielzahl von Systemen besteht (Level -3). Diese Betrachtung könnte man weiter fortsetzen bis zu den Molekülen, dann Atomen, dann subatomaren Teilchen, usw. Nimmt man die Umgebung menschlicher Körper, dann haben wir auf Level +1 andere menschliche Körper, Tiere, Pflanzen, Gebäude, Autos, Computer usw. Jedes dieser Systeme in der Umgebung ist selbst ein System mit inneren Systemen.
  6. Was bislang noch nicht gesagt wurde, ist, dass man anhand der Inputs und Outputs eines Systems sein Verhalten definiert. Die Abfolge von Inputs und Outputs konstituiert eine Folge von (I,O)-Paaren, die in ihrer Gesamtheit eine empirische Verhaltensfunktion f_io definieren, also f_io ={(i,o), …, (i,o)}, wobei man mit Hilfe einer Uhr (eine Maschine zur Erzeugung von gleichmäßigen Intervallen mit einem Zähler) jedem Input- und Outputereignis eine Zeitmarke zuordnen könnte.
  7. Während empirisch immer nur endlich viele konkrete Ereignisse beobachtet werden können, kann man abstrakt unendlich viele Ereignisse denken. Man kann also abstrakt eine theoretische Verhaltensfunktion f_th über alle möglichen denkbaren Input- und Outputereignisse definieren als f_th = I —> O. Eine empirische Verhaltensfunktion wäre dann nur eine Teilmenge der theoretischen Verhaltensfunktion: f_io c f_th. Dies hat Vorteile und Nachteile. Die Nachteile sind ganz klar: theoretisch spricht die Verhaltensfunktion über mehr Ereignisse, als man jemals beobachten kann, also auch über solche, die vielleicht nie stattfinden werden. Dies kann zu einer falschen Beschreibung der empirischen Welt führen. Demgegenüber hat man aber den Vorteil, dass man theoretisch über Ereignisse sprechen kann, die bislang noch nicht beobachtet wurden und die daher für Prognosezwecke genutzt werden können. Wenn die Theorie also sagen würde, dass es ein bestimmtes subatomares Teilchen mit der Beschaffenheit X geben müsste, was aber bislang noch nicht beobachtet werden konnte, dann könnte man aufgrund dieser Prognose gezielt suchen (was in der Vergangenheit auch schon zu vielen Entdeckungen geführt hat).
  8. Rein abstrakt kann man ein System SYS damit als eine mathematische Struktur betrachten, die über mindestens zwei Mengen Input (I) und Output (O) definiert ist zusammen mit einer Verhaltensfunktion f, geschrieben: SYS(x) genau dann wenn x = <I,O,f> mit f: I → O.
  9. Rein abstrakt gilt also, dass jedes System SYS auch weitere Systeme als interne Elemente besitzen kann, d.h. Jedes System kann Umgebung für weitere Systeme sein. Nennen wir die Gesamtheit solcher möglicher interner Systeme IS, dann müsste man die Strukturformel eines Systems erweitern zu SYS(x) gdw x = <I,O,IS,f> mit f: I x IS —> IS x O. Dies besagt, dass ein System mit weiteren internen Systemen IS in seinem Verhalten nicht nur abhängig ist vom jeweiligen Input I, sondern auch vom Output der jeweiligen internen Systeme. Aus beiden Inputs wir dann nicht nur der Systemoutput O ermittelt, sondern zugleich bekommen auch die internen Systeme einen Input (der diese internen Systeme u.U. So verändern kann, dass sie beim nächsten Mal ganz anders reagieren als vorher).
  10. In welchem Sinn könnte man nun sagen, dass ein System S komplexer ist als ein System S‘ (geschrieben S >~> S‘)?
  11. Es gibt jetzt verschiedene Möglichkeiten. Einmal (i) könnte die Anzahl der inneren Ebenen (-N) ein Ansatzpunkt sein. Ferner (ii) bietet sich die Anzahl der Systeme pro Ebene (|-n| mit n in N), ihre ‚Dichte‘, an. Schließlich (iii) macht es auch einen Unterschied, wie groß die Anzahl der möglichen verschiedenen Inputs-Outputs ist, die in ihrer Gesamtheit einen Raum möglicher Verhaltenszustände bilden (|I| x |O| = |f_io|). Rein mathematisch könnte man auch noch (iv) den Aspekt der Mächtigkeit der Menge aller Systeme einer Art SYS, also |SYS|, definieren und diese Menge – die in der Biologie Population genannt wird – als eine Art ‚Hüllensystem‘ S_pop definieren. Ein Hüllensystem wäre dann ein System, das ausschließlich Elemente einer bestimmten Art enthält. Ein Hüllensystem S_pop_a könnte zahlreicher sein als ein Hüllensystem S_pop_b, |S_pop_a| > |S_pop_b|, es könnte aber auch sein, dass sich die Mächtigkeit einer Population im Laufe der Zeit ändert. Eine Population mit einer Mächtigkeit |S_pop_x| = 0 wäre ausgestorben. Die Veränderungen selbst können Wachstumsraten und Sterberaten anzeigen.
  12. Im Folgenden nehmen wir hier an, dass ein System S komplexer ist als ein System S‘ (S >~> S‘), wenn S ein System im Sinne der Definition ist und entweder (i) mehr innere Ebenen enthält oder (ii) pro innere Ebene eine höhere Dichte aufweist oder aber (iii) der Raum möglicher Verhaltenszustände der beteiligten Systeme größer ist. Bei Gleichheit der Größen (i) – (iii) könnte man zusätzlich die Größe (iv) berücksichtigen.
  13. Beispiel: Die Milchstraße, unsere Heimatgalaxie, umfasst zwischen 150 und 400 Mrd. Sterne (Sonnen) und hat einen Durchmesser von ca. 100.000 bis 180.000 Lichtjahre. In einem einführenden Buch über die Mikrobiologie präsentiert Kegel als neueste Schätzungen, dass der menschliche Körper etwa 37 Billionen (10^12) Körperzellen umfasst, dazu 100 Billionen (10^12) Bakterien im Körper und 224 Mrd. (10^9) Bakterien auf der Haut. Dies bedeutet, dass ein einziger menschlicher Körper mit seinen Körperzellen rein quantitativ etwa 150 Galaxien im Format der Milchstraße entspricht (1 Zelle = 1 Stern) und die Bakterien darin nochmals etwa 400 Galaxien. Dies alles zudem nicht verteilt in einem Raum von ca. 550 x 100.000 – 180.000 Lichtjahren, sondern eben in diesem unserem unfassbar winzigen Körper. Dazu kommt, dass die Körperzellen (und auch die Bakterien) in intensiven Austauschprozessen stehen, so dass eine einzelne Zelle mit vielen Tausend, wenn nicht gar zigtausenden anderen Körperzellen kommuniziert (Hormone im Blut können können viele Milliarden Zellen adressieren). Diese wenigen Zahlen können ahnen lassen, mit welchen Komplexitäten wir im Bereich des Biologischen zu tun haben. Dabei ist noch nicht berücksichtigt, dass ja die Zellen im Körper meist noch in funktionellen Einheiten organisiert sind mit weiteren Untereinheiten, so dass sich hier viele Ebenen finden lassen.

KOMPLEXITÄTSEREIGNISSE

 

  1. Unter Voraussetzung des bisherigen Komplexitätsbegriffs kann man nun die Ereignisse der biologischen Evolution mit diesem Begriff beschreiben und schauen, ob es irgendwann einen hervorstechenden Komplexitätssprung gibt, der möglicherweise den Beginn einer neuen Phase markiert.
  2. An dieser Stelle wird schon deutlich, dass die Wahl eines Komplexitätsbegriffs basierend auf Systemen möglicherweise noch zu schwach ist, um den zu beschreibenden Phänomenen gerecht zu werden. Den Begriff ‚Komplexitätssprung‘ kann man zwar formal definieren (es gibt immer viele Möglichkeiten), ob nun solch ein Konzept dann in der empirischen Realität aber genau das beschreibt, was wirklich dem Phänomen optimal entspricht, das kann sich letztlich nur am empirischen Ereignis selbst anschaulich entscheiden (im positiven Fall). Ein einfacher Ansatz wäre, einen Komplexitätssprung über den Begriff des minimalen Abstands zwischen zwei Komplexitäten S und S‘ zu definieren, und unter Einbeziehung ‚einer empirisch sinnvollen Konstante‘. Dann würde immer dann, wenn ein solcher Abstand gemessen werden kann, ein Komplexitätssprung vorliegt. Was wäre aber ein ‚empirisch sinnvoller Abstand‘ in biologischer Sicht?

PERIODISIERUNG

  1. Betrachtet man nach diesen Vorbemerkungen das Schaubild, dann kann man als ersten Abschnitt ‚Emergent Life‘ erkennen. Dies identifiziert die Zeit ab dem ersten nachgewiesenen Auftreten von biologischen Zellen, vor ca. 3.5 Mrd Jahren (nach neuesten Funden evtl. sogar schon ab 3.77 Mrd Jahren). Der Übergang von Molekülen zu sich selbst reproduzierenden Zellen markiert einen gewaltigen Komplexitätssprung.
  2. Man kann versuchen, den formalen Komplexitätsbegriff darauf anzuwenden. Nimmt man beispielsweise eine eukaryotische Zelle als System S, dann kann man typische Umgebungen ermitteln, interne Organisationslevel, die Dichte auf den Leveln sowie den Raum möglicher Verhaltenszustände von jedem beteiligten System. Nimmt man als Vergleich die strukturell einfacheren prokaryotischen Zellen (die als evolutionär älter gelten), dann kann man zu unterschiedlichen Werten kommen, die im Falle der prokaryotischen Zellen kleiner ausfallen. Im Unterschied zu einer Ansammlung von irgendwelchen Molekülen wird man noch größere Unterschiede feststellen. Will man diese strukturellen Unterschiede für eine Klassifikation nutzen, dann muss man sie gewichten. Ohne hier auf die Details einer solchen Gewichtung eingehen zu können (das wäre ein eigener riesiger Artikel) stellen wir hier einfach mal fest, dass gilt: S_eukaryot >~> S_prokaryot >~> S_molecule, wobei der ‚Abstand‘ zwischen den beiden Zelltypen deutlich kleiner ist als zwischen dem einfachen Zelltyp und einem einfachen Molekül, also Distance(S_eukaryot, S_prokaryot) < Distance(S_prokaryot, S_molecule).
  3. Unterstellen wir mal, alle Details vorausgehender Klassifikationen wären erfüllt. Was wäre damit erreicht? Wir wüssten schematisch, dass wir es mit drei verschiedenen Typen von Systemen zu tun hätte mit unterschiedlichen Levels, Input-Output-Räumen, unterschiedlichen Dichten … hätten wir damit aber irgendetwas von dem erfasst, was die evolutionäre Biologie, Molekularbiologie, Zellbiologie usw. bislang als charakteristisch für die biologische Zelle erkannt zu haben meint?
  4. Einige der wichtigen Eigenschaften werden informell so beschrieben: (i) Zellen haben eine erkennbare Struktur mit Wechselwirkungen zur Umgebung (insofern sind sie Systeme); (ii) sie sind in der Lage, Energie aus der Umgebung aufzunehmen und damit unterschiedliche chemische Prozesse zu moderieren; (iii) sie sind in der Lage, die Strukturen und Funktionen dieser Struktur in Form eines speziellen Moleküls zu kodieren (Bauplan, ‚Gedächtnis‘); (iv) sie können sich mit Hilfe des Bauplans reproduzieren, wobei die Reproduktion Abweichungen zulässt.
  5. Mindestens in diesen vier genannten Eigenschaften unterscheiden sich biologische Zellen von Molekülen. Der zuvor eingeführte Komplexitätsbegriff kann hier zwar eine höhere Komplexität herausrechnen, aber tut sich schwer, die vier Leiteigenschaften angemessen zu repräsentieren. Woran liegt das?
  6. Das ist einmal der Begriff der Energie. Dieser wurde von der Physik in vielen Jahrhunderten schrittweise erarbeitet und ist eine Eigenschaft, die generisch die gesamte empirische Welt durchzieht. Letztlich liegt er allem zugrunde als Äquivalent zur bewegten Massen. Wenn man nur Strukturen von Systemen betrachtet, kommt Energie nicht wirklich vor. Wenn es nun aber eine zentrale neue Eigenschaft eines Systems ist, freie Energie für eigene Zwecke ‚verarbeiten‘ zu können, dann müsste dies in die Systemstruktur aufgenommen werden (spezielle Funktionen…). Allerdings verarbeiten sogar Moleküle in gewisser Weise Energie, allerdings nicht so komplex und produktiv wie Zellen.
  7. Dann sind dort die metabolischen Prozesse (Stoffwechselprozesse) der Zellen. Diese sind extrem vielfältig und komplex miteinander verwoben. Der abstrakte Komplexitätsbegriff kann dies zwar anzeigen, aber nur ‚äußerlich‘; die Besonderheiten dieser Prozesse werden damit nicht sichtbar.
  8. Schließlich das Phänomen des Zellkerns mit Molekülen, die einen Bauplan kodieren; man könnte dies auch als eine Form von Gedächtnis beschreiben. Zum kodierten Bauplan gibt es auch eine komplexe Dekodierungsmaschinerie. Eine rein formale Repräsentation im Komplexitätsbegriff macht die Besonderheit nicht sichtbar. Wenn man weiß, worauf es ankommt, könnte man eine entsprechende Systemstruktur zusammen mit den notwendigen Operationen definieren.
  9. Was sich hier andeutet, ist, dass die abstrakte Seite der formalen Repräsentation als solche zwar nahezu alles zulässt an Formalisierung, aber welche Struktur letztlich etwas Sinnvolles in der empirischen Welt kodiert, folgt aus der abstrakten Struktur alleine nicht. Dies muss man (mühsam) aus den empirischen Phänomenen selbst herauslesen durch eine Art induktive Modellbildung/ Theoriebildung, also das, was die empirischen Wissenschaften seit Jahrhunderten versuchen.
  10. Der Versuch, ‚auf die Schnelle‘ die sich hier andeutenden Komplexitäten zu systematisieren, wird also nur gelingen, wenn die Verallgemeinerungen die entscheidenden empirischen Inhalte dabei ’nicht verlieren‘.
  11. Ohne diese Problematik an dieser Stelle jetzt weiter zu vertiefen (darauf ist später nochmals zurück zu kommen), soll hier nur ein Gedanke festgehalten werden, der sich mit Blick auf die nachfolgende Phase anbietet: mit Blick aufs Ganze und den weiteren Fortgang könnte man in der ersten Phase von Emerging Life als grundlegendes Ereignis die Ausbildung der Fähigkeit sehen, eine Art strukturelles Gedächtnis bilden zu können, das sich bei der Weitergabe strukturell variieren lässt. Damit ist grundlegend der Ausgangspunkt für die Kumulation von Wissen unter Überwindung der reinen Gegenwart möglich geworden, die Kumulierung von ersten Wirkzusammenhängen. Diese Urform eines Gedächtnisses bildet einen ersten grundlegenden Meta-Level für ein erstes Ur-Wissen von der Welt jenseits des Systems. Der Emerging Mind aus der nächsten Phase wäre dann der Schritt über das strukturelle Gedächtnis hin zu einem lokal-dynamischen Gedächtnis.
  12. Dann stellt sich die Frage, welche der nachfolgenden Ereignisse in der Evolution eine weitere Steigerung der Komplexität manifestieren? Kandidaten kann man viele finden. Zellen haben gelernt, sich in immer komplexeren Verbänden zu organisieren, sie haben immer komplexere Strukturen innerhalb der Verbände ausgebildet, sie konnten in immer unterschiedlicheren Umgebungen leben, sie konnten innerhalb von Populationen immer besser kooperieren, konnten sich auch immer besser auf die Besonderheiten anderer Populationen einstellen (als potentielle Beute oder als potentielle Feinde), und konnten immer mehr Eigenschaften der Umgebungen nutzen, um nur einige der vielfältigen Aspekte zu nennen. Manche bildeten komplexe Sozialstrukturen aus, um in zahlenmäßig großen Populationen gemeinsam handeln zu können (Schwärme, ‚Staaten‘, Verbünde, ….). Nach vielen Milliarden Jahren, von heute aus erst kürzlich, vor einigen Millionen Jahren, gab es aber Populationen, deren zentrale Informationsverarbeitungssysteme (Nervensysteme, Gehirne), das individuelle System in die Lage versetzen können, Vergangenes nicht nur zu konservieren (Gedächtnis), sondern in dem Erinnerbaren Abstraktionen, Beziehungen, Unterschiede und Veränderungen erkennen zu können. Zugleich waren diese Systeme in der Lage Gegenwärtiges, Gedachtes und neue Kombinationen von all dem (Gedachtes, Geplantes) symbolisch zu benennen, auszusprechen, es untereinander auszutauschen, und sich auf diese Weise ganz neu zu orientieren und zu koordinieren. Dies führte zu einer revolutionären Befreiung aus der Gegenwart, aus dem Jetzt und aus dem ‚für sich sein‘. Damit war mit einem Mal alles möglich: das schrittweise Verstehen der gesamten Welt, die schrittweise Koordinierung allen Tuns, das Speichern von Wissen über den Moment hinaus, das Durchspielen von Zusammenhängen über das individuelle Denken hinaus.
  13. Als nächster Komplexitätssprung wird daher das Auftreten von Lebewesen mit komplexen Nervensystemen gesehen, die ein Bewusstsein ausbilden konnten, das sie in die Lage versetzt, miteinander ihre internen Zustände symbolisch austauschen zu können, so dass sie einen Siegeszug der Erkenntnis und des Aufbaus komplexer Gesellschaften beginnen konnten. Dieses Aufkommen des Geistes (‚Emerging Mind‘) definiert sich damit nicht nur über die direkt messbaren Strukturen (Nervensystem, Struktur, Umfang,..), sondern auch über den Umfang der möglichen Zustände des Verhaltens, das direkt abhängig ist sowohl von den möglichen Zuständen des Gehirns, des zugehörigen Körpers, aber auch über die Gegebenheiten der Umwelt. Anders ausgedrückt, das neue Potential dieser Lebensform erkennt man nicht direkt und alleine an ihren materiellen Strukturen, sondern an der Dynamik ihrer potentiellen inneren Zustände in Wechselwirkung mit verfügbaren Umwelten. Es ist nicht nur entscheidend, dass diese Systeme symbolisch kommunizieren konnten, sondern auch WAS, nicht entscheidend alleine dass sie Werkzeuge bilden konnten, sondern auch WIE und WOZU, usw.
  14. Es ist nicht einfach, dieses neue Potential angemessen theoretisch zu beschreiben, da eben die rein strukturellen Elemente nicht genügend aussagestark sind. Rein funktionelle Aspekte auch nicht. Es kommen hier völlig neue Aspekte ins Spiel.

Die Fortsezung gibt es HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

RINGEN UM DAS BEWUSSTSEIN – Th.W.CLARK 1995 – FUNCTION AND PHENOMENOLOGY: CLOSING THE EXPLANATORY GAP – gegen Chalmers 1995

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 29.Juli 2016
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

(Letzte Aktualisierung (ab Nr.31) am Sa, 30.7.2016, 12:08h)

Th.W.CLARK, FUNCTION AND PHENOMENOLOGY: CLOSING THE EXPLANATORY GAP, in Journal of Consciousness Studies, Vol.2, No.3, 1995, pp.241-254

  1. Der aktuelle Artikel von Clark, der hier diskutiert werden soll, ist eine direkte Antwort auf den Artikel von Chalmers Facing up to the problem…, der in der gleichen Zeitschrift abgedruckt war und der in diesem Blog zuvor ausführlich besprochen worden ist.

  2. Clark bezieht die direkte Gegenposition zu Chalmers. Während Chalmers im Kern die Besonderheit der Bewusstseinserfahrung herausstellt, die sich nicht durch Rückgriff auf die empirischen Prozesse des Körpers und der Umgebung angemessen erklären lässt (das Subjektive ist von fundamental anderer Qualität als das Objektive, Empirische), versucht Clark genau dies zu tun. Er behauptet, das Phänomen des Bewusstseins sei nichts Besonderes gegenüber den anderen empirischen Prozessen.

EXISTIERENDE EMPIRISCHE THEORIEN

  1. Sowohl Chalmers wie auch Clark berufen sich auf existierende empirische Theorien, folgern aber Gegensätzliches: Chalmers sagt, dass sich das Phänomen des Bewusstseins nicht mit den üblichen wissenschaftlichen Mitteln  hinreichend erklären lässt, und Clark meint widersprechend, Ja, doch, man kann das Phänomen des Bewusstseins damit hinreichend erklären.

  2. Im Standardmodell einer empirischen Theorie hat man einerseits eine formale Struktur, die eigentliche Theorie T, und andererseits einen empirischen Bezug, durch den mittels Messoperationen M empirische Daten D reproduzierbar verfügbar gemacht werden. Innerhalb der Struktur T kann man diese Daten klassifizieren (Klassenbildung) K und in Beziehungen R einordnen. Aufgrund von Daten kann man mittels der Struktur T entweder entscheiden, dass die Daten mit der Struktur und der Dynamik der Theorie übereinstimmen oder eben nicht.

SUBJEKTIVE ERFAHRUNG NICHT MESSBAR

  1. Im Fall des Bewusstseins BEW gibt es eine Erfahrung des Bewusstseins, die allgemein als subjektiv klassifiziert wir, als nicht empirisch, nicht intersubjektiv. Damit ist ein direktes Messen im Sinne einer empirischen Theorie T nicht möglich. Im Fall des Phänomens des Bewusstseins und der typischen Erfahrung des Bewusstseins gibt es also keine direkten empirischen Daten D(BEW) und damit kann es auch keine empirische Theorie über das Bewusstsein geben. Insofern hätte Chalmers recht.

  2. Chalmers selbst spricht zwar auch über indirekte Daten des Bewusstseins (wie z.B. sprachliche Äußerungen über subjektive Erfahrungen), aber alle diese indirekte Daten sind keine Primärdaten!

IDENTITÄT VON BEWUSSTSEIN UND PROZESS

  1. Warum und wie kann dann Clark behaupten, Chalmers mache alles nur unnötig kompliziert. Clark wirft direkt die Frage auf, warum man nicht einfach mit der Hypothese starten könne, dass die Bewusstseinserfahrung BEW identisch sei mit der neuronal realisierten kybernetischen Funktion? (p.243) D.h. Clark postuliert die Identität von Bewusstsein und Funktion. (vgl. p.246) Anders: jene, die subjektive Erfahrungen ihres Bewusstseins haben, sind Instanzen von empirischen Prozessen (vgl. p.247) Oder: Wir, die wir subjektive Erfahrungen haben, sind konstituiert durch und identisch mit kognitiven Prozessen, die Qualia instantiieren, und diese Qualia sind das, was es für uns heißt, diese Prozesse zu sein.(vgl. p.247)

WAS STIMMT NUN?

  1. Im Falle von Chalmers ist klar, dass eine subjektive Erfahrungen des Bewusstseins direkt keine Messwerte für empirische Theorien liefern kann. Im Falle von Clark behauptet dieser eine Identität zwischen der subjektiven Erfahrung BEW und den ermöglichenden empirischen Prozessen Pe.

  2. In einer empirischen Theorie T kann ich von der Identität von zwei Termen t1 und t2 nur sprechen, wenn t1=t1 gilt, und dies setzt im Standardfall für den Bereich des formalen Kerns T eine Extensionsgleichheit voraus. Verbunden mit einer empirischen Interpretation Int müssen sich den theoretischen Termen t1,t2 empirische Terme t1e, t2e zuordnen lassen, die aus Messvorgängen M hervorgegangen sind, also Int(t1e) = t1 und Int(t2e) =t2.

  3. Da es im Falle von subjektive Erfahrungen des Bewusstseins BEW nach allgemeinem Verständnis keine direkten Messwerte De gibt, fehlt in der Identitätsgleichung t1=t2 mindestens ein Term. In einer empirischen Theorie wäre damit eine Identitätsbehauptung, wie Clark sie fordert, nicht realisierbar.

  4. Nach diesen ersten Überlegungen sieht es so aus, dass es unter der Annahme einer empirischen Theorie des Bewusstseins T_bw keine empirisch begründeten Messwerte zu jenen subjektiven Erfahrungen geben kann, die wir mit der subjektiven Erfahrung von Gegebenheiten des Bewusstseins verbinden. Damit wäre eine empirische Theorie des Bewusstseins ausgeschlossen. Ob irgendwelche empirischen Sachverhalte (neuronale Prozesse, andere physiologische Prozesse…) mit subjektiv erfahrbaren Gegebenheiten irgendetwas direkt zu tun haben, bleibt auf diese Weise erst einmal unklar.

HAT DAMIT CHALMERS RECHT?

  1. Nach dem bisherigen Befund hätte Chalmers also Recht damit, dass sich ein Reden über das Bewusstsein nicht reduzieren lässt auf ein Reden über empirische Prozesse, die im Kontext von subjektiven Erfahrungen beobachtbar sind. Subjektive Erfahrungen sind etwas Eigenständiges. Es sind in gewisser Weise auch Daten D, aber eben nicht-empirische Daten, subjektive Daten Ds. Empirische Daten De sind allesamt auch subjektive Daten, also De c Ds, aber nicht alle subjektive Daten Ds sind empirische Daten.

  2. Obwohl subjektive Daten Ds grundsätzliche keine empirische Daten sind, gibt es doch die Möglichkeit, subjektive Daten Ds auf sekundäre Indikatoren abzubilden Ind: Ds —> Des, die als solche empirische Daten sind, aber in ihrer Interpretation/ Deutung mit subjektiven Erfahrungen in Zusammenhang gebracht werden. Bei aller Problematik und Instabilität einer solchen sekundären Verankerung der empirischen Indikatoren Des sind die Indikatoren empirisch und können mit anderen empirischen Daten korreliert werden, also korr: Des —> De.

  3. Auf diese Weise lassen sich eine Menge interessanter Gegebenheiten sichtbar machen. Chalmers kommt bis zur Behauptung von einer Strukturellen Kohärenz zwischen der Datenmenge aus Des und der Datenmenge aus De und postuliert auch eine organisatorische Invarianz bzgl. des Outputs von zwei strukturell kohärenten Strukturen.

  4. Clark sieht von vornherein eine Identität zwischen beiden Strukturen (obgleich er nicht erklärt, wie er die subjektive Seite misst) und folgert daraus, dass überall, wo neuronale Strukturen identifizierbar sind, es ein – wenn auch noch so minimales – entsprechendes Korrelat an Bewusstsein geben muss. Bewusstsein wäre dann nichts spezifisch Menschliches, höchstens in dieser konkreten und komplexen Ausbildung aufgrund der entsprechend komplexen Struktur des Nervensystems.

  5. Während Chalmers das Problem hat, wie er aufgrund seiner messtechnischen Unterscheidung von subjektiven und empirischen Daten die Deutungshypothese eines Dualismus zwischen Bewusstsein und Nichtbewusstsein umgehen kann, erklärt Clark die Annahme eines Dualismus für unnötig (in seiner Interpretation), da es ja bei ihm sowieso nichts Besonderes neben den empirischen Sachverhalten gibt.

  6. Aus der Sicht einer empirischen Theorie ist die Position von Clark unhaltbar. Er hat kein Problem, da er die subjektiven Phänomene großzügig ausklammert.

  7. Chalmers sucht sein Heil in der Konstruktion einer Informationstheorie der doppelten Aspekte, was aber (siehe im Blogbeitrag) auch nicht überzeugen kann.

JENSEITS VON EINFACHER ONTOLOGIE

  1. Traditionell wurde – und wird (siehe Clark und viele andere) – die Annahme einer Besonderheit des Subjektiven gegenüber dem Empirischen oft zum Anlass genommen, aus der Unterschiedlichkeit der Erfahrung auf eine Unterschiedlichkeit der Existenz/ Ontologie zu schließen. Möglicherweise liegt hier der Fehler.

  2. Dem Beharren von Clark (und anderen) auf der Identität des Subjektiven mit dem Objektiven liegt ja offensichtlich die Intuition zugrunde, dass zwei verschiedene Erscheinungsweisen nicht zwingend auch auf zwei unterschiedliche Ontologien verweisen müssen. Andererseits folgt die ontologische Identität auch nicht zwingend aus einem Wunschdenken.

  3. Auch sollte einem zu denken geben, dass die sogenannten empirischen Daten De nicht gänzlich verschieden sind von den subjektiven Daten Ds! Alle empirischen Daten sind zugleich auch subjektive Daten (ohne subjektive Kenntnisnahme würde kein Forscher etwas von den Daten wissen). Die Qualifizierung als empirisch macht keine ontologische Aussage sondern ist eine epistemologische Qualifikation: ist das, was ich erfahren nur subjektiv oder auch intersubjektiv und damit empirisch! Das Gemeinsame, Verbindende ist das Moment des Erfahrens/ Erlebens/ Wahrnehmens. Und dieser Erfahrungsraum lässt sich auf vielfache Weise qualifizieren, u.a. nach den Kriterien nur subjektiv und auch intersubjektiv.

  4. Das Erfahren/ Erleben als solches ist ontologiefrei. Erst durch zusätzliche Überlegungen und Beziehungssysteme lassen sich den Erfahrungen Qualifikationen wie ’nur subjektiv‘, ‚auch intersubjektiv‘, ‚bloß gedacht‘, ‚bloß erinnert‘, ‚aktuell wahrgenommen‘ usw. zuordnen. Diese Zuordnungen sind – wie auch in vielen empirischen Theorien – nicht unbedingt direkt bzgl. einer Ontologie interpretierbar (Quantentheorie, Stringtheorie, Korpuskel/Welle, Gravitation, …).

  5. Ob also ein subjektives Erleben eine andere Ontologie implizieren soll gegenüber beobachtbaren neuronalen Prozessen ist zunächst eine völlig offene Frage. Sollten die Identitätstheoretiker wie Clark und andere Recht haben (und vieles spricht dafür), dann ließe sich das subjektive Erleben mittels geeigneter theoretischer Modelle mit jenen Ontologien in Beziehung setzen, die wir mit z.B. neuronalen Prozessen verknüpfen.

  6. Aus der theoretischen Möglichkeit, durch den Aufweis komplexer Zusammenhänge Phänomene der Art Ds mit Phänomenen der Art De in Beziehung zu setzen folgt aber auch nicht zwingend, dass man auf die Beschreibung und Analyse der Phänomene der Art Ds einfach verzichten sollte bzw. überhaupt verzichten kann.

  7. Insofern die subjektive Erfahrung auch die Basis für empirische Phänomene bildet, wäre eine Ausklammerung dieser eine Form von Verleugnung, die eher unwissenschaftlich ist.

  8. Zum anderen begegnet uns in den subjektiven Phänomenen bzw. im Gesamtphänomen Bewusstsein eine Funktionalität, die wissenschaftlich interessant ist und die hochinteressante Schlüsse auf die hervorbringenden empirischen Strukturen zulässt. Dass die aktuelle Physik sich ungern Unvollständigkeit vorwerfen lässt ist psychologisch zwar nachvollziehbar, dient aber wenig der Sache der Erkenntnis.

  9. Mit den biologischen Systemen (homo sapiens sapiens nur ein Teilmoment) haben wir es mit physikalischen Systemen zu tun, die sich mit den bisherigen physikalischen Gesetzen nicht wirklich vollständig beschreiben lassen. Dies ist eigentlich ein Glücksfall für die Wissenschaft; anhand dieser Systeme treten Eigenschaften hervor, die so anders sind, so komplex verglichen mit den einfachen Sachverhalten in der Mainstream-Physik, dass es doch von größtem Interesse sein sollte, sich mit diesen Phänomenen zu beschäftigen.

  10. Dass es insbesondere physikalische Systeme gibt, die ein sogenanntes Bewusstsein aufweisen (beim Menschen ausdrücklich, bei anderen Lebewesen schwieriger zu fassen), und dies auf Basis von neuronalen Maschinerien von unfassbarer Komplexität (ein einzelnes Gehirn hat die Komplexität einer ganzen Galaxie!), dies müsste alle Wissenschaftler elektrisieren. Dass stattdessen mit eher Energie aufgewendet wird, diese Komplexität weg zu reden, wirkt befremdlich.

CHALMERS – CLARK – KOMPOSITUM

  1. Wer hat also Recht: Chalmers oder Clark?

  2. Mit der Herausarbeitung der Besonderheit des Phänomens bewusster Erfahrung würde ich Chalmers Recht geben. Mit der Ablehnung einer zusätzlichen Ontologie würde ich Clark zusprechen. Beide, sowohl Chalmers als auch Clark würde ich kritisieren in Sachen Theoriebildung. Hier überzeugt weder Chalmers noch Clark.

Clark 1995 - Conclusions. Analyse der wichtigen Argumente
Clark 1995 – Conclusions. Analyse der wichtigen Argumente

CLARKs SCHLUSSFOLGERUNGEN UND DISKUSSION (SS.252-254)

  1. Im folgenden wechsle ich ab zwischen der Darstellung von Clarks Position (C) und Anmerkungen dazu (A).(Siehe auch das Diagramm)

  2. C: Clark kennzeichnet seinen theoretischen Ausgangspunkt als dem Naturalismus (’naturalism‘) zugehörig und sieht im Begriff einer funktionalen Theorie für sich einen wissenschaftlichen Standard. Für ihn sind funktionale Theorien gekennzeichnet durch Einfachheit, ontologische Sparsamkeit, und methodischer Zurückhaltung (‚being conservative‘).

  3. A: Clarks Hervorhebung einer Theorie als funktional lässt aufmerken, da eigentlich jede moderne Theorie per Definition relationale/ funktionale Elemente enthält, und dies daher kein besonderes Kennzeichen einer Theorie ist. Ob eine Theorie dann in einem empirischen, mathematisch abstrakten, logischen, phänomenologischen oder sonstigen Kontext benutzt wird, ändert an dieser Struktur einer Theorie nichts. Entsprechend sind Kriterien wie ‚Einfachheit‘ oder ‚methodisch zurückhaltend‘ auch wenig aussagekräftig. In gewisser Weise gilt dies für jede formale Theorie.

  4. A: Die Rede von Ontologien im Kontext moderner Theorien dagegen ist eher problematisch, da moderne formale Theorien per se ontologie-neutral sind. Man kann eine formale Theorie mit mit nahezu jeder beliebigen Ontologie verknüpfen. Ob man dies tut und mit welcher hängt vom Anwendungsfall ab. Eine empirische Interpretation verbindet eine formale Theorie mit einer bestimmten Art von zeitlich und räumlich punktuellen Messwerten. Die daraus ableitbaren allgemeinen Terme können eine spezielle Ontologie bilden, die durch die Messwerte eine partielle empirische Ontologie besitzen, aber keine vollständige. Würde man eine formale Theorie mit empirischen Äußerungen verknüpfen, die sich indirekt auf subjektive Phänomene beziehen, ließen sich daraus ganz analog zum empirischen Standardfall auch allgemeine Terme ableiten, denen eine partielle phänomenologische Ontologie zukäme. Wie sich diese beiden partiellen Ontologien nach noch zu bestimmenden Kriterien dann zueinander verhalten würden, müsste man klären. Das Vorgehen von Clark, automatisch eine bestimmte Ontologie bei empirischen Theorien zu unterstellen, und dass diese automatisch dann alle möglichen anderen Ontologien überflüssig machen würde, ist methodisch in keiner Weise gedeckt und ist auch in nahezu jeder möglichen Hinsicht unplausibel.

  5. C: Ein interessanter Aspekt ist auch Clarks Einschätzung von radikal Neuem. Tendenziell soll es nichts Neues geben, es sei denn, es gibt ganz starken empirische Argumente und eine theoretische Notwendigkeit.

  6. A: Bei dieser Formulierung erhebt sich die Frage, was starke empirische Argumente sind und ab wann der Fall einer theoretischen Notwendigkeit vorliegt? Noch grundlegender: was muss man sich unter etwas radikal Neuem mit Bezug auf eine Theorie vorstellen? Nehmen wir an, wir haben eine Theorie T mit einer Interpretation Int. (i) Solange der Messbereich festgelegt ist, kann es hier nichts radikal Neues geben, da ja nur gemessen wird, was man nach Verabredung messen will. Alles was der Verabredung widerspricht, wird nicht beachtet (methodische Blindheit!). (ii) Dann bleibt eigentlich nur, dass die Menge der Messwerte nicht vollständig unter die vereinbarten allgemeinen Terme subsumierbar sind. Sollte dieser – nicht leicht entscheidbare – Fall auftreten, müssten eventuell die allgemeinen Terme neu justiert werden. (iii) Mit oder ohne neue Justierung der allgemeinen Terme bleibt dann der Bereich der Relationen/ Funktionen sowie möglicher Regeln, die mit Hilfe eines logischen Folgerungsbegriffs Ableitungen (z.T. Prognosen) zulassen. Sofern diese mit den empirisch messbaren Gegebenheiten übereinstimmen, scheint die Theorie zu funktionieren. Gibt es Nicht-Übereinstimmungen, kann dies mehrere Gründe haben (z.B. Messfehler, ungünstige Begriffsbildung, ungünstige Relationen/ Funktionen oder ungünstige Regelformulierungen, ungeeigneter logischer Folgerungsbegriff). Was nicht passieren kann, das ist, dass ein Phänomen, das man von vornherein aus dem Messbereich ausgeschlossen hat, die Theorie in Frage stellt. Dies bedeutet, obwohl eine interpretierte Theorie <T,Int> in sich funktioniert, kann sie – bei Anlegen bestimmter Kriterien – vollständig falsch sein (man denke nur an die vielen Theorien der Vergangenheit, die auf falschen Annahmen beruhten). Radikal neu würde in diesem Kontext möglicherweise bedeuten, dass man erahnt, dass man eine neue Theorie <T*, Int*> benötigt, um neuartigen Phänomenen gerecht zu werden.

  7. A: Was Clark anscheinend am meisten (psychologisch) hindert, in den subjektiven Phänomenen Phänomene einer anderen Art anzuerkennen, ist die Annahme, dass die Annahme solcher neuer Phänomene eine neue, zusätzliche Ontologie implizieren würde, die zwangsläufig eine Art ontologischen Dualismus mit sich bringt, den er – aus welchen Gründen auch immer – ablehnt. Wie oben schon angedeutet, ist diese Ablehnung möglicherweise überflüssig, da die Annahme irgendeiner Ontologie im Rahmen der Interpretation einer formalen Theorie zunächst nichts darüber aussagt, welche weiteren Eigenschaften diese Ontologie besitzt und wie diese sich zu anderen interpretationsabhängigen Ontologien verhält. Ontologien sind letztlich primär begriffliche Strukturen im Kontext von (formalen) Theorien mit höchstens partiellen Deutungen. Hier von Dualismus zu reden oder vor einem Dualismus womöglich noch Angst haben, ist weder philosophisch noch wissenschaftlich notwendig.

  8. C: In seinem Versuch, die subjektiven Phänomene des Bewusstseins (von Clark Qualia genannt) durch Rekurs auf empirische Prozesse zu eliminieren, kommt Clark nicht umhin, diese subjektiven Phänomene als solche überhaupt anzusprechen. In diesem Zusammenhang kommt er zu Feststellungen wie jenen, dass der Zugang zum Bewusstsein über den privaten 1.Person Zugang geschieht, der als solcher in keiner Weiser durch irgendeine wissenschaftliche Methode erreichbar ist. Im gleichen Atemzug stellt er aber auch fest, dass diese subjektiven Phänomene mit neuronalen Prozessen korreliert werden können, was ausschließlich durch die Neurowissenschaften geleistet werden könne.

  9. A: Ganz offensichtlich ist es also so, dass es außerhalb der bislang definierten Messbereiche von empirischen Theorien selbst für Clark Phänomene gibt (die introspektiven Phänomene des Bewusstseins, Ps), die mit den bekannten empirischen Methoden bislang nicht erreicht werden. Seine strategische Entscheidung, das bislang wissenschaftlich Unzugängliche dadurch zu erklären zu versuchen, dass er per Deklaration (ex cathedra Entscheidung :-)) festlegt, dass diese Phänomene Ps künftig einfach als empirische Phänomene Pe zu betrachten seien (obwohl sie es schon aufgrund der Art der Phänomenerfassung nicht sein können), erwies sich nach den vorausgehenden Überlegungen aus theorietechnischen (wissenschaftsphilosophischen) Gründen als unhaltbar.

  10. A: Die These Clarks von der Identität von neuronalen Prozessen und Bewusstseinsphänomenen wird daher hier als methodisch unhaltbar abgelehnt.

  11. Aus der Ablehnung der Identitätsthese, so wie Clark sie formuliert hat, folgt allerdings nicht, wie mancher vielleicht jetzt glauben mag, dass damit ein funktionaler Zusammenhang zwischen neuronalen Prozessen und subjektiven Phänomenen grundsätzlich ausgeschlossen wird! Im Gegenteil. Autor cagent hält solch einen funktionalen Zusammenhang als sehr wahrscheinlich. Allerdings müsste dazu der theoretische Rahmen erheblich weiter entwickelt werden. Die bisher eher separat betriebenen Theorieansätze von Phänomenologie, Biologie, Psychologie, Neurowissenschaften und möglicherweise weiteren Disziplinen müssten endlich simultan entwickelt werden. Wissenschaftsphilosophisch können isolationistisch entwickelte Theorien per se aufs Ganze gesehen nur falsch sein.

Eine Übersicht über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

THOMPSON: MIND IN LIFE – Review – Teil 1

Evan Thompson, Mind in Life. Biology, Phenomenology, and the Sciences of Mind. Harvard – London, The Belknap Press o f Harvard University Press, 2007

PHILOSOPHIE UND WISSENSCHAFTEN – EIN MOTIV

  1. Das Motiv für die Lektüre dieses Buches rührt von der anhaltenden Auseinandersetzung von cagent zu den philosophischen Grundlagen unseres Weltbildes. Egal ob man sich mit psychologischen Modellbildungen beschäftigt, mit biologischen oder neurowissenschaftlichen, man stößt immer wieder auf die methodischen Ränder dieser Disziplinen, durch die ein direkter Zugriff auf die Inhalte des Bewusstseins nicht möglich ist (siehe Bild 1). Es bleiben immer nur Korrelationen mit etwas, das man dem Bewusstsein zurechnet, aber man kommt niemals direkt an die Daten des Bewusstseins heran.

Die drei großen Blickweisen auf den Menschen (Verhalten, Gehirn, Bewusstsein) und deren möglichen Verknüpfungen
Die drei großen Blickweisen auf den Menschen (Verhalten, Gehirn, Bewusstsein) und deren möglichen Verknüpfungen

  1. Dieses Problem ist nicht neu, es ist letztlich uralt, aber durch die Fortschritte der empirischen Wissenschaften wird die Besonderheit des Phänomens des Bewusstseins klarer als je zuvor.

  2. Welcher Philosoph das Phänomen des Bewusstseins bislang am besten beschrieben haben soll, ist schwer zu sagen. Jeder große Philosoph hat auf seine Weise interessante Aspekte enthüllt. Aus Sicht der heutigen Methoden und Erkenntnisse erscheint cagent das Vorgehen von Edmund Husserl mit seinem phänomenologischen Forschungsprogramm bislang als am ehesten geeignet zu sein, eine Brücke zu schlagen zu den heutigen empirischen Wissenschaften, ohne dabei das Alleinstellungsmerkmal des philosophischen Denkens und die Besonderheiten des Untersuchungsgegenstandes aufgeben zu müssen.

  3. Entscheidend für das Projekt einer verbesserten Integration von philosophischem mit empirischem Denken wird der benutze Erkenntnis- und Wissenschaftsbegriff sein. Trotz ca. 100 Jahren Wissenschaftsphilosophie kann man aber nicht behaupten, dass es in allen wissenschaftlichen Disziplinen heute einen einheitlichen Wissenschaftsbegriff gibt, der sich auch in entsprechend gemeinsamen Methoden und Darstellungsweisen ausdrückt.

  4. Der Autor cagent greift zu diesem Zweck zurück auf die Tradition der Wissenschaftstheorie, wie sie zuletzt im Institut für Logik und Wissenschaftstheorie der Ludwig-Maximilians Universität München in den 80iger Jahren des 20.Jahrhunderts praktiziert wurde (dies Institut existiert in der damaligen Form nicht mehr). Diese Sicht wurzelte stark u.a. auch in der Tradition des Wiener Kreises, mit all den Schwachstellen, die sich daraus ergaben. Dennoch kann man aus dieser Position eine Arbeitshypothese herleiten, die nachvollziehbar und kritisierbar ist. Diese Position sei hier mit der Abkürzung LMU-ILWT bezeichnet.

  5. Ein wesentlicher Punkt in der Position des LMU-ILWT besteht in der Forderung nach einer angemessen Formalisierung intendierter wissenschaftlicher Sachverhalte in einer Disziplin. Heute könnte man die Formalisierungsanforderung ergänzen um den Punkt von brauchbaren Simulationsmodellen, mit deren Hilfe sich die Auswirkungen einer formalen Theorie sichtbar und ansatzweise überprüfbar machen lassen.

  6. Die Anforderungen lassen sich an jede empirische Theorie stellen und einlösen, was aber faktisch immer nur partiell passiert. Den meisten Wissenschaftlern fehlt das Knowhow (und die Zeit, und die Werkzeuge), um diese Anforderung wirklich einzulösen.

  7. Im Rahmen eines Programms zur Integration von Philosophie und empirischen Wissenschaften ist zu überprüfen, ob und wieweit sich auch die Position der Philosophie entsprechend formalisieren und simulieren lässt. Von den meisten Philosophen wird solch eine Gedanke eher abgelehnt.

  8. Im Falle eines phänomenologischen Forschungsprogramms im Stile von Edmund Husserl ist solch eine Überlegung aber keinesfalls abwegig, sondern gehört sogar in gewisser Weise zum Forschungsprogramm selbst.

  9. Im Rückgang auf die Grunddaten des bewussten Erlebens, Fühlens, Denkens usw. zeigt sich eine Vielfalt von Phänomenen in einer spezifischen Dynamik mit impliziten Strukturen, die zu formalisieren genauso sich anbietet wie die Formalisierung von komplexen Phänomene aus dem Bereich der biologischen Evolution oder der Entstehung des physikalischen Universums.

  10. Es gab sogar einen berühmten Versuch solch einer Formalisierung. Das Buch von Rudolf Carnap Der Logische Aufbau der Welt (1928) erscheint als  eine  1-zu-1 Übersetzung jenes Konstitutionsprozesses der Phänomene des Bewusstseins, wie sie Husserl in den Ideen I + II (sowie in anderen Schriften) über Jahrzehnte entwickelt hat. Allerdings hat Carnap sowohl im Stufenbau wie auch in seiner Autobiographie alles daran getan, diesen Bezug zu Husserls Denken und Werk zu verdecken. (Anmerkung: Eine neuere, sehr ausführliche und gründlich recherchierte Untersuchung zum Verhältnis von Carnaps Stufenbau zum Denken Husserls, die diese Nähe Carnaps zu Husserl belegt,  findet sich in einem Beitrag von Verena Mayer (München), der demnächst erscheinen wird.)
  11. Der Stufenbau Carnaps wurde mehrfach heftig kritisiert. Dennoch ist die Grundidee, auch die Phänomene des Bewusstseins einer formalen Analyse zu unterziehen naheliegend und konsequent. Es gibt keinen Grund, dies nicht zu tun. Die grundsätzliche Problematik einer Versprachlichung von Erkennen wird dadurch natürlich nicht aufgehoben und nicht geheilt, aber im Raum des menschlichen Erkennens gibt es keine Alternativen. Unser Denken befindet sich kontinuierlich in einem Ringen um Artikulation, die als solche notwendig ist, aber als solche niemals das Erkannte ganz erschöpfen kann. Das bekannte Ungenügen ist keine Entschuldigung, es gar nicht zu tun. Denn die Alternative zu einer unvollkommenen Artikulation ist gar keine Artikulation.
  12. Je mehr die empirischen Wissenschaften die Grenzen des Redens über das Bewusstsein immer klarer erfahrbar machen, umso eindringlicher entsteht die Aufforderung, sich als Philosoph erneut darüber Gedanken zu machen, ob und wie solch ein Programm einer erneuerten Theorie des Bewusstseinserlebens im Kontext von Entwicklungs-, Verhaltens-, Gehirn- und Körperwissenschaften (um nur die wichtigsten zu nennen) aussehen könnte. Arbeitshypothese ist, das phänomenologische Forschungsprogramm von Husserl als Leitschnur zu nehmen erweitert um das wissenschaftsphilosophische Instrumentarium einer modernen Wissenschaftstheorie im Stil von LMU-ILWT.
  13. In diesem Kontext finde ich ein Buch wie das von Thompson reizvoll, zumal Thompson sich in den letzten Jahren in einem Netzwerk von Forschern bewegt hat, denen man das Label ‚Naturalisierung der Phänomenologie‘ anheften könnte. Diese Forscher hatten ihren eigenen Lernprozess mit dem Forschungsprogramm von Husserl.

THOMPSON Kap.1 (SS.3-15)

ENAKTIVE VORGEHENSWEISE

  1. In diesem einführenden Kapitel versucht Thompson eine historische Einordnung vorzunehmen zwischen jenem philosophisch-wissenschaftlichen Paradigma, dem er sich zugehörig fühlt und das er Enaktiv (Englisch: ‚enactive‘) nennt, und jenen anderen Strömungen, die er als vorbereitend für den eigenen Standpunkt ansieht. Der Begriff ‚enaktiv‘ ist ein Kunstwort, in dem die Idee einer Realisierung eines Gesetzes durch Verkörperung in der Zeit ausgedrückt werden soll. (vgl. S.13) Der Begriff geht zurück auf das Buch The Embodied Mind, das Thompson zusammen mit Varela und Rosch 1991 verfasst hatte.
  2. Im einzelnen zählt Thompson fünf Aspekte auf, die für eine enaktive Vorgehensweise in seinem Verständnis wichtig sind.(vgl. Dazu S.13)
  3. Zum einen (i) ist dies der Aspekt der Autonomie lebender Systeme. Im Rahmen ihrer Möglichkeiten organisieren sie sich komplett selbst und in diesem Rahmen generieren sie ihren spezifischen Erkenntnisraum (‚cognitive domain‘).
  4. Innerhalb dieser generellen Autonomie arbeitet (ii) das Nervensystem (das Gehirn) ebenfalls autonom. Mit Schnittstellen zu Ereignissen außerhalb des Gehirns arbeitet das Gehirn aber vollständig selbstbezüglich und erschafft in dieser Selbstbezüglichkeit seine eigenen Bedeutungsstrukturen.
  5. Ferner gilt (iii): Erkenntnis (‚cognition‘) ist in diesem Kontext ein Moment an einem dynamischen Verhalten, das zwar über sensorische und motorische Kopplungen mit einer Umwelt interagiert, aber diese Kopplung führt nicht zu einer 1-zu-1-Determinierung des Systems. Das System hat eine Eigendynamik, die über diese Interaktion weit hinausgeht.
  6. Im Rahmen solch einer eingebetteten Kognition ist (iv) das Bild einer Welt nicht einfach eine Entsprechung, nicht eine direkte Repräsentation der empirischen Außenwelt, sondern ein dynamisches Produkt aus Interaktion und systeminternen generierenden Prozessen, die ein systemspezifisches Modell einer unterstellten Welt erzeugen.
  7. Schließlich: (v) Erfahrung (‚experience‘) ist in diesem Kontext nicht irgendein Nebeneffekt (‚epiphenomenal side issue‘), sondern der wesentliche Aspekt für ein Verständnis von Geist (‚mind‘). Von daher ist es notwendig genau diese Erfahrung zu untersuchen, und die beste Methode dafür ist nach Thompson eine phänomenologische Vorgehensweise.
  8. Bevor auf diese Punkte näher eingegangen wird sei hier noch ein kurzer Blick gestattet auf den Ausblick von Thompson auf andere, konkurrierende Ansätze.(sehe Bild 2)

KOGNITIVISMUS, KONNEKTIONISMUS, VERKÖRPERTER DYNAMIZISMUS

Aufschlüsselung der Leitbegriffe von Thompson in Kap.1
Aufschlüsselung der Leitbegriffe von Thompson in Kap.1

  1. Letztlich organisiert er seine Umschau mit den Begriffen Kognitivismus (‚cognitivism‘), Konnektionismus (‚connectionism‘) und Verköperter Dynamizismus (‚embodied dynamicism‘).
  2. Das Problem mit diesen Begriffen ist, dass sie nicht sehr scharf sind, eher vage. Dies zeigt sich sofort, wenn man versucht, konkrete Forscher diesen Richtungen zuzuordnen und dabei den Inhalt ihrer Schriften einbezieht. Die meisten Forscher haben in ihrem Leben eine Lerngeschichte, die sie mit einer bestimmten Position anfangen lässt und sie dann zu weiteren, neuen Positionen führt. Ordnet man nun bestimmte Forscher aufgrund bestimmter Ansichten im Jahr X einer bestimmten Ähnlichkeitsklasse M zu, so gilt dies oft nur für eine bestimmte Zeitspanne. Außerdem sind bestimmte Paradigmen (wie z.B. gerade der sogenannte Kognitivismus) in sich so komplex und vielfältig, dass eine saubere Definition in der Regel kaum möglich ist.
  3. So definiert Thompson den Begriff Kognitivismus einleitend gar nicht sondern zitiert in lockerer Folge unterschiedliche Autoren und Konzepte, die man sowohl der schwammigen Kognitionswissenschaft (‚cognitive science‘) zuordnen kann wie auch der Kognitionspsychologie (‚cognitive psychology‘), die sich als Gegenbewegung zur Verhaltenspsychologie (‚beavioral psychology‘, ‚behaviorism‘) gebildet hatte. Daneben gibt es auch Strömungen in der Philosophie, die sich unterschiedlich mit dem Kognitivismus und der Kognitionspsychologie überlappt haben und immer noch überlappen. In allem dabei die neue erstarkende Rolle von computerbasierten Modellen und Simulationen.(vgl. SS.4-8)
  4. In all diesen – nicht immer klaren – Positionen erkennt Thompson charakteristische Defizite.
  5. Die Verbannung der direkten Beobachtung von Geist und Bewusstsein im Rahmen einer empirischen Verhaltenspsychologie (zur Zeit ihrer Entstehung ein wichtiges Anliegen, um die einseitige Orientierung an der Introspektion aufzubrechen), führte im weiteren Verlauf zu einer ideologischen Verhärtung der Methoden, die sich dann auch in der Kognitionspsychologie und der frühen Kognitionswissenschaft (samt Teilen der Philosophie) weiter vererbte. Die Einbeziehung von Computermodellen verstärkte die Tendenz, die Arbeitsmodelle der Kognition im Stile von – rein symbolischen – Informationsverarbeitungsprozessen zu sehen, die einen gewissen Anschluss an die moderne Gehirnforschung erlaubte. Allerdings war (und ist) die Übereinstimmung des Computerparadigmas und des Gehirnparadigmas – je nach Betrachtungsstandpunkt – nur partiell ähnlich. Dazu kam – nach Thompson – eine isolierte Betrachtung individueller kognitiver Prozesse ohne den Faktor der umgebenden Kultur. Der Zusammenhang zwischen Bewusstsein und all den anderen Wissenschaftsbereichen wurde damit letztlich immer unklarer, war (und ist immer noch weitgehend) geradezu geächtet, und die resultierenden Theorie (sofern es überhaupt Theorien waren) wirkten aufgrund ihrer Eingangsbeschränkungen oft sehr verzerrt.
  6. Im Konnektionismus (‚connectionism‘), der nach anfänglichen Startschwierigkeiten ab den 80iger Jahren des 20.Jahrhunderts deutlich an Boden gewann, sieht Thompson einen gewissen Fortschritt derart, dass neue Erkenntnisse der Gehirnforschung und der Forschung mit künstlichen neuronalen Netzen deutlich machten, dass das Konzept eines deduktiven Denkens mittels Symbolen einer abstrakten Ebene zugehört, die tieferliegend mittels vernetzten Neuronen realisiert wird, die direkt keine Symbole verkörpern, sondern ein Netzwerk von Ereignissen, die dynamisch unterschiedlichste Abstraktionsebenen und Wechselwirkungen realisieren. Ein Verständnis von Geist muss also tiefer ansetzten als lange Zeit gedacht. Thompson kritisiert am Konnektionismus, dass dieser die Verkopplung mit der Welt nur ungenügend berücksichtigt habe. Für die ersten Jahrzehnte mag dies stimmen. Aber in den letzten Jahren hat sich dies radikal gewandelt (Beispiel google Algorithmen, IBMs Watson, Roboter, usw.). Was allerdings als Kritik bestehen bleibt ist Thompsons Diagnose, dass auch der Konnektionismus bislang ein Riesenproblem mit dem Bewusstsein hat.
  7. Der Begriff des verkörperten Dynamizismus (‚embodied dynamicism‘) erscheint besonders problematisch. Thompson sieht hier ein Zusammengehen der Strömung Dynamischer (selbstorganisierter) Systeme (‚dynamic (self-organizing) systems‘) und Verköperter Systeme (‚embodied systems‘). Dazu gehört, dass solche Systeme nicht einfach nur die Umwelt 1-zu-1 abbilden, sondern ihre Interaktion mit der Umwelt durch autonome, nicht-lineare Prozesse individuell gestalten. Thompson sieht in der Strömung eines verkörperten Dynamizismus Ansätze sowohl für eine Einbeziehung des Bewusstseins wie auch des Vor- und Nicht-Bewusstseins.(vgl. S.11f)
  8. In dieser vorausgehenden Strömung, dem verkörperten Dynamizismus, sieht Thompson dann auch den Übergang zu jener Richtung, der er sich selbst zugehörig fühlt und die für ihn die Lösung wichtiger Fragen ermöglichen soll, besser als in den vorausgehend charakterisierten Strömungen.

ENAKTIVES VORGEHEN und PHÄNOMENOLOGIE

  1. Nach diesen Einkreisungen der Notwendigkeit einer direkten Analyse des Bewusstseins deutet Thompson kurz an, wie er sich diese Analyse vorstellt.
  2. Es soll primär die phänomenologische Methode von Husserl und auch von Merleau-Ponty sein, dies aber im Rahmen der (selbstorganisierenden, autopoietischen) Autonomie und Intentionalität des Lebens allgemein. Ferner soll die Neurobiologie einbezogen werden, was die Notwendigkeit einer Neuro-Phänomenologie begründet.(vgl. S.15)

DISKUSSION

  1. Wie schon angedeutet, erscheint die allgemeine Lageskizze, die Thompson gibt, als problematisch, da die Begriffe nicht allzu scharf sind und eine wirkliche genau Zuordnung einzelner Personen zu bestimmten Richtungen in solch einem Kontext schwierig ist.
  2. Auch ist nach dieser Einleitung noch nicht ganz klar, wie Thompson sein Programm einlösen wird. Die skizzierte enaktive Vorgehensweise lässt viel Spielraum für alternative Konzepte.

Einen Überblick über alle Blogbeiträge von cagent nach Titeln findet sich HIER.

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 3-neu

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll.

Hinter den Augen …

Das eingesperrte Gehirn

Die Antwort auf die Frage, warum Menschen so unterschiedlich wahrnehmen, warum sie dies tun und anderes lassen, liegt irgendwo da im ‚Inneren‘ des Menschen, dort, hinter seinen Augen, hinter seinem Gesicht, das mal lächelt, mal weint, mal zürnt; dort gibt es ‚geheimnisvolle Kräfte‘, die ihn, uns, Dich und mich, dazu bringen uns so zu verhalten, wie wir es erleben.

Wie die moderne Biologie uns in Gestalt der Gehirnforschung lehrt, ist es vor allem das Gehirn, in dem ca. 100 Milliarden einzelne neuronale Zellen miteinander ein Dauergespräch führen, dessen Nebenwirkungen die eine oder andere Handlung ist, die wir vornehmen.

Wenn wir uns auf die moderne Biologie einlassen, auf die Gehirnwissenschaft, erkennen wir sehr schnell, dass das Gehirn, das unser Verhalten bestimmt, selbst keinen Kontakt mit der Welt hat. Es ist im Körper eingeschlossen, quasi abgeschottet, isoliert von der Welt jenseits des Körpers.

Das Gehirn bezieht sein Wissen über die Welt jenseits der Gehirnzellen von einer Art von ‚Mittelsmännern‘, von speziellen Kontaktpersonen, von Übersetzern; dies sind unsere Sinnesorgane (Augen, Ohren, Haut, Geschmackszellen, Gleichgewichtsorgan, die bestimmte Ereignisse aus der Welt jenseits der Gehirnzellen in die ‚Sprache des Gehirns‘ übersetzen.(Anmerkung: Siehe: Sinnesorgan, Sensory Receptor, Sensory System)

Wenn wir sagen, dass wir Musik hören, wunderschöne Klänge, harmonisch oder dissonant, laut oder leise, hoch oder tief, mit unterschiedlichen Klangfarben, dann sind dies für das Gehirn ’neuronale Signale‘, elektrische Potentialänderungen, die man als ‚Signal‘ oder ‚Nicht-Signal‘ interpretieren kann, als ‚An‘ oder ‚Aus‘, oder einfach als ‚1‘ oder ‚0‘, allerdings zusätzlich eingebettet in eine ‚Zeitstruktur‘; innerhalb eines Zeitintervalls können ‚viele‘ Signale auftreten oder ‚wenige‘. Ferner gibt es eine ‚topologische‘ Struktur: das gleiche Signal kann an einem Ort im Gehirn ein ‚Klang‘ bedeuten, an einem anderen Ort eine ‚Bild‘, wieder an einem anderen Ort ein ‚Geschmack‘ oder ….

Was hier am Beispiel des Hörens gesagt wurde, gilt für alle anderen Sinnesorgane gleichermaßen: bestimmte physikalische Umwelteigenschaften werden von einem Sinnesorgan so weit ‚verarbeitet‘, dass am Ende immer alles in die Sprache des Gehirns, in die neuronalen ‚1en‘ und ‚0en‘ so übersetzt wird, so dass diese Signale zeitlich und topologisch geordnet zwischen den 100 Mrd Gehirnzellen hin und her wandern können, um im Gehirn Pflanzen, Tiere, Räume, Objekte und Handlungen jenseits der Gehirnzellen neuronal-binär repräsentieren zu können.

Alles, was in der Welt jenseits des Gehirns existiert (auch die anderen Körperorgane mit ihren Aktivitäten), es wird einheitlich in die neuronal-binäre Sprache des Gehirns übersetzt. Dies ist eine geniale Leistung der Natur(Anmerkung: Dass wir in unserem subjektiven Erleben keine ‚1en‘ und ‚0en‘ wahrnehmen, sondern Töne, Farben, Formen, Geschmäcker usw., das ist das andere ‚Wunder der Natur‘.) (siehe weiter unten.).

Die Welt wird zerschnitten

Diese Transformation der Welt in ‚1en‘ und ‚0en‘ ist aber nicht die einzige Übersetzungsbesonderheit. Wir wissen heute, dass die Sinnesinformationen für eine kurze Zeitspanne (in der Regel deutlich weniger als eine Sekunde) nach Sinnesarten getrennt in einer Art ‚Puffer‘ zwischen gespeichert werden. (Anmerkung: Siehe Sensory Memory) Von dort können sie für weitere Verarbeitungen übernommen werden. Ist die eingestellte Zeitdauer verstrichen, wird der aktuelle Inhalt von neuen Daten überschrieben. Das voreingestellte Zeitfenster (t1,t2) definiert damit, was ‚gleichzeitig‘ ist.

Faktisch wird die sinnlich wahrnehmbare Welt damit in Zeitscheiben ‚zerlegt‘ bzw. ‚zerschnitten‘. Was immer passiert, für das Gehirn existiert die Welt jenseits seiner Neuronen nur in Form von säuberlich getrennten Zeitscheiben. In Diskussionen, ob und wieweit ein Computer das menschliche Gehirn ’nachahmen‘ könnte, wird oft betont, der Computer sei ja ‚diskret‘, ‚binär‘, zerlege alles in 1en und 0en im Gegensatz zum ‚analogen‘ Gehirn. Die empirischen Fakten legen hingegen nahe, auch das Gehirn als eine ‚diskrete Maschine‘ zu betrachten.

Unterscheiden sich die ‚Inhalte‘ von Zeitscheiben, kann dies als Hinweis auf mögliche ‚Veränderungen‘ gedeutet werden.

Beachte: jede Sinnesart hat ihre eigene Zeitscheibe, die dann vom Gehirn zu ’sinnvollen Kombinationen‘ ‚verrechnet‘ werden müssen.

Die Welt wird vereinfacht

Für die Beurteilung, wie das Gehirn die vielen unterschiedlichen Informationen so zusammenfügt, auswertet und neu formt, dass daraus ein ’sinnvolles Verhalten‘ entsteht, reicht es nicht aus, nur die Gehirnzellen selbst zu betrachten, was zum Gegenstandsbereich der Gehirnwissenschaft (Neurowissenschaft) gehört. Vielmehr muss das Wechselverhältnis von Gehirnaktivitäten und Verhaltenseigenschaften simultan betrachtet werden. Dies verlangt nach einer systematischen Kooperation von wissenschaftlicher Verhaltenswissenschaft (Psychologie) und Gehirnwissenschaft unter der Bezeichnung Neuropsychologie. (Anmerkung: Siehe Neuropsychology)

Ein wichtiges theoretisches Konzept, das wir der Neuropsychologie verdanken, ist das Konzept des Gedächtnisses. (Anmerkung: Memory) Mit Gedächtnis wird die generelle Fähigkeit des Gehirns umschrieben, Ereignisse zu verallgemeinern, zu speichern, zu erinnern, und miteinander zu assoziieren.

Ausgehend von den oben erwähnten zeitlich begrenzten Sinnesspeichern unterteilt man das Gedächtnis z.B. nach der Zeitdauer (kurz, mittel, unbegrenzt), in der Ereignisse im Gedächtnis verfügbar sind, und nach der Art ihrer Nutzung. Im Kurzzeit- und Arbeitsgedächtnis kann eine kleine Zahl von Ereignissen im begrenzten Umfang verarbeitet und mit dem Langzeitgedächtnis in begrenztem Umfang ausgetauscht werden (speichern, erinnern). Die Kapazität von sinnespezifischen Kurzzeitspeicher und multimodalem Arbeitsgedächtnis liegt zwischen ca. 4 (im Kurzzeitgedächtnis) bis 9 (im Arbeitsgedächtnis) Gedächtniseinheiten. Dabei ist zu beachten, dass schon im Übergang vom oben erwähnten Sinnesspeichern zum Kurzzeit- und Arbeitsgedächtnis eine starke Informationsreduktion stattfindet; grob von 100% auf etwa 25%.

Nicht alles, was im Kurz- und Arbeitsgedächtnis vorkommt, gelangt automatisch ins Langzeitgedächtnis. Ein wichtiger Faktor, der zum Speichern führt, ist die ‚Verweildauer‘ im Kurzzeit- und Arbeitsgedächtnis, und die ‚Häufigkeit‘ des Auftretens. Ob wir nach einer Speicherung etwas ‚wiederfinden‘ können, hängt ferner davon ab, wie ein Ereignis abgespeichert wurde. Je mehr ein Ereignis sich zu anderen Ereignissen in Beziehung setzen lässt, umso eher wird es erinnert. Völlig neuartige Ereignisse (z.B. die chinesischen Schriftzeichen in der Ordnung eines chinesischen Wörterbuches, wenn man Chinesisch neu lernt) können Wochen oder gar Monate dauern, bis sie so ‚verankert‘ sind, dass sie bei Bedarf ‚mühelos‘ erinnern lassen.

Ein anderer Punkt ist die Abstraktion. Wenn wir über alltägliche Situationen sprechen, dann benutzen wir beständig Allgemeinbegriffe wie ‚Tasse‘, ‚Stuhl‘, ‚Tisch‘, ‚Mensch‘ usw. um über ‚konkrete individuelle Objekte‘ zu sprechen. So nennen wir ein konkretes rotes Etwas auf dem Tisch eine Tasse, ein anderen blaues konkretes Etwas aber auch, obgleich sie Unterschiede aufweisen. Desgleichen nennen wir ein ‚vertikales durchsichtiges Etwas‘ eine Flasche, ein vertikales grünliches Etwas auch; usw.

Unser Gedächtnis besitzt die wunderbare Eigenschaft, alles, was sinnlich wahrgenommen wird, durch einen unbewussten automatischen Abstraktionsprozess in eine abstrakte Struktur, in einen Allgemeinbegriff, in eine ‚Kategorie‘ zu übersetzen. Dies ist extrem effizient. Auf diese Weise kann das Gedächtnis mit einem einzigen Konzept hunderte, tausende, ja letztlich unendlich viele konkrete Objekte klassifizieren, identifizieren und damit weiter arbeiten.

Welt im Tresor

Ohne die Inhalte unseres Gedächtnisses würden wir nur in Augenblicken existieren, ohne vorher und nachher. Alles wäre genau das, wie es gerade erscheint. Nichts hätte eine Bedeutung.

Durch die Möglichkeit des ‚Speicherns‘ von Ereignisse (auch in den abstrakten Formen von Kategorien), und des ‚Erinnerns‘ können wir ‚vergleichen‘, können somit Veränderungen feststellen, können Abfolgen und mögliche Verursachungen erfassen, Regelmäßigkeiten bis hin zu Gesetzmäßigkeiten; ferner können wir Strukturen erfassen.

Eine Besonderheit sticht aber ins Auge: nur ein winziger Teil unseres potentiellen Wissens ist ‚aktuell verfügbar/ bewusst‘; meist weniger als 9 Einheiten! Alles andere ist nicht aktuell verfügbar, ist ’nicht bewusst‘!

Man kann dies so sehen, dass die schier unendliche Menge der bisher von uns wahrgenommenen Ereignisse im Langzeitgedächtnis weggesperrt ist wie in einem großen Tresor. Und tatsächlich, wie bei einem richtigen Tresor brauchen auch wir selbst ein Codewort, um an den Inhalt zu gelangen, und nicht nur ein Codewort, nein, wir benötigen für jeden Inhalt ein eigenes Codewort. Das Codewort für das abstrakte Konzept ‚Flasche‘ ist ein konkretes ‚Flaschenereignis‘ das — hoffentlich — genügend Merkmale aufweist, die als Code für das abstrakte Konzept ‚Flasche‘ dienen können.

Wenn über solch einen auslösenden Merkmalscode ein abstraktes Konzept ‚Flasche‘ aktiviert wird, werden in der Regel aber auch alle jene Konzepte ‚aktiviert‘, die zusammen mit dem Konzept ‚Flasche‘ bislang aufgetreten sind. Wir erinnern dann nicht nur das Konzept ‚Flasche‘, sondern eben auch all diese anderen Ereignisse.

Finden wir keinen passenden Code, oder wir haben zwar einen Code, aber aus irgendwelchen Emotionen heraus haben wir Angst, uns zu erinnern, passiert nichts. Eine Erinnerung findet nicht statt; Blockade, Ladehemmung, ‚blackout‘.

Bewusstsein im Nichtbewusstsein

Im Alltag denken wir nicht ‚über‘ unser Gehirn nach, sondern wir benutzen es direkt. Im Alltag haben wir subjektiv Eindrücke, Erlebnisse, Empfindungen, Gedanken, Vorstellungen, Fantasien. Wir sind ‚in‘ unserem Erleben, wir selbst ‚haben‘ diese Eindrücke. Es sind ‚unsere‘ Erlebnisse‘.

Die Philosophen haben diese Erlebnis- und Erkenntnisweise den Raum unseres ‚Bewusstseins‘ genannt. Sie sprechen davon, dass wir ‚Bewusstsein haben‘, dass uns die Ding ‚bewusst sind‘; sie nennen die Inhalte unseres Bewusstseins ‚Qualia‘ oder ‚Phänomene‘, und sie bezeichnen diese Erkenntnisperspektive den Standpunkt der ‚ersten Person‘ (‚first person view‘) im Vergleich zur Betrachtung von Gegenständen in der Außenwelt, die mehrere Personen gleichzeitig haben können; das nennen sie den Standpunkt der ‚dritten Person‘ (‚third person view‘) (Anmerkung: Ein Philosoph, der dies beschrieben hat, ist Thomas Nagel. Siehe zur Person: Thomas Nagel. Ein Buch von ihm, das hir einschlägig ist: ‚The view from nowhere‘, 1986, New York, Oxford University Press).

Nach den heutigen Erkenntnissen der Neuropsychologie gibt es zwischen dem, was die Philosophen ‚Bewusstsein‘ nennen und dem, was die Neuropsychologen ‚Arbeitsgedächtnis‘ nennen, eine funktionale Korrespondenz. Wenn man daraus schließen kann, dass unser Bewusstsein sozusagen die erlebte ‚Innenperspektive‘ des ‚Arbeitsgedächtnisses‘ ist, dann können wir erahnen, dass das, was uns gerade ‚bewusst‘ ist, nur ein winziger Bruchteil dessen ist, was uns ’nicht bewusst‘ ist. Nicht nur ist der potentiell erinnerbare Inhalt unseres Langzeitgedächtnisses viel größer als das aktuell gewusste, auch die Milliarden von Prozessen in unserem Körper sind nicht bewusst. Ganz zu schweigen von der Welt jenseits unseres Körpers. Unser Bewusstsein gleicht damit einem winzig kleinen Lichtpunkt in einem unfassbar großen Raum von Nicht-Bewusstsein. Die Welt, in der wir bewusst leben, ist fast ein Nichts gegenüber der Welt, die jenseits unseres Bewusstseins existiert; so scheint es.

Außenwelt in der Innenwelt

Der Begriff ‚Außenwelt‘, den wir eben benutzt haben, ist trügerisch. Er gaukelt vor, als ob es da die Außenwelt als ein reales Etwas gibt, über das wir einfach so reden können neben dem Bewusstsein, in dem wir uns befinden können.

Wenn wir die Erkenntnisse der Neuropsychologie ernst nehmen, dann findet die Erkenntnis der ‚Außenwelt‘ ‚in‘ unserem Gehirn statt, von dem wir wissen, dass es ‚in‘ unserem Körper ist und direkt nichts von der Außenwelt weiß.

Für die Philosophen aller Zeiten war dies ein permanentes Problem. Wie kann ich etwas über die ‚Außenwelt‘ wissen, wenn ich mich im Alltag zunächst im Modus des Bewusstseins vorfinde?

Seit dem Erstarken des empirischen Denkens — spätestens seit der Zeit Galileis (Anmerkung: Galilei) — tut sich die Philosophie noch schwerer. Wie vereinbare ich die ‚empirische Welt‘ der experimentellen Wissenschaften mit der ’subjektiven Welt‘ der Philosophen, die auch die Welt jedes Menschen in seinem Alltag ist? Umgekehrt ist es auch ein Problem der empirischen Wissenschaften; für den ’normalen‘ empirischen Wissenschaftler ist seit dem Erstarken der empirischen Wissenschaften die Philosophie obsolet geworden, eine ’no go area‘, etwas, von dem sich der empirische Wissenschaftler fernhält. Dieser Konflikt — Philosophen kritisieren die empirischen Wissenschaften und die empirischen Wissenschaften lehnen die Philosophie ab — ist in dieser Form ein Artefakt der Neuzeit und eine Denkblokade mit verheerenden Folgen.

Die empirischen Wissenschaften gründen auf der Annahme, dass es eine Außenwelt gibt, die man untersuchen kann. Alle Aussagen über die empirische Welt müssen auf solchen Ereignissen beruhen, sich im Rahmen eines beschriebenen ‚Messvorgangs‘ reproduzieren lassen. Ein Messvorgang ist immer ein ‚Vergleich‘ zwischen einem zuvor vereinbarten ‚Standard‘ und einem ‚zu messenden Phänomen‘. Klassische Standards sind ‚das Meter‘, ‚das Kilogramm‘, ‚die Sekunde‘, usw. (Anmerkung: Siehe dazu: Internationales Einheitensystem) Wenn ein zu messendes Phänomen ein Objekt ist, das z.B. im Vergleich mit dem Standard ‚Meter [m]‘ die Länge 3m aufweist, und jeder, der diese Messung wiederholt, kommt zum gleichen Ergebnis, dann wäre dies eine empirische Aussage über dieses Objekt.

Die Einschränkung auf solche Phänomene, die sich mit einem empirischen Messstandard vergleichen lassen und die von allen Menschen, die einen solchen Messvorgang wiederholen, zum gleichen Messergebnis führen, ist eine frei gewählte Entscheidung, die methodisch motiviert ist. Sie stellt sicher, dass man zu einer Phänomenmenge kommt, die allen Menschen(Anmerkung: die über gleiche Fähigkeiten der Wahrnehmung und des Denkens verfügen. Blinde Menschen, taube Menschen usw. könnten hier Probleme bekommen!“> … in gleicher Weise zugänglich und für diese nachvollziehbar ist. Erkenntnisse, die allen Menschen in gleicher Weise zugänglich und nachprüfbar sind haben einen unbestreitbaren Vorteil. Sie können eine gemeinsame Basis in einer ansonsten komplexen verwirrenden Wirklichkeit bieten.

Die ‚Unabhängigkeit‘ dieser empirischen Messvorgänge hat im Laufe der Geschichte bei vielen den Eindruck vertieft, als ob es die ‚vermessene Welt‘ außerhalb und unabhängig von unserem Bewusstsein als eigenständiges Objekt gibt, und dass die vielen ‚rein subjektiven‘ Empfindungen, Stimmungen, Vorstellungen im Bewusstsein, die sich nicht direkt in der vermessbaren Welt finden, von geringerer Bedeutung sind, unbedeutender ’subjektiver Kram‘, der eine ‚Verunreinigung der Wissenschaft‘ darstellt.

Dies ist ein Trugschluss mit verheerenden Folgen bis in die letzten Winkel unseres Alltags hinein.

Der Trugschluss beginnt dort, wo man übersieht, dass die zu messenden Phänomene auch für den empirischen Wissenschaftler nicht ein Sonderdasein führen, sondern weiterhin nur Phänomene seines Bewusstseins sind, die ihm sein Gehirn aus der Sinneswahrnehmung ‚herausgerechnet‘ hat. Vereinfachend könne man sagen, die Menge aller Phänomene unseres Bewusstseins — nennen wir sie PH — lässt sich aufteilen in die Teilmenge jener Phänomene, auf die sich Messoperationen anwenden lassen, das sind dann die empirischen Phänomene PH_EMP, und jene Phänomene, bei denen dies nicht möglich ist; dies sind dann die nicht-empirischen Phänomene oder ‚rein subjektiven‘ Phänomene PH_NEMP. Die ‚Existenz einer Außenwelt‘ ist dann eine Arbeitshypothese, die zwar schon kleine Kindern lernen, die aber letztlich darauf basiert, dass es Phänomene im Bewusstsein gibt, die andere Eigenschaften haben als die anderen Phänomene.

In diesen Zusammenhang gehört auch das Konzept unseres ‚Körpers‘, der sich mit den empirischen Phänomenen verknüpft.

Der Andere als Reflektor des Selbst

Bislang haben wir im Bereich der Phänomene (zur Erinnerung: dies sind die Inhalte unseres Bewusstseins) unterschieden zwischen den empirischen und den nicht-empirischen Phänomenen. Bei genauerem Hinsehen kann man hier viele weitere Unterscheidungen vornehmen. Uns interessiert hier nur der Unterschied zwischen jenen empirischen Phänomenen, die zu unserem Körper gehören und jenen empirischen Phänomenen, die unserem Körper ähneln, jedoch nicht zu uns, sondern zu jemand ‚anderem‘ gehören.

Die Ähnlichkeit der Körperlichkeit des ‚anderen‘ zu unserer Körperlichkeit bietet einen Ansatzpunkt, eine ‚Vermutung‘ ausbilden zu können, dass ‚in dem Körper des anderen‘ ähnliche innere Ereignisse vorkommen, wie im eigenen Bewusstsein. Wenn wir gegen einen harten Gegenstand stoßen, dabei Schmerz empfinden und eventuell leise aufschreien, dann unterstellen wir, dass ein anderer, wenn er mit seinem Körper gegen einen Gegenstand stößt, ebenfalls Schmerz empfindet. Und so in vielen anderen Ereignissen, in denen der Körper eine Rolle spielt(Anmerkung: Wie wir mittlerweile gelernt haben, gibt es Menschen, die genetisch bedingt keine Schmerzen empfinden, oder die angeboren blind oder taub sind, oder die zu keiner Empathie fähig sind, usw.“> … .

Generalisiert heißt dies, dass wir dazu neigen, beim Auftreten eines Anderen Körpers unser eigenes ‚Innenleben‘ in den Anderen hinein zu deuten, zu projizieren, und auf diese Weise im anderen Körper ‚mehr‘ sehen als nur einen Körper. Würden wir diese Projektionsleistung nicht erbringen, wäre ein menschliches Miteinander nicht möglich. Nur im ‚Übersteigen‘ (‚meta‘) des endlichen Körpers durch eine ‚übergreifende‘ (‚transzendierende‘) Interpretation sind wir in der Lage, den anderen Körper als eine ‚Person‘ zu begreifen, die aus Körper und Seele, aus Physis und Psyche besteht.

Eine solche Interpretation ist nicht logisch zwingend. Würden wir solch eine Interpretation verweigern, dann würden wir im Anderen nur einen leblosen Körper sehen, eine Ansammlung von unstrukturierten Zellen. Was immer der Andere tun würde, nichts von alledem könnte uns zwingen, unsere Interpretation zu verändern. Die ‚personale Wirklichkeit des Anderen‘ lebt wesentlich von unserer Unterstellung, dass er tatsächlich mehr ist als der Körper, den wir sinnlich wahrnehmen können.

Dieses Dilemma zeigt sich sehr schön in dem berühmten ‚Turing Test'(Anmerkung: Turing-Test, den Alan Matthew Turing 1950 vorgeschlagen hatte, um zu testen, wie gut ein Computer einen Menschen imitiere kann. (Anmerkung: Es war in dem Artikel: „Alan Turing: Computing Machinery and Intelligence“, Mind 59, Nr. 236, Oktober 1950, S. 433–460) Da man ja ‚den Geist‘ selbst nicht sehen kann, sondern nur die Auswirkungen des Geistes im Verhalten, kann man in dem Test auch nur das Verhalten eines Menschen neben einem Computer beobachten, eingeschränkt auf schriftliche Fragen und Antworten. (Anmerkung: heute könnte man dies sicher ausdehnen auf gesprochene Fragen und Antworten, eventuell kombiniert mit einem Gesicht oder gar mehr“) Die vielen Versuche mit diesem Test haben deutlich gemacht — was man im Alltag auch ohne diesen Test sehen kann –, dass das beobachtbare Verhalten eines Akteurs niemals ausreicht, um logisch zwingend auf einen ‚echten Geist‘, sprich auf eine ‚echte Person‘ schließen zu können. Daraus folgt nebenbei, dass man — sollte es jemals hinreichend intelligente Maschinen geben — niemals zwingend einen Menschen, nur aufgrund seines Verhaltens, von einer intelligenten Maschine unterscheiden könnte.

Rein praktisch folgt aus alledem, dass wir im Alltag nur dann und solange als Menschen miteinander umgehen können, solange wir uns wechselseitig ‚Menschlichkeit‘ unterstellen, an den ‚Menschen‘ im anderen glauben, und mein Denken und meine Gefühle hinreichend vom Anderen ‚erwidert‘ werden. Passiert dies nicht, dann muss dies noch nicht eine völlige Katastrophe bedeuten, aber auf Dauer benötigen Menschen eine minimale Basis von Gemeinsamkeiten, auf denen sie ihr Verhalten aufbauen können.

Im positiven Fall können Unterschiede zwischen Menschen dazu führen, dass man sich wechselseitig anregt, man durch die Andersartigkeit ‚Neues‘ lernen kann, man sich weiter entwickelt. Im negativen Fall kann es zu Missverständnissen kommen, zu Verletzungen, zu Aggressionen, gar zur wechselseitigen Zerstörung. Zwingend ist keines von beidem.

Fortsetzung mit Kapitel 4 (neu).

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

DAS NEUE MENSCHENBILD – ERSTE SKIZZE

MUSIK ZUR EINSTIMMUNG

Das Stück „Wenn die Worte aus der Dunkelheit aufsteigen wie Sterne“ entstand zunächst als ein reines Instrumentalstück (die erste Hälfte des aktuellen Stücks; diesen Teil hatte ich auch schon mal am 4.April im Blog benutzt). Doch inspirierte die Musik zum ‚Weitermachen‘, zunächst entstand eine Fortsetzung rein instrumental; dann habe ich ab der Mitte spontan einen Text dazu gesprochen. Im Nachhinein betrachtet passt dieser Text sehr gut zum heutigen Blogeintrag (ist kein Dogma … :-))

UNSCHULDIGER ANFANG

1. Als ich am 20.Januar 2007 – also vor 7 Jahren und 3 Monaten – meinen ersten Blogeintrag geschrieben habe, da wusste ich weder genau, was ich mit dem Blog wollte noch konnte ich ahnen, was durch das Niederschreiben von Gedanken alles an ‚kognitiven Bildern‘ von der Welt und dem Menschen entstehen konnte. Langsam schälte sich als Thema – wenngleich nicht messerscharf – ‚Neues Weltbild‘ heraus. Das konnte alles und nichts sein. Aber im gedanklichen Scheinwerferkegel von Theologie, Philosophie, Wissenschaftstheorie, Psychologie, Biologie, Linguistik, Informatik, Neurowissenschaften, Physik gab es Anhaltspunkte, Eckwerte, die den aktuellen Gedanken wie eine Billardkugel von einer Bande zur anderen schickten. Dazu die heutige, aktuelle Lebenserfahrung und die vielen Begegnungen und Gespräche mit anderen Menschen.

2. Die letzten beiden Blogeinträge zum Thema Bewusstsein – Nichtbewusstsein markieren einen Punkt in dieser Entwicklung, ab dem ‚wie von Zauberhand‘ viele einzelnen Gedanken von vorher sich zu einem Gesamtbild ‚zusammen schieben‘, ergänzen.

AUSGANGSPUNKT INDIVIDUELLES BEWUSSTSEIN

3. Akzeptieren wir den Ausgangspunkt des individuellen Bewusstseins B_i als primären Erkenntnisstandpunkt für jeden Menschen, dann besteht die Welt für jeden einzelnen zunächst mal aus dem, was er/ sie im Raume seines eigenen individuellen Bewusstseins erleben/ wahrnehmen kann.

4. Da es aber zur Natur des individuellen Bewusstseins gehört, dass es als solches für ‚andere‘ ‚unsichtbar‘ ist, kann man auch nicht so ohne weiteres über die Inhalte des eigenen Bewusstseins mit anderen reden. Was immer man mit Hilfe eines Ausdrucks A einer Sprache L einem anderen mitteilen möchte, wenn der Ausdruck A als Schallwelle den anderen erreicht, hat er zwar einen Schalleindruck (falls erhören kann), aber er/ sie weiß in dem Moment normalerweise nicht, welcher Inhalt des Bewusstseins des Sprechers damit ‚gemeint‘ sein könnte.

5. Dass wir uns trotzdem ‚unterhalten‘ können liegt daran, dass es offensichtlich einen ‚Trick‘ geben muss, mit dem wir diese unüberwindliche Kluft zwischen unseren verschiedenen Bewusstseinsräumen überwinden können.

KLUFT ZWISCHEN INDIVIDUELLEN BEWUSSTSEINSRÄUMEN ÜBERWINDEN

6. Der ‚Trick‘ beruht darauf, dass der individuelle Bewusstseinsraum einem ‚individuellen Körper‘ zugeordnet ist, dass es in diesen Körper Gehirne gibt, und dass das individuelle Bewusstsein eines Körpers k_i als Ereignis im Gehirn g_i des Körpers k_i zu verorten ist. Das Bewusstsein B_i partizipiert an den Gehirnzuständen des Gehirns, und dieses partizipiert an den Körperzuständen. Wie die Wissenschaft mühsam erarbeitet hat, können bestimmte Außenweltereignisse w über ‚Sinnesorgane‘ in ‚Körperereignisse‘ ‚übersetzt‘ werden‘, die über das Gehirn partiell auch das Bewusstsein erreichen können. Sofern es jetzt Außenweltereignisse w‘ gibt, die verschiedene Körper in ähnlicher Weise ‚erreichen‘ und in diesen Körpern via Gehirn bis zu dem jeweiligen individuellen Bewusstsein gelangen, haben diese verschiedenen individuellen Bewusstseinsräume zwar ‚rein private‘ Bewusstseinszustände, aber ‚gekoppelt‘ über Außenweltzustände w‘ haben die verschiedenen Bewusstseinszustände B_1, …, B_n alle Bewusstseinsereignisse b_i, die als solche ‚privat‘ sind, aber ‚zeitlich gekoppelt‘ sind und sich mit Änderung der Außenweltzustände w‘ auch ’synchron‘ ändern. Die gemeinsam geteilte Außenwelt wird damit zur ‚Brücke‘ zwischen den körperlich getrennten individuellen Bewusstseinsräumen. Diese ‚ gemeinsam geteilte Außenwelt‘ nennt man oft den ‚intersubjektiven‘ Bereich der Welt bzw. dies stellt den Raum der ‚empirischen Welt‘ [Wemp] dar. Aus Sicht des individuellen Bewusstseins ist die empirische Welt eine Arbeitshypothese, die dem individuellen Bewusstsein zugänglich ist über eine spezifische Teilmenge [PHemp] der Bewusstseinszustände [PH].

EMPIRISCHE WELT ALS SONDE INS NICHTBEWUSSTSEIN

7. In der Geschichte des menschlichen Wissens spielt die Entdeckung der empirischen Welt und ihre systematische Untersuchung im Rahmen der modernen empirischen Wissenschaften bislang – nach meiner Meinung – die größte geistige Entdeckung und Revolution dar, die der menschliche Geist vollbracht hat. Auf den ersten Blick wirkt die Beschränkung der empirischen Wissenschaften auf die empirischen Phänomene PHemp wie eine unnötige ‚Einschränkung‘ und ‚Verarmung‘ des Denkens, da ja die Menge der bewussten Ereignisse PH erheblich größer ist als die Menge der empirischen Ereignisse PHemp. Wie der Gang der Geschichte aber gezeigt hat, war es gerade diese bewusste methodische Beschränkung, die uns den Bereich ‚außerhalb des Bewusstseins‘, den Bereich des ‚Nichtbewusstseins‘, Schritt für Schritt ‚erforscht‘ und ‚erklärt‘ hat. Trotz individuell stark eingeschränktem Bewusstsein konnte wir auf diese Weise so viel über die ‚Rahmenbedingungen‘ unseres individuellen Bewusstseins lernen, dass wir nicht mehr wie die früheren Philosophen ‚wie die Fliegen am Licht‘ an den Phänomenen des Bewusstseins kleben müssen, sondern wir können zunehmend Hypothesen darüber entwickeln, wie die verschiedenen Bewusstseinsphänomene (inklusive ihrer Dynamik) durch die Strukturen des Gehirns und des Körpers bestimmt sind. M.a.W. wir stehen vor dem Paradox, dass das individuelle Bewusstsein den Bereich des Nichtbewusstseins dadurch ‚verkleinern‘ kann, dass es durch Ausnutzung der empirischen Phänomene mittels gezielter Experimente und Modellbildung immer mehr Eigenschaften des Nichtbewusstseins innerhalb des individuellen Bewusstseins ’nachkonstruiert‘ und damit ‚bewusst‘ macht. Bedenkt man wie eng und schwierig die Rahmenbedingungen des menschlichen Bewusstseins bis heute sind, gleicht es einem kleinen Wunder, was dieses primitive menschliche Bewusstsein bislang nachkonstruierend erkennen konnte.

8. Von diesem Punkt aus ergeben sich viele Perspektiven.

BIOLOGISCHE EVOLUTION

9. Eine Perspektive ist jene der ‚evolutionären Entwicklungsgeschichte‘: seit gut hundert Jahren sind wir mehr und mehr in der Lage, unsere aktuellen Körper und Gehirne – zusammen mit allen anderen Lebensformen – als einen Gesamtprozess zu begreifen, der mit den ersten Zellen vor ca. 3.8 Milliarden Jahren als biologische Evolution begonnen hat, ein Prozess, der bis heute noch viele Fragen bereit hält, die noch nicht befriedigend beantwortet sind. Und der vor allem auch klar macht, dass wir heute keinen ‚Endpunkt‘ darstellen, sondern ein ‚Durchgangsstadium‘, dessen potentieller Endzustand ebenfalls nicht ganz klar ist.

10. Ein wichtiger Teilaspekt der biologischen Evolution ist, dass der Vererbungsmechanismus im Wechselspiel von Genotyp (ein Molekül als ‚Informationsträger‘ (Chromosom mit Genen)) und Phänotyp (Körper) im Rahmen einer Population eine ‚Strukturentwicklung‘ beinhaltet: die Informationen eines Informationsmoleküls (Chromosom) werden innerhalb des Wachstumsprozesses (Ontogenese) als ‚Bauplan‘ interpretiert, wie man welche Körper konstruiert. Sowohl bei der Erstellung des Informationsmoleküls wie auch bei seiner Übersetzung in einen Wachstumsprozess und dem Wachstumsprozess selbst kann und kommt es zu partiellen ‚Änderungen‘, die dazu führen, dass die resultierenden Phänotypen Änderungen aufweisen können (verschiedene Arten von Sehsystemen, Verdauungssystemen, Knochengerüsten, usw.).

11. Im Gesamtkontext der biologischen Evolution sind diese kontinuierlich stattfindenden partiellen Änderungen lebensentscheidend! Da sich die Erde seit ihrer Entstehung permanent geologisch, klimatisch und im Verbund mit dem Sonnensystem verändert, würden Lebensformen, die sich von sich aus nicht auch ändern würden, schon nach kürzester Zeit aussterben. Dies bedeutet, dass diese Fähigkeit zur permanenten strukturellen Änderung ein wesentliches Merkmal des Lebens auf dieser Erde darstellt. In einer groben Einteilung könnte man sagen, von den jeweils ’neuen‘ Phänotypen einer ‚Generation‘ wird die ‚große Masse‘ mehr oder weniger ‚unverändert‘ erscheinen; ein kleiner Teil wir Veränderungen aufweisen, die es diesen individuellen Systemen ’schwerer‘ macht als anderen, ihre Lebensprozesse zu unterstützen; ein anderer kleiner Teil wird Veränderungen aufweisen, die es ‚leichter‘ machen, die Lebensprozesse zu unterstützen. Letztere werden sich vermutlich proportional ‚mehr vermehren‘ als die beiden anderen Gruppen.

12. Wichtig an dieser Stelle ist, dass zum Zeitpunkt der Änderungen ’niemand‘ weiß bzw. wissen kann, wie sich die ‚Änderung‘ – bzw. auch die Nicht-Änderung! – im weiteren Verlauf auswirken wird. Erst der weitergehende Gesamtprozess wird enthüllen, wie sich die verschiedenen Strukturen von Leben bewähren werden.

LEBENSNOTWENDIGE KREATIVITÄT: WOLLEN WIR SIE EINSPERREN?

13. Übertragen auf unsere heutige Zeit und unser Weltbild bedeutet dies, dass wir dieser Veränderlichkeit der Lebensformen immer Rechnung tragen sollten, um unsere Überlebensfähigkeit zu sichern. Zum Zeitpunkt einer Änderung – also jetzt und hier und heute – weiß niemand, welche dieser Änderungen morgen vielleicht wichtig sein werden, zumal Änderungen sich erst nach vielen Generationen auszuwirken beginnen.

14. Es wäre eine eigene große Untersuchung wert, zu schauen, wie wir heute in der Breite des Lebens mit den stattfindenden Änderungen umgehen. In der Agrarindustrie gibt es starke Tendenzen, die Vielzahl einzugrenzen und wenige Arten so zu monopolisieren, dass einzelne (ein einziger!) Konzern die Kontrolle weltweit über die genetischen Informationen bekommt (was in den USA z.T. schon zur Verödung ganzer Landstriche geführt hat, da das Unkraut sich schneller und effektiver geändert hat als die Laborprodukte dieser Firma).

STRUKTURELLES UND FUNKTIONALES LERNEN

15. Die ‚Struktur‘ des Phänotyps ist aber nur die eine Seite; genauso wenig wie die Hardware alleine einen funktionierenden Computer definiert, so reicht die Anordnung der Zellen als solche nicht aus, um eine funktionierende biologische Lebensform zu definieren. Im Computer ist es die Fähigkeit, die elektrischen Zustände der Hardware kontinuierlich zu verändern, dazu verknüpft mit einer impliziten ‚Schaltlogik‘. Die Menge dieser Veränderungen zeigt sich als ‚funktionaler Zusammenhang‘ phi_c:I —> O, der ‚Inputereignisse‘ [I] mit Outputereignissen [O] verknüpft. Ganz analog verhält es sich mit den Zellen in einem biologischen System. Auch hier gibt es eine implizite ‚Logik‘ nach der sich die Zellen verändern und Zustände ‚kommunizieren‘ können, so dass Zellgruppen, Zellverbände eine Vielzahl von funktionellen Zusammenhängen realisieren. Einige dieser funktionellen Zusammenhänge bezeichnen wir als ‚Lernen‘. Dies bedeutet, es gibt nicht nur die über Generationen laufenden Strukturveränderung, die eine Form von ’strukturellem Lernen‘ im Bereich der ganzen Population darstellen, sondern es gibt dann dieses ‚funktionelle Lernen‘, das sich im Bereich des individuellen Verhaltens innerhalb einer individuellen Lebenszeit ereignet.

WISSEN GARANTIERT KEINE WAHRHEIT

16. Dieses individuelle Lernen führt zum Aufbau ‚individueller Wissensstrukturen‘ mit unterschiedlichen Ausprägungsformen: Erlernen von motorischen Abläufen, von Objektkonzepten, Beziehungen, Sprachen, Verhaltensregeln usw. Wichtig ist dabei, dass diese individuellen Wissensstrukturen im individuellen Bewusstsein und individuellem Unterbewusstsein (ein Teil des Nichtbewusstseins, der im individuellen Körper verortet ist) verankert sind. Hier wirken sie als kontinuierliche ‚Kommentare‘ aus dem Unterbewusstsein in das Bewusstsein bei der ‚Interpretation der Bewusstseinsinhalte‘. Solange diese Kommentare ‚richtig‘ / ‚passend‘ / ‚wahr‘ … sind, solange helfen sie, sich in der unterstellten Außenwelt zurecht zu finden. Sind diese Wissensstrukturen ‚falsch‘ / ‚verzerrt‘ / ‚unangemessen‘ … bewirken sie in ihrer Dauerkommentierung, dass es zu Fehleinschätzungen und zu unangemessenen Entscheidungen kommt. Sofern man als einziger eine ‚unpassende Einschätzung‘ vertritt, fällt dies schnell auf und man hat eine Chance, diese zu ‚korrigieren‘; wird aber eine ‚Fehleinschätzung‘ von einer Mehrheit geteilt, ist es schwer bis unmöglich, diese Fehleinschätzung als einzelner zu bemerken. In einer solchen Situation, wo die Mehrheit eine Fehleinschätzung vertritt, kann ein einzelner, der die ‚richtige‘ Meinung hat (z.B. Galilei und Co. mit der neuen Ansicht zur Bewegung der Sonne; die moderne Wissenschaft und die alten Religionen; das damalige südafrikanische Apartheidsregime und der damalige ANC, der Sowjetkommunismus und die östlichen Friedensbewegungen vor dem Auseinanderfallen der Sowjetunion; die US-Geheimdienste und Snowden; …) als der ‚Fremdartige‘ erscheinen, der die bisherige ‚Ordnung‘ stört und den man deshalb ‚gesellschaftlich neutralisieren‘ muss).

17. Viele Menschen kennen das Phänomen von ‚Phobien‘ (vor Schlangen, vor Spinnen, vor …). Obwohl klar ist, dass eine einzelne Spinne keinerlei Gefahr darstellt, kann diese einen Menschen mit einer Phobie (= Kommentar des individuellen Unterbewusstseins an das Bewusstsein) zu einem Verhalten bewegen, was die meisten anderen als ‚unangemessen‘ bezeichnen würden.

18. Im Falle von psychischen Störungen (die heute statistisch stark zunehmen) kann dies eine Vielzahl von Phänomenen sein, die aus dem Raum des individuellen Unterbewusstseins in das individuelle Bewusstsein ‚hinein reden‘. Für den betroffenen Menschen ist dieses ‚Hineinreden‘ meistens nicht direkt ‚verstehbar‘; es findet einfach statt und kann vielfach kognitiv verwirren und emotional belasten. Diese Art von ‚Fehlkommentierung‘ aus dem individuellen Unterbewusstsein ist – so scheint es – für die meisten Menschen vielfach nur ‚behebbar‘ (therapierbar) mit Hilfe eines Experten und einer geeigneten Umgebung. Während Menschen mit körperlichen Einschränkungen in der Regel trotzdem ein einigermaßen ’normales‘ Leben führen können, können Menschen mit ‚psychischen Störungen‘ dies oft nicht mehr. Das geringe Verständnis einer Gesellschaft für Menschen mit psychischen Störungen ist auffällig.

SPRACHE ALS MEDIUM VON GEDANKEN

19. Seit der Entwicklung der ‚Sprache‘ kann ein individuelles Bewusstsein unter Voraussetzung einer einigermaßen ähnlichen Wahrnehmungs- und Gedächtnisstruktur in den einzelnen Mitgliedern einer Population Bewusstseinsinhalte aufgrund von Gedächtnisstrukturen mit Ausdrücken einer Sprache korrelieren. Sofern diese Korrelierung in hinreichender Abstimmung mit den anderen Sprachteilnehmern geschieht, lassen sich mittels sprachlicher Ausdrücke diese ‚Inhalte‘ (‚Bedeutungen‘) ‚indirekt‘ kommunizieren; nicht der Inhalt selbst wird kommuniziert, sondern der sprachliche Ausdruck als eine Art ‚Kode‘, der im Empfänger über die ‚gelernte Bedeutungszuordnung‘ entsprechende ‚Inhalte des Gedächtnisses‘ ‚aktiviert‘. Dass diese Kodierung überhaupt funktioniert liegt daran, dass die Bedeutungsstrukturen nicht ‚1-zu-1‘ kodiert werden, sondern immer nur über ‚verallgemeinerte Strukturen‘ (Kategorien), die eine gewisse ‚Invarianz‘ gegenüber den Variationen der konstituierenden Bedeutungselemente aufweisen. Dennoch sind die Grenzen sprachlicher Kommunikation immer dann erreicht, wenn Sprecher-Hörer über Bewusstseinstatsachen kommunizieren, die nur einen geringen oder gar keinen Bezug zur empirischen Welt aufweisen. Die Benutzung von Analogien,Metaphern, Bildern, Beispielen usw. lässt noch ‚irgendwie erahnen‘, was jemand ‚meinen könnte‘, aber eine letzte Klärung muss oft ausbleiben. Nichtsdestotrotz kann eine solche ‚andeutende‘ Kommunikation sehr hilfreich, schön, anregend usw. sein; sie ersetzt aber keine Wissenschaft.

20. Während das individuelle Wissen mit dem Tod des Individuums bislang ‚verschwindet‘, können ‚Texte‘ (und vergleichbare Darstellungen) ein individuelles Wissen bis zu einem gewissen Grade überdauern. Moderne Kommunikations- und Speichermittel haben die Sammlung und Verwertung von Wissen in bislang ungeahnte Dimensionen voran getrieben. Während allerdings die Menge dieses sprachbasierten Wissens exponentiell wächst, bleiben die individuellen Wissensverarbeitungskapazitäten annähernd konstant. Damit wächst die Kluft zwischen dem individuell verfügbaren Wissen und dem in Datennetzen verfügbaren Wissen ebenfalls exponentiell an. Es stellt sich die Frage, welchen Beitrag ein Wissen leisten kann, das sich faktisch nicht mehr verarbeiten lässt. Wenn man sieht, dass heute selbst Menschen mit einem abgeschlossenen Studium Ansichten vertreten, die im Lichte des verfügbaren Wissens gravierend falsch sein können, ja, dass das Wesen von Wissenschaft, wissenschaftlichem Wissen selbst bei Studierten (und nicht zuletzt auch bei sogenannten ‚Kulturschaffenden‘) starke Defizite aufweist, dann kann man ins Grübeln kommen, ob unsere heutige Kultur im Umgang mit wissenschaftlichem Wissen die richtigen Formen gefunden hat.

21. Hier wäre jetzt auch noch der ganze Komplex der Bedürfnisse/ Emotionen/ Gefühle/ Stimmungen anzusprechen. Doch das soll weiteren Einträgen vorbehalten bleiben.

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.