ONTOLOGIE DES BEWUSSTSEINS – Nachbemerkung zu Craik

PDF

Übersicht
Craik führt in seinem Buch eine breit angelegte Diskussion im Spannungsfeld von Philosophie, Psychologie, Physiologie, Physik und Technik, die einige Hauptthemen erkennen lässt: ein Plädoyer für ein kausales Verständnis der realen Welt, für die Rekonstruktion von Bewusstsein durch Rückgriff auf das Nervensystem, für die zentrale Rolle mentaler Modelle, sowie für die wichtige Rolle von Sprache in allem Erklären. Dies gibt Anlass, den ontologischen Status des Bewusstseins nochmals zu präzisieren.

I. KONTEXT

In einem vorausgehenden Blogeintrag hatte ich kurz einige der Hauptthemen aus dem Buch ’The Nature of Explanation’ (1943) von Craig vorgestellt und kurz kommentiert. In diesem Buch weist Craik zurecht darauf hin, dass eine Erklärung der geistigen/ mentalen/ kognitiven Phänomene des Menschen ohne Rückgriff auf das ermöglichende Gehirn unvollständig sind. Eine introspektive Beschreibung solcher Phänomene beschreibt die Oberfläche dieser Phänomene, wenn sie gut gemacht ist, auch noch deren Dynamik, aber sie kann sie nicht wirklich erklären, da derjenige Kontext, der kausal für diese Phänomene verantwortlich zu sein scheint (harte Beweise gibt es nicht, siehe weiter unten), das menschliche Gehirn, in solch einer phänomenalen Beschreibung nicht berücksichtigt wird (bisher nicht!).

Dieser überdeutliche Hinweis seitens Craig wird durch vielfache Überlegungen untermauert. Was aber fehlt ist ein klares Konzept, wie denn eine philosophisch-wissenschaftliche Beschreibung des Sachverhalts methodisch vorgenommen werden müsste, um allen Aspekten Rechnung zu tragen. Obwohl Craig alle wesentlich beteiligten
Disziplinen explizit nennt (Philosophie, Psychologie, Physiologie, Physik) und er sich in diesen Bereichen gut auskennt, lässt er das genaue Verhältnis dieser Disziplinen zueinander offen.

II. MULTIPLE SICHTEN

Multiple Sichten auf den Menschen und sein Umfeld

Multiple Sichten auf den Menschen und sein Umfeld

1) Vielleicht kann es in dieser Situation helfen, sich bewusst zu machen, welch Faktoren in dieser Erkenntnissituation beteiligt sind und wie diese (grob) aufeinander bezogen sind.
2) Im Schaubild 1 sind diese Faktoren angedeutet. Die Perspektive, aus der heraus dieses Bild entstanden ist, ist zunächst die der empirischen Wissenschaften, dann ergänzt um eine introspektive Perspektive.
3) Die Physik erzählt uns die Geschichte vom Universum, seiner Entstehung seit dem Big-Bang Ereignis, seiner Struktur, die u.a. unsere Heimatgalaxie, die Milchstraße, enthält. Innerhalb der Milchstraße gibt es u.a. unser Sonnensystem mit der Erde, unserem Heimatplaneten. Die Biologie erzählt uns die Geschichte von der Entstehung des biologischen Lebens auf der Erde, die Entwicklung all der unzähligen Arten (von denen die meisten wieder ausgestorben sind), bis hin zum homo sapiens, den wir repräsentieren.
4) Um den Menschen herum gibt es zahllose wissenschaftliche Disziplinen, die unterschiedliche Aspekte des homo sapiens untersuchen. Die Physiologie hat uns darüber belehrt, dass der menschliche Körper mit all seinen komplexen Organen letztlich aus einzelnen Zellen besteht, die auf unterschiedliche Weise im Körper als Zellverbände kooperieren und dabei kommunizieren.
5) Was man bei der Betrachtung der beeindruckenden Gesamtleistung aber niemals vergessen darf, ist, dass alle Zellen zu jedem Zeitpunkt aus Molekülen bestehen, diese wiederum aus Atomen, diese wiederum aus sub-atomaren Teilchen. Jede dieser identifizierbaren Einheiten folgt eigenen, spezifischen Gesetzen des Verhaltens.
Diese Verhaltensweisen sind so spezifisch, dass es sinnvoll ist, hier entsprechend den jeweiligen Einheiten von unterschiedlichen Organisationsebenen zu sprechen, mit steigender Komplexität.
6) Diese Unterscheidung nach Organisationsebenen (denen unterschiedliche Komplexitätsebenen entsprechen), ist hilfreich, wenn man die Interaktion zwischen allen Einheiten betrachtet. Das Herz z.B. ist in einer Hinsicht eine ’Pumpe’, die das Blut durch die Adern pumpt. Es ist über Zellen auch mit dem Gehirn verbunden, das den Zustand des Herzens ’kontrolliert’ und durch elektrische-chemische Impulse beeinflussen kann. Die einzelnen Zellen, die den Zellverband ’Herz’ bilden, sind ferner für sich genommen individuelle, autonome Systeme, die untereinander durch Stoffwechselprozesse (Energieversorgung, …) verbunden sind, die absterben und durch  neue ersetzt werden, und vieles mehr. Je nach Zustand der Umgebung einer Zelle, welche Moleküle, Atome
dort vorkommen, kann dies auch die Zelle stören, zerstören. Die Zelle kann auch selbst Störungen aufweisen.
7) Insofern alle Moleküle auch Atome sind mit subatomaren Einheiten, unterliegen diese Atome jederzeit den unterschiedlichen Wechselwirkungen, die zwischen Atomen und subatomaren Einheiten im gesamten Universum möglich sind. Wie die Physik uns heute erzählen kann, gibt es hier vielfältige Wechselwirkungen im quantenmechanischen Bereich, die über den Bereich eines einzelnen menschlichen Körpers weit hinausgehen,
die bis in die Dimension der Milchstraße reichen.
8) Dies alles gilt natürlich auch für den Zellverband, der unser Nervensystem mit dem Gehirn bildet. Das Gehirn ist Teil des Gesamtkörpers; es liegt im Körper. Das Gehirn, so erzählen die Gehirnforscher heute, hat trotz der Flexibilität, Plastizität seiner Zellen in sich eine Struktur, die unterschiedliche funktionelle Einheiten abgrenzen lässt, die sowohl in sich wie auch miteinander sowohl über elektro-chemische Weise kommunizieren
wie auch nur chemisch. Dabei werden die quantenmechanischen Wechselbeziehungen normalerweise nicht berücksichtigt.
9) Lässt man die quantenmechanischen Wechselbeziehungen außen vor, dann kann das Gehirn mit der Umgebung des Körpers nur über Zellen kommunizieren, die elektro-chemische oder chemische Signale austauschen. Dazu gibt es spezielle Sinneszellen, die externe Energieereignisse in interne neuronale Energieereignisse übersetzen, und diese dann auf unterschiedliche Weise von Zelle zu Zelle weiter reichen. Dieser Prozess ist niemals 1-zu-1 sondern bringt mehrfache Transformationen und Abstraktionen mit sich. In der Regel werden zudem nicht Signale von einzelnen Sinneszellen benutzt, sondern meistens viele Hunderte, Tausend, Hunderttausende oder gar Millionen gleichzeitig und parallel. Diese werden auf unterschiedliche Weise miteinander
verrechnet. Wie das Gehirn es schafft, ohne direkten Kontakt mit der externen Welt aus diesen vielen Abermillionen gleichzeitigen Einzelsignalen brauchbare Muster, Zusammenhänge und Abläufe zu extrahieren und damit ein komplexes Verhalten zu steuern, das enthüllt sich nur langsam.
10) Aus empirischer Sicht ist die Geschichte hier zu Ende. Im Schaubild 1 gibt es aber noch die Größe Bewusstsein. Wie kommt die ins Spiel?

III. BEWUSSTSEIN

1) Aus empirischer Sicht (Physiologie, Gehirnforschung, Biologie, Physik, Chemie, Molekularbiologie, Genetik, empirische Psychologie,…) kann man die Zellen, Zellverbände, ihre Eigenschaften beobachten, messen, und das Verhalten dieser Einheiten auf der Basis dieser Messwerte beschreiben, auch mit kausalen Beziehungen,
zunehmend auch mit partiellen Modellen. Dabei wurden und werden zahlreiche interessante Wechselbeziehungen aufgedeckt z.B. zwischen Zellen und deren Molekülen, gar Atomen. In dieser Perspektive gibt es aber keinerlei Phänomene, die irgendetwas mit dem sogenannten Bewusstsein zu tun haben. In einer empirischen Perspektive gibt es prinzipiell keinerlei Möglichkeiten, bewusstseinsrelevante Phänomene zu beobachten und
zu beschreiben.
2) Selbst die moderne empirische Psychologie ist methodisch beschränkt auf messbare Sachverhalte, die sie letztlich nur im Bereich des beobachtbaren Verhaltens finden kann, neuerdings erweiterbar mit physiologischen Daten, sodass man in einer neuro-psychologischen Vorgehensweise beobachtbare Verhaltensdaten mit Körperdaten und speziell Gehirndaten in Beziehung setzen kann. Dies hat zu einer erheblichen Ausweitung
der möglichen Erklärungsleistung geführt. Aber auch in der Perspektive einer Neuro-Psychologie gibt es streng genommen keinerlei Phänomene, die man als bewusstseins-relevant bezeichnen könnte.
3) Wissenschaftstheoretisch (andere sprechen von Wissenschaftsphilosophisch) beschränkt sich der Begriff Bewusstsein auf eine spezielle Form von Innensicht des Gehirns, wie wir sie bislang explizit nur von Exemplaren des homo sapiens kennen, da dieser mittels des Werkzeugs symbolische Sprache Aussagen, Beschreibungen
liefern kann, die indirekt Zeugnis geben von Sachverhalten, die sich auf diese Innensicht des Gehirns beziehen. Die Innensicht des Gehirns ist einer empirischen Beobachtung nicht direkt zugänglich (auch wenn man in zahllosen neuro-psychologischen Abhandlungen immer wieder das Wort ’Bewusstsein’ findet, auch z.B, in der
Wortschöpfung ’neuronales Korrelat des Bewusstseins’; wissenschaftsphilosophisch ist dies Unsinn; es kann aber möglicherweise einen gewissen ’heuristischen’ Wert innerhalb wissenschaftlicher Untersuchungen haben.)
4) Dass wir überhaupt von Bewusstsein sprechen liegt daran, dass alle Exemplare des homo sapiens (und vermutlich nahezu alle biologischen Systeme) über diese bemerkenswerte Fähigkeit einer Innensicht des Gehirns verfügen, die die Betroffenen mit einem kontinuierlichen Strom von Ereignissen versorgt. Um diese Ereignisse aus der Innensicht des Gehirns von den Ereignissen der empirischen Wissenschaften abzugrenzen, sprechen die Philosophen spätestens seit dem Philosophen Edmund Husserl (1859 – 1938) von phänomenalen Ereignissen statt einfach von Ereignissen. Dies hat damit zu tun, dass Edmund Husserl und alle weiteren Anhänger einer bewusstseinsbasierten Philosophie die Ereignisse in der Innensicht des Gehirns generell als Phänomene (Ph) bezeichnet haben.
5) Da jeder Mensch qua Mensch im normalen Erkenntniszustand sich primär im Modus der Innensicht des Gehirns befindet (was anderes hat er auch gar nicht zur Verfügung) hat er zwar direkten Zugang zu den Phänomenen seines Erlebnisstroms, aber er hat nahezu keine Möglichkeit, den Begriff ’Bewusstsein’ intersubjektiv, objektiv zu definieren. Der einzelne Mensch hat zwar Zugang zu seinen Phänomenen, aber eben nur zu seinen;
das gilt für jeden Menschen in gleicher Weise. Sofern verschiedene Menschen eine gemeinsame Sprache sprechen und in dieser Sprache z.B. den Begriff ’Bewusstsein’ einführen, können sie die Wortmarke ’Bewusstsein’ zwar untereinander vorstellen, sie können aber niemals ein intersubjektives Objekt aufzeigen, auf das sich die Wortmarke ’Bewusstsein’ beziehen könnte. Nach zehntausenden Jahren von menschlicher Existenz
(wissenschaftlich gibt es den homo sapiens ca. 200.000 Jahre) gibt es so etwas wie ein explizites Sprechen mit dem Begriff ’Bewusstsein’ vielleicht 400 – 500 Jahre, höchstens. Ausführlich und systematisch vielleicht erst seit ca. 150 Jahren. Und bis heute erwecken die vielen Sprachspiele, in denen die Wortmarke ’Bewusstsein’ vorkommt, nicht den Eindruck, als ob allen Beteiligten so richtig klar ist, was sie da tun.

IV. SUBJEKTIV – EMPIRISCH

1) Die Tatsache, dass Menschen sich zunächst und primär im Modus der Innensicht des Gehirns vorfinden, ist einerseits – biologisch – normal, da sich explizite und leistungsfähige Nervensysteme und Gehirne erst relativ spät entwickelt haben, aber dann für die biologischen Systeme, die darüber verfügen konnten, zu einer der wertvollsten Eigenschaften des Überlebens und dann auch überhaupt Lebens auf der Erde wurden.
Jedes biologische System bekommt durch die Innensicht seines Gehirns eine Reihe von wertvollen (allerdings meist hochkomplexe) Informationen, mittels deren es seine aktuelle Situation, seine Geschichte, und seine mögliche Zukunft immer besser ausrechnen kann. Beim homo sapiens kommt dazu eine spezielle Kommunikationsfähigkeit hinzu. Gerade die besonderen Eigenschaften des Nervensystems beim Menschen haben dem
homo sapiens eine gigantische Überlegenheit über nahezu alle anderen biologischen Systeme gegeben. Für den homo sapiens ist dies eine Erfolgsgeschichte, nicht für die anderen Arten, die der homo sapiens entweder ausgerottet oder stark dezimiert hat oder für seine Zwecke brutal knechtet.
2) Durch die immense Zunahme der Population des homo sapiens aufgrund seiner immer verfeinerten Technik und Kultur gab es, beginnend vor ca. 2500 bis 3000 Jahren und dann andauernd bis ca. vor 500 Jahren (letztlich andauernd bis heute) immer größere Konflikte mit dem Reden über die Welt. Der Reichtum der Phänomene in der Innensicht des Gehirns ermöglicht in Kombination mit der symbolischen Sprache immer komplexere
Beschreibungen von phänomenal möglichen Sachverhalten, denen aber nicht notwendigerweise etwas in der (empirischen, objektiven, intersubjektiven) Außenwelt entsprechen musste. Das menschliche Gehirn kann in der Innensicht mühelos abstrakt-virtuelle Strukturen erzeugen, denen direkt nichts in der Außenwelt entsprechen
muss. Dies kann zu Verwirrungen führen, zu Fehlern, Katastrophen (man denke z.B. an die vorwissenschaftliche Medizin oder Physik oder …).
3) An diesem – in gewisser Weise ’natürlichem’ – Kulminationspunkt von denkerisch-sprachlicher Blütezeit und Diskrepanz zwischen gedachten Bedeutungen und empirisch, realer Bedeutung entdeckten immer mehr Menschen, dass eine Unterscheidung der menschlichen Rede in jene Redewendungen, die sich auf reale Aspekte
der Welt beziehen, und jene, die ’anders’ sind, von hohem praktischen Nutzen wäre. Die Idee einer empirischen (wissenschaftlichen) Sprache wurde geboren: empirisch wissenschaftlich sollten fortan nur noch jene Redewendungen gelten, die sich auf Gegebenheiten der realen Außenwelt beziehen lassen. Und damit dies
intersubjektiv, objektiv zweifelsfrei sei, wurde zusätzlich postuliert, dass sich diese Gegebenheiten nach einem vereinbarten Vergleichsverfahren mit einem vereinbarten Standard wissenschaftlich messen lassen. Nur solche Aussagen sollten künftig als wissenschaftlich relevante Fakten/ Daten akzeptiert werden.
4) Damit gab es nun zwar wissenschaftliche Fakten, aber es war nicht verbindlich geklärt, in welcher Form man diese Fakten dann zu komplexeren Aussagen über Beziehungen, Beziehungsnetzwerken (Modelle, Theorien) nutzen könnte. Faktisch benutzen die meisten mathematische Formeln zur abstrakten Beschreibung von empirischen Sachverhalten, die dann durch die empirischen Fakten fundiert wurden. Was genau aber
eine wissenschaftliche empirische Theorie ist, dies wurde bis in die Gegenwart nicht restlos geklärt (trotz Wissenschaftstheorie oder Philosophy of Science. Noch heute kann man in jeder sogenannten wissenschaftlichen Zeitschrift Artikel finden, in denen die Autoren sichtlich keine Vorstellung haben, was letztlich eine wissenschaftlich
empirische Theorie ist!)
5) Ein negativer (wenngleich unnötiger) Nebeneffekt der Entstehung wissenschaftlich empirischer Redeformen war die (zunächst sinnvolle) Abgrenzung gegenüber den nicht-wissenschaftlichen Redeformen, die dann aber im weiteren Verlauf zu einer Aufspaltung des Denkens in wissenschaftlich und nicht wissenschaftlich führte mit dem besonderen Akzent, dass das nicht-wissenschaftliche Reden (von den empirischen Wissenschaftlern)
grundsätzlich negativ belegt wurde. Aufgrund der historischen Lebensformen, Machtausübungen, Unterdrückungen kann man diese stark abgrenzende Haltung der Wissenschaft gegenüber den nicht wissenschaftlichen Redeformen aus der Vergangenheit verstehen. Heute dagegen wirkt diese Abgrenzung mehr und mehr kontra-produktiv.
6) Man sollte sich immer wieder bewusst machen, dass die Erfindung der empirischen Redeformen durch Verknüpfung des Redens mit definierten Vergleichsverfahren im intersubjektiven Bereich die grundsätzliche Ausgangssituation des Erkennens nicht verändert hat. Auch ein empirischer Wissenschaftler lebt primär mit dem Ereignisstrom in der Innensicht des Gehirns. Da kommt er trotz Einführung der Verknüpfung mit Messverfahren auch nicht heraus. Man kann sich dies so veranschaulichen: Ausgangspunkt für jeden Menschen ist die Menge seiner phänomenalen Ereignisse (Ph) in der Innensicht. Diese differenziert sich in aktuelle sinnliche (externe wie interne) Wahrnehmung vermischt mit den aktuell verfügbaren Gedächtnisinhalten, die diese Wahrnehmungen automatisch interpretieren. Diejenigen Phänomene, die mit intersubjektiven Messverfahren korrespondieren, bleiben trotzdem Ereignisse in der Innensicht des Gehirns; nennen wir sie Ph_emp . Als Phänomene bilden sie
dann eine Teilmenge von allen Phänomenen (Ph), also Ph_emp ⊆ Ph. Der empirische Wissenschaftler steigt also nicht grundsätzlich aus dem Club der Phänomenologen aus, sondern er folgt einer methodisch motivierten Beschränkung, wann und wie er wissenschaftlich über die empirische Welt spricht.
7) Auch in dieser Betrachtungsweise wird nochmals klar, dass eine wissenschaftliche Definition eines Begriffs ’Bewusstsein’ niemals möglich sein wird, da es grundsätzlich keine intersubjektiven Messverfahren geben kann.
8) Allerdings sollte durch diese Überlegungen auch klar werden, dass eine grundsätzliche Ausklammerung einer Beschäftigung mit der Innensicht des Gehirns und des möglichen Wechselspiels zwischen phänomenalen und empirisch-phänomenalen Ereignissen von allerhöchstem Interesse sein sollte. Denn das Gesamtphänomen Innensicht
des Gehirns ist eines der erstaunlichsten Phänomene im gesamten bekannten Universum und es wäre eine Bankrotterklärung jeglichen menschlichen Erkenntnisstrebens, würde man sich dem Phänomen verschließen, nur weil die bisher vereinbarten wissenschaftlichen Redeformen dieses Phänomen ausschließen. Wissenschaft muss nicht notwendigerweise bei den empirischen Sachverhalten enden.

 KONTEXTE

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

ERKENNTNISSCHICHTEN – PHILOSOPHISCHE LEVEL. Erste Notizen

VORBEMERKUNG

Vor fast genau drei Jahren hatte ich schon einmal einen Blogeintrag geschrieben, in dem das Wort ‚Level‘ im Kontext eines Computerspiels erwähnt wurde (siehe: SCHAFFEN WIR DEN NÄCHSTEN LEVEL? Oder ÜBERWINDEN WIR DEN STATUS DER MONADEN?
). Dort jedoch wurde die Idee des Computerspiels und der Level in einem ganz anderen Zusammenhang diskutiert. Im folgenden Text geht es tatsächlich um den Versuch, konkret verschiedene Ebenen des Denkens (Level) zu unterscheiden. Als ‚Ordnungsprinzip‘ in all dem wird einmal die zeitliche Abfolge benutzt, in der diese Level auftreten können, und eine ‚implizite Architektur‘ unseres Denkens, die sich nur ‚indirekt‘ beschreiben lässt.

DER BEGRIFF ‚LEVEL‘

1. Wer heutzutage Computerspiele spielt, der kennt das: man bewegt sich immer auf einem bestimmten ‚LEVEL‘, d.h. auf einer bestimmten Spielebene. Jede Spielebene hat eigene Regeln, eine eigene spezifische Schwierigkeit. Erst wenn man genügend Aufgaben gelöst hat, wenn man hinreichend viel Punkte erworben hat, dann darf man auf den nächsten Level. Diese Idee der Spielebene, des Level, kann man auch auf den Alltag übertragen.

FUNKTIONIEREN IM ALLTAG

2. Im Alltag stehen wir in beständiger Interaktion mit unserer alltäglichen Umgebung (Level 1). Wir nehmen wahr, wir identifizieren Objekte mit Eigenschaften, Beziehungen zwischen diesen im Raum, zeitliche Abfolgen, und wir selbst verhalten uns nach bestimmten Regeln, die uns der Alltag aufdrängt oder aufgedrängt hat: wir lernen, dass Dinge fallen können; dass es Tag und Nacht gibt; dass Menschen unterschiedlich reagieren können; dass Menschen Rollen haben können, unterschiedliche Verpflichtungen; dass es Regeln gibt, Vorschriften, Gesetze, Erwartungen anderer, Gewohnheiten, Sitten, Gebräuche. Wir lernen mit der Zeit, dass Unterschiede gemacht werden bezüglich Herkunft, Sprache, wirtschaftlicher Stellung, Glaubens- oder Weltanschauungsansicht, usw.

3. Wenn alles ‚gut‘ läuft, dann FUNKTIONIEREN wir; wir tun, was erwartet wird, wir tun, was die Spielregeln sagen; wir tun, was wir gewohnt sind; wir bekommen unsere Leistungspunkte, unsere Anerkennungen …. oder auch nicht.

4. Wenn man uns fragt, wer wir sind, dann zählen wir für gewöhnlich auf, was wir so tun, welche Rollen wir spielen, welche Berufsbezeichnungen wir tragen.

DURCH NACHDENKEN ZUM PHILOSOPHIEREN

5. Sobald man nicht mehr nur FUNKTIONIERT, sondern anfängt, über sein Funktionieren NACHZUDENKEN, in dem Moment beginnt man, zu PHILOSOPHIEREN. Man beginnt dann mit einer BEWUSSTWERDUNG: man tut etwas und zugleich wird einem bewusst, DASS man es tut. Damit beginnt Level 2.

6. Beginn man mit einer solchen bewussten Wahrnehmung des DASS, des Unterscheidbaren, des sich Ereignenden, dann wird man nicht umhin kommen, zu unterscheiden zwischen jenen Phänomenen, Ereignissen, Objekten, die ‚zwischen‘ verschiedenen Menschen – also ‚intersubjektiv‘, ‚empirisch‘, ‚objektiv‘ – verfügbar sind und jenen, die ‚rein subjektive‘ Tatbestände darstellen. Über den ‚Apfel dort auf dem Tisch‘ kann man sich mit anderen verständigen, über die eigenen Zahnschmerzen, die eigenen Gefühle, die eigenen Erinnerungen usw. nicht so ohne weiteres. Jeder kann bis zu einem gewissen Grad ‚IN SEIN BEWUSSTSEINS HINEINSCHAUEN‘ – ’subjektiv‘, ‚introspektiv‘,’phänomenologisch‘– und solche Phänomene wahrnehmen, die NICHT INTERSUBJEKTIV sind, sondern REIN SUBJEKTIV. Diese OJEKTE DER INNENWELT sind für das eigene Erleben genauso real wie die Objekte der Außenwelt, aber sie sind nicht zugleich auch von anderen Menschen wahrnehmbar. Diese bewusste Unterscheidung zwischen AUSSEN und INNEN innerhalb des Level 2 soll hier als Level 3 bezeichnet werden. Die Menge der Inhalte, die innerhalb von Level 2 und 3 bewusst wahrgenommen werden, sollen hier einfach PHÄNOMENE genannt werden mit der anfangshaften Unterscheidung von intersubjektiven Phänomenen auch als EMPIRISCHE PHÄNOMENE und rein subjektive Phänomene als NICHTEMPIRISCHE PHÄNOMENE

WELT NEU ERZÄHLEN

7. Mit dem Bewusstwerden von Level 2 und Level 3 kann eine neue Form von BESCHREIBUNG beginnen, die hier LEVEL 4 heißen soll. Dieser Level 4 stellt eine Art META-LEVEL dar; man spricht auf einem Meta-Level über einen anderen Level. Dies ist vergleichbar einem Linguisten, der die Eigenschaften einer Sprache (z.B. des Deutschen) in seiner Fachsprache beschreiben muss. So könnte es sein, dass ein Satz wie ‚Das Haus hat einen Eingang‘ auf der linguistischen Metaebene eine Beschreibung bekäme wie ‚(‚Das‘: Bestimmter Artikel)(‚Haus‘: Substantiv)(‚hat‘: Verb)(‚einen‘: unbestimmter Artikel)(‚Eingang‘: Substantiv)‘; diese Beschreibung könnte viele weitere Elemente enthalten.

8. Eine Meta-Beschreibung kann innerlich weiter strukturiert sein. Auf Level 4.0 BENENNT man nur, was man im DASS unterscheiden kann: Objekte, Eigenschaften, Beziehungen. Auf Level 4.1 kann man ABFOLGEN von benannten Phänomenen identifizieren, speziell solche, die REGELHAFT erscheinen. Aus der Gesamtheit von Benennungen und Abfolgen kann man auf Level 4.2 ein MODELL konstruieren, mittels dem eine Teilmenge von Phänomenen und deren Abfolgen FUNKTIONAL ERKLÄRT werden soll. Mit einer zusätzlichen LOGIK auf Level 4.3 kann man dann mit einem Modell FOLGERUNGEN konstruieren, die wie VORHERSAGEN benutzt werden können, die sich ÜBRPRÜFEN lassen.

9. Beschränkt man sich auf dem Level 4 auf die empirischen Phänomene, dann bilden die Level 4.0 – 4.3 das, was wir die EMPIRISCHEN WISSENSCHAFTEN nennen. Man benennt = beschreibt die Dinge dann in einer eigenen Fachsprache (Chemie, Psychologie, Physik, Linguistik, …); man definiert Messverfahren, wie man Eigenschaften reproduzierbar messen kann; und man benutzt die Mathematik und die formale Logik, um Modelle (THEORIEN) zu konstruieren.

10. Beschränkt man sich auf dem Level 4 hingegen auf die nicht-empirischen Phänomene, dann bilden die Level 4.0 – 4.3 das, was wir die SUBJEKTIVE WISSENSCHAFT nennen könnten. Auch hier würde man die Dinge mit einer eigenen Fachsprache benennen = beschreiben; man definiert Verfahren, wie man möglicherweise Eigenschaften reproduzierbar erzeugen kann; und man benutzt die Mathematik und die formale Logik, um Modelle (THEORIEN) zu konstruieren. Eine Verständigung über Theorien der subjektiven Wissenschaft wären aufgrund der subjektiven Wahrnehmungsbasen ungleich schwieriger als im Falle von empirischen Theorien, aber niht völlig augeschlossen.

KREATIVITÄT

11. Hat man das ‚automatische‘ Verhalten überwunden (so wie es alle tun, so wie man es gelernt hat), und ist sich stattdessen bewusst geworden, dass man so und so handelt, und hat man angefangen das Automatische bewusst zu rekonstruieren, dann kann man jetzt auch bewusst Alternativen durch Variationen erzeugen [Anmerkung: natürlich kann man auch ohne Reflexion ’spontan‘ Dinge anders tun, als man sie vorher getan hat, aber dies ist dann ‚überwiegend zufällig‘, während ein Kreativität in einem reflektierten Kontext sowohl ‚gerichtet‘ ist aufgrund des verfügbaren Wissens, zugleich aber auch ‚zufällig‘, jedoch in einem viel größeren Umfang; nicht nur ‚punktuell‘]. Man kann jetzt sehr bewusst fragen, ‚warum‘ muss ich dies so tun? Warum will ich dies so? Was sind die Voraussetzungen? Was sind die Motive? Was sind die Ziele? Was will man erreichen? Usw.

12. Ein Ergebnis dieser Infragestellungen kann sein, dass man bestimmte Abläufe ändert, einfach, um mal heraus zu finden, was passiert, wenn man es anders macht. Häufige Fälle: jemand hat nie Gedichte geschrieben, weil niemand ihn vorher dazu angeregt hat, Gedichte zu schreiben; oder jemand hat nie Musik gemacht, weil sie sich immer eingeredet hat, sie sei unmusikalisch. Jemand hat nie vor anderen Menschen geredet, weil er immer Angst hatte, sich zu blamieren. Usw. Kurzum bei Erreichen von Level 4 beginnt man zu ahnen, dass alles anders sein könnte, als man es bislang gewohnt war und praktiziert hatte. Nennen wir diese neu gewonnene kreative Freiheit den LEVEL 5.

Fortsetzung folgt

Über Industrie 4.0 und Transhumanismus. Roboter als Volksverdummung? Schaffen wir uns selbst ab?

Vortrag am 19.Mai 2015 im Literaturhaus Frankfurt in der Veranstaltung PR-Slam & Ham 2015

In meiner Präsentation hatte ich eine Reihe von Schaubildern gezeigt, die ich dann mündlich kommentiert habe. Einen geschriebenen Text gab es nicht. Ich habe aber die Erläuterung nochmals ’nachgesprochen‘. Aus den 20 Min sind dann ca. 70 Min geworden. Die Bilder unten bilden das Rückgrat der Geschichte; sie sind nummeriert. Im gesprochenen Text nehme ich auf diese Bilder Bezug.

Das Ganze endet in einem glühenden Plädoyer für die Zukunft des Lebens in Symbiose mit einer angemessenen Technik. Wir sind nicht das ‚Endprodukt‘ der Evolution, sondern nur eine Durchgangsstation hin zu etwas ganz anderem!

 

AUDIODATEI DES KOMMENTARS (70 Minuten! mp3)

Gehirn im Körper mit Bild 1: Bewusstsein - Beobachter

Bild 1: Gehirn im Körper mit Bewusstsein – Beobachter

Bild 2: Gehirn im Körper mit Raum der Phänomene. Empirische und nicht-empirische Phänomene

Bild 2: Gehirn im Körper mit Raum der Phänomene. Empirische und nicht-empirische Phänomene

Bild 3: Korrelation zwischen Gehirn, Bewusstsein und Gedächtnis. Gedächtnis mit Sensorik, Arbeitsgedächtnis und Langzeitgedächtnis

Bild 3: Korrelation zwischen Gehirn, Bewusstsein und Gedächtnis. Gedächtnis mit Sensorik, Arbeitsgedächtnis und Langzeitgedächtnis

Bild 4: Mensch im Alltag, umringt von technischen Schnittstellen die mit digitalisierten weltausschnitten verbinden können: viel. schnell, komplex

Bild 4: Mensch im Alltag, umringt von technischen Schnittstellen die mit digitalisierten weltausschnitten verbinden können: viel. schnell, komplex

Bild 5: Menge von Komplexitätsereignissen bisher; Explosion in der Gegenwart

Bild 5: Menge von Komplexitätsereignissen bisher; Explosion in der Gegenwart

Bild 6: Konkrete Zahlen zum vorhergehenden Schaubild mit den Komplexitätsereignissen

Bild 6: Konkrete Zahlen zum vorhergehenden Schaubild mit den Komplexitätsereignissen

Bild 7: Biologischer Reproduktion als Quelle der Kreativität für neue Strukturen

Bild 7: Biologischer Reproduktion als Quelle der Kreativität für neue Strukturen

Bild 8: Struktur der biologischen Reproduktion in 1-zu-1 Isomorphie zur Struktur eines Automaten (Turingmaschine)

Bild 8: Struktur der biologischen Reproduktion in 1-zu-1 Isomorphie zur Struktur eines Automaten (Turingmaschine)

Die Vision, die in dem Audiobeitrag gegen Ende entwickelt wird, soll in dem Emerging-Mind Projekt konkret umgesetzt werden, als Impuls, als Anstoß, als Provokation, als Community, die sich mit dem Thema philosophisch, wissenschaftlich, künstlerisch und theologisch auseinandersetzt.

Eine Übersicht über alle Einträge von cagent in diesem Blog nach Titeln findet sich HIER.

Wieweit können wir den ‘biologischen Geist’ durch einen ‘künstlichen Geist’ nachbilden? – Nachreflexion zur Philosophiewerkstatt vom 12.April 2015

Gedankenskizze von der Philosophiewerkstatt am 12-April 2015 in der DENKBAR

Gedankenskizze von der Philosophiewerkstatt am 12-April 2015 in der DENKBAR

1. Trotz wunderbarem Wetter draußen fand sich wieder eine interessante Gruppe von Philosophierenden am 12.April 2015 zur Philosophiewerkstatt in der DENKBAR zusammen.

2. Mittlerweile bildet sich ein ’spezifischer Stil‘ in der Philosophiewerkstatt heraus: Immer weniger vorgefertigter Input durch einen Eingangsvortrag, sondern stattdessen von Anfang an ein ‚gemeinsames Denken‘ entlang einer Fragestellung. Das ‚Gemeinsame‘ wird in einem aktuellen ‚Gedankenbild‘ festgehalten, ‚visualisiert‘, so dass die Vielfalt der Gedanken für alle sichtbar wird. Nichts geht verloren. Dies eröffnet dann jedem die Möglichkeit, anhand der sichtbaren Unterschiede, Lücken und Gemeinsamkeiten ‚fehlende Stücke‘ zu suchen, zu ergänzen, oder vorhandene Begriffe weiter zu erläutern.

3. Als ‚Rhythmus‘ des gemeinsamen Denkens erweist sich ein gemeinsamer Einstieg, dann ‚Blubberpause‘, dann Schlussrunde als sehr produktiv.

GEIST – BIOLOGISCH UND KÜNSTLICH

4. Ausgangspunkt waren die Begriffe ‚Geist‘, ‚Biologisch‘ sowie ‚Künstlich‘.

5. Auf einer Zeitachse betrachtet kann man grob sagen, dass der Begriff ‚Geist‘ in der antiken griechischen Philosophie eine zentrale Rolle gespielt hat, sich bis mindestens ins 19.Jahrhundert durchgehalten hat, dann aber – zumindest im Bereich der Naturwissenschaft – nahezu jegliche Verwendung verloren hat. In den heutigen Naturwissenschaften herrscht der Eindruck vor, man bräuchte den Begriff ‚Geist‘ nicht mehr. Zugleich fehlen damit auch alle ‚Unterstützungsmerkmale‘ für jenes Wertesystem, das einer demokratischen Staatsform wie der deutschen Demokratie zugrunde liegt. ‚Menschenwürde‘ in Art.1 des Grundgesetzes hat im Lichte der aktuellen Naturwissenschaften keine Bedeutung mehr.

6. Gleichfalls auf der Zeitachse beobachten wir, dass das Paradigma der ‚Maschine‘ mit dem Aufkommen des theoretischen Begriffs des Automaten (erste Hälfte des 20.Jahrhunderts) und der Bereitstellung von geeigneter Technologie (Computer) einen neuen Begriff von ‚Künstlichkeit‘ ermöglicht: der Computer als programmierbare Maschine erlaubt die Nachbildung von immer mehr Verhaltensweisen, die wir sonst nur von biologischen Systemen kennen. Je mehr dies geschieht, umso mehr stellt sich die Frage, wieweit diese neue ‚Künstlichkeit‘ letztlich alle ‚Eigenschaften‘ des Biologischen, insbesondere auch ‚intelligentes Verhalten‘ bzw. den ‚Geist im Biologischen‘ nachbilden kann?

GEIST – SUBJEKTIV UND OBJEKTIV NEURONAL

7. Im Bereich des Biologischen können wir seit dem 20.Jahrhundert auch zunehmend differenzieren zwischen der subjektiven Dimension des Geistes im Bereich unseres Erlebens, des Bewusstseins, und den körperlichen, speziell neuronalen Prozessen im Gehirn, die mit den subjektiven Prozessen korrelieren. Zwar ist die ‚Messgenauigkeit‘ sowohl des Subjektiven wie auch des Neuronalen noch nicht besonders gut, aber man kann schon erstaunlich viele Korrelationen identifizieren, die sehr vielen, auch grundsätzlichen subjektiv-geistigen Phänomenen auf diese Weise neuronale Strukturen und Prozesse zuordnen, die zur ‚Erklärung‘ benutzt werden können. Sofern man dies tun kann und es dann auch tut, werden die subjektiv-geistigen Phänomene in die Sprache neuronaler Prozesse übersetzt; damit wirken diese subjektiven Begriffe leicht ‚obsolet‘, ‚überflüssig‘. Zugleich tritt damit möglicherweise eine Nivellierung ein, eine ‚Reduktion‘ von spezifischen ‚Makrophänomenen‘ auf unspezifische neuronale Mechanismen, wie sie sich in allen Lebewesen finden. Erklärung im Stil von Reduktion kann gefährlich sein, wenn man damit interessante Phänomene ‚unsichtbar‘ macht, die eigentlich auf komplexere Mechanismen hindeuten, als die ‚einfachen‘ Bestandteile eines Systems.

MATERIE – INFORMATION1 und INFORMATION2

8. Im Bereich der materiellen Struktur unseres Universums hat es sich eingebürgert, dass man die physikalische Entropie mit einem Ordnungsbegriff korreliert und darüber auch mit dem statistischen Informationsbegriff von Shannon. Ich nenne diesen Informationsbegriff hier Information1.

9. Davon zu unterscheiden ist ein anderer Informationsbegriff – den ich hier Information2 nenne –, der über die Statistik hinausgeht und eine Abbildung impliziert, nämlich die Abbildung von einer Struktur auf eine andere. Im Sinne der Semiotik (:= allgemeine Lehre von den Zeichen) kann man dies als eine ‚Bedeutungsbeziehung‘ deuten, für die es auch den Begriff ’semantische Beziehung‘ gibt. Für die Realisierung einer Bedeutungsbeziehung im Sinne von Information2 benötigt man im physikalischen Raum minimal drei Elemente: eine Ausgangsgröße, eine Zielgröße und eine ‚vermittelnde Instanz‘.

10. Im Falle der Selbstreproduktion der biologischen Zellen kann man genau solch eine Struktur identifizieren: (i) die Ausgangsgröße sind solche Moleküle, deren physikalische Eigenschaften ‚für den Vermittler‘ als ‚Informationen2‘ gedeutet werden können; (ii) die Zielgröße sind jene Verbindungen von Molekülen, die generiert werden sollen; (iii) die vermittelnde Instanz sind jene Moleküle, die die Moleküle mit Information2 ‚lesen‘ und dann die ‚Generierungsprozesse‘ für die Zielgrößen anstoßen. Dies ist ein komplexes Verhalten, das sich aus den beteiligten Elementen nicht direkt ableiten lässt. Nur auf den Prozess als solchen zu verweisen, ‚erklärt‘ in diesem Fall eigentlich nichts.

11. Interessant wird dies nun, wenn man bedenkt, dass das mathematische Konzept, das den heutigen Computern zugrunde liegt, der Begriff des programmierten Automaten, ebenfalls solch eine Struktur besitzt, die es ermöglicht, Information2 zu realisieren.

12. Dies bedeutet, dass sowohl der ‚Kern‘ des Biologischen wie auch der ‚Kern‘ des neuen Künstlichen beide die Grundstruktur von Information2 repräsentieren.

13. Sofern nun das ‚Lebendige‘, das ‚Geistige‘ reduzierbar sind auf eine Information2-fähige Struktur, müsste man nun folgern, dass die Computertechnologie das gleiche Potential besitzt wie das Biologische.

OFFENE FRAGEN

14. Offen bleibt – und blieb bei dem Werkstattgespräch –, ob diese Reduktion tatsächlich möglich ist.

15. Die Frage, ob eine reduktionistische Erklärungsstrategie ausreichend und angemessen ist, um die komplexen Phänomene des Lebens zu deuten, wird schon seit vielen Jahren diskutiert.

16. Eine reduktionistische Erklärungsstrategie wäre ‚unangemessen‘, wenn man sagen könnte/ müsste, dass die Angabe einer Verhaltensfunktion f: I –-> O auf der Basis der beobachteten Reaktionen (Input I, Output O) eines Systems ‚Eigenschaften des Systems‘ sichtbar macht, die sich durch die bekannten Systembestandteile als solche nicht erklären lassen. Dies gilt verstärkt, wenn die Bestandteile eines Systems (z.B.die physikalischen Gatter im Computer oder die Neuronen im Gehirn) von sich aus keinerlei oder ein rein zufälliges Verhalten zeigen, es sei denn, man würde – im Falle des Computers – ‚in‘ die Menge der Gatter eine ‚Funktion‘ ‚hineinlegen‘, die dazu führt, dass sich die Gatter in dieser bestimmten Weise ‚verhalten‘. Würde man nun dieses spezifische Verhalten dadurch ‚erklären‘ wollen, dass man einfach die vorhandenen Gatter verweist, würde man gerade nicht erklären, was zu erklären wäre. Überträgt man diesen Befund auf biologische oder generell physikalische Systeme, dann müsste man mindestens mal die Frage stellen, ob man mit den reduktionistischen Strategien nicht genau das vernichtet, was man erklären sollte.

17. Eine Reihe von Physikern (Schrödinger, Davis) haben das Auftreten von Information2 im Kontexte des Biologischen jedenfalls als eigenständiges Phänomen gewürdigt, das man nicht einfach mit den bekannten physikalischen Erklärungsmodellen ‚erklären‘ kann.

AUSBLICK PHILOSOPHIEWERKSTATT MAI UND JUNI

18. Die nächste Philosophiewerkstatt am 10.Mai 2015 will sich der Frage widmen, wie ein einzelner innerhalb einer multikausalen Welt überhaupt noch sinnvoll entscheiden kann. Speziell auch die Frage, welche Wirkung man überhaupt noch erzielen kann? Ist nicht irgendwie alles egal?

19. Die Philosophiewerkstatt am 14.Juni ist die letzte Werkstatt vor der Sommerpause. Es wird im Anschluss an die Sitzung ein offener Abend mit voller Restauration angeboten werden und mit der Möglichkeit, über das weitere Vorgehen zu diskutieren (welche Formate, zusätzliche Ereignisse,…).

Einen Überblick über alle Beiträge zur Philosophiewerkstatt nach Themen findet sich HIER

M.DONALD: EVOLUTION DES MENSCHLICHEN BEWUSSTSEINS – Kurzbesprechung, Teil 2

Diesem Beitrag ging voraus Teil 1.

1) Das siebte Kapitel ist überschrieben ‚The First Hybrid Minds on Earth‘ (etwa: ‚Die ersten hybriden Geister auf der Erde‘). (S.252)
2) [Anmerkung: Das Problem ist, dass es für den Plural des englischen Begriffs ‚minds‘ in diesem Kontext keine direkte Übersetzung gibt. Die Übersetzung ‚Geister‘ ist eher irreführend, da mit ‚Geister‘ im Deutschen etwas anderes assoziiert wird als mit dem Plural von ‚minds‘. Das liegt daran, dass der deutsche Singular ‚Geist‘ einmal die ‚geistige Kapazität‘ im allgemeinen meinen kann, aber auch ein ontologisch schillerndes Wesen, das als ‚Geist‘ zwar ‚irgendwie‘ da ist, aber nicht so, wie ein reales Wesen. Von der ‚geistigen Kapazität‘ im Singular gibt es im Deutschen aber keinen wirklichen Plural, also die ‚geistige Kapazität‘ in vielfachen Ausprägungen, viele ‚reale‘ Wesen mit einem ‚realen‘ Geist. Die Übersetzung von ‚mind‘ als ‚Verstand‘ oder ‚Vernunft‘ ist nicht ganz falsch, aber auch nicht ganz richtig. Aber auch von ‚Verstand‘ und ‚Vernunft‘ gibt es im Deutschen keinen Plural! Das ist eigentlich interessant. Warum kann man im Deutschen von ‚Geist‘, ‚Verstand‘ und ‚Vernunft‘ nicht im Plural sprechen bzw. denken? Faktisch sind diese Eigenschaften an individuelle Körper gebunden, von denen es viele gibt. Warum kann man im Deutschen dann nicht von ‚den Geistern‘, den ‚Verständen‘, ‚den Vernünften‘ sprechen? Ich denke, hier zeigt sich in der Sprache etwas, das man nicht so einfach hinnehmen sollte.]
3) Das Kapitel startet mit der These, dass die Entwicklung ’symbolischer Fähigkeiten‘ (’symbolic skills‘) nicht durch Beschränkung auf ein isoliertes Gehirn alleine erklärt werden können, da es sich um Phänomene handelt, die ‚inhärent vernetzte Phänomene‘ (‚inherent network phenomena‘) sind.(vgl. S.252)
4) [Anmerkung: Wenn ich einen Körper als Ansammlung von vielen Zellen (ca. 14 Billionen, 14 * 10^12) verstehe, die in ihrer Ausformung von einem genetischen Bauplan und seiner ‚Umsetzung‘ in Form von ‚Wachstum‘ abhängig sind, dann kann ich die genetische und die ontogenetische Maschinerie natürlich bis zu einem gewissen Grad beschreiben, ohne explizit Bezug auf externe Faktoren zu nehmen. Eine solche Beschreibung ist auch nicht ‚falsch‘, da das, was ich beschreibe, ja empirisch aufweisbar ist. Dennoch kann diese empirische nicht falsche Beschreibung in ihrem Verzicht auf korrelierende Kontext-Faktoren möglicherweise entscheidende Faktoren ‚unterschlagen‘ (‚verdrängen‘,…). Dies wäre dann der Fall, wenn sich die ‚körperinternen‘ Faktoren in ihren Veränderungen nur ‚verstehen lassen würden‘, wenn man die korrelierenden Faktoren einbeziehen würde. Verstehen ist aber relativ, kriterienabhängig: welche Eigenschaften erscheinen einem ‚wichtig‘, so dass man sie in eine Erklärung einbeziehen möchte? ]
5) [Anmerkung: In einer empirischen Erklärung gelten nur Phänomene, die notwendig sind, um das Auftreten eines bestimmten Phänomens auch in Form einer Voraussage ‚erklären‘ zu können, etwa: Wenn X gegeben ist, dann wird Y mit einer Wahrscheinlichkeit von p auftreten. Wenn ich mehrere biologische Arten A1, …, Ak habe, die eine Eigenschaft P0 gemeinsam haben, sich aber jeweils in mindestens einer Eigenschaft P1, …, Pk voneinander unterscheiden, dann würde eine Beschränkung auf P0 zwar nicht falsch sein, aber eben nicht alles erklären. Um die Art Ai in ihrer Besonderheit erklären zu können, müsste ich die Eigenschaften P0 + Pi erklären, nicht nur P0 alleine.]
6) [Anmerkung: Wie im Falle biologischer Systeme bekannt, entwickeln sich besondere Arten Ai mit einer Spezialeigenschaft Pi in der Regel immer in Abhängigkeit von einer besonderen Umgebungseigenschaften Ei. Dies bedeutet, man kann das Auftreten der Eigenschaft Pi bei der Art Ai nicht ‚verstehen‘, wenn man die korrelierende Eigenschaft Ei nicht berücksichtigt. Aus diesem Grund betrachtet die moderne Biologie biologische Systeme Ai niemals isoliert, sondern immer nur im Kontext von jeweiligen umgebenden Lebensräumen Ei und die ‚Wechselwirkungen‘ zwischen Umgebung und der Population der Art Ai. Diese Wechselwirkungen setzen sich zusammen aus individuellen Eigenschaften des jeweiligen individuellen biologischen Systems (z.B. spezifische Wahrnehmungsfähigkeit, Verdauungsfähigkeit, Bewegungsform, usw.) und verbunden damit mit der Zahl der Nachkommen während der Lebenszeit. Die individuellen Fähigkeiten erweisen ihre Bedeutung in der Fähigkeit, dass die Population als Ganze in jeder Generation über hinreichend viele und fähige Nachkommen verfügt. Diese Sicht der Dinge war in der Biologie nicht immer schon da; sie musste Schritt für Schritt erarbeitet werden.]
7) [Anmerkung: Die These von Donald , dass man den Kontext einbeziehen muss, ist von daher einerseits nichts grundlegend Neues. Andererseits legt er den Finger auf Kontexteigenschaften, die als solche qualitativ verschieden sind von den vorausgehenden. ‚Symbole‘ sind vieldeutige Werkzeuge, die der Mensch so in der Natur nicht vorgefunden, sondern die er selber geschaffen hat. In dem Maße, wie er sie geschaffen hat, können sie zu einem Teil seiner Umgebung werden, die wie die ’natürliche‘ Umgebung auf ihn ‚einwirken‘ kann. Und hier kommt die nächste Besonderheit: Symbole als Umgebung wirken nicht nur physisch auf den Menschen ein wie die natürliche Natur, sondern sie beeinflussen die gedanklichen Prozesse des Menschen, sie bilden ‚Formen‘, ‚Muster‘, ‚Regeln‘, Strukturen‘, ‚Inhalte‘ usw. der gedanklichen Prozesse, mit Hilfe deren sich der Mensch in seiner Welt ‚orientiert‘. Die Orientierung besteht darin, dass der Mensch ‚im Medium seiner Gedanken‘ seine Wahrnehmungen von der Welt (und sich selbst) ‚interpretiert‘. Anders gesagt: mit den Symbolen als Werkzeug schafft der Mensch eine Umgebung, die auf ihn zurückwirken kann, und mit Hilfe von der er die Welt interpretiert; eine bizarre ‚Rückkopplung‘. Dies ist keine genetisch-ontogenetisch vermittelte Koevolution sondern eine symbolisch vermittelte Koevolution ‚mit sich selbst‘; das ist eine neue Qualität. Der Mensch schafft sich in symbolischen Räumen ein Medium, das als dieses Medium auf sein Denken zurückwirkt und darin permanent sein Medium verändert.]
8) [Anmerkung: Verglichen mit der genetischen basierten Evolution ist diese Art von symbolischer Koevolution um Dimensionen schneller. Durch die ‚Ungleichzeitigkeit‘ von genetischer und symbolischer Koevolution ist ein massiver Konflikt vorprogrammiert: wird die schnellere symbolische Evolution die langsamere genetische Evolution letztlich strukturell verändern können (durch ‚Gentechnik‘) oder wird die symbolische Evolution durch Schaffung eines ‚künstlichen Geistes‘ die genetische Evolution überflüssig machen? ]
9) Diese These bedeutet im Fall der Sprache, dass es – nach Donald — nicht die Fähigkeit zum Sprechen als solche war, die zum Phänomen der Sprache in ihrem vollem Umfang geführt hat, sondern in der Bildung von ‚gedanklichen Gemeinschaften‘ (‚cognitive communities‘). Dies bedeutet, das Zusammensein und das Zusammenwirken von mehreren Menschen als solchen muss gegeben gewesen sein, damit sich aus einem elementaren ‚Sprechen‘ ein ‚Sprache‘ entwickeln konnte. (vgl. SS.252-254)
10) [Anmerkung: So suggestiv diese Formulierungen von Donald klingen mögen, so erscheint mir doch Vorsicht geboten. Wie schon das einfache Beispiel mit den beiden Nervenzellen A und B andeutete, die ein UND oder OR-Gatter realisieren: der einzelnen Zelle kann man dies Eigenschaft nicht ansehen. Noch kann man sagen, dass A sich nur so entwickeln konnte, weil es B gab (oder umgekehrt); in dem Falle reicht es aus, dass sowohl A als auch B bestimmte Grundeigenschaften besitzen, die in Kombination unterschiedliche Funktionen ‚zeigen‘. Das gleiche gilt für Atome; auch wenn man nicht sagt, dass Wasserstoff ‚H‘ sich bilden musste, weil es Sauerstoff ‚O‘ gab (oder umgekehrt), gilt, dass eine Kombination von ‚H‘ und ‚O‘ zu ‚H2O‘ möglich ist und dann in dieser Kombination ’neue‘ Eigenschaften zeigt. M.a.W. das Vorkommen von einzelnen Gehirnen im Rahmen einer Population bedeutet, dass die Gehirne ‚ihre eigene Umgebung‘ sind. Das Besondere wäre nicht die Umgebung als solche, sondern die Tatsache, dass Gehirne spezielle Eigenschaften besitzen, die, wenn sie auf ein anderes Gehirn treffen, ’sichtbar‘ werden. Im Falle der Sprache als einem vernetzten Beziehungssystem von ‚Sprachmaterial‘ (‚token‘) ‚Z‘, möglichem ‚intentionalem Gegenstand‘ ‚O'(‚real‘ oder ‚gedacht‘), ‚gewusster Bedeutungsbeziehung‘ ‚B: Z <---> O‘ und einem ’semiotischen System‘ ‚S‘ als Träger und Realisator dieser Bedeutungsbeziehungen, sind Gehirne in einem Körper – soweit wir sie kennen – die idealen Mediatoren für Sprache: Gehirne können intentionale Gegenstände O ‚repräsentieren‘, sie können Zeichenmaterial Z ‚produzieren‘, sie können beliebige Bedeutungsbeziehungen B realisieren, und sie können diese Fähigkeiten als dynamische Systeme kontinuierlich einsetzen. Dies bedeutet, die Präsenz von mindestens zwei Gehirnen bietet alle Voraussetzungen dafür, dass sich Sprache bilden kann. ]
11) [Anmerkung: Vor diesem Hintergrund erscheint es bemerkenswert, dass die Wissenschaft sich bislang so schwer tut, Sprachbildungsprozesse mit dem Computer nach zu vollziehen. Seit den pionierhaften Talking-Heads Experimenten eines Luc Steels sind wir nicht viel weiter gekommen (siehe Quellen unten) (vergleicht man die Forschungsmittel, die generell ausgegeben werden mit jenen, die für Forschungen zur künstlichen Intelligenz ausgegeben werden, so ist der Betrag für künstliche Intelligenz so niedrig, dass man ihn kaum in Prozenten ausdrücken kann. Aber ich bezweifle, ob es nur am Geld liegt.]
12) Das erste, was Kinder in solchen gedanklichen Gemeinschaften lernen müssen, das ist ein Satz von ‚reziproken Verhaltensmustern‘, in denen man sich wechselseitig der Aufmerksamkeit versichern kann. Dies wiederum geht nur, sofern die Gedächtnisstrukturen hinreichend differenziert sind. Objekte, Relationen, Strukturen, Rollen, Abläufe usw. müssen erinnert werden können; Selbstmodelle und Fremdmodelle, die Metareflexionen voraussetzen. Dies alles impliziert komplexe Lernprozesse, die wiederum Zeit brauchen und entsprechende soziale Umgebungen, die dazu beitragen, dass bestimmte Muster ’sozial einprogrammiert‘ werden. (vgl.SS.254-257)
13) [Anmerkung: Aufgrund des nachweisbaren Zusammenhangs zwischen bestimmten Umgebungseigenschaften Ei und bestimmten Eigenschaften Pi einer bestimmten Art Ai ist die Versuchung groß, diesen Zusammenhang ‚kausal‘ zu interpretieren, also im Sinne ‚weil‘ es Ei gibt, daher bildete sich Pi heraus. Mir scheint, dies ist – wenn überhaupt – höchstens die ‚halbe Wahrheit‘. Bedenkt man die Funktionsweise der genetischen basierten Evolution, so ist die primäre Quelle von möglichen Strukturen das Wechselspiel von Selbstreproduktion des genetischen Codes und der molekularen Übersetzung des Codes in Proteinstrukturen als Ontogenese. Dies bedeutet, dass – egal welche Umgebungseigenschaften jeweils gegeben sind – primär der verfügbare genetische Code und dessen molekulare Übersetzung darüber entscheidet, was sich überhaupt an Strukturen bilden kann. So könnte es grundsätzlich auch so sein, dass die Menge der genetisch bedingten Strukturen grundsätzlich nicht zu den umgebungsmäßig gegebenen Eigenschaften Ei passen würde. In diesem Fall könnten die Umgebungseigenschaften niemals ‚bewirken‘, dass sich ‚geeignete‘ Strukturen bilden. Der Eindruck von möglichen kausalen Zusammenhängen ist ‚beobachterabhängig‘ und eher ein ‚Artefakt des Denkens‘. Dass es zu scheinbaren ‚Anpassungen‘ kommen kann ist zwar ein ‚Auswahlprozesse‘ (Selektion‘), aber nicht in dem Sinne, dass die gegebenen Umgebungseigenschaften Ei aller erst die speziellen genetischen Eigenschaften Gi schaffen, die zu den phänotypischen Eigenschaften Pi führen, sondern weil der genetische und ontogenetische Prozess ‚von sich aus‘ die Eigenschaften Gi bereitstellen kann bzw. sie bereitgestellt hatte können diese dann ’selektiert‘ werden, weil jene Phänotypen, die aus diesen Gi hervorgegangen sind, mehr Nachkommen haben, als jene Phänotypen, die aus einem anderen Genotyp Gj hervorgegangen sind. Die Dramaturgie von geologischem Erdprozess und genetisch basierter Evolution ist damit in keiner Weise aufgeklärt; hier gibt es mehr Fragen als Antworten.‘]
14) Donald ergänzt seine Bemerkungen zum Gedächtnis dahingehend, dass er für das menschliche Gedächtnis postuliert, dass es die beobachtbaren Verhaltensleistungen nur unterstützen kann, wenn es in viele funktional differenzierte Bereich aufgegliedert ist, die parallel arbeiten können. So müssten wir grundsätzlich unterscheiden können zwischen ‚Selbst‘ und ‚Anderer‘, ‚Gegenwart‘, ‚Vergangenheit‘ und ‚Zukunft‘. (vgl. SS.257-259)
15) [Anmerkung: Es ist interessant, wie vage und allgemein die Aussagen zum Gedächtnis sind, obgleich doch gerade das Gedächtnis so zentral sein soll für die symbolisch vermittelte Kultur (ein ähnliches Phänomen war bei Norman zu beobachten. Auch bei ihm waren die Aussagen zum Gedächtnis sehr vage, plakativ, nicht durch harte empirische Modellbildung abgesicherten. Andererseits, wenn man sieht, wie schwer sich selbst die neuesten neurowissenschaftlichen Forschungen zum Raumgedächtnis und episodischen Gedächtnis tun, dann darf man Donald hier nicht zu hart kritisieren. Aber zumindest sollte er dann darauf hinweisen, dass es ziemlich spekulativ ist, was er da sagt…]

LITERATURHINWEISE

Steels, L.; Cooperation between distributed agents through self-organisation, Intelligent Robots and Systems ’90. ‚Towards a New Frontier of Applications‘, Proceedings. IROS ’90. IEEE International Workshop on, pp. 8 – 14 supl, 1990
Steels, Luc (1990) „Components of Expertise“ , AI Magazine Volume 11 Number 2 (1990), pp. 28-49.
Steels, L.; Mathematical analysis of behavior systems, From Perception to Action Conference, 1994., Proceedings, pp. 88 – 95, 1994
Steels, L.; A self-organizing spatial vocabulary, Artificial Life Journal, 2(3), pp. 319-332, 1995
Steels, L.; Language Games for Autonomous Robots, IEEE Intelligent Systems , Volume 16 Issue 5, pp.16 – 22, 2001
Steels, Luc; (2001) Grounding Symbols through Evolutionary Language Games. In: Cangelosi A. and Parisi D. (Eds.) Simulating the Evolution of Language Springer.
Steels, L.; Evolving grounded communication for robots, Trends in Cognitive Science 7(7), July 2003, pp.308 – 312
Steels, L.; Semiotic Dynamics for Embodied Agents, Intelligent Systems, IEEE, Volume: 21 , Issue: 3, pp. 32 – 38, 2006
Steels, L.; The Symbol Grounding Problem has been solved. So What’s Next?, In Glenberg, A.; Graesser, A.; Vega, M. de; (Eds.), Symbols, Embodiment, and Meaning, Oxford University Press, pp. 506-557, 2008
Steels, L.; Work on Symbol Grounding now needs concrete Experimentation, Intern. J. of Signs and Semiotic Systems, 1(1), pp. 57-58, 2011
Steels, Luc (2011) „Design Patterns in Fluid Construction Grammar“ , Amsterdam: John Benjamins Pub.
Steels, Luc (2011) „Modeling the cultural evolution of language.“ Physics of Life Reviews, 8(4) pp. 339-356.

Fortsetzung folgt in Teil 3.

Einen Überblick über alle bisherige Blogeinträge nach Titeln findet sich HIER.

ERKENNTNISSCHICHTEN – Das volle Programm…

 

  1. Wir beginnen mit einem Erkenntnisbegriff, der im subjektiven Erleben ansetzt. Alles, was sich subjektiv als ‚Gegeben‘ ansehen kann, ist ein ‚primärer‘ ‚Erkenntnisinhalt‘ (oft auch ‚Phänomen‘ [PH] genannt).

  2. Gleichzeitig mit den primären Erkenntnisinhalten haben wir ein ‚Wissen‘ um ’sekundäre‘ Eigenschaften von Erkenntnisinhalten wie ‚wahrgenommen‘, ‚erinnert‘, ‚gleichzeitig‘, ‚vorher – nachher‘, ‚Instanz einer Klasse‘, ‚innen – außen‘, und mehr.

  3. Auf der Basis der primären und sekundären Erkenntnisse lassen sich schrittweise komplexe Strukturen aufbauen, die das subjektive Erkennen aus der ‚Innensicht‘ beschreiben (‚phänomenologisch‘, [TH_ph]), aber darin auch eine systematische Verortung von ‚empirischem Wissen‘ erlaubt.

  4. Mit der Bestimmung des ‚empirischen‘ Wissens lassen sich dann Strukturen der ‚intersubjektiven Körperwelt‘ beschreiben, die weit über das ’subjektive/ phänomenologische‘ Wissen hinausreichen [TH_emp], obgleich sie als ‚Erlebtes‘ nicht aus dem Bereich der Phänomene hinausführen.

  5. Unter Einbeziehung des empirischen Wissens lassen sich Hypothesen über Strukturen bilden, innerhalb deren das subjektive Wissen ‚eingebettet‘ erscheint.

  6. Der Ausgangspunkt bildet die Verortung des subjektiven Wissens im ‚Gehirn‘ [NN], das wiederum zu einem ‚Körper‘ [BD] gehört.

  7. Ein Körper stellt sich dar als ein hochkomplexes Gebilde aus einer Vielzahl von Organen oder organähnlichen Strukturen, die miteinander in vielfältigen Austauschbeziehungen (‚Kommunikation‘) stehen und wo jedes Organ spezifische Funktionen erfüllt, deren Zusammenwirken eine ‚Gesamtleistung‘ [f_bd] des Input-Output-Systems Körpers ergibt. Jedes Organ besteht aus einer Vielzahl von ‚Zellen‘ [CL], die nach bestimmten Zeitintervallen ‚absterben‘ und ‚erneuert‘ werden.

  8. Zellen, Organe und Körper entstehen nicht aus dem ‚Nichts‘ sondern beruhen auf ‚biologischen Bauplänen‘ (kodiert in speziellen ‚Molekülen‘) [GEN], die Informationen vorgeben, auf welche Weise Wachstumsprozesse (auch ‚Ontogenese‘ genannt) organisiert werden sollen, deren Ergebnis dann einzelne Zellen, Zellverbände, Organe und ganze Körper sind (auch ‚Phänotyp‘ genannt). Diese Wachstumsprozesse sind ’sensibel‘ für Umgebungsbedingungen (man kann dies auch ‚interaktiv‘ nennen). Insofern sind sie nicht vollständig ‚deterministisch‘. Das ‚Ergebnis‘ eines solchen Wachstumsprozesses kann bei gleicher Ausgangsinformation anders aussehen. Dazu gehört auch, dass die biologischen Baupläne selbst verändert werden können, sodass sich die Mitglieder einer Population [POP] im Laufe der Zeit schrittweise verändern können (man spricht hier auch von ‚Phylogenese‘).

  9. Nimmt man diese Hinweise auf Strukturen und deren ‚Schichtungen‘ auf, dann kann man u.a. zu dem Bild kommen, was ich zuvor schon mal unter dem Titel ‚Emergenz des Geistes?‘ beschrieben hatte. In dem damaligen Beitrag hatte ich speziell abgehoben auf mögliche funktionale Unterschiede der beobachtbaren Komplexitätsbildung.

  10. In der aktuellen Reflexion liegt das Augenmerk mehr auf dem Faktum der Komplexitätsebene allgemein. So spannen z.B. die Menge der bekannten ‚Atome‘ [ATOM] einen bestimmten Möglichkeitsraum für theoretisch denkbare ‚Kombinationen von Atomen‘ [MOL] auf. Die tatsächlich feststellbaren Moleküle [MOL‘] bilden gegenüber MOL nur eine Teilmenge MOL‘ MOL. Die Zusammenführung einzelner Atome {a_1, a_2, …, a_n} ATOM zu einem Atomverband in Form eines Moleküls [m in MOL‘] führt zu einem Zustand, in dem das einzelne Atom a_i mit seinen individuellen Eigenschaften nicht mehr erkennbar ist; die neue größere Einheit, das Molekül zeigt neue Eigenschaften, die dem ganzen Gebilde Molekül m_j zukommen, also {a_1, a_2, …, a_n} m_i (mit {a_1, a_2, …, a_n} als ‚Bestandteilen‘ des Moleküls m_i).

  11. Wie wir heute wissen, ist aber auch schon das Atom eine Größe, die in sich weiter zerlegt werden kann in ‚atomare Bestandteile‘ (‚Quanten‘, ‚Teilchen‘, ‚Partikel‘, …[QUANT]), denen individuelle Eigenschaften zugeordnet werden können, die auf der ‚Ebene‘ des Atoms verschwinden, also auch hier wenn {q_1, q_2, …, q_n} QUANT und {q_1, q_2, …, q_n} die Bestandteile eines Atoms a_i sind, dann gilt {q_1, q_2, …, q_n} a_i.

  12. Wie weit sich unterhalb der Quanten weitere Komplexitätsebenen befinden, ist momentan unklar. Sicher ist nur, dass alle diese unterscheidbaren Komplexitätsebenen im Bereich ‚materieller‘ Strukturen aufgrund von Einsteins Formel E=mc^2 letztlich ein Pendant haben als reine ‚Energie‘. Letztlich handelt es sich also bei all diesen Unterschieden um ‚Zustandsformen‘ von ‚Energie‘.

  13. Entsprechend kann man die Komplexitätsbetrachtungen ausgehend von den Atomen über Moleküle, Molekülverbände, Zellen usw. immer weiter ausdehnen.

  14. Generell haben wir eine ‚Grundmenge‘ [M], die minimale Eigenschaften [PROP] besitzt, die in einer gegebenen Umgebung [ENV] dazu führen können, dass sich eine Teilmenge [M‘] von M mit {m_1, m_2, …, m_n} M‘ zu einer neuen Einheit p={q_1, q_2, …, q_n} mit p M‘ bildet (hier wird oft die Bezeichnung ‚Emergenz‘ benutzt). Angenommen, die Anzahl der Menge M beträgt 3 Elemente |M|=3, dann könnte man daraus im einfachen Fall die Kombinationen {(1,2), (1,3), (2,3), (1,2,3)} bilden, wenn keine Doubletten zulässig wären. Mit Doubletten könnte man unendliche viele Kombinationen bilden {(1,1), (1,1,1), (1,1,….,1), (1,2), (1,1,2), (1,1,2,2,…),…}. Wie wir von empirischen Molekülen wissen, sind Doubletten sehr wohl erlaubt. Nennen wir M* die Menge aller Kombinationen aus M‘ (einschließlich von beliebigen Doubletten), dann wird rein mathematisch die Menge der möglichen Kombinationen M* gegenüber der Grundmenge M‘ vergrößert, wenngleich die Grundmenge M‘ als ‚endlich‘ angenommen werden muss und von daher die Menge M* eine ‚innere Begrenzung‘ erfährt (Falls M’={1,2}, dann könnte ich zwar M* theoretisch beliebig groß denken {(1,1), (1,1,1…), (1,2), (1,2,2), …}, doch ‚real‘ hätte ich nur M*={(1,2)}. Von daher sollte man vielleicht immer M*(M‘) schreiben, um die Erinnerung an diese implizite Beschränkung wach zu halten.

  15. Ein anderer Aspekt ist der Übergang [emer] von einer ’niedrigerem‘ Komplexitätsniveau CL_i-1 zu einem höheren Komplexitätsniveau CL_i, also emer: CL_i-1 —> CL_i. In den meisten Fällen sind die genauen ‚Gesetze‘, nach denen solch ein Übergang stattfindet, zu Beginn nicht bekannt. In diesem Fall kann man aber einfach ‚zählen‘ und nach ‚Wahrscheinlichkeiten‘ Ausschau halten. Allerdings gibt es zwischen einer ‚reinen‘ Wahrscheinlich (absolute Gleichverteilung) und einer ‚100%-Regel‘ (Immer dann wenn_X_dann geschieht_Y_) ein Kontinuum von Wahrscheinlichkeiten (‚Wahrscheinlichkeitsverteilungen‘ bzw. unterschiedlich ‚festen‘ Regeln, in denen man Z%-Regeln benutzt mit 0 < Z < 100 (bekannt sind z.B. sogenannte ‚Fuzzy-Regeln‘).

  16. Im Falle des Verhaltens von biologischen Systemen, insbesondere von Menschen, wissen wir, dass das System ‚endogene Pläne‘ entwickeln kann, wie es sich verhalten soll/ will. Betrachtet man allerdings ‚große Zahlen‘ solcher biologischer Systeme, dann fällt auf, dass diese sich entlang bestimmter Wahrscheinlichkeitsverteilungen trotzdem einheitlich verhalten. Im Falle von Sterbensraten [DEATH] einer Population mag man dies dadurch zu erklären suchen, dass das Sterben weitgehend durch die allgemeinen biologischen Parameter des Körpers abhängig ist und der persönliche ‚Wille‘ wenig Einfluß nimmt. Doch gibt es offensichtlich Umgebungsparameter [P_env_i], die Einfluss nehmen können (Klima, giftige Stoffe, Krankheitserreger,…) oder indirekt vermittelt über das individuelle ‚Verhalten‘ [SR_i], das das Sterben ‚begünstigt‘ oder ‚verzögert‘. Im Falle von Geburtenraten [BIRTH] kann man weitere Faktoren identifizieren, die die Geburtenraten zwischen verschiedenen Ländern deutlich differieren lässt, zu verschiedenen Zeiten, in verschiedenen sozialen Gruppen, usw. obgleich die Entscheidung für Geburten mehr als beim Sterben individuell vermittelt ist. Bei allem Verhalten kann man mehr oder weniger starke Einflüsse von Umgebungsparametern messen. Dies zeigt, dass die individuelle ‚Selbstbestimmung‘ des Verhaltens nicht unabhängig ist von Umgebungsparametern, die dazu führen, dass das tatsächliche Verhalten Millionen von Individuen sehr starke ‚Ähnlichkeiten‘ aufweist. Es sind diese ‚gleichförmigen Wechselwirkungen‘ die die Ausbildung von ‚Verteilungsmustern‘ ermöglichen. Die immer wieder anzutreffenden Stilisierungen von Wahrscheinlichkeitsverteilungen zu quasi ‚ontologischen Größen‘ erscheint vor diesem Hintergrund eher irreführend und verführt dazu, die Forschung dort einzustellen, wo sie eigentlich beginnen sollte.

  17. Wie schon die einfachen Beispiele zu Beginn gezeigt haben, eröffnet die nächst höhere Komplexitätstufe zunächst einmal den Möglichkeitsraum dramatisch, und zwar mit qualitativ neuen Zuständen. Betrachtet man diese ‚Komplexitätsschichtungen‘ nicht nur ‚eindimensional‘ (also z.B. in eine Richtung… CL_i-1, CL_i, CL_i+1 …) sondern ‚multidimensional‘ (d.h. eine Komplexitätsstufe CL_i kann eine Vielzahl von Elementen umfassen, die eine Komplexitätstufe j<i repräsentieren, und diese können wechselseitig interagieren (‚kommunizieren‘)), dann führt dies zu einer ‚Verdichtung‘ von Komplexität, die immer schwerer zu beschreiben ist. Eine einzige biologische Zelle funktioniert nach so einem multidimensionalen Komplexitätsmuster. Einzelne Organe können mehrere Milliarden solcher multidimensionaler Einheiten umfassen. Jeder Körper hat viele solcher Organe die miteinander wechselwirken. Die Koordinierung aller dieser Elemente zu einer prägnanten Gesamtleistung übersteigt unsere Vorstellungskraft bei weitem. Dennoch funktioniert dies in jeder Sekunde in jedem Körper Billionenfach, ohne dass das ‚Bewusstsein‘ eines biologischen Systems dies ‚mitbekommt‘.

  18. Was haben all diese Komplexitätstufen mit ‚Erkenntnis‘ zu tun? Nimmt man unser bewusstes Erleben mit den damit verknüpften ‚Erkenntnissen‘ zum Ausgangspunkt und erklärt diese Form von Erkenntnis zur ‚Norm‘ für das, was Erkenntnis ist, dann haben all diese Komplexitätsstufen zunächst nichts mit Erkenntnis zu tun. Allerdings ist es dieses unser ’subjektives‘ ‚phänomenologisches‘ ‚Denken‘, das all die erwähnten ‚Komplexitäten‘ im Denken ’sichtbar‘ macht. Ob es noch andere Formen von Komplexität gibt, das wissen wir nicht, da wir nicht wissen, welche Form von Erkenntnis unsere subjektive Erkenntnisform von vornherein ‚ausblendet‘ bzw. aufgrund ihrer Beschaffenheit in keiner Weise ‚erkennt‘. Dies klingt paradox, aber in der Tat hat unser subjektives Denken die Eigenschaft, dass es durch Verbindung mit einem Körper einen indirekt vermittelten Bezug zur ‚Körperwelt jenseits des Bewusstseins‘ herstellen kann, der so ist, dass wir die ‚Innewohnung‘ unseres subjektiven Erkennens in einem bestimmten Körper mit dem Organ ‚Gehirn‘ als Arbeitshypothese formulieren können. Darauf aufbauend können wir mit diesem Körper, seinem Gehirn und den möglichen ‚Umwelten‘ dann gezielt Experimente durchführen, um Aufklärung darüber zu bekommen, was denn so ein Gehirn im Körper und damit korrelierend eine bestimmte Subjektivität überhaupt erkennen kann. Auf diese Weise konnten wir eine Menge über Erkenntnisgrenzen lernen, die rein aufgrund der direkten subjektiven Erkenntnis nicht zugänglich sind.

  19. Diese neuen Erkenntnisse aufgrund der Kooperation von Biologie, Psychologie, Physiologie, Gehirnwissenschaft sowie Philosophie legen nahe, dass wir das subjektive Phänomen der Erkenntnis nicht isoliert betrachten, sondern als ein Phänomen innerhalb einer multidimensionalen Komplexitätskugel, in der die Komplexitätsstrukturen, die zeitlich vor einem bewussten Erkennen vorhanden waren, letztlich die ‚Voraussetzungen‘ für das Phänomen des subjektiven Erkennens bilden.

  20. Gilt im bekannten Universum generell, dass sich die Systeme gegenseitig beeinflussen können, so kommt bei den biologischen Systemen mit ‚Bewusstsein‘ eine qualitativ neue Komponente hinzu: diese Systeme können sich aktiv ein ‚Bild‘ (‚Modell‘) ihrer Umgebung, von sich selbst sowie von der stattfindenden ‚Dynamik‘ machen und sie können zusätzlich ihr Verhalten mit Hilfe des konstruierten Bildes ’steuern‘. In dem Masse, wie die so konstruierten Bilder (‚Erkenntnisse‘, ‚Theorien‘,…) die tatsächlichen Eigenschaften der umgebenden Welt ‚treffen‘ und die biologischen Systeme ‚technologische Wege‘ finden, die ‚herrschenden Gesetze‘ hinreichend zu ‚kontrollieren‘, in dem Masse können sie im Prinzip nach und nach das gesamte Universum (mit all seinen ungeheuren Energien) unter eine weitreichende Kontrolle bringen.

  21. Das einzig wirkliche Problem für dieses Unterfangen liegt in der unglaublichen Komplexität des vorfindlichen Universums auf der einen Seite und den extrem beschränkten geistigen Fähigkeiten des einzelnen Gehirns. Das Zusammenwirken vieler Gehirne ist absolut notwendig, sehr wahrscheinlich ergänzt um leistungsfähige künstliche Strukturen sowie evtl. ergänzt um gezielte genetische Weiterentwicklungen. Das Problem wird kodiert durch das Wort ‚gezielt‘: Hier wird ein Wissen vorausgesetzt das wir so eindeutig noch nicht haben Es besteht ferner der Eindruck, dass die bisherige Forschung und Forschungsförderung diese zentralen Bereiche weltweit kum fördert. Es fehlt an brauchbaren Konzepten.

Eine Übersicht über alle bisherigen Beiträge findet sich hier

CARTESIANISCHE MEDITATIONEN III, Teil 7

(99) Auf den letzten Seiten der Pariser Vorlesung(en) führt Husserl seine ganzen Überlegungen nochmals verstärkt zusammen und er kommt darin zu Formulierungen, die der Autor dieses Kommentars grenzwertig findet; grenzwertig, da man das Gefühl nicht los wird, dass Husserl hier weniger als der kühle, analysierende Philosoph spricht (schreibt), sondern als ein Redner unter Erwartungsdruck, der zugleich eine ‚philosophie-politische‘ Position –nämlich die einer Phänomenologie– zu vertreten hat, von der die Welt –salopp formuliert– erwartet, dass sie ihre Probleme löst. Vielleicht ist diese Interpretation zu stark, vielleicht tut man Husserl damit sogar Unrecht, aber die sehr emphatischen Formulierungen, in denen er zudem Dinge zusammenführt, die zuvor nicht wirklich sauber analysiert worden sind, erzeugen einen ‚Unterton‘ im Text, den man schwerlich ‚überhören‘ kann.

(100) Nach der Kritik am alltäglich und positiv-wissenschaftlichen naiven Denken schreibt er: ‚Es gibt aber nur eine radikale Selbstbesinnung, das ist die phänomenologische. Radikale und völlig universale Selbstbesinnung ist aber untrennbar, und zugleich völlig untrennbar von der phänomenologischen Methode der Selbstbesinnung in Form der Wesensallgemeinheit. Universale und wesensmäßige Selbstauslegung besagt aber Herrschaft über alle dem ego und seiner transzendentalen Intersubjektivität eingeborenen idealen Möglichkeiten.‘ (vgl. CM2, S37, Z8 -15)

(101) Zu sagen, dass radikale Selbstbesinnung in sich ‚untrennbar‘ ist, erscheint nach den bisherigen Analysen plausibel. Dass die hier einschlägige Methode auf jeden Fall (= untrennbar) die phänomenologische Methode sei, ist anhand der (informellen) Definition von phänomenologischer Methode verständlich. Dass die Selbstbesinnung notwendigerweise in ‚Form von Wesensallgemeinheiten‘ stattfindet, ist dagegen nur bedingt war. Selbstbesinnung erlaubt die Auffassung von allem, was sich im Wissen-um vorfindet; die möglichen Allgemeinheiten sind nur ein Teil davon. Doch ist offensichtlich genau dieser Teil für Husserl an dieser Stelle wichtig, denn hier hebt er dann nochmals ab auf den Punkt, dass eine ‚wesensmäßige Selbstauslegung‘ ‚Herrschaft‘ bedeuten kann, Herrschaft über ‚alle eingeborenen idealen Möglichkeiten‘. Lassen wir den verräterischen Terminus ‚Herrschaft‘ für einen Moment auf der Seite.

(102) Aufmerken lässt der Überstieg von ‚Wesensallgemeinheiten‘ zu ‚allen eingeborenen idealen Möglichkeiten‘. Streng genommen sind die Termini ‚eingeboren‘ und ‚ideal‘ im Rahmen seiner Phänomenologie nicht wirklich definiert (wobei Husserl keinen einzigen Terminus im strengen Sinne definiert; er nutzt alle Termini immer nur ‚informell‘, beiläufig, im Kontext alltäglichen Redens, über dessen Geltungsbedingungen er sich nirgends Rechenschaft gibt).

(103) Wenn ‚phänomenologisch‘ heißt, das Gegebene aufzunehmen, dann wäre ein Terminus wie ‚eingeboren‘ nur möglich, wenn damit etwas Gegebenes gemeint ist, dem eine Eigenschaft anhaftet, anhand deren ich dieses Gegebene von anderem Gegebenen unterscheiden kann, und zwar z.B. die Eigenschaft ‚eingeboren‘ zu sein im Sinne von ‚dem Denken notwendig zugehörig‘ und sich darin unterscheidend von einem konkreten So-Seienden, das sich zwar auch im Denken vorfindet, aber nicht denknotwendig.

(104) In der Kombination von ‚eingeborenen … Möglichkeiten‘ wird es aber schwierig. ‚Möglichkeit‘ unterstellt ’normalerweise‘ die Verfügbarkeit von Alternativen in einem kombinatorischen Raum. Ein ‚kombinatorischer Raum‘ als solcher ist aber niemals eine phänomenologische Gegebenheit im primären Sinne. Er erschließt sich nur ‚im Denken‘, in einem ‚Prozess von verschiedenen Denkzuständen‘, die wiederum gepaart sind mit ‚Erinnerungsleistungen‘, durch die diese verschiedenen unterscheidbaren Zustände ‚zusammengehalten‘ werden. Sicher kommt solchen Denkprozessen samt ihrer ‚Vereinigung‘ mittels der Erinnerung eine gewisse Evidenz zu, aber diese Evidenz ist verglichen mit der primären phänomenologischen Evidenz des unmittelbar Gegebenen eine ‚abgeleitete‘ ’sekundäre‘ Evidenz, deren ‚Wahrheit‘ von der ‚Wahrheit der Denkübergänge‘ abhängt. In der normalen Denkerfahrung wissen wir, dass diese Übergänge –sobald sie erinnerungsabhängig sind– ‚falsch‘ sein können. Dass Husserl diese Problematik nicht sieht –oder zumindest nicht anspricht– erstaunt.

(105) Liegt die Rettung möglicherweise in dem zusätzlichen Terminus ‚ideal‘, wenn er von ‚eingeborenen idealen Möglichkeiten‘ spricht? Wie gesagt, ‚ideal‘ ist nirgends wirklich definiert. Nehmen wir an, Husserl meint damit auch etwas ‚Allgemeines‘ und damit etwas über das konkret So-Seiende Hinausweisendes, ein dem Denken zugehöriges Typisches und darin Denknotwendiges. Dann würde ‚eingeboren ideal‘ gemeinsam auf ein Denknotwendiges zielen, auf solche Möglichkeiten, die ‚denknotwendig‘ sind. Aber was ist ein ‚Mögliches‘, das ‚Notwendig‘ sein soll? Der Unterschied vom Möglichen zum Notwendigen ist ja normalerweise gerade, dass ein Mögliches sein kann, aber nicht sein muss. Ein ’notwendig Mögliches‘ wäre dann evtl. interpretierbar als ein Mögliches, das nicht sein muss, aber wenn es eintreten sollte, dann gibt es vorgegebene Formen, in denen es auftreten wird. Die ‚eingeborenen idealen Möglichkeiten‘ wären dann sozusagen die allgemeinen (idealen) Bedingungen des Auftretens von etwas, falls es auftritt.

(106) Mit dieser Interpretation der ‚eingeborenen idealen Möglichkeiten‘ wäre ein mögliches begriffliches Konstrukt gefunden, das ‚Denknotwendige‘ im Kontext des ‚Möglichen‘ zu denken, es fragt sich nur, was man damit gewonnen hat? Ist es wirklich realistisch, dass unser Denken seinen eigenen Möglichkeitsraum hinsichtlich allgemeingültiger Kriterien vollumfänglich abstecken kann (so wie ein Goldgräber seinen Claim früher markiert hatte, um dadurch seinen Besitzanspruch zu sichern)? Trifft es zu, dass wir das Allgemeine des Denkens nur anlässlich des Auftretens von irgendetwas ‚Gegebenem‘ erleben können durch die ‚Art und Weise‘, ‚wie‘ wir etwas erleben, dann wäre es zu keinem Zeitpunkt möglich, mit ‚absoluter‘ Sicherheit zu wissen, ob wir schon ‚alle‘ Arten des Denkens kennengelernt haben oder nur einen Teil, weil wir eben unserem Denken noch nicht Gelegenheit gegeben haben, ‚alle‘ seine ‚eingeborenen‘ Eigenschaften zu ‚zeigen‘. Als Denknotwendiges wäre solch ein Allgemeines des Denkens zwar ‚transzendental‘, aber ‚ob‘ es sich im Denken zeigt, das ist für das jeweilige Wissen ‚kontingent‘, weil das Denken nicht denken muss! Ich kann denken, ich muss aber nicht, ebenso: ein Etwas ‚kann‘ sich ereignen, es muss aber nicht. Das Denknotwendige steht damit auf einem ‚wackligen Grund‘. Im ‚Sein‘ zeigt es sich als etwas ‚Allgemeines‘, aber dieses Sein als solches ist kein notwendiges, es ist als erfahrbares Sein ein kontingentes Sein, bis hin zum trlS selbst!

(107) Außerdem können wir 82 Jahre nach Husserls Vorlesung wissen, dass aufgrund von fortgeschritteneren Denkoperationen das phänomenologische Wissen nur auffassen kann, was sich im Erleben zeigt. Was immer sich hier an allgemeinen Strukturen enthüllt, das phänomenologische Denken verbleibt letztlich in einer ‚passiven‘ Rolle des hinnehmenden Aufnehmens. In diesem Kontext das Wort ‚Herrschaft‘ zu benutzen, wie Husserl es tut, wirkt wie das Wort eines Süchtigen, der versucht seine Sucht mit beschönigenden Worten zu ‚verdecken‘. Das phänomenologische Wissen herrscht nicht, es nimmt passiv hin und versucht das sich darin Zeigende zu ’sortieren‘, versucht sich aus all diesen ‚Fragmenten‘ einen ‚Reim zu machen‘. Die Neurowissenschaften in Gestalt von Neuropsychologie, die evolutionäre Biologie und Psychologie sowie alle an der evolutionären Sicht beteiligten Wissenschaften haben Indizien zusammengetragen, die die Hypothese nahelegen, dass die allgemeinen Formen des Denkens (und darin eingeschlossenen auch die konkreten Qualitäten der So-Seiend-Gegebenen) Wirkungen von physiologischen Mechanismen des Körpers und des das Gehirn ‚einhüllenden‘ Körpers sind, der eine ‚Produkt‘ von mehr als 3 Milliarden Jahren ‚Konstruktionsprozess‘ ist. D.h. was immer wir überhaupt von Ereignissen in der Umgebung des Körpers erfassen können und wie wir es erfassen können, hängt ab von physiologischen Strukturen, in denen physikalische Energie hundertfach, tausendfach immer wieder umgeformt und korreliert wird, damit wir bestimmte Gegebenheiten in einer bestimmten Weise erleben können. So wenig das originäre phänomenologische Erleben und Denken durch die anderen Disziplinen ersetzt werden kann, so wenig kann das phänomenologische Denken alleine, ganz für sich genommen, zu letzten Klarheiten und allgemeinen Erkenntnissen führen, die über seinen individuellen Reflexionsprozess hinausweisen.

(108) Um die Bedeutung des individuell Erkannten für ein ‚größeres Ganzes‘ sichtbar machen zu können, muss das phänomenologische Denken Strukturelemente wie z.B. ‚einzelnes individuelles Bewusstsein‘, ‚fremdes Bewusstsein‘, ‚Körper‘, ‚Außenwelt‘ usw. in einem konsistenten Zusammenhang explizieren, um den –möglicherweise unterschiedlich geltenden– verschiedenen Wissensformen einen logischen Zusammenhang zu geben, der es erlaubt, ihre Aussagen wechselseitig zu beziehen, um damit einen ‚je größeren‘ Zusammenhang sichtbar zu machen. Dies wäre keine neue Art von Philosophie, sondern die Anwendung des phänomenologischen Denkens auf alle heute verfügbare Wissensformen, einschließlich der sogenannten ‚empirischen Wissenschaften‘.

(109) Die empirischen Wissenschaften fallen nicht aus dem Rahmen des phänomenologischen Wissens heraus (!!!), sondern sie definieren sich selbst als ein Teilbereich innerhalb (!!!) des phänomenologischen Denkens. Leider hat die phänomenologische Philosophie bislang ihre Energie darauf verschwendet, diese Form phänomenologischen Denkens eher zu ‚verteufeln‘ anstatt die hier vorliegenden Eigenheiten zu reflektieren und unter Berücksichtigung dieser Eigenheiten diese in das größere Ganze zu ‚integrieren‘.

(110) Terme wie ‚Herrschaft‘ ausüben mögen nichts Besonderes bedeuten, sie können aber ‚Indizien‘ sein für ein tieferliegendes ‚psychologisches‘ Motiv des ‚Herrschen‘, sprich ‚Kontrollieren Wollens‘, das dem Ideal philosophischen Erkennens letztlich fremd ist. Dieses ‚Herrschen Wollen‘ hat natürlich –wie immer im historischen Leben– mehr Chancen auf Erfolg, wenn ich all das ‚ausgrenze‘, was sich meiner Kontrolle möglicherweise widersetzen könnte. Empirisches Wissen hat diese Eigenschaft, eine vollständig umfassende Kontrolle zu verhindern, falsche Allmachtsansprüche zu entlarven, Denknotwendiges als dann letztlich doch ‚kontingentes Denken‘ erscheinen zu lassen, usw. Kontrollbedürfnis und narzistische Momente einer individuellen Psyche sind immer gefährdet, sich ein ’sperriges Ganzes‘ so ‚zurecht‘ zu schneiden, dass es möglichst ‚pflegeleicht‘ wird, so eine Art ‚Philosophie der sauberen Denkräume‘, Philosophie als ‚persönlicher Besitzt des jeweiligen Philosophen‘, und dergleichen mehr. Ob und wieweit solche Momente bei Husserl unterstellt werden können (oder müssten), soll hier nicht entschieden werden. Die von ihm gelieferten Indizien in Richtung kontrollierende Herrschaft und Ausgrenzung des widerspenstigen Empirischen sollten aber auf jeden Fall notiert werden.

(111) Fassen wir (vorläufig) zusammen, Husserls Formulierung von der ‚Herrschaft über alle dem ego … eingeborenen idealen Möglichkeiten.‘ (vgl. CM2, S37, Z8 -15) erscheint schon für den Bereich des individuellen Bewusstseins problematisch. In der vollständigen Formulierung kommt aber auch das ‚Intersubjektive‘ vor: ‚Herrschaft über alle dem ego und seiner transzendentalen Intersubjektivität …‘. (vgl. CM2, S37, Z8 -15) Hatten wir zuvor schon angemerkt, dass der Ausweis des transzendentalen Charakters der Intersubjektivität, so wie Husserl sie beschrieben hat, in keiner Weise überzeugen kann, so wirft die fraglose Einbeziehung des Terminus ‚Intersubjektivität‘ in den transzendentalen Status des transzendentalen ego alle die zuvor gestellten Fragen wieder neu auf. Hier nun verstärkt durch den Kontext, dass die denknotwendigen Eigenschaften alles Möglichen auch für das Intersubjektive so erkannt werden können, dass sie im Denken ‚beherrscht‘, sprich ‚kontrolliert‘ werden können.

(112) Nun hat Husserl –wie bei allen anderen wichtigen Termen– es versäumt, sauber zu erklären, was er genau unter dem ‚Intersubjekiven‘ versteht. Am Beispiel des ‚alter ego‘ sprach er von einer ‚Ähnlichkeitsapperzeption‘, die ‚miterfahren‘ wird, ‚konsequent indiziert, sich dabei einstimmig bewährend‘.( vgl. CM2, S.35, Z9-11) Eine Erklärung kann man dies nicht nennen, eine Definition auch nicht, außerdem ist es beschränkt auf einen Teilaspekt von Intersubjektivität. Eine ernsthafte Diskussion darüber, ob und wieweit also die vorausgehenden Aussagen über die Herrschaft im Kontext des Intersubjektiven zutreffen oder nicht, erscheint mir von daher kaum möglich.

(113) Trotz der Schwierigkeiten der Auslegungen im Detail ist erkennbar, dass Husserl auf den letzten 2-3 Seiten versucht, der Vision einer ‚universalen Philosophie‘ trotz aller noch bestehenden methodischen Problemen Namen und Struktur zu verleihen. Sich abgrenzend gegenüber ‚positiven Wissenschaften in der Weltverlorenheit‘ auf der einen Seite sowie von den  ‚universalen Systemen deduktiver Theorie‘ auf der anderen Seite sieht er den wahren Weg einer letztbegründeten (philosophischen) Erkenntnis in einer ‚universalen Selbsterkenntnis, zunächst einer monadischen, dann einer intermonadischen.‘ (vgl. CM2, S.39, Z12-25) Dieses Konzept schliesst für Husserl nicht aus, dass es unterschiedliche ‚phänomenologische Disziplinen‘ geben kann, die untereinander ‚korreliert sind‘. (vgl. CM2, S39, Z17f)

Zur Fortsetzung siehe CM3, Teil 8.

ÜBERSICHT: Eine Übersicht über alle Blog-Beiträge nach Themen findet sich HIER

Entmystifizierung des Ethikrates — Ethik eine Verhandlungssache?

(1) Horst Dreier, Prof. für Rechtsphilosophie, Staats- und Verwaltungsrecht in Würzburg, stellt sich in seinem Beitrag in der FAZ vom 17.August 2011 der Frage nach der Rolle des Deutschen Ethikrates. Klar und prägnant arbeitet er die gesetzlich definierte Rolle des Rates heraus, der eindeutig auf eine Beratungsfunktion beschränkt ist, die dem Parlament seine eigene Entscheidung nicht abnehmen kann. Da er unter Berufung auf Peter Graf Kielmansegg der Wissenschaft eine Sonderstellung für Fragen der Ethik abspricht — präzisiert durch die Bemerkung, dass man aus naturwissenschaftlichen Erkenntnissen keine normativen Schlüsse ziehen könne — verschiebt sich die Frage der normativen Klärung auf den Bereich der ‚Bewertung‘ von (naturwissenschaftlichen) Sachverhalten im Lichte der Kompetenz letztlich jeden einzelnen Bürgers („Bei ethischen Fragen sind die Bürger gleich zu achten“). Dieser einzelne Bürger ist allerdings ‚eingebettet‘ in die geltende Gesetzgebung, deren ‚Einhaltung‘ vom Bundesverfassungsgericht überwacht wird. Letzteres steht aber nicht ‚über‘ dem Gesetz; es ist nicht das sich selbst genügsame ‚perpetuum mobile‘ von ethischen Prinzipien, sondern ist dem geltenden Gesetzestext — und seiner ‚unterstellten Intentionen‘ — verpflichtet.

(2) Mit dieser Ortsbestimmung des Ethikrates könnte man den Eindruck gewinnen, als ob sich ‚das Ethische‘ in eine ‚Beliebigkeit‘ verflüchtigt. Zwar dürfen die Experten des Ethikrates Meinungen äußern — und letztlich auch alle Bürger (wo werden diese gefragt?) — aber durch die Verlagerung der ethischen Erkenntnis in das individuelle Denken, das im Ethischen gleichberechtigt ist, gibt es keinen wirklichen ‚Fixpunkt‘ mehr, an dem sich die individuellen Urteile messen können. Dreier nennt diesen Bereich jenseits der Fakten den Bereich ’normativer Wertungen‘, für den er mit Bezug auf Max Weber günstigstenfalls reklamiert, dass man diese normativen Inhalte einer ‚Diskussion‘ zuführen kann, eventuell in Form einer ‚konsistenten‘ (widerspruchsfreien) Darstellung kondensiert in ‚Wertaxiomen‘.

(3) Dieser Versuch einer formalen Eingrenzung des ‚Ethischen‘ im interdisziplinären Diskurs lässt erahnen, dass es hier nicht um ‚die‘ Wertaxiome geht, sondern um jene Wertaxiome, die unterschiedliche Vertreter artikulieren. Der Raum des Ethischen ist in diesem Konzept also ein ‚offener‘ Raum, der sich entwickeln kann, der anhand neuer Einsichten umakzentuiert werden kann; das Ethische wird damit eingebettet in den allgemeinen Erkenntnisprozess der Menschheit, der bekanntlich in den letzten Tausenden von Jahren starke Wandlungen erfahren hat.

(4) Diese Sicht einer Ethik, die sich im fortdauernden Diskurs ‚finden‘ muss, wird auch noch unterstützt durch die Ergebnisse der mathematischen und linguistischen Grundlagenforschung des 20.Jahrhunderts. Seit Goedel (1931) und Turing (1936/7) ist unabwendbar klar, dass selbst im abgegrenzten Bereich formaler (mathematischer) Theorien ‚konsistente‘ Theorien nur bis zu einer gewissen ‚Ausdrucksstärke‘ möglich sind. Das meiste, was heute in der Mathematik wichtig ist, lässt sich nicht als konsistent beweisen. Für den Bereich natürlicher Sprachen (dazu gehört Philosophie und Ethik allemal) ist die Frage der ‚Konsistenz‘ ganz bodenlos (u.a. Wittgenstein). Die Idee eines widerspruchsfreien ethischen Diskurses ist bestenfalls eine ‚regulative Idee‘, eine Illusion, die helfen kann, den Glauben an Konsistenz aufrecht zu erhalten, aber praktisch einlösbar ist eine Widerspruchsfreiheit in diesem Bereich grundsätzlich nicht. Die einzig mögliche Konsequenz aus diesen Sachverhalten ist, die Partialität jeglicher Erkenntnis, insbesondere auch der ethischen, sehr ernst zu nehmen, und Bruchstücke, fragile Konstruktionen, von vornherein niemals einfach auszugrenzen. In den Naturwissenschaften hat man gelernt, mit partiellen Erkenntnissen so umzugehen, dass man ‚inkrementelle Modelle (Theorien)‘ entwickelt, die im Laufe der Zeit ‚verbessert‘, ‚korrigiert‘ werden, ohne dass zu irgendeinem Zeitpunkt eine Theorie einen ‚Absolutheitsanspruch‘ hat. Dass diese Modell einer ‚dynamisch partiellen‘ Erkenntnis erfolgreich sein kann, belegen die letzten Jahrhunderte. Ob Horst Dreier diesen Konsequenzen zustimmen würde?

(5) Letztlich wird man wohl auch nicht umhin kommen, das Format eines ethischen Diskurses neu zu bestimmen, zumindest erheblich weitergehender als es bislang geschehen ist.  Es ist allerdings schwer zu sehen, aus welcher ‚Ecke‘ geisteswissenschaftlicher Aktivitäten diese ‚Erneuerung‘ kommen kann. Die  Diskursbeiträge der letzten Jahrhunderte haben nur demonstriert, dass sie diese Aufgabe nicht bewältigen können.

Ich glaube an Gott, was brauch ich dann die (komplizierten) Wissenschaften?

(1) Während einer Geburtstagsfeier mit vielen Gästen (wo sonst…) nahmen die Gespräche zur fortgeschrittenen Stunde immer intensivere Verläufe. An einer Stelle sagte dann eine engagierte Frau, dass Sie an Gott glaube, an die Welt als Schöpfung; das gäbe ihr Kraft und Sinn; und so lebe sie es auch. Die Wissenschaft brauche sie dazu nicht; die sei eher verwirrend.

 

 

(2) Mit solch einem ‚Bekenntnis‘ ist das Wissen zunächst einmal ’neutralisiert‘; was immer Wissen uns über den Menschen und seine Welt sagen könnte, es findet nicht statt, es gibt kein Wissen mehr. Mögliche Differenzierungen sind wirkungslos, mögliche Gründe unwichtig; mögliche Infragestellungen, gedankliche Herausforderungen können nicht greifen; damit verbundene mögliche Spannungen, Erregungen können nicht stattfinden. Die Welt ist ‚wie sie ist‘, d.h. wie das aktuelle Wissen des so Glaubenden sie zeichnet. Alles hat seine Ordnung, eine Ordnung die sich nicht beeinflussen lässt durch Wissenschaft.

 

 

(3) In gewisser Weise hört nach einem solchen Bekenntnis jedes Gespräch auf. Man kann zwar noch weiter Reden, aber inhaltlich kann man sich nur noch auf wechselseitige Bestätigungen beschränken: Ja, ich sehe das auch so; ja, ich glaube das auch; ja, ich finde das gut;…. abweichende Meinungen haben streng genommen keinen Platz in diesem Gefüge…weil sie einfach ausgeblendet werden (Menschen mit mehr Aggressionspotential gehen dann allerdings zum ‚Angriff‘ über und versuchen, die ‚abweichende‘ Meinung nieder zu machen). Aber auch das ‚einfache Ausblenden‘ einer anderen Meinung, zu sagen, dass man abweichende Meinungen nicht hören will, ist eine Form der ‚Entmündigung‘ und damit eine Form von ‚Missachtung‘. Wahrheit ist dann nicht mehr möglich.

 

 

(4) Mich hat diese Einstellung geschockt. Wenn man weiß, auf welch schwankendem Boden jegliche Form von Wissen über uns, die Welt und Gott steht und wenn man weiß, wie viel Unheil über Menschen im Namen des Glaubens gekommen ist, weil die Gläubigen zu wissen glaubten, was wahr ist und in diesem Glauben tausende andere unterdrückt, verfolgt, gefoltert und getötet haben, weil sie auch glaubten, dass ihre Form des Glaubens über alle anderen Erkenntnisse und Wahrheiten ‚erhaben‘ sei, dann ist jegliche Form der Ablehnung von Wissen (ob durch Verweis auf Gott (Wer kennt ihn wirklich), durch Verweis auf eine politische Ideologie, durch Verweis auf ethnische Besonderheiten, durch Verweis auf ‚besonderes Blut‘, usw.) letztlich in einem identisch: die bewusste willentliche Entscheidung, sein eigenes Bild von der Welt auf keinen Fall zu verändern; was immer die Wissenschaften über uns und die Welt herausfinden, das wird als ‚irrelevant‘ neutralisiert.

 

 

(5) Allerdings zeigt sich am Beispiel solcher ‚alltäglicher‘ Konflikte auch sehr unmittelbar, dass entwickelte (wissenschaftliche) Formen von Wissen alles andere als selbstverständlich sind. Es hat nicht nur viele tausend Jahre gebraucht, bis die Menschen mit komplexeren Wissensformen umgehen konnten, es ist heute, in unserer Gegenwart so, dass man sich des Eindrucks nicht erwehren kann, dass nicht nur viele derjenigen, die nicht studiert haben, ein gebrochenes Verhältnis zu wissenschaftlichem Wissen haben, sondern dass ebenso viele derjenigen, die akademische Abschlüsse vorweisen können (mehr als 50%?), das ‚Wesen von wissenschaftlichem Wissen‘   nicht verstanden zu haben scheinen und Anschauungen über uns Menschen und die Welt für ‚wahr‘ halten, die — nach meinem Kenntnisstand — ziemlich abstrus und willkürlich sind (so eine Art ‚Voodoo‘ unter dem Deckmantel von Wissenschaft und Aufklärung).

 

 

(6) Es macht wenig Sinn, über diesen Sachverhalt zu ‚moralisieren‘. Es ist die Realität, in der wir leben. Da unser Handeln von unserem Wissen — oder von der Meinung anderer, denen wir einfach folgen — geleitet ist, haben solche Auffassungen ihre alltäglichen Wirkungen.

 

 

(7) Wenn man also versucht Wissen ernst zu nehmen; wenn man Fragen zulässt und sie versucht ernsthaft zu beantworten; wenn man sogenannte Selbstverständlichkeiten immer wieder mal hinterfragt, um sich zu vergewissern, dass man keine falschen Voraussetzungen mit sich herum trägt; wenn man versucht, aus den vielen Detailerkenntnissen größere Zusammenhänge zu konstruieren und auch wieder zu verwerfen; wenn man versucht, Sachverhalte zu Ende zu denken, obgleich wenig Zeit ist, man erschöpft ist, und keiner davon etwas hören will, dann darf man dafür kein Lob erwarten, keine Ermutigung, kaum Zustimmung, sondern eher Ablehnung, Angst, Abwehr oder Bemerkungen wie ‚Was Du da wieder denkst‘, ‚Das braucht doch kein Mensch‘, ‚Hast Du nichts Besseres zu tun‘, ‚Das nervt einfach‘, ‚Mir ist das alles zu kompliziert‘,….

 

 

(8) Sich auf Dauer ernsthaft mit ‚wahrem‘ Wissen zu beschäftigen (nicht mit Modetrends, Buzz Words, usw.) liegt quer im Alltag, darf auf keine Unterstützung hoffen. Die meisten Menschen suchen nicht die ‚Wahrheit‘, sondern eher Bestätigungen für ihre aktuelle Unwahrheit; Bestätigungen fühlen sich einfach besser an als Infragestellungen durch Erkenntnisse, die dazu zwingen, das eigene Bild von der Welt zu verändern.

 

 

(9) Jedes Wissen hat ‚Ränder des Wissens‘, jene Bereiche, die vom bisherigen Wissen noch nicht erschlossen sind bzw. die durch aktuelles Wissen ‚verstellt‘ werden, d.h. ich werde im Wissen erst weiter kommen, wenn ich dieses ‚verstellende‘ Wissen als ‚falsch‘ bzw. ‚unzureichend‘ erkannt habe. Wie soll dies geschehen? Menschen, die hauptsächlich nur Bestätigungen suchen, haben praktisch keine Chance, die ‚Falschheit‘ ihres Wissens zu entdecken. Sie sind in ihrem aktuellen Wissen quasi gefangen wie in einem Käfig. Da sie ihren Käfig nicht sehen, ihn ja sogar für ‚richtig‘ halten, wird sich der Käfig im Normalfall immer nur noch weiter verfestigen.

 

 

(10) Das biologische Leben, von dem wir Menschen ein winziger Teil sind, hat die Jahrmilliarden dadurch gemeistert, dass es nicht einer bestimmten vorgegebenen Ideologie gefolgt ist, sondern dass es ‚alles, was möglich wahr, einfach probiert hat‘. Man kann dies ‚Zufall‘ nennen oder ‚Kreativität‘ oder ‚Spiel‘; letztlich ist es so, dass Zufall/ Kreativität/ Spontaneität/ Spiel jeglicher fester Form auf Dauer haushoch überlegen ist, da feste Formen von Wissen Spezialisierungen darstellen für bestimmte Aspekte von Welt, meistens dazu sehr statisch, und solche Formen sind sehr schnell sehr falsch. Besser zu sein als ‚zufallsgesteuertes Wissen‘ ist eine sehr hohe Messlatte, und biologische Systeme wirken nur deshalb gegenüber reinem Zufall überlegen, weil sie die Erfahrungswerte von 3 Milliarden Jahren ’spielerischer Evolution‘ in sich angesammelt haben. Mehr als drei Milliarden Jahre Experimente mit hunderten Milliarden Beteiligten pro Jahr sind eine Erfahrungsbasis, die in sich ein Wunder darstellt, das zu begreifen nicht leicht fällt. Wir, die wir von diesem ‚angesammelten Wissen‘ profitieren können, ohne dass wir auch nur irgendetwas selbst dazu beigetragen haben, haben meistens kein gutes Gefühl dafür, welch ungeheure Leistung es bedeutet, das bisherige Weltwissen auch nur ein kleines Stück zu erweitern. Wer sich die Mühe machen würde, beispielhaft  — von vielen möglichen spannenden Geschichten — die Geschichte des mathematischen Denkens zu verfolgen, das zum Herzstück von jeglichem komplexen Wissen gehört, kann sehen, wie sich die besten Köpfe über 3000 und mehr Jahre bemühen mussten, bis die Mathematik eine ‚Reife‘ erlangt hat, die erste einfache Wissenschaft möglich macht. Zugleich gilt, dass in unseren Zeiten, die mehr denn je von Technologie abhängen, das Wissen um Mathematik bei den meisten Menschen schlechter ist als bei den Denkern der Antike. Es ist eben nicht so, dass ein Wissensbereich, der über Jahrtausende mühsam aufgebaut wurde, dann automatisch in der gesamten nachfolgenden Kultur verfügbar ist; ein solches Wissen kann auch wieder verfallen; ganze Generationen können in der ‚Aneignung von Wissen‘ so versagen, dass ‚errungenes Wissen‘ auch wieder ‚verschwindet‘. Wissen in einer Datenbank nützt nichts, wenn es nicht reale Menschen mit realen Gehirnen gibt, die dieses Wissen auch tatsächliche ‚denken‘ und damit anwenden können. Immer größere Datenbanken und immer schnellere Netze nützen nichts, wenn das reale Wissen in den realen Köpfen wegen biologischer Kapazitätsgrenzen einfach nicht ‚mithalten‘ kann…

 

 

(11) Unsere heutige Kultur ist in der Tat an einer Art Scheideweg: unsere Technologie entwickelt sich immer schneller, aber die biologischen Strukturen unserer Körper sind bislang annähernd konstant. Bedeutet dies, dass (i) die Ära der Menschen vorbei ist und jetzt die Zeit der Supercomputer kommt, die den weiteren Gang der Dinge übernehmen? oder (ii) haben wir einen Wendepunkt der Entwicklung erreicht, so dass ab jetzt aufgrund der biologischen Begrenztheit der Menschen es nicht mehr nur um ’schneller‘ und ‚mehr‘ geht sondern um ‚menschengemäßere künstliche Intelligenz‘, die ein Bindeglied darstellt zwischen dem kapazitätsmäßig begrenztem menschlichem Denken einerseits und einer immer leistungsfähigeren Technologie? oder (iii) Beginnt jetzt die Ära der angewandten Gentechnologie, die uns in die Lage versetzt, unseren Körper schrittweise so umzubauen, dass wir die Erfordernisse eines biologischen Lebens auf der Erde besser meistern könne als bisher? Die Alltagserfahrung legt vielleicht (i) nahe, die bisherige historische Entwicklung deutet aber auf (ii) und (iii) hin. Denn — und das übersieht man leicht — der Weg des Lebens in den letzten ca. 3.2 Milliarden Jahren hat permanent Probleme lösen müssen, die verglichen mit den uns bekannten Problemen um ein vielfaches größer waren. Und das Prinzip des Lebens hat dies alles gemeistert, ohne dass wir auch nur einen Millimeter dazu beigetragen haben. Wenn wir uns also weniger an unsere vielfältigen kleinkarierten Ideologien klammern würden und stattdessen stärker auf die ‚innere Logik des Lebens‘ achten, dann sind die potentiellen Lösungen in gewisser Weise ’schon immer da‘. Dies ist nicht als ‚Determinismus‘ oder ‚Vorsehung‘ misszuverstehen. Nein, die Struktur der Materie enthält als solche alle diese Strukturen als Potential. Unsere gesamtes heutiges Wissen (von dem unsere Körper mit ihren Gehirnen ein kleiner Teil sind) ist letztlich nichts anderes als das versammelte Echo der Milliarden von Experimenten, in denen wachsende biologische Strukturen in einem permanenten Dialog mit dem vorfindlichen Universum Aspekte dieses Universums ’sichtbar‘ gemacht haben; wahres Wissen zeigt in dem Sinne nichts ‚Neues‘ sondern macht ’sichtbar‘, was schon immer da war bevor es dieses Wissen explizit gab. ‚Wissen schaffen‘ heißt im Wesentlichen ‚in Dialog treten‘, d.h. ‚Interagieren‘, d.h. ‚ein Experiment durchführen‘ und die Ereignisse im Umfeld der Dialoge ‚geeignet zusammenführen‘ (Bilder, Modelle, Theorien…). Was ‚Denken‘ wirklich ist wissen wir bislang eigentlich immer noch nicht wirklich, was unsere Gehirne aber nicht daran hindert, kontinuierlich Denkarbeit zu leisten. Unsere Gehirne denken für uns. Wir sind quasi ‚Konsumenten‘ dieser wundersamen Gebilde. Dass unsere Gehirne nicht ‚beliebig gut‘ denken sondern so ihren ‚eigenen Stil‘ pflegen, das merkt man erst nach vielen Jahren, wenn man sich intensiv mit der Arbeitsweise des Gehirns beschäftigt. Wenn wir über die ‚Welt‘ reden dann reden wir nicht über die Welt ‚wie sie um uns herum ohne uns ist‘, sondern über die Welt, ‚wie sie unsere Gehirne für uns aufbereiten‘. Unsere Gehirne arbeiten so perfekt, dass uns dieser fundamentale Unterschied lange Zeit — vielen Menschen vielleicht zeit ihres Lebens nie — nicht auffällt.

 

 

(12) Wir sind Teil dieses gigantischen Geschehens. Wir finden uns darin vor. Leben ist mehr als die Worte, die man darüber formulieren kann. Einen Sinn gibt es natürlich; er hängt nicht davon ab, ob wir ihn sehen oder nicht sehen, glauben oder nicht glauben. Der wahre Sinn durchdringt alles von Anbeginn. Wir können versuchen, uns ihm gegenüber zu verschließen, aber wir selbst mit unserem Körper als Teil des Ganzen, enthalten so viel von diesem Sinn, dass wir geradezu ‚voll gepumpt‘ sind mit diesem Sinn. Vor allem Erkennen kann man es auch fühlen.

 

 

(13) Was ‚Gott‘ mit allem zu tun hat? Ich bin mir nicht sicher, ob wir als Menschen diese Frage überhaupt verstehen können.