DAS NEUE ALS PROBLEM DER WAHRHEIT. Memo zur Philosophiewerkstatt vom 16.Juli 2017

PDF

ÜBERBLICK

Ausgehend von dem Thema der Einladung zur Philosophiewerkstatt werden in der Einleitung dann wichtige Elemente einer subjektiven Wahrheit aufgelistet. Im nachfolgenden Diskurs (nach der Möglichkeit einer Meditation) wurde dann speziell versucht zu klären, worin denn das ‚Neue‘ besteht. Es kam zu interessanten Einsichten.

I. THEMA

In der Einladung zur Philosophiewerkstatt am 16.Juli 2017  war auf das Phänomen des Neuen in seiner Beziehung zu der aktuellen Wahrheit hingewiesen worden. Dabei wurde die aktuelle Wahrheit als das verstanden, was der einzelne gerade in seinem Kopf als Wissen über die Welt mit sich herumträgt; ein Wissen, mit dem die aktuelle Wahrnehmung interpretiert und das eigene Handeln entschieden wird. Verglichen mit dieser aktuellen Wahrheit ist jede Art von Neuem problematisch. Gemessen an der eigenen, aktuellen Anschauung ist alles, was da kommt, zunächst einmal eine Abweichung. Es stellt sich dann die Frage, was man damit macht. Die Vielfalt der Antworten ist das, was wir jeden Tag im privaten Umfeld, in der Wirtschaft, in der Politik, in den Massenmedien erleben. Je nach Interessenlage (und Wissen) wird das ‚Abweichende‘ z.B. zum Bösen schlechthin instrumentalisiert oder wandelt sich zur neuen Verheißung.

Es schlossen sich an diese Beobachtung die Fragen an, wie wir zum Neuen stehen? Gibt es Verhaltensgewohnheiten, Regeln, Strategien im Umgang mit dem ‚Neuen‘? Gibt es so etwas wie eine  Kultur des Neuen in allen Bereichen unseres Lebens oder ist es eine Dauerbaustelle jeder Gesellschaft, wie sie mit Neuem umgeht?

Oder die eher grundsätzlichen Fragen, warum es überhaupt ‚Neues‘ geben kann? Wenn unsere privaten Ansichten über die Welt wahr sind, warum kann die Welt dann so — unerlaubterweise 🙂 — anders sein? Verdrängen wir nicht ständig, dass wir uns selbst vom Embryo über das Baby über das Kind zum Teenager, zum jungen Erwachsenen, Leistungsträger, Senior beständig verändern, wir uns selbst gegenüber — sozusagen — etwas Neues sind? Sind wir mit dieser unserer eigenen Art der beständigen Neuheit nicht selbst ‚unheimlich‘? Machen wir uns selbst Angst?

II ELEMENTE DER SUBJEKTIVEN WAHRHEIT

Philosophiewerkstatt 16.Juli 2017 - Gedankenbild - Einführung

Philosophiewerkstatt 16.Juli 2017 – Gedankenbild – Einführung

In der Einführung zur Diskussion wurden skizzenhaft (siehe Schaubild ‚Einführung‘) wichtige Elemente der subjektiven Wahrheit vorgestellt.

Zentraler Angelpunkt ist bei jedem einzelnen sein persönliches Bewusstsein, angefüllt mit diversen Inhalten an Wahrnehmungseindrücken, Erinnerungen, Bedürfnissen, Gefühlen, Wissensfragmenten und Fähigkeiten, die sich im Tun zeigen.

Dieses Bewusstsein ist, wie wir heute wissen können, weitgehend eine Funktion unseres Gehirns, das wiederum Teil unseres Körpers ist. Dieser Körper hat eine Außenseite, die durchsetzt ist mit tausenden von  Sensoren für  Außenwelt-Reize (z.B. visuell, akustisch, Wärme, Berührung,…), wie auch Sensoren im Körper für körperspezifische Reize (z.B. Durst, Hunger, Gelenkstellungen, …).

Die Reize werden kontinuierlich zum Gehirn geleitet und sowohl auf dem Weg dahin wie auch dann im Gehirn selbst auf vielfache Weise bearbeitet. Wichtig ist hierbei, dass diese Reize in sogenannten sensorischen Puffern für eine kurze Zeitdauer (ca. 50 – 200 Millisekunden) zwischengespeichert werden, bevor sie von den nächsten Reizen überschrieben werden. Diese ‚Pufferung‘ führt dazu, dass die Ereignisse außerhalb des Gehirns in Zeitscheiben zerlegt werden (‚frames‘), die dann als diese Zeitscheiben weiter verarbeitet werden.

Im Rahmen der Bearbeitung und Verarbeitung der sensorischen Reize kommt es auf vielfache Weise zu Strukturbildungen, die wir auch als Abstraktionen verstehen können: eine Menge von einzelnen Erregungspunkten werden dann z.B. übersetzt in ‚Kanten‘, ‚Ecken‘, ‚Frequenzen‘ usw., die dann im weiteren Verlauf zu noch komplexeren Strukturen zusammengebaut werden. Letztlich werden hier die grundlegenden Eigenschaften von Objekten zusammengebaut, die wir dann anschließend in unserer bewussten Wahrnehmung als solche Strukturelemente bewusst wahrnehmen. Voraus und/ oder parallel zu dieser bewussten Wahrnehmung interagieren diese perzeptuellen Strukturen mit dem Gedächtnis (einer komplexen Gehirnleistung), in der sich bislang gelernte Strukturen, Beziehungen, Veränderungen usw. finden. Diese aktuell vorhandenen Erfahrungs-/Wissenselemente bilden automatisch einen Kontext zu den aktuellen Perzeptionen, so dass die aktuelle sensorische Wahrnehmung damit automatisch interpretiert wird.

Das  Gedächtnis hat vielfältige Funktionen. Neben den Abstraktionsleistungen und der Anordnung von Elementen in unterschiedlichen Beziehungen ist wohl die grundlegendste Leistung jene, durch die  aktuelle Wahrnehmungen mit  schon gespeicherten Inhalten verglichen werden können. Dadurch entsteht die Möglichkeit, das aktuelle Jetzt durch Rückgriff auf ein  erinnertes Jetzt in mögliche  Abfolgen aufzulösen und damit zu einem  fundamentalen Zeitbegriff zu kommen. Die Anordnung von Ereignissen in einer Abfolge induziert indirekt das, was wir  Veränderung nennen, darauf aufbauend Zeit. Zeit ist damit grundlegend eine Kategorie des Erkennens, der Erkenntnisleistung, ermöglicht durch die Leistung des Gehirns.

Mit der Verfügbarkeit von zeichenbasierten Sprachen verfügt das menschliche Gehirn und Bewusstsein über eine zusätzliche sehr starke Struktur: beliebige Inhalte des Bewusstseins lassen sich mit Ausdruckselementen zu bedeutungsvollen Ausdrücken verbinden, so dass durch den Austausch von physikalischen Zeichenträgern verschiedene Gehirne sich Botschaften über ihre internen Zustände übermitteln können. Diese akustischen (gesprochene Sprache) oder visuellen (Schriftzeichen, Texte) Signale können unterschiedlich komplex und elaboriert sein.

Aus der Kulturgeschichte wissen wir, dass Menschen seit Jahrtausenden in einer Vielzahl von Geschichten, Märchen, Mythen, Sagen, historischen Berichten, Theaterstücken, Ritualen, Gedichten, symbolischen (= mathematischen) Modellen usw. gelernt haben, Eigenschaften der Außenwelt wie auch der Innenwelt zu kommunizieren. Je nach Art des Textes ist der Bezug zur realen Welt oder zur möglichen Zukunft eher konkret, klar, nachvollziehbar, oder aber vage, nur angedeutet, nur vermutet, reine Fantasie.

Mit dem Aufkommen der empirischen Wissenschaften seit dem 16.Jahrhundert haben die Menschen gelernt, im Bereich der subjektiven Wahrnehmungen jene Teilmenge von Phänomenen gesondert zu behandeln, die sich mit Messvorgängen in der Außenwelt (= objektiv) verbinden lassen. Messvorgänge und deren Ergebnisse sind zwar weiterhin  subjektive Phänomene, aber eben nicht nur; ihnen korrespondiert etwas in der  gemeinsamen (= intersubjektiven = objektiven) Außenwelt.

Die Verknüpfung von empirischen Messwerten mit zeichenbasierten Ausdrücken einer formalen (meist mathematischen) Struktur zu einer  empirischen Theorie bleibt zwar weiterhin verankert in einem individuellen Bewusstsein, in einem individuellen Gedächtnis, aber die Verständigung zwischen den verschiedenen Gehirnen verschiedener Wissenschaftler kann über den Bezug zu objektiven Sachverhalten eher  synchronisiert werden als ohne diesen Bezug. Mit dem Voranschreiten der  Theoriebildung zu immer komplexeren Strukturen erweist sich allerdings die Absicherung solcher Theorien durch empirische Messwerte als immer schwieriger. Dazu kommt, dass moderne Messgeräte selbst schon komplexe Theorien repräsentieren, die man voraussetzen muss, um überhaupt solche Messwerte zu bekommen.

Als Nebeneffekt der neueren komplexen zeichenbasierten Theorien konnte man unter anderem auch die  Vorstellung von der Zeit auf unterschiedliche Weise präzisieren und neu formulieren.

III. ZEIT ZUM FÜHLEN – MEDITATION

Die Zeit zum individuellen Fühlen (andere nennen es Meditation) wurde von den einzelnen unterschiedlich genutzt. Historisch ist er Begriff vielfältig belegt, meist durch religiös-kirchliche Kontexte. Heute ist es im Westen ein Trendthema, vielfach unabhängig von Kirchen und Religionen, dem sich die Wirtschaft auf unterschiedliche Weise bemächtigt hat. Philosophisch ist es eine grundlegende Form der Selbstvergewisserung im eigenen Fühlen. Man kann sich war in vielfältigen Formen (speziell auch Bewegung, Sport, Spaziergang, usw.) ‚fühlen‘, das ruhige Dasitzen hat aber offensichtlich eine besondere Qualität. Allerdings gilt: tiefere Wirkungen stellen sich auch hier erst mit vielen Wiederholungen über einen längeren Zeitraum ein. Generell gilt, dass man mit dem Meditieren als ’sich fühlen‘ in eine ‚offene Zone des Erlebens‘ eintritt, deren ‚Ränder‘ und deren möglichen ‚Inhalte‘ im Vorhinein nicht abgegrenzt und nicht völlig definierbar sind. Im ‚Sich Fühlen‘ kann man sehr viel Neues entdecken, Unangenehmes wie Angenehmes.

IV. DISKURS

Philosophiewerkstatt 16.Juli 2017 - Gedankenbild - Diskurs

Philosophiewerkstatt 16.Juli 2017 – Gedankenbild – Diskurs

Nach der Einstimmung nahm das Gespräch Fahrt auf (siehe dazu das Schaubild ‚Diskurs‘). Zentraler Dreh- und Angelpunkt war der Begriff des Neuen.\\

Die erste Schwierigkeit bestand darin, wie man den Begriff des ‚Neuen‘ klarer fassen kann.

Grundlegend sollte gelten, dass wir das ‚Neue‘ immer im Kontext einer  bestimmten Person betrachten und hier mit Bezug auf die Gesamtheit des Wissens und der Erfahrung dieser Person. Diese Gesamtheit wurde auch gleichgesetzt mit der subjektiven Wahrheit dieser Person [Anmerkung: Zu den Elemente einer subjektiven Wahrheit siehe den vorausgehenden Abschnitt].  Als ’neu‘ sollte dann alles gelten, was relativ zu dieser vorausgesetzten  aktuellen subjektiven Wahrheit neu ist, weil es nicht zu dem bislang Bekanntem ‚passt‘.

Unterstellt man, dass die subjektive Wahrheit eine  dynamische Größe ist, die sich beständig ändern kann (z.B. durch Lernen), dann ist auch das ‚Neue‘ relativ: was eben noch ’neu‘ war ist beim nächsten Mal schon nicht mehr neu. Ein  aktuell Neues führt zu Veränderungen in der  aktuellen Wahrheit, wodurch das Neue zum schon Bekannten wird.

Wichtig ist auch, dass die wissensmäßigen und handlungsmäßigen Anteil der Erfahrung zusätzlich auf vielfältige Weise mit Erfahrungen von Bedürfnissen, Emotionen, Stimmungen, Gefühlen usw. verknüpft sind. Ist etwas Erinnerbares mit  negativen Emotionen verknüpft, kann es dazu führen, dass wir etwas ablehnen, ihm auszuweichen versuchen; verknüpft es sich mit positiven Emotionen, kann es umgekehrt anregen, dies anzustreben. Ist es  neutral, dann ist offen, was wir damit wollen.

Ohne Vorerfahrungen sind wir in gewisser Weise blind: wenn jemand eine Situation als  Gefahrensituation einstufen kann, dann kann — abhängig von der verfügbaren Erfahrung — eine ganze Skala von Reaktionen ablaufen. Entweder, man hat ein-trainierte Verhaltensmuster, die man abrufen kann, oder, wenn nicht, können angeborene Reflexe einsetzen, die einen zum Kampf oder zur Flucht oder z.B. zm Tot-stellen drängen. Hat man die Erfahrung nicht, dann können Menschen ’nichtsahnend‘ in Gefahrensituationen hineingehen, ohne sich entsprechend zu verhalten.

V. NACHTRAG

Was in den Gesprächen klar wurde, ist die  vollständige Abhängigkeit des einzelnen von seiner (subjektiven) Wahrheit. Was immer ein einzelner tun will, er wird geleitet werden von seiner aktuellen Wahrheit. Sollte diese seine Wahrheit durch seine Umgebung (Erziehung, Erfahrungen, andere Menschen…) einseitig sein, die ‚wahre Welt‘ nur ‚verzerrt‘ repräsentieren, dann könnte der einzelne selbst bei bester Absicht nicht optimal wahr handeln, da er nur seine eigene aktuelle Wahrheit hat.

Jeder einzelne Mensch stellt hier eine lebende Geschichte dar. Als Beispiel kann der Bericht über einen türkischen Lungenfacharzt Gergerlioglu dienen [Anmerkung: Siehe Frankfurter Allgemeine Sonntagszeitung, 16.Juli 2017, Nr.28, S.3.]  Als überzeugter Muslim hat er früher gemeinsam mit der AKP (Adalet ve Kalkınma Partisi = Partei für Gerechtigkeit und Entwicklung) für die Rechte von Muslimen, speziell für die Rechte der Frauen, gekämpft. Über dieses Engagement entdeckte er die Sicht der allgemeinen Menschenrechte. Von da war es für Ihn dann kein weiter Weg, zu entdecken, dass es ja noch andere religiöse Gruppen gab, die in der Türkei unterdrückt wurden: Aleviten, Christen, Kurden, Armenier, Atheisten, und die Misshandlung von Frauen. Er trat einer Menschenrechtsgruppe bei, wurde bald zum Vorsitzenden und dann deren Präsident in der ganzen Türkei. Damals arbeitete er noch eng mit der AKP zusammen, da sie zu dieser Zeit sich noch für die Rechte von Minderheiten einsetze und einen Aussöhnungsprozess mit den Kurden aktiv betrieb. Nach dem Verlust der absoluten Mehrheit für die AKP änderte sich plötzlich alles.

Unter Erdogan begann jetzt ein nationalistisches Vorgehen, in dessen Zusammenhang der Friedensprozess mit den Kurden gestoppt wurde; Hetze gegen Kurden und Minderheiten war plötzlich Realität. Als Gergerlioglu versuchte den Wahnsinn deutlich zu machen, indem er im Internet die Bilder von zwei Särgen veröffentlichte, einer mit einer türkischen, einer mit einer PKK-Flagge; daneben jeweils eine Mutter die weinte. Gergerlioglu stellte die Frage, warum verzehren wir uns gegenseitig, warum können die beiden nicht gleichberechtigt nebeneinander, Schulter an Schulter leben?

Diese Aktion machten Gergerlioglu innerhalb von 48 Std zum Terrorverdächtigen. Er wurde vom Dienst suspendiert, sein Pass wurde als ungültig erklärt, dann wurde er offiziell aus dem Staatsdienst entlassen. In der Justiz gab es angeblich kein Personal, um den Staatsanwalt auf ordentliche Weise einzuschalten. An der Schule seine Sohnes wurde er gebeten, nicht mehr für den Elternverein zu kandidieren. Aus dem Moscheeverein seines Viertels wurde er verdrängt. Seine schon eingereichten medizinischen Aufsätze wurden nicht mehr gedruckt. Später wurde auch seine Krankenversicherung gekündigt. Wie sich herausstellte, wurden mittlerweile alle Bürger in zwei Codegruppen eingeteilt: die mit einer 1 am Anfang sind unerwünscht, die mit einer 0 sind OK. Dies kommt einer gesellschaftlichen Auslöschung gleich.

Dieses Beispiel zeigt, dass die subjektive Wahrheit sich bei Herrn Gergerlioglu nicht geändert hat, wohl aber die Wahrheit der politisch einflussreichen Partei und deren Anhänger und Unterstützer. Menschenrechte und eine bestimmte Auffassung von Demokratie besitzen gesellschaftlich keine Mehrheiten mehr. Dies führt zu willkürlichen Ausgrenzungen von mittlerweile geschätzten 175.000 Bürgern. Offene Prozesse, transparente Nachweise fehlen bislang. Äußerungen des türkischen Wirtschaftsministers über potentielle Gegner der Regierung lassen das Allerschlimmste befürchten.

Interessant ist die Reaktion von Herrn Gergerlioglu auf diese Ereignisse. Für ihn sind die geänderten Kontexte neu. Die realen Begleiterscheinungen sind bedrohlich, schmerzlich, lebensverneinend, ohne große Perspektive (er hat u.a. eine schwerkranke Frau, deren Medikamente er bald nicht mehr bezahlen kann). Was ihm bislang Kraft gibt, diese Differenz zwischen seiner subjektiven Wahrheit und die des Kontextes auszuhalten, das ist sein Glaube. Was ist das, dieser  Glaube?

KONTEXTE

Einen Überblick über alle Einträge zur \textit{Philosophiewerkstatt nach Titeln} findet sich HIER.

Einen Überblick über alle \textit{Themenbereiche des Blogs} finden sich HIER.

Das aktuelle \textit{Publikationsinteresse des Blogs} findet sich HIER.

WECHSELSPIEL PHILOSOPHIE UND WISSENSCHAFT – ZUKUNFT DER RELIGIONEN – Nachtrag zu Stace’s ‚Mysticism and Philosophy‘

  1. In der Lektüre und dann Diskussion von Stace’s Buch ‚Mysticism and Philosophy‘  wird man unweigerlich auf die Grundlagen unserer Wirklichkeitswahrnehmung und unseres Denkens zurückgeworfen. Nun ist dieser Blog voll von solchen Überlegungen und Untersuchungen. Dennoch haben Bücher wie das von Stace den großen Wert, dass sie deutlich machen, eine bestimmte Form der Wirklichkeitswahrnehmung ist nicht individuelle Willkür, sondern scheint sich auf sehr viele Menschen über verschiedene Kulturen, Religionen und Jahrtausende zu erstrecken. Dies gibt immerhin Anlass, darüber weiter nachzudenken.
  2. Das Thema der mystischen Erfahrung führt zu den Grundlagen unseres Erkennens, zu dem Ort, wo sich Wahrnehmen und Interpretation die Hand reichen.
  3. Es ist ein Dauerthema vieler Philosophen seit mindestens 2500 Jahren, wie man das Zusammenspiel von Wahrnehmen ‚wie es ist‘ und Interpretieren ‚wie man meint, wie es ist‘ näher bestimmen kann.
  4. In diesen Chor haben sich bei Zeiten auch die Religionen (Hinduismus, Buddhismus, Judentum, Christentum, Islam, …) eingemischt, um eine besondere religiöse Interpretation der wahrnehmbaren Wirklichkeit überzustülpen.
  5. Schließlich entwickelte sich eine empirische Wissenschaft, die den Raum der Wahrnehmung drastisch einschränkte auf nur solche Wahrnehmungen, denen ein messbares Ereignis in der Welt außerhalb der menschlichen Körper entspricht. Ihre Interpretationen hatten den großen Vorteil, dass der Bedeutungsbezug vergleichsweise einfach zu klären war.
  6. Obwohl das Thema Wahrnehmen und Interpretieren also nicht neu ist und in so vielen Spielarten auftritt, hat man nicht den Eindruck, dass es im Hier und Jetzt des Jahres 2017 dazu unter den Menschen eine einheitliche Meinung gibt. Selbst unter jenen Menschen, die eine akademische Ausbildung haben finden sich mehrheitlich geradezu abstruse Auffassungen dazu, was und wie wir wahrnehmen und interpretieren. Esoterisches Fake-Wissen und Ablehnung der Evolutionslehre sind nur einige Bruchstücke aus dem Kaleidoskop der heute öffentlich vertretenen Meinungen.
  7. In diesem Blog hat sich über die Jahre eine Position ‚ergeben‘, die folgende Grundannahmen macht (der Beginn dieser Position reicht in etwa zurück zu dem öffentlichen Vortrag in der philosophischen Gesellschaft Bremerhaven im Januar 2012)
  8. Primärer Zugang zur Welt und zu uns selbst ist unser bewusstes Erleben. In ihm haben wir Wahrnehmungen von konkreten Dingen, die sich in unterschiedliche Sinneswahrnehmungen aufgliedern lassen. Zugleich haben wir aber auch ein abstraktes Wissen parallel zu diesen konkreten Dingen, das sich darin ausdrückt dass wir von einem konkreten Ding sagen können, es sei eine ‚Tasse‘ oder ein ‚Hund‘ oder dergleichen. ‚Tasse‘ und ‚Hund‘ sind keine konkreten Dinge sondern abstrakte Größen (Konzepte, Begriffe, Klassen, Cluster, …) und die sinnlich wahrgenommenen konkreten Größen sind dann Beispiele/ Instanzen solcher abstrakten Größen, z.B. ‚Dieses konkrete Etwas ist ein Beispiel für ein abstraktes Ding genannt Tasse‘.
  9. Das parallele abstrakte Wissen bietet aber noch weitere Aspekte wie Beziehungen zwischen abstrakten Größen, Einbettungen von abstrakten Größen in andere, Veränderungen von abstrakten Größen, Zuordnung von Zeichensystemen, ein ‚Wissen, dass es so ist‘, komplexe Modellbildungen, und vieles mehr.
  10. Der Begriff des ‚bewussten Erlebens‘ ist von daher verwirrend: er meint einerseits tatsächlich ein konkretes sinnliches Erleben, zugleich meint er aber auch die abstrakten Wissenselemente, die sich mit dem konkreten Erleben quasi automatisch verbinden.
  11. Es sind diese automatischen abstrakten Wissensanteile, die das konkrete Erleben kontinuierlich ‚kommentieren‘, indem sie die konkreten Dinge in abstrakte Wissensbeziehungen einordnen.
  12. Jeder einzelne ist diesem Mechanismus ausgeliefert.
  13. Da die abstrakten Wissenselemente offensichtlich aus Erfahrungs- und Lernprozessen stammen, können die interpretierenden abstrakten Wissenselemente individuell sehr unterschiedlich ausfallen und faktisch fallen sie unterschiedlich aus, z.B. sehr extrem unterschiedlich.
  14. Solange jeder einzelne darum weiß, besteht die Möglichkeit, dass zwei Menschen mit unterschiedlichen ‚Meinungen‘ aufgrund ihres ‚Wissens um das eigene Wissen‚ solche Unterschiede zum Anlass nehmen, um die Ursachen der unterschiedlichen Meinungen zu klären.
  15. Die Alltagserfahrung lehrt uns, dass die allerwenigsten Menschen sich dessen bewusst sind, dass ihre automatisiertes Erfahrungswissen beständig am Werk ist und dass eine aktuelle Meinung möglicherweise durch viele Zufälle und Besonderheiten eine Form gefunden hat, die – bei näherer Analyse – sich als ‚falsch‘ erweisen würde. Menschen, die sich dessen nicht bewusst sind, nehmen ihre zufällig-falsche aktuelle Interpretation der Welt, die im Bewusstsein automatisch erzeugt wird, als eine ‚wahr Meinung‘, d.h. als die ‚wahre Beschreibung der Welt‘ und damit als das Bild davon, ‚wie die Welt ist‘. Und wenn sie diese Meinung haben (die Zahl der Fanatiker in unserer Welt ist ja nachweislich größer als ca. 20% aller Menschen), dann sind sie u.U. bereit, dafür zu streiten, zu kämpfen, zu terrorisieren, zu foltern und zu töten.
  16. Als Philosoph kann man durch bewusste Analyse des Erlebensraumes (man nennt dies häufig ‚phänomenologisches Denken‘ angereichert mit geeigneten Reflexionen darauf) viele Eigenschaften unseres alltäglichen Wissens erfassen und klären. Dennoch, der Raum des bewussten Erlebens ist ein abgeschlossener Raum und bietet aus sich heraus keine Hinweise darauf, warum er die Struktur hat, die er nun mal hat.
  17. Hier bieten die modernen empirischen Wissenschaften vom Leben (Biologie, Psychologie, Physiologie,…) viele interessante Erkenntnisse. Obgleich sich diese empirischen Wissenschaften nur auf einen Teilbereich der bewussten Erlebnisse (= Phänomene) beschränken, nämlich auf die empirischen Erlebnisse – also jenen, denen Gegebenheiten in der körperexternen Wirklichkeit entsprechen, die sich empirisch messen lassen –, konnten diese Wissenschaften  Zeitreihen von Veränderungen analysieren, aufgrund deren wir nicht nur die Entstehung der menschlichen Körper in der Zeit neu verstehen können, sondern auch das grundsätzliche Funktionieren des aktuellen Körpers.
  18. Auch wenn empirische Wissenschaften die subjektiven Erlebnisdaten bis heute nicht direkt verwenden können, so können wir als Menschen und insbesondere als Philosophen die empirischen Wahrnehmungen als Teil des ganzen Erlebnisraumes einordnen und in Beziehung setzen.
  19. Durch die Einbeziehung von Erkenntnissen aus empirischer Forschung in philosophisches Denken können wir quasi hybride Modelle bauen, in denen die empirische Erkenntnisse es möglich machen, den subjektiven Erlebnisraum samt seinen abstrakten Elementen ‚einzubetten‘ in ein empirisches Modell von Wahrnehmung, Gedächtnis und Denken. Dieses empirische Modell kann dann ansatzweise kommentieren, warum wir sinnliche Wahrnehmungen haben, wie wir sie erleben, warum wir abstrakte Elemente im Wissen verfügbar haben und warum ausgerechnet diese abstrakten Elemente (Anmerkung: ein historisches Beispiel ist die empirische Kommentierung von Kant durch Konrad Lorenz (wenn der Autor dieser Zeilen auch nicht alles teilt, was Lorenz da schreibt))
  20. Die philosophisch kontrollierte Einbeziehung von empirischem Wissen in ein philosophisches Denken ist kein Stilbruch, sondern letztlich philosophisch konsequent: da die empirischen Phänomene ja weiterhin zu den primären Wahrnehmungen auch eines philosophierenden Menschen gehören. Ein Philosoph kann also alle empirischen Erkenntnisse als Momente am philosophischen Denken benutzen und damit, in der Tat, viele Jahrtausend alte Probleme des philosophischen Denkens auflösen; allerdings nicht vollständig. Es bleiben genügend spannende Reste.
  21. Für die Probleme des Alltags folgt aus alledem, dass Menschen unbedingt mehr lernen müssten (Bildung! Aufklärung!…), dass ihre aktuellen Weltsichten grundsätzlich und immer automatisierte Konstrukte ihres Gedächtnisses sind, die die konkreten Wahrnehmungen kommentieren und die meistens ein wenig bis sehr viel nicht stimmen. Das Auftreten von Unterschieden zwischen den Weltsichten verschiedener Menschen sollte von daher – im positiven Fall – ein willkommener Anlass sein, zu überprüfen, wie es denn zu diesen Unterschieden kommen konnte. Möglicherweise gehört dies zu einer ‚Kultur des Dialogs‘, in der es nicht darum geht, die Meinung eines anderen und dazu noch den anderen selbst einfach zu diskreditieren, sondern die unterschiedlichen Interpretationen auf ihre Voraussetzungen und ihre Entstehung hin zu klären. Dies kann nur bei  gegenseitigem Respekt, einvernehmlich und mit Geduld und Empathie gelingen, wenn überhaupt. Oft fehlt Menschen schlicht die geeignete Sprache, um das, was sie fühlen, denken, meinen angemessen auszudrücken.
  22. Die Vielfalt der sogenannten Religionen, ihr heute noch immer eher abgrenzendes Auftreten, ihre begrenzte Dialogfähigkeit, kann bzw. muss man vor diesem Hintergrund deuten als ein Verhalten, das aufgrund eines mangelnden Wissens um das menschliche Wahrnehmen und Erkennen entstanden ist und immer noch besteht.
  23. Gerade wenn eine religiöse Überzeugung auf einen ‚lebendigen Gott‘ (was oder wer dies immer ist) gründet, würde man doch erwarten, dass alle diese Religionen ein großes Interesse daran haben sollten, die Wirklichkeit dieses Gottes und seine Wechselwirkung mit der Welt und den Menschen besser zu verstehen. Speziell sollte jeder Religion ein Interesse daran haben, mit den anderen Religionen in einen Austausch zu treten, um zu klären, warum es solche Unterschiede gibt, weildoch angeblich alle an den gleichen Gott glauben.
  24. Wenn es um Gott als das höchste Wesen geht, dann kann es – jetzt logisch gedacht – nur ein einziges höchstes Wesen geben, und dass es mehr als eine Religion gibt, die sich auf das höchste Wesen beruft, kann eigentlich nicht sein. Statt aber weltweit den Dialog miteinander zu suchen, versuchen sich die großen Religionen bislang eher voneinander abzugrenzen, und tendieren dazu, die anderen zu verteufeln, gar zu verfolgen. Dies ist bizarr, unlogisch, und lässt alle diese Religionen als eher fragwürdig erscheinen. Sich gegenseitig mit viel Pomp zu besuchen ersetzt keinen wahrhaftigen Dialog.
  25. Die Lektüre von Stace’s exzellentem Buch bestärkt eher die Hypothese, dass der harte Kern religiöser Erfahrungen, wie er sich in den mystischen Erfahrungen zu allen Zeiten und in allen Kulturen manifestiert, gerade diese Einheitshypothese bestärkt: trotz aller Unterschiede meint Stace in den Berichten zu mystischen Erfahrungen einen harten Kern erkennen zu können, der überall gleich erscheint. Es sind dann die zeit- und kulturgebundenen Interpretationen, die Unterschiede hineintragen. Und dies geht nur, weil die Menschen, die interpretieren, sich der Eigenart des menschlichen Wissensapparates nicht bewusst sind. Sie verstehen nicht, dass jede Form von Wissen, die sich in einem Menschen ereignet, virtuell ist, konstruiert, tendenziell eher falsch, und es erwachsene, gebildete Menschen braucht, die solche Falschheiten erkennen (wenn überhaupt).
  26. Wenn die Hypothese von Stace stimmt (und der Autor dieser Zeilen sieht dies so), dann haben wir heute keine Krise von Gott oder einer echten Gottesbeziehung, sondern eine Krise der historisch gewordenen institutionalisierten Religionen.
  27. Anmerkung: Es ist sehr seltsam, dass man zum Jubiläum der Reformation immer nur die alten Muster neu aufgießt anstatt über eine ‚Reformation der Reformation‘ nachzudenken. Eine solche Reformation der Reformation wäre nicht nur aufgrund des verbesserten Wissens möglich, sondern sehr notwendig. So aber hängen alle in einer historischen Interpretationsschleife, die wie ein Mandra funktioniert.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

(MASCHINELLES) BEWUSSTSEIN – ALLTAGSERKENNEN – ZURÜCK AUF START

(A shorter version in English can be found HERE)

KONTEXT: WELT DER INGENIEURE

  1. Seit letztem Sommer arbeite ich bei einem Buchprojekt mit, bei dem es eigentlich um die Welt der Ingenieure geht: Wie löst ein Ingenieur ein Problem? Sozusagen vom ‚Problem‘ zum ‚fertigen Produkt‘. Zu diesem Thema gibt es viele dicke Bücher und internationale Standards, viele hundert Artikel. Dennoch gibt es hier viele offene Fragen, z.B. auch die nach den Erkenntnisprozessen, die in Ingenieuren ablaufen müssen, damit sie ein Problem in eine funktionierende Lösung transformieren können. Unter welchen Voraussetzungen kann eine Kommunikation zwischen Ingenieuren gelingen? Gibt es eine innere Logik in diesem Prozess? Und was ist mit den intelligenten Programmen und Maschinen, die immer mehr Teil dieses Prozesses sind und sein werden? Was ist eigentlich ‚Künstliche Intelligenz‘? Was kann sie wirklich? Könnte eine Maschine menschlich kommunizieren? Kann eine Maschine ein maschinelles Bewusstsein haben, das eine Kooperation mit Menschen im menschlichen Stil ermöglicht?

MASCHINELLES BEWUSSTEIN

  1. Dies sind einige der Fragen. Die Frage nach einem maschinellen Bewusstsein wurde in diesem Blog bisweilen schon angerissen. Damit zusammenhängend stellt sich – zumindest methodisch – sofort die Frage, was wir denn unter dem Begriff ‚Bewusstsein‘ verstehen können oder sollen? Macht es Sinn, von einem ‚maschinellen Bewusstsein‘ zu sprechen, wenn wir doch gar nicht wissen, was ein ‚Bewusstsein‘ sein soll? Hier stellen sich viele spannende Fragen; einige davon wurden in diesem Blog auch schon diskutiert.

BEWUSSTSEIN UND NEURONALE KORRELATE

  1. Speziell die Frage nach dem menschlichen Bewusstsein hat schon immer Philosophen beschäftigt, später, in der Neuzeit, auch Psychologen, und dann, noch später, seit einigen Jahrzehnten zunehmend die Neurowissenschaften bzw. die Neuropsychologie. Der Begriff der ’neuronalen Korrelate des Bewusstseins‘ ist mittlerweile weit verbreitet. Ganz allgemein werden damit Gehirnaktivitäten gemeint, die mit Bewusstseinsprozessen einhergehen sollen. Die Zahl der Publikationen zu diesem Thema geht in die Hunderte. Dennoch wird man sich schwer tun, in irgendeiner dieser Publikationen eine brauchbare Definition von ‚Bewusstsein‘ zu finden, die unabhängig von neurowissenschaftlichen Tatbeständen ist. Von daher bewegen sich diese Publikationen weitgehend in einem hermeneutischen Zirkel: sie versuchen neuronale Korrelate des Bewusstseins zu definieren, ohne dass sie den Begriff ‚Bewusstsein‘ unabhängig von Gehirnaktivitäten definieren. Vereinfacht wird ein Bündel von Gehirnaktivitäten genommen und erklärt, dass immer dann, wenn diese auftreten, bewusste Aktivitäten vorliegen, ohne dass diese bewussten Aktivitäten in einem selbständigen theoretischen Modell erklärt werden bzw. unabhängig von den neuronalen Aktivitäten gemessen werden.
  2. Die Methodendiskussionen im Kontext der Neurowissenschaften – auch unter Einbeziehung der Neuropsychologie – erscheinen von daher bislang eher unbefriedigend.

MACHINELLES BEWUSSTSEIN – KI

  1. Hier gibt es einen interessanten Nebenkriegsschauplatz, von dem man sich auf den ersten Blick vielleicht kaum Erkenntnisse für die Frage ‚Bewusstsein – Gehirn‘ erhofft. Das Gebiet des maschinellen Bewusstseins, einem Teilgebiet der künstlichen Intelligenz (Anmerkung: der heute oft anzutreffende Begriff der ‚Maschinellen Intelligenz‘ ist – wenn man sich an den veröffentlichten Texten orientiert – nur ein kleiner Teilbereich des weiten Gebietes der ‚Künstlichen Intelligenz‘. Allerdings ist der Sprachgebrauch von ‚Künstlicher Intelligenz‘, ‚Maschineller Intelligenz‘, ‚Computational Intelligence‘, ‚Cognitive Computation‘ usw. zur Zeit nicht sehr einheitlich.) fragt sich sehr speziell, ob und wie man das Phänomen des menschlichen Bewusstseins mittels einer Maschine soweit nachbauen könnte, dass sich alle Eigenschaften des menschlichen Bewusstseins damit reproduzieren lassen. Wie man dieses maschinelle Bewusstsein technisch realisiert ist bei dieser Fragestellung eigentlich offen, faktisch versucht aber die große Mehrheit der hier aktiven Forscher Anleihen bei der Gehirnwissenschaft und der Psychologie zu holen, weil nun mal der Prototyp eines menschlichen Bewusstseins in realen Menschen real vorliegt und es für viele einfacher erscheint, sich hier etwas abzugucken als alles aus dem Nichts neu zu erfinden.
  2. Einen der besten Überblicke, den ich zu diesem Forschungsgebiet kenne, stammt von James A.Reggia aus dem Jahr 2013 mit dem Titel „The rise of machine consciousness: Studying consciousness with computational models“ (erschienen in der Zeitschrift ‚Neural Networks‘ von Elsevier (URL: https://pdfs.semanticscholar.org/8333/603ff38df5fb8277f0ef945b3d4c6ccd672e.pdf ). In einem späteren Artikel aus 2017 hat er die grundlegende methodische Problematik unter dem Titel „Exploring the Computational Explanatory Gap‚ zusammen mit anderen nochmals weiter ausformuliert (in der Zeitschrift ‚Philosophies‘ (URL: doi:10.3390/philosophies2010005 ). Reggia zeigt viele der methodischen Schwachstellen der Rede von den neuronalen Korrelaten des Bewusstseins auf (auch sehr grundlegende Einwände) und kommt letztlich zum Ergebnis, dass die Forschung nicht wirklich weiter kommt, solange sie sich nicht dem Phänomen des ‚Bewusstseins‘ direkt stellt ohne den Umweg über Verhalten (Psychologie) oder Gehirnaktivität (Neurowissenschaft).

WIE DIE FRAGE STELLEN?

  1. Damit stellt sich die Frage, welche Chancen wir denn haben, uns direkt mit dem Bewusstsein zu beschäftigen. Die vielfachen Versuche der Philosophen aus mehr als 2000 Jahren, die der Psychologen seit ca. 150 Jahren bieten eine kaum überschaubare Fülle von Vorgehensweisen, von denen sich aber bislang keine wirklich durchsetzen konnte. Am meisten vielleicht noch (meine subjektive Einschätzungen) die Ansätze einer phänomenologischen Philosophie (Husserl, Heidegger, Merleau-Ponty…), aber so richtig durchsetzen konnten diese sich bislang auch nicht. Seit den 90iger Jahren gab es eine neue Welle von philosophischen Untersuchungen. Den Namen Thomas Metzinger kennen seitdem viele, die Zeitschrift ‚Journal of Consciousness Studies‘ bildete einen starken Impuls, in der Einbeziehung der Gehirnforschung sahen viele eine neue Option. In dem Maße aber, wie sich die Daten der Gehirnforschung mathematisch fassen und in neuartige Experimente umsetzen lassen, wird sichtbar, dass die Gehirnforschung als solche nicht automatisch jene Erkenntnisse liefert, nach denen wir fragen. Was also tun?

SYSTEMS ENGINEERING

  1. Mehr durch Zufall bin ich vor ca. 18 Jahren mit Menschen zusammen getroffen —  speziell mit einem –, die sich Ingenieure nennen, genauer, ‚Systems Engineers‘. Dies sind Menschen, die ein umfangreiches Training vorwiegend in Technologie, Mathematik und Management genommen haben, meist mindestens 20 – 25 Jahre, bis sie dann Raketen und Flugzeige planen und bauen können, Atomreaktoren mit Extremsicherheitsanforderungen, den Verkehrsfluss in Städten, die Grenzsicherung eines Landes, das Gesundheitssystem eines Landes, und vieles mehr. Systems Engineers sind gewohnt, komplex zu denken, in Prozessen, unter Einbeziehung des Faktors Mensch, und immer sehr konkret, überprüfbar, messbar, mit vielen mathematischen Modellen, unter Einbeziehung von hochentwickelten Softwarewerkzeugen.
  2. An dieser Stelle kann man mal die Frage aufwerfen, wie müsste eine Theorie des menschlichen Bewusstseins aussehen, so dass ein Systems Engineer sie real und praktisch benutzen könnte, um seine komplexen Aufgaben damit besser lösen zu können? Die meisten Publikationen zum Thema Bewusstsein reden in gewisser Weise ‚über‘ das Phänomen, eingebettet in viele spezielle Begriffe, deren Bedeutung nicht so ohne weiteres klar ist, ohne dass sich daraus ableiten lässt, wie man aus diesem Reden ‚über‘ das Bewusstsein zu konkreten Anleitungen und zu konkreten Methoden kommen kann, die geeignet sind, das reale Verhalten von Akteuren mit Bewusstsein sowohl zu beschreiben wie auch – soweit es die internen Freiheitsgrade von Akteuren erlauben – gewisse Prognosen über ihr Verhalten abzugeben. Für Ingenieure besonders wichtig sind brauchbare Erkenntnisse über die Wechselwirkung zwischen den Situationsgegebenheiten und den inneren Zuständen des Akteurs. Eine verhaltensorientierte Psychologie kann hier in der Regel von großer Hilfe sein, ersetzt aber keine ‚Theorie des Bewusstseins‘ im engeren Sinne.

ZURÜCK AUF START

  1. Die obigen Überlegungen im Hinterkopf, z.T. schon viele Jahrzehnte, habe ich mich jetzt entschlossen, die Frage nach einer geeigneten Theorie des Bewusstseins, die sich in Ingenieurkontexten praktisch nutzen lässt, nochmals neu anzugehen. Dieses Mal bewusst im Rahmen des methodischen Paradigmas des Systems Engineerings.
  2. Dabei trat die Notwendigkeit auf, die pragmatischen Umschreibungen und Handhabungen des Begriffs ‚Systems Engineering‘ im Modell einer ‚Empirischen Wissenschaft‘ mit einer ‚formalen Theorie‘ zu reformulieren und in diesem Kontext dann die Frage nach dem Bewusstsein empirisch und theoretisch zu verfolgen. Obgleich man davon ausgehen kann, dass die Ergebnisse der empirischen Psychologie, der empirischen Neurowissenschaften und einer empirischen Neuropsychologie wertvolle Korrelationen liefern können, so muss man methodisch festhalten, dass sie dies nur dann können, wenn es unabhängig vom Verhalten und den Gehirnaktivitäten eine brauchbare Theorie des Bewusstseins gibt, die sich korrelieren lässt. Ohne solch eine eigenständige Theorie des Bewusstseins bewegen sich Psychologie und Gehirnwissenschaft in einem hermeneutischen Zirkel, aus dem es keinen Notausgang gibt.
  3. Ein Ziel zu haben ist eines, den Weg zum Ziel zu finden etwas anderes.

START IM ALLTAG

  1. Nach zahllosen Versuchen in den letzten Jahren und den intensiven Diskussionen in der Fachliteratur habe ich mich entschieden, den Start der Untersuchung in den Alltag zu verlegen, in den Kontext jener Abläufe und Handlungen, die wir täglich vornehmen, die wir mehr oder weniger gemeinsam haben, und über die zwar nicht unbedingt theoretisch explizit aber dennoch pragmatisch unausgesprochen eine gewisse Einigkeit besteht.

KÖRPER ALS APRIORI

  1. Es besteht eine gewisse Wahrscheinlichkeit, dass jene Verhaltensweisen, die wir praktizieren, ohne darüber groß zu diskutieren, jene sind, die in der Dynamik und Struktur unseres Körpers, unseres Gehirns und unseres Bewusstsein biologisch angelegt sind, jene Plattform des Wahrnehmens, Fühlens, Erinnerns, Vorstellens, Entscheidens usw. bieten, mit der wir unser alltägliches Leben bestreiten, auch wenn wir über keinerlei theoretische Erkenntnisse verfügen, wie man dies alles genau verstehen kann bzw. sollte (So können Kinder lernen, sich zu bewegen und zu sprechen, ohne theoretische Kenntnisse).
  2. In der formalen Logik gibt es den Grundsatz, dass man nur jene Sachverhalte ‚beweisen‘ kann, die schon in den Voraussetzungen einer Theorie drin stecken. Im Fall unseres Alltagsverhaltens wäre dann das Alltagsverhalten zu verstehen als eine fortdauernde Manifestation von Voraussetzungen, die biologisch in unserem Körper angelegt sind. Die eigentliche theoretische Arbeit bestünde dann darin, jene Voraussetzungen sichtbar zu machen, die in unserem Körper so angelegt sind, dass wir genau zu dem beobachtbaren Verhalten fähig sind. Schwierig wird es dann nur, wenn wir in unserem beobachtbaren Verhalten nur einen Bruchteil von dem Potential ausnutzen, was ‚in uns‘ steckt. Wie wollen wir dann wissen, ‚wer‘ wir sind, wenn sich unsere potentielle Person – aus den unterschiedlichsten Gründen – nicht ‚zeigt‘? Die Geschichte der Menschheit ist voll von Beispielen, wie kulturelle Muster das Verhalten von Menschen unnötiger Weise in bestimmte Muster gepresst haben (und immer noch pressen), die die Entfaltung von Menschen behindern; umgekehrt haben immer wieder Menschen und Situationen neue Verhaltensweisen hervorgebracht, von denen man sich vorher gar nicht vorstellen konnte, dass es sie geben könnte.

BARRIEREN IM SELBST-ERKENNEN

  1. Dies zeigt, dass das ‚Erkennen unserer selbst‘ selbst wiederum in einem hermeneutischen Zirkel stattfindet, in dem wir möglicherweise nur deswegen vieles nicht erkennen, weil wir uns schlicht nicht vorstellen können,   dass es möglich ist, bzw.  dass wir als Menschen auch ganz anders sein könnten (die Art und Weise, wie noch heute in vielen Kulturen z.B. Kinder und Frauen gesehen und behandelt werden, zeigt überdeutlich, wie schwer sich der homo sapiens tut, seine Verhaltensmodelle zu ändern, und auszuweiten).

Fortsetzung folgt

 

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

THOMPSON: MIND IN LIFE – Review – Teil 1

Evan Thompson, Mind in Life. Biology, Phenomenology, and the Sciences of Mind. Harvard – London, The Belknap Press o f Harvard University Press, 2007

PHILOSOPHIE UND WISSENSCHAFTEN – EIN MOTIV

  1. Das Motiv für die Lektüre dieses Buches rührt von der anhaltenden Auseinandersetzung von cagent zu den philosophischen Grundlagen unseres Weltbildes. Egal ob man sich mit psychologischen Modellbildungen beschäftigt, mit biologischen oder neurowissenschaftlichen, man stößt immer wieder auf die methodischen Ränder dieser Disziplinen, durch die ein direkter Zugriff auf die Inhalte des Bewusstseins nicht möglich ist (siehe Bild 1). Es bleiben immer nur Korrelationen mit etwas, das man dem Bewusstsein zurechnet, aber man kommt niemals direkt an die Daten des Bewusstseins heran.

Die drei großen Blickweisen auf den Menschen (Verhalten, Gehirn, Bewusstsein) und deren möglichen Verknüpfungen

Die drei großen Blickweisen auf den Menschen (Verhalten, Gehirn, Bewusstsein) und deren möglichen Verknüpfungen

  1. Dieses Problem ist nicht neu, es ist letztlich uralt, aber durch die Fortschritte der empirischen Wissenschaften wird die Besonderheit des Phänomens des Bewusstseins klarer als je zuvor.

  2. Welcher Philosoph das Phänomen des Bewusstseins bislang am besten beschrieben haben soll, ist schwer zu sagen. Jeder große Philosoph hat auf seine Weise interessante Aspekte enthüllt. Aus Sicht der heutigen Methoden und Erkenntnisse erscheint cagent das Vorgehen von Edmund Husserl mit seinem phänomenologischen Forschungsprogramm bislang als am ehesten geeignet zu sein, eine Brücke zu schlagen zu den heutigen empirischen Wissenschaften, ohne dabei das Alleinstellungsmerkmal des philosophischen Denkens und die Besonderheiten des Untersuchungsgegenstandes aufgeben zu müssen.

  3. Entscheidend für das Projekt einer verbesserten Integration von philosophischem mit empirischem Denken wird der benutze Erkenntnis- und Wissenschaftsbegriff sein. Trotz ca. 100 Jahren Wissenschaftsphilosophie kann man aber nicht behaupten, dass es in allen wissenschaftlichen Disziplinen heute einen einheitlichen Wissenschaftsbegriff gibt, der sich auch in entsprechend gemeinsamen Methoden und Darstellungsweisen ausdrückt.

  4. Der Autor cagent greift zu diesem Zweck zurück auf die Tradition der Wissenschaftstheorie, wie sie zuletzt im Institut für Logik und Wissenschaftstheorie der Ludwig-Maximilians Universität München in den 80iger Jahren des 20.Jahrhunderts praktiziert wurde (dies Institut existiert in der damaligen Form nicht mehr). Diese Sicht wurzelte stark u.a. auch in der Tradition des Wiener Kreises, mit all den Schwachstellen, die sich daraus ergaben. Dennoch kann man aus dieser Position eine Arbeitshypothese herleiten, die nachvollziehbar und kritisierbar ist. Diese Position sei hier mit der Abkürzung LMU-ILWT bezeichnet.

  5. Ein wesentlicher Punkt in der Position des LMU-ILWT besteht in der Forderung nach einer angemessen Formalisierung intendierter wissenschaftlicher Sachverhalte in einer Disziplin. Heute könnte man die Formalisierungsanforderung ergänzen um den Punkt von brauchbaren Simulationsmodellen, mit deren Hilfe sich die Auswirkungen einer formalen Theorie sichtbar und ansatzweise überprüfbar machen lassen.

  6. Die Anforderungen lassen sich an jede empirische Theorie stellen und einlösen, was aber faktisch immer nur partiell passiert. Den meisten Wissenschaftlern fehlt das Knowhow (und die Zeit, und die Werkzeuge), um diese Anforderung wirklich einzulösen.

  7. Im Rahmen eines Programms zur Integration von Philosophie und empirischen Wissenschaften ist zu überprüfen, ob und wieweit sich auch die Position der Philosophie entsprechend formalisieren und simulieren lässt. Von den meisten Philosophen wird solch eine Gedanke eher abgelehnt.

  8. Im Falle eines phänomenologischen Forschungsprogramms im Stile von Edmund Husserl ist solch eine Überlegung aber keinesfalls abwegig, sondern gehört sogar in gewisser Weise zum Forschungsprogramm selbst.

  9. Im Rückgang auf die Grunddaten des bewussten Erlebens, Fühlens, Denkens usw. zeigt sich eine Vielfalt von Phänomenen in einer spezifischen Dynamik mit impliziten Strukturen, die zu formalisieren genauso sich anbietet wie die Formalisierung von komplexen Phänomene aus dem Bereich der biologischen Evolution oder der Entstehung des physikalischen Universums.

  10. Es gab sogar einen berühmten Versuch solch einer Formalisierung. Das Buch von Rudolf Carnap Der Logische Aufbau der Welt (1928) erscheint als  eine  1-zu-1 Übersetzung jenes Konstitutionsprozesses der Phänomene des Bewusstseins, wie sie Husserl in den Ideen I + II (sowie in anderen Schriften) über Jahrzehnte entwickelt hat. Allerdings hat Carnap sowohl im Stufenbau wie auch in seiner Autobiographie alles daran getan, diesen Bezug zu Husserls Denken und Werk zu verdecken. (Anmerkung: Eine neuere, sehr ausführliche und gründlich recherchierte Untersuchung zum Verhältnis von Carnaps Stufenbau zum Denken Husserls, die diese Nähe Carnaps zu Husserl belegt,  findet sich in einem Beitrag von Verena Mayer (München), der demnächst erscheinen wird.)
  11. Der Stufenbau Carnaps wurde mehrfach heftig kritisiert. Dennoch ist die Grundidee, auch die Phänomene des Bewusstseins einer formalen Analyse zu unterziehen naheliegend und konsequent. Es gibt keinen Grund, dies nicht zu tun. Die grundsätzliche Problematik einer Versprachlichung von Erkennen wird dadurch natürlich nicht aufgehoben und nicht geheilt, aber im Raum des menschlichen Erkennens gibt es keine Alternativen. Unser Denken befindet sich kontinuierlich in einem Ringen um Artikulation, die als solche notwendig ist, aber als solche niemals das Erkannte ganz erschöpfen kann. Das bekannte Ungenügen ist keine Entschuldigung, es gar nicht zu tun. Denn die Alternative zu einer unvollkommenen Artikulation ist gar keine Artikulation.
  12. Je mehr die empirischen Wissenschaften die Grenzen des Redens über das Bewusstsein immer klarer erfahrbar machen, umso eindringlicher entsteht die Aufforderung, sich als Philosoph erneut darüber Gedanken zu machen, ob und wie solch ein Programm einer erneuerten Theorie des Bewusstseinserlebens im Kontext von Entwicklungs-, Verhaltens-, Gehirn- und Körperwissenschaften (um nur die wichtigsten zu nennen) aussehen könnte. Arbeitshypothese ist, das phänomenologische Forschungsprogramm von Husserl als Leitschnur zu nehmen erweitert um das wissenschaftsphilosophische Instrumentarium einer modernen Wissenschaftstheorie im Stil von LMU-ILWT.
  13. In diesem Kontext finde ich ein Buch wie das von Thompson reizvoll, zumal Thompson sich in den letzten Jahren in einem Netzwerk von Forschern bewegt hat, denen man das Label ‚Naturalisierung der Phänomenologie‘ anheften könnte. Diese Forscher hatten ihren eigenen Lernprozess mit dem Forschungsprogramm von Husserl.

THOMPSON Kap.1 (SS.3-15)

ENAKTIVE VORGEHENSWEISE

  1. In diesem einführenden Kapitel versucht Thompson eine historische Einordnung vorzunehmen zwischen jenem philosophisch-wissenschaftlichen Paradigma, dem er sich zugehörig fühlt und das er Enaktiv (Englisch: ‚enactive‘) nennt, und jenen anderen Strömungen, die er als vorbereitend für den eigenen Standpunkt ansieht. Der Begriff ‚enaktiv‘ ist ein Kunstwort, in dem die Idee einer Realisierung eines Gesetzes durch Verkörperung in der Zeit ausgedrückt werden soll. (vgl. S.13) Der Begriff geht zurück auf das Buch The Embodied Mind, das Thompson zusammen mit Varela und Rosch 1991 verfasst hatte.
  2. Im einzelnen zählt Thompson fünf Aspekte auf, die für eine enaktive Vorgehensweise in seinem Verständnis wichtig sind.(vgl. Dazu S.13)
  3. Zum einen (i) ist dies der Aspekt der Autonomie lebender Systeme. Im Rahmen ihrer Möglichkeiten organisieren sie sich komplett selbst und in diesem Rahmen generieren sie ihren spezifischen Erkenntnisraum (‚cognitive domain‘).
  4. Innerhalb dieser generellen Autonomie arbeitet (ii) das Nervensystem (das Gehirn) ebenfalls autonom. Mit Schnittstellen zu Ereignissen außerhalb des Gehirns arbeitet das Gehirn aber vollständig selbstbezüglich und erschafft in dieser Selbstbezüglichkeit seine eigenen Bedeutungsstrukturen.
  5. Ferner gilt (iii): Erkenntnis (‚cognition‘) ist in diesem Kontext ein Moment an einem dynamischen Verhalten, das zwar über sensorische und motorische Kopplungen mit einer Umwelt interagiert, aber diese Kopplung führt nicht zu einer 1-zu-1-Determinierung des Systems. Das System hat eine Eigendynamik, die über diese Interaktion weit hinausgeht.
  6. Im Rahmen solch einer eingebetteten Kognition ist (iv) das Bild einer Welt nicht einfach eine Entsprechung, nicht eine direkte Repräsentation der empirischen Außenwelt, sondern ein dynamisches Produkt aus Interaktion und systeminternen generierenden Prozessen, die ein systemspezifisches Modell einer unterstellten Welt erzeugen.
  7. Schließlich: (v) Erfahrung (‚experience‘) ist in diesem Kontext nicht irgendein Nebeneffekt (‚epiphenomenal side issue‘), sondern der wesentliche Aspekt für ein Verständnis von Geist (‚mind‘). Von daher ist es notwendig genau diese Erfahrung zu untersuchen, und die beste Methode dafür ist nach Thompson eine phänomenologische Vorgehensweise.
  8. Bevor auf diese Punkte näher eingegangen wird sei hier noch ein kurzer Blick gestattet auf den Ausblick von Thompson auf andere, konkurrierende Ansätze.(sehe Bild 2)

KOGNITIVISMUS, KONNEKTIONISMUS, VERKÖRPERTER DYNAMIZISMUS

Aufschlüsselung der Leitbegriffe von Thompson in Kap.1

Aufschlüsselung der Leitbegriffe von Thompson in Kap.1

  1. Letztlich organisiert er seine Umschau mit den Begriffen Kognitivismus (‚cognitivism‘), Konnektionismus (‚connectionism‘) und Verköperter Dynamizismus (‚embodied dynamicism‘).
  2. Das Problem mit diesen Begriffen ist, dass sie nicht sehr scharf sind, eher vage. Dies zeigt sich sofort, wenn man versucht, konkrete Forscher diesen Richtungen zuzuordnen und dabei den Inhalt ihrer Schriften einbezieht. Die meisten Forscher haben in ihrem Leben eine Lerngeschichte, die sie mit einer bestimmten Position anfangen lässt und sie dann zu weiteren, neuen Positionen führt. Ordnet man nun bestimmte Forscher aufgrund bestimmter Ansichten im Jahr X einer bestimmten Ähnlichkeitsklasse M zu, so gilt dies oft nur für eine bestimmte Zeitspanne. Außerdem sind bestimmte Paradigmen (wie z.B. gerade der sogenannte Kognitivismus) in sich so komplex und vielfältig, dass eine saubere Definition in der Regel kaum möglich ist.
  3. So definiert Thompson den Begriff Kognitivismus einleitend gar nicht sondern zitiert in lockerer Folge unterschiedliche Autoren und Konzepte, die man sowohl der schwammigen Kognitionswissenschaft (‚cognitive science‘) zuordnen kann wie auch der Kognitionspsychologie (‚cognitive psychology‘), die sich als Gegenbewegung zur Verhaltenspsychologie (‚beavioral psychology‘, ‚behaviorism‘) gebildet hatte. Daneben gibt es auch Strömungen in der Philosophie, die sich unterschiedlich mit dem Kognitivismus und der Kognitionspsychologie überlappt haben und immer noch überlappen. In allem dabei die neue erstarkende Rolle von computerbasierten Modellen und Simulationen.(vgl. SS.4-8)
  4. In all diesen – nicht immer klaren – Positionen erkennt Thompson charakteristische Defizite.
  5. Die Verbannung der direkten Beobachtung von Geist und Bewusstsein im Rahmen einer empirischen Verhaltenspsychologie (zur Zeit ihrer Entstehung ein wichtiges Anliegen, um die einseitige Orientierung an der Introspektion aufzubrechen), führte im weiteren Verlauf zu einer ideologischen Verhärtung der Methoden, die sich dann auch in der Kognitionspsychologie und der frühen Kognitionswissenschaft (samt Teilen der Philosophie) weiter vererbte. Die Einbeziehung von Computermodellen verstärkte die Tendenz, die Arbeitsmodelle der Kognition im Stile von – rein symbolischen – Informationsverarbeitungsprozessen zu sehen, die einen gewissen Anschluss an die moderne Gehirnforschung erlaubte. Allerdings war (und ist) die Übereinstimmung des Computerparadigmas und des Gehirnparadigmas – je nach Betrachtungsstandpunkt – nur partiell ähnlich. Dazu kam – nach Thompson – eine isolierte Betrachtung individueller kognitiver Prozesse ohne den Faktor der umgebenden Kultur. Der Zusammenhang zwischen Bewusstsein und all den anderen Wissenschaftsbereichen wurde damit letztlich immer unklarer, war (und ist immer noch weitgehend) geradezu geächtet, und die resultierenden Theorie (sofern es überhaupt Theorien waren) wirkten aufgrund ihrer Eingangsbeschränkungen oft sehr verzerrt.
  6. Im Konnektionismus (‚connectionism‘), der nach anfänglichen Startschwierigkeiten ab den 80iger Jahren des 20.Jahrhunderts deutlich an Boden gewann, sieht Thompson einen gewissen Fortschritt derart, dass neue Erkenntnisse der Gehirnforschung und der Forschung mit künstlichen neuronalen Netzen deutlich machten, dass das Konzept eines deduktiven Denkens mittels Symbolen einer abstrakten Ebene zugehört, die tieferliegend mittels vernetzten Neuronen realisiert wird, die direkt keine Symbole verkörpern, sondern ein Netzwerk von Ereignissen, die dynamisch unterschiedlichste Abstraktionsebenen und Wechselwirkungen realisieren. Ein Verständnis von Geist muss also tiefer ansetzten als lange Zeit gedacht. Thompson kritisiert am Konnektionismus, dass dieser die Verkopplung mit der Welt nur ungenügend berücksichtigt habe. Für die ersten Jahrzehnte mag dies stimmen. Aber in den letzten Jahren hat sich dies radikal gewandelt (Beispiel google Algorithmen, IBMs Watson, Roboter, usw.). Was allerdings als Kritik bestehen bleibt ist Thompsons Diagnose, dass auch der Konnektionismus bislang ein Riesenproblem mit dem Bewusstsein hat.
  7. Der Begriff des verkörperten Dynamizismus (‚embodied dynamicism‘) erscheint besonders problematisch. Thompson sieht hier ein Zusammengehen der Strömung Dynamischer (selbstorganisierter) Systeme (‚dynamic (self-organizing) systems‘) und Verköperter Systeme (‚embodied systems‘). Dazu gehört, dass solche Systeme nicht einfach nur die Umwelt 1-zu-1 abbilden, sondern ihre Interaktion mit der Umwelt durch autonome, nicht-lineare Prozesse individuell gestalten. Thompson sieht in der Strömung eines verkörperten Dynamizismus Ansätze sowohl für eine Einbeziehung des Bewusstseins wie auch des Vor- und Nicht-Bewusstseins.(vgl. S.11f)
  8. In dieser vorausgehenden Strömung, dem verkörperten Dynamizismus, sieht Thompson dann auch den Übergang zu jener Richtung, der er sich selbst zugehörig fühlt und die für ihn die Lösung wichtiger Fragen ermöglichen soll, besser als in den vorausgehend charakterisierten Strömungen.

ENAKTIVES VORGEHEN und PHÄNOMENOLOGIE

  1. Nach diesen Einkreisungen der Notwendigkeit einer direkten Analyse des Bewusstseins deutet Thompson kurz an, wie er sich diese Analyse vorstellt.
  2. Es soll primär die phänomenologische Methode von Husserl und auch von Merleau-Ponty sein, dies aber im Rahmen der (selbstorganisierenden, autopoietischen) Autonomie und Intentionalität des Lebens allgemein. Ferner soll die Neurobiologie einbezogen werden, was die Notwendigkeit einer Neuro-Phänomenologie begründet.(vgl. S.15)

DISKUSSION

  1. Wie schon angedeutet, erscheint die allgemeine Lageskizze, die Thompson gibt, als problematisch, da die Begriffe nicht allzu scharf sind und eine wirkliche genau Zuordnung einzelner Personen zu bestimmten Richtungen in solch einem Kontext schwierig ist.
  2. Auch ist nach dieser Einleitung noch nicht ganz klar, wie Thompson sein Programm einlösen wird. Die skizzierte enaktive Vorgehensweise lässt viel Spielraum für alternative Konzepte.

Einen Überblick über alle Blogbeiträge von cagent nach Titeln findet sich HIER.

PHILOSOPHIESOMMER 2016 IN DER DENKBAR FRANKFURT

Alltag, Visionen der Wissenschaft, und die antike Philosophie: müssen hier Köpfe rollen oder gibt es neue gedankliche Fusion?

Sind Sie neugierig, oder meinen Sie, etwas beitragen zu können?

Kommen Sie dazu.

Geben Sie ihrer Eitelkeit drei Stunden Urlaub und lassen Sie zu, dass Sie in der Andersartigkeit vielleicht etwas Neues entdecken.

ORT:

DENKBAR Frankfurt
Spohrstrasse 46a

(Achtung: Parken schwierig! Man muss wirklich im Umfeld suchen)

PROGRAMMFORMAT

Moderation: Gerd Doeben-Henisch

16:00 Begrüßung

16:05 Kleine Performance aus dem PHILOSOPHY-IN-CONCERT Experiment

16:15 Eingangsüberlegungen

16:30 Erste offene Gesprächsrunde (simultan Erstellung eines Begriffsnetzwerkes)

17:30 Blubberpause (Jeder kann mit jedem reden; Essen und Trinken)

18:00 Zweite offene Gesprächsrunde (simultan Erstellung eines Begriffsnetzwerkes)

18:45 Schlussstatements

19:00 Ende

Langsames Wegdiffundieren der Teilnehmer ….

ERINNERUNGEN…

In der Regel erscheint im Anschluss an eine Sitzung ein Bericht im Blog cognitiveagent.org, der auch Gelegenheit bietet, sich durch Kommentare oder eigene Beiträge an der Diskussion zu beteiligen.

INHALTLICHE LINIE

Da der Gesprächsprozess – abhängig von den Teilnehmern! – seine eigene Dynamik gewinnt, lässt sich keine genaue Prognose für alle kommenden Themen geben.

Das Rezept für den Start orientiert sich einmal an unseren alltäglichen Erfahrung einer Menschheit im Fiebertaumel zwischen Gewalt, Krieg, Katastrophen auf der einen Seite, eingespannt in ein umfassendes Räderwerk von Wirtschaft, Verwaltungen, Medienströmen, Politikbetrieb, Anwachsen von ‚tiefem Staat‘ mit mittlerweile grenzenloser Überwachung andererseits; dazu eine scheinbar entfesselte Wissenschaft, die – abgeschottet von der Öffentlichkeit – immer neue Details der Materie enthüllt, den Menschen als biochemische Masse sieht, deren Tage gezählt sind, und in automatisierten Produktionsprozessen denkt, die mit bekannten Wertesystemen kaum noch etwas zu tun haben. Und dann, man wagt es kaum zu sagen, gab es einen alten, sehr alten Philosophen, der mindestens 1800 Jahre lang das Denken In ganz Europa (Westen wie Osten; christliche Theologie genauso wie die islamische Theologie!) geprägt hat, Aristoteles, der heute auf allen Gebieten als abgeschrieben gelten kann. Und doch, schaut man sich die großen Lücken an, die die moderne Wissenschaft mit sich herumschleppt, kann man ins Grübeln kommen. Die Zukunft ist niemals einfach nur die Wiederholung des Gestern. Aber sie ist auch niemals das total ganz andere. Die biologische Evolution praktiziert das Modell der Zähmung des Zufalls durch Erinnerung; das Ergebnis nach ca. 4 Mrd Jahren sind u.a. wir, der homo sapiens. Es ist schwer zu verstehen, bis heute. Manche wollen es auch gar nicht verstehen…

ARCHIV

Wer sich für die bisherigen philosophischen Gespräche unter der Überschrift ‚Philosophiewerkstatt‘ interessiert, ist eingeladen, die Erinnerungsseite zu besuchen. Hier gibt es Berichte von den zurückliegenden Diskursen.

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

Wieweit können wir den ‘biologischen Geist’ durch einen ‘künstlichen Geist’ nachbilden? – Nachreflexion zur Philosophiewerkstatt vom 12.April 2015

Gedankenskizze von der Philosophiewerkstatt am 12-April 2015 in der DENKBAR

Gedankenskizze von der Philosophiewerkstatt am 12-April 2015 in der DENKBAR

1. Trotz wunderbarem Wetter draußen fand sich wieder eine interessante Gruppe von Philosophierenden am 12.April 2015 zur Philosophiewerkstatt in der DENKBAR zusammen.

2. Mittlerweile bildet sich ein ’spezifischer Stil‘ in der Philosophiewerkstatt heraus: Immer weniger vorgefertigter Input durch einen Eingangsvortrag, sondern stattdessen von Anfang an ein ‚gemeinsames Denken‘ entlang einer Fragestellung. Das ‚Gemeinsame‘ wird in einem aktuellen ‚Gedankenbild‘ festgehalten, ‚visualisiert‘, so dass die Vielfalt der Gedanken für alle sichtbar wird. Nichts geht verloren. Dies eröffnet dann jedem die Möglichkeit, anhand der sichtbaren Unterschiede, Lücken und Gemeinsamkeiten ‚fehlende Stücke‘ zu suchen, zu ergänzen, oder vorhandene Begriffe weiter zu erläutern.

3. Als ‚Rhythmus‘ des gemeinsamen Denkens erweist sich ein gemeinsamer Einstieg, dann ‚Blubberpause‘, dann Schlussrunde als sehr produktiv.

GEIST – BIOLOGISCH UND KÜNSTLICH

4. Ausgangspunkt waren die Begriffe ‚Geist‘, ‚Biologisch‘ sowie ‚Künstlich‘.

5. Auf einer Zeitachse betrachtet kann man grob sagen, dass der Begriff ‚Geist‘ in der antiken griechischen Philosophie eine zentrale Rolle gespielt hat, sich bis mindestens ins 19.Jahrhundert durchgehalten hat, dann aber – zumindest im Bereich der Naturwissenschaft – nahezu jegliche Verwendung verloren hat. In den heutigen Naturwissenschaften herrscht der Eindruck vor, man bräuchte den Begriff ‚Geist‘ nicht mehr. Zugleich fehlen damit auch alle ‚Unterstützungsmerkmale‘ für jenes Wertesystem, das einer demokratischen Staatsform wie der deutschen Demokratie zugrunde liegt. ‚Menschenwürde‘ in Art.1 des Grundgesetzes hat im Lichte der aktuellen Naturwissenschaften keine Bedeutung mehr.

6. Gleichfalls auf der Zeitachse beobachten wir, dass das Paradigma der ‚Maschine‘ mit dem Aufkommen des theoretischen Begriffs des Automaten (erste Hälfte des 20.Jahrhunderts) und der Bereitstellung von geeigneter Technologie (Computer) einen neuen Begriff von ‚Künstlichkeit‘ ermöglicht: der Computer als programmierbare Maschine erlaubt die Nachbildung von immer mehr Verhaltensweisen, die wir sonst nur von biologischen Systemen kennen. Je mehr dies geschieht, umso mehr stellt sich die Frage, wieweit diese neue ‚Künstlichkeit‘ letztlich alle ‚Eigenschaften‘ des Biologischen, insbesondere auch ‚intelligentes Verhalten‘ bzw. den ‚Geist im Biologischen‘ nachbilden kann?

GEIST – SUBJEKTIV UND OBJEKTIV NEURONAL

7. Im Bereich des Biologischen können wir seit dem 20.Jahrhundert auch zunehmend differenzieren zwischen der subjektiven Dimension des Geistes im Bereich unseres Erlebens, des Bewusstseins, und den körperlichen, speziell neuronalen Prozessen im Gehirn, die mit den subjektiven Prozessen korrelieren. Zwar ist die ‚Messgenauigkeit‘ sowohl des Subjektiven wie auch des Neuronalen noch nicht besonders gut, aber man kann schon erstaunlich viele Korrelationen identifizieren, die sehr vielen, auch grundsätzlichen subjektiv-geistigen Phänomenen auf diese Weise neuronale Strukturen und Prozesse zuordnen, die zur ‚Erklärung‘ benutzt werden können. Sofern man dies tun kann und es dann auch tut, werden die subjektiv-geistigen Phänomene in die Sprache neuronaler Prozesse übersetzt; damit wirken diese subjektiven Begriffe leicht ‚obsolet‘, ‚überflüssig‘. Zugleich tritt damit möglicherweise eine Nivellierung ein, eine ‚Reduktion‘ von spezifischen ‚Makrophänomenen‘ auf unspezifische neuronale Mechanismen, wie sie sich in allen Lebewesen finden. Erklärung im Stil von Reduktion kann gefährlich sein, wenn man damit interessante Phänomene ‚unsichtbar‘ macht, die eigentlich auf komplexere Mechanismen hindeuten, als die ‚einfachen‘ Bestandteile eines Systems.

MATERIE – INFORMATION1 und INFORMATION2

8. Im Bereich der materiellen Struktur unseres Universums hat es sich eingebürgert, dass man die physikalische Entropie mit einem Ordnungsbegriff korreliert und darüber auch mit dem statistischen Informationsbegriff von Shannon. Ich nenne diesen Informationsbegriff hier Information1.

9. Davon zu unterscheiden ist ein anderer Informationsbegriff – den ich hier Information2 nenne –, der über die Statistik hinausgeht und eine Abbildung impliziert, nämlich die Abbildung von einer Struktur auf eine andere. Im Sinne der Semiotik (:= allgemeine Lehre von den Zeichen) kann man dies als eine ‚Bedeutungsbeziehung‘ deuten, für die es auch den Begriff ’semantische Beziehung‘ gibt. Für die Realisierung einer Bedeutungsbeziehung im Sinne von Information2 benötigt man im physikalischen Raum minimal drei Elemente: eine Ausgangsgröße, eine Zielgröße und eine ‚vermittelnde Instanz‘.

10. Im Falle der Selbstreproduktion der biologischen Zellen kann man genau solch eine Struktur identifizieren: (i) die Ausgangsgröße sind solche Moleküle, deren physikalische Eigenschaften ‚für den Vermittler‘ als ‚Informationen2‘ gedeutet werden können; (ii) die Zielgröße sind jene Verbindungen von Molekülen, die generiert werden sollen; (iii) die vermittelnde Instanz sind jene Moleküle, die die Moleküle mit Information2 ‚lesen‘ und dann die ‚Generierungsprozesse‘ für die Zielgrößen anstoßen. Dies ist ein komplexes Verhalten, das sich aus den beteiligten Elementen nicht direkt ableiten lässt. Nur auf den Prozess als solchen zu verweisen, ‚erklärt‘ in diesem Fall eigentlich nichts.

11. Interessant wird dies nun, wenn man bedenkt, dass das mathematische Konzept, das den heutigen Computern zugrunde liegt, der Begriff des programmierten Automaten, ebenfalls solch eine Struktur besitzt, die es ermöglicht, Information2 zu realisieren.

12. Dies bedeutet, dass sowohl der ‚Kern‘ des Biologischen wie auch der ‚Kern‘ des neuen Künstlichen beide die Grundstruktur von Information2 repräsentieren.

13. Sofern nun das ‚Lebendige‘, das ‚Geistige‘ reduzierbar sind auf eine Information2-fähige Struktur, müsste man nun folgern, dass die Computertechnologie das gleiche Potential besitzt wie das Biologische.

OFFENE FRAGEN

14. Offen bleibt – und blieb bei dem Werkstattgespräch –, ob diese Reduktion tatsächlich möglich ist.

15. Die Frage, ob eine reduktionistische Erklärungsstrategie ausreichend und angemessen ist, um die komplexen Phänomene des Lebens zu deuten, wird schon seit vielen Jahren diskutiert.

16. Eine reduktionistische Erklärungsstrategie wäre ‚unangemessen‘, wenn man sagen könnte/ müsste, dass die Angabe einer Verhaltensfunktion f: I –-> O auf der Basis der beobachteten Reaktionen (Input I, Output O) eines Systems ‚Eigenschaften des Systems‘ sichtbar macht, die sich durch die bekannten Systembestandteile als solche nicht erklären lassen. Dies gilt verstärkt, wenn die Bestandteile eines Systems (z.B.die physikalischen Gatter im Computer oder die Neuronen im Gehirn) von sich aus keinerlei oder ein rein zufälliges Verhalten zeigen, es sei denn, man würde – im Falle des Computers – ‚in‘ die Menge der Gatter eine ‚Funktion‘ ‚hineinlegen‘, die dazu führt, dass sich die Gatter in dieser bestimmten Weise ‚verhalten‘. Würde man nun dieses spezifische Verhalten dadurch ‚erklären‘ wollen, dass man einfach die vorhandenen Gatter verweist, würde man gerade nicht erklären, was zu erklären wäre. Überträgt man diesen Befund auf biologische oder generell physikalische Systeme, dann müsste man mindestens mal die Frage stellen, ob man mit den reduktionistischen Strategien nicht genau das vernichtet, was man erklären sollte.

17. Eine Reihe von Physikern (Schrödinger, Davis) haben das Auftreten von Information2 im Kontexte des Biologischen jedenfalls als eigenständiges Phänomen gewürdigt, das man nicht einfach mit den bekannten physikalischen Erklärungsmodellen ‚erklären‘ kann.

AUSBLICK PHILOSOPHIEWERKSTATT MAI UND JUNI

18. Die nächste Philosophiewerkstatt am 10.Mai 2015 will sich der Frage widmen, wie ein einzelner innerhalb einer multikausalen Welt überhaupt noch sinnvoll entscheiden kann. Speziell auch die Frage, welche Wirkung man überhaupt noch erzielen kann? Ist nicht irgendwie alles egal?

19. Die Philosophiewerkstatt am 14.Juni ist die letzte Werkstatt vor der Sommerpause. Es wird im Anschluss an die Sitzung ein offener Abend mit voller Restauration angeboten werden und mit der Möglichkeit, über das weitere Vorgehen zu diskutieren (welche Formate, zusätzliche Ereignisse,…).

Einen Überblick über alle Beiträge zur Philosophiewerkstatt nach Themen findet sich HIER

Eine Welt ohne Seele und freien Willen? – Teil 2

Reflexionen im Anschluss an Herms: Horizont der Hirnforschung….

Letzte Änderung: 2.März 2013, 10:10h (Anmerkung am Ende des Artikels)

PHILOSOPHIE

Herms nutzt in seinem Denken über das Ganze die phänomenologische Tradition, hier insbesondere Husserl und Heidegger (mündlich bestätigt). Die phänomenologische Tradition in der Philosophie wurde in diesem Blog schon mehrfach diskutiert (siehe Themenüberblick). Ihre Stärke liegt eindeutig darin, dass sie den Ankerpunkt unseres subjektiven Denkens ernst nimmt und die Wirklichkeit, wie sie sich dort darbietet, so voraussetzungslos wie möglich wahrzunehmen und zu beschreiben versucht. Die Schwierigkeiten, die sich hier bieten, wurden schon oft von sehr vielen reflektiert und angemerkt.

Positiv kann man festhalten, dass der gesamte Erkenntnishorizont eines Individuums dort aufscheint und sich in seiner Gesamtheit besprechen lässt. Man kann auch weitere Reflexionsschichten eröffnen und als solche benennen und explizieren. Einzelwissenschaftliche Erkenntnisse erscheinen hier als Teilmengen in der Gesamtmenge der Phänomene und die diversen begrifflichen Explikationen sind Teilmodelle im Gesamtrahmen möglicher Modelle. Aus phänomenologischer Sicht ist das Individuum daher grundsätzlich ‚mehr‘ als eine einzelwissenschaftliche Beschreibung eines Weltausschnitts.

Andererseits gibt es grundsätzliche Grenzen der phänomenologischen Weltsicht. Die eine resultiert aus den vorgegebenen Grenzen des einzelnen Bewusstseinsraumes, die andere aus der Existenz vieler Bewusstseinsräume, die sich über die Interaktion von Wahrnehmungsräumen erschließen kann.

Erscheint ‚der Andere‘ innerhalb der Phänomene zunächst nur als ‚Oberfläche‘ mit sich veränderten Phänomenmengen als ‚Manifestationen‘ eines möglichen ‚Zusammenhangs‘, so erzwingt das soziale Zusammenleben schon sehr früh eine ‚auf-den-anderen-bezogene‘ Modellbildung im (betrachtenden individuellen) Phänomenraum. Dies bedeutet, dass der aktive Phänomenraum die auftretenden Phänomensequenzen ‚versuchsweise/ hypothetisch‘ mit Teilen seines ‚Selbsmodells‘ in Verbindung bringen muss, um diese Phänomensequenzen des potentiell Anderen zu ‚interpretieren‘.

Sei PH der jeweils aktive Phänomenraum, seien PH_a jene Sequenzen von Phänomenen aus PH, die man einem ‚bestimmten Anderen‘ zuordnen möchte, also PH_a subset pow(PH^n), und sei M ein expliziertes Modell innerhalb von PH über Teilbereiche von PH, also M:PH —> PH (!!! Ein logisches Paradoxon, da M auch in PH liegt !!!), dann wäre eine ‚Interpretation‘ eine Abbildung zwischen PH_a und solch einem M, also I: Ph_a —> M. Dies zeigt u.a., dass jemand einen potentiell anderen nur insoweit verstehen kann, als er über ein explizites Selbstmodell verfügt. Normalerweise führt solch eine Interpretation I(PH_a) auch dazu, dass der aktive Phänomenraum PH ‚unterstellt/ annimmt‘, dass das explizierte Selbstmodell M ‚im anderen‘ auch ‚gegeben‘ ist und im anderen ‚funktioniert‘. Dies ist eine Art ‚Ontologisierung‘ des Selbstmodells im anderen, eine Form von ‚realistischer Transzendenz‘. Man könnte also sagen, dass das Selbstmodell in seiner Projektion auf einen anderen — nennen wir es M_a — ein Modell des Anderen darstellt.

Interaktionen im ‚vorsprachlichen‘ Bereich können unterschiedliche ‚Bestätigungen‘ für die Interpretation I(Ph_a) liefern, sie sind allerdings nur sehr grob. Durch Einbeziehung der Sprache lässt sich die Bestätigung — und eventuell die Interpretation I(PH_a) selbst — verfeinern.

Dazu muss man sich kurz vergegenwärtigen, wie Sprache funktioniert. In der Tradition von Peirce, Saussure und Morris kann man einen Zeichenbegriff extrahieren, in dem ‚Zeichenmaterial‘ ZM subset PH mit anderen Phänomenen PH_x subset PH ‚assoziiert‘ wird, und zwar als ‚aktivierbare Beziehung‘ BED(ZM,PH_x). Phänomenologisch ist diese Beziehung nicht ‚explizit‘, d.h. sie ist kein Phänomen wie ein sensorisches Phänomen, das ‚auftritt‘, sondern es ist ein ‚Wirkzusammenhang‘, der sich ‚indirekt andeutet‘. Also wenn das Phänomen ‚Haus‘ als Zeichenmaterial auftritt, dann werden diverse andere assoziierte Phämene PH_haus auftreten, da sie in einer aktivierbaren Beziehung zu ‚Haus‘ stehen. Diese phänomenologische Wenn-Dann-Beziehung kann man erklären durch die Annahme einer Hilfsstruktur ‚Gedächtnis‘ (MEM), deren Inhalte als solche ‚unbewusst‘ sind, die aber über den aktiven Phänomenraum PH ‚zugänglich‘ sind, so eine Art ‚phänomenologische Schnittstelle‘. Diese ‚indirekten‘ Phänomene berühren einen Sachverhalt, den wir weiter unten noch diskutieren werden.

Unter Voraussetzung von Bedeutungsbeziehungen kann man sich immer komplexere Hierarchien solcher Beziehungen denken, die es erlauben, ‚Ketten von Zeichen‘ zu bilden, bis hin zu dem, was wir Äußerungen, Sätze nennen. Diese Bedeutungsbeziehungen beruhen auf den Phänomenen eines aktiven Phänomenraumes PH. In Kombination mit dem Modell des Anderen M_a können jetzt Zeichenbeziehungen dazu benutzt werden, differenzierte Strukturen mit Hilfe des Selbstmodells M zu kodieren, die dann über das Konstrukt ‚Modell des Anderen M_a‘ auch ‚im anderen unterstellt werden können‘.

Diese Annahme macht allerdings nur Sinn, wenn man zugleich annimmt — ganz im Sinne der Bildung eines Fremdmodells M_a überhaupt — dass die Gesetze des aktiven Phänomenraumes PH auch im anderen M_a gelten (Symmetrie, Homomorphie,…)!!! Je mehr man diese Annahmen akzeptiert, um so mehr wird klar, dass man eine mögliche explizite Beschreibung M eines aktiven Phänomenraumes PH ergänzen sollte um eine ‚Metaebene‘ MM, die nicht mehr nur über einen einzelnen Phänomenraum PH spricht, sondern über die Menge aller möglichen Phänomenräume UPH. Diese universelle Menge UPH ist rein fiktiv, rein gedacht, und doch kann sie durch Interaktionen einer mehr oder weniger großen Bestätigung zugeführt werden. MM wäre eine genuin philosophische Theorie!

Kommen wir zurück zum Phänomen der indirekten Bedeutungsbeziehung und dem Konzept des ‚unbewussten‘.

Grundsätzlich ist die Annahme des Unbewussten M_ubw nicht sehr anders als die Annahme eines ‚Anderen‘ M_a. Es gibt bestimmte Phänomene, die sich in der Zeit verteilen, die aber einen ‚übergreifenden Zusammenhang‘ offenbaren (der letztlich schon immer ein Konstrukt wie ein Gedächtnis voraussetzt), der als ‚Zusammenhang‘ zu thematisieren ist. Analog wie man im Falle des Anderen, wo man ‚hinter der Oberfläche‘ eine Struktur M_a annehmen muss, kann man auch ‚hinter dem aktiven Phänomenraum‘ PH Strukturen annehmen, den ‚Körper‘, das ‚Gedächtnis‘, usw. Dies führt dazu, dass man das Selbstmodell M entsprechend ‚erweitern‘ muss. Je differenzierter das Selbstmodell M wird, umso differenzierter wird auch das Modell des anderen M_a und das universelle Modell MM.

WELTHEORIE?

Mit den obigen Überlegungen eröffnet sich die Perspektive einer möglichen phänomenologischen Theorie der Welt, in der alle Teiltheorien integriert werden können. Meines Wissens hat dies bis heute noch niemand versucht. Es wäre interessant, zu schauen, inwieweit eine solche Theorie helfen könnte, aktuelle Bruchstellen durch die Vielzahl der nicht integrierten Teiltheorien ein wenig zu überbrücken.

THEOLOGIE

Der Theologe Prof. Herms hatte ziemlich zu Beginn seines Vortrags vermerkt, dass sein Verständnis von Theologie nicht so sei, wie die meisten sich Theologie vorstellen. Diese zunächst kryptische Bemerkung gewann im Laufe seines Vortrags mehr und mehr Gestalt. Durch seine philosophische Grundausrichtung benötigt er zunächst keine offenbarungsspezifische Inhalte, da er nach den allgemeinen Bedingungen von Leben (und Erkennen) fragt. Aus diesen allgemeinen Bedingungen kann er dann allgemeine Prinzipien ableiten, innerhalb deren wir uns als Lebende orientieren sollten. Übernimmt man diese Position dann kann man sogar die Grundsatzfrage stellen, ob man überhaupt offenbarungsspezifische Inhalte noch benötigt, da ja diese keinesfalls im Gegensatz zu den allgemeinen Prinzipien stehen dürften. Vielmehr müsste es so sein, dass die potentiellen ‚Offenbarungsinhalte‘ nichts anderes sind als Instanzen dieses allgemeinen Möglichkeitsraumes.

Innerhalb des Vortrags wurde diese Fragen nicht Thema, da Herms sich auf die allgemeine Perspektive und daraus resultierenden allgemeinen Prinzipien beschränkte.

Allerdings könnte man — oder müsste man sogar? — natürlich die Frage aufwerfen, inwieweit nicht die tatsächlichen Realisierungen — wie auch im Falle der Entwicklung des Universums, der Milchstraße, der Erde, des Lebens auf der Erde … — dann doch in ihrer Konkretheit eine wichtige Aussage darstellen können. Konfrontiert mit den konkreten Ergebnissen der biologischen Evolution hat man auch dieses Dilemma: (i) relativiert man die gewordene Konkretheit durch den Verweis auf den allgemeinen Möglichkeitsraum oder (ii) nimmt man die Konkretheit ‚beim Wort‘ und sieht in ihre eine Form von ‚Mitteilung‘. Im letzteren Fall wäre die ‚Konkretheit an sich‘ dann eine Form von ‚Offenbarung‘ einer unterstellten ‚Superwirklichkeit‘, die ‚ihr Inneres‘ über die ungeheuren Werdeprozesse in der jeweiligen Konkretheit zeigt und — im Falle des menschlichen Bewusstseins — sich quasi ’selbst anschaut‘! Menschliches Bewusstsein also als eine Art ‚Minimodell‘ von universaler ‚Selbstanschauung‘ als Hinweis auf die ‚wahre Natur‘ des im Werden des Universums sich andeutenden Superwirklichkeit.

Diese Perspektive des allgemeinen Werdens als ‚möglicher Offenbarung‘ würde damit in jeder Art von Konkretisierung eine Aussage zutreffen. Vor diesem Hintergrund sind alle historisch überlieferten spezielle Ereignisse, die von Menschen als ‚offenbarungsrelevant‘ qualifiziert wurden, interessantes empirisches Material, das entweder das allgemeines Offenbarungskonzept zusätzlich konkretisieren kann oder aber nicht kompatibel ist. Im Falle der Nichtübereinstimmung (Inkompatibilität) würde dies dann eher gegen (!) die spezifischen Stoffe sprechen, da die Fülle der allgemein zusätzlichen Daten um ein Vielfaches größer ist als fragil überlieferte historische Ereignisse.

Versteht man Theologie als jene Denkhaltung und Theoriebildung, die von der allgemeinen Offenbarung ausgeht, um innerhalb dieses Rahmens mögliche konkrete Inhalte zu studieren, dann würde ich mein Erkenntnisinteresse auch als ‚theologisch‘ qualifizieren. Ich habe auch den Eindruck, dass Prof. Herms sich so versteht. Eine endgültige Bestätigung müsste ein Gespräch liefern. Ferner unterscheidet sich solch eine allgemein orientierte Theologie nicht grundsätzlich von einer philosophischen Gesamttheorie der Welt, höchstens in einer unterschiedlichen Akzentsetzung: die philosophische Gesamttheorie der Welt MM orientiert sich primär an den allgemeinen Erkenntnisstrukturen und der möglichen Integration des Einzelwissens, während eine Allgemeine Theologie sich speziell für den Aspekt einer möglichen Mitteilung durch das Gesamtgeschehen interessiert.

Diese spezifische Interessenrichtung der Theologie hat eine spezielle Pragmatik im Gefolge: während die Einzelwissenschaften (und die Philosophie) letztlich objektivierbare Messverfahren benutzen, um ihre Daten zu sichern, kann die Theologie darüber hinaus (!) die spezifischen bewusstseinsgebundenen Erfahrungsmöglichkeiten benutzen, die unter dem Begriff ‚Gotteserfahrung‘ gehandelt werden.

Der Kern des Konzepts ‚Gotteserfahrung‘ besteht — zumindest in der jüdisch-christlichen — Tradition darin, dass die Arbeitshypothese einer ‚Superwirklichkeit‘ genannt ‚Gott‘ (deus, theos, Jahwe,….) davon ausgeht, dass diese Superwirklichkeit sich nicht nur über die allgemeinen Offenbarungsstrukturen ‚mitteilen‘ kann, sondern auch zugleich ganz individuell in jedem Bewusstseinsraum (angesichts der neuesten Erkenntnisse zur Struktur der Materie grundsätzlich zumindest kein physikalisches Problem). Diese ‚Mitteilungen‘ haben — nimmt man die bekannten Zeugnisse ernst — (i) die Form von spezifischen ‚Gefühlsregungen‘, ‚Stimmungen‘, bisweilen begleitet von weiteren ‚Vorstellungsinhalten‘. Dabei kommt es auch hier nicht auf das ‚punktuelle‘ Erleben alleine an, sondern auf die ‚Abfolge verschiedener solcher Erlebnisse‘ und deren ‚Deutung‘ in Form eines Modells. Ferner (ii) implizieren sie normalerweise bestimmte Handlungen, um diese Art von innerem Erleben nicht zum ‚Versiegen‘ zu bringen, und (iii) können diese inneren Erlebnisse nicht durch das eigene Wollen verursacht werden, sondern gehen ‚von einem anderen‘ aus (dies unterscheidet Gotteserfahrung wesentlich von jeglicher Form von ‚Meditation‘, die sich auf selbstinszenierte Zustände bezieht). Im einzelnen sind diese Tatbestände eingebettet in das ‚allgemeine Rauschen des Alltags‘ und bedürfen — wie alle anderen Lernprozesse auch — meist eine Praxis von vielen, vielen Jahren, um sie wirklich zu ‚beherrschen‘, und, wie auch beim allgemeinen Lernen, geht es meist nicht ohne ‚Lehrer‘ im Sinne von ‚geistlichen Führern‘ ab. Durch die unvermeidbar radikal subjektivistischen Anteile bleibt all dies immer schwierig. Denken alleine hilft nicht. Praxis ohne Denken kann durch unreflektierte Interpretationen zu vielen falschen Schlüssen kommen.

Es ist schwer zu sagen, ob und wieweit die bekannten kirchlichen Gemeinschaften in der Lage sind, solche ‚geistliche (= spirituelle, mystische) Erfahrungen‘ angemessen zu vermitteln. Wir befinden uns hier in einer rechten Grauzone. Die offiziellen theologischen Positionen und die bekannten kirchlichen Praktiken sprechen eher gegen die Annahme.

Anmerkung 2.3.13: Eine Fortsetzung dieser Überlegungen findet sich im nachfolgenden Beitrag Gott ohne Kirche …. Der zentrale Punkt ist eigentlich ein neues Verständnis von Theologie und Offenbarung, durch die ‚Kirchen‘ nicht eigentlich verschwinden, aber stark relativiert werden auf ihren wesentlichen Punkt: ihre einzige Existenzberechtigung liegt in ihrem möglichen Dienst, anderen Menschen zu helfen, ihre Gottesbeziehung zu finden und zu leben. Wenn sie darin versagen, verlieren sie ihre Existenzberechtigung.

Einen Überblick über alle Beiträge des Blogs nach Themen findet sich HIER

CARTESIANISCHE MEDITATIONEN III

ÄNDERUNGEN: Letzte Änderung 4.Dez.2011 vor 13:00h

(1) Wie in den vorausgehenden Notizen festgestellt worden ist, kann man die ‚Cartesianischen Meditationen‘ von Husserl, die mit seinen berühmten Pariser Vorlesungen von 1929 eingeleitet wurden, als ‚Herzstück‘ seiner Version einer ‚Phänomenologischen Philosophie‘ – kurz: Phänomenologie – ansehen. Wenn jemand nach gut 30 Jahren intensivster philosophischer Arbeit, so wie Husserl es getan hat, nochmals eine ‚Begründung‘ seiner bisherigen Arbeit versucht (so Strasser 1948 in der Einleitung zur textkritischen Ausgabe Husserliana Bd.1, XXII), dann kommt diesen Gedanken eine besondere Stellung zu, zumal er danach nur noch Teile der ‚Krisis der europäischen Wissenschaften‘ veröffentlichen konnte.

(2) Husserl beginnt seine Ausführungen ausdrücklich mit Bezugnahme auf die ‚meditationes de prima philosophia‘ (1641/42) von Descartes. Diese ‚meditationes…‘ von Descartes sollen hier ‚Cartesianische Meditationen I‘ [CM1] genannt werden. Die Pariser Vorträge (1929, veröffentlicht 1931) nenne ich hier ‚Cartesianische Meditationen II‘ [CM2] samt dem späteren erweiterten Text von Husserl ‚Cartesianische Meditationen IIb'[CM2b]. Den aktuellen Text nenne ich einfach ‚Cartesianische Meditationen III‘ [CM3], da ich mich auf die beiden vorausgehenden beziehe.

(3) Husserl erkennt in den CM1 als Ziel die Idee eines radikalen Neubaues der Philosophie als universaler Einheit der Wissenschaften, selbst zusammengehalten durch eine Einheit absolut rationaler Begründung (CM2,3). Um dieses Ziel zu erreichen postuliert er einen ‚absolut sicheren Anfang‘ und von da ab ‚eine Methode des Fortgangs‘ ‚ohne die Stütze vorgegebener Wissenschaften‘ (CM2,4). Nach Husserl sieht Descartes diesen Anfang im ‚Rückgang auf das ego der reinen cogitationes‘, das ‚einzig apodiktisch-gewiss Seiende‘ (CM2,4). Husserl sieht in dieser Denkwendung von Descartes eine ‚radikale Wendung vom naiven Objektivismus‘ hin zu einem ‚transzendentalen Subjektivismus‘ (CM2,5). Während Husserl die meisten der  Folgerungen, die Descartes aus seiner Grundeinsicht gezogen hat, nicht übernehmen will, möchte er sehr wohl bei der Grundeinsicht von Descartes nochmals ansetzen und von da aus einen Weg gehen, der zur Erneuerung der Philosophie als transzendentaler Phänomenologie führen soll (CM2, 4f). Es soll auch für Husserl nur dasjenige gelten, dessen Evidenz sich durch ‚Rückgang auf die Sachen … selbst in ursprünglicher Erfahrung und Einsicht‘ begründet (CM2,6).

(4) Husserl setzt da ein, wo er Descartes als ‚ewig‘ identifiziert hat, nämlich bei seiner Wendung zum EGO COGITO als dem apodiktisch gewissen und LETZTEN URTEILSBODEN, auf dem jede radikale Philosophie neu zu gründen ist‘ (CM2,7). Diese Wendung zum COGITO schließt unter dem Titel ‚Epoché‘ eine grundsätzliche Einklammerung der ontologischen Geltung von weltbezogener Erfahrung ein (vgl. CM2,7f). In diesem Kontext gilt, dass die Welt ‚ihren ganzen Sinn … ausschließlich aus solchen cogitationes [Anmk: verstehbar als bei sich seienden Gegebenheiten]‘ hat (CM2, 8). Durch eine solche Epoché verschwinden die Gegebenheiten nicht sondern sie verbleiben als ‚Phänomene‘, als Gegebenheiten ‚für mich‘ (vgl. CM2, 8). Der so Denkende gewinnt sich ‚als das reine ego‘ mit dem ‚reinen Strom seiner cogitationes‘ (CM2, 8). In diesem Ich gewinnt die  Welt als Teil des Bewusstseins Sinn und Seinsgeltung (vgl. CM2,9).

(5a) Husserl kritisiert an Descartes, dass dieser die Grundeinsicht zur transzendentalen Philosophie zwar erreicht,  dann aber das transzendentale ego gewissermaßen ‚ontologisiert‘ habe, um es mittels weiterer Prinzipien (‚Schlüsse nach dem Kausalprinzip‘) verrechnen  zu können (vgl. CM2,9f). Wenn Husserl allerdings dann kontrastierend folgert, dass ‚ich und mein Leben in meiner Seinsgeltung unberührt bleibt‘ (CM2,10), dann kann – und muss? — man an dieser Stelle fragen, ob er nicht selbst eine fundamentale Fehleinschätzung begeht. Zu sagen, dass das ‚eventuelle Nicht-sein [von Welt] mein reines Sein nicht aufhebt‘, sondern höchstens ‚voraussetzt‘ (CM2,11), hat eine gewisse Berechtigung, da das ‚Nicht-sein‘ nur als ein ‚Gedachtes‘ auftreten kann, welches  das Denken –und damit das transzendentale ego– voraussetzt; das ‚Sein‘ von im Bewusstsein Gegebenem mit Weltbezug als phänomenal Unterscheidbares von ‚anderem‘ phänomenal Gegebenem ohne Weltbezug kann man aber auch so qualifizieren wie das transzendentale ego selbst: als ein Gegebenes, über das das Denken genau so wenig verfügen kann wie über seine eigene (transzendentale) Struktur. Nicht das Veränderliche am Phänomen ist die entscheidende Qualität, sondern dessen ‚Unverfügbarkeit‘, die dem des transzendentalen Ego in keiner Weise nachsteht. Infiziert durch das Interesse an einem absoluten Grund des Erkennens war Husserl von der Entdeckung des transzendentalen Ego offensichtlich so fasziniert, dass er die ‚Kleinigkeit‘ der Unverfügbarkeit von Gegebensein als solchem nicht ausdrücklich gewürdigt hat.

(5b) Natürlich ist die Frage der ‚unberechtigten‘ Geltung eines Phänomens über sein ‚reines Phänomenseins‘ hinaus wichtig. Da die Phänomene –wie eine anschließende Reflexion auf diese Phänomene zeigen kann– unterschiedliche Verursachungen enthüllen (Körperinneres, Außenwelt…) ist es für die Phänomene als Gegebenheiten im Bewusstsein zunächst wichtig, diese als Gegebenheiten ‚für das denken Ich‘ wahrzunehmen und in ihrer Eigenart als ‚Inhalte des Bewusstseins‘ zu beschreiben. Was nun die Identifizierung der unterschiedlichen ‚Herkünfte‘ angeht, muss man aber dennoch die Frage stellen, inwieweit eine Charakterisierung wie ‚verweist auf etwas in der Außenwelt‘ oder ‚verweist auf etwas in meinem Körper‘ aufgrund von unterschiedlichen Erfahrungen ‚gelernt‘ werden muss oder ob diese grundsätzliche Unterscheidung nach der Herkunft nicht eine Leistung unseres Denkens selbst ist? Denn die ‚Art und Weise‘, die ‚Form‘, die ‚Logik‘ wie unser Denken uns ‚erscheint‘, ‚uns denken lässt‘, die ist uns a priori vorgegeben; weder müssen wir sie erst erfinden noch können wir sie verändern, noch können wir sie ‚hintergehen‘. In diesem Sinne ist die ‚Logik unseres Denkens‘ transzendental.  Sollte also  (i) die Charakterisierung eines Phänomens nach seiner Herkunft eine ’natürliche‘ Leistung unserer Denklogik sein, dann wäre klar, warum wir überhaupt diese Unterschiedlichkeit erkennen können; wir könnten sie auffassen, beschreiben, und darüber nachdenken. Sollten wir dagegen (ii) annehmen, dass eine solche Charakterisierung nicht zu den primären Gegebenheiten unserer Bewusstseinsinhalte gehört, sondern erst nachträglich durch Denken (und in diesem allgemeinen Sinne durch ‚Lernen‘) ‚erschlossen‘ werden muss, dann könnte man nicht ausschließen, dass es Menschen gibt, die diese Zuordnung von Phänomenen nach ihren unterschiedlichen Herkünften anders lernen als die Mehrheit. Würden wir Fall (ii) annehmen, dann müssten wir für alle Menschen in ihren ersten Lebensjahren die Verfügbarkeit eines Lernkriteriums annehmen, das es den Kindern ermöglicht, die fundamentale Unterscheidung von ‚außen‘ und ‚innen‘ zu lernen. Ein solches ‚Lernkriterium‘ –das sagen die bisherigen Forschungen–  kann nur dann in allen Kindern ‚hinreichend Ähnliches‘ bewirken, wenn es Teil des ‚Lernmechanismus‘ des Kindes ist, sprich Teil der ‚Denklogik‘. Ohne eine grundsätzliche Eigenschaft des Denkens selbst, ein Phänomen hinsichtlich seiner unterschiedlichen ‚Herkünfte‘ –und damit unterschiedlicher ‚Gegebenheitsweisen‘– qualifizieren zu können, gäbe es bzgl. Herkunft unterschiedslose Phänomene, die das Denken zwar kombinieren kann, aber die Frage unterschiedlicher Gegebenheitsweisen (Außenwahrnehmung, Innenwahrnehmung; bei Innenwahrnehmung ‚Traum‘, ‚Erinnerung‘, ‚Schmerzen‘, ‚Körperstellungen‘ usw.) wären daraus nur mittelbar, im Nachhinein, durch Reflexionen, erschließbar. Eine letzte philosophische Klärung steht für mich noch aus; meine bisherige ‚Arbeitshypothese‘ ist,  dass (ii) falsch ist.

(5c) Wie immer man die Frage –Variante (i) oder (ii)– entscheiden mag, von der Frage der phänomenologisch Beschaffenheit eines  Phänomens ist die grundsätzliche ‚Verfügbarkeit‘ zu unterscheiden (siehe oben). Diese ‚Verfügbarkeit‘ bzw. ‚Unverfügbarkeit‘ von Phänomenen ist etwas sehr Grundsätzliches. Sofern es Phänomene gibt, die nicht ‚unser Denken erzeugt‘, sondern die unser Denken ‚vorfindet‘, die es ‚auffindet‘, die in ihrer ‚Unverfügbarkeit‘ ‚anders‘ sind, gehört diese ‚Unverfügbarkeit‘ zu ihrer ‚Gegebenheitsweise‘, die für diese Art von Phänomenen ‚konstitutiv‘ ist. Zwar tritt diese konstitutive Unverfügbarkeit ‚zugleich‘ mit unserem Denken auf, zeigt sich ‚in‘ unserem Denken in Form des ‚für mich seins‘, ‚im Bewusstsein sein‘, als ‚Gegenstand des Bewusstseins‘, doch ist das konstitutiv Unverfügbare ‚unabhängig vom Denken‘; es ist ‚koexistent‘. Wenn wir das Denken ‚transzendental‘ nennen, weil es in seiner Art und Weise ‚vorgegeben‘ ist, so müssen wir die Qualifizierung auch auf das konstitutiv Unverfügbare anwenden: im konstitutiv Unverfügbaren haben wir ein ‚Anderes‘, das ‚für uns‘ ebenfalls transzendental ist.  So sehr ich ‚Anderes‘ nur denken kann, weil ich ‚überhaupt denken‘ kann, so sehr kann ich anderes aber auch nur denken, weil sich das ‚Andere‘ als Anderes – unabhängig von meinem Denken (und ‚Wollen‘)   ‚zeigt‘. Mein Denken kann das ‚Andere‘ nicht erzwingen(vgl. CM2,10f).

(6) Die Entscheidung von Husserl, das Moment der Unverfügbarkeit an den Phänomenen mit Weltbezug mit Bezug auf das transzendentale Ego ungleichgewichtig ‚auszuklammern‘, führt zu einem radikalen Solipsismus (’solus ipse‘, CM2,12) des transzendentalen Ego, zur Idee einer reinen ‚Egologie‘ (CM2,12). Da auch eine reine Egologie die Phänomene des Bewusstseins nicht völlig ausklammert, sondern sie letztlich ’nur‘ anders ‚bewertet‘, verschwindet die ‚Welt‘ im phänomenologischen Denken nicht völlig. Jedoch ist von der besonderen Husserlschen ‚philosophischen Anfangskonfiguration‘ aus absehbar, dass er sich im weiteren Verlauf in tiefliegende logische Konflikte verwickeln wird, die er unter Beibehaltung dieser Anfangskonfiguration nicht wird auflösen können.  Sein weiterer Denkweg illustriert dies sehr deutlich.

(7) Schon die nächst große Annahme Husserl’s, die von der ‚Intentionalität‘ des Bewusstseins (vgl. CM2,13) zeigt, dass die Unverfügbarkeit des Anderen als das, wovon ein transzendentales Ich Bewusstsein hat, so hervorstechend ist, dass er Intentionalität als ‚Grundeigenschaft‘ konstatieren muss. Spätestens jetzt hätte Husserl merken müssen, dass diese Grundeigenschaft etwas ist, was sich nicht aus einem ‚Ego‘ ‚ableiten‘ lässt, sondern dass das Ego als ‚transzendentales Ego‘ nur aufscheinen kann, weil es in einer ‚Beziehung‘ aufscheint, die durch die Koexistenz von ‚Anderem‘ und ‚Ego‘ aufgespannt wird (vgl. CM2, 13).

(8) Auffällig ist, dass Husserl an dieser Stelle neben dem allgemeinen Gegebensein der Phänomene unterschiedliche ‚Sinnesarten‘, unterschiedliche ‚Seinsmodi‘ und unterschiedliche ‚Bewusstseinsarten‘  postuliert (CM2,13). Ferner unterscheidet er im Bereich der Bewusstseinsarten zwischen ‚gegenständlichen‘ und  ’nicht-gegenständlichen‘ Bewusstseinsarten, wobei er die ’nicht-gegenständlichen‘ auch ’subjektive‘ nennt (CM2,14).

(9) Tatsächlich sind diese Begriffe an dieser Stelle nicht wirklich ‚erklärt‘. Husserl unterstellt damit, dass jeder Leser seiner Zeilen (bzw. jeder Zuhörer seiner Vorlesungen) diese Sachverhalte in seinem eigenen Bewusstsein vorfinden kann. Ohne diese Unterstellung wäre seine Kommunikation unsinnig. Da Husserl kaum unterstellen kann, dass die einzelnen wechselnden Phänomenen bei jedem gleich sind, muss sich diese Unterstellung auf allgemeine Strukturen des Erlebens als ‚im Bewusstsein für mich sein‘ beziehen. Und dazu müssen mindestens die Sinnesarten, Seinsmodi und Bewusstseinsarten gehören. Wäre dem nicht so, dann wäre eine Verständigung über Phänomene grundsätzlich ausgeschlossen; es gäbe keine hinreichend ähnliche Bedeutungskorrelate. Ein Phänomen ph ist dann nicht nur einfach ein ‚Gegebenes‘ sondern ein Gegebenes e einer bestimmten Sinneserfahrung p, in einem bestimmten Seinsmodus m und in einer bestimmten Bewusstseinsart c (was immer Husserl sich bei diesen verschiedenen Begriffen im Einzelnen gedacht haben mag). Ein Phänomen als Gegebenes wird damit zu einer komplexen Struktur ph = <e,p,m,c>. Nur alle Momente zusammen ergeben eine vollständige Charakteristik dessen was ein Phänomen ist. Lässt man ein Moment aus, dann fehlt ein wesentliches Bestimmungsstück. Während die Momente ‚p,m,c‘ zur ‚Struktur des Bewusstseins‘ gehören, zur ‚Logik des Denkens‘, bildet das Moment ‚e‘ den für die Struktur des Denkens jenen Bereich, in dem  ‚unverfügbare‘ ‚fremde‘ Anteil, das ‚Andere‘,  auftreten können. Etwas, das zwar wahrnehmbar und durch seine ‚Eigenschaften‘ beschreibbar ist, aber eben nicht durch die Struktur des Bewusstseins erzeugt werden kann.

(10) Nach Husserl muss  eine phänomenolgische Analyse innerhalb der Bewusstseinserfahrung dem ‚beständigen Fluss des cogitierenden Seins und Lebens‘ nachgehen (CM2,14). Dies bedeutet, dass man sowohl in jedem Augenblick (Zeitpunkt) eine endliche Menge von Phänomenen ph_i in Ph_(t) haben kann wie auch, dass ein Augenblick in den ’nächsten‘ Augenblick übergehen kann, also von Ph_(t) zu Ph_(t+1).  Unter Voraussetzung solcher ‚anschaulicher Bestände‘ (CM2,14) soll ein Philosoph sich alles ‚ansehen‘, soll es ‚explizierend‘ analysieren, soll es mittels ‚Begriffen‘ und ‚Urteilen‘ beschreiben (CM2,14).

(11) Wenn also der Strom des cogitierenden Seins der ‚Gegenstand‘ der Bewusstseinsanalyse ist einschließlich all der phänomen-inherierenden Eigenschaften, dann wäre dies alles jeweils der intentionale Gegenstand eines ‚Denkstandpunktes‘, der diesem Gegenstand irgendwie ‚gegenüber‘ steht, der einen ‚Blickpunkt‘ konstituiert, von dem aus dieser intentionale Gegenstand so gegeben ist, wie er es ist. Das ‚im Bewusstsein sein‘ stellt sich damit grundlegend als eine Beziehung, Relation dar zwischen dem ‚transzendentalen ego‘ Tego einerseits und  den  anschaulichen Beständen Ph_(*) mit den unterschiedlichen Aktivitäten Ansehen, Explizieren und Beschreiben andererseits,  also etwa TEgo subset Ph_(*) x (ANS x EXPL x BESCHR).

(12) Zusätzlich gilt aber auch, dass die ‚Tätigkeiten‘ des Denkens die Inhalte teilweise verändern, es ist also nicht nur einfach eine Relation, sondern partiell auch eine Abbildung, etwa TEgo : Ph_(*) x (ANS x EXPL x BESCHR) —> Ph_(*), d.h. in einem Augenblick hat das transzendentale ego TEgo als intentionalen Gegenstand eine endliche Folge von Phänomenen –im Grenzfall nur eine Menge Ph_(t)– sowie eine Menge möglicher Denktätigkeiten   ANS x EXPL x BESCHR. Wird mindestens eine dieser Denktätigkeiten angewendet, dann verändert sich die Folge der Phänomene von Ph_(t) zu Ph_(t+1).

(13) Was immer also im einzelnen das transzendentale ego sein mag, es setzt voraus, dass die ‚Betrachtungsebene‘ des TEgo eine andere ist als die Gegenstände von Ansehen, Explizieren und Beschreiben. Man könnte sich auch auf den Standpunkt stellen, dass man sagt, dass das transzendentale Ego letztlich nur die formale Einheit der verschiedenen Denktätigkeiten ist, also etwa TEgo = ANS u EXPL u BSCHR, so dass gelten würde TEgo : Ph_(*) —> Ph_(*) mit den Teilabbildungen ANS: Ph_(*) —> Ph_(*), EXPL: Ph_(*) —> Ph_(*), BSCHR: Ph_(*) —> Ph_(*). Dies würde besagen, dass die intentionalen Inhalte Ph_(*) von einer ‚höher gelegenen Ebene‘ aus auf unterschiedliche Weise ‚verarbeitet‘ werden können und dass die Verarbeitungsergebnisse wiederum intentionale Gegenstände werden können. Ganz allgemein kann man ja offen lassen, ob die Liste der bislang von Husserl genannten Verarbeitungsweisen vollständig ist (Er spricht auf der gleichen Seite auch noch von ‚Wahrnehmen‘, ‚Sich-erinnern‘, ‚eben-noch-im-Bewußtsein-haben‘, ‚Vorerwarten‘, ‚Wünschen‘,’Wollen‘, ‚prädikative Aussage‘,…(CM2,14)). Nennt man die Gesamtheit aller möglichen Verarbeitungsweisen die Denklogik DLOG, dann wäre das transzendentale ego in einer vereinfachenden Interpretation  die Summer all dieser Denklogiken und man könnte auch schreiben DLOG : Ph_(*) —> Ph_(*). So betrachtet könnte es unterschiedliche Sammlungen von Verarbeitungsweisen, also unterschiedliche Denklogiken, geben. Mit Blick auf eine Kommunikation zwischen verschiedenen ‚Bewußtseinen‘ muss man annehmen, dass eine sprachliche Kommunikation voraussetzt, dass die Denklogiken der Beteiligten ‚hinreichend ähnlich‘ sind, andernfalls ist eine Verständigung ausgeschlossen.

(14) Das Bewusstsein stellt sich also bislang dar als ein Übergang von einer Anschauung Ph_(t) zur nächsten Ph_(t+1), und die möglichen Änderungen werden induziert entweder von dem anschaulichen Anteil Ph_(t) selbst oder aber von der Denklogik DLOG der transzendentalen Perspektive, die Abbildungsprozesse in den Fluss der Anschauung induzieren kann. Unter anderem bedeutet dies, dass unser Denken den Gegenstand unseres Denkens beständig verändern kann.

(15) Die ‚kritische‘ Wende vom sogenannten ’natürlichen‘ Denken (mit automatischer Seins-Unterstellung bestimmter Phänomene) soll durch die Epoché herbeigeführt werden, indem  die automatischen Seins-Unterstellungen ‚außer Kraft‘ gesetzt werden (CM2,14f). Entscheidend ist hier der Wechsel des ‚Blickpunktes‘: nicht die intentionalen Gegenstände des Denkens stehen jetzt im Fokus sondern das Denken selbst, das mit den intentionalen  Gegenständen als Gegebenheiten des Bewusstseins Veränderungen vornehmen kann. Insofern die ‚Seinsgeltung‘ bestimmter (empirischer) Phänomene Ph_emp(t) subset Ph_(t) ‚eingeklammert‘ werden soll, bedeutet dies, dass diejenige Leistung des Denkens, die solche Geltung möglich macht –ONT subset DLOG–, als solche ‚identifiziert‘ und ‚aufgehoben‘ werden muss. Dies impliziert aber, dass die Perspektive der verschiedenen Denkaktivitäten DLOG doch noch nicht die ‚letzte‘ Perspektive des transzendentalen Denkens ist, schließlich wird DLOG darin selbst zu einem ‚möglichen Gegenstand‘! Man muss also doch zu der ursprünglichen Unterscheidung zurückkehren und sagen, ja, es gibt einerseits eine Abbildungsbeziehung zwischen DLOG und den anschaulichen Phänomenen DLOG:  Ph_(*) —> Ph_(*), aber es gibt darüberhinaus noch eine weitere Ebene, die des reinen transzendentalen ego, das sowohl die intentionalen Gegenstände des Denkens wie auch das Denken selber zum Gegenstand machen kann, also TEgo: Ph_(*) x DLOG —> Ph_(*) x DLOG. Insbesondere möchte Husserl, dass die ‚Generierung einer ontologischen Geltung‘ [ONT] ‚deaktiviert‘ wird  TEgo: Ph_(*) x DLOG[+ONT] —> Ph_(*) x DLOG[-ONT]. In dieser Interpretation wäre die wesentliche Eigenschaft des ‚kritischen‘ transzendentalen Denkens NICHT die Einklammerung der ontologischen Geltung, sondern der grundsätzliche Perspektivenwechsel vom Fokus intentionaler Gegenstände hin zum Fokus intentionale Gegenstände und zugehörige Denkprozesse. Die Zu- oder Absprechung einer ontologischen Geltung wäre dann nur ein kleiner Aspekt im komplexen Gebäude möglicher Denkaktivitäten. Streng genommen kann man in dieser Interpretation  auch transzendental Philosophieren ohne die Abschaltung der ontologischen Geltung, da ein ’sich selbst bewusstes‘ transzendentales Denken um die Spezifität ontologischer Geltung ‚weiß‘ und nur die Schlüsse zieht, die kontextabhängig ’sinnvoll‘ sind. Die Fixierung von Husserl auf die Abschaltung der ontologischen Geltung erscheint in diesem Kontext nicht nur wie das Verhalten eines überängstlichen Vaters, seiner jungen Tochter der transzendentalen Philosophie nur nicht zu viel zu erlauben, sondern darüber hinaus auch als unglücklich Akzentsetzung. Denn die Forderung, dass sich der Philosoph ‚über die weltlichen Interessen stellt‘ (CM2, 16) kann er primär nur erfüllen, wenn er den grundlegenden Perspektivenwechsel vollzieht. Eine ‚gewusste‘ unterstellte Geltung auszuschalten, bringt in diesem Fall nicht nur keinen zusätzlichen Vorteil, sondern wirft sogar die Frage auf, ob der Philosoph sich dadurch nicht künstlich ‚blind‘ macht. Eine ‚Ausklammerung‘ würde letztlich bedeuten, diese Geltung verschwindet aus dem Horizont; damit würde aber gerade eine wesentliche Eigenschaft des Phänomens abhanden kommen. Das wäre dann das Gegenteil von ‚kritisch‘, nämlich ‚unwissend‘, ’naiv‘ im vollen Sinne.

Zur Fortsetzung siehe CM3, Teil 2

HINWEIS: Einen Überblick über alle Blog-Einträge nach Titeln findet sich hier: Übersicht nach Titeln