EPISTEMISCHE SCHOCKWELLEN. Die letzten 3500 Jahre

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 20.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Die Diskussion im Kontext des letzten Textes von Freud zur Psychoanalyse lässt erkennen, wie sich das Bild von uns Menschen über uns selbst dadurch in gewisser Weise ändern kann und letztlich dann ändert, wenn wir uns auf diese Gedanken einlassen. Die Einbeziehung des ‚Unbewussten‘ in das Gesamtbild des Systems homo sapiens verschiebt so manche Beziehungen im Gefüge des menschlichen Selbstbildes, und nicht nur das, es wirkt sich auch aus auf das Gesamtbild der empirischen Wissenschaften, auf ihr Gesamtgefüge. Dies hatte sich ja auch schon angedeutet in der vorausgehenden Diskussion des Buches von Edelman, die noch nicht abgeschlossen ist.

Dies hat mich angeregt, über Freud und Edelman hinausgehenden einige der epistemischen Schockwellen zusammen zu stellen, denen das menschliche Selbstverständnis in den letzten ca. 3500 Jahren ausgesetzt war. Dabei muss man sich darüber im Klaren sein, dass es natürlich immer nur eine Minderheit war, die überhaupt an den übergreifenden Erkenntnissen teilhaben konnte, und selbst diese Minderheit zerfällt in unterschiedliche Subgruppen ohne ein kohärentes Gesamtbild.

EPISTEMISCHE SCHOCKWELLEN

Unter ‚Schockwellen‘ werden hier energetische Ereignisse verstanden, die nur gelegentlich auftreten, und die geeignet sind, bestehende Strukturen zumindest zum Schwingen, zum Erbeben zu bringen, wenn nicht gar zu ihrer Zerstörung führen. ‚Epistemisch‘ bezieht sich auf die Dimension des Erkennens, des Verstehens, zu dem Exemplare des Homo sapiens fähig sind. ‚Epistemische Schockwellen‘ sind also Ereignisse, durch die das Selbstverständnis, die Weltbilder der Menschen in Schwingungen versetzt wurden bzw. sich neu aufbauen mussten.

Die folgende Zusammenschau solcher epistemischer Schockwellen ist in keiner Weise vollständig, weitgehend nicht differenziert genug, rechtfertigt sich aber dadurch, dass es darum geht in einer überschaubaren Weise einen Grundeindruck von der Dynamik des Geistes zu vermitteln, die dem Geschehen des biologisch fundierten Lebens innewohnt.

CLUSTER RELIGION

 

Stichworte zu 'Epistemische Schockwellen', Teil 1. ca. -1500 bis ca. 1500

Stichworte zu ‚Epistemische Schockwellen‘, Teil 1. ca. -1500 bis ca. 1500

Zwischen ca. -1500 bis etwa 650 gab mindestens 8 große das Weltverstehen prägende Ereignisse – daneben viele andere, weitere –, die wir im Nachgang als ‚Religionen‘ bezeichnen. Religionen zeichnen sich aus durch ‚Gründer‘, durch ‚Botschaften‘, durch ‚Erfahrungen‘ und dann meistens nachfolgend durch ‚Regeln‘ und Bildung von ‚Organisationsformen‘. Sie erheben einen Anspruch auf ‚Deutung der Welt‘ mit ‚Sinn‘, ‚Werten‘ und ‚Spielregeln‘. Sie versprechen auch den Kontakt zu eine Letzten, Größten, Umfassenden, Endgültigen, dem alles andere unter zu ordnen ist. Vielfach gehen diese Versprechungen auch einher mit speziellen ‚außergewöhnlichen Erlebnissen‘, die im einzelnen stattfinden.

In Vorderasien und Europa waren dies vor allem das Duo Judentum-Christentum und der Islam. Während diese sich explizit auf einen ‚Schöpfer‘ bezogen, kam der indische Subkontinent neben der vielfältigen Götterwelt des Hinduismus in seinem Grundtenor — realisiert im Buddhismus — ohne einen expliziten Schöpfer aus, allerdings nicht ohne eine tiefgreifende Existenzerfahrung des einzelnen Menschen, der sich durch einen geeigneten Lebensstil und Meditation möglichst weitgehend von einem normalen Alltag und seinen vielfältigen Spannungen isolierte.

So verschieden Jugentum-Christentum, Islam auf der einen Seite und Indischer Existentialismus auf der anderen Seite auf den ersten Blick wirken können, kann man aber dennoch auffällige strukturelle Parallelen erkennen.

Die sprachliche Seite der genannten Religionen tendiert dazu, nicht die Weite und Vielfalt der Welt zu kommunizieren, keine weiterreichende Erkenntnisse, sondern die Sprache hat einzig den Zweck, eine bestimmte, abgegrenzte Idee zu kommunizieren, diese abzugrenzen von allem anderen, bis dahin, dass alle Abweichungen diskreditiert werden. Jene Menschen, die sich sprachlich von der ‚Norm‘ entfernen sind Abweichler, Dissidenten, Ungläubige, Verräter, Feinde. Die Sprache wird also nicht gesehen als ein offener, lebendiger, dynamischer Raum von ‚Wahrheit‘, die sich weiter entwickeln kann, sondern als eine symbolische Fessel, eine symbolische Mauer, die einige wenige Ideen abgrenzen sollen. Auch der Buddhismus, der eigentlich sein Fundament in einer schwer beschreibbaren individuellen Existenzerfahrung sieht, praktiziert Sprache überwiegend als Gefängnis.

Betrachtet man sich die Geschichte dieser Religionen bis heute, dann ist diese Starrheit unübersehbar. Alle modernen Erkenntnisse und Entwicklungen prallen an der Sprache dieser Religionen ab.

Neben der sprachlichen Dimension haben alle diese Religionen auch eine ‚Erlebnisdimension‘, oft auch ‚Spiritualität‘ oder ‚Mystik‘ genannt. Einzelne, Gruppierungen, Bewegungen erzähltem davon, schrieben es auf, dass sie ‚besondere, tiefgreifende Erlebnisse‘ hatten, die ihnen ‚klar gemacht haben‘, was wirklich ‚wichtig‘ ist, ‚worin der Sinn des Lebens‘ liegt, Erlebnisse, die ihnen ‚Frieden‘ geschenkt haben, ‚Erfüllung‘, ‚Wahrheit‘. Und diese Erlebnisse waren immer so stark, dass sie diese Menschen aus allen Schichten dazu bewegt haben, ihr Lebens radikal zu ändern und von da an eben ‚erleuchtet‘ zu leben. Diese Menschen gab es nicht nur im Umfeld des Buddhismus, sondern auch zu Tausenden, Zehntausenden im Umfeld des Judentum-Christentums.

Solange diese religiösen Bewegungen sich im Umfeld der etablierten religiösen Überzeugungen und Praktiken bewegen wollten, mussten sie sich – wie immer auch ihre individuellen Erlebnisse waren – diesem Umfeld anpassen. In vielen Fällen führte dies auch zu Absetzbewegungen, zur Entwicklung neuer religiöser Bewegungen. Das Problem dieser erlebnisbasierten Bewegungen war, dass sie entweder nicht die Sprache benutzen durften, die sie zur Beschreibung ihrer Erlebnisse brauchten (da nicht erlaubt), oder aber, sie benutzten eine neue Sprache, und dies führte zum Konflikt mit den etablierten Sprachspielen.

Unter den vielen hunderten Bewegungen allein im Bereich Judentum-Christentum, die z.T. viele tausend, ja zehntausend  Mitglieder hatten und dabei oft auch materiell sehr wohlhabend bis reich wurden, möchte ich zwei kurz erwähnen: die Reformation angefeuert von Martin Luther und den Jesuitenorden, angefeuert von Ignatius von Loyola. Im historischen Klischee werden beide Bewegungen oft als direkte Gegner skizziert, da der Jesuitenorden kurz nach Beginn der Reformationsbewegung gegründet wurde und der katholische Papst gerade diesen Orden auch zur ‚Bekämpfung der Reformation‘ einsetzte. Dieses Bild verdeckt aber die wirklich interessanten Sachverhalte.

Der Jesuitenorden entstand aus den spirituellen Erfahrungen eines baskischen Adligen, deren innere Logik, Beschreibung und Praxis, im Lichte der Erkenntnisse der modernen Psychologie (und Psychoanalyse) stand halten würde. Außerdem war der Orden aufgrund dieser Spiritualität extrem weltoffen, wissenschaftsaffin, und revolutionierte die damals beginnende christliche Missionierung der Welt, indem jeweils die Kultur der verschiedenen Erdteile studiert und übernommen und sogar gegen zerstörerische Praktiken der europäischen Kolonisatoren geschützt wurden. Genau dieses wahre Gesicht des Ordens mit einer radikal individuell-erlebnisbasierten Spiritualität und daraus resultierenden Weltoffenheit und Menschlichkeit führte dann zum Verbot und Aufhebung des Ordens weltweit, verbunden mit Einkerkerungen, Folter und Tod ohne Vorankündigung. Das korrupte Papsttum ließ sich damals von dem portugiesischen und spanischen Hof erpressen, die ihre menschenverachtende Geschäfte in den Kolonien, speziell Südamerika, bedroht sahen. Dies war nicht die einzige Aufhebung und Misshandlung, die der Orden seitens des Papstums erfuhr. Während Luther sich gegen das Papsttum erhob und es auf einen Konflikt ankommen ließ, blieben die Jesuiten dem Papst treu und wurden vernichtet.

Diese Minigeschichte ließe sich aber zu einem großen Thema erweitern, da eben die sprachlich fixierten Religionen generell ein Problem mit Wahrheit und damit mit jeglicher Art von Erfahrung haben. Die Akzeptanz individueller Erfahrung als möglicher Quell von ‚Wahrheit‘, möglicherweise einer weiter reichenden alternativen Wahrheit zu der sprachlich fixierten (und damit eingesperrten) Wahrheit der Religionen, eine solche Akzeptanz würde das Wahrheitsmonopol dieser Religionen aufheben. Bislang hat keine der genannten Religionen es geschafft, von sich aus ihr problematisches Wahrheitsmonopol in Frage zu stellen.

JUDENTUM – CHRISTENTUM – PHILOSOPHIE

In der Zeit vor den modernen empirischen Wissenschaften existierte wissenschaftliches Denken entweder gar nicht oder in enger Verbindung mit dem philosophischen Denken bzw. der Medizin.

In der alten und klassischen Griechischen Philosopie (ca. -800 bis -200) wurde das Weltverstehen in vielen Bereichen erstmalig sehr grundlegend reflektiert, unabhängig von bestimmten religiösen Überzeugungen, obgleich natürlich auch diese Denker nicht im luftleeren Raum lebten sondern in konkreten Kulturen mit einer damals üblichen Moral, Ethik, Spielregeln, Sprachspielen.

Unter den vielen bedeutenden Konzepten war das größte systematische Konzept wohl jenes von Aristoteles, Schüler Platons, und den an ihn anschließenden Schulen. Während dieses griechische Denken nach der Eroberung Griechenlands durch die Römer in Mittel- und Westeuropa bis zum Jahr 1000 mehr oder weniger unbekannt war (Kriege, radikal anti-wissenschaftliche Einstellung der katholischen Kirche) war der damalige Islam sehr offen für Wissen. Das griechische Denken war im Islam weitgehend bekannt, lag entsprechend in arabischen Übersetzungen vor, und durch eine Vielzahl von Schulen, Bildungsstätten und großen Bibliotheken (z.T. mehrere hundert Tausend Bücher!) wurde dieses Wissen gepflegt und weiter entwickelt (welcher Kontrast zum heutigen Islam!). Und nur über diese Umweg über den hochgebildeten Islam mit Übersetzungsschulen in Spanien kam das Wissen der Griechen ab ca. 1000 wieder in das christliche Mittel- und West-Europa.

Mit dem Entstehen eines aufgeschlosseneren Bildungssystem in Europa wanderten die griechischen Gedanken über Bücher und Gelehrte wieder in europäische Bildungsstätten ein. Es gab eine Zeit der intensiven Auseinandersetzung zwischen bisheriger christlicher Theologie und Aristoteles. Auf dem Höhepunkt der begrifflichen Integration von christlichem Glauben und Aristotelischer Weltsicht gab es aber ‚Abspaltungstendenzen‘ in mehreren Bereichen.

POLITIK – WISSENSCHAFT – SPIRITUALITÄT

Das zunehmend freie und kritische Denken begann mit der Infragestellung der bis dahin waltenden absolutistischen Machtstrukturen.

Das methodisch geschulte universitäre Denken begann, über die aristotelischen Konzepte hinaus zu denken. Anknüpfungspunkte gab es genügend.

Das individuelle Erleben der Menschen, ihre Frömmigkeit, ihre Spiritualität suchte nach neuen Wegen, benutzte eine neue Sprache, um sich besser ausdrücken zu können.

Das neue politische Denken führte später zur französischen Revolution und vielen ähnlichen politischen Erneuerungsbewegungen.

Das neue philosophische Denken führt alsbald zum Bildung der neuen empirischen Wissenschaften mit neuer Logik und Mathematik.

Die neue Spiritualität lies viele neue religiöse Bewegungen entstehen, die quer zu allen etablierten Glaubensformen lagen, u.a. auch zur Reformation.

PHILOSOPHIE – WISSENSCHAFT

Stichworte zu 'Epistemische Schockwellen', Teil2. ca. ca. 1550 bis ca.2018

Stichworte zu ‚Epistemische Schockwellen‘, Teil2. ca. ca. 1550 bis ca.2018

Aus der Vielzahl der philosophischen Denker bieten sich vier besonders an: Descartes, Kant, Wittgenstein und Carnap.

Von heute aus betrachtet markieren diese Vier entscheidende Umbrüche des philosophischen Denkens, das von den Entwicklungen in der Logik, Mathematik,Physik, Geowissenschaften, Biologie und Psychologie zusätzlich profitiert hat und noch immer profitiert.

Descartes versuchte zu klären, inwieweit sich die Wahrheitsfrage nur durch Rekurs auf das eigene Denken lösen ließe. Sein Fixpunkt in der Gewissheit des eigenen Denkens (cogito ergo sum) wurde aber erkauft durch einen fortbestehenden Dualismus zwischen Körper (res extensa) und Denken/ Geist (res cogitans), den er mit einem irrationalen Gedanken zu einer Zirbeldrüse zu kitten versuchte.

Kant führte dieses Forschungsprogramm von Descartes letztlich weiter. Sein Vermittlungsversuch zwischen fehlbarer konkreter empirischer Erfahrung und den allgemeinen Prinzipien der Mathematik und des Denkens (des Geistes) ging über Descartes insoweit hinaus, dass er auf eine Zirbeldrüsen-ähnliche Lösung verzichtete und stattdessen davon ausging, dass der Mensch in seinem Denken von vornherein in abstrakten Kategorien wahrnimmt und denkt. Unsere menschliche Konstitution ist so, dass wir so wahrnehmen und Denken. Er konstatierte damit ein Faktum, das wir heute mit all unseren Erkenntnissen nur bestätigen können. Es blieb bei ihm offen, warum dies so ist. Es zeichnet seine intellektuelle Redlichkeit aus, dass er die offenen Enden seiner erkenntnistheoretischen (epistemischen) Analysen nicht krampfhaft mit irgendwelchen Pseudo-Lösungen versucht hat zu vertuschen.

Wittgenstein war der erste, der sich mit dem Funktionieren der Sprache und ihrer Wechselwirkung mit unserem Denken ernsthaft, ja radikal beschäftigte. Während er in seinem Frühwerk noch der Statik der damaligen modernen Logik huldigte, begann er dann später alle diese statischen formalen Konstruktionen in der Luft zu zerreißen, durchlief weh-tuende detaillierte Analysen der Alltagssprache, machte vor nichts Halt, und hinterließ mit seinem frechen und angstfreien Denken einen Trümmerhaufen, dessen Verdienst es ist, den Raum frei gemacht zu haben für einen echten Neuanfang.

Carnap wirkt in diesem Zusammenhang auf den ersten Blick wie ein Antipode zu Wittgenstein, und in der Tat hat er ja das vor-wittgensteinsche Sprachverständnis in seinen Studien zu den formalen Sprachen, zur Logik, zur logischen Semantik weiter angewendet. Allerdings hat er dies dann auch im Kontext der empirischen Wissenschaften getan. Und in diesem Kontext hat sein formal-scholastisches Denken immerhin dazu beigetragen, die Grundstrukturen moderner empirische Theorien mit einem formalen Kern frei zu legen und ihre Eigenschaften zu untersuchen.

Alle diese genannten Ansätze (Kant, Wittgenstein, Carnap) wurden später mehrfach kritisiert, abgewandelt, weiter entwickelt, aber es waren diese Ansätze, die die nachfolgenden Richtungen entscheidend beeinflusst haben.

Ein interessanter Grenzfall ist Freud (s.u.). Irgendwie könnte man ihn auch zur Philosophie rechnen.

LOGIK – MATHEMATIK

Aus heutiger Sicht kann man sich gar nicht mehr vorstellen, dass es eine Zeit gegeben hat, in der die moderne Logik und Mathematik nicht verfügbar war. Nahezu alles, was unseren Alltag ausmacht setzt sehr viel Mathematik als beschreibende Sprache, als Berechnung, als Simulation voraus. Dass mathematisches Denken in den Schulen so wenig – und immer weniger – behandelt wird, ist sehr irritierend.

Logik und Mathematik sind einen weiten Weg gegangen.

Ein Meilenstein ist der Übergang von der klassischen aristotelischen Logik (eng an der Alltagssprache, Einbeziehung inhaltlichen Alltagsdenkens) zur modernen formalen Logik seit Frege (formale Sprache, formaler Folgerungsbegriff).

Eng verknüpft mit der Entwicklung der neuen formalen Logik ist auch die Entwicklung der modernen Mathematik, die entscheidend mit der Erfindung der Mengenlehre durch Cantor ihren Durchbruch fand, und dann mit Russel-Whitehead und Hilbert die Neuzeit erreichte. Keine der modernen Arbeiten in Gebieten wie z.B. Algebra, Topologie, Geometrie sind ohne diese Arbeiten denkbar, ganz zu schweigen von der modernen theoretischen Physik.

EMPIRISCHE WISSENSCHAFTEN

Erste Ausläufer empirischer Wissenschaft gab es schon vor Galilei (man denke z.B. nur an die bahnbrechenden Forschungen zur Medizin von dem islamischen Gelehrten (und Philosophen, Logiker, Theologen!) Avicenna). Doch an der Person Galileis kristallisiert sich der Konflikt zwischen neuem, offenen wissenschaftlichen Denken und dem alten, geschlossenen christlichen Denken. Zudem hat Galilei eben konsequent sowohl eine experimentelle Messmethode angewendet wie auch eine beginnende mathematische Beschreibung. Mit Newton gelang dann eine Fassung von Experiment und Theorie, die atemberaubend war: die Bewegung der Himmelskörper ließ sich nicht nur mit einfachen mathematischen Formeln beschreiben, sondern auch noch mit bis dahin unbekannter Präzision voraus sagen. Es sollte dann zwar noch fast 300 Jahre dauern, bis die moderne Physik eine erste Theorie zur Entstehung des ganzen Weltalls formulieren konnte samt ersten experimentellen Bestätigungen, aber die Befreiung des Denkens von dogmatischen Sprachbarrieren war geschafft. Die Wissenschaft insgesamt hatte sich freigeschwommen.

Schon im 17.Jahrhundert hatte Niels Stensen entdeckt, dass die unterschiedlichen Ablagerungsschichten der Erde in zeitlicher Abfolge zu interpretieren sind und man daher auf geologische Prozesse schließen kann, die die Erde durchlaufen haben muss.

Zwei Jahrhunderte später, schon im 19.Jahrhundert, wurde diese historische Sicht der Erde ergänzt durch Charles Darwin, der am Beispiel der Pflanzen- und Tierwelt auch Hinweise auf eine Entwicklung der Lebensformen fand. Sowohl die Erde als auch die biologischen Lebensformen haben eine Entwicklung durchlaufen, zudem in enger Wechselwirkung.

Fast parallel zu Darwin machte Freud darauf aufmerksam, dass unser ‚Bewusstsein‘ nicht die volle Geschichte ist. Der viel größere Anteil unseres menschlichen Systems ist ’nicht bewusst‘, also ‚unbewusst‘. Das Bewusstsein ‚erzählt‘ uns nur ‚Bruchstücke‘ jener Geschichten, die weitgehend im ‚Nicht-Bewusstein‘ oder ‚Unbewussten‘ ablaufen.

Die weitere Entwicklung der Biologie lieferte viele Argumente, die das Bild von Freud stützen.

Der Versuch von Watson, 1913, die Psychologie als empirische Verhaltenswissenschaft zu begründen, wurde und wird oft als Gegensatz zu Psychoanalyse gesehen. Das muss aber nicht der Fall sein. Mit der Verhaltensorientierung gelang der Psychologie seither viele beeindruckende theoretische Modelle und Erklärungsleistungen.

Von heute aus gesehen, müsste man ein Biologie – Psychologie – Psychoanalyse Cluster befürworten, das sich gegenseitig die Bälle zuspielt.

Durch die Einbeziehung der Mikro- und Molekularbiologie in die Evolutionsbiologie konnten die molekularen Mechanismen der Evolution entschlüsselt werden.Mittlerweile steht ein fast komplettes Modell der biologischen Entwicklung zur Verfügung. Dies erlaubt es sowohl, Kants (als auch Descartes) Überlegungen von den biologischen Voraussetzungen her aufzuklären (z.B. Edelman!), wie auch die Psychologie samt der Psychoanalyse.

COMPUTER

Als Gödel 1931 die Unentscheidbarkeit anspruchsvoller mathematischer Theorien (das fängt bei der Arithmetik an!) beweisen konnte, wirkte dies auf den ersten Blick negativ. Um seinen Beweis führen zu können, benötigte Gödel aber sogenannte ‚endliche Mittel‘. Die moderne Logik hatte dazu ein eigenes Forschungsprogramm entwickelt, was denn ‚endliche Beweismethoden‘ sein könnten. Als Turing 1936/7 den Beweis von Gödel mit dem mathematischen Konzept eines Büroangestellten wiederholte, entpuppte sich dieses mathematische Konzept später als ein Standardfall für ‚endliche Mittel‘. Turings ‚mathematisches Konzept eines Büroangestellten‘ begründete dann die spätere moderne Automatentheorie samt Theorie der formalen Sprachen, die das Rückgrat der modernen Informatik bildet. Das ‚mathematische Konzept eines Büroangestellten‘ von Turing wurde ihm zu Ehren später ‚Turingmaschine‘ genannt und bildet bis heute den Standardfall für das, was mathematisch ein möglicher Computer berechnen kann bzw. nicht kann.

Im weiteren Verlauf zeigte sich, dass gerade das Konzept des Computers ein extrem hilfreiches Werkzeug für das menschliche Denken sein kann, um die Grenzen des menschlichen Wahrnehmens, Erinnerns und Denkens auszugleichen, auszuweiten.

Schon heute 2018 ist der Computer zu einem unverzichtbaren Bestandteil der Gesellschaft geworden. Das Wort von der ‚Digitalen Gesellschaft‘ ist keine Fiktion mehr.

ZEITGEIST

Der extrem kurze Rückblick in die Geschichte zeigt, wie schwer sich die Ausbildung und Verbreitung von Ideen immer getan hat. Und wenn wir uns die gesellschaftliche Realität heute anschauen, dann müssen wir konstatieren, dass selbst in den hochtechnisierten Ländern die gesamte Ausbildung stark schwächelt. Dazu kommt das eigentümliche Phänomen, dass das Alltagsdenken trotz Wissenschaft wieder vermehrt irrationale, gar abergläubische Züge annimmt, selbst bei sogenannten ‚Akademikern‘. Die Herrschaft von Dogmatismen ist wieder auf dem Vormarsch. Die jungen Generationen in vielen Ländern werden über mobile Endgeräte mit Bildern der Welt ‚programmiert‘, die wenig bis gar nicht zu wirklichen Erkenntnissen führen. Wissen als solches, ist ‚wehrlos‘; wenn es nicht Menschen gibt, die mit viel Motivation, Interesse und Ausdauer und entsprechenden Umgebungen zum Wissen befähigt werden, dann entstehen immer mehr ‚Wissens-Zombies‘, die nichts verstehen und von daher leicht ‚lenkbar‘ sind…

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

WIEDER TRITT FINDEN – Nach einer längeren Pause – WAHRHEIT DEMOKRATIE RELIGIONen

SCHREIBSTILLSTAND

1. Bedingt durch Urlaub und einer vorausgehenden absoluten Stresszeit kam mein Schreiben zum Erliegen – auch gewollt. Ab und zu braucht man Pausen, reale Pausen. Dies bedeutet nicht, dass das Denken aufhört, aber doch zumindest so viel, dass man sich nicht bei jedem Gedanken die Frage stellen muss, ob und wie man dies in einen beschreibbaren Zusammenhang einordnen kann/ sollte.
2. Natürlich rührt dies auch an Grundsätzliches – wie immer – ‚Warum überhaupt schreiben’… das Thema vom allerersten Blogeintrag.

VERSTEHEN WOLLEN

3. Wie auch schon damals entspringt die Antwort nicht aus rein objektiven Gegebenheiten sondern aus der subjektiven Situation, des Verstehen Wollens; die Welt verstehen, sich selbst, die anderen, überhaupt einfach verstehen, und dann vielleicht sogar ein Handeln, das sich davon inspirieren lässt.
4. Und in diesem Prozess des Verstehen Wollens gibt es keinen absoluten Punkt der allerletzten Klarheit, wann etwas vollständig oder wann etwas nur partiell verstanden ist. ‚Verstehen Wollen‘ hat keinen klaren Anfang und kein klares Ende. Es ist ein realer, konkreter Prozess von Lesen, Nachdenken, Reden, Schreiben, Hören, Träumen, Nichtstun, … währenddessen ‚Bilder‘ entstehen, die ‚Zusammenhänge‘ sichtbar machen, von denen man zuvor nichts gewusst hat, die man oft nicht einmal geahnt hat. In gewisser Weise erzeugt erst die ‚gedankliche Bewegung‘ die gedanklichen Zustände des ‚Erkennens‘. Und dies ist das ‚Gefährliche‘ in zweierlei Sinne: ‚gefährlich‘, weil man ‚vor‘ der Bewegung nicht weiß und nicht wissen kann, ob und was man erkennen wird, und gefährlich, weil man sich vorab irgendwelchen Vermutungen, Hoffnungen oder Ängsten hingeben kann, die einen entweder daran hindern, überhaupt das Nachdenken zu beginnen oder einen von vornherein auf eine bestimmte Einschätzung fixieren, die einem im Folgenden mindestens das Nachdenken schwer macht, wenn nicht ganz blockiert.

ERSCHEINT UNÜBERWINDLICH

5. In den letzten Wochen habe ich so viele sehr spannende und provozierenden und anregende Inhalte/ Themen kennen gelernt – ohne dies schreibend zu verarbeiten –, dass dies alles jetzt wie ein riesiger, unüberwindlicher Berg erscheint, der einem jeden Mut nimmt, ihn zu besteigen, sprich: überhaupt wieder zu schreiben; denn, egal wo man anfängt, es hängt da dieses Gefühl im Raum, es ist doch von vornherein vergeblich, sinnlos, unmöglich, diesem Wirrwarr an komplexen Ideen irgendeine Struktur abzugewinnen.

DAS ZUNÄCHST UNWIRKLICH IST DAS EINZIG WIRKLICHE

6. Dies führt zu einem sehr grundsätzlichen Problem, dass mich seit spätestens Frühjahr 2013 immer mehr beschäftigt, und auf das ich noch keine abschließenden Antworten habe: (i) Das, was wir primär als Daten/ Fakten ‚wahrnehmen‘, der Stoff, aus dem unsere ‚Realität‘ gemacht ist, enthält als solches eigentlich nahezu keine Wahrheiten oder Erkenntnisse. Diese (ii) ‚werden erst sichtbar‘, wenn man das sich Ereignende auf der ‚Zeitlinie‘ (mit Hilfe des Gedächtnisses) im zeitlichen (und räumlichen) Kontext sieht, wenn man Häufigkeiten, Wiederholungen, Zusammenhänge ‚bemerken‘ kann, wenn man ‚Einzeldinge‘ als ‚Beispiele‘ (Instanzen) von allgemeinen Mustern (Objekten) erkennen kann, wenn sich aus solchen Zusammenhängen und Mustern weitere allgemeine ‚Strukturen‘ ‚erkennen lassen‘, … kurzum: die einzig ‚wirklichen‘ und ‚wahrheitsfähigen‘ Erkenntnisse finden sich nicht schon in den primären Ereignissen des Alltags, sondern erst und einzig in dem ‚verarbeitenden Denken‘, in den Aktivitäten der individuellen Gehirne, soweit diese in der Lage sind, solche allgemeinen Muster zu erzeugen und damit weiter zu arbeiten.

KLASSISCHE PHILOSOPHIE

7. In der klassischen Philosophie waren dies z.B. Themen der Erkenntnistheorie, der Logik, der Naturbetrachtungen, der Metaphysik/ Ontologie. Hier hat man versucht, das eigene Denken zu ‚belauschen‘ und aus diesen Betrachtungen das ‚Wesentliche‘ vom ‚Unwesentlichen‘ zu unterscheiden. Wirklich ‚große‘ Philosophen wie ein Aristoteles oder ein Avicenna (Ibn Sina) waren sich während ihres Untersuchens der realen Welt immer auch bewusst, dass es in allem Erkennen neben dem sinnlichen Anteil immer auch einen gedanklichen Anteil gibt, und dass es letztlich genau dieser ist, mit dem Erkennen überhaupt beginnt. Unter anderem Kant und Hegel hatten diese Thematik verschärft, aber, anstatt dass wir alle daraus soviel Klarheit ziehen konnten, dass das Denken und das ‚Denken über das Denken‘ immer ‚einfacher‘ würde, ist etwas ganz anderes passiert.

MODERNE LOGIK

8. Mit der Entwicklung der modernen formalen Logik (seit dem Ende des 19.Jahrhunderts) wurde die Logik aus dem allgemeinen Denken herausgelöst und zu einem abstrakten Formalismus weiterentwickelt, dessen Bezug zum konkreten, realen alltäglichen Denken nicht mehr gegeben ist. Zwar führte diese Herauslösung der modernen formalen Logik einerseits zu mehr Freiheiten (z.B. es gibt nicht mehr nur einen Folgerungsbegriff, sondern beliebig viele; es gibt nicht mehr nur ‚wahr’/’falsch‘, sondern unendliche viele Abstufungen von ‚wahr’/’falsch), aber diese Freiheit wurde damit erkauft, dass eine mögliche Beziehung zwischen einem bestimmten Logikkalkül und dem realen Denken in jedem einzelnen Fall erst mühsam hergestellt werden muss und es niemals ganz klar ist, ob und wie dies der Fall ist.

WITTGENSTEIN

9. Leicht zeitversetzt zur Entwicklung der modernen formalen führte Ludwig Wittgenstein im Anschluss an seinen ‚tractatus logico philosophicus‘ mit seinen philosophischen Untersuchungen das gesamte moderne Denken in eine noch größere Freiheit, indem er die scheinbare Unauflöslichkeit von Denken und Sprache als eine quasi kognitive Täuschung entlarvte und mittels zahlloser genialer Beispiele aufzeigte, dass die ‚Bedeutungsinhalte‘, die wir mit unserer Sprache zu transportieren ‚meinen‘, zunächst mal nur die ’subjektiv intendierten‘ Bedeutungsinhalte sind; ob das Gegenüber die ‚gleichen‘ Bedeutungsinhalte aktiviert, wenn wir sprechen, oder ganz andere, das lässt sich immer nur sehr bedingt – wenn überhaupt – feststellen. Auch hier wird die ‚Freiheit‘ damit erkauft, dass der Vollzug eines verstehenden Sprechens an Selbstverständlichkeit – und damit an Leichtigkeit – verliert (was die Feuilletons dieser Welt bislang kaum daran hindert, Wortgewitter über ihre Leser loszulassen, die weniger dem Leser dienen als vielmehr dem Wortruhm des jeweiligen Schreibers).

VEREINSAMTES ALLTAGSDENKEN

10. Diese Neubesinnung auf Logik und die Sprache haben der modernen Wissenschaft zwar entscheidende Voraussetzungen geliefert, um transparent und nachvollziehbar komplexe empirische Theorien zu entwickeln, aber das alltägliche Denken wurde damit quasi sich selbst überlassen. Das Alltagsdenken interessierte plötzlich niemanden mehr …. und wurde damit zum Spielball einer Vielzahl von Interessen, die alle eines gemeinsam haben: Wahrheit spielt nicht nur keine Rolle mehr, sie ist in keiner Weise erwünscht: je weniger klare Regeln umso mehr Freiheit für Manipulation und Verführung.

AUFKLÄRUNG RELIGIONSÜBERGREIFEND

11. In einem sehr bemerkenswerten Leserbrief in der FAZ vom 5.Aug.2014 S.6 macht Heinz Eimer darauf aufmerksam, dass die ‚Aufklärung‘, die zu moderner Wissenschaft und zu demokratischen Staatsbildungen geführt hat, ihre Heimat weder im Christentum noch in irgendeiner anderen Religion hat. Sie ist religionsübergreifend. Angesichts erstarkender fundamentalistischer Tendenzen in den Religionen muss sich ein Staat auf diese seine demokratischen Werte besinnen um sich gegenüber den verschiedenen ‚Vereinnahmungen von Wahrheit‘ konkret und aktiv in Position bringen.
12. Hans Michael Heinig, Professor für öffentliches Recht, Kirchenrecht und Staatskirchenrecht schlägt sich in der FAZ vom 4.Aug.2014 S.6 bei der Frage des Verhältnisses von Aufklärung und Religion zwar nicht auf eine bestimmte Seite, stellt aber fest, dass ‚religiöse Traditionen keinen demokratischen Eigenwert besitzen‘. Nun ja, daraus folgt mindestens, dass die aus der Aufklärung hervorgegangen Demokratien zu ihrer Wesensbestimmung keines Rückgriffs auf eine Religion bedürfen.
13. Und bei Betrachtung der historischen Umstände dürfte die Faktenlage hinreichend stark sein, um zu behaupten, dass Aufklärung und moderne Demokratien nur in schwierigsten Auseinandersetzungen gegen (!) die herrschenden Religionen (organisiert als Kirchen) entstanden sind und sich behaupten konnten. Erst durch sehr klare und massive Abgrenzungen von Religionen gegenüber der allgemeinen Gesellschaft ist Frieden eingekehrt, konnte Wissenschaft sich entfalten, gibt es minimale Menschenrechte.
14. Prof. Heinig diskutiert das Verhältnis von Staat und Religion – im Lichte seiner Profession verständlich – nur aus rechtlicher Sicht und sieht in rechtlicher Sicht in Deutschland die ‚Multikonfessionalität‘ grundsätzlich angelegt. Dass der Islam noch nicht die Gleichbehandlung erfährt wie die traditionellen christlichen Konfessionen führt er im Wesentlichen darauf zurück, dass die islamischen Konfessionen bislang noch nicht so einheitlich organisiert sind wie die christlichen Kirchen. Dies mag stimmen.

JURISTISCHES DENKEN IST ZU WENIG

15. Allerdings zeigt diese rechtliche Betrachtung auch die Grenzen genau solcher rechtlicher Betrachtungen. Juristisch geht es immer nur sehr bedingt um Wahrheit; primär zählt die politisch gesetzte Norm, deren Wirkungskraft zu klären und zu garantieren ist. Ob die politisch gesetzten Normen (Gesetze) ‚wahr‘ sind in einem übergreifenden Sinne, diese Frage kann und will sich das juristische Denken nicht stellen.

RELIGIONEN UND GEWALT

16. Will man aber das ‚Wesen‘ von Religionen und das ‚Wesen‘ moderner demokratischer Gesellschaften verstehen, dann reichen formal-juristische Überlegungen nicht aus; dann muss man sich schon an die ‚Wahrheitsfrage‘ heranwagen. Auf eine sehr spezielle Weise tut dies in einem bemerkenswerten Artikel in der FAZ vom 7.Aug.2014 (S.9) Friedrich Wilhelm Graf unter der Überschrift ‚Mord als Gottesdienst‘. Als emeritierter Professor für Systematische Theologie und Ethik arbeitet er heraus, dass Gewaltbereitschaft und Enthemmung ihren Ursprung genau im Zentrum dessen haben, was die verschiedenen Religionen als ‚Kern ihres Glaubens‘ ansehen.
17. Das Phänomen, dass aus religiösen Gemeinschaften heraus Enthemmungen entstehen können, die zu brutalsten Handlungen führen, ist nach Graf seit den Anfängen der Religionsgeschichte zu beobachten und betrifft alle Religionen ohne Ausnahme: Hinduisten, Buddhisten, Juden, Christen, Muslime, um nur die größten zu nennen.
18. Dort, wo Religionen sich zu Gewalttätigkeiten hinreißen lassen, findet man nach Graf die Aufteilung der Welt in die ’schlechte‘ Gegenwart und die ‚ideale‘ gottgewollte Welt. Aus dieser diagnostizierten Differenz ergibt sich ein religiös motivierter Handlungsdruck, der umso größer ist, als eine solche Differenz von den Gläubigen so behauptet wird. Besteht zusätzlich eine Identifizierung der religiös Handelnden mit der Absolutheit Gottes zustande, wie sie unterschiedlichen Ausmaß immer in Anspruch genommen wurde (bis hin zur Gleichsetzung von menschlichem Akteur und Weisheit und Willen Gottes), dann gewinnt die religiös motivierte Sicht der Welt und das darin gründende Handeln eine Absolutheit, die keinerlei korrigierende Kritik mehr zulässt.
19. Dass religiöse Deutungsmuster, die in Deutschland lange als überwunden galten, in der Gegenwart zu neuer Stärke wiederfinden können (z.B. die vielen sogenannte Glaubenskriege heute) hat – so Graf – auch damit zu tun, dass politische Akteure aller Couleur sich die alten religiösen Symbole, Vorstellungen und Handlungsmuster zu Nutze machen und sie vor ihren eigenen Karren spannen. Direkt zu sagen, dass man persönlich die Macht über Menschen und Regionen in Anspruch nehmen möchte ist weniger erfolgreich, als die Menschen glauben machen, dass es Gottes Wille sei, die anderen zu vertreiben oder zu töten um sich selbst dann in die Position der Macht zu begeben (so diente Religion in der Vergangenheit allerdings immer schon den verschiedenen Herrschern als probates Mittel, um die Loyalität gegenüber der Macht zu fördern).
20. Was allen diesen unterschiedlichen Spielarten religiös motivierter Gewalt gemeinsam ist, das ist nach Graf das völlige Fehlen einer ernsthaften Nachdenklichkeit, von Selbstreflexion, von kritischer Selbstbegrenzung. Stattdessen eine Ganzhingabe unter Inkaufnahme von Tot auf allen Seiten.
21. Abschließend stellt Graf fest, dass wir eigentlich nicht wissen, wie sich solcherart brutalisierte Frömmigkeit zivilisieren lässt.

DIE WAHRHEITSFRAGE BLEIBT NIEMANDEM ERSPART

22. Im Kontext der vorausgehenden Überlegungen legt sich die Frage nahe, inwieweit das neue gesellschaftliche Erstarken von religiösen Bewegungen neben großen sozialen und politischen Spannungen von vielen Regionen unserer Erde nicht auch damit zu tun hat, dass man im Kontext von Religionen (wie Graf auch deutlich feststellt) die ‚Wahrheitsfrage‘ anscheinend ‚tabuisiert‘. Wenn jemand kritische Fragen an eine konkrete Religiosität stellt, wird dies von den religiösen Vertretern überwiegend als Kritik an ‚Gott selbst‘ gedeutet anstatt als Kritik an der Art und Weise, wie bestimmte Menschen mit der Gottesfrage umgehen. Während Aufklärung, moderne Wissenschaft und moderne Demokratien die Möglichkeit eröffnet haben, die Frage nach Gott in ungeahnt neuer Weise, tiefer weitreichender, allgemeiner als je zuvor zu stellen, fürchten die traditionellen Formen von Religion offensichtlich um ihren Einfluss, um ihre Macht und wiegeln jegliche Form von kritischer Reflexion auf die Voraussetzungen von Glauben und Religion einfach ab. Obgleich ‚wahres Denken‘ eine der lautersten Weisen der Annäherung an ‚Gott‘ sein kann, wird ‚wahres Denken‘ im Umfeld von Religionen (ohne Ausnahme!) verbannt, unterbunden, verteufelt. Die europäischen Nationen müssen sich angesichts von islamischen Terrorgruppen zwar an die eigene Nase fassen mit Blick auf die kolonialistischen Greueltaten und konfessionellen Kriegen der Vergangenheit, aber heute, nachdem man mühsam gelernt hat, dass Wahrheit, Gerechtigkeit, Menschlichkeit, Gesellschaft, Gottesglauben auch ganz anders aussehen kann und mit Blick auf eine nachhaltige Zukunft auch ganz anders aussehen muss, heute müssen die aufgeklärten Gesellschaften ihre einseitig zu Materialismus verkümmerte Aufklärung wieder neu beleben, ansonsten werden sie an ihrer eigenen Lüge zugrunde gehen. Jeder Augenblick ist eine Herausforderung für eine mögliche Zukunft; so oder so. Leben ist genau dieses: das ‚Gleichgewicht‘ immer wieder neu herstellen und auf immer höheren ‚Wahrheitsniveaus‘ neu finden; es kann keine dauerhafte Einfachheit geben. Genau das ist die schlimmste Form des Unglaubens.

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

PHILOSOPHIE – ÜBER SICH NACHDENKEN – PROGRAMMIEREN – DIE KALTE MASCHINE – DER GEIST IM STROMKREIS

Letzte Änderung: 29.Mai 2014, 19:20h (Musikstück hinzugefügt)

SOUNDEREIGNIS

Zur Einstimmung der folgenden Reflexionen über das Programmieren aus philosophischer Sicht hier eine Sound-Komposition vollständig erstellt mit mathematischen Algorithmen: Sinfonia made completely by MAX Demos. Das Stück besteht aus 6 Klangspuren, wobei jede Spur einen Klang repräsentiert, der durch Softwareinstrumente erzeugt worden ist. Für alle die, die nur ‚Mainstream-Musik‘ kennen (Klassik gehört auch zum ‚Mainstream :-)) ist vom Hören abzuraten. Dies ist ein Sound für jene, die sich vom Mainstream gelöst haben und einfach Spass haben, unbekannte Klangräume zu durchwandern. Konkret habe ich mit Demoinstrumenten aus den Tutorials der Software MAX 6.1.7 sowie ableton live 9.1 und Max4Live herumgespielt.

ZWEI JUNGE MÄNNER TRETEN AUF

1. Am 22.Mai 2014 abends, nach einem sehr anstrengenden Tag, war ich Zeuge eines besonderen Schauspiels. Zwei junge Männer, beide langjährige Programmierer im Kontext innovativer multimedialer Anwendungen, Erfinder einer dafür eigens geschaffenen Programmiersprache – nennen wir sie Lx – dachten in zwei aufeinanderfolgenden Vorträgen laut nach, über das, was sie tun, wenn sie programmieren.

2. Dies ist ungewöhnlich, da diejenigen, die programmieren, es normalerweise einfach tun; sie schreiben ‚Kode‘, wie es so schön heißt. Verschachteln if’s und ‚while’s‘ und zahllose Schlüsselwörter der vielen ‚Bibliotheken‘ der fertigen Softwaremodulen, die heutzutage Programmiersprachen begleiten.

3. In der ‚reinen Lehre‘ ist s zwar anders, da gibt es Entwurfsmodelle, abstrakte Spezifikationen, seitenlange Anforderungen, die einem Programmierer sagen sollen, was er ‚eigentlich‘ zu tun hat; doch aus der Sicht eines Programmierers verschwimmen diese ganzen Texte und Diagramme sehr schnell zu einem Nezwerk von Kodierungsanweisungen, zu Seiten voller kryptischer Befehlsausdrücken, zu einem Programmtext seiner Sprache Lx. Was immer abstrakt vorher gedacht worden ist, er, der Programmierer verwandelt sich in einen ‚Kodierer‘.

4. Nicht so an diesem Abend. Die beiden Programmierer versuchten über ihr Kodieren nachzudenken.

ZUR GESCHICHTE DER KODIERUNG

5. Im ersten Vortrag ging es mehr um die historische Dimension, wie es von ersten rechnenden Maschinen (mit schönen Videoausschnitten über Konrad Zuse und seinen pionierhaften Experimenten mit seinen ersten Rechnern) mit direkter bitweiser Kodierung zu immer abstrakteren Programmiersprachen (Bits, Hexcode, mnemonischer Assemblercode, einfache Programmiersprachen wie Fortran und C, höhere objektorientierte Sprachen, und dann visuelle Kodierung). Da endete der historische Aufriss, da die Sprache Lx der beiden Programmierer solch eine visuelle Sprache war.

6. An dieser Stelle ruckelte es schon ein bisschen. Erstens gibt es ja heute schon viele verschiedene visuelle Programmiersprachen, und zum anderen war der Überblick unvollständig. Die Programmiersprachen selbst sind nur ein Teil der Geschichte; parallel mit den Programmiersprachen hat sich unter dem Oberthema ‚Softwareengineering‘ ein Denkmuster entwickelte, das die Programmiersprache nur noch als ein – wenngleich ein wichtiges – Moment sieht im Kontext von – stark vereinfachend – Problemstellung P, Anforderungsanalyse A, logisches Entwurfsmodell M und implementiertes System S. Kodierung ist Teil des implementierten Systems S bzw. steht in gewisser Beziehung zum logischen Entwurfsmodell. Der ‚Denkraum‘ des Softwareeinsatzes hat sich also erheblich ausgeweitet, und eine Geschichte der Programmierung, die diesen Denkkontext des Programmierens nicht berücksichtigt, wirkt mindestens unvollständig.

DIAGRAMMATISCHE REFLEXE ZTUM EIGENEN KODIEREN

7. Der zweite Vortrag wurde in gewisser Weise ‚persönliches‘ bis ’sehr persönlich‘. Hier sprach der Programmierende – nennen wir ihn B – in der Tat über seine Gedanken, wenn er programmiert bzw. über seine Gedankenwelt, vorher, während und nachher, und er sprach als jemand, der eine Programmiersprache entwickelt hat, sie benutzt, sie ‚warten‘ muss und sie weiter entwickelt.

8. Er benutze dazu Folien die angefüllt waren mit Handzeichnungen, Wortskizzen, Wort und Bildskizzen – fantastisch anzuschauen, eher Kunstwerken gleich, anregend, faszinierend. Seine begleitende Rede war auch keine normale Rede, keine geschliffenen Sätze, kein zusammenhängender Text; nein, es war eine Mischung aus Stammeln, Brummeln, meist mit dem Rücken zu den Zuhörer, eine Art Zwiegespräch mit den kunstvollen Linien in dem projizierten Bild; meist kryptisch, die Zuhörer/ Zuschauer meist in Lauerstellung in Erwartung, was denn jetzt kommen würde.

9. Es klingt komisch, aber ich habe es genossen, das war Denken unplugged, das war Kreativität des sich selbst reflektierenden Kodierens ‚live‘. Es dürfte nicht allzu viele ‚Programmierer‘ geben, die dies so tun würden. Als ich den Vortragenden anschließend darauf hin ansprach, wie oft er das so schon gemacht habe, sagte er auch, dass er dies so zum ersten Mal gemacht habe. Also eine Uraufführung; wunderbar.

PHILOSOPHISCHE REFLEXION

10. Schaltet man jetzt die philosophische Reflexion ein, dann ist als erstes zu bemerken, dass es offensichtlich nicht ganz selbstverständlich, keinesfalls einfach ist, etwas, was man tut, – hier das Programmieren, das Kodieren in einer Sprache Lx – in einer anderen Sprache Lxx auszudrücken. So beeindruckend und faszinierend die bildhaften und textuellen Fragmente waren, die B in seinen Folien präsentierte (für mich wahre ‚Kunstwerke‘), so wenig ließen diese vielen Fragmente einen größeren Zusammenhang klar erkennen. Dieser Eindruck verstärkte sich auch in dem anschließenden Gespräch mit den Zuhörern. Während die meisten ‚Anwender‘ waren, die die Sprache Lx (bzw. der Vorläuferversion) selbst zum Kodieren benutzten, und der Vortragende B aber gedanklich im Netzwerk seiner Konzepte ?herumirrte?, gab es auch Fragen zum ‚Denkraum‘, innerhalb dessen man Programmiersprachen entwickelt. Fragen und Antworten fanden nicht wo wirklich zueinander.

11. Während im ersten Vortrag noch ein wenig die Idee anklang, dass das Aufkommen von visuellen Sprachen eine ‚Verbesserung‘ für den programmierenden Menschen darstellt, blieb dieser reformerische, am Menschen orientierte, Ansatz immer mehr im Dunkeln. Im Zweikampf mit seinen eigenen Gedanken wurde nicht klar, ob und wie denn eine visuelle Programmiersprache Lx (zu der es, wie gesagt, viele Parallelen gibt) dem ‚menschlichen Denken‘ besonders entgegen kommt.

12. Während die Missionare des objektorientierten Programmierens zumindest versucht haben, Formen des alltäglichen Denkens mit einer ojektorientierten Sprache Lo in Verbindung zu bringen (was beim späteren sogenannten ‚modellbasierten‘ Programmieren schon nicht mehr so gelang), wurden solche Gedanken an diesem Abend nicht vorgetragen. Der Mensch in seinem Denken – hier der programmierende Mensch – blieb weitgehend außen vor. Schade. In diesem den Menschen und vorhandenen Programmieralternativen ausklammernden Denken blieben die Gedanken des suchenden Programmierers weitgehend ‚alleine mit sich selbst‘.

SOFTWAREENGINEERING IST NICHT GANZ NEU

13. Bemerkenswert an diesem Schauspiel ist die Tatsache, dass Software engineering (nicht ganz so gut: Softwaretechnik) nun ja keine wirklich ganz neue Disziplin mehr ist. An allen Universitäten/ Hochschulen, in denen Informatik gelehrt wird, gibt es seit mindestens 20 Jahren auch Softwareengineering. Und dennoch ist diese Art eines ‚zusammenhängenden Denkens‘ in den Köpfen der ‚aktiven Programmierenden‘ offensichtlich nicht präsent (als Vergleich: die Ideen eines Galilei haben ca. 100 Jahre gebraucht, bis sie zum Allgemeingut geworden sind).

14. Dennoch kamen man auch bei jenen, die Softwareengineering im größeren Zusammenhang denken, wissenschaftstheoretische bzw. philosophische Ansätze kaum bis gar nicht vorkommen, obgleich ein solches Denken hier eine Menge zu tun hätte.

15. Halten wir kurz fest: der Aspekt des menschlichen Denkens – nennen wir es hier das ‚kognitive Interface‘, die ‚Schnittstelle zum Denken‘; andere sprechen auch von ‚mentalen Modellen‘ – kam bei den beiden Vortragenden des Abends so gut wie nicht vor.

16. Der Einsatz einer Programmiersprache hat aber noch eine weitere Dimension, die nicht minder bedeutsam ist. Egal welche Programmiersprache Lx man benutzt, ein Programm in solch einer Sprache Lx – nennen wir es P(Lx) – muss irgendwann von einem realen Computer C ‚ausgeführt‘ werden. Dies bedeutet, was immer sich ein menschlicher Programmierer im Rahmen seines kognitiven Interfaces ‚gedacht‘ haben mag, als er P(Lx) erstellt hat, das, was ‚tatsächlich passiert‘, das entscheidet sich bei der realen Ausführung auf einem Computer C. Dies bedeutet, dass die Menge dieser Ausführungen von P(Lx) auf dem Computer C – nennen wir sie C(P(Lx)) – die ‚finale Bedeutung‘ von Lx darstellt. Man spricht auch von der ‚Semantik‘ (Bedeutung) der Sprache Lx mit Bezug auf C. Beispiel: mit den Ausdrücken von Lx will Programmierer B zwei ‚parallele Prozesse‘ a und b darstellen, gefolgt von Prozess c. Damit dieser Gedanke Sinn macht, muss sichergestellt sein, dass bei der Ausführung von a,b und dann c diese logische Struktur auch real umgesetzt wird, erst recht, wenn möglicherweise das Ergebnis von c z.B. dann wieder dem Prozess b als ein Teil seiner Eingangswerte zur Verfügung gestellt werden soll. Solche ‚Korrespondenzen‘ zwischen ‚intendierter‘ Bedeutung und ‚realisierter‘ Bedeutung herzustellen und zu ‚gewährleisten‘ ist generell nicht einfach und in genügend vielen Fällen unmöglich. Über diese ’semantischen Aspekte‘ der Programmiersprache Lx wurde gar nicht gesprochen. Auf Nachfrage kam eine Aussage, die so klang, also ob man darüber ’noch nicht nachgedacht habe‘.

17. Mir kommt es so vor, als ob das Thema ‚Semantik einer Programmiersprache‘ für viele Programmierenden das ist, was Tiefenpsychologen das ‚individuelle Unbewusste‘ nennen. Irgendwo wissen sie zwar, dass ihr Kode letztlich von einer Maschine abgearbeitet wird mit den daraus resultierenden Einschränkungen, aber tatsächlich berauschen sie sich lieber an ihren aktuellen Ideen und Fantasien und tun so, als ob das alles ja genau so auch umgesetzt wird. Wird es nicht. Hier gibt es viele zu klärende Fragen, also philosophisches Potential.

WITTGENSTEIN LÄSST GRÜSSEN

18. Vielen Programmierenden – den meisten? – ist nicht bewusst, dass der Denkweg von Ludwig Wittgenstein von seinem ‚Tractatus Logico Philosophicus‘ hin zu seinen ‚Philosophischen Untersuchungen‘ ein wunderbares Muster abgibt, innerhalb dessen man auch die Thematik der Bedeutung von Programmiersprachen reflektieren kann. Natürlich müsste man die Diktionen von Wittgenstein dem heutigen Sprach- und Denkgebrauch des Softwareengineerings etwas anpassen, aber die Grundideen (und die sich darin verbergenden kritischen Potentiale) sind weiterhin anwendbar.

19. Eine zentrale Idee Wittgensteins ist die Aufdeckung der Tatsache, dass die Ausdrücke einer Sprache L – und das gilt dann auch für Lx – ihre ‚Bedeutung‘ nur im Kontext sogenannter ‚Sprachspiele‘ haben. Im Fall der visuellen Programmiersprache Lx wäre ein solcher Kontext gegeben durch (i) die Programmierer, (ii) die Ausdrücke von Lx, (iii) die ausführenden Computer C (meistens mindestens mit Hardware und Betriebssystem) sowie (iv) die ‚Aktionen‘, die der programmierte Computer – z.B. als Roboter oder als Smartphone – beobachtbar ‚ausführt‘, sehr oft in ‚Interaktion mit einem (v) Benutzer‘, der ’seine‘ ‚Vorstellungen‘ (:= mentale Modelle) des Geschehens hat.

20. Das Softwareengineering versucht – im idealen Fall – die potentiellen Sprachspiele ‚vorweg‘ zu analysieren, zu modellieren, und entsprechend zu implementieren. Die Grenzen liegen bei der ‚Vorwegnahme‘ des potentiellen Benutzers.

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

KURZMEMO 4.PHILOSOPHIE-WERKSTATT 8.Februar 2014

Rückblick zur 4. Philosophiewerkstatt vom 8.Februar 2014.

Trotz garstigem Wetter fand sich wieder ein lebhafter Kreis von Mitdenkern zusammen.

ERINNERN

Da sich mitlerweile schon viel Stoff aus den vorausgehenden Treffen angesammelt hatte, gingen wir dazu über, im gemeinsamen Gespräch die Punkte heraus zu filtern, die den einzelnen für diesen Abend wichtig erschienen. Neben vielen bunten Aspekten war es dann im Kern das Thema ‚Denken und Fühlen‘, was weiter vorangetrieben werden sollte.

WEITERDENKEN

Experimenteller Rahmen, offen für Philosophie, Psychologie und Neurowissenschaften

Experimenteller Rahmen, offen für Philosophie, Psychologie und Neurowissenschaften

Anhand eines Schaubildes wurde die aktuelle Betrachtungsweise geklärt und das berühmte Experiment von Tolman (1948) anhand einer computerbasierten Nachsimulation erläutert.

Tolman_Labyrinth1

Tolman_Labyrinth1

Umgebungsorientierung wird auch ohne direkte Bedürfnisse gelernt – Annahme eines Basistriebs ‚Neugierde‘, ‚Spieltrieb‘, ‚Kreativität‘

Triebfreies Umgebungslernen widerspricht den einfachen S-R-Verkettungsthesen von Watson und anderen Verhaltenstheoretikern

Bedürfnisse verleihen bestimmten Unterschiedsmengen in der Wahrnehmung eine spezielle Bedeutung (eingebaute Fitnesswerte)

Aktuelle Bedürfnisse fokussieren das Handeln auf Umgebungsausschnitte (partielle ‚Blindheit‘)

Eine Veränderung des Ortes, an dem sich Futter findet, kann von rein deterministischen Systemen nicht bewältigt werden (phi: I x IS —> O). Nicht-reaktive Systeme im Sinne von ‚adaptiven‘ Systemen können die Aufgabe bewältigen (phi: I x IS —>IS x O).

Aufgrund der Erkenntnisse der Evolutionsbiologie wissen wir, dass die logische Abhängigkeit wie folgt ist: die primäre Vorgabe ist die ‚Welt, wie sie ist‘; in Interaktion mit der Welt haben sich unterschiedliche Systeme herausgebildet, die auf die Besonderheiten dieser Welt reagieren können. Die ‚Bedürfnisstruktur‘ von Lebewesen ist in dieser Perspektive eine Art ‚Echo‘ auf das, was sie vorfinden; biologische Systeme sind von daher ‚komplementär‘ zu einer sich kontinuierlich verändernden Welt.

Hier ergeben sich viele interessante Denkansätze.

Es scheint, dass die ‚Bedürfnisse‘ (Emotionen) logisch dem Denken vorgeordnet sind; die Bedürfnisse brauchen zwar das Denken, um ‚effizient‘ zu sein, aber ohne die Bedürfnisse taumelt das Denken in einem ‚wertfreien‘ Raum von Unterschieden.

Das führt zur Frage, welche ‚Bedürfnisse‘ (Emotionen, Gefühle, Stimmungen, …) letztendlich ‚wichtig‘ sind? Auf welchen größeren Zusammenhang dies alles verweist? Ob wir schon über alle Gefühle verfügen, die zum Übereben in diesem Kosmos wichtig sind? Ob es Gefühle gibt, die sich ‚überlebt‘ haben oder die gar ’schädlich‘ sind? Usw.

PHILOSOPHISCHES MUSIKEXPERIMENT

Es gab dann zum ersten Mal ein philosophisches Musikexperiment, das zu angeregten Gesprächen führte.

NACHÜBERLEGUNGEN ZUM VORTRAG „NOTION OF GOD“ von GIUSEPPE TANZELLA-NITTI, Prof. für Dogmatische Theologie der Theologischen Fakultät der Päpstlichen Universität vom Heiligen Kreuz (Rom); Vortrag gehaltem am 17.Aug.2013 an der Universität UNICAMP (Campinas, Brasilien)

Letzte Änderung: Einfügung zweier Musikstücke am 24.August 2013

Als Begleitmusik (Variante 1)

PERSÖNLICHER NACHHALL

1) Die folgenden Überlegungen beabsichtigen nicht, den Vortrag als solchen wieder zu geben (als Hintergrundlektüre für den Vortrag war angegeben worden God, Notion of), sondern Gedanken, die sich für mich aus dem Vortrag ergeben haben, auch in Verbindung mit einem der anschließenden Gesprächskreise (der zum Glück auf Englisch war, da sich mein Portugiesisch bislang nur auf wenige Worte beschränkt).
2) Aufgrund meiner Biographie vermeide ich es eher, mich mit kirchlichen Themen zu beschäftigen, da das offiziell-kirchliche Denken — ich muss es so sagen — in meiner Erfahrung aufklärendes Denken eher verhindert als befördert. Aber da ich nun mal hier war und mein Freund den Vortrag besuchen wollte, bin ich mal mitgegangen.

EINSCHRÄNKUNG AUF GRENZEN DER WISSENSCHAFTEN

3) Eine kleine Überraschung war, dass der Vortrag selbst sich nur auf Aussagen der Wissenschaft beschränkte, und hier besonders auf die großen Diskussionen in der Physik bis ca. Ende des 20.Jahrhunderts. Alle anderen Wissenschaften wie die Geologie und Biologie mit dem evolutionären Veränderungsgeschehen auf der Erde, die Molekularbiologie und Neurowissenschaften mit den neuen Erkenntnissen zu den Grundlagen des Menschseins samt den Auswirkungen auf die moderne Philosophie, dies alles fehlte in dem Vortrag. Erst recht fehlte die Position der Kirche, die Theologie, wie diese sich zu dem Ganzen verhält (die in dem oben genannten Artikel ‚Notion of God‘ sehr wohl vorkommt).

GRENZEN UND IHRE ÜBERWINDUNG

4) Der Vortrag artikulierte im Munde des Vortragenden besonders drei Leitthemen: (i) Die Wissenschaft leistet aus Sicht der Kirche sehr wohl einen Beitrag zur Erkenntnis der Welt, wie sie ist; (ii) aufgrund der verwendeten empirischen Methoden in Kombination mit der Mathematik hat die Wissenschaft aber eingebaute Erkenntnisgrenzen, die verhindern, dass man das ‚große Ganze‘ sehen kann; (iii) die Lücken, die die Wissenschaft lässt, verlangen dennoch nach einer ‚Füllung‘, die mittels philosophischem und theologischen Denken geschlossen werden können.
5) Akzeptiert man die Annahmen, die der Vortragenden in seinem Vortrag stillschweigend macht (Anmerkung: Er hat nirgends seine eigenen Voraussetzungen offengelegt (und dies geschieht auch nicht in dem angegebenen Hintergrundartikel)), dann ist dies ein recht plausibler, schlüssiger Gedankengang.
6) Er brachte dann eine Fülle von Originalzitaten aus Briefen und Büchern berühmter Forscher, die alle mit je eigenen Worten ihre persönliche Position bezüglich der Grenzen der wissenschaftlichen Erkenntnis zum Ausdruck brachten; diese mündeten in den einen Tenor, dass sie ‚hinter allem‘ letztlich eine alles übergreifende Ordnung vermuten oder gar direkt von ‚Gott‘ sprechen. Abgerundet wurde der Zitatenstrauss durch eine Episode während einer wissenschaftlichen Konferenz im Vatikan, bei der Stephen Hawking, bekennender Atheist und aus Sicht der Kirche illegal ein zweites Mal verheiratet eine Begegnung mit Papst Paul II. hatte und der Papst Hawking entgegen Hawkings Erwartungen nicht kritisierte (in der Vergangenheit hatte Hawking von einem Papst sogar eine hohe kirchliche Auszeichnung bekommen, die der Papst (Foto war da) ‚kniend‘ überreicht hatte).

EINE FALSCHE ‚HEILE WELT‘?

7) So nett dies alles klingt, es führt letztlich an der Sache vorbei und gaukelt eine ‚heile Welt‘ vor, die so nicht existiert.

KOMMENTAR: HISTORISCHE EINORDNUNG DER WISSENSCHAFT FRAGWÜRDIG

8) In meinem ersten Kommentar in der Vortragsrunde habe ich versucht deutlich zu machen, dass die Fokussierung auf die ‚Grenzen‘ wissenschaftlichen Erkennens — so lehrreich sie in gewissen Details sind — letztlich aber die Sicht auf den tatsächlichen Gang der historischen Entwicklung verstellt. Das, was aus einer vom Vortragenden bewusst gewählten Sicht als ‚Begrenzung‘ des Wissens durch die moderne Wissenschaften erscheint, erweist sich im realen historischen Kontext als gewaltige Befreiung! Vor dem systematischen Betrieb von empirischer Wissenschaft — wobei man Galileo Galilei (1564– 1642) als einen Bezugspunkt für den historischen Beginn setzen kann (natürlich gab es auch vor Galileo andere, die schon empirische Untersuchungen angestellt haben, die Mathematik zur Beschreibung benutzt haben, aber mit seiner Person, seinen Werken und seinem Schicksal verbindet sich die Geschichte der modernen Wissenschaften in besonderer Weise) — gab es ein Sammelsurium von Wissen, stark dominiert von einem philosophischen Denken, das trotz der Klarheit eines Aristoteles (384-322BC) stark in den Fallstricken der natürlichen Denkens verhaftet war und mittels einer sogenannten Meta-Physik alle die Fragen löste, die das übrige Wissen zu dieser Zeit noch nicht lösen konnte. Dies vermittelte zwar den Eindruck von ‚Klarheit‘ und ‚Sicherheit‘, da man ja alles meinte ‚erklären‘ zu können. Der große Nachteil dieses Wissens war, dass es nicht ‚falsch‘ werden konnte. Unter der Flagge der Meta-Physik konnten also auch größte Unsinnigkeit geäußert werden und man konnte sie nicht widerlegen. So schlimm dies in sich schon ist, so schlimm wird dies dann, wenn eine politische oder kirchliche Macht (oder beide zusammen, was geschehen ist), ihre eigenen Wahrheits- und Machtansprüche mit solch einer Denkform, die nicht falsch werden kann, verknüpft. Eine kirchliche Macht formal verknüpft mit einem ‚abgeleiteten‘ Aristoteles konnte jedes ’neue‘ und ‚andersartige‘ Denken im Ansatz unterbinden. Vor diesem Hintergrund war das Aufkommen der empirischen Wissenschaften eine wirkliche Befreiung, eine Revolution und das harte unerbittliche Vorgehen der Kirche gegen die ersten Wissenschaftler (bis hin zum Tod auf dem Scheiterhaufen) belegt, dass die Inhaber der Macht sehr wohl gespürt haben, dass ein empirisch wissenschaftliches Denken trotz seiner eingebauten Grenzen mächtig genug ist, die metaphysischen Kartengebäude der Vergangenheit zum Einsturz zu bringen. Und die weitere Entwicklung zeigt überdeutlich, dass es genau dieses empirische-wissenschaftliche Denken war, das im Laufe der letzten 400 Jahre schrittweise immer mehr unser gesamtes Denken über das Universum, die Erde, das Leben und den Menschen ‚umgegraben‘ hat; wir haben atemberaubende Einblicke erlangt in ein universelles Geschehen und in einen Mikrokosmos, der alles übersteigt, was frühere Zeiten nicht einmal ahnen konnten. Wenn ein Aristoteles heute leben könnte, er wäre sicher besinnungslos vor Glück angesichts all dieser aufregenden Erkenntnisse (und natürlich würde er seine Meta-Physik komplett neu schreiben; er würde es sicher tun, nicht so die vielen philologischen Philosophen, die immer nur neue Ausgaben editieren (so wertvoll dies für sich auch sein mag)).
9) Von all dem hat der Vortragende nichts gesagt! Er hat es tunlichst vermieden, hätte er doch unweigerlich die hochproblematische Rolle der realen Kirche in diesem historischen Prozess zur Sprache bringen müssen, noch mehr, er hätte sich unangenehmen Fragen danach stellen müssen, wie es denn die Kirche heute mit der wissenschaftlichen Erkenntnis hält. Dies war mein zweiter Punkt, den ich im Plenum angemerkt habe.

KOMMENTAR: AUSLASSUNG DER NEUEREN WISSENSCHAFTSENTWICKLUNG; SCHWEIGEN ÜBER WISSENSCHAFTLICHE ERKENNTNISSE IN ANWENDUNG AUF DIE BIBEL

10) In dem zitierten Dokument God, Notion of) werden einige kirchliche Dokumente aufgelistet, die auf die eine oder andere Weise — zumindest in Worten — eine grundlegende Wertschätzung von allgemeinen wissenschaftlichen und philosophischen Erkenntnissen zum Ausdruck bringen. Allerdings, wie oben schon angemerkt, werden viele neue wissenschaftliche Disziplinen, speziell jene im Umfeld der chemisch-biologischen Evolution, Neurowissenschaften, künstliche Intelligenzforschung, ausgeklammert. Und — dies fällt vielen Nicht-Theologen vermutlich gar nicht auf — die Anwendung wissenschaftlicher Methoden auf die sogenannten ‚Offenbarungsschriften‘ des alten und Neuen Testaments (kurz ‚Bibel‘ von Griechisch ‚biblos‘ = Buch) und die theologische Lehre insgesamt wird nahezu vollständig ausgeblendet. In allen offiziellen kirchlichen Texten spielen die gut 100 Jahre andauernden wissenschaftlichen Untersuchungen zur Überlieferungsgeschichte der biblischen Dokumente, ihre historischen Kontexte, ihre literarische Formen, ihre redaktionellen Be- und Überarbeitungen, ihre Übernahme vorgegebener Themen aus dem Umfeld, usw. keine ernsthafte Rolle (Anmerkung: Diese Feststellung bezieht sich wohlgemerkt auf die offiziellen kirchlichen Verlautbarungen. In den meisten theologischen Hochschulen — zumindest im deutschsprachigen Bereich –werden diese Methoden im Rahmen der Wissenschaften von der Bibel (Exegese) sehr wohl gelehrt und angewendet, allerdings, wie man sieht, im offiziell kirchlichen Denken ohne Konsequenzen). Das gleiche zieht sich fort in den theologischen Disziplinen, die zum dogmatischen Denken gehören. Hier wird Wissenschaft und moderne Philosophie — wenn überhaupt — nur sehr selektiv einbezogen. Diese gelebten Realitäten einer Kirche sprechen eine andere Sprache als die schönen Worte der offiziell kirchlichen Verlautbarungen. Würde man die hier in den letzten 100 Jahren gewonnenen Erkenntnisse ernst nehmen, dazu die übrigen neuen wissenschaftlichen Erkenntnisse, dann würde man viele gewohnte kirchliche Positionen ziemlich sicher korrigieren müssen. Während die einen dies als ‚Verlust‘ empfinden mögen, als ‚Bedrohung‘, werden andere daran einen möglichen Weg sehen, die ursprüngliche Sprengkraft eines christlichen Glaubens auch unter veränderten Erkenntnisbedingungen wieder besser denken und dann vielleicht auch besser leben zu können. Auf diesen ganzen Komplex von Wissenschaftsverachtung durch die reale Kirche heute ist der Vortragende mit keinem Wort eingegangen (in dem von ihm angegebenen Text lässt der abschließende Abschnitt über die Sicht der Theologie den Eindruck entstehen, als ob er selbst als Autor diese 100 Jahre umfangreichster wissenschaftlicher Arbeiten zur Bibel auch völlig ausklammert und stattdessen nur klassische metaphysische Muster wiederholt, deren Gültigkeit heute mehr als fragwürdig ist).

KOMMENTAR: SCHLIESSEN DER LÜCKEN MIT UNGEEIGNETEN MITTELN

11) Damit kommen wir zum dritten Themenkreis, dem Schließen der ‚Lücken‘, die das wissenschaftliche Denken angeblich lässt. Nu muss man an dieser Stelle selbstkritisch einräumen, dass die vielen empirisch-wissenschaftlichen Disziplinen bis heute keinen einheitlichen, überall anerkannten ‚meta-wissenchaftlichen‘ Überbau in Form einer allgemein verbreiteten ‚Wissenschaftstheorie‘ oder ‚Philosophy of Science‘ haben; sofern es solche Professuren gibt, sind diese oft vereinzelt, isoliert, eher der Philosophie zugeschlagen und abgetrennt von den Wissenschaften, die dieses Denken eigentlich brauchen. Die ohne Zweifel in jedes wissenschaftliche Erkennen einfließenden philosophischen Anteile sind oft wenig thematisiert oder gar nicht thematisiert. Andererseits ist es aber so, dass de reale Gang der empirischen Wissenschaften beständig begleitet war von allerlei methodologischen Diskussionen. Die große Mannigfaltigkeit der Disziplinen und der hohe Veränderungsgrad machen es allerdings schwierig, hier mit einer Reflexion Schritt zu halten (zumal diese von den Universitäten zum Leidwesen der Wissenschaften kaum honoriert oder unterstützt wird). Aus dieser, sich aus der Sache heraus ergebenden, Schwierigkeit dann abzuleiten, dass es so etwas wie eine Philosophie der realen Wissenschaften nicht geben kann und dass man stattdessen doch lieber Vorlieb nimmt mit den ‚Philosophen der Vergangenheit‘ (die können sich ja nicht mehr wehren), ist verständlich, wenngleich für den Wissenschaftsbetrieb unglücklich. Statt die Kluft zwischen ‚Denken in der Vergangenheit und Denken heute‘ zu schließen, wird diese Kluft dann eher zementiert. Aus dieser unbefriedigenden Situation heraus entstehen dann solche Lösungsvorschläge, die ‚Erkenntnislücken‘ der heutigen Wissenschaften mit den Konzepten der alten klassischen Metaphysik zu ‚überbrücken‘ (zu ‚transzendieren‘), da man ja letztlich (so die stillschweigende Annahme) aus dem vorausgesetzten allgemeinen ‚Logos‘ (ein Begriff aus der griechischen Philosophie, zusätzlich aufgeladen durch die biblischen Schriften, u.a. vom Johannesevangelium her, das im griechischen Text auch vom ‚logos‘ spricht) existentiell und logisch meint allgemeine Zusammenhänge herleiten zu können, um die Erkenntnislücken empirischer Wissenschaften zu schließen.
12) Wie gesagt, die empirischen Wissenschaften bieten leider kein ideales Bild, aber die Einbeziehung von klassischen philosophischen Positionen ohne weitere Begründung ist nicht sehr rational. Da werden mindestens 400 Jahre kritische methodische Reflexionen komplett unterschlagen. Hier nur ein paar Anmerkungen (eine korrekte Darstellung könnte ganze Bücher füllen):

EINWÄNDE GEGEN NAIVE INANSPRUCHNAHME VON ‚LOGOS‘ UND METAPHYSIK
– ERKENNTNISTHEORIE

13) (i) ein Einspruch kommt von der modernen Erkenntnistheorie (etwa ab Descartes, über Hume, Kant, Locke und vielen anderen bis hin zur evolutionären Erkenntnistheorie). Hier hat man erkannt, dass unsere subjektive Erlebnis- und Denkwelt ganz konkrete Voraussetzungen hat, die in der Struktur und der Funktion des Gehirns begründet sind, das wiederum zusammen mit dem umgebenden Körper eine Entwicklung von vielen Millionen Jahren hinter sich hat. Die Art und Weise unseres Denkens ist ein Produkt, und die heutigen Erlebnis- und Denkformen bilden keinen endgültigen Schlusspunkt, sondern repräsentieren eine Übergangsform, die in einigen Zehntausend Jahren (falls die Gentechnik nicht schon früher Änderungen hervorbringt) anders aussehen werden als heute. Beispielsweise sehen wir (durch die Kodierung des Gehirns) beständig ‚Objekte‘, aber in der physikalischen Welt gibt es keine Objekte, nur Eigenschaftsmengen, Energiefelder. Eine klassische Metaphysik konnte unter Voraussetzung des subjektiven Denkens mit Objekten in Form einer ‚Ontologie‘ operieren, eine moderne Philosophie muss erst einmal erklären, wie sie damit klar kommt, dass unser Gehirn subjektiv überall Objekte konstruiert, obwohl es physikalisch eigentlich keine Objekte gibt (und eine moderne Philosophie muss natürlich noch erheblich mehr erklären als dieses).

– SPRACHPHILOSOPHIE

14) (ii) Ein zweiter Einspruch kommt von der Sprachphilosophie. Der Vortragende erwähnte zwar auch den frühen Wittgenstein (1889-1951) als Kronzeugen für die Einsicht in die Grenzen dessen, was man mit Sprache sagen kann, um damit einmal mehr die Grenzen der empirisch-wissenschaftlichen Methode zu thematisieren, er versäumte es dann aber, auch den späten Wittgenstein zu erwähnen, der nachhaltig aufzeigen konnte, wie die Grenzen des Sagbaren alle Sprachspiele durchziehen, auch die Alltagssprache, auch — und nicht zuletzt! — die Sprache der Philosophen. Konnte man in früheren Zeiten als Philosoph einfach einen Satz hinschreiben mit der trügerischen Annahme, das könne wohl jeder verstehen, der verstehen will, kann nach Wittgenstein jeder, der es wissen will, wissen, dass dies eine wenig haltbare Position ist. Nicht nur jeder Satz, sondern sogar jedes einzelne Wort unterliegen dem Problem, dass ein Sprecher A das, was er mit bestimmten Lauten oder Zeichen verbunden wissen will (die Bedeutung), in keinem einzigen Fall als selbstverständlich gegeben bei einem anderen Sprecher B voraussetzen kann. Dies liegt daran, dass die Zuordnung von sprachlichem Ausdruck und das mit dem Ausdruck Gemeintem nicht zwangsweise mit dem Ausdruck selbst verknüpft ist, sondern in jedem einzelnen Fall mühsam gelernt werden muss (was jeder, der mühsam eine neue Sprache lernen will auf Schritt und Tritt erfährt). Mag dies bei Bezugnahme auf empirische Sachverhalte noch einigermaßen gehen, wird es bei nicht-empirischen Sachverhalten zu einem Rate- und Glücksspiel, das umso abenteuerlicher ist, je weniger Bezugspunkte zu etwas anderem, was schon bekannt ist, vorliegen. Wer schon einmal klassische philosophische Texte gelesen hat, der weiß, dass philosophische Texte in der Regel NICHT von empirischen Sachverhalten sprechen, sondern von Erlebnis- und Denkstrukturen, die als solche nicht wie Objekte aufzeigbar sind. Die Vielzahl unterschiedlicher Interpretationen ein und desselben klassischen philosophischen Textes ist von daher kein Zufall sondern resultiert aus dieser schwierigen Bedeutungslage. Klassische philosophische Texte sind ’schön‘, solange man sie nicht ernsthaft analysiert; tut man dies, verliert man sich unweigerlich in immer mehr Aporien.
15) [Anmerkung: Ich selbst war Teilnehmer des folgenden Experimentes an derjenigen deutschen Universität, die als einzige unter den ersten 50 Plätzen internationalen Universitätsrankings vorkommt. Teilnehmer waren zwei bekannte Philosophieprofessoren, zwei habilitierte Assistenten und mindestens drei Doktoranden der Philosophie. Es ging um die Frage, ob man die Einleitung in Kants Kritik der reinen Vernunft so interpretieren könne, dass alle ausnahmslos zustimmen müssten. Das Experiment lief zwei Semester lang. An Methoden war alles erlaubt, was bekannt war und dienlich erschien. Natürlich wurden u.a. auch alle bisher verfügbaren Kommentare berücksichtigt. Nach zwei Semestern gab es nicht einmal ansatzweise eine gemeinsame Sicht der Dinge. Beweisen tut dies im strengen Sinne nichts. Ich fand es damals sehr ernüchternd.]
16) Fasst man die Erkenntnisse der modernen Erkenntnistheorie und die der modernen Sprachphilosophie zusammen, dann erscheint es nicht nachvollziehbar und geradezu gewagt, anzunehmen, man könne die bislang erkannten Grenzen der modernen empirisch-wissenschaftlichen Erkenntnis durch einen unreflektierten Rekurs auf einen alles übergreifenden ‚Logos‘ einfach so überbrücken. Diese Art von ’naiver‘ (sprich ‚unreflektierter‘) Meta-Physik (und Ontologie) ist vorbei.
17) Bedenkt man die Bedeutungs-Probleme, die die Alltagssprache besitzt, ist die Situation in den empirisch-wissenschaftlichen Disziplinen ja geradezu noch ‚idyllisch‘. Bis zu einem gewissen Grad gibt es hier noch aufzeigbare und kontrollierbare ‚Bedeutung‘, wenn auch nicht vollständig.

VERZICHT AUF ‚LOGOS‘ ODER METAPHYSIK BEDEUTET NICHT GOTTLOSIGKEIT

18) Akzeptiert man die kritischen Argumente, dann folgt daraus NICHT — wie der Vortragende zu unterstellen scheint –, dass sich damit die Frage nach einem letzten ‚Sinn‘ oder gar die Frage nach etwas, das wir ‚Gott‘ nennen, grundsätzlich erledigt hat. Was sich allerdings weitgehend erledigt hat, ist, dass man tiefgreifende Fragen, die sich durch das Fortschreiten der Wissenschaften dem Wahrheitssuchenden öffnen weder durch Rekurs auf eine vor-kritische naive Metaphysik ‚überspielen‘ kann, noch dass man theologische Positionen als Antworten benutzen kann, die sowohl die wissenschaftliche kritische Analyse der religiösen Überlieferungsgeschichte wie auch der sich aus den Wissenschaften ergebenden neuen Erkenntnisse zur Struktur des Menschen, seiner Erkenntnisfähigkeit, seinen Erlebnisstrukturen usw. unberücksichtigt lassen. Das, was der Vortragende in dem zitierten Artikel tut, ist aber genau dies: er benutzt die alte naive Metaphysik, als ob es die letzten 400 Jahre nicht gab, und er benutzt eine theologische Interpretation, die genau jene Wissenschaft, die zuvor als so wichtig gepriesen wird, vollständig ausklammert. Das ist in meinen Augen nicht seriös, das ist nicht rational, das ist unwissenschaftlich, das hilft all den Menschen nicht, die ernsthaft nach Wahrheit suchen und nicht nur eine ‚psychologische Beruhigung‘ mit ‚einlullenden Bildern‘ (obwohl das Erzählen von Märchen sehr wohl der Wahrheitsfindung dienen kann; man muss sie nur richtig erzählen. Viele der Gleichnisse (einfache Form von Märchen?), die der Gestalt Jesus von Nazareth zugeschrieben werden, sind z.B. von dieser Natur: sie machen Punkte im Verhalten von Menschen deutlich, denen man eine gewisse Lebensweisheit nicht absprechen kann (eine Weisheit, die nicht jeder mögen muss)).

DIE GRENZEN DER SPRACHE IMPLIZIEREN NICHT EINE BEGRENZTHEIT DER WELT

19) Der Gesprächskreis im Anschluss an den Vortrag war sehr heterogen. Ich selbst habe aus den vielen Aussagen folgenden Gedanken mitgenommen: Die Grenzen der Sprache (Für die Mathematik aufgezeigt durch Gödel (und auch Turing)), für die allgemeine Sprache durch Wittgenstein) bedeuten nicht das Ende der Erkenntnis, sie machen uns nur deutlich, dass die grundsätzlichen Möglichkeiten des Erkennens für uns Menschen (bisher, unter Voraussetzung des aktuellen Erkenntnisapparates) nicht beliebig sind und dass wir, wenn wir ‚wahre‘ Erkenntnis wollen, jene, die uns aus den Wirrungen des alltäglichen naiven Weltbildes tatsächlich herausführen kann, dass wir dann diese Grenzen beherzigen und berücksichtigen sollten. Dass die scheinbare Begrenzung des wahren Erkennens auf die empirisch-wissenschaftliche Vorgehensweise uns gegenüber dem Vorgehen mit der nur scheinbar alles umfassenden naiven metaphysischen Denkweise in geradezu explosionsartiger Weise in Denkräume hinein katapultiert hat, von denen keiner der alten Philosophen auch nur träumen konnte, dies sollte uns Ermutigung und Anstoß sein, diesen Weg beherzt weiter zu gehen. Darüber hinaus zeigt sich aber ein fundamentaler Tatbestand: explizites, sprachlich vermitteltes Denken kann letztlich nur jener Wirklichkeit folgen, in der wir uns vorfinden und die allem Denken voraus ist. Was wir nicht aufzeigen können, ist letztlich nicht greifbar. Mehr noch, nur im Erfahren des ‚wirklich Anderen‘ — dem Empirisch-widerständigen — erfahren wir uns selbst als das ‚Andere zum anderen‘, als ‚Selbst‘ und das, ‚was‘ wir sind bzw. sein können, wissen wir erst dann, wenn wir selbst in unserem konkreten Dasein uns selbst sichtbar werden. Dies aber bedeutet, nur wenn wir ‚aus uns heraus‘ gehen, nur wenn wir ‚uns aufs Spiel setzen‘, nur wenn wir etwas ‚Probieren‘, nur dann kann sichtbar werden, ‚was‘ bzw. ‚wer‘ wir ‚tatsächlich sind‘. Nur weil das ‚biologische Leben‘ beständig weiter ‚aus sich heraus‘ gewachsen ist, immer mehr ‚Varianten probiert‘ und ‚Komplexitäten geschaffen‘ hat sind Formen des Lebens entstanden, von denen wir ein kleiner Teil sind. Dass das DNA-Molekül und der zugehörige Übersetzungsmechanismus ‚begrenzt‘ ist (verglichen mit den klassischen metaphysischen Konzepten geradezu lächerlich primitiv) war — und ist — kein Hindernis dafür, dass immer komplexere Lebensformen entstanden sind, so komplex, dass unser heutiges Denkvermögen sie nicht vollständig beschreiben kann. Die Grenzen der Sprache sind NICHT die Grenzen des Lebens und der Wahrheit. Die Wahrheit geht jeder Sprache — und erst recht jeder Metaphysik — um Lichtjahre voraus.

JEDER KANN SEIN ‚GOTTESEXPERIMENT‘ MACHEN

20) Sollte es so etwas wie einen ‚Gott‘ geben, so brauchen wir uns mit Sicherheit keine Sorgen darum machen, ob er ‚ist‘, was er ‚tut‘ oder ob wir ihn ‚richtig erkennen‘. Wenn es einen ‚Gott‘ als das letztlich Unbegreiflich alles Umfassende geben sollte, dann kann man davon ausgehen, dass er schon immer handelt (auch ohne uns zu fragen), er ist schon immer bei und in uns, ohne dass wir darum bitten müssen, und er lässt die ‚Wahrheit‘ auch in Lebensformen aufscheinen und sich entwickeln, die wir uns nicht ausgedacht haben und über die wir keine Verfügungsgewalt haben. Mit Sicherheit ist dieser Gott nicht an eine spezielle ethnische Gruppe gebunden, mit Sicherheit interessiert diesen Gott nicht, was wir essen und trinken, mit Sicherheit spielt Jungfrauengeburt und ähnliche Folklore keine Rolle. Für diesen Gott, so es ihn gibt, geht es um wirklich Grundlegendes. Aus meiner beschränkten Wahrnehmung sehe ich nicht, dass irgendeiner der heute lebenden Religionen (Judentum, Christentum, Islam…) wirklich ernsthaft an Gott interessiert ist. Dazu ist viel zu viel Hass unterwegs, zu viel Menschenverachtung, zu viele gruppenspezifische Egoismen, zu viele Herrschaftsstrukturen, die nur denen dienen, die herrschen, zu viel Folklore, zu viel Geldmacherei, zu wenig echtes Wissen.
21) Alles in allem — das habe ich in einem andren Blogeintrag auch schon mal ausgeführt — kann man den Eindruck gewinnen, dass es heute weniger die alten Religionen sind, die uns etwas Interessantes über den Sinn dieser Welt und über Gott zu sagen haben, als vielmehr die modernen Wissenschaften, die trotz ihrer Unvollkommenheiten ein Fenster der Erkenntnis aufgestoßen haben, dass alle Räume sehr weit aufmacht, so weit, dass wir noch gar nicht alles fassen können, was wir da sehen, zugleich werden die Grundrisse einer neuen Spiritualität sichtbar, die zu erkunden und auszuprobieren noch viel zu tun bleibt.
22) Das wäre mein letzter Punkt (zu dem es auch schon frühere Blogeinträge gibt). Wenn das alles stimmt, was uns die empirischen Wissenschaften sagen, dann ist die Annahme einer direkten Kommunikation ‚Gottes‘ — was immer man alles über ihn im Detail noch sagen kann — mit jedem Punkt des Universums — und damit natürlich auch mit jedem Lebewesen, auch mit uns Menschen — grundsätzlich möglich, und zwar jederzeit und überall. Niemand braucht eine vermittelnde Instanz dazu, da wir durch unsere Körper (die ja alle aus Zellen bestehen, diese aus Molekülen, diese aus Atomen, diese aus subatomaren Teilchen) jederzeit mit jedem Punkt im Universum kommunizieren können. Die grundlegenden Regeln der — zumindest christlichen — Mystik sind mit diesem empirischen Befund deckungsgleich. Es macht ja auch keinen Sinn, ‚Gott‘ als alles umfassenden und ermöglichenden Grund allen Seins zu postulieren und ihm dann zu verbieten, sich mit jedem Punkt des Universums verbinden zu können. Von der Quantenphysik her gibt es jedenfalls keine grundlegenden Einwände (was nicht bedeutet, dass wir in der Quantenphysik soweit wären, eine solche Kommunikation vollständig beschreiben zu können). Das gute daran ist, man muss dies nicht ‚glauben‘, sondern man kann es ‚tun‘, d.h. jeder kann sein privates ‚Gottesexperiment‘ machen und mit Gott in Kontakt treten. Man muss dafür kein Geld bezahlen, man braucht dazu keine ‚Genehmigung‘, man muss dazu keinen Universitätsabschluss gemacht haben, man muss dazu keiner bestimmten politischen Partei angehören, man muss dazu kein Millionär sein; das ‚einfache Menschsein‘ genügt. Die einzige Bedingung, man muss es einfach ‚tun‘, womit wir wieder bei dem zentralen Sachverhalt sind: Leben gibt es nur dort, wo es sich ‚ereignet‘, indem man seine Möglichkeiten ausübt…

Eine Übersicht über alle bishergen Blogeinträge nach Titeln gibt es HIER

Variante Nr.2

SINN, SINN, und nochmals SINN

(1) Wie die vorausgehenden Beiträge auf unterschiedliche Weise gezeigt haben, führt die Frage nach dem ‚Sinn‘ (eng verknüpft mit der Frage nach der Wahrheit), wenn man sie ernsthaft stellt, schnell auf allerlei ‚Randbedingungen‘ des ‚Erkennens‘, die nicht nur ‚passiver Natur‘ sind (was ‚uns geschieht‘), sondern zugleich auch vielfältiger ‚aktiver‘ Momente (was ‚wir tun‘), damit wir überhaupt etwas erkennen, ‚wie‘ wir erkennen, ‚wann‘, ‚wo‘, usw. ‚Erkennen‘ zeigt sich somit als ein komplexes Geschehen, eingebettet in eine Vielzahl von Randbedingungen, die eine unüberschaubare Anzahl von Möglichkeiten zulassen.

 

 

(2) In jeder dieser unendlich vielen Kombinationen haben wir ein Erkenntniserlebnis, was immer auch die aktuelle Konstellation sein mag (Fernsehen gucken, Lesen, Laufen, reden, arbeiten, Malen, Streiten, Internet surfen, ….). Dieses aktuelle Erlebnis ist als Erlebnis ‚real‘. Wir können uns diesem realen Erleben nicht entziehen. Wir sind ‚mitten drin‘. Und wenn wir über das, was wir erleben, nicht explizit und zusätzlich ’nachdenken‘ (reflektieren…), dann ist die Welt das, was wir aktuell faktisch erleben (Wittgensteins berühmter Satz ‚Die Welt ist, was der Fall ist‘ (der in einem ganz bestimmten Kontext geäußert wurde) würde hier jetzt genau dies bedeuten: die Welt ist, was ich erlebe (was Wittgenstein genau vehement abstreiten würde (das war sein Problem…)). Denn nur das haben wir zur Verfügung (oder, wie zuvor mehrfach ausgeführt, das ist das, was das Gehirn ’sich selbst‘ aufgrund der verfügbaren Signale ‚zubereitet‘ (… wobei ‚Gehirn‘ ein komplexes theoretisches Konzept ist, dessen Anführung in diesem Kontext für viele Leser eher irreführend als zielführend sein kann)).

 

(3) Was die Sache mit dem Erleben (aus theoretischer Sicht) ’schwierig‘ macht (mit den entsprechenden weitreichenden Folgen für das alltägliche praktische Leben), ist die Tatsache, dass unser Erleben (wie jetzt schon oft besprochen) keine 1-zu-1-Abbildung von ‚Dingen außerhalb des Körpers‘ ist, sondern eine permanente dynamische Konstruktionsleistung unseres Gehirns, das aktuell verfügbare Signale mit schon zuvor ‚erworbenen (gelernten?)‘ Daten (Erinnerung, Gedächtnis) ‚verrechnet‘ und ‚Arbeitshypothesen‘ entwickelt, wie das alles ‚zusammenpassen‘ (Kohärenz, Konsistenz…) kann. Da das Gehirn endlich ist und in knapp bemessener Zeit aus einer Signalflut permanent auswählen muss, fallen beständig Sachen unter den Tisch, werden ausgeklammert, werden Dinge ‚vereinfacht‘ usw. Auf der ‚Habenseite‘ dieses atemberaubenden Geschehens verbleibt aber ein ‚Erkenntniseindruck‘, der ‚uns‘ das Gefühl vermittelt, wir ’sehen‘ etwas, wir ‚hören‘, usw.

 

 

(4) Dieser permanente Rückgriff auf ’schon Bekanntes‘ hat den großen Vorteil, dass die meist unvollkommenen Daten durch den Bezug auf ‚Ähnliches‘ ‚ergänzt‘ (interpretiert, gedeutet…) werden können und damit der ‚Entscheidungsprozess‘ während der ‚Berechnung‘ der ‚möglichen Strukturen in den Signalströmen‘ in Richtung des ’schon Bekannten‘ geleitet und damit abgekürzt werden kann (in Experimenten im Rahmen der Phonetik konnte man zeigen, dass Menschen bei der Identifizierung von akustischen Signalen ohne ‚Kontextwissen‘ deutlich schlechter waren, als mathematische Algorithmen für die Signalerkennung. Sobald die Menschen aber nur ein wenig Kontextwissen besaßen, waren sie den Algorithmen (nachvollziehbarerweise) deutlich überlegen. Andererseits konnte man sie dadurch aber auch gezielter ‚manipulieren‘: wenn man weiß, welches Kontextwissen bei einem bestimmten Menschen ‚dominant‘ ist, dann kann man ihm Daten so servieren, dass er diese Daten ’spontan‘ (wenn er nicht kritisch nachdenkt) im Sinne seines Kontextwissens interpretiert und damit zu ‚Schlüssen‘ kommt, die mit der tatsächlich auslösenden Situation gar nichts mehr zu tun haben).

 

(5) Diese ambivalente Rückwirkung des ’schon Bekannten‘ wird noch komplexer, wenn man berücksichtigt, dass mit dem Erlernen einer Sprache die ‚Gegenstandswelt‘ erweitert wird um eine ‚Welt der Zeichen‘, die auf diese Gegenstandswelt (und auf sich selbst!) auf vielfältige Weise ‚verweisen‘ kann. Ein sprachlicher Ausdruck als solcher ist auch ein reales Erlebnis, das aber – im Normalfall – von sich weg auf etwas ‚Anderes‘, auf seine ‚Bedeutung‘ ‚verweist‘. Jede mögliche Bedeutung ist letztlich immer erst mal wieder nur ein Erlebnis, das irgendwann einmal stattgefunden hat, und sei es als bloß ‚Imaginiertes/ Vorgestelltes/…‘. D.h. die Verwendung der Sprache als solche führt nicht grundsätzlich über den Bereich des Erlebbaren hinaus. Ein Denken mit Hilfe von sprachlichen Ausdrücken ist nur ’strukturierter‘, ‚berechenbarer‘, ‚handhabbarer‘ als ein Denken ohne sprachliche Ausdrücke. Sprache erlaubt die ‚wunderbare Vermehrung der Dinge‘, ohne dass real die Dinge tatsächlich vermehrt oder verändert werden (ein Roman von vielen hundert oder gar über tausend Seiten kann für den Leser ein sehr intensives ‚Erlebnis‘ erzeugen, gestiftet von einem bunten Strauss von sprachlich induzierten ‚Vorstellungen‘, die als solche real sind, ohne dass diesen Vorstellungen irgendetwas in der Außenwelt entsprechen muss.

 

(6) Mit den modernen Medien (Film, Fernsehen, Video, Computeranimation…) wird die Erzeugung von ‚Vorstellungen‘ nach ‚außen‘ verlagert in ein Medium, das Erlebnisse erzeugt ’scheinbar wie die Außenwelt‘, die aber ‚willkürlich erzeugt‘ wurden und die mit der empirisch-realen Welt nichts zu tun haben müssen. Dem ‚Erlebnis als solchem‘ kann man dies u.U. Nicht mehr ansehen, sofern man nicht (wie auch in allen anderen Fällen) sehr bewusst ‚kritisch‘ Randbedingungen überprüft und berücksichtigt. Während das Lesen eines Romans ‚als Lesen‘ deutlich macht, dass alle durch das Lesen induzierten Erlebnisse ‚künstlich‘ sind, kann das sehen/ hören/ fühlen… eines künstlichen Mediums die Einsichtsschwelle in die ‚Künstlichkeit‘ immer ‚höher‘ legen. Ein Film über ‚Erfundenes‘ neben einem Film über ‚empirisch-Reales‘ ist nicht mehr ohne weiteres identifizierbar.

 

(7) Sofern man nicht explizit die Frage nach der ‚Wahrheit‘ stellt (ich definiere ‚Wahrheit‘ hier jetzt nicht; siehe dazu die vorausgehenden Reflexionen) sind alle diese möglichen Erlebniswelten (real-empirisch bezogen oder beliebig generiert) aus Sicht des Erlebens ‚gleichwertig‘. Wer hier nicht ausdrücklich immer darauf achtet, was wann wie von wem mit welcher Absicht usw. ‚erzeugt‘ wurde, für den verschwimmen alle diese erlebnisfundierten Bilder zu einem großen Gesamtbild, wo jedes jedes ‚interpretiert‘ und wo die Frage nach der Wahrheit aus den Händen gleitet. Dennoch bieten alle diese Bilder – so verzerrt und willkürlich sie auch sein mögen – für den, der sie ‚hat‘ eine ‚Interpretation‘ und damit einen ‚möglichen Sinn‘. Ohne die ‚Gewichtung‘ durch den Aspekt der Wahrheit sind alle diese ‚möglichen Sinne‘ ‚gleichwertig‘. Es gibt im Bereich des möglichen Sinns keine ausgezeichnete Instanz, die einen besonderen Vorzug verdienen würde. Entsprechend ‚bunt‘ ist das Bild, das sich bietet, wenn man schaut, was Menschen alles für ’sinnvoll‘ halten. Es kann für jemand anderen noch so ‚grotesk‘ erscheinen, für den ‚Besitzer‘ dieses Sinns ist es ‚der allein seligmachende‘.

 

(8) Wie gesagt, solange man die Frage nach der ‚Wahrheit‘ ausklammert, geht alles. Die Frage nach der Wahrheit wiederum setzt eine ‚kritische Reflexion‘ auf Randbedingungen voraus. Wie der Alltag zeigt, ist aber den meisten Menschen gar nicht klar, was ‚kritische Reflexion‘ praktisch bedeutet. Selbst wenn sie ‚kritisch reflektieren‘ wollten, sie könnten es nicht. Millionen von Menschen sind zwar bereit, viel Geld, viel persönliche Zeit, ja sogar ihr ganzes persönliche Leben, in ‚Gefolgschaften‘ von Kursen und Organisationen zu investieren, ohne ein Minimum an kritischem Denken dafür zurück zu bekommen. Das ‚Verwirrspiel‘ um den ‚Sinn‘, um den ‚Lebenssinn‘, um den ‚wahren Sinn‘ wird damit nur schlimmer und furchtbarer. Meist werden ein paar Leute dadurch sehr viel reicher, und viele andere sehr viel ärmer. Soetwas sollte immer als ein mögliches Alarmzeichen dienen, um darauf aufmerksam zu machen, dass es bei solchen Veranstaltungen (das müssen nicht nur sogenannte ‚Sekten‘ sein, das kann — wie wir täglich leidvoll dazu lernen — jede Art von sogenannten ‚Beratern‘ sein) nicht um ‚wahren Sinn‘ geht, sondern um simple materielle Vorteile einzelner auf Kosten anderer.

 

(9) Das Thema ist damit nicht erschöpft (was ja auch die vorausgehenden Eindrücke zusätzlich belegen können), …es ist nur eine ‚Notiz‘ zwischendurch….

 

 

Ein Überblick über alle bisherigen Beiträge findet sich hier.

 

 

 

LITERATURNACHWEISE

Wittgenstein, L.: Logisch-philosophische Abhandlung, W. Ostwald (Hrsg.), Annalen der Naturphilosophie, Band 14, 1921, S. 185–262

nachlesbar in:

Wittgenstein, L.: Logisch-philosophische Abhandlung, Tractatus logico-philosophicus. Kritische Edition. Suhrkamp, Frankfurt am Main 1998

 

 

 

 

 

 

 

 

VEREINIGUNG VON PHILOSOPHIE UND WISSENSCHAFT?

(1) Eine klare Definition von Philosophie gibt es bislang nicht und dürfte es
angesichts der Besonderheit des Gegenstandes vermutlich auch niemals geben.

(2) Viele Autoren, die sich als Philosophen verstehen, sehen den Gegenstand
der Philosophie in der Aufdeckung von Zusammenhängen, die jedem Denken zugehören,
unabhängig von den wechselnden (‚kontingenten‘) ‚Inhalten‘.

(3) Nach Descartes, Kant — und vielen anderen — hat Husserl versucht, einen
allgemeingültigen und ‚festen‘ Grund des Denkens durch Fokussierung auf das
Erleben des eigenen Denkens zu finden.

(4) Husserl unterscheidet zwischen den wechselnden — und vom ihm als ‚kontingent‘
bezeichneten — Inhalten des Erlebens (den ‚Phänomene‘) sowie jenen Momenten des
Erlebens, die allem Erleben ‚innewohnen‘, ‚implizit zugehören‘. Immer, wenn wir
erleben, dann sind diese Momente als solche ‚unterscheidbar‘ von den kontingenten
Phänomenen. In Anlehnung an Kant kann man solche ‚impliziten‘, ‚dem Erleben
innewohnenden‘ Eigenschaften ‚transzendental‘ nennen: sie sind dem Erleben
‚voraus(gesetzt)‘.

(5) Husserl hebt hervor, dass diese Unterscheidungen von kontingenten
Bewusstseinsinhalten und transzendentalen Momenten des Bewusstseins zur
Voraussetzung hat, dass man die ’normale (alltägliche)‘ Erlebniseinstellung verlässt.
Für Letztere ist kennzeichnend, dass ‚erlebte Inhalte‘ nicht als ‚erlebte‘ Inhalte
genommen werden, sondern dass diese ‚automatisch‘ so interpretiert werden, als ob
diese Erlebnisinhalte – sofern sie dem Bereich der Sinneswahrnehmung zugeordnet
werden — ‚Dinge in der realen Welt‘ ‚verkörpern‘. D.h. Unser alltägliches ’naives‘
Erleben unterstellt den Erlebnisinhalten eine ‚ontologische Geltung‘, eine
‚Existenz in der realen Welt‘. Sofern man sich ‚als Philosoph‘ ‚bewusst‘ wird,
dass das ‚Erleben als solches‘ nicht notwendigerweise eine reale Existenz bedingen
muss (Beispiel ‚Träumen‘, ‚Fantasieren‘, ‚Vorstellen‘, ‚Erinnern‘,…), kann man
diese Unterscheidung festhalten und versuchen, sie zu einem methodischen Element
des Welterlebens machen. Husserl nennt die Einstellung, die diese Unterscheidung
konserviert, ‚epochä‘ (aus dem Griechischen), etwa ‚Ausklammerung (oder ‚Einklammerung‘).
Unter Anwendung der epochä werden die ontologischen Unterstellungen für alle
Erlebnisinhalte erst einmal eingeklammert.

(6)Der epochä voraus liegt die grundsätzliche ‚Bewusstwerdung‘ des ‚Erlebens als
solchem‘! Erst unter Voraussetzung des Erlebens als solchem kann ich innerhalb
dieser Bewusstwerdung die zusätzliche Unterscheidung zwischen dem ‚reinen
Erlebnisinhalt‘ und den ‚begleitenden Eigenschaften‘ machen wie z.B. den
ontologischen Unterstellungen oder den transzendentalen Momenten des Erlebens.

(7) Am transzendentalen Erleben kann man im Rahmen der grundsätzlichen
Bewusstwerdung viele unterscheidbare Eigenschaften (informell beschreibbar
als ‚Erinnern‘, ‚Abstrahieren‘, ‚Vergleichen‘,…), identifizieren.

(8) Ein Philosophieren, das die Inhalte des Erlebens zum Gegenstand macht,
hat ein Grundproblem, das bis heute – so scheint es – noch niemand befriedigend
lösen konnte; dies ist dem Umstand geschuldet, dass Philosophieren eine Tätigkeit
ist, zu der die Kommunikation zwischen Menschen dazu gehört. Ohne sprachliche
Kommunikation der Denkinhalte ist das Philosophieren weitgehend wertlos.
Selbst wenn das individuelle Denken über irgendwelche ‚Inhalte‘ verfügen würde
(wovon auszugehen ist), wären diese Inhalte solange ‚unsichtbar‘, solange sie
nicht in einer gemeinsam geteilten Sprache ‚vermittelbar‘ wären. Davon zu
unterscheiden wäre die Frage, was denn ein einzelner Denker überhaupt denken
kann, wenn er nicht über eine Sprache verfügt, die von anderen verstanden wird.
Wieweit bilden die Tiere, die keine elaborierte Sprache ausgebildet haben, ein
Beispiel für sprachfreies Denken? Immerhin sind zu komplexen – auch sozialen –
Handlungen fähig.

(9) Wie viele vor Wittgenstein als ‚Philosophen der Sprache‘ bezeichnet werden
sollten, kann ich momentan nicht klar entscheiden, auf jeden Fall hat Ludwig
Wittgenstein die transzendentale Rolle der Sprache für unser Erleben in einer
Weise beleuchtet und reflektiert, wie niemand zuvor – und bislang vielleicht auch
niemand mehr nach ihm –. Er ist der kreative Totalzerstörer von jeglicher
Bedeutungssicherheit. Er liefert zwar keine neue konstruktive Antworten, aber
er bereitet den Weg durch Zerstörung falscher Sicherheiten. Wittgenstein muss man
‚meditieren‘, und dann kann man versuchen, ‚erneuert‘ zu denken…

(10) Von einer anderen Warte aus – und offensichtlich noch ohne Kenntnis von Wittgenstein –
hat Saussure in seinen Grundlagen zur Sprachwissenschaft (erstmalig in Vorlesungen
1906 – 1911) versucht, einen allgemeinen Begriff des (sprachlichen) Zeichens einzuführen.
Sein Ausgangspunkt ist eine Population von Sprecher-Hörern – eine Population P von
Zeichenbenutzern –, von denen sich ein einzelner Zeichenbenutzer beim Sprachgebrauch
immer in einem sprachlichen Rückkopplungsprozess derart befindet, dass der physikalische
Laut zwischen mindestens zwei Zeichenbenutzern sensorisch aufgenommen, physiologisch
– sprich: neuronal – verarbeitet verarbeitet wird, so dass es zu einem ‚psychischen
Erlebnis‘ kommt, welches das eigentliche Ereignis für den Hörer darstellt. Im ‚Erleben‘
erlebe ich einen Klang als ‚abstraktes Klangereignis‘ und zusätzlich erlebe ich ein
‚abstraktes Dingkonzept‘ (implizit zubereitet durch das verarbeitende Gehirn). Zwischen
einem Dingkonzept O_ph und einem Lautkonzept L_ph kann im Gehirn eine Verbindung
(‚Assoziation‘) hergestellt werden, so dass das Lautkonzept über diese Verbindung auf
das Dingkonzept ‚verweisen‘ kann, und umgekehrt)(ASSOC(L_ph,O_ph)). Das Lautkonzept wird
in solch einer Verbindung zum ‚Bezeichner‘ (’signifiant‘, Signifikanten), und das über
solch eine Verbindung Bezeichnete wird zur ‚Bedeutung‘ (’signifie‘, Signifikat) des
Bezeichners. Beide Momente vereint durch eine Beziehung werden dann zu einem ‚Zeichen‘
(’signe‘). Für Saussure war es wichtig, festzuhalten, dass diese mögliche Beziehung
zwischen einem Bezeichner und einem Bezeichnten ‚arbiträr‘ ist in dem Sinne, dass
ein bestimmtes Bezeichnetes ‚von sich aus‘ keinen bestimmten Bezeichner ‚verlangt‘.
Ob man eine mögliche (!) Unterscheidung im Rahmen der Wahrnehmung von dark und light
nun mit den Bezeichnern ‚dunkel‘ und ‚hell‘ bezeichnen will oder mit irgendwelchen
anderen Lautkombinationen ist völlig der Entscheidung der Sprachgemeinschaft überlassen.
Wenn diese sich einmal entschieden hat, dann wird die einmal getroffene Entscheidung
in den meisten Fällen erst einmal als ‚Verabredung‘ (Konvention) dahingehend wirksam
sein, dass ein Zeichenbenutzer dieser Population im Bedarfsfall erst einmal die
eingeführten Zeichen benutzen wird. Dennoch steht es der Population frei, diese
Zuordnungen wieder zu verändern (was historisch auch immer wieder geschehen ist).

(11) Schon diese minimale Sprachtheorie macht deutlich, dass die Einführung von Zeichen
für Objekte, die nicht ‚zwischen‘ den verschiedenen Zeichenbenutzern existieren
und somit als empirische Objekte wahrgenommen werden können, viel grundsätzliche
Fragen aufwirft. Aber selbst die sprachliche Kommunikation über sogenannte ‚empirische‘
Objekte ist nicht trivial. Nach der Saussurschen Theorie können zwei Zeichenbenutzer
nur dann über ein empirisches Objekt zu einer Einigung kommen, wenn die psychischen
Objekte L_ph und O_ph bei bei beiden Zeichenbenutzern hinreichend ‚ähnlich‘ sind
und darüber hinaus in ihrer ‚Abbildung‘ vom externen Stimulus in ein psychisches
Ereignis hinreichend ‚konstant‘. Würde das ‚gleiche‘ empirische Objekt O_e.i bei
jedem Auftreten anders abgebildet werden (also O_e.i —> {O_ph.i.1, …, O_ph.i.k}),
dann wäre der betreffende Zeichenbenutzer garnicht in der Lage, in diesen
verschiedenen psychischen Ereignissen ein einziges bestimmtes empirisches Objekt
erkennen zu können. Ferner, selbst wenn die Abbildung als solche konstant wäre,
würde es zu Problemen kommen können, wenn die Abbildungen in jedem Zeichenbenutzer
grundsätzlich verschieden wäre (also O_ph.i von Zeichenbenutzer A wäre verschieden
von O_ph.i von Zeichenbenutzer B). Dies bedeutet, schon die ’normale‘ sprachliche
Kommunikation von empirischen Objekten verlangt, dass die internen
Abbildungsmechanismen von Wahrnehmungsereignissen in psychische Objekte sowohl
hinreichen ‚konstant‘ wie auch hinreichend ‚ähnlich‘ zwischen unterschiedlichen
Zeichenbenutzern sind.

(12) Aufgrund der Erkenntnisse verschiedener empirischer Wissenschaften zur
Evolution des Lebens – speziell auch zur Entwicklung genetischer Strukturen,
Körperentwicklung, Gehirn- und Verhaltensentwicklung — wissen wir, dass der
‚Bauplan‘ für den homo sapiens ‚identisch‘ ist und dass trotz Wechselwirkung
mit der Umwelt während der Wachstumsphase die entscheidenden Gehirnstrukturen
tatsächlich hinreichend ähnlich sind. Sinneswahrnehmung, Gedächtnisstrukturen,
Bewegungsprogramme, Spracherwerb, usw. funktionieren bei den einzelnen Zeichenbenutzern
‚vollautomatisch‘ und hinreichend ’strukturähnlich‘.

(13)Ausgestattet mit diesen Erkenntnissen eröffnet sich für die Frage der
sprachlichen Kommunizierbarkeit von bewusstseinsphilosophischen Sachverhalten
der interessante Ansatzpunkt, dass eine bedingte Kommunikation von
nichtempirischen Phänomenen möglich erscheint, wenn diese Phänomene
konditioniert sind von einer allgemeinen Erlebnisstruktur des homo sapiens
(eine der Leitideen der evolutionären Erkenntnistheorie). In diesem Fall
könnte ein Zeichenbenutzer A, der Zahnschmerzen hat, unter bestimmten
Voraussetzungen einem anderen Zeichenbenutzer B, der die Zahnschmerzen des A
nicht ‚wahrnehmen‘ kann, u.U. ‚indirekt‘ verstehen (z.B. durch Hinweise auf
Situationen, in denen er auch ‚Schmerzen‘ hatte oder gar ‚Zahnschmerzen‘).
Eine solche ‚indirekte‘ Bedeutungseinführung verlangt von allen Beteiligten
eine große Disziplin, verlangt möglichst viele gemeinsam geteilte Erfahrungen,
vor allem aber ‚Vertrauen‘ darin, dass der andere nicht ‚täuscht‘, nicht etwas
’simuliert‘, was garnicht da ist. Eine direkte Überprüfbarkeit ist stark
reduziert wenn nicht völlig ausgeschlossen. Trotz dieser Widrigkeiten, das zeigt
der Alltag, gelingt der Aufbau von ‚indirekten Bedeutungsbeziehungen‘ erstaunlich
gut und kann sehr weit ausgreifen. Allerdings erscheinen die ‚Grenzen‘ dieses
Verfahrens ‚fließend‘ zu sein.

(14) Eine Bewusstseinsphilosophie auf der Suche nach transzendentalen Strukturen
wird also letztlich nur soweit kommen können wie einerseits (i) das Erleben als
solches Inhalte verfügbar machen kann und zum anderen (ii) nur insoweit, als
eine gemeinsame Sprache verfügbar ist, die es erlaubt, die verfügbaren
Unterscheidungen im Raum des Erlebens sprachlich zu kodieren.

(15) Husserl selbst blieb in der Struktur seines Erlebens letztlich ‚gefangen‘
und alle seine Bemühungen zur Einordnung von kontingenter Welterfahrung und
transzendental bedingter Metaphysik enden an den Grenzen des puren Erlebens
(inklusive der darin fassbaren allgemeinen Sachverhalte)

(16) In der Philosophie nach Husserl gab es unterschiedliche Strömungen, den
phänomenologischen Ansatz anders zu deuten oder gar weiter zu entwickeln, doch
die schier unüberwindlich erscheinende Gegenübersetzung von kontingenten
Erlebnisinhalten (und den darauf aufbauenden entsprechend angenommenen kontingenten
Einzelwissenschaften) und transzendentalen Sachverhalten paralysierte alle
Nachfolger (einschließlich z.B. Heidegger, Derrida, Lyotard).

(17) Folgt man den Einsichten zum Sprachgebrauch dann kann deutlich werden,
dass die Formulierung abstrakter Modelle (formaler Theorien) sowohl zur
Beschreibung von Regelhaftigkeiten im Kontext von kontingenten Inhalten benutzt
werden kann wie auch zur Beschreibung von transzendentalen Eigenschaften des
Erlebens. Mehr noch, die Entwicklung von empirischen Theorien mit ‚formalen
Kernen‘ hat gezeigt, dass Dasjenige, was den ‚Erkenntnisinhalt‘ solcher
Theorien ausmacht, gerade nicht das kontingente Faktum als solches ist,
sondern jene ‚Regelhaftigkeiten‘, die anläßlich des kontingenten Auftretens
durch ‚Speicherung der Ereignisse‘ ’sichtbar‘ werden und eben als diese
‚Regeln‘ dann in eine formale Strukturbildung Eingang finden. Statt – wie
Husserl dies tut – hier von der ‚Transzendenz‘ der empirischen Bedeutungen zu
sprechen, vom ‚unendlichen Horizont der Bedeutung‘ (was in gewissem Sinne
schon einen ‚Sinn‘ ergibt), wäre es vielleicht hilfreicher, sich klar zu machen,
dass die kontingenten Inhalte als solche dem bewussten Erleben gegenüber
auch ‚transzendental‘ sind, dem Erleben ‚vorausgehend‘, und dass die ‚Extraktion‘
von Regeln in den transzendentalen Inhalten ein Denkprozess ist, der als solcher
transzendental ist. Es ist das ‚transzendentale Denken‘ das sich aus den
transzendentalen Phänomenen jene Eigenschaften extrahiert, die über das
einzelne Phänomen hinausweisen und als allgemein Gedachtes dann zur
‚Voraussetzung‘ des weiteren Denkprozesses wird. Zugleich sind die
erkannten Regeln in ihrer möglichen ontologischen Interpretation ebenfalls
ein ‚transzendentales Etwas‘ für das erkennende Denken.

(18) Findet somit schon über die Dimension des Zeichengebrauchs eine gewisse
Annäherung zischen dem ‚Kontingenten‘ und dem ‚Transzendentalem‘ statt, so haben
uns die modernen empirischen Wissenschaften darüber belehrt, dass die allgemeinen
Strukturen des Erlebens (und darin enthalten Erinnern, Abstrahieren, Denken usw.)
zwar aus der Perspektive des Erlebens selbst als etwas Transzendentales, als
etwas nicht weiter Hintergehbares erscheinen, dass aber mit Hilfe von formalen
Theoriebildungen anhand von kontingenten Fakten klar geworden ist, dass
diese transzendentalen Strukturen letztlich selbst kontingent sind, nämlich
jene Strukturen, die sich im Rahmen der Evolution im Laufe von ca. 3.5 Milliarden
Jahren in Interaktion mit der vorfindlichen Erde entwickelt haben. Und diese
Strukturen sind kein ‚Endpunkt‘, sondern nur eine ‚Zwischenstation‘ in einem
Prozess, dessen Ende noch niemand kennt. Eine Metaphysik auf Basis rein
transzendentaler Sachverhalte im Sinne Husserls – also unter Ausklammerung der
Erkenntnisse aus den kontingenten Inhalten – erscheint von daher sehr fragwürdig,
mehr noch, sie führt – wie es bislang der Fall ist –, zu einer Fülle
unauflöslicher Paradoxien.

(19) Nimmt man die neuen Einsichten auf, dann lässt sich ein interessanter neuer
– und dynamischer – Ansatzpunkt für eine die ganze Welterfahrung umspannende
Metaphysik skizzieren. Den Kern bilden emirische Theorien mit formalen
Theoriekernen, die im Erleben verankert sind. Das Erleben ist aber korreliert
mit den Erkenntnissen über die Strukturentwicklung von Körper und Gehirn.
Dies ist notwendig, da die transzendentalen Voraussetzungen des individuellen
Erlebens innerhalb des individuellen Erlebens zwar einen ‚absoluten‘ Rahmen
bilden, insofern das Individuum aber Teil einer Population ist, die eine
evolutionäre Entwicklung hinter sich hat, ist dieser individuelle transzendentale
Rahmen eine ‚gewordene‘ Struktur, die ihre Wahrheit aus den bisherigen
Interaktionserfolgen mit der vorgegebenen Erde bezieht. Die Erde selbst ist
aber nur ein winziger Teil des Universums, in dem schon alleine die Milchstrasse
als unser Heimatgalaxie mehr als 200 Miliarden Sonnen enthalten soll. Es
wäre also zu klären, worin das ‚Allgemeine‘ in der Struktur liegt, die wir
bislang ‚empfangen‘ haben und inwieweit man dies über die Erde hinaus ausdehnen
kann.

(20) Jede künftige Philosophie ist entweder eine Philosophie des Lebendigen
im Universum unter Einbeziehung aller empirischen Wissenschaften oder sie
degeneriert zu einem bloßen ‚Meinen‘ von einzelnen Personen, bei dem nicht klar
ist, was sie sagen wollen, weil die Beziehung zum Ganzen des Wissens willkürlich
beschnitten wurde.