PLÄDOYER FÜR DIE LEIDENSCHAFT DES ENDLICH-UNENDLICHEN LEBENS. Man kann es auch Manifest für eine universale Religion nennen. Teil 1

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
16.Juli 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

THEMA

Im Jahrtausende alten Wirbelsturm von Erleiden, Erkennen, Leidenschaft und Handeln suchten die Menschen schon immer nach Haltepunkten, Fixpunkten, die über den Moment hinaus Orientierung, Sinn vermitteln könnten. …

I. IM WIRBELSTURM DER ZEITEN

Im Jahrtausende alten Wirbelsturm von Erleiden, Erkennen, Leidenschaft und Handeln suchten die Menschen schon immer nach Haltepunkten, Fixpunkten, die über den Moment hinaus Orientierung, Sinn vermitteln könnten. Die einen fanden es in dem, was man ’Religion’ nennt, andere im ’Wissen’, wieder andere in temporären Besitz- oder Machtstrukturen. Einen finalen Gewinner scheint es bis heute nicht zugeben. Temporäre Besitz- und Machtstrukturen verschwinden nach Generationen; Religionen sind etwas ’zäher’, sie überdauern schon mal Jahrtausende; das Weltwissen durchläuft permanent Metamorphosen, begleitet von Technologien, Wirtschaftsformen, Lebensweisen, die temporär – wie heute – den Eindruckerwecken können, als ob sie alles mitreißen und wir, die einzelnen, zu hilflosen Konsumenten und Mitläufern zu degenerieren scheinen.

Wer nur das Alltagsgeschäft kennt, wer tagaus tagein nur um das Erfüllen von festen Pflichten ringt, nichts weiß von dem Leben daneben, davor oder danach, der tut sich schwer in dem ganzen Getriebe ’mehr’ zu sehen als dieses tägliche Allerlei. Tatsächlich ist das Leben ja mehr als nur der Tag heute, oder gestern, oder morgen, ist es mehr als eine definierte Abfolge von Kalendereinträgen, von kontrolliertem Essen, von punktuellen Triebbefriedigungen.

Wenn wir den Blick zurück wandern lassen können in die Zeiten, in die Tiefen der Jahrtausende, gar Millionen oder Milliarden Jahre, wenn wir den Blick ausweiten auf unsere Umgebung, auf unser Land, auf die Menschheit weltweit, dann sehen wir nicht nur die bizarren Formen der aktuellen Politik, wo Politiker im Format narzisstischer Kinder ganze Nationen terrorisieren können, nein, wir können bei ruhiger Betrachtung etwas erkennen, das sehr tief eingebettet ist in der Weltwirklichkeit, etwas, was universal wirksam ist …

II. DIE GESTALT DER FREIHEIT

Nimmt man das offizielle Wissen einer Kultur als Maßstab, dann ist es vielleicht den letzten100 Jahren (Anmerkung: In einer Lebenszeit des gesamten bekannten Universums von ca. 13.8 Milliarden Jahren!)  vorbehalten gewesen, erkennen zu können, dass der große ’Mechanismus der Welt’ nicht so ist – und niemals so war – wie er lange und gerne gesehen wurde. Die Welt ist durch und durch nicht deterministisch, nicht wie ein Uhrwerk, in dem jeder Zeitpunkt seinen Folgezeitpunkt voll bestimmt. Während noch ein Newton und viele seiner Wissenschaftsnachfolger glauben konnten, sie haben die Formeln zur Beschreibung des Weltgeschehens gefunden, die Formeln zur Berechnung von allem, was geschieht und was geschehen wird, waren es Wissenschaftler wie Einstein, Dirac, Schrödinger, Bohr, Planck, Heisenberg, Hawking und viele andere, die das Bild der Physik vom Blick in das ’Innere der Materie’ völlig aufgebrochen haben. Unter bestimmten, speziellen Bedingungen gilt der physikalische Determinismus, aber eben nur unter sehr speziellen Bedingungen. Grundsätzlich, und aufs Ganze gesehen, gilt er nicht. Was sich zeigt ist ein unfassbarer Möglichkeitsraum, durch und durch nicht-deterministisch, scheinbar chaotisch, aber dann doch, irgendwie, auch planvoll, geordnet. …

Je mehr die moderne Wissenschaft in diesen neuen, faszinierenden Raum vordringt, umso rätselhafter wird er. Konnte noch ein Newton, ein Laplace und viele andere glauben, sie hätten das Phänomen nun zu 100% im Griff, wurde in den letzten Jahren immer klarer, dass wir bislang weniger und weniger wirklich verstanden haben. Dies gilt im Großen des physikalischen Universums, aber auch im Kleinen des Mikrokosmos des Lebens. Wenn die Gesamtheit der Zellen, die einen einzelnen menschlichen Körper in seiner unmittelbaren Lebensfunktionen bestimmen, etwa 700 Galaxien im Format unserer Milchstraße entsprechen, mit zusätzlichen atemberaubenden Eigenschaften, dann stehen wir letztlich fassungslos vor einem mikrobiologischen Kosmos des biologischen Lebens, der dem bekannten physikalischen Universum in nicht Vielem nachsteht, ihn vielleicht sogar übertrifft. Letztlich ist der mikrobiologische Kosmos erheblich jünger als der physikalische Kosmos; in gewissem Sinne ist er eine ’Weiterentwicklung’ …

Sowohl bei der Betrachtung des physikalischen Universums wie auch bei der Betrachtung des mikrobiologischen Universums fällt eines auf: der Kontrast zwischen nicht-deterministischen Grundstrukturen auf der einen Seite, und dann doch  auch dem Entstehen von Strukturen, die immer komplexer werden, denen man eine gewisse Logik und innewohnende Optimierungstendenz nicht absprechen kann. Obgleich aus der physikalischen Energie (das ’E’ in der Formel ’ E = mc^2 ’ von Einstein) direkt nichts abgeleitet werden kann, dürfen und müssen wir feststellen, dass das beobachtbare Universum als materielle Form dieser Energie nicht strukturlos ist, nicht ohne beschreibbarer Dynamik, nicht ohne Eigenschaften, die sich in Gestalt von Atomen, Molekülen, biologischen Zellen und deren Wechselspiel manifestieren. Während die Physiker für das physikalische Universum noch keine Begrifflichkeit für diese ’Ordnung trotz Unordnung’ gefunden haben, verhalf ein Darwin und viele seiner Nachfolger den ’Physikern des biologischen Lebens’, den Biologen, zu einer neuen Begrifflichkeit: das Leben ist eine Kombination aus ’genetisch kodiertem Erfolgswissen’ (tendenziell deterministisch, aber nicht vollständig) und ’zufälligen Strukturbildungen’ (man kann keine Regeln erkennen), die zusammen zu ’erfolgreichen Nachfolgestrukturen’ führen können (das ’erfolgreich’ ist minimalistisch gefasst: schlichtes ’im Spiel bleiben’ = ’am Leben bleiben’, nicht bezogen auf das Individuum, das stirbt, sondern auf die Population!).

Mit dem Erscheinen des Homo sapiens (seit ca. 200.000 bis 300.000 Jahren, von Afrika herkommend) kann man das Phänomen des Lebens nicht nur ’von außen’ (dritte Person Blick) betrachten, sondern als Exemplare der Lebensform Homo sapiens haben wir auch eine ’Innenwahrnehmung’ (erste Person Blick). Diese Innensicht überschwemmt uns mit einem beständigen Strom von Eindrücken, Gestalten, Formen, Veränderungen, Erinnerungen, Vergleichungen, Erregungen, Gefühlen, Stimmungen … dass wir sagen können, dass den äußeren beobachtbaren materiellen Strukturen eine ’innere Struktur’ korrespondiert, die – wie wir langsam erkennen dürfen – relativ eng mit genau diesen materiellen Strukturen ’korrelieren’. Dem materiellen Körper korrespondieren ’innere Zustände und Prozesse’. Früher nannte man diese inneren Zustände einfach nur ’seelisch’, ’psychisch’, ’geistig’, später eher ’subjektiv’,’kognitiv’; heute kann man dieses ’Subjektive, Kognitive’ bestimmten zeitlich korrespondierenden — und  ansatzweise kausal bedingenden —  ’neuronalen Prozessen’ zuordnen, in denen Energie sich wechselseitig anregt, erregt, verändert ….  ’Seelisch-psychische-Subjektive’ Zustände korrespondieren ’energetischen Zustandsänderungen’ … beim heutigen Wissensstand würde man also sagen können und müssen, dass das ’Psychische’ als eine Eigenschaft dessen erscheint, was die Physiker ’Energie (E)’ nennen. Damit wird das Phänomen Energie immer rätselhafter: die große Fülle von Phänomene im physikalischen Universum einschließlich der Phänomene des Biologischen, sie alle sind so gesehen ’Manifestationen’ dessen, was Einstein ’Energie’ genannt hat.

In einer vergleichsweise kurzen Phase der Menschheitsgeschichte gab es die Tendenz, dem beobachtbaren Verhalten von Menschen die Eigenschaft einer grundlegenden ’Freiheit’ zuzuordnen. Der Mensch könne A tun, aber auch B; letztlich entscheidet jeder selbst, was er tun will. Eine solche Sicht identifiziert den Menschen als etwas schwer bis gar nicht mehr Erklärbares, zu etwas ganz Besonderem. Das Konzept der Freiheit stach aus dem allgemeinen naturwissenschaftlichen Weltbild erratisch hervor, schien den großen Zusammenhang der Natur zu durchbrechen, verwies auf etwas, was man schwer –eigentlich gar nicht – fassen konnte.

Mit den wachsenden Erkenntnissen über die Details menschlicher Körper, die Arbeitsweise des Gehirns, das Wechselspiel zwischen bewusst und unbewusst, den Einfluss von Genen auf das Verhalten, die Wirkung von Trieben und Drogen, von Extremsituationen, zerbröselte die klare Meinung zur menschlichen ’Freiheit’ streckenweise, immer mehr, bis dahin, dass man heute zweifeln kann, ob eine solche Sicht überhaupt noch gesellschaftsfähig ist. In den Verfassungen von vielen Staaten steht die Freiheit noch drin, aber im Alltag, selbst in der Rechtsprechung, verschwindet die Kontur der Freiheit immer mehr; so der Eindruck.

An dieser Stelle kann es helfen, sich bewusst zu machen, dass ’Freiheit’ möglicherweise ein ’komplexes’ Phänomen ist, das man verkennen kann, wenn man sich zu stark von einzelnen, zufälligen Phänomenen ablenken lässt. Das Wissen um die Natur kann hier ein guter Lehrmeister sein: die Entdeckung der grundlegenden Nicht-Determiniertheit der empirischen Welt ist der Menschheit erst seit ca. 100 Jahren gelungen; die Entdeckung einer ersten ’Systematik’ – oder gar ’Logik’ – der Evolution auch noch nicht viel länger. Und die spezifische Dialektik von Intelligenz, Lernen und spezifischen ’Präferenzen’(= Werten) beginnen die Ingenieure gerade erst zu entdecken. Das Reden von der Super-Intelligenz befindet sich noch im ’Vorstadium’ eines Verstehens von dieser Dialektik. Erste Forschergruppen der Künstlichen Intelligenz haben im Rahmen der Entwicklungsrobotik seit einigen Jahren entdeckt, was die biologische Evolutionsforschung schon lange weiß: die Fähigkeit zur Wahrnehmung, zum Erinnern, zum Kombinieren usw. – das, was man allgemein Kognition nennt – nützt nur bedingt etwas, letztlich nur dann, wenn es zusätzlich ein System von ’Präferenzen’ (= Werten) gibt, die der Kognition eine ’Richtung’ zu mehr ’Optimalität’ weisen können. Schneller und mehr rechnen können als das aktuelle menschliche Gehirn, das reicht nicht aus, um substantielle ’Verbesserungen’ zu finden. Was ist das ’Bessere’?

III. FREIHEIT KONKRET

Wenn sich die empirische Welt als Ganze und im Detail als ein ’Projekt der wesentlichen In-Determiniertheit’ zeigt, zugleich aber auch Züge von Ordnung, von Optimierung aufweist, und in allem der Homo sapiens die Rolle des ’Aufdeckers’ spielt, die Rolle des ’Sichtbarmachers’, und in all dem offensichtlich eine ’Gestaltungsfähigkeit’ offenbart, die zumindest das ’Antlitz der Erde’ nachhaltig verändern kann und weitgehend schon verändert hat (nachdem die Mikroorganismen in vielen Milliarden Jahren die Erde überhaupt für komplexe Lebensformen lebbar gemacht haben durch Bereitstellung von Sauerstoff und Atmosphäre), dann kann man dem Homo sapiens als Teil des Biologischen und damit auch Teil der gesamten empirischen Welt diese grundlegende In-Determiniertheit nicht absprechen. Diese grundlegende In-Determiniertheit verschwindet nicht einfach, weil irgendwelche psychologischen oder neurowissenschaftlichen Fachwissenschaftler, eingesperrt in die Grenzen ihrer Disziplinen, diesen größeren Zusammenhang nicht zu erkennen vermögen. Aus der grundsätzlichen Annahme von ’In-Determiniertheit’ als ’Freiheit’ folgt ja nicht, dass jedes materielle System, das grundlegend in-determiniert bzw. frei ist, in einem völlig unbestimmten Raum agiert. Das Gegenteil ist wahr: die universelle In-Determiniertheit (bzw. Freiheit) materialisiert sich unter konkreten, realen Bedingungen von Energie bzw. den verschiedenen materiellen Zustandsformen von Energie. In-Determiniertheit (Freiheit) zeigt sich in der Weise, wie sie materielle Strukturen verändert.

So haben – nach heutigem Kenntnisstand – die Atome unterschiedliche Eigenschaften, aus denen sich unterschiedlichste Kombinationen von Atomen bei bestimmten Kontextbedingungen bilden könnten; dass dies tatsächlich möglich ist zeigt sich erst, wenn es zu diesen realen Verbindungen kommt. Im Zustandekommen einer Möglichkeit, erst durch die beobachtbare Änderung wird sichtbar, dass es diese Möglichkeit gibt. In der beobachtbaren Dynamik der empirischen Wirklichkeit manifestiert sich also der implizite, ’von außen unsichtbare’ Möglichkeitsraum, der als solcher ’in-determiniert’, sprich ’frei’ ist. Die Konkretisierung hebt diese grundlegende In-Determiniertheit (Freiheit) nicht auf, sondern darin wird sie sichtbar, real. Rätselhaft bleibt dabei der Möglichkeitsraum als solcher, dass z.B. Atome aus sich heraus vieles sein können, aber nichts davon zwingend ist. Dass eine bestimmte Umgebungstemperatur, bestimmte chemische Konstellationen eine von vielen ’Möglichkeiten der Realisierung’ ’aktivieren’ und damit sichtbar machen, hebt die vorausgehende In-Determiniertheit (Freiheit) nicht auf. Vielmehr kann die spätere Konkretisierung nur stattfinden, weil es den Möglichkeitsraum gegeben hat. Andere Umgebungseigenschaften hätten andere Verbindungen möglich gemacht.

Analog ist das Reden davon, dass der Mensch in seinen Handlungen verschiedenen ’Einflüssen’ unterliegt, grundsätzlich kein Einwand gegen seine grundlegende Freiheit, denn ’Einflüsse’ sind ja unterschiedliche innere Zustände, die für das mögliche Verhalten ’Informationen’ darstellen, denen die Freiheit folgen kann. Ohne solche Informationen wäre die Freiheit ’blind’, ’orientierungslos’. Was sollte sie ’bewegen’, wenn es nichts gäbe, an dem sie anpacken kann? Es geht also nicht darum, die Freiheit zu ’isolieren’, sie aus der Welt ’auszusperren’, sondern vielmehr um die Frage, was sind die ’angemessenen inneren Zustände’, durch die die Freiheit eine Realisierungsform annehmen kann, die in ’irgendeinem Sinne erstrebenswert’ ist. Die beste ’Freiheit’ nützt nichts, wenn man einen Menschen einsperrt, ihm wichtige Informationen vorenthält oder man sein Hirn durch Drogen oder ähnlichen Stoffe so umnebelt, dass das Gehirn einfach nicht mehr ’richtig’ funktionieren kann. Während die innere Freiheit aller Wirklichkeit und jener der biologischen Systeme insbesondere im Prinzip alles möglich machen kann, zu was die Energie des Universums Handhaben liefert, so können bei einer konkreten Gestalt der Freiheit wie bei einem Homo sapiens die konkreten Rahmenbedingungen mehr oder weniger alles unmöglich machen (Anmerkung: Wenn man sieht, welche große Offenheit, Neugierde, Entdeckermut jedes neugeborene Kind ausstrahlt, und man dann sieht, wie die gesellschaftlichen Verhältnisse in den meisten Ländern dieser Erde diese ’Wunder der Freiheit’ behindern, stören, quälen, foltern, eine Bildung verweigern, dann muss man sich zurecht fragen, inwieweit die heutigen Vertreter des Homo sapiens überhaupt verstanden haben, was und wer sie selbst sind …)

PS: Die Notizen gehen hier noch weiter, aber ich kann erst die Tage weiter schreiben …

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

 

DESCARTES IMPLODIEREN LASSEN. Dualität mutiert zur Monade

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
14.Juli 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

IDEE

Bei der Lektüre des Buches ’Quanten sind anders’ (2006) von Görnitz [1] bin ich auf den Seiten 27-49 über Erklärungen gestolpert, die man so zwar eigentlich in allen heutigen Interpretationen zu Descartes wiederfindet, die aber deswegen nicht unbedingt richtig sein müssen. Möglicherweise angeregt durch den Erklärungskontext bei Görnitz sowie meinen eigenen Überlegungen in verschiedenen Zusammenhängen (u.a. in den Rekonstruktionen von Stace, insbesondere ab Teil 3  und 4) erscheint mir die schnelle Etikettierung von Descartes Ansatz als Dualist nur bedingt hilfreich, zumindest wenn man über ihn vom heutigen Wissensstand aus spricht.

I. DESCARTES

a) Descartes klassisch interpretiert: Vereinfachend kann man die klassische Interpretation von Descartes in zwei Punkten zusammenfassen.1) Bei der Suche nach einem ’Ankerpunkt’ für sein Denken meinte Descartes in der ’Gewissheit seiner eigenen Denktätigkeit’ einen Punkt gefunden zu haben , von dem aus sich alles weitere – die verschiedenen wechselnden Inhalte und Formen – sortieren und diskutieren lassen. 2) Von diesem markierten Denkpunkt aus hat er dann versucht, diese beiden ’Pole’ seiner Bewusstheit– das ’Sich-im-Denken-gewiss-sein’ und die ’wechselnden Inhalte’ – seinsmäßig (ontologisch) zu ’interpretieren. Eine solche Interpretation in Form von spezifischen ’Zuordnungen’ folgt nicht zwingend aus den Phänomenen des Ausgangspunktes. Diese Zuordnung stellt eine freie Auswahl aus verschiedenen Denkmöglichkeiten dar.

Descartes wählte für seine freie Zuordnung (Deutung,Interpretation, Kodierung) die Begriffe ’res cogitans’ und ’res extensa’, die zur damaligen Zeit in verschiedenen philosophischen Konzepten verfügbar waren. Und er ordnete dann seine ’Gewissheit’ der ’res cogitans’ zu und die wechselnden Inhalte und Formen der ’res extensa’. Belässt man es bei dieser Interpretation, dann spaltet sich in der Tat die Wirklichkeit in zwei ontologisch unterschiedliche Seinsbereiche auf, deren Beziehung untereinander logisch größte Probleme aufwirft.

Dass Descartes selbst hier eine Lösung über eine postulierte ’Zirbeldrüse’ andachte (was die logischen Probleme faktisch nicht löste), soll uns hier weiter nicht beschäftigen.

2b) Descartes neu interpretiert: Nach dem heutigen Wissensstand können wir annehmen, dass das bewusste Denken sich – wie genau, das ist noch nicht vollständig geklärt – in Verbindung mit dem ’Gehirn’ abspielt. Das Gehirn ist ein Organ unseres Körpers und wäre im Sinne Descartes der ’res extensa’ zuzuordnen. Anstatt nun eine weiter ’Substanz’ zu postulieren, die ’res cogitans’, wie es Descartes tat (und vermutlich aufgrund seines Wissensstandes auch gar nicht anders konnte), könnten wir heute sagen, dass das bewusste Denken, die Selbstgewissheit, eine ’Eigenschaft des Gehirns’ ist, genauer eine ’Funktion des Gehirns’. Damit wären ’res cogitans’ und ’res extensa’ nicht mehr zwei ontologisch unverbundene Seinsweisen sondern die ’res cogitans’ wird zu einer Eigenschaft, zu einer Funktion der ’res extensa’. Die res extensa, als ’Sammelbecken’ von statischen Eigenschaften, wird mit der ’res cogitans’ zu jenem’ dynamischen Etwas’ als das wir heute die ’Materie (= res extensa)’ erleben und erforschen. Statt einer klassischen Dualität haben wir dann eine dynamische ’Monadizität’, eine Art ’Implosion‘ der res cogitans in die res extensa hinein (Anmerkung: In direkte Antwort zu Descartes waren es speziell Spinoza und Leibniz, die seinen dualistischen Ansatz ablehnend-kritisch sahen. In der Einleitung zum 5.Kapitel seiner Ethik hat Spinoza [2] den Ansatz von Descartes analysiert und als nicht akzeptabel verworfen. Sein eigener Lösungsansatz versucht die ’Einheit’ von Denken und Körper durch Annahme einer in Gott gründenden ’einen Substanz’ zu retten, die in vielen Punkten ebenso wenig nachvollziehbar ist wie Descartes Rettungsversuch über die Zirbeldrüse. (Für die weitere kritische Diskussion von Spinoza siehe auch Decher (2015) [3]:SS.101-108) Der Lösungsansatz von Leibniz in seiner ’Monadologie’ [4] kommt einem systematisch-modernen Denken weiter entgegen, doch bringt er auch als Letztbegründung wieder Gott ins Spiel (vgl. Decher (2015) [3]:SS.110-117). Würde man diesen Faktor bei Leibniz ’herausrechnen’, dann erscheint seine Monadologie in einem interessanten Licht. Der hier benutze Begriff der ’Monadizität’ setzt das Wort ’Monadologie’ voraus.).

Im Denken selbst erscheint zwar ’Denken’ und ’Inhalt’ als etwas Getrenntes, aber ’ontologisch’ ist das Denken (die klassische ’res cogitans’) eine ’inhärente Eigenschaft’ des Körpers, der Materie (die klassische ’res extensa’). Eine Zirbeldrüse im Sinne des Descartes wird damit überflüssig.

c) Geist-Materie: Bislang wird der Begriff ‚Geist-Materie‘ kaum benutzt.  Mit dieser neuen implodierten Einheit von Denken und Sein lösen sich viele klassische Probleme, die aus einer speziellen Interpretation der primären Phänomene resultierten, es stellen sich aber ganz neue, möglicherweise noch radikalere Herausforderungen. Denn jetzt wird das ’Bewusstsein’, das ’Sich-Selbst-Denken’ zu einer genuinen Eigenschaft der Materie. Während die einen darin eine ’Abwertung’ des Denkens und des ’Geistigen’ sehen, werden die anderen darin eine ’Aufwertung’ des Körperlichen, des Materiellen sehen (oder auch, ganz im Gegenteil, eine ‚Verwässerung‘ des Materiebegriffs).

Die moderne Physik, hier allen voraus die Quantenphysik, hat schon längst die Positionen der klassischen Physik und damit eines deterministischen Objektdenkens aufgebrochen. Die schöne heile Welt der abgrenzbaren Objekte, der deterministischen Verhältnisse, wurde mit den neuen Forschungen quasi weggesprengt. Der fließende Übergang von Energie und Materie, das Verschwinden aller Determinismen, bei einer gleichzeitig zu beobachtenden Dynamik des bekannten Universums, das sich nicht als reines ’Chaos’ präsentiert, sondern als eine Quelle gerichteter und steigender Komplexität, allerdings nicht deterministisch, sondern ’frei’ … dies wirft tonnenweise Fragen auf, die bislang nicht einmal im Ansatz geklärt sind. Historisch mag man Descartes als jenen Meilenstein ansehen, an dem die Aporie des klassischen Geist-Materie Denkens sein historisches Maximum erreicht hat, das aber dann mit der modernen Quantenphysik (wann genau?) seine denkerische Transformation hinein in eine neue ontologische Geist-Materie-Einheit erlebte.

Im Prinzip war das klassische griechische Denken davon nicht weit entfernt, aber es fehlten ihnen damals einfach die notwendigen Daten.

d) Nachbemerkungen: Görnitz erwähnt in der Kritik an Descartes Dualismus auch zwei der heutigen Standardeinwände gegen Descartes Gewissheitsansatz: Freud mit seinem Unbewussten und Gödel mit seiner Unentscheidbarkeit hinreichend komplexer formaler Systeme (vgl. Görnitz S.45). Im Lichte der neuen Interpretation erscheinen mir beide Hinweise nicht zielführend zu sein.

Die Tatsache, dass ein Großteil der Vorgänge in unserem Körper – möglicherweise muss man heute sogar sagen: der überwiegende Teil – nicht im Zugriff des Bewusstseins liegt, muss nicht notwendigerweise ein Totschlagargument gegen die Position der Gewissheit von Descartes sein. Die ’Gewissheit im Denken’ bezieht sich ja gerade nicht auf die wahrnehmbaren ’Inhalte’ des Denkens, die variieren, die ganz unterschiedlichen Wirkursachen zu verdanken sind, sondern auf die Fähigkeit, in diesem Wandel einen Bezugspunkt zu haben, relativ zu dem der Wandel überhaupt ’bewusst’ sein kann. Dass das ’Unbewusste’ sich ’auswirken’ kann – in seinen Auswirkungen dann sehr wohl bewusst’ –unterscheidet es nicht von jeder beliebigen anderen bewusst wahrnehmbaren Wirkung von irgendwelchen anderen Wirkursachen. Entscheidend ist vielmehr, dass der Mensch über jene Form von Bewusstsein verfügt, die die Andersartigkeit der Phänomene wie auch ihren Wandel ’bemerken’ kann. Diese formale Bewusstheit wird ergänzt um ein –weitgehend unbewusst arbeitendes – Gedächtnis (eine Funktion des Gehirns), das auf ’automatische’ (vom Gehirn vorgegebene) Weise den Strom der Phänomene selektiert, abstrahiert, assoziiert und vieles mehr. In diesem Zusammenspiel von ’Sich-Selbst-Bewusst-Sein-können‘ und der ’ordnenden Funktion’ des Gedächtnisses kann das sich seiner bewusste Subjekt den Strom der Phänomene (wodurch auch immer verursacht) soweit ’sortieren’, dass Muster, Regel erkennbar werden, die Zeitreihen erlauben, mittels denen das punktuelle Bewusstsein sich denkerisch in Räume und Zeiten hinein ausdehnen kann, die es selbst in einem komplexen Geschehen vorkommend erscheinen lassen.

Dass diese Bewusstheit samt Ordnungstätigkeit sich ’täuschen’ kann ist zwar bekannt, aber – wie wir heute wissen können – bis zu einem gewissen Grad ’ausgleichbar’, speziell dann, wenn die einzelnen Gehirne gelernt haben, ’im Verbund’ zu denken.

Auch der berühmte Unentscheidbarkeitsbeweis von Kurt Gödel (1931) [5] scheint hier fehl am Platz zu sein. Gödel bezieht sich nicht auf Phänomene des Bewusstseins sondern auf die Möglichkeit, die Eigenschaften eines formalen Systems (Anmerkung: Er benutzte das System der Arithmetik. ) formal so zu beschreiben, dass alle (=Vollständigkeit) wahren(=speziell ausgezeichnete) Aussagen dieses Systems formal ableitbar sind. Aufgrund der inhärenten Doppelstruktur eines solchen formalen Beweises von Objektsprache (das zu beschreibenden System) und Metasprache (die Sprache des Beweises), die dann die Objektsprache in der Metasprache nachvollziehen muss, kann es grundsätzlich keinen vollständigen Beweis geben. Dies liegt einfach an der Struktur eines solchen Beweises. Dieser beweistheoretische Sachverhalt, auf den Gödel in wunderbarer Weise hingewiesen hat (was später von Turing (1936/7) [6] auf eine andere Weise ebenfalls gezeigt worden ist), berührt die Überlegungen von Descartes in keiner Weise. Vielmehr ist der metalogische Beweis von Gödel (und auch von Turing (und von vielen anderen)) ein wunderbares Beispiel, wie die Struktur des Selbstbewusstseins im Zusammenspiel mit dem (denkenden) Gedächtnis gerade in der Lage ist, die Eigenschaften solcher formaler Systeme und der metalogischen Beweise nicht nur zu vollziehen, sondern sie auf eine Weise zu vollziehen, die dann andere Gehirne mit ihrem Bewusstsein nachvollziehen können.

Diese relative Struktur des Bewusstseins (und des zugehörigen Gehirns) ist genau die Stärke des menschlichen Denkens. Im Prinzip wissen wir im Augenblick nichts, aber in einem kontinuierlichen Prozess können wir immer mehr Strukturen aufbauen, die uns die Möglichkeit verschaffen, ’im Prinzip’ ’Alles’ wissen zu können. In diesem Zusammenhang hat die Menschheit gelernt, dass ihre Gehirne bei anwachsender Komplexität der äußeren Welt – die weitgehend vom Menschen mit verursacht ist – trotz aller Wunderbarkeit des Gehirns an physische, und damit endliche Grenzen, der Verarbeitung stößt. Glücklicherweise hat die Menschheit mittlerweile programmierbare Maschinen erfunden (die Computer), beherrscht ihre Vernetzung, so dass die menschlichen Gehirne ihre physischen Grenzen im Prinzip mittels dieser programmierbaren Maschinen wieder ein Stück überwinden könnten. Aktuell hat man aber den Eindruck, dass die Menschheit sich noch schwer tut, diese neue Technologie in maximal symbiotischer Weise konstruktiv einzusetzen.

4 QUELLEN

[1] T. Goernitz, Quanten Sind Anders: Die verborgene Einheit der Welt, 1st ed. Heidelberg: Spektrum Akademischer Verlag,2006.

[2] Spinoza, “Werke. Bd 1+2, lateinisch – deutsch,” Darmstadt, 1967.

[3] F. Decher, Handbuch der Philosophie des Geistes, 1st ed. Darmstadt: WBG Wissenschaftliche Buchgesellschaft, 2015.

[4] G. Leibniz, Monadologie und andere metaphysische Schriften, Französisch-Deutsch, 1st ed., J. Schneider, Ed. Hamburg:Felix Meiner Verlag, 2002.

[5] K. Goedel, “Über formal unentscheidbare Saetze der principia mathematica und verwandter Systeme, I,” Monatshefte fuer Mathematik und Physik, vol. 38, pp. 173–98, 1931.

[6] A. M. Turing, “On computable numbers, with an application to the Entscheidungsproblem,” Proceedings of the London Mathematical Society, vol. 42, no. 2, p. 230–265, 1936-7.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

OBJEKTIVE WERTE? Diskussion von Stace’s ’Religion and the Modern Mind’ Kap.5, Teil 4

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
2.Juli 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

ÜBERSICHT

In Fortsetzung der vorausgehenden Teile 1   sowie 2  und 3  wird in diesem vierten Teil das Kap.5 von Stace besprochen. Im Kapitel 5 beschreibt Stace die direkten Auswirkungen des neuzeitlichen wissenschaftlichen Weltbildes auf den bisherigen christlichen Gottesglauben. Dazu die verschiedenen Versuche, diesen Gottesglauben gegenüber dem modernen Weltbild zu bewahren samt jenen Argumenten, die das alte Bild des christlichen Gottesglaubens vor dem 18.Jahrhundert zu entkräften versuchen.

KAPITEL 5

Stace (1952) Kap.5 - Gedankenskizze

Stace (1952) Kap.5 – Gedankenskizze

 

Das Christliche Weltbild

Um die allmählich eintretende Wirkung des neuzeitlichen Wissenschaftsbegriffs zu verdeutlichen benutzt Stace eine kompakte Formel (vgl. S.84), um die Gestalt des christlichen Weltbildes zu umreißen:

1) Ein göttliches Wesen hat das Universum erschaffen.

2) Es gibt eine umfassende Absicht im ganzen Universum.

3) Die Welt repräsentiert eine moralische Ordnung.

4) Gott ist den Menschen nah.

Dieses grundsätzliche Bild wurde noch ergänzt um spezielle kosmologische Annahmen wie (vgl. S.83):

1) Die Sonne bewegt sich um die Erde

2) Die Planetenbahnen sind kreisförmig

3) Die Bewegung der Körper kommt mit der Zeit zur Ruhe

4) Eine Anziehungskraft (Gravitation) war nicht bekannt.

Obwohl die speziellen kosmologischen Annahmen nicht direkt aus den christlichen Glaubenssätzen folgten, waren sie zu jener Zeit eine derart starke Verbindung mit dem christlichen Kernglauben eingegangen, dass sie für die damaligen Menschen wie ’natürliche Bestandteile’ des christlichen Glaubens erschienen, deren Infragestellung mit einer Infragestellung des christlichen Glaubens selbst gleichgesetzt werden konnte.

Das Neue wissenschaftliche Weltbild

Mit der Entstehung des neuen wissenschaftlichen Weltbildes (siehe die Besprechung in Teil 3) kam es zunächst zu einer direkten Entgegensetzung von christlichen Annahmen über den Kosmos und dem neuen wissenschaftlichen Weltbild (vgl. S.83):

1) Die Sonne bewegt sich um die Erde < −− > Die Erde bewegt sich um die Sonne.

2) Die Planetenbahnen sind kreisförmig < −− > Die Planetenbahnen sind ellipsenförmig.

3) Die Bewegung der Körper kommt mit der Zeit zur Ruhe < −− > Die Bewegung der Körper setzt sich unverändert fort solange keine zusätzliche Kraft einwirkt.

4) Eine Anziehungskraft (Gravitation) war nicht bekannt. < −− > Neue Gravitationsgesetze.

Diese letztlich nicht-theologischen Erkenntnisse wurde von der Kirche dennoch zunächst als bedrohlich für den Glauben empfunden, als ketzerisch eingestuft und dementsprechend bekämpft. Zugleich provozierten diese Einsichten den Gottesglauben auch der Wissenschaftler und Philosophen. Während Denker wie Newton und Berkeley meinten, den Gottesglauben auf unterschiedliche Weise verteidigen zu müssen, gab es andere Denker wie z.B. Laplace, die versuchten, weitere Argumente zu finden, warum man die Annahme Gottes im Verständnis der natürlichen Welt nicht brauchen würde.

Rettungsversuch Mit Design-Begriff

Eine beliebte Denkfigur (bis in unsere Gegenwart hinein), um die Begrenztheit der naturwissenschaftlichen Erklärungsansätze mit einem expliziten Gottesbegriff für die Natur zu retten, ist der sogenannte Design Ansatz: der Aufweis der großen Komplexität der bedingenden Faktoren sowie die daraus resultierende immense Unwahrscheinlichkeit, dass in solch einer Situation die bekannten Lösungen ’einfach so’ entstehen konnten, wird als Argument dafür benutzt, dass es hinter allem einen planenden, absichtsvollen Geist geben muss, eben einen Schöpfer, den christlichen Gott (vgl. SS.74ff).

Diese Argumentation erweist sich als schwierig und wenig plausibel. Einmal zeigt der Gang der Wissenschaftsgeschichte, dass der Begriff der Komplexität sehr relativ ist: was in einer bestimmten Zeit als ’komplex’ und ’unerklärbar’ erscheint, findet zu anderen Zeiten einfache und elegante Erklärungen. Zum anderen erklären die Designansätze in der Regel zwar die ’schönen’ Fälle, in denen es für die beteiligten Geschöpfe ’gut’ ausgeht, sie könne aber nicht mit den unzähligen Fällen des Scheiterns und des Elends umgehen. Ein Zufalls-basierter Ansatz mag zwar vielfach ’unwahrscheinlich’ erscheinen, aber das Auftreten von Varianten, von Scheitern, von Übel ist im Rahmen einer vom Zufall bestimmten Entwicklung eingeschlossen. (Anmerkung: Im weiteren Gang der modernen Wissenschaften  wurde die Annahme einer Zufalls-basierten Entwicklung um weitere Faktoren ergänzt. So sind bei der Entwicklung von biologischen Systemen begrenzende Faktoren unterschiedlicher Art anzunehmen, die die Zufallsräume deutlich einschränken!)

Rettungsversuch mit Bewusstseins-Ansatz

Einen für seine Zeit sehr originellen Rettungsversuch startete George Berkeley (1685 – 1753) mit seiner Schrift ”A Treatise Concerning the Principles of Human Knowledge” (1910) [1], [2]. Zunächst arbeitete er heraus, dass unser gesamtes aktuelles Weltwissen primär im Bewusstsein stattfindet (was heute die Neurowissenschaften umfassend bestätigen konnten), was Berkeley dann zum Anlass nahm, anzunehmen, dass all das, was man gemeinhin materielle Objekte nennt, aus Sicht des Bewusstseins nicht wirklich existiert. Berkeley leitete aus dieser Situation die Hypothese ab, dass man für die Existenz der materiellen Welt außerhalb des Bewusstseins generell die Hypothese eines Schöpfers benötigt, der all dies bereitstellt und verwaltet.

Die modernen Naturwissenschaften konnten daher nach Berkeley die Existenz Gottes gar nicht in Frage stellen, da sie sich sowieso nur auf die Phänomene des Bewusstseins und ihre impliziten Gesetzen berufen.

Das Problem der Wissensgrenze

Was sich hier am Beispiel des Design-Begriffs oder der neuen Erkenntnistheorie von Berkeley andeutet, das sind Beispiele für das allgemeine Problem, wenn Menschen mit ihrem Wissen W auf Phänomene stoßen, die nicht so recht oder überhaupt nicht mit dem bisherige Wissen W übereinzustimmen scheinen.

In der Tat ist es ein grundlegendes und ungelöstes Problem, was Wissensgrenzen grundsätzlich bedeuten. Im Normalfall benutzt man sein eigenes Wissen W wie eine Art ’Werkzeug’, um die Wahrnehmung der Welt und von sich selbst ’im Lichte dieses Wissens W’ zu ’deuten’. In diesem Fall ist man ’in’ diesem Wissen drin, man setzt das Wissen W voraus.

Auf der anderen Seite verfügen wir – zumindest ansatzweise, in bestimmten Situationen – über die Fähigkeit, die ’Übereinstimmung’ unseres Wissens W mit wahrnehmbaren Phänomenen zu überprüfen. In diesem speziellen Fall verhalten wir uns zu unserem Wissen W als ob dieses Wissen W für uns ein ’Gegenstand’ ist, ’über’ den wir urteilen können. Und wir wissen aus der Wissenschaftsphilosophie, dass man jedes Wissen W, das in Form einer expliziten formalen symbolischen Theorie T W vorliegt, beschreiben und abändern können.

Letzteres folgt auch alleine schon aus dem Umstand, dass alles Wissen bzw. dann auch alle Theorien von den Autoren ’geschaffen’ werden, indem angesichts von Phänomenen (Daten) nach’ möglichen Beziehungen’ und ’Regeln’ gesucht wird, die diese Daten ’in einen Zusammenhang’ bringen können. In diesen Such- und Konstruktionsprozess können viele logische und nicht-logische Faktoren einfließen. Und es sollte von daher klar sein, dass Wissen bzw. strukturierte Formen von Wissen in Form von symbolischen Theorien grundsätzlich ’dynamische Größen’ darstellen, die im ’Fluss der Zeit’ unterschiedliche Formen annehmen können.

Wenn also im historischen Prozess bestimmte Wissensformen plötzlich Probleme haben, dann ist dies von der Natur des Wissens her eigentlich kein Problem, wohl aber für solche Menschen, die offensichtlich glauben, dass ein bestimmtes Wissen W zu einem bestimmten Zeitpunkt für immer ’fest’ sei, quasi ’absolut’. In diesen Fällen wäre es sehr irreführend, von den Erklärungsproblemen dieser Theorien auf ein Problem in der Welt der Phänomene zu schließen; viel mehr sollten diese Menschen ihr eigenes Verhältnis zu ihrem Wissen problematisieren und überprüfen. Dies ist im Kern die Aufgabe der Philosophie, heute zusätzlich unterstützt von vielen Spezialdisziplinen wie z.B. Psychologie und Neuropsychologie.

Wissenschaftliche Theorie und Glaube

Ein anderer Aspekt, der oft übersehen wird, den Stace aber explizit benennt (siehe z.B. p.96), das ist das Moment des ’Glaubens’ im Kontext von wissenschaftlichen Theorien.

Die Wurzel für diese Form von ’wissenschaftlichem Glauben’ liegt einmal in der Art, wie wissenschaftliche Theorien entstehen (siehe Abschnitt zuvor), zum anderen in der Art ihrer Nutzung.

Bei der Konstruktion von wissenschaftlichen Theorien müssen Forscher grundsätzlich über die endliche Menge von isolierten Datenpunkten ’hinaus’ gehen und explizit ’Vermutungen über Zusammenhänge’ äußern, d.h. was ’glauben’ sie, welche Art von Zusammenhängen ’da draußen’ existieren, aufgrund deren Wirken die beobachteten Phänomene (gemessene Daten) auftreten. Und wenn sie dann ihre Vermutungen, ihren Glauben, niedergeschrieben haben, dann stehen die benutzen theoretischen Terme für genau diese Vermutungen, für den so artikulierten Glauben als mögliche Zusammenhänge.

In der normalen Physik gibt es viele Beispiele für solche Terme, deren ’Bedeutung’, deren ’Extension’ nicht direkt beobachtet werde kann, sondern nur ihre ’Wirkung’, die als ’Hinweis auf ihre Existenz’ angenommen (geglaubt) wird.

So kann man das ’Gewicht’ eines Körpers nicht direkt sehen, sondern nur die Auswirkung des Gewichts im Rahmen eines Messvorgangs, entsprechend mit der Anziehungskraft von Körpern aufgrund der postulierten Gravitation. Wenn also — das wäre der Analogieschluss — das mit der Wortmarke ’Gott’ Gemeine nicht direkt mit normalen Sinnesorganen punktuell beobachtet werden kann, so würde daraus nicht notwendigerweise der Schluss folgen, dass diese Wortmarke keine Extension besitzt. Tausende von menschlichen Zeugnissen deuten in die Richtung, dass ’das mit Gott Gemeinte’ sich auf vielfache Weise in Form von Zeitreihen zeigen kann, die unterschiedliche Randbedingungen aufweisen können. Darauf aufbauende ’Überzeugungen= Wissensformen’ gehen dann über den Augenblick hinaus (analog zu empirischen Theorien) und ermöglichen ein  ’erfahrungsbasiertes Handeln’, das entweder weitere ’Bestätigungen’ zulässt oder nicht. Abänderungen solcher Überzeugungen im Kontext von Erfahrungen ist möglich und üblich.

QUELLEN

[1] G. Berkeley, A Treatise Concerning the Principles of Human Knowledge, 1st ed. Skinner Row (Dublin): Jeremy Pepyat, Bookseller, 1710.

[2] ——, A Treatise Concerning the Principles of Human Knowledge. Three Dialogues, 1st ed., R. Woolhouse, Ed. London:Penguin Books, 1988.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

KÜNSTLICHE INTELLIGENZ (KI) – CHRISTLICHE THEOLOGIE – GOTTESGLAUBE. Ein paar Gedanken

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
24.Juni 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

VORBEMERKUNG

Der folgende Text wurde im September in einer christlichen Zeitschrift veröffentlicht [*]. Es war (und ist) ein ‚experimenteller Text‘, bei dem ich versucht habe, auszuloten, was gedanklich passiert, wenn man die beiden Themenkreise ‚Glaube an Gott im   Format christlicher Theologie‘ mit dem Themenkreis ‚Künstliche Intelligenz‘ zusammen führt. Das Ergebnis kann überraschen, muss aber nicht. Dieser ganze Blog ringt von Anbeginn um das Verhältnis von Philosophie, Wissenschaft (mit Technologie) und dem Phänomen der Spiritualität als Menschheitsphänomen, und die christliche Sicht der Dinge (die in sich ja keinesfalls einheitlich ist), ist nur eine Deutung von Welt unter vielen anderen. Wer die Einträge dieses Blogs durch mustert (siehe Überblick) wird feststellen, dass es sehr viele Beiträge gibt, die um die Frage nach Gott im Lichte der verfügbaren Welterfahrung kreisen. Die aktuelle Diskussion von W.T.Stace’s Buch ‚Religion and the Modern Mind‘ (Beginn mit Teil 1 HIER) setzt sich auch wieder   mit dieser Frage auseinander.

INHALT BEITRAG

Im Alltag begegnen wir schon heute vielfältigen Formen von Künstlicher Intelligenz. Bisweilen zeigt sie sehr menschenähnliche Züge. In Filmen werden uns Szenarien vorgeführt, in denen Superintelligenzen zukünftig die Herrschaft über uns Menschen übernehmen wollen. Wie verträgt sich dies mit unserem Menschen-und Gottesbild? Macht Glauben an Gott dann noch Sinn?

I. KI IST SCHON DA …

Vielen Menschen ist gar nicht bewusst, wo sie im Alltag schon mit Programmen der Künstlichen Intelligenz (KI) zu tun haben. Schaut man sich aber um, wird man entdecken, dass Sie scheinbar schon überall am Werk ist. Hier ein paar Stichworte: Kundenanfragen werden immer mehr durch KI-Programme bestritten. In der Logistik: In Lagerhallen und ganzen Häfen arbeiten intelligente Roboter, die wiederum von anderen KI-Programmen überwacht und optimiert werden. Ähnliches in Fabriken mit Produktionsstraßen. Für die Wartung von Maschinenbenutzen Menschen Datenhelme, die über ein KI-Programm gesteuert werden und die dem Menschensagen, was er sieht, und wo er was tun soll. In der Landwirtschaft sind die beteiligten Maschinen vernetzt, haben KI-Programme entweder an Bord oder werden über Netzwerke mit KI-Programmen verbunden: diese kontrollieren den Einsatz und steuern Maßnahmen. Auf den Feldern können diese Maschinen autonom fahren. Im Bereich Luftfahrt und Schifffahrt können sich Flugzeuge und Schiffe schon heute völlig autonom bewegen, ebenso beim LKW-Verkehr und auf der Schiene. Durch das Internet der Dinge (IoT) wird gerade der Rest der Welt miteinander vernetzt und damit einer zunehmenden Kontrolle von KI-Programmen zugänglich gemacht. In der Telemedizin ist dies schon Alltag: Ferndiagnose und Fernbehandlung sind auf dem Vormarsch. Schon heute wird für die Diagnose schwieriger und seltener Krankheiten KI eingesetzt, weil sie besser ist als ganze Gruppen menschlicher Experten. Viele komplizierte Operationen – speziell im Bereich Gehirn – wären ohne Roboter und KI schon heute unmöglich. KI-Programme entschlüsseln das Erbgut von Zellen, Suchen und Finden neue chemische Verbindungen und pharmakologische Wirkstoffe.

In der Finanzwirtschaft haben KI-Programme nicht nur den Handel mit Aktien und anderen Finanzprodukten übernommen (Stichwort: Hochfrequenzhandel), sondern sie verwalten auch zunehmend das Vermögen von Privatpersonen, übernehmen den Kontakt mit den Kunden, und wickeln Schadensfälle für Versicherungen ab. Bei anwaltlichen Tätigkeiten werden Routineaufgaben von KI-Programmen übernommen. Richter in den USA lassen sich in einzelnen Bundesländern mit KI-Programmen die Wahrscheinlichkeit ausrechnen, mit der ein Angeklagter wieder rückfällig werden wird; dies wird zum Schicksal für die Angeklagten, weil die Richter diese Einschätzungen in ihr Urteil übernehmen. Das Militär setzt schon seit vielen Jahren in vielen Bereichen auf KI-Programme. Zuletzt bekannt durchfliegende Kampfroboter (Drohnen). Dazu weltweite Ausspähprogramme von Geheimdiensten, die mit Hilfe von KI-Programmen gewaltige Datenströme analysieren und bewerten.Diese Aufzählung mag beeindruckend klingen, sie ist aber nicht vollständig. In vielen anderen Bereichen wie z.B. Spielzeug, Online-Spiele, Musikproduktion,Filmproduktion, Massenmedien, Nachrichtenproduktion,… sind KI-Programme auch schon eingedrungen. So werden z.B. mehr und mehr Nachrichtentexte und ganze Artikel für Online-Portale und Zeitungen durch KI-Programme erstellt; Journalisten waren gestern. Dazu hunderttausende von sogenannten ’Bots’ (Computerprogramme, die im Internet kommunizieren, als ob sie Menschen wären), die Meinungen absondern, um andere zu beeinflussen. Was bedeuten diese Erscheinungsformen Künstlicher Intelligenz für uns?

A. Freund oder Konkurrent?

Bei einem nächtlichen Biergespräch mit einem der berühmtesten japanischen Roboterforschern erzählte er aus seinem Leben, von seinen Träumen und Visionen. Ein Thema stach hervor: seine Sicht der Roboter. Für ihn waren Roboter schon seit seiner Kindheit Freunde der Menschen, keinesfalls nur irgendwelche Maschinen. Mit diesen Roboter-Freunden soll das Leben der Menschen schöner, besser werden können. In vielen Science-Fiction Filmen tauchen Roboter in beiden Rollen auf: die einen sind die Freunde der Menschen, die anderen ihre ärgsten Feinde; sie wollen die Menschen ausrotten, weil sie überflüssig geworden sind. Bedenkt man, dass die Filme auf Drehbüchern beruhen, die Menschen geschrieben haben, spiegelt sich in diesem widersprüchlichen Bild offensichtlich die innere Zerrissenheit wieder, die wir Menschen dem Thema Roboter, intelligenten Maschinen, gegenüber empfinden. Wir projizieren auf die intelligenten Maschinen sowohl unsere Hoffnungen wie auch unsere Ängste, beides übersteigert, schnell ins Irrationale abrutschend.

B. Neue Verwundbarkeiten

Ob intelligente Maschinen eher die Freunde der Menschen oder ihre Feinde sein werden, mag momentan noch unklar sein, klar ist jedoch, dass schon jetzt der Grad der Vernetzung von allem und jedem jeden Tag einen realen Raum mit realen Bedrohungen darstellt. Global operierenden Hacker-Aktivitäten mit Datendiebstählen und Erpressungen im großen Stil sind mittlerweile an der Tagesordnung. Während die einen noch versuchen, es klein zu reden, lecken andere schon längst ihre Wunden und es gibt immer mehr Anstrengungen, diesen Angriffen mehr ’Sicherheit’ entgegen zu setzen. Doch widerspricht das Prinzip der Zugänglichkeit letztlich dem Prinzip der vollständigen Abschottung. Wenn die Vernetzung irgendeinen Sinn haben soll, dann eben den, dass es keine vollständige Abschottung gibt. Dies läuft auf die große Kunst einer ’verabredeten Abschottung’ hinaus: es gibt eine ’bestimmte Datenkonstellation, die den Zugang öffnet’. Dies aber bedeutet, jeder kann herumprobieren, bis er diese Datenkonstellation gefunden hat. Während die einen KI-Programme einsetzen, um diese Datenschlüssel zu finden, versuchen die anderen mit KI-Programmen, mögliche Angreifer bei ihren Aktivitäten zu entdecken. Wie dieses Spiel auf lange Sicht ausgehen wird, ist offen. In der Natur wissen wir, dass nach 3.8 Milliarden Jahren biologischem Leben die komplexen Organismen bis heute beständig den Angriffen von Viren und Bakterien ausgeliefert sind, die sich um Dimensionen schneller verändern können, als das biologische Abwehrsystem(das Immunsystem) lernen kann. Die bisherige Moral aus dieser Geschichte ist die, dass diese Angriffe bei komplexen Systemen offensichtlich ko-existent sind, dazu gehören. Nur ein schwacher Trost ist es, dass der beständige Abwehrkampf dazu beiträgt, die Systeme graduell besser zu machen. Mit Blick auf diese fortschreitende Vernetzung ist es wenig beruhigend, sich vorzustellen, dass es in ca. 70- 90 Jahren (wie viele vermuten) (Anmerkung: Siehe dazu eine längere Argumentation im 1.Kap. von Bostrom (2014) [Bos14]) tatsächlich eine echte technische Superintelligenz geben wird, die allen Menschen gegenüber überlegen ist; eine solche technische Superintelligenz könnte im Handumdrehen alle Netze erobern und uns alle zu ihren Gefangenen machen. Nichts würde mehr in unserem Sinne funktionieren: die Super-KI würde alles kontrollieren und uns vorschreiben, was wir tun dürfen. Über das Internet der Dinge und unsere Smartphones wäre jeder 24h unter vollständiger Kontrolle. Jede kleinste Lebensregung wäre sichtbar und müsste genehmigt werden. Ob und was wir essen, ob wir noch als lebenswert angesehen werden …

C. Noch ist es nicht soweit …

Zum Glück ist dieses Szenario einer menschenfeindlichen Superintelligenz bislang nur Science-Fiction. Die bisherigen sogenannten KI-Programme sind nur in einem sehr eingeschränkten Sinne lernfähig. Bislang sind sie wie abgerichtete Hunde, die nur das suchen,was ihnen ihre Auftraggeber vorgeben, zu suchen. Sie haben noch keine wirkliche Autonomie im Lernen, sie können sich noch nicht selbständig weiter entwickeln(nur unter speziellen Laborbedingungen). Allerdings sammeln sie Tag und Nacht fleißig Daten von allem und jedem und erzeugen so ihre einfachen Bilder von der Welt: z.B. dass die Männer im Alter von 21 in der Region Rhein-Main mit Wahrscheinlichkeit X folgende Gewohnheiten haben …. Herr Müller aus der Irgendwo-Straße hat speziell jene Gewohnheiten …. seine Freunde sind … Es gibt eine hohe Wahrscheinlichkeit dass er Partei Y wählen wird … dass er in drei Monaten ein neues Auto vom Typ X kaufen wird ….am liebsten klickt er folgende Adressen im Internet an …

In den Händen von globalen Firmen, anonymen Nachrichtendiensten, autoritären Regierungen oder verbrecherischen Organisationen können allerdings schon diese Daten zu einer echten Bedrohung werden, und diese Szenarien sind real. Die Rolle der bösen Superintelligenz wird hier bis auf weiteres noch von Menschen gespielt; Menschen haben in der Vergangenheit leider zur Genüge bewiesen, dass sie das Handwerk des Bösen sehr gut beherrschen können…Es stellt sich die Frage, ob sich die bisherigen einfachen künstlichen Intelligenzen weiter entwickeln können? Lernen künstliche Intelligenzen anders als Menschen? Welche Rolle spielen hier Werte? Sind Werte nicht ein altmodischer Kram, den nur Menschen brauchen (oder selbst diese eigentlich nicht)? Schließlich, wo kommt hier Gott ins Spiel? Tangieren künstliche Intelligenzen den menschlichen Glauben an Gott überhaupt?

II. WAS IST ’KÜNSTLICHE INTELLIGENZ’

Für eine Erkundungsreise in das Land der Künstlichen Intelligenz ist die Lage nicht ganz einfach, da das Gebiet der KI sich mittlerweile sehr stürmisch entwickelt. Immer mehr Konzepte stehen nebeneinander im Raum ohne dass es bislang allgemein akzeptierte Theorie- und Ordnungskonzepte gibt. (Anmerkung: Für zwei sehr unterschiedliche historische Rückblicke in das Thema sei verwiesen auf Mainzer (1995) [Mai95] und Nilsson (2010) [Nil10]. Für eine sehr populäre, wenngleich methodisch problematische, Einführung in den Stand der Disziplin siehe Russel und Norvik (2010) [RN10]).

Wir besuchen hier für einen Einstieg einen der großen Gründungsväter ganz zu Beginn 1936 – 1950 Alan Matthew Turing, und dann für die Zeit 1956 – 1976 Alan Newell und Herbert A.Simon. (Anmerkung: Simon war auch ein Nobelpreisträger im Gebiet der Wirtschaftswissenschaften 1978.) Dann schauen wir noch kurz in allerneueste Forschungen zum Thema Computer und Werte.

A. Am Anfang war der Computer

Wenn wir von künstlicher Intelligenz sprechen setzen wir bislang immer voraus, dass es sich um Programme (Algorithmen) handelt, die auf solchen Maschinen laufen, die diese Programme verstehen. Solche Maschinen gibt es seit 1937 und ihre technische Entwicklung hing weitgehend davon ab, welche Bauteile ab wann zur Verfügung standen. Das Erstaunliche an der bisherigen Vielfalt solcher Maschinen, die wir Computer nennen, ist, dass sich alle diese bis heute bekannt gewordenen Computer als Beispiele (Instanzen) eines einzigen abstrakten Konzeptes auffassen lassen. Dieses Konzept ist der Begriff des universellen Computers, wie er von Alan Matthew Turing 1936/7 in einem Artikel beschrieben wurde (siehe: [Tur 7] 4 ). In diesem Artikel benutzt Turing das gedankliche Modell einer endlichen Maschine für jene endlichen Prozesse, die Logiker und Mathematiker intuitiv als ’berechenbar’ und ’entscheidbar’ ansehen. (Anmerkung: Zum Leben Turings und den vielfältigen wissenschaftlichen Interessen und Einflüssen gibt es die ausgezeichnete Biographie von Hodges (1983) [Hod83].) Das Vorbild für Turing, nach dem er sein Konzept des universellen Computers geformt hat, war das eines Büroangestellten, der auf einem Blatt Papier mit einem Bleistift Zahlen aufschreibt und mit diesen rechnet.

B. Computer und biologische Zelle

Was Turing zur Zeit seiner kreativen Entdeckung nicht wissen konnte, ist die Tatsache, dass sein Konzept des universellen Computers offensichtlich schon seit ca. 3.5 Milliarden Jahre als ein Mechanismus in jeder biologischen Zelle existierte. Wie uns die moderne Molekularbiologie über biologische Zellen zur Erfahrung bringt(siehe [AJL + 15]), funktioniert der Mechanismus der Übersetzung von Erbinformationen in der DNA in Proteine (den Bausteinen einer Zelle) mittels eines Ribosom-Molekülkomplexes strukturell analog einem universellen Computer. Man kann dies als einen Hinweis sehen auf die implizite Intelligenz einer biologischen Zelle. Ein moderner Computer arbeitet prinzipiell nicht anders.

C. Computer und Intelligenz

Die bei Turing von Anfang an gegebene Nähe des Computers zum Menschen war möglicherweise auch die Ursache dafür, dass sehr früh die Frage aufgeworfen wurde, ob, und wenn ja, wieweit, ein Computer, der nachdem Vorbild des Menschen konzipiert wurde, auch so intelligent werden könnte wie ein Mensch?

Der erste, der diese Frage in vollem Umfang aufwarf und im einzelnen diskutierte, war wieder Turing. Am bekanntesten ist sein Artikel über Computerintelligenz von 1950 [Tur50]. Er hatte aber schon 1948 in einem internen Forschungsbericht für das nationale physikalische Labor von Großbritannien einen Bericht geschrieben über die Möglichkeiten intelligenter Maschinen. (Anmerkung: Eine Deutsche Übersetzung findet sich hier: [M.87]. Das Englische Original ’Intelligent Machinery’ von 1948 findet sich online im Turing Archiv: http://www.alanturing.net/intelligent_machinery.) In diesem Bericht analysiert er Schritt für Schritt, wie eine Maschine dadurch zu Intelligenz gelangen kann, wenn man sie, analog wie bei einem Menschen, einem Erziehungsprozess unterwirft, der mit Belohnung und Strafe arbeitet. Auch fasste er schon hier in Betracht, dass sein Konzept einer universellen Maschine das menschliche Gehirn nachbaut. Turing selbst konnte diese Fragen nicht entscheiden, da er zu dieser Zeit noch keinen Computer zur Verfügung hatte, mit dem er seine Gedankenexperimente realistisch hätte durchführen können. Aber es war klar, dass mit der Existenz seines universellen Computerkonzeptes die Frage nach einer möglichen intelligenten Maschine unwiderruflich im Raum stand. Die Fragestellung von Turing nach der möglichen Intelligenz eines Computers fand im Laufe der Jahre immer stärkeren Widerhall. Zwei prominente Vertreter der KI-Forschung, Allen Newell und Herbert A.Simon, hielten anlässlich des Empfangs des ACM Turing-Preises1975 eine Rede, in der sie den Status der KI-Forschung sowie eigene Arbeiten zum Thema machten (siehe dazu den Artikel [NS76]).

D. Eine Wissenschaft von der KI

Für Newell und Simon ist die KI-Forschung eine empirische wissenschaftliche Disziplin, die den Menschen mit seinem Verhalten als natürlichen Maßstab für ein intelligentes Verhalten voraussetzt. Relativ zu den empirischen Beobachtungen werden dann schrittweise theoretische Modelle entwickelt, die beschreiben, mit welchem Algorithmus man eine Maschine (gemeint ist der Computer) programmieren müsse, damit diese ein dem Menschen vergleichbares – und darin als intelligent unterstelltes – Verhalten zeigen könne. Im Experiment ist dann zu überprüfen, ob und wieweit diese Annahmen zutreffen.

E. Intelligenz (ohne Lernen)

Aufgrund ihrer eigenen Forschungen hatten Newell und Simon den unterstellten vagen Begriff der ’Intelligenz’ schrittweise ’eingekreist’ und dann mit jenen Verhaltensweisen in Verbindung gebracht, durch die ein Mensch (bzw. ein Computer) bei der Abarbeitung einer Aufgabe schneller sein kann, als wenn er nur rein zufällig’ handeln würde. ’Intelligenz’ wurde also in Beziehung gesetzt zu einem unterstellten ’Wissen’ (und zu unterstellten ‚Fertigkeiten‘), über das ein Mensch (bzw. ein Computer) verfügen kann, um eine bestimmte Aufgabe ’gezielt’ zu lösen. Eine so verstandene ’Intelligenz’ kann sich aus sehr vielfältigen, möglicherweise sogar heterogenen, Elementen zusammen setzen.

Dies erklärt ihre mannigfaltigen Erscheinungsweisen bei unterschiedlichen Aufgaben. ’Intelligenz’ ist dabei klar zu unterscheiden, von einem ’Lernen’. Ist die Aufgabenstellung vor dem Einsatz einer Maschine hinreichend bekannt, dann kann ein Ingenieur all das spezifische Wissen, das eine Maschine für die Ausführung der Aufgabe benötigt, von vornherein in die Maschine ’einbauen’. In diesem Sinne ist jede Maschine durch das Knowhow von Ingenieuren in einem spezifischen Sinne ’intelligent’. Bis vor wenigen Jahrzehnten war dies die Standardmethode, wie Maschinen von Ingenieuren entworfen und gebaut wurden.

F. Lernen ermöglicht Intelligenz

Im Fall von biologischen Systemen ist ein solches Vorgehen kaum möglich. Biologische Systeme entstehen (durch Zellteilung), ohne dass bei der Entstehung bekannt ist, wie die Umwelt aussehen wird, ob sie sich verändert, welche Aufgaben das biologische Systemlösen muss. Zwar haben alle biologische Systeme auch genetisch vorbestimmte Verhaltensmuster, die gleich bei der Geburt zur Verfügung stehen, aber darüber hinaus haben alle biologische Systeme einen ariablen Anteil von Verhaltensweisen, die sie erst lernen müssen. Das Lernen ist hier jene Fähigkeit eines biologischen Systems, wodurch es seine internen Verhaltensstrukturen in Abhängigkeit von der ’Erfahrung’ und von ’spezifischen Bewertungen’ ’ändern’ kann. Dies bedeutet, dass biologische Systeme durch ihre Lernfähigkeit ihr Verhalten ’anpassen’ können. Sie können damit – indirekt – ein ’spezifisches Wissen’ erwerben, das ihnen dann eine spezifische ’Intelligenz’ verleiht, wodurch das biologischen System besser als durch Zufall reagieren kann. Diese Fähigkeit eines situationsgetriebenen Wissens besaßen Maschinen bis vor kurzem nicht. Erst durch die modernen Forschungen zu einer möglichen ’künstlichen Intelligenz (KI)’ machte man mehr und mehr Entdeckungen, wie man Maschinen dazu in die Lage versetzen könnte, auch nach Bedarf neues Verhalten erlernen zu können. Innerhalb dieses Denkrahmens wäre dann eine ’künstliche Intelligenz’ eine Maschine, hier ein Computer, der über Algorithmen verfügt, die ihn in die Lage versetzen, Aufgaben- und Situationsabhängig neues Verhalten zu erlernen, falls dies für eine bessere Aufgabenbearbeitung wünschenswert wäre.

Die noch sehr ursprüngliche Idee von Turing, dass ein Computer Lernprozesse analog dem der Menschen durchlaufen könnte, inklusive Belohnung und Bestrafung, wurde seitdem auf vielfältige Weise weiter entwickelt. Eine moderne Form dieser Idee hat unter dem Namen ’Reinforcement Learning’ sehr viele Bereiche der künstlichen Intelligenzforschung erobert (vgl. Sutton und Barto (1998) [SB98]).

G. KI und Werte

Für die Aufgabenstellung einer ’lernenden Intelligenz’ spielen ’Werte’ im Sinne von ’Verhaltenspräferenzen’ eine zentrale Rolle. Ein Gebiet in der KI-Forschung, in dem diese Thematik sehr intensiv behandelt wird, ist der Bereich der ’Entwicklungs-Robotik’ (Engl.:’developmental robotics’). In diesem Bereich wurde u.a. die Thematik untersucht (vgl. Kathryn Merrick(2017) [Mer17]), wie ein Roboter ’von sich aus’, ohne direkte Befehle, seine Umgebung und sich selbst ’erforschen’ und aufgrund dieses Lernens sein Verhalten ausrichten kann. Dabei zeigt sich, dass reine Aktivierungsmechanismen, die im Prinzip nur die Neugierde für ’Neues’ unterstützen, nicht ausreichend sind. Außerdem reicht es nicht aus, einen Roboter isoliert zu betrachten, sondern man muss Teams oder ganze Populationen von Robotern betrachten, da letztlich ein ’Wert’ im Sinne einer ’Präferenz’ (eine bevorzugte Verhaltenstendenz) nur etwas nützt, wenn sich alle Mitglieder einer Population daran orientieren wollen. Dies führt zur grundlegenden Frage, was denn eine Population von Robotern gemeinschaftlich als solch einen gemeinsamen ’Wert’ erkennen und akzeptieren soll. Wirklich befriedigende Antworten auf diese grundlegenden Fragen liegen noch nicht vor. Dies hat u.a. damit zu tun, dass die Robotersysteme, die hier untersucht werden, bislang noch zu unterschiedlich sind und dass es auch hier bislang – wie bei der KI-Forschung insgesamt – ein großes Theoriedefizit gibt in der Frage, innerhalb welches theoretischen Rahmens man diese unterschiedlichen Phänomene denn diskutieren soll.

Man kann aber den Ball dieser Forschung einmal aufgreifen und unabhängig von konkreten Realisierungsprozessen die Frage stellen, wie denn überhaupt ein ’Wert’ beschaffen sein müsste, damit eine ganze Population von Robotern sich ’von sich aus’ darauf einlassen würde. Letztlich müsste auch ein Roboter entweder eine ’eingebaute Tendenz’ haben, die ihn dazu drängt, ein bestimmtes Verhalten einem anderen vor zu ziehen, oder aber es müsste eine ’nicht eingebaute Tendenz’ geben, die im Rahmen seiner ’internen Verarbeitungsprozesse’ neue Verhalten identifizieren würde, die ihm im Sinne dieser ’Tendenz’ ’wichtiger’ erscheinen würde als alles andere. Es ist bislang nicht erkennbar, wo eine ’nicht eingebaute Tendenz’ für eine Verhaltensauswahl herkommen könnte. Ein industrieller Hersteller mag zwar solche Werte aufgrund seiner Interessenlage erkennen können, die er dann einem Roboter ’zu verstehen geben würde’, aber dann wäre die Quelle für solch eine ’Initiierung einer Verhaltenstendenz’ ein Mensch.

In der aktuellen Forschungssituation ist von daher als einzige Quelle für nicht angeborene Verhaltenstendenzen bislang nur der Mensch bekannt. Über welche Werte im Falle von sogenannten künstlichen Super-Intelligenzen diese verfügen würden ist noch unklar. Dass künstliche Super-Intelligenzen von sich aus Menschen grundsätzlich ’gut’ und ’erhaltenswert’ finden werden, ist in keiner Weise abzusehen. Die künstlichen Superintelligenzen müssten sich in Wertefragen – wenn überhaupt – eher am Menschen orientieren. Da die bisherige Geschichte der Menschheit zeigt, dass der Mensch selbst zu allen Zeiten eine starke Neigung hat, andere Menschen zu unterdrücken, zu quälen, und zu töten, würde dies für alle Menschen, die nicht über künstliche Superintelligenzen verfügen, tendenziell sehr gefährlich sein. Ihr ’Opferstatus’ wäre eine sehr große Versuchung für die jeweilige technologische Macht.

III. WER SIND WIR MENSCHEN?

Wenn Menschen sich in der KI wie in einem Spiegelbetrachten, dann kann dies für den betrachtenden Menschen viele Fragen aufwerfen. Zunächst erfinden die Menschen mit dem Computer einen Typ von intelligenter Maschine, die zunehmend den Eindruck erweckt, dass sich die Menschen in solchen Maschinen vervielfältigen (und möglicherweise noch übertreffen) können. Dann benutzen sie diese Computer dazu, die Strukturen des menschlichen Körpers immer tiefer zu erforschen, bis hin zu den Zellen und dort bis in die Tiefen der molekularen Strukturen, um z.B. unsere Gene zu erforschen, unser Erbmaterial, und zwar so weitgehend, dass wir dieses Erbmaterial gezielt verändern können. Die Menschen verstehen zwar noch nicht in vollem Umfang die möglichen Wirkungen der verschiedenen Änderungen, aber es ist möglich, real Änderungen vorzunehmen, um auszuprobieren, ’was dann passiert’? Mit Hilfe des Computers beginnt der Mensch, seinen eigenen Bauplan, sein eigenes genetisches Programm, umzubauen.

Dazu kommt, dass die Menschen seit dem19.Jahrhundert mit der modernen Biologiewissen können, dass die vielfältigen Formen des biologischen Lebens zu einem bestimmten Zeitpunkt immer das Ergebnis von langen vorausgehenden Entwicklungsprozessen sind. Das Wachsen und Sterben von Organismen gründet jeweils in einer befruchteten Zelle, für die durch das Erbmaterial festgelegt ist, wie sie sich weiter vermehrt und wie sich Millionen, Milliarden und gar Billionen von Zellen zu komplexen Formen zusammen finden. Und bei der Vervielfältigung von Zellen können Änderungen, Abweichungen vom ursprünglichen Plan auftreten, die über viele Tausende  und Millionen von Jahren zu deutlichen Änderungen im Bau und Verhalten eines Organismus führen können. Die Biologen sprechen von ’Evolution’. Eine Erkenntnis aus diesem Evolutionsprozess war (und ist), dass wir Menschen, so, wie wir heute da sind, auch solche evolutionär gewordene biologische Strukturen sind, die Vorläufer hatten, die mit uns heutigen Menschen immer weniger zu tun hatten, je weiter wir in der Zeit zurückgehen. Wer sind wir also?

Die Frage, ob Computer als intelligente Maschinen genau so gut wie Menschen werden können, oder gar noch besser, läuft auf die Frage hinaus, ob der Mensch Eigenschaften besitzt, die sich generell nicht durch einen Computer realisieren lassen.

Die moderne Psychologie und die modernen Neurowissenschaften haben bislang nichts zutage fördern können, was sich einem ingenieurmäßigen Nachbau entziehen könnte. Auch wenn es sich hierbei nicht um einen ’strengen Beweise’ handelt, so kann dieser Anschein einer generellen ’maschinelle Reproduzierbarkeit’ des Menschen in Gestalt von intelligenten Maschinen das bisherige Selbstverständnis von uns Menschen stark verunsichern.

IV. GLAUBEN AN GOTT

A. In allen Himmelsrichtungen

Aus der Geschichte der letzten Jahrtausende wissen wir, dass es zu allen Zeiten und in allen Kulturen Religionen gegeben hat. Die größten sind wohl (bis heute) der Hinduismus, der Buddhismus, das Judentum mit dem Christentum, und der Islam. So verschieden diese zu verschiedenen Zeiten und in verschiedenen Regionen äußerlich erscheinen mögen, sie verbindet alle das tiefe Fühlen und Glauben von Menschen an einen über-persönlichen Sinn, der Glaube an ein höheres Wesen, das zwar unterschiedliche Namen hat (’Gott’, ’Deus’, ’Theos’, ’Jahwe’, ’Allah’ …), aber – möglicherweise – vielleicht nur ein einziges ist.

B. Jüdisch-Christlich

So verschieden die christlichen Bekenntnisse der Gegenwart auch sein mögen, was die Anfänge angeht beziehen sich noch immer alle auf die Bibel, und hier, für die Anfänge der Geschichte auf das Alte Testament.(Anmerkung: Für eine deutsche Übersetzung siehe die Katholisch-Evangelische Einheitsübersetzung [BB81]).

Wie uns die modernen Bibelwissenschaften lehren, blickt der Text des Alten Testaments auf eine vielfältige Entstehungsgeschichte zurück. (Anmerkung: Für eine Einführung siehe Zenger et.al (1998) [ZO98]). Nicht nur, dass der Übergang von der mündlichen zur schriftlichen Überlieferung sich im Zeitraum von ca. -700 bis ca.+200 abgespielt hat, auch die redaktionelle Erzeugung verweist auf sehr viele unterschiedliche Traditionen, die nebeneinander existiert und die zu unterschiedlichen Varianten geführt haben. Auch die Kanonbildung dauerte dann nochmals viele hundert Jahre mit dem Ergebnis, dass es schwer ist, von dem einen Urtext zu sprechen. Für jene Menschen, die vorzugsweise Halt an etwas Konkretem, Festen suchen, mag dieses Bild der Überlieferung der Texte des alten Testaments beunruhigend wirken. Wird hier nicht vieles relativiert? Kann man denn da noch von einem ’Wort Gottes an die Menschen’ sprechen? Diese Furcht ist unbegründet, im Gegenteil.

C. Neues Weltbild

Wenn wir Menschen heute lernen (dürfen!), wie unsere individuelle, konkrete Existenz eingebettet ist in einen geradezu atemberaubenden Prozess der Entstehung der bekannten Lebensformen über viele Milliarden Jahre, wie unser eigener Körper ein unfassbares Gesamtkunstwerk von ca. 37 Billionen (10^12 !) Körperzellen in Kooperation mit ca. 100 Bio Bakterien im Körper und ca. 220 Mrd. Zellen auf der Haut  ist, die in jedem Moment auf vielfältige Weise miteinander reden, um uns die bekannten Funktionen des Körpers zur Verfügung zu stellen, dann deutet unsere reale Existenz aus sich heraus hin auf größere Zusammenhänge, in denen wir vorkommen, durch die wir sind, was wir sind. Und zugleich ist es die Erfahrung einer Dynamik, die das Ganze des biologischen Lebens auf der Erde in einem ebenfalls sich entwickelnden Universum umfasst und antreibt. Wenn wir verstehen wollen, wer wir sind, dann müssen wir diesen ganzen Prozess verstehen lernen.

Wenn wir uns dies alles vor Augen halten, dann können uns die Texte des alten Testaments sehr nahe kommen. Denn diese Texte manifestieren durch ihre Vielfalt und ihre Entstehungsgeschichte über viele Jahrhunderte genau auch diese Dynamik, die das Leben auszeichnet.

D. Schöpfungsberichte

Claus Westermann, ein evangelischer Theologe und Pfarrer, leider schon verstorben, hat uns einen Kommentar zum Buch Genesis hinterlassen und eine Interpretation der beiden biblischen Schöpfungsberichte, der jedem, der will, aufzeigen kann, wie nah diese alten Texte uns heute noch sein können, vielleicht viel näher als je zuvor. (Anmerkung: Neben seinen beiden wissenschaftlichen Kommentaren aus den Jahren 1972 und 1975 hat er schon 1971 ein kleines Büchlein geschrieben, in dem er seine Forschungsergebnisse in einer wunderbar lesbaren Form zusammengefasst hat (siehe: [Wes76]).

Der erste der beiden Schöpfungstexte in Gen 1,1-2,4a ist der jüngere der beiden; seine Entstehung wird auf die Zeit 6.-5.Jh vor Christus angesetzt, der zweite Schöpfungstext in Gen 2,4b – 24 wird mit seiner Entstehung im 10.-9.Jh vor Christus verortet. Der jüngere wird einer Überlieferungsschicht zugeordnet, die als ’Priesterschrift’ bezeichnet wird, die einen großen Bogen spannt von der Entstehung der Welt mit vielen Stationen bis hin zu einem neuen Bund zwischen Menschen und Gott. Dieser erste Schöpfungsbericht, bekannt durch sein 7-Tage-Schema, steht im Übergang von sehr, sehr vielen Traditionen mythischer Berichte über Schöpfung in den umliegenden Kulturen, Traditionen, die selbst viele Jahrhunderte an Entstehungszeit vorweisen können. Von daher wundert es nicht, wenn sich einzelne Worte, Motive, Bilder, die auch im 7-Tage-Schema auftauchen, Parallelen haben in anderen Schöpfungsgeschichten. Interessant ist das, was die biblische Schöpfungsgeschichte der Priesterschrift anders macht als die anderen bekannten Geschichten es tun.

E. Menschen als Ebenbild

Die zentrale Aussage im neueren Schöpfungsbericht ist nicht, wie im älteren Text, wie Gott den Menschen geschaffen hat, sondern die Aussage, dass er den Menschen nach seinem Bilde geschaffen hat, und dass er dem Menschen eine Verantwortung übertragen hat. In der schon zu dieser Zeit bekannten Vielgestaltigkeit der Welt, ihrer vielen Werdeprozesse, war die zentrale Einsicht und damit verbunden der Glaube, dass der Mensch als ganzer (nicht eine einzelne Gruppe, kein bestimmter Stamm, kein bestimmtes Volk!) über die konkrete, reale Existenz hinausweisend mit Gott verbunden ist als seinem Schöpfer, der auch ansonsten alles geschaffen hat: die Gestirne sind keine Götter, wie in vielen anderen älteren Mythen. Die Menschen sind nicht dazu da, niedere Arbeiten für Gott zu machen, wie in anderen Mythen. Die Menschen werden vielmehr gesehen als in einem besonderen Status im Gesamt der Existenz in der Geschichte, mit einer Verantwortung für das Ganze.

Und diese besondere Stellung des Menschen wird nicht festgemacht an besonderen körperlichen und geistigen Eigenschaften; schon zu dieser Zeit wussten die Autoren der Priesterschrift, wie vielfältig die Lebensformen, ja der konkrete Mensch, sein kann. Wenn wir heute durch die Wissenschaften lernen können, wie der Mensch sich im größeren Ganzen eines biologischen Werdens einsortieren lässt, wie der Mensch selbst durch seine Kultur, seine Technologie in der Lage und bereit ist, sich selbst in allen Bereichen– einschließlich seines biologischen Körpers – zu verändern, dann steht dies in keiner Weise im Gegensatz zu der globalen Sicht des biblischen Schöpfungsberichts. Im Gegenteil, man kann das Gefühl bekommen, das sich in unserer Gegenwart die Weite des biblischen Texte mit den neuen Weiten der Erkenntnisse über Mensch und Universum neu begegnen können. Was allerdings heute auffällig ist, wie viele Menschen sich schwer tun, in diesen neuen primär wissenschaftlichen Weltsichten den Glauben an einen Gott, einen Schöpfer, an eine Geschichtsübergreifende Beziehung zu einem Schöpfer aufrecht zu erhalten. Ist dies heute nicht mehr möglich?

F. Frömmigkeit – Spiritualität

An dieser Stelle sollte man sich vergegenwärtigen, dass zu allen Zeiten die Menschen in ihrer Religiosität nie nur ’gedacht’ haben, nie nur ’mit Bildern’ der Welt oder Gottes umgegangen sind. Zu allen Zeiten gab es – und gibt es noch heute – auch das, was man ’Frömmigkeit’ nennt, ’Spiritualität’, jenes sehr persönliche, individuelle sich einem Gott gegenüber ’innerlich Vorfinden‘, ’Ausrichten’, ’Fühlen’, ’Erleben’. Es ist nicht leicht, dafür die richtigen Worte zu finden, da es nun einmal ’innere’ Prozesse sind, die sich nicht wie Gegenstände vorweisen lassen können.   Sie betreffen das grundsätzliche Erleben eines Menschen, ein inneres Suchen, ein Erfahren, ein Erfülltsein (oder auch Leersein), das, was viele Menschen ermöglicht, ihr Leben in einer anderen, neuen Weise zu gestalten, sich zu ändern, anders mit Gefahren und Leiden umzugehen. In den Bildern des Alltags ’mehr’ sehen zu können als ohne dieses innere Erleben, Gestimmt sein.

In einer interessanten Untersuchung hat der britische Philosoph Walter Terence Stace die spirituellen Zeugnisse von vielen Jahrtausenden in unterschiedlichen Kulturen philosophisch untersucht (vgl. [Sta60]). Er kommt zu dem Ergebnis, dass sich trotz aller Verschiedenheiten im Äußeren, auch bei bestimmten Interpretationen, im Kern des Erlebens, des Wahrnehmens, sofern man dieses überhaupt von möglichen Interpretationen trennen lässt, erstaunliche Übereinstimmungen erkennen kann. Er folgert daraus, dass diese Fähigkeit von Menschen, einen übergreifenden Sinn direkt, existentiell erfahren zu können, möglicherweise auf eine sehr grundsätzliche Eigenschaft aller Menschen verweist, die wir einfach haben, weil wir Menschen sind. (Anmerkung: Er schließt auch nicht aus, dass alles Lebendige, von dem wir Menschen ja nur ein Teil sind, an dieser grundsätzlichen Fähigkeit einen Anteil haben könnte, wenn auch möglicherweise verschieden von der Art, wie wir Menschen erleben können.)

Die Tiefe und Weite der Sicht des jüngeren Schöpfungsberichts im Buch Genesis würde einem solchen grundlegenden Sachverhalt gut entsprechen: das Bild vom Menschen als Ebenbild Gottes schließt eine besondere Verbundenheit nicht aus; das ist das, was nach Westermann dem Menschen seine besondere Würde verleiht, diese Beziehung, nicht sein aktuelles konkretes So-sein, das sich ändern kann, ist die zentrale Botschaft.

G. Mensch, KI, Glaube an Gott

Damit beginnt sich der Kreis zu schließen. Wenn die Besonderheit des Menschen, seine zeitübergreifende Würde, in dieser grundlegenden Beziehung zu einem Schöpfergott gründet, die sich vielfältig im Gesamt des Universums und Lebens manifestiert, speziell auch in einer Form von individueller Spiritualität, dann gewinnt die Frage nach der Zukunft von Mensch und intelligenten Maschinen noch eine neue Nuance.

Bislang wird von den Vertretern einer Zukunft ohne Menschen nur noch mit intelligenten Maschinen einseitig abgehoben auf die größere Rechenkraft und die größeren Speicher, die alles erklären sollen. In diesem Beitrag wurde darauf hingewiesen, dass selbst die einfachsten Formen des Lernens ohne ’Werte’ im Sinne von ’Präferenzen’, von ’Bevorzugung von Handlungsalternativen’, ins Leere laufen. Sogenannte ’angeborene’ Präferenzen (oder eingebaute) können nur einen sehr begrenzten Nutzen vermitteln, da sich die Handlungsgegebenheiten und die gesamte Welt beständig weiter verändern. Auch die teilweise sehr komplexen Wertfindungen im sozialen-kulturellen Kontext ganzer Populationen, die von den künstlichen Intelligenzen dieser Welt noch nicht mal ansatzweise beherrscht werden, sind nur von begrenztem Wert, wie die bisherige Kulturgeschichte der Menschen eindrücklich belegt. [Mai95]

Vor diesem Hintergrund ist aktuell nicht zu sehen, wie intelligente Maschinen in der Zukunft alleine zu irgendwelchen brauchbaren Präferenzen kommen können. [SB98][Mer17][Nil10][NS76][RN10][Sta60][Tur37] Ungeklärt ist aktuell allerdings, ob und wieweit der Mensch – also jeder von uns – im Wechselspiel von philosophisch-empirischer Welterkenntnis und Spiritualität jene großen Richtungen ermitteln kann, die für die kommende komplexe Zukunft gefordert wird?

Sollte die Existenz eines Schöpfergottes über Welterkenntnis und Spiritualität wichtig sein für ein weiteres erfolgreiches Fortschreiten, dann hätten intelligente Maschinen möglicherweise ein grundsätzliches Problem. Es sei denn, auch sie könnten Gott erfahren? Einfacher wäre es, wenn Mensch und Maschine ihre aktuelle Koexistenz zu einer intensiveren Symbiose ausbauen würden. Dies würde viele sehr spannende Perspektiven bieten. Der Glaube an einen Schöpfergott ist auch heute, nach allem, was wir jetzt wissen können, keineswegs unsinnig;er erweist sich sogar – rein rational – als scheinbar dringend notwendig. Andererseits ist ein lebendiger Glaube kein Automatismus, sondern erfordert von jedem Menschen sein sehr persönliches Engagement in Verbundenheit mit dem ganzen Leben in einem dynamischen Universum. Gott erscheint hier nicht als das Hindernis, eher unsere Verweigerungen, das Ganze anzuschauen und zu akzeptieren.

QUELLEN

[*] G.Doeben-Henisch, Künstliche Intelligenz und der Glaube an Gott, In: Brennpunkt Gemeinde 70 (Aug./Sept. 2017), Studienbrief R21, 14 S., Hg. AMD Arbeitsgemeinschaft Missionarische Dienste im Verbund der Diakonie, Neukirchener Verlagsgesellschaft mbH, 47497 Neukirchen-Vluyn

[AJL + 15] B. Alberts, A. Johnson, J. Lewis, D. Morgan, M. Raff,
K. Roberts, and P. Walter. Molecular Biology of the Cell.
Garland Science, Taylor & Francis Group, LLC, Abington
(UK) – New York, 6 edition, 2015.
[BB81] Katholisches Bibelwerk and Deutsche Bibelgesellschaft. Die
Heilige Schrift. Einheitsübersetzung. Verlag Katholisches
Bibelwerk & Deutsche Bibelgesellschaft, Stuttgart, 1 edition, 1981.
[Bos14] Nick Bostrom. Superintelligence. Paths, Dangers, Strategies.
Oxford University Press, Oxford (UK), 1 edition, 2014.
[Hod83] Andrew Hodges. Alan Turing, Enigma. Springer Verlag, Wien
– New York, 1 edition, 1983.
[M.87] Turing Alan M. Intelligente maschinen. In Bernhard Dotzler
and Friedrich Kittler, editors, Alan M. Turing. Intelligence
Service, pages 81 – 113. Brinkmann & Bose, Berlin, 1987.

[Mai95] Klaus Mainzer. Computer – Neue Flügel des Geistes? Die
Evolution computergestützter Technik, Wissenschaft, Kultur
und Philosophie. Walter de Gruyter, Berlin – New York, 1th edition, 1995.
[Mer17] Kathrin Merrick. Value systems for developmental cognitive
robotics: A survey. Cognitive Systems Research, 41:38–55, 2017.
[Nil10] Nils J. Nilsson, editor. The Quest for Artificial Intelligence. A
History of Idesas and Achievements. Cambridge University
Press, New York, 2010.
[NS76] Allen Newell and Herbert A. Simon. Computer science as
empirical inquiry: Symbols and search. Communications of
the ACM, 19(3):113–126, 1976.
[RN10] Stuart J. Russell and Peter Norvig. Artificial Intelligence: A
Modern Approach. Prentice Hall, Inc., Upper Saddle River, 2010.
[SB98] Richard S. Sutton and Andrew G. Barto. Reinforcement
Learning. An Introduction. The MIT Press, Ambridge (MA) –
London, 1 edition, 1998.
[Sta60]W.T. Stace. Mysticism and Philosophy. Jeremy P.Tarcher,
Inc., Los Angeles, 1 edition, 1960. (Eine Diskussion hier im Blog findet sich HIER).
[Tur37] Alan M. Turing. Corrections to: On computable numbers, with
an application to the entscheidungsproblem. Proceedings of
the London Mathematical Society, 43:544–546, 1937.
[Tur50] Alan Turing. Computing machinery and intelligence. Mind,
59:433–460, 1950.
[Tur 7] Alan M. Turing. On computable numbers, with an application
to the entscheidungsproblem. Proceedings of the London
Mathematical Society, 42(2):230–265, 1936-7.
[Wes76] Claus Westermann. Schöpfung. Kreuz-Verlag, Stuttgart –
Berlin, 2 edition, 1976.
[ZO98] Erich Zenger and Others. Einleitung in das Alte Testament.
W.Kohlhammer, Stuttgart, 3rd edition, 1998

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

OBJEKTIVE WERTE? Diskussion von Stace’s ’Religion and the Modern Mind’, Teil 3: Kap.4

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
17.Juni 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

ÜBERSICHT

In Fortsetzung der vorausgehenden Teile 1 und 2 wird hier das Kap.4 besprochen. In ihm beschreibt Stace die Entstehung des modernen wissenschaftlichen Weltbildes am Beispiel der Astronomie. Bei genauerem Hinsehen kann man schon hier die ’Bruchstelle’ erkennen, wo heute (mehr als 60 Jahre nach Staces Buch) eine ’Wiedervereinigung’ von Wissenschaft und ’Moral’ (oder gar ’Religion’) nicht nur möglich, sondern geradezu ’notwendig’ erscheint.

I. KAPITEL 4

Gedankenskizze zu Staces Kap.4: Entstehung des neuzeitliches wissenschaftlichen Weltbildes

Gedankenskizze zu Staces Kap.4: Entstehung des neuzeitliches wissenschaftlichen Weltbildes

Entstehung der neuzeitlichen Wissenschaft

Die Entstehung der neuzeitlichen Wissenschaft ist eine langwierige und – wenn man sie voll aufschreiben wollte – eine komplexe Geschichte, die sich, je mehr man sich der Gegenwart nähert, in immer mehr Verfeinerungen aufspaltet und heute den Charakter einer ’großen Unübersichtlichkeit’ hat. Stace konzentriert sich auf ein Thema, lange Zeit das Hauptthema schlechthin, die ’Astronomie’, die Himmelskunde, und entwirft anhand der führenden Wissenschaftler dieser Zeit (15.Jh bis 20.Jh, kleine Rückblicke bis in die klassische Griechische Periode) holzschnittartig ein Bild der Entstehung des Neuen.

Ein Hauptcharakteristikum des neuen wissenschaftlichen Weltbildes ist der Übergang vom dominierenden ’geozentrischen Weltbild’ (die Erde als Mittelpunkt von allem) zum ’heliozentrischen Weltbild’ (die Erde dreht sich um die Sonne; die Sonne ist nicht mehr der einzige Bezugspunkt).

Vorgeschichten sind üblich

Für den Charakter von Weltbildern, die eine Kultur, eine ganze Epoche beherrschen, ist es bezeichnend, dass viele der wichtigen Grundüberzeugungen nicht einfach so ’vom Himmel gefallen sind’, sondern einen meist viele hundert Jahre andauernden ’Vorlauf’ haben, bisweilen tausende von Jahren. So auch im Fall der Diskussion ob ’geozentrisch’ oder ’heliozentrisch’. Schon lange vor dem Beginn der modernen Diskussion um ’geozentrisch’ oder ’heliozentrisch’, nämlich ca. 1800 Jahre (!) vor Kopernikus, gab es zwei griechische Mathematiker und Astronomen (Aristarch von Samos (um -310 bis um -230) und Seleukos von Seleukia (um -190 bis vor -135) ) die aufgrund ihrer Beobachtungen und Berechnungen ein klares heliozentrisches Weltbild vertraten. Für den damaligen ’Main Stream’ war das aber so ’unglaubwürdig’, dass Aristarch in die Rolle eines ’Ketzers’ gerückt worden sein soll, den man wegen ’Gottlosigkeit’ anklagen müsse.

Die Wiederkehr dieses Musters im Fall von Galileo Galilei und noch lange nach ihm (in manchen Teilen von religiösen Strömungen bis in die Gegenwart) mag als Indiz dafür gesehen werden, dass ’herrschende Weltanschauungen’ in ihrem eigenen Selbstverständnis, in ihrer Selbstbegründung, die Tendenz haben, sich ohne wirkliche Begründung ’absolut zu setzen’. Auf den ersten Blick erscheint solch ein Verhalten als ’Schutz der bestehenden Ordnung’, aber bei längerer Betrachtung ist dies ein gefährliches Spiel mit der Wahrheit, das eine ganze Kultur in die Irre und dann in den Abgrund führen kann. ’Sicherheit’ ist kein Ersatz für ’Freiheit’ und ’Wahrheit’.

Die Theoretiker

Bezeichnend für die Entwicklung von etwas Neuem ist auch, dass es letztlich nicht die ’Praktiker’ waren, nicht die ’Datensammler’, durch die das ’Neue’ sichtbar wurde, sondern eher die ’Theoretiker’, also jene Menschen, die über all die vielen ’Phänomene’ ’nachgedacht’ haben, nach irgendwelchen ’Regelhaftigkeiten’, ’Muster’ Ausschau gehalten haben, und die dies letztlich auch nur geschafft haben, weil sie in der Lage waren, die wichtigste Sprache der Menschheit zu benutzen, die es gibt, die Sprache der Mathematik. Kopernikus, Kepler, Galileo, Descartes, Huygens, Newton, Laplace – dies waren Menschen mit einer starken, primären Bildung in Mathematik. Ohne die mathematischen Kenntnisse hätten sie niemals die neue Sicht der Welt entwickeln können.

Andererseits, das gilt auch, ohne die Daten eines Tycho Brahe oder ohne bessere Messgeräte (z.B.Fernrohr), die Handwerker (und heute Ingenieure) bauen und gebaut haben, gäbe es auch nicht die Daten, die Fakten, anhand deren die Theoretiker jene Muster herauslesen konnten, die sie dann in der Sprache der Mathematik soweit ’idealisieren’, ’veredeln’ konnten, dass daraus die neuen unfassbaren Sichten entstanden, mit denen wir auch heute noch die Wirklichkeit um uns herum, das ’Rauschender Phänomene’ gedanklich sortieren, filtern, so neu anordnen können, dass wir darin und dadurch weitreichende Strukturen und Dynamiken erkennen können, die Jahrtausende unsichtbar waren, obwohl sie schon Milliarden Jahre da waren und wirkten.

Politisch Inkorrekt …

Während Kopernikus Zeit seines Lebens nur Ausschnitte aus seinem Hauptwerk ’De revolutionibus orbium coelestium’ veröffentlichte, da er damit rechnen konnte, von der Kirche als Ketzer angeklagt zu werden (der volle Text also erst 1543 erschien), legte sich Galileo Galilei (1564 – 1642) schon zu Lebzeiten mit den Vertretern der Kirche an und bewegte sich immer nah vor einer vollen Verurteilung als Ketzer mit dem dazugehörigen Tod durch Verbrennen.

Theoriebildung – Ein Muster

An der Theoriebildung von Galileo wird eine Eigenschaft sichtbar, die sich auch bei allen späteren wissenschaftlichen Theorien finden wird. Es ist das Moment der ’kreativen Irrationalität’, wie ich es mal nennen möchte. Dieses Moment findet sich in jeder wissenschaftlichen Theorie, und zwar notwendigerweise (Was heute gerne übersehen oder verschwiegen wird.). Seine Experimente zur Bewegung mit Körpern führten ihn zur Formulierung seines ersten Bewegungsgesetzes (das sich später auch in Newtons Hauptwerk ”Philosophiae Naturalis Principia Mathematica” als Teil seiner Mechanik findet) . Es besagt letztlich, dass kräftefreie Körper entweder in Ruhe bleiben oder sich geradlinig mit konstanter Bewegung bewegen (vgl. Stace (1952) [1]:64ff). Als ’Gesetz’ kann man diese Aussage nicht beweisen, man kann nur aufgrund von ’endlichen Daten’ eine ’Vermutung’ äußern, eine ’Hypothese’ formulieren, dass die bekannten Beispiele einen ’Wirkzusammenhang’ nahelegen, der sich eben auf die zuvor formulierte Weise beschreiben lässt. Solange dieser ’hypothetische Wirkzusammenhang’ sich im Experiment ’bestätigt’, so lange ist dieses Gesetz ’gültig’. Es kann im Laufe der Zeit aber auch durch neue, bisweilen ’feinere’ Beobachtungen, in ’Frage gestellt’ werden und dann –was oft geschehen ist – durch neue Formulierungen abgelöst werden.

Wichtig ist die grundlegende Figur, die sich hier zeigt: (i) Es gibt aktuell Phänomene (meistens aus der Vergangenheit), die man ’erklären möchte. Noch fehlen passende ’Regeln’. (ii) Aufgrund eines kreativen, irrationalen Denkprozesses entstehen ’Bilder von möglichen Mustern/ Regeln’, die mit den bekannten Phänomenen so ’passen’, dass man mit diesen Regeln das Auftreten der Phänomene so ’erklären’ kann, dass man ’zukünftige Phänomene’ voraussagen kann. (iii) Man erhebt diese kreativ gewonnenen Regeln in den Status von offiziellen ’Arbeitshypothesen’. (iv) Man macht Experimente mit diesen Arbeitshypothesen und ’überprüft’, ob die Arbeitshypothesen auch bei neuen, zukünftigen Phänomenen ’gültig’ bleiben. (v) Solange sich keine’ widersprüchlichen Befunde’ ergeben, gelten die Arbeitshypothesen als akzeptierte Regel.

Kreativität ist Fundamental – Logik Sekundär

Anders formuliert, mittels eines ’kreativen irrationalen’ Denkprozesses gewinnt man aus gegebenen Phänomenen ’induktiv’/ ’bottom-up’ mögliche ’erklärende Hypothesen’. Sofern man diese hat, kann man ’deduktiv’/ ’top-down’ gezielt Experimente durchführen, um die ’Gültigkeit’ dieser Arbeitshypothese zu überprüfen. Arbeitshypothesen kann man aber ’nicht logisch beweisen’, da dies voraussetzen würde, dass man  über eine noch ’allgemeinere’ Hypothese verfügt, aus der man eine ’speziellere’ Hypothese ableiten kann (So hat sich gezeigt, dass man z.B. die drei Planetengesetze von Kepler durch das spätere Gravitationsgesetz von Newton
als ’Spezialfall’ ’ableiten’ kann). Das menschliche Gehirn verfügt aber als solches nicht ’von vornherein’ (nicht ’a priori’) über irgendwelche allgemeinen Gesetze. Das Gehirn scheint aber sehr wohl in der Lage zu sein, anscheinend beliebig viele (genauer Umfang ist unbekannt) ’Regelmäßigkeiten’, sofern sie sich anhand von Phänomenen zeigen, zu erkennen und weiter zu ’verallgemeinern’. Die Geschichte zeigt, dass das ’Zusammenwirken’ von vielen Gehirnen einerseits den einzelnen bei weitem übertreffen kann, ohne allerdings — andererseits — die kreativ-irrationale Kraft des einzelnen dadurch zu ersetzen. Es bleibt immer ein spannungsvolles Wechselspiel von individueller Kreativität und kulturellem Main-Stream. Individuelle Abweichungen werden eher nicht toleriert, werden eher an die Seite gedrückt. Der ’aktuelle’ Erfolg wirkt stärker als der ’vermeintliche’. Insofern sind Kulturen große ’Echokammern’, die beständig in Gefahr sind, sich selbst zu lähmen.

Entzauberung – Entmystifizierung

Kopernikus, Galileos Fernrohr und Bewegungsgesetze, Keplers Planetengesetze, Newtons Mechanik samt dem Gravitationsgesetz, dies alles verhalf dem Denken durch neue Erklärungsmuster und unter Einsatz der mathematischen Sprache, zu einer Sicht der Dinge, die ein direktes Eingreifen ’anderer Mächte’ oder ’Gottes’ überflüssig erscheinen liesen. Im Fall von Newton ist aber zu beobachten, dass er trotz so großartiger Erklärungserfolge ’in seinem Innern’ noch eine Vorstellung von ’Gott’ hatte, die ihn dazu verleitete, einige Unregelmäßigkeiten bei den Planetenbahnen, die er nicht mit seinen Formeln erklären konnte, dann doch einem ’direkten Wirken Gottes’ zuzuschreiben. (vgl. Stace (1952) [1]:69ff) Es war dann Laplace, der die Unregelmäßigkeiten mathematisch einordnen konnte und der mit einer eigenen Theorie zur Entstehung der Sterne (bekannt als ’Nebularhypothese’) sogar meinte, er habe damit die Annahme Gottes als notwendiger erster Ursache ’erledigt’.

QUELLEN
[1] W. Stace, Religion and the Modern Mind, 1st ed. Westport (Connecticut): Greenwood Press, Publishers, 1952, reprint 1980
from Lippincott and Crowell, Publishers.

Eine Fortsetzung findet sich HIER.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

 

 

KULTUR ALS ECHOKAMMER: Wo ist der Ausgang? Nachbemerkung zum CAES-Symposium Frankfurt 13.Juni 2018

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
14.Juni 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Aufhänger

Nachhall zu einer Veranstaltung gestern mit dem Titel ’Populismus! Gefahr für die Demokratie in Europa?’, veranstaltet vom ’Center for Applied European Studies (CAES)’ der Frankfurt University of Applied Sciences.

Populismus ist wieder da…

Nach den obligatorischen Begrüßungs- und Einleitungsworten entwickelte Prof.Heinisch von der Universität Salzburg in markigen Strichen ein Bild von der Entstehung des Populismus in den letzten Jahren, wie dieser von den Rändern mittlerweile in das Zentrum der Macht gewandert ist. In manchen Ländern Europas (aus unterschiedlichen Gründen) schon sehr weit, in anderen noch eher am Rande. Der Populismus nutzt für sich eine weit verbreitete Unzufriedenheit, die sich naturgemäß in jedem gesellschaftlichen System findet. Mit einer ’ad-hoc-Programmatik’, mit stark vereinfachenden Formulierungen, durch Ausnutzung moderner Kommunikationstechniken infiltrieren populistische Gruppierungen den öffentlichen Bewusstseinsraum, den Alltag der Menschen, in einer Weise, dass schleichend immer mehr diese vereinfachenden Weltsichten über die Medien in sich aufnehmen, selbst wenn sie es gar nicht wollen.

Verstärker, auch ungewollt …

Wer sich bei den Worten von Prof. Heinisch gewundert haben mag, wie das alles so rasch und scheinbar ohne jeden Widerstand vonstatten gehen konnte und auch heute, in unserer Gegenwart, stattfindet,dem lieferte direkt im Anschluss Prof.Dr. Harald Welzer sozialpsychologische Deutungsmodelle, denen man eine gewisse Suggestivkraft nicht absprechen kann. Nach Welzer wirken fast alle Medien und bürgerliche Parteien – gerade auch in ihrer Rhetorik, diese populistischen Strömungen ’kritisch’ die Stirnbieten zu wollen – als überproportionale Verstärker der vereinfachenden sprachlichen Formulierungen dieser Gruppierungen. Die komplizierten Motive und Begründungen der angeblichen kritischen Positionen vergessen fast alle sofort wieder, aber die zu kritisierenden vereinfachenden Floskeln bleiben im Gedächtnis haften. Auf diese Weise sind die vorgeblichen Kritiker paradoxerweise jene, die die anfänglich kleine Gruppe der Populisten täglich verstärken, stark machen, und die ganze Gesellschaft mit den unsinnigen Formulierungen ’falsch programmieren’.

Da war doch was …

Welzer erinnerte an die Zeit der Machtergreifung durch die Nazis. In den ersten Jahren konnte sich keiner vorstellen, dass die Mehrheit der Deutschen die radikalen Positionen der Nationalsozialisten übernehmen würden (z.B. dass man jüdische Mitbürger bei Tage durch die Straßen hochbürgerlicher Wohnviertel unter Beifall eben dieser zu ihrem ’Abtransport’ trieb), aber nach Jahren der Infiltration des Alltags mit einer Wolke entsprechender vereinfachender Gedankenbilder hatten selbst die, die sich nicht wirklich interessierten, die mit ’Wichtigerem’ beschäftigt waren, ’über Nacht’ in bestimmender Weise nur noch diese Floskeln ’im Kopf’ … und plötzlich war denkbar, was vorher undenkbar erschien. Und ausgerechnet die sogenannten ’Akademiker’ waren jene, die sich der neuen Bewegung am schnellsten und am intensivsten ’hingaben’. Ein Wunder?

Es geschieht gerade wieder …

In der aktuellen Situation erleben wir all dies wieder, selbst (oder gerade?) in den sogenannten demokratischen Gesellschaften. Die Infiltration von kleinen und kleinsten Gruppen über die Medien, über provozierende Aktionen, die dann ja doch keine gewesen sein sollen, finden in den Medien und den etablierten Parteien ein überproportionales Echo, so dass schon jetzt viele Menschen genau diese Vereinfachungen inhaliert haben, nicht aber die angeblichen kritischen Motive der Verstärker. Die ganze Fake-News Debatte krankt daran – was Welzer auch eindrücklich darstellte –, dass es den Verbreitern von Fake-News nirgendwo um ’Wahrheit’ und ’Fakten’ geht, sondern nur um Aufmerksamkeit, um Infiltration des Bewusstseins der Menschen in ihrem Alltag, was die Populisten auch bestens erreichen, während die Medien in ihrer naiven Aufgeklärtheit unterm Strich letztlich nur Werbung machen für diese Gruppen.

Die aktive Gleichgültigkeit gegenüber möglicher ’Wahrheit’ findet – wieder einmal – wenig Widerstand durch die akademische Welt, durch die Wissenschaften. Die moderne Hochleistungswissenschaft ist in eine Vielzahl von spezialisierten – und darin fragmentierten – Weltbildern zerfallen; ein allgemein geteiltes Menschenbild gibt es aktuell nicht. Ansätze, eines aus all den Mosaiksteinen zusammen zu setzen, sind kaum erkennbar. Die Wissenschaft selbst ist sich des Leitbegriffs ’Wissenschaft’ nicht mehr sicher; kaum ein Wissenschaftler ist mehr in der Lage, zu formulieren, was Wissenschaft eigentlich ist, wie sie sich (wissenschaftsphilosophisch) in das Gesamt von Weltwissen und Weltgesellschaft einordnet; eine Kommunikation zwischen den Disziplinen findet kaum statt und auch die wenigen Ansätze, die es gibt, leiden an erheblichen ’Sprachstörungen’. Diese Form von Wissenschaft ist schon jetzt ’verloren’. Sie hat aufgrund ihres defizitären Selbstverständnisses schon jetzt jeder Form von Populismus nichts entgegen zu setzen. Auch ’Esoterik’ ist eine Form von Populismus, und die Zahl von Akademikern (auch solche mit Doktortiteln), die keine Probleme haben, völlig haltlose Anschauungen über die Welt, über die Wirklichkeit zu vertreten, ist nicht gering. Ihr Studium hat sie nicht dazu befähigt, auch nur ansatzweise ’Wahres’ von ’Falschem’ zu unterscheiden.

Betriebssystem Demokratie …

Das ’Betriebssystem’ demokratische Gesellschaft hat – zumindest nach dem Buchstaben der Verfassung und den vielen ungeschrieben Erfahrungen, die zur demokratischen Verfassung geführt haben – sehr viele Voraussetzungen, damit es funktionieren kann. Neben der schon erwähnten Öffentlichkeit sind z.B. die Parteien vorgesehen als wichtiger Vermittler, als Transformator zwischen der Vielfalt des Alltags eines jeden und den exekutiven Prozessen der Machtausübung. Doch die etablierten Parteien mit ihrer komplexen und umfassenden Programmatik, ihren schwerfälligen hierarchischen Strukturen, ihrer mittlerweile hohen Verzahnung mit diversen Machtzirkeln, die unabhängig von der Öffentlichkeit massiv Einfluss nehmen, diese Parteien wirken auf die Bürger zunehmend unbefriedigend, fern, korrupt, selbstvergessen; ein Eindruck, der falsch sein kann, vielen Politikern vielleicht Unrecht tut, aber die Prozesse der Partizipation stottern. Massive Defizite im konkreten Alltag der Mehrheit der Menschen schwächen täglich die notwendige Vertrauensbasis. Klare, überzeugende, effektive politische Maßnahmen fehlen; sie zerbröseln in den Kämpfen um Macht, Anerkennung, Geld, Angst um Wiederwahl; auch mangelnde Kompetenz bei vielen Politikern kommt dazu. Die hier täglich genährte Unzufriedenheit, lange Zeit unsichtbar, ist ein guter Nährboden für die vereinfachenden Parolen der Populisten, für ihr programm-freies ad hoc Taktieren im Alltag, sie haben nichts zu verlieren, aber alles zu gewinnen.

Ein anderes Denken?

Was offensichtlich fehlt, das sind die ’alternativen Bilder’ zur Erklärung der Welt, überzeugende Visionen, wirkende Maßnahmen. Noch haben zumindest in Deutschland und Frankreich (und wo noch?) die Nichtpopulisten die Mehrheit und die Macht. Aber wenn sie (wie insbesondere die CSU) wie das berühmte ’Kaninchen auf die Schlange’ starren, die Schlange sogar noch übertreffen wollen, weil sie selbst kein wirkliches Selbstvertrauen mehr haben (!!!), dann ist es nur noch eine Frage der Zeit, bis auch in Deutschland die Populisten wieder die Mehrheit haben. Waffengewalt oder überhaupt Gewalt ist dazu gar nicht notwendig. Die ’Umprogrammierung der Gehirne’ findet lautlos statt, jeden Tag, im ordinären Alltag, durch die Art, wie wir miteinander reden. Wenn wir jeden Tag immer nur über Fragmente von Flüchtlingen reden und all die wirklich wichtigen Probleme bei Seite lassen, dann glauben irgendwann alle daran, weil sie nichts anderes mehr in ihrem Kopf haben. Irgendjemand sprach von einer notwendigen ’Re-Politisierung’ der Bürger … aber die findet schon längst statt, nur anders, als der Sprecher wohl gemeint hat, durch den täglichen Populistensprech, den viele Medien und Internetportale jeden Tag,stündlich servieren; das ist leichter und billiger als anspruchsvolle Informationen und Gedanken…

Kultur als Echokammer?!

Einige Zeit berauschten sich die Verteidiger der Demokratie an dem Befund, dass die neuen sozialen Netzwerke wie ’Echokammern’ wirken, in denen sich Gleichgesinnte treffen, um ihre Vor-Urteile zu pflegen. Allerdings wusste so recht niemand, wie man die ’Gefangenen der Echokammern’ aus ihren Echokammern ’befreien’ könnte. In dieser Debatte blieb unausgesprochen, dass alle menschlichen Gruppierungen letztlich das ’Prinzip Echokammer’ praktizieren, nur wurde es bislang nicht so benannt.Die berühmten ’Wirtshausstammtische’, jede religiöse Gemeinschaft, jede Partei, die Unterrichtspläne, jede wissenschaftliche Disziplin, jede Firma … letztlich eine ganze Kultur praktiziert nichts anderes als dieses: einen Raum von Anschauungen und Formulierungen aufspannen und diesen dann dazu zu benutzen, um die Zugehörigkeit zu einer bestimmte Gruppierung daran zu knüpfen, dass man genau diese Anschauungen und Formulierungen ’pflegt’.

Im Alltag werden daher ’normalerweise’ genau die am meisten belohnt, die sich dieser Vorgabe am meisten und am besten ’anpassen’. Das Wort von der ’politischen Korrektheit’ hat jeder schon gehört, das Wort von den ’gesellschaftlichen Gepflogenheiten’, von den ’guten Sitten’, ’das macht man nicht’, ’Knigge’, du bist ’CDU-ler/ SPD-ler/ … Du musst X vertreten, das erwartet die Partei von Dir … Dies sitzt so tief in unserem sozialen Leben, ist so allgegenwärtig, dass es uns im Normalbetrieb kaum auffällt. Aber wenn jetzt eine neue Gruppe auftritt, die bislang ’am Rande’ war, die sich mit einer besseren Kommunikationsstrategie ’effektiver’ in das Bewusstsein der Menschen ’hinein arbeitet’, dann regen sich alle anderen auf … allerdings nur am Anfang. Nach einer gewissen Zeit ist die neue Gruppe assimiliert und sie ist eine weitere Variante von spezieller Echokammer im Sammelsurium von Echokammern, die wir Kultur nennen.

Echokammern kommen mit einem Minimum an Wahrheit aus. Wahrheit ist grundsätzlich zu kompliziert, zu anstrengend, und wird immer sehr schnell an ’Spezialisten’ delegiert: die Wissenschaft, die macht das schon, lasst uns damit in Ruhe. Wir wollen leben und regieren.

Es ist kein Zufall, dass Kultur noch nie in ihrer Geschichte am Begriff ihrer ’Wahrheitsfähigkeit’ gemessen wurde. Man weiß viel über Sprachen, Architektur, politische Formate, Formen des Handelns und Produzierens, berauscht sich an Mode … aber ob und wie eine Kultur ’wahrheitsfähig’ sein kann, und zwar nachhaltig wahrheitsfähig, das war bislang nie so recht Thema.

Wenn schon Echokammern das Grundmuster aller Kulturen sind, ihr eigentliches ’Betriebssystem’, welche Vorkehrung müsste dann eine Gesellschaft treffen, um sich selbst immer wieder aus ihren eigenen Echokammern zu befreien?

Die Evolution, die Mutter aller heutigen Gesellschaften, hat das Ausbrechen aus gewohnten Bahnen als substantielles Element in ihre Entwicklungslogik eingebaut: Erinnerung + Freiheit + ein großes Maß an Experimenten mit dem Unbekannten haben bislang in 3.8 Milliarden Jahren dafür gesorgt, dass das Leben auf der Erde nicht nur die größten vorstellbaren Katastrophen überstehen konnte, es hat sich sogar in seiner inneren Komplexität unfassbar weiter entwickelt, soweit, dass wir Menschen als homo sapiens bislang nicht in der Lage sind, unsere eigene Komplexität voll zu durchschauen.  Wir sind uns selbst bislang mehr unbekannt als bekannt.

Wenn Prof. Michel Friedmann, der charismatische Leiter des CAES, während des  Symposiums  mehrfach wie ein Heroe aus alten Zeiten das flammende Schwert der Grundwerte – insbesondere der ’Würde’ des Menschen – hoch hielt, dann könnte man versucht sein, zu lächeln. ’Würde’? Wer weiß noch, was das ist? (Anmerkung:
Es sei hier u.a. an die mehrteilige Diskussion zum Buch von Paul Tiedemann in diesem Blog erinnert. Selbst Justitia hat mit diesem Begriff ein Problem.)  Aber, andererseits hat Prof. Friedmann  natürlich recht: einer kulturellen Echokammer der Nicht-Werte kann man nur entkommen, wenn man sich möglicher Alternativen real aussetzt. Und, so verquer es klingen mag, es ist genau der Mensch selbst, der sich selbst abhanden gekommen ist. … oder haben wir uns vielleicht noch nie ’gehabt’ und wir merken es erst heute,jetzt? Als jemand vor vielen hundert Jahren erzählte, dass sich die Erde um die Sonne bewegt, war es zunächst ’nur‘ ein   ‚Gedanke‘, dann aber mit weitreichenden Folgen.  Welche Sonnen müssen wir  entdecken, um uns heute aus den kulturellen Echokammern falscher Menschenbilder und wahrheitsfreier Meinungen zu befreien?

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

OBJEKTIVE WERTE? Diskussion von Stace’s ’Religion and the Modern Mind’ Teil 2: Kap.3

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062
10.Juni 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

 

ÜBERBLICK

Der Philosoph W.T.Stace ist in diesem Blog bekannt durch die Besprechung seines Buches ’Mysticism and Philosophy’ [1]. Er hatte aber schon 1952 [2] ein interessantes Buch veröffentlicht, in dem er den Übergang vom mittelalterlich-religiösen Weltbild zum modernen, von der Wissenschaft geprägten Weltbild, skizziert hatte. Dies ist im Jahr 2018 von besonderem Interesse, da wir zur Zeit erleben, wie das wissenschaftliche Weltbild sich selbst in eine tiefe Krise stürzt und die ’unverdauten Reste’ vor- wissenschaftlicher Weltbilder wieder erstarken. Krisen können bedrohlich wirken, sie können zerstörerisch sein, sie können aber auch als Chance begriffen werden, die Mängel des bisherigen wissenschaftlichen Weltbildes besser zu verstehen. Letzteres kann möglicherweise der Ausgangspunkt für eine ’Erneuerung’ des wissenschaftlichen Denkens bilden, das seine Schwächen durch ein verbessertes Selbstverständnis überwinden kann. Im Teil 2 wird Kap.3 besprochen (In Teil 1 wird fehlerhaft von Kap.1-3 gesprochen; tatsächlich waren es Kap.1-2)

I. KAPITEL 3

Stace Kap.3 (1952), rekonstruiert als Mind-Map von G.Doeben-Henisch]{Stace Kap.3 (1952), rekonstruiert als Mind-Map von G.Doeben-Henisch

Stace Kap.3 (1952), rekonstruiert als Mind-Map von G.Doeben-Henisch

In diesem Kapitel 3 kontrastiert Stace das mittelalterliche (christliche) mit dem neuzeitlich- wissenschaftlichen Denken zu den Themen ’Gott als letzte Ursache’, ’Teleologisches Ziel der Welt’ und ’Moralische Ordnung (Werte)’ (vgl. das Schaubild 1).

Während das mittelalterlich-christliche Denken von einer bestehenden moralischen Ordnung ausgeht, die in einer alles umfassenden Absicht eingebettet ist, die letztlich auf einen alles ermöglichenden ’Gott’ zurückgeht, beginnt spätestens im 16.Jahrhundert eine neuzeitlich-wissenschaftliche Sicht der Welt Raum zu greifen. In dieser auf nachweisbaren kausalen Beziehungen gründenden Sicht relativieren sich alle Dinge zu überschaubaren kausalen Netzwerken; Aussagen über Eigenschaften und Beziehungen, die über das direkt Kausal-Nachweisbare hinausgehen verlieren ihre Akzeptanz. ’Werte’ werden zurück gebunden an konkrete Menschen und deren individuellen Befindlichkeiten, die man als ’relativ’ betrachtet, nicht mehr ’absolut’. Die Ausdehnung auf größere ’Gruppen’ (Stämme, Völker, …) hebt die grundlegende Relativität nicht auf.

Eine schwer kontrollierbare Wendung bringen Vorstellungen von einer ’kosmischen Absicht’, einem ’universellen Geist’, sofern diese sich nur ’indirekt (immanent)’ manifestieren, womöglich noch verschattet von unserem Un-Bewussten, das einen viel größeren Bereich unseres Körpers abdeckt als der bewusste.

II. DISKURS

Die klare Konturierung von mittelalterlich-christlichem und neuzeitlich-wissenschaftlichem Denken zu den genannten Themen geht – wie Stace selbst bemerkt – auf Kosten von Genauigkeit und vielen Details. Ohne die vielen Fragen, die sich hier stellen, schon zu diskutieren (siehe nachfolgende Teile), sei nur auf folgende Punkte hingewiesen.

A. Gefühle

Gefühle sind streng genommen nicht einfach ’subjektiv’, sondern haben in der Regel ’objektive Ursachen’, die auf objektive Prozesse verweisen. Manche dieser Prozesse sind komplexer Natur und erschließen sich erst bei der Analyse von ’Zeitreihen’.

In neueren Spielarten der christlichen Spiritualität und Mystik quasi parallel zum Entstehen des neuzeitlichen Denkens war eine solche Sicht üblich (z.B. in der Spiritualität des Jesuitenordens). Die Hintergrundannahme, dass es einen ’Gott’ gibt, war das mittelalterliche Erbe. Durch die Verknüpfung mit einem empirischen Erfahrungsansatz des eigenen Fühlens, wodurch Gott mit Menschen direkt interagieren kann, nicht ’kausal-deterministisch’, sondern ’kausal-nicht deterministisch’ (’sine cause’), in Abstimmung mit anderen Menschen und dem übrigen Weltwissen, veränderte sich aber der zuvor unnahbar transzendente Begriff Gottes zu einem nahbaren, partiell empirisch kontrollierbaren Begriff. Diese eigentlich revolutionäre Veränderung der christlichen Spiritualität wurde aber bis heute dadurch verdeckt, dass die kirchliche hierarchische Autorität mit ihrer papalen Verfassung die Anerkennung von individuellen Erfahrungen als ’heilsrelevant’ grundsätzlich verweigert. Dies ergibt sich nicht nur aus dem kirchenrechtlich fixierten Sachverhalt, dass alle offiziellen spirituellen Gemeinschaften dem jeweiligen Papst einen absoluten Gehorsam schulden, sondern grundlegend aus der kirchlichen Lehre, dass es nach dem Tod Jesu keine neuen öffentlichen Offenbarungen Gottes mehr geben wird.

(Anmerkung 2: Im offiziellen Text des II.Vatikanischen Konzils von 1965 lautet die Formel dazu ”… et nulla iam nova revelation publica expectanda est ante gloriosam manifestationem Domini nostri Iesu Christi”.(Siehe: [3], Kap.1, Nr.4) )

 

B. Kausale Erklärungen

Sosehr das neuzeitliche wissenschaftliche Denken mit der Vorstellung verknüpft wird, dass seit Galileo und Newton (um nur die prominentesten Namen zu nennen), das wissenschaftliche Denken ein ’kausales Denken’ sei, das sich in jedem Einzelfall empirisch bestätigen lassen können soll, so falsch, oder zumindest ’grob vereinfachend’ ist diese Ansicht.

Was die moderne empirischen Wissenschaften haben, das ist eine klare Trennung zwischen ’Messwerten’ und ’interpretierenden Modellen’. Damit einher geht aber auch die wachsende Einsicht, dass es keinen irgendwie gearteten Automatismus gibt, um von Messwerten zu einem geeigneten interpretierenden Modell zu kommen. Rein formal ist die Menge der möglichen Modelle quasi unendlich. Nur durch die Rückkopplung des unendlich formalen Raumes an ein konkretes, endliches Gehirn mit meist endlich vielen, sehr überschaubaren Vorstellungsmustern zum Zeitpunkt der Theoriebildung, verringert den Raum des ’Denkbaren’ dramatisch; doch ist dieser reduzierte Denkraum immer noch ’groß’.

Welches nun tatsächlich ein ’angemessenes Modell’ ist, das sich experimentell ’bestätigen’ lässt, dafür gibt es keine absolute Kriterien, sondern muss ’ausprobiert’ werden (’trial and error’). Dass es hier zu schweren Fehlern kommen kann, hat die Geschichte mehrfach eindrucksvoll gezeigt, und liegt auch in der Natur der Sache. Der einzige ’harte’ Referenzpunkt ist die ’erfahrbare Realität’, und diese ist, so wie wir sie vorfinden, inhärent ’unbekannt’, ’komplex’, ’mindestens endlich unendlich groß’. Kein menschlicher Forscher hat ’vorweg’ (’a priori’) ein irgendwie geartetes Wissen von dem großen Ganzen. Der Kampf um das ’Unbekannte’ erfordert höchsten Einsatz und ist ohne massiven und kreativen Einsatz von ’Fehlern’ (!) nicht zu gewinnen.

Wenn man also ein ’absolutes’ Wissen ablegt und sich auf das ’Objektive’ verlegen will, dann gerät man zunächst unweigerlich in das Fahrwasser von ’Relativität’. Andererseits, diese wissenschaftliche Relativität ist deutlich zu unterscheiden von ’Beliebigkeit’! Die Objektivität als primäre Form der Wirklichkeit für wissenschaftliche Erkenntnis wird letztlich als eine ’absolute Größe’ angenommen, die wir mit unseren beschränkten Mitteln aber nur häppchenweise erkenn können. Doch sind diese ’Häppchen’, sofern sie die unterstellte ’absolute Objektivität’ treffen, in diesem angenommenen Sinn auch ’absolut objektiv’, allerdings im Modus einer ’relativen Absolutheit’. Während man in einer allgemeinen Beliebigkeit nichts voraussagen kann, erlaubt eine ’relative Absolutheit’ (die wissenschaftliche Objektivität) weitreichende Voraussagen im Rahmen der Übereinstimmung mit der relativen Absolutheit und im Rahmen der Eigenart der erkannten Sachverhalte. Diese Bewegung von der relativen Absolutheit der aktuellen Erkenntnis zu einer immer ’absoluteren Absolutheit’ stellt keinen vollen Gegensatz dar zu  einem alles bestimmenden ’kosmischen Prinzip’.

Allerdings verwandelt die relative Absolutheit alle Menschen in gleicherweise Suchende. Grundsätzlich erlaubt diese Art der Erkenntnissituation keine ’absoluten Führer’, auch irgendwelche ’Klassen’ oder ’Kastenbildungen’ sind in diesem Kontext ’irrational’.

QUELLEN

[1] W. Stace, Mysticism and Philosophy, 1st ed. 2 Los Angeles (CA): Jeremy P.Tarcher, Inc., 1960.
——, Religion and the Modern Mind, 1st ed. Westport (Connecticut): Greenwood Press, Publishers, 1952, reprint 1980 from Lippincott and Crowell, Publishers.
[3] H. S. Brechter and et.al, Eds., II. Vatikanisches Konzil. Dogmatische Konstitution über die Göttliche Offenbarung, 2nd ed. Freiburg – Basel – Wien: Herder Verlag, 1967.

Zur Fortsetzung geht es HIER.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

SCHÄTZING: TYRANNEI DES SCHMETTERLINGS. KOMMENTAR: DEN ZEITGEIST DURCHBUCHSTABIERT – Über den Stil kann man streiten.

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
16.Mai 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Den folgenden Text hatte ich als Buchbesprechung zu Schätzings neuem Buch auf der Verkaufsseite des Buches bei amazon veröffentlicht. Es geht tatsächlich um eine Sachlage, um die Sachlage von uns Menschen. Hier der Link auf meine Besprechungsseite bei amazon.

KRITISCHE REZENSIONEN

Wer vor der Lektüre von Schätzings neuem Roman „Die Tyrannei des Schmetterlings. Roman. Kiepenheuer & Witsch, 736 Seiten“ versucht hat, Rezensionen zu diesem Buch zu lesen, der wird wenig ermutigt sein, sich diesem Buch zu widmen. In angesehenen Zeitungen finden sich Verrisse wie die von Jan Wiele (FAZ), 25.4.2018, Elmar Krekeler (Die Welt, 27.4.2018), Gerhard Matzig (SZ, 28.4.), und Alard von Kittlitz (Die Zeit, 5.5.2018). Ähnlich kritisch (wenngleich auch mit unterschiedlichen Argumenten) die Mehrheit der Reaktionen bei den Lesermeinungen zum Buch auf amazon. Bei amazon finden sich dann zwar auch positive Stimmen, aber aus ihnen kann man nicht so recht entnehmen, warum das Buch positiv ist. Von all diesen verrissartigen Besprechungen hebt sich wohltuend die ausführliche Besprechung von Peter Körting ab (FAZ, 24.4.2018). Sehr sachlich, sehr differenziert und sehr ausführlich gibt er einen Überblick über die Struktur des Romans, benennt Schwächen, lässt die Stärken nicht aus, und überlässt es dem Leser, zu einem endgültigen Urteil zu kommen.

STANDPUNKT DES REZENSENTEN

Ich hatte im Vorfeld den Verriss von Jan Wiele zum Buch gesehen, zwei Talkshows mit Schätzing, in denen die üblichen Klischees zu Künstlicher Intelligenz ausgetauscht wurden, und hatte nach dem begeisternden ‚Schwarm‘ zwei nachfolgende Romane von ihm nur mit Unlust zu Ende gebracht. Sein tendenziell schwulstiger Stil mit vielen Längen, dazu relativ flache Personenprofile, ist nicht unbedingt mein Stil. Dazu kommt, dass ich ein Experte in Sachen Künstlicher Intelligenz und angrenzender Themenfelder bin, seit mehr als 30 Jahren, und die Signale, die das Buch im Vorfeld aussendete, waren eher dazu angetan, es nicht auf die Leseliste zu setzen. Aber, zum Glück, ist das Leben trotz aller Pläne und Steuerungen doch immer noch von Zufällen geprägt: meine Frau bekam das Buch als Hörbuch zum Geburtstag geschenkt und aktuell anstehende lange Autofahrten brachten mich in eine Art Schicksalsgemeinschaft mit diesem Buch.

REINKOMMEN

Die ersten Minuten des Hörbuchs waren bei meiner Voreinstellung eine harte Prüfung: ein erhebliches Wortgetöse für eine Situation, die man mehr erahnen als verstehen konnte, mit einem abrupten harten Schnitt, der den Hörer von einem afrikanischen Land direkt nach Nord-Kalifornien, ins Land des Silicon Valley, führte. Die geringen Ausweichmöglichkeiten einer langen Fahrgemeinschaft hielten mich dann – glücklicherweise – fest, und ich konnte in der Folge minutenweise, stündlich erleben, wie sich aus einer scheinbaren Idylle langsam ein Thriller entwickelte, der bis zum Schluss (verteilt über mehrere Fahrten) häppchenweise an Dramatik zulegte. Nach ca. drei-viertel des Hörbuchs bin ich dann auf die Ebook-Version umgestiegen, da das dann einfach schneller ging.

ÄSTHETISCHE VERPACKUNG VON IDEEN

Die große Masse der Rezensionen arbeitet sich stark an der ästhetischen Verpackung ab, kritisiert die vielen Wortungetüme oder scheinbare ‚Slangs‘, die dem deutschen Bildungsbürger abartig erscheinen, leidet an empfundenen Längen, findet die Personen nicht so dargestellt, wie man selbst sie gerne sehen würde …. aber das ist weitgehend wirklich Geschmackssache und sagt nicht wirklich etwas über die ‚Botschaft‘, die in diesem Buch mutig und – man muss es schon mal hier sagen – ‚genial‘ verpackt wurde.

DER ZEITGEIST UND KÜNSTLICHE INTELLIGENZ

Während Experten im Bereich künstliche Intelligenz sich mit den Themen mindestens seit der Mitte des vorausgehenden Jahrhunderts intensiv beschäftigen, wurde die deutsche Öffentlichkeit so richtig erst seit der Cebit 2016 mit diesen Themen überrollt. Mit einem Mal besetzte das Thema ‚künstliche Intelligenz‘ nach und nach alle Medienkanäle, fortan täglich, stündlich. Es waren nicht unbedingt die Forscher selbst, die sich hier artikulierten, sondern vorwiegend die Marketingabteilungen der großen Konzerne, die verkaufen wollten, und die vielen Journalisten, die kaum etwas verstanden, aber nichts desto trotz als ‚Verstärker‘ der Marketingabteilungen viele Schlagworte in die Welt setzten, ohne sie wirklich zu erklären.

Während sich die Öffentlichkeit mit möglichen Schreckgespensten wie einer neuen kommenden Arbeitslosigkeit beschäftigte, das – in der Tat ungute – globale Ausspähen zum Thema machte, die Politik Digitalisierung und Industrie 4.0 propagierte, bunte lustige Filmchen von Robotern herumgereicht wurden, die merkwürdig aussahen und merkwürdige Dinge taten, blieb die ‚wahre Natur‘ von künstlicher Intelligenz, die rasant voranschreitende Forschungen zu immer komplexeren Steuerungen, Vernetzungen, und vor allem zur Kombination von künstlicher Intelligenz und Mikrobiologie, vor allem Genetik, weitgehend unsichtbar. Neueste Erkenntnisse zur Evolution des Lebens, zur Astrophysik, die weitgehende Auflösung aller alten Menschenbilder samt einer damit verbundenen Auflösung aller bekannten Ethiken wurde nie und wird immer noch nicht offiziell in der Öffentlichkeit diskutiert. Das weltweit zu beobachtende Phänomen von neuen, starken Strömungen in Richtung Populismus, Fanatismus, Nationalismus, verbunden mit stark diktatorischen Zügen ist – in diesem Kontext – kein Zufall.

In einer solchen Situation ist es wichtig, dass man anfängt, die vielen scheinbar isolierten Einzelphänomene aus ganz unterschiedlichen Bereichen in ihrem Zusammenhang sichtbar zu machen, in ihrer tatsächlichen Dynamik, in ihrer möglichen synergistischen Logik, ansatzweise verstehbar ohne die vielen komplexen Details, die ja selbst die Fachwissenchaftler kaum verstehen. Ich gebe offen zu, dass ich selbst – als Fachexperte – schon mehrfach erwogen hatte, etwas Populäres zu schreiben, um die komplexen Sachverhalte irgendwie verständlicher zu machen. Ich bin aber über erste Plots nicht hinaus gekommen. Ich fand einfach keinen Weg, wie man diese Komplexität erzählbar machen kann.

JENSEITS DER EINZELFAKTEN

Sieht man von den ästhetischen Besonderheiten des Textes bei Schätzing ab (die einen finden seinen Stil gut, andere leiden), dann kann man im Verlaufe seiner Schilderungen nicht nur eine erstaunliche große Bandbreite an technischen Details kennenlernen, die den aktuellen und denkbar kommenden Forschungsstand sichtbar machen, sondern er vermag es, diese vielen Details in funktionale Zusammenhänge einzubetten, die nicht so ohne weiteres auf der Hand liegen und die sich so auch in kaum einer anderen Publikation finden, nicht in dieser Explizitheit. In seinem Text offenbart er eine innovative, kreative Kraft des Weiter-Denkens und des Zusammen-Denkens, die beeindruckend ist, die sehr wohl zu weiterführenden und intensiven Diskussionen geeignet sein könnte.

PARALLEL-UNIVERSEN

Verglichen mit dem mittlerweile schon abgedroschen wirkendem Stilmittel der Zeitreisen eröffnet seine Verwendung der Idee von Parallel-Universen viele neue, interessante Szenarien, die erzählerisch zu ungewohnten, und darin potentiell aufschlussreichen, Konstellationen führen können. Wissenschaftlich ist dieses Thema hochspekulativ und in der Art der Umsetzung wie bei Schätzing eher extrem unwahrscheinlich. Erzählerisch eröffnet es aber anregende Perspektiven, die viele philosophisch relevante Themen aufpoppen lassen, einfach so, spielerisch. Ob es Schätzing gelungen ist, dieses Stilmittel optimal zu nutzen, darüber kann man streiten. In seinem Text eröffnet dieses Stilmittel allerdings eine Diskussion über alternative Entwicklungsmöglichkeiten, die ohne das Stilmittel Parallel-Universen, wenn überhaupt, nur sehr umständlich hätten diskutiert werden können.

CYBORGS

Was Schätzing hier mit vielen Beispielen zum Thema ‚Design von neuen biologischen Strukturen‘ schreibt, ist in so manchem Entwicklungslabors Alltag. Die Fassade einer Ethik, die es inhaltlich gar nicht mehr gibt, verhindert in manchen Ländern die offizielle Forschung mit neuen molekularbiologischen Strukturen, aber sie passiert trotzdem. Unterstützt durch Computer mit immer leistungsfähiger Software werden immer schneller immer neuere biologische Strukturen geschaffen, die mit anderen Technologien (z.B. Nanotechnologie) verknüpft werden. Und der Einbau von künstlicher Intelligenz in biologische Strukturen (die als solche ja schon unterschiedliche Formen von Intelligenz haben) ist in vollem Gange. Aktuell sind diese Spezialentwicklungen. Es ist das Verdienst von Schätzing, beispielhaft Zusammenhänge zu denken, in denen sich diese Spezialentwicklungen im größeren Kontext zeigen und was sie bewirken können, wenn Geld und Macht gezielt genutzt werden, um sie bewusst zu nutzen. Diese Art von Science Fiction ist unserer Gegenwart erschreckend nahe.

SUPERINTELLIGENZ

Während heute selbst seriöse Forscher immer öfter über die Möglichkeit von technischen Superintelligenzen nachdenken, ist das Verständnis einer solchen Technologie bislang noch nicht wirklich da. Es gibt bis jetzt ja noch nicht einmal eine allgemein akzeptierte Definition von ‚künstlicher Intelligenz‘. Das Ausweichen auf den harmloser klingenden Ausdruck ‚maschinelles Lernen‘ löst das Problem nicht. Die Wissenschaft hat bislang keine klare Meinung, was sie wirklich unter einer ‚künstlichen Intelligenz‘ verstehen soll, geschweige denn, was eine ‚Superintelligenz‘ sein soll, eine solche, die die ‚menschliche Intelligenz‘ deutlich übertrifft. Erstaunlich ist in diesem Zusammenhang, dass auch die sogenannte ‚menschliche Intelligenz‘ nach ungefähr 150 Jahren Intelligenzforschung noch nicht vollständig geklärt ist. Gemeinsam ist allen Positionen, dass man den Menschen in seiner aktuellen biologischen Verfassung bezüglich Datenmenge und Geschwindigkeit der Verarbeitung von Daten einer potentiellen Maschine gegenüber als hoffnungslos unterlegen ansieht. Aus diesen sehr äußerlichen Kriterien leitet man ab, dass eine solche Maschine dann ‚irgendwie‘ den Menschen auch in Sachen ‚Intelligenz‘ haushoch überlegen sein wird.

Schätzing kann das Fehlen wissenschaftlicher Erklärungen zu künstlicher Intelligenz nicht ersetzen, aber als innovativ-kreativer Geist kann er literarisch ein Szenario erschaffen, in dem ansatzweise sichtbar wird, was passieren könnte, wenn es eine solche maschinelle Superintelligenz gäbe, die über Netze und steuerbare Körper mit der Welt verbunden ist. Es ist auch bemerkenswert, dass Schätzing sich dabei nicht von technischen Details ablenken lässt sondern den Kern des Super-Intelligenz-Problems im Problem der ‚Werte‘, der ‚Präferenzen‘ verortet. Das, was heute weltweit als ‚künstliche Intelligenz‘ propagiert wird, ist in der Regel noch weitab von einer ‚vollen künstlichen Intelligenz‘, da diese ‚gezähmten Intelligenzen‘ nur innerhalb eng vorgegebener Zielgrößen lernen und dann agieren dürfen. Andernfalls könnten die Firmen die Zuverlässigkeit des Betriebs nicht garantieren. Jene wenigen Forschungsgruppen, die sich mit echten ‚ungezähmten‘ künstlichen Intelligenzen beschäftigen (z.B. im Bereich ‚developmental robotics‘), stehen vor dem riesigen Problem, welche Werte diese offen lernenden Systeme haben sollten, damit sie tatsächlich ‚autonom‘ ‚alles‘ lernen können. Aktuell hat niemand eine befriedigende Lösung. Und diese Forschungen zeigen, dass wir Menschen über die Art und Weise, wie wir selbst Werte finden, entwickeln, benutzen bislang kein wirklich klares Bild haben. Das bisherige Reden über Ethik hat eher den Charakter einer ‚Verhinderung von Klärung‘ statt einer offenen Klärung.

Schätzing wagt es sogar, über das mögliche Bewusstsein einer solchen maschinellen Superintelligenz zu spekulieren. Dies ist nicht abwegig, es ist sogar notwendig. Aber auch hier zeigt sich, dass wir Menschen unsere eigenen Hausaufgaben noch lange nicht gemacht haben. Auch das Thema ‚Bewusstsein‘ ist weder von der Philosophie noch von den unterstützenden empirischen Wissenschaften bislang gelöst. Es gibt viele hundert Artikel und Bücher zum Thema, aber keine allgemein akzeptierte Lösung.

Ich finde es daher gut und mutig, dass Schätzing in diesem Zusammenhang es wagt, das Thema anzusprechen. Künstliche Intelligenzforschung kann ein wunderbarer Gesprächspartner für Psychologen, Neuropsychologen und Philosophen sein. Leider wissen die jeweiligen Gesprächspartner aber oft zu wenig voneinander.

DEN ZEITGEIST DURCHBUCHSTABIERT

Nimmt man alle Einzelheiten zusammen, würdigt die vielen kreativ-innovativen Zusammenhänge, die Schätzing sichtbar macht, schaut sich an, wie er es schafft, das schwierige Thema ‚maschinelle Superintelligenz‘ in einem größeren komplexen Kontext in Szene zu setzen, dann bin ich bereit, zu konzedieren, dass dies eine tatsächlich geniale Leistung ist. Er kondensiert die vielen losen Fäden zu einem Gesamtbild, das unserer tatsächlichen und der sehr bald möglichen Zukunft sehr nahe ist, und macht deutlich, dass hier ein erheblicher Diskussionsbedarf besteht, und zwar über alle Positionen und Fachgrenzen hinweg. Ich kenne kein Buch, das in der aktuellen Situation auch nur ansatzweise literarisch das leistet, was Schätzing hier vorgestellt hat. Ich kann nur hoffen, dass diesem Aufschlag von Schätzing noch viele Reaktionen folgen (allerdings bitte nicht als billiger Verriss).

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

MEMO ZUR PHILOSOPHIEWERKSTATT So, 27.Mai 2018 – VOM MESSWERT ZUM MODELL (2)

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062 28.Mai 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

INHALT

I Aufgabenstellung

II Gespräch

II-A Hypothese: Psychotherapie ist eine empirische Wissenschaft

II-B Fallbeschreibung

III Nach-Überlegungen

Überblick

Bericht zum Treffen der Philosophiewerkstatt vom 27.Mai 2018 mit weiterführenden Interpretationen vom Autor. Weitere Feedbacks, Kommentare sind willkommen.

I.  AUFGABENSTELLUNG

Für die Philosophiewerkstatt am 27.Mai 2018 ab es eine Einladung, die auch Links auf die Vorgeschichte umfasste. 1 Die gedankliche Kette reicht von der ursprünglichen Fragestellung, ob man Psychoanalytiker/ Psychotherapeuten durch Roboter ersetzen könne, zum veränderten Fokus darauf, wie man denn überhaupt die Vorgehensweise in einem psychotherapeutischen Prozess beschreiben könne, und dann – quasi als Teilaspekt dieser Beschreibungsversuche – die Fokussierung auf das Thema ’Messwert und interpretierendes Modell’. Bei der Diskussion dieses letzten Themas am 29.April empfanden die TeilnehmerInnen das Gespräch als noch nicht abgeschlossen. Daher am 27.Mai eine Fortsetzung.

II. GESPRÄCH

A. Hypothese

Theorie-Ökosystem

Theorie-Ökosystem

Psychotherapie ist eine empirische Wissenschaft. Es wurde nochmals das Standardmodell eines Theorie-Ökosystems in Erinnerung gerufen, nach dem sich üblicherweise empirische Wissenschaften richten. Grundsätzlich besteht der Eindruck, dass sich auch die Psychotherapie darin einordnen lässt (Siehe dazu das Memo von der vorausgehenden Sitzung). Um zu prüfen, ob sich dieser grundsätzliche Eindruck auch bei näherer Betrachtung durchhalten lässt, wurde dieses Mal eine Fallbeschreibung vorgestellt.

B. Fallbeschreibung

Gedankenskizze zur Philosophiewerkstatt vom 27.Mai 2018

Gedankenskizze zur Philosophiewerkstatt vom 27.Mai 2018

In dieser Sitzung berichtete eine Psychotherapeutin von einem anonymisierten Fall, der zum Ausgangspunkt der Überlegungen wurde, ob und wieweit die bisherigen Überlegungen zur Beschreibung der Wechselbeziehung zwischen ’Messwert’ und ’Modell’ sich auf den psychotherapeutischen Prozess anwenden lassen oder nicht. Die Fallbeschreibung selbst soll hier – trotz Anonymisierung – aus potentiellen datenschutzrechtlichen Gründen nicht wieder gegeben werden. In einer ersten Annäherung (noch unvollständig) ergab die Rekonstruktion dieser Fallbeschreibung, dass die ’Datenerhebungssituation’ im psychotherapeutischen Prozess in einer ’standardisierten Behandlungssituation’ zu verorten ist, die durch klare Regelungen umschrieben ist.(Anmerkung: Siehe dazu auch das Memo vom 25.März 2018    sowie das Memo vom 28.Januar 2018)

Diese Behandlungssituation ist Teil eines ’realen Alltags’, von ’realen gesellschaftlichen Prozessen’, die aktuell oder in der Vergangenheit auf die Beteiligten einwirken bzw. eingewirkt haben. Diese Einwirkungen dürften in der Regel sehr unterschiedliche gewesen sein, genauso wie die Verarbeitung dieser Einwirkungen in den individuellen Personen. Mit dem Fokus auf die Thematik ’Wechselwirkung zwischen Messwert und Modell’ ist der/die PatientIn das Gegenüber, das mit dem /der TherapeutIn über Interaktionen in einer beständigen ’Wechselwirkung’ steht. Die ’zeitliche Abfolge’ ist für die Beschreibung des Prozesses wichtig. Zum Selbstverständnis der Psychotherapie gehört, dass der Therapeut neben seinen ’bewussten Prozessen’ auch über ’un-bewusste Prozesse’ verfügt, die auf unterschiedliche Weise sein bewusstes Dasein beeinflussen. Zugleich gibt es ein ’explizites psychotherapeutisches Deutungsmodell’, das für die Beschreibung von wahrgenommenen Ereignissen (sowohl bzgl. des Patienten wie auch bzgl. des Therapeuten selbst) als ’offizielles begriffliches Referenzmodell’ herangezogen wird. Die ’standardisierte Behandlungssituation’ ist auch Teil des ’expliziten psychotherapeutischen Deutungsmodells’. Das ’explizite psychotherapeutische Deutungsmodell’ muss von seinem ’Anwender’, dem Psychotherapeuten, sowohl mit Blick auf die konkrete Empirie immer wieder abgeglichen werden, wie auch innerhalb der ’offiziellen Vereinigung der Psychotherapeuten’ als potentieller ’Normungsgruppe’. Im Gespräch über die Fallbeschreibung trat deutlich hervor, dass es für den ’Erfolg’ der Therapie wesentlich war, dass der Patient in seiner ’Problemkonstellation’, die für ihn viele Jahre ’unbewusst’ und darin kaum greifbar war, einen ’Schlüssel’ an die Hand bekam, um diese unbewussten Anteile ’greifbar’ zu machen. Wie sich im Nachhinein herausstellte, rührte die Problematik des Patienten von Erfahrungen mit der Mutter, die den Patienten durch ihr Verhalten als Kind in einen emotionalen Zustand gebracht hatte, der dann zeitlebens blockierend wirksam war, ohne dass dem Patienten selbst der wahr Auslöser bewusst war.

Erst durch das Wechselspiel ’Zustand des Patienten  −→ Wirkung auf den Therapeuten (einschließlich wichtiger unbewusster Anteile)  −→ Rückwirkung auf den Patienten’ in mehrfachen Sequenzen brachte dies schließlich den Patienten in eine innere Konstellation, die schließlich die ’wahre Ursache’ aus dem Unbewussten in das Bewusste
holen lies. Dort war dann ein gezielter Umgang möglich, der schließlich zu einer vollen ’Heilung’ führte.

Dieser Fall demonstrierte zugleich, dass eine ’normale Verhaltenstherapie’ (die zuvor jahrelang angewendet worden war) so lange völlig unwirksam ist, so lange die wirkenden unbewussten Anteile nicht real aufgedeckt und dann gezielt behandelt werden.

III. VERBLEIBENDE AUFGABE

Da die Philosophiewerkstatt von Juni – September 2018 in die Sommerpause geht, wurde zwischen einzelnen Beteiligten eine Sondersitzung verabredet, in der es um die weitere Ausarbeitung der Prozessbeschreibung gehen soll.

KONTEXTE

Einen Überblick über alle Einträge zur Philosophiewerkstatt nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs finden sich HIER.

EINLADUNG zur PHILOSOPHIEWERKSTATT: VOM MESSWERT ZUM MODELL (2) – EMPIRIE UND KREATIVITÄT? So, 27.Mai 2018, 15:00h, im INM (Frankfurt)

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
22.Mai  2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

THEMA

In der Einladung zur letzten  Philosophiewerkstatt am 29.April 2018   fand das Stichwort von der ’adäquaten Beschreibung’ Interesse. Es wurde   weiter ausdiskutiert in Richtung der Problematik, wie man von ’Messwerten’ zu einem ’Modell’ kommt? Den meisten Menschen ist nicht bewusst, dass es auch in den empirischen Wissenschaften für den Weg von einzelnen Messwerten zu einem Modell keinen Automatismus gibt! Aus Messwerten folgt nicht automatisch eine irgendwie geartete Beziehung, erst recht kein Modell mit einem ganzen Netzwerk von Beziehungen. In allen empirischen Disziplinen braucht es Fantasie, Mut zum Denken, Mut zum Risiko, Kreativität und wie all diese schwer fassbaren Eigenschaften heißen, die im ’Dunkel des Nichtwissens’ (und des Unbewussten) mögliche Beziehungen, mögliche Muster, mögliche Faktorennetzwerke ’imaginieren’ können, die sich dann in der Anwendung auf Messwerte dann tatsächlich (manchmal!) als ’brauchbar’ erweisen. Und, ja, persönliche Vorlieben und Interessen (unbewusste Dynamiken) können sehr wohl dazu beitragen, dass bestimmte mögliche ’interessante Beziehungs-Hypothesen’ von vornherein ausgeschlossen oder eben gerade gefunden werden.

Im  Bericht zur   Sitzung vom 29.April kann man nachlesen, wie   Begriffe wie z.B.  ‚Messwert‘, ‚erklärende Beziehung‘, ‚Modell und Theorie‘ weiter erläutert und in Beziehung zur Psychoanalyse gesetzt wurden. Es ist dann nicht überraschend, dass sich für die Beteiligten folgende Themenstellung für den 27.Mai herausschälte:

NEUE FRAGESTELLUNGEN

Es bestand der Wunsch aller Beteiligten, an dieser Stelle das Gespräch fortzusetzen. Ideal wäre für die nächste Sitzung ein kleines Beispiel mit einem typischen ’Narrativ’ und ’Deutungen’ auf der Basis des ’vorausgesetzten psychoanalytischen Modells’. Es wäre dann interessant, ob man aufgrund dieses Beispiels die Struktur eines psychoanalytischen Modells beispielhaft rekonstruieren und ’hinschreiben’ könnte. Das nächste Treffen ist für den 27.Mai 18 geplant.

WO

INM – Institut für Neue Medien, Schmickstrasse 18, 60314 Frankfurt am Main (siehe Anfahrtsskizze). Parken: Vor und hinter dem Haus sowie im Umfeld gut möglich.

WER

Einleitung und Moderation: Prof.Dr.phil Dipl.theol Gerd Doeben-Henisch (Frankfurt University of Applied Sciences, Mitglied im Vorstand des Instituts für Neue Medien)

ZEIT

Beginn 15:00h, Ende 18:00h. Bitte unbedingt pünktlich, da nach 15:00h kein Einlass.

ESSEN & TRINKEN

Es gibt im INM keine eigene Bewirtung. Bitte Getränke und Essbares nach Bedarf selbst mitbringen (a la Brown-Bag Seminaren)

EREIGNISSTRUKTUR

Bis 15:00h: ANKOMMEN

15:00 – 15:40h GEDANKEN ZUM EINSTIEG

15:40 – 16:40h: GEMEINSAMER DISKURS ALLER (Fragen, Kommentare…, mit Gedankenbild/ Mindmap)

16:40 – 17:00h PAUSE

17:00 – 17:50h: Zweite GESPRÄCHSRUNDE (Mit Gedankenbild/ Mindmap)

17:50– 18:00h: AUSBLICK, wie weiter

Ab 18:00h VERABSCHIEDUNG VOM ORT

Irgendwann: BERICHT(e) ZUM TREFFEN, EINZELN, IM BLOG (wäre schön, wenn)

Irgendwann: KOMMENTARE ZU(M) BERICHT(en), EINZELN, IM BLOG (wäre schön, wenn)

Mit freundlichen Grüßen,

Gerd Doeben-Henisch

KONTEXTE

Einen Überblick über alle Einträge zur Philosophiewerkstatt nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs finden sich HIER.