WO GEHT ES ZU GOTT, BITTE? Nachhall zu einem Gespräch unter FreundenInnen

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 18.Februar 2019
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Der folgende Text gibt nicht das Gespräch als solches wieder, sondern beschreibt eher das Echo, das dieses Gespräch in mir gefunden hat (das letzte Gespräch dieser Art findet sich hier). Dieses Mal hatten wir einen Experten der evangelischen Theologie zu Gast, einen Pfarrer und Verantwortlichen für eine evangelische Akademie. Dazu muss man wissen, dass die einzelnen Mitglieder des Freundeskreises entweder keiner offiziellen Kirche (oder Religion) angehören, oder z.T. der Katholischen Kirche neben der Evangelischen Kirche. Auch war uns der Experte nicht ganz unbekannt.

FREIHEIT BEI LUTHER UND ERASMUS

Ausgangspunkt des Gesprächs an diesem Nachmittag war der berühmte Streit zwischen Erasmus von Rotterdam und Martin Luther, ausgelöst durch die Schrift von Erasmus ‚De libero arbitrio‘ (Über den freien Willen) von 1524 und der Antwort von Luther ‚De servo arbitrio‘ (Vom geknechteten/unfreien Willen) von 1525.

Erasmus nimmt in seinem Buch Stellung gegen Luthers These, dass allein die göttliche Gnade (sola gratia) über das Schicksal des Menschen nach seinem Tod entscheide und nicht seine eigenen Taten.

Der Kern der Position Luthers präsentiert sich in dem Gedanken, dass der Mensch bezüglich des Willens Gottes keinen freien Willen habe. Über ewiges Heil oder ewige Verdammnis entscheide allein der souveräne Wille Gottes. Dazu ein Zitat aus seiner Schrift (aus einer unkritischen deutschen Ausgabe): „Wenn wir glauben, es sei wahr, dass Gott alles vorherweiß und vorherordnet, dann kann er in seinem Vorherwissen und in seiner Vorherbestimmung weder getäuscht noch gehindert werden, dann kann auch nichts geschehen, wenn er es nicht selbst will. Das ist die Vernunft selbst gezwungen zuzugeben, die zugleich selbst bezeugt, dass es einen freien Willen weder im Menschen noch im Engel, noch in sonst einer Kreatur geben kann.“

Beide Autoren hatten — jeder für sich — Zweifel an ihren eigenen Thesen, sahen sich aber nicht in der Lage, diese zu Lebzeiten mit ihrem eigenen Denken aufzulösen.

EINE EVANGELISCHE DEUTUNG

Der anwesende Experte lieferte eine Reihe interessanter Kommentierungen, Deutungen, zu beiden Positionen, vor allem aber zu Luther, warum seine Position ‚Sinn‘ macht. Einmal im damaligen Kontext gegen ein falsches Leistungsdenken, dass man sich das Heil, die Erlösung ‚erkaufen‘ könne, womit auch immer; zum anderen im heutigen Kontext, wo wir die Bedingtheiten des individuellen Entscheidens in konkreten Kontexten immer besser verstehen, die es wenig verständlich erscheinen lassen, wie ein Heil angesichts der vielen Unfertigkeiten, des vielfachen Scheiterns und Begrenztseins möglich sein soll. Auch die Erbsünde musste noch herhalten als eine Art ‚theologische Hintergrundstrahlung‘, die zwar fern und wenig wirklich, doch nachhaltig nachwirkt und gegen die der einzelne mit seinem Stückwerk letztlich machtlos ist.

Es hatte dann etwas Verführerisches zu denken, dass die Gnade Gottes all unserem Tun voraus liegt und uns liebt, egal wo und wie wir sind, und dass wir aufgrund dieser zuhandenen Gnade Glauben und Lieben können. Die ‚Liebe‘ macht uns frei, und dann spielt das Konkrete nur noch bedingt eine Rolle. Die ‚Beziehung zu Gott‘ kann man daher nicht in ‚moralischen Kategorien‘ fassen, sie ist sui generis, sie folgt einer eigenen Logik. Die Beziehung zu Gott, die von ihm gnadenhaft ausgeht ist so, dass man sich auf die ‚verlassen‘ kann, immer und überall, auch und gerade im Angesicht des Todes. Die Ausführungen des Experten tendierten zum Schluss hin zu einer ‚pastoralen Tonart‘; was irgendwie auch in der Natur der Sache liegt, da das Reden über Gott, soll es nicht ganz abstrakt bleiben, seine Verortung im konkreten Alltag finden muss.

ANSATZPUNKTE ZU ANDEREN DEUTUNGEN

Der Experte war sehr wohl geschult in Fragen der Hermeneutik, der Lehre vom Verstehen und Interpretieren, und er gab auch zu, dass er die modernen Entwicklungen der Wissenschaften nicht so gut kenne; auch blieb die Frage offen, wie sich in dieses evangelisch-lutherische Bild der Welt die Deutungen der anderen großen religiösen Traditionen (Hinduismus, Judentum, Buddhismus, Islam, …) einordnen lassen.

Im Nachgespräch der Gruppe wurde deutlich, dass die Frage nach Gott eigentlich von allen als ein roter Faden in allen Kulturen dieser Welt gesehen wird.

ZUSAMMENLEBEN UND HÖHERE MACHT

Bei einem historischen Rückblick sticht ins Auge, dass ‚Verhaltensregeln‘ überall durch die Notwendigkeit des gemeinsamen Lebens unter bestimmten Bedingungen geprägt sind, und dass sich auch überall in den frühen Kulturen die Tendenz findet, die konkreten Verhaltensegeln, die man sich auferlegt hat, mit dem Glauben der jeweiligen Zeit zu verknüpfen, quasi als ‚höhere Instanz‘, die darüber wacht, ob man dies Regeln auch wirklich befolgt, und in diesem Kontext kam jenen Menschen eine besondere Rolle zu, denen eine besondere Verbindung zu dieser ‚höheren Macht‘ unterstellt wurde (Schaman, Priester, Propheten, …). Mit dieser Konstellation war die enge Verknüpfung von Glauben an etwas Höheres und konkrete Verhaltensregeln mit der jeweiligen politischen Macht angelegt. Zum Teil stand politische Macht und religiöse Führer in Konkurrenz, aber in den großen Königreichen und Staaten machten sich die staatlichen Führer sehr schnell selbst zum höchsten Priester, um eine mögliche Konkurrenz und damit Schwächung der Macht durch die religiösen Führer auszuschalten, oder die religiösen Führer ernannten sich zu den obersten staatlichen Lenkern. Das Judentum, das Christentum und der Islam bieten dafür Paradebeispiele, und auch der Buddhismus geriet über die mächtigen Klöster in das gleiche Fahrwasser.

RELIGION UND MACHT

Historisch betrachtet erscheint das Thema Religion daher im Normalfall als ‚vergiftet‘ durch die Instrumentalisierung von Religion durch die jeweiligen politischen Mächte bis heute, oder dadurch, dass sich Religion selber als eine Machtorganisation inszeniert.

EMANZIPATION DER ‚WAHRHEIT‘ UND DER ‚MACHT‘

Während das ‚Geschäft mit der Wahrheit‘ durch die modernen empirischen Wissenschaften seit ca. 500 Jahren zumindest ansatzweise von den jeweiligen gesellschaftlichen und religiösen Verhältnissen emanzipiert werden konnte, und das ‚Geschäft mit der Macht‘ mit dem Aufkommen von demokratischen Staatsformen seit ca. 300 Jahren ansatzweise von irrationalen und und unfreien Machtbegründungen befreit werden konnte, ist das ‚Geschäft mit dem Glauben‘ bis heute noch überwiegend in den Händen von religiösen Organisationen, die den Eindruck erwecken, dass der ‚Zugang zu Gott‘ nur über eine Mitgliedschaft in ihren Organisationen möglich sei. Da es viele verschiedene Religionen gibt, die sich als ‚privilegierten Zugang zu Gott‘ anbieten, haben wir also eine Vielzahl von Marketingagenturen für eine Vielzahl von Göttern; sehr merkwürdig.

EMANZIPATION DES ZUGANGS ZU GOTT?

Ein häufig gehörtes Argument, warum Religionen auch heute noch wichtig seien, betont, dass der einzelne Mensch ‚zu schwach sei, alleine den Weg zu Gott zu finden‘, von daher braucht es Organisationen, die ihm dabei helfen. Das der Mensch ’schwach‘ ist als einzelner, dass der ‚Alltag‘ für viele (für die meisten? für alle?) zu schwierig sei, sich als einzelner darin seinen Weg zu finden, ist auch nicht völlig falsch. Aber ist das die einzig mögliche Sehweise?

In demokratischen Gesellschaften muss der einzelne Mensch sich grundsätzlich seinen Weg selbst suchen, allerdings in vielen Bereichen unterstützt von staatlich organisierten Hilfestellungen (Kindergarten, Schulen, Hochschulen, Gesundheitssystem, …) wie auch freien politischen Strukturen sowie freien wirtschaftlichen Strukturen, ergänzt um eine große Vielfalt von privaten Vereinen, Freundeskreisen, usw.

Betrachtet man das Phänomen des Meditierens, das ursprünglich im direkten Kontext der Religionen verortet war, und sieht, wie sich dieses in einer weltweiten Bewegung quasi verselbständigt hat in einer großen Vielzahl von Initiativen, in denen Menschen in freien Entscheidungen anderen Menschen in Form von ‚Dienstleistungen‘ Hilfen anbieten, wie und wo und wann sie meditieren können, dann deutet sich hier — bei aller Problematik im Detail — an, dass sich Menschen in Fragen ‚der Besonderheit des Lebens‘ sehr wohl selbständig, religionsfrei, organisieren können. Bei den vielen hundert Apps zum Meditieren, die von Menschen rund um die Uhr genutzt werden, gibt es einige, deren Benutzerzahlen gehen in die Millionen (ähnlich kann man auch bei Beerdigungsfeiern beobachten, dass der Anteil der privaten religionsfreien Dienstleister erheblich wächst).

Natürlich lassen sich zu diesem globalen Meditationstrend viele Fragen stellen, gerade dann, wenn diese mit buddhistischen Deutungsmodellen gekoppelt werden, die in sich auch viele Fragen aufwerfen; auch erscheint die Engführung auf medizinische Aspekte zum Zwecke der Therapie nicht weniger fragwürdig (obwohl der medizinische Ansatz als solcher sehr wohl Sinn macht). Dem staatlich subventionierten Lehr- und Wissenschaftsbetrieb ist es allerdings frei gestellt, sich diesen Phänomen unvoreingenommen zuzuwenden. Es ist mehr als fragwürdig, warum ein aufgeklärter demokratischer Staat Fragen der Religion von vornherein an Organisationen delegiert, die in ihrem Selbstverständnis und in ihrer organisatorischen Verfasstheit dem Standards von aufgeklärter ‚Wahrheit‘ und ‚Freiheit‘ im Ansatz widersprechen.

SCHLUSSBEMERKUNG

In dem vorausgehenden Blogeintrag zur Kosmologie 7.0 wird deutlich, dass der Versuch, rein intellektuell, eine abschließende Antwort zum ‚Gesamtsinn‘ zu geben, bis auf Weiteres zum Scheitern verurteilt ist, obgleich es für uns keine Alternative gibt, es weiterhin beharrlich zu versuchen.

Während der ‚Mainstream‘ des globalen Meditationstrends heute sich überwiegend an asiatischen Methoden und Deutungsmodellen ausrichtet, gibt es ‚hinter den Fassaden‘ der sogenannten Offenbarungsreligionen (Judentum, Christentum, Islam) sehr wohl eine starke meditative Tradition (wenngleich von den Machtstrukturen dieser Religionen immer argwöhnisch beäugt und im Zweifelsfall unterdrückt), die neben den rein methodischen Aspekten (was soll man tun,wenn man meditieren will) und neben den rein körperlichen Phänomenen sehr wohl mit der Arbeitshypothese gearbeitet haben (und arbeiten), dass das, was ‚Gott‘ bezeichnet wird (je nach Sprache und Kultur mit anderen Namen und Vorstellungen verknüpft), sehr wohl auch direkt mit einem einzelnen Menschen auf der Erlebnisebene ‚interagieren‘ kann, und diese Interaktion ist begleitet von ‚gefühlten Zuständen‘, die sich als solche deutlich von allem abheben, was man als Mensch sonst so fühlen kann.

Wie u.a. die umfangreichen Untersuchungen von William James zu Zeugnissen von Menschen über ihre ’subjektiven Erlebnisse von Gott‘ zeigen, garantieren solche Erlebnisse weder ‚Wahrheit‘ noch den rechten Gebrauch von ‚Freiheit‘, aber sie scheinen dazu beitragen zu können, eine Art von ‚Angstfreiheit‘ zu bekommen, die den einzelnen dazu befähigen, seine Lebensmöglichkeiten in einer Art und Weise zu gestalten, die deutlich von dem abweichen, was Menschen tun, die von innen her durch allerlei Bedenken und Ängste in ihrem Wollen und Tun beeinträchtigt sind.

Hier eröffnet sich der Raum zu vielen neuen Betrachtungsweisen über ‚Gott‘, das ‚Universum‘ und das ‚biologische Leben‘ in diesem.

QUELLENHINWEISE

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

KANN MAN DEN POPULISMUS ÜBERWINDEN? Eine Notiz

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 11.Februar 2019
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Der vorausgehende Eintrag zum Phänomen des Populismus als einer angeborenen Verhaltenstendenz bei jedem Menschen rief bei einigen Lesern eine zwiespältige Reaktion hervor: einerseits würden die Überlegungen einleuchten, andererseits führte dies zu einer gewissen Hilfslosigkeit und Ratlosigkeit; wie kann man sich dagegen wehren? Denn, wenn Populismus gleichsam in den Genen ‚verdrahtet‘ ist, und damit alle betroffen sind, dann müssten sich ja ‚alle gleichzeitig‘ so verhalten, dass Populismus zumindest abgeschwächt wird (also unter 100% bleibt); eine vollständige Heilung (also 0%) scheint dagegen im Ansatz unmöglich. Diese Problemstellung aktivierte folgende Überlegungen.

FREIHEITSFELD

Das folgende Schaubild deutet einige der vielen Faktoren (Parameter) an, die alle zusammen spielen müssen, soll Freiheit gelingen. Daraus folgt, dass eine ‚freie Gesellschaft‘ eine extrem anspruchsvolle Teamleistung erfordert, die nur gelingen kann, wenn ALLE an einem Strang ziehen. Und ‚Alle‘ heißt hier wirklich ‚Alle‘.

Schaubild zum Umfeld der Freiheit; ein Netzwerk von Faktoren, die alle ineinander spielen

DIE GEBURT DER WELT IM KOPF

Ein zentraler Aspekt der These dass der Populismus angeboren sei besteht darin, dass aufgrund der grundlegenden Freiheit eines biologischen Systems und seiner grundlegenden Lernfähigkeit bei Kindern und jungen Menschen (sofern die äußeren Verhältnisse es zulassen!) zwar tatsächlich ‚automatisch‘ vielfältige intensive Lernprozesse stattfinden, mit zunehmendem Wissen, zunehmender Erfahrung, und zunehmenden Fähigkeiten im Alltag dann aber der Eindruck entsteht, dass man ja jetzt ‚alles kennt‘, ‚man Bescheid weiß‘, dass es ’nichts Neues mehr gibt‘. Wenn dieser Zustand eintritt (fließend, schleichend, nicht abrupt), dann beginnt die Welt im Kopf still zu stehen, sie hat eine ‚gewisse feste Form‘ gefunden, die Dinge sind immer mehr ‚wie sie sind (im Kopf)‘. Abweichungen, Änderungen, ‚Neues‘, Anderes werden jetzt nicht mehr als Anregung zum weiteren Lernen empfunden sondern zunehmend als ‚Störungen des Bestehenden‘. Und da diese Prozesse bei jedem ablaufen, bilden sich automatisch Gruppen ‚Gleichgesinnter‘, die in der Statik ihrer Bilder gleich sind, sich aber durch — meist zufallsbedingte Unterschiede in der Biographie — unterscheiden können (Anhänger verschiedener Fußballklubs, Fans verschiedener Popstars, Mitglieder von politischen Richtungen, von verschiedenen Religionen, …),

DIE UMGEBUNG ALS NÄHRBODEN

Der Einfluss der Umgebung auf die Ausbildung der individuellen Weltbilder ist erheblich, nahezu übermächtig. Denn — wie schon im vorausgehenden Beitrag festgestellt — wenn die grundlegende Freiheit und Lernfähigkeit eines biologischen Systems in seiner Umgebung nicht die materiellen Bedingungen findet, die es zum alltäglichen Leben, zu alltäglichen Lernen braucht, dann läuft die Freiheit ins Leere. Sie kann sich nicht ‚auswirken‘, sie kann kein Individuum befördern, dass hinreichend kompetent und lebensfähig ist.

Neben den eher ‚materiellen Bedingungen‘ der Freiheitsausübung gibt es aber noch die vielfältigen gesellschaftlichen Regeln, die das tägliche Verhalten betreffen. Wenn z.B. die Beteiligung am materiellen Warenaustausch nur über Geld läuft, der Erwerb von Geld für die Mehrheit an Arbeit gekoppelt ist, eine Gesellschaft aber nicht für alle genügend Arbeit bereit stellen kann, dann verhindern diese Konventionen, das ALLE hinreichend am materiellen Warenaustausch beteiligt sind. Wenn z.B. die ‚Rechte‘ am Boden und am Wasser von ‚Stammeshäuptern‘ vergeben werden, diese sich aber auf Kosten der eigenen Stammesmitglieder bereichern, indem sie diese Rechte an lokalfremde Kapitalgeber ‚verkaufen‘, so dass die Bewohner eines Gebietes ihrem eigenen Boden und Wasser ‚enteignet‘ werden, dann kann Freiheit nicht funktionieren. Wenn z.B. viele Millionen Kinder keine Ausbildung bekommen, sondern stattdessen unentgeltlich für ihre Eltern oder für Fremde arbeiten müssen, dann wird ihnen die Grundlage für ein freies Leben genommen. usw.

Es gibt auch Varianten des Freiheitsentzugs über Verfremdung der Kognition: wenn z.B. Videoserien im Internet, (online) Computer-Spiele im Internet, oder Fernsehserien — alle jeweils mit vielen Millionen Nutzern — sich viele Stunden am Tag in Erregungszustände versetzen, die keine für den Alltag nutzbaren Inhalte vermitteln, sondern mit Phantasiebildern das Gehirn blockieren, dann ist das eine kognitive Selbstverstümmlung, die als ‚Gehirnwäsche‘ in anderen Zusammenhängen verboten ist.

KULTURELLE GESAMTLEISTUNG

Aus der Geschichte wissen wir, wie mühsam es für die Population der Menschheit war, dem Leben Wissen, Erfahrungen, Werte stückweise abzuringen, um vom Status der Jäger und Sammler zu immer komplexeren Gesellschaften mit immer mehr Handwerk, Technik, sozialen Institutionen, Rechtssystemen, Handels- und Wirtschaftssystemen, Dörfer, Städten, Regionen, lokal, national und international zu werden, mit Kommunikationssystemen, Wissensspeicherungstechniken, Bildungsstrategien usw., dann dürfte klar sein, DASS die Großgesellschaft, ihre politische, soziale, juristische usw. Verfasstheit, weder von eine einzelnen alleine noch innerhalb einer kurzen Zeit ‚aufgebaut‘ werden konnte und auch heute nicht so einfach aufgebaut werden kann. Funktionierende komplexe Gesellschaften erfordern den Einsatz von jedem einzelnen und das in einer aufeinander abgestimmten Weise. So etwas aufzubauen und dann ‚am Leben zu erhalten‘ ist schwer; es zu zerstören vergleichsweise einfach.

Wir erleben heute eine Phase der Menschheit, in der — verglichen mit der Vergangenheit — sehr komplexe Strukturen erreicht worden sind, deren ‚Erhaltung‘ schon schwierig erscheint, erst recht ihre konstruktive und nachhaltige ‚Weiterentwicklung‘.

PRÄFERENZEN (WERTE)

Was im ‚Getöse des Alltags‘ leicht und gerne untergeht, das ist die Tatsache, dass alle die vielen Konventionen, Regeln, Vorschriften und Gesetze, die zur ‚Regulierung des Alltags‘ verabredet worden sind, letztlich auf ‚Wertsetzungen‘ zurück gehen, auf ‚Präferenzen‘: man will eher A als B. So stellen z.B. die Menschenrechte für einige Verfassungen von Staaten einen ‚Wertekanon‘ dar, auf den die Staatsverfassung und alle davon abhängigen Regeln aufbauen. Bei anderen sind es Überzeugungen aus bestimmten religiösen Traditionen. Gemeinsam ist allem das Faktum der ‚primären Präferenzen‘, ohne die keine Regelung auskommt.

Und es ist sehr seltsam: über die Grundlagen der staatlichen Verfassungen wird nirgendwo diskutiert; in den meisten Staaten ist dies sogar verboten.

Dies mag vielleicht aus einem ‚Schutzbedürfnis‘ heraus motiviert sein. Wenn aber z.B. im Deutschen Grundgesetz bestimmte Werte vorausgesetzt werden, für die z.B. die empirischen Wissenschaften keine Motivation mehr liefern können, und in der täglichen Massenkommunikation die einzelnen Bürgern mit Inhalten zugedröhnt werden, die mit diesen Grundwerten ebenfalls kaum noch etwas zu tun haben, und viele alte Wertelieferanten heute eher unglaubwürdig erscheinen, dann kann man sich fragen, wie lange eine Gesellschaft noch zukunftsfähig ist, die ihre eigenen Grundlagen täglich erodieren lässt und wenig dazu zu tun scheint, sie zu erneuern. Die Freiheit dazu ist grundsätzlich gegeben, aber die Nutzung dieser Freiheit erweckt viele Fragen zum Leben …

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

DAS UNIVERSUM IM UNIVERSUM

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 22.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

 

SCHON ARG KLEIN

Der US-amerikanischen Astrophysiker Neil deGrasse Tyson sagt von sich in einem Hörbuch über das Universum, dass er beim Anblick der Sterne und Galaxien des Universums immer ganz positiv gestimmt wird. Darin zitiert er psychologische Untersuchungen, nach denen viele Menschen aber genau das Gegenteil empfinden: eine abgründige ‚Kleinheit‘, Unbedeutendheit, eine Verlorenheit, die sie niedergeschlagen macht, fast depressiv. Zwischen diesen beiden Extremen gibt es vermutlich viele Abstufungen und Varianten.

Klar ist nur, dass angesichts der räumlichen Größenverhältnisse und Entfernungen neben einem Staunen das Gefühl einer ‚Kleinheit‘ sicher nicht ‚unnatürlich‘ ist. Gemessen an den Größen und Entfernungen im Universum, selbst noch in unserer Heimatgalaxie Milchstraße, wirkt unser Sonnensystem, unsere Erde mit dem Mond, schon arg klein und unbedeutend. Ganz zu schweigen von uns Menschen, die da noch kleiner wie Staubkörner wirken.

KOGNITIVE TÄUSCHUNG

Diese Gefühle der Erhabenheit einerseits angesichts der unfassbaren Räume und der Unbedeutendheit andererseits können sich aber schnell wandeln, wenn man sich der Kleinheit und Komplexität des Biologischen zuwendet. Diese Komplexität ist allerdings unserem Auge zunächst verborgen. Die Sterne am Nachthimmel kann jeder sofort, sogar mit dem bloßen Auge sehen, die Zellen des biologischen Lebens hingegen sind nicht ohne weiteres sichtbar. Man braucht spezielle Verfahren und spezielle Geräte (z.B. Mikroskope), um sie sichtbar zu machen, um eine Vorstellung von ihren Strukturen und Dynamiken zu bekommen. Begibt man sich auf diesen Weg der Erkenntnis des ‚räumlich Kleinen‘ im ‚räumlich Großen‘, dann kann man entdecken, dass das scheinbar so winzige räumlich Kleine das räumlich Große in vielen Punkten um Dimensionen übertrifft. Streng genommen müsste man sagen, dass das räumlich Kleine eigentlich ein eigenes Universum ist, das das räumlich Große in Anzahlen, vor allem aber in puncto Komplexität, bei weitem zu überragen scheint.

GROBE ANNÄHERUNG

Um die Umrisse des ‚Universum im Kleinen‘ sichtbar zu machen, dazu im Vergleich zum ‚Universum im Großen‘, habe ich eine Reihe von Eckwerten zusammengestellt und mit einfachsten Rechnungen bearbeitet, die vielfach eine sehr grobe Vereinfachung/ Annäherung darstellen. Es wird sicher Experten geben, die diese Vereinfachungen verbessern können. Dennoch rechtfertigt sich dieses approximative Vorgehen dadurch, dass überhaupt einmal die Umrisse der Größe des sehr Kleinen sichtbar werden.

Es gab schon Vorläufer dieser Überlegungen. Die letzte findet sich unter der Überschrift: INFORMELLE KOSMOLOGIE. Teil 2. Homo Sapiens und Milchstraße.

MIKROBEN UND STERNE

Dem bloßen Auge bieten sich Sterne am Nachthimmel direkt dar, obgleich wir heute wissen, das die größere Zahl von Sternen dem bloßen Auge auch verborgen sind. Mit den modernsten Geräten und Berechnungsmethoden kommt man für die Zahl aller Sterne im beobachtbaren Universum ungefähr auf 2.200000e+23, also etwa 220000 x Milliarde x Milliarde x Milliarde.

Die Zahl der Mikroben auf der Erde zu berechnen ist äußerst schwierig, da sowohl die riesige Anzahl verschiedenen Arten von Mikroben wie auch ihre unterschiedlichen Verteilungen zu berücksichtigen sind. Ein Ansatzpunkt bietet das Volumen, das sie auf der Erde einnehmen können. Man findet Mikroben sowohl unter der Erdoberfläche (angenommen wurden hier bis 7 km), als auch oberhalb der Erdoberfläche (angenommen wurden hier ebenfalls bis 7 km). Als Verteilung von Mikroben innerhalb dieses Volumens wurde angenommen, dass sich ca. 41.5 Billionen (10^12) Mikroben in einem Kubikmeter befinden. Diese Schätzung müsste durch viele Proben an unterschiedlichsten Orten weiter abgeklärt werden. Bei dieser Annahme kommt man    auf die Zahl 2.963476e+32, also etwa 300 Millionen x Billionen x Billionen.

Damit gäbe es etwa 1.347034e+09 mal mehr Mikroben auf der Erde wie Sterne im Universum, also 1.3 Milliarden mal mehr Mikroben wie Sterne.

So vage diese Schätzungen im Moment sind, so verdeutlicht sie doch, dass wir es mit dem Biologischen mit einer neuen Art von Universum zu tun haben, das sich vor dem physikalischen Universum nicht verstecken muss!

Das Verhältnis zwischen Mikroben und Sternen wird noch krasser, wenn man berücksichtigt, in welchen räumlichen Verhältnissen sich dies abspielt. Die etwa 220000 x Milliarde x Milliarde x Milliarde Sterne im Universum benötigen ein Volumen von 3.568179e+80 m^3. Die erheblich größere Anzahl von Mikroben benötigen dagegen nur ein Volumen von 7.140905e+18 m^3, dies bedeutet der Platzbedarf der Sterne ist um das 4.996816e+61 fache größer als der der Mikroben. Anders ausgedrückt, das biologische Universum ist um das 4.996816e+61 fache verdichtet gegenüber dem physikalischen Universum.

MENSCHLICHE ZELLEN UND MIKROBEN

Es gibt etwa 2.670760e+08 mal mehr Mikroben wie menschliche Zellen auf der Erde, also 267 Millionen mal mehr (wobei die Zahl der Mikroben möglicherweise zu hoch angesetzt ist), doch sind die menschlichen Zellen in einem Körper in einer extrem komplexen Weise organisiert, für die es bislang kaum Modellvorstellungen gibt. Als Eckwerte mögen die Tatsachen dienen, dass die Gehirnzellen (Neuronen alleine ca. 80-90 Milliarden) untereinander extrem vernetzt sind; eine Zelle kann mehrere zehntausend Verbindungen haben. Zusätzlich kann eine Gehirnzelle aber auch über chemische Transmitter(moleküle) ‚quer‘ von zusätzlichen Signalquellen beeinflusst werden. Einzelne Körperzellen können über chemische Signale (Flüssigkeit, Blut..) mit vielen Milliarden anderen Zellen kommunizieren. So kann z.B. der Pilz candida albicans, der vorwiegend (aber nicht nur) im menschlichen Darm lebt, minderwertige Alkohole produzieren, die ins Blut abgegeben werden und dort einen Großteil der Körperzellen erreichen. Dies kann über Wochen und Monate zur vollständigen Vergiftung des ganzen Körpers führen.

MENSCH UND GALAXIEN

Hilfreich kann vielleicht auch ein direkter Vergleich Mensch und Galaxie bzw. Universum sein.

Zahlenmäßig ist die Zahl der Sterne in der Milchstraße mit 200 Milliarden (es gibt Schätzungen bis 400 Milliarden) verglichen mit der Zahl der Menschen auf der Erde mit 7.6 Milliarden (geschätzt für Mai 2018) deutlich höher, aber eben nur etwa 26 mal größer. Vergleicht man aber die Anzahl der Zellen eines einzelnen Menschen mit etwa 146 Billionen (10^12) mit den Sternen der Milchstraße, dann hat ein einzelner Mensch schon etwa 730 mal mehr Zellen wie die Milchstraße Sterne hat. Berücksichtigt man alle Menschen mit 146*10^12 x 7.6 * 10^9 Zellen, dann gibt es sogar 5.548D+12 mal mehr menschliche Zellen auf der Erde wie Sterne in der Milchstraße, also 5.5 Billionen mal mehr. Dies ist beeindruckend, nimmt man aber wieder das Volumen hinzu, dann kommt man wieder auf einen Verdichtungsfaktor, den man sich nicht mehr vorstellen kann; das Volumen der Milchstraße verglichen mit dem Volumen aller menschlicher Zellen ist etwa 1.025033e+61 mal größer, was umgekehrt besagt, dass es nicht nur 5.5 Billionen mal mehr menschliche Zellen als Sterne in der Milchstraße gibt, sondern diese viel größere Zahl an Zellen ist zugleich um den Faktor 6 Milliarden x Billion x Billion x Billion x Billion x Billion mal dichter gepackt als die Sterne in der Milchstraße. Zusätzlich muss man die unfassbar höhere Interaktionsdichte dieser Zellen mitdenken.

Verglichen mit den Sternen des ganzen Universums gibt es ’nur‘ 5 mal so viele menschliche Zellen (aller Menschen) wie Sterne im Universum. Immerhin, man kann einen Eindruck bekommen, dass die scheinbar so – räumlich – kleine Erde ein Hotspot ist, wo sich ein biologisches Universum entwickelt hat (und möglicherweise weiter entwickelt), das alles in den Schatten stellt, was wir vom physikalischen Universum her kennen.

GALAXIE MENSCH

Die mikrobiologische Sicht des Menschen steckt noch eher in den Anfängen. Doch kann man alleine von dieser Seite her (vgl. nochmals den Beitrag INFORMELLE KOSMOLOGIE. Teil 2. Homo Sapiens und Milchstraße) einen neuen Blick auf das System homo sapiens bekommen, speziell, wenn man das Thema ‚Bewusstsein – Unbewusstes‘ einbezieht.

Wie in der Diskussion zum wissenschaftsphilosophischen Verständnis der Psychoanalyse (zuletzt HIER) deutlich wurde, muss man davon ausgehen, dass systemtheoretisch das Unbewusste den weitaus größten Teil des Systems homo sapiens ausmacht und als solches auch das Bewusstsein in seinen Zuständen bestimmt, dass aber dennoch das Bewusstsein jener Punkt ist, von dem aus das System homo sapiens sich ‚orientiert‘. Bedenkt man jetzt, dass die Gehirnzellen (Neuronen und Gliazellen zusammen) nur etwa 0.1% des ganzen Körpers ausmachen, und bedenkt man ferner, dass das ‚Bewusstsein‘, das als eine Funktion des Gehirns angenommen werden muss, nur einen – noch nicht klar bestimmten Teil – des Gehirns ausmacht, und bedenkt man ferner, dass das Gehirn nur einen – noch nicht klar bestimmten Teil – des restlichen Körpers ‚wahrnimmt‘ bzw. ’steuert‘, dann muss man davon ausgehen, dass das ‚Unbewusste‘ einen ’sehr großen‘ – wie groß genau? – Anteil am System homo sapiens hat. Die Forschungen zum Bewusstsein stecken leider noch ziemlich in den Anfängen. Brauchbare Theorien sehe ich bislang nirgendwo.

ERGEBNIS

So grob alle Daten bislang sind, so deuten sich doch grundlegende Verhältnisse an, die ein entscheidendes Umdenken in der Erforschung der Natur verlangen. Insbesondere unser Bild vom homo sapiens, also von uns selbst, scheint radikal erneuerungsbedürftig. Sosehr mehr Mikrobiologie sicher wünschenswert und auch notwendig ist, eine ‚Gesamtsicht‘ verlangt erheblich mehr. Es müssen alle die einzelwissenschaftlichen Ergebnisse in einer Gesamttheorie zusammen geführt werden, und diese Gesamttheorie muss die bewusstseinsbasierte Innensicht einbeziehen, andernfalls ist sie wesentlich unvollständig. Das ‚Bewusstsein‘ – was immer es genau ist – ist wesentlich ein Phänomen der Natur, sogar ein sehr außerordentliches Phänomen, einzigartig im ganzen bekannten Universum, und so unglaublich großartig das gesamte Biologische Universum ist, so nimmt das Bewusstsein in diesem biologischen Universum eine Sonderstellung ein. Die Kodierungsleistung biologischer Systeme, die durch die molekülbasierte (DNA, RNA, Ribosom, …) Selbstreplikation eine bis heute nicht ganz enträtselte Funktionalität in die materiellen Strukturen aufblitzen lies, hat mit der Kodierungsleistung durch ein Bewusstsein eine weitere fundamentale Funktionalität entstehen lassen, die geeignet ist, das gesamte Universum auf sich selbst in völlig neuen Dimensionen und Geschwindigkeiten ‚abzubilden‘, deren Auswirkungen kaum abschätzbar sind. Die Entdeckung des Prinzips der Berechenbarkeit im Stil des mathematischen Konzept einer Turingmaschine kopiert diese biologischen Funktionen bis zu einem gewissen Grad und macht sie damit einer technologischen Realisierung zugänglich. Die ersten Auswirkungen dieser neuen Technologie in Kombination mit dem Gehirn erleben wir gerade, beschrieben mit dem Zeitgeist-Wort ‚Digitalisierung der Gesellschaft‘.

ANHANG

Text des kleinen Programms, mit dem gerechnet wurde. Es wurde mit der opensource Software ‚scilab‘ erstellt. Wer sich die Software herunterlädt, kann dies Programm direkt ausführen. Verbesserungswünsche sind herzlichst willkommen. Dieses Programm versteht sich nur als erster Denkanstoß.

//************************
// univuniv()
//
// scilab script. See www.scilab.org
//
// author: Gerd Doeben-Henisch
// First version: 20.Sept. 2018
// Last version: 22.Sept.2018
//
//************************************
//
// If not otherwise mentioned: data are taken from wikipedia DE|EN
//
//*************************************************
// BASIC IDEA
//
// Computing the proportions between the physical and the biological universe
//
// The physical universe will be looked at by the number of galaxies, the number
// of stars in a galaxie, and by the volume of galaxies.
//
//The biological universe will be viewed by the number of humans, the
// number of cells in humans, their volumes, the number of microbes
// on earth and their volume
//
// Finally the different numbers and volumes vill be compared
//
// These numbers are approximations to give a first idea
//
// Distances in Universe is 'kpc' := Kilo Parsec converted to meter
//
// The Milky way galaxy is seen as a zylindrical disc with diameter D=2r
// and a height h. The volume V is then the circle-area of the bottom
// multiplied with its height: V = pi * r^2 * h
//

//'*******************************************
// UNIVERSE
//

// 1 kpc in meter
METERKPC = 3.086e+19

// Estimates for numbers of galaxies in the universe vary between 2*10^11 and 2*10^12
GALAXNUMBERS = (2*10^11 + 2*10^12)/2

//Estimates of number of stars in the Milkyway vary between 100*10^9 and 400*10^9
STARSMILKYNUMBERS = 200*10^9

STARSUNIVNUMBERS = GALAXNUMBERS * STARSMILKYNUMBERS
GALAXMILKYDIAMETER = 30*10^3 * METERKPC
GALAXMILKYTHICK = 0.3*10^3 * METERKPC

//Since the universe has been expanding for 13.8 billion years, the comoving distance (radius) is now about 46.6 billion light-years
UNIVDIAMETER = 8.8*10^26 //in m
UNIVRADIUS = UNIVDIAMETER/2
UNIVVOLUME = 4/3 * %pi * UNIVRADIUS^3 //in m3

//*********************************************
// EARTH DIMENSIONS

//Diameter of earth in m

EARTHDIAMETER = 12.742 * 10^6
EARTHRADIUS = EARTHDIAMETER/2

//Volume inner sphere Vin. external sphere Vext
VOLUMEINNER = 4/3 * %pi * (EARTHRADIUS-7*10^3)^3
VOLUMEEXTERN =  4/3 * %pi * (EARTHRADIUS+7*10^3)^3
VOLUMEMICRO = VOLUMEEXTERN - VOLUMEINNER

//Depth of microbes in earth in m
DEPTHMICRO = 7*10^3

//Height of microbs in atmosphere in m
HEIGHTMICRO = 7*10^3

//Weight of 1 m3 garden soil in gram g
GARDENSOILGRAMQM = 8.3 * 10^5
//number of microbes  in 1 g garden soil: estimatesvary between 10 - 100*10^6
MICROSGRAMGARDEN = 50*10^6

//number of microbes  in 1 m3 garden soil
MICROSQMNUMBER = MICROSGRAMGARDEN * GARDENSOILGRAMQM

//number of microbs on earth
MICROSEARTHNUMBER =  MICROSQMNUMBER * VOLUMEMICRO

//'*******************************************
// HUMANS

// 1 liter = 0.001 m^3
// humans male ca. 85 liter
// humans female ca. 75 liter
// humans male-female ca. 80 liter

HUMANSNUMBER = 7.6*10^9 //May 2018
HUMANWEIGHT = 80 //Kg
HUMANVOLUME = 80 * 0.001 //m^3
CELLSHUMAN = (36 + 110) * 10^12
CELLALLHUMANSNUMBER = HUMANSNUMBER * CELLSHUMAN

//****************************************
// Brain

NEURONS = 80*10^9
RATIONEURONGLIA = 1/1
GLIAS = NEURONS * RATIONEURONGLIA
BRAINCELLS = NEURONS + GLIAS

//'*******************************************
// biouniverse()

//******************************************
// Computing the relations

function [DATE]=univuniv(GALAXMILKYDIAMETER, GALAXMILKYTHICK, GALAXNUMBERS, STARSMILKYNUMBERS, HUMANSNUMBER, HUMANVOLUME, CELLSHUMAN, CELLALLHUMANSNUMBER)
    
    DATE=date()
    
   // V = pi * r^2 * h
   // In cubic meter m^3
   //Volume of milkyway galaxy in m3
   GALAXMILKYVOLUME = %pi * (GALAXMILKYDIAMETER/2)^2 * GALAXMILKYTHICK
   mprintf('Volume m3 of MilkyWay Galaxy = %e\n',GALAXMILKYVOLUME)
   
  //Voulme of all humans in m3
   ALLHUMANSVOLUME = HUMANSNUMBER * HUMANVOLUME
   mprintf('Volume m3 of all Humans = %e\n',ALLHUMANSVOLUME)
   
   
   // Number of cells compared to number of stars
   PROPCELLSHUMANSSTARSMILK = CELLALLHUMANSNUMBER/STARSMILKYNUMBERS
   mprintf('Proportion number 1 human cells to number stars in milky way = %e\n',PROPCELLSHUMANSSTARSMILK)
      
   //Volume of all galaxies corresponding to number of humans
   VOLUMENEEDEDGALTOHUMANS = GALAXMILKYVOLUME * HUMANSNUMBER
   mprintf('Volume of Galaxies corresponding to 1 Human = %e\n',VOLUMENEEDEDGALTOHUMANS)
    
     
   //Proportion of volume of all humans to all needed galaxies
    PROPVOLNEEDEDGALTOHUMANS = VOLUMENEEDEDGALTOHUMANS/ALLHUMANSVOLUME
   mprintf('Proportion volume needed galaxies for all humans = %e\n',PROPVOLNEEDEDGALTOHUMANS)   
   
   //Volume microbes on earth Vmicro in m3
    mprintf('Volume microbes on earth Vmicro in m3 = %e\n',VOLUMEMICRO)   
    
    //Volume of universe in m3
    mprintf('Volume of universe in m3 = %e\n',UNIVVOLUME)   
    
    //Proportion Volume of universe in m3 to volume microbes
    mprintf('Proportion Volume of universe in m3 to volume microbes = %e\n',UNIVVOLUME/VOLUMEMICRO)   
    
    //Number of stars in the universe
    mprintf('Number of stars in the universe = %e\n',STARSUNIVNUMBERS)    
    
    //number of microbes on earth
     mprintf('number of microbes on earth = %e\n',MICROSEARTHNUMBER)    
    
    //Proportion stars in the universe and microbes on earth
      mprintf('Proportion microbes on earth  and stars in the universe = %e\n',(MICROSEARTHNUMBER/STARSUNIVNUMBERS))  
   
    //Number of cells of all humans
    mprintf('Number of cells of all humans = %e\n',CELLALLHUMANSNUMBER)
    
     //Proportion  volume of milkyway galaxy to volume of all human cells on earth  
      mprintf('Proportion  volume of milkyway galaxy to volume of all human cells on earth  = %e\n',(GALAXMILKYVOLUME/ALLHUMANSVOLUME))  
    
        //Proportion all human cells on earth to stars in the universe
      mprintf('Proportion all human cells on earth to stars in the universe = %e\n',(CELLALLHUMANSNUMBER/STARSUNIVNUMBERS))  
 
      //Proportion of all Microbes to all human cells 
      mprintf('Proportion of all Microbes to all human cells = %e\n',(MICROSEARTHNUMBER/CELLALLHUMANSNUMBER))   
      
    // Body and proportions

    //Percentage of brain cells of all body cells
    BRAINPERCENTBODY=BRAINCELLS/(CELLSHUMAN/100)
    mprintf('Percentage of Brain  within Body-Galaxy = %e\n', BRAINPERCENTBODY)

 
      mprintf('\n')
      
endfunction

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

EPISTEMISCHE SCHOCKWELLEN. Die letzten 3500 Jahre

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 20.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Die Diskussion im Kontext des letzten Textes von Freud zur Psychoanalyse lässt erkennen, wie sich das Bild von uns Menschen über uns selbst dadurch in gewisser Weise ändern kann und letztlich dann ändert, wenn wir uns auf diese Gedanken einlassen. Die Einbeziehung des ‚Unbewussten‘ in das Gesamtbild des Systems homo sapiens verschiebt so manche Beziehungen im Gefüge des menschlichen Selbstbildes, und nicht nur das, es wirkt sich auch aus auf das Gesamtbild der empirischen Wissenschaften, auf ihr Gesamtgefüge. Dies hatte sich ja auch schon angedeutet in der vorausgehenden Diskussion des Buches von Edelman, die noch nicht abgeschlossen ist.

Dies hat mich angeregt, über Freud und Edelman hinausgehenden einige der epistemischen Schockwellen zusammen zu stellen, denen das menschliche Selbstverständnis in den letzten ca. 3500 Jahren ausgesetzt war. Dabei muss man sich darüber im Klaren sein, dass es natürlich immer nur eine Minderheit war, die überhaupt an den übergreifenden Erkenntnissen teilhaben konnte, und selbst diese Minderheit zerfällt in unterschiedliche Subgruppen ohne ein kohärentes Gesamtbild.

EPISTEMISCHE SCHOCKWELLEN

Unter ‚Schockwellen‘ werden hier energetische Ereignisse verstanden, die nur gelegentlich auftreten, und die geeignet sind, bestehende Strukturen zumindest zum Schwingen, zum Erbeben zu bringen, wenn nicht gar zu ihrer Zerstörung führen. ‚Epistemisch‘ bezieht sich auf die Dimension des Erkennens, des Verstehens, zu dem Exemplare des Homo sapiens fähig sind. ‚Epistemische Schockwellen‘ sind also Ereignisse, durch die das Selbstverständnis, die Weltbilder der Menschen in Schwingungen versetzt wurden bzw. sich neu aufbauen mussten.

Die folgende Zusammenschau solcher epistemischer Schockwellen ist in keiner Weise vollständig, weitgehend nicht differenziert genug, rechtfertigt sich aber dadurch, dass es darum geht in einer überschaubaren Weise einen Grundeindruck von der Dynamik des Geistes zu vermitteln, die dem Geschehen des biologisch fundierten Lebens innewohnt.

CLUSTER RELIGION

 

Stichworte zu 'Epistemische Schockwellen', Teil 1. ca. -1500 bis ca. 1500

Stichworte zu ‚Epistemische Schockwellen‘, Teil 1. ca. -1500 bis ca. 1500

Zwischen ca. -1500 bis etwa 650 gab mindestens 8 große das Weltverstehen prägende Ereignisse – daneben viele andere, weitere –, die wir im Nachgang als ‚Religionen‘ bezeichnen. Religionen zeichnen sich aus durch ‚Gründer‘, durch ‚Botschaften‘, durch ‚Erfahrungen‘ und dann meistens nachfolgend durch ‚Regeln‘ und Bildung von ‚Organisationsformen‘. Sie erheben einen Anspruch auf ‚Deutung der Welt‘ mit ‚Sinn‘, ‚Werten‘ und ‚Spielregeln‘. Sie versprechen auch den Kontakt zu eine Letzten, Größten, Umfassenden, Endgültigen, dem alles andere unter zu ordnen ist. Vielfach gehen diese Versprechungen auch einher mit speziellen ‚außergewöhnlichen Erlebnissen‘, die im einzelnen stattfinden.

In Vorderasien und Europa waren dies vor allem das Duo Judentum-Christentum und der Islam. Während diese sich explizit auf einen ‚Schöpfer‘ bezogen, kam der indische Subkontinent neben der vielfältigen Götterwelt des Hinduismus in seinem Grundtenor — realisiert im Buddhismus — ohne einen expliziten Schöpfer aus, allerdings nicht ohne eine tiefgreifende Existenzerfahrung des einzelnen Menschen, der sich durch einen geeigneten Lebensstil und Meditation möglichst weitgehend von einem normalen Alltag und seinen vielfältigen Spannungen isolierte.

So verschieden Jugentum-Christentum, Islam auf der einen Seite und Indischer Existentialismus auf der anderen Seite auf den ersten Blick wirken können, kann man aber dennoch auffällige strukturelle Parallelen erkennen.

Die sprachliche Seite der genannten Religionen tendiert dazu, nicht die Weite und Vielfalt der Welt zu kommunizieren, keine weiterreichende Erkenntnisse, sondern die Sprache hat einzig den Zweck, eine bestimmte, abgegrenzte Idee zu kommunizieren, diese abzugrenzen von allem anderen, bis dahin, dass alle Abweichungen diskreditiert werden. Jene Menschen, die sich sprachlich von der ‚Norm‘ entfernen sind Abweichler, Dissidenten, Ungläubige, Verräter, Feinde. Die Sprache wird also nicht gesehen als ein offener, lebendiger, dynamischer Raum von ‚Wahrheit‘, die sich weiter entwickeln kann, sondern als eine symbolische Fessel, eine symbolische Mauer, die einige wenige Ideen abgrenzen sollen. Auch der Buddhismus, der eigentlich sein Fundament in einer schwer beschreibbaren individuellen Existenzerfahrung sieht, praktiziert Sprache überwiegend als Gefängnis.

Betrachtet man sich die Geschichte dieser Religionen bis heute, dann ist diese Starrheit unübersehbar. Alle modernen Erkenntnisse und Entwicklungen prallen an der Sprache dieser Religionen ab.

Neben der sprachlichen Dimension haben alle diese Religionen auch eine ‚Erlebnisdimension‘, oft auch ‚Spiritualität‘ oder ‚Mystik‘ genannt. Einzelne, Gruppierungen, Bewegungen erzähltem davon, schrieben es auf, dass sie ‚besondere, tiefgreifende Erlebnisse‘ hatten, die ihnen ‚klar gemacht haben‘, was wirklich ‚wichtig‘ ist, ‚worin der Sinn des Lebens‘ liegt, Erlebnisse, die ihnen ‚Frieden‘ geschenkt haben, ‚Erfüllung‘, ‚Wahrheit‘. Und diese Erlebnisse waren immer so stark, dass sie diese Menschen aus allen Schichten dazu bewegt haben, ihr Lebens radikal zu ändern und von da an eben ‚erleuchtet‘ zu leben. Diese Menschen gab es nicht nur im Umfeld des Buddhismus, sondern auch zu Tausenden, Zehntausenden im Umfeld des Judentum-Christentums.

Solange diese religiösen Bewegungen sich im Umfeld der etablierten religiösen Überzeugungen und Praktiken bewegen wollten, mussten sie sich – wie immer auch ihre individuellen Erlebnisse waren – diesem Umfeld anpassen. In vielen Fällen führte dies auch zu Absetzbewegungen, zur Entwicklung neuer religiöser Bewegungen. Das Problem dieser erlebnisbasierten Bewegungen war, dass sie entweder nicht die Sprache benutzen durften, die sie zur Beschreibung ihrer Erlebnisse brauchten (da nicht erlaubt), oder aber, sie benutzten eine neue Sprache, und dies führte zum Konflikt mit den etablierten Sprachspielen.

Unter den vielen hunderten Bewegungen allein im Bereich Judentum-Christentum, die z.T. viele tausend, ja zehntausend  Mitglieder hatten und dabei oft auch materiell sehr wohlhabend bis reich wurden, möchte ich zwei kurz erwähnen: die Reformation angefeuert von Martin Luther und den Jesuitenorden, angefeuert von Ignatius von Loyola. Im historischen Klischee werden beide Bewegungen oft als direkte Gegner skizziert, da der Jesuitenorden kurz nach Beginn der Reformationsbewegung gegründet wurde und der katholische Papst gerade diesen Orden auch zur ‚Bekämpfung der Reformation‘ einsetzte. Dieses Bild verdeckt aber die wirklich interessanten Sachverhalte.

Der Jesuitenorden entstand aus den spirituellen Erfahrungen eines baskischen Adligen, deren innere Logik, Beschreibung und Praxis, im Lichte der Erkenntnisse der modernen Psychologie (und Psychoanalyse) stand halten würde. Außerdem war der Orden aufgrund dieser Spiritualität extrem weltoffen, wissenschaftsaffin, und revolutionierte die damals beginnende christliche Missionierung der Welt, indem jeweils die Kultur der verschiedenen Erdteile studiert und übernommen und sogar gegen zerstörerische Praktiken der europäischen Kolonisatoren geschützt wurden. Genau dieses wahre Gesicht des Ordens mit einer radikal individuell-erlebnisbasierten Spiritualität und daraus resultierenden Weltoffenheit und Menschlichkeit führte dann zum Verbot und Aufhebung des Ordens weltweit, verbunden mit Einkerkerungen, Folter und Tod ohne Vorankündigung. Das korrupte Papsttum ließ sich damals von dem portugiesischen und spanischen Hof erpressen, die ihre menschenverachtende Geschäfte in den Kolonien, speziell Südamerika, bedroht sahen. Dies war nicht die einzige Aufhebung und Misshandlung, die der Orden seitens des Papstums erfuhr. Während Luther sich gegen das Papsttum erhob und es auf einen Konflikt ankommen ließ, blieben die Jesuiten dem Papst treu und wurden vernichtet.

Diese Minigeschichte ließe sich aber zu einem großen Thema erweitern, da eben die sprachlich fixierten Religionen generell ein Problem mit Wahrheit und damit mit jeglicher Art von Erfahrung haben. Die Akzeptanz individueller Erfahrung als möglicher Quell von ‚Wahrheit‘, möglicherweise einer weiter reichenden alternativen Wahrheit zu der sprachlich fixierten (und damit eingesperrten) Wahrheit der Religionen, eine solche Akzeptanz würde das Wahrheitsmonopol dieser Religionen aufheben. Bislang hat keine der genannten Religionen es geschafft, von sich aus ihr problematisches Wahrheitsmonopol in Frage zu stellen.

JUDENTUM – CHRISTENTUM – PHILOSOPHIE

In der Zeit vor den modernen empirischen Wissenschaften existierte wissenschaftliches Denken entweder gar nicht oder in enger Verbindung mit dem philosophischen Denken bzw. der Medizin.

In der alten und klassischen Griechischen Philosopie (ca. -800 bis -200) wurde das Weltverstehen in vielen Bereichen erstmalig sehr grundlegend reflektiert, unabhängig von bestimmten religiösen Überzeugungen, obgleich natürlich auch diese Denker nicht im luftleeren Raum lebten sondern in konkreten Kulturen mit einer damals üblichen Moral, Ethik, Spielregeln, Sprachspielen.

Unter den vielen bedeutenden Konzepten war das größte systematische Konzept wohl jenes von Aristoteles, Schüler Platons, und den an ihn anschließenden Schulen. Während dieses griechische Denken nach der Eroberung Griechenlands durch die Römer in Mittel- und Westeuropa bis zum Jahr 1000 mehr oder weniger unbekannt war (Kriege, radikal anti-wissenschaftliche Einstellung der katholischen Kirche) war der damalige Islam sehr offen für Wissen. Das griechische Denken war im Islam weitgehend bekannt, lag entsprechend in arabischen Übersetzungen vor, und durch eine Vielzahl von Schulen, Bildungsstätten und großen Bibliotheken (z.T. mehrere hundert Tausend Bücher!) wurde dieses Wissen gepflegt und weiter entwickelt (welcher Kontrast zum heutigen Islam!). Und nur über diese Umweg über den hochgebildeten Islam mit Übersetzungsschulen in Spanien kam das Wissen der Griechen ab ca. 1000 wieder in das christliche Mittel- und West-Europa.

Mit dem Entstehen eines aufgeschlosseneren Bildungssystem in Europa wanderten die griechischen Gedanken über Bücher und Gelehrte wieder in europäische Bildungsstätten ein. Es gab eine Zeit der intensiven Auseinandersetzung zwischen bisheriger christlicher Theologie und Aristoteles. Auf dem Höhepunkt der begrifflichen Integration von christlichem Glauben und Aristotelischer Weltsicht gab es aber ‚Abspaltungstendenzen‘ in mehreren Bereichen.

POLITIK – WISSENSCHAFT – SPIRITUALITÄT

Das zunehmend freie und kritische Denken begann mit der Infragestellung der bis dahin waltenden absolutistischen Machtstrukturen.

Das methodisch geschulte universitäre Denken begann, über die aristotelischen Konzepte hinaus zu denken. Anknüpfungspunkte gab es genügend.

Das individuelle Erleben der Menschen, ihre Frömmigkeit, ihre Spiritualität suchte nach neuen Wegen, benutzte eine neue Sprache, um sich besser ausdrücken zu können.

Das neue politische Denken führte später zur französischen Revolution und vielen ähnlichen politischen Erneuerungsbewegungen.

Das neue philosophische Denken führt alsbald zum Bildung der neuen empirischen Wissenschaften mit neuer Logik und Mathematik.

Die neue Spiritualität lies viele neue religiöse Bewegungen entstehen, die quer zu allen etablierten Glaubensformen lagen, u.a. auch zur Reformation.

PHILOSOPHIE – WISSENSCHAFT

Stichworte zu 'Epistemische Schockwellen', Teil2. ca. ca. 1550 bis ca.2018

Stichworte zu ‚Epistemische Schockwellen‘, Teil2. ca. ca. 1550 bis ca.2018

Aus der Vielzahl der philosophischen Denker bieten sich vier besonders an: Descartes, Kant, Wittgenstein und Carnap.

Von heute aus betrachtet markieren diese Vier entscheidende Umbrüche des philosophischen Denkens, das von den Entwicklungen in der Logik, Mathematik,Physik, Geowissenschaften, Biologie und Psychologie zusätzlich profitiert hat und noch immer profitiert.

Descartes versuchte zu klären, inwieweit sich die Wahrheitsfrage nur durch Rekurs auf das eigene Denken lösen ließe. Sein Fixpunkt in der Gewissheit des eigenen Denkens (cogito ergo sum) wurde aber erkauft durch einen fortbestehenden Dualismus zwischen Körper (res extensa) und Denken/ Geist (res cogitans), den er mit einem irrationalen Gedanken zu einer Zirbeldrüse zu kitten versuchte.

Kant führte dieses Forschungsprogramm von Descartes letztlich weiter. Sein Vermittlungsversuch zwischen fehlbarer konkreter empirischer Erfahrung und den allgemeinen Prinzipien der Mathematik und des Denkens (des Geistes) ging über Descartes insoweit hinaus, dass er auf eine Zirbeldrüsen-ähnliche Lösung verzichtete und stattdessen davon ausging, dass der Mensch in seinem Denken von vornherein in abstrakten Kategorien wahrnimmt und denkt. Unsere menschliche Konstitution ist so, dass wir so wahrnehmen und Denken. Er konstatierte damit ein Faktum, das wir heute mit all unseren Erkenntnissen nur bestätigen können. Es blieb bei ihm offen, warum dies so ist. Es zeichnet seine intellektuelle Redlichkeit aus, dass er die offenen Enden seiner erkenntnistheoretischen (epistemischen) Analysen nicht krampfhaft mit irgendwelchen Pseudo-Lösungen versucht hat zu vertuschen.

Wittgenstein war der erste, der sich mit dem Funktionieren der Sprache und ihrer Wechselwirkung mit unserem Denken ernsthaft, ja radikal beschäftigte. Während er in seinem Frühwerk noch der Statik der damaligen modernen Logik huldigte, begann er dann später alle diese statischen formalen Konstruktionen in der Luft zu zerreißen, durchlief weh-tuende detaillierte Analysen der Alltagssprache, machte vor nichts Halt, und hinterließ mit seinem frechen und angstfreien Denken einen Trümmerhaufen, dessen Verdienst es ist, den Raum frei gemacht zu haben für einen echten Neuanfang.

Carnap wirkt in diesem Zusammenhang auf den ersten Blick wie ein Antipode zu Wittgenstein, und in der Tat hat er ja das vor-wittgensteinsche Sprachverständnis in seinen Studien zu den formalen Sprachen, zur Logik, zur logischen Semantik weiter angewendet. Allerdings hat er dies dann auch im Kontext der empirischen Wissenschaften getan. Und in diesem Kontext hat sein formal-scholastisches Denken immerhin dazu beigetragen, die Grundstrukturen moderner empirische Theorien mit einem formalen Kern frei zu legen und ihre Eigenschaften zu untersuchen.

Alle diese genannten Ansätze (Kant, Wittgenstein, Carnap) wurden später mehrfach kritisiert, abgewandelt, weiter entwickelt, aber es waren diese Ansätze, die die nachfolgenden Richtungen entscheidend beeinflusst haben.

Ein interessanter Grenzfall ist Freud (s.u.). Irgendwie könnte man ihn auch zur Philosophie rechnen.

LOGIK – MATHEMATIK

Aus heutiger Sicht kann man sich gar nicht mehr vorstellen, dass es eine Zeit gegeben hat, in der die moderne Logik und Mathematik nicht verfügbar war. Nahezu alles, was unseren Alltag ausmacht setzt sehr viel Mathematik als beschreibende Sprache, als Berechnung, als Simulation voraus. Dass mathematisches Denken in den Schulen so wenig – und immer weniger – behandelt wird, ist sehr irritierend.

Logik und Mathematik sind einen weiten Weg gegangen.

Ein Meilenstein ist der Übergang von der klassischen aristotelischen Logik (eng an der Alltagssprache, Einbeziehung inhaltlichen Alltagsdenkens) zur modernen formalen Logik seit Frege (formale Sprache, formaler Folgerungsbegriff).

Eng verknüpft mit der Entwicklung der neuen formalen Logik ist auch die Entwicklung der modernen Mathematik, die entscheidend mit der Erfindung der Mengenlehre durch Cantor ihren Durchbruch fand, und dann mit Russel-Whitehead und Hilbert die Neuzeit erreichte. Keine der modernen Arbeiten in Gebieten wie z.B. Algebra, Topologie, Geometrie sind ohne diese Arbeiten denkbar, ganz zu schweigen von der modernen theoretischen Physik.

EMPIRISCHE WISSENSCHAFTEN

Erste Ausläufer empirischer Wissenschaft gab es schon vor Galilei (man denke z.B. nur an die bahnbrechenden Forschungen zur Medizin von dem islamischen Gelehrten (und Philosophen, Logiker, Theologen!) Avicenna). Doch an der Person Galileis kristallisiert sich der Konflikt zwischen neuem, offenen wissenschaftlichen Denken und dem alten, geschlossenen christlichen Denken. Zudem hat Galilei eben konsequent sowohl eine experimentelle Messmethode angewendet wie auch eine beginnende mathematische Beschreibung. Mit Newton gelang dann eine Fassung von Experiment und Theorie, die atemberaubend war: die Bewegung der Himmelskörper ließ sich nicht nur mit einfachen mathematischen Formeln beschreiben, sondern auch noch mit bis dahin unbekannter Präzision voraus sagen. Es sollte dann zwar noch fast 300 Jahre dauern, bis die moderne Physik eine erste Theorie zur Entstehung des ganzen Weltalls formulieren konnte samt ersten experimentellen Bestätigungen, aber die Befreiung des Denkens von dogmatischen Sprachbarrieren war geschafft. Die Wissenschaft insgesamt hatte sich freigeschwommen.

Schon im 17.Jahrhundert hatte Niels Stensen entdeckt, dass die unterschiedlichen Ablagerungsschichten der Erde in zeitlicher Abfolge zu interpretieren sind und man daher auf geologische Prozesse schließen kann, die die Erde durchlaufen haben muss.

Zwei Jahrhunderte später, schon im 19.Jahrhundert, wurde diese historische Sicht der Erde ergänzt durch Charles Darwin, der am Beispiel der Pflanzen- und Tierwelt auch Hinweise auf eine Entwicklung der Lebensformen fand. Sowohl die Erde als auch die biologischen Lebensformen haben eine Entwicklung durchlaufen, zudem in enger Wechselwirkung.

Fast parallel zu Darwin machte Freud darauf aufmerksam, dass unser ‚Bewusstsein‘ nicht die volle Geschichte ist. Der viel größere Anteil unseres menschlichen Systems ist ’nicht bewusst‘, also ‚unbewusst‘. Das Bewusstsein ‚erzählt‘ uns nur ‚Bruchstücke‘ jener Geschichten, die weitgehend im ‚Nicht-Bewusstein‘ oder ‚Unbewussten‘ ablaufen.

Die weitere Entwicklung der Biologie lieferte viele Argumente, die das Bild von Freud stützen.

Der Versuch von Watson, 1913, die Psychologie als empirische Verhaltenswissenschaft zu begründen, wurde und wird oft als Gegensatz zu Psychoanalyse gesehen. Das muss aber nicht der Fall sein. Mit der Verhaltensorientierung gelang der Psychologie seither viele beeindruckende theoretische Modelle und Erklärungsleistungen.

Von heute aus gesehen, müsste man ein Biologie – Psychologie – Psychoanalyse Cluster befürworten, das sich gegenseitig die Bälle zuspielt.

Durch die Einbeziehung der Mikro- und Molekularbiologie in die Evolutionsbiologie konnten die molekularen Mechanismen der Evolution entschlüsselt werden.Mittlerweile steht ein fast komplettes Modell der biologischen Entwicklung zur Verfügung. Dies erlaubt es sowohl, Kants (als auch Descartes) Überlegungen von den biologischen Voraussetzungen her aufzuklären (z.B. Edelman!), wie auch die Psychologie samt der Psychoanalyse.

COMPUTER

Als Gödel 1931 die Unentscheidbarkeit anspruchsvoller mathematischer Theorien (das fängt bei der Arithmetik an!) beweisen konnte, wirkte dies auf den ersten Blick negativ. Um seinen Beweis führen zu können, benötigte Gödel aber sogenannte ‚endliche Mittel‘. Die moderne Logik hatte dazu ein eigenes Forschungsprogramm entwickelt, was denn ‚endliche Beweismethoden‘ sein könnten. Als Turing 1936/7 den Beweis von Gödel mit dem mathematischen Konzept eines Büroangestellten wiederholte, entpuppte sich dieses mathematische Konzept später als ein Standardfall für ‚endliche Mittel‘. Turings ‚mathematisches Konzept eines Büroangestellten‘ begründete dann die spätere moderne Automatentheorie samt Theorie der formalen Sprachen, die das Rückgrat der modernen Informatik bildet. Das ‚mathematische Konzept eines Büroangestellten‘ von Turing wurde ihm zu Ehren später ‚Turingmaschine‘ genannt und bildet bis heute den Standardfall für das, was mathematisch ein möglicher Computer berechnen kann bzw. nicht kann.

Im weiteren Verlauf zeigte sich, dass gerade das Konzept des Computers ein extrem hilfreiches Werkzeug für das menschliche Denken sein kann, um die Grenzen des menschlichen Wahrnehmens, Erinnerns und Denkens auszugleichen, auszuweiten.

Schon heute 2018 ist der Computer zu einem unverzichtbaren Bestandteil der Gesellschaft geworden. Das Wort von der ‚Digitalen Gesellschaft‘ ist keine Fiktion mehr.

ZEITGEIST

Der extrem kurze Rückblick in die Geschichte zeigt, wie schwer sich die Ausbildung und Verbreitung von Ideen immer getan hat. Und wenn wir uns die gesellschaftliche Realität heute anschauen, dann müssen wir konstatieren, dass selbst in den hochtechnisierten Ländern die gesamte Ausbildung stark schwächelt. Dazu kommt das eigentümliche Phänomen, dass das Alltagsdenken trotz Wissenschaft wieder vermehrt irrationale, gar abergläubische Züge annimmt, selbst bei sogenannten ‚Akademikern‘. Die Herrschaft von Dogmatismen ist wieder auf dem Vormarsch. Die jungen Generationen in vielen Ländern werden über mobile Endgeräte mit Bildern der Welt ‚programmiert‘, die wenig bis gar nicht zu wirklichen Erkenntnissen führen. Wissen als solches, ist ‚wehrlos‘; wenn es nicht Menschen gibt, die mit viel Motivation, Interesse und Ausdauer und entsprechenden Umgebungen zum Wissen befähigt werden, dann entstehen immer mehr ‚Wissens-Zombies‘, die nichts verstehen und von daher leicht ‚lenkbar‘ sind…

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

KEIN MEMO – PSYCHOANALYSE DURCH ROBOTER?

Da die letzte Philosophierwerkstatt

PSYCHOANALYSE DURCH ROBOTER? Teil 2. Einladung zur PHILOSOPHIEWERKSTATT am 25.Februar 2018

sehr kurzfristig wegen einem schweren Infekt abgesagt werden musste, gibt es noch kein Memo. Die Sitzung wird bei der nächsten geplanten Sitzung am

25.März 2018, 15:00 – 18:00

nachgeholt werden. Die weiteren geplanten Termine für die Philosophiewerkstatt sind:

 

  • 29.April 2018
  • 27.Mai 2018
  • 24.Juni 2018
  • 29.Juli 2018
  • Sommerpause bis Ende September 2018

Künstliche Intelligenz sogar in der Psychotherapie – Wohin soll das noch führen? Prof. Humm -Darmstadt. Memo

PDF

KURZFASSUNG

Bericht zum VORTRAG „Künstliche Intelligenz sogar in der Psychotherapie — Wohin soll das noch führen?“ von Prof. Dr. Bernhard Humm (FB Informatik, Hochschule Darmstadt), Moderation: Prof. Doeben-Henisch, im Institut für Neue Medien (INM), Frankfurt, Schmickstraße 18, Donnerstag 28. September 2017, 19:30 Uhr (Fotos: Zeynep Tuncer)

KONTEXT

Bernhard Humm hatte am 5.Mai 2017 im eJournal Philosophie Jetzt- Menschenbild (ISSN 2365-5062) einen Beitrag veröffentlicht mit dem Titel „Technische Superintelligenzen werden die Menschheit bedrohen“ – Wie kann man eine so absurde Behauptung aufstellen?, der viele positive Reaktionen ausgelöst hatte. Wir hatten daraufhin einen öffentlichen Vortrag im Institut für Neue Medien (INM, Frankfurt) im Rahmen einer neuen Reihe ‚Philosophie Jetzt im Gespräch‘ vereinbart. Sein Vortrag fand dann am 28.September 2017 im INM statt. Und, wie sich zeigte, fand sich ein sehr interessantes Publikum zusammen, was das Gespräch sehr bereicherte.

BERICHT

KI ein Hype

Prof.Dr.Bernhard Humm (Hochschule Darmstadt) während seines Vortrags

Prof.Dr.Bernhard Humm (Hochschule Darmstadt) während seines Vortrags

Einleitend machte er deutlich, dass das Thema Künstliche Intelligenz (KI) seit einigen Jahren einen Hype-Charakter hat, was allerdings nicht neu ist. Zitate von Marvin Minsky (1967, 1970) und Ray Kurzweil (2005) illustrierten dies. Der Verweis auf das Märchen von des Kaiser’s neuen Kleider mag auf den ersten Blick krass erscheinen, aber wenn man sich die Marketingverlautbarungen vieler Firmen anschaut, ist dies nicht allzu weit weg davon.

KI im Alltag

Offensichtlich ist, dass Anwendungen mit KI-ähnlichen Eigenschaften mittlerweile im Alltag angekommen sind und wie selbstverständlich benutzt werden (z.B. Gesichtserkennung, Sprachschnittstellen für die Steuerung, selbst fahrende Autos).

Bernhard Humm verdeutlichte diese Breite heutiger Anwendungen mit anderen Projekten, bei denen er beteiligt war, so z.B. die Unterstützung der Entwickler bei einer bekannten Roboterfirma, die Unterstützung bei der Findung eines geeigneten Hotels für die Wünsche von Kunden bei einem bekannten Internetportal für die Hotelreservierung, die Unterstützung der Besucher des Städelmuseums im Auffinden ähnlicher Kunstobjekte, die Unterstützung von Bibliotheksbenutzern bei der Suche nach passender Literatur, oder die Unterstützung von Ärzten beim Identifizieren von Krebsrisiken.

KI und Therapie

Jürgen Hardt, ein Experte für Psychoanalyse und Psychotherapie, hört hier aufmerksam zu

Jürgen Hardt, ein Experte für Psychoanalyse und Psychotherapie, hört hier aufmerksam zu

Bernhard Humm berichtete dann von einem neuen Projekt mit dem Zentralinstitut für Seelische Gesundheit (ZI) in Mannheim, bei dem es um den Therapiekontext im Fall von Borderline-Patienten geht. Solche Patienten sind extrem sensibel für Belastungen, was bedeutet, dass in der Interaktion mit Ihnen Stressmomente soweit wie möglich minimiert werden müssen.

Die Aufgabenstellung für die Informatik in diesem Fall ist nicht, den Therapeuten zu ersetzen, sondern die Therapie des Therapeuten zu unterstützen.

Ein Anknüpfungspunkt sind die routinemäßigen schriftlichen Befragungen, die die Patienten mit normalem Schreibgerät ausfüllen müssen. Für die Therapeuten ist dies eine wichtige Rückmeldung. Für die Patienten ist es ein Baustein ihrer aktiven Bewältigung der Borderline-Phänomene.

Eine Maßnahme war die Möglichkeit anzubieten, dass die Patienten diese Fragebogen über ihr Smartphone oder den Computer ausfüllen können. Was auf den ersten Blick banal erscheinen mag, stellte sich als eine große Hilfe für die Patienten heraus. Sie empfanden dies deutlich als Erleichterung.

Ein anderer Ansatzpunkt war motiviert durch die allgegenwärtige Gefahr, dass Patienten (aufgrund ihres geringen Stresspegels) sehr leicht zu einem Abbruch tendieren. Für die Therapeuten ist es daher von hoher Bedeutung, zu erkennen, ob sich ein Abbruch andeutet. Es wurde daher versuchsweise begonnen, mit Methoden der statistischen Datenanalyse (heute oft verbunden mit dem Schlagwort von ‚Big Data‘), über eine Vielzahl von (anonymisierten) Fragebogendaten, Anhaltspunkte zu finden, die auf einen wahrscheinlichen Abbruch hindeuten. Die ersten Experimente mit verschiedenen Auswertungstechniken waren sehr positiv. Damit deutet sich an, dass die Therapeuten auf diese Weise eine zusätzliche Unterstützung bekommen könnten, in ihrer Therapie darauf zu achten.

Matthias Rewald (Armstädter Ontologenkreis) und Gerd Doeben-Henisch (Moderator des Abends) im Gespräch

Matthias Rewald (Darmstädter Ontologenkreis) und Gerd Doeben-Henisch (Moderator des Abends) im Gespräch

KI und Zukunft der Arbeit

Michael Klein, der Direktor des INM, mit einem frfeundlichen Lächeln

Michael Klein, der Direktor des INM, mit einem freundlichen Lächeln

Bernhard Humm betonte einerseits die Normalität und die aktuelle Einfachheit der tatsächlichen KI-Anwendungen, er verwies aber auch auf mögliche weitreichende Herausforderungen, die sich durch die zunehmende Ersetzung von klassischen Arbeitsplätzen durch intelligente Technologien manifestieren.

Im Rahmen der industriellen Revolution hat die Menschheit schon einige Umbrüche erlebt und letztlich überstanden, aber der neue Technologiewandel durch umfassende Digitalisierung greift viel weiter, viel tiefer in das gesellschaftliche Leben ein als alles, was wir bislang kennen.

Die bisherigen Prognosen zur Zukunft der Arbeit sind zudem sehr widersprüchlich; dies deutet an, dass die Materie unübersichtlich ist. Sollte der Wegfall von Arbeitsplätzen deutlich größer sein als das Entstehen neuer Arbeit, dann würde dies große Herausforderung an das bisherige Gesellschaftsmodell stellen: wie an der wirtschaftlichen Produktion beteiligt sein ohne durch Arbeit Geld zu verdienen?

Auch stellen sich viele Fragen, wenn immer mehr Entscheidungsprozesse an Algorithmen ausgelagert werden. Wenn automatisierte Waffen ‚von sich aus‘ angreifen und töten? Wenn im Hochfrequenzhandel an den Börsen die Algorithmen global wirtschaftliche Prozesse ohne Rückkopplung an Menschen steuern? Wenn Verwaltungsabläufe automatisiert werden? Wenn … viele Fragen, auf die wir bislang noch keine Antworten haben.

DISKUSSION

Schon während des Vortrags gab es Ansätze zur Diskussion, die dann nach einer kurzen Pause lebhaft weiter geführt wurde.

Man kann die Beiträge grob in zwei Gruppen einteilen: (i) Der Kontext von Therapie für den Einsatz von KI und (ii) Grundsatzfragen zur Zukunft von Menschen und intelligenten Maschinen.

Therapiekontext

Aufgrund der Einfachheit der Informatikanwendungen am Beispiel der Therapie von Borderline-Patienten und ihrer deutlichen Beschränkung als begrenztes Werkzeug für die Therapeuten gab es hier noch nicht viel Diskussionsbedarf. Jürgen Hardt, erfahrender Psychoanalytiker und Psychotherapeut(*)  lies allerdings in seinen Gesprächsbeiträgen aufblitzen, wie komplex die Sachlage im Fall von psychoanalytischen Therapien ist und welche grundsätzlichen Beschränkungen computergestützte Anwendungen bislang aufweisen, erst Recht, wenn sie als online-Dienst daher kommen.

Andererseits zeigt das Projektbeispiel mit den Borderline-Patienten auch ein wenig, dass ein übergreifender theoretischer Rahmen für diese Art von interdisziplinärem Vorgehen noch fehlt. Es wäre interessant zu sehen, ob und wie solch ein Rahmen die Diskussion beeinflussen könnte.

Bernhard Humm, während der Pause, eingetaucht in virtuelle Beschriftung

Bernhard Humm, während der Pause, eingetaucht in virtuelle Beschriftung

KI als mögliche Bedrohung

Die Tatsache, dass die überwiegende Zahl der Beiträge sich auf die möglichen Bedrohungen der KI bezog, deutet an, wie stark dies doch offensichtlich alle beschäftigt.

Ein Thema war die offensichtliche Faszination, die das Thema KI bei den Menschen auslöst; einmal in dem Sinne, dass man mit der KI eine Fülle von Verheißungen verknüpft, die Lösung aller Probleme, die wir Menschen bislang noch nicht gelöst haben, und dann unendliche Bedrohungsszenarien. Woher kommt dies? Warum reagieren wir Menschen so? Und in der Tat lässt sich dieses Motiv in der Kulturgeschichte viele Jahrhunderte, wenn nicht Jahrtausende zurück verfolgen (Jürgen Hardt).

Einen großen Raum nahm das Thema ‚Digitalisierung der Gesellschaft ein, was von einigen als Teil eines Kulturwandels gedeutet wurde, der grundlegende Muster verändert. Worauf dies alles hinauslaufen wird erschließt sich noch nicht so richtig. Michael Klein machte darauf aufmerksam, dass die großen Internetkonzerne mit Sitz in Silicon Valley schon seit den 90iger Jahren eindeutige Manifest verfasst haben, in denen sie beschreiben, wie sie die Welt verändern wollen. Ein Kern dieser Überzeugungen ist der Glaube an die globale Allheilkraft der Daten mit Daten lassen sich alle Probleme lösen.

Dies erinnert an die Schriften der Aufklärung(Humm), in denen ebenfalls die Verfügbarkeit von Wissen als ein Schlüssel für die Veränderung der Welt (dort vom Absolutismus zu mehr Gleichheit und Brüderlichkeit in allem, zum Abbau von Dogmatismus und Ideologie) angesehen wurde. Wie die Geschichte uns zeigen kann, hat das Wissen alleine bislang offensichtlich nicht diese erhoffte Heilkraft für alle Probleme: Diktaturen, Kriege, Ausbeutung, Hunger, Unterdrückung und vieles mehr sind bis heute de weltumfassenden Begleiter der Menschheit.

Es gab auch verschiedene Stimmen, die jene Position von Bernhard Humm in Frage stellten, in der er den Unterschied zwischen Menschen und intelligenten Maschinen so grundsätzlich darstellte, dass ein Ersatz der Menschen durch solche Maschinen kaum vorstellbar erscheine. Das Ergebnis dieser Argumente war nicht eindeutig. Dass intelligente Maschinen sich in der Zukunft zumindest selbst ‚fortpflanzen‘ könnten, schien den Diskussionsteilnehmern prinzipiell nicht ausgeschlossen.

Doeben-Henisch wies gegen Ende noch auf ein grundlegendes Problem der modernen KI hin, das, sollte es zutreffen, sehr viele Fragezeichen hinter die Zukunft der KI setzen würde, selbst wenn diese Maschinen tausende Male schneller als Menschen würden (was sie ja schon sind) und tausende Male mehr Daten verarbeiten können (was ja auch schon stattfindet). Das Problem findet sich im Bereich des autonomen Lernens. In dem sehr fortschrittlichen Bereich ‚developmental robotics‘, wo es um die Entwicklung von Robotern mit mehr Autonomie geht, die sich ähnlich wie Kindern entwickeln können sollen, ist man seit einigen Jahren auf das Problem gestoßen, mit welchen Präferenzen (= Werte) Roboter lernen sollen, wenn diese nicht nur von den Ingenieuren ‚eingeflüstert‘ werden sollen. Außerdem reicht es nicht, dass ein einzelner Roboter ‚Präferenzen‘ besitzt, sondern eine ganze Population von Robotern muss sich ‚einigen‘, welche Werte sie gemeinsam verfolgen wollen. Aktuell führt die Menschheit vor, wie unfähig sie selbst ist, dieses Problem zu lösen. Es gibt nicht die leiseste Idee, wie Roboter dieses Problem lösen sollen. Wissen als solches ist neutral, es gibt keine Richtung vor. Die chinesische Regierung demonstriert gerade, wie man das aktuelle Werte-Vakuum und die ‚willenlose KI‘ aufgrund von Machtkonstellationen beliebig instrumentalisieren kann (Bericht FAZ vom 25.September 2017).

 

ANMERKUNGEN

(*) Jürgen Hardt ist Psychologischer Psychotherapeut, Lehr- und Kontrollanalytiker (DPV/IPA), Gruppenlehranalytiker (GAS, London), Supervisor und Organisationsberater (DAG) und Gründungspräsident der Psychotherapeutenkammer Hessen. Er hat gemeinsam mit anderen erfolgreich Verfassungsbeschwerde gegen das BKA Gesetz eingelegt, und dabei mit der besonderen Schutzbedürftigkeit des psychotherapeutischen Gespräches argumentiert.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

DIE MEISTGELESENEN BEITRÄGE IM BLOG 2015

Eine Liste der 17 am häufigten besuchten Beiträge im Blog, wie sie im Zeitraum von Dez.2013 bis Dez.2015 vom Statistikmodul von wordpress registriert worden sind. Über die Korrektheit lässt sich weiter nichts sagen, da die Basisdaten der Statistik nicht zugänglich sind. Die Statistik registriert aber auch Zugriffe auf Blogbeiträge vor Dez.2013. Bei mittlerweile 322 Blogeinträgen von cagent seit 2007 kann es aufschlussreich sein, welche 17 Beiträge von Lesern als interessant empfunden wurden.

1 KANN ES DOCH EINEN KÜNSTLICHEN GEIST GEBEN?
2 OFFENBARUNGSRELIGIONEN – Grenzen, die man bedenken sollte
3 CARTESIANISCHE MEDITATIONEN III
4 BLOG GEBIERT BUCH. Bis 28.August 2015 soll die Grundaussage des Blogs als Buch geschrieben werden
5 PARADOX MENSCH – Reden wir nicht drum herum….
6 Über Industrie 4.0 und Transhumanismus. Roboter als Volksverdummung? Schaffen wir uns selbst ab?
7 SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015
8 Gnoseologische, ontologische, teleologische Wahrheit – Fortsetzung 2 der Überlegungen zu N.Hartmanns Metaphysik der Erkenntnis
9 IBN SINA/ AVICENNA: DIE METAPHYSIK AVICENNAS – Warum man manchmal schlafende Hunde wecken sollte (Teil 1)
10 Philosophische Büttenrede…
11 SIND KINDER GUT? WIE KOMMT DAS BÖSE IN DIE WELT? MEMO philosophieWerkstatt vom 8.Februar 2015
12 NACHBEMERKUNG ZUM BUCH VON H.RATH – Und Gott sprach: Wir müssen reden!
13 CHRISTLICHES ABENDLAND EINE LEGENDE? Nachbetrachtungen zum Buch von R.Bergmeier
14 DIE NEUROWISSENSCHAFTEN – EIN PHILOSOPHISCHES SCHWARZES LOCH? – Zu einem Artikel von W.Singer in der FAZ vom 17.September 2014
15 Wissenschaftliches Denken (2)
16 INDUKTIVES SERVICE-LEARNING? Plädoyer für mehr Vertrauen in die Generation der Zukunft. Mehr Selbstvertrauen in die Mission Zukunft der Hochschulen.
17 Der Ursprung und die Evolution des Lebens auf der Erde. Leben als ein kosmischer Imperativ. Reflexionen zum Buch von Christian de Duve. Teil 2

Eine Liste aller Blogbeiträge von cagent nach Titeln findet sich HIER.

VOM VERSCHWINDEN DES MENSCHEN – EIN GEDANKLICHER KURZSCHLUSS? – Thema der Philosophiewerkstatt vom 13.Dez.2015

Logo PhilWerkstatt v3

Logo PhilWerkstatt v3

EINLADUNG ZUR NÄCHSTEN

philosophieWerkstatt v3.0

am

Sonntag, 13.Dez.2015

16:00 – 19:00h

in der
DENKBAR Frankfurt
Spohrstrasse 46a

Essen und Trinken wird angeboten von Michas Essen & Trinken. Parken ist im Umfeld schwierig; evtl. in der Rat-Beil-Strasse (entlang der Friedhofsmauer).

Anliegen der Philosophiewerkstatt ist es, ein philosophisches Gespräch zu ermöglichen, in dem die Fragen der TeilnehmerInnen versuchsweise zu Begriffsnetzen verknüpft werden, die in Beziehung gesetzt werden zum allgemeinen Denkraum der Philosophie, der Wissenschaften, der Kunst und Religion. Im Hintergrund stehen die Reflexionen aus dem Blog cognitiveagent.org, das Ringen um das neue Menschen- und Weltbild.

PROGRAMMVORSCHLAG

Als Programmablauf für den 13.12.15 wird vorgeschlagen:

16:00h Begrüßung
16:15h Kurzeinführung durch Gerd Doeben-Henisch anhand von zwei Mini-Hörspielen von jeweils ca. 5 Minuten.
16:30h Danach gemeinsame Reflexion zum Thema mit begleitender Erstellung eines Begriffsnetzwerkes.
17:30h ‚Blubberphase‘ – jeder kann mit jedem reden, um das zuvor gesagte ‚aktiv zu verdauen‘
18:00h Schlussdiskussion mit Zusammenfassung der Ergebnisse
18:45h Themenvorschläge für die nächste Sitzung

PHILOSOPHIEWERKSTATT ÜBERBLICK

Einen Überblick über alle Beiträge zur Philosophiewerkstatt nach Themen findet sich HIER

K.G.DENBIGH: AN INVENTIVE UNIVERSE — Relektüre — Teil 4

K.G.Denbigh (1975), „An Inventive Universe“, London: Hutchinson & Co.

BISHER

Im Teil 1 der Relektüre von Kenneth George Denbighs Buch „An Inventive Universe“ hatte ich, sehr stark angeregt durch die Lektüre, zunächst eher mein eigenes Verständnis von dem Konzept ‚Zeit‘ zu Papier gebracht und eigentlich kaum die Position Denbighs referiert. Darin habe ich sehr stark darauf abgehoben, dass die Struktur der menschlichen Wahrnehmung und des Gedächtnisses es uns erlaubt, subjektiv Gegenwart als Jetzt zu erleben im Vergleich zum Erinnerbaren als Vergangen. Allerdings kann unsere Erinnerung stark von der auslösenden Realität abweichen. Im Lichte der Relativitätstheorie ist es zudem unmöglich, den Augenblick/ das Jetzt/ die Gegenwart objektiv zu definieren. Das individuelle Jetzt ist unentrinnbar subjektiv. Die Einbeziehung von ‚Uhren-Zeit’/ technischer Zeit kann zwar helfen, verschiedene Menschen relativ zu den Uhren zu koordinieren, das grundsätzliche Problem des nicht-objektiven Jetzt wird damit nicht aufgelöst.

In der Fortsetzung 1b von Teil 1 habe ich dann versucht, die Darlegung der Position von Kenneth George Denbighs Buch „An Inventive Universe“ nachzuholen. Der interessante Punkt hier ist der Widerspruch innerhalb der Physik selbst: einerseits gibt es physikalische Theorien, die zeitinvariant sind, andere wiederum nicht. Denbigh erklärt diese Situation so, dass er die zeitinvarianten Theorien als idealisierende Theorien darstellt, die von realen Randbedingungen – wie sie tatsächlich überall im Universum herrschen – absehen. Dies kann man daran erkennen, dass es für die Anwendung der einschlägigen Differentialgleichungen notwendig sei, hinreichende Randbedingungen zu definieren, damit die Gleichungen gerechnet werden können. Mit diesen Randbedingungen werden Start- und Zielzustand aber asymmetrisch.

Auch würde ich hier einen Nachtrag zu Teil 1 der Relektüre einfügen: in diesem Beitrag wurde schon auf die zentrale Rolle des Gedächtnisses für die Zeitwahrnehmung hingewiesen. Allerdings könnte man noch präzisieren, dass das Gedächtnis die einzelnen Gedächtnisinhalte nicht als streng aufeinanderfolgend speichert, sondern eben als schon geschehen. Es ist dann eine eigene gedankliche Leistungen, anhand von Eigenschaften der Gedächtnisinhalte eine Ordnung zu konstruieren. Uhren, Kalender, Aufzeichnungen können dabei helfen. Hier sind Irrtümer möglich. Für die generelle Frage, ob die Vorgänge in der Natur gerichtet sind oder nicht hilft das Gedächtnis von daher nur sehr bedingt. Ob A das B verursacht hat oder nicht, bleibt eine Interpretationsfrage, die von zusätzlichem Wissen abhängt.

Im Teil 2 ging es um den Anfang von Kap.2 (Dissipative Prozesse) und den Rest von Kap.3 (Formative Prozesse). Im Kontext der dissipativen (irreversiblen) Prozesse macht Denbigh darauf aufmerksam, dass sich von der Antike her in der modernen Physik eine Denkhaltung gehalten hat, die versucht, die reale Welt zu verdinglichen, sie statisch zu sehen (Zeit ist reversibel). Viele empirische Fakten sprechen aber gegen die Konservierung und Verdinglichung (Zeit ist irreversibel). Um den biologischen Phänomenen gerecht zu werden, führt Denbigh dann das Konzept der ‚Organisation‘ und dem ‚Grad der Organisiertheit‘ ein. Mit Hilfe dieses Konzeptes kann man Komplexitätsstufen unterscheiden, denen man unterschiedliche Makroeigenschaften zuschreiben kann. Tut man dies, dann nimmt mit wachsender Komplexität die ‚Individualität‘ zu, d.h. die allgemeinen physikalischen Gesetze gelten immer weniger. Auch gewinnt der Begriff der Entropie im Kontext von Denbighs Überlegungen eine neue Bedeutung. Im Diskussionsteil halte ich fest: Im Kern gilt, dass maximale Entropie vorliegt, wenn keine Energie-Materie-Mengen verfügbar sind, und minimale Entropie entsprechend, wenn maximal viele Energie-Materie-Mengen verfügbar sind. Vor diesem Hintergrund ergibt sich das Bild, dass Veränderungsprozesse im Universum abseits biologischer Systeme von minimaler zu maximaler Entropie zu führen scheinen (dissipative Prozesse, irreversible Prozesse, …), während die biologischen Systeme als Entropie-Konverter wirken! Sie kehren die Prozessrichtung einfach um. Hier stellen sich eine Fülle von Fragen. Berücksichtigt man die Idee des Organisationskonzepts von Denbigh, dann kann man faktisch beobachten, dass entlang einer Zeitachse eine letztlich kontinuierliche Zunahme der Komplexität biologischer Systeme stattfindet, sowohl als individuelle Systeme wie aber auch und gerade im Zusammenspiel einer Population mit einer organisatorisch aufbereiteten Umgebung (Landwirtschaft, Städtebau, Technik allgemein, Kultur, …). Für alle diese – mittlerweile mehr als 3.8 Milliarden andauernde – Prozesse haben wir bislang keine befriedigenden theoretischen Modelle

Im Teil 3 geht es um das Thema Determinismus und Emergenz. Ideengeschichtlich gibt es den Hang wieder, sich wiederholende und darin voraussagbare Ereignisse mit einem Deutungsschema zu versehen, das diesen Wiederholungen feste Ursachen zuordnet und darin eine Notwendigkeit sieht, dass dies alles passiert. Newtons Mechanik wird in diesem Kontext als neuzeitliche Inkarnation dieser Überzeugungen verstanden: mit klaren Gesetzen sind alle Bewegungen berechenbar. Denbigh zeigt dann anhand vieler Punkte dass die Annahme eines Determinismus wenig plausibel ist. Betrachtet man den Gang der Entwicklung dann kann man nach Denbigh etwa folgende Komplexitätsstufen unterscheiden: (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143) Aus wissenschaftlicher Sicht müssen sich alle diese ‚Stufen‘ (‚level‘) einheitlich erklären lassen.

KAPITEL 5: GIBT ES IRGENDWELCHE SCHÖPFERISCHEN PROZESSE? (149 – 178)

1. Nachdem Denbigh in den vorausgehenden 4 Kapiteln die Begrenztheit vieler Konzepte in der modernen Physik in den Fokus gerückt hatte (z.B.: dass die Welt nicht deterministisch ist; dass die Naturgesetze Gedankenbilder sind und nicht automatisch eine ontologische Geltung besitzen; dass alle bekannten Prozesse in der Natur irreversibel sind; dass das Konzept einer Symmetrie nicht empirisch gedeckt ist; dass die sogenannten Konservierungsgesetze postuliert wurden bevor sie überhaupt definiert wurden; dass alles darauf hindeutet, dass die Entropie zunimmt ), konzentriert er sich im letzten 5.Kapitel auf die Frage, ob es überhaupt schöpferische/ erfinderische (‚inventive‘) Prozesse gibt.
2. Mit schöpferisch meint er nicht einen Vorgang wie in den religiösen Schöpfungsmythen, in denen quasi aus dem Nichts ein unbekanntes Etwas genannt Gott/ Schöpfer etwas hervorbringt (die Welt), die dann völlig deterministisch abläuft, sondern eher einen abgeschwächten Hervorbringungsprozess, der ohne Notwendigkeit geschieht, nicht voraussagbar ist, etwas wirklich Neues bringt, und der alle Phänomene des bekannten Universums abdeckt. Er geht sogar soweit, zu sagen, dass alle die zuvor genannten Komplexitätsstufen (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143) sich als Momente an diesem generischen Innovationsprozess erweisen lassen müssten.

3. Dieser generische Innovationsprozess ist dann allgemeiner als der übliche Emergenz-Begriff. Emergenz beschreibt üblicherweise das Auftreten spezifischer Komplexitätsstufen bzw. -eigenschaften im engeren Sinne und nicht einen generischen Prozess für alle diese Phänomene.

4. In Anlehnung an das bekannte Schema der genetischen Algorithmen (hier ein knapper Überblick zur historischen Entwicklung des Konzepts Genetischer Algorithmus (GA) sowie Classifier Systeme) stellt Denbigh letztlich drei charakterisierende Momente für seine Idee eines Innovationsprozesses vor: 1) Die Ereignisse sind zufällig ; sie sind 2) selektiv (bei biologischen Systemen oft noch verstärkt durch sexuell bedingte Vermischung im Erbmaterial (crossover)(s.160)); schließlich 3) verstärkend aufgrund des anschließenden Erfolges.
5. Er illustriert dieses Schema beim Übergang vom BigBang zu den ersten Gaswolken, dann zu den Sternen und Galaxien, dann bei der Molekülbildung, bei der Zellbildung, usw. Wichtig ist ihm auch, dass dieses Ereignismodell nicht an biologische Substrate gebunden ist, sondern eben von nicht-biologischen Systemen allgemein auch befolgt werden kann, speziell auch von modernen programmgesteuerten Maschinen (Computern).
6. Eine noch allgemeinere Charakterisierung ist jene, die diese schöpferischen Prozesse ansiedelt zwischen Ordnung und Unordnung. Ein Beispiel für hohe Ordnung wären die kristallinen Strukturen (sie sind für schöpferische Prozesse zu starr), und ein Beispiel für Unordnung wäre gasförmige Strukturen (sie sind für schöpferische Prozesse zu instabil, zu flüchtig). (Vgl.S.162f) Mit anderen Worten, bei allem Aufbau von Ordnung muss es hinreichend viel Rest-Unordnung geben, ansonsten kommen alle Prozesse zum Stillstand, oder: gefordert ist ein Zustand unterhalb maximaler Entropie.
7. Wie Denbigh auch in den vorausgehenden Kapiteln schon angedeutet hatte, sieht er spirituelle/ geistige Phänomene einschließlich des Bewusstseins als normale Phänomene des Naturprozesses. (Z.B. S.168f)
8. So sieht er die 6 Komplexitätsstufen von oben auch als Ausprägungen eines allgemeineren 3-stufigen Schemas (i) unbelebt , (ii) belebt sowie (iii) belebt mit wachsendem Bewusstsein. (Vgl. S.171)
9. Unter Voraussetzung seines 3-stufigen Innovationsmodells kann er dann das Bewusstsein als einen Prozess interpretieren, der die Fähigkeit zur Selektion für ein biologisches System dramatisch verbessert. (Vgl. S.163-165)
10. Denbigh kommt in diesem Kapitel auch nochmals auf die Problematik der nichtwissenschaftlichen Voraussetzungen der Wissenschaft zu sprechen, die ich in einem vorhergehenden Beitrag schon angesprochen hatte (der Beitrag war angeregt von der Lektüre von Denbigh).
11. Mit Zitaten von einigen berühmten Forschern und Philosophen thematisiert Denbigh nicht nur allgemein die häufig unreflektierte Voraussetzungsbehaftetheit von Wissenschaft, sondern spricht auch speziell die Tendenz des menschlichen Denkens an, die Prozesse der Natur zu verdinglichen. Während Messgeräte und unsere menschliche Wahrnehmung primär nur isolierte Ereignisse registrieren können, setzt unser Denken diese individuellen Ereignisse automatisch (sprich: unbewusst) zu abstrakten Strukturen zusammen, zu sogenannten Objekten, denen wir dann Eigenschaften und Beziehungen zuordnen. (Vgl. S.164f und Anmk.14) Auf einer größeren Zeitskala gibt es diese Objekte aber nicht, sondern da gibt es nur kontinuierliche Zustandsänderungen eines alles umfassenden Prozesses, dem man zwar Eigenschaften zuordnen kann, aber letztlich nicht isolierte Objekte. Berücksichtigt man diese Artefakten unseres Denkens, dann legt sich der Gedanken nahe, die gesamte Physik von diesem veränderten Blickwinkel aus zu betrachten und zu re-analysieren. Hier verweist Denbigh explizit auf die theoretischen Arbeiten des berühmten Physikers David Bohm (später in Kooperation mit Basil J.Hiley), dessen Ergebnisse nach vielen Jahren Arbeit Eingang in das Buch The Undivided Universe: An Ontological Interpretation of Quantum Theory gefunden haben.

12. Denbigh fasst die manifeste Schizophrenie der modernen Wissenschaft in ihrer Haltung zum Menschen in folgendes Bild: „Die moderne Wissenschaft ist ein gedankliches System, das zwar die kreative Kraft der Menschen umfassend dokumentiert, und doch macht sie den Menschen selbst zu einer Sache/ zu einem Ding (‚thing‘) – also zu einem Objekt, von dem die Wissenschaft annimmt, dass es über eine solche schöpferische Kraft gar nicht verfügt.“ (Anmk.22, S.173)

DISKUSSION

  1. Dieses Buch habe ich als extrem anregend empfunden. Es taucht viele bekannte Positionen in ein neues Licht.
  2. Erkenntnistheoretisch liegt es auf der Linie, die bislang im Blog vertreten wurde, nämlich dass man bei der Diskussion der verschiedenen Phänomene und Positionen die jeweiligen Bedingungen des Erkennens beachten sollte, wenn man zu einer Einschätzung kommen möchte. Und dazu reicht keine klassische Erkenntnistheorie, sondern man muss die  modernen Erkenntnisse aus Psychologie und Biologie einbeziehen. Die Warnung vor einer falschen Verdinglichung der Weltereinisse sollte ernst genommen werden.
  3. Ferner ist der bisherige Erklärungsansatz dieses Blogs über einen generellen Evolutionsbegriff in Übereinstimmung mit dem generellen Innovationsansatz von Denbigh. Tatsächlich erscheint Denbighs Ansatz noch radikaler, generischer.  Dies soll im weiteren mehr bedacht werden.
  4. Die klare Subsumierung alles Geistigen unter den allgemeinen Naturprozess entspricht auch der Linie im Blog. Dieses führt aber nicht — wie Denbigh auch klar herausstellt — zu einer Vereinfachung oder Abwertung des Geistigen sondern zu einem vertieften Verständnis  der potentiellen Vielfalt und Komplexität der Energie-Materie. Mit der unterschiedlichen Einordnung geht ja nicht das Phänomen verloren, sondern die begriffliche Einordnung muss neu justiert werden. Dies verlangt nicht nur eine Neupositionierung der bisherigen Geisteswissenschaften, sondern genauso auch eine Neupositionierung der Naturwissenschaften. Diese erweisen sich bislang aber als nicht minder dogmatisch wie die oft gescholtenen Geisteswissenschaften.

QUELLEN

  1. Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.
  2. David Joseph Bohm FRS[1] (December 20, 1917 – October 27, 1992) was an American scientist who has been described as one of the most significant theoretical physicists of the 20th century[2] and who contributed innovative and unorthodox ideas to quantum theory, neuropsychology and the philosophy of mind.
  3. Basil J. Hiley (born 1935), is a British quantum physicist and professor emeritus of the University of London. He received the Majorana Prize „Best person in physics“ in 2012.
  4. Review von: „The Undivided Universe: An Ontological Interpretation of Quantum Theory“ von David Bohm and Basil J. Hiley, Routledge, London and New York, 1993. 397 pp. hc, ISBN 0–415–06588–7 durch Sheldon Goldstein, Department of Mathematics, Rutgers University, New Brunswick, NJ 08903, USA(July 28, 1994)

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

K.G.DENBIGH: AN INVENTIVE UNIVERSE — Relektüre — Teil 3

K.G.Denbigh (1975), „An Inventive Universe“, London: Hutchinson & Co.

BISHER

Im Teil 1 der Relektüre von Kenneth George Denbighs Buch „An Inventive Universe“ hatte ich, sehr stark angeregt durch die Lektüre, zunächst eher mein eigenes Verständnis von dem Konzept ‚Zeit‘ zu Papier gebracht und eigentlich kaum die Position Denbighs referiert. Darin habe ich sehr stark darauf abgehoben, dass die Struktur der menschlichen Wahrnehmung und des Gedächtnisses es uns erlaubt, subjektiv Gegenwart als Jetzt zu erleben im Vergleich zum Erinnerbaren als Vergangen. Allerdings kann unsere Erinnerung stark von der auslösenden Realität abweichen. Im Lichte der Relativitätstheorie ist es zudem unmöglich, den Augenblick/ das Jetzt/ die Gegenwart objektiv zu definieren. Das individuelle Jetzt ist unentrinnbar subjektiv. Die Einbeziehung von ‚Uhren-Zeit’/ technischer Zeit kann zwar helfen, verschiedene Menschen relativ zu den Uhren zu koordinieren, das grundsätzliche Problem des nicht-objektiven Jetzt wird damit nicht aufgelöst.

In der Fortsetzung 1b von Teil 1 habe ich dann versucht, die Darlegung der Position von Kenneth George Denbighs Buch „An Inventive Universe“ nachzuholen. Der interessante Punkt hier ist der Widerspruch innerhalb der Physik selbst: einerseits gibt es physikalische Theorien, die zeitinvariant sind, andere wiederum nicht. Denbigh erklärt diese Situation so, dass er die zeitinvarianten Theorien als idealisierende Theorien darstellt, die von realen Randbedingungen – wie sie tatsächlich überall im Universum herrschen – absehen. Dies kann man daran erkennen, dass es für die Anwendung der einschlägigen Differentialgleichungen notwendig sei, hinreichende Randbedingungen zu definieren, damit die Gleichungen gerechnet werden können. Mit diesen Randbedingungen werden Start- und Zielzustand aber asymmetrisch.

Auch würde ich hier einen Nachtrag zu Teil 1 der Relektüre einfügen: in diesem Beitrag wurde schon auf die zentrale Rolle des Gedächtnisses für die Zeitwahrnehmung hingewiesen. Allerdings könnte man noch präzisieren, dass das Gedächtnis die einzelnen Gedächtnisinhalte nicht als streng aufeinanderfolgend speichert, sondern eben als schon geschehen. Es ist dann eine eigene gedankliche Leistungen, anhand von Eigenschaften der Gedächtnisinhalte eine Ordnung zu konstruieren. Uhren, Kalender, Aufzeichnungen können dabei helfen. Hier sind Irrtümer möglich. Für die generelle Frage, ob die Vorgänge in der Natur gerichtet sind oder nicht hilft das Gedächtnis von daher nur sehr bedingt. Ob A das B verursacht hat oder nicht, bleibt eine Interpretationsfrage, die von zusätzlichem Wissen abhängt.

Im Teil 2 ging es um den Anfang von Kap.2 (Dissipative Prozesse) und den Rest von Kap.3 (Formative Prozesse). Im Kontext der dissipativen (irreversiblen) Prozesse macht Denbigh darauf aufmerksam, dass sich von der Antike her in der modernen Physik eine Denkhaltung gehalten hat, die versucht, die reale Welt zu verdinglichen, sie statisch zu sehen (Zeit ist reversibel). Viele empirische Fakten sprechen aber gegen die Konservierung und Verdinglichung (Zeit ist irreversibel). Um den biologischen Phänomenen gerecht zu werden, führt Denbigh dann das Konzept der ‚Organisation‘ und dem ‚Grad der Organisiertheit‘ ein. Mit Hilfe dieses Konzeptes kann man Komplexitätsstufen unterscheiden, denen man unterschiedliche Makroeigenschaften zuschreiben kann. Tut man dies, dann nimmt mit wachsender Komplexität die ‚Individualität‘ zu, d.h. die allgemeinen physikalischen Gesetze gelten immer weniger. Auch gewinnt der Begriff der Entropie im Kontext von Denbighs Überlegungen eine neue Bedeutung. Im Diskussionsteil halte ich fest: Im Kern gilt, dass maximale Entropie vorliegt, wenn keine Energie-Materie-Mengen verfügbar sind, und minimale Entropie entsprechend, wenn maximal viele Energie-Materie-Mengen verfügbar sind. Vor diesem Hintergrund ergibt sich das Bild, dass Veränderungsprozesse im Universum abseits biologischer Systeme von minimaler zu maximaler Entropie zu führen scheinen (dissipative Prozesse, irreversible Prozesse, …), während die biologischen Systeme als Entropie-Konverter wirken! Sie kehren die Prozessrichtung einfach um. Hier stellen sich eine Fülle von Fragen. Berücksichtigt man die Idee des Organiationskonzepts von Denbigh, dann kann man faktisch beobachten, dass entlang einer Zeitachse eine letztlich kontinuierliche Zunahme der Komplexität biologischer Systeme stattfindet, sowohl als individuelle Systeme wie aber auch und gerade im Zusammenspiel einer Population mit einer organisatorisch aufbereiteten Umgebung (Landwirtschaft, Städtebau, Technik allgemein, Kultur, …). Für alle diese – mittlerweile mehr als 3.8 Milliarden andauernde – Prozesse haben wir bislang keine befriedigenden theoretischen Modelle

KAPITEL 4: DETERMINISMUS UND EMERGENZ (117 – 148)

Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz

Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz

  1. Dieses Kapitel widmet sich dem Thema Determinismus und Emergenz. Ideengeschichtlich gibt es den Hang wieder, sich wiederholende und darin voraussagbare Ereignisse mit einem Deutungsschema zu versehen, das diesen Wiederholungen feste Ursachen zuordnet und darin eine Notwendigkeit, dass dies alles passiert. Newtons Mechanik wird in diesem Kontext als neuzeitliche Inkarnation dieser Überzeugungen verstanden: mit klaren Gesetzen sind alle Bewegungen berechenbar.
  2. Dieses klare Bild korrespondiert gut mit der christlichen theologischen Tradition, nach der ein Schöpfer alles in Bewegung gesetzt hat und nun die Welt nach einem vorgegebenen Muster abläuft, was letztlich nur der Schöpfer selbst (Stichwort Wunder) abändern kann.
  3. Die neuzeitliche Wissenschaft hat aber neben dem Konzept des Gesetzes (‚law‘) auch das Konzept Theorie entwickelt. Gesetze führen innerhalb einer Theorie kein Eigenleben mehr sondern sind Elemente im Rahmen der Theorie. Theorien sind subjektive Konstruktionen von mentalen Modellen, die versuchen, die empirischen Phänomene zu beschreiben. Dies ist ein Näherungsprozess, der – zumindest historisch – keinen eindeutigen Endpunkt kennt, sondern empirisch bislang als eher unendlich erscheint.
  4. Eine moderne Formulierung des deterministischen Standpunktes wird von Denbigh wie folgt vorgeschlagen: Wenn ein Zustand A eines hinreichend isolierten Systems gefolgt wird von einem Zustand B, dann wird der gleiche Zustand A immer von dem Zustand B gefolgt werden, und zwar bis in die letzten Details.(S.122)
  5. Diese Formulierung wird begleitend von den Annahmen, dass dies universell gilt, immer, für alles, mit perfekter Präzision.
  6. Dabei muss man unterscheiden, ob die Erklärung nur auf vergangene Ereignisse angewendet wird (‚ex post facto‘) oder zur Voraussage benutzt wird. Letzteres gilt als die eigentliche Herausforderung.
  7. Wählt man die deterministische Position als Bezugspunkt, dann lassen sich zahlreiche Punkte aufführen, nach denen klar ist, dass das Determinismus-Prinzip unhaltbar ist. Im Folgenden eine kurze Aufzählung.
  8. Die Interaktion aller Teile im Universum ist nirgendwo (nach bisherigem Wissen) einfach Null. Zudem ist die Komplexität der Wechselwirkung grundsätzlich so groß, dass eine absolute Isolierung eines Teilsystems samt exakter Reproduktion als nicht möglich erscheint.
  9. Generell gibt es das Problem der Messfehler, der Messungenauigkeiten und der begrenzten Präzision. Mit der Quantenmechanik wurde klar, dass wir nicht beliebig genau messen können, dass Messen den Gegenstand verändert. Ferner wurde klar, dass Messen einen Energieaufwand bedeutet, der umso größer wird, je genauer man messen will. Ein erschöpfendes – alles umfassende – Messen ist daher niemals möglich.
  10. Im Bereich der Quanten gelten maximal Wahrscheinlichkeiten, keine Notwendigkeiten. Dies schließt nicht notwendigerweise ‚Ursachen/ Kausalitäten‘ aus.
  11. Die logischen Konzepte der mentalen Modelle als solche sind nicht die Wirklichkeit selbst. Die ‚innere Natur der Dinge‘ als solche ist nicht bekannt; wir kennen nur unsere Annäherungen über Messereignisse. Das, was ‚logisch notwendig‘ ist, muss aus sich heraus nicht ontologisch gültig sein.
  12. Neben den Teilchen sind aber auch biologische Systeme nicht voraussagbar. Ihre inneren Freiheitsgrade im Verbund mit ihren Dynamiken lassen keine Voraussage zu.
  13. Aus der Literatur übernimmt Denbigh die Komplexitätshierarchie (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143)
  14. Traditioneller Weise haben sich relativ zu jeder Komplexitätsstufe spezifische wissenschaftliche Disziplinen herausgebildet, die die Frage nach der Einheit der Wissenschaften aufwerfen: die einen sehen in den Eigenschaften höherer Komplexitätsstufen emergente Eigenschaften, die sich nicht auf die einfacheren Subsysteme zurückführen lassen; die Reduktionisten sehen die Wissenschaft vollendet, wenn sich alle komplexeren Eigenschaften auf Eigenschaften der Ebenen mit weniger Komplexität zurückführen lassen. Während diese beiden Positionen widersprüchlich erscheinen, nimmt das Evolutionskonzept eine mittlere Stellung ein: anhand des Modells eines generierenden Mechanismus wird erläutert, wie sich komplexere Eigenschaften aus einfacheren entwickeln können.

DISKUSSION

  1. Fasst man alle Argument zusammen, ergibt sich das Bild von uns Menschen als kognitive Theorientwickler, die mit ihren kognitiven Bildern versuchen, die Strukturen und Dynamiken einer externen Welt (einschließlich sich selbst) nach zu zeichnen, die per se unzugänglich und unerkennbar ist. Eingeschränkte Wahrnehmungen und eingeschränkte Messungen mit prinzipiellen Messgrenzen bilden die eine Begrenzung, die daraus resultierende prinzipielle Unvollständigkeit aller Informationen eine andere, und schließlich die innere Logik der realen Welt verhindert ein einfaches, umfassendes, eindeutiges Zugreifen.
  2. Die mangelnde Selbstreflexion der beteiligten Wissenschaftler erlaubt streckenweise die Ausbildung von Thesen und Hypothesen, die aufgrund der möglichen Methoden eigentlich ausgeschlossen sind.
  3. Die noch immer geltende weitverbreitete Anschauung, dass in der Wissenschaft der Anteil des Subjektes auszuklammern sei, wird durch die vertiefenden Einsichten in die kognitiven Voraussetzungen aller Theorien heute neu in Frage gestellt. Es geht nicht um eine Infragestellung des Empirischen in der Wissenschaft, sondern um ein verstärktes Bewusstheit von den biologischen (beinhaltet auch das Kognitive) Voraussetzungen von empirischen Theorien.
  4. In dem Maße, wie die biologische Bedingtheit von Theoriebildungen in den Blick tritt kann auch die Besonderheit der biologischen Komplexität wieder neu reflektiert werden. Das Biologische als Entropie-Konverter (siehe vorausgehenden Beitrag) und Individualität-Ermöglicher jenseits der bekannten Naturgesetze lässt Eigenschaften der Natur aufblitzen, die das bekannte stark vereinfachte Bild kritisieren, sprengen, revolutionieren.
  5. Die Idee eines evolutionären Mechanismus zwischen plattem Reduktionismus und metaphysischem Emergenz-Denken müsste allerdings erheblich weiter entwickelt werden. Bislang bewegt es sich im Bereich der Komplexitätsebenen (iii) Moleküle und (iv) Zellen.

Fortsetzung mit TEIL 4

QUELLEN

  1. Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.