Archiv der Kategorie: Uncategorized

WAS {IST/ KANN/ SOLL} KI (KÜNSTLICHE INTELLIGENZ)? Partieller Nachhall zu einem Gespräch am 15.März 2019

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 16.März 2019
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Am 15.März 2019 war ich zu einem Vortrag mit anschließender Diskussion beim Regionaltreffen des ‚VDI Verein Deutscher Ingenieure Bezirksverein Frankfurt-Darmstadt e.V.‚ eingeladen. Das offizielle Thema war ‚Brauchen wir eine soziale KI?‘ Am Beispiel des Projektes ‚Kommunalpolitik und eGaming‚ entwickelte ich die mögliche und heute dringend gebotene Erweiterung der Blickrichtung der Informatik und Ingenieurwissenschaften über das rein Ingenieurmäßige hinaus auf die möglichen Wechselwirkungen der Methoden der Ingenieurwissenschaften mit der realen Gesellschaft vor Ort. Während des lebhaften folgenden Gesprächs tauchte auch immer wieder das Thema ‚Künstliche Intelligenz (KI)‘ für sich auf, unabhängig von diesem Kontext. Einzelne Diskussionsteilnehmer beschäftigte dieses Thema sehr, artikuliert in Fragen wie „Was ist überhaupt KI?“ oder “ Kann die KI uns Menschen überwinden (Stichwort ‚Superintelligenz‘ usw.)“. Klickt man in diesem Blog die Stichworte ‚KI‘ oder ‚KI – Künstliche Intelligenz‘ an, dann findet man mindestens 17 Blogeinträge zu diesem Thema, ein Anzeichen, dass das Thema in diesem Blog nicht neu ist. An diesem Abend aber kannte niemand diese Blogeinträge und die Fragen standen im Raum. Ich habe dann versucht, aus dem Stand, ad hoc, auf diese Fragen kurz — und damit notgedrungen informell — zu antworten. Da ich auch aus vielen anderen Gesprächen weiß, dass diese Fragen viele Menschen beschäftigen, hier also eine Liste von kurzen Thesen zu wichtigen Fragen in diesem Umfeld (eigentlich wollte ich dazu schon immer ein kleines Büchlein veröffentlichen, aber die spannenden Themen und Aufgaben des Alltags halten mich bislang davon ab….).

DEFINITION VON KI

Bis heute gibt es keine allgemein akzeptierte, gültige und brauchbare Definition von ‚Künstlicher Intelligenz‘. Die Meinung in der Öffentlichkeit wird beherrscht von den Marketingabteilungen der großen Firmen, deren Formulierungen selbst von sogenannten kritischen Medien vielfach einfach 1-zu-1 übernommen werden.

INTELLIGENZ

Die Formulierung ‚KI = Künstliche Intelligenz‘ enthält den Begriff ‚Intelligenz‚. Unabhängig von der Technik wurde dieser Begriff ‚vor-wissenschaftlich‘ nur im Kontext von biologischen Systemen benutzt. Ursprünglich primär für Menschen (Lebensform homo sapiens), in der Neuzeit im Bereich Biologie und Psychologie auch für nicht-menschliche biologische Systeme (alltagssprachlich: Tiere).

Seit dem Beginn des 20.Jahrhunderts hat die experimentelle Psychologie Verfahren entwickelt, wie man ‚Intelligenz‘ messen kann, ohne dass man weiß, was ‚Intelligenz als solche‘ ist. Vereinfacht formuliert: wenn man davon ausgeht, dass das vor-wissenschaftliche Phänomen der ‚Intelligenz‘ Menschen zukommt, dann kann man z.B. schauen, über welche beobachtbaren und messbaren Verhaltenseigenschaften verfügen z.B. alle 10-jährigen Kinder in einer bestimmten Zeitspanne (z.B. 2019) ‚im Normalfall‘. Dann kann man einen Katalog dieser Verhaltenseigenschaften aufstellen (Problem der Auswahl) und anschließend kann man experimentell feststellen, ob ein Kind diese Eigenschaften vollständig und ohne Fehler in einer bestimmten Zeit ‚reproduzieren‘ kann oder eben nicht (schneller oder länger, ohne oder mit ‚Fehlern‘ (= Abweichungen von der Vorgabe)). Dieses Verfahren hat viele Ungenauigkeiten, umschließt viele Fehler, hat sich aber dennoch in der Praxis in vielfachem Sinne als ‚Ordnungs-‚ und ‚Prognosekriterium‘ bewährt (heute meist in Verbindung mit dem Begriff des ‚Intelligenzquotienten (IQ)‘ bekannt).

Dieser psychologische Intelligenzbegriff sagt direkt nichts aus über die physiologischen Strukturen (Körper, Gehirn), die dem beobachtbaren Verhalten zugrunde liegen. Auch ist dieses Intelligenzkonzept viel zu grob, um wichtige Details, Dynamiken und Interaktionen innerhalb der unterstellten menschlichen Intelligenz zu erfassen. Immerhin gab es viele beeindruckende theoretische Ansätze, über statistische Auswertungen Hinweise auf ‚verborgene, innere‘ Strukturen der unterstellten Intelligenz zu finden.

Etwas Hilfe kam durch die moderne Gehirnforschung insoweit man mehr Wissen erlangte über Grundstrukturen und Grundfunktionsweisen des Gehirns (speziell auch seiner evolutionären wie auch ontogenetischen Entwicklung), aber die Messbarkeit von physiologischen Gehirnparametern lässt weder direkte Schlüsse zu bewussten Phänomenen zu noch kann man über diese irgendwelche Schlüsse auf die unterstellte ‚Intelligenz‘ ziehen. Was sich allerdings andeutet, ist, dass das Gehirn und die sich in der Gehirntätigkeit zeigenden Dynamiken, von einer Komplexität sind, die vorschnelle, vereinfachende Modelle eher verbieten. Die für ein Gesamtverständnis notwendige Kooperation zwischen Biologie, Psychologie, Phänomenologie und Gehirnforschung steckt noch in den Kinderschuhen. Es gibt nicht einmal einen allgemein akzeptierten theoretischen Rahmen, innerhalb dessen solch eine Kooperation stattfinden könnte. Ein direkter Vergleich der verhaltensbasierten ‚Intelligenz‘ zwischen verschiedenen biologischen Systemen (z.B. Bienen und Ratten, oder Nilpferd und Wal, oder Hund und Affe usw.) ist bislang schwierig, aber im Prinzip anhand von Verhaltenseigenschaften möglich. Nach diesem Muster kann man auch Menschen mit Maschinen vergleichen. Der berühmte ‚Turing-Test‚ ließe sich in dieses Schema einordnen. Wie aber schon die umfangreiche Diskussion zum Turing-Test zeigt, ist ein solcher Vergleich sehr grob. Kann es schon beim Vergleich einzelner Menschen riesige Unterschiede geben bis dahin, dass man — wie zu früheren Zeiten geschehen — bestimmten Menschen abgesprochen hat, dass sie Menschen seien, weil sie in ihrem Verhalten ‚von der bekannten Norm‘ abweichen (‚Hexen‘, ‚Verrückte‘, ‚die anderen‘, …), so kann es auch beim Vergleich des Verhaltens zwischen Menschen und Maschinen erhebliche Differenzen geben. Im Extremfall würde möglicherweise ein Computer als ‚menschlicher‘ eingestuft werden als ein realer Mensch. Reale Menschen verfügen über eine ungeheure Bandbreite an möglichem Verhalten bis dahin, dass Menschen von anderen Menschen sagen, das seien ‚Unmenschen‘, ‚Tiere‘ und dergleichen mehr.

Wenn dann der Begriff ‚Künstliche Intelligenz‘ geprägt und in Umlauf gesetzt wird, dann ‚erbt‘ dieser neue Begriff die Vagheiten und Begrenztheiten des alten Begriffs ‚Intelligenz‘. Ist beim bisherigen Begriff ‚Intelligenz nicht klar, welche Erzeugungsstrukturen ‚dahinter‘ stecken, so macht der Begriff ‚Künstliche Intelligenz‘ klar, dass es um ‚nicht-biologische Systeme‘ gehen soll, also um technische Systeme, die ein Verhalten zeigen, das man dann irgendwie ‚intelligent‘ nennt. Solange die Informatik und die Ingenieurwissenschaften sich weigern, ihren Begriff der ‚KI‘ explizit mit dem psychologischen, am Verhalten orientierten, Intelligenzbegriff zusammen zu bringen, hängt der technische Intelligenzbegriff buchstäblich in der Luft. In welchem Sinne ein als ‚intelligent‘ bezeichnetes technisches System irgend etwas mit der Intelligenz eines biologischen Systems zu tun haben kann/ soll ist völlig unbestimmt. Wissenschaftsphilosophisch könnte man beide Begriffe einfach in einen gemeinsamen Theorierahmen einordnen, aber sowohl die Psychologie wie auch die Ingenieurwissenschaften verzichten bislang darauf, ihr eigenes Tun von einem Metastandpunkt aus zu reflektieren. Ist ja auch einfacher …


LERNEN (UND INTELLIGENZ)

Der Begriff des ‚Lernens‚ ist grundsätzlich unabhängig vom Begriff der Intelligenz (wenn man den verhaltensbasierten psychologischen Begriff benutzt). Bei biologischen Systemen kann man rein praktisch ‚Intelligenz‘ und ‚Lernen‘ nicht voneinander isolieren, da biologische Systeme von Grund auf ‚lernende Systeme‘ sind, d.h. kontinuierlich lernen. Die ‚messbare Intelligenz‘ eines biologischen Systems zu einem bestimmten Zeitpunkt wird daher — meistens — nie ganz getrennt gesehen von der grundsätzlichen Lernfähigkeit.

Wenn ich aber eine Maschine programmiere, dann kann ich ich diese Maschine mit einem Programm ausstatten, das viele der messbaren Verhaltenseigenschaften eines Menschen reproduzieren kann — oder sogar mehr –, ohne (!) dass sie lernt. Es handelt sich dann um eine ‚Übertragung‘ von verfügbarem Wissen (die ersten großen regelbasierten technischen KI-Systeme waren so).

Da jedes biologische System mit dem Zustand einer einzigen Zelle beginnt, die sich im Wachstumsprozess zu einem Verbund von vielen Billionen (10^12) Zellen erweitert, und das System neben ‚angeborenen Wissensstrukturen‘ die aktuelle Umgebung jeweils neu ‚lernen‘ muss, gibt es bei biologischen Systemen (insbesondere dem homo sapiens, also uns) jeweils nur eine ‚temporäre Intelligenz‘, d.h. eine Gesamtheit von Verhalten, die sich im Laufe der körperlichen und ‚kognitiven‘ Entwicklung beständig verändert. So gesehen ist die beobachtbare, messbare Intelligenz eine Funktion der dynamischen physiologischen Basis die sich in kontinuierlicher Interaktion mit der Umgebung ‚entwickelt‘ und darin ‚lernt‘.

Der verhaltensbasierte Begriff des ‚Lernens‚ nimmt die Veränderung des Verhaltens in der Zeit zum Ausgangspunkt, um zu postulieren, dass ein lernendes System ein solches ist, das seine ‚internen Zustände (IS)‘ so ‚abändern‘ kann dass es auf einen Umgebungsreiz S nicht nur mit einer Reaktion R reagieren kann, sondern ab einen bestimmten Zeitpunkt auch mit einer ‚anderen/ neuen‘ Reaktion R‘, die für eine ‚längere Zeit‘ ’stabil bleibt (Beispiel: jemand, der sich am offenen Feuer mal verbrannt hat, wird künftig einen direkten Kontakt vermeiden — wenn er ‚lernen‘ kann).

So einfach und abstrakt diese Definition eines lernenden Systems erscheinen mag, sie deckt alles ab, was wir heute kennen. Setzt man für ‚interne Zustände (IS)‘ das ‚Gehirn‘ mit dem umgebenden ‚Körper‘, dann kann z.B. ein ‚Durstreiz‘ dazu führen, dass das System ‚ irgendwann durch Probieren herausfindet, was es ‚trinken‘ kann, und dass dadurch dieser Durstreiz verschwindet (wobei bei solchen elementaren Bedürfnissen ‚angeborene‘ Verhaltenstendenzen ein ‚Lernen‘ stark unterstützen). Wenn diese Erfahrungen ‚gespeichert‘ werden können (Veränderung interner Zustände), dann kann das System beim nächsten ‚Auftreten des Durstreizes‘ sich an diese Erfahrungen ‚erinnern‘ und statt ‚planlos herum zu suchen‘ sehr ‚gezielt‘ mit einem geeigneten Verhalten reagieren. Diese Verhaltensänderungen können Verhaltensforscher beobachten und daraus die Arbeitshypothese ableiten, dass das System grundsätzlich ‚lernfähig ist

PRÄFERENZEN – ZIELE

Was in der heutigen Diskussion um Intelligenz und künstliche Intelligenz weitgehend ‚unter den Tisch fällt‘, das ist der Aspekt der Präferenzen (eng verwandt mit Begriffen wie ‚Werte‘ und ‚Ziele‘).

Dies hängt — wie oben geschildert — zu einem Teil an der Tatsache, dass der Begriff der ‚Intelligenz‘ isoliert vom Begriff des Lernens betrachtet wird.

Akzeptiert man, dass messbare ‚Intelligenz‘ bei biologischen Systemen das Ergebnis von zugrunde liegenden Lernprozessen ist und unterstellt man ferner, dass technische Systeme, die man als ‚lernfähig‘, als ‚lernend‚ bezeichnet, auch in diesem Sinne aus einer Menge möglicher Reiz-Reaktions-Muster jene ‚herausfinden‘ müssen, die ‚besser‘ sind als ‚andere‘, dann hat man automatisch diesen Begriff des ‚besser‚ im Konzept. ‚Besser‘ heißt salopp, dass man ein A einem anderen B ‚vorzieht‚, A vor B ‚präferiert‚. Das genau ist mit ‚Präferenz‘ hier gemeint. Wenn ein sogenanntes lernendes System nicht über ‚hinreichend viele‘ Präferenzen verfügt, dann kann es keine Teilmengen von Reiz-Reaktions-Mustern selektieren, d.h. dann ist ein System nicht in der Lage, zu lernen.

Während biologische Systeme quasi ‚von Anbeginn an‘ die ‚eingeborene Tendenz‚ (nicht ‚angeboren‘!) zeigen, die Ausbildung von komplexen Strukturen für die ‚Nutzung von freier Energie‘ zu erhalten und sogar beständig weiter zu entwickeln (mit einer mittlerweile ungeheuren Vielfalt von sich daraus ergebenden ’nachgeordneten Präferenzen‘), so ist bei technischen Systemen keine vergleichbare ‚eingeborene Tendenz‘ verfügbar. Um technischen Systemen das ‚Lernen‘ quasi ‚einzuhauchen‘ bedarf es der Ingenieure, die den technischen Systemen nach Bedarf unterschiedliche Präferenzen (= Ziele, Werte) ‚einprogrammieren‘ (entweder direkt oder über gezielte Interaktionen (= Training)).

Während diese Methode der expliziten Programmierung von Präferenzen z.B. im Bereich der Industrierobotik weitgehend funktioniert, zeigt sich in jenen Forschungsbereichen, in denen es nicht um klar vorgegebene Ziele geht, sondern um eine ‚offene Lernfähigkeit‘ für nahezu ‚beliebige Teilmengen‘ von Reiz-Reaktions-Mustern, dass nicht klar ist, welche Präferenzen man denn vorgeben soll.

Im Fall des homo sapiens (und auch vielen anderen biologischen Systemen) wissen wir, dass Präferenzen nicht isoliert entstehen, sondern als Interaktionsmuster in sozialen Systemen (Regeln, Gebote, Gesetze, Gewohnheiten, Überlieferung, …). Im historischen Vergleich kann man feststellen, dass sich diese kulturellen Präferenzsysteme häufig geändert haben. Zugleich wissen wir, dass unterschiedliche Präferenzsysteme gleichzeitig in unterschiedlichen Populationen bestehen können wie auch sogar in der gleichen Populationen, sofern die einzelnen Mitglieder in individuell verschiedenen Teilnetzwerken leben (Familie, Beruf, Freunde, Verein, …), in denen jeweils andere Präferenzen gelten.

Zusätzlich kann man beobachten, dass geltende Präferenzsysteme ungern in Frage gestellt werden. Menschen, soziale Gruppen, Institutionen zeigen eine starke Tendenz, einmal eingeführte Präferenzen gegen alles ‚Neue‘, gegen alle möglichen ‚Veränderungen‘ zu verteidigen. Während Präferenzen einerseits eine Voraussetzung dafür sind, dass überhaupt gelernt werden kann und dadurch eine bestimmte ‚lernabhängige Intelligenz‘ entstehen kann, kann die Fixierung von Präferenzen ein Lernen auch zum Erliegen bringen. Es reicht also u.U. nicht, einige wenige Präferenzen zu haben, sondern möglicherweise eine ‚offene Menge von Präferenzen‘.

Damit stellt sich die grundlegende Frage nach den ‚richtigen Präferenzen‘: welche Präferenzen brauchen wir? Wann, wo, wie, wie lange … ?

Obwohl die Frage der Präferenzen so fundamental erscheint für das Lernen, für die lernabhängigen Intelligenzen, für mögliche Zukünfte, besteht der starke Eindruck, dass über diese grundlegenden Fragen heute kaum bis gar nicht diskutiert wird. Dies erscheint fatal.

Klar sollte in diesem Zusammenhang sein, dass jedwede Art von ‚künstlicher Intelligenz‘ Lernprozesse voraussetzt, die eben solche Präferenzen benötigen, ohne dass klar ist, wo diese Präferenzen herkommen sollen. Bei biologischen Systemen ist sie ‚eingeboren‘, bei technischen Systeme muss sie ‚irgendwo herkommen‘.


PRINZIP COMPUTER

Im Rahmen der Diskussion um ‚künstliche Intelligenz‘ spielt auch der Begriff des Computers eine zentrale Rolle, und es ist erstaunlich wie unklar auch dieser zentrale Begriff ist.

Im Normalfall denken Menschen beim Begriff ‚Computer‚ an konkrete Maschinen (Smartphones, Laptops, PCs, Roboter, Server, …).

Was den wenigsten bewusst ist, ist die Tatsache dass der grundlegende Begriff des Computers ein rein theoretisches Konzept ist, der ‚Automat‘, historisch ‚die Turingmaschine‘. Die ‚Turingmaschine‘ ist ein rein mathematisches Konzept, das Alan Matthew Turing 1936/7 eingeführt hatte, um im Grundlagenstreit der Mathematik zu Beginn des 20.Jahrhunderts zu zeigen, dass der Metamathematische Beweis von Kurt Gödel 1931 zur Unentscheidbarkeit von mathematischen Theorien auch anders als mit der Arithmetisierung der Arithmetik mittels Goedelzahlen geführt werden kann (Goedel selbst war mit seinem eigenen Beweis nicht zufrieden gewesen und zu Turings Beweis hat er in einer Vorlesung in Princeton angemerkt, dass dies jetzt eine Form des Beweises sei, mit der er auch zufrieden sei).

Wohlgemerkt, es ging hier um die letztlich philosophische (!!!) Frage, welche ‚Beweismittel‘ denn erlaubt sein dürfen, damit ein logischer Beweis zu Eigenschaften mathematischer Theorien als ‚echter Beweis‘ anerkannt werden kann, und ob solch ein echter Beweis von einer ‚Maschine‘ automatisch ausgeführt werden könne (Frage von David Hilbert).

Goedel, Turing — und auch viele andere — haben gezeigt, dass sich für mathematische Theorien ab der Arithmetik aufwärts nicht mit endlichen Mitteln beweisen lässt, dass sie sowohl vollständig wie konsistent sind.

Auf diese Weise war — und ist — das mathematische Konzept der Turingmaschine als ein ‚theoretischer Standard‘ definiert worden, mit Bezug auf den bis heute entschieden wird, ob irgendein Prozess als ‚mit endlichen Mitteln entscheidbar‘ gelten kann oder nicht.

Was viele Menschen im Alltag übersehen ist, dass jeder physikalisch reale Computer ’schwächer‘ ist als das theoretische Konzept der Turingmaschine, da diese ein ‚unendliches‘ Schreib-Lese-Band besitzt, was sowohl für den möglichen Input und Output steht wie auch für einen möglichen Speicher. Während reale Computer angenähert auch über einen quasi-unendlichen Input und Output verfügen können, sind alle Speicher in realen Computern notgedrungen endlich.

So mancher sieht heute im sogenannten ‚Quantencomputer‘ eine Überwindung des ‚begrenzten Konzepts‘ der Turingmaschine. Diese Diskussion hat aber zwei Schwachstellen. (i) Theoretisch wird übersehen, dass das theoretische Konzept der Turingmaschine als Standard eingeführt wurde, um ‚endlich berechenbare Prozesse‘ zu definieren und es wenig Sinn macht, theoretisch als unendlich postulierte Prozesse — wie im Fall des Quantencomputers — dagegen auszuspielen; ferner ist es mehr als unklar, was der Begriff der ‚Berechenbarkeit‘ im Kontext von Quantencomputern bedeuten soll, da der Begriff der ‚Berechenbarkeit‘ bislang ja gerade nur als ‚endlicher Prozess‘ definiert wurde. (ii) Die reale Machbarkeit von Quantencomputern ist auch im Jahr 2019 alles andere als klar.


MENSCH-COMPUTER SYMBIOSE

Zwischen den Propheten der KI als Lösung für alle Probleme und den Untergangsbeschwörern, dass die KI die Menschen letztlich vernichten wird, gibt es viel Raum für eine interessante Realität und mögliche Zukunft.

Klar ist — bei angemessener Betrachtung der Entwicklung des Universums und speziell der biologischen Evolution –, dass mit dem homo sapiens eine Komplexitätsexplosion unfassbaren Ausmaßes begonnen hat. Ein Teilaspekt dieser Explosion ist die Transformation des Prinzips Turingmaschine — die in jeder biologischen Zelle bei der Reproduktion gegeben ist! — über die Formalisierung in reale programmierbare Maschinen.

Schon heute können Großteile der menschlichen Zivilisation ohne diese programmierbaren Maschinen nicht mehr funktionieren. Sie ergänzen auf vielfache Weise den Menschen mit seinen endlichen kognitiven Kapazitäten.

So wie schon das Prinzip Turingmaschine jeder biologischen Zelle erlaubt, sich zu reproduzieren, so erlauben die modernen Computernetzwerke den Menschen, die Komplexität der modernen Lebenswelt täglich neu zu reproduzieren und beständig zu erweitern (u.a. auch in der Genforschung und der Gentechnik, wodurch es im Prinzip möglich ist, die evolutionäre Weiterentwicklung des homo sapiens zu beschleunigen). Computer sind von daher kein Gegensatz der Evolution sondern genuiner Teil von ihr und schon heute für die weitere Entwicklung unabdingbar.

Bedenkt man das zuvor gesagte zur Präferenz-Problematik, dann wird die Technologie des Computers — und auch nicht der sogenannten KI — diese in irgendeiner Weise aus sich heraus lösen können. Und, obwohl Computer für das tägliche Überleben der Menschen als zentral wichtig erscheinen, kann die Computertechnologie dem Menschen das Präferenzproblem nicht abnehmen. Noch mehr Geschwindigkeit, noch mehr Datenmengen in noch kürzerer Zeit, liefern keine einzige Präferenz. Dass Spielprogramme (Schach, Go, …) ‚von alleine‘ sehr schnell Schach und Go so gut lernen können, dass sie danach alle menschlichen Spieler schlagen können, zeigt vor allem, dass Computer, angesetzt auf definierte Problem, dem Menschen real helfen können. Dies funktioniert aber immer nur dann, wenn die Kriterien für ‚Erfolg‘ vorgegeben werden (= Präferenzen). Ohne diese Gewinn-Kriterien könnte kein Computer auch nur das einfachste Spiel lernen.


ETHIK IST NICHT ETHIK

Im Zusammenhang mit der modernen Technik wird auch gerne und viel über sogenannte ‚Ethik‘ geredet. Abgesehen davon, dass es keine allgemein brauchbare Definition von Ethik gibt (wir haben es mit vielen ’selbsternannten‘ Ethikern zu tun), könnten man sich minimal vielleicht darauf einigen, dass Ethik sich mit eben den Präferenzen beschäftigt, anhand deren Menschen, Gruppen von Menschen, Institutionen usw. ihr Lernen ausrichten. Nun haben wir aber offensichtlich eine ‚offene, plurale Präferenzsituation‘, in der wir viele Präferenzsysteme gleichzeitig, nebeneinander vorfinden, deren Begründungen oftmals weitgehend unklar sind. Aufgrund dieser Unklarheit tun wir Menschen uns heute auch schwer, noch mehr gemeinsame Präferenzen zu finden, die uns ein ‚Erlernen der möglichen Zukunft‘ ermöglichen. In China legen einige wenige Menschen fest, was die Partei als Präferenzen erlaubt, und alle anderen müssen folgen. Dieses Modell erscheint im Lichte der Evolution als extrem fragwürdig und widerspricht auch sonst vielen elementaren Erkenntnissen.

Eine Ethik, die bestimmen soll, was das ‚Sollen‘ für alle sein soll, ist in sich im vollen Widerspruch zu den Prinzipien des biologischen Lebens und zudem philosophisch unhaltbar. Leben definiert sich u.a. eher als ‚das Andere zu dem, was gerade ist‘, ein anderer Name für ‚Zukunft‘; um die geht es, nicht um Vergangenheit; die ist vorbei.

DIE ZUKUNFT IST OFFEN

Wenn es irgendetwas gibt, was wir von der Evolution lernen können, dann, dass die Zukunft grundsätzlich offen ist; die Zukunft aus der Vergangenheit nur begrenzt hergeleitet werden kann; dass alles Wissen lernabhängig ist; dass Lernen ein Prozess ist, der nur über Versuch und Irrtum funktionieren kann; dass Experimentieren ohne Bereitschaft zu Fehlern und Verlust nicht geht; dass …

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Soundtrack (without voice)


Soundtrack with voice (… zum Thema: Leben ist das Andere zum Jetzt …)

WO GEHT ES ZU GOTT, BITTE? Nachhall zu einem Gespräch unter FreundenInnen

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 18.Februar 2019
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Der folgende Text gibt nicht das Gespräch als solches wieder, sondern beschreibt eher das Echo, das dieses Gespräch in mir gefunden hat (das letzte Gespräch dieser Art findet sich hier). Dieses Mal hatten wir einen Experten der evangelischen Theologie zu Gast, einen Pfarrer und Verantwortlichen für eine evangelische Akademie. Dazu muss man wissen, dass die einzelnen Mitglieder des Freundeskreises entweder keiner offiziellen Kirche (oder Religion) angehören, oder z.T. der Katholischen Kirche neben der Evangelischen Kirche. Auch war uns der Experte nicht ganz unbekannt.

FREIHEIT BEI LUTHER UND ERASMUS

Ausgangspunkt des Gesprächs an diesem Nachmittag war der berühmte Streit zwischen Erasmus von Rotterdam und Martin Luther, ausgelöst durch die Schrift von Erasmus ‚De libero arbitrio‘ (Über den freien Willen) von 1524 und der Antwort von Luther ‚De servo arbitrio‘ (Vom geknechteten/unfreien Willen) von 1525.

Erasmus nimmt in seinem Buch Stellung gegen Luthers These, dass allein die göttliche Gnade (sola gratia) über das Schicksal des Menschen nach seinem Tod entscheide und nicht seine eigenen Taten.

Der Kern der Position Luthers präsentiert sich in dem Gedanken, dass der Mensch bezüglich des Willens Gottes keinen freien Willen habe. Über ewiges Heil oder ewige Verdammnis entscheide allein der souveräne Wille Gottes. Dazu ein Zitat aus seiner Schrift (aus einer unkritischen deutschen Ausgabe): „Wenn wir glauben, es sei wahr, dass Gott alles vorherweiß und vorherordnet, dann kann er in seinem Vorherwissen und in seiner Vorherbestimmung weder getäuscht noch gehindert werden, dann kann auch nichts geschehen, wenn er es nicht selbst will. Das ist die Vernunft selbst gezwungen zuzugeben, die zugleich selbst bezeugt, dass es einen freien Willen weder im Menschen noch im Engel, noch in sonst einer Kreatur geben kann.“

Beide Autoren hatten — jeder für sich — Zweifel an ihren eigenen Thesen, sahen sich aber nicht in der Lage, diese zu Lebzeiten mit ihrem eigenen Denken aufzulösen.

EINE EVANGELISCHE DEUTUNG

Der anwesende Experte lieferte eine Reihe interessanter Kommentierungen, Deutungen, zu beiden Positionen, vor allem aber zu Luther, warum seine Position ‚Sinn‘ macht. Einmal im damaligen Kontext gegen ein falsches Leistungsdenken, dass man sich das Heil, die Erlösung ‚erkaufen‘ könne, womit auch immer; zum anderen im heutigen Kontext, wo wir die Bedingtheiten des individuellen Entscheidens in konkreten Kontexten immer besser verstehen, die es wenig verständlich erscheinen lassen, wie ein Heil angesichts der vielen Unfertigkeiten, des vielfachen Scheiterns und Begrenztseins möglich sein soll. Auch die Erbsünde musste noch herhalten als eine Art ‚theologische Hintergrundstrahlung‘, die zwar fern und wenig wirklich, doch nachhaltig nachwirkt und gegen die der einzelne mit seinem Stückwerk letztlich machtlos ist.

Es hatte dann etwas Verführerisches zu denken, dass die Gnade Gottes all unserem Tun voraus liegt und uns liebt, egal wo und wie wir sind, und dass wir aufgrund dieser zuhandenen Gnade Glauben und Lieben können. Die ‚Liebe‘ macht uns frei, und dann spielt das Konkrete nur noch bedingt eine Rolle. Die ‚Beziehung zu Gott‘ kann man daher nicht in ‚moralischen Kategorien‘ fassen, sie ist sui generis, sie folgt einer eigenen Logik. Die Beziehung zu Gott, die von ihm gnadenhaft ausgeht ist so, dass man sich auf die ‚verlassen‘ kann, immer und überall, auch und gerade im Angesicht des Todes. Die Ausführungen des Experten tendierten zum Schluss hin zu einer ‚pastoralen Tonart‘; was irgendwie auch in der Natur der Sache liegt, da das Reden über Gott, soll es nicht ganz abstrakt bleiben, seine Verortung im konkreten Alltag finden muss.

ANSATZPUNKTE ZU ANDEREN DEUTUNGEN

Der Experte war sehr wohl geschult in Fragen der Hermeneutik, der Lehre vom Verstehen und Interpretieren, und er gab auch zu, dass er die modernen Entwicklungen der Wissenschaften nicht so gut kenne; auch blieb die Frage offen, wie sich in dieses evangelisch-lutherische Bild der Welt die Deutungen der anderen großen religiösen Traditionen (Hinduismus, Judentum, Buddhismus, Islam, …) einordnen lassen.

Im Nachgespräch der Gruppe wurde deutlich, dass die Frage nach Gott eigentlich von allen als ein roter Faden in allen Kulturen dieser Welt gesehen wird.

ZUSAMMENLEBEN UND HÖHERE MACHT

Bei einem historischen Rückblick sticht ins Auge, dass ‚Verhaltensregeln‘ überall durch die Notwendigkeit des gemeinsamen Lebens unter bestimmten Bedingungen geprägt sind, und dass sich auch überall in den frühen Kulturen die Tendenz findet, die konkreten Verhaltensegeln, die man sich auferlegt hat, mit dem Glauben der jeweiligen Zeit zu verknüpfen, quasi als ‚höhere Instanz‘, die darüber wacht, ob man dies Regeln auch wirklich befolgt, und in diesem Kontext kam jenen Menschen eine besondere Rolle zu, denen eine besondere Verbindung zu dieser ‚höheren Macht‘ unterstellt wurde (Schaman, Priester, Propheten, …). Mit dieser Konstellation war die enge Verknüpfung von Glauben an etwas Höheres und konkrete Verhaltensregeln mit der jeweiligen politischen Macht angelegt. Zum Teil stand politische Macht und religiöse Führer in Konkurrenz, aber in den großen Königreichen und Staaten machten sich die staatlichen Führer sehr schnell selbst zum höchsten Priester, um eine mögliche Konkurrenz und damit Schwächung der Macht durch die religiösen Führer auszuschalten, oder die religiösen Führer ernannten sich zu den obersten staatlichen Lenkern. Das Judentum, das Christentum und der Islam bieten dafür Paradebeispiele, und auch der Buddhismus geriet über die mächtigen Klöster in das gleiche Fahrwasser.

RELIGION UND MACHT

Historisch betrachtet erscheint das Thema Religion daher im Normalfall als ‚vergiftet‘ durch die Instrumentalisierung von Religion durch die jeweiligen politischen Mächte bis heute, oder dadurch, dass sich Religion selber als eine Machtorganisation inszeniert.

EMANZIPATION DER ‚WAHRHEIT‘ UND DER ‚MACHT‘

Während das ‚Geschäft mit der Wahrheit‘ durch die modernen empirischen Wissenschaften seit ca. 500 Jahren zumindest ansatzweise von den jeweiligen gesellschaftlichen und religiösen Verhältnissen emanzipiert werden konnte, und das ‚Geschäft mit der Macht‘ mit dem Aufkommen von demokratischen Staatsformen seit ca. 300 Jahren ansatzweise von irrationalen und und unfreien Machtbegründungen befreit werden konnte, ist das ‚Geschäft mit dem Glauben‘ bis heute noch überwiegend in den Händen von religiösen Organisationen, die den Eindruck erwecken, dass der ‚Zugang zu Gott‘ nur über eine Mitgliedschaft in ihren Organisationen möglich sei. Da es viele verschiedene Religionen gibt, die sich als ‚privilegierten Zugang zu Gott‘ anbieten, haben wir also eine Vielzahl von Marketingagenturen für eine Vielzahl von Göttern; sehr merkwürdig.

EMANZIPATION DES ZUGANGS ZU GOTT?

Ein häufig gehörtes Argument, warum Religionen auch heute noch wichtig seien, betont, dass der einzelne Mensch ‚zu schwach sei, alleine den Weg zu Gott zu finden‘, von daher braucht es Organisationen, die ihm dabei helfen. Das der Mensch ’schwach‘ ist als einzelner, dass der ‚Alltag‘ für viele (für die meisten? für alle?) zu schwierig sei, sich als einzelner darin seinen Weg zu finden, ist auch nicht völlig falsch. Aber ist das die einzig mögliche Sehweise?

In demokratischen Gesellschaften muss der einzelne Mensch sich grundsätzlich seinen Weg selbst suchen, allerdings in vielen Bereichen unterstützt von staatlich organisierten Hilfestellungen (Kindergarten, Schulen, Hochschulen, Gesundheitssystem, …) wie auch freien politischen Strukturen sowie freien wirtschaftlichen Strukturen, ergänzt um eine große Vielfalt von privaten Vereinen, Freundeskreisen, usw.

Betrachtet man das Phänomen des Meditierens, das ursprünglich im direkten Kontext der Religionen verortet war, und sieht, wie sich dieses in einer weltweiten Bewegung quasi verselbständigt hat in einer großen Vielzahl von Initiativen, in denen Menschen in freien Entscheidungen anderen Menschen in Form von ‚Dienstleistungen‘ Hilfen anbieten, wie und wo und wann sie meditieren können, dann deutet sich hier — bei aller Problematik im Detail — an, dass sich Menschen in Fragen ‚der Besonderheit des Lebens‘ sehr wohl selbständig, religionsfrei, organisieren können. Bei den vielen hundert Apps zum Meditieren, die von Menschen rund um die Uhr genutzt werden, gibt es einige, deren Benutzerzahlen gehen in die Millionen (ähnlich kann man auch bei Beerdigungsfeiern beobachten, dass der Anteil der privaten religionsfreien Dienstleister erheblich wächst).

Natürlich lassen sich zu diesem globalen Meditationstrend viele Fragen stellen, gerade dann, wenn diese mit buddhistischen Deutungsmodellen gekoppelt werden, die in sich auch viele Fragen aufwerfen; auch erscheint die Engführung auf medizinische Aspekte zum Zwecke der Therapie nicht weniger fragwürdig (obwohl der medizinische Ansatz als solcher sehr wohl Sinn macht). Dem staatlich subventionierten Lehr- und Wissenschaftsbetrieb ist es allerdings frei gestellt, sich diesen Phänomen unvoreingenommen zuzuwenden. Es ist mehr als fragwürdig, warum ein aufgeklärter demokratischer Staat Fragen der Religion von vornherein an Organisationen delegiert, die in ihrem Selbstverständnis und in ihrer organisatorischen Verfasstheit dem Standards von aufgeklärter ‚Wahrheit‘ und ‚Freiheit‘ im Ansatz widersprechen.

SCHLUSSBEMERKUNG

In dem vorausgehenden Blogeintrag zur Kosmologie 7.0 wird deutlich, dass der Versuch, rein intellektuell, eine abschließende Antwort zum ‚Gesamtsinn‘ zu geben, bis auf Weiteres zum Scheitern verurteilt ist, obgleich es für uns keine Alternative gibt, es weiterhin beharrlich zu versuchen.

Während der ‚Mainstream‘ des globalen Meditationstrends heute sich überwiegend an asiatischen Methoden und Deutungsmodellen ausrichtet, gibt es ‚hinter den Fassaden‘ der sogenannten Offenbarungsreligionen (Judentum, Christentum, Islam) sehr wohl eine starke meditative Tradition (wenngleich von den Machtstrukturen dieser Religionen immer argwöhnisch beäugt und im Zweifelsfall unterdrückt), die neben den rein methodischen Aspekten (was soll man tun,wenn man meditieren will) und neben den rein körperlichen Phänomenen sehr wohl mit der Arbeitshypothese gearbeitet haben (und arbeiten), dass das, was ‚Gott‘ bezeichnet wird (je nach Sprache und Kultur mit anderen Namen und Vorstellungen verknüpft), sehr wohl auch direkt mit einem einzelnen Menschen auf der Erlebnisebene ‚interagieren‘ kann, und diese Interaktion ist begleitet von ‚gefühlten Zuständen‘, die sich als solche deutlich von allem abheben, was man als Mensch sonst so fühlen kann.

Wie u.a. die umfangreichen Untersuchungen von William James zu Zeugnissen von Menschen über ihre ’subjektiven Erlebnisse von Gott‘ zeigen, garantieren solche Erlebnisse weder ‚Wahrheit‘ noch den rechten Gebrauch von ‚Freiheit‘, aber sie scheinen dazu beitragen zu können, eine Art von ‚Angstfreiheit‘ zu bekommen, die den einzelnen dazu befähigen, seine Lebensmöglichkeiten in einer Art und Weise zu gestalten, die deutlich von dem abweichen, was Menschen tun, die von innen her durch allerlei Bedenken und Ängste in ihrem Wollen und Tun beeinträchtigt sind.

Hier eröffnet sich der Raum zu vielen neuen Betrachtungsweisen über ‚Gott‘, das ‚Universum‘ und das ‚biologische Leben‘ in diesem.

QUELLENHINWEISE

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

DAS UNIVERSUM IM UNIVERSUM

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 22.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

 

SCHON ARG KLEIN

Der US-amerikanischen Astrophysiker Neil deGrasse Tyson sagt von sich in einem Hörbuch über das Universum, dass er beim Anblick der Sterne und Galaxien des Universums immer ganz positiv gestimmt wird. Darin zitiert er psychologische Untersuchungen, nach denen viele Menschen aber genau das Gegenteil empfinden: eine abgründige ‚Kleinheit‘, Unbedeutendheit, eine Verlorenheit, die sie niedergeschlagen macht, fast depressiv. Zwischen diesen beiden Extremen gibt es vermutlich viele Abstufungen und Varianten.

Klar ist nur, dass angesichts der räumlichen Größenverhältnisse und Entfernungen neben einem Staunen das Gefühl einer ‚Kleinheit‘ sicher nicht ‚unnatürlich‘ ist. Gemessen an den Größen und Entfernungen im Universum, selbst noch in unserer Heimatgalaxie Milchstraße, wirkt unser Sonnensystem, unsere Erde mit dem Mond, schon arg klein und unbedeutend. Ganz zu schweigen von uns Menschen, die da noch kleiner wie Staubkörner wirken.

KOGNITIVE TÄUSCHUNG

Diese Gefühle der Erhabenheit einerseits angesichts der unfassbaren Räume und der Unbedeutendheit andererseits können sich aber schnell wandeln, wenn man sich der Kleinheit und Komplexität des Biologischen zuwendet. Diese Komplexität ist allerdings unserem Auge zunächst verborgen. Die Sterne am Nachthimmel kann jeder sofort, sogar mit dem bloßen Auge sehen, die Zellen des biologischen Lebens hingegen sind nicht ohne weiteres sichtbar. Man braucht spezielle Verfahren und spezielle Geräte (z.B. Mikroskope), um sie sichtbar zu machen, um eine Vorstellung von ihren Strukturen und Dynamiken zu bekommen. Begibt man sich auf diesen Weg der Erkenntnis des ‚räumlich Kleinen‘ im ‚räumlich Großen‘, dann kann man entdecken, dass das scheinbar so winzige räumlich Kleine das räumlich Große in vielen Punkten um Dimensionen übertrifft. Streng genommen müsste man sagen, dass das räumlich Kleine eigentlich ein eigenes Universum ist, das das räumlich Große in Anzahlen, vor allem aber in puncto Komplexität, bei weitem zu überragen scheint.

GROBE ANNÄHERUNG

Um die Umrisse des ‚Universum im Kleinen‘ sichtbar zu machen, dazu im Vergleich zum ‚Universum im Großen‘, habe ich eine Reihe von Eckwerten zusammengestellt und mit einfachsten Rechnungen bearbeitet, die vielfach eine sehr grobe Vereinfachung/ Annäherung darstellen. Es wird sicher Experten geben, die diese Vereinfachungen verbessern können. Dennoch rechtfertigt sich dieses approximative Vorgehen dadurch, dass überhaupt einmal die Umrisse der Größe des sehr Kleinen sichtbar werden.

Es gab schon Vorläufer dieser Überlegungen. Die letzte findet sich unter der Überschrift: INFORMELLE KOSMOLOGIE. Teil 2. Homo Sapiens und Milchstraße.

MIKROBEN UND STERNE

Dem bloßen Auge bieten sich Sterne am Nachthimmel direkt dar, obgleich wir heute wissen, das die größere Zahl von Sternen dem bloßen Auge auch verborgen sind. Mit den modernsten Geräten und Berechnungsmethoden kommt man für die Zahl aller Sterne im beobachtbaren Universum ungefähr auf 2.200000e+23, also etwa 220000 x Milliarde x Milliarde x Milliarde.

Die Zahl der Mikroben auf der Erde zu berechnen ist äußerst schwierig, da sowohl die riesige Anzahl verschiedenen Arten von Mikroben wie auch ihre unterschiedlichen Verteilungen zu berücksichtigen sind. Ein Ansatzpunkt bietet das Volumen, das sie auf der Erde einnehmen können. Man findet Mikroben sowohl unter der Erdoberfläche (angenommen wurden hier bis 7 km), als auch oberhalb der Erdoberfläche (angenommen wurden hier ebenfalls bis 7 km). Als Verteilung von Mikroben innerhalb dieses Volumens wurde angenommen, dass sich ca. 41.5 Billionen (10^12) Mikroben in einem Kubikmeter befinden. Diese Schätzung müsste durch viele Proben an unterschiedlichsten Orten weiter abgeklärt werden. Bei dieser Annahme kommt man    auf die Zahl 2.963476e+32, also etwa 300 Millionen x Billionen x Billionen.

Damit gäbe es etwa 1.347034e+09 mal mehr Mikroben auf der Erde wie Sterne im Universum, also 1.3 Milliarden mal mehr Mikroben wie Sterne.

So vage diese Schätzungen im Moment sind, so verdeutlicht sie doch, dass wir es mit dem Biologischen mit einer neuen Art von Universum zu tun haben, das sich vor dem physikalischen Universum nicht verstecken muss!

Das Verhältnis zwischen Mikroben und Sternen wird noch krasser, wenn man berücksichtigt, in welchen räumlichen Verhältnissen sich dies abspielt. Die etwa 220000 x Milliarde x Milliarde x Milliarde Sterne im Universum benötigen ein Volumen von 3.568179e+80 m^3. Die erheblich größere Anzahl von Mikroben benötigen dagegen nur ein Volumen von 7.140905e+18 m^3, dies bedeutet der Platzbedarf der Sterne ist um das 4.996816e+61 fache größer als der der Mikroben. Anders ausgedrückt, das biologische Universum ist um das 4.996816e+61 fache verdichtet gegenüber dem physikalischen Universum.

MENSCHLICHE ZELLEN UND MIKROBEN

Es gibt etwa 2.670760e+08 mal mehr Mikroben wie menschliche Zellen auf der Erde, also 267 Millionen mal mehr (wobei die Zahl der Mikroben möglicherweise zu hoch angesetzt ist), doch sind die menschlichen Zellen in einem Körper in einer extrem komplexen Weise organisiert, für die es bislang kaum Modellvorstellungen gibt. Als Eckwerte mögen die Tatsachen dienen, dass die Gehirnzellen (Neuronen alleine ca. 80-90 Milliarden) untereinander extrem vernetzt sind; eine Zelle kann mehrere zehntausend Verbindungen haben. Zusätzlich kann eine Gehirnzelle aber auch über chemische Transmitter(moleküle) ‚quer‘ von zusätzlichen Signalquellen beeinflusst werden. Einzelne Körperzellen können über chemische Signale (Flüssigkeit, Blut..) mit vielen Milliarden anderen Zellen kommunizieren. So kann z.B. der Pilz candida albicans, der vorwiegend (aber nicht nur) im menschlichen Darm lebt, minderwertige Alkohole produzieren, die ins Blut abgegeben werden und dort einen Großteil der Körperzellen erreichen. Dies kann über Wochen und Monate zur vollständigen Vergiftung des ganzen Körpers führen.

MENSCH UND GALAXIEN

Hilfreich kann vielleicht auch ein direkter Vergleich Mensch und Galaxie bzw. Universum sein.

Zahlenmäßig ist die Zahl der Sterne in der Milchstraße mit 200 Milliarden (es gibt Schätzungen bis 400 Milliarden) verglichen mit der Zahl der Menschen auf der Erde mit 7.6 Milliarden (geschätzt für Mai 2018) deutlich höher, aber eben nur etwa 26 mal größer. Vergleicht man aber die Anzahl der Zellen eines einzelnen Menschen mit etwa 146 Billionen (10^12) mit den Sternen der Milchstraße, dann hat ein einzelner Mensch schon etwa 730 mal mehr Zellen wie die Milchstraße Sterne hat. Berücksichtigt man alle Menschen mit 146*10^12 x 7.6 * 10^9 Zellen, dann gibt es sogar 5.548D+12 mal mehr menschliche Zellen auf der Erde wie Sterne in der Milchstraße, also 5.5 Billionen mal mehr. Dies ist beeindruckend, nimmt man aber wieder das Volumen hinzu, dann kommt man wieder auf einen Verdichtungsfaktor, den man sich nicht mehr vorstellen kann; das Volumen der Milchstraße verglichen mit dem Volumen aller menschlicher Zellen ist etwa 1.025033e+61 mal größer, was umgekehrt besagt, dass es nicht nur 5.5 Billionen mal mehr menschliche Zellen als Sterne in der Milchstraße gibt, sondern diese viel größere Zahl an Zellen ist zugleich um den Faktor 6 Milliarden x Billion x Billion x Billion x Billion x Billion mal dichter gepackt als die Sterne in der Milchstraße. Zusätzlich muss man die unfassbar höhere Interaktionsdichte dieser Zellen mitdenken.

Verglichen mit den Sternen des ganzen Universums gibt es ’nur‘ 5 mal so viele menschliche Zellen (aller Menschen) wie Sterne im Universum. Immerhin, man kann einen Eindruck bekommen, dass die scheinbar so – räumlich – kleine Erde ein Hotspot ist, wo sich ein biologisches Universum entwickelt hat (und möglicherweise weiter entwickelt), das alles in den Schatten stellt, was wir vom physikalischen Universum her kennen.

GALAXIE MENSCH

Die mikrobiologische Sicht des Menschen steckt noch eher in den Anfängen. Doch kann man alleine von dieser Seite her (vgl. nochmals den Beitrag INFORMELLE KOSMOLOGIE. Teil 2. Homo Sapiens und Milchstraße) einen neuen Blick auf das System homo sapiens bekommen, speziell, wenn man das Thema ‚Bewusstsein – Unbewusstes‘ einbezieht.

Wie in der Diskussion zum wissenschaftsphilosophischen Verständnis der Psychoanalyse (zuletzt HIER) deutlich wurde, muss man davon ausgehen, dass systemtheoretisch das Unbewusste den weitaus größten Teil des Systems homo sapiens ausmacht und als solches auch das Bewusstsein in seinen Zuständen bestimmt, dass aber dennoch das Bewusstsein jener Punkt ist, von dem aus das System homo sapiens sich ‚orientiert‘. Bedenkt man jetzt, dass die Gehirnzellen (Neuronen und Gliazellen zusammen) nur etwa 0.1% des ganzen Körpers ausmachen, und bedenkt man ferner, dass das ‚Bewusstsein‘, das als eine Funktion des Gehirns angenommen werden muss, nur einen – noch nicht klar bestimmten Teil – des Gehirns ausmacht, und bedenkt man ferner, dass das Gehirn nur einen – noch nicht klar bestimmten Teil – des restlichen Körpers ‚wahrnimmt‘ bzw. ’steuert‘, dann muss man davon ausgehen, dass das ‚Unbewusste‘ einen ’sehr großen‘ – wie groß genau? – Anteil am System homo sapiens hat. Die Forschungen zum Bewusstsein stecken leider noch ziemlich in den Anfängen. Brauchbare Theorien sehe ich bislang nirgendwo.

ERGEBNIS

So grob alle Daten bislang sind, so deuten sich doch grundlegende Verhältnisse an, die ein entscheidendes Umdenken in der Erforschung der Natur verlangen. Insbesondere unser Bild vom homo sapiens, also von uns selbst, scheint radikal erneuerungsbedürftig. Sosehr mehr Mikrobiologie sicher wünschenswert und auch notwendig ist, eine ‚Gesamtsicht‘ verlangt erheblich mehr. Es müssen alle die einzelwissenschaftlichen Ergebnisse in einer Gesamttheorie zusammen geführt werden, und diese Gesamttheorie muss die bewusstseinsbasierte Innensicht einbeziehen, andernfalls ist sie wesentlich unvollständig. Das ‚Bewusstsein‘ – was immer es genau ist – ist wesentlich ein Phänomen der Natur, sogar ein sehr außerordentliches Phänomen, einzigartig im ganzen bekannten Universum, und so unglaublich großartig das gesamte Biologische Universum ist, so nimmt das Bewusstsein in diesem biologischen Universum eine Sonderstellung ein. Die Kodierungsleistung biologischer Systeme, die durch die molekülbasierte (DNA, RNA, Ribosom, …) Selbstreplikation eine bis heute nicht ganz enträtselte Funktionalität in die materiellen Strukturen aufblitzen lies, hat mit der Kodierungsleistung durch ein Bewusstsein eine weitere fundamentale Funktionalität entstehen lassen, die geeignet ist, das gesamte Universum auf sich selbst in völlig neuen Dimensionen und Geschwindigkeiten ‚abzubilden‘, deren Auswirkungen kaum abschätzbar sind. Die Entdeckung des Prinzips der Berechenbarkeit im Stil des mathematischen Konzept einer Turingmaschine kopiert diese biologischen Funktionen bis zu einem gewissen Grad und macht sie damit einer technologischen Realisierung zugänglich. Die ersten Auswirkungen dieser neuen Technologie in Kombination mit dem Gehirn erleben wir gerade, beschrieben mit dem Zeitgeist-Wort ‚Digitalisierung der Gesellschaft‘.

ANHANG

Text des kleinen Programms, mit dem gerechnet wurde. Es wurde mit der opensource Software ‚scilab‘ erstellt. Wer sich die Software herunterlädt, kann dies Programm direkt ausführen. Verbesserungswünsche sind herzlichst willkommen. Dieses Programm versteht sich nur als erster Denkanstoß.

//************************
// univuniv()
//
// scilab script. See www.scilab.org
//
// author: Gerd Doeben-Henisch
// First version: 20.Sept. 2018
// Last version: 22.Sept.2018
//
//************************************
//
// If not otherwise mentioned: data are taken from wikipedia DE|EN
//
//*************************************************
// BASIC IDEA
//
// Computing the proportions between the physical and the biological universe
//
// The physical universe will be looked at by the number of galaxies, the number
// of stars in a galaxie, and by the volume of galaxies.
//
//The biological universe will be viewed by the number of humans, the
// number of cells in humans, their volumes, the number of microbes
// on earth and their volume
//
// Finally the different numbers and volumes vill be compared
//
// These numbers are approximations to give a first idea
//
// Distances in Universe is 'kpc' := Kilo Parsec converted to meter
//
// The Milky way galaxy is seen as a zylindrical disc with diameter D=2r
// and a height h. The volume V is then the circle-area of the bottom
// multiplied with its height: V = pi * r^2 * h
//

//'*******************************************
// UNIVERSE
//

// 1 kpc in meter
METERKPC = 3.086e+19

// Estimates for numbers of galaxies in the universe vary between 2*10^11 and 2*10^12
GALAXNUMBERS = (2*10^11 + 2*10^12)/2

//Estimates of number of stars in the Milkyway vary between 100*10^9 and 400*10^9
STARSMILKYNUMBERS = 200*10^9

STARSUNIVNUMBERS = GALAXNUMBERS * STARSMILKYNUMBERS
GALAXMILKYDIAMETER = 30*10^3 * METERKPC
GALAXMILKYTHICK = 0.3*10^3 * METERKPC

//Since the universe has been expanding for 13.8 billion years, the comoving distance (radius) is now about 46.6 billion light-years
UNIVDIAMETER = 8.8*10^26 //in m
UNIVRADIUS = UNIVDIAMETER/2
UNIVVOLUME = 4/3 * %pi * UNIVRADIUS^3 //in m3

//*********************************************
// EARTH DIMENSIONS

//Diameter of earth in m

EARTHDIAMETER = 12.742 * 10^6
EARTHRADIUS = EARTHDIAMETER/2

//Volume inner sphere Vin. external sphere Vext
VOLUMEINNER = 4/3 * %pi * (EARTHRADIUS-7*10^3)^3
VOLUMEEXTERN =  4/3 * %pi * (EARTHRADIUS+7*10^3)^3
VOLUMEMICRO = VOLUMEEXTERN - VOLUMEINNER

//Depth of microbes in earth in m
DEPTHMICRO = 7*10^3

//Height of microbs in atmosphere in m
HEIGHTMICRO = 7*10^3

//Weight of 1 m3 garden soil in gram g
GARDENSOILGRAMQM = 8.3 * 10^5
//number of microbes  in 1 g garden soil: estimatesvary between 10 - 100*10^6
MICROSGRAMGARDEN = 50*10^6

//number of microbes  in 1 m3 garden soil
MICROSQMNUMBER = MICROSGRAMGARDEN * GARDENSOILGRAMQM

//number of microbs on earth
MICROSEARTHNUMBER =  MICROSQMNUMBER * VOLUMEMICRO

//'*******************************************
// HUMANS

// 1 liter = 0.001 m^3
// humans male ca. 85 liter
// humans female ca. 75 liter
// humans male-female ca. 80 liter

HUMANSNUMBER = 7.6*10^9 //May 2018
HUMANWEIGHT = 80 //Kg
HUMANVOLUME = 80 * 0.001 //m^3
CELLSHUMAN = (36 + 110) * 10^12
CELLALLHUMANSNUMBER = HUMANSNUMBER * CELLSHUMAN

//****************************************
// Brain

NEURONS = 80*10^9
RATIONEURONGLIA = 1/1
GLIAS = NEURONS * RATIONEURONGLIA
BRAINCELLS = NEURONS + GLIAS

//'*******************************************
// biouniverse()

//******************************************
// Computing the relations

function [DATE]=univuniv(GALAXMILKYDIAMETER, GALAXMILKYTHICK, GALAXNUMBERS, STARSMILKYNUMBERS, HUMANSNUMBER, HUMANVOLUME, CELLSHUMAN, CELLALLHUMANSNUMBER)
    
    DATE=date()
    
   // V = pi * r^2 * h
   // In cubic meter m^3
   //Volume of milkyway galaxy in m3
   GALAXMILKYVOLUME = %pi * (GALAXMILKYDIAMETER/2)^2 * GALAXMILKYTHICK
   mprintf('Volume m3 of MilkyWay Galaxy = %e\n',GALAXMILKYVOLUME)
   
  //Voulme of all humans in m3
   ALLHUMANSVOLUME = HUMANSNUMBER * HUMANVOLUME
   mprintf('Volume m3 of all Humans = %e\n',ALLHUMANSVOLUME)
   
   
   // Number of cells compared to number of stars
   PROPCELLSHUMANSSTARSMILK = CELLALLHUMANSNUMBER/STARSMILKYNUMBERS
   mprintf('Proportion number 1 human cells to number stars in milky way = %e\n',PROPCELLSHUMANSSTARSMILK)
      
   //Volume of all galaxies corresponding to number of humans
   VOLUMENEEDEDGALTOHUMANS = GALAXMILKYVOLUME * HUMANSNUMBER
   mprintf('Volume of Galaxies corresponding to 1 Human = %e\n',VOLUMENEEDEDGALTOHUMANS)
    
     
   //Proportion of volume of all humans to all needed galaxies
    PROPVOLNEEDEDGALTOHUMANS = VOLUMENEEDEDGALTOHUMANS/ALLHUMANSVOLUME
   mprintf('Proportion volume needed galaxies for all humans = %e\n',PROPVOLNEEDEDGALTOHUMANS)   
   
   //Volume microbes on earth Vmicro in m3
    mprintf('Volume microbes on earth Vmicro in m3 = %e\n',VOLUMEMICRO)   
    
    //Volume of universe in m3
    mprintf('Volume of universe in m3 = %e\n',UNIVVOLUME)   
    
    //Proportion Volume of universe in m3 to volume microbes
    mprintf('Proportion Volume of universe in m3 to volume microbes = %e\n',UNIVVOLUME/VOLUMEMICRO)   
    
    //Number of stars in the universe
    mprintf('Number of stars in the universe = %e\n',STARSUNIVNUMBERS)    
    
    //number of microbes on earth
     mprintf('number of microbes on earth = %e\n',MICROSEARTHNUMBER)    
    
    //Proportion stars in the universe and microbes on earth
      mprintf('Proportion microbes on earth  and stars in the universe = %e\n',(MICROSEARTHNUMBER/STARSUNIVNUMBERS))  
   
    //Number of cells of all humans
    mprintf('Number of cells of all humans = %e\n',CELLALLHUMANSNUMBER)
    
     //Proportion  volume of milkyway galaxy to volume of all human cells on earth  
      mprintf('Proportion  volume of milkyway galaxy to volume of all human cells on earth  = %e\n',(GALAXMILKYVOLUME/ALLHUMANSVOLUME))  
    
        //Proportion all human cells on earth to stars in the universe
      mprintf('Proportion all human cells on earth to stars in the universe = %e\n',(CELLALLHUMANSNUMBER/STARSUNIVNUMBERS))  
 
      //Proportion of all Microbes to all human cells 
      mprintf('Proportion of all Microbes to all human cells = %e\n',(MICROSEARTHNUMBER/CELLALLHUMANSNUMBER))   
      
    // Body and proportions

    //Percentage of brain cells of all body cells
    BRAINPERCENTBODY=BRAINCELLS/(CELLSHUMAN/100)
    mprintf('Percentage of Brain  within Body-Galaxy = %e\n', BRAINPERCENTBODY)

 
      mprintf('\n')
      
endfunction

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

EPISTEMISCHE SCHOCKWELLEN. Die letzten 3500 Jahre

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 20.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Die Diskussion im Kontext des letzten Textes von Freud zur Psychoanalyse lässt erkennen, wie sich das Bild von uns Menschen über uns selbst dadurch in gewisser Weise ändern kann und letztlich dann ändert, wenn wir uns auf diese Gedanken einlassen. Die Einbeziehung des ‚Unbewussten‘ in das Gesamtbild des Systems homo sapiens verschiebt so manche Beziehungen im Gefüge des menschlichen Selbstbildes, und nicht nur das, es wirkt sich auch aus auf das Gesamtbild der empirischen Wissenschaften, auf ihr Gesamtgefüge. Dies hatte sich ja auch schon angedeutet in der vorausgehenden Diskussion des Buches von Edelman, die noch nicht abgeschlossen ist.

Dies hat mich angeregt, über Freud und Edelman hinausgehenden einige der epistemischen Schockwellen zusammen zu stellen, denen das menschliche Selbstverständnis in den letzten ca. 3500 Jahren ausgesetzt war. Dabei muss man sich darüber im Klaren sein, dass es natürlich immer nur eine Minderheit war, die überhaupt an den übergreifenden Erkenntnissen teilhaben konnte, und selbst diese Minderheit zerfällt in unterschiedliche Subgruppen ohne ein kohärentes Gesamtbild.

EPISTEMISCHE SCHOCKWELLEN

Unter ‚Schockwellen‘ werden hier energetische Ereignisse verstanden, die nur gelegentlich auftreten, und die geeignet sind, bestehende Strukturen zumindest zum Schwingen, zum Erbeben zu bringen, wenn nicht gar zu ihrer Zerstörung führen. ‚Epistemisch‘ bezieht sich auf die Dimension des Erkennens, des Verstehens, zu dem Exemplare des Homo sapiens fähig sind. ‚Epistemische Schockwellen‘ sind also Ereignisse, durch die das Selbstverständnis, die Weltbilder der Menschen in Schwingungen versetzt wurden bzw. sich neu aufbauen mussten.

Die folgende Zusammenschau solcher epistemischer Schockwellen ist in keiner Weise vollständig, weitgehend nicht differenziert genug, rechtfertigt sich aber dadurch, dass es darum geht in einer überschaubaren Weise einen Grundeindruck von der Dynamik des Geistes zu vermitteln, die dem Geschehen des biologisch fundierten Lebens innewohnt.

CLUSTER RELIGION

 

Stichworte zu 'Epistemische Schockwellen', Teil 1. ca. -1500 bis ca. 1500
Stichworte zu ‚Epistemische Schockwellen‘, Teil 1. ca. -1500 bis ca. 1500

Zwischen ca. -1500 bis etwa 650 gab mindestens 8 große das Weltverstehen prägende Ereignisse – daneben viele andere, weitere –, die wir im Nachgang als ‚Religionen‘ bezeichnen. Religionen zeichnen sich aus durch ‚Gründer‘, durch ‚Botschaften‘, durch ‚Erfahrungen‘ und dann meistens nachfolgend durch ‚Regeln‘ und Bildung von ‚Organisationsformen‘. Sie erheben einen Anspruch auf ‚Deutung der Welt‘ mit ‚Sinn‘, ‚Werten‘ und ‚Spielregeln‘. Sie versprechen auch den Kontakt zu eine Letzten, Größten, Umfassenden, Endgültigen, dem alles andere unter zu ordnen ist. Vielfach gehen diese Versprechungen auch einher mit speziellen ‚außergewöhnlichen Erlebnissen‘, die im einzelnen stattfinden.

In Vorderasien und Europa waren dies vor allem das Duo Judentum-Christentum und der Islam. Während diese sich explizit auf einen ‚Schöpfer‘ bezogen, kam der indische Subkontinent neben der vielfältigen Götterwelt des Hinduismus in seinem Grundtenor — realisiert im Buddhismus — ohne einen expliziten Schöpfer aus, allerdings nicht ohne eine tiefgreifende Existenzerfahrung des einzelnen Menschen, der sich durch einen geeigneten Lebensstil und Meditation möglichst weitgehend von einem normalen Alltag und seinen vielfältigen Spannungen isolierte.

So verschieden Jugentum-Christentum, Islam auf der einen Seite und Indischer Existentialismus auf der anderen Seite auf den ersten Blick wirken können, kann man aber dennoch auffällige strukturelle Parallelen erkennen.

Die sprachliche Seite der genannten Religionen tendiert dazu, nicht die Weite und Vielfalt der Welt zu kommunizieren, keine weiterreichende Erkenntnisse, sondern die Sprache hat einzig den Zweck, eine bestimmte, abgegrenzte Idee zu kommunizieren, diese abzugrenzen von allem anderen, bis dahin, dass alle Abweichungen diskreditiert werden. Jene Menschen, die sich sprachlich von der ‚Norm‘ entfernen sind Abweichler, Dissidenten, Ungläubige, Verräter, Feinde. Die Sprache wird also nicht gesehen als ein offener, lebendiger, dynamischer Raum von ‚Wahrheit‘, die sich weiter entwickeln kann, sondern als eine symbolische Fessel, eine symbolische Mauer, die einige wenige Ideen abgrenzen sollen. Auch der Buddhismus, der eigentlich sein Fundament in einer schwer beschreibbaren individuellen Existenzerfahrung sieht, praktiziert Sprache überwiegend als Gefängnis.

Betrachtet man sich die Geschichte dieser Religionen bis heute, dann ist diese Starrheit unübersehbar. Alle modernen Erkenntnisse und Entwicklungen prallen an der Sprache dieser Religionen ab.

Neben der sprachlichen Dimension haben alle diese Religionen auch eine ‚Erlebnisdimension‘, oft auch ‚Spiritualität‘ oder ‚Mystik‘ genannt. Einzelne, Gruppierungen, Bewegungen erzähltem davon, schrieben es auf, dass sie ‚besondere, tiefgreifende Erlebnisse‘ hatten, die ihnen ‚klar gemacht haben‘, was wirklich ‚wichtig‘ ist, ‚worin der Sinn des Lebens‘ liegt, Erlebnisse, die ihnen ‚Frieden‘ geschenkt haben, ‚Erfüllung‘, ‚Wahrheit‘. Und diese Erlebnisse waren immer so stark, dass sie diese Menschen aus allen Schichten dazu bewegt haben, ihr Lebens radikal zu ändern und von da an eben ‚erleuchtet‘ zu leben. Diese Menschen gab es nicht nur im Umfeld des Buddhismus, sondern auch zu Tausenden, Zehntausenden im Umfeld des Judentum-Christentums.

Solange diese religiösen Bewegungen sich im Umfeld der etablierten religiösen Überzeugungen und Praktiken bewegen wollten, mussten sie sich – wie immer auch ihre individuellen Erlebnisse waren – diesem Umfeld anpassen. In vielen Fällen führte dies auch zu Absetzbewegungen, zur Entwicklung neuer religiöser Bewegungen. Das Problem dieser erlebnisbasierten Bewegungen war, dass sie entweder nicht die Sprache benutzen durften, die sie zur Beschreibung ihrer Erlebnisse brauchten (da nicht erlaubt), oder aber, sie benutzten eine neue Sprache, und dies führte zum Konflikt mit den etablierten Sprachspielen.

Unter den vielen hunderten Bewegungen allein im Bereich Judentum-Christentum, die z.T. viele tausend, ja zehntausend  Mitglieder hatten und dabei oft auch materiell sehr wohlhabend bis reich wurden, möchte ich zwei kurz erwähnen: die Reformation angefeuert von Martin Luther und den Jesuitenorden, angefeuert von Ignatius von Loyola. Im historischen Klischee werden beide Bewegungen oft als direkte Gegner skizziert, da der Jesuitenorden kurz nach Beginn der Reformationsbewegung gegründet wurde und der katholische Papst gerade diesen Orden auch zur ‚Bekämpfung der Reformation‘ einsetzte. Dieses Bild verdeckt aber die wirklich interessanten Sachverhalte.

Der Jesuitenorden entstand aus den spirituellen Erfahrungen eines baskischen Adligen, deren innere Logik, Beschreibung und Praxis, im Lichte der Erkenntnisse der modernen Psychologie (und Psychoanalyse) stand halten würde. Außerdem war der Orden aufgrund dieser Spiritualität extrem weltoffen, wissenschaftsaffin, und revolutionierte die damals beginnende christliche Missionierung der Welt, indem jeweils die Kultur der verschiedenen Erdteile studiert und übernommen und sogar gegen zerstörerische Praktiken der europäischen Kolonisatoren geschützt wurden. Genau dieses wahre Gesicht des Ordens mit einer radikal individuell-erlebnisbasierten Spiritualität und daraus resultierenden Weltoffenheit und Menschlichkeit führte dann zum Verbot und Aufhebung des Ordens weltweit, verbunden mit Einkerkerungen, Folter und Tod ohne Vorankündigung. Das korrupte Papsttum ließ sich damals von dem portugiesischen und spanischen Hof erpressen, die ihre menschenverachtende Geschäfte in den Kolonien, speziell Südamerika, bedroht sahen. Dies war nicht die einzige Aufhebung und Misshandlung, die der Orden seitens des Papstums erfuhr. Während Luther sich gegen das Papsttum erhob und es auf einen Konflikt ankommen ließ, blieben die Jesuiten dem Papst treu und wurden vernichtet.

Diese Minigeschichte ließe sich aber zu einem großen Thema erweitern, da eben die sprachlich fixierten Religionen generell ein Problem mit Wahrheit und damit mit jeglicher Art von Erfahrung haben. Die Akzeptanz individueller Erfahrung als möglicher Quell von ‚Wahrheit‘, möglicherweise einer weiter reichenden alternativen Wahrheit zu der sprachlich fixierten (und damit eingesperrten) Wahrheit der Religionen, eine solche Akzeptanz würde das Wahrheitsmonopol dieser Religionen aufheben. Bislang hat keine der genannten Religionen es geschafft, von sich aus ihr problematisches Wahrheitsmonopol in Frage zu stellen.

JUDENTUM – CHRISTENTUM – PHILOSOPHIE

In der Zeit vor den modernen empirischen Wissenschaften existierte wissenschaftliches Denken entweder gar nicht oder in enger Verbindung mit dem philosophischen Denken bzw. der Medizin.

In der alten und klassischen Griechischen Philosopie (ca. -800 bis -200) wurde das Weltverstehen in vielen Bereichen erstmalig sehr grundlegend reflektiert, unabhängig von bestimmten religiösen Überzeugungen, obgleich natürlich auch diese Denker nicht im luftleeren Raum lebten sondern in konkreten Kulturen mit einer damals üblichen Moral, Ethik, Spielregeln, Sprachspielen.

Unter den vielen bedeutenden Konzepten war das größte systematische Konzept wohl jenes von Aristoteles, Schüler Platons, und den an ihn anschließenden Schulen. Während dieses griechische Denken nach der Eroberung Griechenlands durch die Römer in Mittel- und Westeuropa bis zum Jahr 1000 mehr oder weniger unbekannt war (Kriege, radikal anti-wissenschaftliche Einstellung der katholischen Kirche) war der damalige Islam sehr offen für Wissen. Das griechische Denken war im Islam weitgehend bekannt, lag entsprechend in arabischen Übersetzungen vor, und durch eine Vielzahl von Schulen, Bildungsstätten und großen Bibliotheken (z.T. mehrere hundert Tausend Bücher!) wurde dieses Wissen gepflegt und weiter entwickelt (welcher Kontrast zum heutigen Islam!). Und nur über diese Umweg über den hochgebildeten Islam mit Übersetzungsschulen in Spanien kam das Wissen der Griechen ab ca. 1000 wieder in das christliche Mittel- und West-Europa.

Mit dem Entstehen eines aufgeschlosseneren Bildungssystem in Europa wanderten die griechischen Gedanken über Bücher und Gelehrte wieder in europäische Bildungsstätten ein. Es gab eine Zeit der intensiven Auseinandersetzung zwischen bisheriger christlicher Theologie und Aristoteles. Auf dem Höhepunkt der begrifflichen Integration von christlichem Glauben und Aristotelischer Weltsicht gab es aber ‚Abspaltungstendenzen‘ in mehreren Bereichen.

POLITIK – WISSENSCHAFT – SPIRITUALITÄT

Das zunehmend freie und kritische Denken begann mit der Infragestellung der bis dahin waltenden absolutistischen Machtstrukturen.

Das methodisch geschulte universitäre Denken begann, über die aristotelischen Konzepte hinaus zu denken. Anknüpfungspunkte gab es genügend.

Das individuelle Erleben der Menschen, ihre Frömmigkeit, ihre Spiritualität suchte nach neuen Wegen, benutzte eine neue Sprache, um sich besser ausdrücken zu können.

Das neue politische Denken führte später zur französischen Revolution und vielen ähnlichen politischen Erneuerungsbewegungen.

Das neue philosophische Denken führt alsbald zum Bildung der neuen empirischen Wissenschaften mit neuer Logik und Mathematik.

Die neue Spiritualität lies viele neue religiöse Bewegungen entstehen, die quer zu allen etablierten Glaubensformen lagen, u.a. auch zur Reformation.

PHILOSOPHIE – WISSENSCHAFT

Stichworte zu 'Epistemische Schockwellen', Teil2. ca. ca. 1550 bis ca.2018
Stichworte zu ‚Epistemische Schockwellen‘, Teil2. ca. ca. 1550 bis ca.2018

Aus der Vielzahl der philosophischen Denker bieten sich vier besonders an: Descartes, Kant, Wittgenstein und Carnap.

Von heute aus betrachtet markieren diese Vier entscheidende Umbrüche des philosophischen Denkens, das von den Entwicklungen in der Logik, Mathematik,Physik, Geowissenschaften, Biologie und Psychologie zusätzlich profitiert hat und noch immer profitiert.

Descartes versuchte zu klären, inwieweit sich die Wahrheitsfrage nur durch Rekurs auf das eigene Denken lösen ließe. Sein Fixpunkt in der Gewissheit des eigenen Denkens (cogito ergo sum) wurde aber erkauft durch einen fortbestehenden Dualismus zwischen Körper (res extensa) und Denken/ Geist (res cogitans), den er mit einem irrationalen Gedanken zu einer Zirbeldrüse zu kitten versuchte.

Kant führte dieses Forschungsprogramm von Descartes letztlich weiter. Sein Vermittlungsversuch zwischen fehlbarer konkreter empirischer Erfahrung und den allgemeinen Prinzipien der Mathematik und des Denkens (des Geistes) ging über Descartes insoweit hinaus, dass er auf eine Zirbeldrüsen-ähnliche Lösung verzichtete und stattdessen davon ausging, dass der Mensch in seinem Denken von vornherein in abstrakten Kategorien wahrnimmt und denkt. Unsere menschliche Konstitution ist so, dass wir so wahrnehmen und Denken. Er konstatierte damit ein Faktum, das wir heute mit all unseren Erkenntnissen nur bestätigen können. Es blieb bei ihm offen, warum dies so ist. Es zeichnet seine intellektuelle Redlichkeit aus, dass er die offenen Enden seiner erkenntnistheoretischen (epistemischen) Analysen nicht krampfhaft mit irgendwelchen Pseudo-Lösungen versucht hat zu vertuschen.

Wittgenstein war der erste, der sich mit dem Funktionieren der Sprache und ihrer Wechselwirkung mit unserem Denken ernsthaft, ja radikal beschäftigte. Während er in seinem Frühwerk noch der Statik der damaligen modernen Logik huldigte, begann er dann später alle diese statischen formalen Konstruktionen in der Luft zu zerreißen, durchlief weh-tuende detaillierte Analysen der Alltagssprache, machte vor nichts Halt, und hinterließ mit seinem frechen und angstfreien Denken einen Trümmerhaufen, dessen Verdienst es ist, den Raum frei gemacht zu haben für einen echten Neuanfang.

Carnap wirkt in diesem Zusammenhang auf den ersten Blick wie ein Antipode zu Wittgenstein, und in der Tat hat er ja das vor-wittgensteinsche Sprachverständnis in seinen Studien zu den formalen Sprachen, zur Logik, zur logischen Semantik weiter angewendet. Allerdings hat er dies dann auch im Kontext der empirischen Wissenschaften getan. Und in diesem Kontext hat sein formal-scholastisches Denken immerhin dazu beigetragen, die Grundstrukturen moderner empirische Theorien mit einem formalen Kern frei zu legen und ihre Eigenschaften zu untersuchen.

Alle diese genannten Ansätze (Kant, Wittgenstein, Carnap) wurden später mehrfach kritisiert, abgewandelt, weiter entwickelt, aber es waren diese Ansätze, die die nachfolgenden Richtungen entscheidend beeinflusst haben.

Ein interessanter Grenzfall ist Freud (s.u.). Irgendwie könnte man ihn auch zur Philosophie rechnen.

LOGIK – MATHEMATIK

Aus heutiger Sicht kann man sich gar nicht mehr vorstellen, dass es eine Zeit gegeben hat, in der die moderne Logik und Mathematik nicht verfügbar war. Nahezu alles, was unseren Alltag ausmacht setzt sehr viel Mathematik als beschreibende Sprache, als Berechnung, als Simulation voraus. Dass mathematisches Denken in den Schulen so wenig – und immer weniger – behandelt wird, ist sehr irritierend.

Logik und Mathematik sind einen weiten Weg gegangen.

Ein Meilenstein ist der Übergang von der klassischen aristotelischen Logik (eng an der Alltagssprache, Einbeziehung inhaltlichen Alltagsdenkens) zur modernen formalen Logik seit Frege (formale Sprache, formaler Folgerungsbegriff).

Eng verknüpft mit der Entwicklung der neuen formalen Logik ist auch die Entwicklung der modernen Mathematik, die entscheidend mit der Erfindung der Mengenlehre durch Cantor ihren Durchbruch fand, und dann mit Russel-Whitehead und Hilbert die Neuzeit erreichte. Keine der modernen Arbeiten in Gebieten wie z.B. Algebra, Topologie, Geometrie sind ohne diese Arbeiten denkbar, ganz zu schweigen von der modernen theoretischen Physik.

EMPIRISCHE WISSENSCHAFTEN

Erste Ausläufer empirischer Wissenschaft gab es schon vor Galilei (man denke z.B. nur an die bahnbrechenden Forschungen zur Medizin von dem islamischen Gelehrten (und Philosophen, Logiker, Theologen!) Avicenna). Doch an der Person Galileis kristallisiert sich der Konflikt zwischen neuem, offenen wissenschaftlichen Denken und dem alten, geschlossenen christlichen Denken. Zudem hat Galilei eben konsequent sowohl eine experimentelle Messmethode angewendet wie auch eine beginnende mathematische Beschreibung. Mit Newton gelang dann eine Fassung von Experiment und Theorie, die atemberaubend war: die Bewegung der Himmelskörper ließ sich nicht nur mit einfachen mathematischen Formeln beschreiben, sondern auch noch mit bis dahin unbekannter Präzision voraus sagen. Es sollte dann zwar noch fast 300 Jahre dauern, bis die moderne Physik eine erste Theorie zur Entstehung des ganzen Weltalls formulieren konnte samt ersten experimentellen Bestätigungen, aber die Befreiung des Denkens von dogmatischen Sprachbarrieren war geschafft. Die Wissenschaft insgesamt hatte sich freigeschwommen.

Schon im 17.Jahrhundert hatte Niels Stensen entdeckt, dass die unterschiedlichen Ablagerungsschichten der Erde in zeitlicher Abfolge zu interpretieren sind und man daher auf geologische Prozesse schließen kann, die die Erde durchlaufen haben muss.

Zwei Jahrhunderte später, schon im 19.Jahrhundert, wurde diese historische Sicht der Erde ergänzt durch Charles Darwin, der am Beispiel der Pflanzen- und Tierwelt auch Hinweise auf eine Entwicklung der Lebensformen fand. Sowohl die Erde als auch die biologischen Lebensformen haben eine Entwicklung durchlaufen, zudem in enger Wechselwirkung.

Fast parallel zu Darwin machte Freud darauf aufmerksam, dass unser ‚Bewusstsein‘ nicht die volle Geschichte ist. Der viel größere Anteil unseres menschlichen Systems ist ’nicht bewusst‘, also ‚unbewusst‘. Das Bewusstsein ‚erzählt‘ uns nur ‚Bruchstücke‘ jener Geschichten, die weitgehend im ‚Nicht-Bewusstein‘ oder ‚Unbewussten‘ ablaufen.

Die weitere Entwicklung der Biologie lieferte viele Argumente, die das Bild von Freud stützen.

Der Versuch von Watson, 1913, die Psychologie als empirische Verhaltenswissenschaft zu begründen, wurde und wird oft als Gegensatz zu Psychoanalyse gesehen. Das muss aber nicht der Fall sein. Mit der Verhaltensorientierung gelang der Psychologie seither viele beeindruckende theoretische Modelle und Erklärungsleistungen.

Von heute aus gesehen, müsste man ein Biologie – Psychologie – Psychoanalyse Cluster befürworten, das sich gegenseitig die Bälle zuspielt.

Durch die Einbeziehung der Mikro- und Molekularbiologie in die Evolutionsbiologie konnten die molekularen Mechanismen der Evolution entschlüsselt werden.Mittlerweile steht ein fast komplettes Modell der biologischen Entwicklung zur Verfügung. Dies erlaubt es sowohl, Kants (als auch Descartes) Überlegungen von den biologischen Voraussetzungen her aufzuklären (z.B. Edelman!), wie auch die Psychologie samt der Psychoanalyse.

COMPUTER

Als Gödel 1931 die Unentscheidbarkeit anspruchsvoller mathematischer Theorien (das fängt bei der Arithmetik an!) beweisen konnte, wirkte dies auf den ersten Blick negativ. Um seinen Beweis führen zu können, benötigte Gödel aber sogenannte ‚endliche Mittel‘. Die moderne Logik hatte dazu ein eigenes Forschungsprogramm entwickelt, was denn ‚endliche Beweismethoden‘ sein könnten. Als Turing 1936/7 den Beweis von Gödel mit dem mathematischen Konzept eines Büroangestellten wiederholte, entpuppte sich dieses mathematische Konzept später als ein Standardfall für ‚endliche Mittel‘. Turings ‚mathematisches Konzept eines Büroangestellten‘ begründete dann die spätere moderne Automatentheorie samt Theorie der formalen Sprachen, die das Rückgrat der modernen Informatik bildet. Das ‚mathematische Konzept eines Büroangestellten‘ von Turing wurde ihm zu Ehren später ‚Turingmaschine‘ genannt und bildet bis heute den Standardfall für das, was mathematisch ein möglicher Computer berechnen kann bzw. nicht kann.

Im weiteren Verlauf zeigte sich, dass gerade das Konzept des Computers ein extrem hilfreiches Werkzeug für das menschliche Denken sein kann, um die Grenzen des menschlichen Wahrnehmens, Erinnerns und Denkens auszugleichen, auszuweiten.

Schon heute 2018 ist der Computer zu einem unverzichtbaren Bestandteil der Gesellschaft geworden. Das Wort von der ‚Digitalen Gesellschaft‘ ist keine Fiktion mehr.

ZEITGEIST

Der extrem kurze Rückblick in die Geschichte zeigt, wie schwer sich die Ausbildung und Verbreitung von Ideen immer getan hat. Und wenn wir uns die gesellschaftliche Realität heute anschauen, dann müssen wir konstatieren, dass selbst in den hochtechnisierten Ländern die gesamte Ausbildung stark schwächelt. Dazu kommt das eigentümliche Phänomen, dass das Alltagsdenken trotz Wissenschaft wieder vermehrt irrationale, gar abergläubische Züge annimmt, selbst bei sogenannten ‚Akademikern‘. Die Herrschaft von Dogmatismen ist wieder auf dem Vormarsch. Die jungen Generationen in vielen Ländern werden über mobile Endgeräte mit Bildern der Welt ‚programmiert‘, die wenig bis gar nicht zu wirklichen Erkenntnissen führen. Wissen als solches, ist ‚wehrlos‘; wenn es nicht Menschen gibt, die mit viel Motivation, Interesse und Ausdauer und entsprechenden Umgebungen zum Wissen befähigt werden, dann entstehen immer mehr ‚Wissens-Zombies‘, die nichts verstehen und von daher leicht ‚lenkbar‘ sind…

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

KEIN MEMO – PSYCHOANALYSE DURCH ROBOTER?

Da die letzte Philosophierwerkstatt

PSYCHOANALYSE DURCH ROBOTER? Teil 2. Einladung zur PHILOSOPHIEWERKSTATT am 25.Februar 2018

sehr kurzfristig wegen einem schweren Infekt abgesagt werden musste, gibt es noch kein Memo. Die Sitzung wird bei der nächsten geplanten Sitzung am

25.März 2018, 15:00 – 18:00

nachgeholt werden. Die weiteren geplanten Termine für die Philosophiewerkstatt sind:

 

  • 29.April 2018
  • 27.Mai 2018
  • 24.Juni 2018
  • 29.Juli 2018
  • Sommerpause bis Ende September 2018

Künstliche Intelligenz sogar in der Psychotherapie – Wohin soll das noch führen? Prof. Humm -Darmstadt. Memo

PDF

KURZFASSUNG

Bericht zum VORTRAG „Künstliche Intelligenz sogar in der Psychotherapie — Wohin soll das noch führen?“ von Prof. Dr. Bernhard Humm (FB Informatik, Hochschule Darmstadt), Moderation: Prof. Doeben-Henisch, im Institut für Neue Medien (INM), Frankfurt, Schmickstraße 18, Donnerstag 28. September 2017, 19:30 Uhr (Fotos: Zeynep Tuncer)

KONTEXT

Bernhard Humm hatte am 5.Mai 2017 im eJournal Philosophie Jetzt- Menschenbild (ISSN 2365-5062) einen Beitrag veröffentlicht mit dem Titel „Technische Superintelligenzen werden die Menschheit bedrohen“ – Wie kann man eine so absurde Behauptung aufstellen?, der viele positive Reaktionen ausgelöst hatte. Wir hatten daraufhin einen öffentlichen Vortrag im Institut für Neue Medien (INM, Frankfurt) im Rahmen einer neuen Reihe ‚Philosophie Jetzt im Gespräch‘ vereinbart. Sein Vortrag fand dann am 28.September 2017 im INM statt. Und, wie sich zeigte, fand sich ein sehr interessantes Publikum zusammen, was das Gespräch sehr bereicherte.

BERICHT

KI ein Hype

Prof.Dr.Bernhard Humm (Hochschule Darmstadt) während seines Vortrags
Prof.Dr.Bernhard Humm (Hochschule Darmstadt) während seines Vortrags

Einleitend machte er deutlich, dass das Thema Künstliche Intelligenz (KI) seit einigen Jahren einen Hype-Charakter hat, was allerdings nicht neu ist. Zitate von Marvin Minsky (1967, 1970) und Ray Kurzweil (2005) illustrierten dies. Der Verweis auf das Märchen von des Kaiser’s neuen Kleider mag auf den ersten Blick krass erscheinen, aber wenn man sich die Marketingverlautbarungen vieler Firmen anschaut, ist dies nicht allzu weit weg davon.

KI im Alltag

Offensichtlich ist, dass Anwendungen mit KI-ähnlichen Eigenschaften mittlerweile im Alltag angekommen sind und wie selbstverständlich benutzt werden (z.B. Gesichtserkennung, Sprachschnittstellen für die Steuerung, selbst fahrende Autos).

Bernhard Humm verdeutlichte diese Breite heutiger Anwendungen mit anderen Projekten, bei denen er beteiligt war, so z.B. die Unterstützung der Entwickler bei einer bekannten Roboterfirma, die Unterstützung bei der Findung eines geeigneten Hotels für die Wünsche von Kunden bei einem bekannten Internetportal für die Hotelreservierung, die Unterstützung der Besucher des Städelmuseums im Auffinden ähnlicher Kunstobjekte, die Unterstützung von Bibliotheksbenutzern bei der Suche nach passender Literatur, oder die Unterstützung von Ärzten beim Identifizieren von Krebsrisiken.

KI und Therapie

Jürgen Hardt, ein Experte für Psychoanalyse und Psychotherapie, hört hier aufmerksam zu
Jürgen Hardt, ein Experte für Psychoanalyse und Psychotherapie, hört hier aufmerksam zu

Bernhard Humm berichtete dann von einem neuen Projekt mit dem Zentralinstitut für Seelische Gesundheit (ZI) in Mannheim, bei dem es um den Therapiekontext im Fall von Borderline-Patienten geht. Solche Patienten sind extrem sensibel für Belastungen, was bedeutet, dass in der Interaktion mit Ihnen Stressmomente soweit wie möglich minimiert werden müssen.

Die Aufgabenstellung für die Informatik in diesem Fall ist nicht, den Therapeuten zu ersetzen, sondern die Therapie des Therapeuten zu unterstützen.

Ein Anknüpfungspunkt sind die routinemäßigen schriftlichen Befragungen, die die Patienten mit normalem Schreibgerät ausfüllen müssen. Für die Therapeuten ist dies eine wichtige Rückmeldung. Für die Patienten ist es ein Baustein ihrer aktiven Bewältigung der Borderline-Phänomene.

Eine Maßnahme war die Möglichkeit anzubieten, dass die Patienten diese Fragebogen über ihr Smartphone oder den Computer ausfüllen können. Was auf den ersten Blick banal erscheinen mag, stellte sich als eine große Hilfe für die Patienten heraus. Sie empfanden dies deutlich als Erleichterung.

Ein anderer Ansatzpunkt war motiviert durch die allgegenwärtige Gefahr, dass Patienten (aufgrund ihres geringen Stresspegels) sehr leicht zu einem Abbruch tendieren. Für die Therapeuten ist es daher von hoher Bedeutung, zu erkennen, ob sich ein Abbruch andeutet. Es wurde daher versuchsweise begonnen, mit Methoden der statistischen Datenanalyse (heute oft verbunden mit dem Schlagwort von ‚Big Data‘), über eine Vielzahl von (anonymisierten) Fragebogendaten, Anhaltspunkte zu finden, die auf einen wahrscheinlichen Abbruch hindeuten. Die ersten Experimente mit verschiedenen Auswertungstechniken waren sehr positiv. Damit deutet sich an, dass die Therapeuten auf diese Weise eine zusätzliche Unterstützung bekommen könnten, in ihrer Therapie darauf zu achten.

Matthias Rewald (Armstädter Ontologenkreis) und Gerd Doeben-Henisch (Moderator des Abends) im Gespräch
Matthias Rewald (Darmstädter Ontologenkreis) und Gerd Doeben-Henisch (Moderator des Abends) im Gespräch

KI und Zukunft der Arbeit

Michael Klein, der Direktor des INM, mit einem frfeundlichen Lächeln
Michael Klein, der Direktor des INM, mit einem freundlichen Lächeln

Bernhard Humm betonte einerseits die Normalität und die aktuelle Einfachheit der tatsächlichen KI-Anwendungen, er verwies aber auch auf mögliche weitreichende Herausforderungen, die sich durch die zunehmende Ersetzung von klassischen Arbeitsplätzen durch intelligente Technologien manifestieren.

Im Rahmen der industriellen Revolution hat die Menschheit schon einige Umbrüche erlebt und letztlich überstanden, aber der neue Technologiewandel durch umfassende Digitalisierung greift viel weiter, viel tiefer in das gesellschaftliche Leben ein als alles, was wir bislang kennen.

Die bisherigen Prognosen zur Zukunft der Arbeit sind zudem sehr widersprüchlich; dies deutet an, dass die Materie unübersichtlich ist. Sollte der Wegfall von Arbeitsplätzen deutlich größer sein als das Entstehen neuer Arbeit, dann würde dies große Herausforderung an das bisherige Gesellschaftsmodell stellen: wie an der wirtschaftlichen Produktion beteiligt sein ohne durch Arbeit Geld zu verdienen?

Auch stellen sich viele Fragen, wenn immer mehr Entscheidungsprozesse an Algorithmen ausgelagert werden. Wenn automatisierte Waffen ‚von sich aus‘ angreifen und töten? Wenn im Hochfrequenzhandel an den Börsen die Algorithmen global wirtschaftliche Prozesse ohne Rückkopplung an Menschen steuern? Wenn Verwaltungsabläufe automatisiert werden? Wenn … viele Fragen, auf die wir bislang noch keine Antworten haben.

DISKUSSION

Schon während des Vortrags gab es Ansätze zur Diskussion, die dann nach einer kurzen Pause lebhaft weiter geführt wurde.

Man kann die Beiträge grob in zwei Gruppen einteilen: (i) Der Kontext von Therapie für den Einsatz von KI und (ii) Grundsatzfragen zur Zukunft von Menschen und intelligenten Maschinen.

Therapiekontext

Aufgrund der Einfachheit der Informatikanwendungen am Beispiel der Therapie von Borderline-Patienten und ihrer deutlichen Beschränkung als begrenztes Werkzeug für die Therapeuten gab es hier noch nicht viel Diskussionsbedarf. Jürgen Hardt, erfahrender Psychoanalytiker und Psychotherapeut(*)  lies allerdings in seinen Gesprächsbeiträgen aufblitzen, wie komplex die Sachlage im Fall von psychoanalytischen Therapien ist und welche grundsätzlichen Beschränkungen computergestützte Anwendungen bislang aufweisen, erst Recht, wenn sie als online-Dienst daher kommen.

Andererseits zeigt das Projektbeispiel mit den Borderline-Patienten auch ein wenig, dass ein übergreifender theoretischer Rahmen für diese Art von interdisziplinärem Vorgehen noch fehlt. Es wäre interessant zu sehen, ob und wie solch ein Rahmen die Diskussion beeinflussen könnte.

Bernhard Humm, während der Pause, eingetaucht in virtuelle Beschriftung
Bernhard Humm, während der Pause, eingetaucht in virtuelle Beschriftung

KI als mögliche Bedrohung

Die Tatsache, dass die überwiegende Zahl der Beiträge sich auf die möglichen Bedrohungen der KI bezog, deutet an, wie stark dies doch offensichtlich alle beschäftigt.

Ein Thema war die offensichtliche Faszination, die das Thema KI bei den Menschen auslöst; einmal in dem Sinne, dass man mit der KI eine Fülle von Verheißungen verknüpft, die Lösung aller Probleme, die wir Menschen bislang noch nicht gelöst haben, und dann unendliche Bedrohungsszenarien. Woher kommt dies? Warum reagieren wir Menschen so? Und in der Tat lässt sich dieses Motiv in der Kulturgeschichte viele Jahrhunderte, wenn nicht Jahrtausende zurück verfolgen (Jürgen Hardt).

Einen großen Raum nahm das Thema ‚Digitalisierung der Gesellschaft ein, was von einigen als Teil eines Kulturwandels gedeutet wurde, der grundlegende Muster verändert. Worauf dies alles hinauslaufen wird erschließt sich noch nicht so richtig. Michael Klein machte darauf aufmerksam, dass die großen Internetkonzerne mit Sitz in Silicon Valley schon seit den 90iger Jahren eindeutige Manifest verfasst haben, in denen sie beschreiben, wie sie die Welt verändern wollen. Ein Kern dieser Überzeugungen ist der Glaube an die globale Allheilkraft der Daten mit Daten lassen sich alle Probleme lösen.

Dies erinnert an die Schriften der Aufklärung(Humm), in denen ebenfalls die Verfügbarkeit von Wissen als ein Schlüssel für die Veränderung der Welt (dort vom Absolutismus zu mehr Gleichheit und Brüderlichkeit in allem, zum Abbau von Dogmatismus und Ideologie) angesehen wurde. Wie die Geschichte uns zeigen kann, hat das Wissen alleine bislang offensichtlich nicht diese erhoffte Heilkraft für alle Probleme: Diktaturen, Kriege, Ausbeutung, Hunger, Unterdrückung und vieles mehr sind bis heute de weltumfassenden Begleiter der Menschheit.

Es gab auch verschiedene Stimmen, die jene Position von Bernhard Humm in Frage stellten, in der er den Unterschied zwischen Menschen und intelligenten Maschinen so grundsätzlich darstellte, dass ein Ersatz der Menschen durch solche Maschinen kaum vorstellbar erscheine. Das Ergebnis dieser Argumente war nicht eindeutig. Dass intelligente Maschinen sich in der Zukunft zumindest selbst ‚fortpflanzen‘ könnten, schien den Diskussionsteilnehmern prinzipiell nicht ausgeschlossen.

Doeben-Henisch wies gegen Ende noch auf ein grundlegendes Problem der modernen KI hin, das, sollte es zutreffen, sehr viele Fragezeichen hinter die Zukunft der KI setzen würde, selbst wenn diese Maschinen tausende Male schneller als Menschen würden (was sie ja schon sind) und tausende Male mehr Daten verarbeiten können (was ja auch schon stattfindet). Das Problem findet sich im Bereich des autonomen Lernens. In dem sehr fortschrittlichen Bereich ‚developmental robotics‘, wo es um die Entwicklung von Robotern mit mehr Autonomie geht, die sich ähnlich wie Kindern entwickeln können sollen, ist man seit einigen Jahren auf das Problem gestoßen, mit welchen Präferenzen (= Werte) Roboter lernen sollen, wenn diese nicht nur von den Ingenieuren ‚eingeflüstert‘ werden sollen. Außerdem reicht es nicht, dass ein einzelner Roboter ‚Präferenzen‘ besitzt, sondern eine ganze Population von Robotern muss sich ‚einigen‘, welche Werte sie gemeinsam verfolgen wollen. Aktuell führt die Menschheit vor, wie unfähig sie selbst ist, dieses Problem zu lösen. Es gibt nicht die leiseste Idee, wie Roboter dieses Problem lösen sollen. Wissen als solches ist neutral, es gibt keine Richtung vor. Die chinesische Regierung demonstriert gerade, wie man das aktuelle Werte-Vakuum und die ‚willenlose KI‘ aufgrund von Machtkonstellationen beliebig instrumentalisieren kann (Bericht FAZ vom 25.September 2017).

 

ANMERKUNGEN

(*) Jürgen Hardt ist Psychologischer Psychotherapeut, Lehr- und Kontrollanalytiker (DPV/IPA), Gruppenlehranalytiker (GAS, London), Supervisor und Organisationsberater (DAG) und Gründungspräsident der Psychotherapeutenkammer Hessen. Er hat gemeinsam mit anderen erfolgreich Verfassungsbeschwerde gegen das BKA Gesetz eingelegt, und dabei mit der besonderen Schutzbedürftigkeit des psychotherapeutischen Gespräches argumentiert.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

DIE MEISTGELESENEN BEITRÄGE IM BLOG 2015

Eine Liste der 17 am häufigten besuchten Beiträge im Blog, wie sie im Zeitraum von Dez.2013 bis Dez.2015 vom Statistikmodul von wordpress registriert worden sind. Über die Korrektheit lässt sich weiter nichts sagen, da die Basisdaten der Statistik nicht zugänglich sind. Die Statistik registriert aber auch Zugriffe auf Blogbeiträge vor Dez.2013. Bei mittlerweile 322 Blogeinträgen von cagent seit 2007 kann es aufschlussreich sein, welche 17 Beiträge von Lesern als interessant empfunden wurden.

1 KANN ES DOCH EINEN KÜNSTLICHEN GEIST GEBEN?
2 OFFENBARUNGSRELIGIONEN – Grenzen, die man bedenken sollte
3 CARTESIANISCHE MEDITATIONEN III
4 BLOG GEBIERT BUCH. Bis 28.August 2015 soll die Grundaussage des Blogs als Buch geschrieben werden
5 PARADOX MENSCH – Reden wir nicht drum herum….
6 Über Industrie 4.0 und Transhumanismus. Roboter als Volksverdummung? Schaffen wir uns selbst ab?
7 SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015
8 Gnoseologische, ontologische, teleologische Wahrheit – Fortsetzung 2 der Überlegungen zu N.Hartmanns Metaphysik der Erkenntnis
9 IBN SINA/ AVICENNA: DIE METAPHYSIK AVICENNAS – Warum man manchmal schlafende Hunde wecken sollte (Teil 1)
10 Philosophische Büttenrede…
11 SIND KINDER GUT? WIE KOMMT DAS BÖSE IN DIE WELT? MEMO philosophieWerkstatt vom 8.Februar 2015
12 NACHBEMERKUNG ZUM BUCH VON H.RATH – Und Gott sprach: Wir müssen reden!
13 CHRISTLICHES ABENDLAND EINE LEGENDE? Nachbetrachtungen zum Buch von R.Bergmeier
14 DIE NEUROWISSENSCHAFTEN – EIN PHILOSOPHISCHES SCHWARZES LOCH? – Zu einem Artikel von W.Singer in der FAZ vom 17.September 2014
15 Wissenschaftliches Denken (2)
16 INDUKTIVES SERVICE-LEARNING? Plädoyer für mehr Vertrauen in die Generation der Zukunft. Mehr Selbstvertrauen in die Mission Zukunft der Hochschulen.
17 Der Ursprung und die Evolution des Lebens auf der Erde. Leben als ein kosmischer Imperativ. Reflexionen zum Buch von Christian de Duve. Teil 2

Eine Liste aller Blogbeiträge von cagent nach Titeln findet sich HIER.

VOM VERSCHWINDEN DES MENSCHEN – EIN GEDANKLICHER KURZSCHLUSS? – Thema der Philosophiewerkstatt vom 13.Dez.2015

Logo PhilWerkstatt v3
Logo PhilWerkstatt v3

EINLADUNG ZUR NÄCHSTEN

philosophieWerkstatt v3.0

am

Sonntag, 13.Dez.2015

16:00 – 19:00h

in der
DENKBAR Frankfurt
Spohrstrasse 46a

Essen und Trinken wird angeboten von Michas Essen & Trinken. Parken ist im Umfeld schwierig; evtl. in der Rat-Beil-Strasse (entlang der Friedhofsmauer).

Anliegen der Philosophiewerkstatt ist es, ein philosophisches Gespräch zu ermöglichen, in dem die Fragen der TeilnehmerInnen versuchsweise zu Begriffsnetzen verknüpft werden, die in Beziehung gesetzt werden zum allgemeinen Denkraum der Philosophie, der Wissenschaften, der Kunst und Religion. Im Hintergrund stehen die Reflexionen aus dem Blog cognitiveagent.org, das Ringen um das neue Menschen- und Weltbild.

PROGRAMMVORSCHLAG

Als Programmablauf für den 13.12.15 wird vorgeschlagen:

16:00h Begrüßung
16:15h Kurzeinführung durch Gerd Doeben-Henisch anhand von zwei Mini-Hörspielen von jeweils ca. 5 Minuten.
16:30h Danach gemeinsame Reflexion zum Thema mit begleitender Erstellung eines Begriffsnetzwerkes.
17:30h ‚Blubberphase‘ – jeder kann mit jedem reden, um das zuvor gesagte ‚aktiv zu verdauen‘
18:00h Schlussdiskussion mit Zusammenfassung der Ergebnisse
18:45h Themenvorschläge für die nächste Sitzung

PHILOSOPHIEWERKSTATT ÜBERBLICK

Einen Überblick über alle Beiträge zur Philosophiewerkstatt nach Themen findet sich HIER

K.G.DENBIGH: AN INVENTIVE UNIVERSE — Relektüre — Teil 4

K.G.Denbigh (1975), „An Inventive Universe“, London: Hutchinson & Co.

BISHER

Im Teil 1 der Relektüre von Kenneth George Denbighs Buch „An Inventive Universe“ hatte ich, sehr stark angeregt durch die Lektüre, zunächst eher mein eigenes Verständnis von dem Konzept ‚Zeit‘ zu Papier gebracht und eigentlich kaum die Position Denbighs referiert. Darin habe ich sehr stark darauf abgehoben, dass die Struktur der menschlichen Wahrnehmung und des Gedächtnisses es uns erlaubt, subjektiv Gegenwart als Jetzt zu erleben im Vergleich zum Erinnerbaren als Vergangen. Allerdings kann unsere Erinnerung stark von der auslösenden Realität abweichen. Im Lichte der Relativitätstheorie ist es zudem unmöglich, den Augenblick/ das Jetzt/ die Gegenwart objektiv zu definieren. Das individuelle Jetzt ist unentrinnbar subjektiv. Die Einbeziehung von ‚Uhren-Zeit’/ technischer Zeit kann zwar helfen, verschiedene Menschen relativ zu den Uhren zu koordinieren, das grundsätzliche Problem des nicht-objektiven Jetzt wird damit nicht aufgelöst.

In der Fortsetzung 1b von Teil 1 habe ich dann versucht, die Darlegung der Position von Kenneth George Denbighs Buch „An Inventive Universe“ nachzuholen. Der interessante Punkt hier ist der Widerspruch innerhalb der Physik selbst: einerseits gibt es physikalische Theorien, die zeitinvariant sind, andere wiederum nicht. Denbigh erklärt diese Situation so, dass er die zeitinvarianten Theorien als idealisierende Theorien darstellt, die von realen Randbedingungen – wie sie tatsächlich überall im Universum herrschen – absehen. Dies kann man daran erkennen, dass es für die Anwendung der einschlägigen Differentialgleichungen notwendig sei, hinreichende Randbedingungen zu definieren, damit die Gleichungen gerechnet werden können. Mit diesen Randbedingungen werden Start- und Zielzustand aber asymmetrisch.

Auch würde ich hier einen Nachtrag zu Teil 1 der Relektüre einfügen: in diesem Beitrag wurde schon auf die zentrale Rolle des Gedächtnisses für die Zeitwahrnehmung hingewiesen. Allerdings könnte man noch präzisieren, dass das Gedächtnis die einzelnen Gedächtnisinhalte nicht als streng aufeinanderfolgend speichert, sondern eben als schon geschehen. Es ist dann eine eigene gedankliche Leistungen, anhand von Eigenschaften der Gedächtnisinhalte eine Ordnung zu konstruieren. Uhren, Kalender, Aufzeichnungen können dabei helfen. Hier sind Irrtümer möglich. Für die generelle Frage, ob die Vorgänge in der Natur gerichtet sind oder nicht hilft das Gedächtnis von daher nur sehr bedingt. Ob A das B verursacht hat oder nicht, bleibt eine Interpretationsfrage, die von zusätzlichem Wissen abhängt.

Im Teil 2 ging es um den Anfang von Kap.2 (Dissipative Prozesse) und den Rest von Kap.3 (Formative Prozesse). Im Kontext der dissipativen (irreversiblen) Prozesse macht Denbigh darauf aufmerksam, dass sich von der Antike her in der modernen Physik eine Denkhaltung gehalten hat, die versucht, die reale Welt zu verdinglichen, sie statisch zu sehen (Zeit ist reversibel). Viele empirische Fakten sprechen aber gegen die Konservierung und Verdinglichung (Zeit ist irreversibel). Um den biologischen Phänomenen gerecht zu werden, führt Denbigh dann das Konzept der ‚Organisation‘ und dem ‚Grad der Organisiertheit‘ ein. Mit Hilfe dieses Konzeptes kann man Komplexitätsstufen unterscheiden, denen man unterschiedliche Makroeigenschaften zuschreiben kann. Tut man dies, dann nimmt mit wachsender Komplexität die ‚Individualität‘ zu, d.h. die allgemeinen physikalischen Gesetze gelten immer weniger. Auch gewinnt der Begriff der Entropie im Kontext von Denbighs Überlegungen eine neue Bedeutung. Im Diskussionsteil halte ich fest: Im Kern gilt, dass maximale Entropie vorliegt, wenn keine Energie-Materie-Mengen verfügbar sind, und minimale Entropie entsprechend, wenn maximal viele Energie-Materie-Mengen verfügbar sind. Vor diesem Hintergrund ergibt sich das Bild, dass Veränderungsprozesse im Universum abseits biologischer Systeme von minimaler zu maximaler Entropie zu führen scheinen (dissipative Prozesse, irreversible Prozesse, …), während die biologischen Systeme als Entropie-Konverter wirken! Sie kehren die Prozessrichtung einfach um. Hier stellen sich eine Fülle von Fragen. Berücksichtigt man die Idee des Organisationskonzepts von Denbigh, dann kann man faktisch beobachten, dass entlang einer Zeitachse eine letztlich kontinuierliche Zunahme der Komplexität biologischer Systeme stattfindet, sowohl als individuelle Systeme wie aber auch und gerade im Zusammenspiel einer Population mit einer organisatorisch aufbereiteten Umgebung (Landwirtschaft, Städtebau, Technik allgemein, Kultur, …). Für alle diese – mittlerweile mehr als 3.8 Milliarden andauernde – Prozesse haben wir bislang keine befriedigenden theoretischen Modelle

Im Teil 3 geht es um das Thema Determinismus und Emergenz. Ideengeschichtlich gibt es den Hang wieder, sich wiederholende und darin voraussagbare Ereignisse mit einem Deutungsschema zu versehen, das diesen Wiederholungen feste Ursachen zuordnet und darin eine Notwendigkeit sieht, dass dies alles passiert. Newtons Mechanik wird in diesem Kontext als neuzeitliche Inkarnation dieser Überzeugungen verstanden: mit klaren Gesetzen sind alle Bewegungen berechenbar. Denbigh zeigt dann anhand vieler Punkte dass die Annahme eines Determinismus wenig plausibel ist. Betrachtet man den Gang der Entwicklung dann kann man nach Denbigh etwa folgende Komplexitätsstufen unterscheiden: (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143) Aus wissenschaftlicher Sicht müssen sich alle diese ‚Stufen‘ (‚level‘) einheitlich erklären lassen.

KAPITEL 5: GIBT ES IRGENDWELCHE SCHÖPFERISCHEN PROZESSE? (149 – 178)

1. Nachdem Denbigh in den vorausgehenden 4 Kapiteln die Begrenztheit vieler Konzepte in der modernen Physik in den Fokus gerückt hatte (z.B.: dass die Welt nicht deterministisch ist; dass die Naturgesetze Gedankenbilder sind und nicht automatisch eine ontologische Geltung besitzen; dass alle bekannten Prozesse in der Natur irreversibel sind; dass das Konzept einer Symmetrie nicht empirisch gedeckt ist; dass die sogenannten Konservierungsgesetze postuliert wurden bevor sie überhaupt definiert wurden; dass alles darauf hindeutet, dass die Entropie zunimmt ), konzentriert er sich im letzten 5.Kapitel auf die Frage, ob es überhaupt schöpferische/ erfinderische (‚inventive‘) Prozesse gibt.
2. Mit schöpferisch meint er nicht einen Vorgang wie in den religiösen Schöpfungsmythen, in denen quasi aus dem Nichts ein unbekanntes Etwas genannt Gott/ Schöpfer etwas hervorbringt (die Welt), die dann völlig deterministisch abläuft, sondern eher einen abgeschwächten Hervorbringungsprozess, der ohne Notwendigkeit geschieht, nicht voraussagbar ist, etwas wirklich Neues bringt, und der alle Phänomene des bekannten Universums abdeckt. Er geht sogar soweit, zu sagen, dass alle die zuvor genannten Komplexitätsstufen (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143) sich als Momente an diesem generischen Innovationsprozess erweisen lassen müssten.

3. Dieser generische Innovationsprozess ist dann allgemeiner als der übliche Emergenz-Begriff. Emergenz beschreibt üblicherweise das Auftreten spezifischer Komplexitätsstufen bzw. -eigenschaften im engeren Sinne und nicht einen generischen Prozess für alle diese Phänomene.

4. In Anlehnung an das bekannte Schema der genetischen Algorithmen (hier ein knapper Überblick zur historischen Entwicklung des Konzepts Genetischer Algorithmus (GA) sowie Classifier Systeme) stellt Denbigh letztlich drei charakterisierende Momente für seine Idee eines Innovationsprozesses vor: 1) Die Ereignisse sind zufällig ; sie sind 2) selektiv (bei biologischen Systemen oft noch verstärkt durch sexuell bedingte Vermischung im Erbmaterial (crossover)(s.160)); schließlich 3) verstärkend aufgrund des anschließenden Erfolges.
5. Er illustriert dieses Schema beim Übergang vom BigBang zu den ersten Gaswolken, dann zu den Sternen und Galaxien, dann bei der Molekülbildung, bei der Zellbildung, usw. Wichtig ist ihm auch, dass dieses Ereignismodell nicht an biologische Substrate gebunden ist, sondern eben von nicht-biologischen Systemen allgemein auch befolgt werden kann, speziell auch von modernen programmgesteuerten Maschinen (Computern).
6. Eine noch allgemeinere Charakterisierung ist jene, die diese schöpferischen Prozesse ansiedelt zwischen Ordnung und Unordnung. Ein Beispiel für hohe Ordnung wären die kristallinen Strukturen (sie sind für schöpferische Prozesse zu starr), und ein Beispiel für Unordnung wäre gasförmige Strukturen (sie sind für schöpferische Prozesse zu instabil, zu flüchtig). (Vgl.S.162f) Mit anderen Worten, bei allem Aufbau von Ordnung muss es hinreichend viel Rest-Unordnung geben, ansonsten kommen alle Prozesse zum Stillstand, oder: gefordert ist ein Zustand unterhalb maximaler Entropie.
7. Wie Denbigh auch in den vorausgehenden Kapiteln schon angedeutet hatte, sieht er spirituelle/ geistige Phänomene einschließlich des Bewusstseins als normale Phänomene des Naturprozesses. (Z.B. S.168f)
8. So sieht er die 6 Komplexitätsstufen von oben auch als Ausprägungen eines allgemeineren 3-stufigen Schemas (i) unbelebt , (ii) belebt sowie (iii) belebt mit wachsendem Bewusstsein. (Vgl. S.171)
9. Unter Voraussetzung seines 3-stufigen Innovationsmodells kann er dann das Bewusstsein als einen Prozess interpretieren, der die Fähigkeit zur Selektion für ein biologisches System dramatisch verbessert. (Vgl. S.163-165)
10. Denbigh kommt in diesem Kapitel auch nochmals auf die Problematik der nichtwissenschaftlichen Voraussetzungen der Wissenschaft zu sprechen, die ich in einem vorhergehenden Beitrag schon angesprochen hatte (der Beitrag war angeregt von der Lektüre von Denbigh).
11. Mit Zitaten von einigen berühmten Forschern und Philosophen thematisiert Denbigh nicht nur allgemein die häufig unreflektierte Voraussetzungsbehaftetheit von Wissenschaft, sondern spricht auch speziell die Tendenz des menschlichen Denkens an, die Prozesse der Natur zu verdinglichen. Während Messgeräte und unsere menschliche Wahrnehmung primär nur isolierte Ereignisse registrieren können, setzt unser Denken diese individuellen Ereignisse automatisch (sprich: unbewusst) zu abstrakten Strukturen zusammen, zu sogenannten Objekten, denen wir dann Eigenschaften und Beziehungen zuordnen. (Vgl. S.164f und Anmk.14) Auf einer größeren Zeitskala gibt es diese Objekte aber nicht, sondern da gibt es nur kontinuierliche Zustandsänderungen eines alles umfassenden Prozesses, dem man zwar Eigenschaften zuordnen kann, aber letztlich nicht isolierte Objekte. Berücksichtigt man diese Artefakten unseres Denkens, dann legt sich der Gedanken nahe, die gesamte Physik von diesem veränderten Blickwinkel aus zu betrachten und zu re-analysieren. Hier verweist Denbigh explizit auf die theoretischen Arbeiten des berühmten Physikers David Bohm (später in Kooperation mit Basil J.Hiley), dessen Ergebnisse nach vielen Jahren Arbeit Eingang in das Buch The Undivided Universe: An Ontological Interpretation of Quantum Theory gefunden haben.

12. Denbigh fasst die manifeste Schizophrenie der modernen Wissenschaft in ihrer Haltung zum Menschen in folgendes Bild: „Die moderne Wissenschaft ist ein gedankliches System, das zwar die kreative Kraft der Menschen umfassend dokumentiert, und doch macht sie den Menschen selbst zu einer Sache/ zu einem Ding (‚thing‘) – also zu einem Objekt, von dem die Wissenschaft annimmt, dass es über eine solche schöpferische Kraft gar nicht verfügt.“ (Anmk.22, S.173)

DISKUSSION

  1. Dieses Buch habe ich als extrem anregend empfunden. Es taucht viele bekannte Positionen in ein neues Licht.
  2. Erkenntnistheoretisch liegt es auf der Linie, die bislang im Blog vertreten wurde, nämlich dass man bei der Diskussion der verschiedenen Phänomene und Positionen die jeweiligen Bedingungen des Erkennens beachten sollte, wenn man zu einer Einschätzung kommen möchte. Und dazu reicht keine klassische Erkenntnistheorie, sondern man muss die  modernen Erkenntnisse aus Psychologie und Biologie einbeziehen. Die Warnung vor einer falschen Verdinglichung der Weltereinisse sollte ernst genommen werden.
  3. Ferner ist der bisherige Erklärungsansatz dieses Blogs über einen generellen Evolutionsbegriff in Übereinstimmung mit dem generellen Innovationsansatz von Denbigh. Tatsächlich erscheint Denbighs Ansatz noch radikaler, generischer.  Dies soll im weiteren mehr bedacht werden.
  4. Die klare Subsumierung alles Geistigen unter den allgemeinen Naturprozess entspricht auch der Linie im Blog. Dieses führt aber nicht — wie Denbigh auch klar herausstellt — zu einer Vereinfachung oder Abwertung des Geistigen sondern zu einem vertieften Verständnis  der potentiellen Vielfalt und Komplexität der Energie-Materie. Mit der unterschiedlichen Einordnung geht ja nicht das Phänomen verloren, sondern die begriffliche Einordnung muss neu justiert werden. Dies verlangt nicht nur eine Neupositionierung der bisherigen Geisteswissenschaften, sondern genauso auch eine Neupositionierung der Naturwissenschaften. Diese erweisen sich bislang aber als nicht minder dogmatisch wie die oft gescholtenen Geisteswissenschaften.

QUELLEN

  1. Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.
  2. David Joseph Bohm FRS[1] (December 20, 1917 – October 27, 1992) was an American scientist who has been described as one of the most significant theoretical physicists of the 20th century[2] and who contributed innovative and unorthodox ideas to quantum theory, neuropsychology and the philosophy of mind.
  3. Basil J. Hiley (born 1935), is a British quantum physicist and professor emeritus of the University of London. He received the Majorana Prize „Best person in physics“ in 2012.
  4. Review von: „The Undivided Universe: An Ontological Interpretation of Quantum Theory“ von David Bohm and Basil J. Hiley, Routledge, London and New York, 1993. 397 pp. hc, ISBN 0–415–06588–7 durch Sheldon Goldstein, Department of Mathematics, Rutgers University, New Brunswick, NJ 08903, USA(July 28, 1994)

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

K.G.DENBIGH: AN INVENTIVE UNIVERSE — Relektüre — Teil 3

K.G.Denbigh (1975), „An Inventive Universe“, London: Hutchinson & Co.

BISHER

Im Teil 1 der Relektüre von Kenneth George Denbighs Buch „An Inventive Universe“ hatte ich, sehr stark angeregt durch die Lektüre, zunächst eher mein eigenes Verständnis von dem Konzept ‚Zeit‘ zu Papier gebracht und eigentlich kaum die Position Denbighs referiert. Darin habe ich sehr stark darauf abgehoben, dass die Struktur der menschlichen Wahrnehmung und des Gedächtnisses es uns erlaubt, subjektiv Gegenwart als Jetzt zu erleben im Vergleich zum Erinnerbaren als Vergangen. Allerdings kann unsere Erinnerung stark von der auslösenden Realität abweichen. Im Lichte der Relativitätstheorie ist es zudem unmöglich, den Augenblick/ das Jetzt/ die Gegenwart objektiv zu definieren. Das individuelle Jetzt ist unentrinnbar subjektiv. Die Einbeziehung von ‚Uhren-Zeit’/ technischer Zeit kann zwar helfen, verschiedene Menschen relativ zu den Uhren zu koordinieren, das grundsätzliche Problem des nicht-objektiven Jetzt wird damit nicht aufgelöst.

In der Fortsetzung 1b von Teil 1 habe ich dann versucht, die Darlegung der Position von Kenneth George Denbighs Buch „An Inventive Universe“ nachzuholen. Der interessante Punkt hier ist der Widerspruch innerhalb der Physik selbst: einerseits gibt es physikalische Theorien, die zeitinvariant sind, andere wiederum nicht. Denbigh erklärt diese Situation so, dass er die zeitinvarianten Theorien als idealisierende Theorien darstellt, die von realen Randbedingungen – wie sie tatsächlich überall im Universum herrschen – absehen. Dies kann man daran erkennen, dass es für die Anwendung der einschlägigen Differentialgleichungen notwendig sei, hinreichende Randbedingungen zu definieren, damit die Gleichungen gerechnet werden können. Mit diesen Randbedingungen werden Start- und Zielzustand aber asymmetrisch.

Auch würde ich hier einen Nachtrag zu Teil 1 der Relektüre einfügen: in diesem Beitrag wurde schon auf die zentrale Rolle des Gedächtnisses für die Zeitwahrnehmung hingewiesen. Allerdings könnte man noch präzisieren, dass das Gedächtnis die einzelnen Gedächtnisinhalte nicht als streng aufeinanderfolgend speichert, sondern eben als schon geschehen. Es ist dann eine eigene gedankliche Leistungen, anhand von Eigenschaften der Gedächtnisinhalte eine Ordnung zu konstruieren. Uhren, Kalender, Aufzeichnungen können dabei helfen. Hier sind Irrtümer möglich. Für die generelle Frage, ob die Vorgänge in der Natur gerichtet sind oder nicht hilft das Gedächtnis von daher nur sehr bedingt. Ob A das B verursacht hat oder nicht, bleibt eine Interpretationsfrage, die von zusätzlichem Wissen abhängt.

Im Teil 2 ging es um den Anfang von Kap.2 (Dissipative Prozesse) und den Rest von Kap.3 (Formative Prozesse). Im Kontext der dissipativen (irreversiblen) Prozesse macht Denbigh darauf aufmerksam, dass sich von der Antike her in der modernen Physik eine Denkhaltung gehalten hat, die versucht, die reale Welt zu verdinglichen, sie statisch zu sehen (Zeit ist reversibel). Viele empirische Fakten sprechen aber gegen die Konservierung und Verdinglichung (Zeit ist irreversibel). Um den biologischen Phänomenen gerecht zu werden, führt Denbigh dann das Konzept der ‚Organisation‘ und dem ‚Grad der Organisiertheit‘ ein. Mit Hilfe dieses Konzeptes kann man Komplexitätsstufen unterscheiden, denen man unterschiedliche Makroeigenschaften zuschreiben kann. Tut man dies, dann nimmt mit wachsender Komplexität die ‚Individualität‘ zu, d.h. die allgemeinen physikalischen Gesetze gelten immer weniger. Auch gewinnt der Begriff der Entropie im Kontext von Denbighs Überlegungen eine neue Bedeutung. Im Diskussionsteil halte ich fest: Im Kern gilt, dass maximale Entropie vorliegt, wenn keine Energie-Materie-Mengen verfügbar sind, und minimale Entropie entsprechend, wenn maximal viele Energie-Materie-Mengen verfügbar sind. Vor diesem Hintergrund ergibt sich das Bild, dass Veränderungsprozesse im Universum abseits biologischer Systeme von minimaler zu maximaler Entropie zu führen scheinen (dissipative Prozesse, irreversible Prozesse, …), während die biologischen Systeme als Entropie-Konverter wirken! Sie kehren die Prozessrichtung einfach um. Hier stellen sich eine Fülle von Fragen. Berücksichtigt man die Idee des Organiationskonzepts von Denbigh, dann kann man faktisch beobachten, dass entlang einer Zeitachse eine letztlich kontinuierliche Zunahme der Komplexität biologischer Systeme stattfindet, sowohl als individuelle Systeme wie aber auch und gerade im Zusammenspiel einer Population mit einer organisatorisch aufbereiteten Umgebung (Landwirtschaft, Städtebau, Technik allgemein, Kultur, …). Für alle diese – mittlerweile mehr als 3.8 Milliarden andauernde – Prozesse haben wir bislang keine befriedigenden theoretischen Modelle

KAPITEL 4: DETERMINISMUS UND EMERGENZ (117 – 148)

Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz
Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz

  1. Dieses Kapitel widmet sich dem Thema Determinismus und Emergenz. Ideengeschichtlich gibt es den Hang wieder, sich wiederholende und darin voraussagbare Ereignisse mit einem Deutungsschema zu versehen, das diesen Wiederholungen feste Ursachen zuordnet und darin eine Notwendigkeit, dass dies alles passiert. Newtons Mechanik wird in diesem Kontext als neuzeitliche Inkarnation dieser Überzeugungen verstanden: mit klaren Gesetzen sind alle Bewegungen berechenbar.
  2. Dieses klare Bild korrespondiert gut mit der christlichen theologischen Tradition, nach der ein Schöpfer alles in Bewegung gesetzt hat und nun die Welt nach einem vorgegebenen Muster abläuft, was letztlich nur der Schöpfer selbst (Stichwort Wunder) abändern kann.
  3. Die neuzeitliche Wissenschaft hat aber neben dem Konzept des Gesetzes (‚law‘) auch das Konzept Theorie entwickelt. Gesetze führen innerhalb einer Theorie kein Eigenleben mehr sondern sind Elemente im Rahmen der Theorie. Theorien sind subjektive Konstruktionen von mentalen Modellen, die versuchen, die empirischen Phänomene zu beschreiben. Dies ist ein Näherungsprozess, der – zumindest historisch – keinen eindeutigen Endpunkt kennt, sondern empirisch bislang als eher unendlich erscheint.
  4. Eine moderne Formulierung des deterministischen Standpunktes wird von Denbigh wie folgt vorgeschlagen: Wenn ein Zustand A eines hinreichend isolierten Systems gefolgt wird von einem Zustand B, dann wird der gleiche Zustand A immer von dem Zustand B gefolgt werden, und zwar bis in die letzten Details.(S.122)
  5. Diese Formulierung wird begleitend von den Annahmen, dass dies universell gilt, immer, für alles, mit perfekter Präzision.
  6. Dabei muss man unterscheiden, ob die Erklärung nur auf vergangene Ereignisse angewendet wird (‚ex post facto‘) oder zur Voraussage benutzt wird. Letzteres gilt als die eigentliche Herausforderung.
  7. Wählt man die deterministische Position als Bezugspunkt, dann lassen sich zahlreiche Punkte aufführen, nach denen klar ist, dass das Determinismus-Prinzip unhaltbar ist. Im Folgenden eine kurze Aufzählung.
  8. Die Interaktion aller Teile im Universum ist nirgendwo (nach bisherigem Wissen) einfach Null. Zudem ist die Komplexität der Wechselwirkung grundsätzlich so groß, dass eine absolute Isolierung eines Teilsystems samt exakter Reproduktion als nicht möglich erscheint.
  9. Generell gibt es das Problem der Messfehler, der Messungenauigkeiten und der begrenzten Präzision. Mit der Quantenmechanik wurde klar, dass wir nicht beliebig genau messen können, dass Messen den Gegenstand verändert. Ferner wurde klar, dass Messen einen Energieaufwand bedeutet, der umso größer wird, je genauer man messen will. Ein erschöpfendes – alles umfassende – Messen ist daher niemals möglich.
  10. Im Bereich der Quanten gelten maximal Wahrscheinlichkeiten, keine Notwendigkeiten. Dies schließt nicht notwendigerweise ‚Ursachen/ Kausalitäten‘ aus.
  11. Die logischen Konzepte der mentalen Modelle als solche sind nicht die Wirklichkeit selbst. Die ‚innere Natur der Dinge‘ als solche ist nicht bekannt; wir kennen nur unsere Annäherungen über Messereignisse. Das, was ‚logisch notwendig‘ ist, muss aus sich heraus nicht ontologisch gültig sein.
  12. Neben den Teilchen sind aber auch biologische Systeme nicht voraussagbar. Ihre inneren Freiheitsgrade im Verbund mit ihren Dynamiken lassen keine Voraussage zu.
  13. Aus der Literatur übernimmt Denbigh die Komplexitätshierarchie (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143)
  14. Traditioneller Weise haben sich relativ zu jeder Komplexitätsstufe spezifische wissenschaftliche Disziplinen herausgebildet, die die Frage nach der Einheit der Wissenschaften aufwerfen: die einen sehen in den Eigenschaften höherer Komplexitätsstufen emergente Eigenschaften, die sich nicht auf die einfacheren Subsysteme zurückführen lassen; die Reduktionisten sehen die Wissenschaft vollendet, wenn sich alle komplexeren Eigenschaften auf Eigenschaften der Ebenen mit weniger Komplexität zurückführen lassen. Während diese beiden Positionen widersprüchlich erscheinen, nimmt das Evolutionskonzept eine mittlere Stellung ein: anhand des Modells eines generierenden Mechanismus wird erläutert, wie sich komplexere Eigenschaften aus einfacheren entwickeln können.

DISKUSSION

  1. Fasst man alle Argument zusammen, ergibt sich das Bild von uns Menschen als kognitive Theorientwickler, die mit ihren kognitiven Bildern versuchen, die Strukturen und Dynamiken einer externen Welt (einschließlich sich selbst) nach zu zeichnen, die per se unzugänglich und unerkennbar ist. Eingeschränkte Wahrnehmungen und eingeschränkte Messungen mit prinzipiellen Messgrenzen bilden die eine Begrenzung, die daraus resultierende prinzipielle Unvollständigkeit aller Informationen eine andere, und schließlich die innere Logik der realen Welt verhindert ein einfaches, umfassendes, eindeutiges Zugreifen.
  2. Die mangelnde Selbstreflexion der beteiligten Wissenschaftler erlaubt streckenweise die Ausbildung von Thesen und Hypothesen, die aufgrund der möglichen Methoden eigentlich ausgeschlossen sind.
  3. Die noch immer geltende weitverbreitete Anschauung, dass in der Wissenschaft der Anteil des Subjektes auszuklammern sei, wird durch die vertiefenden Einsichten in die kognitiven Voraussetzungen aller Theorien heute neu in Frage gestellt. Es geht nicht um eine Infragestellung des Empirischen in der Wissenschaft, sondern um ein verstärktes Bewusstheit von den biologischen (beinhaltet auch das Kognitive) Voraussetzungen von empirischen Theorien.
  4. In dem Maße, wie die biologische Bedingtheit von Theoriebildungen in den Blick tritt kann auch die Besonderheit der biologischen Komplexität wieder neu reflektiert werden. Das Biologische als Entropie-Konverter (siehe vorausgehenden Beitrag) und Individualität-Ermöglicher jenseits der bekannten Naturgesetze lässt Eigenschaften der Natur aufblitzen, die das bekannte stark vereinfachte Bild kritisieren, sprengen, revolutionieren.
  5. Die Idee eines evolutionären Mechanismus zwischen plattem Reduktionismus und metaphysischem Emergenz-Denken müsste allerdings erheblich weiter entwickelt werden. Bislang bewegt es sich im Bereich der Komplexitätsebenen (iii) Moleküle und (iv) Zellen.

Fortsetzung mit TEIL 4

QUELLEN

  1. Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.