Archiv der Kategorie: Freier Wille

WISSENSCHAFT IM ALLTAG. Popper 1988/1990

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 16.-17.Februar 2022, 18:00h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Vorbemerkung

In einer Welt voller Bücher — gefühlt: unendlich viele Bücher — ist kaum voraussagbar, welches Buch man im Februar 2022 lesen wird. Dass es dann das Büchlein ‚A World of Propensities‘ (1990 (reprint 1995))[2a] von Karl Popper [1] sein würde, hing von einem ganzen Bündel von Faktoren ab, von denen jeder für sich ‚eine Rolle‘ spielte, aber dass es dann zu diesem konkreten Buch zu diesem konkreten Zeitpunkt gekommen ist, war aus Sicht der einzelnen Faktoren nicht direkt ableitbar. Auch das ‚Zusammenspiel‘ der verschiedenen Faktoren war letztlich nicht voraussagbar. Aber es ist passiert.

Im Rahmen meiner Theoriebildung für das oksimo-Paradigma (einschließlich der oksimo-Software)[4] Hatte ich schon viele Posts zur möglichen/ notwendigen Theorie für das oksimo-Paradigma in verschiedenen Blocks geschrieben [3a], sogar einige zum frühen Popper [3b], aber mir scheint, so richtig bin ich mit der Position von Popper in seiner ‚Logik der Forschung‘ von 1934 bzw. dann mit der späteren Englischen Ausgabe ‚The Logic of Scientific Discovery‘ (1959)[2b] noch nicht klar gekommen.

Im Frühjahr 2022 war es eine seltene Mischung aus vielerlei Faktoren, die mich über den Umweg der Lektüre von Ulanowizc [5], und zwar seines Buches „Ecology: The Ascendant Perspective“ (1997), auf den späten Popper aufmerksam machten. Ulanowizc erwähnt Popper mehrfach an prominenter Stelle, und zwar speziell Poppers Büchlein über Propensities. Da dieses schmale Buch mittlerweile vergriffen ist, kam ich dann nur durch die freundliche Unterstützung [6b] der Karl Popper Sammlung der Universität Klagenfurt [6a] zu einer Einsicht in den Text.

Der nachfolgende Text beschäftigt sich mit dem ersten der beiden Aufsätze die sich in dem Büchlein finden: „A World of Propensities: Two New Views of Causality“.[7][*]

Wahrscheinlichkeit, Wahrheit, Hypothese, Bekräftigung, … Vorgeplänkel

In seiner Einleitung im Text erinnert Popper an frühere Begegnungen mit Mitgliedern des Wiener Kreises [1b] und die Gespräche zu Theme wie ‚absolute Theorie der Wahrheit‘, ‚Wahrheit und Sicherheit‘, ‚Wahrscheinlichkeitsbasierte Induktion‘, ‚Theorie der Wahrscheinlichkeit‘ sowie ‚Grad der Bekräftigung einer Wahrscheinlichkeit‘.

Während er sich mit Rudolf Carnap 1935 noch einig wähnte in der Unterscheidung von einer Wahrscheinlichkeit im Sinne einer Wahrscheinlichkeitstheorie und einem ‚Grad der Bestätigung‘ (‚degree of confirmation‘) , war er sehr überrascht — und auch enttäuscht — 1950 in einem Buch von Carnap [8], [8b] zu lesen, dass für Carnap dies alles das Gleiche sei: mathematische Wahrscheinlichkeit und empirische Bestätigung eines Ereignisses. Hatte Carnap mit dieser Veränderung seiner Auffassung auch die Position einer ‚Absolutheit der Wahrheit‘ verlassen, die für Popper 1935 immer noch wichtig war? Und selbst in der Rede von 1988 hält Popper das Postulat von der Absolutheit der Wahrheit hoch, sich dabei auf Aristoteles [9], Alfred Tarski [10] und Kurt Gödel [11] beziehend (S.5f).

In einer Welt mit einem endlichen Gehirn, in einem endlichen Körper (bestehend aus ca. 36 Billionen Zellen (10^12)[12], in einer Welt von nicht-abzählbar vielen realen Ereignissen, war mir nie klar, woran (der frühe) Popper (und auch andere) die Position einer ‚absoluten Wahrheit‘ fest machen konnten/ können. Dass wir mit unserem endlichen – und doch komplexen, nicht-linearem — Gehirn von ‚Konkretheiten‘ ‚abstrahieren‘ können, Begriffe mit ‚offenen Bedeutungen‘ bilden und diese im Kontext der Rede/ eines Textes zu Aussagen über Aspekte der Welt benutzen können, das zeigt jeder Augenblick in unserem Alltag (ein für sich außergewöhnliches Ereignis), aber ‚absolute Wahrheit‘ … was kann das sein? Wie soll man ‚absolute Wahrheit‘ definieren?

Popper sagt, dass wir — und wenn wir uns noch so anstrengen — in unserem „Ergebnis nicht sicher“ sein können, das Ergebnis kann sogar „nicht einmal wahr“ sein.(vgl. S.6) Und wenn man sich dann fragt, was dann noch bleibt außer Unsicherheit und fehlender Wahrheit, dann erwähnt er den Sachverhalt, dass man von seinen „Fehlern“ auf eine Weise „lernen“ kann, dass ein „mutmaßliches (‚conjectural‘) Wissen“ entsteht, das man „testen“ kann.(vgl. S.6) Aber selbst dann, wenn man das Wissen testen kann, sind diese Ergebnisse nach Popper „nicht sicher“; obwohl sie „vielleicht wahr“ sind, diese Wahrheit aber ist damit dennoch „nicht endgültig bestätigt (‚established‘)“. Und er sagt sogar: „Selbst wenn sie [ergänzt: die Ergebnisse] sich als nicht wahr erweisen, … eröffnen sie den Weg zu noch besseren [ergänzt: Ergebnissen].“ (S.6)

Diese ‚changierende Sprechweise‘ über ‚wahre Ergebnisse‘ umschreibt das Spannungsfeld zwischen ‚absoluten Wahrheit‘ — die Popper postuliert — und jenen konkreten Sachverhalten, die wir im Alltag zu ‚Zusammenhängen (Hypothesen)‘ verdichten können, in denen wir einzelne Ereignisse ‚zusammen bringen‘ mit der ‚Vermutung‘, dass sie auf eine nicht ganz zufällige Weise zusammen gehören. Und, ja, diese unsere alltägliche Vermutungen (Hypothesen) können sich ‚alltäglich bestätigen‘ (wir empfinden dies so) oder auch nicht (dies kann Zweifel wecken, ob es ‚tatsächlich so ist‘).(vgl. S.6)

Das Maximum dessen, was wir — nach Popper — in der alltäglichen Erkenntnis erreichen können, ist das Nicht-Eintreten einer Enttäuschung einer Vermutung (Erwartung, Hypothese). Wir können dann „hoffen“, dass die Hypothese „wahr ist“, aber sie könnte sich dann beim nächsten Test vielleicht doch noch als „falsch“ erweisen. (vgl. S.6)

In all diesen Aussagen, dass ein Ergebnis ’noch nicht als wahr erwiesen wurde‘ fungiert der Begriff der ‚Wahrheit‘ als ein ‚Bezugspunkt‘, anhand dessen man eine vorliegende Aussage ‚vergleichen‘ kann und mit diesem Vergleich dann zum Ergebnis kommen kann, dass eine vorliegende Aussage ‚verglichen mit einer wahren Aussage‘ nicht wahr ist.

Messen als Vergleichen ist in der Wissenschaft der Goldstandard, aber auch im ganz normalen Alltag. Wo aber findet sich der Vergleichspunkt ‚wahr Aussage‘ anhand dessen eine konkrete Aussage als ’nicht dem Standard entsprechend‘ klassifiziert werden kann?

Zur Erinnerung: es geht jetzt hier offensichtlich nicht um einfache ‚Sachverhaltsfeststellungen‘ der Art ‚Es regnet‘, ‚Es ist heiß‘, ‚Der Wein schmeckt gut‘ …, sondern es geht um die Beschreibung von ‚Zusammenhängen‘ zwischen ‚isolierten, getrennten Ereignissen‘ der Art (i) ‚Die Sonne geht auf‘, (ii) ‚Es ist warm‘ oder ‚(i) ‚Es regnet‘, (ii) ‚Die Straße ist nass‘.

Wenn die Sonne aufgeht, kann es warm werden; im Winter, bei Kälte und einem kalten Wind kann man die mögliche Erwärmung dennoch nicht merken. Wenn es regnet dann ist die Straße normalerweise nass. Falls nicht, dann fragt man sich unwillkürlich, ob man vielleicht nur träumt?

Diese einfachen Beispiele deuten an, dass ‚Zusammenhänge‘ der Art (i)&(ii) mit einer gewissen Häufigkeit auftreten können, aber es keine letzte Sicherheit gibt, dass dies der Fall sein muss.

Wo kommt bei alldem ‚Wahrheit‘ vor?

‚Wahrheit an sich‘ ist schwer aufweisbar. Dass ein ‚Gedanke‘ ‚wahr‘ ist, kann man — wenn überhaupt — nur diskutieren, wenn jemand seinem Gedanken einen sprachlichen Ausdruck verleiht und der andere anhand des sprachlichen Ausdrucks (i) bei sich eine ‚Bedeutung aktivieren‘ kann und (ii) diese aktivierte Bedeutung dann entweder (ii.1) — schwacher Fall — innerhalb seines Wissens mit ‚anderen Teilen seines Wissens‘ ‚abgleichen‘ kann oder aber (ii.2) — starker Fall — seine ‚interne Bedeutung‘ mit einer Gegebenheit der umgebenden realen Ereigniswelt (die als ‚Wahrnehmung‘ verfügbar ist) vergleichen kann. In beiden Fällen kann der andere z.B. zu Ergebnissen kommen wie (a) ‚Ja, sehe ich auch so‘ oder (b) ‚Nein, sehe ich nicht so‘ oder (c) ‚Kann ich nicht entscheiden‘.

In diesen Beispielen wäre ‚Wahrheit‘ eine Eigenschaft, die der Beziehung zwischen einem sprachlichen Ausdruck mit seiner möglichen ‚Bedeutung‘ ‚zu etwas anderem‘ zukommt. Es geht in diesen Beispielen um eine dreistellige Beziehung: die beiden Größen (Ausdruck, gewusste Bedeutung) werden in Beziehung gesetzt zu (wahrgenommenem oder erinnertem oder gefolgertem Sachverhalt).[13]

‚Wahrgenommenes‘ resultiert aus Interaktionen unseres Körpers mit der umgebenden realen Ereigniswelt (wobei unsere Körper selbst ein Ereignis in der umgebenden realen Ereigniswelt ist).[14]

‚Bedeutungen‘ sind ‚gelernte Sachverhalte‘, die uns über unsere ‚Wahrnehmung‘ ‚bekannt geworden sind‘ und in der Folge davon möglicherweise auf eine schwer bestimmbare Weise in unser ‚Gedächtnis‘ übernommen wurden, aus dem Heraus wir sie auf eine ebenfalls schwer bestimmbaren Weise in einer ‚erinnerten Form‘ uns wiederholt wieder ‚bewusst machen können‘. Solche ‚wahrnehmbaren‘ und ‚erinnerbaren‘ Sachverhalte können von unserem ‚Denken‘ in schwer bestimmbarer Form eine spezifische ‚Bedeutungsbeziehung‘ mit Ausdrücken einer Sprache eingehen, welche wiederum nur über Wahrnehmung und Erinnern uns bekannt geworden sind.[15]

Aus all dem geht hervor, dass dem einzelnen Akteur mit seinen gelernten Ausdrücke und ihren gelernten Bedeutungen nur das ‚Ereignis der Wiederholung‘ bleibt, um einem zunächst ‚unbestimmt Gelerntem‘ eine irgendwie geartete ‚Qualifikation‘ von ‚kommt vor‘ zu verleihen. Kommt also etwas vor im Lichte von gelernten Erwartungen neigen wir dazu, zu sagen, ‚es trifft zu‘ und in diesem eingeschränkten Sinne sagen wir auch, dass ‚es wahr ist‘. Diese gelernten Wahrheiten sind ’notorisch fragil‘. Jene, die ‚im Laufe der Zeit‘ sich immer wieder ‚bewähren‘ gewinnen bei uns ein ‚höheres Vertrauen‘, sie haben eine ‚hohe Zuverlässigkeit‘, sind allerdings nie ganz sicher‘.

Zusätzlich erleben wir im Alltag das ständige Miteinander von ‚Konkretheiten‘ in der Wahrnehmung und ‚Allgemeinheiten‘ der sprachlichen Ausdrücke, eine ‚Allgemeinheit‘ die nicht ‚absolut‘ ist. sondern als ‚Offenheit für viel Konkretes‘ existiert. In der Sprache haben wir Unmengen von Worten wie ‚Tasse‘, ‚Stuhl‘, ‚Tisch‘, Hund‘ usw. die sich nicht nur auf ein einziges Konkretes beziehen, sondern auf — potentiell unendlich — viele konkrete Gegebenheiten. Dies liegt daran, dass es viele verschiedene konkrete Gegebenheiten gibt, die trotz Unterschiede auch Ähnlichkeiten aufweisen, die dann als ‚Tasse‘, ‚Stuhl‘ usw. bezeichnet werden. Unser Gehirn verfügt über ‚automatische (= unbewusste) Prozesse‘, die die Konkretheiten aus der Wahrnehmung in ‚Muster‘ transformieren, die dann als ‚Repräsentanten‘ von verschiedenen wahrgenommenen Konkretheiten fungieren können. Diese Repräsentanten sind dann das ‚Material der Bedeutung‘, mit denen sprachliche Ausdrücke — auch automatisch — verknüpft werden können.[15]

Unser ‚Denken‘ kann mit abstrakten Repräsentanten arbeiten, kann durch Benutzung von sprachlichen Ausdrücken Konstruktionen mit abstrakten Konzepten und Ausdrücken bilden, denen bedeutungsmäßig direkt nichts in der realen Ereigniswelt entsprechen muss bzw. auch nicht entsprechen kann. Logik [17] und Mathematik [18] sind bekannte Beispiele, wie man mit gedanklich abstrakten Konzepten und Strukturen ‚arbeiten‘ kann, ohne dass ein Bezug zur realen Ereigniswelt bestehe muss oder jemals bestehen wird. Innerhalb dieser Welt abstrakter Strukturen und abstrakter Ausdrücke kann es dann sogar in einem eingeschränkten Sinne ‚Wahrheit‘ als Übereinstimmung von abstrakten Ausdrücken, deren abstrakten Bedeutungen und den anderen gedachten abstrakten Strukturen geben, aber diese ‚abstrakten Wahrheiten‘ sind in keiner Weise auf die reale Ereigniswelt übertragbar. Für uns gibt es nur das Modell der Alltagssprache, die mit ihren ‚offenen abstrakten‘ Bedeutungen auf Konkretes Bezug nehmen kann und zwischen Gegenwart und Vergangenheit eine ‚gedachte Beziehung‘ herstellen kann, ebenso auch zwischen Vergangenem und Gegenwärtigem zu einer gedachten Zukunft. Inwieweit sich diese gedachten Beziehungen (Vermutungen, Hypothesen, …) dann in der realen Ereigniswelt bestätigen lassen, muss fallweise geprüft werden.

Die Welt der Wissenschaften erweckt den Eindruck, dass es mittlerweile eine große Zahl von solchen Hypothesen gibt, die allesamt als ‚weitgehend zuverlässig‘ angesehen werden, und aufgrund deren wir nicht nur unser bisheriges Wissen beständig ‚erweitern‘, sondern auch in einer Vielzahl von praktischen Anwendungen nutzen (Technologie, Landwirtschaft, Medizin, …).

Und an dieser Stelle greift Popper sehr weit aus, indem er diese für die Wissenschaften charakteristische „mutige, und abenteuerliche Weise des Theoretisierens“, ergänzt um „seriöse Tests“, im „biologischen Leben selbst“ am Werke sieht (vgl. S.7): die beobachtbare Entwicklung zu immer „höheren (‚higher‘) Formen“ des Lebens geschah/ geschieht durch Schaffung von „neuen Versuchen“ (‚trials‘), deren „Einbringung in die Realität“ (‚exposure‘), und dann das „Ausmerzen von Irrtümern“ (‚errors‘) durch „Testen“.(vgl. S.7) Mit dieser permanenten Kreativität neuer Lösungsansätze, deren Ausprobieren und dem daraus Lernen im Beseitigen von Fehlschlägen hat es nicht nur das biologische Leben als Ganzes geschafft, nach und nach die Welt quasi zu erobern, sondern in der Variante moderner empirischer Wissenschaft ist die Lebensform des Homo sapiens dabei, diese Eroberung auf neue Weise zu ergänzen. Während die biologische Evolution vor dem Homo sapiens primär um das nackte Überleben kämpfen musste, kann der Homo sapiens zusätzlich ‚reines Verstehen‘ praktizieren, das dann als ‚Werkzeug‘ zum Überleben beitragen kann. Für Popper ist ‚Verstehen‘ (‚understand‘) und ‚Lernen‘ (‚to learn more‘) das entscheidende Charakteristikum der Lebensform des Homo sapiens (als Teil des gesamten biologischen Lebens). Und in diesem Verstehensprojekt geht es um alles: um den ganzen Kosmos bis hin zum letzten Atom, um die Entstehung des Lebens überhaupt, um den ‚menschlichen Geist‘ (‚human mind‘) und die Art und Weise wie er stattfindet.(vgl. S.7)

Nach dieser ‚Einstimmung‘ wendet sich Popper dem speziellen Problem der Kausalität zu.

Kausalität – Ein wissenschaftliches Chamäleon

Der Begriff der ‚Kausalität‘ ist uns allen über den Alltag in vielfältigen Formen bekannt, ohne dass wir dazu gewöhnlich ein klares begriffliches Konzept entwickeln.

Geht es hingegen ‚um Etwas‘, z.B. um Geld, oder Macht, oder um eine gute Ernte, oder die Entwicklung einer Region, usw. , dann ist die Frage ‚Was was wie bewirkt‘ nicht mehr ganz egal. ‚Soll ich nun investieren oder nicht?‘ ‚Ist dieses Futter für die Tiere besser und auf Dauer bezahlbar oder nicht?‘ ‚Wird die neue Verkehrsregelung tatsächlich Lärm und CO2-Ausstoß reduzieren oder nicht?‘ ‚Ist Aufrüstung besser als Neutralität?‘ ‚Wird die Menge des jährlichen Plastikmülls die Nahrungsketten im Meer und damit viele davon abhängige Prozesse nachhaltig zerstören oder nicht?‘

Wenn Philosophen und Wissenschaftler von Kausalität sprechen meinten sie in der Vergangenheit meist viel speziellere Kontexte. So erwähnt Popper die mechanistischen Vorstellungen im Umfeld von Descartes; hier waren alle Ereignisse klar bestimmt, determiniert.(vgl. S.7) Mit der Entwicklung der Quantenmechanik — spätestens ab 1927 mit der Entdeckung des Unsicherheitsprinzips durch Werner Heisenberg [19], [19a] — wurde bewusst, dass die Ereignisse in der Natur keinesfalls vollständig klar und nicht vollständig determiniert sind. (vgl. S7f)

Damit trat eine inhärente Unsicherheit hervor, die nach einer neuen Lösung verlangte. Die große Zeit des Denkens in Wahrscheinlichkeiten begann.[20] Man kann das Denken in Wahrscheinlichkeiten grob in drei (vier) Sichtweisen unterscheiden: (i) In einer theoretischen — meist mathematischen — Sicht [21] definiert man sich abstrakte Strukturen, über die man verschiedene Operationen definieren kann, mit denen sich dann unterschiedliche Arten von Wahrscheinlichkeiten durchspielen lassen. Diese abstrakten (theoretischen) Wahrscheinlichkeiten haben per se nichts mit der realen Welt der Ereignisse zu tun. Tatsächlich erweisen sich aber viele rein theoretische Modelle als erstaunlich ’nützlich‘ bei der Interpretation realweltlicher Ereignisfolgen. (ii) In einer subjektivistischen Sicht [22] nimmt man subjektive Einschätzungen zum Ausgangspunkt , die man formalisieren kann, und die Einschätzungen zum möglichen Verhalten des jeweiligen Akteurs aufgrund seiner subjektiven Einschätzungen erlauben. Da subjektive Weltsichten meistens zumindest partiell unzutreffend sind, z.T. sogar überwiegend unzutreffend, sind subjektive Wahrscheinlichkeiten nur eingeschränkt brauchbar, um realweltliche Prozesse zu beschreiben.(iii) In einer (deskriptiv) empirischen Sicht betrachtet man reale Ereignisse, die im Kontext von Ereignisfolgen auftreten. Anhand von diversen Kriterien mit der ‚Häufigkeit‘ als Basisterm kann man die Ereignisse zu unterschiedlichen Mustern ‚gruppieren‘, ohne dass weitergehende Annahmen über mögliche Wirkzusammenhänge mit ‚auslösenden Konstellationen von realen Faktoren‘ getätigt werden. Nimmt man eine solche ‚deskriptive‘ Sicht aber zum Ausgangspunkt, um weitergehende Fragen nach möglichen realen Wirkzusammenhängen zu stellen, dann kommt man (iv) zu einer eher objektivistischen Sicht. [23] Hier sieht man in der Häufigkeiten von Ereignissen innerhalb von Ereignisfolgen mögliche Hinweise auf reale Konstellationen, die aufgrund ihrer inhärenten Eigenschaften diese Ereignisse verursachen, allerdings nicht ‚monokausal‘ sondern ‚multikausal‘ in einem nicht-deterministischem Sinne. Dies konstituiert die Kategorie ‚Nicht deterministisch und zugleich nicht rein zufällig‘.[24]

Wie der nachfolgende Text zeigen wird, findet man Popper bei der ‚objektivistischen Sicht‘ wieder. Er bezeichnet Ereignisse, die durch Häufigkeiten auffallen, als ‚Propensities‘, von mir übersetzt als ‚Tendenzen‘, was letztlich aber nur im Kontext der nachfolgenden Erläuterungen voll verständlich wird.

Popper sagt von sich, dass er nach vielen Jahren Auseinandersetzung mit der theoretischen (mathematischen) Sicht der Wahrscheinlichkeit (ca. ab 1921) (vgl. S.8f) zu dieser — seiner — Sicht gelangt ist, die er 1956 zum ersten Mal bekannt gemacht und seitdem kontinuierlich weiter entwickelt hat.[24]

Also, wenn man beobachtbare Häufigkeiten von Ereignissen nicht isoliert betrachtet (was sich angesichts des generellen Prozesscharakters aller realen Ereignisse eigentlich sowieso verbietet), dann kommt man wie Popper zu der Annahme, dass die beobachtete — überzufällige aber dennoch auch nicht deterministische — Häufigkeit die nachfolgende ‚Wirkung‘ einer realen Ausgangskonstellation von realen Faktoren sein muss, deren reale Beschaffenheit einen ‚Anlass‘ liefert, dass ‚etwas Bestimmtes passiert‘, was zu einem beobachtbaren Ereignis führt.(vgl. S.11f, dazu auch [25]) Dies schließt nicht aus, dass diese realen Wirkungen von spezifischen ‚Bedingungen‘ abhängig sein können, die erfüllt sein müssen, damit es zur Wirkung kommt. Jede dieser Bedingungen kann selbst eine ‚Wirkung‘ sein, die von anderen realen Faktoren abhängig ist, die wiederum bedingt sind, usw. Obwohl also ein ‚realer Wirkzusammenhang‘ vorliegen kann, der als solcher ‚klar‘ ist — möglicherweise sogar deterministisch — kann eine Vielzahl von ‚bedingenden Faktoren‘ das tatsächliche Auftreten der Wirkung so beeinflussen, dass eine ‚deterministische Wirkung‘ dennoch nicht als ‚deterministisch‘ auftritt.

Popper sieht in dieser realen Inhärenz von Wirkungen in auslösenden realen Faktoren eine bemerkenswerte Eigenschaft des realen Universums.(vgl. S.12) Sie würde direkt erklären, warum Häufigkeiten (Statistiken) überhaupt stabil bleiben können. (vgl. S.12). Mit dieser Interpretation bekommen Häufigkeiten einen objektiven Charakter. ‚Häufigkeiten‘ verwandeln sich in Indikatoren für ‚objektive Tendenzen‘ (‚propensities‘), die auf ‚reale Kräfte‘ verweisen, deren Wirksamkeit zu beobachtbaren Ereignissen führen.(vgl. S.12)

Die in der theoretischen Wahrscheinlichkeit verbreitete Charakterisierung von wahrscheinlichen Ereignissen auf einer Skala von ‚1‘ (passiert auf jeden Fall) bis ‚0‘ (passiert auf keinen Fall) deutet Popper für reale Tendenzen dann so um, dass alle Werte kleiner als 1 darauf hindeuten, dass es mehrere Faktoren gibt, die aufeinander einwirken, und dass der ‚Nettoeffekt‘ aller Einwirkungen dann zu einer realen Wirkung führt die kleiner als 1 ist, aber dennoch vorhanden ist; man kann ihr über Häufigkeiten sogar eine phasenweise Stabilität im Auftreten zuweisen, so lange sich die Konstellation der wechselwirkenden Faktoren nicht ändert.(vgl. S.13) Was hier aber wichtig ist — und Popper weist ausdrücklich darauf hin — die ‚realen Tendenzen‘ verweisen nicht auf einzelne konkrete, spezielle Eigenschaften inhärent in einem Objekt, sondern Tendenzen korrespondieren eher mit einer ‚Situation‘ (’situation‘), die als komplexe Gesamtheit bestimmte Tendenzen ‚zeigt‘.(vgl. SS.14-17) [26]

Schaut man nicht nur auf die Welt der Physik sonder lenkt den Blick auf den Alltag, in dem u.a. auch biologische Akteure auftreten, speziell auch Lebensformen vom Typ Homo sapiens, dann explodiert der Raum der möglichen Faktoren geradezu, die Einfluss auf den Gang der Dinge nehmen können. Nicht nur bildet der Körper als solcher beständig irgendwelche ‚Reize‘ aus, die auf den Akteur einwirken, sondern auch die Beschaffenheit der Situation wirkt in vielfältiger Weise. Insbesondere wirkt sich die erworbene Erfahrung, das erworbene Wissen samt seinen unterschiedlichen emotionalen Konnotationen auf die Art der Wahrnehmung aus, auf die Art der Bewertung des Wahrgenommenen und auf den Prozess möglicher Handlungsentscheidungen. Diese Prozesse können extrem labil sein, so dass Sie in jedem Moment abrupt geändert werden können. Und dies gilt nicht nur für einen einzelnen Homo sapiens Akteur, sondern natürlich auch für die vielen Gruppen, in denen ein Homo sapiens Akteur auftreten kann bzw. auftritt bzw. auftreten muss. Dieses Feuerwerk an sich wechselseitig beständig beeinflussenden Faktoren sprengt im Prinzip jede Art von Formalisierung oder formalisierter Berechnung. Wir Menschen selbst können dem ‚Inferno des Alles oder Nichts‘ im Alltag nur entkommen, wenn wir ‚Konventionen‘ einführen, ‚Regeln des Verhaltens‘, ‚Rollen definieren‘ usw. um das praktisch unberechenbare ‚Universum der alltäglichen Labilität‘ partiell zu ‚zähmen‘, für alltägliche Belange ‚berechenbar‘ zu machen.

Popper zieht aus dieser Beschaffenheit des Alltags den Schluss, das Indeterminismus und freier Wille zum Gegenstandsbereich und zum Erklärungsmodell der physikalischen und biologischen Wissenschaften gehören sollten.(vgl. S.17f)

Popper folgert aus einer solchen umfassenden Sicht von der Gültigkeit der Tendenzen-Annahme für vorkommende reale Ereignisse, dass die Zukunft nicht determiniert ist. Sie ist objektiv offen.(vgl. S.18)

Näher betrachtet ist die eigentliche zentrale Einsicht tatsächlich gar nicht die Möglichkeit, dass bestimmte Wirkzusammenhänge vielleicht tatsächlich determiniert sein könnten, sondern die Einsicht in eine durchgängige Beschaffenheit der uns umgebenden realen Ereigniswelt die sich – dies ist eine Hypothese! — durchgängig als eine Ansammlung von komplexen Situationen manifestiert, in denen mögliche unterscheidbare Faktoren niemals isoliert auftreten, sondern immer als ‚eingebettet‘ in eine ‚Nachbarschaften‘, so dass sowohl jeder Faktor selbst als auch die jeweiligen Auswirkungen dieses einen Faktors immer in kontinuierlichen Wechselwirkungen mit den Auswirkungen anderer Faktoren stehen. Dies bedeutet, dass nicht nur die starke Idealisierungen eines mechanistischen Weltbildes — auch eine Hypothese — als fragwürdig angesehen werden müssen, sondern auch die Idealisierung der Akteure zu einer ‚ Monade‘ [27],[27b], die die Welt letztlich nur ‚von sich aus‘ erlebt und gestaltet — eine andere Hypothese –.[27c]

Denkt man gemeinsam mit Popper weiter in die Richtung einer totalen Verflechtung aller Faktoren in einem kontinuierlich-realen Prozess, der sich in realen Tendenzen manifestiert (vgl. S.18f), dann sind alle üblichen endlichen, starren Konzepte in den empirischen Wissenschaften letztlich nicht mehr seriös anwendbar. Die ‚Zerstückelung‘ der Wirklichkeit in lauter einzelne, kleine, idealisierte Puzzle-Teile, wie sie bis heute Standard ist, führt sich relativ schnell ad absurdum. Die übliche Behauptung, auf andere Weise könne man eben nichts Verwertbares Erkennen, läuft beständig Gefahr, auf diese Weise die reale Problematik der konkreten Forschungspraxis deutlich zu überdehnen, nur weil man in der Tat Schwierigkeiten hat, die vorfindliche Komplexität ‚irgendwie experimentell nachvollziehbar‘ zu rekonstruieren.

Popper dehnt seine Beispiele für die Anwendbarkeit einer objektivistischen Sicht von realen Tendenzen weiterhin aus auf die Chemie (vgl. S.19f) und auf die Evolution des Lebens. (vgl. S.20) Und auch wenn er zuvor sagte, dass die Zukunft objektiv offen sei, so ist sie dennoch in der realen Gegenwart implizit gegenwärtig in den Aktivitäten der vorhandenen realen Faktoren.(vgl. S.20) Anders formuliert, jede Zukunft entscheidet sich immer jetzt, in der Gegenwart, auch wenn die lebenden Akteure zu einem bestimmten Zeitpunkt vielleicht das Geflecht der vielen Faktoren und Wirkungen nur unvollständig durchschauen. Mangelndes Wissen ist auch ein realer Faktor und kann als solcher u.U. wichtige Optionen übersehen, die — würde man sie kennen — vielleicht viel Unheil ersparen würden.

Nachbemerkung – Epilog

Verglichen mit den vielen Seiten Text, die Popper im Laufe seines Lebens geschrieben hat, erscheint der hier kommentierte kurze Text von 27 Seiten verschwindend kurz, gering, möglicherweise gar unbedeutend.

Betrachtet man aber die Kernthesen von Poppers theoretischem Prozess, dann tauchen diese Kernthesen in diesem kurzen Text letztlich alle auf! Und seine Thesen zur Realität von beobachtbaren Tendenzen enthalten alles, was er an Kritik zu all jenen Wissenschaftsformen gesagt hat, die dieser Kernthese nicht folgen. Der ganze riesige Komplex zur theoretischen Wahrscheinlichkeit, zu subjektiver Wahrscheinlichkeit und zu den vielfältigen Spezialformen von Überlegungen zur Wahrscheinlichkeit sagen letztlich nicht viel, wenn sie die objektivistische Interpretation von Häufigkeiten, dazu im Verbund mit der Annahme eines grundlegenden realen Prozesses, in dem sich alle realen Faktoren in beständiger realer Wechselbeziehung befinden, nicht akzeptieren. Die moderne Quantenmechanik wäre in einer realen Theorie der objektiven Tendenzen tatsächlich eine Teiltheorie, weil sie nur einige wenige — wenngleich wichtige — Aspekte der realen Welt thematisiert.

Poppers Mission einer umfassenden Theorie von Wahrheit als Innensicht einer umfassenden prozesshaften Realität bleibt — so scheint es mir — weiterhin brandaktuell.

Fortsetzung Popper 1989

Eine Kommentierung des zweiten Artikels aus dem Büchlein findet sich HIER.

Anmerkungen

Abkürzung: wkp := Wikipedia, de := Deutsche, en := Englische

[*] Es gibt noch zwei weiter Beiträge vom ’späten‘ Popper, die ich in den Diskurs aufnehmen möchte, allerdings erst nachdem ich diesen Beitrag rezipiert und in das finale Theorieformat im Kontext des oksimo-Paradigmas eingebunden habe.

[1] Karl Popper in wkp-en: https://en.wikipedia.org/wiki/Karl_Popper (auch in wkp-de: https://de.wikipedia.org/wiki/Karl_Popper )

[1b] Wiener Kreis (‚vienna circle‚) in wkp-de: https://de.wikipedia.org/wiki/Wiener_Kreis und wkp-en: https://en.wikipedia.org/wiki/Vienna_Circle

[2a] Karl Popper, „A World of Propensities“, Thoemmes Press, Bristol, (1990, repr. 1995)

[2b] Karl Popper, The Logic of Scientific Discovery, zuerst publiziert 1935 auf Deutsch als  Logik der Forschung, dann 1959 auf Englisch durch  Basic Books, New York (viele weitere Ausgaben folgten; ich benutze die eBookausgabe von Routledge (2002))

[3a] Die meisten wohl im uffmm.org Blog.

[3b] Oksimo und Popper in uffmm.org: https://www.uffmm.org/2021/03/15/philosophy-of-science/

[4] Das oksimo-Paradigma und die oksimo-Software auf oksimo.org: https://www.oksimo.org/

[5] Robert Ulanowizc in wkp-en: https://en.wikipedia.org/wiki/Robert_Ulanowicz

[5b] Robert Ulanowizc, Ecology: The Ascendant Perspective, Columbia University Press (1997) 

[6a] Karl-Popper Sammlung der Universität Klagenfurt in wkp-de: https://www.aau.at/universitaetsbibliothek-klagenfurt/karl-popper-sammlung/

[6b] An dieser Stelle möchte ich die freundliche Unterstützung von Mag. Dr. Thomas Hainscho besonders erwähnen.

[7] Eine kürzere Version dieses Artikels hat Popper 1988 auf dem Weltkongress der Philosophie 1988 im Brighton vorgetragen (Vorwort zu [2a]).

[8] Rudolf Carnap in wkp-en: https://en.wikipedia.org/wiki/Rudolf_Carnap

[8b] Rudolf Carnap,  Logical Foundations of Probability. University of Chicago Press (1950)

[9] Aristoteles in wkp-de: https://de.wikipedia.org/wiki/Aristoteles

[10] Alfred Tarski in wkp-en: https://en.wikipedia.org/wiki/Alfred_Tarski

[11] Kurt Gödel in wkp-ed: https://en.wikipedia.org/wiki/Kurt_G%C3%B6del

[12] Aus dem Buch von Kegel „Die Herrscher der Welt…“: Siehe https://www.cognitiveagent.org/2015/12/06/die-herrscher-der-welt-mikroben-besprechung-des-buches-von-b-kegel-teil-1/

[13] Natürlich ist die Sachlage bei Betrachtung der hier einschlägigen Details noch ein wenig komplexer, aber für die grundsätzliche Argumentation reicht diese Vereinfachung.

[14] Das sagen uns die vielen empirischen Arbeiten der experimentellen Psychologie und Biologie, Hand in Hand mit den neuen Erkenntnissen der Neuropsychologie.

[15] Hinter diesen Aussagen stecken die Ergebnisse eines ganzen Bündels von wissenschaftlichen Disziplinen: vorweg wieder die experimentelle Psychologie mit hunderten von einschlägigen Arbeiten, ergänzt um Linguistik/ Sprachwissenschaften, Neurolinguistik, ja auch verschiedene philosophische ‚Zuarbeiten‘ aus dem Bereich Alltagssprache (hier unbedingt der späte Wittgenstein [16] als großer Inspirator) und der Semiotik.

[16] Ludwig Wittgenstein in wkp-en: https://en.wikipedia.org/wiki/Ludwig_Wittgenstein

[17] Logik ( ‚logic‚) in der wkp-de: https://de.wikipedia.org/wiki/Logik und wkp-en: https://en.wikipedia.org/wiki/Logic

[18] Mathematik (‚mathematics‚) in der wkp-de: https://de.wikipedia.org/wiki/Mathematik und wkp-en: https://en.wikipedia.org/wiki/Mathematics

[19] Werner Heisenberg in wkp-en: https://en.wikipedia.org/wiki/Werner_Heisenberg

[19b] Unsicherheitsprinzip (‚uncertainty principle‘) in wkp-en: https://en.wikipedia.org/wiki/Uncertainty_principle

[20] Natürlich gab es schon viele Jahrhunderte früher unterschiedliche Vorläufer eines Denkens in Wahrscheinlichkeiten.

[21] Theoretische Wahrscheinlichkeit, z.B. in wkp-en: https://en.wikipedia.org/wiki/Probability

[22] Subjektive Wahrscheinlichkeit, z.B. in wkp-de: https://de.wikipedia.org/wiki/Subjektiver_Wahrscheinlichkeitsbegriff; illustrieret mit der Bayeschen Wahrscheinlichkeit in wkp-en: https://en.wikipedia.org/wiki/Bayesian_probability

[23] Objektivistische Wahrscheinlichkeit, nur ansatzweise erklärt in wkp-de: https://de.wikipedia.org/wiki/Objektivistischer_Wahrscheinlichkeitsbegriff

[23b] Deskriptive Statistik in wkp-de: https://de.wikipedia.org/wiki/Deskriptive_Statistik (siehe auch ‚descriptive statistics in wkp-en: https://en.wikipedia.org/wiki/Descriptive_statistics

[24] Zu verschiedenen Sichten von Wahrscheinlichkeiten sie auch: Karl Popper, The Open Universe: An Argument for Indeterminism, 1956–57 (as privately circulated galley proofs;) 1982 publiziert als Buch

[25] Hier sei angemerkt, dass ein Akteur natürlich nur dann ein bestimmtes Ereignis wahrnehmen kann, wenn er (i) überhaupt hinschaut und (ii) er über geeignete Beobachtungsinstrumente (= Messgeräte) verfügt, die das jeweilige Ereignis anzeigen. So sah die Welt z.B. ohne Fernglas und Mikroskop ‚einfacher‘ aus als mit.

[26] Diese Betonung einer Situation als Kontext für Tendenzen schließt natürlich nicht aus, dass die Wissenschaften im Laufe der Zeit gewisse Kontexte (z.B. das Gehirn, der Körper, …) schrittweise immer mehr auflösen in erkennbare ‚Komponenten‘, deren individuelles Verhalten in einem rekonstruierbaren Wechselspiel unterschiedliche Ereignisfolgen hervorbringen kann, die zuvor nur grob als reale Tendenz erkennbar waren. Tatsächlich führt eine zunehmende ‚Klarheit‘ bzgl. der internen Struktur einer zuvor nicht analysierbaren Situation auch zur Entdeckung von weiteren Kontextfaktoren, die zuvor unbekannt waren.(vgl. S.14f)

[27] Gottfried Wilhelm Leibniz in wkp-de: https://de.wikipedia.org/wiki/Gottfried_Wilhelm_Leibniz

[27b] Monadenlehre von Leibnuz in wkp-de: https://de.wikipedia.org/wiki/Monade_(Philosophie)

[27c] Allerdings muss man bemerken, dass die Leibnizsche Monadenlehre natürlich in einem ziemlich anderen ‚begrifflichen Koordinatensystem‘ einzubetten ist und die Bezugnahme auf diese Lehre nur einen stark vereinfachten Aspekt trifft.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

Populismus – Kultur der Freiheit – Ein Rezept?

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 24.März 2019
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

In einem Beitrag vom 7.Februar 2019 hatte ich mir die Frage gestellt, warum sich das alltägliche Phänomen des Populismus nahezu überall in allen Kulturen, in allen Bildungsschichten — eigentlich auch zu allen Zeiten — mit einer Leichtigkeit und Selbstverständlichkeit findet, die einem Angst und Bange machen kann. Und gerade in der Gegenwart scheinen wir geradezu wieder eine Hochblüte zu erleben. In diesem ersten Beitrag hatte ich einige Faktoren angesprochen, die unser normales menschliches Lern- und Sozialverhalten charakterisieren und die genügend Anhaltspunkte liefern, um eine erste ‚Erklärung‘ dafür zu geben, warum das Auftreten populistischer Tendenzen keine Überraschung ist, sondern eben genau in den Strukturen unserer personalen Strukturen als grundlegende Überlebensstrategie angelegt sind. In einem Folgebeitrag am 11.Februar 2019 habe ich diese Gedanken ein wenig weiter verfolgt. Auf die Frage, wie man der starken Verhaltenstendenz des Populismus gegensteuern könnte, habe ich versucht, anhand der Hauptfaktoren des alltäglichen Lernens und der Gruppenbildungen Ansatzpunkte zu identifizieren, die normalerweise die Bildung populistischer Meinungsbilder begünstigen bzw. deren Modifikation dem möglicherweise entgegen wirken könnte. Durch zahlreiche Gespräche und Veranstaltungen der letzten Wochen haben sich die Themen für mich weiter entwickelt bis dahin, dass auch erste Ideen erkennbar sind, wie man den starken Verhaltenstendenzen in jedem von uns möglicherweise entgegen wirken könnte. Gegen Verhaltenstendenzen zu arbeiten war und ist immer sehr herausfordernd.

POPULISMUS – Eine Nachbemerkung

Bislang wird das Thema ‚Populismus‘ in der Öffentlichkeit tendenziell immer noch wie eine ‚religiöse‘ Frage behandelt, stark versetzt mit ‚moralischen Kategorien‘ von ‚gut‘ und ‚böse‘, mit starken Abgrenzungen untereinander, vielfach fanatisch mit der Bereitschaft, diejenigen mit der ‚anderen Meinung‘ zu bekämpfen bis hin zur ‚Ausrottung‘. Diese Meinungen verknüpfen sich mit Ansprüchen auf politische Macht, oft mit autoritären Führungsstrukturen. Die Frage nach Transparenz und Wahrheit spielt keine zentrale Rolle. Und, falls man zu einer Meinungsgruppe gehört, die ‚anders‘ ist, versteht man selten, warum die einen jetzt so unbedingt von Meinung A überzeugt sind, weil man selbst doch eher B oder C favorisiert. Das verbal aufeinander Einschlagen und das Demonstrieren mit Gegenparolen ändert an den grundlegenden Meinungsunterschieden wenig; es fördert möglicherweise eher die Abgrenzung, verhärtet die Fronten.

Dies alles ist nicht neu; die vielen blutigen Religionskriege in der Vergangenheit sind nur ein Beispiel für das Phänomen gewalttätiger Populismen; viele weitere Beispiele liesen sich anführen.

Die Tatsache, dass wir heute, im Jahr 2019, nach vielen tausend Jahren Geschichte mit einer unfassbaren Blutspur hervorgebracht durch Meinungsunterschiede, verteufelnden Abgrenzungen, Schlechtreden ‚der Anderen‘, immer noch, und zwar weltweit (!), in diese Muster zurückfallen, ist ein sehr starkes Indiz dafür, dass die Ursachen für diese Verhaltensmuster tief in der menschlichen Verhaltensdynamik angelegt sein müssen. Bei aller Freiheit, die jedem biologischen System zukommt und dem Menschen insbesondere, scheint es genügend Faktoren zu geben, die die Weltbilder in den Köpfen der Menschen in einer Weise beeinflussen, dass sie im großen Maßstab Bilder von der Welt — und darin auch von den anderen und sich selbst — in ihren Köpfen mit sich herumtragen, die sie in maschinenhafte Zombies verwandeln, die sie daran hindern, die Differenziertheit der Welt wahr zu nehmen, komplexe dynamische Prozesse zu denken, mit der Vielfalt und der Dynamik von biologischem Leben, ökologischen und technischen Systemen nutzbringend für das Ganze umzugehen.

Viele kluge Leute haben dazu viele dicke Bücher geschrieben und es kann hier nicht alles ausgerollt werden.

Dennoch wäre eine sachliche Analyse des Populismus als einer starken Verhaltenstendenz äußerst wichtig als Referenzpunkt für Strategien, wie sich die Menschen quasi ‚vor sich selbst‘, nämlich vor ihrer eigenen, tief sitzenden Tendenz zum Populismus, schützen könnten.

Eine Antwort kann nur in der Richtung liegen, dass die jeweilige Gesellschaft, innerhalb deren die Menschen ihr Leben organisieren, in einer Weise gestaltet sein muss, dass sie die Tendenzen zur Vereinfachung und zur überdimensionierten Emotionalisierung im Umgang miteinander im alltäglichen Leben gegen steuern. Für eine angemessene Entwicklung der grundlegenden Freiheit, über die jeder Mensch in einer faszinierenden Weise verfügt, müssten maximale Anstrengungen unternommen werden, da die Freiheit die kostbarste Eigenschaft ist, die die Evolution des Lebens als Teil der Evolution des ganzen bekannten Universums bis heute hervorgebracht hat. Ohne die Nutzung dieser Freiheit ist eine konstruktive Gestaltung der Zukunft im Ansatz unmöglich.

KULTUR DER FREIHEIT – Eine Nachbemerkung

In dem erwähnten Beitrag vom 11.Februar 2019 hatte ich erste Gedanken vorgestellt, welche Faktoren sich aus dem Geschehen der biologischen Evolution heraus andeuten, die man berücksichtigen müsste, wollte man das Geschenk der Freiheit gemeinsam weiter zum Nutzen aller gestalten.

Neben der Dimension der Kommunikation, ohne die gar nichts geht, gibt es die fundamentale Dimension der jeweiligen Präferenzen, der ‚Bevorzugung von Zuständen/ Dingen/ Handlungen …, weil man sich von ihnen mehr verspricht als von möglichen Alternativen.

KOMMUNIKATION

Obwohl die Menschen allein in den letzten 100 Jahren viele neue Technologien entwickelt haben, die den Austausch, den Transport von Kommunikationsmaterial hinsichtlich Menge und Geschwindigkeit dramatisch gesteigert haben, ist damit das zugehörige Verstehen in den Menschen selbst nicht schneller und tiefer geworden. Die Biologie des menschlichen Körpers hat sich nicht parallel zu den verfügbaren Technologien mit entwickelt. Auf diese Weise entstehen völlig neue Belastungsphänomene: zwar kann der Mensch noch wahrnehmen, dass es immer schneller immer mehr gibt, aber diese Überflutung führt nur begrenzt zu mehr Verstehen; überwiegend macht sich heute in dieser Situation ein wachsendes Ohnmachtsgefühl breit, eine Hilflosigkeit, in der nicht erkennbar ist, wie man als einzelner damit klar kommen soll. Die gleichzeitige Zunahme von ‚falschen Nachrichten‘, ‚massenhaften Manipulationen‘ und ähnlichen Phänomenen tut ihr Übriges, um in den Menschen das Gefühl zu verstärken, dass ihnen der Boden unter den Füßen gleichsam weggezogen wird. Wenn sich dann selbst in offiziellen demokratischen Gesellschaften Politiker (und Teile der Verwaltung oder Staatstragenden Institutionen) diesem Stil des Verbergens, Mauerns, geheimer Absprachen und dergleichen mehr anzuschließen scheinen, dann gerät das gesellschaftliche Referenzsystem ganz gefährlich ins Schwimmen. Was kann der einzelne dann noch tun?


PRÄFERENZEN (WERTE)

Der andere Faktor neben der aktuell mangelhaften Kommunikation sind die Präferenzen, nach denen Menschen ihr Lernen und Handeln ordnen. Ohne irgendwelche Präferenzen geht gar nichts, steht jedes System auf der Stelle, dreht sich im Kreis.

Ein Teil unserer Präferenzen ist in unserem Verhalten angelegt als unterschiedliche starke Tendenz eher A als B zu tun. Andere Präferenzen werden innerhalb gesellschaftlicher Systeme durch Mehrheiten, privilegierten Gruppen oder irgendwelche andere Mechanismen ausgezeichnet als das, was in der jeweiligen gesellschaftlichen Gruppierung gelten soll (im Freundeskreis, in der Familie, in der Schule, am Arbeitsplatz, im Strafgesetz, in einer religiösen Vereinigung, …). Zwischen den gesellschaftlich induzierten Normen und den individuellen Verhaltenstendenzen gibt es unterschiedlich viele und unterschiedliche starke Konflikte. Ebenso wissen wir durch die Geschichte und die Gegenwart, dass es zwischen den verschiedenen gesellschaftlich induzierten Präferenzsystemen immer mehr oder weniger starke Konflikte gab, die alle Formen von möglichen Auseinandersetzungen befeuert haben: zwischen kriegerischer Totalausrottung und wirtschaftlich-kultureller Vereinnahmung findet sich alles.

Der Sinn von Präferenzen ist schlicht, dass sich Gruppen von Menschen einigen müssen, wie sie ihre Fähigkeiten am besten ordnen, um für alle einen möglichst großen Nutzen in der jeweiligen Lebenswelt zu sichern.

Der eine Bezugspunkt für diese Regeln ist die Lebenswelt selbst, die sogenannte Natur, die heute mehr und mehr von technologischen Entwicklungen zu einer Art Techno-Natur mutiert ist und — das wird gerne übersehen — zu der der Mensch gehört! Der Mensch ist nicht etwas Verschiedenes oder Getrenntes von der Natur, sondern der Mensch ist vollständig Teil der Natur. Im Menschen werden Eigenschaften der Natur sichtbar, die ein besonderes Licht auf das ‚Wesen‘ der Natur werfen können, wenn man es denn überhaupt wissen will. Der andere Bezugspunkt ist die Welt der Bilder in den Köpfen der Beteiligten. Denn was immer man in einer Lebenswelt tun will, es hängt entscheidend davon ab, was jeder der Beteiligte in seinem Kopf als Bild von der Welt, von sich selbst und von den anderen mit sich herum trägt.

An diesem Punkt vermischt sich die Präferenz-/Werte-Frage mit der Wissensfrage. Man kann beide nicht wirklich auseinander dividieren, und doch repräsentieren die Präferenzen und das Weltwissen zwei unterschiedliche Dimensionen in der Innendynamik eines jeden Menschen.

EIN EPOCHALER WENDEPUNKT?

Fasst man die bisherigen ‚Befunde‘ zusammen, dann zeichnet sich ein Bild ab, dem man eine gewisse Dramatik nicht absprechen kann:

  1. In der Kommunikationsdimension hat sich eine Asymmetrie aufgebaut, in der die Technologie die Menge und die Geschwindigkeit des Informationsmaterials in einer Weise intensiviert hat, die die biologischen Strukturen des Menschen vollständig überfordern.
  2. In der Präferenzdimension haben wir eine mehrfache Explosion im Bereich Komplexität der Lebenswelt, Komplexität der Präferenzsysteme, Komplexität der Weltbilder.
  3. Die Anforderungen an mögliche ‚praktische Lösungen‘ steigen ins ‚gefühlt Unermessliche‘, während die Kommunikationsprozesse, die verfügbaren Weltbilder und die verfügbaren Präferenzen sich immer mehr zu einem ‚gefühlten unendlichen Komplexitätsknäuel‘ verdichten
  4. Alle bekannten Wissenstechnologien aus der ‚Vergangenheit (Schulen, Bücher, Bibliotheken, empirische Wissenschaften, …) scheinen nicht mehr auszureichen. Die Defizite sind täglich immer mehr spürbar.

WAS BEDEUTET DIES FÜR EINE MÖGLICHE NEUE STRATEGIE?

Obwohl die soeben aufgelisteten Punkte nur als eine sehr grobe Charakterisierung der Problemlage aufgefasst werden können, bieten sie doch Anhaltspunkte, in welcher Richtung man suchen sollte.

Ich deute die Asymmetrie zwischen der technologisch ermöglichten Turbo-Daten-Welt und dem individuellen Gehirn mit seiner nenschentypischen Arbeitsweise als eine Aufforderung, dass man die Verstehensprozesse auf Seiten des Menschen deutlich verbessern muss. Wenn jemand über ein — bildhaft gesprochen — ‚Schwarz-Weiß‘ Bild der Welt verfügt, wo er doch ein ‚Vielfarbiges‘ Bild benötigen würde, um überhaupt wichtige Dinge erkennen zu können, dann muss man bei den Bildern selbst ansetzen. Wie kommen sie zustande? Was können wir dazu beitragen, dass jeder von uns die Bilder in den Kopf bekommt, die benötigt werden, wollen wir gemeinsame eine komplexe Aufgabe erfolgreich bewältigen? Einzelne Spezialisten reichen nicht. Ein solcher würde als Einzelgänger ‚veröden‘ oder — viel wahrscheinlicher — auf lange Sicht von der Mehrheit der anderen als ‚Verrückter‘ und ‚Unruhestifter‘ ‚ausgestoßen‘ werden.

Vom Ende her gedacht, von der praktisch erwarteten Lösung, muss es möglich sein, dass die jeweilige gesellschaftliche Gruppe in der Lage ist, gemeinsam ein Bild der Welt zu erarbeiten, das die Gruppe in die Lage versetzt, aktuelle Herausforderungen so zu lösen, dass diese Lösung noch in einem überschaubaren Zeitabschnitt (wie viele Jahre? Auch noch für die Enkel?) funktionieren. Dies schließt eine sachliche Funktion genauso ein wie die Übereinstimmung mit jenen Präferenzen, auf sich die Gruppierung zu Beginn geeinigt hat.

Die Ermöglichung hinreichend leistungsfähiger Bilder von der Welt in allen Beteiligten verlangt auf jeden Fall einen Kommunikationsprozess, bei dem alle Beteiligten aktiv mitwirken können. Nun kennen wir in demokratischen Gesellschaften heute die Forderung nach mehr Bürgerbeteiligungen aus vielen politischen Bekundungen und auch von zahllosen realen Initiativen. Die reale Auswirkung auf die Politik wie auch die Qualität dieser Beteiligungen ist bislang — in meiner Wahrnehmung — nicht sehr groß, meistens sehr schlecht, und auch eher folgenlos. Diese Situation kann auch die gefühlte Ohnmacht weiter verstärken.

EINE PARALLELWELT – Bislang ungenutzt

Bei der Frage, was kann man in dieser Situation tun, kann es hilfreich sein, den Blick vom ‚alltäglichen politischen Normalgeschehen‘ mal in jene Bereiche der Gesellschaft zu lenken, in denen es — unbeachtet von der öffentlichen Aufmerksamkeit und den Mainstream-Medien — weltweit eine Gruppe von Menschen gelingt, täglich die kompliziertesten Aufgaben erfolgreich zu lösen. Diese Menschen arbeiten in Gruppen von 10 bis 10.000 (oder gar mehr), sprechen viele verschiedene Sprachen, haben ganz unterschiedliches Wissen, arbeiten parallel in verschiedenen Ländern und gar auf verschiedenen Kontinenten in unterschiedlichen Zeitzonen, und errichten riesige Bauwerke, bauen riesige Flugzeuge, Raketen, ermöglichen die Arbeit von riesigen Fabriken, bauen eine Vielzahl von Autos, bauen tausende von Kraftwerken, immer komplexere Datennetzwerke mit Rechenzentren und Kontrollstrukturen, Roboter, und vieles, vieles mehr …

Was von außen vielleicht wie Magie wirken kann, wie ein Wunder aus einer anderen Welt, entpuppt sich bei näherem Zusehen als ein organisiertes Vorgehen nach transparenten Regeln, nach eingeübten und bewährten Methoden, in denen alle Beteiligten ihr Wissen nach vereinbarten Regeln gemeinsam ‚auf den Tisch‘ legen, es in einer gemeinsamen Sprache tun, die alle verstehen; wo alles ausführlich dokumentiert ist; wo man die Sachverhalte als transparente Modelle aufbaut, die alle sehen können, die alle ausprobieren können, und wo diese Modelle — schon seit vielen Jahren — immer auch Simulierbar sind, testbar und auch ausführlich getestet werden. Das, was am Ende eines solche Prozesses der Öffentlichkeit übergeben wird, funktioniert dann genauso, wie geplant (wenn nicht Manager und Politiker aus sachfremden Motiven heraus, Druck ausüben, wichtige Regel zu verletzten, damit es schneller fertig wird und/ oder billiger wird. Unfälle mit Todesfolgen sind dann nicht auszuschließen).

Normalerweise existiert die Welt des Engineerings und die soziale und politische Alltagswelt eher getrennt nebeneinander her, wenn man sie aber miteinander verknüpft, kann sich Erstaunliches ereignen.

KOMMUNALPLANUNG UND eGAMING

Bei einem Kongress im April 2018 kam es zu einer denkwürdigen Begegnung zwischen Städteplanern und einem Informatiker der UAS Frankfurt. Aus dem Kongress ergab sich eine erste Einsicht in das Planungsproblem von Kommunen, das schon bei ‚kleinen‘ Kommunen mit ca. 15.000 Einwohner eigentlich alle bekannten Planungsmethoden überfordert. Von größeren Gebilden, geschweige denn ‚Mega-Cities‘, gar nicht zu reden.

Mehrere Gespräche, Workshops und Vorträge mit Bürgern aus verschiedenen Kommunen und Planungseinheiten von zwei größeren Städten ermöglichten dann die Formulierung eines umfassenden Projektes, das von Mai – August 2019 einen realen Testlauf dieser Ideen ermöglicht.

Aus nachfolgenden Diskussionen entstand eine erste Vision unter dem Titel Kommunalplanung und eGaming , in der versuchsweise die Methoden der Ingenieure auf das Feld der Kommunalplanung und der Beteiligung der Bürger angedacht wurde. Es entstand eine zwar noch sehr grobe, aber doch vielseitig elektrisierende Vision eines neuen Formates, wie die Weisheit der Ingenieure für die Interessen der Bürger einer Kommune nutzbar gemacht werden könnte.

REALWELT EXPERIMENT SOMMER 2019

Im Rahmen einer alle Fachbereiche übergreifenden Lehrveranstaltung haben Teams von Studierenden die Möglichkeit (i) die ingenieurmäßigen Methoden kennen zu lernen, mit denen man Fragestellungen in einer Kommune ausgehend von den Bürgern (!) analysieren kann; (ii) mit diesen Fragestellungen können dann — immer auch in Absprache mit den Bürgern — Analysemodelle erarbeitet werden, die dann — unter Klärung möglicher Veränderbarkeit — zu (interaktiven) Simulationsmodellen erweitert werden. Diese lassen sich dann (iii) mit allen Beteiligten durchspielen. Dadurch eröffnen sich Möglichkeiten des direkten ‚Erfahrungsaustausches zwischen Studierenden und Bürgern und ein gemeinsames Lernen, was die Wirklichkeit einer Stadt ist und welche Potentiale eine solche Kommune hat. Insbesondere eröffnet solch ein Vorgehen auch Einsichten in vielfältige Wechselwirkungen zwischen allen Faktoren, die ohne diese Methoden völlig unsichtbar blieben. In nachfolgenden Semestern soll noch die wichtige Orakelfunktion hinzugefügt werden.

Parallel zum Vorlesungsgeschehen bereitet ein eigenes Software-Team eine erste Demonstrationssoftware vor, mit der man erste Analysemodelle und Simulationsmodelle erstellen kann, um — auch interaktive — Simulationen vornehmen zu können. Wenn alles klappt, würde diese Juni/ Juli zur Verfügung stehen.

AUSBLICK

Vereinfachend — und vielleicht auch ein wenig überspitzt polemisch — ausgedrückt, kann man sagen, dass in diesem Projekt (vorläufige Abkürzung: KOMeGA) das Verhältnis zwischen Menschen und digitaler Technologie umgekehrt wird: während bislang die Menschen mehr und mehr nur dazu missbraucht werden, anonyme Algorithmen zu füttern, die globalen Interessen dienen, die nicht die des einzelnen Bürgers sind, wird hier die Technik den Interessen der Bürger vollständig untergeordnet. Die Technologie hat einzig die Aufgabe, den Bürgern zu helfen ihr gemeinsames Wissen über die Kommune :

  • zu klären
  • sichtbar zu machen
  • auszuarbeiten
  • durch zuspielen
  • zu verbessern
  • nach Regeln, die die Bürger selbst formulieren
  • für alle transparent
  • jederzeit änderbar
  • rund um die Uhr über das Smartphone abrufbar
The power of the future is your freedom … breaking the chains of the colonization of your mind …

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

PLÄDOYER FÜR DIE LEIDENSCHAFT DES ENDLICH-UNENDLICHEN LEBENS. Man kann es auch Manifest für eine universale Religion nennen. Teil 1

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
16.Juli 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

THEMA

Im Jahrtausende alten Wirbelsturm von Erleiden, Erkennen, Leidenschaft und Handeln suchten die Menschen schon immer nach Haltepunkten, Fixpunkten, die über den Moment hinaus Orientierung, Sinn vermitteln könnten. …

I. IM WIRBELSTURM DER ZEITEN

Im Jahrtausende alten Wirbelsturm von Erleiden, Erkennen, Leidenschaft und Handeln suchten die Menschen schon immer nach Haltepunkten, Fixpunkten, die über den Moment hinaus Orientierung, Sinn vermitteln könnten. Die einen fanden es in dem, was man ’Religion’ nennt, andere im ’Wissen’, wieder andere in temporären Besitz- oder Machtstrukturen. Einen finalen Gewinner scheint es bis heute nicht zugeben. Temporäre Besitz- und Machtstrukturen verschwinden nach Generationen; Religionen sind etwas ’zäher’, sie überdauern schon mal Jahrtausende; das Weltwissen durchläuft permanent Metamorphosen, begleitet von Technologien, Wirtschaftsformen, Lebensweisen, die temporär – wie heute – den Eindruckerwecken können, als ob sie alles mitreißen und wir, die einzelnen, zu hilflosen Konsumenten und Mitläufern zu degenerieren scheinen.

Wer nur das Alltagsgeschäft kennt, wer tagaus tagein nur um das Erfüllen von festen Pflichten ringt, nichts weiß von dem Leben daneben, davor oder danach, der tut sich schwer in dem ganzen Getriebe ’mehr’ zu sehen als dieses tägliche Allerlei. Tatsächlich ist das Leben ja mehr als nur der Tag heute, oder gestern, oder morgen, ist es mehr als eine definierte Abfolge von Kalendereinträgen, von kontrolliertem Essen, von punktuellen Triebbefriedigungen.

Wenn wir den Blick zurück wandern lassen können in die Zeiten, in die Tiefen der Jahrtausende, gar Millionen oder Milliarden Jahre, wenn wir den Blick ausweiten auf unsere Umgebung, auf unser Land, auf die Menschheit weltweit, dann sehen wir nicht nur die bizarren Formen der aktuellen Politik, wo Politiker im Format narzisstischer Kinder ganze Nationen terrorisieren können, nein, wir können bei ruhiger Betrachtung etwas erkennen, das sehr tief eingebettet ist in der Weltwirklichkeit, etwas, was universal wirksam ist …

II. DIE GESTALT DER FREIHEIT

Nimmt man das offizielle Wissen einer Kultur als Maßstab, dann ist es vielleicht den letzten100 Jahren (Anmerkung: In einer Lebenszeit des gesamten bekannten Universums von ca. 13.8 Milliarden Jahren!)  vorbehalten gewesen, erkennen zu können, dass der große ’Mechanismus der Welt’ nicht so ist – und niemals so war – wie er lange und gerne gesehen wurde. Die Welt ist durch und durch nicht deterministisch, nicht wie ein Uhrwerk, in dem jeder Zeitpunkt seinen Folgezeitpunkt voll bestimmt. Während noch ein Newton und viele seiner Wissenschaftsnachfolger glauben konnten, sie haben die Formeln zur Beschreibung des Weltgeschehens gefunden, die Formeln zur Berechnung von allem, was geschieht und was geschehen wird, waren es Wissenschaftler wie Einstein, Dirac, Schrödinger, Bohr, Planck, Heisenberg, Hawking und viele andere, die das Bild der Physik vom Blick in das ’Innere der Materie’ völlig aufgebrochen haben. Unter bestimmten, speziellen Bedingungen gilt der physikalische Determinismus, aber eben nur unter sehr speziellen Bedingungen. Grundsätzlich, und aufs Ganze gesehen, gilt er nicht. Was sich zeigt ist ein unfassbarer Möglichkeitsraum, durch und durch nicht-deterministisch, scheinbar chaotisch, aber dann doch, irgendwie, auch planvoll, geordnet. …

Je mehr die moderne Wissenschaft in diesen neuen, faszinierenden Raum vordringt, umso rätselhafter wird er. Konnte noch ein Newton, ein Laplace und viele andere glauben, sie hätten das Phänomen nun zu 100% im Griff, wurde in den letzten Jahren immer klarer, dass wir bislang weniger und weniger wirklich verstanden haben. Dies gilt im Großen des physikalischen Universums, aber auch im Kleinen des Mikrokosmos des Lebens. Wenn die Gesamtheit der Zellen, die einen einzelnen menschlichen Körper in seiner unmittelbaren Lebensfunktionen bestimmen, etwa 700 Galaxien im Format unserer Milchstraße entsprechen, mit zusätzlichen atemberaubenden Eigenschaften, dann stehen wir letztlich fassungslos vor einem mikrobiologischen Kosmos des biologischen Lebens, der dem bekannten physikalischen Universum in nicht Vielem nachsteht, ihn vielleicht sogar übertrifft. Letztlich ist der mikrobiologische Kosmos erheblich jünger als der physikalische Kosmos; in gewissem Sinne ist er eine ’Weiterentwicklung’ …

Sowohl bei der Betrachtung des physikalischen Universums wie auch bei der Betrachtung des mikrobiologischen Universums fällt eines auf: der Kontrast zwischen nicht-deterministischen Grundstrukturen auf der einen Seite, und dann doch  auch dem Entstehen von Strukturen, die immer komplexer werden, denen man eine gewisse Logik und innewohnende Optimierungstendenz nicht absprechen kann. Obgleich aus der physikalischen Energie (das ’E’ in der Formel ’ E = mc^2 ’ von Einstein) direkt nichts abgeleitet werden kann, dürfen und müssen wir feststellen, dass das beobachtbare Universum als materielle Form dieser Energie nicht strukturlos ist, nicht ohne beschreibbarer Dynamik, nicht ohne Eigenschaften, die sich in Gestalt von Atomen, Molekülen, biologischen Zellen und deren Wechselspiel manifestieren. Während die Physiker für das physikalische Universum noch keine Begrifflichkeit für diese ’Ordnung trotz Unordnung’ gefunden haben, verhalf ein Darwin und viele seiner Nachfolger den ’Physikern des biologischen Lebens’, den Biologen, zu einer neuen Begrifflichkeit: das Leben ist eine Kombination aus ’genetisch kodiertem Erfolgswissen’ (tendenziell deterministisch, aber nicht vollständig) und ’zufälligen Strukturbildungen’ (man kann keine Regeln erkennen), die zusammen zu ’erfolgreichen Nachfolgestrukturen’ führen können (das ’erfolgreich’ ist minimalistisch gefasst: schlichtes ’im Spiel bleiben’ = ’am Leben bleiben’, nicht bezogen auf das Individuum, das stirbt, sondern auf die Population!).

Mit dem Erscheinen des Homo sapiens (seit ca. 200.000 bis 300.000 Jahren, von Afrika herkommend) kann man das Phänomen des Lebens nicht nur ’von außen’ (dritte Person Blick) betrachten, sondern als Exemplare der Lebensform Homo sapiens haben wir auch eine ’Innenwahrnehmung’ (erste Person Blick). Diese Innensicht überschwemmt uns mit einem beständigen Strom von Eindrücken, Gestalten, Formen, Veränderungen, Erinnerungen, Vergleichungen, Erregungen, Gefühlen, Stimmungen … dass wir sagen können, dass den äußeren beobachtbaren materiellen Strukturen eine ’innere Struktur’ korrespondiert, die – wie wir langsam erkennen dürfen – relativ eng mit genau diesen materiellen Strukturen ’korrelieren’. Dem materiellen Körper korrespondieren ’innere Zustände und Prozesse’. Früher nannte man diese inneren Zustände einfach nur ’seelisch’, ’psychisch’, ’geistig’, später eher ’subjektiv’,’kognitiv’; heute kann man dieses ’Subjektive, Kognitive’ bestimmten zeitlich korrespondierenden — und  ansatzweise kausal bedingenden —  ’neuronalen Prozessen’ zuordnen, in denen Energie sich wechselseitig anregt, erregt, verändert ….  ’Seelisch-psychische-Subjektive’ Zustände korrespondieren ’energetischen Zustandsänderungen’ … beim heutigen Wissensstand würde man also sagen können und müssen, dass das ’Psychische’ als eine Eigenschaft dessen erscheint, was die Physiker ’Energie (E)’ nennen. Damit wird das Phänomen Energie immer rätselhafter: die große Fülle von Phänomene im physikalischen Universum einschließlich der Phänomene des Biologischen, sie alle sind so gesehen ’Manifestationen’ dessen, was Einstein ’Energie’ genannt hat.

In einer vergleichsweise kurzen Phase der Menschheitsgeschichte gab es die Tendenz, dem beobachtbaren Verhalten von Menschen die Eigenschaft einer grundlegenden ’Freiheit’ zuzuordnen. Der Mensch könne A tun, aber auch B; letztlich entscheidet jeder selbst, was er tun will. Eine solche Sicht identifiziert den Menschen als etwas schwer bis gar nicht mehr Erklärbares, zu etwas ganz Besonderem. Das Konzept der Freiheit stach aus dem allgemeinen naturwissenschaftlichen Weltbild erratisch hervor, schien den großen Zusammenhang der Natur zu durchbrechen, verwies auf etwas, was man schwer –eigentlich gar nicht – fassen konnte.

Mit den wachsenden Erkenntnissen über die Details menschlicher Körper, die Arbeitsweise des Gehirns, das Wechselspiel zwischen bewusst und unbewusst, den Einfluss von Genen auf das Verhalten, die Wirkung von Trieben und Drogen, von Extremsituationen, zerbröselte die klare Meinung zur menschlichen ’Freiheit’ streckenweise, immer mehr, bis dahin, dass man heute zweifeln kann, ob eine solche Sicht überhaupt noch gesellschaftsfähig ist. In den Verfassungen von vielen Staaten steht die Freiheit noch drin, aber im Alltag, selbst in der Rechtsprechung, verschwindet die Kontur der Freiheit immer mehr; so der Eindruck.

An dieser Stelle kann es helfen, sich bewusst zu machen, dass ’Freiheit’ möglicherweise ein ’komplexes’ Phänomen ist, das man verkennen kann, wenn man sich zu stark von einzelnen, zufälligen Phänomenen ablenken lässt. Das Wissen um die Natur kann hier ein guter Lehrmeister sein: die Entdeckung der grundlegenden Nicht-Determiniertheit der empirischen Welt ist der Menschheit erst seit ca. 100 Jahren gelungen; die Entdeckung einer ersten ’Systematik’ – oder gar ’Logik’ – der Evolution auch noch nicht viel länger. Und die spezifische Dialektik von Intelligenz, Lernen und spezifischen ’Präferenzen’(= Werten) beginnen die Ingenieure gerade erst zu entdecken. Das Reden von der Super-Intelligenz befindet sich noch im ’Vorstadium’ eines Verstehens von dieser Dialektik. Erste Forschergruppen der Künstlichen Intelligenz haben im Rahmen der Entwicklungsrobotik seit einigen Jahren entdeckt, was die biologische Evolutionsforschung schon lange weiß: die Fähigkeit zur Wahrnehmung, zum Erinnern, zum Kombinieren usw. – das, was man allgemein Kognition nennt – nützt nur bedingt etwas, letztlich nur dann, wenn es zusätzlich ein System von ’Präferenzen’ (= Werten) gibt, die der Kognition eine ’Richtung’ zu mehr ’Optimalität’ weisen können. Schneller und mehr rechnen können als das aktuelle menschliche Gehirn, das reicht nicht aus, um substantielle ’Verbesserungen’ zu finden. Was ist das ’Bessere’?

III. FREIHEIT KONKRET

Wenn sich die empirische Welt als Ganze und im Detail als ein ’Projekt der wesentlichen In-Determiniertheit’ zeigt, zugleich aber auch Züge von Ordnung, von Optimierung aufweist, und in allem der Homo sapiens die Rolle des ’Aufdeckers’ spielt, die Rolle des ’Sichtbarmachers’, und in all dem offensichtlich eine ’Gestaltungsfähigkeit’ offenbart, die zumindest das ’Antlitz der Erde’ nachhaltig verändern kann und weitgehend schon verändert hat (nachdem die Mikroorganismen in vielen Milliarden Jahren die Erde überhaupt für komplexe Lebensformen lebbar gemacht haben durch Bereitstellung von Sauerstoff und Atmosphäre), dann kann man dem Homo sapiens als Teil des Biologischen und damit auch Teil der gesamten empirischen Welt diese grundlegende In-Determiniertheit nicht absprechen. Diese grundlegende In-Determiniertheit verschwindet nicht einfach, weil irgendwelche psychologischen oder neurowissenschaftlichen Fachwissenschaftler, eingesperrt in die Grenzen ihrer Disziplinen, diesen größeren Zusammenhang nicht zu erkennen vermögen. Aus der grundsätzlichen Annahme von ’In-Determiniertheit’ als ’Freiheit’ folgt ja nicht, dass jedes materielle System, das grundlegend in-determiniert bzw. frei ist, in einem völlig unbestimmten Raum agiert. Das Gegenteil ist wahr: die universelle In-Determiniertheit (bzw. Freiheit) materialisiert sich unter konkreten, realen Bedingungen von Energie bzw. den verschiedenen materiellen Zustandsformen von Energie. In-Determiniertheit (Freiheit) zeigt sich in der Weise, wie sie materielle Strukturen verändert.

So haben – nach heutigem Kenntnisstand – die Atome unterschiedliche Eigenschaften, aus denen sich unterschiedlichste Kombinationen von Atomen bei bestimmten Kontextbedingungen bilden könnten; dass dies tatsächlich möglich ist zeigt sich erst, wenn es zu diesen realen Verbindungen kommt. Im Zustandekommen einer Möglichkeit, erst durch die beobachtbare Änderung wird sichtbar, dass es diese Möglichkeit gibt. In der beobachtbaren Dynamik der empirischen Wirklichkeit manifestiert sich also der implizite, ’von außen unsichtbare’ Möglichkeitsraum, der als solcher ’in-determiniert’, sprich ’frei’ ist. Die Konkretisierung hebt diese grundlegende In-Determiniertheit (Freiheit) nicht auf, sondern darin wird sie sichtbar, real. Rätselhaft bleibt dabei der Möglichkeitsraum als solcher, dass z.B. Atome aus sich heraus vieles sein können, aber nichts davon zwingend ist. Dass eine bestimmte Umgebungstemperatur, bestimmte chemische Konstellationen eine von vielen ’Möglichkeiten der Realisierung’ ’aktivieren’ und damit sichtbar machen, hebt die vorausgehende In-Determiniertheit (Freiheit) nicht auf. Vielmehr kann die spätere Konkretisierung nur stattfinden, weil es den Möglichkeitsraum gegeben hat. Andere Umgebungseigenschaften hätten andere Verbindungen möglich gemacht.

Analog ist das Reden davon, dass der Mensch in seinen Handlungen verschiedenen ’Einflüssen’ unterliegt, grundsätzlich kein Einwand gegen seine grundlegende Freiheit, denn ’Einflüsse’ sind ja unterschiedliche innere Zustände, die für das mögliche Verhalten ’Informationen’ darstellen, denen die Freiheit folgen kann. Ohne solche Informationen wäre die Freiheit ’blind’, ’orientierungslos’. Was sollte sie ’bewegen’, wenn es nichts gäbe, an dem sie anpacken kann? Es geht also nicht darum, die Freiheit zu ’isolieren’, sie aus der Welt ’auszusperren’, sondern vielmehr um die Frage, was sind die ’angemessenen inneren Zustände’, durch die die Freiheit eine Realisierungsform annehmen kann, die in ’irgendeinem Sinne erstrebenswert’ ist. Die beste ’Freiheit’ nützt nichts, wenn man einen Menschen einsperrt, ihm wichtige Informationen vorenthält oder man sein Hirn durch Drogen oder ähnlichen Stoffe so umnebelt, dass das Gehirn einfach nicht mehr ’richtig’ funktionieren kann. Während die innere Freiheit aller Wirklichkeit und jener der biologischen Systeme insbesondere im Prinzip alles möglich machen kann, zu was die Energie des Universums Handhaben liefert, so können bei einer konkreten Gestalt der Freiheit wie bei einem Homo sapiens die konkreten Rahmenbedingungen mehr oder weniger alles unmöglich machen (Anmerkung: Wenn man sieht, welche große Offenheit, Neugierde, Entdeckermut jedes neugeborene Kind ausstrahlt, und man dann sieht, wie die gesellschaftlichen Verhältnisse in den meisten Ländern dieser Erde diese ’Wunder der Freiheit’ behindern, stören, quälen, foltern, eine Bildung verweigern, dann muss man sich zurecht fragen, inwieweit die heutigen Vertreter des Homo sapiens überhaupt verstanden haben, was und wer sie selbst sind …)

PS: Die Notizen gehen hier noch weiter, aber ich kann erst die Tage weiter schreiben …

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

 

INFORMELLE KOSMOLOGIE. Teil 2. Homo Sapiens und Milchstraße

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 18.Februar 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de
Frankfurt University of Applied Sciences
Institut für Neue Medien (INM, Frankfurt)

PDF

INHALT

I Kontext … 1
II Die Größen … 2
III Ermittelte Sachverhalte … 3
IV Philosophische Anmerkungen … 4
IV-A Zusammenhang durch Funktionen … 4
IV-B Gehirn so winzig … 5
IV-C Bewusstsein: Was ist das? … 5
V Anhang: Rechenvorschriften … 6
VI Anhang: Ausführung von Rechenvorschriften … 7
Quellen

 

THEMA

Die Diskussion um die neue Frage nach dem Menschen angesichts der fortschreitenden Digitalisierung hat erst begonnen. Im vorausgehenden Beitrag zur ’Informellen Kosmologie’ wurde der große evolutionsbiologische Zusammenhang skizziert. Hier ein Hinweis auf die unvorstellbare Komplexität eines einzelnen menschlichen Körpers im Vergleich zur Milchstraße, und was dies bedeuten kann (ansatzweise).

I. KONTEXT

Die Diskussion um die neue Frage nach dem Menschen angesichts der fortschreitenden Digitalisierung hat erst begonnen. Im vorausgehenden Beitrag zur ’Informellen Kosmologie’ ist der große evolutionsbiologische Zusammenhang skizziert worden: nach ca. 9.6 Milliarden Jahren ohne biologische Lebensformen (soweit wir
wissen) bildeten sich vor ca. 4 Milliarden Jahren einfache Lebensformen auf der Erde (Bakterien, Archaeen), die dann innerhalb von 2 Milliarden Jahren die Erde in allen Winkeln chemisch so verändert haben, dass es zu einer Sauerstoffatmosphäre kommen konnte. Trotz der damit einhergehenden globalen Vereisung der Erde (’snowball earth’) für viele Millionen Jahre konnten sich dann aber komplexe Lebensformen bilden, die im Verlauf von weiteren 2 Milliarden Jahren dann – trotz vieler weiterer globaler Katastrophen – die Lebensform homo sapiens hervorgebracht
haben, der dann die Erde ein weiteres Mal flächendeckend erobert und kolonisiert hat. Dieser Prozess befindet sich aktuell in einer Phase, in der der homo sapiens aufgrund seiner erweiterten Denk- und Kommunikationsfähigkeiten das ’Prinzip des Geistes’ in Form von – aktuell noch sehr primitiven – ’lernfähigen und intelligenten Maschinen’ in
eine neue Dimension transformiert.

Von den vielen Fragen, die sich hier stellen, sei hier heute nur ein winziger Teilaspekt aufgegriffen, der aber dennoch geeignet erscheint, das Bild des Menschen von sich selbst wieder ein kleines Stück der ’Realität’ anzunähern.

Der winzige Teilaspekt bezieht sich auf die schlichte Frage nach der ’Komplexität’ eines einzelnen menschlichen Körpers. Natürlich gibt es zahlreiche Lehrbücher zur ’Physiologie des Menschen’ (Z.B. Birbaumer (2006) [BS06]) , in denen man über viele hunderte Seiten zur Feinstruktur des Körpers finden kann. Ergänzt man diese Bücher um Mikrobiologie (Z.B. Alberts (2015) [AJL + 15]) und Genetik, dann ist man natürlich sehr schnell in einem Denkraum, der die einen in Ekstase versetzen kann, andere möglicherweise erschaudern lässt angesichts der unfassbaren Komplexität von einem einzelnen Körper der Lebensform homo sapiens.

Hier soll der Blick mittels eines spielerischen Vergleichs auf einen winzigen Aspekt gelenkt werden: ein versuchsweiser Vergleich zwischen einem einzelnen menschlichen Körper und der Milchstraße, unserer ’Heimatgalaxie’ im Universum.

II. DIE GRÖSSEN

Im ersten Moment mag man den Kopf schütteln, was solch ein Vergleich soll, wie man solche so unterschiedliche Dinge wie einen menschlichen Körper und die Milchstraße vergleichen kann. Doch hat die neuzeitliche Erfindung der Mathematik die Menschen in die Lage versetzt, auf neue abstrakte Weise die Phänomene der Natur jenseits
ihrer augenscheinlichen Reize neu zu befragen, zu beschreiben und dann auch zu vergleichen. Und wenn man auf diese Weise einerseits die Komplexität von Galaxien beschreibt, unabhängig davon auch die Komplexität von biologischen Lebensformen, dann kann einem auffallen, dass man auf abstrakter Ebene sehr wohl eine Beziehung
zwischen diesen im ersten Moment so unterschiedlichen Objekte feststellen kann.
Der ’gedankliche Schlüsselreiz’ sind die ’Elemente’, aus denen sich die Struktur einer Galaxie und die Struktur des Körpers einer biologischen Lebensform bilden. Im Falle von Galaxien sind die primären Elemente (der Astrophysiker) die ’Sterne. Im Fall der Körper von biologischen Lebensformen sind es die ’Zellen’.

Im Alltag spielen die einzelnen Zellen normalerweise keine Rolle; wir sind gewohnt von uns Menschen in ’Körpern’ zu denken, die eine bestimmte ’Form’ haben und die zu bestimmten ’Bewegungen’ fähig sein. Irgendwie haben wir auch davon gehört, dass es in unserem Körper ’Organe’ gibt wie Herz, Leber, Niere, Lunge, Magen, Gehirn usw.,
die spezielle Aufgaben im Körper erfüllen, aber schon dies sind gewöhnliche ’blasse Vorstellungen’, die man der Medizin zuordnet, aber nicht dem Alltagsgeschehen.
Tatsache ist aber, dass alles, auch die einzelnen Organe, letztlich unfassbar große Mengen von individuellen Zellen sind, die jeweils autonom sind. Jede Zelle ist ein individuelles System, das von all den anderen Zellen um sich herum nichts ’weiß’. Jede Zelle tauscht zwar vielfältige chemische Materialien oder auch elektrische Potentiale mit der Umgebung aus, aber eine Zelle ’weiß’ darüber hinaus nichts von ’dem da draußen’. Schon der Begriff ’da draußen’ existiert nicht wirklich. Und jede Zelle agiert autonom, folgt ihrem eigenen Programm der Energiegewinnung und der Vermehrung.

Schon vor diesem Hintergrund ist es ziemlich bizarr, wie es möglich ist, dass so viele Zellen im Bereich zwischen Millisekunden, Sekunden, Minuten, Stunden, Tagen usw. miteinander kooperieren, so, als ob sie alle einem geheimnisvollen Plan folgen würden.
Fragt man dann, wie viele von solchen Zellen dann im Bereich eines menschlichen Körpers aktiv sind, wird das Ganze fast unheimlich. Das Unheimliche beginnt schon bei der Frage selbst. Denn unsere Forscher haben bis heute keine wirklich ’harte’ Zahlen zur Anzahl der Zellen im Körper des Menschen, allerdings erste Annäherungen, die sich beständig weiter verfeinern.

Für den Bereich des menschlichen Körpers habe ich die Darstellung von Kegel (2015) [Keg15] benutzt, der sowohl Abschätzungen für die Körperzellen im engeren Sinne bietet (ca. 37.2 Billionen (32.7^12 )) wie auch für die Bakterien im Körper (ca. 100 Billionen (100^12 )).

Innerhalb des Körpers nimmt das Gehirn für manche Eigenschaften eine besondere Stellung ein. Auch hier zeigt die Literatur,  dass eine Abschätzung der Anzahl der Zellen schwierig ist (Messverfahren generell, dann die unterschiedlichen Strukturen in verschiedenen Gehirnarealen). Nach dem neuesten Übersichtsartikel zum Thema über die letzten
150 Jahre von Bartheld et.al. (2016) [vBBHH16] konvergieren die Schätzungen aktuell dahingehend, dass das Verhältnis der Gliazellen zu den Neuronen weitgehend konstant erscheint mit 1:1 und dass sich die Zahl der Gliazellen zwischen 40-130 Milliarden bewegt. Dabei gilt nach neuesten Erkenntnissen, dass sich die Gesamtzahl der Gehirnzellen nach dem anfänglichen Aufbau altersabhängig nicht (!) kontinuierlich abbaut. Dies geschieht nur bei spezifischen Krankheiten. Für die Modellrechnung habe ich dann die Zahl der Neuronen und Gliazellen mit jeweils 100 Milliarden angenommen (damit möglicherweise zu hoch).

Auch bei der Abschätzung der Anzahl der Sterne in der Milchstraße stößt man auf erhebliche Probleme. Ein kleiner Einblick in die Problematik findet sich in einem Artikel der NASA von 2015 [Mas15]. Viele Schätzungen konvergieren aktuell im Bereich zwischen 100 – 400 Milliarden Sterne, aber es könnten möglicherweise viel mehr sein. Die Erkenntnislage ist noch sehr unsicher. Für den geplanten Vergleich habe ich jetzt einfach mal angenommen, es seien 300 Milliarden. Sollten irgendwann bessere Zahlen verfügbar sein, dann könnte man diese stattdessen eintragen.

Die Idee ist, ein erstes ’Gefühl’ dafür zu bekommen, wie sich die Komplexität der ’Himmelskörper’ zur Komplexität von biologischen Lebensformen verhält.

III. ERMITTELTE SACHVERHALTE

Die Rechenvorschriften, mit denen ich gerechnet habe sowie die Ausführung dieser Rechenvorschriften finden sich unten im Anhang.

Führt man die ’Rechnungen durch und überträgt die Zahlen (grob) in eine Zeichnung, dann er gibt sich folgendes Bild 1:

Die Körpergalaxie des homo sapiens im quantitativen Vergleich zur Milchstrasse
Die Körpergalaxie des homo sapiens im quantitativen Vergleich zur Milchstraße

1) Die Körperzellen zusammen mit den Bakterien im Körper werden hier ’Body-Galaxy’ genannt und diese repräsentiert 100% aller Zellen.
2) Im Rahmen der Body-Galaxy haben die körperinternen Bakterien einen Anteil von ca. 73%, d.h. ca. 3/4 der Body-Galaxy. Über diese Bakterienpopulationen weiß die Mikrobiologie bis heute noch nicht all zu viel.
3) Alle Gehirnzellen machen in dieser Body-Galaxy etwa 0.15% aller Zellen aus.
4) Eine Galaxie vom Format der Milchstraße entspricht 0.2% der Zellen der Body-Galaxy und passt ca. 457 Mal in eine Body-Galaxy.

IV. PHILOSOPHISCHE ANMERKUNGEN

Die eben angeführte Zahlen und quantitativen Verhältnisse stehen erst einmal für sich. Insofern der homo sapiens, wir, nicht nur die Objekte der Betrachtung sind, sondern zugleich auch die Betrachter, jene, die die Wirklichkeit einschließlich unserer selbst beobachten und dann ’denken’ können, erlaubt unsere Denkfähigkeit uns, diese
Sachverhalte in alle möglichen Denkzusammenhänge einzubringen und mit ihnen ’zu spielen’. Von den unendlich vielen Aspekten, die man hier jetzt durchspielen könnte, im folgen drei.

A. Zusammenhang durch Funktionen

Aus Sicht der Zellen bildet ein menschlicher Körper eine Super-Galaxie unvorstellbaren Ausmaßes. Die Tatsache, dass eine einzelne Zelle ’autonom’ ist, in ihrem Verhalten nur sich selbst verpflichtet ist, eine einzelne Zelle von all den anderen Zellen auch nichts ’weiß’, dies wirft um so mehr die Frage auf, wie denn solch eine Super-Galaxie
von Zellen überhaupt funktionieren kann?

Durch die Mikrobiologie wissen wir heute, dass eine einzelne komplexe Zelle (d.h. eine ’eukaryotische Zelle’) selbst schon eine komplexe Struktur mit vielen zellähnlichen Unterstrukturen ist, in der sich Millionen von unterschiedlich komplexen Molekülen befinden, die miteinander interagieren; ebenso finden komplexe Interaktionen der Zelle mit ihrer Umgebung statt. Diese Interaktionen realisieren sich über molekulare Strukturen oder elektrische Potentiale (Die elektrischen Potentiale bilden sich durch Ionen, deren Elektronenverteilung ein negativ oder positiv geladenes elektrisches Feld erzeugt. Viele solcher Ionen können dann elektrische Potentiale erzeugen, die ’Wirkungen’ erzielen können, die man messen kann.)

Aus Sicht der Mathematik kann man diese Interaktionen als ’Funktionen’ beschreiben, in denen eine ’Region’ mittels molekularer Strukturen oder elektrischer Felder in einer anderen ’Region’ eine ’Veränderung’ bewirkt. Eine einzelne Zelle realisiert simultan viele tausende (Eine genaue Zahl kenne ich (noch) nicht.)  solcher Funktionen. Die Mikrobiologie weiß heute auch schon, dass solche Interaktionen nicht nur zwischen einzelnen Zellen (also von A nach B und zurück) stattfinden, sondern dass es große Zellverbände sein können, die mit anderen Zellverbänden interagieren (man denke an ’Herz’, ’Lunge’, ’Gehirn’ usw.). Allerdings setzen diese ’Makro-Funktionen’ die vielen einzelnen Funktionen dabei voraus.

Wenn z.B. ein Auge mit seinen ca. 1 Millionen Rezeptoren Energieereignisse aus der Umgebung registrieren und in neuronale Signale ’übersetzen’ kann, dann geschieht dies zunächst mal in 1 Million Signalereignisse unabhängig voneinander, parallel, simultan. Erst durch die ’Verschaltung’ dieser Einzelereignisse entstehen daraus
Ereignisse, in denen viele einzelne Ereignisse ’integriert’/ ’repräsentiert’ sind, die wiederum viele unterschiedliche Erregungsereignisse nach sich ziehen. Würde man immer nur die ’lokalen Funktionen’ betrachten, dann würde man nicht erkennen können, dass alle diese lokalen Ereignisse zusammen nach vielen Interaktionsstufen zu einem
Gesamtereignis führen, das wir subjektiv als ’Sehen’ bezeichnen. Will man sinnvoll über ’Sehen’ sprechen, dann muss man gedanklich alle diese lokalen Funktionen ’begreifen’ als ’Teilfunktionen’ einer ’Makro-Funktion’, in der sich erst ’erschließt’, ’wofür’ alle diese lokalen Funktionen ’gut’ sind.

In der Erforschung des menschlichen Körpers hinsichtlich seiner vielen lokalen und immer komplexeren Makro-Funktionen steht die Wissenschaft noch ziemlich am Anfang. Aber, wenn man sieht, wie schwer sich die Physik mit den vergleichsweise ’einfachen’ ’normalen’ Galaxien tut, dann sollten wir uns nicht wundern, dass die vielen Disziplinen, die sich mit den Super-Galaxien biologischer Körper beschäftigen, da noch etwas Zeit brauchen.

B. Gehirn so winzig

Im Laufe der letzten 100 und mehr Jahre hat die Einsicht in die Bedeutung des Gehirns zugenommen. Bisweilen kann man den Eindruck haben, als ob es nur noch um das Gehirn geht. Macht man sich aber klar, dass das Gehirn nur etwa 0.15% der Körper-Galaxie ausmacht, dann darf man sich wohl fragen, ob diese Gewichtung
angemessen ist. So komplex und fantastisch das Gehirn auch sein mag, rein objektiv kann es nur einen Bruchteil der Körperaktivitäten ’erfassen’ bzw. ’steuern’.

Durch die Mikrobiologie wissen wir schon jetzt, wie Körperzellen und vor allem Bakterien, über chemische Botenstoffe das Gehirn massiv beeinflussen können. Besonders krasse Fälle sind jene, in denen ein Parasit einen Wirtsorganismus chemisch so beeinflussen kann, dass das Gehirn Handlungen einleitet, die dazu führen, dass der Wirtsorganismus zur Beute für andere Organismen wird, in denen der Parasit leben will. (Siehe dazu verschiedene Beispiel im Buch von Kegel (2015) [Keg15]:SS.282ff)  Andere Beispiele sind Drogen, Nahrungsmittel, Luftbestandteile, die die Arbeitsweise des Gehirns beeinflussen, oder bestimmte Verhaltensweisen oder einen ganzen Lebensstil. Die Kooperation zwischen Gehirnforschung und anderen Disziplinen
(z.B. moderne Psychotherapie) nimmt glücklicherweise zu.

C. Bewusstsein: Was ist das?

Wenn man sieht, wie winzig das Gehirn im Gesamt der Körper-Galaxie erscheint, wird das Phänomen des ’Bewusstseins’ — das wir im Gehirn verorten — noch erstaunlicher, als es sowieso schon ist.

Schon heute wissen wir, dass diejenigen Erlebnisse, die unser Bewusstsein ausfüllen können, nur einen Bruchteil dessen abbilden, was das Gehirn als Ganzes registrieren und bewirken kann. Das – hoffentlich – unverfänglichste Beispiel ist unser ’Gedächtnis’.

Aktuell, in der jeweiligen Gegenwart, haben wir keine direkte Einsicht in die Inhalte unseres Gedächtnisses. Aufgrund von aktuellen Erlebnissen und Denkprozessen, können wir zwar – scheinbar ’mühelos’ – die potentiellen Inhalte ’aktivieren’, ’aufrufen’, ’erinnern’, verfügbar machen’, aber immer nur aktuell getriggert. Bevor mich jemand nach dem Namen meiner Schwestern fragt, werde ich nicht daran denken, oder meine Telefonnummer, oder wo ich vor zwei Monaten war, oder …. Wenn es aber ein Ereignis gibt, das irgendwie im Zusammenhang mit solch einem potentiellen Gedächtnisinhalt steht, dann kann es passieren, dass ich mich ’erinnere’, aber nicht notwendigerweise. Jeder erlebt ständig auch, dass bestimmtes Wissen nicht ’kommt’; besonders unangenehm in Prüfungen, in schwierigen Verhandlungen, in direkten Gesprächen.

Es stellt sich dann die Frage, wofür ist ein ’Bewusstsein’ gut, das so beschränkt und unzuverlässig die ’Gesamtlage’ repräsentiert?

Und dann gibt es da ein richtiges ’Bewusstseins-Paradox’: während die Ereignisse im Gehirn sich physikalisch-chemisch beschreiben lassen als Stoffwechselprozesse oder als elektrische Potentiale, die entstehen und vergehen, hat der einzelne Mensch in seinem Bewusstsein subjektive Erlebnisse, die wir mit ’Farben’ beschreiben können, ’Formen’, ’Gerüchen’, ’Klängen’ usw. Die Philosophen sprechen hier gerne von ’Qualia’ oder einfach von ’Phänomenen’. Diese Worte sind aber ziemlich beliebig; sie erklären nichts. Das Paradox liegt darin, dass auf der Ebene der Neuronen Ereignisse, die visuelle Ereignisse repräsentieren oder akustische oder olfaktorische usw.
physikalisch-chemisch genau gleich beschaffen sind. Aus dem Messen der neuronalen Signale alleine könnte man nicht herleiten, ob es sich um visuelle, akustische usw. Phänomene im Kontext eines Bewusstseins handelt. Subjektiv erleben wir aber unterschiedliche Qualitäten so, dass wir mittels Sprache darauf Bezug nehmen können.
Ein eigentümliches Phänomen.

Ein anderes Paradox ist der sogenannte ’freie Wille’. Die Vorstellung, dass wir einen ’freien Willen’ haben, mit dem wir unser Verhalten autonom bestimmten können, ist im kulturellen Wissen tief verankert. Bedenkt man die prekäre Rolle des Gehirns in der Körper-Galaxie, dazu die Beschränkung des Bewusstseins auf nur Teile der Gehirnereignisse, dann tut man sich schwer mit der Vorstellung, dass der einzelne Mensch über sein Bewusstsein irgendwie ’substantiell’ Einfluss auf das Geschehen seiner Körper-Galaxie nehmen kann.

Gerade die Gehirnforschung konnte uns immer mehr Beispiele bringen, wie eine Vielzahl von chemischen Botenstoffen über das Blut direkten Einfluss auf das Gehirn nehmen kann. Zusätzlich hatte schon viel früher die Psychologie (und Psychoanalyse?) an vielen Beispielen verdeutlichen können, dass wir Menschen durch falsche Wahrnehmung, durch falsche Erinnerungen und durch falsche gedanklichen Überlegungen, durch Triebe, Bedürfnisse, Emotionen und Gefühle unterschiedlichster Art das ’Falsche’ tun können.

Alle diese Faktoren können offensichtlich unsere unterstellte Freiheit beeinflussen und erschweren, können sie sie aber grundsätzlich aufheben?

Es gibt zahllose Beispiele von Menschen, die trotz vielfältigster körperlicher, psychischer und sozialer Erschwernisse Dinge getan haben, die die scheinbare Unausweichlichkeit solcher unterstellter Kausalitäten individuell unterbrochen und aufgehoben haben und zu Handlungen und Lebensverläufen gekommen sind, die
man als Indizien dafür nehmen kann, dass der Komplex ’Bewusstsein’ und ’freier Wille’ eventuell noch mehr überraschende Eigenschaften besitzt, als sie in der aktuellen – eher mechanistischen – Betrachtungsweise sichtbar werden.

Der Autor dieser Zeilen geht davon aus, dass es sogar ziemlich sicher solche weiteren Aspekte gibt, die bislang nur deshalb noch nicht Eingang in die Diskussion gefunden haben, weil die Theoriebildung im Bereich der Super-Galaxien der Körper und dann noch umfassender der gesamten  biologischen Evolution noch nicht allzu weit
fortgeschritten ist. Sie steht noch ziemlich am Anfang.

V. ANHANG : RECHENVORSCHRIFTEN

Für die einfachen Rechnungen habe ich die Sprache python (Siehe Rossum (2017) [RPDT17]) in Version 3.5.2 benutzt.

# hscomplex.py
# author: Gerd Doeben-Henisch
# idea: comparing the complexity of humans (homo sapiens, hs) with the milky way galaxy
# See paper: cognitiveagent.org, February-18, 2018

#######################
# IMPORT MODULES
########################
import math
#########################
# GLOBAL VALUES
##########################
bodycells = 37200000000000
inbodycells = 100000000000000
milkyway = 300000000000
bodygalaxy=bodycells+inbodycells
gliacells = 100000000000
ratioglianeuron = 1/1
neurons = gliacells *ratioglianeuron
braincells = neurons + gliacells
#########################
# CALCULATIONS
##########################
bodygalaxymilkywayunits=bodygalaxy/milkyway

print(’Number of Milky Way Objects possible within Body-Galaxy =’,bodygalaxymilkywayunits)
percentmilkywaybody=milkyway/(bodygalaxy/100)
print(’Percentage of Milky Way object within Body-Galaxy =’,percentmilkywaybody)
percentbrainbody=braincells/(bodygalaxy/100)
print(’Percentage of Brain object within Body-Galaxy =’, percentbrainbody)
percentbodybact=bodycells/(bodygalaxy/100)
print(’Percentage of body cells within body-galaxy =’,percentbodybact)
radiusinbody=math.sqrt((inbodycells/math.pi)*4)/2
radiusmilkyway=math.sqrt((milkyway/math.pi)*4)/2
radiusbodygalaxy=math.sqrt((bodygalaxy/math.pi)*4)/2
radiusinbodybodygalaxy=radiusinbody/radiusbodygalaxy
print(’Proportion of radius inbody cells to radius body galaxy =’,radiusinbodybodygalaxy)
radiusmilkywaybodygalaxy=radiusmilkyway/radiusbodygalaxy
print(’Proportion of radius milky way to radius body galaxy =’, radiusmilkywaybodygalaxy)
radiusbrain=math.sqrt((braincells/math.pi)*4)/2
radiusbraincellsbodygalaxy=radiusbrain/radiusbodygalaxy
print(’Proportion of radius brain to radius body galaxy =’, radiusbraincellsbodygalaxy)

VI. ANHANG : AUSFÜHRUNG VON RECHENVORSCHRIFTEN

(eml) gerd@Doeben-Henisch: ̃/environments/eml/nat$ python hscomplex.py
Number of Milky Way Objects possible within Body-Galaxy = 457.3333333333333
Percentage of Milky Way object within Body-Galaxy = 0.21865889212827988
Percentage of Brain object within Body-Galaxy = 0.1457725947521866
Percentage of body cells within body-galaxy = 27.113702623906704
Proportion of radius inbody cells to radius body galaxy = 0.8537347209531384
Proportion of radius milky way to radius body galaxy = 0.04676097647914122
Proportion of radius brain to radius body galaxy = 0.038180177416060626

QUELLEN

[AJL + 15] B. Alberts, A. Johnson, J. Lewis, D. Morgan, M. Raff, K. Roberts, and P. Walter. Molecular Biology of the Cell. Garland Science,
Taylor & Francis Group, LLC, Abington (UK) – New York, 6 edition, 2015.
[BS06] Niels Birbaumer and Robert F. Schmidt. Biologische Psychologie. Springer, Heidelberg, 6 edition, 2006.
[Keg15] Bernhard Kegel. Die Herrscher der Welt. DuMont, Köln (DE), 1 edition, 2015.
[Mas15] Maggie Masetti. How many stars in the milky way? blueshift, 2015. https://asd.gsfc.nasa.gov/blueshift/index.php/2015/07/22/how-
many-stars-in-the-milky-way.
[RPDT17] Guido van Rossum and Python-Development-Team. The Python Language Reference, Release 3.6.3. Python Software Foundation,
Email: docs@python.org, 1 edition, 2017. https://docs.python.org/3/download.html.
[vBBHH16] Christopher S. von Bartheld, Jami Bahney, and Suzana Herculano-Houzel. The search for true numbers of neurons and glial cells
in the human brain: A review of 150 years of cell counting. Journal of Comparative Neurology, 524(18):3865–3895, 2016.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

WAHRHEIT ALS UNABDINGBARER ROHSTOFF EINER KULTUR DER ZUKUNFT

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 20.Nov. 2017
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: cagent
Email: cagent@cognitiveagent.org

ÜBERSICHT


I Zukunft als Politischer Zankapfel 1
II Wahrheit als Chance 2
III Wahrheit als Betriebssystem einer Kultur  2
III-A Überwindung des Augenblicks . . . .2
III-B Das ’Äußere’ als ’Inneres’ . . . . . .2
III-C Das ’Innere’ als ’Außen’ und als ’Innen’ 3
III-D Fähigkeit zur Wahrheit . . . . . . . . 3
III-E Bindeglied Sprache . . . . . . . . . . 4
IV Wahrheit durch Sprache? 4
V Wahrheit in Freiheit 5
VI Energie 5
VII Wahrheit durch Spiritualität 6
VIII Intelligente Maschinen 7
IX Der homo sapiens im Stress-Test 8
X ’Heilige’ Roboter 8
XI Singularität(en) 9
XII Vollendung der Wissenschaften 10
Quellen: 11

 

ZUSAMMENFASSUNG

Nachdem es in diesem Blog schon zahlreiche
Blogbeiträge zum Thema Wahrheit gab, geht es in diesem
Beitrag um die wichtige Ergänzung, wie Wahrheit mit einer
Kultur der Zukunft zusammenspielt. Hier wird aufgezeigt,
dass eine Kultur der Zukunft ohne Wahrheit unmöglich
ist. Wahrheit ist der entscheidende, absolut unabdingbare
Rohstoff für eine Kultur der Zukunft.

Für den vollständigen Text siehe das PDF-Dokument.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

INDIVIDUUM – FREIHEIT – STRUKTUR. Ein ewiger Balanceakt

1. In der Tradition der Aufklärung, der französischen und nordamerikanischen Revolution, dann der UN-Menschenrechtsdeklaration – um nur einige wichtige Momente der Geschichte zu nennen – spielte u.a. der Gedanke des Individuums und der Freiheit eine prominente, wenn nicht zentrale, Rolle.

2. Vor dem Hintergrund der Erfahrung von absolutistisch-autokratischen Gesellschaftssystemen, in denen die ‚Spitze‘, die ‚oberen Klassen‘ alles waren und der Rest ein gesellschaftliches Nichts, war die Einsicht – die Rückbesinnung? – auf den Wert des einzelnen, auf die grundlegende Bedeutung jedes einzelnen im Ganzen, ein innovativer Gedanke mit revolutionärer Sprengkraft. Angesichts der Selbstherrlichkeit einer Aristokratie, in der sich die soziale Rollenbilder verselbständigt hatten gegenüber der Dynamik einer vielfältigen und komplexer werdenden Gesellschaft, war der Gedanke einer ‚Umwertung‘ von Rollen und Rechten zur Umformatierung des gesellschaftlichen Handelns kritisierend, umstürzend, Voraussetzung für ein ‚Change Management‘ ohne geordneten Prozess. Ein System mit Änderungsbedarf ohne geordneten Änderungsmechanismus erlaubt entweder nur ‚Weiter so‘ oder ‚abrupter Umsturz‘.

3. Das Großartige – und zugleich potentiell Selbstzerstörerische – der Formel ‚Freiheit, Gleichheit, Brüderlichkeit‘ lag in der Erkenntnis der grundlegenden Wertigkeit eines Individuums als Ursprung von gesellschaftlicher Wirklichkeit, als Potential gemeinsamen Lebens, als ‚Wunder in sich‘, das Wert war verteidigt und erhalten zu werden.

4. Dieser Impuls führte zum Zusammenbruch starrer absolutistischer-autokratischer Strukturen und zum Aufbruch in eine erhoffte und visionierte Alternative, die als solche natürlich noch nicht existierte. Zu wissen, was man nicht will ist ein unverzichtbares Veränderungsmoment; aber daraus ergibt sich nicht notwendigerweise automatisch der perfekte Plan für eine konstruktive Alternative.

5. Es verwundert daher nicht, dass dem Veränderungsimpuls der Bevölkerung zunächst viel Gewalt, viel Chaos, viele neues Unrecht folgte. Und es verwundert auch nicht, dass es mehrere kriegsreiche Generationen dauerte, bis es auf der Erde Gesellschaftssysteme gab, die man – plus minus – als ‚demokratische Gesellschaften‘ bezeichnen konnte.

6. Das eine war die Idee des grundlegenden Wertes des Individuums im Ganzen; das andere, neue, unbekannte, schwer zu Realisierende, war das komplexe Zusammenspiel einer ganzen Gesellschaft, um dem grundlegenden Recht auf individueller Freiheit ein gesellschaftliches Format zu geben, in dem sowohl elementare Bedürfnisse nach Freiheit, Gleichheit und Brüderlichkeit ein realer Raum gewährt wird, zugleich aber auch die sachlichen Notwendigkeiten eines gesamtgesellschaftlichen Funktionierens das nötige Gewicht und die notwendige alltägliche Realität gewinnt, damit der einzelne sich in einer funktionierenden Gesamtheit vorfindet, die tatsächlich grundlegende Freiheit zulässt, wo ‚Gleichheit‘ umgesetzt ist, wo ‚Brüderlichkeit‘ möglich ist. Das Zauberwort hier heißt ‚Struktur‘.

7. In der Naturgeschichte des Lebens auf der Erde kann man klar erkennen, dass die Komplexität des Lebens nur dort und nur dann ‚zunehmen‘ konnte, wenn es gelang, zuvor getrennte Elemente zu einem neuen funktionierenden Ganzen zu vereinen. Markant ist der Übergang von einer Zelle zu Vielzellern (wozu e 2.8Mrd Jahre gebraucht hat!); dann der Übergang von den kleinen Gruppen, Horden zu größeren Ansiedlungen, Ackerbau, Handel und Städten. Zeitgleich die Entwicklung von Regelsystemen (Gesetzen, Recht), symbolischen Sprachen, von komplexen Produktionsprozessen, usw.

8. Während man bei Pflanzen und einfacheren Tieren ‚Symbiosen‘, ‚Netzwerke‘, ‚Schwärme‘ und ‚Staatenbildungen‘ auf vergleichsweise einfache deterministische Strukturen zurückführen kann, beobachten wir beim Menschen neben seiner Fähigkeit des ‚einfachen Funktionierens‘ in einem ‚Prozess‘ die zusätzliche besondere Fähigkeit, des andauernden Lernens, des sich andauernden Veränderns, des potentiellen Verstehens und Erneuerns, eines flexiblen Kooperierens, eines potentiellen komplexen Verstehens, einer grundlegenden Fantasie zum Visionieren von impliziten Strukturen und völlig neuer Szenarien. Spielerisches, Wertschätzendes, und vieles mehr. Ja, man kann den Menschen zwangsweise auf elementare Verhaltensweisen und elementares Funktionieren reduzieren, aber damit verschleudert man ein unglaubliches Potential zu erheblich mehr. Kurzum, wenn man sieht, wie aus jedem Kind etwas Besonderes werden kann, wenn man ihm nur die Möglichkeit gibt, dann kann man erahnen, welches Potential in jeder Gesellschaft steckt.

9. Auf der anderen Seite können wir heute auch konkret anschaulich sehen, dass die Entwicklung des Potentials einzelner nur möglich ist, wenn der einzelne entsprechende ‚Kontexte‘ vorfindet, Ressourcen, Handlungsräume, Zeit, sie zu nutzen, Anleitungen, wie man sie nutzt, Wertschätzungen als Moment der Handlungsräume. D.h. die grundlegende Einsicht in das Potential eines Menschen, JEDES Menschen, muss ergänzt werden durch die Bereitstellung jener STRUKTUREN, die eine individuelle Entfaltung unter Berücksichtigung von Gleichheit und Brüderlichkeit ermöglichen.
10. Da ein ‚Anpassungsdruck‘ auf der Gesellschaft als ganzer lastet, müssen diese Strukturen so beschaffen sein, dass sie der freien Entfaltung maximalen Raum geben und zugleich dem ‚Überlebensdruck‘ einer Gesellschaft angemessen Rechnung trägt. In einer demokratischen Gesellschaft kann dies ausschließlich geschehen über öffentliche, geregelte, transparente Kommunikations- und Entscheidungsprozesse, in denen der gesellschaftliche Anpassungsdruck übersetzt wird in effektive Prozesse des gesellschaftlichen Überlebens, die aber dem individuellen Potential maximal Rechnung tragen. Je klarer der Überlebensdruck ist, je leistungsfähiger die transparenten Kommunikations-, Lern- und Entscheidungsprozesse, umso größer die Wahrscheinlichkeit, dass das Zusammenwirken von allen optimale Lösungen generiert.

11. Demokratische Gesellschaften verlangen von daher ein Maximum an Zusammenspiel im Medium von Kommunikation und transparenten Entscheidungen. Sie leben davon, dass eine hinreichende Mehrheit sowohl ‚motiviert‘ ist, sich ins Ganze einzubringen, als auch ‚fähig‘, die herausfordernden Aufgaben zu bewältigen.

12. Betrachtet man gegenwärtige demokratische Gesellschaftssysteme, so fallen einem viele Phänomene auf, die man als ‚Störsignale‘ deuten könnte, die einem Funktionieren des Ganzen widersprechen können bzw. tatsächlich widersprechen.

13. Das Phänomen der ‚Wahlmüdigkeit‘ aus Enttäuschung findet sich in den meisten demokratischen Gesellschaften und kann ein Indiz sein, dass aus Sicht des einzelnen nicht genügend Motivation vorhanden ist, sich mit dem Ganzen zu identifizieren.

14. Dazu gehört eine offensichtlich zunehmende neue Klassenbildung, dass Erfolgreiche in Politik und Wirtschaft sich abzusondern suchen von den ‚anderen‘. Dies wird noch verstärkt durch die Tendenz, Subgesellschaften zu bilden, in denen man mehr und mehr alle Lebensprozesse in ‚reiche Enklaven‘ verlagert, die zu einer Entfremdung von Teilmengen der ‚Erfolgreichen‘ mit dem Rest führt.

15. Man beobachtet die Tendenz, dass die Wirtschaft sich zunehmend verselbständigt: sie versteht sich nicht mehr sozial-politisch als konstruktives Element einer Gesellschaft, die als Ganzes funktionieren und Erfolg haben soll, sondern als ein isoliertes Subsystem, das sich global aufstellt und global Macht allokiert und dies nicht nur ohne Berücksichtigung lokaler Gesellschaftssysteme sondern mit dem immer offeneren Ziel, die lokalen Gesellschaften zu neutralisieren. Eine neue Form von absolutistischen-aristokratischen Zügen, einhergehend mit offener Menschenverachtung, nacktem Egoismus, ohne jede Verantwortung für das Ganze. Naturgeschichtlich erscheint dies wie eine bösartige Entartung, wie ein Krebsgeschwür, das sich aus dem größeren Zusammenhang des Lebens heraus zu lösen versucht.

16. Man beobachtet das enorme Anwachsen im Konsum von Drogen aller Art, die Zunahme von ethischer Zersplitterung, von einer Neutralisierung von Wissen durch ein Zuwenig an Wissensvermittlung, ein Zerbrechen klassischer sozialer Räume ohne erkennbarem gleichwertigen Ersatz, eine Zunahme an interkulturellem ‚Clash‘ von Verschiedenheit, die zum Bewältigen geeignete Prozesse benötigt, und manches mehr.

17. Neutral kann man alle diese Phänomene interpretieren als ‚Phänomene eines Veränderungsprozesses‘: das Anwachsen von ‚Neuem‘ erfordert neues Lernen, neues Verstehen, neues sich Verständigen, neues Regulieren, und dies alles braucht seine Zeit. Aber – und das lehrt uns die bekannte Geschichte – es gibt keine Garantie, dass sich komplexe Kulturen ‚halten‘ können. Viele großartige Gesellschaftssysteme der Vergangenheit, die ‚ewig‘ erschienen, sind dann irgendwann vollständig zusammen gebrochen, weil die konstruktiv-integrierenden Mechanismen sich als zu schwach erwiesen, um offensichtliche Herausforderungen konstruktiv unter Beteiligung von allen zu meistern. Missachtung der inneren Integration führt zwangsläufig zum Zerfall; da spielen ein paar Jahrzehnte keine Rolle.

Einen Überblick über alle Blogeinträge von cagent nach Titeln findet sich HIER: cagent.

Einen Überblick über alle Blogeinträge nach Titeln findet sich HIER: Blog gesamt.

DIE UNIVERSELLE KONFERENZ DER GOTTSUCHER – Oder die, die …. — Kurznotiz

1. Manchmal fragt mich jemand: ‚Glaubst Du an Gott?‘, und ich sage dann: ‚Wenn du mir erklären kannst, was Du unter ‚Gott‘ verstehst, kann ich Dir vielleicht sagen, ob ich an das glaube, was Du unter Gott verstehst oder nicht‘.

2. Nimmt man ernst, was man um sich herum sieht, dann gibt es ganz viele verschiedene Religionsgemeinschaften: viele Spielarten von Christen, viele Spielarten von Muslimen, viele Spielarten von Juden, viele Spielarten von Buddhisten, viele Spielarten von Hinduisten, viele Spielarten von ….

3. Ernsthafte Mitglieder dieser religiösen Gemeinschaften behaupten alle, an ‚Gott‘ zu glauben und sie versuchen ihr tägliches Lebens mehr oder weniger so zu gestalten, wie ihr Glaube an das, was sie selbst sich unter ‚Gott‘ vorstellen, es nahelegt.

4. Diese Religionen gibt es z.T. schon 2.500 bis 3.000 — oder mehr – Jahre. Das ist nicht ganz kurz …. Was auffällt ist, dass die offiziellen Vertreter dieser religiösen Gemeinschaften in der Vergangenheit noch niemals ernsthaft versucht haben, sich alle an einem Ort zu versammeln, um herauszufinden, worin denn möglicherweise die Gemeinsamkeit ihres Gottesglaubens besteht. Alle verhalten sich so, dass nur gerade sie selbst das ‚wahr Wissen‘ von Gott hätten und alle anderen unterschiedlich stark ‚verirrt‘ sind. In der menschenfreundlichen Variante ‚verzeiht‘ man den anderen ihren Irrtum und hofft darauf, dass die anderen ihren Irrtum eines Tages ‚einsehen‘ und sich dem ‚wahren Glauben‘ zuwenden. In der menschenunfreundlichen Variante erklärt man die ‚Anderen‘ zu ‚Verrätern‘, zu ‚Gefallenen‘, zu ‚Feinden‘, zu ‚Ungläubigen‘, die man bestrafen muss bis hin zur körperlichen Ausrottung.

5. Wenn das mit ‚Gott‘ Gemeinte wirklich so wichtig ist, wie die verschiedenen Vertretern der Religionen offiziell behaupten, dann verwundert es, warum keiner ernsthaft und aufrichtig die Frage stellt, wie Menschen denn überhaupt feststellen können, ob ein bestimmter Glaube an einen Gott ‚zutreffend’/ ‚wahr‘ ist oder nicht. Wenn man sieht, mit wie viel wissenschaftlichem Aufwand die Menschheit seit ca. 500 Jahren das innere der Natur und die Tiefen des Weltalls erforscht (mit atemberaubenden neuen Einsichten), dann überrascht es doch sehr, wie wenig die offiziellen Vertreter der vielen Religionen tun, um die Einsichtigkeit, die Verstehbarkeit, das Zutreffen ihren jeweiligen Gottesglaubens aufzuhellen.

6. Was tun die verschiedenen Vertreter der verschiedenen Religionen, wenn sie für ‚ihren Glauben‘ ‚werben’/ ‚missionieren‘? Wieweit hat der einzelne Umworbene eine reelle Chance, sich selbständig ein Urteil, eine Meinung zu bilden, frei, ohne psychologische Manipulationen?

7. Warum ist es so unmöglich, dass alle Religionen gemeinsam der Frage nachgehen, was an ihrem jeweiligen Glauben an Gott ‚gemeinsam‘ ist, ‚allen Menschen zugänglich‘, von ‚allen Menschen erfahrbar‘, von ‚allen Menschen verstehbar‘?

8. Die vielen sogenannten religiösen Konflikte in der Vergangenheit hatten sehr oft (meistens? immer) auch mit ‚Macht‘ zu tun, mit ‚Vorherrschaften‘, ‚Gebietsansprüchen‘, ‚wirtschaftlichen Vorteilen‘ und dafür war es wichtig, dass Religion nicht zu ‚empirisch‘, nicht zu ‚individuell‘, nicht zu ‚wahr‘ war, sondern zu Ritualen erstarrt waren, leicht indoktrinierbar und manipulierbar, so dass die Menschen nicht aus eigenem Urteil handelten, sondern als gelenkte Masse, die den steuernden Eliten Macht, Reichtum und (zweifelhafte) Ehre verschafften.

9. Im Kontrast dazu waren religiöse Menschen wie Buddha oder Jesus von Nazareth friedlich, menschenliebend, ohne einen Machtapparat, ohne Aufbau einer Organisation, ohne Unterwerfungsrituale, ohne Bevorzugung bestimmter Menschen, ohne Verurteilung anderer usw.

10. Nochmals, es fällt auf, wie extrem unkritisch offizielle Vertreter von Religionen sich selbst gegenüber sind. Obwohl wir seit Jahrhunderten immer besser verstehen, wie unser Wissen funktioniert, wie leicht und vielfältig jeder Mensch irren kann, wie oft große Irrtümer in die Welt kamen, weil bestimmte Meinungen lange nicht richtig überprüft wurden, ist nicht zu erkennen, dass die offiziellen Repräsentanten der großen Religionen ernsthaft vorstellen können, dass sie ‚irren‘ könnten. Diese Möglichkeit wird von vornherein kategorisch ausgeschlossen, obwohl nichts sicherer ist als dieses, dass jeder Mensch irren kann und sich auch im Laufe seines Lebens sehr oft irrt. In gewisser Weise ist ’sich Irren‘ auch eine Voraussetzung, um zu einem tieferen Verständnis zu kommen, vorausgesetzt, man erkennt seinen Irrtum.

11. Würden die offiziellen Vertreter von Religionen grundsätzlich einräumen, dass auch sie irren können, dann müssten sie ein großes Interesse daran haben, sich mit den anderen Religionen darüber auszutauschen, was denn die gemeinsamen Glaubensinhalte sind, wie sie erkennbar sind, wie sie verstehbar sind, wie sie gegen Missdeutungen geschützt werden können, und wie man sie heute in einer veränderten und sich beständig weiter veränderten Welt leben sollte. Und die religiösen Vertreter würden nicht nur ‚unter sich‘ darüber reden, sondern ‚mit allen‘, da jeder Mensch dazu wertvolle Beiträge liefern könnte.

12. Aktuell erwecken alle größeren Religionen eher den Eindruck, dass Hass, blinde Ideologien, Sprachlosigkeit (und große Unwissenheiten) die Gemüter beherrschen und dass die Sache mit Gott – sollte es ihn geben – irgendwo im Hintergrund vor sich hinwest; niemand scheint ein ernsthaftes Interesse an der ‚Sache Gottes‘ in dieser Welt zu haben. Der Umfang und die Bedenkenlosigkeit, mit der gegenwärtig in so vielen Ländern dieser unserer Welt Menschen gequält, verfolgt, unterdrückt, gegängelt, gefoltert und getötet werden, ist beispiellos. Wenn dies alles aus dem ‚Gottesglauben‘ der aktiven Menschenschänder folgt, dann brauchen wir diesen Gottesglauben eher nicht. Er hat auch nicht im entferntesten irgendetwas mit dem ‚Gott‘ zu tun, an den ich glaube, und von dem ich weiß, dass er alles erfüllt – sofern sich Menschen nicht explizit gegen sich selbst und gegen die Welt stellen, die sie hervorgebracht hat. Darin liegt eine tiefe Paradoxie: an der Stelle, wo das Leben in diesem Kosmos eine Form angenommen hat (homo sapiens), die sich sogar explizit gegen sich selbst wenden kann und sich dadurch – im positiven Fall – in einer bislang nie dagewesenen Eigenständigkeit ‚für etwas‘ entscheiden kann, an dieser Stelle finden wir nicht nur ’neues Licht‘ sondern auch viel ’neuen Schatten‘.

13. Mit der neuen Qualität des ‚eigenen Entscheidens‘ gewinnt das ‚mögliche Böse‘ in dieser unserer Welt eine ganz neue Wirklichkeit: diese neue Form der Freiheit — realisiert im hom sapiens — erlaubt es dem homo sapiens, sich auf der ganzen Breite gegen sich selbst, gegen das Leben im Universum, gegen das ganze Universum, und damit sogar gegen einen möglichen Gott zu wenden. Das ist potentiell das ‚totale Böse‘; die ‚Erfindung des Teufels‘ ist hier nur eine geschickte Ablenkung, eine billige Entschuldigung dafür, dass wir selbst genau das Böse verkörpern können, wenn wir unsere Grenzen, Schwächen und Fehler systematisch verleugnen.

14. Vor diesem Hintergrund ist die scheinbare Zunahme von religiösen Bewegung sehr zwiespältig: solange diese religiösen Bewegungen nicht wirklich wahrheitsfähig sind, ist mit Ihnen Intoleranz und eine ewige Menschen- und Lebens-verachtende Blutspur vorprogrammiert. Wer ernsthaft ‚wahrheitsunfähig‘ ist, der kann nur mit Verdrehungen und Lügen leben.

15. Die Deklaration der Menschenrechte 1948 und Gesellschaftsformen, die auf solchen Menschenrechten gründen, sind ein Lichtblick in der Geschichte des Lebens auf dieser unserer Erde (ohne dass damit schon die ‚perfekte‘ Form menschlicher Gesellschaften gefunden sein muss); die heute existierenden Religionen geben dagegen wenig Anlass, zu glauben, dass sie die tieferen Wahrheiten, die in und hinter den Menschenrechten stehen, auch nur ansatzweise verstanden hätten. Zumindest gibt es genügend offizielle Vertreter sowohl bei den Juden wie auch bei den Muslimen wie auch bei den Christen wie auch bei den …, die die Menschenrechte mit Füßen treten. Wie soll man dies deuten?

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

REDUKTIONISMUS, EMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 6

Vorheriger Beitrag Teil 5

Letzte Änderungen: 15.April 2013, 09:30h

WARNUNG – SPEKULATIV

1. Auf den Seiten 197-229 versucht Kauffman, die Besonderheiten des Phänomens ‚Geist‘ mit den Denkmodellen der Quantenphysik zu reflektieren. Und er warnt seine Leser, dass dieses Kapitel seines Buches vermutlich die wissenschaftlich unsicherste Passage im ganzen Buch sei.(vgl.S.197, 222). Auch macht er darauf aufmerksam, dass es mit Roger Penrose schon andere gab, die Ähnliches zu denken versucht haben.
2. [Anmerkung: Wer den Beitrag über Penrose in der englischen Wikipedia liest, wird feststellen, dass Penrose und seine Partner Hameroff in ihrer Hypothesenbildung sehr weit gehen und damit eine eigenständige Diskussion auf internationaler Ebene ausgelöst haben. Im Kontext ‚Quantenphysik‘ und ‚Bewusstsein/ Geist‘ wird auch Niels Bohr erwähnt sowie Eugen Wigner. Bei letzterem ist der Zusammenhang offensichtlich; bei Planck konnte ich es noch nicht verifizieren.]

NEUROWISSENSCHAFTEN ‚KLASSISCH‘

3. Ausgangspunkt für dieses Kapitel ist die Position der Neurowissenschaftler, so wie Kauffman sie sieht: sie nehmen das Gehirn als eine Ansammlung von Neuronen, die untereinander auf biochemische Weise im nicht-quantenphysikalischen Sinne kausal verknüpft sind; dies entspricht einem geschlossenen Raum kausaler Verknüpfung, in dem es zu jedem Ereignis eine erschöpfende Ursache gibt. Das, was wir im Alltag ‚Geist‘, ‚Bewusstsein‘ (inklusive ‚freiem Willen‘) nennen, ist in diesem Modell eine Eigenschaft dieser kausalen Maschinerie. Daraus ergibt sich dann, dass das ‚Bewusstsein‘ nicht diese kausale Maschinerie beeinflusst, sondern die kausale Maschinerie erzeugt die Phänomene des Bewusstseins bzw. das Bewusstsein überhaupt. Einen freien Willen gibt es in diesem Szenario daher nicht. Dies bedeutet, dass die einzelnen Menschen nicht moralisch verantwortlich sein können für das, was sie tun.(vgl. S.197f)

KEIN ABSOLUTER KAUSALER RAUM

4. Dieses sehr einfache, deterministische Bild vorausgesetzt [Anmerkung: was selbst ohne Quantenphysik m.E. so kaum haltbar ist] spekuliert Kauffman, welche neuen Perspektiven sich ergeben würden, wenn man die quantenphysikalischen Grundlagen aller Makrophänomene ernst nehmen würde. Da der quantenphysikalische Raum grundsätzlich ‚akausal‘ ist, würden letztlich alle ’scheinbar kausalen‘ Prozesse sich in einem umfassenden ‚akausalen Rauschen‘ auflösen. Letztlich wäre gar nichts mehr ‚kausal‘. Ob daraus tatsächlich etwas ‚Konstruktives‘ folgen würde, lässt Kauffman offen, aber zumindest wäre die vereinfachende ‚Abschliessung‘ aller interessanten empirischen Phänomene in einer deterministischen Feinstruktur aufgebrochen.(vgl. S.199)
5. [Anmerkung: Dass die bloße Annahme eines akausalen quantenphysikalischen Raumes als ‚Grundlage für alles‘ in gewisser Weise noch nichts erklärt, kann man an der Tatsache erkennen, dass nahezu alles, was das menschliche Weltbild ausmacht, auf ‚Regelmäßigkeiten‘ basiert, die sich vom allgemeinen ‚Rauschen‘ abheben. Dies bedeutet, dass der akausale quantenphysikalische Raum ‚als solcher‘ von sich aus nicht automatisch Erklärungen liefert, er bietet nur einen ‚Ausgangspunkt‘ für mögliche Erklärungen ‚regelmäßiger‘ Phänomene, die wir in diesem Zusammenhang als ‚emergent‘ begreifen, d.h. als Phänomene, die im akausalen quantenphysikalischen Raum ‚gründen‘, die aber in ihrem Zusammenhang und ihrer Komplexität Eigenschaften des quantenphysikalischen Raumes sichtbar machen, die allein aus seinen ‚Bestandteilen‘ nicht so ohne weiteres abgeleitet werden können. ]

IDENTITÄTSTHEORIE UND SO

6. Kaufmann zitiert in diesem Kontext beiläufig noch die Positionen der ‚Identitätstheorie‘, des ‚Dualismus‘, den ‚radikalen Idealismus eines Berkeley, zwei Sprachphilosophen Ryle und Searl, sowie zwei neuere Philosophen Flanagan und Churchland.
7. Zentral erscheint mir seine Bemerkung, dass das Faktum der ‚Bewusstheit als solcher‘ (‚awareness itself‘) unabhängig von allen angebotenen Interpretationsmodellen das primäre Phänomen darstellt, das es zu erklären und zu gewichten gilt. Die persönliche Erfahrung jedes einzelnen ist ‚privat‘ im strengsten Sinne; niemand anderes kann sie einsehen. Und was immer wir uns an Erklärungsmodellen erarbeiten, sie alle setzen diese Privatheit des subjektiven Erlebens als primäre Basis voraus.(vgl. S.199)
8. Kauffman zitiert Descartes in diesem Kontext als jener Philosoph, der das Selbstbewusstsein in Form eines sich gewissen Denkens als primären, einzig nicht bezweifelbaren Punkt aller Erkenntnis angenommen hatte Descartes (1596-1650). In seinen weiteren Reflexionen und Analysen hatte Descartes dann die Konkretheit, Veränderlichkeit und Zufälligkeit des Körpers, der ganzen Körperwelt und der darauf aufbauenden Wahrnehmung als ontologisch verschieden zu der Klarheit, Allgemeingültigkeit und Zuverlässigkeit des Denkens zum Ausgangspunkt genommen für das Postulat, dass das Denken einer anderen Substanz als jener der veränderlichen Körperwelt zugehöre. Daraus ergab sich für ihn eine Art ‚Dualismus‘ des Veränderlichen gegenüber dem Unveränderlichen. Diese Dualismus-Hypothese brachte eine Reihe von Denkproblemen mit sich.(vgl.S.199)
9. Aufgrund der fortschreitenden Erkenntnisse, wie der Körper, speziell das Nervensystem und hier das Gehirn, funktionieren, hat sich heute vielfach die Hypothese von der ‚Identität von Gehirn und Geist‘ durchgesetzt (hier als Oberbegriff für die verschiedenen Spielarten einer Gehirn-Geist-Identätstheorie. Diese Identitätstheorie schließt die Dualismus-Hypothese von Descartes aus. Kauffman sagt, dass er diese Gehirn-Geist-Identitätstheorie übernimmt, sie aber dann mit dem quantenphysikalischen Modell vereinen möchte.(vgl.S.199) In diesem Kontext sollte man auch die klassische Neurobiologie nennen, für die Kauffman als Vertreter Christof Koch zitiert. Diese nimmt an, dass es zu allen Phänomenen des Bewusstseins entsprechende neuronale Strukturen und Prozesse gibt, die kausal verantwortlich sind für das Auftreten der bewussten Ereignisse. Im Detail stellen sich hier eine Menge von ungelösten Fragen. Auch kann man von den neurologischen Daten D_nn in keiner Weise direkt auf Phänomene (= Ereignisse des individuellen Bewusstseins) D_ph schliessen. Ein geeigneter theoretischer Rahmen fehlt. (vgl. S.202f)
10. [Anmerkung: Wie schon verschiedentlich in diesem Blog angemerkt, ist die Bezeichnung ‚Geist-Identitätstheorie‘ aus philosophischer Sicht mindestens unglücklich in der Wortwahl. Da die Neurowissenschaften empirisch Daten D_nn aus der 3.Person-Perspektive haben, Daten zum Selbstbewusstsein D_ph aber nur in der 1.Person vorliegen, haben wir zwei verschiedene Datenbereiche, die ontologisch vollständig verschieden sind (D_nn cut D_ph = 0). Hier von einer ‚Identität‘ zu reden ist sehr irreführend und sachlich falsch. Denkbar wäre, dass es zu jedem Datenbereich eine Theorie TH(D_nn), TH(D_ph) gibt (bis heute hat dies aber noch niemand geschafft), und sich zwischen den verschiedenen Theorien irgendwelche Abbildungsbeziehungen konstruieren lassen (wer wird der erste sein?). Rein formal hätten wir dann irgendwelche ‚Morphismen‘, deren ontologische Deutungen dennoch keine Identität zulassen würden. Es scheint, dass sich die Philosophen die Sache mit der Identitätstheorie etwas einfach machen. Eine solche korrigierte Formalisierung führt aber weder zurück zu einem Dualismus a la Descartes noch zu einem Idealismus a la George Berkeley (1685-1753). Dies sollte an anderer Stelle weiter diskutiert werden.]

SPRACHNAHE PHILOSOPHIE

11. Kauffman erwähnt auch noch die ’sprachnahen‘ Philosophen Gilbert Ryle (1900 – 1976) und John Searle (1932 – ), die bei ihren Analysen des Verhaltens (einschließlich Sprechens) auf eine Einbeziehung des Begriffs ‚Bewusstsein‘ verzichteten mit der Begründung, dass der Begriff ‚Bewusstsein‘ kaum klar zu fassen sei. Damit wiederholen Sie aber eigentlich nur Positionen von Ludwig Wittgenstein (1889 – 1951), der die Problematik jeglicher sprachlicher Bedeutung zuvor schon in vielfältigen Analysen aufgedeckt hatte.(vgl.S.200)
12. [Anmerkung: entsprechend der allgemeinen Erkenntnistheorie, die den Überlegungen in diesem Blog zugrunde liegen, haben wir es grundsätzlich mit drei heterogenen Datenbereichen zu tun (D_nn, D_ph, D_sr (= Verhalten, 3.Person)), deren saubere Aufarbeitung und Integration in einer umfassenden Theorie bis heute nicht einmal in Ansätzen vorliegt. Es gibt ja nicht einmal Konsensus über die Besonderheit dieser drei Datenbereiche geschweige denn einen Konsens, dass und wie man damit umgehen soll. Diesen Mangel an erkenntnistheoretischem und dann auch wissenschaftstheoretischem Konsens merkt man überall auf Schritt und tritt.]
13. Kauffman erwähnt auch noch die Philosophen Paricia Smith Churchland (1943-) und Owen Flanagan (1949 – ) im Kontext der Diskussionen zur ‚Einheit des Bewusstseins‘. Während das Bewusstsein in der subjektiven Perspektive als ‚eines‘ erscheint deuten die medizinischen Befunde drauf hin, dass sich das Bewusstsein aus vielen Teilleistungen zusammensetzt, die einzeln und partiell verändert werden oder ganz ausfallen können, ohne dass deswegen das subjektive Gefühl eines ‚einzigen einen Bewusstseins‘ verschwindet.(vgl. S.200)

STARKE KI

14. Es wird dann die sogenannte ‚Starke Künstliche Intelligenz-Hypothese‘ erwähnt, die annimmt, dass bei einer genügend großen Anzahl von verknüpften rechnenden Elementen ‚ab einem bestimmten Punkt automatisch‘ ‚Selbstbewusstsein‘ entstehen würde. Als einziges hartes Argument gegen diese Hypothese führt Kauffman die die Hypothese an, dass die starke KI-Hypothese voraussetze, dass diese intelligenz ‚algorithmisch‘ sein müsse und dass nach Kauffman der ‚Geist‘ (‚mind‘) vermutlich niht algorithmisch sei.(vgl. S.201f)
15. [Anmerkung: Die Formulierung der starken KI-Hypothese (’strong artificial intelligence hypothesis‘, ’strong ai-hypothesis‘) geht zurück auf den Philsophen John Searl (s.o.) und ist alles andere als sehr klar. Nicht nur sind die verwendeten Begriffe in sich oft unscharf, sondern – wie die sehr ausufernde Diskussion zeigt – ist die ganze Problemstellung alles andere als klar. Mit einem Satz festzustellen, dass sich das Problem erledigt habe, weil klar sei, dass der ‚Geist‘ nicht algorithmisch sei, stellt daher möglicherweise eine grobe Vereinfachung dar. Abgesehen davon spring Kaufman von dem Begriff ‚Selbstbewusstsein‘ einfach zum Begriff ‚Geist‘ dabei unterstellend, dass beide Begriffe hinreichend ähnlich seien. Das aber ist eine schwierige Frage. Ich sehe keinen einfachen Zusammenhang zwischen beiden Begriffen. ]

SELBSTBEWUSSTSEIN UND QUANTENPHYSIK

16. Den nächsten sehr langen Abschnitt leitet Kauffman ein mit der Bemerkung, dass er und Penrose davon ausgehen, dass das Selbstbewusstsein (‚consciousness‘) von sehr speziellen physikalischen Bedingungen abhängt. [Anmerkung: Eine Assoziation zu Descartes kühner Arbeitshypothese, die denkende Materie (res extensa) mit der kontingenten Materie (res extensa) über die ‚Zirbeldrüse‘ verknüpft zu denken, drängt sich unwillkürlich auf. Descartes wusste nicht wirklich, was dieses ‚Selbstbwusstsein‘ mit dem ‚Ich denke‘ genau ist; es erschien ihm ‚anders‘ als die kontingente materielle Körperwelt. Um diesen logischen Bruch denkerisch zu kitten erfand Descartes die Hypothese mit der Zirbeldrüse. Niemand würde sie heute so nehmen, wie Descartes sich das gedacht hatte. Doch das Vorgehen von Kauffman an dieser Stelle wirkt ähnlich. Bislang konnte er in keiner Weise erklären, was er wirklich mit ‚Selbstbewusstsein‘ oder gar ‚Geist‘ meint. Dennoch entwickelt er eine neue Hypothese, dass bestimmte quantenphysikalische Besonderheiten die Grundlage für eben jenes Unbekannte sein könnten… Rein logisch ersetzt hier die Spekulation über die Quantenphysik den cartesischen Begriff der Zirbeldrüse ohne zu große Aussicht auf mehr Klarheit (allerdings erweitert sich der Raum möglicher Hypothesen natürlich erheblich und ich stimme Kauffman soweit zu, dass jede tatsächlich weiterführende Antwort nur unter Einbeziehung der Quantenphysik funktionieren wird). ](vgl. S.203f)
17. Das leitende ‚Motiv‘ für die Einbeziehung der Quantenphysik ist das schon zuvor mehrfach erwähnte Argument, dass der menschliche Geist (‚mind‘) ’nicht algorithmisch‘ sei, was nach Kauffman nicht impliziert, dass er völlig ‚akausal‘ (‚acausal‘) sei. [Man beachte, das er beständig zwischen den Begriffen ‚Geist‘ (‚mind‘) und ‚Selbstbewusstsein‘ (‚consciousness‘) hin und her springt obgleich beide Begriffe nach meinem Verständnis sehr verschieden sind und beide Begriffe bislang sich jeder Definition weitgehend entziehen. Man könnte stattdessen auch einfach von ‚S‘ und ‚G‘ reden, diese wechselweise vertauschen und davon sprechen, dass sie nicht algorithmisch seien. Die argumentative Luft, in der sich Kauffman hier bewegt, ist sehr dünn geworden. Daneben ist auch die Aussage, ‚G‘ bzw. ‚S‘ sei nicht algorithmisch letztlich kaum zu verstehen. Ist doch mehr oder weniger unklar, was es heißen würde, dass S-G ‚algorithmisch‘ seien (das hatte Kauffman zuvor nicht wirklich erklärt. Aber er hat dafür argumentiert, dass es nicht so sei…).] (vgl. S.204)
18. Die Einbeziehung der Quantenphysik führt zu dem generellen Paradox, dass die Quantenwelt als solche nur aus Wahrscheinlichkeitsverteilungen besteht, die als solche ‚akausal‘ sind, während die ‚reale = makroskopische‘ Welt aktuelle konkrete Instanzen präsentiert, die in bestimmten Perspektiven ‚kausale Muster‘ erkennen lassen.(vgl. S.204f) Kauffman zitiert dann Richard Feynman (1918 – 1988) mit Beispielen, die diese Eigenschaften illustrieren sollen. Der entscheidende Punkt aber ist der Übergang vom unbeschränkten Quantenzustand zu einer ‚Aktualisierung‘, bei der/ in der wichtige Quanteninformationen verlorengehen. Als Erklärungsversuch für diesen Übergang verweist Kauffman auf die Dekohärenztheorie als zur Zeit am meisten akzeptierte theoretische Beschreibung dieser Aktualisierungsphänomene.(vgl. SS.205-208)
19. Es ist genau dieses Dekohärenzphänomen was Kauffman dann aufgreift, um damit die Interaktion zwischen einem ‚quantenphysikalischen kohärentem selbstbewussten Geist (qkSG)‘ und ‚Aktualisierungen in der klassischen physikalischen Welt‘ zu interpretieren.[Anmerkung: War zuvor schon der Status der Begriffe ‚Selbstbewusstsein (S)‘ und ‚Geist (G)‘ je für sich schon unklar, wird diese Unklarheit durch die Kombination ’selbstbewusster Geist (SG)‘ (‚conscious mind‘) nicht unbedingt besser.] Auf jeden Fall ist die Einwirkung dieses qkSG auf die Materie nicht kausal. Andererseits stellt Kauffman fest, dass der Vorgang der Dekohärenz bislang kaum verstanden ist. (vgl. S.208) [Anmerkung: Damit verknüpft sich die unklare Bedeutung von SG mit der Unklarheit der postulierten Dekohärenz. ] Dann setzt Kauffman den bislang kaum fassbaren Begriff qkSG mit der ‚res cogitans‘ von Descartes gleich und die aktualisierte Materie mit der ‚res extensa‘.(vgl. S.209). [Anmerkung: Dies ist eine stimulierende Überlegung, aber wenn vor der Einführung von qkSG schon keine wirkliche Bedeutung für SG – geschweige denn qkSG – verfügbar war, dann führt uns diese Gleichsetzung auch nicht weiter. Descartes hatte keine wirkliche Definition für seine ‚res cogitans‘. Bei ihm war es eine Vermischung von phänomenalen Eigenschaften erweitert um Spekulationen über eine mögliche allgemeine (ideale) Natur des ‚Geistes‘, ein Begriff, der als solcher keine wirkliche Bedeutung besitzt. Möglicherweise könnte man in einer ‚Metatheorie‘ zur Phänomenologie ein paar allgemeinere Begriffe ‚jenseits der Phänomene‘ einführen, ihr ontologischer Status wäre aber unklar. Descartes hat dies nicht getan und ich kenne auch keinen anderen Philosophen, der dies bislang wirklich geschafft hat. Den cartesischen Begriff ‚res cogitans‘ hier zu benutzen täuscht daher eine Bedeutung vor, die es so nicht gibt.]
20. In diesem Kontext führt Kauffman auch den Begriff ‚immateriell‘ (‚immaterial‘) ein und definiert ihn als eine mögliche Eigenschaft im quantenphysikalischen Raum, die ’nicht objektiv real‘ ist. (vgl. S.209)
21. Interessant ist auch das Phänomen, dass ein kohärenter quantenphysikalischer Zustand beim Auftreten von Dekohärenz nicht aufgehoben werden muss. Es gibt Beispiele dafür, dass Dekohärenz auftreten kann und der kohärente Zustand bleibt weiter bestehen bzw. dass es Mechanismen gibt, Kohärenz/ Dekohärenz kontrolliert zu nutzen. Dazu gehören auch neuere Modelle, wie Quanten-Computer funktionieren könnten. (vgl. SS.210-214) Aufgrund eigener Untersuchungen hält Kauffman es für möglich, dass jede Zelle so strukturiert ist, dass kohärente quantenphysikalische Austauschprozesse zwischen den Proteinen möglich sind. (vgl. S.220) Das Phänomen der Qantenverknüpftheit (‚quantum entanglement‘) verweist zusätzlich auf das Phänomen, dass Quanten in beliebiger Entfernung voneinander gemeinsame Eigenschaften haben können. (vgl. S.222)

REDUKTIONISMUS ABGEMILDERT DURCH EMERGENZ

22. Kauffman stellt dann nochmals fest, dass im Falle, dass seine Überlegungen zur Quantennatur des Geistes stimmen würden, also die angenommene Verlagerung des Geistes in den Quantenraum, der über Kohärenz/ Dekohärenz mit dem makroskopischen Raum der Körper interagiert, dass diese Annahme auch eine Art ‚Reduktionismus‘ darstellen würde, einen Reduktionismus, den er zu Beginn seines Buches ja gerade bekämpft hat. Er schwächt dann aber ab, indem er darauf verweist, dass sich aus diesem Reduktionismus von Geist auf quantenphysikalische Strukturen nichts deterministisch ableiten lässt. Nahezu alle Phänomene der biologischen Evolution repräsentieren Strukturen, die sich in dieser Konkretheit aus dem vorausgesetzten quantenphysikalischen Raum nicht voraussagen lassen. (vgl. S.222f)

DIE HARTEN ARGUMENTE GEGEN DEN GEIST HARREN EINER ANTWORT

23. Abschließend zu seinem Kapitel über die Hypothese, den ’selbstbewussten Geist‘ quantenphysikalisch zu interpretieren, listet Kauffman nochmals drei zentrale philosophische Argumente gegen die Annahme eines ‚Geistes‘ als unterschieden vom Gehirn an, die beantwortet sein wollen.
24. Als erstes verweist er nochmals auf den Ephiphänomenalismus, der die geistigen Phänomene als Begleiterscheinungen einer aktiven neuronalen Maschinerie sieht, da es bislang an überzeugenden Argumenten fehlt, die erklären, wie der ‚Geist‘ (für den es als solchen keine überzeugende Beschreibung gibt), auf das Gehirn, auf den Körper einwirken kann.(vgl. S.224) Dazu gehört auch das Problem, dass es völlig unklar sei, wie ‚Geist‘ direkt auf ‚Geist‘ wirken könne ohne Einbeziehung neuronaler Prozesse. (vgl. S.224f) Kauffman verweist darauf, dass, könnte man die Hypothese einer quantenphysikalischen Interpretation eines selbstbewussten Geistes qkSG beweisen, sich diese Probleme auflösen würden, da ein qkSG auf vielfache Weise mit sich selbst interagieren könnte ohne über den Umweg neuronaler Prozesse und doch zugleich auch über Dekohärenz neuronale Prozesse beeinflussen könnte. (vgl. S.225f)
25. Als zweites Problem erwähnt Kauffman das Problem der subjektiven Erfahrung selbst, oft das Problem der Qualia (DE)/ Qualia (EN) genannt. Hier sagt Kauffman, dass es bislang völlig unklar ist, ob und wie eine quantenphysikalische Interpretation von Geist hier neue Interpretationsansätze liefern kann. [Anmerkung: Schaut man in die Wikipediastichworte – sowohl in der deutschsprachigen wie auch in der englischsprachigen Version – nach, wird man schnell feststellen können, dass die Sachlage in diesem Bereich nur als ‚verworren‘ bezeichnet werden kann.] Allerdings bemerkt Kauffman zurecht, dass wir aus der Tatsache, dass momentan noch keiner eine schlüssige Erklärung auf der Basis der Quantenphysk anbieten kann, auch nicht folgt, dass es keine gibt. Aktuell ist nicht auszuschließen, dass es später mal eine brauchbare Erklärung geben kann. (cgl. S.226f)
26. Das dritte und letzte genannte Problem ist das Phänomen des freien Willens (EN)/ freien Willens (DE). Kauffman thematisiert zunächst den Aspekt des ‚Nicht-Determiniert-Seins‘ als einer Forderung an das Gegebensein eines freien Willens. Würde die quantenphysikalische Interpretation stimmen, dann sähe er hier eine Möglichkeit, das Determinismusproblem zu lösen. Bezüglich des zweiten Aspekts der ‚moralischen Verantwortung‘ bleibt er einen Hinweis schuldig. (vgl.S.227f) [Anmerkung: Liest man sich in die Wikipediastichworte ein, so sieht man nicht nur, dass es – wie meistens – zwischen der deutschen und der englischen Version große Unterschiede gibt, sondern wie vielschichtig und damit letztlich unklar das Konzept des freien Willens ist. Generell spielt es in der Alltagskultur der westlichen Länder eine zentrale Rolle, insbesondere im Rechtssystem, aber seine philosophische Behandlung ist alles andere als zufriedenstellend.]
27. Damit ist das Ende der beiden Kapitel über den Geist erreicht. Trotz vieler kritischer Anmerkungen im Detail – eine abschließende Reflexion wird noch folgen – waren dies außerordentlich anregende Kapitel. Für Kauffman war es wichtig, zu zeigen, dass das Phänomen des ‚Selbstbewusstseins‘ [hier lässt er den Begriff ‚Geist‘ wieder mal weg] ein natürliches Phänomen ist, ein genuiner Teil der Evolution, den zu erklären, es keines ‚Schöpfergottes‘ (‚creator god‘) brauche.(vgl. S.229)
28. [Anmerkung: Seinen Schlusssatz, dass man für dies alles keine Annahme über einen ‚Schöpfergott‘ brauche, macht natürlich nur Sinn, wenn man den Begriff ‚Schöpfergott‘ in einer Weise definiert, der den bekannten naturwissenschaftlichen Daten zum evolutionären Prozess widerspricht. Dies muss aber keinesfalls so sein. Denn schon in der jüdisch-christlichen Tradition gibt es ja nicht einen einzigen, klar definierten Gottesbegriff, sondern die vielen verschiedenen Schriften der Bibel zeichnen sehr unterschiedliche Bilder. Dazu kommt, dass nirgends explizit von der Evolution die Rede ist, da ja die Menschen zu den Zeiten, als die Texte der Bibel verfasst worden sind, von all dem nichts wussten. Und die wenigen Texte, die direkt Bezug nehmen auf die Entstehung der bekannten Welt – insbesondere die beiden sogenannten ‚Schöpfungsberichte‘ zu Beginn des Buches Genesis – sind sprachlich und inhaltlich so verschieden (weil sie aus verschiedenen Zeiten von verschiedenen Autoren stammen), dass sich jede weiterreichende Interpretation auf der Basis dieser beiden Texte verbietet. Zumindest in der christlichen Tradition gibt es kein klar definiertes Bild eines Schöpfergottes, das den neueren naturwissenschaftlichen Erkenntnissen entgegen stehen würde (wobei man bedenken sollte, dass sich innerhalb der Wissenschaft die naturwissenschaftlichen Bilder von der Welt mindestens seit Galilei immer wieder und stark verändert haben. Gerade in unserer Zeit durchläuft die Wissenschaft in vielen Bereichen wieder einmal grundlegende Korrekturen, deren Ende noch gar nicht abzusehen sind). Das Wenige, was sich von einem christlichen Gottesbegriff ableiten lässt deutet eher auf eine Art ‚Koevolution von Allem‘ hin, in der dem Leben (speziell dem Menschen?) eine besondere Rolle zugedacht ist. Worin die genau besteht, ist eher unklar und muss von den Handelnden selbst schrittweise ermittelt werden (falls es überhaupt eine mögliche Klärung gibt). Ich habe nicht den Eindruck, dass sich innerhalb des Christentums irgendjemand für diese Klärung des Gesamtzusammenhangs ernsthaft interessiert. Man hört höchstens immer wieder von obskuren Abwehrschlachten von sogenannten ‚Fundamentalisten‘, die offensichtlich ihre eigene Bibel nicht kennen.]

Die Fortsetzung findet sich HIER: Teil 7.

Ein Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER