Archiv der Kategorie: Wahrscheinlichkeit

WISSENSCHAFT IM ALLTAG. Popper 1989/1990

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 19.-21.Februar 2022, 14:05h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Vorbemerkung

Bei diesem Beitrag handelt es sich um eine Fortsetzung der vorausgehenden Besprechung von Popper’s erstem Artikel „A World of Propensities“ (1988, 1990). In diesem neuen Post steht der zweite Artikel von Popper im Zentrum „Towards an Evolutionary Theory of Knowledge“ (1989,1990)[0]. Der Text von Popper geht zurück auf seine erste öffentliche Rede für die Alumni der London School of Economics 1989, 40 Jahre nach seiner Ernennung zum Professor für Logik und wissenschaftliche Methoden an der L.S.E. Der Text des Artikels wurde von ihm gegenüber der ursprünglichen Rede leicht erweitert.

Rückblick als Zusammenfassung

(Mit eigenen Worten …)

Im vorausgehenden Text hatte Popper sehr grundsätzlich die Idee entwickelt, dass in der Abfolge beobachtbarer Ereignisse mit möglichen Häufigkeiten ‚mehr enthalten‘ ist als bloß ein ‚wiederholtes Auftreten‘. Ereignisse in der uns umgebenden Ereigniswelt — mit unserem Körper ebenfalls als ein Ereignis darin — stehen nicht beziehungslos im Raum, sondern stehen in einem realen Zusammenhang mit allem anderen, kontinuierlich eingebettet in reale Wechselbeziehungen vielfältiger Art, und dieser Zusammenhang dauert an als ‚Gegenwart‘, in der sich diese realen Konstellationen in Form von ‚Wirkungen‘ manifestieren. Die Wirklichkeit erscheint in dieser Sicht als ein ‚Prozess‘, in dem alles mit allem verbunden ist und sich durch die kontinuierlichen ‚Wirkungen‘, die von den einzelnen Komponenten ausgehen, sich selbst kontinuierlich auch verändern kann. Eine Wirkung, die innerhalb solch eines dynamischen Prozesses als ‚Ereignis‘ beobachtbar (= messbar) wird, muss man daher als eine ‚Tendenz‘ (‚propensity‘) begreifen, die ‚vorkommt‘, weil es einen realen Zusammenhang gibt, der sie bedingt. Tendenzen kann man daher verstehen als ‚Geräusche des Daseins‘, ‚Mitteilungen des So-Seins‘, oder als ‚Sound der Welt‘. Man kann es beim bloßen Wahrnehmen, beim Sound als solchem, belassen, oder man kann den Sound als ‚Spur‘ sehen, als ‚Zeichen‘, als ‚Abdruck von etwas‘, das sich ‚mitteilt.

Popper legt Wert darauf, dass die einzelnen Töne des Sounds, die einzelnen Ereignisse, weder ‚deterministisch‘ sind noch ‚rein zufällig‘. Irgendetwas dazwischen. Das Auftreten dieser Töne kann ‚Muster‘ andeuten, ‚Regelhaftigkeiten‘, durch die unser Denken angeregt werden kann, zwischen aufeinander folgenden Ereignissen ‚Beziehungen‘ zu sehen, ‚Zusammenhänge‘, aber diese Beziehungen sind aufgrund der Art ihres Auftretens ‚fragil‘: sie können auftreten mit einer gewissen Häufigkeit, phasenweise vielleicht sogar mit einer gewissen ‚Konstanz der Häufigkeiten‘, aber es gibt ‚keine absoluten Garantien‘, dass dies immer so bleiben wird. Im Alltag neigen wir dazu, solche sich wiederholenden ‚Beziehungen‘ in ‚Hypothesen‘ umzuwandeln, an die wir die ‚Erwartung‘ knüpfen, dass sich ein solches hypothetische Muster reproduziert. Falls ja, fühlen wir uns ‚bestätigt‘; falls nein, steigen Zweifel auf, ob wir uns mit unserer Annahme geirrt haben. Im einen Grenzfall, wenn das Muster sich immer und immer wiederholt, neigen wir dazu es als ‚feste Regel‘, als ‚Gesetz‘ zu sehen. Im anderen Grenzfall, wenn das Muster sich trotz aller Versuche, es als Ereignis zu reproduzieren (Experiment, Test), nicht wieder einstellt, dann neigen wir dazu, unsere ‚Hypothese‘ wieder zu verwerfen. Doch zwischen ‚Annahme‘ eines Musters als ‚gesetzmäßig‘ und als ‚verworfen‘ liegt ein Raum voller Schattierungen. Der bekannte Spruch ‚Die Hoffnung stirbt zuletzt‘ kann andeuten, dass das ‚Verwerfen‘ einer Hypothese — je nach Art und Stärke der Erwartungen — sehr lange hinausgezögert werden kann … manche ‚glauben‘ auf jeden Fall, dass es irgendwie doch möglich sein kann, egal was passiert …

Diese Sichtweise Poppers deckt sich nicht mit einer theoretischen (mathematischen) Wahrscheinlichkeit, nicht mit einer rein subjektiven Wahrscheinlichkeit, auch nicht mit einer deskriptiven (empirischen) Wahrscheinlichkeit, selbst wenn es jeweils ‚Überschneidungen‘ gibt. Eher ist es eine Kombination von allen Dreien plus eine charakteristische Erweiterung:

  1. Wenn man beginnt, beobachtbare Ereignisse zu ’notieren‘, zu ‚protokollieren‘ und sie nach verschiedenen formalen Kriterien ‚anzuordnen‘ ohne weiter reichenden Interpretationen zu formulieren, dann bewegt man sich im Feld einer empirischen deskriptiven Wahrscheinlichkeit, die mit Häufigkeiten arbeitet. Damit würde auch Popper anfangen.
  2. Wenn man diese ‚empirischen Befunde‘ dann versucht in weiter reichende ‚Beziehungen‘ einzuordnen, dann braucht man eine theoretische Struktur. Eine solche bietet die theoretische Wahrscheinlichkeit. In ihr kann man beliebig viele Strukturen (= Modelle, Theorien) definieren und versuchsweise in Beziehung setzen zu empirischen Befunden. Je nach Modell kann man dann die empirischen Befunde unterschiedlich interpretieren und daraus unterschiedliche Voraussagen ableiten. Im Experiment kann man weiter versuchen, zu überprüfen, welches angenommene Modell sich ‚mehr‘ bestätigt als ein anderes.
  3. Jeder einzelne Mensch bildet im Alltag automatisch sein ’subjektives Modell‘ von Wahrscheinlichkeiten aufgrund seiner Alltagserfahrung. Dies kann sich auf Dauer als ‚mehr oder weniger zutreffend‘ erweisen. Würde jemand versuchen, seine Alltagserfahrung ‚wissenschaftlich zu analysieren‘ würde er sowohl eine ‚deskriptive‘ Wahrscheinlichkeit ausbilden können wie auch eine ‚theoretische‘ Wahrscheinlichkeit.
  4. Die Sichtweisen (1) – (3) zwingen nicht dazu, jenseits der beobachtbaren und klassifizierbaren Ereignisse eine ‚reale Welt von Kontexten (mit Situationen als Teilaspekten)‘ anzunehmen, deren reale Beschaffenheit so ist, dass von ihr ‚Wirkungen‘ ausgehen, die sich als ‚beobachtbare Ereignisse‘ manifestieren und die in ihrer zeitlich geordneten ‚Gesamtheit‘ dann als ‚Tendenzen‘ verstanden werden können, die ‚objektiv‘ sind, da sie mit realen Kontexten in einem unauflösbaren Zusammenhang stehen. Diese vierte Dimension der ‚objektiven Tendenzen‘ ist der ‚Mehrwert, den Popper in die Sicht der Dinge einbringt

Soweit die Kernthese von Popper zu ‚objektiven Tendenzen‘, zusammengefasst, nicht als 1-zu-1 Formulierung von Popper.

Ein wissender Körper

Im vorausgehenden Text hatte ich bei der Kommentierung von Poppers Text spontan an verschiedenen Stellen Überlegungen eingestreut, in denen ich weitergehende Annahmen über die Arbeitsweise unseres Körpers mit seinem Gehirn beschrieben habe. Zu diesem Zeitpunkt hatte ich Poppers Beitrag zu einer evolutionären Theorie des Wissens noch nicht gelesen. Ich selbst hatte mich aber auch schon seit mindestens 30 Jahren mit der evolutionären Perspektive unserer körperlich-geistigen Existenz beschäftigt und erleben dürfen, dass erst mit Einbeziehung der evolutionären Perspektive viele grundlegenden Eigenschaften unser Daseins in einem rationalen Kontext (= Menge von Hypothesen) erscheinen, der ‚plausibel‘ wirkt (aber ‚auf Abruf‘; es kann sich ändern).

Mit Beginn der Lektüre des zweiten Artikels war ich daher nicht wenig (positive) überrascht, dass Popper der evolutionären Perspektive unseres wissenden Körpers so viel Gewicht beimaß. [0b]

Popper beginnt seinen Artikel mit der (Hypo-)These, dass Tiere Wissen (‚knowledge‘) besitzen.(vgl. S.30) Da wir als Menschen nicht direkt wissen können, was ‚Wissen‘ aus der Innensicht von Tieren ist sondern nur aus unserer ‚Selbsterfahrung‘ als Menschen, räumt Popper ein, dass die These „Tiere besitzen Wissen“ im ersten Augenblick ‚anthropomorph‘ klingt; das wäre dann eine bloße ‚Projektion‘ von menschlichen Eigenschaften auf Tiere; einer solchen Projektion käme dann zunächst kein weiterer empirischer Erkenntniswert zu. Aber Popper bleibt beharrlich und stellt fest, dass seine Rede nicht als „bloße Metapher“ gemeint sei. Darüber hinaus verteidigt er seine anthropomorphe Redeweise mit dem Argument, dass wir über biologische Phänomene gar nicht anders als anthropomorph reden könnten, da unser eigener Körper mit seinen Eigenschaften als (natürlicher) Referenzpunkt dient, über den wir einen ersten Zugang zu ‚homologen‘ (= strukturähnlichen, formähnlichen) Eigenschaften der anderen Lebensformen finden.(vgl. S.30) Und er wiederholt seine These, dass die ‚Formähnlichkeiten‘ zwischen menschlichem Körper (und Verhalten) mit nicht-menschlichen Körpern (und Verhalten) nicht rein äußerlich sei, sondern dass die formähnlichen Teile auch ähnliche Funktionen haben, z.B. die Annahme, dass das Gehirn eines Tieres auch irgendwie ‚Wissen‘ hat, erzeugt analog wie beim Menschen.(vgl.S.30f).

Er unterscheidet sehr schnell zwischen ‚Wissen‘ und dem ‚Wissen um Wissen‘ (‚being aware of‘) und meint, dass aus der Annahme von ‚Wissen‘ in nicht-menschlichen Lebensformen nicht unbedingt folgt, dass diese sich ihres Wissens ‚bewusst‘ seien noch ist auszuschließen, dass bei uns Menschen ‚Wissen‘ auch ‚unbewusst‘ (’not aware of‘, ‚unconscious‘) sein kann.(vgl. S.31) Bei Menschen manifestiert sich ‚unbewusstes Wissen‘ oft in Form von ‚Erwartungen‘, deren wir uns oft erst bewusst werden, wenn sie ‚enttäuscht‘ werden.(vgl. S.31)

Popper stellt dann eine Art Liste von Vermutungen zusammen, die sich aus der Eingangs-Annahme ergeben können, dass Tiere über Wissen verfügen (vgl. SS.32-39):

  1. ERWARTUNGEN: Wie schon zuvor erwähnt, zeigt sich Wissen in Form von ‚Erwartungen‘
  2. UNSICHERHEIT: Erwartungen sind objektiv unsicher; der jeweilige Akteur kann mit einer Erwartung aber so umgehen, als ob sie ’sicher‘ sei.
  3. HYPOTHESEN: Die überwiegende Menge an Wissen besteht aus Hypothesen.
  4. OBJEKTIV WAHR: Trotz eines hypothetischen Charakters kann Wissen ‚objektiv wahr‘ sein, weil es sich auf ‚objektive Fakten‘ (= reale Ereignisse) stützt.
  5. WAHR ≠ SICHER: Wahrheit und Sicherheit müssen klar unterschieden werden. In der Welt der realen Ereignisse kann etwas ‚wahr‘ und zugleich unsicher sein. In der Welt des abstrakten Denkens (z.B. Mathematik) kann es wahr und zugleich sicher sein.
  6. TESTEN: Wegen mangelnder Sicherheit in der realen Welt müssen wahre Aussagen immer wieder getestet werden, ob sie ’noch‘ zutreffen (weil die reale Welt sich in konstanter Veränderung befindet).
  7. Wie (4)
  8. FALSCHE SICHERHEIT: In der realen, sich ständig verändernden Welt, kann es keine absolute Sicherheit geben.
  9. WISSEN ÜBERALL: Verknüpft man ‚Wissen‘ an der Wurzel mit ‚Erwartungen‘, dann muss man allen biologischen Lebensformen ein Minimum an Wissen zusprechen.
  10. Erläuterung zu (9) mit Bäumen.
  11. Weitere Erläuterung zu (9) mit Bäumen.
  12. LANGZEIT und KURZZEIT EREIGNISSE: Reaktionen eines Organismus auf Kurzzeit Ereignisse setzten gewisse ‚Fähigkeiten‘ voraus, die sich über Generationen als ’strukturelle Eigenschaften‘ adaptiv herausgebildet haben müssen, damit sie als Basis des Reagierens verfügbar sind.
  13. Erläuterung zu (12) am Beispiel von Wildgänsen, die adaptiert sind, auf jagende Füchse zu reagieren.
  14. Erläuterung zu (12). Strukturelle Anpassungen setzen voraus, dass es Umweltbedingungen gibt, die über lange Zeit hinreichend konstant waren.
  15. ADAPTION und WISSEN mit ERWARTUNGEN durch VERSUCH & IRRTUM: Ein reales Ereignis wird nur dann für einen einzelnen Akteur zu einer ‚Sache‘ (zu einem ‚Fakt‘, zu einer ‚Information‘) wenn verfügbares Wissen das Ereignis entsprechend ‚einordnen‘ kann. Verfügbares Wissen entsteht aber nur durch einen individuellen ‚Lernprozess‘ bestehend aus vielen kleinen ‚Versuchen‘ mit Erwartung und nachfolgender Bestätigung/ Nicht-Bestätigung. Adaptierte Strukturen in einem Individuum in einer sich verändernden Welt mit partiell konstanten Mustern können nur über einen Prozess von vielen ‚Reproduktions-Versuchen‘ in einer Population entstehen, wenn’un-passende‘ Strukturen weniger leistungsfähig sind wie andere.
  16. LANGZEIT-/KURZZEIT ANPASSUNG/WISSEN: Kurzzeit-Wissen setzt Langzeit-Anpassung und darin kodiertes Wissen voraus. Sowohl Langzeit-Strukturen/Wissen als auch Kurzzeit-Wissen sind beide ‚hypothetisch‘: sie bilden sich anlässlich ‚realer Ereignisse‘, erben aber die Unsicherheit der Ereigniswelt als solcher.
  17. WISSEN IST ÜBERLEBENSORIENTIERT: Jede Form von Wissen in jedem biologischen Organismus (von der kleinsten Zelle bis zum Menschen) dient dazu, dem Menschen für sein Überleben zu dienen.
  18. ALTER DES WISSENS: Das Phänomen des Wissens begleitet das Leben von Anfang an.
  19. UNIVERSUM-LEBEN-WISSEN: Insofern das Leben mit dem ganzen Universum verknüpft ist (zu 100%!) ist auch das Wissen ein Aspekt des gesamten Universums.

Popper illustriert viele der in der Liste aufgeführten Punkte dann an der realen Geschichte der Evolution anhand konkreter Forschungen aus seiner Zeit. (vgl. SS.39 – 45) Der Grundtenor: Leben spielt sich primär in Form von chemischen Prozessen in jeweiligen Umgebungen ab. Die ‚Makro‘-Phänomene, die wir vom Leben aus dem ‚Alltag der Körper‘ kennen, sind im Sinne der Komplexität so ‚unfassbar weit‘ von diesen elementaren Prozessen entfernt, dass es für uns Menschen bis heute — trotz Wissenschaft — noch kaum möglich ist, alle diese Prozesse hinreichend zu verstehen. Speziell der Übergang vom Planeten Erde ‚vor‘ den Phänomenen einzelligen Lebens hin zu einzelligem Leben ist trotz mittlerweile vielfacher Versuche leider noch nicht wirklich klar.[5],[6]

Die wichtigsten Erkenntnisse aus alledem

An dieser Stelle stellt sich Popper selbst die Frage, was aus alledem jetzt folgt? („… the main lesson to be drawn …“(S.45)

Und mit all den ungeheuerlichen Geschehnissen der Evolution vor Augen fällt eines ganz klar auf: allein nur um zu wissen, was ‚um ihn herum‘ der Fall ist, benötigt der Organismus eine ‚Struktur‘, deren Eigenschaften den Organismus in die Lage versetzen, bestimmte Umweltereignisse zu ‚registrieren‘, dieses ‚Registrierte‘ in interne Zustände so zu ‚übersetzen‘, dass der Organismus darauf in einer Weise ‚reagieren‘ kann, die für sein Überleben zuträglich ist. Und da es neben den ‚Langzeit-Ereignissen‘ (Eigenschaften der Umgebung, die sich nur langfristig ändern), auch sehr viele ‚Kurzzeit-Ereignisse‘ gibt, die mal so oder mal so sind, benötigt der Organismus neben den ‚Strukturen‘ auch ‚flexible Prozesse‘ des ‚akuten Lernens‘, die aktuell, ‚on demand‘, Antworten ermöglichen, die jetzt gebraucht werden, nicht irgendwann.

Popper greift an dieser Stelle eine Terminologie von Kant [7] auf der zwischen ‚a priori‘ und ‚a posteriori‘ Wissen unterschieden hat. [6] Angewendet auf seine Untersuchungen interpretiert Popper das ‚Wissen a priori‘ als jenes Wissen, das schon da sein muss, damit ein konkretes Ereignis überhaupt ‚als irgendetwas‘ erkannt werden kann („to make sense of our sensations“, S.46). Und dieses ‚voraus zu setzende Wissen‘ sieht er als Wissen a priori‘, das sowohl als verfügbare Struktur (= Körper, Gehirn…) auftritt wie auch innerhalb dieser Struktur als ein ‚Wissen a posteriori‘, das ein Ereignis zu einem ‚irgendwie sinnhaften Ereignis‘ werden lassen kann.(„… without it, what our senses can tell us can make no sense.“ (S.46) Innerhalb dieses voraus zu setzenden Wissens müssen die grundsätzlichen Unterscheidungen zu ‚Raum‘, ‚Zeit‘ und ‚Kausalität‘ möglich sein. Und Popper meint, dass Kant mit seinen erkenntniskritischen Rekonstruktionen grundlegende Einsichten der Evolutionstheorie vorweg genommen habe.(vgl. S.46)

Und, indem Popper Kant so hoch lobt, geht er unmittelbar dazu über, ihn — auf seine Weise — gewissermaßen zu ‚transformieren‘, indem er sagt, dass der Anteil des ‚apriorischen Wissens‘ eher bei 99% liegt und der des ‚aposteriorischen Wissens‘ eher bei 1%. Diesen Schluss zieht er aus der Tatsache (= seine Interpretation von einer Sachlage!), dass die verschiedenen sensorischen Ereignisse im Körper eines Organismus als solche nur ‚Ja-Nein-Zustände‘ sind, die eine wie auch immer geartete ‚Bedeutung‘ nur bekommen, wenn es einen ‚Deutungsrahmen‘ gibt, mit Hilfe von dem ein sensorisches Ja-Nein als ‚Laut‘ oder als ‚Farbe‘ oder als ‚Geschmack‘ usw. ‚gedeutet‘ (abgebildet) werden kann. Dies heißt, dass generell Ereignisse nach einem Deutungsrahmen verlangen, der schon ‚da sein muss‘, damit er wirken kann. Und da ein Organismus primär aus chemischen Prozessen besteht, muss das ‚apriorische Wissen‘ in diesen chemischen Prozessen verfügbar sein („… inborn … in our chemical constitution“. (S.46)) Ferner kann das Verhältnis zwischen zu klassifizierenden sensorischen Daten und dem Wissen a priori nicht deterministisch sein, da diese Klassifikationen ‚falsch‘ sein können, sie partiell erst durch ‚Versuch und Irrtum‘ entstehen. Insgesamt ermöglicht das Wissen zudem ‚Erwartungen‘, aufgrund deren der Organismus handelt (und deshalb ‚irren‘ kann).

Hier deutet sich ein konstruktiver Konflikt an in der Annahme, dass es schon ein apriorisches Wissen geben muss, das zu Klassifikationsleistungen befähigt, und zugleich, dass solch ein apriorisches Wissen weder ‚vollständig‘ zu sein scheint (Poppers Beispiel: der Frosch, der zwar Fliegen erkennen kann als sein Futter, aber nur dann, wenn sie sich bewegen), noch ‚fertig im Detail‘, da ‚Irrtümer‘ auftreten können, aus denen ‚gelernt‘ werden kann. Dem Ganzen (Wissen) haftet etwas ‚prozesshaftes‘ an: es hat schon immer etwas, was ‚funktioniert‘, aber es kann sich selbst in Interaktion mit ‚dem Anderen‘ irgendwie immer weiter verändern.(vgl. S.47)

Das zugrunde liegende Schema könnte man vielleicht wie folgt formulieren: (i) ein Organismus braucht eine Struktur, die registrierte Ja-Nein-Ereignisse ‚Klassifizieren/ Deuten‘ kann, und parallel (ii) braucht es aufgrund des bisherigen Wissens eine ‚Erwartung‘, anhand deren eine aktuelle Deutung als ‚bestätigend‘ erscheint oder ’nicht-bestätigend‘. Aus dieser Differenz kann dann eine Veränderung des Verhaltens resultieren, das ‚versuchsweise‘ Ereignisse schafft, die dann ‚eher bestätigen‘ und ‚weniger enttäuschen (Irrtum, Fehler, …)‘. Das Ganze wird dadurch ‚komplex‘, dass für dieses Schema mindestens zwei Zeitschemata anzunehmen sind: (a) langfristige strukturelle Änderungen (’strukturelles Lernen‘) des gesamten Organismus über Reproduktion und ‚Erfolg‘ in der Population (wer überlebt besser), sowie (b) kurzfristige Änderungen (’situationsbezogenes Lernen‘), das in wechselnden ‚hypothetischen Bildern der Welt‘ beständig als Hypothese und Erwartung wirksam ist, die im Konfliktfall (keine Bestätigung) ‚modifiziert‘ werden können.

Popper zieht in diesem Kontext eine Parallele zum modernen Begriff einer Theorie, die als Hypothese versucht, hilfreiche Deutungen zu liefern, und die in Konfrontation mit der Ereigniswelt (über Experimente) bestätigt oder nicht bestätigt wird. Im Prozess des Erwartens und Korrigierens vollzieht sich eine Form der ‚Anpassung‘ des menschlichen Denkens an jene Ereigniswelt (die wir ‚Welt‘ nennen, ‚Natur‘, ‚Universum‘, …), in der wir uns — ungefragt — vorfinden, in der wir versuchen, zu überleben. (vgl. S.48f) Popper äußert dann noch eine Analogie der Art, dass der Unterschied zwischen der hochentwickelten Wissenskultur eines einzelnen Homo sapiens und jener eines einzelnen Bakteriums letztlich nur graduell ist; grundsätzlich hat ein Bakterium, ein Einzeller, schon alle Merkmale, über die höher entwickelte biologische Lebensformen verfügen.(vgl. S.49f) Insbesondere sieht Popper in jedem lernfähigen Organismus auch — mindestens implizit — ‚Werte‘ in Aktion, nämlich überall dort, wo ‚entschieden‘ werden muss, welche der möglichen Optionen ausgewählt werden soll. In einfachen Organismen geschieht dies weitgehend strukturell-apriorisch; im Fall komplexer Lebewesen mit elaborierten Nervensystemen kann es zusätzlich künstlich eingeführte ‚Regelsysteme‘ geben — wie z.B. ‚gesellschaftliche Normen‘, ‚Konventionen‘, ‚Sitten und Gebräuche‘, ‚Vereinbarte Gesetze‘ usw. –, die auf einen individuellen Entscheidungsprozess einwirken können, ohne den individuellen Entscheidungsprozess dabei ganz außer Kraft zu setzen.(vgl. S.50f)

Nachbemerkung – Epilog

Nimmt man beide Beiträge als eine mögliche Einheit, dann entsteht ein spannender Zusammenhang, eine spannende Gesamt-Hypothese über die Natur der uns umgebenden Ereigniswelt mit uns selbst (über unseren Körper) als Teil davon.

Mit unserem Körper erleben wir interne Ereignisse in Form angeborener und angelernter gedeuteter Strukturen, die uns ein ‚Bild von der Welt mit uns als Teil‘ liefern, mit ‚Erwartungen‘, die in uns entstehen, mit Bestätigungen und Mangel an Bestätigungen, mit der Möglichkeit eines Handelns, das die Struktur der Ereignisse um uns herum — und uns selbst — verändern kann.

Die Welt ist ein dynamisches, changierendes Etwas, ein Gesamtprozess, dessen endgültige Gestalt, dessen inneren ‚Antriebskräfte‘ schwer fassbar sind, ist doch jedes Lebewesen — nicht nur wir Menschen — Teil davon.

Im Versuch dieses dynamische Etwas ‚zu fassen‘, ‚dingfest‘ zu machen, bleiben uns nur einzelne Ereignisse, hier und jetzt, und immer wieder neue Ereignisse im hier und jetzt; abstrakte Bilder (Schatten der Erinnerung), in denen einige häufiger vorkommen als andere. Bisweilen haben wir das Gefühl, dass sich ‚Regeln‘ andeuten, ‚Muster‘, aber sie sind niemals ‚100-prozentig stabil‘ (‚deterministisch‘), aber auch niemals nur ‚rein zufällig‘, sondern irgendwie genau dazwischen. Was ist das? Der Sound des Lebens? Wir sind Teil dieses Sounds. Verstehen wir uns selbst? Verstehen wir die große Partitur, in der wir vorkommen? Alles deutet darauf hin, dass das Gesamtereignis ’sich selbst komponiert‘! Im Kern aller Ereignisse findet man eine große ‚Freiheit‘, die sich im ‚Kleid der Optionen‘ eine Gestalt sucht, eine Gestalt die vorweg niemand kennen kann, und die doch nicht beliebig sein wird…

Im Alltagsgeschäft der heutigen wissenschaftlichen Einzeldisziplinen — die absolut notwendig sind; ohne die geht gar nichts — findet man von diesem erfrischenden Hauch einer super-lebendigen Singularität nicht viel. Jeder ist mit dem Auszählen seiner Einzelexperimente beschäftigt. Im Mainstream träumt man von sogenannter Künstlicher Intelligenz, die alle unsere Problem überwinden wird; welch absolut schrottige Idee. Der ‚Supercomputer‘ des Lebens auf diesem Planeten ist davon mehrfache Galaxien weit entfernt.

Anmerkungen

[0] Karl Popper, „Towards an Evolutionary Theory of Knowledge“, Vortrag 1989, erweiterter Text in: Karl Popper, „A World of Propensities“, Thoemmes Press, Bristol, (1990, repr. 1995)

[0b] Die Einbeziehung der Erkenntnisse der Evolutionsbiologie in eine philosophische Gesamtsicht findet sich nicht nur bei Popper. Schon der Verhaltensforscher und Philosoph Konrad Lorenz [2] hatte in einem Aufsatz 1941 [2b]einen Zusammenhang zwischen der Erkenntnistheorie von Kant und den Erkenntnissen der Biologie hergestellt. Dies wird bei Lorenz dann 1973 in sein Hauptwerk „Die Rückseite des Spiegels …“ zu einer großen Gesamtschau ausgeweitet, in dem er explizit eine Verbindung zieht zwischen der morphologischen Entwicklung in der Evolution und den Formen der Erkenntnis. [2c]. Ein anderer starker Denker im Spannungsfeld von Biologie und Philosophie war Humberto Maturana [3], der in den Jahren 1968 – 1978 viele grundlegende Beiträge zum Thema verfasst hat.[2b] In Deutschland ist u.a. noch zu nennen Gerhard Vollmer mit seinem Buch Evolutionäre Erkenntnistheorie‘ von 1975.

[1] Evolutionäre Erkenntnistheorie in wkp-de: https://de.wikipedia.org/wiki/Evolution%C3%A4re_Erkenntnistheorie //* Dieser Artikel ist nicht besonders gut *//

[1b] Evolutionary Epistemology in wkp-en: https://en.wikipedia.org/wiki/Evolutionary_epistemology //* Dieser Artikel ist nicht besonders gut *//

[2] Konrad Lorenz in wkp-ed: https://en.wikipedia.org/wiki/Konrad_Lorenz und in wkp-de: https://de.wikipedia.org/wiki/Konrad_Lorenz

[2b] K. Lorenz: Kants Lehre vom Apriorischen im Lichte gegenwärtiger Biologie. In: Blätter für Deutsche Philosophie. Band 15, 1941, S. 94–125

[2c] K.Lorenz, Die Rückseite des Spiegels. Versuch einer Naturgeschichte des menschlichen Erkennens (1973), in wkp-de: https://de.wikipedia.org/wiki/Die_R%C3%BCckseite_des_Spiegels

[3] Humberto Maturana in wkp-en: https://en.wikipedia.org/wiki/Humberto_Maturana

[3b] Humberto R.Maturana, Erkennen; Die Organisation und Verkörperung von Wirklichkeit, Friedr.Viehweg & Sohn, Braunschweig – Wiesbaden, 1982 (Enthält von Maturana autorisiert in deutscher Übersetzung Arbeiten aus den Jahren 1968 – 1978).

[4] Gerhard Vollmer, Evolutionäre Erkenntnistheorie. Angeborene Erkenntnisstrukturen im Kontext von Biologie, Psychologie, Linguistik, Philosophie und Wissenschaftstheorie. S. Hirzel, Stuttgart 1975. Zu Vollmer in der wkp-de: https://de.wikipedia.org/wiki/Gerhard_Vollmer

[5] Evolution in wkp-en: https://en.wikipedia.org/wiki/Evolution

[6] Hans R.Kricheldorf, Leben durch chemische Evolution?, Springer-Verlag, 2019, ISBN: 978-3-662-57978-7

[7] A priori in wkp-de: https://de.wikipedia.org/wiki/A_priori

[8] Immanuel Kant in wpd-de: https://de.wikipedia.org/wiki/Immanuel_Kant

[9] Die hier benutzten anthropomorphen Begriffe sind als ‚Hilfsbegriffe‘ zu betrachten, da eine ‚präzisere‘ Begrifflichkeit einen ausgearbeiteten begrifflichen Rahmen (Modell, Theorie) voraussetzen würde, die erst dann möglich ist, wenn man sich über die grundsätzlichen Sachverhalte besser verständigt hat.

Fortsetzung

Es gibt einen dritten Artikel von Popper, der in diesen Zusammenhang gehört. Eine Besprechung findet sich HIER.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

WISSENSCHAFT IM ALLTAG. Popper 1988/1990

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 16.-17.Februar 2022, 18:00h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Vorbemerkung

In einer Welt voller Bücher — gefühlt: unendlich viele Bücher — ist kaum voraussagbar, welches Buch man im Februar 2022 lesen wird. Dass es dann das Büchlein ‚A World of Propensities‘ (1990 (reprint 1995))[2a] von Karl Popper [1] sein würde, hing von einem ganzen Bündel von Faktoren ab, von denen jeder für sich ‚eine Rolle‘ spielte, aber dass es dann zu diesem konkreten Buch zu diesem konkreten Zeitpunkt gekommen ist, war aus Sicht der einzelnen Faktoren nicht direkt ableitbar. Auch das ‚Zusammenspiel‘ der verschiedenen Faktoren war letztlich nicht voraussagbar. Aber es ist passiert.

Im Rahmen meiner Theoriebildung für das oksimo-Paradigma (einschließlich der oksimo-Software)[4] Hatte ich schon viele Posts zur möglichen/ notwendigen Theorie für das oksimo-Paradigma in verschiedenen Blocks geschrieben [3a], sogar einige zum frühen Popper [3b], aber mir scheint, so richtig bin ich mit der Position von Popper in seiner ‚Logik der Forschung‘ von 1934 bzw. dann mit der späteren Englischen Ausgabe ‚The Logic of Scientific Discovery‘ (1959)[2b] noch nicht klar gekommen.

Im Frühjahr 2022 war es eine seltene Mischung aus vielerlei Faktoren, die mich über den Umweg der Lektüre von Ulanowizc [5], und zwar seines Buches „Ecology: The Ascendant Perspective“ (1997), auf den späten Popper aufmerksam machten. Ulanowizc erwähnt Popper mehrfach an prominenter Stelle, und zwar speziell Poppers Büchlein über Propensities. Da dieses schmale Buch mittlerweile vergriffen ist, kam ich dann nur durch die freundliche Unterstützung [6b] der Karl Popper Sammlung der Universität Klagenfurt [6a] zu einer Einsicht in den Text.

Der nachfolgende Text beschäftigt sich mit dem ersten der beiden Aufsätze die sich in dem Büchlein finden: „A World of Propensities: Two New Views of Causality“.[7][*]

Wahrscheinlichkeit, Wahrheit, Hypothese, Bekräftigung, … Vorgeplänkel

In seiner Einleitung im Text erinnert Popper an frühere Begegnungen mit Mitgliedern des Wiener Kreises [1b] und die Gespräche zu Theme wie ‚absolute Theorie der Wahrheit‘, ‚Wahrheit und Sicherheit‘, ‚Wahrscheinlichkeitsbasierte Induktion‘, ‚Theorie der Wahrscheinlichkeit‘ sowie ‚Grad der Bekräftigung einer Wahrscheinlichkeit‘.

Während er sich mit Rudolf Carnap 1935 noch einig wähnte in der Unterscheidung von einer Wahrscheinlichkeit im Sinne einer Wahrscheinlichkeitstheorie und einem ‚Grad der Bestätigung‘ (‚degree of confirmation‘) , war er sehr überrascht — und auch enttäuscht — 1950 in einem Buch von Carnap [8], [8b] zu lesen, dass für Carnap dies alles das Gleiche sei: mathematische Wahrscheinlichkeit und empirische Bestätigung eines Ereignisses. Hatte Carnap mit dieser Veränderung seiner Auffassung auch die Position einer ‚Absolutheit der Wahrheit‘ verlassen, die für Popper 1935 immer noch wichtig war? Und selbst in der Rede von 1988 hält Popper das Postulat von der Absolutheit der Wahrheit hoch, sich dabei auf Aristoteles [9], Alfred Tarski [10] und Kurt Gödel [11] beziehend (S.5f).

In einer Welt mit einem endlichen Gehirn, in einem endlichen Körper (bestehend aus ca. 36 Billionen Zellen (10^12)[12], in einer Welt von nicht-abzählbar vielen realen Ereignissen, war mir nie klar, woran (der frühe) Popper (und auch andere) die Position einer ‚absoluten Wahrheit‘ fest machen konnten/ können. Dass wir mit unserem endlichen – und doch komplexen, nicht-linearem — Gehirn von ‚Konkretheiten‘ ‚abstrahieren‘ können, Begriffe mit ‚offenen Bedeutungen‘ bilden und diese im Kontext der Rede/ eines Textes zu Aussagen über Aspekte der Welt benutzen können, das zeigt jeder Augenblick in unserem Alltag (ein für sich außergewöhnliches Ereignis), aber ‚absolute Wahrheit‘ … was kann das sein? Wie soll man ‚absolute Wahrheit‘ definieren?

Popper sagt, dass wir — und wenn wir uns noch so anstrengen — in unserem „Ergebnis nicht sicher“ sein können, das Ergebnis kann sogar „nicht einmal wahr“ sein.(vgl. S.6) Und wenn man sich dann fragt, was dann noch bleibt außer Unsicherheit und fehlender Wahrheit, dann erwähnt er den Sachverhalt, dass man von seinen „Fehlern“ auf eine Weise „lernen“ kann, dass ein „mutmaßliches (‚conjectural‘) Wissen“ entsteht, das man „testen“ kann.(vgl. S.6) Aber selbst dann, wenn man das Wissen testen kann, sind diese Ergebnisse nach Popper „nicht sicher“; obwohl sie „vielleicht wahr“ sind, diese Wahrheit aber ist damit dennoch „nicht endgültig bestätigt (‚established‘)“. Und er sagt sogar: „Selbst wenn sie [ergänzt: die Ergebnisse] sich als nicht wahr erweisen, … eröffnen sie den Weg zu noch besseren [ergänzt: Ergebnissen].“ (S.6)

Diese ‚changierende Sprechweise‘ über ‚wahre Ergebnisse‘ umschreibt das Spannungsfeld zwischen ‚absoluten Wahrheit‘ — die Popper postuliert — und jenen konkreten Sachverhalten, die wir im Alltag zu ‚Zusammenhängen (Hypothesen)‘ verdichten können, in denen wir einzelne Ereignisse ‚zusammen bringen‘ mit der ‚Vermutung‘, dass sie auf eine nicht ganz zufällige Weise zusammen gehören. Und, ja, diese unsere alltägliche Vermutungen (Hypothesen) können sich ‚alltäglich bestätigen‘ (wir empfinden dies so) oder auch nicht (dies kann Zweifel wecken, ob es ‚tatsächlich so ist‘).(vgl. S.6)

Das Maximum dessen, was wir — nach Popper — in der alltäglichen Erkenntnis erreichen können, ist das Nicht-Eintreten einer Enttäuschung einer Vermutung (Erwartung, Hypothese). Wir können dann „hoffen“, dass die Hypothese „wahr ist“, aber sie könnte sich dann beim nächsten Test vielleicht doch noch als „falsch“ erweisen. (vgl. S.6)

In all diesen Aussagen, dass ein Ergebnis ’noch nicht als wahr erwiesen wurde‘ fungiert der Begriff der ‚Wahrheit‘ als ein ‚Bezugspunkt‘, anhand dessen man eine vorliegende Aussage ‚vergleichen‘ kann und mit diesem Vergleich dann zum Ergebnis kommen kann, dass eine vorliegende Aussage ‚verglichen mit einer wahren Aussage‘ nicht wahr ist.

Messen als Vergleichen ist in der Wissenschaft der Goldstandard, aber auch im ganz normalen Alltag. Wo aber findet sich der Vergleichspunkt ‚wahr Aussage‘ anhand dessen eine konkrete Aussage als ’nicht dem Standard entsprechend‘ klassifiziert werden kann?

Zur Erinnerung: es geht jetzt hier offensichtlich nicht um einfache ‚Sachverhaltsfeststellungen‘ der Art ‚Es regnet‘, ‚Es ist heiß‘, ‚Der Wein schmeckt gut‘ …, sondern es geht um die Beschreibung von ‚Zusammenhängen‘ zwischen ‚isolierten, getrennten Ereignissen‘ der Art (i) ‚Die Sonne geht auf‘, (ii) ‚Es ist warm‘ oder ‚(i) ‚Es regnet‘, (ii) ‚Die Straße ist nass‘.

Wenn die Sonne aufgeht, kann es warm werden; im Winter, bei Kälte und einem kalten Wind kann man die mögliche Erwärmung dennoch nicht merken. Wenn es regnet dann ist die Straße normalerweise nass. Falls nicht, dann fragt man sich unwillkürlich, ob man vielleicht nur träumt?

Diese einfachen Beispiele deuten an, dass ‚Zusammenhänge‘ der Art (i)&(ii) mit einer gewissen Häufigkeit auftreten können, aber es keine letzte Sicherheit gibt, dass dies der Fall sein muss.

Wo kommt bei alldem ‚Wahrheit‘ vor?

‚Wahrheit an sich‘ ist schwer aufweisbar. Dass ein ‚Gedanke‘ ‚wahr‘ ist, kann man — wenn überhaupt — nur diskutieren, wenn jemand seinem Gedanken einen sprachlichen Ausdruck verleiht und der andere anhand des sprachlichen Ausdrucks (i) bei sich eine ‚Bedeutung aktivieren‘ kann und (ii) diese aktivierte Bedeutung dann entweder (ii.1) — schwacher Fall — innerhalb seines Wissens mit ‚anderen Teilen seines Wissens‘ ‚abgleichen‘ kann oder aber (ii.2) — starker Fall — seine ‚interne Bedeutung‘ mit einer Gegebenheit der umgebenden realen Ereigniswelt (die als ‚Wahrnehmung‘ verfügbar ist) vergleichen kann. In beiden Fällen kann der andere z.B. zu Ergebnissen kommen wie (a) ‚Ja, sehe ich auch so‘ oder (b) ‚Nein, sehe ich nicht so‘ oder (c) ‚Kann ich nicht entscheiden‘.

In diesen Beispielen wäre ‚Wahrheit‘ eine Eigenschaft, die der Beziehung zwischen einem sprachlichen Ausdruck mit seiner möglichen ‚Bedeutung‘ ‚zu etwas anderem‘ zukommt. Es geht in diesen Beispielen um eine dreistellige Beziehung: die beiden Größen (Ausdruck, gewusste Bedeutung) werden in Beziehung gesetzt zu (wahrgenommenem oder erinnertem oder gefolgertem Sachverhalt).[13]

‚Wahrgenommenes‘ resultiert aus Interaktionen unseres Körpers mit der umgebenden realen Ereigniswelt (wobei unsere Körper selbst ein Ereignis in der umgebenden realen Ereigniswelt ist).[14]

‚Bedeutungen‘ sind ‚gelernte Sachverhalte‘, die uns über unsere ‚Wahrnehmung‘ ‚bekannt geworden sind‘ und in der Folge davon möglicherweise auf eine schwer bestimmbare Weise in unser ‚Gedächtnis‘ übernommen wurden, aus dem Heraus wir sie auf eine ebenfalls schwer bestimmbaren Weise in einer ‚erinnerten Form‘ uns wiederholt wieder ‚bewusst machen können‘. Solche ‚wahrnehmbaren‘ und ‚erinnerbaren‘ Sachverhalte können von unserem ‚Denken‘ in schwer bestimmbarer Form eine spezifische ‚Bedeutungsbeziehung‘ mit Ausdrücken einer Sprache eingehen, welche wiederum nur über Wahrnehmung und Erinnern uns bekannt geworden sind.[15]

Aus all dem geht hervor, dass dem einzelnen Akteur mit seinen gelernten Ausdrücke und ihren gelernten Bedeutungen nur das ‚Ereignis der Wiederholung‘ bleibt, um einem zunächst ‚unbestimmt Gelerntem‘ eine irgendwie geartete ‚Qualifikation‘ von ‚kommt vor‘ zu verleihen. Kommt also etwas vor im Lichte von gelernten Erwartungen neigen wir dazu, zu sagen, ‚es trifft zu‘ und in diesem eingeschränkten Sinne sagen wir auch, dass ‚es wahr ist‘. Diese gelernten Wahrheiten sind ’notorisch fragil‘. Jene, die ‚im Laufe der Zeit‘ sich immer wieder ‚bewähren‘ gewinnen bei uns ein ‚höheres Vertrauen‘, sie haben eine ‚hohe Zuverlässigkeit‘, sind allerdings nie ganz sicher‘.

Zusätzlich erleben wir im Alltag das ständige Miteinander von ‚Konkretheiten‘ in der Wahrnehmung und ‚Allgemeinheiten‘ der sprachlichen Ausdrücke, eine ‚Allgemeinheit‘ die nicht ‚absolut‘ ist. sondern als ‚Offenheit für viel Konkretes‘ existiert. In der Sprache haben wir Unmengen von Worten wie ‚Tasse‘, ‚Stuhl‘, ‚Tisch‘, Hund‘ usw. die sich nicht nur auf ein einziges Konkretes beziehen, sondern auf — potentiell unendlich — viele konkrete Gegebenheiten. Dies liegt daran, dass es viele verschiedene konkrete Gegebenheiten gibt, die trotz Unterschiede auch Ähnlichkeiten aufweisen, die dann als ‚Tasse‘, ‚Stuhl‘ usw. bezeichnet werden. Unser Gehirn verfügt über ‚automatische (= unbewusste) Prozesse‘, die die Konkretheiten aus der Wahrnehmung in ‚Muster‘ transformieren, die dann als ‚Repräsentanten‘ von verschiedenen wahrgenommenen Konkretheiten fungieren können. Diese Repräsentanten sind dann das ‚Material der Bedeutung‘, mit denen sprachliche Ausdrücke — auch automatisch — verknüpft werden können.[15]

Unser ‚Denken‘ kann mit abstrakten Repräsentanten arbeiten, kann durch Benutzung von sprachlichen Ausdrücken Konstruktionen mit abstrakten Konzepten und Ausdrücken bilden, denen bedeutungsmäßig direkt nichts in der realen Ereigniswelt entsprechen muss bzw. auch nicht entsprechen kann. Logik [17] und Mathematik [18] sind bekannte Beispiele, wie man mit gedanklich abstrakten Konzepten und Strukturen ‚arbeiten‘ kann, ohne dass ein Bezug zur realen Ereigniswelt bestehe muss oder jemals bestehen wird. Innerhalb dieser Welt abstrakter Strukturen und abstrakter Ausdrücke kann es dann sogar in einem eingeschränkten Sinne ‚Wahrheit‘ als Übereinstimmung von abstrakten Ausdrücken, deren abstrakten Bedeutungen und den anderen gedachten abstrakten Strukturen geben, aber diese ‚abstrakten Wahrheiten‘ sind in keiner Weise auf die reale Ereigniswelt übertragbar. Für uns gibt es nur das Modell der Alltagssprache, die mit ihren ‚offenen abstrakten‘ Bedeutungen auf Konkretes Bezug nehmen kann und zwischen Gegenwart und Vergangenheit eine ‚gedachte Beziehung‘ herstellen kann, ebenso auch zwischen Vergangenem und Gegenwärtigem zu einer gedachten Zukunft. Inwieweit sich diese gedachten Beziehungen (Vermutungen, Hypothesen, …) dann in der realen Ereigniswelt bestätigen lassen, muss fallweise geprüft werden.

Die Welt der Wissenschaften erweckt den Eindruck, dass es mittlerweile eine große Zahl von solchen Hypothesen gibt, die allesamt als ‚weitgehend zuverlässig‘ angesehen werden, und aufgrund deren wir nicht nur unser bisheriges Wissen beständig ‚erweitern‘, sondern auch in einer Vielzahl von praktischen Anwendungen nutzen (Technologie, Landwirtschaft, Medizin, …).

Und an dieser Stelle greift Popper sehr weit aus, indem er diese für die Wissenschaften charakteristische „mutige, und abenteuerliche Weise des Theoretisierens“, ergänzt um „seriöse Tests“, im „biologischen Leben selbst“ am Werke sieht (vgl. S.7): die beobachtbare Entwicklung zu immer „höheren (‚higher‘) Formen“ des Lebens geschah/ geschieht durch Schaffung von „neuen Versuchen“ (‚trials‘), deren „Einbringung in die Realität“ (‚exposure‘), und dann das „Ausmerzen von Irrtümern“ (‚errors‘) durch „Testen“.(vgl. S.7) Mit dieser permanenten Kreativität neuer Lösungsansätze, deren Ausprobieren und dem daraus Lernen im Beseitigen von Fehlschlägen hat es nicht nur das biologische Leben als Ganzes geschafft, nach und nach die Welt quasi zu erobern, sondern in der Variante moderner empirischer Wissenschaft ist die Lebensform des Homo sapiens dabei, diese Eroberung auf neue Weise zu ergänzen. Während die biologische Evolution vor dem Homo sapiens primär um das nackte Überleben kämpfen musste, kann der Homo sapiens zusätzlich ‚reines Verstehen‘ praktizieren, das dann als ‚Werkzeug‘ zum Überleben beitragen kann. Für Popper ist ‚Verstehen‘ (‚understand‘) und ‚Lernen‘ (‚to learn more‘) das entscheidende Charakteristikum der Lebensform des Homo sapiens (als Teil des gesamten biologischen Lebens). Und in diesem Verstehensprojekt geht es um alles: um den ganzen Kosmos bis hin zum letzten Atom, um die Entstehung des Lebens überhaupt, um den ‚menschlichen Geist‘ (‚human mind‘) und die Art und Weise wie er stattfindet.(vgl. S.7)

Nach dieser ‚Einstimmung‘ wendet sich Popper dem speziellen Problem der Kausalität zu.

Kausalität – Ein wissenschaftliches Chamäleon

Der Begriff der ‚Kausalität‘ ist uns allen über den Alltag in vielfältigen Formen bekannt, ohne dass wir dazu gewöhnlich ein klares begriffliches Konzept entwickeln.

Geht es hingegen ‚um Etwas‘, z.B. um Geld, oder Macht, oder um eine gute Ernte, oder die Entwicklung einer Region, usw. , dann ist die Frage ‚Was was wie bewirkt‘ nicht mehr ganz egal. ‚Soll ich nun investieren oder nicht?‘ ‚Ist dieses Futter für die Tiere besser und auf Dauer bezahlbar oder nicht?‘ ‚Wird die neue Verkehrsregelung tatsächlich Lärm und CO2-Ausstoß reduzieren oder nicht?‘ ‚Ist Aufrüstung besser als Neutralität?‘ ‚Wird die Menge des jährlichen Plastikmülls die Nahrungsketten im Meer und damit viele davon abhängige Prozesse nachhaltig zerstören oder nicht?‘

Wenn Philosophen und Wissenschaftler von Kausalität sprechen meinten sie in der Vergangenheit meist viel speziellere Kontexte. So erwähnt Popper die mechanistischen Vorstellungen im Umfeld von Descartes; hier waren alle Ereignisse klar bestimmt, determiniert.(vgl. S.7) Mit der Entwicklung der Quantenmechanik — spätestens ab 1927 mit der Entdeckung des Unsicherheitsprinzips durch Werner Heisenberg [19], [19a] — wurde bewusst, dass die Ereignisse in der Natur keinesfalls vollständig klar und nicht vollständig determiniert sind. (vgl. S7f)

Damit trat eine inhärente Unsicherheit hervor, die nach einer neuen Lösung verlangte. Die große Zeit des Denkens in Wahrscheinlichkeiten begann.[20] Man kann das Denken in Wahrscheinlichkeiten grob in drei (vier) Sichtweisen unterscheiden: (i) In einer theoretischen — meist mathematischen — Sicht [21] definiert man sich abstrakte Strukturen, über die man verschiedene Operationen definieren kann, mit denen sich dann unterschiedliche Arten von Wahrscheinlichkeiten durchspielen lassen. Diese abstrakten (theoretischen) Wahrscheinlichkeiten haben per se nichts mit der realen Welt der Ereignisse zu tun. Tatsächlich erweisen sich aber viele rein theoretische Modelle als erstaunlich ’nützlich‘ bei der Interpretation realweltlicher Ereignisfolgen. (ii) In einer subjektivistischen Sicht [22] nimmt man subjektive Einschätzungen zum Ausgangspunkt , die man formalisieren kann, und die Einschätzungen zum möglichen Verhalten des jeweiligen Akteurs aufgrund seiner subjektiven Einschätzungen erlauben. Da subjektive Weltsichten meistens zumindest partiell unzutreffend sind, z.T. sogar überwiegend unzutreffend, sind subjektive Wahrscheinlichkeiten nur eingeschränkt brauchbar, um realweltliche Prozesse zu beschreiben.(iii) In einer (deskriptiv) empirischen Sicht betrachtet man reale Ereignisse, die im Kontext von Ereignisfolgen auftreten. Anhand von diversen Kriterien mit der ‚Häufigkeit‘ als Basisterm kann man die Ereignisse zu unterschiedlichen Mustern ‚gruppieren‘, ohne dass weitergehende Annahmen über mögliche Wirkzusammenhänge mit ‚auslösenden Konstellationen von realen Faktoren‘ getätigt werden. Nimmt man eine solche ‚deskriptive‘ Sicht aber zum Ausgangspunkt, um weitergehende Fragen nach möglichen realen Wirkzusammenhängen zu stellen, dann kommt man (iv) zu einer eher objektivistischen Sicht. [23] Hier sieht man in der Häufigkeiten von Ereignissen innerhalb von Ereignisfolgen mögliche Hinweise auf reale Konstellationen, die aufgrund ihrer inhärenten Eigenschaften diese Ereignisse verursachen, allerdings nicht ‚monokausal‘ sondern ‚multikausal‘ in einem nicht-deterministischem Sinne. Dies konstituiert die Kategorie ‚Nicht deterministisch und zugleich nicht rein zufällig‘.[24]

Wie der nachfolgende Text zeigen wird, findet man Popper bei der ‚objektivistischen Sicht‘ wieder. Er bezeichnet Ereignisse, die durch Häufigkeiten auffallen, als ‚Propensities‘, von mir übersetzt als ‚Tendenzen‘, was letztlich aber nur im Kontext der nachfolgenden Erläuterungen voll verständlich wird.

Popper sagt von sich, dass er nach vielen Jahren Auseinandersetzung mit der theoretischen (mathematischen) Sicht der Wahrscheinlichkeit (ca. ab 1921) (vgl. S.8f) zu dieser — seiner — Sicht gelangt ist, die er 1956 zum ersten Mal bekannt gemacht und seitdem kontinuierlich weiter entwickelt hat.[24]

Also, wenn man beobachtbare Häufigkeiten von Ereignissen nicht isoliert betrachtet (was sich angesichts des generellen Prozesscharakters aller realen Ereignisse eigentlich sowieso verbietet), dann kommt man wie Popper zu der Annahme, dass die beobachtete — überzufällige aber dennoch auch nicht deterministische — Häufigkeit die nachfolgende ‚Wirkung‘ einer realen Ausgangskonstellation von realen Faktoren sein muss, deren reale Beschaffenheit einen ‚Anlass‘ liefert, dass ‚etwas Bestimmtes passiert‘, was zu einem beobachtbaren Ereignis führt.(vgl. S.11f, dazu auch [25]) Dies schließt nicht aus, dass diese realen Wirkungen von spezifischen ‚Bedingungen‘ abhängig sein können, die erfüllt sein müssen, damit es zur Wirkung kommt. Jede dieser Bedingungen kann selbst eine ‚Wirkung‘ sein, die von anderen realen Faktoren abhängig ist, die wiederum bedingt sind, usw. Obwohl also ein ‚realer Wirkzusammenhang‘ vorliegen kann, der als solcher ‚klar‘ ist — möglicherweise sogar deterministisch — kann eine Vielzahl von ‚bedingenden Faktoren‘ das tatsächliche Auftreten der Wirkung so beeinflussen, dass eine ‚deterministische Wirkung‘ dennoch nicht als ‚deterministisch‘ auftritt.

Popper sieht in dieser realen Inhärenz von Wirkungen in auslösenden realen Faktoren eine bemerkenswerte Eigenschaft des realen Universums.(vgl. S.12) Sie würde direkt erklären, warum Häufigkeiten (Statistiken) überhaupt stabil bleiben können. (vgl. S.12). Mit dieser Interpretation bekommen Häufigkeiten einen objektiven Charakter. ‚Häufigkeiten‘ verwandeln sich in Indikatoren für ‚objektive Tendenzen‘ (‚propensities‘), die auf ‚reale Kräfte‘ verweisen, deren Wirksamkeit zu beobachtbaren Ereignissen führen.(vgl. S.12)

Die in der theoretischen Wahrscheinlichkeit verbreitete Charakterisierung von wahrscheinlichen Ereignissen auf einer Skala von ‚1‘ (passiert auf jeden Fall) bis ‚0‘ (passiert auf keinen Fall) deutet Popper für reale Tendenzen dann so um, dass alle Werte kleiner als 1 darauf hindeuten, dass es mehrere Faktoren gibt, die aufeinander einwirken, und dass der ‚Nettoeffekt‘ aller Einwirkungen dann zu einer realen Wirkung führt die kleiner als 1 ist, aber dennoch vorhanden ist; man kann ihr über Häufigkeiten sogar eine phasenweise Stabilität im Auftreten zuweisen, so lange sich die Konstellation der wechselwirkenden Faktoren nicht ändert.(vgl. S.13) Was hier aber wichtig ist — und Popper weist ausdrücklich darauf hin — die ‚realen Tendenzen‘ verweisen nicht auf einzelne konkrete, spezielle Eigenschaften inhärent in einem Objekt, sondern Tendenzen korrespondieren eher mit einer ‚Situation‘ (’situation‘), die als komplexe Gesamtheit bestimmte Tendenzen ‚zeigt‘.(vgl. SS.14-17) [26]

Schaut man nicht nur auf die Welt der Physik sonder lenkt den Blick auf den Alltag, in dem u.a. auch biologische Akteure auftreten, speziell auch Lebensformen vom Typ Homo sapiens, dann explodiert der Raum der möglichen Faktoren geradezu, die Einfluss auf den Gang der Dinge nehmen können. Nicht nur bildet der Körper als solcher beständig irgendwelche ‚Reize‘ aus, die auf den Akteur einwirken, sondern auch die Beschaffenheit der Situation wirkt in vielfältiger Weise. Insbesondere wirkt sich die erworbene Erfahrung, das erworbene Wissen samt seinen unterschiedlichen emotionalen Konnotationen auf die Art der Wahrnehmung aus, auf die Art der Bewertung des Wahrgenommenen und auf den Prozess möglicher Handlungsentscheidungen. Diese Prozesse können extrem labil sein, so dass Sie in jedem Moment abrupt geändert werden können. Und dies gilt nicht nur für einen einzelnen Homo sapiens Akteur, sondern natürlich auch für die vielen Gruppen, in denen ein Homo sapiens Akteur auftreten kann bzw. auftritt bzw. auftreten muss. Dieses Feuerwerk an sich wechselseitig beständig beeinflussenden Faktoren sprengt im Prinzip jede Art von Formalisierung oder formalisierter Berechnung. Wir Menschen selbst können dem ‚Inferno des Alles oder Nichts‘ im Alltag nur entkommen, wenn wir ‚Konventionen‘ einführen, ‚Regeln des Verhaltens‘, ‚Rollen definieren‘ usw. um das praktisch unberechenbare ‚Universum der alltäglichen Labilität‘ partiell zu ‚zähmen‘, für alltägliche Belange ‚berechenbar‘ zu machen.

Popper zieht aus dieser Beschaffenheit des Alltags den Schluss, das Indeterminismus und freier Wille zum Gegenstandsbereich und zum Erklärungsmodell der physikalischen und biologischen Wissenschaften gehören sollten.(vgl. S.17f)

Popper folgert aus einer solchen umfassenden Sicht von der Gültigkeit der Tendenzen-Annahme für vorkommende reale Ereignisse, dass die Zukunft nicht determiniert ist. Sie ist objektiv offen.(vgl. S.18)

Näher betrachtet ist die eigentliche zentrale Einsicht tatsächlich gar nicht die Möglichkeit, dass bestimmte Wirkzusammenhänge vielleicht tatsächlich determiniert sein könnten, sondern die Einsicht in eine durchgängige Beschaffenheit der uns umgebenden realen Ereigniswelt die sich – dies ist eine Hypothese! — durchgängig als eine Ansammlung von komplexen Situationen manifestiert, in denen mögliche unterscheidbare Faktoren niemals isoliert auftreten, sondern immer als ‚eingebettet‘ in eine ‚Nachbarschaften‘, so dass sowohl jeder Faktor selbst als auch die jeweiligen Auswirkungen dieses einen Faktors immer in kontinuierlichen Wechselwirkungen mit den Auswirkungen anderer Faktoren stehen. Dies bedeutet, dass nicht nur die starke Idealisierungen eines mechanistischen Weltbildes — auch eine Hypothese — als fragwürdig angesehen werden müssen, sondern auch die Idealisierung der Akteure zu einer ‚ Monade‘ [27],[27b], die die Welt letztlich nur ‚von sich aus‘ erlebt und gestaltet — eine andere Hypothese –.[27c]

Denkt man gemeinsam mit Popper weiter in die Richtung einer totalen Verflechtung aller Faktoren in einem kontinuierlich-realen Prozess, der sich in realen Tendenzen manifestiert (vgl. S.18f), dann sind alle üblichen endlichen, starren Konzepte in den empirischen Wissenschaften letztlich nicht mehr seriös anwendbar. Die ‚Zerstückelung‘ der Wirklichkeit in lauter einzelne, kleine, idealisierte Puzzle-Teile, wie sie bis heute Standard ist, führt sich relativ schnell ad absurdum. Die übliche Behauptung, auf andere Weise könne man eben nichts Verwertbares Erkennen, läuft beständig Gefahr, auf diese Weise die reale Problematik der konkreten Forschungspraxis deutlich zu überdehnen, nur weil man in der Tat Schwierigkeiten hat, die vorfindliche Komplexität ‚irgendwie experimentell nachvollziehbar‘ zu rekonstruieren.

Popper dehnt seine Beispiele für die Anwendbarkeit einer objektivistischen Sicht von realen Tendenzen weiterhin aus auf die Chemie (vgl. S.19f) und auf die Evolution des Lebens. (vgl. S.20) Und auch wenn er zuvor sagte, dass die Zukunft objektiv offen sei, so ist sie dennoch in der realen Gegenwart implizit gegenwärtig in den Aktivitäten der vorhandenen realen Faktoren.(vgl. S.20) Anders formuliert, jede Zukunft entscheidet sich immer jetzt, in der Gegenwart, auch wenn die lebenden Akteure zu einem bestimmten Zeitpunkt vielleicht das Geflecht der vielen Faktoren und Wirkungen nur unvollständig durchschauen. Mangelndes Wissen ist auch ein realer Faktor und kann als solcher u.U. wichtige Optionen übersehen, die — würde man sie kennen — vielleicht viel Unheil ersparen würden.

Nachbemerkung – Epilog

Verglichen mit den vielen Seiten Text, die Popper im Laufe seines Lebens geschrieben hat, erscheint der hier kommentierte kurze Text von 27 Seiten verschwindend kurz, gering, möglicherweise gar unbedeutend.

Betrachtet man aber die Kernthesen von Poppers theoretischem Prozess, dann tauchen diese Kernthesen in diesem kurzen Text letztlich alle auf! Und seine Thesen zur Realität von beobachtbaren Tendenzen enthalten alles, was er an Kritik zu all jenen Wissenschaftsformen gesagt hat, die dieser Kernthese nicht folgen. Der ganze riesige Komplex zur theoretischen Wahrscheinlichkeit, zu subjektiver Wahrscheinlichkeit und zu den vielfältigen Spezialformen von Überlegungen zur Wahrscheinlichkeit sagen letztlich nicht viel, wenn sie die objektivistische Interpretation von Häufigkeiten, dazu im Verbund mit der Annahme eines grundlegenden realen Prozesses, in dem sich alle realen Faktoren in beständiger realer Wechselbeziehung befinden, nicht akzeptieren. Die moderne Quantenmechanik wäre in einer realen Theorie der objektiven Tendenzen tatsächlich eine Teiltheorie, weil sie nur einige wenige — wenngleich wichtige — Aspekte der realen Welt thematisiert.

Poppers Mission einer umfassenden Theorie von Wahrheit als Innensicht einer umfassenden prozesshaften Realität bleibt — so scheint es mir — weiterhin brandaktuell.

Fortsetzung Popper 1989

Eine Kommentierung des zweiten Artikels aus dem Büchlein findet sich HIER.

Anmerkungen

Abkürzung: wkp := Wikipedia, de := Deutsche, en := Englische

[*] Es gibt noch zwei weiter Beiträge vom ’späten‘ Popper, die ich in den Diskurs aufnehmen möchte, allerdings erst nachdem ich diesen Beitrag rezipiert und in das finale Theorieformat im Kontext des oksimo-Paradigmas eingebunden habe.

[1] Karl Popper in wkp-en: https://en.wikipedia.org/wiki/Karl_Popper (auch in wkp-de: https://de.wikipedia.org/wiki/Karl_Popper )

[1b] Wiener Kreis (‚vienna circle‚) in wkp-de: https://de.wikipedia.org/wiki/Wiener_Kreis und wkp-en: https://en.wikipedia.org/wiki/Vienna_Circle

[2a] Karl Popper, „A World of Propensities“, Thoemmes Press, Bristol, (1990, repr. 1995)

[2b] Karl Popper, The Logic of Scientific Discovery, zuerst publiziert 1935 auf Deutsch als  Logik der Forschung, dann 1959 auf Englisch durch  Basic Books, New York (viele weitere Ausgaben folgten; ich benutze die eBookausgabe von Routledge (2002))

[3a] Die meisten wohl im uffmm.org Blog.

[3b] Oksimo und Popper in uffmm.org: https://www.uffmm.org/2021/03/15/philosophy-of-science/

[4] Das oksimo-Paradigma und die oksimo-Software auf oksimo.org: https://www.oksimo.org/

[5] Robert Ulanowizc in wkp-en: https://en.wikipedia.org/wiki/Robert_Ulanowicz

[5b] Robert Ulanowizc, Ecology: The Ascendant Perspective, Columbia University Press (1997) 

[6a] Karl-Popper Sammlung der Universität Klagenfurt in wkp-de: https://www.aau.at/universitaetsbibliothek-klagenfurt/karl-popper-sammlung/

[6b] An dieser Stelle möchte ich die freundliche Unterstützung von Mag. Dr. Thomas Hainscho besonders erwähnen.

[7] Eine kürzere Version dieses Artikels hat Popper 1988 auf dem Weltkongress der Philosophie 1988 im Brighton vorgetragen (Vorwort zu [2a]).

[8] Rudolf Carnap in wkp-en: https://en.wikipedia.org/wiki/Rudolf_Carnap

[8b] Rudolf Carnap,  Logical Foundations of Probability. University of Chicago Press (1950)

[9] Aristoteles in wkp-de: https://de.wikipedia.org/wiki/Aristoteles

[10] Alfred Tarski in wkp-en: https://en.wikipedia.org/wiki/Alfred_Tarski

[11] Kurt Gödel in wkp-ed: https://en.wikipedia.org/wiki/Kurt_G%C3%B6del

[12] Aus dem Buch von Kegel „Die Herrscher der Welt…“: Siehe https://www.cognitiveagent.org/2015/12/06/die-herrscher-der-welt-mikroben-besprechung-des-buches-von-b-kegel-teil-1/

[13] Natürlich ist die Sachlage bei Betrachtung der hier einschlägigen Details noch ein wenig komplexer, aber für die grundsätzliche Argumentation reicht diese Vereinfachung.

[14] Das sagen uns die vielen empirischen Arbeiten der experimentellen Psychologie und Biologie, Hand in Hand mit den neuen Erkenntnissen der Neuropsychologie.

[15] Hinter diesen Aussagen stecken die Ergebnisse eines ganzen Bündels von wissenschaftlichen Disziplinen: vorweg wieder die experimentelle Psychologie mit hunderten von einschlägigen Arbeiten, ergänzt um Linguistik/ Sprachwissenschaften, Neurolinguistik, ja auch verschiedene philosophische ‚Zuarbeiten‘ aus dem Bereich Alltagssprache (hier unbedingt der späte Wittgenstein [16] als großer Inspirator) und der Semiotik.

[16] Ludwig Wittgenstein in wkp-en: https://en.wikipedia.org/wiki/Ludwig_Wittgenstein

[17] Logik ( ‚logic‚) in der wkp-de: https://de.wikipedia.org/wiki/Logik und wkp-en: https://en.wikipedia.org/wiki/Logic

[18] Mathematik (‚mathematics‚) in der wkp-de: https://de.wikipedia.org/wiki/Mathematik und wkp-en: https://en.wikipedia.org/wiki/Mathematics

[19] Werner Heisenberg in wkp-en: https://en.wikipedia.org/wiki/Werner_Heisenberg

[19b] Unsicherheitsprinzip (‚uncertainty principle‘) in wkp-en: https://en.wikipedia.org/wiki/Uncertainty_principle

[20] Natürlich gab es schon viele Jahrhunderte früher unterschiedliche Vorläufer eines Denkens in Wahrscheinlichkeiten.

[21] Theoretische Wahrscheinlichkeit, z.B. in wkp-en: https://en.wikipedia.org/wiki/Probability

[22] Subjektive Wahrscheinlichkeit, z.B. in wkp-de: https://de.wikipedia.org/wiki/Subjektiver_Wahrscheinlichkeitsbegriff; illustrieret mit der Bayeschen Wahrscheinlichkeit in wkp-en: https://en.wikipedia.org/wiki/Bayesian_probability

[23] Objektivistische Wahrscheinlichkeit, nur ansatzweise erklärt in wkp-de: https://de.wikipedia.org/wiki/Objektivistischer_Wahrscheinlichkeitsbegriff

[23b] Deskriptive Statistik in wkp-de: https://de.wikipedia.org/wiki/Deskriptive_Statistik (siehe auch ‚descriptive statistics in wkp-en: https://en.wikipedia.org/wiki/Descriptive_statistics

[24] Zu verschiedenen Sichten von Wahrscheinlichkeiten sie auch: Karl Popper, The Open Universe: An Argument for Indeterminism, 1956–57 (as privately circulated galley proofs;) 1982 publiziert als Buch

[25] Hier sei angemerkt, dass ein Akteur natürlich nur dann ein bestimmtes Ereignis wahrnehmen kann, wenn er (i) überhaupt hinschaut und (ii) er über geeignete Beobachtungsinstrumente (= Messgeräte) verfügt, die das jeweilige Ereignis anzeigen. So sah die Welt z.B. ohne Fernglas und Mikroskop ‚einfacher‘ aus als mit.

[26] Diese Betonung einer Situation als Kontext für Tendenzen schließt natürlich nicht aus, dass die Wissenschaften im Laufe der Zeit gewisse Kontexte (z.B. das Gehirn, der Körper, …) schrittweise immer mehr auflösen in erkennbare ‚Komponenten‘, deren individuelles Verhalten in einem rekonstruierbaren Wechselspiel unterschiedliche Ereignisfolgen hervorbringen kann, die zuvor nur grob als reale Tendenz erkennbar waren. Tatsächlich führt eine zunehmende ‚Klarheit‘ bzgl. der internen Struktur einer zuvor nicht analysierbaren Situation auch zur Entdeckung von weiteren Kontextfaktoren, die zuvor unbekannt waren.(vgl. S.14f)

[27] Gottfried Wilhelm Leibniz in wkp-de: https://de.wikipedia.org/wiki/Gottfried_Wilhelm_Leibniz

[27b] Monadenlehre von Leibnuz in wkp-de: https://de.wikipedia.org/wiki/Monade_(Philosophie)

[27c] Allerdings muss man bemerken, dass die Leibnizsche Monadenlehre natürlich in einem ziemlich anderen ‚begrifflichen Koordinatensystem‘ einzubetten ist und die Bezugnahme auf diese Lehre nur einen stark vereinfachten Aspekt trifft.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

DIE NATUR DER ERKLÄRUNG – Kenneth Craig – Diskussion

PDF

ÜBERBLICK

Craik führt in diesem Buch eine breit angelegte Diskussion im Spannungsfeld von Philosophie, Psychologie, Physiologie, Physik und Technik, die einige Hauptthemen erkennen lässt: ein Plädoyer für ein kausales Verständnis der realen Welt, für die Rekonstruktion von Bewusstsein durch Rückgriff auf das Nervensystem, für die zentrale Rolle mentaler Modelle, sowie für die wichtige Rolle von Sprache in allem Erklären.

I. KONTEXT

Alle Themen, die Craik in seinem Buch ”The Nature of Explanation” [Cra43] anspricht, sind Themen, die in verschiedenen Blogeinträgen schon zur Sprache gekommen sind. Das Buch wird daher etwas intensiver diskutiert, um damit die Position des Blogs weiter zu klären. Dabei ist zu beachten, dass Craik nicht nur eine große Linie verfolgt, sondern im Verlauf des Textes viele andere Themen anspricht, die irgendwie auch mit der großen Linie zusammenhängen. Dies macht die Lektüre manchmal etwas mühsam, wenngleich immer interessant. Dem Interesse des Blogs folgend werden daher nur einige Hauptthemen hier weiter diskutiert. Eine Lektüre dieser Themen ersetzt nicht die eigene Lektüre seines Buches.

II. ERKLÄRUNG DURCH KAUSALITÄT

K.Craik - Stichworte aus Kap.1-4
K.Craik – Stichworte aus Kap.1-4

Das Schaubild 1 enthält nur einige der einschlägigen Stichworte von Craig aus den ersten vier Kapiteln, und auch nur kursorisch.

Aus den vielen Argumenten, die gegen die Möglichkeit einer Erklärung durch Kausalität sprechen, stammt das prominenteste von David Hume (1711 – 1776), für den die Beschaffenheit der sinnlichen Wahrnehmung keinen direkten Schluss auf eine kausaler Beziehung der Art ’B ist da durch A’ zulässt. Zu einem bestimmten Augenblick
haben wir einen Momenteindruck, beim nächsten Augenblick auch. Zwischen verschiedenen Augenblicken kann es zwar Unterschiede geben, aber diese lassen nicht zwingend eine Interpretation in Richtung einer kausalen Beziehung zu.

Neben sehr vielen anderen Positionen bespricht Craik auch die Position der modernen Physik sofern sie quantenmechanische Modelle benutzt. Angesichts einer prinzipiellen Messungenauigkeit (Heisenberg, Unschärferelation) und unbeobachtbaren Objekten soll eine direkte kausale Zuschreibung nicht mehr möglich sein. Es gibt nur noch
Regelmäßigkeiten in Form von statistischen Tendenzen. Craik kritisiert in diesem Zusammenhang, dass man aus den Grenzen der Beobachtbarkeit nicht notwendigerweise darauf schließen kann, dass es deswegen grundsätzlich
keine Kausalität mehr gäbe. Ferner weist er anhand vieler Beispiele darauf hin, dass die Theorien der Wahrscheinlichkeit als Theorien starke implizite Annahmen über die vorausgesetzten Ereignismengen machen, die grundlegende Wechselwirkungen, auch in Form kausaler Beziehungen, voraussetzen.

Aus der Sicht Craiks ist die Position Humes nicht ganz korrekt, da das sinnliche Material immer schon in eine Raumstruktur eingebettet ist, die implizite Wechselbeziehungen realisiert (zwei gleichartige Objekte können nicht zugleich auf ein und derselben Raumstelle sein); ferner gehört die Zeitstruktur zur Wahrnehmung (darin über die
rein sinnlichen Anteile hinausgehend), die zumindest potentielle Abfolgen erkennen lassen (B folgt auf A in der Zeit). Dies impliziert zwar nicht unmittelbar eine kausale Beziehung, bietet aber einen Anknüpfungspunkt für eine Hypothese und Experimente. Im Rahmen der Zeitstruktur kann man z.B. allerlei Veränderungen beobachten, z.B.
auch eine Veränderung von Energieleveln. Diese bieten Ansatzpunkte für Hypothesen und Experimente.

Für Craik realisiert sich empirische Wissenschaft durch das Ernst nehmen von vorfindlichen Gegebenheiten, von Fakten, bezogen auf die man Hypothesen bzgl. möglicher Zusammenhänge formulieren kann. Diese Hypothesen kann man dann in Experimenten überprüfen. Sofern sich die Hypothesen bestätigen lassen, soll dies eine gewisse Zufriedenheit auslösen. Geprüfte Zusammenhänge ermöglichen Verstehen, Einsicht, erlauben Voraussagen, mit Voraussagen kann man zukünftige Situationen vorweg nehmen, um sich dadurch auf kommende Situation einzustellen.
Ferner erlaubten geprüfte Zusammenhänge auch unterschiedliche praktische Nutzungen.
Fehlen geprüfte Zusammenhänge, dann kann dies zu Enttäuschungen, ja zu Frustrationen führen. Man kann dann nichts ableiten, nichts voraus sagen, nicht wirklich planen; auch eine praktische Nutzung ist nicht möglich. Man versteht das auslösende Phänomen dann nicht wirklich.

III. DENKEN UND NERVENSYSTEM

K.Craik - Die Erkennungsleistung des Systems Mensch
K.Craik – Die Erkennungsleistung des Systems Mensch

Nach zahlreichen vorausgehenden kritischen Anmerkungen zu unterschiedlichen Positionen in der Philosophie und in den Wissenschaften, geht Craik davon aus, dass der Mensch in einer realen Welt vorkommt. Einige der Ereignisse in dieser Welt können von Sinnesorganen beobachtet werden. Beobachten heißt hier, dass diese Ereignisse sowohl
in interne neuronale Ereignisse übersetzt werden, zusätzlich aber auch in eine symbolischer Sprache  mittels der Bezug genommen werden kann auf viele interne Gegebenheiten, Ereignisse und Prozesse. Das Andere der Symbole ist dann ihre Bedeutung (’meaning’). Was immer auch intern im einzelnen geschieht, es gibt unterschiedliche Prozesse, die abstrakt als Denken, Schlüsse ziehen, Voraussagen machen beschrieben werden. Ein wesentliches Element dieser Prozesse ist das Generieren von internen, mentalen Modellen, deren Analogien mit der realen
Außenwelt so groß sind, dass wichtige Eigenschaften und Prozesse der Außenwelt in ihren kausalen Beziehungen so nachgebildet werden können, dass auf ihrer Basis einigermaßen zuverlässige Voraussagen über die Zukunft gemacht werden können, die sich überprüfen lassen.

Craik wirft auch die Frage auf, welche Eigenschaften am Nervensystem es wohl sind, die alle diese Leistungen ermöglichen? Anhand verschiedener Verhaltensphänomene (visueller Reiz, Retina, Adaption, Differenzierung, Ähnlichkeit, bewusst – unbewusst, Reflexe, Zahlen und deren Nutzung, Gedächtnis, Lernen, Gefühle, …) diskutiert er
dann die Anforderungen, die an das System gestellt werden und überlegt, ob und wie diese Anforderungen rein technisch bzw. mittels des Nervensystems eingelöst werden könnten. Diese Überlegungen sind in ihrem grundsätzlichen Charakter interessant, aber der Stand des Wissens in seiner Zeit zum Nervensystem und zu neuronalen Modellen
war nicht ausreichend, um alle diese Phänomene verbindlich diskutieren zu können.
Immer wieder stellt er die zentrale Rolle der symbolischen Sprache heraus, mittels der sich komplexe Strukturen und Modelle generieren lassen, mit denen Erklärungen möglich werden, Voraussagen und auch die Koordinierung zwischen den Gehirnen.

Bei seiner Beschreibung der realen Welt fällt auf, dass er stark fixiert ist auf einfache physikalische Strukturen; die Besonderheit und Komplexität biologischer Systeme tritt wenig hervor. Dies obgleich er ja die komplexen Strukturen von Menschen sehr wohl diskutiert.

Er sieht allerdings schon ein Eigengewicht der mentalen logischen Strukturen gegenüber der ’reinen Maschinerie’ des Nervensystems, insofern das Nervensystem als solches funktioniert unabhängig von Logik und Bedeutung. In wissenschaftlichen Kontexten aber muss auch Logik und Bedeutung stimmen, andernfalls gelingt die Argumentation
nicht. Allerdings, auch hier gilt, dass auch eine Logik und mögliche Bedeutungen im mentalen Bereich ebenfalls Leistungen des Nervensystems sind. Das gerade ist das Besondere. Reine Introspektion kann zwar die phänomenale Seite des Geistes enthüllen, nicht aber seine neuronale Seite. Dazu bedarf es mehr als Introspektion.

Craik postuliert auch den Faktor der Gefühle (’feelings’) und der Emotionen (’emotions’) als grundlegend für das Verhalten. Zufriedenheit und Unglücklich sein sind starke Motive für das gesamte Verhalten. Wissenschaft lebt davon, Kunst, aber auch viele psychische Krankheiten scheinen mit einem Missmanagement der Gefühle zu tun zu haben.
Das Wechselspiel zwischen Gefühlen und dem gesamten Lebensprozess umschließt nach Craik viele Faktoren, viele dabei oft unbewusst, so dass das Erkennen der Zusammenhänge in der Regel nicht einfach ist. Klassische Ethik und Moral dagegen tendieren zu Vereinfachungen, die dann sachlich unangemessen sind.

IV. DISKURS

Die vorgestellten Gedanken von Craik sind, wohlgemerkt, nur eine Art Extrakt, viele interessante Details bleiben ungesagt. Für das Anliegen des Blogs kann dies aber u.U. genügen.

Das Thema empirische Wissenschaft, Messen, Erklären usw. steht in Übereinstimmung mit dem, was bislang angenommen wurde. Craik ist sehr bemüht, die Perspektive der Introspektion zu übersteigen, da er zu Recht erkennt, dass diese allein nicht ausreicht. Zugleich sieht er sehr wohl eine gewisse Eigenständigkeit der introspektiven Dimension. Was er aber nicht leistet, das ist ein Aufweis, wie man methodisch sauber beide Dimensionen kombiniert [Anmerkung: Dass eine empirischer Herangehensweise allein die Gesamtheit des Phänomens aber auch nicht erreichen kann, dies spricht Craik nicht
an. Letztlich haben wir es hier mit einem methodischen Deadlock zu tun: Introspektion benötigt zusätzlich empirische Methoden, empirische Methoden benötigen zusätzlich sehr dringend Introspektion. Dieses methodische Problem ist bis heute nicht befriedigend gelöst.] Im Blog gab es dazu zumindest einige Versuche.

Die gezielte Nachfrage danach, wie man welche der introspektiv und im Verhalten zugänglichen Eigenschaften des Menschen mittels neuronaler Mechanismen modellieren könnte, wurde hier im Blog noch nicht diskutiert. Es gibt dazu einige Skript aus Vorlesungen, die aber bislang keinen Eingang in den Blog gefunden haben [Anmerkung: Dazu findet sich mehr in dem korrespondierenden Blog uffmm.org.4].  Die Frage
ist aber tatsächlich philosophisch relevant. Die Frage wurde vom Autor cagent bislang deswegen in diesem Blog kaum diskutiert, weil er der Frage nachging, ob und wieweit man neuronale Netze durch andere mathematisch äquivalente Mechanismen ersetzen kann um dann die Fragen nach der Substitution dann mit diesen anderen Strukturen zu untersuchen. In den letzten Jahren sind neuronale Netze so populär geworden, dass sich kaum jemand noch dafür interessiert, ob und welche alternativen Formalismen es auch tun würden und möglicherweise einfacher. Grundsätzlich ist seit langem bekannt, dass neuronalen Netze nicht mehr können als im Konzept der Turingmaschine definiert ist. Man muss also aus theoretischen Gründen keine Neuronalen Netze benutzen, wenn
sie denn nicht speziell besondere Vorteile bieten.

Die Lektüre von Craik hat allerdings dazu ermutigt, die Idee der parallelen Analyse von Verhalten, Introspektiv zugänglichem Bewusstseinsraum, sowie Physiologie des Gehirns im Körper weiter Raum zu geben, immer natürlich auch mit Blick auf evolutionäre Entwicklungen unter Einschluss der Kultur. Ferner sollte dabei die parallele Entwicklung intelligenter Maschinen mit reflektiert werden, sehr wohl in Bezugssetzung zu den biologischen Systemen.

Vor lauter Faszination durch die moderne Technik geht vielfach unter, dass die Naturwissenschaften in den letzten 10 Jahren ungeheuerlich interessante Aspekte des biologischen Lebens (und der umgebenden Welt) zutage gefördert haben, die das Bild vom Menschen im Universum eigentlich radikal verändern könnten. Obwohl die Roboter und die KI-Programme vergleichsweise simple Strukturen darstellen, die jeder intelligente Schüler verstehen könnte, wenn man es ihm denn erzählen würde, stoßen wir im biologischen Leben auf immer unfassbare Komplexitäten und Verschiebungen von Perspektiven, die eigentlich alle Aufmerksamkeit erfordern würden.

QUELLEN
[Cra43] Kenneth Craik. The Nature of Explanation. Cambridge University Press, Cambridge (UK), 1 edition, 1943.

FORTSETZUNG

Für eine Fortsetzung der Diskussion siehe HIER.

 KONTEXTE

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

GEMEINSAMKEIT IN DER VIELFALT – GRASWURZEL-/ BOTTOM-UP-PHILOSOPHIE – Memo zur philosophieWerkstatt vom 12.Okt.2014

Dieses Memo bezieht sich auf die philosophieWerkstatt v.2.0 vom 12.Okt.2014.

1. Ein neuer Ort, eine neue Zeit, neue Menschen …. die philosophieWerkstatt v2.0 ging an den Start und trotz schönem Wetter und vielen Grippeinfizierten gab es eine bunte Runde von Gesprächsteilnehmern die sich zu einem philosophischen Gespräch zusammen fanden.

2. In einer kleinen ‚Aufwärmphase‘ konnte jeder etwas von sich und seinen Erwartungen erzählen und es wurde ein erstes Begriffsfeld sichtbar, das von Vielfalt kündete und einen erkennbaren Zusammenhang noch vermissen lies (siehe nachfolgendes Bild).

Begriffe im Raum, unverbunden, der Anfang
Begriffe im Raum, unverbunden, der Anfang

3. Es stand die Frage im Raum, ob und wie man hier zu einem verbindlichen Zusammenhang kommen könne? Wie – hier vorgreifend auf das Ergebnis des Gespräches – das abschließende Gesprächsbild andeutet, kam es zu immer mehr Differenzierungen, wechselseitigen Abhängigkeiten, Verdichtungen und Abstraktionen, die – wenngleich noch zaghaft – eine erste Struktur andeuten, an der man bei einem Nachfolgegespräch weiter anknüpfen könnte.

Begriffe in einem beginnenden Zusammenhang, Umrisse einer Struktur
Begriffe in einem beginnenden Zusammenhang, Umrisse einer Struktur

BILDER VON DER WELT – BEDEUTUNG

4. Eine erste Wendung im Gespräch kam durch den Hinweis, dass die ‚Bedeutung‘, die wir von den ‚Ausdrücken‘ einer Sprache unterscheiden, ‚in unserem Kopf‘ zu verorten sei. Dort. ‚in unserem Kopf‘ haben wir ‚Bilder von der Welt‘ (‚Vorstellungen‘, ‚mentale Repräsentationen‘), die für uns ‚Eigenschaften der umgebenden Welt‘ repräsentieren.

VORWISSEN

5. Bald kam auch der Begriff des ‚Vorwissens‘, der ‚bisherigen Erfahrung‘, einer ‚Vorprägung‘ ins Spiel: gemeint war damit, dass wir in jedem Augenblick nicht vom Punkt Null beginnen, sondern schon Erfahrungen in der Vergangenheit gemacht haben, die auf die aktuelle ‚Wahrnehmung der Welt‘ einwirken: als ‚Erwartungen‘, als ‚Vor-Urteil‘, als ‚Übertragung‘.

SOZIALER DRUCK

6. Hier wurde auch darauf hingewiesen, dass die ‚Interpretation der Wahrnehmung‘ von anderen Menschen (‚Gruppenzwang‘, ‚gesellschaftliche Gewohnheiten/ Erwartungen‘, ‚Prüfungssituationen‘) zusätzlich beeinflusst werden kann. Während man normalerweise spontan (fast unbewusst) entscheidet, wie man eine Wahrnehmung interpretieren soll (obgleich sie vieldeutig sein kann), kann dieser Prozess unter sozialem Druck gestört werden; wie zögern, werden unsicher, bemerken, dass die Situation vielleicht nicht eindeutig ist, und suchen dann nach Anhaltspunkten, z.B. nach den Meinungen der anderen. Oft ist es so, dass die ‚Mehrheit‘ besser ist als die Meinung eines einzelnen; die Mehrheit kann aber auch völlig daneben liegen (berühmtes Galileo-Beispiel).

ÄHNLICHKEITEN ZWISCHEN PERSONEN

7. Die Frage war, wie es denn überhaupt zu ‚Ähnlichkeiten‘ zwischen Personen kommen kann, wenn jeder seine Bilder im Kopf hat?

8. Ein Schlüssel scheint darin zu liegen, dass jeder seine Bilder in seinem Kopf anlässlich der Gegebenheiten der umgebenden Welt ‚formt‘. Sofern die umgebende Welt für alle die ‚gleiche‘ ist, lässt sich von daher eine gewisse Ähnlichkeit der Bilder motivieren.

9. Zusätzlich gibt es aber auch die Sachlage, dass die Körper der Menschen mit ihren Organen und Prozessen, insbesondere mit ihrem Gehirn und den darauf basierenden Information verarbeitenden Prozessen, eine gewisse Ähnlichkeit zwischen allen Menschen aufweisen, so dass auch dadurch Ähnlichkeiten zwischen den Bildern im Kopf begünstigt werden.

BEGRENZUNG DES BEWUSSTSEINS

10. In der neuzeitlichen Orientierung am Bewusstsein als primärer Erkenntnisquelle (ungefähr seit Descartes und später bis zur Phänomenologie) gab es keine Ansatzpunkte, um diese implizite ‚Harmonie der Körper und Erkenntnisse‘ aufzuhellen. Die antike Philosophie – insbesondere Aristoteles und seine Schüler – hatte zwar Ansatzpunkte, die Erkenntnisse über die Welt einzubeziehen, aber die damaligen ‚Welterkenntnisse‘ reichten nicht aus, um das moderne empirische Wissen über die physikalische, chemische, biologische und kulturelle Evolution vorweg zu nehmen. Erst mit den neuen Wissenschaften und einer davon inspirierten Strömung einer ‚evolutionär inspirierten‘ Erkenntnistheorie und Philosophie lieferte erste sachdienliche Hinweise, dass die unübersehbare ‚Harmonie der Körper‘ auch ein Grund für die Ähnlichkeit zwischen den Bildern in den verschiedenen Köpfen sein kann.

SCHLÜSSEL EVOLUTION

11. Mehr noch, die verblüffende ‚Passung‘ von menschlicher Erkenntnis zur ‚umgebenden Welt‘ ist letztlich vollständig induziert von einer evolutionären Entwicklung, in der sich nur solche Organismen ‚durchsetzen‘ konnten, die relativ am besten die ‚lebensfördernden Eigenschaften‘ der umgebenden (aber auch in sich sich verändernden) Welt aufgreifen und nutzen konnten.

12. Wenn man davon sprechen kann, dass der Menschen ein ‚Ebenbild‘ sei, wie es biblische Texte nahelegen (hier ohne kritischen Kommentar), dann zunächst mal ein Ebenbild der vorgegebenen Erde als Teil eines Sonnensystems als Teil einer Galaxie als Teil eines BigBang-Universums (Weiterreichende Interpretationen sind damit per se noch nicht ausgeschlossen).

BILDER IM KOPF vs. WELT

13. Es wurde auch festgestellt, dass man zwischen den ‚Bildern von der Welt im Kopf‘ und den ’sprachlichen Ausdrücken‘ unterscheiden muss.

ALLGEMEINBEGRIFFE

14. Die ‚Bilder von der Welt‘ repräsentieren irgendwie (mal mehr, mal weniger ‚passend‘) die ‚Gegebenheiten‘ der umgebenden Welt. Dies geschieht durch eine ‚denkerische‘ Mixtur aus ’sinnlicher Erfahrung von Einzelnem‘ und ‚denkerischer Abstraktion von Allgemeinheiten‘, so dass wir in jedem Moment zwar einen einzelnen konkreten Gegenstand identifizieren können, zugleich aber auch immer einen ‚allgemeinen Begriff‘, eine ‚Kategorie‘ zur Verfügung haben, die anhand von ‚abstrahierten Eigenschaften‘ einzelne Gegenstände als ‚Beispiele‘ (‚Instanzen‘) einer allgemeinen Struktur erscheinen lässt. Unser Denken lässt gar nichts anderes zu; es ‚zwingt‘ uns zur ‚automatischen‘ (‚unbewussten‘) Konstruktion von ‚Allgemeinbegriffen‘.

SPRACHE UND DING

15. Es wurde darauf hingewiesen, dass wir ja auch verschiedene Sprachen sprechen und dass möglicherweise die ‚Bilder im Kopf‘ bis zu einem gewissen Grade unabhängig von der verwendeten Sprache sind. Deswegen können wir auch zwischen den Sprachen übersetzen! Weil die körpergebundenen Sachstrukturen – bis zu einem gewissen Grade – sprachunabhängig gegeben sind und sich ‚aufbauen‘, können die Ausdrücke einer Sprache L darauf Bezug nehmen und durch andere ‚bedeutungsgleiche‘ Ausdrücke ‚ersetzt werden.

VERÄNDERLICHE WELT vs. STATISCHE BILDER

16. Die ‚Bedeutung‘ sprachlicher Ausdrücke (ihre ‚Semantik‘) begründet sich also von den körperbedingten Objektstrukturen her. Wenn nun die umgebende Welt sich ändert (Prozess, Geschichte, Evolution, …), dann ändern sich zwar die Sachstrukturen in der Welt, nicht aber unbedingt synchron die Bilder im Kopf eines Menschen. Damit entsteht das, was wir oft erleben: Menschen benutzen Ausdrücke einer Sprache L, ‚Begriffe‘, ‚Termini‘, die sie mit bestimmten ‚Bildern im Kopf‘ verknüpfen (assoziieren), aber diese Bilder können ‚veraltet‘ sein, da sich die Gegebenheiten in der Welt mittlerweile verändert haben (im Gespräch wurde der Ausdruckswandel des Begriffs ‚Student‘ angesprochen).

EINFACH vs. KOMPLEX

17. Vor dem Hintergrund einer ‚erlernten‘ Bedeutung kann es dann passieren, dass die ‚erlernten‘ Bedeutungen aus einer früheren Zeit die Welt ‚einfacher‘ erscheinen lassen als die gegenwärtige Welt mit ihrer wachsenden Vielfalt (es standen die Bemerkungen im Raum, dass Mädchen und junge Frauen es früher ‚einfacher‘ gehabt haben sollen als Mädchen und junge Frauen heute).

WAS IST WAHRHEIT?

18. An diesem Punkt im Gespräch angekommen stellte sich nochmals die Frage nach der ‚Wahrheit‘, ein Begriff, der ganz am Anfang etwas isoliert im Raum stand.

19. Ausgangspunkt ist die alltägliche Beobachtung, dass wir manchen Aussagen als ‚richtig‘, manche als ‚falsch‘ bezeichnen. Dies knüpft an dem Umstand an, dass ‚Behauptungen über die Gegebenheiten der Welt‘ bis zu einem gewissen Grade ‚überprüfbar‘ sind. D.h. es scheint, dass wir die ‚Bilder in unserem Kopf‘ mit den sinnlich wahrnehmbaren Gegebenheiten der umgebenden Welt bis zu einem gewissen Grad so ‚vergleichen‘ können, dass wir eine ‚Übereinstimmung‘ oder ‚Nicht-Übereinstimmung‘ feststellen können, und zwar alle Menschen in gleicher Weise.

20. Wenn wir diesen grundsätzlichen Sachverhalt zum Ausgangspunkt nehmen, dann würde der Begriff ‚Wahrheit‘ in diesem Kontext bedeuten, dass eine Aussage mit ’sinnlicher Bestätigung‘ sowohl ‚richtig‘ als auch ‚wahr‘ wäre bzw. — falls keine Übereinstimmung vorliegt –, ’nicht richtig‘ bzw. ‚falsch‘ bzw. ’nicht wahr‘ wäre.

21. Bei diesem Interpretationsansatz werden damit die ‚Gegebenheiten der Welt‘ zum Ausgangspunkt, zur ‚Vorgabe‘, zum ‚Maßstab‘, an dem wir uns letztlich orientieren. Davon abgeleitet könnte man dann auch – ganz im Sinne der antiken Metaphysik und Ontologie – davon sprechen, dass ‚das Seiende‘, wie es uns – in gewissem Sinne ‚a priori‘ – vorgegeben ist, das ‚Wahre‘, die ‚Wahrheit‘ verkörpert, an der wir uns orientieren müssen, wollen wir im Sinn der Welt/ des Sonnensystems/ der Galaxie/ des BigBang-Universums/ des … ‚wahr‘ sein. Empirische Wissenschaft ist dann nichts anderes als antike Metaphysik (dafür gäbe es noch mehr Argumente).

22. Eine solcherart (ontologisch) verstandene Wahrheit ist dann nicht beliebig, sondern eher ‚verpflichtend‘: wer das ‚Leben‘ ‚achtet‘ und ‚liebt‘ muss sich eigentlich an dieser Wahrheit orientieren. Dies wäre damit auch die mögliche Begründung einer ‚Ethik des Lebens‘, die sich z.B. als ‚ökologisches Denken‘ manifestiert.

ANALYTISCH WAHRHEIT

23. Wenn wir annehmen, dass wir zu einem bestimmten Zeitpunkt ‚Bilder im Kopf‘ von der umgebenden Welt haben und wir diese Bilder als ‚zutreffen‘ – sprich als ‚wahr‘ – betrachten, dann können wir oft auch auf der Basis dieser vorausgesetzten Bilder ‚Schlüsse ziehen‘. Berühmt sind die Beispiele mit Syllogismen wie (Annahme 1) ‚Alle Menschen sind sterblich‘, (Annahme2:) ‚Sokrates ist ein Mensch‘, (Schluß:) ‚Sokrates ist sterblich‘. Nimmt man an, dass Annahme 1 und 2 ‚wahr‘ sind, dann folgt ‚analytisch‘ (ohne Bezug auf die aktuelle empirische Welt), der Schluss. Die Wissenschaft der Logik arbeitet im Prinzip nur mit solchen analytischen Schlüssen und ihren möglichen (formalen) Formen. Sie weiß als Wissenschaft der Logik nichts von der Welt (was sich auch darin auswirkt/ auswirken kann, dass sie formale Strukturen entwickelt, die mehr oder weniger ‚unbrauchbar‘ für das weltbezogene Alltagsdenken sind).

ALLE SIND TRÄGER DER WAHRHEIT

24. Rückblickend zu diesem Gespräch kann man also sagen, dass letztlich jeder Stücke der allgemeinen Wahrheit mit sich herum trägt und dass es eigentlich nur darauf ankommt, diese einzelnen Fragmente zusammen zu sammeln und sie in rechter Weise ‚zusammen zu fügen’… Graswurzel-Philosophie … Bottom-Up Philosophie … induktives Denken …

Die Ankündigung zur nächsten Sitzung am 9.Nov.2014 findet sich HIER.

Für einen Überblick über alle Blogeinträge zur Philosophiewerkstatt siehe HIER

Für einen Überblick über alle Blogeinträge nach Titeln siehe HIER

AVICENNAS ABHANDLUNG ZUR LOGIK – Teil 11

Bildskizzen zu Avicennas Diskussion der Aussagetypen Disjunktive und Konjuntive Konditionale
Bildskizzen zu Avicennas Diskussion der Aussagetypen Disjunktive und Konjuntive Konditionale

VORGESCHICHTE

Für einen Überblick zu allen vorausgehenden Beiträgen dieser rekonstruierenden Lektüre von Avicennas Beitrag zur Logik siehe AVICENNAS ABHANDLUNG ZUR LOGIK – BLITZÜBERSICHT.

Aufgrund des großen Umfangs enthält dieser Blogeintrag zu Avicennas Logik – im Gegensatz zu den vorausgehenden Blogeinträgen 1-9 – nur den Diskussionsteil von Blogeintrag 10. In Blogeintrag 10 wurde weiter die Position Avicennas beschrieben. Ziel der Lektüre ist die Rekonstruktion einer möglichen Theorie der Alltagslogik, wie sie dann in künstlichen lernenden Systemen eingesetzt werden soll (hier trifft die Philosophie direkt auf die Ingenieurskunst ….; man nennt dies ‚Informatik‘).

DISKUSSION

26. Wie schon mehrfach bemerkt, erscheint die Verwendungsweise der meisten Begriffe in Avicennas Abhandlung über die Logik ‚fließen‘ oder – mit einem Begriff aus der modernen Logik – ‚fuzzy‘.

27. Dies hat damit zu tun, dass Avicenna für die Verwendung seiner Begriffe keine klaren Kriterien benutzt. Typisches Beispiel ist sein Begriff der ‚Harmonie‘, den er für die Klassifikation von Antezedenz – Konsequenz Verhältnisse benutzt. Klar ist, dass er für diesen Begriff auf die Bedeutungsdimension zurückgreift; unklar ist, wie genau er dies versteht, da das, was er praktisch überall als ‚Bedeutung unterstellt‘, nirgendwo präzisiert wird. Will man diesen Nachteil beheben, muss man einen Weg finden, die Kriterien zu klären. Ein erprobtes Mittel dafür ist, alle die Umstände explizit zu machen, zu benennen, die man als für ein Kriterium ‚relevant‘ erachtet. Dies ist in der modernen Wissenschaft eine Mischung aus kontrollierten Beobachtungen und theoretischen Annahmen. Und da keine Beobachtung einen ‚Sinn‘ ergibt ohne Bezug zu vorausgesetzten Beziehungen/ Relationen/ Strukturen/ Modellen beginnt jede Klärung eines vagen Zusammenhangs mit ersten ‚theoretischen Annahmen‘ darüber, welche Zusammenhänge man für wichtig hält, mit denen man bekannte – oder noch zu messende – Phänomene ‚erklären‘ möchte.

28. Beginnen wir mit den letzten Annahmen von Avicenna.

AUSSAGEN – AUSSAGESTRUKTUREN

29. Ausgangspunkt sind solche Ausdrücke E, die ‚wahr‘ oder ‚falsch‘ sein können; er nennt sie ‚Aussagen‘ [PROP]: $latex PROP \subseteq E$.
30. Aus logischer Sicht hat Avicenna bislang vier funktionale Rollen innerhalb einer Aussage unterschieden: ‚Subjekt‘, ‚Prädikat‘, ‚Aussageoperatoren‘ sowie ‚Quantoren‘.
31. Minimal benötigen wir ‚Subjekt‘ S und ‚Prädikat‘ P, so dass man im Prädikat P etwas über das Subjekt S aussagen kann: $latex (S P)$
32. Zusätzlich gibt es die Rolle der logischen ‚Aussage-Operatoren‘ ‚Negation‘ $latex \neg$, ‚Exklusive Disjunktion‘ (auch ‚Kontravalenz‘ oder ‚X-OR‘) $latex \sqcup$, und ‚Quantoren‘ Q. Hier unterscheidet er Quantoren über die ‚Anzahl‘ $latex Q_{q}$, und Quantoren über die ‚Zeit‘ $latex Q_{t}$. Man solle gleich noch die Quantoren über den ‚Raum‘ $latex Q_{s}$ ergänzen; diese erwähnt er nicht explizit, aber im Bereich des Bedeutungsraumes spielt die Dimension des Raumes eine wichtige Rolle und begegnet uns in sehr vielen Aussagen.
33. Bei der Verwendung von Quantoren bezieht man sich immer auf eine Gesamtheit. Im Falle von Zeit-Quantoren $latex Q_{t}$ sind dies Zeitpunkte angeordnet auf einem Zeitstrahl. Im Falle von Anzahl-Quantoren $latex Q_{q}$ bezieht man sich auf die Objekte, zu denen das Subjekt einer Aussage in einer Beziehung steht; im Falle von Raum-Quantoren $latex Q_{s}$ bezieht man sich auf zu definierende ‚Raumstellen‘.
34. Unter der Voraussetzung, dass eine Aussage A = (S P) ‚wahr‘ oder ‚falsch‘ sein kann, kann man sagen, dass $latex \neg A$ ‚wahr‘ ist, wenn ‚A‘ alleine ‚falsch‘ ist, d.h. wenn die Aussage A= (S P) nicht zutrifft; d.h. $latex (S \neg P)$ trifft zu.
35. Die Aussage ‚Entweder A oder B‘ $latex (A \sqcup B)$ ist ‚wahr‘, wenn entweder A wahr und B falsch ist oder B wahr und A falsch. Die Verneinung von $latex \neg(A \sqcup B)$ ist wahr, wenn entweder A und B zusammen wahr oder zusammen falsch sind.
36. Die Aussage ‚Wenn A dann B‘ $latex (A \rightarrow B)$ ist nur dann falsch, wenn A zutrifft und zugleich B falsch ist. In allen anderen Fällen ist die Implikation wahr. Die Verneinung $latex \neg(A \rightarrow B)$ wäre dementsprechend wahr, wenn A wahr wäre und B nicht; in allen anderen Fällen falsch
37. Es sei angemerkt, dass die Implikation $latex (A \rightarrow B)$ äquivalent ist zu $latex \neg(A \wedge \neg B)$, wobei das Zeichen ‚$latex \wedge$‘ den aussagenlogischen Operator ‚Konjunktion‘ (‚und‘) repräsentiert. $latex (A \wedge B$ sind nur wahr, wenn A und B zugleich wahr sind, sonst falsch.
38. Quantoren werden Aussagen vorangestellt, also (Q A) bzw. (Q (S P)).
39. Anzahl-Quantoren $latex Q_{q}$ wären ‚alle‘ und verneint $latex \neg Q_{q}$ ’nicht alle‘, definiert durch ‚einige := nicht alle‘.
40. Zeit-Quantoren $latex Q_{t}$ wären ‚immer‘ und verneint $latex \neg Q_{t}$ ’nicht immer‘, definiert durch ‚manchmal := nicht immer‘.
41. Raum-Quantoren $latex Q_{s}$ wären ‚überall‘ und verneint $latex \neg Q_{s}$ ’nicht überall‘, definiert durch ‚einige := nicht überall‘.
42. Als Schreibweisen hat sich herausgebildet, im Falle von ‚alle’/ ‚immer’/ ‚überall‘ von ‚All-Quantoren‘ zu sprechen und zu schreiben $latex \forall(x)$. Das ‚x‘ steht dann für die Art von Objekten, über deren Gesamtheit quantifiziert wird. Im Fall von ‚einige’/ ‚manchmal“ spricht man von ‚Partikularquantoren‘ (missverständlich auch ‚Existenzquantoren‘) und schreibt $latex \exists(x)$. Das ‚x‘ steht wieder für die Art von Objekten, über deren Gesamtheit quantifiziert wird.
43. Im Falle von Partikularquantoren von ‚Existenzquantoren‘ zu sprechen ist leicht irreführend, da ein Existenzquantor $latex \exists(x)$ keine Aussage über die reale Existenz in der umgebenden Welt W trifft, sondern nur angibt, über wie wieviele Objekte x einer Art gesprochen werden soll.
44. Beispiel: ‚Manchmal ist der Himmel grau‘ $latex \exists(t)(der Himmel)(t)(ist grau)$. Es gibt einige Zeitpunkte t (aus der Gesamtheit der geordneten Zeitpunkte T), an denen vom Himmel gesagt werden kann, dass er grau ist.
45. Beispiel: ‚Überall scheint die Sonne‘ $latex \forall(s)(die Sonne)(scheint)$. An allen Raumpunkten s (aus der Gesamtheit der Raumpunkte S), kann von der Sonne gesagt werden kann, dass sie scheint.
46. Beispiel: ‚Alle Menschen sind sterblich‘ $latex \forall(x)(Menschen)(sind sterblich)$. Für alle Objekte aus der Gesamtheit der Menschen kann gesagt werden, dass sie sterblich sind.
47. Beispiel: ‚Nicht alle Menschen sind sterblich‘ $latex \neg\forall(x)(Menschen)(sind sterblich)$ wird übersetzt $latex \exists(x)(Menschen)(sind nicht sterblich)$, $latex \exists(x)(S)(\neg P)$, d.h. für einige Objekte aus der Gesamtheit der Menschen kann gesagt werden, dass sie nicht sterblich sind.

WAHRHEITSBEDINGUNGEN – BEDEUTUNGSRAUM

48. Mit der Einführung der Begriffe ‚Aussage‘, ‚Subjekt‘, ‚Prädikat‘, ‚Aussage-Operator‘, ‚Quantor‘ wurden Strukturelemente von Ausdrücken beschrieben. Allerdings wurde bei der ‚Charakterisierung‘ der unterschiedlichen logischen Rollen immer schon – mehr oder weniger explizit – Bezug genommen auf einen unterstellten ‚Bedeutungsraum‘ M.
49. Der wichtige Punkt hier ist, dass man den Unterschied zwischen dem Bedeutungsraum M und den Eigenschaften X der umgebenden Welt W beachtet.
50. Wie schon zuvor herausgestellt, ist der Bedeutungsraum M, auf den sich die Aussagen mit ihren Strukturen primär beziehen, zu einem gewissen Teil eine Konstruktion über bestimmten Ereignissen X in der umgebenden Welt W.
51. Dieser Unterschied ist die Voraussetzung für Begriffe wie z.B. ‚Existenz‘, ‚wahr’/ ‚falsch‘ und ‚möglich‘.
52. Denn mittels einer Aussage A bestimmte Bedeutungselemente $latex m \subseteq M$ zu benennen, zu aktivieren, ist zwar eine Grundvoraussetzung dafür, dass ein Ausdruck e als Aussage A überhaupt eine ‚Bedeutung‘ hat, diese Bedeutungselemente m sind als solche aber weder ‚wahr‘ noch ‚falsch‘; ihre ‚Existenz‘ ist unklar; ob sie ‚real‘ oder ‚möglich‘ sind folgt aus der primären Bedeutung nicht.
53. Erst wenn man davon ausgeht, dass es innerhalb des Bedeutungsraumes M solche Bedeutungselemente m* gibt, die sich von anderen Bedeutungselementen m0 dadurch unterscheiden, dass ihnen ein ‚Aktualitätsbezug‘ zu aktuellen Wahrnehmungen zusprechen kann, nur dann kann es ein Kriterium geben, wodurch eine Aussage A ’nur‘ eine ‚wahrheitsneutrale‘ Bedeutung m0 hat oder eben durch die ‚Aktualitätseigenschaft‘ m* als ‚zutreffend in der umgebenden Welt M‘ charakterisiert werden kann. An dieser Eigenschaft des ‚aktuell Zutreffens‘ in der umgebenden Welt W lassen sich die Begriffe ‚wahr‘ und ‚falsch‘ ‚anhängen‘: gibt es eine Bedeutung m0, die eine hinreichende Ähnlichkeit mit einer Bedeutung m* hat, dann kann man von der Aussage, die die Bedeutung m0 bezeichnet, sagen, dass sie ‚zutrifft‘ und damit ‚wahr‘ ist; gibt es zu einer aktuell bezeichneten Bedeutung m0 einer Aussage A keine hinreichend ähnliche Bedeutung m*, dann trifft die Bedeutung m0 der Aussage A nicht zu, d.h. sie ist falsch.
54. Sofern wir über ‚Erinnerungen‘ an Bedeutungen m(m*) verfügen, die zu ‚vorausgehenden Zeitpunkten‘ einmal ‚wahr‘ waren, kann dieses Wissen m(m*) dazu benutzt werden, um eine ‚Erwartung‘ über die umgebenden Welt W aufzubauen, dass der Sachverhalt m(m*) sich als aktuelle Wahrnehmung m* ‚reproduzieren‘ lässt; dafür, dass dem so ist, gibt es keine ‚Garantie‘; selbst die sogenannten ‚Naturgesetze‘ sind keine 100%ige Garantie dafür, dass eine erinnerbare Eigenschaft m(m*) aufgrund ihres ‚früheren‘ Auftretens als m* nochmals als m* auftreten wird.

MÖGLICH

55. Ich würde den Begriff der Möglichkeit auch an dieser Differenz aufhängen: einerseits ‚aktuell wahrgenommene‘ Bedeutungselemente m* bzw. ‚erinnert als schon mal aktuell wahrgenommen‘ m(m*)‘ und andererseits nur ‚gedacht’/ ‚vorstellbar‘ als m0 ohne Entsprechung zu einem m* bzw m(m*). Eine ‚Differenz‘ zwischen allgemein vorstellbar/ denkbar und aktuell wahrnehmbar bzw. erinnert als aktuell mal wahrgenommen ist generell ein Hinweis auf Möglichkeit. Wie ‚wahrscheinlich‘ solche möglichen Bedeutungselemente m0 mal als m* reproduziert werden können, ist allgemein kaum anzugeben. Basierend auf dem bislang verfügbaren erinnerbaren Wissen M(M*) insgesamt kann man zwar gewisse ‚Erwartungen‘ konstruieren; dies können aber – wie wir aus der Geschichte wissen – unzuverlässig sein, da sie auf falschen Annahmen bzw. Interpretationen beruhen können (‚Sonne bewegt sich um die Erde‘ oder ‚Erde bewegt sich um die Sonne‘).

WELT ALS FIKTION

56. Aus der bisherigen Rekonstruktion folgt, dass der Begriff der ‚umgebenden Welt W‘ streng genommen eine ‚Fiktion‘ ist. Was es gibt, sind Erregungszustände m* im Gehirn, die es zum überwiegenden Teil nicht selbst verursacht; sie werden in die Erregungsmenge des Gehirns ‚induziert‘. Verglichen damit sind die anderen (bewussten) Erregungszustände m0 ‚von innen‘ (endogen) erzeugt. Unser Gehirn nimmt diese nicht-selbst induzierten (bewussten) Erregungszustände m* als ‚etwas von ihm Verschiedenes‘, an dem sich viele ‚Eigenschaften‘ unterscheiden lassen, u.a. auch eine implizite Raumstruktur. Der Begriff der ‚Welt‘ ist in diesen nicht-selbst induzierten Erregungszuständen m* fest gemacht. Als m* sind diese Erregungszustände ‚unmittelbar‘, ‚direkt‘, so, als ob wir die ‚Welt‘ ‚direkt‘ erleben würden. Wie wir aber heute wissen (können), sind diese direkt erlebbaren Erregungszustände m* das ‚Produkt‘ eines komplizierten Übersetzungsmechanismus, den wir sinnliche Wahrnehmung perc() nennen. Im Prozess der sinnlichen Wahrnehmung perc() werden einige der Weltereignisse X in sinnliche Zustände $latex m_{p}$ abbgebildet: $latex perc: X \longrightarrow M_{p}$. Zusätzlich wissen wir heute, dass die schon verfügbaren Bedeutungselemente M auf diesen Wahrnehmungsprozess Einfluss nehmen können (Stichwort ‚Erwartungen‘, ‚Vorurteile‘ , …): $latex perc: X \times M \longrightarrow M_{p}$.
57. Dabei sind es normalerweise nicht die sinnlichen Erregungszustände $latex M_{p}$, die wir wahrnehmen, sondern die Objekte der nächsten Verarbeitungsstufe, die aus den sinnlichen Elementen als Objektelemente heraus abstrahiert werden: $latex \alpha: M_{p} \times M \longrightarrow M_{o}$. Auch hier wirken sich die schon vorhandenen Bedeutungselemente M auf den Abstraktionsprozess aus. Statt $latex M_{o}$ wird hier auch verkürzend oft nur von den ‚Objekten‘ O gesprochen, da Objekte immer nur als Elemente des Bedeutungsraumes M vorkommen.
58. Die zuvor erwähnten aktuellen Wahrnehmungen m* sind eine Teilmenge der Objektelementen $latex M_{o}$, also $latex m* \subseteq M_{o}$. Die Objektelemente ohne die aktuellen Wahrnehmungen m* gehören zu den ‚denkbaren‘ Objektelementen, also $latex (M_{o} – m*) \subseteq M0$. Dies ist möglich, weil im Gehirn ja nicht ‚reale‘ Objekte mit ‚gedachten‘ Objekten verglichen werden, sondern die ‚realen‘ Objekte treten im Gehirn schon als ‚gezähmte‘ Objekte auf, d.h. was immer an Eigenschaften X in der realen Welt W zur Konstruktion der aktuellen Wahrnehmungen m* geführt hat, m* selbst ist ein Konstrukt wie m0 auch. Deswegen lassen sich beide ‚vergleichen‘ und mit den Mitteln des ‚Denkens‘ ‚bearbeiten‘.

ERGEBNISSE

59. An dieser Stelle könnte man jetzt eine eigene große Abhandlung zur Alltagslogik schreiben. Um den Gang der weiteren Untersuchung von Avicennas Abhandlung damit aber nicht vollständig zu sprengen, beende ich hier die rekonstruierenden Überlegungen und wende mich wieder der Lektüre des Textes zu. Wie man sieht, kann solch eine Lektüre extrem anregend sein.

ERKENNTNISSCHICHTEN – Das volle Programm…

 

  1. Wir beginnen mit einem Erkenntnisbegriff, der im subjektiven Erleben ansetzt. Alles, was sich subjektiv als ‚Gegeben‘ ansehen kann, ist ein ‚primärer‘ ‚Erkenntnisinhalt‘ (oft auch ‚Phänomen‘ [PH] genannt).

  2. Gleichzeitig mit den primären Erkenntnisinhalten haben wir ein ‚Wissen‘ um ’sekundäre‘ Eigenschaften von Erkenntnisinhalten wie ‚wahrgenommen‘, ‚erinnert‘, ‚gleichzeitig‘, ‚vorher – nachher‘, ‚Instanz einer Klasse‘, ‚innen – außen‘, und mehr.

  3. Auf der Basis der primären und sekundären Erkenntnisse lassen sich schrittweise komplexe Strukturen aufbauen, die das subjektive Erkennen aus der ‚Innensicht‘ beschreiben (‚phänomenologisch‘, [TH_ph]), aber darin auch eine systematische Verortung von ‚empirischem Wissen‘ erlaubt.

  4. Mit der Bestimmung des ‚empirischen‘ Wissens lassen sich dann Strukturen der ‚intersubjektiven Körperwelt‘ beschreiben, die weit über das ’subjektive/ phänomenologische‘ Wissen hinausreichen [TH_emp], obgleich sie als ‚Erlebtes‘ nicht aus dem Bereich der Phänomene hinausführen.

  5. Unter Einbeziehung des empirischen Wissens lassen sich Hypothesen über Strukturen bilden, innerhalb deren das subjektive Wissen ‚eingebettet‘ erscheint.

  6. Der Ausgangspunkt bildet die Verortung des subjektiven Wissens im ‚Gehirn‘ [NN], das wiederum zu einem ‚Körper‘ [BD] gehört.

  7. Ein Körper stellt sich dar als ein hochkomplexes Gebilde aus einer Vielzahl von Organen oder organähnlichen Strukturen, die miteinander in vielfältigen Austauschbeziehungen (‚Kommunikation‘) stehen und wo jedes Organ spezifische Funktionen erfüllt, deren Zusammenwirken eine ‚Gesamtleistung‘ [f_bd] des Input-Output-Systems Körpers ergibt. Jedes Organ besteht aus einer Vielzahl von ‚Zellen‘ [CL], die nach bestimmten Zeitintervallen ‚absterben‘ und ‚erneuert‘ werden.

  8. Zellen, Organe und Körper entstehen nicht aus dem ‚Nichts‘ sondern beruhen auf ‚biologischen Bauplänen‘ (kodiert in speziellen ‚Molekülen‘) [GEN], die Informationen vorgeben, auf welche Weise Wachstumsprozesse (auch ‚Ontogenese‘ genannt) organisiert werden sollen, deren Ergebnis dann einzelne Zellen, Zellverbände, Organe und ganze Körper sind (auch ‚Phänotyp‘ genannt). Diese Wachstumsprozesse sind ’sensibel‘ für Umgebungsbedingungen (man kann dies auch ‚interaktiv‘ nennen). Insofern sind sie nicht vollständig ‚deterministisch‘. Das ‚Ergebnis‘ eines solchen Wachstumsprozesses kann bei gleicher Ausgangsinformation anders aussehen. Dazu gehört auch, dass die biologischen Baupläne selbst verändert werden können, sodass sich die Mitglieder einer Population [POP] im Laufe der Zeit schrittweise verändern können (man spricht hier auch von ‚Phylogenese‘).

  9. Nimmt man diese Hinweise auf Strukturen und deren ‚Schichtungen‘ auf, dann kann man u.a. zu dem Bild kommen, was ich zuvor schon mal unter dem Titel ‚Emergenz des Geistes?‘ beschrieben hatte. In dem damaligen Beitrag hatte ich speziell abgehoben auf mögliche funktionale Unterschiede der beobachtbaren Komplexitätsbildung.

  10. In der aktuellen Reflexion liegt das Augenmerk mehr auf dem Faktum der Komplexitätsebene allgemein. So spannen z.B. die Menge der bekannten ‚Atome‘ [ATOM] einen bestimmten Möglichkeitsraum für theoretisch denkbare ‚Kombinationen von Atomen‘ [MOL] auf. Die tatsächlich feststellbaren Moleküle [MOL‘] bilden gegenüber MOL nur eine Teilmenge MOL‘ MOL. Die Zusammenführung einzelner Atome {a_1, a_2, …, a_n} ATOM zu einem Atomverband in Form eines Moleküls [m in MOL‘] führt zu einem Zustand, in dem das einzelne Atom a_i mit seinen individuellen Eigenschaften nicht mehr erkennbar ist; die neue größere Einheit, das Molekül zeigt neue Eigenschaften, die dem ganzen Gebilde Molekül m_j zukommen, also {a_1, a_2, …, a_n} m_i (mit {a_1, a_2, …, a_n} als ‚Bestandteilen‘ des Moleküls m_i).

  11. Wie wir heute wissen, ist aber auch schon das Atom eine Größe, die in sich weiter zerlegt werden kann in ‚atomare Bestandteile‘ (‚Quanten‘, ‚Teilchen‘, ‚Partikel‘, …[QUANT]), denen individuelle Eigenschaften zugeordnet werden können, die auf der ‚Ebene‘ des Atoms verschwinden, also auch hier wenn {q_1, q_2, …, q_n} QUANT und {q_1, q_2, …, q_n} die Bestandteile eines Atoms a_i sind, dann gilt {q_1, q_2, …, q_n} a_i.

  12. Wie weit sich unterhalb der Quanten weitere Komplexitätsebenen befinden, ist momentan unklar. Sicher ist nur, dass alle diese unterscheidbaren Komplexitätsebenen im Bereich ‚materieller‘ Strukturen aufgrund von Einsteins Formel E=mc^2 letztlich ein Pendant haben als reine ‚Energie‘. Letztlich handelt es sich also bei all diesen Unterschieden um ‚Zustandsformen‘ von ‚Energie‘.

  13. Entsprechend kann man die Komplexitätsbetrachtungen ausgehend von den Atomen über Moleküle, Molekülverbände, Zellen usw. immer weiter ausdehnen.

  14. Generell haben wir eine ‚Grundmenge‘ [M], die minimale Eigenschaften [PROP] besitzt, die in einer gegebenen Umgebung [ENV] dazu führen können, dass sich eine Teilmenge [M‘] von M mit {m_1, m_2, …, m_n} M‘ zu einer neuen Einheit p={q_1, q_2, …, q_n} mit p M‘ bildet (hier wird oft die Bezeichnung ‚Emergenz‘ benutzt). Angenommen, die Anzahl der Menge M beträgt 3 Elemente |M|=3, dann könnte man daraus im einfachen Fall die Kombinationen {(1,2), (1,3), (2,3), (1,2,3)} bilden, wenn keine Doubletten zulässig wären. Mit Doubletten könnte man unendliche viele Kombinationen bilden {(1,1), (1,1,1), (1,1,….,1), (1,2), (1,1,2), (1,1,2,2,…),…}. Wie wir von empirischen Molekülen wissen, sind Doubletten sehr wohl erlaubt. Nennen wir M* die Menge aller Kombinationen aus M‘ (einschließlich von beliebigen Doubletten), dann wird rein mathematisch die Menge der möglichen Kombinationen M* gegenüber der Grundmenge M‘ vergrößert, wenngleich die Grundmenge M‘ als ‚endlich‘ angenommen werden muss und von daher die Menge M* eine ‚innere Begrenzung‘ erfährt (Falls M’={1,2}, dann könnte ich zwar M* theoretisch beliebig groß denken {(1,1), (1,1,1…), (1,2), (1,2,2), …}, doch ‚real‘ hätte ich nur M*={(1,2)}. Von daher sollte man vielleicht immer M*(M‘) schreiben, um die Erinnerung an diese implizite Beschränkung wach zu halten.

  15. Ein anderer Aspekt ist der Übergang [emer] von einer ’niedrigerem‘ Komplexitätsniveau CL_i-1 zu einem höheren Komplexitätsniveau CL_i, also emer: CL_i-1 —> CL_i. In den meisten Fällen sind die genauen ‚Gesetze‘, nach denen solch ein Übergang stattfindet, zu Beginn nicht bekannt. In diesem Fall kann man aber einfach ‚zählen‘ und nach ‚Wahrscheinlichkeiten‘ Ausschau halten. Allerdings gibt es zwischen einer ‚reinen‘ Wahrscheinlich (absolute Gleichverteilung) und einer ‚100%-Regel‘ (Immer dann wenn_X_dann geschieht_Y_) ein Kontinuum von Wahrscheinlichkeiten (‚Wahrscheinlichkeitsverteilungen‘ bzw. unterschiedlich ‚festen‘ Regeln, in denen man Z%-Regeln benutzt mit 0 < Z < 100 (bekannt sind z.B. sogenannte ‚Fuzzy-Regeln‘).

  16. Im Falle des Verhaltens von biologischen Systemen, insbesondere von Menschen, wissen wir, dass das System ‚endogene Pläne‘ entwickeln kann, wie es sich verhalten soll/ will. Betrachtet man allerdings ‚große Zahlen‘ solcher biologischer Systeme, dann fällt auf, dass diese sich entlang bestimmter Wahrscheinlichkeitsverteilungen trotzdem einheitlich verhalten. Im Falle von Sterbensraten [DEATH] einer Population mag man dies dadurch zu erklären suchen, dass das Sterben weitgehend durch die allgemeinen biologischen Parameter des Körpers abhängig ist und der persönliche ‚Wille‘ wenig Einfluß nimmt. Doch gibt es offensichtlich Umgebungsparameter [P_env_i], die Einfluss nehmen können (Klima, giftige Stoffe, Krankheitserreger,…) oder indirekt vermittelt über das individuelle ‚Verhalten‘ [SR_i], das das Sterben ‚begünstigt‘ oder ‚verzögert‘. Im Falle von Geburtenraten [BIRTH] kann man weitere Faktoren identifizieren, die die Geburtenraten zwischen verschiedenen Ländern deutlich differieren lässt, zu verschiedenen Zeiten, in verschiedenen sozialen Gruppen, usw. obgleich die Entscheidung für Geburten mehr als beim Sterben individuell vermittelt ist. Bei allem Verhalten kann man mehr oder weniger starke Einflüsse von Umgebungsparametern messen. Dies zeigt, dass die individuelle ‚Selbstbestimmung‘ des Verhaltens nicht unabhängig ist von Umgebungsparametern, die dazu führen, dass das tatsächliche Verhalten Millionen von Individuen sehr starke ‚Ähnlichkeiten‘ aufweist. Es sind diese ‚gleichförmigen Wechselwirkungen‘ die die Ausbildung von ‚Verteilungsmustern‘ ermöglichen. Die immer wieder anzutreffenden Stilisierungen von Wahrscheinlichkeitsverteilungen zu quasi ‚ontologischen Größen‘ erscheint vor diesem Hintergrund eher irreführend und verführt dazu, die Forschung dort einzustellen, wo sie eigentlich beginnen sollte.

  17. Wie schon die einfachen Beispiele zu Beginn gezeigt haben, eröffnet die nächst höhere Komplexitätstufe zunächst einmal den Möglichkeitsraum dramatisch, und zwar mit qualitativ neuen Zuständen. Betrachtet man diese ‚Komplexitätsschichtungen‘ nicht nur ‚eindimensional‘ (also z.B. in eine Richtung… CL_i-1, CL_i, CL_i+1 …) sondern ‚multidimensional‘ (d.h. eine Komplexitätsstufe CL_i kann eine Vielzahl von Elementen umfassen, die eine Komplexitätstufe j<i repräsentieren, und diese können wechselseitig interagieren (‚kommunizieren‘)), dann führt dies zu einer ‚Verdichtung‘ von Komplexität, die immer schwerer zu beschreiben ist. Eine einzige biologische Zelle funktioniert nach so einem multidimensionalen Komplexitätsmuster. Einzelne Organe können mehrere Milliarden solcher multidimensionaler Einheiten umfassen. Jeder Körper hat viele solcher Organe die miteinander wechselwirken. Die Koordinierung aller dieser Elemente zu einer prägnanten Gesamtleistung übersteigt unsere Vorstellungskraft bei weitem. Dennoch funktioniert dies in jeder Sekunde in jedem Körper Billionenfach, ohne dass das ‚Bewusstsein‘ eines biologischen Systems dies ‚mitbekommt‘.

  18. Was haben all diese Komplexitätstufen mit ‚Erkenntnis‘ zu tun? Nimmt man unser bewusstes Erleben mit den damit verknüpften ‚Erkenntnissen‘ zum Ausgangspunkt und erklärt diese Form von Erkenntnis zur ‚Norm‘ für das, was Erkenntnis ist, dann haben all diese Komplexitätsstufen zunächst nichts mit Erkenntnis zu tun. Allerdings ist es dieses unser ’subjektives‘ ‚phänomenologisches‘ ‚Denken‘, das all die erwähnten ‚Komplexitäten‘ im Denken ’sichtbar‘ macht. Ob es noch andere Formen von Komplexität gibt, das wissen wir nicht, da wir nicht wissen, welche Form von Erkenntnis unsere subjektive Erkenntnisform von vornherein ‚ausblendet‘ bzw. aufgrund ihrer Beschaffenheit in keiner Weise ‚erkennt‘. Dies klingt paradox, aber in der Tat hat unser subjektives Denken die Eigenschaft, dass es durch Verbindung mit einem Körper einen indirekt vermittelten Bezug zur ‚Körperwelt jenseits des Bewusstseins‘ herstellen kann, der so ist, dass wir die ‚Innewohnung‘ unseres subjektiven Erkennens in einem bestimmten Körper mit dem Organ ‚Gehirn‘ als Arbeitshypothese formulieren können. Darauf aufbauend können wir mit diesem Körper, seinem Gehirn und den möglichen ‚Umwelten‘ dann gezielt Experimente durchführen, um Aufklärung darüber zu bekommen, was denn so ein Gehirn im Körper und damit korrelierend eine bestimmte Subjektivität überhaupt erkennen kann. Auf diese Weise konnten wir eine Menge über Erkenntnisgrenzen lernen, die rein aufgrund der direkten subjektiven Erkenntnis nicht zugänglich sind.

  19. Diese neuen Erkenntnisse aufgrund der Kooperation von Biologie, Psychologie, Physiologie, Gehirnwissenschaft sowie Philosophie legen nahe, dass wir das subjektive Phänomen der Erkenntnis nicht isoliert betrachten, sondern als ein Phänomen innerhalb einer multidimensionalen Komplexitätskugel, in der die Komplexitätsstrukturen, die zeitlich vor einem bewussten Erkennen vorhanden waren, letztlich die ‚Voraussetzungen‘ für das Phänomen des subjektiven Erkennens bilden.

  20. Gilt im bekannten Universum generell, dass sich die Systeme gegenseitig beeinflussen können, so kommt bei den biologischen Systemen mit ‚Bewusstsein‘ eine qualitativ neue Komponente hinzu: diese Systeme können sich aktiv ein ‚Bild‘ (‚Modell‘) ihrer Umgebung, von sich selbst sowie von der stattfindenden ‚Dynamik‘ machen und sie können zusätzlich ihr Verhalten mit Hilfe des konstruierten Bildes ’steuern‘. In dem Masse, wie die so konstruierten Bilder (‚Erkenntnisse‘, ‚Theorien‘,…) die tatsächlichen Eigenschaften der umgebenden Welt ‚treffen‘ und die biologischen Systeme ‚technologische Wege‘ finden, die ‚herrschenden Gesetze‘ hinreichend zu ‚kontrollieren‘, in dem Masse können sie im Prinzip nach und nach das gesamte Universum (mit all seinen ungeheuren Energien) unter eine weitreichende Kontrolle bringen.

  21. Das einzig wirkliche Problem für dieses Unterfangen liegt in der unglaublichen Komplexität des vorfindlichen Universums auf der einen Seite und den extrem beschränkten geistigen Fähigkeiten des einzelnen Gehirns. Das Zusammenwirken vieler Gehirne ist absolut notwendig, sehr wahrscheinlich ergänzt um leistungsfähige künstliche Strukturen sowie evtl. ergänzt um gezielte genetische Weiterentwicklungen. Das Problem wird kodiert durch das Wort ‚gezielt‘: Hier wird ein Wissen vorausgesetzt das wir so eindeutig noch nicht haben Es besteht ferner der Eindruck, dass die bisherige Forschung und Forschungsförderung diese zentralen Bereiche weltweit kum fördert. Es fehlt an brauchbaren Konzepten.

Eine Übersicht über alle bisherigen Beiträge findet sich hier