Archiv der Kategorie: determiniert

WISSENSCHAFT IM ALLTAG. Popper 1988/1990

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 16.-17.Februar 2022, 18:00h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Vorbemerkung

In einer Welt voller Bücher — gefühlt: unendlich viele Bücher — ist kaum voraussagbar, welches Buch man im Februar 2022 lesen wird. Dass es dann das Büchlein ‚A World of Propensities‘ (1990 (reprint 1995))[2a] von Karl Popper [1] sein würde, hing von einem ganzen Bündel von Faktoren ab, von denen jeder für sich ‚eine Rolle‘ spielte, aber dass es dann zu diesem konkreten Buch zu diesem konkreten Zeitpunkt gekommen ist, war aus Sicht der einzelnen Faktoren nicht direkt ableitbar. Auch das ‚Zusammenspiel‘ der verschiedenen Faktoren war letztlich nicht voraussagbar. Aber es ist passiert.

Im Rahmen meiner Theoriebildung für das oksimo-Paradigma (einschließlich der oksimo-Software)[4] Hatte ich schon viele Posts zur möglichen/ notwendigen Theorie für das oksimo-Paradigma in verschiedenen Blocks geschrieben [3a], sogar einige zum frühen Popper [3b], aber mir scheint, so richtig bin ich mit der Position von Popper in seiner ‚Logik der Forschung‘ von 1934 bzw. dann mit der späteren Englischen Ausgabe ‚The Logic of Scientific Discovery‘ (1959)[2b] noch nicht klar gekommen.

Im Frühjahr 2022 war es eine seltene Mischung aus vielerlei Faktoren, die mich über den Umweg der Lektüre von Ulanowizc [5], und zwar seines Buches „Ecology: The Ascendant Perspective“ (1997), auf den späten Popper aufmerksam machten. Ulanowizc erwähnt Popper mehrfach an prominenter Stelle, und zwar speziell Poppers Büchlein über Propensities. Da dieses schmale Buch mittlerweile vergriffen ist, kam ich dann nur durch die freundliche Unterstützung [6b] der Karl Popper Sammlung der Universität Klagenfurt [6a] zu einer Einsicht in den Text.

Der nachfolgende Text beschäftigt sich mit dem ersten der beiden Aufsätze die sich in dem Büchlein finden: „A World of Propensities: Two New Views of Causality“.[7][*]

Wahrscheinlichkeit, Wahrheit, Hypothese, Bekräftigung, … Vorgeplänkel

In seiner Einleitung im Text erinnert Popper an frühere Begegnungen mit Mitgliedern des Wiener Kreises [1b] und die Gespräche zu Theme wie ‚absolute Theorie der Wahrheit‘, ‚Wahrheit und Sicherheit‘, ‚Wahrscheinlichkeitsbasierte Induktion‘, ‚Theorie der Wahrscheinlichkeit‘ sowie ‚Grad der Bekräftigung einer Wahrscheinlichkeit‘.

Während er sich mit Rudolf Carnap 1935 noch einig wähnte in der Unterscheidung von einer Wahrscheinlichkeit im Sinne einer Wahrscheinlichkeitstheorie und einem ‚Grad der Bestätigung‘ (‚degree of confirmation‘) , war er sehr überrascht — und auch enttäuscht — 1950 in einem Buch von Carnap [8], [8b] zu lesen, dass für Carnap dies alles das Gleiche sei: mathematische Wahrscheinlichkeit und empirische Bestätigung eines Ereignisses. Hatte Carnap mit dieser Veränderung seiner Auffassung auch die Position einer ‚Absolutheit der Wahrheit‘ verlassen, die für Popper 1935 immer noch wichtig war? Und selbst in der Rede von 1988 hält Popper das Postulat von der Absolutheit der Wahrheit hoch, sich dabei auf Aristoteles [9], Alfred Tarski [10] und Kurt Gödel [11] beziehend (S.5f).

In einer Welt mit einem endlichen Gehirn, in einem endlichen Körper (bestehend aus ca. 36 Billionen Zellen (10^12)[12], in einer Welt von nicht-abzählbar vielen realen Ereignissen, war mir nie klar, woran (der frühe) Popper (und auch andere) die Position einer ‚absoluten Wahrheit‘ fest machen konnten/ können. Dass wir mit unserem endlichen – und doch komplexen, nicht-linearem — Gehirn von ‚Konkretheiten‘ ‚abstrahieren‘ können, Begriffe mit ‚offenen Bedeutungen‘ bilden und diese im Kontext der Rede/ eines Textes zu Aussagen über Aspekte der Welt benutzen können, das zeigt jeder Augenblick in unserem Alltag (ein für sich außergewöhnliches Ereignis), aber ‚absolute Wahrheit‘ … was kann das sein? Wie soll man ‚absolute Wahrheit‘ definieren?

Popper sagt, dass wir — und wenn wir uns noch so anstrengen — in unserem „Ergebnis nicht sicher“ sein können, das Ergebnis kann sogar „nicht einmal wahr“ sein.(vgl. S.6) Und wenn man sich dann fragt, was dann noch bleibt außer Unsicherheit und fehlender Wahrheit, dann erwähnt er den Sachverhalt, dass man von seinen „Fehlern“ auf eine Weise „lernen“ kann, dass ein „mutmaßliches (‚conjectural‘) Wissen“ entsteht, das man „testen“ kann.(vgl. S.6) Aber selbst dann, wenn man das Wissen testen kann, sind diese Ergebnisse nach Popper „nicht sicher“; obwohl sie „vielleicht wahr“ sind, diese Wahrheit aber ist damit dennoch „nicht endgültig bestätigt (‚established‘)“. Und er sagt sogar: „Selbst wenn sie [ergänzt: die Ergebnisse] sich als nicht wahr erweisen, … eröffnen sie den Weg zu noch besseren [ergänzt: Ergebnissen].“ (S.6)

Diese ‚changierende Sprechweise‘ über ‚wahre Ergebnisse‘ umschreibt das Spannungsfeld zwischen ‚absoluten Wahrheit‘ — die Popper postuliert — und jenen konkreten Sachverhalten, die wir im Alltag zu ‚Zusammenhängen (Hypothesen)‘ verdichten können, in denen wir einzelne Ereignisse ‚zusammen bringen‘ mit der ‚Vermutung‘, dass sie auf eine nicht ganz zufällige Weise zusammen gehören. Und, ja, diese unsere alltägliche Vermutungen (Hypothesen) können sich ‚alltäglich bestätigen‘ (wir empfinden dies so) oder auch nicht (dies kann Zweifel wecken, ob es ‚tatsächlich so ist‘).(vgl. S.6)

Das Maximum dessen, was wir — nach Popper — in der alltäglichen Erkenntnis erreichen können, ist das Nicht-Eintreten einer Enttäuschung einer Vermutung (Erwartung, Hypothese). Wir können dann „hoffen“, dass die Hypothese „wahr ist“, aber sie könnte sich dann beim nächsten Test vielleicht doch noch als „falsch“ erweisen. (vgl. S.6)

In all diesen Aussagen, dass ein Ergebnis ’noch nicht als wahr erwiesen wurde‘ fungiert der Begriff der ‚Wahrheit‘ als ein ‚Bezugspunkt‘, anhand dessen man eine vorliegende Aussage ‚vergleichen‘ kann und mit diesem Vergleich dann zum Ergebnis kommen kann, dass eine vorliegende Aussage ‚verglichen mit einer wahren Aussage‘ nicht wahr ist.

Messen als Vergleichen ist in der Wissenschaft der Goldstandard, aber auch im ganz normalen Alltag. Wo aber findet sich der Vergleichspunkt ‚wahr Aussage‘ anhand dessen eine konkrete Aussage als ’nicht dem Standard entsprechend‘ klassifiziert werden kann?

Zur Erinnerung: es geht jetzt hier offensichtlich nicht um einfache ‚Sachverhaltsfeststellungen‘ der Art ‚Es regnet‘, ‚Es ist heiß‘, ‚Der Wein schmeckt gut‘ …, sondern es geht um die Beschreibung von ‚Zusammenhängen‘ zwischen ‚isolierten, getrennten Ereignissen‘ der Art (i) ‚Die Sonne geht auf‘, (ii) ‚Es ist warm‘ oder ‚(i) ‚Es regnet‘, (ii) ‚Die Straße ist nass‘.

Wenn die Sonne aufgeht, kann es warm werden; im Winter, bei Kälte und einem kalten Wind kann man die mögliche Erwärmung dennoch nicht merken. Wenn es regnet dann ist die Straße normalerweise nass. Falls nicht, dann fragt man sich unwillkürlich, ob man vielleicht nur träumt?

Diese einfachen Beispiele deuten an, dass ‚Zusammenhänge‘ der Art (i)&(ii) mit einer gewissen Häufigkeit auftreten können, aber es keine letzte Sicherheit gibt, dass dies der Fall sein muss.

Wo kommt bei alldem ‚Wahrheit‘ vor?

‚Wahrheit an sich‘ ist schwer aufweisbar. Dass ein ‚Gedanke‘ ‚wahr‘ ist, kann man — wenn überhaupt — nur diskutieren, wenn jemand seinem Gedanken einen sprachlichen Ausdruck verleiht und der andere anhand des sprachlichen Ausdrucks (i) bei sich eine ‚Bedeutung aktivieren‘ kann und (ii) diese aktivierte Bedeutung dann entweder (ii.1) — schwacher Fall — innerhalb seines Wissens mit ‚anderen Teilen seines Wissens‘ ‚abgleichen‘ kann oder aber (ii.2) — starker Fall — seine ‚interne Bedeutung‘ mit einer Gegebenheit der umgebenden realen Ereigniswelt (die als ‚Wahrnehmung‘ verfügbar ist) vergleichen kann. In beiden Fällen kann der andere z.B. zu Ergebnissen kommen wie (a) ‚Ja, sehe ich auch so‘ oder (b) ‚Nein, sehe ich nicht so‘ oder (c) ‚Kann ich nicht entscheiden‘.

In diesen Beispielen wäre ‚Wahrheit‘ eine Eigenschaft, die der Beziehung zwischen einem sprachlichen Ausdruck mit seiner möglichen ‚Bedeutung‘ ‚zu etwas anderem‘ zukommt. Es geht in diesen Beispielen um eine dreistellige Beziehung: die beiden Größen (Ausdruck, gewusste Bedeutung) werden in Beziehung gesetzt zu (wahrgenommenem oder erinnertem oder gefolgertem Sachverhalt).[13]

‚Wahrgenommenes‘ resultiert aus Interaktionen unseres Körpers mit der umgebenden realen Ereigniswelt (wobei unsere Körper selbst ein Ereignis in der umgebenden realen Ereigniswelt ist).[14]

‚Bedeutungen‘ sind ‚gelernte Sachverhalte‘, die uns über unsere ‚Wahrnehmung‘ ‚bekannt geworden sind‘ und in der Folge davon möglicherweise auf eine schwer bestimmbare Weise in unser ‚Gedächtnis‘ übernommen wurden, aus dem Heraus wir sie auf eine ebenfalls schwer bestimmbaren Weise in einer ‚erinnerten Form‘ uns wiederholt wieder ‚bewusst machen können‘. Solche ‚wahrnehmbaren‘ und ‚erinnerbaren‘ Sachverhalte können von unserem ‚Denken‘ in schwer bestimmbarer Form eine spezifische ‚Bedeutungsbeziehung‘ mit Ausdrücken einer Sprache eingehen, welche wiederum nur über Wahrnehmung und Erinnern uns bekannt geworden sind.[15]

Aus all dem geht hervor, dass dem einzelnen Akteur mit seinen gelernten Ausdrücke und ihren gelernten Bedeutungen nur das ‚Ereignis der Wiederholung‘ bleibt, um einem zunächst ‚unbestimmt Gelerntem‘ eine irgendwie geartete ‚Qualifikation‘ von ‚kommt vor‘ zu verleihen. Kommt also etwas vor im Lichte von gelernten Erwartungen neigen wir dazu, zu sagen, ‚es trifft zu‘ und in diesem eingeschränkten Sinne sagen wir auch, dass ‚es wahr ist‘. Diese gelernten Wahrheiten sind ’notorisch fragil‘. Jene, die ‚im Laufe der Zeit‘ sich immer wieder ‚bewähren‘ gewinnen bei uns ein ‚höheres Vertrauen‘, sie haben eine ‚hohe Zuverlässigkeit‘, sind allerdings nie ganz sicher‘.

Zusätzlich erleben wir im Alltag das ständige Miteinander von ‚Konkretheiten‘ in der Wahrnehmung und ‚Allgemeinheiten‘ der sprachlichen Ausdrücke, eine ‚Allgemeinheit‘ die nicht ‚absolut‘ ist. sondern als ‚Offenheit für viel Konkretes‘ existiert. In der Sprache haben wir Unmengen von Worten wie ‚Tasse‘, ‚Stuhl‘, ‚Tisch‘, Hund‘ usw. die sich nicht nur auf ein einziges Konkretes beziehen, sondern auf — potentiell unendlich — viele konkrete Gegebenheiten. Dies liegt daran, dass es viele verschiedene konkrete Gegebenheiten gibt, die trotz Unterschiede auch Ähnlichkeiten aufweisen, die dann als ‚Tasse‘, ‚Stuhl‘ usw. bezeichnet werden. Unser Gehirn verfügt über ‚automatische (= unbewusste) Prozesse‘, die die Konkretheiten aus der Wahrnehmung in ‚Muster‘ transformieren, die dann als ‚Repräsentanten‘ von verschiedenen wahrgenommenen Konkretheiten fungieren können. Diese Repräsentanten sind dann das ‚Material der Bedeutung‘, mit denen sprachliche Ausdrücke — auch automatisch — verknüpft werden können.[15]

Unser ‚Denken‘ kann mit abstrakten Repräsentanten arbeiten, kann durch Benutzung von sprachlichen Ausdrücken Konstruktionen mit abstrakten Konzepten und Ausdrücken bilden, denen bedeutungsmäßig direkt nichts in der realen Ereigniswelt entsprechen muss bzw. auch nicht entsprechen kann. Logik [17] und Mathematik [18] sind bekannte Beispiele, wie man mit gedanklich abstrakten Konzepten und Strukturen ‚arbeiten‘ kann, ohne dass ein Bezug zur realen Ereigniswelt bestehe muss oder jemals bestehen wird. Innerhalb dieser Welt abstrakter Strukturen und abstrakter Ausdrücke kann es dann sogar in einem eingeschränkten Sinne ‚Wahrheit‘ als Übereinstimmung von abstrakten Ausdrücken, deren abstrakten Bedeutungen und den anderen gedachten abstrakten Strukturen geben, aber diese ‚abstrakten Wahrheiten‘ sind in keiner Weise auf die reale Ereigniswelt übertragbar. Für uns gibt es nur das Modell der Alltagssprache, die mit ihren ‚offenen abstrakten‘ Bedeutungen auf Konkretes Bezug nehmen kann und zwischen Gegenwart und Vergangenheit eine ‚gedachte Beziehung‘ herstellen kann, ebenso auch zwischen Vergangenem und Gegenwärtigem zu einer gedachten Zukunft. Inwieweit sich diese gedachten Beziehungen (Vermutungen, Hypothesen, …) dann in der realen Ereigniswelt bestätigen lassen, muss fallweise geprüft werden.

Die Welt der Wissenschaften erweckt den Eindruck, dass es mittlerweile eine große Zahl von solchen Hypothesen gibt, die allesamt als ‚weitgehend zuverlässig‘ angesehen werden, und aufgrund deren wir nicht nur unser bisheriges Wissen beständig ‚erweitern‘, sondern auch in einer Vielzahl von praktischen Anwendungen nutzen (Technologie, Landwirtschaft, Medizin, …).

Und an dieser Stelle greift Popper sehr weit aus, indem er diese für die Wissenschaften charakteristische „mutige, und abenteuerliche Weise des Theoretisierens“, ergänzt um „seriöse Tests“, im „biologischen Leben selbst“ am Werke sieht (vgl. S.7): die beobachtbare Entwicklung zu immer „höheren (‚higher‘) Formen“ des Lebens geschah/ geschieht durch Schaffung von „neuen Versuchen“ (‚trials‘), deren „Einbringung in die Realität“ (‚exposure‘), und dann das „Ausmerzen von Irrtümern“ (‚errors‘) durch „Testen“.(vgl. S.7) Mit dieser permanenten Kreativität neuer Lösungsansätze, deren Ausprobieren und dem daraus Lernen im Beseitigen von Fehlschlägen hat es nicht nur das biologische Leben als Ganzes geschafft, nach und nach die Welt quasi zu erobern, sondern in der Variante moderner empirischer Wissenschaft ist die Lebensform des Homo sapiens dabei, diese Eroberung auf neue Weise zu ergänzen. Während die biologische Evolution vor dem Homo sapiens primär um das nackte Überleben kämpfen musste, kann der Homo sapiens zusätzlich ‚reines Verstehen‘ praktizieren, das dann als ‚Werkzeug‘ zum Überleben beitragen kann. Für Popper ist ‚Verstehen‘ (‚understand‘) und ‚Lernen‘ (‚to learn more‘) das entscheidende Charakteristikum der Lebensform des Homo sapiens (als Teil des gesamten biologischen Lebens). Und in diesem Verstehensprojekt geht es um alles: um den ganzen Kosmos bis hin zum letzten Atom, um die Entstehung des Lebens überhaupt, um den ‚menschlichen Geist‘ (‚human mind‘) und die Art und Weise wie er stattfindet.(vgl. S.7)

Nach dieser ‚Einstimmung‘ wendet sich Popper dem speziellen Problem der Kausalität zu.

Kausalität – Ein wissenschaftliches Chamäleon

Der Begriff der ‚Kausalität‘ ist uns allen über den Alltag in vielfältigen Formen bekannt, ohne dass wir dazu gewöhnlich ein klares begriffliches Konzept entwickeln.

Geht es hingegen ‚um Etwas‘, z.B. um Geld, oder Macht, oder um eine gute Ernte, oder die Entwicklung einer Region, usw. , dann ist die Frage ‚Was was wie bewirkt‘ nicht mehr ganz egal. ‚Soll ich nun investieren oder nicht?‘ ‚Ist dieses Futter für die Tiere besser und auf Dauer bezahlbar oder nicht?‘ ‚Wird die neue Verkehrsregelung tatsächlich Lärm und CO2-Ausstoß reduzieren oder nicht?‘ ‚Ist Aufrüstung besser als Neutralität?‘ ‚Wird die Menge des jährlichen Plastikmülls die Nahrungsketten im Meer und damit viele davon abhängige Prozesse nachhaltig zerstören oder nicht?‘

Wenn Philosophen und Wissenschaftler von Kausalität sprechen meinten sie in der Vergangenheit meist viel speziellere Kontexte. So erwähnt Popper die mechanistischen Vorstellungen im Umfeld von Descartes; hier waren alle Ereignisse klar bestimmt, determiniert.(vgl. S.7) Mit der Entwicklung der Quantenmechanik — spätestens ab 1927 mit der Entdeckung des Unsicherheitsprinzips durch Werner Heisenberg [19], [19a] — wurde bewusst, dass die Ereignisse in der Natur keinesfalls vollständig klar und nicht vollständig determiniert sind. (vgl. S7f)

Damit trat eine inhärente Unsicherheit hervor, die nach einer neuen Lösung verlangte. Die große Zeit des Denkens in Wahrscheinlichkeiten begann.[20] Man kann das Denken in Wahrscheinlichkeiten grob in drei (vier) Sichtweisen unterscheiden: (i) In einer theoretischen — meist mathematischen — Sicht [21] definiert man sich abstrakte Strukturen, über die man verschiedene Operationen definieren kann, mit denen sich dann unterschiedliche Arten von Wahrscheinlichkeiten durchspielen lassen. Diese abstrakten (theoretischen) Wahrscheinlichkeiten haben per se nichts mit der realen Welt der Ereignisse zu tun. Tatsächlich erweisen sich aber viele rein theoretische Modelle als erstaunlich ’nützlich‘ bei der Interpretation realweltlicher Ereignisfolgen. (ii) In einer subjektivistischen Sicht [22] nimmt man subjektive Einschätzungen zum Ausgangspunkt , die man formalisieren kann, und die Einschätzungen zum möglichen Verhalten des jeweiligen Akteurs aufgrund seiner subjektiven Einschätzungen erlauben. Da subjektive Weltsichten meistens zumindest partiell unzutreffend sind, z.T. sogar überwiegend unzutreffend, sind subjektive Wahrscheinlichkeiten nur eingeschränkt brauchbar, um realweltliche Prozesse zu beschreiben.(iii) In einer (deskriptiv) empirischen Sicht betrachtet man reale Ereignisse, die im Kontext von Ereignisfolgen auftreten. Anhand von diversen Kriterien mit der ‚Häufigkeit‘ als Basisterm kann man die Ereignisse zu unterschiedlichen Mustern ‚gruppieren‘, ohne dass weitergehende Annahmen über mögliche Wirkzusammenhänge mit ‚auslösenden Konstellationen von realen Faktoren‘ getätigt werden. Nimmt man eine solche ‚deskriptive‘ Sicht aber zum Ausgangspunkt, um weitergehende Fragen nach möglichen realen Wirkzusammenhängen zu stellen, dann kommt man (iv) zu einer eher objektivistischen Sicht. [23] Hier sieht man in der Häufigkeiten von Ereignissen innerhalb von Ereignisfolgen mögliche Hinweise auf reale Konstellationen, die aufgrund ihrer inhärenten Eigenschaften diese Ereignisse verursachen, allerdings nicht ‚monokausal‘ sondern ‚multikausal‘ in einem nicht-deterministischem Sinne. Dies konstituiert die Kategorie ‚Nicht deterministisch und zugleich nicht rein zufällig‘.[24]

Wie der nachfolgende Text zeigen wird, findet man Popper bei der ‚objektivistischen Sicht‘ wieder. Er bezeichnet Ereignisse, die durch Häufigkeiten auffallen, als ‚Propensities‘, von mir übersetzt als ‚Tendenzen‘, was letztlich aber nur im Kontext der nachfolgenden Erläuterungen voll verständlich wird.

Popper sagt von sich, dass er nach vielen Jahren Auseinandersetzung mit der theoretischen (mathematischen) Sicht der Wahrscheinlichkeit (ca. ab 1921) (vgl. S.8f) zu dieser — seiner — Sicht gelangt ist, die er 1956 zum ersten Mal bekannt gemacht und seitdem kontinuierlich weiter entwickelt hat.[24]

Also, wenn man beobachtbare Häufigkeiten von Ereignissen nicht isoliert betrachtet (was sich angesichts des generellen Prozesscharakters aller realen Ereignisse eigentlich sowieso verbietet), dann kommt man wie Popper zu der Annahme, dass die beobachtete — überzufällige aber dennoch auch nicht deterministische — Häufigkeit die nachfolgende ‚Wirkung‘ einer realen Ausgangskonstellation von realen Faktoren sein muss, deren reale Beschaffenheit einen ‚Anlass‘ liefert, dass ‚etwas Bestimmtes passiert‘, was zu einem beobachtbaren Ereignis führt.(vgl. S.11f, dazu auch [25]) Dies schließt nicht aus, dass diese realen Wirkungen von spezifischen ‚Bedingungen‘ abhängig sein können, die erfüllt sein müssen, damit es zur Wirkung kommt. Jede dieser Bedingungen kann selbst eine ‚Wirkung‘ sein, die von anderen realen Faktoren abhängig ist, die wiederum bedingt sind, usw. Obwohl also ein ‚realer Wirkzusammenhang‘ vorliegen kann, der als solcher ‚klar‘ ist — möglicherweise sogar deterministisch — kann eine Vielzahl von ‚bedingenden Faktoren‘ das tatsächliche Auftreten der Wirkung so beeinflussen, dass eine ‚deterministische Wirkung‘ dennoch nicht als ‚deterministisch‘ auftritt.

Popper sieht in dieser realen Inhärenz von Wirkungen in auslösenden realen Faktoren eine bemerkenswerte Eigenschaft des realen Universums.(vgl. S.12) Sie würde direkt erklären, warum Häufigkeiten (Statistiken) überhaupt stabil bleiben können. (vgl. S.12). Mit dieser Interpretation bekommen Häufigkeiten einen objektiven Charakter. ‚Häufigkeiten‘ verwandeln sich in Indikatoren für ‚objektive Tendenzen‘ (‚propensities‘), die auf ‚reale Kräfte‘ verweisen, deren Wirksamkeit zu beobachtbaren Ereignissen führen.(vgl. S.12)

Die in der theoretischen Wahrscheinlichkeit verbreitete Charakterisierung von wahrscheinlichen Ereignissen auf einer Skala von ‚1‘ (passiert auf jeden Fall) bis ‚0‘ (passiert auf keinen Fall) deutet Popper für reale Tendenzen dann so um, dass alle Werte kleiner als 1 darauf hindeuten, dass es mehrere Faktoren gibt, die aufeinander einwirken, und dass der ‚Nettoeffekt‘ aller Einwirkungen dann zu einer realen Wirkung führt die kleiner als 1 ist, aber dennoch vorhanden ist; man kann ihr über Häufigkeiten sogar eine phasenweise Stabilität im Auftreten zuweisen, so lange sich die Konstellation der wechselwirkenden Faktoren nicht ändert.(vgl. S.13) Was hier aber wichtig ist — und Popper weist ausdrücklich darauf hin — die ‚realen Tendenzen‘ verweisen nicht auf einzelne konkrete, spezielle Eigenschaften inhärent in einem Objekt, sondern Tendenzen korrespondieren eher mit einer ‚Situation‘ (’situation‘), die als komplexe Gesamtheit bestimmte Tendenzen ‚zeigt‘.(vgl. SS.14-17) [26]

Schaut man nicht nur auf die Welt der Physik sonder lenkt den Blick auf den Alltag, in dem u.a. auch biologische Akteure auftreten, speziell auch Lebensformen vom Typ Homo sapiens, dann explodiert der Raum der möglichen Faktoren geradezu, die Einfluss auf den Gang der Dinge nehmen können. Nicht nur bildet der Körper als solcher beständig irgendwelche ‚Reize‘ aus, die auf den Akteur einwirken, sondern auch die Beschaffenheit der Situation wirkt in vielfältiger Weise. Insbesondere wirkt sich die erworbene Erfahrung, das erworbene Wissen samt seinen unterschiedlichen emotionalen Konnotationen auf die Art der Wahrnehmung aus, auf die Art der Bewertung des Wahrgenommenen und auf den Prozess möglicher Handlungsentscheidungen. Diese Prozesse können extrem labil sein, so dass Sie in jedem Moment abrupt geändert werden können. Und dies gilt nicht nur für einen einzelnen Homo sapiens Akteur, sondern natürlich auch für die vielen Gruppen, in denen ein Homo sapiens Akteur auftreten kann bzw. auftritt bzw. auftreten muss. Dieses Feuerwerk an sich wechselseitig beständig beeinflussenden Faktoren sprengt im Prinzip jede Art von Formalisierung oder formalisierter Berechnung. Wir Menschen selbst können dem ‚Inferno des Alles oder Nichts‘ im Alltag nur entkommen, wenn wir ‚Konventionen‘ einführen, ‚Regeln des Verhaltens‘, ‚Rollen definieren‘ usw. um das praktisch unberechenbare ‚Universum der alltäglichen Labilität‘ partiell zu ‚zähmen‘, für alltägliche Belange ‚berechenbar‘ zu machen.

Popper zieht aus dieser Beschaffenheit des Alltags den Schluss, das Indeterminismus und freier Wille zum Gegenstandsbereich und zum Erklärungsmodell der physikalischen und biologischen Wissenschaften gehören sollten.(vgl. S.17f)

Popper folgert aus einer solchen umfassenden Sicht von der Gültigkeit der Tendenzen-Annahme für vorkommende reale Ereignisse, dass die Zukunft nicht determiniert ist. Sie ist objektiv offen.(vgl. S.18)

Näher betrachtet ist die eigentliche zentrale Einsicht tatsächlich gar nicht die Möglichkeit, dass bestimmte Wirkzusammenhänge vielleicht tatsächlich determiniert sein könnten, sondern die Einsicht in eine durchgängige Beschaffenheit der uns umgebenden realen Ereigniswelt die sich – dies ist eine Hypothese! — durchgängig als eine Ansammlung von komplexen Situationen manifestiert, in denen mögliche unterscheidbare Faktoren niemals isoliert auftreten, sondern immer als ‚eingebettet‘ in eine ‚Nachbarschaften‘, so dass sowohl jeder Faktor selbst als auch die jeweiligen Auswirkungen dieses einen Faktors immer in kontinuierlichen Wechselwirkungen mit den Auswirkungen anderer Faktoren stehen. Dies bedeutet, dass nicht nur die starke Idealisierungen eines mechanistischen Weltbildes — auch eine Hypothese — als fragwürdig angesehen werden müssen, sondern auch die Idealisierung der Akteure zu einer ‚ Monade‘ [27],[27b], die die Welt letztlich nur ‚von sich aus‘ erlebt und gestaltet — eine andere Hypothese –.[27c]

Denkt man gemeinsam mit Popper weiter in die Richtung einer totalen Verflechtung aller Faktoren in einem kontinuierlich-realen Prozess, der sich in realen Tendenzen manifestiert (vgl. S.18f), dann sind alle üblichen endlichen, starren Konzepte in den empirischen Wissenschaften letztlich nicht mehr seriös anwendbar. Die ‚Zerstückelung‘ der Wirklichkeit in lauter einzelne, kleine, idealisierte Puzzle-Teile, wie sie bis heute Standard ist, führt sich relativ schnell ad absurdum. Die übliche Behauptung, auf andere Weise könne man eben nichts Verwertbares Erkennen, läuft beständig Gefahr, auf diese Weise die reale Problematik der konkreten Forschungspraxis deutlich zu überdehnen, nur weil man in der Tat Schwierigkeiten hat, die vorfindliche Komplexität ‚irgendwie experimentell nachvollziehbar‘ zu rekonstruieren.

Popper dehnt seine Beispiele für die Anwendbarkeit einer objektivistischen Sicht von realen Tendenzen weiterhin aus auf die Chemie (vgl. S.19f) und auf die Evolution des Lebens. (vgl. S.20) Und auch wenn er zuvor sagte, dass die Zukunft objektiv offen sei, so ist sie dennoch in der realen Gegenwart implizit gegenwärtig in den Aktivitäten der vorhandenen realen Faktoren.(vgl. S.20) Anders formuliert, jede Zukunft entscheidet sich immer jetzt, in der Gegenwart, auch wenn die lebenden Akteure zu einem bestimmten Zeitpunkt vielleicht das Geflecht der vielen Faktoren und Wirkungen nur unvollständig durchschauen. Mangelndes Wissen ist auch ein realer Faktor und kann als solcher u.U. wichtige Optionen übersehen, die — würde man sie kennen — vielleicht viel Unheil ersparen würden.

Nachbemerkung – Epilog

Verglichen mit den vielen Seiten Text, die Popper im Laufe seines Lebens geschrieben hat, erscheint der hier kommentierte kurze Text von 27 Seiten verschwindend kurz, gering, möglicherweise gar unbedeutend.

Betrachtet man aber die Kernthesen von Poppers theoretischem Prozess, dann tauchen diese Kernthesen in diesem kurzen Text letztlich alle auf! Und seine Thesen zur Realität von beobachtbaren Tendenzen enthalten alles, was er an Kritik zu all jenen Wissenschaftsformen gesagt hat, die dieser Kernthese nicht folgen. Der ganze riesige Komplex zur theoretischen Wahrscheinlichkeit, zu subjektiver Wahrscheinlichkeit und zu den vielfältigen Spezialformen von Überlegungen zur Wahrscheinlichkeit sagen letztlich nicht viel, wenn sie die objektivistische Interpretation von Häufigkeiten, dazu im Verbund mit der Annahme eines grundlegenden realen Prozesses, in dem sich alle realen Faktoren in beständiger realer Wechselbeziehung befinden, nicht akzeptieren. Die moderne Quantenmechanik wäre in einer realen Theorie der objektiven Tendenzen tatsächlich eine Teiltheorie, weil sie nur einige wenige — wenngleich wichtige — Aspekte der realen Welt thematisiert.

Poppers Mission einer umfassenden Theorie von Wahrheit als Innensicht einer umfassenden prozesshaften Realität bleibt — so scheint es mir — weiterhin brandaktuell.

Fortsetzung Popper 1989

Eine Kommentierung des zweiten Artikels aus dem Büchlein findet sich HIER.

Anmerkungen

Abkürzung: wkp := Wikipedia, de := Deutsche, en := Englische

[*] Es gibt noch zwei weiter Beiträge vom ’späten‘ Popper, die ich in den Diskurs aufnehmen möchte, allerdings erst nachdem ich diesen Beitrag rezipiert und in das finale Theorieformat im Kontext des oksimo-Paradigmas eingebunden habe.

[1] Karl Popper in wkp-en: https://en.wikipedia.org/wiki/Karl_Popper (auch in wkp-de: https://de.wikipedia.org/wiki/Karl_Popper )

[1b] Wiener Kreis (‚vienna circle‚) in wkp-de: https://de.wikipedia.org/wiki/Wiener_Kreis und wkp-en: https://en.wikipedia.org/wiki/Vienna_Circle

[2a] Karl Popper, „A World of Propensities“, Thoemmes Press, Bristol, (1990, repr. 1995)

[2b] Karl Popper, The Logic of Scientific Discovery, zuerst publiziert 1935 auf Deutsch als  Logik der Forschung, dann 1959 auf Englisch durch  Basic Books, New York (viele weitere Ausgaben folgten; ich benutze die eBookausgabe von Routledge (2002))

[3a] Die meisten wohl im uffmm.org Blog.

[3b] Oksimo und Popper in uffmm.org: https://www.uffmm.org/2021/03/15/philosophy-of-science/

[4] Das oksimo-Paradigma und die oksimo-Software auf oksimo.org: https://www.oksimo.org/

[5] Robert Ulanowizc in wkp-en: https://en.wikipedia.org/wiki/Robert_Ulanowicz

[5b] Robert Ulanowizc, Ecology: The Ascendant Perspective, Columbia University Press (1997) 

[6a] Karl-Popper Sammlung der Universität Klagenfurt in wkp-de: https://www.aau.at/universitaetsbibliothek-klagenfurt/karl-popper-sammlung/

[6b] An dieser Stelle möchte ich die freundliche Unterstützung von Mag. Dr. Thomas Hainscho besonders erwähnen.

[7] Eine kürzere Version dieses Artikels hat Popper 1988 auf dem Weltkongress der Philosophie 1988 im Brighton vorgetragen (Vorwort zu [2a]).

[8] Rudolf Carnap in wkp-en: https://en.wikipedia.org/wiki/Rudolf_Carnap

[8b] Rudolf Carnap,  Logical Foundations of Probability. University of Chicago Press (1950)

[9] Aristoteles in wkp-de: https://de.wikipedia.org/wiki/Aristoteles

[10] Alfred Tarski in wkp-en: https://en.wikipedia.org/wiki/Alfred_Tarski

[11] Kurt Gödel in wkp-ed: https://en.wikipedia.org/wiki/Kurt_G%C3%B6del

[12] Aus dem Buch von Kegel „Die Herrscher der Welt…“: Siehe https://www.cognitiveagent.org/2015/12/06/die-herrscher-der-welt-mikroben-besprechung-des-buches-von-b-kegel-teil-1/

[13] Natürlich ist die Sachlage bei Betrachtung der hier einschlägigen Details noch ein wenig komplexer, aber für die grundsätzliche Argumentation reicht diese Vereinfachung.

[14] Das sagen uns die vielen empirischen Arbeiten der experimentellen Psychologie und Biologie, Hand in Hand mit den neuen Erkenntnissen der Neuropsychologie.

[15] Hinter diesen Aussagen stecken die Ergebnisse eines ganzen Bündels von wissenschaftlichen Disziplinen: vorweg wieder die experimentelle Psychologie mit hunderten von einschlägigen Arbeiten, ergänzt um Linguistik/ Sprachwissenschaften, Neurolinguistik, ja auch verschiedene philosophische ‚Zuarbeiten‘ aus dem Bereich Alltagssprache (hier unbedingt der späte Wittgenstein [16] als großer Inspirator) und der Semiotik.

[16] Ludwig Wittgenstein in wkp-en: https://en.wikipedia.org/wiki/Ludwig_Wittgenstein

[17] Logik ( ‚logic‚) in der wkp-de: https://de.wikipedia.org/wiki/Logik und wkp-en: https://en.wikipedia.org/wiki/Logic

[18] Mathematik (‚mathematics‚) in der wkp-de: https://de.wikipedia.org/wiki/Mathematik und wkp-en: https://en.wikipedia.org/wiki/Mathematics

[19] Werner Heisenberg in wkp-en: https://en.wikipedia.org/wiki/Werner_Heisenberg

[19b] Unsicherheitsprinzip (‚uncertainty principle‘) in wkp-en: https://en.wikipedia.org/wiki/Uncertainty_principle

[20] Natürlich gab es schon viele Jahrhunderte früher unterschiedliche Vorläufer eines Denkens in Wahrscheinlichkeiten.

[21] Theoretische Wahrscheinlichkeit, z.B. in wkp-en: https://en.wikipedia.org/wiki/Probability

[22] Subjektive Wahrscheinlichkeit, z.B. in wkp-de: https://de.wikipedia.org/wiki/Subjektiver_Wahrscheinlichkeitsbegriff; illustrieret mit der Bayeschen Wahrscheinlichkeit in wkp-en: https://en.wikipedia.org/wiki/Bayesian_probability

[23] Objektivistische Wahrscheinlichkeit, nur ansatzweise erklärt in wkp-de: https://de.wikipedia.org/wiki/Objektivistischer_Wahrscheinlichkeitsbegriff

[23b] Deskriptive Statistik in wkp-de: https://de.wikipedia.org/wiki/Deskriptive_Statistik (siehe auch ‚descriptive statistics in wkp-en: https://en.wikipedia.org/wiki/Descriptive_statistics

[24] Zu verschiedenen Sichten von Wahrscheinlichkeiten sie auch: Karl Popper, The Open Universe: An Argument for Indeterminism, 1956–57 (as privately circulated galley proofs;) 1982 publiziert als Buch

[25] Hier sei angemerkt, dass ein Akteur natürlich nur dann ein bestimmtes Ereignis wahrnehmen kann, wenn er (i) überhaupt hinschaut und (ii) er über geeignete Beobachtungsinstrumente (= Messgeräte) verfügt, die das jeweilige Ereignis anzeigen. So sah die Welt z.B. ohne Fernglas und Mikroskop ‚einfacher‘ aus als mit.

[26] Diese Betonung einer Situation als Kontext für Tendenzen schließt natürlich nicht aus, dass die Wissenschaften im Laufe der Zeit gewisse Kontexte (z.B. das Gehirn, der Körper, …) schrittweise immer mehr auflösen in erkennbare ‚Komponenten‘, deren individuelles Verhalten in einem rekonstruierbaren Wechselspiel unterschiedliche Ereignisfolgen hervorbringen kann, die zuvor nur grob als reale Tendenz erkennbar waren. Tatsächlich führt eine zunehmende ‚Klarheit‘ bzgl. der internen Struktur einer zuvor nicht analysierbaren Situation auch zur Entdeckung von weiteren Kontextfaktoren, die zuvor unbekannt waren.(vgl. S.14f)

[27] Gottfried Wilhelm Leibniz in wkp-de: https://de.wikipedia.org/wiki/Gottfried_Wilhelm_Leibniz

[27b] Monadenlehre von Leibnuz in wkp-de: https://de.wikipedia.org/wiki/Monade_(Philosophie)

[27c] Allerdings muss man bemerken, dass die Leibnizsche Monadenlehre natürlich in einem ziemlich anderen ‚begrifflichen Koordinatensystem‘ einzubetten ist und die Bezugnahme auf diese Lehre nur einen stark vereinfachten Aspekt trifft.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

KI UND BIOLOGIE. Blitzbericht zu einem Vortrag am 28.Nov.2018

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
29.Nov. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE AKTUALISIERUNG: 1.Dez.2018, Anmerkung 1

KONTEXT

Im Rahmen einer öffentlichen Veranstaltung des Fachbereichs 2 ‚Informatik & Ingenieurwissenschaften‘ der Frankfurt University of Applied Sciences am 28.November 2018 mit dem Rahmenthema „Künstliche Intelligenz – Arbeit für Alle?“ hielt Gerd Doeben-Henisch einen kurzen Vortrag zum Thema „Verändert KI die Welt?“ Voraus ging ein Vortrag von Herrn Helmut Geyer „Arbeitsmarkt der Zukunft. (Flyer zur Veranstaltung: FRA-UAS_Fb2_Karte_KI-Arbeit fuer alle_Webversion )

EINSTIEG INS KI-THEMA

Im Kontext der Überlegungen zur Arbeitswelt angesichts des technologischen Wandels gerät die Frage nach der Rolle der Technologie, speziell der digitalen Technologie — und hier noch spezieller der digitalen Technologie mit KI-Anteilen – sehr schnell zwischen die beiden Pole ‚Vernichter von Arbeit‘, ‚Gefährdung der Zukunft‘ einerseits und ‚Neue Potentiale‘, ‚Neue Arbeit‘, ‚Bessere Zukunft‘, wobei es dann auch einen dritten Pol gibt, den von den ‚übermächtigen Maschinen‘, die die Menschen sehr bald überrunden und beherrschen werden.

Solche Positionen, eine Mischungen aus quasi-Fakten, viel Emotionen und vielen unabgeklärten Klischees, im Gespräch sachlich zu begegnen ist schwer bis unmöglich, erst Recht, wenn wenig Zeit zur Verfügung steht.

Doeben-Henisch entschloss sich daher, das Augenmerk zentral auf den Begriff ‚Künstliche Intelligenz‘ zu lenken und die bislang uneinheitliche und technikintrovertierte Begrifflichkeit in einen größeren Kontext zu stellen, der das begrifflich ungeklärte Nebeneinander von Menschen und Maschinen schon im Ansatz zu überwinden sucht.

ANDERE DISZIPLINEN

Viele Probleme im Kontext der Terminologie der KI im technischen Bereich erscheinen hausgemacht, wenn man den Blick auf andere Disziplinen ausweitet. Solche andere Disziplinen sind die Biologe, die Mikrobiologie sowie die Psychologie. In diesen Disziplinen beschäftigt man sich seit z.T. deutlich mehr als 100 Jahren mit komplexen Systemen und deren Verhalten, und natürlich ist die Frage nach der ‚Leistungsfähigkeit‘ solcher Systeme im Bereich Lernen und Intelligenz dort seit langem auf der Tagesordnung.

Die zunehmenden Einsichten in die unfassbare Komplexität biologischer Systeme (siehe dazu Beiträge in diesem Blog, dort auch weitere Links), lassen umso eindrücklicher die Frage laut werden, wie sich solche unfassbar komplexen Systeme überhaupt entwickeln konnten. Für die Beantwortung dieser Frage wies Doeben-Henisch auf zwei spannende Szenarien hin.

KOMMUNIKATIONSFREIE EVOLUTION

Entwicklungslogik vor der Verfügbarkeit von Gehirnen
Entwicklungslogik vor der Verfügbarkeit von Gehirnen

In der Zeit von der ersten Zelle (ca. -3.8 Mrd Jahren) bis zur Verfügbarkeit hinreichend leistungsfähiger Nervensysteme mit Gehirnen (ab ca. -300.000, vielleicht noch etwas früher) wurde die Entwicklung der Lebensformen auf der Erde durch zwei Faktoren gesteuert: (a) die Erde als ‚Filter‘, was letztlich zu einer bestimmten Zeit geht; (b) die Biomasse mit ihrer Reproduktionsfähigkeit, die neben der angenäherten Reproduktion der bislang erfolgreichen Baupläne (DNA-Informationen) in großem Umfang mehr oder weniger starke ‚Varianten‘ erzeugte, die ‚zufallsbedingt‘ waren. Bezogen auf die Erfolge der Vergangenheit konnten die zufälligen Varianten als ’sinnlos‘ erscheinen, als ’nicht zielführend‘, tatsächlich aber waren es sehr oft diese zunächst ’sinnlos erscheinenden‘ Varianten, die bei einsetzenden Änderungen der Lebensverhältnisse ein Überleben ermöglichten. Vereinfachend könnte man also für die Phase die Formel prägen ‚(Auf der dynamischen Erde:) Frühere Erfolge + Zufällige Veränderungen = Leben‘. Da zum Zeitpunkt der Entscheidung die Zukunft niemals hinreichend bekannt ist, ist die Variantenbildung die einzig mögliche Strategie. Die Geschwindigkeit der ‚Veränderung von Lebensformen‘ war in dieser Zeit auf die Generationsfolgen beschränkt.

MIT KOMMUNIKATION ANGEREICHERTE EVOLUTION

Nach einer gewissen ‚Übergangszeit‘ von einer Kommunikationsfreien zu einer mit Kommunikation angereicherte Evolution gab es in der nachfolgenden Zeit die Verfügbarkeit von hinreichend leistungsfähigen Gehirnen (spätestens mit dem Aufkommen des homo sapiens ab ca. -300.000)[1], mittels deren die Lebensformen die Umgebung und sich selbst ‚modellieren‘ und ‚abändern‘ konnten. Es war möglich, gedanklich Alternativen auszuprobieren, sich durch symbolische Kommunikation zu ‚koordinieren‘ und im Laufe der letzten ca. 10.000 Jahren konnten auf diese Weise komplexe kulturelle und technologische Strukturen hervorgebracht werden, die zuvor undenkbar waren. Zu diesen Technologien gehörten dann auch ab ca. 1940 programmierbare Maschinen, bekannt als Computer. Der Vorteil der Beschleunigung in der Veränderung der Umwelt – und zunehmend auch der Veränderung des eigenen Körpers — lies ein neues Problem sichtbar werden, das Problem der Präferenzen (Ziele, Bewertungskriterien…). Während bislang einzig die aktuelle Erde über ‚Lebensfähig‘ ‚oder nicht Lebensfähig‘ entschied, und dies das einzige Kriterium war, konnten die  Lebewesen mit den neuen Gehirnen  jetzt eine Vielzahl von Aspekten ausbilden, ‚partielle Ziele‘, nach denen sie sich verhielten, von denen oft erst in vielen Jahren oder gar Jahrzehnten oder gar noch länger sichtbar wurde, welche nachhaltigen Effekte sie haben.

Anmerkung 1: Nach Edelman (1992) gab es einfache Formen von Bewusstsein mit den zugehörigen neuronalen Strukturen ab ca. -300 Mio Jahren.(S.123) Danach hätte es  also ca. 300 Mio Jahre gedauert, bis   Gehirne, ausgehend von einem ersten einfachen Bewusstsein, zu komplexen Denkleistungen und sprachlicher Kommunikation in der Lage waren.

LERNEN und PRÄFERENZEN

Am Beispiel von biologischen Systemen kann man fundamentale Eigenschaften wie z.B. das ‚Lernen‘ und die ‚Intelligenz‘ sehr allgemein definieren.

Systematisierung von Verhalten nach Lernen und Nicht-Lernen
Systematisierung von Verhalten nach Lernen und Nicht-Lernen

In biologischer Sicht haben wir generell Input-Output-Systeme in einer unfassbar großen Zahl an Varianten bezüglich des Körperbaus und der internen Strukturen und Abläufe. Wie solch ein Input-Output-System intern im Details funktioniert spielt für das konkrete Leben nur insoweit eine Rolle, als die inneren Zustände ein äußerlich beobachtbares Verhalten ermöglichen, das wiederum das Überleben in der verfügbaren Umgebung ermöglicht und bezüglich spezieller ‚Ziele‘ ‚erfolgreich‘ ist. Für das Überleben reicht es also zunächst, einfach dieses beobachtbare Verhalten zu beschreiben.

In idealisierter Form kann man das Verhalten betrachten als Reiz-Reaktions-Paare (S = Stimulus, R = Response, (S,R)) und die Gesamtheit des beobachtbaren Verhaltens damit als eine Sequenz von solchen (S,R)-Paaren, die mathematisch eine endliche Menge bilden.

Ein so beschriebenes Verhalten kann man dann als ‚deterministisch‘ bezeichnen, wenn die beobachtbaren (S,R)-Paare ’stabil‘ bleiben, also auf einen bestimmten Reiz S immer die gleiche Antwort R erfolgt.

Ein dazu komplementäres Verhalten, also ein ’nicht-deterministisches‘ Verhalten, wäre dadurch charakterisiert, dass entweder (i) der Umfang der Menge gleich bleibt, aber manche (S,R)-Paare sich verändern oder (ii) der Umfang der Menge kann sich ändern. Dann gibt es die beiden interessanten Unterfälle (ii.1) es kommen nach und nach neue (S,R)-Paare dazu, die ‚hinreichend lang‘ ’stabil‘ bleiben, aber ab einem bestimmten Zeitpunkt ‚t‘ sich nicht mehr vermehren (die Menge der stabilen Elemente wird ‚eingefroren‘, ‚fixiert‘, ‚gezähmt‘, …), oder (ii.2) die Menge der stabilen (S,R)-Paare expandiert ohne Endpunkt.

Bezeichnet man diese Expansion (zeitlich ‚befristet‘ oder ‚unbefristet‘) als ‚Lernen‘, dann wird sichtbar, dass die ‚Inhalte des Lernens‘ (die korrespondierenden Repräsentationen der (S,R)-Paare in den internen Zuständen des Systems) einmal davon abhängen, was die Umgebung der Systeme ‚erlaubt‘, zum anderen, was die ‚inneren Zustände‘ des Systems an ‚Verarbeitung ermöglichen‘, sowie – sehr indirekt – über welche welche ‚internen Selektionskriterien‘ ein System verfügt.

Die ‚internen Selektionskriterien‘ werden hier kurz ‚Präferenzen‘ genannt, also Strategien, ob eher ein A oder ein B ’selektiert‘ werden soll. Wonach sich solche Kriterien richten, bleibt dabei zunächst offen. Generell kann man sagen, dass solche Kriterien primär ‚endogen‘ begründet sein müssen, dass sie aber nachgeordnet auch von außen (‚exogen‘) übernommen werden können, wenn die inneren Kriterien eine solche Favorisierung des exogenen Inputs ‚befürworten‘ (Beispiel sind die vielen Imitationen im Lernen bzw. die Vielzahl der offiziellen Bildungsprozesse, durch die Menschen auf bestimmte Verhaltens- und Wissensmuster trainiert (programmiert) werden). Offen ist auch, ob die endogenen Präferenzen stabil sind oder sich im Laufe der Zeit ändern können; desgleichen bei den exogenen Präferenzen.

Am Beispiel der menschlichen Kulturen kann man den Eindruck gewinnen, dass das Finden und gemeinsame Befolgen von Präferenzen ein bislang offenes Problem ist. Und auch die neuere Forschung zu Robotern, die ohne Terminierung lernen sollen (‚developmental robotics‘), hat zur Zeit das Problem, dass nicht ersichtlich ist, mit welchen Werten man ein nicht-terminiertes Lernen realisieren soll. (Siehe: Merrick, 2017)) Das Problem mit der Präferenz-Findung ist bislang wenig bekannt, da die sogenannten intelligenten Programme in der Industrie immer nur für klar definierte Verhaltensprofile trainiert werden, die sie dann später beim realen Einsatz unbedingt einhalten müssen.  Im technischen Bereich spricht man hier oft von einer ’schwachen KI‘. (Siehe: VDI, 2018) Mit der hier eingeführten Terminologie  wären dies nicht-deterministische Systeme, die in ihrem Lernen ‚terminieren‘.

INTELLIGENZ

Bei der Analyse des Begriffs ‚Lernen‘ wird sichtbar, dass das, was gelernt wird, bei der Beobachtung des Verhaltens nicht direkt ’sichtbar‘ ist. Vielmehr gibt es eine allgemeine ‚Hypothese‘, dass dem äußerlich beobachtbaren Verhalten ‚interne Zustände‘ korrespondieren, die dafür verantwortlich sind, ob ein ’nicht-lernendes‘ oder ein ‚lernendes‘ Verhalten zu beobachten ist. Im Fall eines ‚lernenden‘ Verhaltens mit dem Auftreten von inkrementell sich mehrenden stabilen (S,R)-Paaren wird angenommen, das den (S,R)-Verhaltensformen ‚intern‘ entsprechende ‚interne Repräsentationen‘ existieren, anhand deren das System ‚entscheiden‘ kann, wann es wie antworten soll. Ob man diese abstrakten Repräsentationen ‚Wissen‘ nennt oder ‚Fähigkeiten‘ oder ‚Erfahrung‘ oder ‚Intelligenz‘ ist für die theoretische Betrachtung unwesentlich.

Die Psychologie hat um die Wende zum 20.Jahrhundert mit der Erfindung des Intelligenztests durch Binet und Simon (1905) sowie in Weiterführung durch W.Stern (1912) einen Ansatz gefunden, die direkt nicht messbaren internen Repräsentanten eines beobachtbaren Lernprozesses indirekt dadurch zu messen, dass sie das beobachtbare Verhalten mit einem zuvor vereinbarten Standard verglichen haben. Der vereinbarte Standard waren solche Verhaltensleistungen, die man Kindern in bestimmten Altersstufen als typisch zuordnete. Ein Standard war als ein Test formuliert, den ein Kind nach möglichst objektiven Kriterien zu durchlaufen hatte. In der Regel gab es eine ganze Liste (Katalog, Batterie) von solchen Tests. Dieses Vorgehensweisen waren sehr flexibel, universell anwendbar, zeigten allerdings schon im Ansatz, dass die Testlisten kulturabhängig stark variieren konnten. Immerhin konnte man ein beobachtbares Verhalten von einem System auf diese Weise relativ zu vorgegebenen Testlisten vergleichen und damit messen. Auf diese Weise konnte man die nicht messbaren hypothetisch unterstellten internen Repräsentationen indirekt qualitativ (Art des Tests) und quantitativ (Anteil an einer Erfüllung des Tests) indizieren.

Im vorliegenden Kontext wird ‚Intelligenz‘ daher als ein Sammelbegriff für die hypothetisch unterstellte Menge der korrespondierenden internen Repräsentanten zu den beobachtbaren (S,R)-Paaren angesehen, und mittels Tests kann man diese unterstellte Intelligenz qualitativ und quantitativ indirekt charakterisieren. Wie unterschiedlich solche Charakterisierung innerhalb der Psychologie modelliert werden können, kann man in der Übersicht von Rost (2013) nachlesen.

Wichtig ist hier zudem, dass in diesem Text die Intelligenz eine Funktion des Lernens ist, das wiederum von der Systemstruktur abhängig ist, von der Beschaffenheit der Umwelt sowie der Verfügbarkeit von Präferenzen.

Mehrdimensionaler Raum der Intelligenzrpräsentanen
Mehrdimensionaler Raum der Intelligenzrpräsentanen

Aus Sicht einer solchen allgemeinen Lerntheorie kann man statt biologischen Systemen auch programmierbare Maschinen betrachten. Verglichen mit biologischen Systemen kann man den programmierbaren Maschinen ein Äquivalent zum Körper und zur Umwelt spendieren. Grundlagentheoretisch wissen wir ferner schon seit Turing (1936/7), dass programmierbare Maschinen ihr eigenes Programm abändern können und sie prinzipiell lernfähig sind. Was allerdings (siehe zuvor das Thema Präferenz) bislang unklar ist, wo sie jeweils die Präferenzen herbekommen sollen, die sie für eine ’nachhaltige Entwicklung‘ benötigen.

ZUKUNFT VON MENSCH UND MASCHINE

Im Licht der Evolution erscheint die  sich beschleunigende Zunahme von Komplexität im Bereich der biologischen Systeme und deren Populationen darauf hinzudeuten, dass mit der Verfügbarkeit von programmierbaren Maschinen diese sicher nicht als ‚Gegensatz‘ zum Projekt des biologischen Lebens zu sehen sind, sondern als eine willkommene Unterstützung in einer Phase, wo die Verfügbarkeit der Gehirne eine rapide Beschleunigung bewirkt hat. Noch bauen die biologischen Systeme ihre eigenen Baupläne  nicht selbst um, aber der Umbau in Richtung von Cyborgs hat begonnen und schon heute ist der Einsatz von programmierbaren Maschinen existentiell: die real existierenden biologischen Kapazitätsgrenzen erzwingen den Einsatz von Computern zum Erhalt und für die weitere Entwicklung. Offen ist die Frage, ob die Computer den Menschen ersetzen sollen. Der Autor dieser Zeilen sieht die schwer deutbare Zukunft eher so, dass der Mensch den Weg der Symbiose intensivieren wird und versuchen sollte, den Computer dort zu nutzen, wo er Stärken hat und zugleich sich bewusst sein, dass das Präferenzproblem nicht von der Maschine, sondern von ihm selbst gelöst werden muss. Alles ‚Böse‘ kam in der Vergangenheit und kommt in der Gegenwart vom Menschen selbst, nicht von der Technik. Letztlich ist es der Mensch, der darüber entscheidet, wie er die Technik nutzt. Ingenieure machen sie möglich, die Gesellschaft muss entscheiden, was sie damit machen will.

BEISPIEL EINER NEUEN SYMBIOSE

Der Autor dieser Zeilen hat zusammen mit anderen KollegenInnen in diesem Sommer ein Projekt gestartet, das darauf abzielt, dass alle 11.000 Kommunen in Deutschland ihre Chancen haben sollten, ihre Kommunikation und Planungsfähigkeit untereinander dramatisch zu verbessern, indem sie die modernen programmierbaren Maschinen in neuer ‚intelligenter‘ Weise für ihre Zwecke nutzen.

QUELLEN

  • Kathryn Merrick, Value systems for developmental cognitive robotics: A survey, Cognitive Systems Research, 41:38 – 55, 2017
  • VDI, Statusreport Künstliche Intelligenz, Oktober 2018, URL: https://www.vdi.de/vdi-statusbericht-kuenstliche-intelligenz/ (zuletzt: 28.November 2018)
  • Detlef H.Rost, Handbuch der Intelligenz, 2013: Weinheim – Basel, Beltz Verlag
  • Joachim Funke (2006), Kap.2: Alfred Binet (1857 – 1911) und der erste Intelligenztest der Welt, in: Georg Lamberti (Hg.), Intelligenz auf dem Prüfstand. 100 Jahre Psychometrie, Vandenhoek & Ruprecht
  • Alfred Binet, Théodore Simon: Methodes nouvelles pour le diagnostiqc du niveau intellectuel des anormaux. In: L’Année Psychologique. Vol. 11, 1904, S. 191–244 (URL: https://www.persee.fr/doc/psy_0003-5033_1904_num_11_1_3675 )
  • William Stern, Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkinder, 19121: Leipzig, J.A.Barth
  • Alan M. Turing, On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, 42(2):230–265, 1936-7
  • Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

K.G.DENBIGH: AN INVENTIVE UNIVERSE — Relektüre — Teil 4

K.G.Denbigh (1975), „An Inventive Universe“, London: Hutchinson & Co.

BISHER

Im Teil 1 der Relektüre von Kenneth George Denbighs Buch „An Inventive Universe“ hatte ich, sehr stark angeregt durch die Lektüre, zunächst eher mein eigenes Verständnis von dem Konzept ‚Zeit‘ zu Papier gebracht und eigentlich kaum die Position Denbighs referiert. Darin habe ich sehr stark darauf abgehoben, dass die Struktur der menschlichen Wahrnehmung und des Gedächtnisses es uns erlaubt, subjektiv Gegenwart als Jetzt zu erleben im Vergleich zum Erinnerbaren als Vergangen. Allerdings kann unsere Erinnerung stark von der auslösenden Realität abweichen. Im Lichte der Relativitätstheorie ist es zudem unmöglich, den Augenblick/ das Jetzt/ die Gegenwart objektiv zu definieren. Das individuelle Jetzt ist unentrinnbar subjektiv. Die Einbeziehung von ‚Uhren-Zeit’/ technischer Zeit kann zwar helfen, verschiedene Menschen relativ zu den Uhren zu koordinieren, das grundsätzliche Problem des nicht-objektiven Jetzt wird damit nicht aufgelöst.

In der Fortsetzung 1b von Teil 1 habe ich dann versucht, die Darlegung der Position von Kenneth George Denbighs Buch „An Inventive Universe“ nachzuholen. Der interessante Punkt hier ist der Widerspruch innerhalb der Physik selbst: einerseits gibt es physikalische Theorien, die zeitinvariant sind, andere wiederum nicht. Denbigh erklärt diese Situation so, dass er die zeitinvarianten Theorien als idealisierende Theorien darstellt, die von realen Randbedingungen – wie sie tatsächlich überall im Universum herrschen – absehen. Dies kann man daran erkennen, dass es für die Anwendung der einschlägigen Differentialgleichungen notwendig sei, hinreichende Randbedingungen zu definieren, damit die Gleichungen gerechnet werden können. Mit diesen Randbedingungen werden Start- und Zielzustand aber asymmetrisch.

Auch würde ich hier einen Nachtrag zu Teil 1 der Relektüre einfügen: in diesem Beitrag wurde schon auf die zentrale Rolle des Gedächtnisses für die Zeitwahrnehmung hingewiesen. Allerdings könnte man noch präzisieren, dass das Gedächtnis die einzelnen Gedächtnisinhalte nicht als streng aufeinanderfolgend speichert, sondern eben als schon geschehen. Es ist dann eine eigene gedankliche Leistungen, anhand von Eigenschaften der Gedächtnisinhalte eine Ordnung zu konstruieren. Uhren, Kalender, Aufzeichnungen können dabei helfen. Hier sind Irrtümer möglich. Für die generelle Frage, ob die Vorgänge in der Natur gerichtet sind oder nicht hilft das Gedächtnis von daher nur sehr bedingt. Ob A das B verursacht hat oder nicht, bleibt eine Interpretationsfrage, die von zusätzlichem Wissen abhängt.

Im Teil 2 ging es um den Anfang von Kap.2 (Dissipative Prozesse) und den Rest von Kap.3 (Formative Prozesse). Im Kontext der dissipativen (irreversiblen) Prozesse macht Denbigh darauf aufmerksam, dass sich von der Antike her in der modernen Physik eine Denkhaltung gehalten hat, die versucht, die reale Welt zu verdinglichen, sie statisch zu sehen (Zeit ist reversibel). Viele empirische Fakten sprechen aber gegen die Konservierung und Verdinglichung (Zeit ist irreversibel). Um den biologischen Phänomenen gerecht zu werden, führt Denbigh dann das Konzept der ‚Organisation‘ und dem ‚Grad der Organisiertheit‘ ein. Mit Hilfe dieses Konzeptes kann man Komplexitätsstufen unterscheiden, denen man unterschiedliche Makroeigenschaften zuschreiben kann. Tut man dies, dann nimmt mit wachsender Komplexität die ‚Individualität‘ zu, d.h. die allgemeinen physikalischen Gesetze gelten immer weniger. Auch gewinnt der Begriff der Entropie im Kontext von Denbighs Überlegungen eine neue Bedeutung. Im Diskussionsteil halte ich fest: Im Kern gilt, dass maximale Entropie vorliegt, wenn keine Energie-Materie-Mengen verfügbar sind, und minimale Entropie entsprechend, wenn maximal viele Energie-Materie-Mengen verfügbar sind. Vor diesem Hintergrund ergibt sich das Bild, dass Veränderungsprozesse im Universum abseits biologischer Systeme von minimaler zu maximaler Entropie zu führen scheinen (dissipative Prozesse, irreversible Prozesse, …), während die biologischen Systeme als Entropie-Konverter wirken! Sie kehren die Prozessrichtung einfach um. Hier stellen sich eine Fülle von Fragen. Berücksichtigt man die Idee des Organisationskonzepts von Denbigh, dann kann man faktisch beobachten, dass entlang einer Zeitachse eine letztlich kontinuierliche Zunahme der Komplexität biologischer Systeme stattfindet, sowohl als individuelle Systeme wie aber auch und gerade im Zusammenspiel einer Population mit einer organisatorisch aufbereiteten Umgebung (Landwirtschaft, Städtebau, Technik allgemein, Kultur, …). Für alle diese – mittlerweile mehr als 3.8 Milliarden andauernde – Prozesse haben wir bislang keine befriedigenden theoretischen Modelle

Im Teil 3 geht es um das Thema Determinismus und Emergenz. Ideengeschichtlich gibt es den Hang wieder, sich wiederholende und darin voraussagbare Ereignisse mit einem Deutungsschema zu versehen, das diesen Wiederholungen feste Ursachen zuordnet und darin eine Notwendigkeit sieht, dass dies alles passiert. Newtons Mechanik wird in diesem Kontext als neuzeitliche Inkarnation dieser Überzeugungen verstanden: mit klaren Gesetzen sind alle Bewegungen berechenbar. Denbigh zeigt dann anhand vieler Punkte dass die Annahme eines Determinismus wenig plausibel ist. Betrachtet man den Gang der Entwicklung dann kann man nach Denbigh etwa folgende Komplexitätsstufen unterscheiden: (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143) Aus wissenschaftlicher Sicht müssen sich alle diese ‚Stufen‘ (‚level‘) einheitlich erklären lassen.

KAPITEL 5: GIBT ES IRGENDWELCHE SCHÖPFERISCHEN PROZESSE? (149 – 178)

1. Nachdem Denbigh in den vorausgehenden 4 Kapiteln die Begrenztheit vieler Konzepte in der modernen Physik in den Fokus gerückt hatte (z.B.: dass die Welt nicht deterministisch ist; dass die Naturgesetze Gedankenbilder sind und nicht automatisch eine ontologische Geltung besitzen; dass alle bekannten Prozesse in der Natur irreversibel sind; dass das Konzept einer Symmetrie nicht empirisch gedeckt ist; dass die sogenannten Konservierungsgesetze postuliert wurden bevor sie überhaupt definiert wurden; dass alles darauf hindeutet, dass die Entropie zunimmt ), konzentriert er sich im letzten 5.Kapitel auf die Frage, ob es überhaupt schöpferische/ erfinderische (‚inventive‘) Prozesse gibt.
2. Mit schöpferisch meint er nicht einen Vorgang wie in den religiösen Schöpfungsmythen, in denen quasi aus dem Nichts ein unbekanntes Etwas genannt Gott/ Schöpfer etwas hervorbringt (die Welt), die dann völlig deterministisch abläuft, sondern eher einen abgeschwächten Hervorbringungsprozess, der ohne Notwendigkeit geschieht, nicht voraussagbar ist, etwas wirklich Neues bringt, und der alle Phänomene des bekannten Universums abdeckt. Er geht sogar soweit, zu sagen, dass alle die zuvor genannten Komplexitätsstufen (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143) sich als Momente an diesem generischen Innovationsprozess erweisen lassen müssten.

3. Dieser generische Innovationsprozess ist dann allgemeiner als der übliche Emergenz-Begriff. Emergenz beschreibt üblicherweise das Auftreten spezifischer Komplexitätsstufen bzw. -eigenschaften im engeren Sinne und nicht einen generischen Prozess für alle diese Phänomene.

4. In Anlehnung an das bekannte Schema der genetischen Algorithmen (hier ein knapper Überblick zur historischen Entwicklung des Konzepts Genetischer Algorithmus (GA) sowie Classifier Systeme) stellt Denbigh letztlich drei charakterisierende Momente für seine Idee eines Innovationsprozesses vor: 1) Die Ereignisse sind zufällig ; sie sind 2) selektiv (bei biologischen Systemen oft noch verstärkt durch sexuell bedingte Vermischung im Erbmaterial (crossover)(s.160)); schließlich 3) verstärkend aufgrund des anschließenden Erfolges.
5. Er illustriert dieses Schema beim Übergang vom BigBang zu den ersten Gaswolken, dann zu den Sternen und Galaxien, dann bei der Molekülbildung, bei der Zellbildung, usw. Wichtig ist ihm auch, dass dieses Ereignismodell nicht an biologische Substrate gebunden ist, sondern eben von nicht-biologischen Systemen allgemein auch befolgt werden kann, speziell auch von modernen programmgesteuerten Maschinen (Computern).
6. Eine noch allgemeinere Charakterisierung ist jene, die diese schöpferischen Prozesse ansiedelt zwischen Ordnung und Unordnung. Ein Beispiel für hohe Ordnung wären die kristallinen Strukturen (sie sind für schöpferische Prozesse zu starr), und ein Beispiel für Unordnung wäre gasförmige Strukturen (sie sind für schöpferische Prozesse zu instabil, zu flüchtig). (Vgl.S.162f) Mit anderen Worten, bei allem Aufbau von Ordnung muss es hinreichend viel Rest-Unordnung geben, ansonsten kommen alle Prozesse zum Stillstand, oder: gefordert ist ein Zustand unterhalb maximaler Entropie.
7. Wie Denbigh auch in den vorausgehenden Kapiteln schon angedeutet hatte, sieht er spirituelle/ geistige Phänomene einschließlich des Bewusstseins als normale Phänomene des Naturprozesses. (Z.B. S.168f)
8. So sieht er die 6 Komplexitätsstufen von oben auch als Ausprägungen eines allgemeineren 3-stufigen Schemas (i) unbelebt , (ii) belebt sowie (iii) belebt mit wachsendem Bewusstsein. (Vgl. S.171)
9. Unter Voraussetzung seines 3-stufigen Innovationsmodells kann er dann das Bewusstsein als einen Prozess interpretieren, der die Fähigkeit zur Selektion für ein biologisches System dramatisch verbessert. (Vgl. S.163-165)
10. Denbigh kommt in diesem Kapitel auch nochmals auf die Problematik der nichtwissenschaftlichen Voraussetzungen der Wissenschaft zu sprechen, die ich in einem vorhergehenden Beitrag schon angesprochen hatte (der Beitrag war angeregt von der Lektüre von Denbigh).
11. Mit Zitaten von einigen berühmten Forschern und Philosophen thematisiert Denbigh nicht nur allgemein die häufig unreflektierte Voraussetzungsbehaftetheit von Wissenschaft, sondern spricht auch speziell die Tendenz des menschlichen Denkens an, die Prozesse der Natur zu verdinglichen. Während Messgeräte und unsere menschliche Wahrnehmung primär nur isolierte Ereignisse registrieren können, setzt unser Denken diese individuellen Ereignisse automatisch (sprich: unbewusst) zu abstrakten Strukturen zusammen, zu sogenannten Objekten, denen wir dann Eigenschaften und Beziehungen zuordnen. (Vgl. S.164f und Anmk.14) Auf einer größeren Zeitskala gibt es diese Objekte aber nicht, sondern da gibt es nur kontinuierliche Zustandsänderungen eines alles umfassenden Prozesses, dem man zwar Eigenschaften zuordnen kann, aber letztlich nicht isolierte Objekte. Berücksichtigt man diese Artefakten unseres Denkens, dann legt sich der Gedanken nahe, die gesamte Physik von diesem veränderten Blickwinkel aus zu betrachten und zu re-analysieren. Hier verweist Denbigh explizit auf die theoretischen Arbeiten des berühmten Physikers David Bohm (später in Kooperation mit Basil J.Hiley), dessen Ergebnisse nach vielen Jahren Arbeit Eingang in das Buch The Undivided Universe: An Ontological Interpretation of Quantum Theory gefunden haben.

12. Denbigh fasst die manifeste Schizophrenie der modernen Wissenschaft in ihrer Haltung zum Menschen in folgendes Bild: „Die moderne Wissenschaft ist ein gedankliches System, das zwar die kreative Kraft der Menschen umfassend dokumentiert, und doch macht sie den Menschen selbst zu einer Sache/ zu einem Ding (‚thing‘) – also zu einem Objekt, von dem die Wissenschaft annimmt, dass es über eine solche schöpferische Kraft gar nicht verfügt.“ (Anmk.22, S.173)

DISKUSSION

  1. Dieses Buch habe ich als extrem anregend empfunden. Es taucht viele bekannte Positionen in ein neues Licht.
  2. Erkenntnistheoretisch liegt es auf der Linie, die bislang im Blog vertreten wurde, nämlich dass man bei der Diskussion der verschiedenen Phänomene und Positionen die jeweiligen Bedingungen des Erkennens beachten sollte, wenn man zu einer Einschätzung kommen möchte. Und dazu reicht keine klassische Erkenntnistheorie, sondern man muss die  modernen Erkenntnisse aus Psychologie und Biologie einbeziehen. Die Warnung vor einer falschen Verdinglichung der Weltereinisse sollte ernst genommen werden.
  3. Ferner ist der bisherige Erklärungsansatz dieses Blogs über einen generellen Evolutionsbegriff in Übereinstimmung mit dem generellen Innovationsansatz von Denbigh. Tatsächlich erscheint Denbighs Ansatz noch radikaler, generischer.  Dies soll im weiteren mehr bedacht werden.
  4. Die klare Subsumierung alles Geistigen unter den allgemeinen Naturprozess entspricht auch der Linie im Blog. Dieses führt aber nicht — wie Denbigh auch klar herausstellt — zu einer Vereinfachung oder Abwertung des Geistigen sondern zu einem vertieften Verständnis  der potentiellen Vielfalt und Komplexität der Energie-Materie. Mit der unterschiedlichen Einordnung geht ja nicht das Phänomen verloren, sondern die begriffliche Einordnung muss neu justiert werden. Dies verlangt nicht nur eine Neupositionierung der bisherigen Geisteswissenschaften, sondern genauso auch eine Neupositionierung der Naturwissenschaften. Diese erweisen sich bislang aber als nicht minder dogmatisch wie die oft gescholtenen Geisteswissenschaften.

QUELLEN

  1. Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.
  2. David Joseph Bohm FRS[1] (December 20, 1917 – October 27, 1992) was an American scientist who has been described as one of the most significant theoretical physicists of the 20th century[2] and who contributed innovative and unorthodox ideas to quantum theory, neuropsychology and the philosophy of mind.
  3. Basil J. Hiley (born 1935), is a British quantum physicist and professor emeritus of the University of London. He received the Majorana Prize „Best person in physics“ in 2012.
  4. Review von: „The Undivided Universe: An Ontological Interpretation of Quantum Theory“ von David Bohm and Basil J. Hiley, Routledge, London and New York, 1993. 397 pp. hc, ISBN 0–415–06588–7 durch Sheldon Goldstein, Department of Mathematics, Rutgers University, New Brunswick, NJ 08903, USA(July 28, 1994)

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

NOTIZ ZU DEN UNWISSENSCHAFTLICHEN VORAUSSETZUNGEN DER WISSENSCHAFTEN

  1. Als ich gestern weiter im Buch ‚An Inventive Universe‘ von Denbigh las, diskutierte er dort u.a. die verschiedenen Positionen, die in der Physik und in der Philosophie zum Thema Determinismus eingenommen werden. Er arbeitete heraus, dass jede physikalische Theorie einen nicht unwesentlichen nicht-wissenschaftlichen Anteil besitzt, nämlich diejenigen Interessen, Fragen und Grundannahmen, die der Bildung einer wissenschaftlichen Theorie voraus liegen. Ohne diese Annahmen und vorauseilenden Interessen gibt es keine wissenschaftliche Aktivitäten.
  2. Moderne Wissenschaft versteht sich zwar so, dass sie ihr Vorgehen transparent machen will, wiederholbar, unabhängig (invariant) von individuelle Gefühle und Fantasien, aber die nicht-wissenschaftlichen vorausgehenden Annahmen sind unausweichlich individuell bedingt, aus allen möglichen Quellen (auch individuellen Interessen, Fantasien, Erinnerungen, Vorstellungen) gespeist. Etwas anderes hat auch ein Wissenschaftler nicht zur Verfügung.
  3. Im Fall des Determinismus ist z.B. die Vorstellung, dass die Ereignisse in der Natur nicht zufällig sind, sondern bestimmten Regeln, Gesetzen folgen, dass sie damit berechenbar sind, dass damit Voraussagen möglich sind, eine solche Grundannahme.
  4. Diese Annahmen kommen nicht aus der Welt jenseits des Kopfes, sondern sie entstehen im individuellen Gehirn eines potentiellen Forschers. Sie werden ihm bewusst, prägen seine Sehweise, wie er die Welt betrachtet und interpretiert. Als solche sind sie weder wahr noch falsch. Es sind Formen der Wahrnehmung von Welt.
  5. Die Mechanik von Newton passte sehr gut in diese Erwartung: plötzlich konnte man scheinbar alle Bewegungen damit berechnen. Sowohl die Bewegung der Sterne wie auch die der Körper auf der Erde.
  6. Der weitere Gang der Forschung zeigte dann aber, dass diese Wahrnehmung der Natur unvollständig, wenn nicht gar in einem tiefen Sinne falsch ist. Beim immer weiter Vordringen in das ‚Innere der Natur‘ lernten die Wissenschaftler, dass die Natur alles andere als determiniert ist; ganz im Gegenteil, sie ist radikal probabilistisch, nicht ausrechenbar im Detail, auch nicht ausrechenbar in ihren komplexesten Erscheinungen, den biologischen Lebensformen. Die Annahme einer deterministischen, Gesetzen folgenden Natur erwies sich als Fiktion des individuellen Denkens. Das, was man für objektive Wissenschaft gehalten hatte zeigte sich plötzlich als überaus subjektives Gebilde mit hohem metaphysischen Unterhaltungswert.
  7. Die Einstellung, dass Wissenschaft um so objektiver sei, umso weniger man den Anteil des erkennenden Subjektes in den Erklärungsprozess einbezieht, erweist sich immer mehr als falsch. Gerade diese Verweigerung, den handelnden Wissenschaftler mit seinen spezifischen biologischen Voraussetzungen als konstitutives Element des Erkennens nicht kritisch in die Reflexion einzubeziehen, macht Wissenschaft ideologieanfällig, lässt sie unbewusst in das Schlepptau einer verdeckten Metaphysik geraten, die umso schlimmer wütet, als man so tut, als ob es so etwas doch gar nicht gibt [Anmerkung: Eine solche Wissenschaftskritik ist nicht neu. Die Wissenschaftsphilosophie bzw. Wissenschaftstheorie ist voll von diesen kritischen Überlegungen seit mehr als 100 Jahren].
  8. Für das wissenschaftliche Denken hat dies weitreichende Konsequenzen, vorausgesetzt, man nimmt diese Erkenntnisse ernst.
  9. Streng genommen dürfte es keine einzige wissenschaftliche Disziplin mehr geben, die in ihrem Alltagsbetrieb nicht eine Theorie-kritische, sprich wissenschaftsphilosophische Abteilung besitzt, die sich kontinuierlich aktiv mit den ganzen nichtwissenschaftlichen Annahmen auseinandersetzt, die in jeden Wissenschaftsbetrieb eingehen. Insofern die Verantwortlichen eines solchen wissenschaftskritischen Unterfangens natürlich selbst von den jeweiligen Annahmen infiziert sind, gibt es keine Garantie, dass der nicht-wissenschaftliche Anteil tatsächlich immer angemessen erkannt und behandelt wird.
  10. Das heute oft so beklagte Auseinanderdriften von naturwissenschaftlichem Denken einerseits und und sozialem-kulturellem-geisteswissenschaftlichem Denken andererseits könnte durch die direkte philosophische Aufbereitung des naturwissenschaftlichen Denkens möglicherweise vermindert werden. Doch trotz aller Einsichten in die metaphysischen Schwachstellen des naturwissenschaftlichen Wissenschaftsbetriebs sieht es momentan nicht so aus, dass der Mainstream naturwissenschaftlichen Forschens sich solchen Maßnahmen öffnen würde.
  11. Man könnte sich jetzt einfach vom Geschehen abwenden und sagen, dann lass sie halt (die Naturwissenschaftler). Das Problem ist nur, dass diese Art von eingeschränktem Denken vielfache Fernwirkungen hat, die – für viele unmerkbar – grundlegende Anschauungen über die Welt und die Menschen beeinflussen.
  12. Wichtige Themen hier sind (i) das Bild vom Menschen generell, (ii) davon abhängig die Auffassung möglicher Werte, Grundwerte, Menschenrechte und Verfassungstexte, u.a. auch (iii) die Vorstellungen vom Sinn des Lebens im Kontext von religiösen Vorstellungen.
  13. Diese Überlegungen sind weiter zu führen.

Literaturhinweis:

Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

K.G.DENBIGH: AN INVENTIVE UNIVERSE — Relektüre — Teil 3

K.G.Denbigh (1975), „An Inventive Universe“, London: Hutchinson & Co.

BISHER

Im Teil 1 der Relektüre von Kenneth George Denbighs Buch „An Inventive Universe“ hatte ich, sehr stark angeregt durch die Lektüre, zunächst eher mein eigenes Verständnis von dem Konzept ‚Zeit‘ zu Papier gebracht und eigentlich kaum die Position Denbighs referiert. Darin habe ich sehr stark darauf abgehoben, dass die Struktur der menschlichen Wahrnehmung und des Gedächtnisses es uns erlaubt, subjektiv Gegenwart als Jetzt zu erleben im Vergleich zum Erinnerbaren als Vergangen. Allerdings kann unsere Erinnerung stark von der auslösenden Realität abweichen. Im Lichte der Relativitätstheorie ist es zudem unmöglich, den Augenblick/ das Jetzt/ die Gegenwart objektiv zu definieren. Das individuelle Jetzt ist unentrinnbar subjektiv. Die Einbeziehung von ‚Uhren-Zeit’/ technischer Zeit kann zwar helfen, verschiedene Menschen relativ zu den Uhren zu koordinieren, das grundsätzliche Problem des nicht-objektiven Jetzt wird damit nicht aufgelöst.

In der Fortsetzung 1b von Teil 1 habe ich dann versucht, die Darlegung der Position von Kenneth George Denbighs Buch „An Inventive Universe“ nachzuholen. Der interessante Punkt hier ist der Widerspruch innerhalb der Physik selbst: einerseits gibt es physikalische Theorien, die zeitinvariant sind, andere wiederum nicht. Denbigh erklärt diese Situation so, dass er die zeitinvarianten Theorien als idealisierende Theorien darstellt, die von realen Randbedingungen – wie sie tatsächlich überall im Universum herrschen – absehen. Dies kann man daran erkennen, dass es für die Anwendung der einschlägigen Differentialgleichungen notwendig sei, hinreichende Randbedingungen zu definieren, damit die Gleichungen gerechnet werden können. Mit diesen Randbedingungen werden Start- und Zielzustand aber asymmetrisch.

Auch würde ich hier einen Nachtrag zu Teil 1 der Relektüre einfügen: in diesem Beitrag wurde schon auf die zentrale Rolle des Gedächtnisses für die Zeitwahrnehmung hingewiesen. Allerdings könnte man noch präzisieren, dass das Gedächtnis die einzelnen Gedächtnisinhalte nicht als streng aufeinanderfolgend speichert, sondern eben als schon geschehen. Es ist dann eine eigene gedankliche Leistungen, anhand von Eigenschaften der Gedächtnisinhalte eine Ordnung zu konstruieren. Uhren, Kalender, Aufzeichnungen können dabei helfen. Hier sind Irrtümer möglich. Für die generelle Frage, ob die Vorgänge in der Natur gerichtet sind oder nicht hilft das Gedächtnis von daher nur sehr bedingt. Ob A das B verursacht hat oder nicht, bleibt eine Interpretationsfrage, die von zusätzlichem Wissen abhängt.

Im Teil 2 ging es um den Anfang von Kap.2 (Dissipative Prozesse) und den Rest von Kap.3 (Formative Prozesse). Im Kontext der dissipativen (irreversiblen) Prozesse macht Denbigh darauf aufmerksam, dass sich von der Antike her in der modernen Physik eine Denkhaltung gehalten hat, die versucht, die reale Welt zu verdinglichen, sie statisch zu sehen (Zeit ist reversibel). Viele empirische Fakten sprechen aber gegen die Konservierung und Verdinglichung (Zeit ist irreversibel). Um den biologischen Phänomenen gerecht zu werden, führt Denbigh dann das Konzept der ‚Organisation‘ und dem ‚Grad der Organisiertheit‘ ein. Mit Hilfe dieses Konzeptes kann man Komplexitätsstufen unterscheiden, denen man unterschiedliche Makroeigenschaften zuschreiben kann. Tut man dies, dann nimmt mit wachsender Komplexität die ‚Individualität‘ zu, d.h. die allgemeinen physikalischen Gesetze gelten immer weniger. Auch gewinnt der Begriff der Entropie im Kontext von Denbighs Überlegungen eine neue Bedeutung. Im Diskussionsteil halte ich fest: Im Kern gilt, dass maximale Entropie vorliegt, wenn keine Energie-Materie-Mengen verfügbar sind, und minimale Entropie entsprechend, wenn maximal viele Energie-Materie-Mengen verfügbar sind. Vor diesem Hintergrund ergibt sich das Bild, dass Veränderungsprozesse im Universum abseits biologischer Systeme von minimaler zu maximaler Entropie zu führen scheinen (dissipative Prozesse, irreversible Prozesse, …), während die biologischen Systeme als Entropie-Konverter wirken! Sie kehren die Prozessrichtung einfach um. Hier stellen sich eine Fülle von Fragen. Berücksichtigt man die Idee des Organiationskonzepts von Denbigh, dann kann man faktisch beobachten, dass entlang einer Zeitachse eine letztlich kontinuierliche Zunahme der Komplexität biologischer Systeme stattfindet, sowohl als individuelle Systeme wie aber auch und gerade im Zusammenspiel einer Population mit einer organisatorisch aufbereiteten Umgebung (Landwirtschaft, Städtebau, Technik allgemein, Kultur, …). Für alle diese – mittlerweile mehr als 3.8 Milliarden andauernde – Prozesse haben wir bislang keine befriedigenden theoretischen Modelle

KAPITEL 4: DETERMINISMUS UND EMERGENZ (117 – 148)

Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz
Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz

  1. Dieses Kapitel widmet sich dem Thema Determinismus und Emergenz. Ideengeschichtlich gibt es den Hang wieder, sich wiederholende und darin voraussagbare Ereignisse mit einem Deutungsschema zu versehen, das diesen Wiederholungen feste Ursachen zuordnet und darin eine Notwendigkeit, dass dies alles passiert. Newtons Mechanik wird in diesem Kontext als neuzeitliche Inkarnation dieser Überzeugungen verstanden: mit klaren Gesetzen sind alle Bewegungen berechenbar.
  2. Dieses klare Bild korrespondiert gut mit der christlichen theologischen Tradition, nach der ein Schöpfer alles in Bewegung gesetzt hat und nun die Welt nach einem vorgegebenen Muster abläuft, was letztlich nur der Schöpfer selbst (Stichwort Wunder) abändern kann.
  3. Die neuzeitliche Wissenschaft hat aber neben dem Konzept des Gesetzes (‚law‘) auch das Konzept Theorie entwickelt. Gesetze führen innerhalb einer Theorie kein Eigenleben mehr sondern sind Elemente im Rahmen der Theorie. Theorien sind subjektive Konstruktionen von mentalen Modellen, die versuchen, die empirischen Phänomene zu beschreiben. Dies ist ein Näherungsprozess, der – zumindest historisch – keinen eindeutigen Endpunkt kennt, sondern empirisch bislang als eher unendlich erscheint.
  4. Eine moderne Formulierung des deterministischen Standpunktes wird von Denbigh wie folgt vorgeschlagen: Wenn ein Zustand A eines hinreichend isolierten Systems gefolgt wird von einem Zustand B, dann wird der gleiche Zustand A immer von dem Zustand B gefolgt werden, und zwar bis in die letzten Details.(S.122)
  5. Diese Formulierung wird begleitend von den Annahmen, dass dies universell gilt, immer, für alles, mit perfekter Präzision.
  6. Dabei muss man unterscheiden, ob die Erklärung nur auf vergangene Ereignisse angewendet wird (‚ex post facto‘) oder zur Voraussage benutzt wird. Letzteres gilt als die eigentliche Herausforderung.
  7. Wählt man die deterministische Position als Bezugspunkt, dann lassen sich zahlreiche Punkte aufführen, nach denen klar ist, dass das Determinismus-Prinzip unhaltbar ist. Im Folgenden eine kurze Aufzählung.
  8. Die Interaktion aller Teile im Universum ist nirgendwo (nach bisherigem Wissen) einfach Null. Zudem ist die Komplexität der Wechselwirkung grundsätzlich so groß, dass eine absolute Isolierung eines Teilsystems samt exakter Reproduktion als nicht möglich erscheint.
  9. Generell gibt es das Problem der Messfehler, der Messungenauigkeiten und der begrenzten Präzision. Mit der Quantenmechanik wurde klar, dass wir nicht beliebig genau messen können, dass Messen den Gegenstand verändert. Ferner wurde klar, dass Messen einen Energieaufwand bedeutet, der umso größer wird, je genauer man messen will. Ein erschöpfendes – alles umfassende – Messen ist daher niemals möglich.
  10. Im Bereich der Quanten gelten maximal Wahrscheinlichkeiten, keine Notwendigkeiten. Dies schließt nicht notwendigerweise ‚Ursachen/ Kausalitäten‘ aus.
  11. Die logischen Konzepte der mentalen Modelle als solche sind nicht die Wirklichkeit selbst. Die ‚innere Natur der Dinge‘ als solche ist nicht bekannt; wir kennen nur unsere Annäherungen über Messereignisse. Das, was ‚logisch notwendig‘ ist, muss aus sich heraus nicht ontologisch gültig sein.
  12. Neben den Teilchen sind aber auch biologische Systeme nicht voraussagbar. Ihre inneren Freiheitsgrade im Verbund mit ihren Dynamiken lassen keine Voraussage zu.
  13. Aus der Literatur übernimmt Denbigh die Komplexitätshierarchie (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143)
  14. Traditioneller Weise haben sich relativ zu jeder Komplexitätsstufe spezifische wissenschaftliche Disziplinen herausgebildet, die die Frage nach der Einheit der Wissenschaften aufwerfen: die einen sehen in den Eigenschaften höherer Komplexitätsstufen emergente Eigenschaften, die sich nicht auf die einfacheren Subsysteme zurückführen lassen; die Reduktionisten sehen die Wissenschaft vollendet, wenn sich alle komplexeren Eigenschaften auf Eigenschaften der Ebenen mit weniger Komplexität zurückführen lassen. Während diese beiden Positionen widersprüchlich erscheinen, nimmt das Evolutionskonzept eine mittlere Stellung ein: anhand des Modells eines generierenden Mechanismus wird erläutert, wie sich komplexere Eigenschaften aus einfacheren entwickeln können.

DISKUSSION

  1. Fasst man alle Argument zusammen, ergibt sich das Bild von uns Menschen als kognitive Theorientwickler, die mit ihren kognitiven Bildern versuchen, die Strukturen und Dynamiken einer externen Welt (einschließlich sich selbst) nach zu zeichnen, die per se unzugänglich und unerkennbar ist. Eingeschränkte Wahrnehmungen und eingeschränkte Messungen mit prinzipiellen Messgrenzen bilden die eine Begrenzung, die daraus resultierende prinzipielle Unvollständigkeit aller Informationen eine andere, und schließlich die innere Logik der realen Welt verhindert ein einfaches, umfassendes, eindeutiges Zugreifen.
  2. Die mangelnde Selbstreflexion der beteiligten Wissenschaftler erlaubt streckenweise die Ausbildung von Thesen und Hypothesen, die aufgrund der möglichen Methoden eigentlich ausgeschlossen sind.
  3. Die noch immer geltende weitverbreitete Anschauung, dass in der Wissenschaft der Anteil des Subjektes auszuklammern sei, wird durch die vertiefenden Einsichten in die kognitiven Voraussetzungen aller Theorien heute neu in Frage gestellt. Es geht nicht um eine Infragestellung des Empirischen in der Wissenschaft, sondern um ein verstärktes Bewusstheit von den biologischen (beinhaltet auch das Kognitive) Voraussetzungen von empirischen Theorien.
  4. In dem Maße, wie die biologische Bedingtheit von Theoriebildungen in den Blick tritt kann auch die Besonderheit der biologischen Komplexität wieder neu reflektiert werden. Das Biologische als Entropie-Konverter (siehe vorausgehenden Beitrag) und Individualität-Ermöglicher jenseits der bekannten Naturgesetze lässt Eigenschaften der Natur aufblitzen, die das bekannte stark vereinfachte Bild kritisieren, sprengen, revolutionieren.
  5. Die Idee eines evolutionären Mechanismus zwischen plattem Reduktionismus und metaphysischem Emergenz-Denken müsste allerdings erheblich weiter entwickelt werden. Bislang bewegt es sich im Bereich der Komplexitätsebenen (iii) Moleküle und (iv) Zellen.

Fortsetzung mit TEIL 4

QUELLEN

  1. Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Freiheit zu Sterben als Kriterium? (1)

Anmerkung: Der ursprüngliche Titel dieses Eintrags lautete ‚Wie viel sind 100%?‘  Dahinter stand die Absicht, über das sich immer weiter verstärkende Phänomen der ‚Überlastung‘ von einzelnen Menschen zu schreiben, ein Phänomen, das im Grenzfall als konstatierbares  Verhaltenssyndrom dann oft als ‚Burn-Out‘ bezeichnet wird. Beim Schreiben des Textes entwickelte sich dann aber ein ganz anderer Gedanke, eben der Text, den man unten lesen kann, und der eigentlich einen anderen Titel benötigt.

(1) In vorausgehenden Blog-Einträgen ging es immer wieder um den globalen Prozess des Lebens, der sich auf dem Planeten Erde ereignet.

 

(2) So sehr es stimmt, dass ein individueller, einzelner Lebensprozess nicht möglich ist durch die Gleichzeitigkeit all der anderen Prozesse, so sehr stimmt aber auch, dass der globale Prozess nur existiert, weil es die vielen Milliarden einzelnen, individuellen Prozesse gibt, durch die sich der globale Prozess realisiert.

 

(3) Heruntergebrochen auf ein menschliches Leben heißt dies, dass der eigene individuelle Lebensprozess — so unscheinbar er aufs Ganze gesehen erscheinen mag — wesentlich dafür ist, dass es das Gesamtphänomen Leben gibt. Würden alle aktuell lebenden Wesen ’sich weigern‘, weiter zu leben, würde das gesamte Leben zum Stillstand kommen; es würde aufhören zu existieren. Die Erde würde sich alsbald biochemisch verändern — z.B. ohne Atmosphäre –, ein toter Planet. Im Universum würde auf einem Planeten ‚das Licht‘ ausgehen. Ob es auf anderen Planeten noch Leben gibt, wird bislang fleißig geschätzt.

 

(4) Es ist eine interessante Frage, wieweit lebende Individuen — von Bakterien aufwärts — überhaupt ’selbst‘ entscheiden können, ‚freiwillig‘ den eigenen Lebensprozess zu beenden.

 

(5) Begriffe wie ‚Selbst‘ und ‚freiwillig‘ sind vom Menschen geprägt und setzten als ‚Bedeutung‘ voraus, dass es ein ‚Selbst‘ gibt, das über die reale Möglichkeit verfügt, eine ‚Entscheidung‘ zu fällen, die zur Folge hätte, dass der eigene Lebensprozess beendet würde. Außerdem müsste diese Entscheidung ausschließlich von dem Individuum ’selbst‘ getroffen werden, nicht durch Einwirkung von außen. Die Begriffe — ‚Selbst‘, ‚freiwillig‘, ’nicht von außen beeinflusst‘ — sind sehr vage und praktisch nicht wirklich klar ‚definierbar‘ (trotzdem möglicherweise sehr sinnvoll). Es gibt aber hinreichend viele Beispiele von Menschen, die auf eine Weise in den Tod gegangen sind, dass andere Menschen den Eindruck haben, diese Menschen haben das ‚aus sich heraus‘ getan.

 

(6) Mir sind aktuell keine Forschungen bekannt, aus denen zweifelsfrei hervorgeht, ab welchem ‚Organisationsniveau‘ ein Leben ‚aus sich heraus‘ seinen Lebensprozess stoppen kann, obgleich er noch weiter gehen könnte. Damit sind nicht solche Fälle gemeint, in denen ein Lebewesen von einem anderen bedroht wird und in solch einer Situation einen ‚Kampf‘ aufnimmt, der normalerweise als ‚aussichtslos‘ erscheint.

 

(7) Momentan habe ich den Eindruck, dass die Möglichkeit einer ‚Entscheidung aus sich heraus‘, seinen eigenen individuellen Lebensprozess zu verändern, ein ’sehr weitgehendes‘ Organisationsniveau voraus setzt. Umgekehrt bedeutet dies, dass alle individuellen Lebensprozesse, die ‚unterhalb‘ dieses theoretisch postulierten Organisationsniveaus — nennen wir es O* — ‚liegen‘, von ihrem eigenen individuellen Lebensprozess ‚getrieben‘ sind. Der Lebensprozess ‚als solcher‘ — unterhalb von O* — ‚treibt an‘, ‚will leben‘.

 

(8) Im Grunde genommen beinhaltet der Begriff des ‚Lebens‘ genau diese besondere Eigenschaft, in einem von Entropie gekennzeichneten Umfeld entgegen dem allgemeinen Trend ‚lokal‘ — also schon hier beginnend ‚individuell‘ — Moleküle, Zellen, Zellverbände…. ‚zusammen zu bauen‘ und ‚am Funktionieren halten‘. Es ist ein ’nur von außen‘, nur durch Beobachten des ’stattfindenden Prozesses‘ zu konstatierendes Phänomen eines sich ‚Zusammenfügens‘ von zuvor Getrenntem auf der Basis von chemischen Eigenschaften der beteiligten Moleküle spricht Atome, die einen ‚Zusammenschluss‘ ’statistisch‘ ’nahe legen‘. Diese in der ‚Materie-gewordenen-Energie‘ vorgegebene Eigenschaft scheint nahezu ‚unaufhaltsam‘ den Zusammenschluss immer komplexerer Strukturen zu induzieren. Physikalisch, chemisch, molekularbiologisch erscheint dieser beobachtbare Trend ‚unaufhaltsam‘, d.h. aufgrund der beteiligten physikalischen, chemischen, biomolekularen Faktoren ‚kausal erzwungen‘. Man kann nicht erkennen, wo in diesem Prozess ‚der Prozess‘ ‚aus sich heraus‘ ’sagen‘ könnte, ‚ich will nicht‘. Alles in diesem Prozess ist kausal ‚erzwungen‘, determiniert (trotz aller Statistik, die man hier zur Beschreibung partiell aktivieren kann).

 

(9) Auf ‚höherem‘ Organisationsniveau — aber unterhalb von O* — kann man ‚Bedürfnisse‘ konstatieren, ‚Instinkte‘; ‚Faktoren in dem Organismus‘, die die beobachtenden Wissenschaftler dafür ‚verantwortlich‘ machen, dass sie auf das beobachtbare Verhalten ‚Einfluss‘ nehmen. Sofern man solche Faktoren tatsächlich innerhalb der Struktur eines Organismus ‚identifizieren‘ kann — z.B. als genetische Einheiten, die sich auf die spätere Strukturbildung und das Verhalten auswirken — kann man sagen, dass auch solche Faktoren ’nicht beliebig‘ sind, sondern ‚Materie-gewordenene-Energetische‘ Strukturen darstellen, die aufgrund ihrer immanenten physikalisch-chemischen-biomolekularen Eigenschaften so wirken, wie sie wirken. Der betreffende Lebensprozess ist dadurch kausal getrieben, wenngleich verschiedene kausal bedingte Handlungsimpulse, die ‚gleichzeitig‘ (simultan) auftreten können, einen einfachen ‚Determinismus‘ nicht mehr zulassen. Also: kausale Mechanismen: Ja; einfache Determiniertheit: Nein. Allerdings impliziert dies, dass ein handelnder Lebensprozess, der kausal-indeterminiert ist, offensichtlich über ein neues ‚Entscheidungsniveau‘ verfügt. Nennen wir dieses Organisationsniveau O1 mit O1 < O*. Mit Oo soll dann jedes Organisationsniveau gemeint sein, das aufgrund der zugrunde liegenden kausalen Vorgänge vollständig ‚determiniert‘ ist (und zwar im ‚Phänotyp‘, also jener Struktur, die aus dem ‚Genotyp‘ durch Wachstumsprozesse hervor gegangen ist).: Oo < O1 < O*.

 

(10) Zwischen verschiedenen ‚Handlungsimpulsen‘ auf dem Niveau O1 auswählen zu können bedeutet dennoch ein ‚Getriebensein‘, da der jeweils ausgewählte Handlungsimpuls als solcher einen kausalen Mechanismus darstellt, der eine bestimmte ‚Richtung‘ hat. Auch kann man sich einen ‚Auswahlmechanismus‘ vorstellen, der kausal arbeitet, wenngleich seine ‚Wirkung‘ aus Sicht der Beobachters ‚zufällig‘ erscheinen mag oder ‚mit einer bestimmten Tendenz behaftet‘ (so kann man ja auch jeden deterministisch arbeitenden Computer so programmieren, dass er sich nahezu ununterscheidbar wie eine Menge von Ereignissen, denen man die Eigenschaft des ‚mathematisch definierten Zufalls‘ zusprechen würde (was den Verdacht nahe legt, dass ‚zufällige‘ Phänomene ‚beobachterinduziert‘ sind: wir nehmen ‚Zufall‘ war, weil wir die erzeugenden Mechanismen nicht erkennen können)).

 

Fortsetzung folgt.