GROSSVATER und die STADT DER ERLEUCHTUNG

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 20.-21. Februar 2022
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Großvater stand da; neben ihm seine Enkel Peter und Brigitta.

Sie schauten auf die große Mauer mit dem großen schwarzen Tor.

Es war das Tor zur ‚Stadt der Erleuchtung‘.

Brigitta fragte: „Was passiert, wenn wir in der Stadt der Erleuchtung sind?“

Großvater wendete seinen Kopf und schaute sie an.

„Wenn Du drin bist, dann wirst Du feststellen, dass Du schon immer in dieser Stadt warst, und noch immer bist.“

Brigitta schaute ihn fragend an.

„Das ist doch prima“, sagte Peter mit hellen Augen, „Hier habe ich meine Freunde. Hier kann man so viel erleben…“.

„Ja“, sagte Großvater, „wir sind Teil der Erleuchtung“.

Unmerklich ging ein Lächeln über sein Gesicht.

… und das Leuchten war nicht nur bei ihm …

Anmerkung

Der obige Text steht ‚für sich‘. Wenn jemand weitere Gedanken zum Thema ‚Erleuchtung‘, ‚Mystik‘ und Philosophie mit Wissenschaft Kennenlernen möchte, kann sich an diesem Text versuchen. Ansonsten gibt es in diesem Blog viele weitere Texte zu den Stichworten ‚Spiritualität‘ und ‚Meditation‘.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

WISSENSCHAFT IM ALLTAG. Popper 1989/1990

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 19.-21.Februar 2022, 14:05h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Vorbemerkung

Bei diesem Beitrag handelt es sich um eine Fortsetzung der vorausgehenden Besprechung von Popper’s erstem Artikel „A World of Propensities“ (1988, 1990). In diesem neuen Post steht der zweite Artikel von Popper im Zentrum „Towards an Evolutionary Theory of Knowledge“ (1989,1990)[0]. Der Text von Popper geht zurück auf seine erste öffentliche Rede für die Alumni der London School of Economics 1989, 40 Jahre nach seiner Ernennung zum Professor für Logik und wissenschaftliche Methoden an der L.S.E. Der Text des Artikels wurde von ihm gegenüber der ursprünglichen Rede leicht erweitert.

Rückblick als Zusammenfassung

(Mit eigenen Worten …)

Im vorausgehenden Text hatte Popper sehr grundsätzlich die Idee entwickelt, dass in der Abfolge beobachtbarer Ereignisse mit möglichen Häufigkeiten ‚mehr enthalten‘ ist als bloß ein ‚wiederholtes Auftreten‘. Ereignisse in der uns umgebenden Ereigniswelt — mit unserem Körper ebenfalls als ein Ereignis darin — stehen nicht beziehungslos im Raum, sondern stehen in einem realen Zusammenhang mit allem anderen, kontinuierlich eingebettet in reale Wechselbeziehungen vielfältiger Art, und dieser Zusammenhang dauert an als ‚Gegenwart‘, in der sich diese realen Konstellationen in Form von ‚Wirkungen‘ manifestieren. Die Wirklichkeit erscheint in dieser Sicht als ein ‚Prozess‘, in dem alles mit allem verbunden ist und sich durch die kontinuierlichen ‚Wirkungen‘, die von den einzelnen Komponenten ausgehen, sich selbst kontinuierlich auch verändern kann. Eine Wirkung, die innerhalb solch eines dynamischen Prozesses als ‚Ereignis‘ beobachtbar (= messbar) wird, muss man daher als eine ‚Tendenz‘ (‚propensity‘) begreifen, die ‚vorkommt‘, weil es einen realen Zusammenhang gibt, der sie bedingt. Tendenzen kann man daher verstehen als ‚Geräusche des Daseins‘, ‚Mitteilungen des So-Seins‘, oder als ‚Sound der Welt‘. Man kann es beim bloßen Wahrnehmen, beim Sound als solchem, belassen, oder man kann den Sound als ‚Spur‘ sehen, als ‚Zeichen‘, als ‚Abdruck von etwas‘, das sich ‚mitteilt.

Popper legt Wert darauf, dass die einzelnen Töne des Sounds, die einzelnen Ereignisse, weder ‚deterministisch‘ sind noch ‚rein zufällig‘. Irgendetwas dazwischen. Das Auftreten dieser Töne kann ‚Muster‘ andeuten, ‚Regelhaftigkeiten‘, durch die unser Denken angeregt werden kann, zwischen aufeinander folgenden Ereignissen ‚Beziehungen‘ zu sehen, ‚Zusammenhänge‘, aber diese Beziehungen sind aufgrund der Art ihres Auftretens ‚fragil‘: sie können auftreten mit einer gewissen Häufigkeit, phasenweise vielleicht sogar mit einer gewissen ‚Konstanz der Häufigkeiten‘, aber es gibt ‚keine absoluten Garantien‘, dass dies immer so bleiben wird. Im Alltag neigen wir dazu, solche sich wiederholenden ‚Beziehungen‘ in ‚Hypothesen‘ umzuwandeln, an die wir die ‚Erwartung‘ knüpfen, dass sich ein solches hypothetische Muster reproduziert. Falls ja, fühlen wir uns ‚bestätigt‘; falls nein, steigen Zweifel auf, ob wir uns mit unserer Annahme geirrt haben. Im einen Grenzfall, wenn das Muster sich immer und immer wiederholt, neigen wir dazu es als ‚feste Regel‘, als ‚Gesetz‘ zu sehen. Im anderen Grenzfall, wenn das Muster sich trotz aller Versuche, es als Ereignis zu reproduzieren (Experiment, Test), nicht wieder einstellt, dann neigen wir dazu, unsere ‚Hypothese‘ wieder zu verwerfen. Doch zwischen ‚Annahme‘ eines Musters als ‚gesetzmäßig‘ und als ‚verworfen‘ liegt ein Raum voller Schattierungen. Der bekannte Spruch ‚Die Hoffnung stirbt zuletzt‘ kann andeuten, dass das ‚Verwerfen‘ einer Hypothese — je nach Art und Stärke der Erwartungen — sehr lange hinausgezögert werden kann … manche ‚glauben‘ auf jeden Fall, dass es irgendwie doch möglich sein kann, egal was passiert …

Diese Sichtweise Poppers deckt sich nicht mit einer theoretischen (mathematischen) Wahrscheinlichkeit, nicht mit einer rein subjektiven Wahrscheinlichkeit, auch nicht mit einer deskriptiven (empirischen) Wahrscheinlichkeit, selbst wenn es jeweils ‚Überschneidungen‘ gibt. Eher ist es eine Kombination von allen Dreien plus eine charakteristische Erweiterung:

  1. Wenn man beginnt, beobachtbare Ereignisse zu ’notieren‘, zu ‚protokollieren‘ und sie nach verschiedenen formalen Kriterien ‚anzuordnen‘ ohne weiter reichenden Interpretationen zu formulieren, dann bewegt man sich im Feld einer empirischen deskriptiven Wahrscheinlichkeit, die mit Häufigkeiten arbeitet. Damit würde auch Popper anfangen.
  2. Wenn man diese ‚empirischen Befunde‘ dann versucht in weiter reichende ‚Beziehungen‘ einzuordnen, dann braucht man eine theoretische Struktur. Eine solche bietet die theoretische Wahrscheinlichkeit. In ihr kann man beliebig viele Strukturen (= Modelle, Theorien) definieren und versuchsweise in Beziehung setzen zu empirischen Befunden. Je nach Modell kann man dann die empirischen Befunde unterschiedlich interpretieren und daraus unterschiedliche Voraussagen ableiten. Im Experiment kann man weiter versuchen, zu überprüfen, welches angenommene Modell sich ‚mehr‘ bestätigt als ein anderes.
  3. Jeder einzelne Mensch bildet im Alltag automatisch sein ’subjektives Modell‘ von Wahrscheinlichkeiten aufgrund seiner Alltagserfahrung. Dies kann sich auf Dauer als ‚mehr oder weniger zutreffend‘ erweisen. Würde jemand versuchen, seine Alltagserfahrung ‚wissenschaftlich zu analysieren‘ würde er sowohl eine ‚deskriptive‘ Wahrscheinlichkeit ausbilden können wie auch eine ‚theoretische‘ Wahrscheinlichkeit.
  4. Die Sichtweisen (1) – (3) zwingen nicht dazu, jenseits der beobachtbaren und klassifizierbaren Ereignisse eine ‚reale Welt von Kontexten (mit Situationen als Teilaspekten)‘ anzunehmen, deren reale Beschaffenheit so ist, dass von ihr ‚Wirkungen‘ ausgehen, die sich als ‚beobachtbare Ereignisse‘ manifestieren und die in ihrer zeitlich geordneten ‚Gesamtheit‘ dann als ‚Tendenzen‘ verstanden werden können, die ‚objektiv‘ sind, da sie mit realen Kontexten in einem unauflösbaren Zusammenhang stehen. Diese vierte Dimension der ‚objektiven Tendenzen‘ ist der ‚Mehrwert, den Popper in die Sicht der Dinge einbringt

Soweit die Kernthese von Popper zu ‚objektiven Tendenzen‘, zusammengefasst, nicht als 1-zu-1 Formulierung von Popper.

Ein wissender Körper

Im vorausgehenden Text hatte ich bei der Kommentierung von Poppers Text spontan an verschiedenen Stellen Überlegungen eingestreut, in denen ich weitergehende Annahmen über die Arbeitsweise unseres Körpers mit seinem Gehirn beschrieben habe. Zu diesem Zeitpunkt hatte ich Poppers Beitrag zu einer evolutionären Theorie des Wissens noch nicht gelesen. Ich selbst hatte mich aber auch schon seit mindestens 30 Jahren mit der evolutionären Perspektive unserer körperlich-geistigen Existenz beschäftigt und erleben dürfen, dass erst mit Einbeziehung der evolutionären Perspektive viele grundlegenden Eigenschaften unser Daseins in einem rationalen Kontext (= Menge von Hypothesen) erscheinen, der ‚plausibel‘ wirkt (aber ‚auf Abruf‘; es kann sich ändern).

Mit Beginn der Lektüre des zweiten Artikels war ich daher nicht wenig (positive) überrascht, dass Popper der evolutionären Perspektive unseres wissenden Körpers so viel Gewicht beimaß. [0b]

Popper beginnt seinen Artikel mit der (Hypo-)These, dass Tiere Wissen (‚knowledge‘) besitzen.(vgl. S.30) Da wir als Menschen nicht direkt wissen können, was ‚Wissen‘ aus der Innensicht von Tieren ist sondern nur aus unserer ‚Selbsterfahrung‘ als Menschen, räumt Popper ein, dass die These „Tiere besitzen Wissen“ im ersten Augenblick ‚anthropomorph‘ klingt; das wäre dann eine bloße ‚Projektion‘ von menschlichen Eigenschaften auf Tiere; einer solchen Projektion käme dann zunächst kein weiterer empirischer Erkenntniswert zu. Aber Popper bleibt beharrlich und stellt fest, dass seine Rede nicht als „bloße Metapher“ gemeint sei. Darüber hinaus verteidigt er seine anthropomorphe Redeweise mit dem Argument, dass wir über biologische Phänomene gar nicht anders als anthropomorph reden könnten, da unser eigener Körper mit seinen Eigenschaften als (natürlicher) Referenzpunkt dient, über den wir einen ersten Zugang zu ‚homologen‘ (= strukturähnlichen, formähnlichen) Eigenschaften der anderen Lebensformen finden.(vgl. S.30) Und er wiederholt seine These, dass die ‚Formähnlichkeiten‘ zwischen menschlichem Körper (und Verhalten) mit nicht-menschlichen Körpern (und Verhalten) nicht rein äußerlich sei, sondern dass die formähnlichen Teile auch ähnliche Funktionen haben, z.B. die Annahme, dass das Gehirn eines Tieres auch irgendwie ‚Wissen‘ hat, erzeugt analog wie beim Menschen.(vgl.S.30f).

Er unterscheidet sehr schnell zwischen ‚Wissen‘ und dem ‚Wissen um Wissen‘ (‚being aware of‘) und meint, dass aus der Annahme von ‚Wissen‘ in nicht-menschlichen Lebensformen nicht unbedingt folgt, dass diese sich ihres Wissens ‚bewusst‘ seien noch ist auszuschließen, dass bei uns Menschen ‚Wissen‘ auch ‚unbewusst‘ (’not aware of‘, ‚unconscious‘) sein kann.(vgl. S.31) Bei Menschen manifestiert sich ‚unbewusstes Wissen‘ oft in Form von ‚Erwartungen‘, deren wir uns oft erst bewusst werden, wenn sie ‚enttäuscht‘ werden.(vgl. S.31)

Popper stellt dann eine Art Liste von Vermutungen zusammen, die sich aus der Eingangs-Annahme ergeben können, dass Tiere über Wissen verfügen (vgl. SS.32-39):

  1. ERWARTUNGEN: Wie schon zuvor erwähnt, zeigt sich Wissen in Form von ‚Erwartungen‘
  2. UNSICHERHEIT: Erwartungen sind objektiv unsicher; der jeweilige Akteur kann mit einer Erwartung aber so umgehen, als ob sie ’sicher‘ sei.
  3. HYPOTHESEN: Die überwiegende Menge an Wissen besteht aus Hypothesen.
  4. OBJEKTIV WAHR: Trotz eines hypothetischen Charakters kann Wissen ‚objektiv wahr‘ sein, weil es sich auf ‚objektive Fakten‘ (= reale Ereignisse) stützt.
  5. WAHR ≠ SICHER: Wahrheit und Sicherheit müssen klar unterschieden werden. In der Welt der realen Ereignisse kann etwas ‚wahr‘ und zugleich unsicher sein. In der Welt des abstrakten Denkens (z.B. Mathematik) kann es wahr und zugleich sicher sein.
  6. TESTEN: Wegen mangelnder Sicherheit in der realen Welt müssen wahre Aussagen immer wieder getestet werden, ob sie ’noch‘ zutreffen (weil die reale Welt sich in konstanter Veränderung befindet).
  7. Wie (4)
  8. FALSCHE SICHERHEIT: In der realen, sich ständig verändernden Welt, kann es keine absolute Sicherheit geben.
  9. WISSEN ÜBERALL: Verknüpft man ‚Wissen‘ an der Wurzel mit ‚Erwartungen‘, dann muss man allen biologischen Lebensformen ein Minimum an Wissen zusprechen.
  10. Erläuterung zu (9) mit Bäumen.
  11. Weitere Erläuterung zu (9) mit Bäumen.
  12. LANGZEIT und KURZZEIT EREIGNISSE: Reaktionen eines Organismus auf Kurzzeit Ereignisse setzten gewisse ‚Fähigkeiten‘ voraus, die sich über Generationen als ’strukturelle Eigenschaften‘ adaptiv herausgebildet haben müssen, damit sie als Basis des Reagierens verfügbar sind.
  13. Erläuterung zu (12) am Beispiel von Wildgänsen, die adaptiert sind, auf jagende Füchse zu reagieren.
  14. Erläuterung zu (12). Strukturelle Anpassungen setzen voraus, dass es Umweltbedingungen gibt, die über lange Zeit hinreichend konstant waren.
  15. ADAPTION und WISSEN mit ERWARTUNGEN durch VERSUCH & IRRTUM: Ein reales Ereignis wird nur dann für einen einzelnen Akteur zu einer ‚Sache‘ (zu einem ‚Fakt‘, zu einer ‚Information‘) wenn verfügbares Wissen das Ereignis entsprechend ‚einordnen‘ kann. Verfügbares Wissen entsteht aber nur durch einen individuellen ‚Lernprozess‘ bestehend aus vielen kleinen ‚Versuchen‘ mit Erwartung und nachfolgender Bestätigung/ Nicht-Bestätigung. Adaptierte Strukturen in einem Individuum in einer sich verändernden Welt mit partiell konstanten Mustern können nur über einen Prozess von vielen ‚Reproduktions-Versuchen‘ in einer Population entstehen, wenn’un-passende‘ Strukturen weniger leistungsfähig sind wie andere.
  16. LANGZEIT-/KURZZEIT ANPASSUNG/WISSEN: Kurzzeit-Wissen setzt Langzeit-Anpassung und darin kodiertes Wissen voraus. Sowohl Langzeit-Strukturen/Wissen als auch Kurzzeit-Wissen sind beide ‚hypothetisch‘: sie bilden sich anlässlich ‚realer Ereignisse‘, erben aber die Unsicherheit der Ereigniswelt als solcher.
  17. WISSEN IST ÜBERLEBENSORIENTIERT: Jede Form von Wissen in jedem biologischen Organismus (von der kleinsten Zelle bis zum Menschen) dient dazu, dem Menschen für sein Überleben zu dienen.
  18. ALTER DES WISSENS: Das Phänomen des Wissens begleitet das Leben von Anfang an.
  19. UNIVERSUM-LEBEN-WISSEN: Insofern das Leben mit dem ganzen Universum verknüpft ist (zu 100%!) ist auch das Wissen ein Aspekt des gesamten Universums.

Popper illustriert viele der in der Liste aufgeführten Punkte dann an der realen Geschichte der Evolution anhand konkreter Forschungen aus seiner Zeit. (vgl. SS.39 – 45) Der Grundtenor: Leben spielt sich primär in Form von chemischen Prozessen in jeweiligen Umgebungen ab. Die ‚Makro‘-Phänomene, die wir vom Leben aus dem ‚Alltag der Körper‘ kennen, sind im Sinne der Komplexität so ‚unfassbar weit‘ von diesen elementaren Prozessen entfernt, dass es für uns Menschen bis heute — trotz Wissenschaft — noch kaum möglich ist, alle diese Prozesse hinreichend zu verstehen. Speziell der Übergang vom Planeten Erde ‚vor‘ den Phänomenen einzelligen Lebens hin zu einzelligem Leben ist trotz mittlerweile vielfacher Versuche leider noch nicht wirklich klar.[5],[6]

Die wichtigsten Erkenntnisse aus alledem

An dieser Stelle stellt sich Popper selbst die Frage, was aus alledem jetzt folgt? („… the main lesson to be drawn …“(S.45)

Und mit all den ungeheuerlichen Geschehnissen der Evolution vor Augen fällt eines ganz klar auf: allein nur um zu wissen, was ‚um ihn herum‘ der Fall ist, benötigt der Organismus eine ‚Struktur‘, deren Eigenschaften den Organismus in die Lage versetzen, bestimmte Umweltereignisse zu ‚registrieren‘, dieses ‚Registrierte‘ in interne Zustände so zu ‚übersetzen‘, dass der Organismus darauf in einer Weise ‚reagieren‘ kann, die für sein Überleben zuträglich ist. Und da es neben den ‚Langzeit-Ereignissen‘ (Eigenschaften der Umgebung, die sich nur langfristig ändern), auch sehr viele ‚Kurzzeit-Ereignisse‘ gibt, die mal so oder mal so sind, benötigt der Organismus neben den ‚Strukturen‘ auch ‚flexible Prozesse‘ des ‚akuten Lernens‘, die aktuell, ‚on demand‘, Antworten ermöglichen, die jetzt gebraucht werden, nicht irgendwann.

Popper greift an dieser Stelle eine Terminologie von Kant [7] auf der zwischen ‚a priori‘ und ‚a posteriori‘ Wissen unterschieden hat. [6] Angewendet auf seine Untersuchungen interpretiert Popper das ‚Wissen a priori‘ als jenes Wissen, das schon da sein muss, damit ein konkretes Ereignis überhaupt ‚als irgendetwas‘ erkannt werden kann („to make sense of our sensations“, S.46). Und dieses ‚voraus zu setzende Wissen‘ sieht er als Wissen a priori‘, das sowohl als verfügbare Struktur (= Körper, Gehirn…) auftritt wie auch innerhalb dieser Struktur als ein ‚Wissen a posteriori‘, das ein Ereignis zu einem ‚irgendwie sinnhaften Ereignis‘ werden lassen kann.(„… without it, what our senses can tell us can make no sense.“ (S.46) Innerhalb dieses voraus zu setzenden Wissens müssen die grundsätzlichen Unterscheidungen zu ‚Raum‘, ‚Zeit‘ und ‚Kausalität‘ möglich sein. Und Popper meint, dass Kant mit seinen erkenntniskritischen Rekonstruktionen grundlegende Einsichten der Evolutionstheorie vorweg genommen habe.(vgl. S.46)

Und, indem Popper Kant so hoch lobt, geht er unmittelbar dazu über, ihn — auf seine Weise — gewissermaßen zu ‚transformieren‘, indem er sagt, dass der Anteil des ‚apriorischen Wissens‘ eher bei 99% liegt und der des ‚aposteriorischen Wissens‘ eher bei 1%. Diesen Schluss zieht er aus der Tatsache (= seine Interpretation von einer Sachlage!), dass die verschiedenen sensorischen Ereignisse im Körper eines Organismus als solche nur ‚Ja-Nein-Zustände‘ sind, die eine wie auch immer geartete ‚Bedeutung‘ nur bekommen, wenn es einen ‚Deutungsrahmen‘ gibt, mit Hilfe von dem ein sensorisches Ja-Nein als ‚Laut‘ oder als ‚Farbe‘ oder als ‚Geschmack‘ usw. ‚gedeutet‘ (abgebildet) werden kann. Dies heißt, dass generell Ereignisse nach einem Deutungsrahmen verlangen, der schon ‚da sein muss‘, damit er wirken kann. Und da ein Organismus primär aus chemischen Prozessen besteht, muss das ‚apriorische Wissen‘ in diesen chemischen Prozessen verfügbar sein („… inborn … in our chemical constitution“. (S.46)) Ferner kann das Verhältnis zwischen zu klassifizierenden sensorischen Daten und dem Wissen a priori nicht deterministisch sein, da diese Klassifikationen ‚falsch‘ sein können, sie partiell erst durch ‚Versuch und Irrtum‘ entstehen. Insgesamt ermöglicht das Wissen zudem ‚Erwartungen‘, aufgrund deren der Organismus handelt (und deshalb ‚irren‘ kann).

Hier deutet sich ein konstruktiver Konflikt an in der Annahme, dass es schon ein apriorisches Wissen geben muss, das zu Klassifikationsleistungen befähigt, und zugleich, dass solch ein apriorisches Wissen weder ‚vollständig‘ zu sein scheint (Poppers Beispiel: der Frosch, der zwar Fliegen erkennen kann als sein Futter, aber nur dann, wenn sie sich bewegen), noch ‚fertig im Detail‘, da ‚Irrtümer‘ auftreten können, aus denen ‚gelernt‘ werden kann. Dem Ganzen (Wissen) haftet etwas ‚prozesshaftes‘ an: es hat schon immer etwas, was ‚funktioniert‘, aber es kann sich selbst in Interaktion mit ‚dem Anderen‘ irgendwie immer weiter verändern.(vgl. S.47)

Das zugrunde liegende Schema könnte man vielleicht wie folgt formulieren: (i) ein Organismus braucht eine Struktur, die registrierte Ja-Nein-Ereignisse ‚Klassifizieren/ Deuten‘ kann, und parallel (ii) braucht es aufgrund des bisherigen Wissens eine ‚Erwartung‘, anhand deren eine aktuelle Deutung als ‚bestätigend‘ erscheint oder ’nicht-bestätigend‘. Aus dieser Differenz kann dann eine Veränderung des Verhaltens resultieren, das ‚versuchsweise‘ Ereignisse schafft, die dann ‚eher bestätigen‘ und ‚weniger enttäuschen (Irrtum, Fehler, …)‘. Das Ganze wird dadurch ‚komplex‘, dass für dieses Schema mindestens zwei Zeitschemata anzunehmen sind: (a) langfristige strukturelle Änderungen (’strukturelles Lernen‘) des gesamten Organismus über Reproduktion und ‚Erfolg‘ in der Population (wer überlebt besser), sowie (b) kurzfristige Änderungen (’situationsbezogenes Lernen‘), das in wechselnden ‚hypothetischen Bildern der Welt‘ beständig als Hypothese und Erwartung wirksam ist, die im Konfliktfall (keine Bestätigung) ‚modifiziert‘ werden können.

Popper zieht in diesem Kontext eine Parallele zum modernen Begriff einer Theorie, die als Hypothese versucht, hilfreiche Deutungen zu liefern, und die in Konfrontation mit der Ereigniswelt (über Experimente) bestätigt oder nicht bestätigt wird. Im Prozess des Erwartens und Korrigierens vollzieht sich eine Form der ‚Anpassung‘ des menschlichen Denkens an jene Ereigniswelt (die wir ‚Welt‘ nennen, ‚Natur‘, ‚Universum‘, …), in der wir uns — ungefragt — vorfinden, in der wir versuchen, zu überleben. (vgl. S.48f) Popper äußert dann noch eine Analogie der Art, dass der Unterschied zwischen der hochentwickelten Wissenskultur eines einzelnen Homo sapiens und jener eines einzelnen Bakteriums letztlich nur graduell ist; grundsätzlich hat ein Bakterium, ein Einzeller, schon alle Merkmale, über die höher entwickelte biologische Lebensformen verfügen.(vgl. S.49f) Insbesondere sieht Popper in jedem lernfähigen Organismus auch — mindestens implizit — ‚Werte‘ in Aktion, nämlich überall dort, wo ‚entschieden‘ werden muss, welche der möglichen Optionen ausgewählt werden soll. In einfachen Organismen geschieht dies weitgehend strukturell-apriorisch; im Fall komplexer Lebewesen mit elaborierten Nervensystemen kann es zusätzlich künstlich eingeführte ‚Regelsysteme‘ geben — wie z.B. ‚gesellschaftliche Normen‘, ‚Konventionen‘, ‚Sitten und Gebräuche‘, ‚Vereinbarte Gesetze‘ usw. –, die auf einen individuellen Entscheidungsprozess einwirken können, ohne den individuellen Entscheidungsprozess dabei ganz außer Kraft zu setzen.(vgl. S.50f)

Nachbemerkung – Epilog

Nimmt man beide Beiträge als eine mögliche Einheit, dann entsteht ein spannender Zusammenhang, eine spannende Gesamt-Hypothese über die Natur der uns umgebenden Ereigniswelt mit uns selbst (über unseren Körper) als Teil davon.

Mit unserem Körper erleben wir interne Ereignisse in Form angeborener und angelernter gedeuteter Strukturen, die uns ein ‚Bild von der Welt mit uns als Teil‘ liefern, mit ‚Erwartungen‘, die in uns entstehen, mit Bestätigungen und Mangel an Bestätigungen, mit der Möglichkeit eines Handelns, das die Struktur der Ereignisse um uns herum — und uns selbst — verändern kann.

Die Welt ist ein dynamisches, changierendes Etwas, ein Gesamtprozess, dessen endgültige Gestalt, dessen inneren ‚Antriebskräfte‘ schwer fassbar sind, ist doch jedes Lebewesen — nicht nur wir Menschen — Teil davon.

Im Versuch dieses dynamische Etwas ‚zu fassen‘, ‚dingfest‘ zu machen, bleiben uns nur einzelne Ereignisse, hier und jetzt, und immer wieder neue Ereignisse im hier und jetzt; abstrakte Bilder (Schatten der Erinnerung), in denen einige häufiger vorkommen als andere. Bisweilen haben wir das Gefühl, dass sich ‚Regeln‘ andeuten, ‚Muster‘, aber sie sind niemals ‚100-prozentig stabil‘ (‚deterministisch‘), aber auch niemals nur ‚rein zufällig‘, sondern irgendwie genau dazwischen. Was ist das? Der Sound des Lebens? Wir sind Teil dieses Sounds. Verstehen wir uns selbst? Verstehen wir die große Partitur, in der wir vorkommen? Alles deutet darauf hin, dass das Gesamtereignis ’sich selbst komponiert‘! Im Kern aller Ereignisse findet man eine große ‚Freiheit‘, die sich im ‚Kleid der Optionen‘ eine Gestalt sucht, eine Gestalt die vorweg niemand kennen kann, und die doch nicht beliebig sein wird…

Im Alltagsgeschäft der heutigen wissenschaftlichen Einzeldisziplinen — die absolut notwendig sind; ohne die geht gar nichts — findet man von diesem erfrischenden Hauch einer super-lebendigen Singularität nicht viel. Jeder ist mit dem Auszählen seiner Einzelexperimente beschäftigt. Im Mainstream träumt man von sogenannter Künstlicher Intelligenz, die alle unsere Problem überwinden wird; welch absolut schrottige Idee. Der ‚Supercomputer‘ des Lebens auf diesem Planeten ist davon mehrfache Galaxien weit entfernt.

Anmerkungen

[0] Karl Popper, „Towards an Evolutionary Theory of Knowledge“, Vortrag 1989, erweiterter Text in: Karl Popper, „A World of Propensities“, Thoemmes Press, Bristol, (1990, repr. 1995)

[0b] Die Einbeziehung der Erkenntnisse der Evolutionsbiologie in eine philosophische Gesamtsicht findet sich nicht nur bei Popper. Schon der Verhaltensforscher und Philosoph Konrad Lorenz [2] hatte in einem Aufsatz 1941 [2b]einen Zusammenhang zwischen der Erkenntnistheorie von Kant und den Erkenntnissen der Biologie hergestellt. Dies wird bei Lorenz dann 1973 in sein Hauptwerk „Die Rückseite des Spiegels …“ zu einer großen Gesamtschau ausgeweitet, in dem er explizit eine Verbindung zieht zwischen der morphologischen Entwicklung in der Evolution und den Formen der Erkenntnis. [2c]. Ein anderer starker Denker im Spannungsfeld von Biologie und Philosophie war Humberto Maturana [3], der in den Jahren 1968 – 1978 viele grundlegende Beiträge zum Thema verfasst hat.[2b] In Deutschland ist u.a. noch zu nennen Gerhard Vollmer mit seinem Buch Evolutionäre Erkenntnistheorie‘ von 1975.

[1] Evolutionäre Erkenntnistheorie in wkp-de: https://de.wikipedia.org/wiki/Evolution%C3%A4re_Erkenntnistheorie //* Dieser Artikel ist nicht besonders gut *//

[1b] Evolutionary Epistemology in wkp-en: https://en.wikipedia.org/wiki/Evolutionary_epistemology //* Dieser Artikel ist nicht besonders gut *//

[2] Konrad Lorenz in wkp-ed: https://en.wikipedia.org/wiki/Konrad_Lorenz und in wkp-de: https://de.wikipedia.org/wiki/Konrad_Lorenz

[2b] K. Lorenz: Kants Lehre vom Apriorischen im Lichte gegenwärtiger Biologie. In: Blätter für Deutsche Philosophie. Band 15, 1941, S. 94–125

[2c] K.Lorenz, Die Rückseite des Spiegels. Versuch einer Naturgeschichte des menschlichen Erkennens (1973), in wkp-de: https://de.wikipedia.org/wiki/Die_R%C3%BCckseite_des_Spiegels

[3] Humberto Maturana in wkp-en: https://en.wikipedia.org/wiki/Humberto_Maturana

[3b] Humberto R.Maturana, Erkennen; Die Organisation und Verkörperung von Wirklichkeit, Friedr.Viehweg & Sohn, Braunschweig – Wiesbaden, 1982 (Enthält von Maturana autorisiert in deutscher Übersetzung Arbeiten aus den Jahren 1968 – 1978).

[4] Gerhard Vollmer, Evolutionäre Erkenntnistheorie. Angeborene Erkenntnisstrukturen im Kontext von Biologie, Psychologie, Linguistik, Philosophie und Wissenschaftstheorie. S. Hirzel, Stuttgart 1975. Zu Vollmer in der wkp-de: https://de.wikipedia.org/wiki/Gerhard_Vollmer

[5] Evolution in wkp-en: https://en.wikipedia.org/wiki/Evolution

[6] Hans R.Kricheldorf, Leben durch chemische Evolution?, Springer-Verlag, 2019, ISBN: 978-3-662-57978-7

[7] A priori in wkp-de: https://de.wikipedia.org/wiki/A_priori

[8] Immanuel Kant in wpd-de: https://de.wikipedia.org/wiki/Immanuel_Kant

[9] Die hier benutzten anthropomorphen Begriffe sind als ‚Hilfsbegriffe‘ zu betrachten, da eine ‚präzisere‘ Begrifflichkeit einen ausgearbeiteten begrifflichen Rahmen (Modell, Theorie) voraussetzen würde, die erst dann möglich ist, wenn man sich über die grundsätzlichen Sachverhalte besser verständigt hat.

Fortsetzung

Es gibt einen dritten Artikel von Popper, der in diesen Zusammenhang gehört. Eine Besprechung findet sich HIER.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

WISSENSCHAFT IM ALLTAG. Popper 1988/1990

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 16.-17.Februar 2022, 18:00h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Vorbemerkung

In einer Welt voller Bücher — gefühlt: unendlich viele Bücher — ist kaum voraussagbar, welches Buch man im Februar 2022 lesen wird. Dass es dann das Büchlein ‚A World of Propensities‘ (1990 (reprint 1995))[2a] von Karl Popper [1] sein würde, hing von einem ganzen Bündel von Faktoren ab, von denen jeder für sich ‚eine Rolle‘ spielte, aber dass es dann zu diesem konkreten Buch zu diesem konkreten Zeitpunkt gekommen ist, war aus Sicht der einzelnen Faktoren nicht direkt ableitbar. Auch das ‚Zusammenspiel‘ der verschiedenen Faktoren war letztlich nicht voraussagbar. Aber es ist passiert.

Im Rahmen meiner Theoriebildung für das oksimo-Paradigma (einschließlich der oksimo-Software)[4] Hatte ich schon viele Posts zur möglichen/ notwendigen Theorie für das oksimo-Paradigma in verschiedenen Blocks geschrieben [3a], sogar einige zum frühen Popper [3b], aber mir scheint, so richtig bin ich mit der Position von Popper in seiner ‚Logik der Forschung‘ von 1934 bzw. dann mit der späteren Englischen Ausgabe ‚The Logic of Scientific Discovery‘ (1959)[2b] noch nicht klar gekommen.

Im Frühjahr 2022 war es eine seltene Mischung aus vielerlei Faktoren, die mich über den Umweg der Lektüre von Ulanowizc [5], und zwar seines Buches „Ecology: The Ascendant Perspective“ (1997), auf den späten Popper aufmerksam machten. Ulanowizc erwähnt Popper mehrfach an prominenter Stelle, und zwar speziell Poppers Büchlein über Propensities. Da dieses schmale Buch mittlerweile vergriffen ist, kam ich dann nur durch die freundliche Unterstützung [6b] der Karl Popper Sammlung der Universität Klagenfurt [6a] zu einer Einsicht in den Text.

Der nachfolgende Text beschäftigt sich mit dem ersten der beiden Aufsätze die sich in dem Büchlein finden: „A World of Propensities: Two New Views of Causality“.[7][*]

Wahrscheinlichkeit, Wahrheit, Hypothese, Bekräftigung, … Vorgeplänkel

In seiner Einleitung im Text erinnert Popper an frühere Begegnungen mit Mitgliedern des Wiener Kreises [1b] und die Gespräche zu Theme wie ‚absolute Theorie der Wahrheit‘, ‚Wahrheit und Sicherheit‘, ‚Wahrscheinlichkeitsbasierte Induktion‘, ‚Theorie der Wahrscheinlichkeit‘ sowie ‚Grad der Bekräftigung einer Wahrscheinlichkeit‘.

Während er sich mit Rudolf Carnap 1935 noch einig wähnte in der Unterscheidung von einer Wahrscheinlichkeit im Sinne einer Wahrscheinlichkeitstheorie und einem ‚Grad der Bestätigung‘ (‚degree of confirmation‘) , war er sehr überrascht — und auch enttäuscht — 1950 in einem Buch von Carnap [8], [8b] zu lesen, dass für Carnap dies alles das Gleiche sei: mathematische Wahrscheinlichkeit und empirische Bestätigung eines Ereignisses. Hatte Carnap mit dieser Veränderung seiner Auffassung auch die Position einer ‚Absolutheit der Wahrheit‘ verlassen, die für Popper 1935 immer noch wichtig war? Und selbst in der Rede von 1988 hält Popper das Postulat von der Absolutheit der Wahrheit hoch, sich dabei auf Aristoteles [9], Alfred Tarski [10] und Kurt Gödel [11] beziehend (S.5f).

In einer Welt mit einem endlichen Gehirn, in einem endlichen Körper (bestehend aus ca. 36 Billionen Zellen (10^12)[12], in einer Welt von nicht-abzählbar vielen realen Ereignissen, war mir nie klar, woran (der frühe) Popper (und auch andere) die Position einer ‚absoluten Wahrheit‘ fest machen konnten/ können. Dass wir mit unserem endlichen – und doch komplexen, nicht-linearem — Gehirn von ‚Konkretheiten‘ ‚abstrahieren‘ können, Begriffe mit ‚offenen Bedeutungen‘ bilden und diese im Kontext der Rede/ eines Textes zu Aussagen über Aspekte der Welt benutzen können, das zeigt jeder Augenblick in unserem Alltag (ein für sich außergewöhnliches Ereignis), aber ‚absolute Wahrheit‘ … was kann das sein? Wie soll man ‚absolute Wahrheit‘ definieren?

Popper sagt, dass wir — und wenn wir uns noch so anstrengen — in unserem „Ergebnis nicht sicher“ sein können, das Ergebnis kann sogar „nicht einmal wahr“ sein.(vgl. S.6) Und wenn man sich dann fragt, was dann noch bleibt außer Unsicherheit und fehlender Wahrheit, dann erwähnt er den Sachverhalt, dass man von seinen „Fehlern“ auf eine Weise „lernen“ kann, dass ein „mutmaßliches (‚conjectural‘) Wissen“ entsteht, das man „testen“ kann.(vgl. S.6) Aber selbst dann, wenn man das Wissen testen kann, sind diese Ergebnisse nach Popper „nicht sicher“; obwohl sie „vielleicht wahr“ sind, diese Wahrheit aber ist damit dennoch „nicht endgültig bestätigt (‚established‘)“. Und er sagt sogar: „Selbst wenn sie [ergänzt: die Ergebnisse] sich als nicht wahr erweisen, … eröffnen sie den Weg zu noch besseren [ergänzt: Ergebnissen].“ (S.6)

Diese ‚changierende Sprechweise‘ über ‚wahre Ergebnisse‘ umschreibt das Spannungsfeld zwischen ‚absoluten Wahrheit‘ — die Popper postuliert — und jenen konkreten Sachverhalten, die wir im Alltag zu ‚Zusammenhängen (Hypothesen)‘ verdichten können, in denen wir einzelne Ereignisse ‚zusammen bringen‘ mit der ‚Vermutung‘, dass sie auf eine nicht ganz zufällige Weise zusammen gehören. Und, ja, diese unsere alltägliche Vermutungen (Hypothesen) können sich ‚alltäglich bestätigen‘ (wir empfinden dies so) oder auch nicht (dies kann Zweifel wecken, ob es ‚tatsächlich so ist‘).(vgl. S.6)

Das Maximum dessen, was wir — nach Popper — in der alltäglichen Erkenntnis erreichen können, ist das Nicht-Eintreten einer Enttäuschung einer Vermutung (Erwartung, Hypothese). Wir können dann „hoffen“, dass die Hypothese „wahr ist“, aber sie könnte sich dann beim nächsten Test vielleicht doch noch als „falsch“ erweisen. (vgl. S.6)

In all diesen Aussagen, dass ein Ergebnis ’noch nicht als wahr erwiesen wurde‘ fungiert der Begriff der ‚Wahrheit‘ als ein ‚Bezugspunkt‘, anhand dessen man eine vorliegende Aussage ‚vergleichen‘ kann und mit diesem Vergleich dann zum Ergebnis kommen kann, dass eine vorliegende Aussage ‚verglichen mit einer wahren Aussage‘ nicht wahr ist.

Messen als Vergleichen ist in der Wissenschaft der Goldstandard, aber auch im ganz normalen Alltag. Wo aber findet sich der Vergleichspunkt ‚wahr Aussage‘ anhand dessen eine konkrete Aussage als ’nicht dem Standard entsprechend‘ klassifiziert werden kann?

Zur Erinnerung: es geht jetzt hier offensichtlich nicht um einfache ‚Sachverhaltsfeststellungen‘ der Art ‚Es regnet‘, ‚Es ist heiß‘, ‚Der Wein schmeckt gut‘ …, sondern es geht um die Beschreibung von ‚Zusammenhängen‘ zwischen ‚isolierten, getrennten Ereignissen‘ der Art (i) ‚Die Sonne geht auf‘, (ii) ‚Es ist warm‘ oder ‚(i) ‚Es regnet‘, (ii) ‚Die Straße ist nass‘.

Wenn die Sonne aufgeht, kann es warm werden; im Winter, bei Kälte und einem kalten Wind kann man die mögliche Erwärmung dennoch nicht merken. Wenn es regnet dann ist die Straße normalerweise nass. Falls nicht, dann fragt man sich unwillkürlich, ob man vielleicht nur träumt?

Diese einfachen Beispiele deuten an, dass ‚Zusammenhänge‘ der Art (i)&(ii) mit einer gewissen Häufigkeit auftreten können, aber es keine letzte Sicherheit gibt, dass dies der Fall sein muss.

Wo kommt bei alldem ‚Wahrheit‘ vor?

‚Wahrheit an sich‘ ist schwer aufweisbar. Dass ein ‚Gedanke‘ ‚wahr‘ ist, kann man — wenn überhaupt — nur diskutieren, wenn jemand seinem Gedanken einen sprachlichen Ausdruck verleiht und der andere anhand des sprachlichen Ausdrucks (i) bei sich eine ‚Bedeutung aktivieren‘ kann und (ii) diese aktivierte Bedeutung dann entweder (ii.1) — schwacher Fall — innerhalb seines Wissens mit ‚anderen Teilen seines Wissens‘ ‚abgleichen‘ kann oder aber (ii.2) — starker Fall — seine ‚interne Bedeutung‘ mit einer Gegebenheit der umgebenden realen Ereigniswelt (die als ‚Wahrnehmung‘ verfügbar ist) vergleichen kann. In beiden Fällen kann der andere z.B. zu Ergebnissen kommen wie (a) ‚Ja, sehe ich auch so‘ oder (b) ‚Nein, sehe ich nicht so‘ oder (c) ‚Kann ich nicht entscheiden‘.

In diesen Beispielen wäre ‚Wahrheit‘ eine Eigenschaft, die der Beziehung zwischen einem sprachlichen Ausdruck mit seiner möglichen ‚Bedeutung‘ ‚zu etwas anderem‘ zukommt. Es geht in diesen Beispielen um eine dreistellige Beziehung: die beiden Größen (Ausdruck, gewusste Bedeutung) werden in Beziehung gesetzt zu (wahrgenommenem oder erinnertem oder gefolgertem Sachverhalt).[13]

‚Wahrgenommenes‘ resultiert aus Interaktionen unseres Körpers mit der umgebenden realen Ereigniswelt (wobei unsere Körper selbst ein Ereignis in der umgebenden realen Ereigniswelt ist).[14]

‚Bedeutungen‘ sind ‚gelernte Sachverhalte‘, die uns über unsere ‚Wahrnehmung‘ ‚bekannt geworden sind‘ und in der Folge davon möglicherweise auf eine schwer bestimmbare Weise in unser ‚Gedächtnis‘ übernommen wurden, aus dem Heraus wir sie auf eine ebenfalls schwer bestimmbaren Weise in einer ‚erinnerten Form‘ uns wiederholt wieder ‚bewusst machen können‘. Solche ‚wahrnehmbaren‘ und ‚erinnerbaren‘ Sachverhalte können von unserem ‚Denken‘ in schwer bestimmbarer Form eine spezifische ‚Bedeutungsbeziehung‘ mit Ausdrücken einer Sprache eingehen, welche wiederum nur über Wahrnehmung und Erinnern uns bekannt geworden sind.[15]

Aus all dem geht hervor, dass dem einzelnen Akteur mit seinen gelernten Ausdrücke und ihren gelernten Bedeutungen nur das ‚Ereignis der Wiederholung‘ bleibt, um einem zunächst ‚unbestimmt Gelerntem‘ eine irgendwie geartete ‚Qualifikation‘ von ‚kommt vor‘ zu verleihen. Kommt also etwas vor im Lichte von gelernten Erwartungen neigen wir dazu, zu sagen, ‚es trifft zu‘ und in diesem eingeschränkten Sinne sagen wir auch, dass ‚es wahr ist‘. Diese gelernten Wahrheiten sind ’notorisch fragil‘. Jene, die ‚im Laufe der Zeit‘ sich immer wieder ‚bewähren‘ gewinnen bei uns ein ‚höheres Vertrauen‘, sie haben eine ‚hohe Zuverlässigkeit‘, sind allerdings nie ganz sicher‘.

Zusätzlich erleben wir im Alltag das ständige Miteinander von ‚Konkretheiten‘ in der Wahrnehmung und ‚Allgemeinheiten‘ der sprachlichen Ausdrücke, eine ‚Allgemeinheit‘ die nicht ‚absolut‘ ist. sondern als ‚Offenheit für viel Konkretes‘ existiert. In der Sprache haben wir Unmengen von Worten wie ‚Tasse‘, ‚Stuhl‘, ‚Tisch‘, Hund‘ usw. die sich nicht nur auf ein einziges Konkretes beziehen, sondern auf — potentiell unendlich — viele konkrete Gegebenheiten. Dies liegt daran, dass es viele verschiedene konkrete Gegebenheiten gibt, die trotz Unterschiede auch Ähnlichkeiten aufweisen, die dann als ‚Tasse‘, ‚Stuhl‘ usw. bezeichnet werden. Unser Gehirn verfügt über ‚automatische (= unbewusste) Prozesse‘, die die Konkretheiten aus der Wahrnehmung in ‚Muster‘ transformieren, die dann als ‚Repräsentanten‘ von verschiedenen wahrgenommenen Konkretheiten fungieren können. Diese Repräsentanten sind dann das ‚Material der Bedeutung‘, mit denen sprachliche Ausdrücke — auch automatisch — verknüpft werden können.[15]

Unser ‚Denken‘ kann mit abstrakten Repräsentanten arbeiten, kann durch Benutzung von sprachlichen Ausdrücken Konstruktionen mit abstrakten Konzepten und Ausdrücken bilden, denen bedeutungsmäßig direkt nichts in der realen Ereigniswelt entsprechen muss bzw. auch nicht entsprechen kann. Logik [17] und Mathematik [18] sind bekannte Beispiele, wie man mit gedanklich abstrakten Konzepten und Strukturen ‚arbeiten‘ kann, ohne dass ein Bezug zur realen Ereigniswelt bestehe muss oder jemals bestehen wird. Innerhalb dieser Welt abstrakter Strukturen und abstrakter Ausdrücke kann es dann sogar in einem eingeschränkten Sinne ‚Wahrheit‘ als Übereinstimmung von abstrakten Ausdrücken, deren abstrakten Bedeutungen und den anderen gedachten abstrakten Strukturen geben, aber diese ‚abstrakten Wahrheiten‘ sind in keiner Weise auf die reale Ereigniswelt übertragbar. Für uns gibt es nur das Modell der Alltagssprache, die mit ihren ‚offenen abstrakten‘ Bedeutungen auf Konkretes Bezug nehmen kann und zwischen Gegenwart und Vergangenheit eine ‚gedachte Beziehung‘ herstellen kann, ebenso auch zwischen Vergangenem und Gegenwärtigem zu einer gedachten Zukunft. Inwieweit sich diese gedachten Beziehungen (Vermutungen, Hypothesen, …) dann in der realen Ereigniswelt bestätigen lassen, muss fallweise geprüft werden.

Die Welt der Wissenschaften erweckt den Eindruck, dass es mittlerweile eine große Zahl von solchen Hypothesen gibt, die allesamt als ‚weitgehend zuverlässig‘ angesehen werden, und aufgrund deren wir nicht nur unser bisheriges Wissen beständig ‚erweitern‘, sondern auch in einer Vielzahl von praktischen Anwendungen nutzen (Technologie, Landwirtschaft, Medizin, …).

Und an dieser Stelle greift Popper sehr weit aus, indem er diese für die Wissenschaften charakteristische „mutige, und abenteuerliche Weise des Theoretisierens“, ergänzt um „seriöse Tests“, im „biologischen Leben selbst“ am Werke sieht (vgl. S.7): die beobachtbare Entwicklung zu immer „höheren (‚higher‘) Formen“ des Lebens geschah/ geschieht durch Schaffung von „neuen Versuchen“ (‚trials‘), deren „Einbringung in die Realität“ (‚exposure‘), und dann das „Ausmerzen von Irrtümern“ (‚errors‘) durch „Testen“.(vgl. S.7) Mit dieser permanenten Kreativität neuer Lösungsansätze, deren Ausprobieren und dem daraus Lernen im Beseitigen von Fehlschlägen hat es nicht nur das biologische Leben als Ganzes geschafft, nach und nach die Welt quasi zu erobern, sondern in der Variante moderner empirischer Wissenschaft ist die Lebensform des Homo sapiens dabei, diese Eroberung auf neue Weise zu ergänzen. Während die biologische Evolution vor dem Homo sapiens primär um das nackte Überleben kämpfen musste, kann der Homo sapiens zusätzlich ‚reines Verstehen‘ praktizieren, das dann als ‚Werkzeug‘ zum Überleben beitragen kann. Für Popper ist ‚Verstehen‘ (‚understand‘) und ‚Lernen‘ (‚to learn more‘) das entscheidende Charakteristikum der Lebensform des Homo sapiens (als Teil des gesamten biologischen Lebens). Und in diesem Verstehensprojekt geht es um alles: um den ganzen Kosmos bis hin zum letzten Atom, um die Entstehung des Lebens überhaupt, um den ‚menschlichen Geist‘ (‚human mind‘) und die Art und Weise wie er stattfindet.(vgl. S.7)

Nach dieser ‚Einstimmung‘ wendet sich Popper dem speziellen Problem der Kausalität zu.

Kausalität – Ein wissenschaftliches Chamäleon

Der Begriff der ‚Kausalität‘ ist uns allen über den Alltag in vielfältigen Formen bekannt, ohne dass wir dazu gewöhnlich ein klares begriffliches Konzept entwickeln.

Geht es hingegen ‚um Etwas‘, z.B. um Geld, oder Macht, oder um eine gute Ernte, oder die Entwicklung einer Region, usw. , dann ist die Frage ‚Was was wie bewirkt‘ nicht mehr ganz egal. ‚Soll ich nun investieren oder nicht?‘ ‚Ist dieses Futter für die Tiere besser und auf Dauer bezahlbar oder nicht?‘ ‚Wird die neue Verkehrsregelung tatsächlich Lärm und CO2-Ausstoß reduzieren oder nicht?‘ ‚Ist Aufrüstung besser als Neutralität?‘ ‚Wird die Menge des jährlichen Plastikmülls die Nahrungsketten im Meer und damit viele davon abhängige Prozesse nachhaltig zerstören oder nicht?‘

Wenn Philosophen und Wissenschaftler von Kausalität sprechen meinten sie in der Vergangenheit meist viel speziellere Kontexte. So erwähnt Popper die mechanistischen Vorstellungen im Umfeld von Descartes; hier waren alle Ereignisse klar bestimmt, determiniert.(vgl. S.7) Mit der Entwicklung der Quantenmechanik — spätestens ab 1927 mit der Entdeckung des Unsicherheitsprinzips durch Werner Heisenberg [19], [19a] — wurde bewusst, dass die Ereignisse in der Natur keinesfalls vollständig klar und nicht vollständig determiniert sind. (vgl. S7f)

Damit trat eine inhärente Unsicherheit hervor, die nach einer neuen Lösung verlangte. Die große Zeit des Denkens in Wahrscheinlichkeiten begann.[20] Man kann das Denken in Wahrscheinlichkeiten grob in drei (vier) Sichtweisen unterscheiden: (i) In einer theoretischen — meist mathematischen — Sicht [21] definiert man sich abstrakte Strukturen, über die man verschiedene Operationen definieren kann, mit denen sich dann unterschiedliche Arten von Wahrscheinlichkeiten durchspielen lassen. Diese abstrakten (theoretischen) Wahrscheinlichkeiten haben per se nichts mit der realen Welt der Ereignisse zu tun. Tatsächlich erweisen sich aber viele rein theoretische Modelle als erstaunlich ’nützlich‘ bei der Interpretation realweltlicher Ereignisfolgen. (ii) In einer subjektivistischen Sicht [22] nimmt man subjektive Einschätzungen zum Ausgangspunkt , die man formalisieren kann, und die Einschätzungen zum möglichen Verhalten des jeweiligen Akteurs aufgrund seiner subjektiven Einschätzungen erlauben. Da subjektive Weltsichten meistens zumindest partiell unzutreffend sind, z.T. sogar überwiegend unzutreffend, sind subjektive Wahrscheinlichkeiten nur eingeschränkt brauchbar, um realweltliche Prozesse zu beschreiben.(iii) In einer (deskriptiv) empirischen Sicht betrachtet man reale Ereignisse, die im Kontext von Ereignisfolgen auftreten. Anhand von diversen Kriterien mit der ‚Häufigkeit‘ als Basisterm kann man die Ereignisse zu unterschiedlichen Mustern ‚gruppieren‘, ohne dass weitergehende Annahmen über mögliche Wirkzusammenhänge mit ‚auslösenden Konstellationen von realen Faktoren‘ getätigt werden. Nimmt man eine solche ‚deskriptive‘ Sicht aber zum Ausgangspunkt, um weitergehende Fragen nach möglichen realen Wirkzusammenhängen zu stellen, dann kommt man (iv) zu einer eher objektivistischen Sicht. [23] Hier sieht man in der Häufigkeiten von Ereignissen innerhalb von Ereignisfolgen mögliche Hinweise auf reale Konstellationen, die aufgrund ihrer inhärenten Eigenschaften diese Ereignisse verursachen, allerdings nicht ‚monokausal‘ sondern ‚multikausal‘ in einem nicht-deterministischem Sinne. Dies konstituiert die Kategorie ‚Nicht deterministisch und zugleich nicht rein zufällig‘.[24]

Wie der nachfolgende Text zeigen wird, findet man Popper bei der ‚objektivistischen Sicht‘ wieder. Er bezeichnet Ereignisse, die durch Häufigkeiten auffallen, als ‚Propensities‘, von mir übersetzt als ‚Tendenzen‘, was letztlich aber nur im Kontext der nachfolgenden Erläuterungen voll verständlich wird.

Popper sagt von sich, dass er nach vielen Jahren Auseinandersetzung mit der theoretischen (mathematischen) Sicht der Wahrscheinlichkeit (ca. ab 1921) (vgl. S.8f) zu dieser — seiner — Sicht gelangt ist, die er 1956 zum ersten Mal bekannt gemacht und seitdem kontinuierlich weiter entwickelt hat.[24]

Also, wenn man beobachtbare Häufigkeiten von Ereignissen nicht isoliert betrachtet (was sich angesichts des generellen Prozesscharakters aller realen Ereignisse eigentlich sowieso verbietet), dann kommt man wie Popper zu der Annahme, dass die beobachtete — überzufällige aber dennoch auch nicht deterministische — Häufigkeit die nachfolgende ‚Wirkung‘ einer realen Ausgangskonstellation von realen Faktoren sein muss, deren reale Beschaffenheit einen ‚Anlass‘ liefert, dass ‚etwas Bestimmtes passiert‘, was zu einem beobachtbaren Ereignis führt.(vgl. S.11f, dazu auch [25]) Dies schließt nicht aus, dass diese realen Wirkungen von spezifischen ‚Bedingungen‘ abhängig sein können, die erfüllt sein müssen, damit es zur Wirkung kommt. Jede dieser Bedingungen kann selbst eine ‚Wirkung‘ sein, die von anderen realen Faktoren abhängig ist, die wiederum bedingt sind, usw. Obwohl also ein ‚realer Wirkzusammenhang‘ vorliegen kann, der als solcher ‚klar‘ ist — möglicherweise sogar deterministisch — kann eine Vielzahl von ‚bedingenden Faktoren‘ das tatsächliche Auftreten der Wirkung so beeinflussen, dass eine ‚deterministische Wirkung‘ dennoch nicht als ‚deterministisch‘ auftritt.

Popper sieht in dieser realen Inhärenz von Wirkungen in auslösenden realen Faktoren eine bemerkenswerte Eigenschaft des realen Universums.(vgl. S.12) Sie würde direkt erklären, warum Häufigkeiten (Statistiken) überhaupt stabil bleiben können. (vgl. S.12). Mit dieser Interpretation bekommen Häufigkeiten einen objektiven Charakter. ‚Häufigkeiten‘ verwandeln sich in Indikatoren für ‚objektive Tendenzen‘ (‚propensities‘), die auf ‚reale Kräfte‘ verweisen, deren Wirksamkeit zu beobachtbaren Ereignissen führen.(vgl. S.12)

Die in der theoretischen Wahrscheinlichkeit verbreitete Charakterisierung von wahrscheinlichen Ereignissen auf einer Skala von ‚1‘ (passiert auf jeden Fall) bis ‚0‘ (passiert auf keinen Fall) deutet Popper für reale Tendenzen dann so um, dass alle Werte kleiner als 1 darauf hindeuten, dass es mehrere Faktoren gibt, die aufeinander einwirken, und dass der ‚Nettoeffekt‘ aller Einwirkungen dann zu einer realen Wirkung führt die kleiner als 1 ist, aber dennoch vorhanden ist; man kann ihr über Häufigkeiten sogar eine phasenweise Stabilität im Auftreten zuweisen, so lange sich die Konstellation der wechselwirkenden Faktoren nicht ändert.(vgl. S.13) Was hier aber wichtig ist — und Popper weist ausdrücklich darauf hin — die ‚realen Tendenzen‘ verweisen nicht auf einzelne konkrete, spezielle Eigenschaften inhärent in einem Objekt, sondern Tendenzen korrespondieren eher mit einer ‚Situation‘ (’situation‘), die als komplexe Gesamtheit bestimmte Tendenzen ‚zeigt‘.(vgl. SS.14-17) [26]

Schaut man nicht nur auf die Welt der Physik sonder lenkt den Blick auf den Alltag, in dem u.a. auch biologische Akteure auftreten, speziell auch Lebensformen vom Typ Homo sapiens, dann explodiert der Raum der möglichen Faktoren geradezu, die Einfluss auf den Gang der Dinge nehmen können. Nicht nur bildet der Körper als solcher beständig irgendwelche ‚Reize‘ aus, die auf den Akteur einwirken, sondern auch die Beschaffenheit der Situation wirkt in vielfältiger Weise. Insbesondere wirkt sich die erworbene Erfahrung, das erworbene Wissen samt seinen unterschiedlichen emotionalen Konnotationen auf die Art der Wahrnehmung aus, auf die Art der Bewertung des Wahrgenommenen und auf den Prozess möglicher Handlungsentscheidungen. Diese Prozesse können extrem labil sein, so dass Sie in jedem Moment abrupt geändert werden können. Und dies gilt nicht nur für einen einzelnen Homo sapiens Akteur, sondern natürlich auch für die vielen Gruppen, in denen ein Homo sapiens Akteur auftreten kann bzw. auftritt bzw. auftreten muss. Dieses Feuerwerk an sich wechselseitig beständig beeinflussenden Faktoren sprengt im Prinzip jede Art von Formalisierung oder formalisierter Berechnung. Wir Menschen selbst können dem ‚Inferno des Alles oder Nichts‘ im Alltag nur entkommen, wenn wir ‚Konventionen‘ einführen, ‚Regeln des Verhaltens‘, ‚Rollen definieren‘ usw. um das praktisch unberechenbare ‚Universum der alltäglichen Labilität‘ partiell zu ‚zähmen‘, für alltägliche Belange ‚berechenbar‘ zu machen.

Popper zieht aus dieser Beschaffenheit des Alltags den Schluss, das Indeterminismus und freier Wille zum Gegenstandsbereich und zum Erklärungsmodell der physikalischen und biologischen Wissenschaften gehören sollten.(vgl. S.17f)

Popper folgert aus einer solchen umfassenden Sicht von der Gültigkeit der Tendenzen-Annahme für vorkommende reale Ereignisse, dass die Zukunft nicht determiniert ist. Sie ist objektiv offen.(vgl. S.18)

Näher betrachtet ist die eigentliche zentrale Einsicht tatsächlich gar nicht die Möglichkeit, dass bestimmte Wirkzusammenhänge vielleicht tatsächlich determiniert sein könnten, sondern die Einsicht in eine durchgängige Beschaffenheit der uns umgebenden realen Ereigniswelt die sich – dies ist eine Hypothese! — durchgängig als eine Ansammlung von komplexen Situationen manifestiert, in denen mögliche unterscheidbare Faktoren niemals isoliert auftreten, sondern immer als ‚eingebettet‘ in eine ‚Nachbarschaften‘, so dass sowohl jeder Faktor selbst als auch die jeweiligen Auswirkungen dieses einen Faktors immer in kontinuierlichen Wechselwirkungen mit den Auswirkungen anderer Faktoren stehen. Dies bedeutet, dass nicht nur die starke Idealisierungen eines mechanistischen Weltbildes — auch eine Hypothese — als fragwürdig angesehen werden müssen, sondern auch die Idealisierung der Akteure zu einer ‚ Monade‘ [27],[27b], die die Welt letztlich nur ‚von sich aus‘ erlebt und gestaltet — eine andere Hypothese –.[27c]

Denkt man gemeinsam mit Popper weiter in die Richtung einer totalen Verflechtung aller Faktoren in einem kontinuierlich-realen Prozess, der sich in realen Tendenzen manifestiert (vgl. S.18f), dann sind alle üblichen endlichen, starren Konzepte in den empirischen Wissenschaften letztlich nicht mehr seriös anwendbar. Die ‚Zerstückelung‘ der Wirklichkeit in lauter einzelne, kleine, idealisierte Puzzle-Teile, wie sie bis heute Standard ist, führt sich relativ schnell ad absurdum. Die übliche Behauptung, auf andere Weise könne man eben nichts Verwertbares Erkennen, läuft beständig Gefahr, auf diese Weise die reale Problematik der konkreten Forschungspraxis deutlich zu überdehnen, nur weil man in der Tat Schwierigkeiten hat, die vorfindliche Komplexität ‚irgendwie experimentell nachvollziehbar‘ zu rekonstruieren.

Popper dehnt seine Beispiele für die Anwendbarkeit einer objektivistischen Sicht von realen Tendenzen weiterhin aus auf die Chemie (vgl. S.19f) und auf die Evolution des Lebens. (vgl. S.20) Und auch wenn er zuvor sagte, dass die Zukunft objektiv offen sei, so ist sie dennoch in der realen Gegenwart implizit gegenwärtig in den Aktivitäten der vorhandenen realen Faktoren.(vgl. S.20) Anders formuliert, jede Zukunft entscheidet sich immer jetzt, in der Gegenwart, auch wenn die lebenden Akteure zu einem bestimmten Zeitpunkt vielleicht das Geflecht der vielen Faktoren und Wirkungen nur unvollständig durchschauen. Mangelndes Wissen ist auch ein realer Faktor und kann als solcher u.U. wichtige Optionen übersehen, die — würde man sie kennen — vielleicht viel Unheil ersparen würden.

Nachbemerkung – Epilog

Verglichen mit den vielen Seiten Text, die Popper im Laufe seines Lebens geschrieben hat, erscheint der hier kommentierte kurze Text von 27 Seiten verschwindend kurz, gering, möglicherweise gar unbedeutend.

Betrachtet man aber die Kernthesen von Poppers theoretischem Prozess, dann tauchen diese Kernthesen in diesem kurzen Text letztlich alle auf! Und seine Thesen zur Realität von beobachtbaren Tendenzen enthalten alles, was er an Kritik zu all jenen Wissenschaftsformen gesagt hat, die dieser Kernthese nicht folgen. Der ganze riesige Komplex zur theoretischen Wahrscheinlichkeit, zu subjektiver Wahrscheinlichkeit und zu den vielfältigen Spezialformen von Überlegungen zur Wahrscheinlichkeit sagen letztlich nicht viel, wenn sie die objektivistische Interpretation von Häufigkeiten, dazu im Verbund mit der Annahme eines grundlegenden realen Prozesses, in dem sich alle realen Faktoren in beständiger realer Wechselbeziehung befinden, nicht akzeptieren. Die moderne Quantenmechanik wäre in einer realen Theorie der objektiven Tendenzen tatsächlich eine Teiltheorie, weil sie nur einige wenige — wenngleich wichtige — Aspekte der realen Welt thematisiert.

Poppers Mission einer umfassenden Theorie von Wahrheit als Innensicht einer umfassenden prozesshaften Realität bleibt — so scheint es mir — weiterhin brandaktuell.

Fortsetzung Popper 1989

Eine Kommentierung des zweiten Artikels aus dem Büchlein findet sich HIER.

Anmerkungen

Abkürzung: wkp := Wikipedia, de := Deutsche, en := Englische

[*] Es gibt noch zwei weiter Beiträge vom ’späten‘ Popper, die ich in den Diskurs aufnehmen möchte, allerdings erst nachdem ich diesen Beitrag rezipiert und in das finale Theorieformat im Kontext des oksimo-Paradigmas eingebunden habe.

[1] Karl Popper in wkp-en: https://en.wikipedia.org/wiki/Karl_Popper (auch in wkp-de: https://de.wikipedia.org/wiki/Karl_Popper )

[1b] Wiener Kreis (‚vienna circle‚) in wkp-de: https://de.wikipedia.org/wiki/Wiener_Kreis und wkp-en: https://en.wikipedia.org/wiki/Vienna_Circle

[2a] Karl Popper, „A World of Propensities“, Thoemmes Press, Bristol, (1990, repr. 1995)

[2b] Karl Popper, The Logic of Scientific Discovery, zuerst publiziert 1935 auf Deutsch als  Logik der Forschung, dann 1959 auf Englisch durch  Basic Books, New York (viele weitere Ausgaben folgten; ich benutze die eBookausgabe von Routledge (2002))

[3a] Die meisten wohl im uffmm.org Blog.

[3b] Oksimo und Popper in uffmm.org: https://www.uffmm.org/2021/03/15/philosophy-of-science/

[4] Das oksimo-Paradigma und die oksimo-Software auf oksimo.org: https://www.oksimo.org/

[5] Robert Ulanowizc in wkp-en: https://en.wikipedia.org/wiki/Robert_Ulanowicz

[5b] Robert Ulanowizc, Ecology: The Ascendant Perspective, Columbia University Press (1997) 

[6a] Karl-Popper Sammlung der Universität Klagenfurt in wkp-de: https://www.aau.at/universitaetsbibliothek-klagenfurt/karl-popper-sammlung/

[6b] An dieser Stelle möchte ich die freundliche Unterstützung von Mag. Dr. Thomas Hainscho besonders erwähnen.

[7] Eine kürzere Version dieses Artikels hat Popper 1988 auf dem Weltkongress der Philosophie 1988 im Brighton vorgetragen (Vorwort zu [2a]).

[8] Rudolf Carnap in wkp-en: https://en.wikipedia.org/wiki/Rudolf_Carnap

[8b] Rudolf Carnap,  Logical Foundations of Probability. University of Chicago Press (1950)

[9] Aristoteles in wkp-de: https://de.wikipedia.org/wiki/Aristoteles

[10] Alfred Tarski in wkp-en: https://en.wikipedia.org/wiki/Alfred_Tarski

[11] Kurt Gödel in wkp-ed: https://en.wikipedia.org/wiki/Kurt_G%C3%B6del

[12] Aus dem Buch von Kegel „Die Herrscher der Welt…“: Siehe https://www.cognitiveagent.org/2015/12/06/die-herrscher-der-welt-mikroben-besprechung-des-buches-von-b-kegel-teil-1/

[13] Natürlich ist die Sachlage bei Betrachtung der hier einschlägigen Details noch ein wenig komplexer, aber für die grundsätzliche Argumentation reicht diese Vereinfachung.

[14] Das sagen uns die vielen empirischen Arbeiten der experimentellen Psychologie und Biologie, Hand in Hand mit den neuen Erkenntnissen der Neuropsychologie.

[15] Hinter diesen Aussagen stecken die Ergebnisse eines ganzen Bündels von wissenschaftlichen Disziplinen: vorweg wieder die experimentelle Psychologie mit hunderten von einschlägigen Arbeiten, ergänzt um Linguistik/ Sprachwissenschaften, Neurolinguistik, ja auch verschiedene philosophische ‚Zuarbeiten‘ aus dem Bereich Alltagssprache (hier unbedingt der späte Wittgenstein [16] als großer Inspirator) und der Semiotik.

[16] Ludwig Wittgenstein in wkp-en: https://en.wikipedia.org/wiki/Ludwig_Wittgenstein

[17] Logik ( ‚logic‚) in der wkp-de: https://de.wikipedia.org/wiki/Logik und wkp-en: https://en.wikipedia.org/wiki/Logic

[18] Mathematik (‚mathematics‚) in der wkp-de: https://de.wikipedia.org/wiki/Mathematik und wkp-en: https://en.wikipedia.org/wiki/Mathematics

[19] Werner Heisenberg in wkp-en: https://en.wikipedia.org/wiki/Werner_Heisenberg

[19b] Unsicherheitsprinzip (‚uncertainty principle‘) in wkp-en: https://en.wikipedia.org/wiki/Uncertainty_principle

[20] Natürlich gab es schon viele Jahrhunderte früher unterschiedliche Vorläufer eines Denkens in Wahrscheinlichkeiten.

[21] Theoretische Wahrscheinlichkeit, z.B. in wkp-en: https://en.wikipedia.org/wiki/Probability

[22] Subjektive Wahrscheinlichkeit, z.B. in wkp-de: https://de.wikipedia.org/wiki/Subjektiver_Wahrscheinlichkeitsbegriff; illustrieret mit der Bayeschen Wahrscheinlichkeit in wkp-en: https://en.wikipedia.org/wiki/Bayesian_probability

[23] Objektivistische Wahrscheinlichkeit, nur ansatzweise erklärt in wkp-de: https://de.wikipedia.org/wiki/Objektivistischer_Wahrscheinlichkeitsbegriff

[23b] Deskriptive Statistik in wkp-de: https://de.wikipedia.org/wiki/Deskriptive_Statistik (siehe auch ‚descriptive statistics in wkp-en: https://en.wikipedia.org/wiki/Descriptive_statistics

[24] Zu verschiedenen Sichten von Wahrscheinlichkeiten sie auch: Karl Popper, The Open Universe: An Argument for Indeterminism, 1956–57 (as privately circulated galley proofs;) 1982 publiziert als Buch

[25] Hier sei angemerkt, dass ein Akteur natürlich nur dann ein bestimmtes Ereignis wahrnehmen kann, wenn er (i) überhaupt hinschaut und (ii) er über geeignete Beobachtungsinstrumente (= Messgeräte) verfügt, die das jeweilige Ereignis anzeigen. So sah die Welt z.B. ohne Fernglas und Mikroskop ‚einfacher‘ aus als mit.

[26] Diese Betonung einer Situation als Kontext für Tendenzen schließt natürlich nicht aus, dass die Wissenschaften im Laufe der Zeit gewisse Kontexte (z.B. das Gehirn, der Körper, …) schrittweise immer mehr auflösen in erkennbare ‚Komponenten‘, deren individuelles Verhalten in einem rekonstruierbaren Wechselspiel unterschiedliche Ereignisfolgen hervorbringen kann, die zuvor nur grob als reale Tendenz erkennbar waren. Tatsächlich führt eine zunehmende ‚Klarheit‘ bzgl. der internen Struktur einer zuvor nicht analysierbaren Situation auch zur Entdeckung von weiteren Kontextfaktoren, die zuvor unbekannt waren.(vgl. S.14f)

[27] Gottfried Wilhelm Leibniz in wkp-de: https://de.wikipedia.org/wiki/Gottfried_Wilhelm_Leibniz

[27b] Monadenlehre von Leibnuz in wkp-de: https://de.wikipedia.org/wiki/Monade_(Philosophie)

[27c] Allerdings muss man bemerken, dass die Leibnizsche Monadenlehre natürlich in einem ziemlich anderen ‚begrifflichen Koordinatensystem‘ einzubetten ist und die Bezugnahme auf diese Lehre nur einen stark vereinfachten Aspekt trifft.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

CORONA UPDATE. Notiz

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 2.Februar 2022
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de

Vorbemerkung

Zu Beginn der Covid19 Pandemie (was viele kritisieren, es sei ja nur eine ‚Endemie‘, nichts mehr als eine ‚gewöhnliche Grippe‘) hatte ich versucht, mit einer eigenen Covid19-Seite [1] mir selbst einen Überblick zu den verschiedenen Aspekten von Covid19 zu verschaffen. Im Laufe der Zeit musste ich dann aber feststellen, dass die Menge der hierzu einschlägigen Berichte und Dokumentationen pro Tag so umfangreich war, dass ich da mit meiner geringen Zeit nicht mithalten konnte. Also musste ich darauf vertrauen, dass es genügend Institutionen gibt, die diese Datenflut einigermaßen sachgerecht screenen, zusammenfassen und das Wichtigste darstellen. Im Laufe der Zeit konnte ich feststellen, dass das von vielen oft hart kritisierte RKI (Robert-Koch-Institut) mit Abstand die umfangreichsten, detailliertesten und methodisch voll transparenten Daten zur Verfügung stellt, die man in Deutschland bekommen kann.[2] Zusätzlich musste ich feststellen, dass ich — obgleich ich selbst als Wissenschaftler verstehe — im Kontext von Covid19 auf so viele Aspekte traf, die oft ein Spezialwissen erfordern, dass ich mir irgendwann eingestehen musste, dass ich viele Sachverhalte nicht wirklich einordnen konnte (und natürlich auch heute nicht kann). Eine Orientierung in unserer heutigen sehr komplexen und schnell sich ändernden Welt geht nur, wenn es andere gibt, die über das jeweilige Spezialwissen verfügen, denen man ‚vertrauen‘ kann. Wenn es diese anderen nicht gibt, dann zerbricht eine Gesellschaft ‚an sich selbst‘: ein einzelner kann eine komplexe Vielfalt niemals ersetzen; genau das heißt ‚Gesellschaft‘; zusammen ist man stark, alleine ist man schwach. Schnelle Parolen mögen bei einzelnen zwar ‚Ängste‘ beruhigen, sie bieten aber nicht wirklich die Antworten, die wir als Gesellschaft brauchen. Insofern ist Gesellschaft Chance und Risiko zugleich.

INFIZIERT – HOSPITALISIERT – GESTORBEN

Einfache OpenLibre-Grafiken anhand der Excel-Daten des RKI aus [7]

Während in der obersten Grafik — Zeit Okt.2020 bis Jan 2022 — die Zahl der Infizierten mit der omikron-Variante von Covid19 dramatisch angestiegen ist, verbleibt die Zahl der Hospitalisierten mit Symptomen weitgehend niedrig.

Im mittleren Bild wird die Zahl der Hospitalisierten (Spalte O) der Zahl der Verstorbenen (Spalte P) gegenüber gestellt. Man sieht hier eine gewisse ‚Parallelität‘ beider Kurven (ein Korrelationskoeffizient von 0.9)[9].

Bei näherer Betrachtung (Bildung des Durchschnittswertes aller Werte und dann Differenzbildung mit jedem Wert einzeln) zeigt sich aber, dass die Sterberate zu Beginn (vor omikron) dramatisch viel höher war und seit der Kalenderwoche 53 von 2021 deutlich niedriger ist oder gar weiter abnimmt.

Hospitalisierung nach Altersgruppen – Belegung Intensivbetten

Einfache LibreOffice Grafik zu den Excel-Daten vom RKI-Bericht aus [7] und zu den Altersgruppen bei der Hospitalisierung und die Belegung der Intensivbetten aus dem Wochenbericht zum 27.Januar 2022 [4]

In der oberen Grafik kann man sehen, dass die Hospitalisierungsrate stark Altersabhängig ist. Bis zu 14 Jahren ist sie sehr niedrig, und steigt dann mit dem Alter sehr an. Während die allgemeinen Spitzen über 14 Jahre letztlich deutlich abnehmen ist bei den bis 14-Jährigen ein leichter Anstieg zu erkennen. Das könnte u.U. auf eine Verschiebung hindeuten.

In der unteren Grafik kann man die Belegung der Intensivbetten beobachten. Generell korreliert diese Kurve mit der Kurve der Menschen mit Symptomen im Krankenhaus.

Intensivstation: Geimpft – Ungeimpft

Aufschlüsselung der Belegung von Intensivstationen samt Sterbefällen nach Geimpften und Nicht-Geimpften nach [4]. Hinweis: Die Erfassung nach ‚Geimpft – nicht Geimpft‘ wird erst seit Dez 2021 vorgenommen (ziemlich spät!). Im übrigen sind alle Daten mit Unschärfen verbunden, weil das komplexe Meldesystem bislang keine 100%ige Genauigkeit zulässt.

Diese letzte Tabelle ist insofern von Interesse, als oft behauptet wird, dass es ja egal sei, ob man geimpft sei oder nicht, da die Zahl der Geimpften in Krankenhäusern oder dann sogar auf Intensivstationen genauso hoch — oder sogar höher — sei als die Zahl der Ungeimpften. Dies würde — auf den ersten Blick! — auch durch obige Tabelle bestätigt werden.

Allerdings muss man sich die Frage stellen, welchen Anteil die Ungeimpften mit Symptomen in Krankhäusern (= 345) an der Gesamtgruppe der Ungeimpften in der Bevölkerung (= 20.3 Mio) haben und entsprechend die Grundgeimpften und Aufgefrischten (=542) an der Gesamtbevölkerung (=61.17 Mio). Die Wahrscheinlichkeit, dass ein Ungeimpfter durch Infektion mit Symptomen in ein Krankenhaus (oder gar Intensivstation) kommt liegt (grob) bei 20.3:83.2, also ca. bei 0.25, und die Wahrscheinlichkeit für einen Geimpften bei 61.2:83.2, also bei ca. 0.75, ohne die Berücksichtigung von sonstigen Umständen. Danach müssten ca. 9x so viele Geimpfte in Krankenhäusern landen wie Ungeimpfte. Tatsächlich ist das Verhältnis von Ungeimpften zu Geimpften aber 1:1.5, also es sind dramatisch weniger Geimpfte im Krankenhaus als sie rein kombinatorisch sein müssten. Dafür kann es natürlich viele Ursachen geben, aber Fakt ist erst einmal, dass anteilmäßig dramatisch viel weniger Geimpfte mit Symptomen im Krankenhaus landen wie Ungeimpfte.

ANMERKUNGEN

[1] Meine persönliche Covid19-Seite zu Beginn der Pandemie: https://www.cognitiveagent.org/2020/12/14/meine-sars-cov-2-covir-19-seite/

[2] Was ich im Vergleich dazu von vielen Corona-Gegnern hören und lesen konnte, wirkte auf mich dagegen bislang sehr schwach, willkürlich, ohne wirkliche Daten. Aber vielleicht irre ich mich hier; wer weiß das schon.

[3] Allgemeine Übersicht des RKI zu Covid19: https://www.rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/nCoV_node.html;jsessionid=3DC820BF0550C5A7ADE582A9CD979BCB.internet091#doc13490882bodyText12

[3b] SARS-CoV-2: Virologische Basisdaten sowie Virusvarianten: https://www.rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/Virologische_Basisdaten.html

[4] Wöchentlicher Lagebericht des RKI vom 27.Januar 2022: https://www.rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/Situationsberichte/Wochenbericht/Wochenbericht_2022-01-27.pdf?__blob=publicationFile

[5] Überblick über das Intensivregister Deutschland mit Links auf verfügbare Daten: https://www.intensivregister.de/#/aktuelle-lage/downloads

[6] Trendreihen des Intensivregisters: file:///C:/Users/gerd_2/Downloads/DIVI_Intensivregister_Report.pdf

[7] COVID-19-Fälle nach Meldewoche und Geschlecht sowie Anteile mit für COVID-19 relevanten Symptomen, Anteile Hospitalisierter/Verstorbener und Altersmittelwert/-median (Tabelle wird jeden Donnerstag aktualisiert), 26.Januar 2022: https://www.rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/Daten/Klinische_Aspekte.html

[8] Bevölkerung Deutschland nach Statistischem Bundesamt 2021: https://www.destatis.de/DE/Themen/Gesellschaft-Umwelt/Bevoelkerung/Bevoelkerungsstand/_inhalt.html

[9] Korrelationskoeffizient in der Wikipedia DE: https://de.wikipedia.org/wiki/Korrelationskoeffizient

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

KULTUR BEI NICHT-MENSCHEN? EVOLUTION IN VIER DIMENSIONEN. Nachhall zu Jablonka & Lamb (2017, 2005)

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 13.-17.Januar 2022, 07:30 h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de

VORBEMERKUNG

Dieser Text verstand sich ursprünglich als ein ‚Trigger‘, der auf ein Thema verweist, das von Interesse zu sein scheint, ohne dass die vielen Aspekte des Themas hier voll ausgeleuchtet werden (können). Mittlerweile ist der Text eine Einleitung für eine längere Diskussion mit der Position von Jablonka & Lamb geworden.

KONTEXT

Das Thema ‚Evolution des Lebens‘ ist in diesem Blog schon sehr oft besprochen und diskutiert worden.[2] Dabei nimmt der Autor cagent die Position ein, dass Evolution die Eigenschaft einer Population P ist, die in einer Umgebung U vorkommt, wobei diese Umgebung ‚dynamisch‘ ist, d.h. nicht stationär; sie ändert sich permanent. Um das jeweils ‚aktuelle Format‘ (Genotyp [1f] und Phänotyp [1g]) in der Abfolge der Zustände der Umgebung U ‚am Leben‘ zu erhalten (‚im Spiel zu bleiben‘), müssen die Mitglieder der Population P sowohl ihr Format kontinuierlich ‚anpassen‘ wie auch ihren Verhaltensraum. [2b] Primär geschieht dies über die genetischen Informationen, die ‚Konstruktionsanweisungen‘ enthalten, wie sich ein neuer Organismus entwickeln sollte. Bei der ‚Reproduktion‘ dieser ‚Anweisungen‘ wie auch bei der ‚Umsetzung der Anweisung‘ in einen Konstruktionsprozess (‚Wachstum‘, ‚Ontogenese‘ [1h]), treten mehr oder weniger große ‚Veränderungen‘ auf, die eine Formatänderung bedingen können. Wie neuere Erkenntnisse nahelegen, können die genetischen Informationen auch schon zu Lebzeiten eines individuellen Organismus auf molekularer Ebene verändert werden. Es wird grob eine Interaktion zwischen dem Gesamtsystem und den genetischen Informationen angenommen. [3] Klar ist aber auch, dass solche Lebensformen, die über eine hinreichend differenzierte Wahrnehmung und hinreichende soziale Kommunikation verfügen, unabhängig von den genetischen Informationen durch Änderungen des Verhaltens, eventuell noch ergänzt um individuell unabhängige Artefakte der Umgebung, Veränderungen der Umwelt herbeiführen können, die als Umgebung spezifisch auf die Mitglieder einer Population ‚rückwirken‘ können. Die Möglichkeit der Artefakt-Gesteuerten Verhaltensänderungen bildet einen ‚offenen Raum‘ ab, der von Nicht-Menschen und Menschen besetzt wird. Jenen Teilraum, den wir Menschen als ‚Kultur‘ [4] bezeichnen, von jenem Teilraum abzugrenzen, der nicht als ‚Kultur‘ zu verstehen ist, ist nicht ganz einfach. In der Sicht von Jablonka und Lamb wird zumindest aufgezeigt, dass auch nicht-menschliche Populationen grundlegende Muster aufweisen, die man als ‚Kultur‘ bezeichnen könnte.

ERSTE THESEN AUS DEM BUCH

Erste Thesen zum Buch werden anhand der Zusammenfassung in dem Kurzartikel „Traditionen und kumulierende Evolution: Wie sich ein neuer Lebensstil entwickelt“ [1b] hier vorgestellt. Im Anschluss werden diese Anfangsthesen dann anhand der Deutschen — gegenüber der Englischen Ausgabe erweiterten — Ausgabe von 2017 weiter differenziert.

BILD 1: Infografik zum Kurztext von Jablonka & Lamb [1b]

Die Infografik in Bild 1 zeigt vereinfachend und kondensiert die zentralen Aussagen aus dem Kurztext [1b]. Man kann sie wie folgt zusammenfassen:

  1. Die hier referierten Erkenntnisse entstammen den Forschungen von menschlichen Wissenschaftlerinnen, die wiederum auf eine Vielzahl anderer Wissenschaftler und Wissenschaftlerinnen aufbauen.
  2. Der Forschungsgegenstand sind nicht-menschliche Lebensformen, in diesem Fall Affen, insbesondere japanische Makaken.
  3. Generell werden Populationen einer bestimmten Lebensform betrachtet, die in einer bestimmten Umgebung leben, wobei die Umgebung sich ändern kann.
  4. Wichtig ist, dass die Population für ihre eigenen Mitglieder auch eine Form von Umgebung bildet: der Körper eines biologischen Individuums ist für die jeweils anderen auch Teil der Umgebung.
  5. Neue Umweltreize in der Umgebung können dazu führen, dass sich bei mindestens einem Mitglied der Population eine neue Verhaltensantwort heraus bildet.
  6. Neue Verhaltensantworten eines Mitglieds der Population sind selbst neue Reize, die wiederum andere Mitglieder dazu anregen können, diese neuen Verhaltensantworten zu übernehmen.
  7. Verhaltensantworten können abgewandelt werden sowohl in der Form der Ausführung wie auch in Bezug auf die Handlungssituation.
  8. Jüngere Mitglieder einer Population sind tendenziell eher bereit, etwas Neues zu übernehmen und abzuwandeln als ältere Mitglieder.
  9. Wenn ein neues Verhalten bei den älteren Mitgliedern ‚angekommen‘ ist, dann sind z.B. die ‚Mütter‚ diejenigen, die neues Verhalten an Jüngere ‚weitergeben‘.
  10. Verhalten kann sich — auch ohne Sprache — über mehrere Generationen erhalten.
  11. Es wird beobachtet, dass die Veränderung der Wirkung eines genetischen Programms schon zu Lebzeiten eines Organismus stattfinden kann. Diese Phänomene werden durch den Ausdruck ‚Epigenetik‘ adressiert. [1i]

Dies sind ‚Thesen‘, die man dem Kurztext [1b] entnehmen kann. Es fehlen in dem Kurztext natürlich alle ausführlichen Erläuterungen und Begründungen. Dennoch kann schon diese Kurzform zu verschiedenen Überlegungen Anlass bieten.

ERSTE ÜBERLEGUNGEN

Klar wird schon durch diesen Kurztext, dass wir es bei der Analyse von biologischen Lebensformen mit mindestens den folgenden ‚Dimensionen‘ zu tun haben:

  1. Es gibt eine vorfindliche ‚Natur‘ als eine veränderliche Größe mit ’naturspezifischen‘ Eigenschaften, und
  2. in dieser Natur gibt es als ‚Bestandteil der Natur‘ biologische Populationen, die für ihre eigenen Mitglieder wie auch für andere Populationen selbst als ‚Umwelt‘ erscheinen.
  3. Populationen sind selbst veränderlich.
  4. Die Mitglieder einer biologischen Population sind in der Lage auf Eigenschaften der umgebenden Natur — mit den anderen Mitgliedern der Population als Bestandteil der Umgebung (Selbstbezüglichkeit einer Population) — durch ein spezifisches Verhalten zu reagieren.
  5. Ein Verhalten kann sowohl in seiner Form wie auch bezogen auf einen konkreten Anlass verändert werden.
  6. Aufgrund der Selbstbezüglichkeit einer Population kann eine Population daher
    1. das eigene Verhalten wechselwirkend verändern
    2. durch das veränderte Verhalten mit der Umgebung veränderlich interagieren (und dadurch in gewissem Umfang die Umgebung selbst verändern)
  7. Es zeigt sich, dass Mitglieder einer Population bestimmte Verhaltensweisen in Abhängigkeit von Umgebungseigenschaften auch über längere Zeiträume erinnern können.
  8. Aufgrund der unterschiedlichen Lebenszeiten wie auch durch das Erinnerungsvermögen können neue Verhaltensweisen zwischen Generationen übertragen werden, was eine Tradierung über eine Generation hinaus ermöglicht.
  9. Ferner wird beobachtet, dass sich die Wirkung genetischer Informationen im Kontext der Reproduktion meta-genetisch (epigenetisch) unterschiedlich auswirken können, wobei diese meta-genetische (epigenetische) Veränderungen zu Lebzeiten stattfinden. Die Kombination aus genetischen und epigenetischen Faktoren kann sich auf die Nachkommen auswirken. Die Wirkung solcher epigenetisch beeinflussbaren Änderungen im tatsächlichen Verhalten (Phänotyp) ist nicht linear. [1i]

Die Rolle von ’symbolischer Interaktion‘, in komplexen Formen als ‚Sprache‘, wird aus dem Kurztext [1b] noch nicht klar.

DEFINTIONS-HYPOTHESEN

Für die weitere Diskussion ist es hilfreich, sich schon an dieser Stelle darüber Klarheit zu verschaffen, welches die grundlegenden (Leit-)Begriffe sind, die den weiteren Diskurs prägen. Dies soll in Form ‚tentativer‘ Definitionen erfolgen. Sollten diese sich im weiteren Verlauf als ‚unangemessen‘ erweisen, dann kann man sie entsprechend abändern.

Drei Begriffe erscheinen an dieser Stelle als solche Leitbegriffe eine Rolle zu spielen: ‚Population‘, ‚Kultur‘ und — der Diskussion vorgreifend — ‚Gesellschaft‘.

Def0: Population

Unter Population soll hier minimal eine solche Gruppierung von biologischen Individuen verstanden werden, die eine biologische Fortpflanzungsgemeinschaft bilden.(Dies ist enger als die übliche Verwendung des Begriffs ‚Population‘, siehe [4a])

Def0: Kultur

Im üblichen Sprachgebrauch wird der Begriff ‚Kultur‘ auf die Population von ‚Menschen‘ beschränkt. [4] Hier wird der Vorschlag gemacht, ‚Kultur‘ dort beginnen zu lassen, wo biologische Populationen zu minimaler Traditionsbildung aufgrund ihres Verhaltensraumes fähig sind. Damit erweitert sich der Anwendungsbereich des Begriffs der ‚Kultur‘ über die Population der Menschen hinaus auf viele andere biologische Populationen, aber nicht auf alle.

Def0: Gesellschaft

Der Begriff ‚Gesellschaft‘ gewinnt je nach Betrachtungswinkel (einer Disziplin) ganz unterschiedliche Bedeutungen. (Vgl. [4b]) Hier soll der Begriff mit Bezug auf [4a], [4] minimalistisch dahingehend bestimmt werden, dass biologisch eine ‚Gesellschaft‘ minimal vorliegt, wenn es eine biologische Population gibt [4a], in der auf minimale Weise ‚Kultur‘ [4] vorkommt.

Es soll weiter betrachtet werden, wie diese Prozesse im einzelnen zu verstehen sind und was dies in philosophischer Sicht bedeuten kann.

ANMERKUNGEN

wkp := Wikipedia

[1] Regina Oehler, Petra Gehring, Volker Mosbrugger (Hrsg.), 2017, Reihe: Senckenberg-Buch 78, „Biologie und Ethik: Leben als Projekt. Ein Funkkolleg Lesebuch“, Stuttgart, E. Schweizerbart’sche Verlagsbuchhandlung (Nägele u. Obermiller) und Senckenberg Gesellschaft für Naturforschung

[1b] Eva Jablonka, Marion J. Lamb, 2017, „Traditionen und kumulierende Evolution: Wie sich ein neuer Lebensstil entwickelt“, In: [1], SS.141-146, verweist auf [1c]

[1c] Eva Jablonka, Marion J. Lamb, 2017, „Evolution in vier Dimensionen. Wie Genetik, Epigenetik, Verhalten und Symbole die Geschichte des Lebens prägen“, Stuttgart, S. Hirzel Verlag. Ursprünglich auf English (2005) als „Evolution in Four Dimensions: Genetic, Epigenetic, Behavioral, and Symbolic Variation in the History of Life“ , MIT Press: siehe: https://en.wikipedia.org/wiki/Evolution_in_Four_Dimensions. Auf der Buchseite Hinweise auf einige Review-Artikel. Die Englische Zusammenfassung des Buches auf der MIT Press Webseite lautet wie folgt: „Ideas about heredity and evolution are undergoing a revolutionary change. New findings in molecular biology challenge the gene-centered version of Darwinian theory according to which adaptation occurs only through natural selection of chance DNA variations. In Evolution in Four Dimensions, Eva Jablonka and Marion Lamb argue that there is more to heredity than genes. They trace four „dimensions“ in evolution—four inheritance systems that play a role in evolution: genetic, epigenetic (or non-DNA cellular transmission of traits), behavioral, and symbolic (transmission through language and other forms of symbolic communication). These systems, they argue, can all provide variations on which natural selection can act. Evolution in Four Dimensions offers a richer, more complex view of evolution than the gene-based, one-dimensional view held by many today. The new synthesis advanced by Jablonka and Lamb makes clear that induced and acquired changes also play a role in evolution. After discussing each of the four inheritance systems in detail, Jablonka and Lamb „put Humpty Dumpty together again“ by showing how all of these systems interact. They consider how each may have originated and guided evolutionary history and they discuss the social and philosophical implications of the four-dimensional view of evolution. Each chapter ends with a dialogue in which the authors engage the contrarieties of the fictional (and skeptical) „I.M.,“ or Ifcha Mistabra—Aramaic for „the opposite conjecture“—refining their arguments against I.M.’s vigorous counterarguments. The lucid and accessible text is accompanied by artist-physician Anna Zeligowski’s lively drawings, which humorously and effectively illustrate the authors‘ points.“, siehe: https://mitpress.mit.edu/books/evolution-four-dimensions.“

Die Deutsche Ausgabe von 2017 ist eine überarbeitete, erweiterte Fassung gegenüber den Englischen Fassung. Anhand dieser erweiterten Deutschen Fassung werden die Anfangsthesen dann weiter entwickelt.

[1d] Eva Jablonka in wkp-de: https://de.wikipedia.org/wiki/Eva_Jablonka

[1e] Marion J. Lamb in wkp-ed: https://en.wikipedia.org/wiki/Marion_J._Lamb

[1f] Genotyp in wkp-de: https://de.wikipedia.org/wiki/Genotyp

[1g] Phänotyp in wkp-de: https://de.wikipedia.org/wiki/Ph%C3%A4notyp#Ph%C3%A4notypische_Plastizit%C3%A4t

[1h] Ontogenese in wkp-de: https://de.wikipedia.org/wiki/Ontogenese

[1i] Epigenetik in wkp-de: https://de.wikipedia.org/wiki/Epigenetik

[2] Das Thema ‚Evolution‘ in diesem Blog z.B. hier: https://www.cognitiveagent.org/category/evolution/

[2b] Unter ‚Verhaltensraum‘ wird hier die Menge der möglichen individuellen Verhaltensweisen verstanden, durch die ein Individuum mit der Umgebung interagieren kann. Das gleiche Format (Genotyp & Phänotyp) können ganz verschiedene Verhaltensräume ermöglichen. Dies hängt von der kognitiven Basis des Verhaltens ab. Das genetisch gleiche Gehirn hat eine ungeheuer große Bandbreite an potentiellen Verhaltenssteuerungen.

[3] Zu den Details epigenetischer Veränderungsprozesse siehe einleitend [1i].

[4] Kultur in wkp-de: https://de.wikipedia.org/wiki/Kultur

[4a] Population in der wkp-de: https://de.wikipedia.org/wiki/Population_(Biologie)

[4b] Gesellschaft in der wkp-de: https://de.wikipedia.org/wiki/Gesellschaft

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

KLIMA-ANTHROPOZÄN-ARTENVIELFALT-ANTHROMS-Was ist mit uns?

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 9.Januar 2022, 12:00h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

VORBEMERKUNG

Dieser Text versteht sich als ein ‚Trigger‘, der auf ein Thema verweist, das von Interesse zu sein scheint, ohne dass die vielen Aspekte des Themas hier voll ausgeleuchtet werden (können).

KONTEXT

Im Jahr 2022 hat das Thema ‚Klimaänderung‘ mit den Aspekten ‚Verursachung durch den Menschen‘ und ‚Folgen für den Menschen‘ eine hohe Aufmerksamkeit. Vielfache Phänomene lassen sich als Hinweise für die Realität einer Klimaänderung interpretieren, die vom Menschen mindestens mit verursacht sein sollen [1]. Dennoch bleibt das Thema kontrovers, da es — wie bei jedem komplexen Phänomen — trotz allem offene Fragen geben kann, auch weitere Wirkfaktoren, die man berücksichtigen könnte/ sollte.

Im folgenden Text sollen diese Fragen nicht ‚geschlichtet werden. Es geht vielmehr darum, einige wichtige Aspekte zu thematisieren, die bei der Fokussierung auf den Aspekt ‚Klima‘ alleine leicht übersehen werden können bzw. tatsächlich — in der Öffentlichkeit — aus dem Blick geraten.

KLIMA IM KONTEXT

Blickt man auf die vielen Botschaften von Naturereignissen rund um den Globus mit den heftigen Auswirkungen auf Menschen in ganzen Regionen, dann erscheinen diese Phänomene als Boten eines Klimawandels bedrohlich. Und mit den Hinweisen auf den Menschen als Verursacher von z.B. Treibhausgasen und von massiven Veränderung der Erdoberfläche und der Meere gerät der Mensch selbst immer mehr in den Fokus der Betrachtung.

ANTHROPOZÄN

Seit Jahrzehnten wird diskutiert, ob der immense Einfluss des Menschen auf den Planeten Erde — mit einer deutlichen Beschleunigung seit den 1950er Jahren — mittlerweile nicht so groß ist, dass man diese aktuelle Phase mit einer neuen Erdepochenbezeichnung entsprechend kenntlich machen sollte: Anthropozän. [2],[2b], [3] Noch ist es nicht offiziell.

Erst kürzlich haben sich Forscher zu Wort gemeldet [2c], die diese Art von Benennung irreführend finden. Mit Verweis auf das große erdgeschichtliche ‚Sauerstoffereignis‘ [2a] schlagen sie vor, nicht von einer geologischen ‚Epoche‘ zu sprechen, sondern von einem globalen ‚Ereignis‘, das die Situation auf der Erde für alle Beteiligten verändert.

Die Diskussion ist kontrovers, aber aus Sicht des Autors dieser Zeilen wird die ‚Ereignissicht‘ eher der Prozesshaftigkeit gerecht, um das Wechselspiel zwischen menschlicher Population (als Teil der Biosphäre) und ‚allem anderen‘ zu beschreiben.

ARTENVIELFALT (BIODIVERSITÄT)

Im Kontext der Diskussion um die Wechselwirkung des Menschen mit ‚allem anderen‘ wird nicht nur das aktuell sehr prominente Thema der ‚Klimaänderung aufgrund der Einwirkungen des Menschen‘ diskutiert, sondern auch z.B. das Phänomen der negativen Auswirkungen des Menschen auf die vielen anderen Lebensformen: einmal ‚verdrängt‘ der Mensch viele Arten bis hin zu ihrer völligen Auslöschung; zum anderen führen die bislang erfassten Änderungen des Klimas indirekt ebenfalls zu einem massiven Artensterben.[5], [5b]

ANTHROMES (ANTHROPOGENE BIOME)

Eine Lebensform als solche kann aber nicht ‚einfach so‘ existieren; ihre Existenz verlangt immer nach einer eigenen ‚Umgebung‘, ohne die der notwendige lebenserhaltende Prozess nicht stattfinden kann. Diese Einheit von Lebensraum und spezifischer Lebensform wird allgemein ‚Biom‘ genannt. [6c]

Ein Teilaspekt der Umgebung eines Bioms ist das ‚Land‘, das eine Lebensform benötigt. Da die Lebensform des Homo sapiens mittlerweile mehr als 3/4 der verfügbaren Landflächen für sich vereinnahmt hat [6], [6a], gibt es Vorschläge, das dem Menschen zugeordnete Biom als ‚anthropogenes Biom‘ zu bezeichnen, um seine Sonderrolle zu thematisieren. Abkürzend heißt es u.a. auch ‚Anthrom‘.

Die Grundlegung für das Konzept eines Bioms kann man bei Jakob J. von Uexküll verorten, der mit seinen Untersuchungen 1909 deutlich machte, wie spezifische eine bestimmte Lebensform auf eine bestimmte Umgebung zugeschnitten ist (wobei die jeweils anderen Lebensformen in der Umgebung jeweils auch zur Umgebung gehören). [6d], [6e]

WELT UND ‚WELTBILD‘

Im Ringen um das richtige Verständnis unserer aktuellen Situation im globalen Kontext wird deutlich, dass das Verhältnis von der ‚real existierenden Welt‘ und den verschiedenen ‚Ansichten‘ zu dieser Welt sehr vielfältig bis widersprüchlich ist. Dies ist kein Zufall. Die Art und Weise, wie wir die Welt ‚beschreiben‘ ist nicht fest vorgegeben. Jede Generation muss für sich neu klären, mit welchen Konzepten, mit welcher Sprache, mit welchen Beobachtungsmethoden will man alle jene Aspekte der realen Welt ‚gedanklich so aufbereiten‘, dass sie ‚gemeinschaftlich verstehbar‘ und ‚überprüfbar‘ werden. Im Bereich der ‚Ökologie‘, der allgemeinen Erforschung unserer Umwelt unter Berücksichtigung der Biosphäre samt den vielfältigen Prozessen, die hier involviert sind, hat sich ein Vorgehen etabliert, das als ‚theoretische Ökologie‘ [7] bezeichnet wird. Hier werden die wichtigsten Konzepte, die wichtigsten theoretischen Modelle zusammengetragen, angewendet, und überprüft. Dies fördert die begriffliche Klarheit, fördert Synergieeffekte, fördert unterschiedliche Integrationen der verschiedenen Teilaspekte.

Eine fortschreitende Theoretisierung‘ besitzt aber neue Gefahren, die darin bestehen, dass ein theoretisches Modell als solches zwar faszinieren kann, dass aber sein ‚Wirklichkeitsbezug‘ immer wieder neu, z.T. sehr aufwendig, hergestellt werden muss. Ein beeindruckendes Beispiel für Theoriebildung ist hier Stephen P.Hubbell [7a] mit seiner Theorie [7b], die aber zugleich wegen ihres Bezugs zur Realität umstritten ist. Auch Volker Mosbrugger zeigt sich in seinem Beitrag sehr ‚theoriefreudig‘, ist sich aber der Problematik der oft noch unzulänglichen Abstützung durch unvollständige Daten sehr bewusst. [5] Andere Akzente setzen Robert Ulanowicz [7c] oder Stuart Kauffman [7d].

WAS IST MIT UNS?

Mit diesem versuchten Blick auf das ‚Ganze‘ (wer den Blog ‚Philosophie Jetzt‘ kennt, der weiß, dass dies natürlich nicht wirklich das ‚Ganze‘ ist), stellt sich die einfache — und zugleich schwere — Frage, was dies dann für jeden einzelnen, für seine Region, sein Land, für den ganzen Planeten bedeutet?

Was immer als bewusstes Handeln geschehen soll, es wird nur dann als ‚gemeinsames Werk‘ gelingen, wenn alle Handelnden zu einer einigermaßen einheitlichen ‚Sicht der Dinge‘ gelangen würden, und dass diese Handelnden über ‚genügend politische Macht‘ und ‚genügend materielle Ressourcen‘ verfügen müssen, um die Einsichten auch umsetzen zu können.

Entgegen dem Mainstream-Märchen, dass Künstliche Intelligenz bei genügender Versorgung mit ‚Daten‘ schon alles richten werde — die Menschen kommen in diesem Märchen praktischerweise erst gar nicht vor –, muss man festhalten, dass die Erarbeitung einer angemessenen theoretischen Sicht auf eine komplexe Realität das menschliche Erkennen an seine Grenzen führt. Dies ist kein ‚Selbstläufer‘ sondern erfordert extreme Anstrengungen. Und damit diese Bemühungen nicht nur in den Gehirnen einzelner Spezialisten stattfinden, brauchen sie eine umfassende gesellschaftliche Kommunikation auf hohem Niveau, was ohne ein entsprechend lebendiges Bildungssystem ein Wunschdenken bleibt. Die ausreichende Bereitstellung der notwendigen Ressourcen ist damit noch nicht geklärt, auch nicht die zentrale Frage der Macht. Laut dem schwedischen V-dem Institut [8] gab es weltweit 2010 noch 32 liberale Demokratien von 208 Staaten, 2020 nur noch 16! Auch wenn man über die Details dieser Klassifikationen streiten kann, der globale Trend ist eindeutig. In nicht-liberalen Demokratien, erst Recht in totalitären Regimen, können wir ständig zerstörerische Prozesse beobachten, wo sich die Bevölkerung gegen totalitäre Machthaber erheben und diese mit brutalster Gewalt zurückschlagen, d.h. ihre eigene Bevölkerung wie Kriminelle behandeln, und sie im übrigen regelrecht ausbeuten. Moderne Technologien ermöglichen totalitären Regimen — und nicht nur diesen — eine immer umfassendere Überwachung ihrer Bürger.

Diese Phänomene sind nicht neu. In den letzten Jahrtausenden gab es viele vergleichbare Phänomene. Insbesondere kann man studieren, wie die Veränderung eines gesellschaftlich geteilten Weltbildes immer viele Generationen gebraucht hat, 100 bis 200 und mehr Jahre sind normal.

Unsere Gegenwart ist hier mit Sicherheit keine Ausnahme. Seit der großen UN Konferenz zur Nachhaltigkeit 1992 sind schon 30 Jahre vergangen und die aktuelle Verfasstheit der verschiedenen Länder ist weit davon entfernt, eine wirklich gemeinsame Reaktion zu zeigen. Auch mit einem klaren Ziel vor Augen sollten wir uns darauf einstellen, dass die Klimaänderung mit all ihren verheerenden Folgen mehr oder weniger stattfinden wird.

Festzuhalten ist: Nicht das Klima ist das Problem, sondern die Art und Weise, wie die Lebensform des Homo sapiens mit der Welt, der Biosphäre und sich selbst umgeht, das ist das zentrale Problem. Wir Menschen haben mittlerweile enorme Technologien entwickelt (und es gibt natürlich noch viel mehr), aber wir selbst haben uns in entscheidenden Fähigkeiten scheinbar kaum weiter entwickelt. Obwohl das biologische Leben auf dem Planet Erde das größte Wunderwerk ist, was in dem bekannten Universum vorkommt, glauben wir naiv, primitive Maschinen (die wir selbst entwickelt haben) wären uns überlegen. Welch grandioser Irrtum.

ANMERKUNGEN

wkp := Wikipedia

[1] Climate change in wkp-en: https://en.wikipedia.org/wiki/Climate_change

[1b] Regina Oehler, Petra Gehring, Volker Mosbrugger (Hrsg.), 2017, Reihe: Senckenberg-Buch 78, „Biologie und Ethik: Leben als Projekt. Ein Funkkolleg Lesebuch“, Stuttgart, E. Schweizerbart’sche Verlagsbuchhandlung (Nägele u. Obermiller) und Senckenberg Gesellschaft für Naturforschung

[2] ‚Anthropocene‚ in wkp-en: https://en.wikipedia.org/wiki/Anthropocene

[2a] Great oxidation event in wkp-en: https://en.wikipedia.org/wiki/Great_Oxidation_Event

[2b] Wolfgang Haber, Martin Held, Markus Vogt (Hrsg.), 2015, „Die Welt im Anthropozän“, München, Oekom-Verlag

[2c] Bauer, Andrew M.; Edgeworth, Matthew; Edwards, Lucy E.; Ellis, Erle C.; Gibbard, Philip; Merritts, Dorothy J. (Korrespondenz 16. September 2021). „Anthropocene: event or epoch?“Nature597 (7876): 332

[3] Wolfgang Haber, Martin Held, Markus Vogt: „Das Anthropozän im Spannungsfeld zwischen Ökologie und Humanität“, in [1], SS.97-105 (entnommen aus [2])

[4] Drenckhahn, D. und Hacker, J. ,(Hrsg.), 2013, “ Rolle der Wissenschaft im Globalen Wandel“, Nova Acta Leopoldina NF Bd. 118

[5] Volker Mosbrugger: „Globaler Wandel der Biodiversität“, in [1], SS. 108-117 (aus [4])

[5b] E.O.Wilson, 2016, „Die Hälfte der Erde: So retten wir die Biosphäre“ , München, Verlag C.H.Beck

[5c] E.O.Wilson, 2017, „Die Hälfte der Erde: So retten wir die Biosphäre“, in [1], SS.118-120, aus [5b]

[5d] E.O.Wilson in wkp-en: https://en.wikipedia.org/wiki/E._O._Wilson

[6] Erle C. Ellis, 2020, „Anthromes“, in: Encyclopedia of the World’s Biomes, Elevier Inc. (Autor: Department of Geography & Environmental Systems, University of Maryland, Baltimore, MD, United States)

[6a] ‚Anthromes‚ auf der Webseite von Ellis: https://anthroecology.org/anthromes

[6b] ‚Anthropogenetic Biome‚ in wkp-en: https://en.wikipedia.org/wiki/Anthropogenic_biome

[6c] Biome in wkp-en: https://en.wikipedia.org/wiki/Biome

[6d] Jakob Johann von Uexküll in wkp-de: https://de.wikipedia.org/wiki/Jakob_Johann_von_Uexk%C3%BCll

[6e] Jakob von Uexküll, 1909, Umwelt und Innenwelt der Tiere. Berlin: J. Springer. (Download: https://ia802708.us.archive.org/13/items/umweltundinnenwe00uexk/umweltundinnenwe00uexk.pdf )

[7] Theoretical ecology in wkp-edn: https://en.wikipedia.org/wiki/Theoretical_ecology

[7a] Stephen P. Hubbell in wkp-en: https://en.wikipedia.org/wiki/Stephen_P._Hubbell

[7b] Unified neutral theory of biodiversity in wkp-en: https://en.wikipedia.org/wiki/Unified_neutral_theory_of_biodiversity

[7c] Robert Ulanowicz in wkp-en: https://en.wikipedia.org/wiki/Robert_Ulanowicz

[7d] S.A.Kauffman in wkp-en: https://en.wikipedia.org/wiki/Stuart_Kauffman (siehe eine Diskussion seines Buches „Reinventing The Sacred. A new View of Science, Reason, and Religion.“  in 7 Teilen HIER).

[8] Gerd Doeben-Henisch, 2021, “ OKSIMO PARADIGMA und DEMOKRATIE – Das V-dem Forschungsinstitut für Demokratie„, in: UNIVERSELLE PROZESSPLANUNG: https://www.oksimo.org/2021/08/28/oksimo-paradigma-und-demokratie-das-v-dem-forschungsinstitut-fuer-demokratie/

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

KOLLEKTIVE MENSCH:MASCHINE INTELLIGENZ und das Konzept ‚Social Machines‘

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 2.-5.Dezember 2021, 13:12h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

KONTEXT

Der Autor dieses Textes ist involviert in die Ausarbeitung zur Theorie und zur praktischen Umsetzung eines neuen Konzeptes von ‚Kollektiver Mensch:Maschine Intelligenz‘, das unter dem Begriff ‚oksimo Paradigma‘ vorgestellt und diskutiert wird.[1] In diesem Zusammenhang ist es wichtig, den eigenen Standpunkt immer wieder mit anderen Positionen in der Literatur abzugleichen: Ist das Ganze letztlich doch nicht wirklich ‚Neu‘? Falls doch, in welchem Sinne neu? Interessant sind auch die Beziehungen zwischen den verschiedenen Konzepten, ihre historische Entwicklung.

In einer online-Veranstaltung am 30.November 2021 bekam der Autor von Jörn Lamla den Hinweis auf den Artikel ‚Social Machines‘. [2] Wie man in dem kurzen aber prägnanten Artikel in der englischen Wikipedia nachlesen kann [3], ist der Begriff ‚Social Machine‘ (‚Soziale Maschine‘) schon gut 150 Jahre alt, zeigt aber noch keine sehr klaren Konturen. Der Versuch, das ‚Soziale‘ mit der ‚Technologie‘, mit ‚Maschinen‘ — hier sind vernetzte Computer gemeint, letztlich der ‚Cyberspace‘ — begrifflich zu vernetzen, drängt sich auf, ist für Gesellschaftswissenschaften verführerisch, führt aber nicht automatisch zu präzisen Konzepten. Weder ‚das Soziale‘ noch ‚die Maschine‘ sind Begriffe, die aus sich heraus irgendwie klar sind. Umso gespannter kann man sein, was die Autoren meinen, wenn sie zum begrifflichen Konstrukt ‚Soziale Maschine‘ einen Text schreiben.

SOZIALE MASCHINEN

Im weiteren Text bekennen sich die Autoren zu der schwer fassbaren Semantik des Begriffs ‚Soziale Maschine‘, indem sie diverse Beispiele aus der Literatur zitieren, die ein viel schillerndes Bild bietet. Um für ihre Diskussion einen irgendwie gearteten begrifflichen Referenzpunkt zu gewinnen, führen sie dann ihrerseits eine ‚Definition‘ von ‚Sozialer Maschine‘ ein (ohne sich allerdings der Mühe zu unterziehen, die Vielfalt der bisherigen Positionen tatsächlich im einzelnen zu diskutieren).

Def 1: Social Machines

Ihre Definition lautet: „Social Machines sind soziotechnische Systeme, in denen die Prozesse sozialer Interaktion hybrid zwischen menschlichen und maschinellen Akteuren ablaufen und teilweise algorithmisiert sind.“

An dieser Stelle ist es eine offene Frage, ob diese Definition eine ‚adäquate Repräsentation‘ des vorausgehenden Diskurses zu Sozialen Maschinen darstellt, oder ob es sich nur um eine spezielle Setzung der Autoren handelt, deren Begründung nicht schlüssig aus dem bisherigen Diskurszusammenhang folgt.

Liest man die Definition der Autoren, dann fallen u.a. folgende Formulierungen auf: (i) dass die ‚Prozesse sozialer Interaktion‚ ‚hybrid‚ sein sollen; (ii) dass diese Prozesse zwischen ‚menschlichen und maschinellen Akteuren‚ ablaufen sollen, und (iii) dass diese ‚ teilweise algorithmisiert‚ sein sollen.

Hybrides Handeln

Angesichts des großen Bedeutungsspektrums des Ausdrucks ’soziale Interaktion‘ in der Literatur (dazu oft sehr theorieabhängig genutzt) ist an dieser Stelle nicht ganz klar, was mit sozialer Interaktion‘ gemeint sein soll. Dazu der Ausdruck ‚hybrid‘. Ab wann sind menschliche Handlungen hybrid? Handelt ein Mensch ‚hybrid‘ wenn er Werkzeuge benutzt? Handelt ein Mensch ‚hybrid‘, wenn er die Gegebenheiten der Natur nutzt, um Nahrung zu finden oder zu produzieren? Handelt ein Mensch ‚hybrid‘, wenn er andere Menschen ‚instrumentalisiert‘, um persönliche Ziele zu erreichen? Handelt ein Mensch ‚hybrid‘, wenn er eine Sprache benutzt, die er in einer Gesellschaft als Instrument der Kommunikation vorfindet? Warum sollte die Benutzung einer Maschine eine besondere Form von ‚hybridem Handeln‘ darstellen, wenn die Nutzung der Maschine für den ‚Inhalt der Aktion‘ ‚unwesentlich‘ ist?

Für die weitere Diskussion sei hier daher die Verabredung getroffen, dass immer dann, wenn ein Mensch in seiner Interaktion mit der Welt irgendwelche Umstände so benutzt, dass dieses Handeln ohne diese Bezugnahme nicht erklärbar wäre, von einer ‚allgemein hybriden Handlung‘ gesprochen werden soll. Da jede Interaktion mit der Umgebung ‚als Interaktion‘ in diesem Sinne ‚allgemein hybrid‘ ist, sagt der Ausdruck ‚allgemein hybrid‘ nicht allzu viel, außer, das er uns bewusst machen kann, dass wir im Handeln niemals nur ‚für uns‘ handeln, niemals nur ‚isoliert, autonom‘ handeln, sondern wir uns unausweichlich in einer ‚Wechselwirkung‘ mit ‚etwas anderem‘ befinden. Und dies liegt nicht am ‚Handeln als solchem‘ sondern in der Art und Weise, wie jegliches Handeln von Homo sapiens Exemplaren in der ‚inneren Struktur‘ eines Homo sapiens ‚verankert‘ ist.

Die Benutzung vieler Computerdienste (maschinelle Dienstleistungen) sind in diesem Sinne zwar ‚allgemein hybrid‘ insoweit ein Mensch zusätzliche Mittel für sein Handeln benutzt, aber ob man den die maschinelle Dienstleistung benutzt oder nicht, muss nicht notwendigerweise einen wesentlichen Einfluss auf den ‚Inhalt des Handelns‘ haben (außer dass diese Benutzung das Handeln ‚bequemer‘ oder ’schneller‘ oder … macht). Wenn die Autoren also die Bedeutung von ‚hybrid‘ in diesem Zusammenhang so betonen, stellt sich die Frage, was denn in dieser Interaktion so ‚besonders‘, so ’speziell‘ sein soll, dass es sich lohnt, dies hervor zu heben. Allein die Einbeziehung von ‚etwas anderem‘ in das menschliche Handeln geschieht seitdem es den Homo sapiens gibt, tatsächlich sogar schon viel länger, wenn man die evolutionäre Vorgeschichte des Homo sapiens berücksichtigt. Selbst unter Prä-Homo sapiens Lebensformen, die heute leben, ist ‚allgemein hybrides‘ Handeln verbreitet.

Menschliche und Maschinelle Akteure

Es fragt sich, ob mit der Konkretisierung des ‚technischen Anteils‘ im Ausdruck ’soziotechnische Systeme‘ zu ‚Maschinen‘ etwas gewonnen wird? Gibt es technische Systeme, die keine Maschinen sind? Was ist mit hochentwickelten Landwirtschaften, wie sie sich in der Zeit islamischer Besetzung in Spanien um und vor +1000 fanden: komplexe Bewässerungssysteme, komplexe Architektur, komplexe Organisationsformen machten aus Spanien eine blühende und fruchtbare Landschaft. Ist das auch Technologie, und dann sogar im eminenten Sinne soziotechnisch‘? Was ist mit den großartigen Bibliotheken in der Hochblüte des Islams mit vielen hundert Tausend Büchern? Was ist mit der Seeschifffahrt durch die letzten Jahrtausende, die Städte, den Bauwerken, den Straßen und Brücken, den … ? Der Begriff ‚technisches System‘ ist nicht besonders klar, genauso wenig der Begriff ‚Maschine‘. Wie ein kurzer Blick in die englische Wikipedia zeigt [8], hat der Begriff eine lange Geschichte mit einem starken Bedeutungswandel, der die Spuren vielfältiger kultureller Entwicklungen in sich aufgenommen hat. Welche Typen von Maschinen meinen die Autoren?

Durch die Kombination von ‚Maschine‘ und ‚Akteur‘ kommt auf jeden Fall eine besondere Note ins Spiel, da der Begriff des ‚Akteurs‘ — in sich auch nicht klar definiert! — die unscharfe Vorstellung assoziiert, dass damit ein ‚System‘ gemeint sein könnte, das ‚(selbständig?) handeln‘ kann — was immer genau ‚(selbständig) handeln‘ heißen mag –.

Im Englischen meint ‚Akteur‘ als ‚actor‘ schlicht Menschen, die als Schauspieler in einem Stück handeln [9]. Sie handeln aber tatsächlich nur partiell ’selbständig, aus sich heraus‘, insofern sie das vorgegebene Drehbuch zwar in den groben Linien ’nachspielen‘, im Detail der Rolle aber mit ihrem realen Verhalten diese Rolle ‚modifizieren‘ können; in der Art und Weise dieses ‚Modifizierens einer Rolle‘ meinen viele erkennen zu können, ob es sich um einen ‚großen Schauspieler‘ handelt.

In neueren technischen Kontexten gibt es viele Standards, u.a. auch UML (Unified Modeling Language). [10] In UML wird für den Bereich der Programmierung das Zusammenspiel, die Interaktion verschiedener ‚Rollen‘ in einem Interaktionsfeld strukturiert beschrieben. ‚Akteure‘ (‚actors‘) sind dann jene abgrenzbare Größen, die Ereignisse aus der Umgebung (Input) aufnehmen, wie auch auf die Umgebung durch Reaktionen (Output) reagieren können.[11]

Viele andere sprachliche Verwendungszusammhänge mit dem Begriff ‚Akteur‘ sind bekannt. Die Autoren bieten dazu keine Erläuterungen, weder für die Frage, warum sie den allgemeinen Begriff des ‚technischen Systems‘ auf ‚Maschinen als Akteure‘ einschränken noch, welche Art von ‚Akteuren‘ sie genau meinen.

Teilweise Algorithmisiert

Der heutige Begriff des ‚Algorithmus‘ im Kontext von programmierbaren Maschinen [12] hat eine lange Vorgeschichte im Kontext der Mathematik (von heute aus ca. 4.500 Jahre rückwärts), wird aber seit der Verfügbarkeit von real programmierbaren Maschinen (‚Computern‘) seit ca. 1930 vornehmlich für jene Befehlslisten verwendet, mit denen programmierbare Maschinen gesteuert werden.[13] Der Ausdruck der Autoren, dass ’soziale Interaktionen‘ ‚teilweise algorithmisiert‘ sind, wirft von daher mindestens eine Frage auf: Was an einer sozialen Interaktion soll algorithmisiert‘ sein, wenn doch nach allgemeinem Verständnis nur programmierbare Maschinen von einem Algorithmus gesteuert werden können?

Nehmen wir an, dass hier soziotechnische Systeme gemeint sind, die — vereinfachend — aus Akteuren bestehen, die sowohl biologische und nicht-biologische Systeme sein können. Im angenommenen Fall sind diese Akteure auf der einen Seite weiter spezialisiert zu ‚biologischen System‘, die ‚Homo sapiens Exemplare‘ darstellen, und auf der anderen Seite ‚programmierbare Maschinen‘. Von den programmierbaren Maschinen ist bekannt, dass sie — per Definition — über ein ‚Programm‘ verfügen können, das die Eigenschaften eines ‚Algorithmus‘ besitzt. In einer ‚Interaktion‘ zwischen Homo sapiens Akteuren und programmierbaren Maschinen würden — Annahme — die Homo sapiens Akteure so handeln, wie sie immer handeln: Bezugnehmend auf ihre Wahrnehmung der Umgebung würden sie auf der Basis der bis dahin erworbenen Erfahrungen und aktuellen Motivationslagen auf diese Umgebung reagieren; dieses ‚Muster‘ von ‚Wahrnehmung + innere Zustände + Reagieren‘ würde dann einen groben Rahmen für den Begriff einer ‚Handlung‘ zur Verfügung stellen, die bezogen auf eine Situation mit einem anderen Akteur als ‚Gegenüber‘ dann als ‚Interaktion‘ bezeichnet werden könnte. [14] Jede Art von ‚Interaktion‘ in dieser Sicht wäre ‚allgemein hybrid‘, sofern das ‚Gegenüber‘ zu einem Homo sapiens Exemplar nicht wieder ein anderes Homo sapiens Exemplar wäre, also allgemein ‚kein biologisches System‘! Insofern ‚programmierbare Maschinen‘ sehr spezielle Formen von Maschinen — und generell von technischen Systemen — darstellen, die in er ‚Rolle eines Akteurs‘ auftreten können, hätten wir das Muster einer ‚allgemein hybriden‘ Interaktion, die sich zunächst nicht von irgendwelchen anderen Interaktionen des Homo sapiens Exemplars mit irgendwelchen nicht-biologischen Systemen unterscheidet.

An dieser Stelle könnte man dann die Frage stellen, ob und wie die Interaktion eines Homo sapiens Exemplars mit einer programmierbaren Maschine irgendwelche Besonderheiten aufweisen kann verglichen mit einer ‚allgemein hybriden Interaktion‘?

Nach diesen ersten Fragen an die Autoren hier die Interpretation, die die Autoren selbst zu ihrer Definition geben.

Def. 2: Soziotechnisches System

Interessant ist die Formulierung „… verstehen wir unter einem soziotechnischen System ein komplexes Gefüge, welches Menschen, Hard- und Software, organisationale und soziale Prozesse für gegebene Aufgaben oder Ziele miteinander interagieren lässt.“

Das zuvor ermittelte Schema von zwei Akteuren unterschiedlicher Art (biologisch und nicht-biologisch, im letzteren Fall ‚programmierbare Maschinen‘), wird hier in einem Bündel von vier Faktoren gesehen: (i) Menschen, (ii) Hard- und Software, (iii) ‚organisationale und soziale Prozesse‘, sowie (iv) ‚Aufgaben und Ziele‘. Diese vier Faktoren sind dynamisch so verknüpft, dass es ‚Aufgaben und Ziele‘ sind, bezogen auf diese die anderen drei Faktoren in Wechselwirkungen treten. Normalerweise würde man annehmen, dass es die Interaktionen von ‚Menschen‘ einerseits und ‚Hard- und Software‘ andererseits sind, durch die ‚Prozesse‘ stattfinden. In der Formulierung der Autoren liest es sich aber so, als ob ‚organisationale und soziale Prozesse‘ einen eigenständigen Faktor neben ‚Menschen‘ und ‚Hard- und Software‘ bilden, und zwar so, dass alle drei Faktoren interagieren. Also, ein ‚Prozess‘ interagiert mit einem Menschen oder einer Hard- und Software und umgekehrt. Eine sehr ungewöhnliche Vorstellung.

In einem sehr verbreiteten Verständnis von ‚Prozess‘ [15] ist ein Prozess eine Serie von Aktivitäten, die ineinandergreifen, um ein ‚Ergebnis‘ zu produzieren. Je nach Kontext (Disziplin, Anwendungsbereich) können die Aktivitäten sehr unterschiedlich aussehen, ebenso das erzielte Ergebnis.[15] Ergänzend ist es ein verbreitetes Verständnis von ‚Aktion’/’Aktivität‘, dass es sich um ein Ereignis handelt, das von einem ‚Agenten’/ ‚Akteur‘ für eine bestimmte ‚Absicht’/ ‚Ziel‘ herbeigeführt wird, das ‚in‘ dem handelnden Akteur ‚verankert‘ ist. [16]

In diesem Verständnishorizont sind es also Agenten/ Akteure, die unter dem Einfluss von Zielen bestimmte Ereignisse erzeugen — als handeln, indem sie Aktionen ausführen –, die zusammen genommen als ein ‚Prozess‘ verstanden werden können. In diesem Sinne sind ‚Prozesse‚ keine ’normalen Objekte‘ der realen Welt sondern begriffliche Konstrukte, die sich in den Köpfen von Akteuren bilden können, um eine Folge von konkreten Ereignissen — stark abstrahierend — als einen ‚Prozess‘ zu verstehen. Von einem ‚Prozess‘ zu sprechen verlangt daher von den Beteiligten, sich jeweils darüber zu vergewissern, welche Abfolge von Ereignissen (Handlungen) zum aktuellen Begriff eines Prozesses gehören sollen.

Bemerkenswert ist auch, dass die Ziele — die intendierten Ergebnisse — ebenfalls nicht als ’normale Objekte‘ vorkommen, sondern primär ‚in den Akteuren‘ verankert sind, und es eine der schwierigsten Aufgaben in jedem Prozess ist, zwischen allen beteiligten Akteuren zu klären, was man unter dem ‚gemeinsamen‘ Ziel — eventuell individuell ganz unterschiedlich gedacht — so zu verstehen hat, dass es zwischen allen Beteiligten ‚klar genug‘ ist. [17] Da Ziele keine realen Objekte sind, sondern immer nur ‚innere Objekte‘ der Akteure, ist eine vollständige Klärung der ‚gemeinten Bedeutung‘ generell nur annäherungsweise über aufzeigbare Beispiele möglich.

Versucht man der Intention der Autoren zu folgen, dann wären Prozesse Entitäten, die mit Menschen und/oder Hard- und Software interagieren können. Hierin klingt irgendwie an, als ob Prozesse soziale Realitäten sind, die als solche greifbar sind und mit denen Menschen interagieren können so wie mit anderen Gegebenheiten. Da die Autoren den Begriff der ‚Interaktion‘ bzw. der ‚Aktion‘ bislang nicht geklärt haben, bleibt der Versuch des Verstehens an dieser Stelle ‚mit sich alleine‘.

Im Lichte eines verbreiteten Verständnisses sind Prozesse höchstens in einem sehr abstrakten Sinne ’soziale Realitäten‘, die mit Menschen sowie Hard- und Software ‚interagieren‘. Nehmen wir z.B. einen beliebigen Planungsprozess in einer Firma oder einer Behörde. Ein Chef kann z.B. einen Mitarbeiter davon in Kenntnis setzen, dass er ab morgen in dem Planungsprozess Px mitarbeiten soll. Damit wird der Mitarbeiter Mitglied der Projektgruppe PGx zum Planungsprozess Px. Als Mitglied der Projektgruppe startet für das neue Mitglied ein Kommunikationsprozess, innerhalb dessen er sich ein ‚inneres Bild‘ von dem Projekt und seinen Aufgaben machen kann. In dem Maße, wie der Mitarbeiter aufgrund seines ‚inneren Bildes‘ versteht, was genau seine Aufgaben mitsamt einem spezifischen Aufgabenumfeld sind, kann der Mitarbeiter anfangen, ‚etwas zu tun‘, d.h. er kann ‚gezielt Handlungen vornehmen‘. Im ‚Stattfinden‘ seiner Handlungen und durch die möglichen ‚erfahrbaren Resultaten‘ können die anderen Mitglieder der Projektgruppe ‚wahrnehmen‘, was der neue Mitarbeiter tut und sie können die neuen ‚Wahrnehmungen‘ mit ihrem ‚inneren Bild des Projektes‘ ‚abgleichen‘: passen die Handlungen und Ergebnisse des neuen Mitarbeiters zu ‚ihrem inneren Bild‘ des Prozesses?

Im Lichte dieses Beispiels würde das Konzept einer ‚Interaktion zwischen Menschen und einem Prozess‘ letztlich zurück übersetzt werden müssen zu einer ‚Interaktion zwischen Menschen‘, da ein Prozess niemals als solcher als ein ‚erfahrbares Objekt‘ existiert, sondern immer nur als ‚abstraktes Konzept‘ im ‚Innern von Menschen‘, die über Kommunikation verbunden mit Handlungen und aufzeigbaren Artefakten miteinander interagieren. Kann man solchen Kommunikationen und Interaktionen mit Artefakten ein gewisses ‚Format‘ zuordnen, dann sprechen wir von einem ‚Prozess‘, der durch Akteure — hier Menschen — in einer Abfolge typischer Handlungen ’stattfindet‘.

Def. 2*: Soziotechnisches System

An dieser Stelle des Rekonstruktionsversuchs würde man die Formulierung der Autoren wie folgt ‚um-formulieren‘ können: „… verstehen wir unter einem soziotechnischen System ein komplexes Gefüge bestehend aus Menschen und Hard- und Software, die aufgrund von akzeptierten Zielen so miteinander interagieren können, dass organisationale und soziale Prozesse stattfinden, die zu Änderungen in der bestehenden Umgebung führen können.

Möglicherweise meinen die Autoren auch, dass die Tatsache, dass eine Gruppe von Menschen aufgrund von festgelegten Zielen längere Zeit in einem bestimmten Format miteinander so interagieren, dass andere dieses Vorgehen ‚in ihrem Innern‘ als ein ‚Prozess‘ erkennen, und diese ‚Wahrnehmung und Interpretation‘ für die ‚Beobachter‘ eine irgendwie geartete ‚Wirkung entfaltet, dass solch eine ‚Wirkung im Innern‘ als ‚Teil einer Interaktion‘ der Beobachter mit dem beobachtbaren Prozess verstanden werden kann. Eine solche Ausweitung der Bedeutung von normalen ‚Wahrnehmungsprozessen‘ zu ‚Interaktionsprozessen‘ würde aber für eine Analyse wenig attraktiv erscheinen.

Der Ausdruck ‚Gefüge‚, den die Autoren benutzen, klingt ein wenig ‚altmodisch‘. Nach mehr als 100 Jahren diverse Strukturwissenschaften sollte man das Wort ‚Gefüge‘ doch vielleicht eher durch den Ausdruck ‚Struktur‚ ersetzen. [18] Eine ‚Struktur‘ liegt vor, wenn man verschiedene Komponenten unterscheiden kann, hier z.B. ‚Menschen‘ und ‚Hard- und Software‘, und diese Komponenten können in Form ‚typischer‘ Handlungen miteinander interagieren, also etwa

SOZIOTECHNISCHES SYSTEM (ST) gdw ST = <Menschen, Hard-/Software, …, Interaktionen, …>

Die Elemente ‚Absicht‘, ‚Ziel‘, ‚inneres Bild von…‘ usw. würden dann in einer eigenständigen Sub-Struktur ‚Mensch‘ oder ‚menschlicher Akteur‘ verortet, da ein Mensch als eine ‚eigenständige Struktur‘ aufgefasst werden kann, etwa:

MENSCH(M) gdw M = <Bilder, Ziele, …, Handlungen, …>

Die beiden Strukturen ST und M würden sogar eine kleine ‚Hierarchie‚ bilden: die Struktur M wäre eingebettet in die Struktur ST.

Offen ist dabei noch, in welchen Sinne ‚Hard- und Software‘ überhaupt interagieren können.

Def 3: Prozesse sozialer Interaktion

sind sich dynamisch ändernde Abfolgen sozialer Aktionen zwischen Individuen und/oder Gruppen.

Die Unklarheit, die durch Def. 2 noch darin gegeben war, als ob ‚organisationale und soziale Prozesse‘ quasi ‚gleichberechtigte‘ Faktoren neben Akteuren, Hard- und Software sind, wird durch Def. 3 aufgehoben. In der Formulierung von Def. 3 sind ‚Prozesse sozialer Interaktion‘ ‚Abfolgen sozialer Aktionen‘, die ‚zwischen Individuen und/oder Gruppen‘ stattfinden, und die sich ‚dynamisch ändern‘ können. Diese Lesart entspricht weitgehend dem Formulierungsvorschlag Def 2*.

Def. 4: Hybridität

Unter ihrer Hybridität schließlich verstehen wir, dass an diesen Prozessen inhärent sowohl maschinelle als auch menschliche Akteure wesentlich beteiligt sind.

Anders formuliert sagen die Autoren, dass ‚Prozesse sozialer Interaktion‘ dann hybrid sind, wenn in solchen Prozessen sowohl ‚maschinelle als auch ‚menschliche Akteure‘ beteiligt sind.

Mit Blick auf die Diskussion zum Ausdruck ‚hybrid‘ im Anschluss an Def. 1 beschränkt sich die Formulierung von Def. 4 zunächst darauf, nur zu fordern, dass im Rahmen von ‚Prozessen sozialer Interaktionen‘ neben dem Akteurstyp ‚Mensch‘ auch der Akteurstyp ‚Maschine‘ vorkommt. Wie solch eine Interaktion aussieht, welche Eigenschaften sie auszeichnen, bleibt hier noch offen. In der vorausgehenden Diskussion war ja schon thematisiert worden, dass menschliche Akteure andere nicht-menschliche Mittel — also auch Maschinen (welche Typen von Maschinen?) — ‚unwesentlich‘ benutzen können. Damit war gemeint, dass man zwar eine programmierbare Maschine (Computer) zum ‚Text schreiben‘ benutzen kann, dass der Computer hier aber keine ‚wesentliche‘ Rolle spielt; er macht das Erstellen von Texten vielleicht ‚einfacher‘, wäre aber generell nicht notwendig.

Den folgenden Text kann man grob als eine Serie von ‚Annahmen‘ über die Wirklichkeit bezeichnen, vermischt mit impliziten Folgerungen, in denen die bisherige Einleitung weiter ausdifferenziert wird.

Ziel der Diskussion bleibt es, zu klären, wie sich das Konzept der ‚kollektiven Mensch:Maschine Intelligenz‘ aus dem oksimo Paradigma zum Konzept der ‚Sozialen Maschine‘ verhält.

ANNAHME-Hybridisierung 1

Die Autoren benennen drei Komponenten ‚Webtechnologie‘ — mit dem Attribut ‚mobil‘ ergänzt –, ‚lernende Bots‘ und ‚KI‘, wodurch „Sozialität und Maschine“ zunehmend verschmelzen. Daraus ziehen sie den Schluss: „Die menschlichen und nichtmenschlichen Komponenten der Social Machine sind folglich immer schwerer voneinander zu unterscheiden und zu trennen, was als paradigmatischer Trend zur fortschreitenden Hybridisierung der Social Machine bezeichnet werden kann“.

Der Kern der Schlussfolgerung fokussiert in der Idee, dass der „Trend zur fortschreitenden Hybridisierung“ offensichtlich sei.

Wenn nach Def. 4 von den Autoren festgehalten wird, dass man unter „Hybridität“ verstehen sollte, „dass an diesen Prozessen inhärent sowohl maschinelle als auch menschliche Akteure wesentlich beteiligt sind“, dann fragt man sich, was man sich unter dem ‚Fortschreiten einer Hybridisierung‘ verstehen soll. Die bloße Vermehrung der ‚Anzahl‘ der beteiligten Faktoren ‚Menschen‘ oder ‚Maschinen‘ kann es wohl nicht sein. Zumindest gibt die Def. 4 dies nicht her.

Die Autoren sprechen vor ihrer Schlussfolgerung davon, dass „Sozialität und Maschine zunehmend verschmelzen„. Dies kann man so interpretieren, dass die ‚fortschreitende Hybridisierung‘ zusammenhängt mit einer ‚Verschmelzung‘ von Sozialität und Maschine. Der Ausdruck ‚verschmelzen‘ wurde von den Autoren zuvor nicht eigens definiert. Die eher sprachliche Deutung von ‚Verschmelzung‘ von Worten scheint nicht gemeint zu sein.[19] Der bedeutungsnahe Ausdruck ‚Fusion‘ bietet eine Vielzahl von Varianten. [20] Welche Variante meinen die Autoren. Dass so ungleiche Wirklichkeiten wie ‚Sozialität‘ und ‚Maschinen‘ ‚verschmelzen‘, dafür fehlt jeglicher Ansatzpunkt einer sinnvollen Interpretation.

Um dieses Dilemma aufzulösen könnte der Ausdruck „… sind folglich immer schwerer voneinander zu unterscheiden und zu trennen …“ einen Hinweis liefern. Wenn man das ‚unterscheiden‘ und ‚trennen‘ nicht auf reale Sachverhalte — wie Sozialität und Maschine — bezieht sondern auf die ‚Verarbeitung von Sinneseindrücken im Innern des Menschen‘, dann könnte man sich eine Interpretation vorstellen, in der durch die Art und Weise, wie Sozialität und Maschine in der Umwelt ‚vorkommen‘, im menschlichen Akteur ‚Vorstellungen‘ auslöst, in denen das menschliche Denken eine klare Unterscheidung immer weniger leisten kann. Dann wäre die angenommene Verschmelzung der Autoren ein rein kognitives/ mentales Problem der menschlichen Akteure, die sich in Interaktion mit einer Umwelt befinden, in der mindestens Menschen und Maschinen vorkommen, aber auf eine Weise, die eine klare Unterscheidung kognitiv/ mental schwer macht.

Dies führt zu folgendem Formulierungsvorschlag:

ANNAHME-Hybridisierung 1 *

Meine Formulierung würde dann lauten: „Menschliche und nichtmenschliche Akteure (hier Maschinen) können in einer Weise in der Umwelt vorkommen, dass es für die beteiligten Menschen in ihren mentalen/ kognitiven Bildern von der Welt immer schwerer wird, diese Akteure klar voneinander zu unterscheiden und zu trennen.

Zu beachten ist auch, dass die Autoren zu Beginn des Abschnitts von drei unterschiedlichen Komponenten sprechen (‚Webtechnologie‘ — mit dem Attribut ‚mobil‘ ergänzt –, ‚Bots‘ und ‚KI‘), die im Gefolge dann offensichtlich dem Ausdruck ‚Maschine‘ zugeschlagen werden. Der Ausdruck ‚Maschine‘ wurde aber bislang nicht wirklich definiert. Auch sei der Ausdruck ‚Hard- und Software‘ erinnert, der in Def. 2 von den Autoren benutzt wird. Nach den Kontexten gehört dieser auch in das Bedeutungsfeld ‚Maschine‘, so wie es die Autoren praktizieren. Halten wir an dieser Stelle fest:

Def. 5 Maschine (indirekt abgeleitet):

Für die Autoren repräsentieren die Ausdrücke ‚Hard- und Software‘, ‚Webtechnologie (mit Aspekten der ‚Mobilität‘), ‚lernende Bots‘ und ‚KI‘ Aspekte des Bedeutungsfelds ‚Maschine‘, wie es im Kontext der Begriffe ’soziotechnisches System‘ bzw. ‚Soziale Maschine‘ implizit angenommen wird.

In der ‚realen Welt‘ beschreiben die aufgelisteten Ausdrücke (‚Hard- und Software‘, ‚Webtechnologie (mit Aspekten der ‚Mobilität‘), ‚lernende Bots‘ und ‚KI‘ ) ganz unterschiedliche Sachverhalte, deren Verhältnis zueinander keinesfalls trivial ist. Dies sei hier ganz kurz angedeutet:

Webtechnologie, Mobil, Hard- und Software

Der Begriff ‚Webtechnologie‚ ist in sich eher unklar, was mit dem unklaren Begriff ‚Web‚ zusammenhängt. Die englische Wikipedia listet mögliche Bedeutungsvarianten auf und verweist bei ‚web‘ auch auf das ‚World Wide Web [WWW]‘.[21] Die wichtige Botschaft ist [22], dass das WWW nicht das Internet ist, sondern das Internet als Basistechnologie voraussetzt. Das WWW selbst ist eine reine Softwareangelegenheit, wodurch es möglich ist, mittels eines speziellen Adresssystems (URLs) Signale zwischen diesen Adressen hin und her zu schicken. Die Art und Weise, wie dieser Signalaustausch formal stattfinden soll, regelt ein ‚Protokoll‘ (das ‚Hypertext Transfer Protocol‘ [HTTP]; mit zusätzlicher Sicherheit als HTTPS). Auf Seiten der Anwender benötigt man dazu eine Software, die ‚Browser‚ genannt wird, und innerhalb des Internets benötigt man einen Server, auf dem eine Software läuft, die ‚Webserver‚ genannt wird. Die ‚Mobilität‘ des WWW ist keine direkte Eigenschaft des WWW selbst sondern ergibt sich aus veränderten technischen Bedingungen des vorausgesetzten Internets: mobile Endgeräte, auf denen eine Browser Software installiert ist, erlauben eine Kommunikation innerhalb des WWWs.[23] Während das WWW eine reine Software ist, kann man fragen, was denn dann mit ‚Webtechnologie‘ gemeint sein soll? Wenn mit ‚Webtechnologie‘ auch ‚Software‘ gemeint ist, dann wäre der Begriff ‚Technologie‘ stark ausgeweitet. Das ‚Internet‘ — eine spezielle Kombination aus Hardware und Software — wird als ‚Netzwerk von Netzwerken‘ gesehen, innerhalb dessen ganz unterschiedliche Kommunikationsprotokolle am Werk sind, die ganz unterschiedliche Informationsquellen und Dienste ermöglichen. Das WWW ist eine Komponenten unter vielen.[24] Mit ‚Netzwerk‚ ist in diesem Kontext ein ‚Computernetzwerk‚ gemeint. Es besteht aus unterschiedlichen ‚Computern‚, die über geeignete ‚Verbindungen‘ und ‚Verbindungstechnologien‘ miteinander so verknüpft sind, dass Signalpakete entsprechend vereinbarten Protokollen hin und her gesendet werden können. Computer verstehen sich hier immer als Kombinationen aus Hard- und Software.[25] Als umfassender Begriff für die Vielfalt der Technologien und Anwendungen, die durch das ‚Internet‘ möglich sind, gibt es schon sehr früh — zumindest im Englischen Sprachraum — den Begriff ‚Cyberspace‚.[26]

Lernende Bots

Generell gibt es verschiedene Typen von bots. [27] Im allgemeinen ist ein bot im Internet eine Softwareanwendung, die automatisch bestimmte Aufgaben ausführt.[28] Wikipedia selbst benutzt z.B. über 2500 Wikipedia-typische Bots, um die mehr als 54 Mio. Wikipedia-Seiten zu verwalten.[29] Für die Interaktion mit Menschen gibt es u.a. den Typ des ‚Chatbots‘ [30]: die Software eines Chatbots versucht das Verhalten von Menschen anzunähern. Dies gelingt bislang aber nicht wirklich gut.[30] Ein spezielles, aber schon viele Jahre andauerndes Einsatzfeld von künstlicher Intelligenz Techniken sind Computerspiele, in denen ‚Nicht-Spieler Charaktere‘ (’non-player characters‘ [NPCs) das Spielgeschehen anreichern. Diese erledigen sehr vielfältige Aufgaben und sind keineswegs mit einem ‚menschenähnlichen‘ Spielcharakter zu vergleichen.[31] Insgesamt ist der Begriff ‚lernend‘ im Kontext von ‚Bots‘ generell sehr unscharf: einmal, weil der Ausdruck ‚bot‘ nicht einheitlich definiert ist, und zum anderen, weil der Begriff ‚lernend‘ im Kontext von ‚Künstlicher Intelligenz [KI]‘ bzw. ‚Maschinellem Lernen [ML]‘ keinesfalls klar ist. Das Feld ist zu uneinheitlich. [32]

KI (Künstliche Intelligenz)

Der Ausdruck ‚KI‘ — Abkürzung für ‚Künstliche Intelligenz‘ (heute oft auch einschränkend ‚ML‘ für maschinelles Lernen) — bezeichnet ein Teilgebiet der Informatik, das bislang keine klare Definition bietet, da schon der Begriff der ‚Intelligenz‘ selbst nicht klar definiert ist.[32], [33] Aufgrund der Unklarheit im Zusammenhang mit dem Begriff der ‚Intelligenz‘ bei biologischen Systemen — obgleich es hier einige Definitionen gibt, die für eingeschränkte Bereiche sehr brauchbar sind — versucht die Englischsprachige Informatik das Problem dadurch zu lösen, dass sie den Begriff AI nur für den Bereich nicht-biologischer Systeme — hier speziell für programmierbare Maschinen — definieren will. Programmierbare Maschinen mit KI können sowohl ihre Umwelt partiell wahrnehmen als auch dann — meist unter Zuhilfenahme systeminterner Zustände — wieder auf die Umwelt reagieren. Zusätzlich wird für solche Systeme mit künstlicher Intelligenz postuliert, dass sie ‚Zielen (‚goals‘) folgen können.[34]

Diese scheinbare Erleichterung, sich vom ursprünglichen Phänomenfeld der Intelligenz bei biologischen Systemen abzukoppeln, weil eine befriedigende Definition von Intelligenz hier schwierig ist, hat aber tatsächlich zu keiner befriedigenden Situation geführt. Sowohl der Intelligenzbegriff eingeschränkt auf programmierbare Maschinen ist heute nicht wirklich klar, noch ist es bislang möglich, zwischen dem Verhalten biologischer und nicht-biologischer Systeme dadurch eine brauchbare Verhältnisbestimmung aufzubauen. Dies führt dann z.T. zu der bizarren Situation, dass spezielle Leistungen von programmierbaren Maschinen für Bereich X, wo Maschinen dem Menschen überlegen sind, als generelle Aussage über das Verhältnis von Maschinen und Menschen benutzt werden, ohne dass man jene Bereiche, in denen biologische Systeme den programmierbaren Maschinen haushoch überlegen sind, überhaupt noch thematisiert. Es ist dem ai100-Report zu verdanken, dass er neu darauf aufmerksam macht, dass es durch diese asymmetrische Diskussion bislang unmöglich ist, genauer zu bestimmen, wie maschinelle Intelligenz der menschlichen Intelligenz konstruktiv unterstützen könnte.[32]

FORTSETZUNG folgt…

ANMERKUNGEN

Hinweis: Wenn in den Anmerkungen Quellen aus dem Internet angegeben werden, dann ergibt sich die Zeit des letzten Aufrufs aus dem Datum der Abfassung dieses Beitrags, die im Kopf des Artikels angegeben ist.

[1] Dazu gibt es einige Beiträge in diesem Philosophie-Jetzt- Blog, und in zwei anderen Blogs uffmm.org mit dem Schwerpunkt ‚Theorie‘ und dem Blog oksimo.org mit dem Schwerpunkt ‚Anwendungen‘.

[2] Claude Draude · Christian Gruhl · Gerrit Hornung · Jonathan Kropf · Jörn Lamla · JanMarco Leimeister · Bernhard Sick · Gerd Stumme , 2021, „Social Machines„, Informatik Spektrum, https://doi.org/10.1007/s00287-021-01421-4, Springer

[3] Social Machine, Wikipedia [EN]: https://en.wikipedia.org/wiki/Social_machine

[4] Berners-Lee, Tim; J. Hendler (2009). „From the Semantic Web to social machines: A research challenge for AI on the World WideWeb“ (PDF). Artificial Intelligence. 174 (2): 156–161. doi:10.1016/j.artint.2009.11.010.

[5] Markus Luczak-Roesch, Ramine Tinati, Kieron O’Hara, Nigel Shadbol, (2015), Socio-technical Computation, CSCW’15 Companion, March 14–18, 2015, Vancouver, BC, Canada. ACM 978-1-4503-2946-0/15/03, http://dx.doi.org/10.1145/2685553.2698991

[6] Luczak-Roesch, M.; Tinati, R.; Shadbolt, N. (2015). When Resources Collide: Towards a Theory of Coincidence in Information Spaces (PDF). WWW 2015 Companion. ACM. pp. 1137–1142. doi:10.1145/2740908.2743973. ISBN9781450334730. S2CID17495801.

[7] Cristianini, Nello; Scantamburlo, Teresa; Ladyman, James (4 October 2021). „The social turn of artificial intelligence“ (PDF). AI & Society: 0. doi:10.1007/s00146-021-01289-8.

[8] Der Begriff ‚machine‘ (Maschine) in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Machine

[9] Der Begriff ‚actor‘ in der Wikipedia [EN] für die Rolle des Schauspielers: https://en.wikipedia.org/wiki/Actor

[10] Der Begriff ‚UML (Unified Modeling Language)‘ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Unified_Modeling_Language

[11] Der Begrifff ‚actor‘ in der Wikipedia [EN] im Rahmen des technischen Standards UML: https://en.wikipedia.org/wiki/Actor_(UML)

[12] Nicht alle Maschinen sind programmierbar, können aber meistens — im Prinzip — nach Bedarf mit programmierbaren Maschinen erweitert werden.

[13] Der Begriff ‚algorithm‘ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Algorithm

[14] Wenn man den Begriff ‚Interaktion‘ auf solche Situationen beschränken würde, in denen ein Homo sapiens Akteur mit einem anderen Akteur (biologisch oder nicht-biologisch) handelt, dann würde es auch Handlungen geben, die keine typische Interaktion mit anderen Akteuren repräsentieren, z.B. wenn ich einen Kaffee oder Tee oder … trinke, oder ich esse einen Apfel, ich fahre mit dem Fahrrad, ….

[15] Der Begriff ‚process‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Process

[16] Der Begriff ‚activities‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Action_(philosophy)

[17] Im Systems Engineering wird dieser Sachverhalt als ’semantic gap‘ bezeichnet, siehe z.B.: Doeben-Henisch, G., Wagner, M. [2007] Validation within Safety Critical Systems Engineering from a Computation Semiotics Point of View, Proceedings of the IEEE Africon2007 Conference, ISBN 0-7803-8606-X, Paper-ID 701

[18] Der Begriff ‚structure‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Structure

[19] Der Ausdruck ‚Verschmelzung‚ in der Wikipedia [DE]: https://de.wikipedia.org/wiki/Verschmelzung_(Grammatik)

[20] Der Ausdruck ‚Fusion‚ in der Wikipedia [DE]: https://de.wikipedia.org/wiki/Fusion

[21] Der Ausdruck ‚web‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Web

[22] Der Ausdruck ‚World Wide Web‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/World_Wide_Web

[23] Der Ausdruck ‚mobile‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Mobile

[24] Der Ausdruck ‚Internet‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Internet

[25] Der Ausdruck ‚Computer network‘ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Computer_network

[26] Der Ausdruck ‚cyberspace‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Cyberspace

[27] Der Ausdruck ‚bot‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Bot

[28] Der Ausdruck ‚Internet bot‘ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Internet_bot

[29] Der Ausdruck ‚bots‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Wikipedia:Bots

[30] Der Ausdruck ‚chatbot‚ in der Wikipedia [EN] : https://en.wikipedia.org/wiki/Chatbot

[31] Der Ausdruck ‚Artificial intelligence in video games‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Artificial_intelligence_in_video_games

[32] Michael L. Littman, Ifeoma Ajunwa, Guy Berger, Craig Boutilier, Morgan Currie, Finale Doshi-Velez, Gillian Hadfield, Michael C. Horowitz, Charles Isbell, Hiroaki Kitano, Karen Levy, Terah Lyons, Melanie Mitchell, Julie Shah, Steven Sloman, Shannon Vallor, and Toby Walsh. “Gathering Strength, Gathering Storms: The One Hundred Year Study on Artificial Intelligence (AI100) 2021 Study Panel Report.” Stanford University, Stanford, CA, September
2021. Doc: http://ai100.stanford.edu/2021-report. Report: https://ai100.stanford.edu/sites/g/files/sbiybj18871/files/media/file/AI100Report_MT_10.pdf

[33] Der Ausdruck ‚KI (Künstliche Intelligenz)‚ — auch ‚ML (Maschinelles Lernen)‘ in der Wikipedia [DE] : https://de.wikipedia.org/wiki/K%C3%BCnstliche_Intelligenz

[34] Der Ausdruck ‚Artificial intelligence [AI]‘ in der Wikipedia [EN] : https://en.wikipedia.org/wiki/Artificial_intelligence

Some Soundexperiment from the past …

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

DATENSOUVERÄNITÄT IM CYBERSPACE: Ein Widerspruch in sich?

Überlegungen aus Sicht der Informatik und Philosophie. Teil 1

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 26.November 2021, 02:24h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

KONTEXT

Der Autor dieses Textes ist Mitglied einer Forschungsgruppe zum Thema ‚Datensouveränität‘ [1], die Experten aus unterschiedlichen Disziplinen umfasst. Die Diskurse in dieser Projektgruppe waren bislang sehr spannend, anregend, zugleich aber auch durchgehend herausfordernd, weil das vielfältige Ringen um die Bedeutung und die Rolle des modernen juristischen Konzepts ‚Datensouveränität‘ mit jedem Antwortversuch zugleich wieder viele Fragen mit sich brachte. Er tat sich bislang schwer, von seiner Position aus einen begrifflichen Zugriff auf das Konzept ‚Datensouveränität‘ zu finden. Erst im Anschluss an eine — wieder sehr anregende — online Sitzung vom 24.November 2021 kamen ihm einige Ideen zum Thema. Er versucht im folgenden Text — dem möglicherweise noch weitere Texte folgen werden — diese Idee zu skizzieren. Es wird sich zeigen, ob aus diesen Reflexionen ein Diskurs entsteht, der auch für andere einen Einstieg in die Thematik ermöglicht.

PROBLEMSTELLUNG

Durch die Einbettung von Computern in Netzwerke und durch die zunehmend Verbreitung dieser Netzwerke als ‚Internet‚ — auch ‚Cyberspace‚ genannt — in die verschiedenen gesellschaftlichen Systeme weltweit, entstand ein hybrides System, in dem die bekannte ‚analoge Welt‚ mit der zugehörigen ‚analogen Welterfahrung‘, über ‚Schnittstellen‚ (‚Interfaces‚) mit dem neuen Cyberspace verbunden ist.

Aus Sicht der analogen Welt hat sich scheinbar kaum etwas verändert. Es gibt ein paar mehr ‚Geräte‚ (‚devices‚), die man im analogen Alltag nutzen kann, aber die Nutzung ähnelt dem Schreiben mit einer Schreibmaschine, oder dem Reden mittels Telefon, oder dem Fernsehen mittels Fernseher, oder — ja, das ist irgendwie neu — der Kombination von Schreibmaschine, Telefon und Fernseher. Und, ja, es gibt noch mehr neue Anwendungen, aber sind sie nicht alle letztlich ‚wie in der analogen Welt‘?

Für die meisten Menschen ohne explizites technisches Wissen erscheint der Cyberspace ‚eingehüllt‘ in Formate, die sich von der alltagsweltlichen Erfahrung möglichst wenig unterscheiden. Tatsächlich werden immer mehr Alltagshandlungen unter Zuhilfenahme der verfügbaren Cyberspace-Endgeräte so ausgeführt ‚als ob‚ man sie im Alltag wie gewohnt ausführt: man kann Geld abheben und überweisen, als ob man selbst bei der Bank war; man kann Texte schreiben und versenden, als ob man die alte Post benutzt; man kann Bücher bestellen und lesen, als ob man direkt im Buchladen oder der Bibliothek war und dann im Buch liest; man kann mit jemandem an einem anderen Ort ‚face-to-face‘ reden, als ob dieser jemand einem gerade gegenüber sitzt. Man kann innerhalb eines Freundeskreises jederzeit reden, als ob diese sich mit einem im gleichen Raum befinden …

War dieses ‚als ob‘ in der Frühzeit der Computer noch so umständlich, dass nur trainierte Experten in der Lage waren, direkt mit Computern und Computernetzwerke zu interagieren, so hat sich die Hardware und die Software von Computern und Netzwerken seit 1945 dermaßen weiter entwickelt, dass es für einen Menschen des Alltags heute kaum noch wahrnehmbar ist, dass er mittels eines Cyberspace-Endgerätes immer mehr ‚alltagsähnliche‘ (analoge) Handlungen vornimmt.

Und hier beginnt das Problem.

Die ‚wunderbare Leichtigkeit des Seins‘ in der Benutzung der modernen Cyberspace Endgeräte — und diese Nutzung wird kontinuierlich immer weiter ‚verbessert‘ — verdeckt eine technische Realität, die ganz anderen Regeln folgt als die bekannte analoge Welt. Jeder Versuch, diese ganz andere technische Realität mit den Bildern und Kategorien der analogen Alltagswelt zu ’sehen‘ und zu ‚interpretieren‘, führt unweigerlich in die Irre.

Ein prominenter und für einen ‚Rechtsstaat‘ substantieller Bereich ist der normativer Bereich, sind die Regeln der Verfassung, die verabschiedeten Gesetze und deren Anwendung und Auslegung im Alltag.

Diese normativen Regelungen entstammen der analogen Alltagswelt, orientieren sich an analogen ‚Alltagsmenschen‘ mit einem analog geprägten ‚Alltagsdenken‘ und ‚Alltagsempfinden‘. Ihre Begrifflichkeiten, ihre Bedeutungskonstrukte sind durch und durch auf ‚analoge Alltagsstrukturen‘ abgestellt.

Heute jedoch ist ein solches durch und durch ‚analoges Alltagsdenken‘ umschlungen von einem Cyberspace, der sich mittels Cyberspace-Endgeräten mit dem alltäglichen Handeln von Menschen verknüpft; im Wahrnehmen, Fühlen und Denken von Alltagsmenschen ist dieser Cyberspace real präsent, und bildet dadurch ein ‚Analogwelt-Cyberspace-Amalgam‚, das an seiner ‚Oberfläche‘ der analogen Alltagswelt ähnelt, in seiner inneren ‚impliziten Logik‘ aber immer mehr Eigenarten des Cyberspace in sich trägt, der nach ganz anderen Gesetzen als die analoge Alltagswelt funktioniert. Hierdurch findet — für die meisten kaum wahrnehmbar — eine reale ‚Mutation‘ des ‚Alltagsbewusstseins‘ statt: der reale analoge Mensch mit seinem realen analogen Gehirn trainiert sein Gehirn über sein hybrides Handeln und seine hybride Wahrnehmung immer mehr nach Gegebenheiten und Regeln des Cyberspace, die nicht die sind, die in der analogen Alltagswelt üblich sind.

Im Licht der Evolutionsbiologie könnte man sagen: ja, das ist eine weitere Stufe in der Evolution des Lebens auf der Erde.

Als Bürger einer demokratischen Gesellschaft muss man sich aber vielleicht fragen, was machen im Bewusstsein mutierte Bürger mit dem Konzept einer Demokratie, das im Kern auf einer gemeinsam geteilten Öffentlichkeit basiert, über die sich alle Bürger, alle politischen Handlungen soweit ‚synchronisieren‚ lassen, dass wir überhaupt von ‚Demokratie‚ sprechen können. Was passiert mit der Demokratie, mit ihrer ’normativen Ordnung‘, wenn die im Bewusstsein mutierten Bürger und ihre faktisch stattfindende Einbindung in eine ‚Cyberwirklichkeit‘ diese fundamentale Synchronisierung über eine demokratische Öffentlichkeit gare nicht mehr leisten können? Macht es dann noch Sinn von ‚Demokratie‘ und — dadurch impliziert — von ‚Datensouveränität‘ zu sprechen?

Fortsetzung ?

ANMERKUNGEN

[1] Siehe die Webseite https://zevedi.de/aktivitaeten/projekte/ und dort den Eintrag Projektgruppe „Datensouveränität“.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

Worte aufschreiben … sonst nichts …

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 15.November 2021 – 17.Nov 2021, 08:30h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

KONTEXT

In diesem Blog mit seinen geschätzten mehr als 6000 Seiten, die bislang geschrieben worden sind, fand — äußerlich betrachtet — ein einfacher Vorgang stand: es wurden ‚Worte aufgeschrieben‘. … sonst nichts …

Wären wir Maschinen …

Wären wir eine ‚Maschine‘, vielleicht sogar eine ‚intelligente Maschine‘, dann würden die maschinellen Strukturen uns vorgeben, ob wir schreiben, was und wie. Mit ein bisschen ‚künstlicher Intelligenz‘ könnten wir Datenquellen beimischen, ‚Variationen‘ einbauen, mit Satzformen ’spielen‘, und wir könnten vielleicht sogar den einen oder anderen Menschen verblüffen, bei ihm den Eindruck erwecken, hier schreibt ein Mensch.

Menschen brechen das Klischee

Menschen haben allerdings die Besonderheit, dass für sie die Ausdrücke einer Sprache — vornehmlich der ‚Alltagssprache‘ — nie isoliert stehen, sondern eingewoben sind in ein unfassbares Netzwerk von Eindrücken der Außenwelt, des eigenen Körpers, des eigenen ‚Inneren‘, eingebettet in eine Vielzahl von wahrnehmbaren Veränderungen … aber auch darüber hinaus: da das Gehirn sich selbst gegenüber weitgehend unbewusst arbeitet (was nicht gleichzusetzen ist mit ’sinnlos‘), sind die meisten Vorgänge ‚in uns‘ nicht bewusst zugänglich, obwohl sie für uns — soweit wir heute sehen — fundamental zu sein scheinen. Dazu gehört auch die Sprache mit ihrer ‚Bedeutungswolke‘.

Wenn Kinder in die Welt eintauchen …

Wenn Kinder in diese Welt ‚eintauchen‘, wenn sie anfangen, die Luft des Planeten zu atmen, den ‚Rausch ihrer Sinne‘ erleben, ihren eigenen Körper in einer ‚Wolke von Eindrücken‘ erspüren, dann formt das Gehirn aus all diesen Eindrücken, Muster, Abstraktionen, Kategorien als Teil assoziativer Netze, konnotiert mit einer Unzahl von Bedürfnissen und Gefühlen. Dies macht das Gehirn ‚voll automatisch‘, in ‚eigener Regie‘, folgt seiner ‚eingebauten Logik der Wahrscheinlichkeiten‘. So entsteht langsam aber stetig nicht nur ein unfassbares Netzwerk von verbundenen Ereignissen, sondern das Netzwerk wirkt wie ein ‚Bild‘, eine ‚Gesamtschau‘, wie ein ‚Modell‘ dessen ‚was ist‘: das virtuelle Bild einer Welt im Gehirn, die für das Kind, für uns, die ‚primäre Welt‘ ist.

Virtuelle Welt im Gehirn

Die Ausdrücke unserer Alltagssprache beziehen sich in ihrer ‚Bedeutungsdimension‘ ausschließlich auf diese ‚virtuelle Welt des Gehirns‘ als ‚ihrer Welt‘. Und — falls jemand darauf achtet — man kann leicht beobachten, dass die Ausdrücke der Alltagssprache meistens ‚Allgemeinbegriffe‘ sind (‚Haus‘, ‚Stuhl‘, ‚Auto‘, ‚Handy‘, ‚Tasse, …), wohingegen die Gegenstände in unserer realen Umgebung ‚konkret‘ sind, ’speziell‘, ‚einzigartig‘, usw. Wenn ich zu jemandem sage: „Kannst Du mir bitte meine Tasse rüber reichen“, dann kann das Wort (der Ausdruck) ‚Tasse‘ auf tausende verschiedene konkrete Objekte angewendet werden, in der aktuellen Situation aber — falls man über ein aktuelles ‚Situationswissen‘ verfügt — wissen alle Beteiligten, welche der vielen konkreten Gegenstände ‚meine Tasse‘ ist und genau dieses konkrete Objekt wird dann rüber gereicht.

Abstrakt – Konkret

Dies ist eines der vielen Geheimnisse von sprachlicher Bedeutung: die reale Welt um uns herum — die Alltagswelt — zeigt sich uns als eine ‚Meer an konkreten Eigenschaften‘, und unser Gehirn filtert daraus ‚Teilmengen‘ heraus, transformiert diese in einfache (abstrakte) Strukturen, die dann das ‚Baumaterial‘ für mögliche ‚abstrakte virtuelle kognitive ‚Objekte‘ sind. Das tieferliegende ‚Wunder‘ dieses Prozesses ist aber, dass das Gehirn in der Lage ist, zu späteren Zeitpunkten die ’neu erworbenen abstrakten Strukturen (Objekte)‘ auf einer unbewussten Ebene mit aktuellen sinnlichen Eindrücken so zu ‚vergleichen‘, dass es — einigermaßen — entscheiden kann, ob irgendwelche der aktuell sinnlich wahrgenommenen konkreten Strukturen zu irgendwelchen dieser neu erworbenen Strukturen ‚als Beispiel‘ passen! Also, auch wenn wir mittels Sprache immer nur mit Allgemeinbegriffen operieren können (eine geniale Erfindung), kann unser Gehirn jederzeit eine Beziehung des Allgemeinen zum aktuell sinnlich Besonderen herstellen. Es ist halt so ‚gebaut‘.[1]

Dies ist nur die ‚Spitze des Eisbergs‘ vom ‚Wunder des Gehirns‘. Wie man schon ahnen kann, gibt es ja noch die Dimension ‚der anderen Menschen‘ aus Sicht eines einzelnen Menschen.

Gehirn-Kooperationen

Man kann — muss — sich die Frage stellen, wie kann denn ein Gehirn im Körper eines Menschen A mit dem Gehirn im Körper eines Menschen B ‚kooperieren‘? Wie können beide ‚umeinander wissen‘? Wie kann das Gehirn von A, das seine eigene individuelle ‚Lerngeschichte‘ hat, seine ‚Inhalte‘ mit dem Gehirn von B ‚teilen‘?

‚Besoffen‘ vom Alltag mögen diese Fragen im ersten Moment sehr ‚künstlich‘ klingen, ‚unwirklich‘, vielleicht gar sinnlos: Reden wir nicht ständig miteinander? Tun wir denn nicht ständig etwas miteinander? Unterricht in Schulen? Projektarbeit in Firmen? Mannschaftssport? Management eines größeren Unternehmens? …

Der Verweis auf solche ‚Praxis‘ ersetzt aber keine Antwort auf die Frage. Der Alltag deutet nur an, ‚dass‘ wir es irgendwie können, sagt aber nichts darüber, warum und wie wir das können.

Offensichtlich benutzen wir sprachliche Ausdrücke, die wir ‚austauschen‘ (Sprechen, Schreiben, …). Wie oben schon angedeutet wurde, sind Ausdrücke nicht in eins zu setzen mit ihren Bedeutungen. Letztere sind ‚im‘ Sprecher-Hörer‘ lokalisiert, im jeweiligen Gehirn. Die moderne Forschung mit vielen Fachdisziplinen legt nahe, dass es koordinierende‘ Mechanismen gibt, wodurch zwei Gehirne sich für den Bereich der realen Außenwelt einigermaßen verständigen können, welche ‚Aspekte er realen Außenwelt‘ mit welchen Ausdrücken assoziiert werden. Und diese ‚Koordinierung‘ basiert nicht alleine auf den konkreten Aspekten der Außenwelt, sondern wesentlich auch auf jene ‚im Gehirn‘ anhand der Außenweltereignisse prozedural aufgearbeiteten Strukturen. Nur so kann Sprache zugreifen. Die wechselseitige Zustimmung, dass dies konkrete weiße, runde Ding da mit einer inneren Aushöhlung und einem Henkel die ‚Tasse von Gerd‘ ist, setzt also ziemlich viele ‚individuellen Lernprozesse‘ voraus, die sich in hinreichend vielen strukturellen Eigenschaften hinreichend stark ‚ähneln‘. Irrtum inbegriffen.

Fehleranfällige Kommunikation

Das alles erscheint bei näherer Betrachtung alles ’schwindelerregend komplex‘, aber nach vielen Millionen Jahren kontinuierlichen Veränderungen scheint es ‚einigermaßen‘ zu funktionieren. Allerdings weiß jeder aus seinem eigenen Alltag auch wie ‚fragil‘ solche Kommunikation ist. Selbst unter Paaren, die schon viele Jahre, gar Jahrzehnte, zusammen leben, können noch Irrtümer und Missverständnisse auftreten. Umgekehrt weiß jeder, wie aufwendig es ist, aus verschiedenen Menschen ein ‚Team‘ zu formen, das angesichts von komplexen Aufgaben in der Lage ist, sich jederzeit hinreichend gut zu koordinieren. Die hohe Quote an Projektabbrüchen spricht eine eigene Sprache.

Ähnlichkeit als Gefahr

Bei Gruppen, Teams tritt noch ein ganz anderer Aspekt hervor: die partielle ‚Ähnlichkeit‘ der Bedeutungsstrukturen der einzelnen Teammitglieder, die im Laufe der gemeinsamen Arbeit in der Regel weiter zunimmt, vereinfacht zwar die Kommunikation und Abstimmung im Team, sie bietet aber auch eine Gefahr, die umso größer wird, je länger ein Team ‚unter sich‘ ist. Dies hat wiederum damit zu tun, wie unsere Gehirne arbeiten.

Ohne unser bewusstes Zutun sammelt unser Gehirn beständig Eindrücke, verarbeitet sie, und bildet vernetzte abstrakte Einheiten. Dies ist aber nicht alles. Dieser sehr aufwendige Prozess hat den Nebeneffekt, dass die ‚aktuellen‘ sinnlichen Eindrücke mit dem, was ‚bisher Bekannt geworden ist‘ kontinuierlich ‚abgeglichen‘ wird. Das berühmte Glas, das ‚halbvoll‘ oder ‚halbleer‘ erscheinen kann, ist keine Fata Morgana. Dieses Beispiel demonstriert — wenn auch vereinfacht –, dass und wie unser Gehirn seine ‚gespeichertes Wissen‘ (Alt) mit den ‚aktuellen Eindrücken‘ (Neu) ‚abgleicht‘. Je mehr ein Gehirn weiß, um so größer die Wahrscheinlichkeit, dass es ’nichts Neues‘ mehr gibt, weil alles ’scheinbar Neue‘ mit dem ‚Alten‘ ‚erklärt‘ werden kann. [3] Dies — zur Erinnerung — immer auch mit Bedürfnissen, Emotionen und sonstigen Gefühlen/ Stimmungen ‚konnotiert‘.[2]

Tendenz zur ‚Verfestigung‘

Zwar gibt es viele Verhaltenseigenschaften und Strategien, mit denen man dieser Tendenz des Gehirns zur ‚Verfestigung‘ gegensteuern kann, aber sowohl die Geschichte wie die Gegenwart zeigen, dass es immer starke Strömungen gab und gibt, die auf dieser ‚Selbstabschließung‘ des Gehirns basieren (so eine Art ‚mentales locked-in Syndrom‘).

Da es für ein Gehirn (und damit für eine Person) ‚leichter‘ und ‚bequemer‘ ist, das Bild von der Welt — mit all den daran geknüpften Verhaltensgewohnheiten — ‚konstant‘ zu halten, ‚einfach‘, tendieren die meisten Menschen dazu, sich vorzugsweise mit solchen Menschen zu treffen, die ihnen ähnlich sind; solche Meinungen zu teilen, die die eigene Meinung verstärken; das zu tun, was die Mehrheit tut; und vieles dergleichen.

Wenn einzelne Menschen, ganze Gruppen ihr Leben so gestalten, dass sie ‚Neues‘ eher — oder sogar ‚grundsätzlich‘! — ausblenden, verurteilen, ‚verdammen‘, dann reduzieren sie ihr eigenes Potential um grundlegend wichtige Eigenschaften für eine nachhaltige Zukunft: Vielfalt, Diversität, Kreativität, Neugierde, Experimente, Alternativen. Die Biosphäre heute — und damit uns — gibt es nur, weil diese grundlegenden Eigenschaften über 3.5 Milliarden Jahre stärker waren als die reduktiven Tendenzen.

Sprache als System

Betrachtet man die Sprache von einem ‚übergeordneten‘ Standpunkt aus z.B. als ein System ‚als solches‘, dann sind die einzelnen Sprecher-Hörer individuelle Akteure, die von der Sprache individuell ‚Gebrauch machen‘. Ein Akteur kann dann Sprache lernen, weil er/sie/x die Sprache vorfindet, und der Akteur wird einen Teil der ‚möglichen Bedeutungszuordnungen‘ ‚lernen‘. Je nach Lerngeschichte können dann die verschiedenen individuellen Bedeutungsräume sich mehr oder weniger ‚überlappen‘. In dieser Perspektive ist dann klar, dass ein einzelner Akteur nicht die Sprache als solche verändern kann, es sei denn, er/sie/x ist sehr ‚prominent‘ und einzelne seiner Formulierungen werden von einer großen Teilpopulation übernommen. Entsprechend können sich in Teilpopulationen ‚Sprachmoden’/ ‚Sprachtrends‘ ausbilden, die dann zumindest partiell für eine bestimmte Zeit ‚Teil der Sprache‘ werden können.

Diese ‚Eigenwirklichkeit‘ von Sprache hat verschiedene Nebeneffekte. Einer verbindet sich mit erstellten Texten, Textsammlungen, die als Texte den individuellen Autor übersteigen/ überdauern können. Selbst wenn ein Text so alt ist, dass ein potentieller Leser aus der Gegenwart die ‚Bedeutungswelt des Autors‘ kaum oder gar nicht kennt, können Texte ‚Wirkung‘ entfalten. So zeigt z.B. die Interpretation des Buches, das allgemein als ‚Bibel‘ bezeichnet wird, im Laufe von ca. 2000 Jahren eine große Vielfalt und Breite mit offensichtlich z.T. gänzlich konträren Positionen, die selbst ca. 2000 Jahre später noch Wirkungen bei Menschen zeigen.

Tradition ist ambivalent

Dies bedeutet, nicht nur das einzelne Gehirn kann zur Ausbildung von bestimmten ‚Bildern von der Welt‘ kommen, die es mit anderen ‚Gleichgesinnten‘ teilen kann, sondern die konservierten Texte können solche Weltbilder über Jahrhunderte wenn nicht gar Jahrtausende hinweg ‚transportieren‘. Dies kann im Einzelfall konstruktiv sein, es kann aber auch ‚destruktiv‘ sein, wenn alte Weltbilder den Aufbau neuer Weltbilder in einer sich verändernden Welt verhindern.

Wunder des Schreibens

Nach diesen — keinesfalls vollständigen — Hinweisen auf sehr viele eher ‚technische‘ Aspekte von Sprache/ Sprechen/ Schreiben hier doch auch für einen Moment ein paar Worte zum ‚Wunder des Schreibens‘ selbst.

Wenn ich also Worte aufschreibe, jetzt, dann gibt es eigentlich keine bestimmte ‚Regel‘, nach der ich schreibe, kein klar definiertes ‚Ziel‘ (wie sollte solch eine Zielbeschreibung aussehen?), keine …. es ist ziemlich hoffnungslos hier eine endliche Liste von klar definierten Kriterien zu formulieren. Ich selbst bin ‚mir‘ ‚undurchsichtig‘ … ein Nebeneffekt der Tatsache, dass nahezu alles ‚in mir‘ im Jetzt ‚unbewusst‘ ist… Zu keinem Zeitpunkt weiß ich (= ist mir explizit bewusst), was ich ‚tatsächlich weiß‘. Wie denn? Unser Gedächtnis ist eine unfassbar große Sammlungen von dynamischen Strukturen, die entweder nur bei expliziten Aufgaben ‚reagieren‘ (aber nicht zuverlässig), oder aber ein gedanklicher Prozesse in mir läuft unbewusst ab und dieser tritt zu einem bestimmten Zeitpunkt an die ‚Oberfläche‘ indem ich Worte wie diese aufschreibe. Bevor ich diese Worte aufschreibe, weiß ich nicht, was ich aufschreibe. Ich kann dieses Aufschreiben auch nicht planen.’Es‘ denkt in mir, ‚es‘ schreibt… dieses ‚Es‘ ist aber nur scheinbar etwas ‚Fremdes‘; es ist Teil von mir, ich fühle mich damit verbunden, ich bin es, …. die Zuordnung von sprachlichen Ausdrücken zu ‚inneren Vorgängen‘ ist prinzipiell schwierig und ungenau. Ich selbst bin ein ganzer Kosmos von unterschiedlichen Dingen, weitgehend unbewusst, fokussiert in meinem Körper ….

Wir wissen, dass wir sehr viele Abläufe explizit, Schritt für Schritt, so trainieren können, dass sie zu scheinbar ‚automatisch ablaufenden Prozessen‘ werden. Die eigentliche Dynamik ‚dahinter‘ ist aber etwas ganz anderes. Sie bedient sich der vielen Gegebenheiten ’nach Belieben’… sie ‚ereignet sich‘ und ‚im Ereignen‘ ist sie ‚real‘ und darin partiell fassbar …. Menschen sind in ihrem ‚Inneren‘ der totale ‚Anti-Gegenstand‘. Ich kenne kein einziges Bild, keine einzige Metapher, kein irgendwie bekanntes Muster/ Schema, keine bekannte Formel, die dieser un-realen Realität irgendwie nahe kommt … [4],[5]

In diesem Konzert, ab ca. Minute 41, der Song ‚Wind of Change‘ daran erinnernd, dass es auch in Moskau einmal geschah, wenngleich die Ängste der Mächtigen wieder mal stärker waren als die Kraft der Zukunft, die in jedem Menschen anwesend ist …

ANMERKUNGEN

[1] Die Formulierung ‚ist halt so gebaut‘ ist eine ‚Abkürzung‘ für die komplexen Erkenntnisse der Evolutionsbiologie, dass sich das Gehirn des Menschen als Teil des ganzen Körpers mit diesem Körper über nicht nur Millionen, sondern hunderte von Millionen Jahre schrittweise ‚entwickelt‘ hat. Der Begriff ‚entwickelt‘ ist eine weitere Abkürzung für einen komplexen Mechanismus, durch den sich biologische Populationen aus einem Zustand zum Zeitpunkt T in einen ‚anderen Zustand‘ zu einem späteren Zeitpunkt T ‚verändern‘ können. Ob solche Veränderungen nun in irgendeinem Sinne ‚gut‘ oder ’schlecht‘ sind, entscheidet sich in erster Linie an der Frage, ob die Population zum späteren Zeitpunkt T+ noch ‚existiert‘. Die Fähigkeit ’nachhaltig zu existieren‘ ist primär eine ‚Leistungseigenschaft‘: in einer sich ständig veränderten Welt — nicht zuletzt auch deswegen, weil sich die Biosphäre selbst kontinuierlich weiter entwickelt — können nur jene Populationen überleben, die den Anforderungen einer solchen komplexen dynamischen Umwelt gerecht werden

[2] Die Psychologie kennt zahllose Beispiele, wie eigentlich ‚zufällige Ereignisse‘, in denen Menschen entweder etwas ‚Schönes‘, ‚Positives‘ erlebt haben oder umgekehrt etwas ‚Ungutes‘, ‚Trauriges‘, ‚Schreckliches‘, dass sich dann die Gefühle an konkrete Dinge/ Handlungen/ Situationen ‚anheften‘ können, und dann zukünftig die Wahrnehmung, das Verstehen und das Verhalten beeinflussen.

[3] Leute die ‚bewusst anders‘ sein wollen als ‚alle anderen‘ denken oft, sie wären damit ‚besonders‘. Das stimmt, sie sind ‚besonders‘ weil sie ‚für sich‘ sind. Vielfalt im Sinne der Nachhaltigkeit heißt aber nicht, individuell ‚für sich sein‘, sondern individuelle in einem Verbund leben, in dem man seine ‚Besonderheit‘ — so man eine hat! — im Kontext mit anderen so einbringt, dass sie auf die anderen real einwirken kann und umgekehrt. Dieses Interaktionsgeschehen realisiert einen Prozess mit ‚Zustandsfolgen‘, die so sein sollten, das nach einer gewissen Zeit möglichst alle ‚dazu gelernt haben‘. … was allerdings nicht ‚erzwingbar‘ ist … Menschen sind in einem unfassbar radikalen Sinne ‚frei‘ …

[4] Die ‚Beschreibbarkeit‘ eines Phänomens hängt generell von der Frage ab, welche Ausdrücke einer Sprache verfügbar sind, um sich auf Gegenstände, Sachverhalte, Ereignisse der Alltagswelt oder auf ‚innere Zustände‘ eines Menschen beziehen zu lassen. Hier lassen sich leicht Beispiele finden von ‚einfachen Beschreibungen von beobachtbaren Gegenständen‘ („Die Ampel da vorne ist auf Rot“) bis hin zu Asdrücken, wo man nicht mehr so richtig weiß, was gemeint sein kann („Die Demokratie ist gefährdet“; „Mein Gefühl sagt mir, dass dies nicht geht“; „Ich denke“… ).

[5] Ein Beispiel zur Frage der Zuschreibung des Ausdrucks ‚Geist‘ zum Phänomen unseres ‚Inneren‘, sofern es ‚erfahrbar‘ ist, kann das Buch von Friedhelm Decher sein „Handbuch der Philosophie des Geistes„, das ich in vier einzelnen Posts diskutiere: (i) https://www.cognitiveagent.org/2015/12/28/decher-handbuch-philosophie-des-geistes-einleitung-diskurs/, (ii) https://www.cognitiveagent.org/2016/01/05/decher-handbuch-philosophie-des-geistes-vorsokratiker-diskurs-teil-2/, (iii) https://www.cognitiveagent.org/2016/01/18/decher-handbuch-philosophie-des-geistes-platon-diskurs-teil-3/, (iv) https://www.cognitiveagent.org/2016/01/25/decher-handbuch-philosophie-des-geistes-aristoteles-diskurs-teil-4/.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

Sag niemals Nie … Rückkehr

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 13.November 2021
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

KONTEXT

Im Beitrag vom 3.Juli 2021 hatte ich bekannt gegeben, dass ich ‚ausgewandert‘ bin — nicht ‚physisch‘, sondern ‚mental‘. Das klingt dort sehr ‚abschließend‘. Nun muss ich feststellen, dass ich wieder ‚zurück bin‘. Wie soll man dies verstehen?

GEGENWART UND ZUKUNFT

Nun ist es so — was in diesem Blog mehrfach reflektiert worden ist –, dass wir in der aktuellen Gegenwart von der möglichen Zukunft (eigentlich ein Plural: Zukünfte!) radikal nichts wissen. Wir leben von Fragmenten aus der Vergangenheit und einigen Fragmenten aus der Gegenwart und basteln und daraus mehr oder weniger gute Vermutungen, was als nächstes kommen wird. [1]

So hatte ich am 23.Juni 2021 gewisse (begründete) Vermutungen, wie sich das oksimo Projekt weiter entwickeln wird und welche Art von Ideen/ Texten dazu hilfreich sein werden. Die Art des philosophischen Denkens, wie sie in diesem Blog praktiziert worden ist, hielt ich mit Erreichen des oksimo Projektes für ‚erledigt‘.

Nach nunmehr 5 Monaten verstärkt sich der Eindruck, dass dieser Schluss mit der ‚Erledigung‘ zu voreilig war. Warum?

OKSIMO UND DIE PHILOSOPHIE

Richtig ist, dass das oksimo Projekt eine eigene Dynamik entwickelt hat, die sich kontinuierlich weiter verstärkt. Und, ja, richtig ist auch, dass die philosophischen Überlegungen aus diesem ‚Philosophie Jetzt‘ Blog vielfach die Grundlagen für das oksimo Paradigma bilden (zusätzlich verstärkt durch den eher technischen uffmm.org Blog). Was ich aber offensichtlich unterschätzt habe, das ist das ‚Eigengewicht‘ der philosophischen Dimension und die unaufhebbare Wechselbeziehung zwischen ’speziellem Denken‘ (wie im oksimo Paradigma) und der allgegenwärtigen philosophischen Dimension, die jedes menschliches Denken wie so eine Art ‚kognitives Hintergrundrauschen‘ begleitet. Niemand ist gezwungen, das kognitive Hintergrundrauschen des philosophischen Denkens zu ‚aktivieren‘, aber überall dort, wo es interessant wird, muss man es eigentlich tun, da man sonst das Interessanteste am Gegenstand nicht in den Blick bekommt.

Was ist dieses ‚Interessante‘ im Kontext des oksimo Paradigma, was nur die Philosophie ’sehen‘ kann?

NACHHALTIGE ENTWICKLUNG, KOLLEKTIVE INTELLGENZ, und OKSIMO

Im oksimo Paradigma vereint sich eine theoretische Perspektive mit einem praktischen Werkzeug. Die theoretische Perspektive verhandelt die Frage, wie sich beliebige Menschen unter ausschließlicher Benutzung ihrer Alltagssprache über beliebige Fragestellungen unter ausdrücklicher Berücksichtigung des prozesshaften Charakters von Wirklichkeit so verständigen können, dass sie gemeinsam Wege aus dem Jetzt in das Morgen beschreiben, simulieren und spielen können. Natürlich unter Einbeziehung aller verfügbaren Formen von sogenannter ‚Künstlicher Intelligenz [KI]‘ (oder schwächer: ‚Maschinellem Lernen [ML]‘). Die praktische Perspektive beschreibt und entwickelt eine konkrete Software, die Menschen dabei unterstützt, genau dies tun zu können.

Bei dieser Art der Aufgabenstellung ist eine starke Komponente die Sicht der Ingenieure und Informatiker. Aber, wie man ahnen kann, diese nicht ganz einfache Aufgabenstellung impliziert so viele tiefgreifende Annahmen zum Menschen, zu Sprache, zu Kognition, zu Kultur — um nur einige Aspekte zu nennen –, dass das kognitive Hintergrundrauschen des philosophischen Denkens schwerlich zu ‚überhören‘ ist.

Es kam also, wie es kommen musste: im Laufe der Ausarbeitung schrammte das Projekt immer mehr an grundlegenden philosophischen Überlegungen vorbei, knallte geradezu in voller Fahrt auf diese, bis ich schließlich — jetzt — feststelle, dass die ‚mentale Auswanderung‘ wohl zu ‚verfrüht‘ war, falls überhaupt machbar. Eigentlich ‚un-machbar‘: man kann sein eigenes Denken — falls man überhaupt denken will –, nicht einfach so ‚abschalten‘.

Erschwerend — oder besser: verstärkend — kommt hinzu, dass die Gespräche im ‚Umfeld des oksimo Projektes‘ immer mehr Fragen aufwerfen, was es denn genau ist, dieses oksimo Projekt? Wie soll man es in die vielen heute gängigen Kontexte (Digitalisierung, KI, Smart xyz, Demokratie, Bürgerbeteiligung, Klimakatastrophe, Nachhaltigkeit, Gamification, Lernen, Forschen, Kommunalplanung, …) einordnen?

Aus diesen vielfältigen Aspekten kondensierten sich in der letzten Zeit dann besonders folgende Perspektiven heraus: einmal (i) die Perspektive der nachhaltigen Entwicklung, wie sie die Vereinten Nationen seit dem Brundtland Report von 1987 über zahlreiche Konferenzen vorangetrieben hat. Dann (ii) die Perspektive der Intelligenz, und zwar als Kollektive Intelligenz [KI+], wie sie die Lebensform des homo sapiens seit ca. 300.000 Jahren immer eindrucksvoller demonstriert. Und schließlich auch (iii) die Perspektive der Digitalisierung, die hier als Teil der Kulturentwicklung gesehen wird, diese wiederum als Teil der biologischen Evolution. Die Digitalisierung enthält eigene Formen von Intelligenz, die meistens als ‚Künstliche Intelligenz [KI]‘ oder ‚Maschinelles Lernen [ML]‘ bezeichnet wird.

Unter Voraussetzung dieser drei Themen ergibt sich weiterführend (iv) die Frage, ob und wie die kollektive Intelligenz eine gewünschte nachhaltige Entwicklung unterstützen kann. Weiterhin (v) stellt sich die Frage, welche Rolle die Digitalisierung als Ganze — besonders fokussiert im Konzept des Cyberspace — und die Maschinelle Intelligenz im Besonderen für die kollektive Intelligenz spielen kann: wird die Kollektive Intelligenz überflüssig — die Vision von den intelligenten Maschinen, die alles ‚übernehmen‘ — oder gewinnt die Kollektive Intelligenz durch neue Formen der Unterstützung durch die maschinelle Intelligenz eine ’neue Kraft‘ als hybride ‚kollektive Mensch:Maschine Intelligenz [KM:MI‘?[2]

Diese fünf Fragen verlangen ein Überschreiten des üblichen innerdisziplinären Diskurses; es ist mehr als ‚bloßes interdisziplinäres‘ Arbeiten. Es geht in Richtung von ‚transdisziplinärer‚ Arbeit. Der Versuch, den Terminus ‚transdisziplinär‘ zu charakterisieren, führt aber unweigerlich in einen ‚Meta-Diskurs‘ ‚über‚ gegebene Disziplinen, der mindestens in den Bereich der Wissenschaftsphilosophie führt, letztlich aber im vollen philosophischen Diskurs landet. Und das erklärt, warum die ‚Rückkehr‘ stattfindet: im Ernst-Nehmen des oksimo Paradigmas führen wichtige Fragen zum Projekt über die transdisziplinären Aspekte zur Wissenschaftsphilosophie, zur Philosophie zurück, und die Zielsetzung des ‚Philosophie Jetzt Blogs‘ [3] trifft damit auf eine neue, interessante Charakterisierung: Der Mensch als ‚kollektives Wesen‘ im Kontext einer dynamischen Entwicklung, versucht sich mittels neuen Technologien zu verstärken, um ein Überleben in einer unbekannten Zukunft zu sichern; vermutlich nicht der homo sapiens alleine sondern zusammen mit großen Teilen der Biosphäre, ohne die der homo sapiens nicht lebensfähig ist.

ANMERKUNGEN

[1] Alles, was in meinem Leben bislang ‚wichtig‘ gworden ist, von dem habe ich vorher nicht einmal gewusst, dass es existiert …

[2] Oder auch ‚Collective Man:Machine Intelligence [CM:MI]‘

[3] „Auf der Suche nach dem neuen Menschenbild“

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.