POPPER: FRÜH – MITTEL – SPÄT. Empirische Theorie

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 13.März 2022 – 13.März, 11:11h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Kontext

Bei diesem Beitrag handelt es sich um die Fortsetzung des Diskurses zu den zuvor besprochenen Artikeln von Popper:  „A World of Propensities“ (1988, 1990),  „Towards an Evolutionary Theory of Knowledge“ (1989,1990)[1] sowie „All Life is Problem Solving“ (1991, 1994/1999). [2] Der Beitrag „(SPÄTER) POPPER – WISSENSCHAFT – PHILOSOPHIE – OKSIMO-DISKURSRAUM“ spielt hier keine Rolle. Es wird aber direkt Bezug genommen auf einen Text von Popper von 1971 „Conjectural Knowledge: My Solution of the Problem of Induction.“[3],[4] Dieser wurde in meinem Englischen Blog diskutiert „POPPER – Objective Knowledge (1971). Summary, Comments, how to develope further„.

Vorbemerkung

Die Begegnung des Autors mit Popper spielt sich in unterschiedlichen Etappen ab. Die erste Begegnung fand statt im März 2021 mit einer Diskussion der ersten 17 Kapitel von Popper’s Frühwerk „Logik der Forschung“ (1935), allerdings in der Englischen Fassung von 1959.[5] Diese erste Begegnung war eingebettet in eine größere Diskussion (mehrere längere Posts) zum Theoriebegriff und dem Zusammenhang mit dem oksimo Projekt.

In dieser ersten Begegnung wurde die Position Poppers vornehmlich wahrgenommen aus einer bestimmten, schon bestehenden wissenschaftsphilosophischen Perspektive, zusätzlich eingefärbt durch den Blick auf die Anwendbarkeit dieses Theoriebegriffs auf das oksimo Projekt. Wenngleich für den Autor in vielfacher Hinsicht sehr erhellend, kommt die Position Popper’s nicht so richtig zum Vorschein.

Erste die Lektüre von drei Beiträgen Popper’s aus der Zeit 1988 – 1991 führte zu einer neuen mehr Popper-zentrierten Wahrnehmung. In diesem Spannungsfeld von ‚frühem‘ Popper 1935/1959 und ’spätem‘ Popper 1988 – 1991 führte die Begegnung mit dem Text des ‚mittleren‘ Popper von 1971 zu einer sehr direkten Begegnung, die die Gedanken zu Popper weiter belebten.

Popper: Früh – Mittel – Spät

Die hier provisorisch vorgenommene Einordnung Poppers in einen ‚frühe‘, bzw. ‚mittleren‘ bzw. ’späten‘ Popper ist natürlich — gemessen an dem gesamten Werk Poppers ein bisschen gewagt. Dies entspricht aber letztlich dem Stil einer Theoriebildung im Sinne von Popper, in der — ausgehend von einzelnen Beobachtungen –, schrittweise Hypothesen gebildet werden, die dann versuchsweise angewendet werden. Im Scheitern bzw. in partiellen Bestätigungen entwickelt sich dann solch eine Theorie weiter. Eine ‚absolute Endform‘ wird sie nie haben, aber sie kann immer differenzierter werden, begleitet von immer stärkeren ‚Evidenzen‘, die allerdings ‚Wahrheit‘ niemals ersetzen können.

So also hier eine meine ‚Mini-Theorie‘ über Popper anhand von nur vier Artikeln und 17 Kapiteln aus einem Buch.

Bei meiner bisherigen Lektüre entsteht der Eindruck, dass die Strukturen des ‚frühen‘ (1935 – 1959) Popper denen des mittleren‘ (1971) Popper sehr ähnlich sind. Die Texte des ’späten‘ (1988 – 1991) Popper hingegen bringen einen starken neuen Akzent in die Überlegungen ein.

Wahrheit ohne Wahrheit

Ein Grundthema des frühen und mittleren Popper ist einerseits die starke Betonung, dass ‚Wahrheit‘ — zumindest als ‚regulative Idee‘ — unverzichtbar ist, soll empirische Wissenschaft stattfinden, andererseits aber sein unermüdliches Bemühen, darauf hinzuweisen, dass die Aussagen einer Theorie, selbst wenn sie sich eine lange Zeit ‚bewährt‘ haben, dennoch keine ‚absolute Wahrheit‘ widerspiegeln; sie können jederzeit widerlegt werden.[6] Diese Position führt ‚aus sich heraus‘ natürlich zu der Frage, was denn ‚Wahrheit als regulative Idee‘ ist bzw. zu der komplementären Frage, welchen ‚Status‘ dann jene Aussagen haben, auf die Theorieentwürfe aufbauen. Was ist eine ‚Beobachtungsausage‘ (Spezialfall ein ‚Messwert‘), die zum Ausgangspunkt von Theorien werden?

Poppers Prozessmodell von Wahrheit

Man kann Poppers Konzept einer objektiven (= ‚wahren‘) empirischen Theorie von ihren ‚Bestandteilen‘ her als ein ‚Prozessmodell‘ rekonstruieren, in dem sich — auf eine nicht wirklich geklärte Weise — beobachtungsgestützte Aussagen mit einem formalen Konzept von Logik ‚vereinen‘. Details dazu finden sich in einem Englischen Blogbeitrag des Autors.

Popper löst das Problem der notwendigen Wahrheit, die eigentlich nicht da ist, aber irgendwie dann doch, indem er in seinem 1971-Text [4] die einzelnen Aspekte dieses Wahrheitsbegriffs schildert und sie dann auf den letzten Seiten (29-31) wie in einem ‚Puzzle‘ zusammenfügt, allerdings so, dass viele Details offen bleiben.

Primären Halt in der empirischen Realität bieten Beobachtungssätze, die im Fall der Überprüfung einer Theorie, die Rolle von ‚Testsätzen‘ übernehmen. Die Theorie selbst besteht aus einer Ansammlung von ‚Hypothesen‘ (‚conjectures‘), in denen einzelne Beobachtungsaussagen zueinander in Beziehung gesetzt werden, die als solche natürlich nicht beobachtet (‚gemessen‘) werden können.[7]

Bei dem Übergang vom ‚Beobachtungswert‘ (‚Messwert‘) zur ‚Hypothese‘ finden aber unweigerlich ‚Verallgemeinerungen‘ statt [8], die dann sprachlich repräsentiert werden. Nur die ‚teilnehmenden‘ Beobachter wissen ‚implizit‘, auf welches konkrete Ereignis sie sich mit ihren sprachlichen Ausdrücken beziehen. Der Versuch der Wissenschaft, dieses Problem des ‚impliziten‘ (= subjektiven)‘ Wissens durch vereinbarte Messprozeduren aufzulösen, hilft nur partiell. Das Zustandekommen des Beobachtungsereignisses wird damit zwar ‚objektiviert‘, aber die ‚Übersetzung‘ dieses objektivierten Ereignisses, das als Wahrnehmungsphänomen bei den teilnehmden Beobachtern ‚ankommt‘, wird im Beobachter ‚unbewusst‘ zu einem Konzept verarbeitet, dass dann in einen sprachlichen Ausdruck transformiert wird, der dann als Beobachtungsaussage ‚funktioniert‘. Alle, die an diesem ‚Spiel‘ [9] teilnehmen, wissen, wie sie sich verhalten sollen. Ein ‚Außenstehender‘ versteht es nicht automatisch.

Anders betrachtet, selbst objektivierenden Beobachtungsprozesse klammern die subjektvie Komponenten nicht völlig aus.

Hat man verallgemeinernde Beobachtungsaussagen („Der Main-Kinzig Kreis hat 2018 418.950 Einwohner.“, „Dieser Stein wiegt 4.5 kg.“, „Das Wasser hat eine Temperatur von 13 Grad Celsius.“) , dann kann man auf dieser Basis versuchen, Hypothesen zu bilden (z.B. bzgl. des Aspektes möglicher Veränderungen wie Einwohnerzahl, Länge, Temperatur). Im Fall der Einwohnerzahl bräuchte man dann z.B. Beobachtungen zu mindestens zwei verschiedenen Zeitpunkten‘ (2018, 2019)[14], um aus der ‚Differenz‘ Hinweise ‚abzuleiten‘, welches Ausmaß ein ‚Wachstumsfaktor‘ haben könnte. Im Fall des Main-Kinzig Kreises wird für diesen Zeitraum z.B. ein Wachstumsfaktor von 0.4% ermittelt.

Wie ist solch ein ‚abgeleiteter Wachstumsfaktor‘ einzuordnen? Er beschreibt eine ‚abgeleitete‘ Größe, mit der man eine Formel bilden könnte wie ‚Die Einwohnerzahl im Jahr t+1 = Einwohnerzahl im Jahr t + (Einwohnerzahl im Jahr t * Wachstumsfaktor). Dies ist eine Rechenanweisung, die mit beobachteten Größen (Einwohnerzahl) und daraus abgeleiteten mathematischen Eigenschaften (Wachstumsfaktor) eine ‚Voraussage‘ berechnen lässt, wie die Einwohnerzahl in nachfolgenden Jahren aussehen [14] würde, wenn der Wachstumsfaktor sich nicht verändern würde.

Klar ist, dass solch ein sprachlicher Ausdruck seine Bedeutung aus dem ‚Bedeutungswissen‘ der Teilnehmer bezieht. Der Ausdruck selbst ist nichts anderes als eine Menge von Zeichen, linear angeordnet. Also auch hier eine fundamentale ’subjektive Dimension‘ als Voraussetzung für ein ‚objektives Agieren‘.

Diese Aspekte sprachlicher Bedeutung und deren Verankerung in der inneren Struktur der Beobachter und Theoriebauer [10] diskutiert Popper nicht explizit. Wohl postuliert er eine ‚Logik‘, die die ‚Herleitung‘ von Prognosen aus den theoretischen Annahmen beschreiben soll.

Die moderne formale Logik hat viele wunderbare Eigenschaften, aber eines hat sie nicht: irgendeinen Bezug zu irgendeiner Bedeutung‘. In einem formalen Logikkalkül [11] gibt es eine Menge von formalen Ausdrücken, die als ‚Annahmen‘ funktionieren sollen, und das einzige, was man von diesen wissen muss, ist, ob sie als ‚wahr‘ eingestuft werden (was bei Annahmen der Fall ist). Was mit ‚wahr inhaltlich gemeint ist, ist aber völlig unbestimmt, zumal formale Ausdrücke als solche keine Bedeutung haben. Wenn es eine Bedeutung geben soll, dann muss man die formalen Ausdrücke an die ’subjektive Bedeutungsdimension der Teilnehmer‘ knüpfen, die nach Bedarf spezielle Messverfahren zu Hilfe nehmen.

Angenommen, man hat die ‚formalisierten Ausdrücke‘ mit den verallgemeinerten Aussagen der Hypothesen verknüpft [12] und man nutzt die Logik, um ‚Ableitungen‘ zu machen, die zu ‚Prognosen‘ führen[13], dann stellt sich das Problem, wie man das Verhältnis einer ‚abgeleiteten‘ Aussage zu einer ‚Beobachtungsaussage‘ bestimmten soll. Popper benutzt hier zwar Klassifikationen wie ‚bestätigend‘, ’nicht bestätigend‘, ‚falsifiziert‘, aber eine Diskussion im Detail zu „A bestätigt B“/ „A bestätigt B nicht“/ „A falsifiziert B“ scheitert an vielen ungeklärten Details und Randbedingungen, die im vorausgehenden Text nur angedeutet werden konnten.

Der Diskurs geht weiter.

Kommentare

[1] Karl Popper, „A World of Propensities“,(1988) sowie „Towards an Evolutionary Theory of Knowledge“, (1989) in: Karl Popper, „A World of Propensities“, Thoemmes Press, Bristol, (1990, repr. 1995)

[2] Karl Popper, „All Life is Problem Solving“, Artikel, ursprünglich ein Vortrag 1991 auf Deutsch, erstmalig publiziert in dem Buch (auf Deutsch) „Alles Leben ist Problemlösen“ (1994), dann in dem Buch (auf Englisch) „All Life is Problem Solving“, 1999, Routledge, Taylor & Francis Group, London – New York

[3] Karl R.Popper, Conjectural Knowledge: My Solution of the Problem of Induction, in: [2], pp.1-31

[4] Karl R.Popper, Objective Knowledge. An Evolutionary Approach, Oxford University Press, London, 1972 (reprint with corrections 1973)

[5] Karl Popper, The Logic of Scientific Discovery, First published 1935 in German as Logik der Forschung, then 1959 in English by  Basic Books, New York (more editions have been published  later; I am using the eBook version of Routledge (2002))

[6] Popper verweist hier gerne und häufig auf die Geschichte der Physik mit den unterschiedlichen Konzepten, wie man die Erde als Teil des Sonnensystems und dann später das ganzen Universums beschrieben hat bzw. heute beschreibt. Hauptbeispiel: Newtons System, das dann mit immer neuen Beobachtungen und dann schließlich mit Einsteins Relativitätstheorie als ‚zu eng‘ klassifiziert wurde.

[7] ‚Beziehungen‘ existieren ausschließlich in unserem ‚Denken‘ (das alte Hume Problem, das Kant schon zu lösen versuchte, und das Popper in seinen Texten wieder und wieder aufgreift). Wenn wir diese ‚gedachten Beziehungen‘ in die beobachtbaren Einzelereignisse (Zeit, Ort, Beobachter) ‚hinein-sehen‘, dann ist dies der Versuch, zu ‚prüfen‘, ob diese Beziehung sich ‚bestätigen‘ oder ‚widerlegen‘ lässt. Anmerkung: die moderne expermentelle Psychologie (auch als Neuropsychologie) hat diese Sachverhalte extensiv untersucht und mit neuen Evidenzen versehen.

[8] Wie die Alltagssprache zeigt — und die moderne Wissenschaft bestätigt –, werden konkrete empirische Phänomene immer abstrakten Konzepten zugeordnet, die dann mit Allgemeinbegriffen verknüpft werden. Ob ein konkretes Wahrnehmungsereignis zu einem abstrakten Konzept X (z.B. ‚Tasse‘) oder Y (z.B. ‚Glas‘) gehört, das entscheidet das Gehirn unbewusst (Menschen können nur entscheiden, welche sprachlichen Ausdrücke sie verwenden wollen, um die kognitven Konzepte zu ‚benennen‘).

[9] … erinnert an das Sprachspielkonzept des späten Wittgenstein …

[10] Manche glauben heute, dass die Rolle des ‚Beoachters‘ und/oder des ‚Theoriebauers‘ von ‚intelligenten Programmen‘ übernommen werden können. In ‚Kooperation mit Menschen‘ im Rahmen eines modernen Konzepts von ‚kollektiver Intelligenz‘ kann es funktionieren, aber nur in Kooperation.

[11] Es gibt nicht nur ‚einen‘ Logikkalkül, sondern — rein formal — nahezu unendliche viele. Welcher für welche Aufgabenstellung ‚geeignet‘ ist, muss im Rahmen einer konkreten Aufgabe ermittelt werden.

[12] In der Wisenschaftsphilosophie ist dies bis heute noch nicht so gelöst, dass es dazu ein allgemein akzeptiertes Verfahren gibt.

[13] Da es viele verschiedene Ableitungsbegriffe gibt, von denen bis heute kein einziger meta-theoretisch für bestimmte empirische Bereich als ‚zuverlässig im Sinne eines Kriteriums K‘ erwiesen wurde, ist die lose Bezugnahme auf einen solchen Ableitungsbegriff eigentlich zu wenig.

[14] An dieser Stelle wird deutlich, dass das Beobachten wie auch dann die Auswertung von einer ‚Menge‘ von Beobachtungswerten in unserer Körperwelt ein ‚Zeitmodell‘ voraussetzt, in dem Ereignisse ein ‚vorher‘ und ’nachher‘ haben, so dass das Konzept einer ‚Prognose’/ ‚Voraussage‘ überhaupt Sinn macht.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

(SPÄTER) POPPER – WISSENSCHAFT – PHILOSOPHIE – OKSIMO-DISKURSRAUM

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 22.-23.Februar 2022, 07:05
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Kontext

Bei diesem Beitrag handelt es sich um die Fortsetzung des Diskurses zu den zuvor besprochenen Artikeln von Popper:  „A World of Propensities“ (1988, 1990),  „Towards an Evolutionary Theory of Knowledge“ (1989,1990)[1] sowie „All Life is Problem Solving“ (1991, 1994/1999). [2]

Vorbemerkung

Nach einer ersten Kommentierung von drei Artikel von Popper aus den Jahren 1988 – 1991 soll hier der Versuch unternommen werden, aus den vielen Hinweisen, die diese Texte liefern, einen ersten Gesamteindruck zu formulieren, der Bezug nimmt auf bekannte Strukturen. Was damit genau gemeint ist, wird im Folgenden erklärt.[3]

Popper und der ‚Rest‘ – Ein erster Versuch

Skizze zum Begriffsnetz um die Themen ‚Philosophie‘, ‚Wissenschaften‘, ‚empirische Anwendungsbereiche‘, ‚Diskurs‘ mit dem Schwerpunkt auf dem ‚oksimo Diskursmodell‘.

Das vorausgehende Schaubild deutet ein Netzwerk zwischen vielen Begriffen an. Gehen wir dies der Reihe nach durch.

Ereignisfeld – Objektive Tendenzen

Ausgangspunkt und dauerhafter Bezugspunkt für alle empirischen Wissenschaften ist das Ereignisfeld, in dem jeder Akteur mit seinem Körper vorkommt. In der Analyse des späten Popper verweisen Ereignisse auf reale Konstellationen, deren Wirkungen zu Ereignissen führen können. Da die auslösenden realen Konstellationen im Normalfall ein ganzes Bündel von Faktoren sind, die sich wechselweise beeinflussen, sind die resultierenden Wirkungen und damit die resultierenden Ereignisse niemals deterministisch, aber auch niemals rein zufällig. Ein solcher wirkender Faktor kann selbst wieder ein Wirkung sein. Solche Ereignisse nennt Popper ‚Tendenzen‘, also letztlich ‚Ereignisse als Wirkungen von realen wechselwirkenden Faktoren‘. In dieser Vorstellung ist implizit die Dimension ‚Zeit‘ enthalten und die Dimension ‚Raum‘. Eine ‚Interpretation‘ von Ereignissen als ‚Tendenz‘ geht immer von ‚Mengen von Ereignissen‘ aus, die zeitlich geordnet auftreten. Ferner setzt die Interpretation eines Ereignisses als ‚Tendenz‘ die Dimension ‚Vergangenheit‘ voraus (erinnerte Gegenwart), darin Eigenschaften wie ‚Häufigkeit‘ oder ‚übergreifende Muster‘ von ‚Korrelationen‘.

Ein solches ‚dynamisches‘ Ereignisfeld ist nach dem späten Popper grundsätzlich ‚offen‘ für unterschiedliche Arten von Zukünften. Eine Zukunft entsteht zwar in der Gegenwart, aber ihre ‚kommende Gestalt‘ liegt in Gemisch aus ‚Nichtdeterministisch und nicht rein zufällig‘.

Wissenschaftliche Disziplinen

Die radikale Offenheit und die absolute Unvollständigkeit des Ereignisfeldes erlaubt viele hypothetische Interpretationen. Die Vielzahl der heutigen einzel-wissenschaftlichen Disziplinen ist eine Auswirkung dieser Erkenntnissituation. Das Ereignisfeld sprengt in der ersten Annäherung jede mögliche Interpretation. Und selbst der Versuch, das ‚Suchfenster‘ für eine einzelne empirische Disziplin zu fixieren, bereitet Probleme. Es ist auch bislang keine einzige wissenschaftliche Disziplin bekannt, deren ‚Untersuchungsgegenstand‘ vollständig spezifiziert ist. Es handelt sich immer um mehr oder weniger gute Umschreibungen, illustriert durch Beispiele. Meine Charakterisierung des ‚Suchfensters‘ der einzelnen Disziplinen resultiert im Fall von Kulturanthropologie, Soziologie und Politikwissenschaft nicht aus historischen Studien zu diesen Disziplinen, sondern stellt eine ‚hypothetische Setzung‘ dar aufgrund systematischer Überlegungen. Mit Popper würde ich sagen, es handelt sich um ‚Hypothesen‘, die man empirische überprüfen kann. Im Fall der Biologie gehe ich von meiner bisherigen Lektüre biologischer Texte aus (Schwerpunkt Evolutionsbiologie), und im Fall Informatik ist es ein Fach, in dem ich gelehrt und geforscht habe. Das Gleiche gilt für die Themenfelder ‚Philosophie‘, ‚Logik‘, ‚Mathematik‘ und ‚Theoretische Informatik‘, in unterschiedlichem Umfang. Andere Fächer, in denen ich gearbeitet habe wie z.B. ‚Linguistik‘, ‚Phonetik‘, ‚experimentelle Psychologie‘, ‚Hermeneutik‘, und ‚Semiotik‘ habe ich in dem Schaubild nicht berücksichtigt.

Mit Blick auf die Biologie habe ich einfach mal geschrieben ‚Selbstorganisation der Materie‚. Manche Biologen würden vielleicht sogar zustimmen, viele vielleicht nicht, denn das Spektrum der empirischen Phänomene im Verlaufe von ca. 3.5 Mrd. Jahre ist so unfassbar groß, dass es im Einzelfall eine Komplexität vieler Details gibt, die das zugrunde liegende ‚Prinzip‘ des Lebendigen verdecken kann. Die Formulierung ‚Selbstorganisation der Materie‘ stellt auch eine Verbindung her zur Perspektive des ganzen Universums und zur Thematik der Kosmologie (auch ein Aspekt beim späten Popper).

Bei der Kulturanthropologie folge ich einer Idee von Popper, der am Beispiel der massiven Veränderungen von Kultur durch aktuell verfügbare ‚Techniken‘ (Landwirtschaft, Rohstoffe, Bauten, Maschinen,…) den Gedanken nahelegt, dass ‚Kultur‘ vielleicht verstehbar ist als die Summe der Handlungsweisen von Menschen zu einer bestimmten Zeit an einem bestimmten Ort, die sich ‚ganz natürlich‘ den realen Gegebenheiten ‚anpassen‘, einfach durch das ‚faktische Tun‘. Man muss Essen. Und dazu benutzt man bestimmte Nahrungsmittel, bereitet sie zu, hat bestimmte Essrituale, und wenn sich die Nahrungsmittel ändern, die Küchengeräte, … dann ändert sich das Verhalten. In der digitalisierten Welt von heute haben sich unzählig viele Verhaltensweisen geändert, einfach weil man es heute ‚anders macht‘ als früher, weil man ‚real andere Möglichkeiten‘ hat. Technologie ist insofern ein ‚Medium‘ für Kultur. Der ‚Geist‘ erschafft zwar Technologie, aber als realer Teil des Alltags verändert dann die Technologie den Geist.

Die Soziologie beschäftigt sich vielfach einfach mit ‚Handlungsnetzwerken‘: die handelnden Akteure stehen in kontinuierlicher Wechselwirkung miteinander, wirken aufeinander ein, und da die ‚äußeren Ereignisse‘ sich über Körper und Gehirn in ‚innere Ereignisse‘ transformieren, können die Außenereignisse auch ‚im Innern‘ vielfältige Wirkungen entfalten. Die Vielfalt der Faktoren, die sowohl ‚im Innern‘ wie ‚im Außen‘ wirksam sein können ist nahezu unerschöpflich. Mögliche Einschränkungen kommen aus der realen Beschaffenheit der Körperwelt und der biologischen Beschaffenheit eines Homo sapiens.

Eine mögliche Aufgabenstellung von Politikwissenschaft könnte die Untersuchungen des Konzepts von ‚Macht‘ sein, wie es unter und zwischen Menschen auftreten kann, und wie man es so gemeinschaftlich gestalten kann, dass eine möglichst optimale Wirkung für möglichst viele ermöglicht wird.

Im Fall der angewandten Informatik ist die Sachlage einerseits einfach, weil es von der theoretischen Informatik klar definierte Konzepte zu vielem gibt, wie z.B. ‚Berechenbarkeit‘, ‚Automat‘, ‚Formale Sprache‘, ‚Befehlsliste = Programm = Algorithmus‘, ‚Komplexität‘, …) , wobei das Konzept der ‚Berechenbarkeit‘ das fundamentale ist. Die praktische Umsetzung allerdings kann in unendlich viele Varianten zersplittern, was ja die heutigen praktischen Anwendungen mittels Computern und Computernetzwerken demonstrieren. [5] In der letzten Zeit ist zu beobachten, dass durch die immer dichtere Vernetzung von Informatik-Prozessen und -Geräten mit nahezu jedem Aspekt des Alltagslebens das Interaktionsverhältnis zwischen Menschen und Computertechnologien das Mensch-Maschine Interaktionsverhältnis immer mehr in den Fokus der Aufmerksamkeit rückt. Mit dem Menschen dann letztlich die ganze Gesellschaft. Spätestens an dieser Stelle sollte klar werden, dass diese Technologie Teil der ‚Kultur‘ geworden ist und damit zu einem genuinen Gegenstand auch der Kulturanthropologie, sicher auch der Soziologie und der Politikwissenschaft.

Meta-Wissenschaften

Natürlich kann man hier viele Fragen ‚über‘ (‚meta‘) diese genannten Disziplinen stellen. Diese Fragen führen dann zu einer Art von Wissenschaft, deren Gegenstände entweder ‚wissenschaftliche Disziplinen‘ sind oder ‚abstrakte Strukturen‘, die sich hinter Bezeichnungen verbergen wie “Logik‘, ‚Mathematik‘ oder ‚Theoretische Informatik‘. Ein maximal abstrakter Gegenstandsbereich ist wohl das ‚Wissen um das Wissens‘, was ansatzweise beschreibt, was ‚Philosophie‘ machen kann.

Eine heute immer drängendere Aufgabenstellung in diesem Bereich ist die Herausforderung, den ‚Zusammenhang zwischen den Einzelwissenschaften‘ so herstellen zu können, dass die unterschiedlichen Erkenntnisse nicht — wie aktuell weitgehend — nur isoliert zur Verfügung stehen, sondern dass die unterschiedlichen ‚wissenschaftlichen Kompartments‘ in einer ‚transdisziplinären‘ Weise aufeinander beziehbar werden.

Traditionellerweise war dies die Aufgabenstellung der Wissenschaftsphilosophie. Doch kann man nicht behaupten, dass diese Aufgabe irgendwie eingelöst sei. Dazu müssten auch die Einzeldisziplinen dies wollen. Diese scheinen aber bislang mit ihrem ‚Inseldasein‘ ganz zufrieden zu sein.

Menschenbilder

Jede der genannten empirischen Disziplinen beschäftigt sich ‚irgendwie‘ auch mit solchen Akteuren, die der Lebensform des Homo sapiens zuzurechnen sind. Wie man leicht feststellen kann, ist das Bild eines ‚Menschen‘ in den Einzelwissenschaften — sofern es überhaupt offiziell definiert wird — sehr unterschiedlich. In vielen Zusammenhängen kommen Menschen zudem gar nicht oder nur sehr beiläufig vor. Obgleich es Menschen sind, die diese Wissenschaften betreiben und entwickeln, kommen sie selbst als die zentralen Akteure im offiziellen Bild der Wissenschaft mehr oder weniger nicht vor. Dies bedeutet, zentrale dynamische Faktoren des Wirklichkeitsprozesses werden in den jeweiligen wissenschaftlichen Bildern mehr oder weniger ausgeklammert. Es wäre mal interessant, für jede Disziplin heraus zu arbeiten, welches Menschenbild sie unterstellen, und wie diese Menschenbilder mit den wichtigen theoretischen Konzepten interagieren.

Diskurs

Ein Aspekt des Menschenbildes, der eigentliche alle wissenschaftlichen Disziplinen betrifft, ist der Aspekt der menschlichen Kommunikation als das zentrale Medium, durch das sich die verschiedenen Gehirne koordinieren. Ohne diese Kommunikation ist Wissenschaft unmöglich. Tatsächlich werden unzählig viele Texte publiziert. Ein Text ist aber nur dann eine Botschaft, wenn der Text eine Sprache benutzt, welche die beteiligten Gehirne in dem Sinne ‚kennen‘, dass der Bezug zu einer ‚gemeinten‘ Bedeutung hergestellt werden kann und dann über diese Bedeutung zu einer ‚aufzeigbaren Ereigniswelt‘. Dies sind alles keine trivialen Prozesse. Im Alltag misslingen sie vielfach, vielleicht zu oft, und komplexe Projekte scheitern in der Regel am Misslingen dieser Kommunikation.

Sowohl für die Wissenschaft wie auch für die Alltagswelt ist es also keineswegs unwichtig, wie ein Diskurs gestaltet werden sollte, damit möglichst viele möglichst viele komplexe Inhalte gemeinsam verstehen können. Die zu frühe ‚Delegation‘ dieser Verstehensaufgabe an ‚Maschinen‘ — sprich Computer — ist keine Lösung.

Oksimo Diskursraum

Der ‚oksimo Diskursraum‘ wird so genannt, weil es eine Software mit Namen ‚oksimo (reloaded)'[4] gibt, deren Benutzung darin besteht, dass man eine bestimmte Form eines Diskursraumes zur Verfügung gestellt bekommt. Beliebige Akteure einer Population können mit ihrer Alltagssprache ihre Situation, ihre Welt so beschreiben, wie sie glauben, dass diese Welt beschaffen sei. Zu dieser ‚Ausgangslage‚ können sie dann ‚Ziele‚ formulieren, welche zusätzlichen oder gänzlich neuen Eigenschaften sie für ihre Welt in der Zukunft erreichen wollen. Im Hinschreiben sind alle Teilnehmer gleichberechtigt. Keiner kann dem anderen vorschreiben, was er für sich hinschreiben will. Dann besteht die Aufgabe für alle darin, ‚Maßnahmen‚ zu finden, mit denen man die Ausgangslage schrittweise so umgestalten kann, dass nach und nach der Zielzustand erreicht wird. Das Besondere bei der Beschreibung der Ausgangslage und der Maßnahmen ist, dass die Autoren beliebige Akteure in die Beschreibung einbeziehen können, also auch das Verhalten von Menschen oder auch von quasi autonomen Algorithmen, Maschinen, was auch immer in der Welt vorkommen kann. Will man zwischendurch wissen, wie gut die bisherige Beschreibung ist,dann kann der eingebaute Simulator jederzeit auf Wunsch zeigen, wie weit man mit den bislang formulierten Maßnahmen kommt. Damit entsteht ein Moment der Selbstreflexion, eine Form von ‚Meta-Theorie‘. ‚Über sich selbst‘ nachdenken oder sich von anderen Feedback einholen.

Was hier auf den ersten Blick aussieht, als ob man zusammen eine ‚Geschichte erzählt‘, eine ‚Story‘, in Form eines ‚Drehbuchs‘, hat aber noch eine ganz andere Qualität. Der oksimo Diskursraum produziert ‚automatisch‘ eine vollständige empirische Theorie inklusive Folgerungsbegriff und der Ableitung von Prognosen.

Dieser letzte Punkt soll in einem eigenen Post ausführlich behandelt werden. Darin wird dann auch speziell darauf eingegangen, ob und wie die Anforderungen von Popper an eine empirische Theorie erfüllt werden. Hier sei nur so viel vorweg gesagt: der oksimo Diskursraum ist vollständig ‚Popper Kompatibel‘ 🙂

Anmerkungen

[1] Karl Popper, „A World of Propensities“,(1988) sowie „Towards an Evolutionary Theory of Knowledge“, (1989) in: Karl Popper, „A World of Propensities“, Thoemmes Press, Bristol, (1990, repr. 1995)

[2] Karl Popper, „All Life is Problem Solving“, Artikel, ursprünglich ein Vortrag 1991 auf Deutsch, erstmalig publiziert in dem Buch (auf Deutsch) „Alles Leben ist Problemlösen“ (1994), dann in dem Buch (auf Englisch) „All Life is Problem Solving“, 1999, Routledge, Taylor & Francis Group, London – New York

[3] Viele Anregungen habe ich heute dazu auch von Athene Sorokowski und Philipp Westermeier empfangen, als wir in einer Sitzung am 22.2.2022 über ähnliche Themen diskutierten. Von Philipp Westermeier ist mir u.a. der Aspekt der ‚Macht‘ bewusster geworden, ohne dass ich dieses Phänomen bislang hinreichend ‚verstehe‘. Von Athene Sorokowski kam u.a. der Aspekt, dass viele Einzeldisziplinen sich im Fall ihres Selbstverständnisses de facto um relativ abstrakte Begriffe gruppieren, ohne einen klaren Ereignisbezug zu haben.

[4] Einige Informationen zur oksimo Software und dem oksimo Paradigma finden sich hier: https://www.oksimo.org/

[5] Die Redewendung vom ‚Digitalen‘ im Zusammenhang mit berechenbaren Prozesse mittels Computern ist eigentlich völlig irreführend. Für die materielle Umsetzung berechenbarer Prozesse spielt es zwar eine wichtige Rolle, dass man in Form von ‚digitalen Chips‘ ein Material gefunden hat, das sich für die Umsetzung des Konzepts wunderbar eignet, aber ob ein Computer-Programm digital kodiert wird, oktal, hexadezimal oder wie auch immer, ist unwesentlich. Im übrigen sei darauf hingewiesen dass die Nervenzellen im Gehirn für die eigentliche Signalverarbeitung auch ‚digital‘ arbeiten, obgleich jede einzelne Zelle selbst ein hochkomplexes bio-chemisches Wunderwerk darstellt. Auch in einem ‚Chip‘ sind die tatsächlichen Signale nicht ‚binär‘ sondern analog. Die ‚Binarität entsteht dadurch, dass der analoge Spannungsraum künstliche in ‚Zonen‘ unterteilt wird, so dass eine Zone mit ‚hoher Spannung‘ als ‚1‘ interpretiert wird und eine Zone mit niedriger Spannung mit ‚0‘. Das ‚Binäre ist also ein ‚Artefakt‘, das aufgrund eines theoretischen Konzepts in die ‚analoge Materie‘ hineinprojiziert wird.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

Fortsetzung

der Diskussion um Popper HIER.

WISSENSCHAFT IM ALLTAG. Popper 1991/1994 (1999)

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 21.Februar 2022
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Kontext

Bei diesem Beitrag handelt es sich um eine Fortsetzung der Besprechung der beiden Artikel von Popper „A World of Propensities“ (1988, 1990) sowie „Towards an Evolutionary Theory of Knowledge“ (1989,1990).[1] Der vorliegende Beitrag „All Life is Problem Solving“ (1991, 1994/1999)[2] stammt aus einem späteren Buch.

Vorbemerkung

In den beiden vorausgehenden Besprechungen wurden grobe Linien eines umfassenden Theoriebegriffs von Popper deutlich, in dem es weniger um ‚technische Details‘ eines begrifflichen Theoriebegriffs geht als vielmehr um eine philosophische Gesamtsicht von ‚Wissen‘ als konstitutiver Teil von jedem ‚biologischen Organismus‘. Damit werden alle ‚pragmatischen Konstituenten‘ eines Theoriebegriffs deutlich — einschließlich der möglichen Akteure –, aber die endgültige begriffliche Ausformulierung fehlt noch.

In dem vorliegenden Text „All Life is Problem Solving“ folgt Popper wieder eher seiner bisherigen ‚Gesamtphilosophischen Sicht‘ und weniger technischen Details.

Leben ist Problem Lösen

Von den beiden vorausgehenden Texten her kommend ist klar, dass das biologische Leben, so, wie Popper es rekonstruiert, in nichts anderem besteht als ‚Probleme zu lösen‘. Das zentrale Problem ist das ‚Überleben schlechthin‘, das sich dann in vielfältigen Formen realisieren kann. Bei den komplexeren Lebensformen finden wir unfassbare Netzwerk von vielen Faktoren vor, die alle ineinander greifen, die sich auf unterschiedlichen ‚Realisierungsebenen‘ organisiert haben, die unterschiedlichen Zeithorizonten folgen, so dass es immer schwerer wird, in dieser Vielfalt das allem innewohnende Ziel noch zweifelsfrei erkennen zu können.

Gleichzeitig mit dem Ansteigen der Komplexität der ‚inneren‘ Strukturen sind biologische Lebensformen als Akteure in einer Umwelt auch in der Lage, immer komplexere ‚Handlungsformate‘ hervor zu bringen, die die unterschiedlichsten ‚Ereignisse‘ in der umgebenden ‚Ereigniswelt‘ auslösen können. Über diese ‚erzeugten Ereignisse‘ können auch verschiedene Akteure ‚miteinander interagieren‘ um damit ‚Kommunikation‘ zu realisieren, oder ‚Koordination des Verhaltens‘ zu ermöglichen oder auch zur ‚Veränderung von Umgebungseigenschaften‘ in Richtung Werkzeuge, Bauten, Maschinen, usw. ‚Gesellschaft‘, ‚Technologie‘ und ‚Kultur‘ erscheinen in dieser Perspektive als ‚Auswirkungen menschlichen Verhaltens‘ auf die Ereigniswelt ohne die Menschen aber auch auf die Menschen selbst.

Gesellschaft – Kultur – Technologie

Für Popper scheint ‚Gesellschaft‘ der primäre Begriff zu sein. Abgeleitet scheint die ‚Kultur‘ als ein Teilphänomen innerhalb der Gesellschaft zu sein, und als weiteres spezielles Phänomen innerhalb von Kultur nennt Popper ‚Technologie‘. Genauere begriffliche Abgrenzungen nimmt er nicht vor.

Das unterstellte ‚innere Wechselverhältnis zwischen Kultur und Technologie‘ illustriert Popper dadurch, dass er eine Reihe von ‚technologischen Erfindungen‘ aufzählt, die im Laufe der Geschichte die Kultur ‚verändert‘ haben. In seinen Beispielen charakterisiert Popper ‚Technologie‘ ansatzweise als spezielle Verfahrensweisen/ Maschinen, die Menschen in ihrem Alltag benutzen können, und wie durch diese Nutzung sich vieles in den bekannten Abläufen ändert. Abläufe sind für gewöhnlich konstituiert durch Akteure, die bestimmte Rollenanforderungen erfüllen müssen, die implizit von ‚Werten‘ (und möglichen ‚Sanktionen‘) gesteuert werden, und durch die Verschiedenes ‚bewirkt‘ werden kann. Einerseits kosten diese Abläufe Ressourcen (Zeit, Kraft, Energie, Material, …), andererseits erlangt man dadurch ‚Ergebnisse‘ und ‚Anerkennungen‘, die gesellschaftlich ‚honoriert‘ werden.

Konstituieren also diverse ‚Abläufe‘ mit bestimmten ‚Rollen‘, ‚Regelwerken‘ und ‚Werten‘ den ‚Stoff, aus dem Kultur besteht‘, dann kommt ‚Technologie‘ in diesen Abläufen vor als ’nicht-menschliche Faktoren‘, die die Art und Weise der Abläufe verändern können (weniger Zeitbedarf, weniger Materialbedarf, weniger menschliche Anstrengung, weniger Kosten, …, größere Ergebnisse, mehr ‚Erfolg‘, …). Technik erscheint in dieser Sicht als ein ‚Medium‘, durch das sich eine aktuelle Kultur ‚fließend verändern‘ kann. Es wird kaum diskutiert, es wird einfach gehandelt, und das veränderte Handeln verändert das Erleben, das Miteinander, verändert bisherige ‚Skripte‘ und bisherige ‚Rollen‘, verändert letztlich unmerklich das ganze Denken und Verstehen.

Zeitsprung

Als Popper seinen Vortrag in Bad Homburg 1991 hielt, da war das später so einflussreiche World Wide Web [3] zwar im Prinzip schon ‚erfunden‘, aber es war noch nicht das öffentliche, später und heute dann globale Phänomen, das mittlerweile in nahezu jeden Lebensbereich eingedrungen ist, das immer mehr ‚überall‘ benutzt wird, und das durch diese umfassende Nutzung de facto das gesamte gesellschaftliche Leben der meisten Länder auf dieser Erde real und — wie es aussieht — nachhaltig verändert hat. Mit dieser umfassenden realen Veränderung des alltäglichen Lebens hat sich auch das ‚Denken‘ in diesem täglichen Ereignisstrom real verändert. Ein Bereich, in dem man diese deutlich ablesen kann, ist der Sozialisierungsprozess der heutigen Kinder verglichen mit Kindern von z.B. 1950 – 1955. Natürlich spielen hier viele andere Faktoren auch eine Rolle, aber der Faktor World Wide Web ist gut greifbar und in seinen Wirkungen (1950 – 1955 nicht vorhanden), heute gut abgrenzbar.

Klar ist hier, dass Technologie von Kultur nicht abgrenzbar ist. Technologie ist das Medium, in dem wir unsere Kultur leben.

Eine der interessanten Fragen in diesem Zusammenhang ist, ob und wie sich die Fähigkeit des Menschen zum Problemlösen dadurch möglicherweise verändert hat:

  1. Welche Probleme erkennen wir überhaupt als solche, die wir lösen müssten, um überleben zu können?
  2. Welche dieser Problemen können wir durch die neue WWW-Technologie besser lösen?
  3. Welche dieser Problemen können wir durch die neue WWW-Technologie jetzt schlechter oder gar nicht mehr lösen?

Für die Beantwortung dieser Fragen arbeiten wir am oksimo Projekt.

Anmerkung

[1] Karl Popper, „A World of Propensities“,(1988) sowie „Towards an Evolutionary Theory of Knowledge“, (1989) in: Karl Popper, „A World of Propensities“, Thoemmes Press, Bristol, (1990, repr. 1995)

[2] Karl Popper, „All Life is Problem Solving“, Artikel, ursprünglich ein Vortrag 1991 auf Deutsch, erstmalig publiziert in dem Buch (auf Deutsch) „Alles Leben ist Problemlösen“ (1994), dann in dem Buch (auf Englisch) „All Life is Problem Solving“, 1999, Routledge, Taylor & Francis Group, London – New York

[3] World Wide Web in wkp-de: https://de.wikipedia.org/wiki/World_Wide_Web

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

GROSSVATER und die STADT DER ERLEUCHTUNG

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 20.-21. Februar 2022
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Großvater stand da; neben ihm seine Enkel Peter und Brigitta.

Sie schauten auf die große Mauer mit dem großen schwarzen Tor.

Es war das Tor zur ‚Stadt der Erleuchtung‘.

Brigitta fragte: „Was passiert, wenn wir in der Stadt der Erleuchtung sind?“

Großvater wendete seinen Kopf und schaute sie an.

„Wenn Du drin bist, dann wirst Du feststellen, dass Du schon immer in dieser Stadt warst, und noch immer bist.“

Brigitta schaute ihn fragend an.

„Das ist doch prima“, sagte Peter mit hellen Augen, „Hier habe ich meine Freunde. Hier kann man so viel erleben…“.

„Ja“, sagte Großvater, „wir sind Teil der Erleuchtung“.

Unmerklich ging ein Lächeln über sein Gesicht.

… und das Leuchten war nicht nur bei ihm …

Anmerkung

Der obige Text steht ‚für sich‘. Wenn jemand weitere Gedanken zum Thema ‚Erleuchtung‘, ‚Mystik‘ und Philosophie mit Wissenschaft Kennenlernen möchte, kann sich an diesem Text versuchen. Ansonsten gibt es in diesem Blog viele weitere Texte zu den Stichworten ‚Spiritualität‘ und ‚Meditation‘.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

WISSENSCHAFT IM ALLTAG. Popper 1989/1990

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 19.-21.Februar 2022, 14:05h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Vorbemerkung

Bei diesem Beitrag handelt es sich um eine Fortsetzung der vorausgehenden Besprechung von Popper’s erstem Artikel „A World of Propensities“ (1988, 1990). In diesem neuen Post steht der zweite Artikel von Popper im Zentrum „Towards an Evolutionary Theory of Knowledge“ (1989,1990)[0]. Der Text von Popper geht zurück auf seine erste öffentliche Rede für die Alumni der London School of Economics 1989, 40 Jahre nach seiner Ernennung zum Professor für Logik und wissenschaftliche Methoden an der L.S.E. Der Text des Artikels wurde von ihm gegenüber der ursprünglichen Rede leicht erweitert.

Rückblick als Zusammenfassung

(Mit eigenen Worten …)

Im vorausgehenden Text hatte Popper sehr grundsätzlich die Idee entwickelt, dass in der Abfolge beobachtbarer Ereignisse mit möglichen Häufigkeiten ‚mehr enthalten‘ ist als bloß ein ‚wiederholtes Auftreten‘. Ereignisse in der uns umgebenden Ereigniswelt — mit unserem Körper ebenfalls als ein Ereignis darin — stehen nicht beziehungslos im Raum, sondern stehen in einem realen Zusammenhang mit allem anderen, kontinuierlich eingebettet in reale Wechselbeziehungen vielfältiger Art, und dieser Zusammenhang dauert an als ‚Gegenwart‘, in der sich diese realen Konstellationen in Form von ‚Wirkungen‘ manifestieren. Die Wirklichkeit erscheint in dieser Sicht als ein ‚Prozess‘, in dem alles mit allem verbunden ist und sich durch die kontinuierlichen ‚Wirkungen‘, die von den einzelnen Komponenten ausgehen, sich selbst kontinuierlich auch verändern kann. Eine Wirkung, die innerhalb solch eines dynamischen Prozesses als ‚Ereignis‘ beobachtbar (= messbar) wird, muss man daher als eine ‚Tendenz‘ (‚propensity‘) begreifen, die ‚vorkommt‘, weil es einen realen Zusammenhang gibt, der sie bedingt. Tendenzen kann man daher verstehen als ‚Geräusche des Daseins‘, ‚Mitteilungen des So-Seins‘, oder als ‚Sound der Welt‘. Man kann es beim bloßen Wahrnehmen, beim Sound als solchem, belassen, oder man kann den Sound als ‚Spur‘ sehen, als ‚Zeichen‘, als ‚Abdruck von etwas‘, das sich ‚mitteilt.

Popper legt Wert darauf, dass die einzelnen Töne des Sounds, die einzelnen Ereignisse, weder ‚deterministisch‘ sind noch ‚rein zufällig‘. Irgendetwas dazwischen. Das Auftreten dieser Töne kann ‚Muster‘ andeuten, ‚Regelhaftigkeiten‘, durch die unser Denken angeregt werden kann, zwischen aufeinander folgenden Ereignissen ‚Beziehungen‘ zu sehen, ‚Zusammenhänge‘, aber diese Beziehungen sind aufgrund der Art ihres Auftretens ‚fragil‘: sie können auftreten mit einer gewissen Häufigkeit, phasenweise vielleicht sogar mit einer gewissen ‚Konstanz der Häufigkeiten‘, aber es gibt ‚keine absoluten Garantien‘, dass dies immer so bleiben wird. Im Alltag neigen wir dazu, solche sich wiederholenden ‚Beziehungen‘ in ‚Hypothesen‘ umzuwandeln, an die wir die ‚Erwartung‘ knüpfen, dass sich ein solches hypothetische Muster reproduziert. Falls ja, fühlen wir uns ‚bestätigt‘; falls nein, steigen Zweifel auf, ob wir uns mit unserer Annahme geirrt haben. Im einen Grenzfall, wenn das Muster sich immer und immer wiederholt, neigen wir dazu es als ‚feste Regel‘, als ‚Gesetz‘ zu sehen. Im anderen Grenzfall, wenn das Muster sich trotz aller Versuche, es als Ereignis zu reproduzieren (Experiment, Test), nicht wieder einstellt, dann neigen wir dazu, unsere ‚Hypothese‘ wieder zu verwerfen. Doch zwischen ‚Annahme‘ eines Musters als ‚gesetzmäßig‘ und als ‚verworfen‘ liegt ein Raum voller Schattierungen. Der bekannte Spruch ‚Die Hoffnung stirbt zuletzt‘ kann andeuten, dass das ‚Verwerfen‘ einer Hypothese — je nach Art und Stärke der Erwartungen — sehr lange hinausgezögert werden kann … manche ‚glauben‘ auf jeden Fall, dass es irgendwie doch möglich sein kann, egal was passiert …

Diese Sichtweise Poppers deckt sich nicht mit einer theoretischen (mathematischen) Wahrscheinlichkeit, nicht mit einer rein subjektiven Wahrscheinlichkeit, auch nicht mit einer deskriptiven (empirischen) Wahrscheinlichkeit, selbst wenn es jeweils ‚Überschneidungen‘ gibt. Eher ist es eine Kombination von allen Dreien plus eine charakteristische Erweiterung:

  1. Wenn man beginnt, beobachtbare Ereignisse zu ’notieren‘, zu ‚protokollieren‘ und sie nach verschiedenen formalen Kriterien ‚anzuordnen‘ ohne weiter reichenden Interpretationen zu formulieren, dann bewegt man sich im Feld einer empirischen deskriptiven Wahrscheinlichkeit, die mit Häufigkeiten arbeitet. Damit würde auch Popper anfangen.
  2. Wenn man diese ‚empirischen Befunde‘ dann versucht in weiter reichende ‚Beziehungen‘ einzuordnen, dann braucht man eine theoretische Struktur. Eine solche bietet die theoretische Wahrscheinlichkeit. In ihr kann man beliebig viele Strukturen (= Modelle, Theorien) definieren und versuchsweise in Beziehung setzen zu empirischen Befunden. Je nach Modell kann man dann die empirischen Befunde unterschiedlich interpretieren und daraus unterschiedliche Voraussagen ableiten. Im Experiment kann man weiter versuchen, zu überprüfen, welches angenommene Modell sich ‚mehr‘ bestätigt als ein anderes.
  3. Jeder einzelne Mensch bildet im Alltag automatisch sein ’subjektives Modell‘ von Wahrscheinlichkeiten aufgrund seiner Alltagserfahrung. Dies kann sich auf Dauer als ‚mehr oder weniger zutreffend‘ erweisen. Würde jemand versuchen, seine Alltagserfahrung ‚wissenschaftlich zu analysieren‘ würde er sowohl eine ‚deskriptive‘ Wahrscheinlichkeit ausbilden können wie auch eine ‚theoretische‘ Wahrscheinlichkeit.
  4. Die Sichtweisen (1) – (3) zwingen nicht dazu, jenseits der beobachtbaren und klassifizierbaren Ereignisse eine ‚reale Welt von Kontexten (mit Situationen als Teilaspekten)‘ anzunehmen, deren reale Beschaffenheit so ist, dass von ihr ‚Wirkungen‘ ausgehen, die sich als ‚beobachtbare Ereignisse‘ manifestieren und die in ihrer zeitlich geordneten ‚Gesamtheit‘ dann als ‚Tendenzen‘ verstanden werden können, die ‚objektiv‘ sind, da sie mit realen Kontexten in einem unauflösbaren Zusammenhang stehen. Diese vierte Dimension der ‚objektiven Tendenzen‘ ist der ‚Mehrwert, den Popper in die Sicht der Dinge einbringt

Soweit die Kernthese von Popper zu ‚objektiven Tendenzen‘, zusammengefasst, nicht als 1-zu-1 Formulierung von Popper.

Ein wissender Körper

Im vorausgehenden Text hatte ich bei der Kommentierung von Poppers Text spontan an verschiedenen Stellen Überlegungen eingestreut, in denen ich weitergehende Annahmen über die Arbeitsweise unseres Körpers mit seinem Gehirn beschrieben habe. Zu diesem Zeitpunkt hatte ich Poppers Beitrag zu einer evolutionären Theorie des Wissens noch nicht gelesen. Ich selbst hatte mich aber auch schon seit mindestens 30 Jahren mit der evolutionären Perspektive unserer körperlich-geistigen Existenz beschäftigt und erleben dürfen, dass erst mit Einbeziehung der evolutionären Perspektive viele grundlegenden Eigenschaften unser Daseins in einem rationalen Kontext (= Menge von Hypothesen) erscheinen, der ‚plausibel‘ wirkt (aber ‚auf Abruf‘; es kann sich ändern).

Mit Beginn der Lektüre des zweiten Artikels war ich daher nicht wenig (positive) überrascht, dass Popper der evolutionären Perspektive unseres wissenden Körpers so viel Gewicht beimaß. [0b]

Popper beginnt seinen Artikel mit der (Hypo-)These, dass Tiere Wissen (‚knowledge‘) besitzen.(vgl. S.30) Da wir als Menschen nicht direkt wissen können, was ‚Wissen‘ aus der Innensicht von Tieren ist sondern nur aus unserer ‚Selbsterfahrung‘ als Menschen, räumt Popper ein, dass die These „Tiere besitzen Wissen“ im ersten Augenblick ‚anthropomorph‘ klingt; das wäre dann eine bloße ‚Projektion‘ von menschlichen Eigenschaften auf Tiere; einer solchen Projektion käme dann zunächst kein weiterer empirischer Erkenntniswert zu. Aber Popper bleibt beharrlich und stellt fest, dass seine Rede nicht als „bloße Metapher“ gemeint sei. Darüber hinaus verteidigt er seine anthropomorphe Redeweise mit dem Argument, dass wir über biologische Phänomene gar nicht anders als anthropomorph reden könnten, da unser eigener Körper mit seinen Eigenschaften als (natürlicher) Referenzpunkt dient, über den wir einen ersten Zugang zu ‚homologen‘ (= strukturähnlichen, formähnlichen) Eigenschaften der anderen Lebensformen finden.(vgl. S.30) Und er wiederholt seine These, dass die ‚Formähnlichkeiten‘ zwischen menschlichem Körper (und Verhalten) mit nicht-menschlichen Körpern (und Verhalten) nicht rein äußerlich sei, sondern dass die formähnlichen Teile auch ähnliche Funktionen haben, z.B. die Annahme, dass das Gehirn eines Tieres auch irgendwie ‚Wissen‘ hat, erzeugt analog wie beim Menschen.(vgl.S.30f).

Er unterscheidet sehr schnell zwischen ‚Wissen‘ und dem ‚Wissen um Wissen‘ (‚being aware of‘) und meint, dass aus der Annahme von ‚Wissen‘ in nicht-menschlichen Lebensformen nicht unbedingt folgt, dass diese sich ihres Wissens ‚bewusst‘ seien noch ist auszuschließen, dass bei uns Menschen ‚Wissen‘ auch ‚unbewusst‘ (’not aware of‘, ‚unconscious‘) sein kann.(vgl. S.31) Bei Menschen manifestiert sich ‚unbewusstes Wissen‘ oft in Form von ‚Erwartungen‘, deren wir uns oft erst bewusst werden, wenn sie ‚enttäuscht‘ werden.(vgl. S.31)

Popper stellt dann eine Art Liste von Vermutungen zusammen, die sich aus der Eingangs-Annahme ergeben können, dass Tiere über Wissen verfügen (vgl. SS.32-39):

  1. ERWARTUNGEN: Wie schon zuvor erwähnt, zeigt sich Wissen in Form von ‚Erwartungen‘
  2. UNSICHERHEIT: Erwartungen sind objektiv unsicher; der jeweilige Akteur kann mit einer Erwartung aber so umgehen, als ob sie ’sicher‘ sei.
  3. HYPOTHESEN: Die überwiegende Menge an Wissen besteht aus Hypothesen.
  4. OBJEKTIV WAHR: Trotz eines hypothetischen Charakters kann Wissen ‚objektiv wahr‘ sein, weil es sich auf ‚objektive Fakten‘ (= reale Ereignisse) stützt.
  5. WAHR ≠ SICHER: Wahrheit und Sicherheit müssen klar unterschieden werden. In der Welt der realen Ereignisse kann etwas ‚wahr‘ und zugleich unsicher sein. In der Welt des abstrakten Denkens (z.B. Mathematik) kann es wahr und zugleich sicher sein.
  6. TESTEN: Wegen mangelnder Sicherheit in der realen Welt müssen wahre Aussagen immer wieder getestet werden, ob sie ’noch‘ zutreffen (weil die reale Welt sich in konstanter Veränderung befindet).
  7. Wie (4)
  8. FALSCHE SICHERHEIT: In der realen, sich ständig verändernden Welt, kann es keine absolute Sicherheit geben.
  9. WISSEN ÜBERALL: Verknüpft man ‚Wissen‘ an der Wurzel mit ‚Erwartungen‘, dann muss man allen biologischen Lebensformen ein Minimum an Wissen zusprechen.
  10. Erläuterung zu (9) mit Bäumen.
  11. Weitere Erläuterung zu (9) mit Bäumen.
  12. LANGZEIT und KURZZEIT EREIGNISSE: Reaktionen eines Organismus auf Kurzzeit Ereignisse setzten gewisse ‚Fähigkeiten‘ voraus, die sich über Generationen als ’strukturelle Eigenschaften‘ adaptiv herausgebildet haben müssen, damit sie als Basis des Reagierens verfügbar sind.
  13. Erläuterung zu (12) am Beispiel von Wildgänsen, die adaptiert sind, auf jagende Füchse zu reagieren.
  14. Erläuterung zu (12). Strukturelle Anpassungen setzen voraus, dass es Umweltbedingungen gibt, die über lange Zeit hinreichend konstant waren.
  15. ADAPTION und WISSEN mit ERWARTUNGEN durch VERSUCH & IRRTUM: Ein reales Ereignis wird nur dann für einen einzelnen Akteur zu einer ‚Sache‘ (zu einem ‚Fakt‘, zu einer ‚Information‘) wenn verfügbares Wissen das Ereignis entsprechend ‚einordnen‘ kann. Verfügbares Wissen entsteht aber nur durch einen individuellen ‚Lernprozess‘ bestehend aus vielen kleinen ‚Versuchen‘ mit Erwartung und nachfolgender Bestätigung/ Nicht-Bestätigung. Adaptierte Strukturen in einem Individuum in einer sich verändernden Welt mit partiell konstanten Mustern können nur über einen Prozess von vielen ‚Reproduktions-Versuchen‘ in einer Population entstehen, wenn’un-passende‘ Strukturen weniger leistungsfähig sind wie andere.
  16. LANGZEIT-/KURZZEIT ANPASSUNG/WISSEN: Kurzzeit-Wissen setzt Langzeit-Anpassung und darin kodiertes Wissen voraus. Sowohl Langzeit-Strukturen/Wissen als auch Kurzzeit-Wissen sind beide ‚hypothetisch‘: sie bilden sich anlässlich ‚realer Ereignisse‘, erben aber die Unsicherheit der Ereigniswelt als solcher.
  17. WISSEN IST ÜBERLEBENSORIENTIERT: Jede Form von Wissen in jedem biologischen Organismus (von der kleinsten Zelle bis zum Menschen) dient dazu, dem Menschen für sein Überleben zu dienen.
  18. ALTER DES WISSENS: Das Phänomen des Wissens begleitet das Leben von Anfang an.
  19. UNIVERSUM-LEBEN-WISSEN: Insofern das Leben mit dem ganzen Universum verknüpft ist (zu 100%!) ist auch das Wissen ein Aspekt des gesamten Universums.

Popper illustriert viele der in der Liste aufgeführten Punkte dann an der realen Geschichte der Evolution anhand konkreter Forschungen aus seiner Zeit. (vgl. SS.39 – 45) Der Grundtenor: Leben spielt sich primär in Form von chemischen Prozessen in jeweiligen Umgebungen ab. Die ‚Makro‘-Phänomene, die wir vom Leben aus dem ‚Alltag der Körper‘ kennen, sind im Sinne der Komplexität so ‚unfassbar weit‘ von diesen elementaren Prozessen entfernt, dass es für uns Menschen bis heute — trotz Wissenschaft — noch kaum möglich ist, alle diese Prozesse hinreichend zu verstehen. Speziell der Übergang vom Planeten Erde ‚vor‘ den Phänomenen einzelligen Lebens hin zu einzelligem Leben ist trotz mittlerweile vielfacher Versuche leider noch nicht wirklich klar.[5],[6]

Die wichtigsten Erkenntnisse aus alledem

An dieser Stelle stellt sich Popper selbst die Frage, was aus alledem jetzt folgt? („… the main lesson to be drawn …“(S.45)

Und mit all den ungeheuerlichen Geschehnissen der Evolution vor Augen fällt eines ganz klar auf: allein nur um zu wissen, was ‚um ihn herum‘ der Fall ist, benötigt der Organismus eine ‚Struktur‘, deren Eigenschaften den Organismus in die Lage versetzen, bestimmte Umweltereignisse zu ‚registrieren‘, dieses ‚Registrierte‘ in interne Zustände so zu ‚übersetzen‘, dass der Organismus darauf in einer Weise ‚reagieren‘ kann, die für sein Überleben zuträglich ist. Und da es neben den ‚Langzeit-Ereignissen‘ (Eigenschaften der Umgebung, die sich nur langfristig ändern), auch sehr viele ‚Kurzzeit-Ereignisse‘ gibt, die mal so oder mal so sind, benötigt der Organismus neben den ‚Strukturen‘ auch ‚flexible Prozesse‘ des ‚akuten Lernens‘, die aktuell, ‚on demand‘, Antworten ermöglichen, die jetzt gebraucht werden, nicht irgendwann.

Popper greift an dieser Stelle eine Terminologie von Kant [7] auf der zwischen ‚a priori‘ und ‚a posteriori‘ Wissen unterschieden hat. [6] Angewendet auf seine Untersuchungen interpretiert Popper das ‚Wissen a priori‘ als jenes Wissen, das schon da sein muss, damit ein konkretes Ereignis überhaupt ‚als irgendetwas‘ erkannt werden kann („to make sense of our sensations“, S.46). Und dieses ‚voraus zu setzende Wissen‘ sieht er als Wissen a priori‘, das sowohl als verfügbare Struktur (= Körper, Gehirn…) auftritt wie auch innerhalb dieser Struktur als ein ‚Wissen a posteriori‘, das ein Ereignis zu einem ‚irgendwie sinnhaften Ereignis‘ werden lassen kann.(„… without it, what our senses can tell us can make no sense.“ (S.46) Innerhalb dieses voraus zu setzenden Wissens müssen die grundsätzlichen Unterscheidungen zu ‚Raum‘, ‚Zeit‘ und ‚Kausalität‘ möglich sein. Und Popper meint, dass Kant mit seinen erkenntniskritischen Rekonstruktionen grundlegende Einsichten der Evolutionstheorie vorweg genommen habe.(vgl. S.46)

Und, indem Popper Kant so hoch lobt, geht er unmittelbar dazu über, ihn — auf seine Weise — gewissermaßen zu ‚transformieren‘, indem er sagt, dass der Anteil des ‚apriorischen Wissens‘ eher bei 99% liegt und der des ‚aposteriorischen Wissens‘ eher bei 1%. Diesen Schluss zieht er aus der Tatsache (= seine Interpretation von einer Sachlage!), dass die verschiedenen sensorischen Ereignisse im Körper eines Organismus als solche nur ‚Ja-Nein-Zustände‘ sind, die eine wie auch immer geartete ‚Bedeutung‘ nur bekommen, wenn es einen ‚Deutungsrahmen‘ gibt, mit Hilfe von dem ein sensorisches Ja-Nein als ‚Laut‘ oder als ‚Farbe‘ oder als ‚Geschmack‘ usw. ‚gedeutet‘ (abgebildet) werden kann. Dies heißt, dass generell Ereignisse nach einem Deutungsrahmen verlangen, der schon ‚da sein muss‘, damit er wirken kann. Und da ein Organismus primär aus chemischen Prozessen besteht, muss das ‚apriorische Wissen‘ in diesen chemischen Prozessen verfügbar sein („… inborn … in our chemical constitution“. (S.46)) Ferner kann das Verhältnis zwischen zu klassifizierenden sensorischen Daten und dem Wissen a priori nicht deterministisch sein, da diese Klassifikationen ‚falsch‘ sein können, sie partiell erst durch ‚Versuch und Irrtum‘ entstehen. Insgesamt ermöglicht das Wissen zudem ‚Erwartungen‘, aufgrund deren der Organismus handelt (und deshalb ‚irren‘ kann).

Hier deutet sich ein konstruktiver Konflikt an in der Annahme, dass es schon ein apriorisches Wissen geben muss, das zu Klassifikationsleistungen befähigt, und zugleich, dass solch ein apriorisches Wissen weder ‚vollständig‘ zu sein scheint (Poppers Beispiel: der Frosch, der zwar Fliegen erkennen kann als sein Futter, aber nur dann, wenn sie sich bewegen), noch ‚fertig im Detail‘, da ‚Irrtümer‘ auftreten können, aus denen ‚gelernt‘ werden kann. Dem Ganzen (Wissen) haftet etwas ‚prozesshaftes‘ an: es hat schon immer etwas, was ‚funktioniert‘, aber es kann sich selbst in Interaktion mit ‚dem Anderen‘ irgendwie immer weiter verändern.(vgl. S.47)

Das zugrunde liegende Schema könnte man vielleicht wie folgt formulieren: (i) ein Organismus braucht eine Struktur, die registrierte Ja-Nein-Ereignisse ‚Klassifizieren/ Deuten‘ kann, und parallel (ii) braucht es aufgrund des bisherigen Wissens eine ‚Erwartung‘, anhand deren eine aktuelle Deutung als ‚bestätigend‘ erscheint oder ’nicht-bestätigend‘. Aus dieser Differenz kann dann eine Veränderung des Verhaltens resultieren, das ‚versuchsweise‘ Ereignisse schafft, die dann ‚eher bestätigen‘ und ‚weniger enttäuschen (Irrtum, Fehler, …)‘. Das Ganze wird dadurch ‚komplex‘, dass für dieses Schema mindestens zwei Zeitschemata anzunehmen sind: (a) langfristige strukturelle Änderungen (’strukturelles Lernen‘) des gesamten Organismus über Reproduktion und ‚Erfolg‘ in der Population (wer überlebt besser), sowie (b) kurzfristige Änderungen (’situationsbezogenes Lernen‘), das in wechselnden ‚hypothetischen Bildern der Welt‘ beständig als Hypothese und Erwartung wirksam ist, die im Konfliktfall (keine Bestätigung) ‚modifiziert‘ werden können.

Popper zieht in diesem Kontext eine Parallele zum modernen Begriff einer Theorie, die als Hypothese versucht, hilfreiche Deutungen zu liefern, und die in Konfrontation mit der Ereigniswelt (über Experimente) bestätigt oder nicht bestätigt wird. Im Prozess des Erwartens und Korrigierens vollzieht sich eine Form der ‚Anpassung‘ des menschlichen Denkens an jene Ereigniswelt (die wir ‚Welt‘ nennen, ‚Natur‘, ‚Universum‘, …), in der wir uns — ungefragt — vorfinden, in der wir versuchen, zu überleben. (vgl. S.48f) Popper äußert dann noch eine Analogie der Art, dass der Unterschied zwischen der hochentwickelten Wissenskultur eines einzelnen Homo sapiens und jener eines einzelnen Bakteriums letztlich nur graduell ist; grundsätzlich hat ein Bakterium, ein Einzeller, schon alle Merkmale, über die höher entwickelte biologische Lebensformen verfügen.(vgl. S.49f) Insbesondere sieht Popper in jedem lernfähigen Organismus auch — mindestens implizit — ‚Werte‘ in Aktion, nämlich überall dort, wo ‚entschieden‘ werden muss, welche der möglichen Optionen ausgewählt werden soll. In einfachen Organismen geschieht dies weitgehend strukturell-apriorisch; im Fall komplexer Lebewesen mit elaborierten Nervensystemen kann es zusätzlich künstlich eingeführte ‚Regelsysteme‘ geben — wie z.B. ‚gesellschaftliche Normen‘, ‚Konventionen‘, ‚Sitten und Gebräuche‘, ‚Vereinbarte Gesetze‘ usw. –, die auf einen individuellen Entscheidungsprozess einwirken können, ohne den individuellen Entscheidungsprozess dabei ganz außer Kraft zu setzen.(vgl. S.50f)

Nachbemerkung – Epilog

Nimmt man beide Beiträge als eine mögliche Einheit, dann entsteht ein spannender Zusammenhang, eine spannende Gesamt-Hypothese über die Natur der uns umgebenden Ereigniswelt mit uns selbst (über unseren Körper) als Teil davon.

Mit unserem Körper erleben wir interne Ereignisse in Form angeborener und angelernter gedeuteter Strukturen, die uns ein ‚Bild von der Welt mit uns als Teil‘ liefern, mit ‚Erwartungen‘, die in uns entstehen, mit Bestätigungen und Mangel an Bestätigungen, mit der Möglichkeit eines Handelns, das die Struktur der Ereignisse um uns herum — und uns selbst — verändern kann.

Die Welt ist ein dynamisches, changierendes Etwas, ein Gesamtprozess, dessen endgültige Gestalt, dessen inneren ‚Antriebskräfte‘ schwer fassbar sind, ist doch jedes Lebewesen — nicht nur wir Menschen — Teil davon.

Im Versuch dieses dynamische Etwas ‚zu fassen‘, ‚dingfest‘ zu machen, bleiben uns nur einzelne Ereignisse, hier und jetzt, und immer wieder neue Ereignisse im hier und jetzt; abstrakte Bilder (Schatten der Erinnerung), in denen einige häufiger vorkommen als andere. Bisweilen haben wir das Gefühl, dass sich ‚Regeln‘ andeuten, ‚Muster‘, aber sie sind niemals ‚100-prozentig stabil‘ (‚deterministisch‘), aber auch niemals nur ‚rein zufällig‘, sondern irgendwie genau dazwischen. Was ist das? Der Sound des Lebens? Wir sind Teil dieses Sounds. Verstehen wir uns selbst? Verstehen wir die große Partitur, in der wir vorkommen? Alles deutet darauf hin, dass das Gesamtereignis ’sich selbst komponiert‘! Im Kern aller Ereignisse findet man eine große ‚Freiheit‘, die sich im ‚Kleid der Optionen‘ eine Gestalt sucht, eine Gestalt die vorweg niemand kennen kann, und die doch nicht beliebig sein wird…

Im Alltagsgeschäft der heutigen wissenschaftlichen Einzeldisziplinen — die absolut notwendig sind; ohne die geht gar nichts — findet man von diesem erfrischenden Hauch einer super-lebendigen Singularität nicht viel. Jeder ist mit dem Auszählen seiner Einzelexperimente beschäftigt. Im Mainstream träumt man von sogenannter Künstlicher Intelligenz, die alle unsere Problem überwinden wird; welch absolut schrottige Idee. Der ‚Supercomputer‘ des Lebens auf diesem Planeten ist davon mehrfache Galaxien weit entfernt.

Anmerkungen

[0] Karl Popper, „Towards an Evolutionary Theory of Knowledge“, Vortrag 1989, erweiterter Text in: Karl Popper, „A World of Propensities“, Thoemmes Press, Bristol, (1990, repr. 1995)

[0b] Die Einbeziehung der Erkenntnisse der Evolutionsbiologie in eine philosophische Gesamtsicht findet sich nicht nur bei Popper. Schon der Verhaltensforscher und Philosoph Konrad Lorenz [2] hatte in einem Aufsatz 1941 [2b]einen Zusammenhang zwischen der Erkenntnistheorie von Kant und den Erkenntnissen der Biologie hergestellt. Dies wird bei Lorenz dann 1973 in sein Hauptwerk „Die Rückseite des Spiegels …“ zu einer großen Gesamtschau ausgeweitet, in dem er explizit eine Verbindung zieht zwischen der morphologischen Entwicklung in der Evolution und den Formen der Erkenntnis. [2c]. Ein anderer starker Denker im Spannungsfeld von Biologie und Philosophie war Humberto Maturana [3], der in den Jahren 1968 – 1978 viele grundlegende Beiträge zum Thema verfasst hat.[2b] In Deutschland ist u.a. noch zu nennen Gerhard Vollmer mit seinem Buch Evolutionäre Erkenntnistheorie‘ von 1975.

[1] Evolutionäre Erkenntnistheorie in wkp-de: https://de.wikipedia.org/wiki/Evolution%C3%A4re_Erkenntnistheorie //* Dieser Artikel ist nicht besonders gut *//

[1b] Evolutionary Epistemology in wkp-en: https://en.wikipedia.org/wiki/Evolutionary_epistemology //* Dieser Artikel ist nicht besonders gut *//

[2] Konrad Lorenz in wkp-ed: https://en.wikipedia.org/wiki/Konrad_Lorenz und in wkp-de: https://de.wikipedia.org/wiki/Konrad_Lorenz

[2b] K. Lorenz: Kants Lehre vom Apriorischen im Lichte gegenwärtiger Biologie. In: Blätter für Deutsche Philosophie. Band 15, 1941, S. 94–125

[2c] K.Lorenz, Die Rückseite des Spiegels. Versuch einer Naturgeschichte des menschlichen Erkennens (1973), in wkp-de: https://de.wikipedia.org/wiki/Die_R%C3%BCckseite_des_Spiegels

[3] Humberto Maturana in wkp-en: https://en.wikipedia.org/wiki/Humberto_Maturana

[3b] Humberto R.Maturana, Erkennen; Die Organisation und Verkörperung von Wirklichkeit, Friedr.Viehweg & Sohn, Braunschweig – Wiesbaden, 1982 (Enthält von Maturana autorisiert in deutscher Übersetzung Arbeiten aus den Jahren 1968 – 1978).

[4] Gerhard Vollmer, Evolutionäre Erkenntnistheorie. Angeborene Erkenntnisstrukturen im Kontext von Biologie, Psychologie, Linguistik, Philosophie und Wissenschaftstheorie. S. Hirzel, Stuttgart 1975. Zu Vollmer in der wkp-de: https://de.wikipedia.org/wiki/Gerhard_Vollmer

[5] Evolution in wkp-en: https://en.wikipedia.org/wiki/Evolution

[6] Hans R.Kricheldorf, Leben durch chemische Evolution?, Springer-Verlag, 2019, ISBN: 978-3-662-57978-7

[7] A priori in wkp-de: https://de.wikipedia.org/wiki/A_priori

[8] Immanuel Kant in wpd-de: https://de.wikipedia.org/wiki/Immanuel_Kant

[9] Die hier benutzten anthropomorphen Begriffe sind als ‚Hilfsbegriffe‘ zu betrachten, da eine ‚präzisere‘ Begrifflichkeit einen ausgearbeiteten begrifflichen Rahmen (Modell, Theorie) voraussetzen würde, die erst dann möglich ist, wenn man sich über die grundsätzlichen Sachverhalte besser verständigt hat.

Fortsetzung

Es gibt einen dritten Artikel von Popper, der in diesen Zusammenhang gehört. Eine Besprechung findet sich HIER.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

WISSENSCHAFT IM ALLTAG. Popper 1988/1990

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 16.-17.Februar 2022, 18:00h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Vorbemerkung

In einer Welt voller Bücher — gefühlt: unendlich viele Bücher — ist kaum voraussagbar, welches Buch man im Februar 2022 lesen wird. Dass es dann das Büchlein ‚A World of Propensities‘ (1990 (reprint 1995))[2a] von Karl Popper [1] sein würde, hing von einem ganzen Bündel von Faktoren ab, von denen jeder für sich ‚eine Rolle‘ spielte, aber dass es dann zu diesem konkreten Buch zu diesem konkreten Zeitpunkt gekommen ist, war aus Sicht der einzelnen Faktoren nicht direkt ableitbar. Auch das ‚Zusammenspiel‘ der verschiedenen Faktoren war letztlich nicht voraussagbar. Aber es ist passiert.

Im Rahmen meiner Theoriebildung für das oksimo-Paradigma (einschließlich der oksimo-Software)[4] Hatte ich schon viele Posts zur möglichen/ notwendigen Theorie für das oksimo-Paradigma in verschiedenen Blocks geschrieben [3a], sogar einige zum frühen Popper [3b], aber mir scheint, so richtig bin ich mit der Position von Popper in seiner ‚Logik der Forschung‘ von 1934 bzw. dann mit der späteren Englischen Ausgabe ‚The Logic of Scientific Discovery‘ (1959)[2b] noch nicht klar gekommen.

Im Frühjahr 2022 war es eine seltene Mischung aus vielerlei Faktoren, die mich über den Umweg der Lektüre von Ulanowizc [5], und zwar seines Buches „Ecology: The Ascendant Perspective“ (1997), auf den späten Popper aufmerksam machten. Ulanowizc erwähnt Popper mehrfach an prominenter Stelle, und zwar speziell Poppers Büchlein über Propensities. Da dieses schmale Buch mittlerweile vergriffen ist, kam ich dann nur durch die freundliche Unterstützung [6b] der Karl Popper Sammlung der Universität Klagenfurt [6a] zu einer Einsicht in den Text.

Der nachfolgende Text beschäftigt sich mit dem ersten der beiden Aufsätze die sich in dem Büchlein finden: „A World of Propensities: Two New Views of Causality“.[7][*]

Wahrscheinlichkeit, Wahrheit, Hypothese, Bekräftigung, … Vorgeplänkel

In seiner Einleitung im Text erinnert Popper an frühere Begegnungen mit Mitgliedern des Wiener Kreises [1b] und die Gespräche zu Theme wie ‚absolute Theorie der Wahrheit‘, ‚Wahrheit und Sicherheit‘, ‚Wahrscheinlichkeitsbasierte Induktion‘, ‚Theorie der Wahrscheinlichkeit‘ sowie ‚Grad der Bekräftigung einer Wahrscheinlichkeit‘.

Während er sich mit Rudolf Carnap 1935 noch einig wähnte in der Unterscheidung von einer Wahrscheinlichkeit im Sinne einer Wahrscheinlichkeitstheorie und einem ‚Grad der Bestätigung‘ (‚degree of confirmation‘) , war er sehr überrascht — und auch enttäuscht — 1950 in einem Buch von Carnap [8], [8b] zu lesen, dass für Carnap dies alles das Gleiche sei: mathematische Wahrscheinlichkeit und empirische Bestätigung eines Ereignisses. Hatte Carnap mit dieser Veränderung seiner Auffassung auch die Position einer ‚Absolutheit der Wahrheit‘ verlassen, die für Popper 1935 immer noch wichtig war? Und selbst in der Rede von 1988 hält Popper das Postulat von der Absolutheit der Wahrheit hoch, sich dabei auf Aristoteles [9], Alfred Tarski [10] und Kurt Gödel [11] beziehend (S.5f).

In einer Welt mit einem endlichen Gehirn, in einem endlichen Körper (bestehend aus ca. 36 Billionen Zellen (10^12)[12], in einer Welt von nicht-abzählbar vielen realen Ereignissen, war mir nie klar, woran (der frühe) Popper (und auch andere) die Position einer ‚absoluten Wahrheit‘ fest machen konnten/ können. Dass wir mit unserem endlichen – und doch komplexen, nicht-linearem — Gehirn von ‚Konkretheiten‘ ‚abstrahieren‘ können, Begriffe mit ‚offenen Bedeutungen‘ bilden und diese im Kontext der Rede/ eines Textes zu Aussagen über Aspekte der Welt benutzen können, das zeigt jeder Augenblick in unserem Alltag (ein für sich außergewöhnliches Ereignis), aber ‚absolute Wahrheit‘ … was kann das sein? Wie soll man ‚absolute Wahrheit‘ definieren?

Popper sagt, dass wir — und wenn wir uns noch so anstrengen — in unserem „Ergebnis nicht sicher“ sein können, das Ergebnis kann sogar „nicht einmal wahr“ sein.(vgl. S.6) Und wenn man sich dann fragt, was dann noch bleibt außer Unsicherheit und fehlender Wahrheit, dann erwähnt er den Sachverhalt, dass man von seinen „Fehlern“ auf eine Weise „lernen“ kann, dass ein „mutmaßliches (‚conjectural‘) Wissen“ entsteht, das man „testen“ kann.(vgl. S.6) Aber selbst dann, wenn man das Wissen testen kann, sind diese Ergebnisse nach Popper „nicht sicher“; obwohl sie „vielleicht wahr“ sind, diese Wahrheit aber ist damit dennoch „nicht endgültig bestätigt (‚established‘)“. Und er sagt sogar: „Selbst wenn sie [ergänzt: die Ergebnisse] sich als nicht wahr erweisen, … eröffnen sie den Weg zu noch besseren [ergänzt: Ergebnissen].“ (S.6)

Diese ‚changierende Sprechweise‘ über ‚wahre Ergebnisse‘ umschreibt das Spannungsfeld zwischen ‚absoluten Wahrheit‘ — die Popper postuliert — und jenen konkreten Sachverhalten, die wir im Alltag zu ‚Zusammenhängen (Hypothesen)‘ verdichten können, in denen wir einzelne Ereignisse ‚zusammen bringen‘ mit der ‚Vermutung‘, dass sie auf eine nicht ganz zufällige Weise zusammen gehören. Und, ja, diese unsere alltägliche Vermutungen (Hypothesen) können sich ‚alltäglich bestätigen‘ (wir empfinden dies so) oder auch nicht (dies kann Zweifel wecken, ob es ‚tatsächlich so ist‘).(vgl. S.6)

Das Maximum dessen, was wir — nach Popper — in der alltäglichen Erkenntnis erreichen können, ist das Nicht-Eintreten einer Enttäuschung einer Vermutung (Erwartung, Hypothese). Wir können dann „hoffen“, dass die Hypothese „wahr ist“, aber sie könnte sich dann beim nächsten Test vielleicht doch noch als „falsch“ erweisen. (vgl. S.6)

In all diesen Aussagen, dass ein Ergebnis ’noch nicht als wahr erwiesen wurde‘ fungiert der Begriff der ‚Wahrheit‘ als ein ‚Bezugspunkt‘, anhand dessen man eine vorliegende Aussage ‚vergleichen‘ kann und mit diesem Vergleich dann zum Ergebnis kommen kann, dass eine vorliegende Aussage ‚verglichen mit einer wahren Aussage‘ nicht wahr ist.

Messen als Vergleichen ist in der Wissenschaft der Goldstandard, aber auch im ganz normalen Alltag. Wo aber findet sich der Vergleichspunkt ‚wahr Aussage‘ anhand dessen eine konkrete Aussage als ’nicht dem Standard entsprechend‘ klassifiziert werden kann?

Zur Erinnerung: es geht jetzt hier offensichtlich nicht um einfache ‚Sachverhaltsfeststellungen‘ der Art ‚Es regnet‘, ‚Es ist heiß‘, ‚Der Wein schmeckt gut‘ …, sondern es geht um die Beschreibung von ‚Zusammenhängen‘ zwischen ‚isolierten, getrennten Ereignissen‘ der Art (i) ‚Die Sonne geht auf‘, (ii) ‚Es ist warm‘ oder ‚(i) ‚Es regnet‘, (ii) ‚Die Straße ist nass‘.

Wenn die Sonne aufgeht, kann es warm werden; im Winter, bei Kälte und einem kalten Wind kann man die mögliche Erwärmung dennoch nicht merken. Wenn es regnet dann ist die Straße normalerweise nass. Falls nicht, dann fragt man sich unwillkürlich, ob man vielleicht nur träumt?

Diese einfachen Beispiele deuten an, dass ‚Zusammenhänge‘ der Art (i)&(ii) mit einer gewissen Häufigkeit auftreten können, aber es keine letzte Sicherheit gibt, dass dies der Fall sein muss.

Wo kommt bei alldem ‚Wahrheit‘ vor?

‚Wahrheit an sich‘ ist schwer aufweisbar. Dass ein ‚Gedanke‘ ‚wahr‘ ist, kann man — wenn überhaupt — nur diskutieren, wenn jemand seinem Gedanken einen sprachlichen Ausdruck verleiht und der andere anhand des sprachlichen Ausdrucks (i) bei sich eine ‚Bedeutung aktivieren‘ kann und (ii) diese aktivierte Bedeutung dann entweder (ii.1) — schwacher Fall — innerhalb seines Wissens mit ‚anderen Teilen seines Wissens‘ ‚abgleichen‘ kann oder aber (ii.2) — starker Fall — seine ‚interne Bedeutung‘ mit einer Gegebenheit der umgebenden realen Ereigniswelt (die als ‚Wahrnehmung‘ verfügbar ist) vergleichen kann. In beiden Fällen kann der andere z.B. zu Ergebnissen kommen wie (a) ‚Ja, sehe ich auch so‘ oder (b) ‚Nein, sehe ich nicht so‘ oder (c) ‚Kann ich nicht entscheiden‘.

In diesen Beispielen wäre ‚Wahrheit‘ eine Eigenschaft, die der Beziehung zwischen einem sprachlichen Ausdruck mit seiner möglichen ‚Bedeutung‘ ‚zu etwas anderem‘ zukommt. Es geht in diesen Beispielen um eine dreistellige Beziehung: die beiden Größen (Ausdruck, gewusste Bedeutung) werden in Beziehung gesetzt zu (wahrgenommenem oder erinnertem oder gefolgertem Sachverhalt).[13]

‚Wahrgenommenes‘ resultiert aus Interaktionen unseres Körpers mit der umgebenden realen Ereigniswelt (wobei unsere Körper selbst ein Ereignis in der umgebenden realen Ereigniswelt ist).[14]

‚Bedeutungen‘ sind ‚gelernte Sachverhalte‘, die uns über unsere ‚Wahrnehmung‘ ‚bekannt geworden sind‘ und in der Folge davon möglicherweise auf eine schwer bestimmbare Weise in unser ‚Gedächtnis‘ übernommen wurden, aus dem Heraus wir sie auf eine ebenfalls schwer bestimmbaren Weise in einer ‚erinnerten Form‘ uns wiederholt wieder ‚bewusst machen können‘. Solche ‚wahrnehmbaren‘ und ‚erinnerbaren‘ Sachverhalte können von unserem ‚Denken‘ in schwer bestimmbarer Form eine spezifische ‚Bedeutungsbeziehung‘ mit Ausdrücken einer Sprache eingehen, welche wiederum nur über Wahrnehmung und Erinnern uns bekannt geworden sind.[15]

Aus all dem geht hervor, dass dem einzelnen Akteur mit seinen gelernten Ausdrücke und ihren gelernten Bedeutungen nur das ‚Ereignis der Wiederholung‘ bleibt, um einem zunächst ‚unbestimmt Gelerntem‘ eine irgendwie geartete ‚Qualifikation‘ von ‚kommt vor‘ zu verleihen. Kommt also etwas vor im Lichte von gelernten Erwartungen neigen wir dazu, zu sagen, ‚es trifft zu‘ und in diesem eingeschränkten Sinne sagen wir auch, dass ‚es wahr ist‘. Diese gelernten Wahrheiten sind ’notorisch fragil‘. Jene, die ‚im Laufe der Zeit‘ sich immer wieder ‚bewähren‘ gewinnen bei uns ein ‚höheres Vertrauen‘, sie haben eine ‚hohe Zuverlässigkeit‘, sind allerdings nie ganz sicher‘.

Zusätzlich erleben wir im Alltag das ständige Miteinander von ‚Konkretheiten‘ in der Wahrnehmung und ‚Allgemeinheiten‘ der sprachlichen Ausdrücke, eine ‚Allgemeinheit‘ die nicht ‚absolut‘ ist. sondern als ‚Offenheit für viel Konkretes‘ existiert. In der Sprache haben wir Unmengen von Worten wie ‚Tasse‘, ‚Stuhl‘, ‚Tisch‘, Hund‘ usw. die sich nicht nur auf ein einziges Konkretes beziehen, sondern auf — potentiell unendlich — viele konkrete Gegebenheiten. Dies liegt daran, dass es viele verschiedene konkrete Gegebenheiten gibt, die trotz Unterschiede auch Ähnlichkeiten aufweisen, die dann als ‚Tasse‘, ‚Stuhl‘ usw. bezeichnet werden. Unser Gehirn verfügt über ‚automatische (= unbewusste) Prozesse‘, die die Konkretheiten aus der Wahrnehmung in ‚Muster‘ transformieren, die dann als ‚Repräsentanten‘ von verschiedenen wahrgenommenen Konkretheiten fungieren können. Diese Repräsentanten sind dann das ‚Material der Bedeutung‘, mit denen sprachliche Ausdrücke — auch automatisch — verknüpft werden können.[15]

Unser ‚Denken‘ kann mit abstrakten Repräsentanten arbeiten, kann durch Benutzung von sprachlichen Ausdrücken Konstruktionen mit abstrakten Konzepten und Ausdrücken bilden, denen bedeutungsmäßig direkt nichts in der realen Ereigniswelt entsprechen muss bzw. auch nicht entsprechen kann. Logik [17] und Mathematik [18] sind bekannte Beispiele, wie man mit gedanklich abstrakten Konzepten und Strukturen ‚arbeiten‘ kann, ohne dass ein Bezug zur realen Ereigniswelt bestehe muss oder jemals bestehen wird. Innerhalb dieser Welt abstrakter Strukturen und abstrakter Ausdrücke kann es dann sogar in einem eingeschränkten Sinne ‚Wahrheit‘ als Übereinstimmung von abstrakten Ausdrücken, deren abstrakten Bedeutungen und den anderen gedachten abstrakten Strukturen geben, aber diese ‚abstrakten Wahrheiten‘ sind in keiner Weise auf die reale Ereigniswelt übertragbar. Für uns gibt es nur das Modell der Alltagssprache, die mit ihren ‚offenen abstrakten‘ Bedeutungen auf Konkretes Bezug nehmen kann und zwischen Gegenwart und Vergangenheit eine ‚gedachte Beziehung‘ herstellen kann, ebenso auch zwischen Vergangenem und Gegenwärtigem zu einer gedachten Zukunft. Inwieweit sich diese gedachten Beziehungen (Vermutungen, Hypothesen, …) dann in der realen Ereigniswelt bestätigen lassen, muss fallweise geprüft werden.

Die Welt der Wissenschaften erweckt den Eindruck, dass es mittlerweile eine große Zahl von solchen Hypothesen gibt, die allesamt als ‚weitgehend zuverlässig‘ angesehen werden, und aufgrund deren wir nicht nur unser bisheriges Wissen beständig ‚erweitern‘, sondern auch in einer Vielzahl von praktischen Anwendungen nutzen (Technologie, Landwirtschaft, Medizin, …).

Und an dieser Stelle greift Popper sehr weit aus, indem er diese für die Wissenschaften charakteristische „mutige, und abenteuerliche Weise des Theoretisierens“, ergänzt um „seriöse Tests“, im „biologischen Leben selbst“ am Werke sieht (vgl. S.7): die beobachtbare Entwicklung zu immer „höheren (‚higher‘) Formen“ des Lebens geschah/ geschieht durch Schaffung von „neuen Versuchen“ (‚trials‘), deren „Einbringung in die Realität“ (‚exposure‘), und dann das „Ausmerzen von Irrtümern“ (‚errors‘) durch „Testen“.(vgl. S.7) Mit dieser permanenten Kreativität neuer Lösungsansätze, deren Ausprobieren und dem daraus Lernen im Beseitigen von Fehlschlägen hat es nicht nur das biologische Leben als Ganzes geschafft, nach und nach die Welt quasi zu erobern, sondern in der Variante moderner empirischer Wissenschaft ist die Lebensform des Homo sapiens dabei, diese Eroberung auf neue Weise zu ergänzen. Während die biologische Evolution vor dem Homo sapiens primär um das nackte Überleben kämpfen musste, kann der Homo sapiens zusätzlich ‚reines Verstehen‘ praktizieren, das dann als ‚Werkzeug‘ zum Überleben beitragen kann. Für Popper ist ‚Verstehen‘ (‚understand‘) und ‚Lernen‘ (‚to learn more‘) das entscheidende Charakteristikum der Lebensform des Homo sapiens (als Teil des gesamten biologischen Lebens). Und in diesem Verstehensprojekt geht es um alles: um den ganzen Kosmos bis hin zum letzten Atom, um die Entstehung des Lebens überhaupt, um den ‚menschlichen Geist‘ (‚human mind‘) und die Art und Weise wie er stattfindet.(vgl. S.7)

Nach dieser ‚Einstimmung‘ wendet sich Popper dem speziellen Problem der Kausalität zu.

Kausalität – Ein wissenschaftliches Chamäleon

Der Begriff der ‚Kausalität‘ ist uns allen über den Alltag in vielfältigen Formen bekannt, ohne dass wir dazu gewöhnlich ein klares begriffliches Konzept entwickeln.

Geht es hingegen ‚um Etwas‘, z.B. um Geld, oder Macht, oder um eine gute Ernte, oder die Entwicklung einer Region, usw. , dann ist die Frage ‚Was was wie bewirkt‘ nicht mehr ganz egal. ‚Soll ich nun investieren oder nicht?‘ ‚Ist dieses Futter für die Tiere besser und auf Dauer bezahlbar oder nicht?‘ ‚Wird die neue Verkehrsregelung tatsächlich Lärm und CO2-Ausstoß reduzieren oder nicht?‘ ‚Ist Aufrüstung besser als Neutralität?‘ ‚Wird die Menge des jährlichen Plastikmülls die Nahrungsketten im Meer und damit viele davon abhängige Prozesse nachhaltig zerstören oder nicht?‘

Wenn Philosophen und Wissenschaftler von Kausalität sprechen meinten sie in der Vergangenheit meist viel speziellere Kontexte. So erwähnt Popper die mechanistischen Vorstellungen im Umfeld von Descartes; hier waren alle Ereignisse klar bestimmt, determiniert.(vgl. S.7) Mit der Entwicklung der Quantenmechanik — spätestens ab 1927 mit der Entdeckung des Unsicherheitsprinzips durch Werner Heisenberg [19], [19a] — wurde bewusst, dass die Ereignisse in der Natur keinesfalls vollständig klar und nicht vollständig determiniert sind. (vgl. S7f)

Damit trat eine inhärente Unsicherheit hervor, die nach einer neuen Lösung verlangte. Die große Zeit des Denkens in Wahrscheinlichkeiten begann.[20] Man kann das Denken in Wahrscheinlichkeiten grob in drei (vier) Sichtweisen unterscheiden: (i) In einer theoretischen — meist mathematischen — Sicht [21] definiert man sich abstrakte Strukturen, über die man verschiedene Operationen definieren kann, mit denen sich dann unterschiedliche Arten von Wahrscheinlichkeiten durchspielen lassen. Diese abstrakten (theoretischen) Wahrscheinlichkeiten haben per se nichts mit der realen Welt der Ereignisse zu tun. Tatsächlich erweisen sich aber viele rein theoretische Modelle als erstaunlich ’nützlich‘ bei der Interpretation realweltlicher Ereignisfolgen. (ii) In einer subjektivistischen Sicht [22] nimmt man subjektive Einschätzungen zum Ausgangspunkt , die man formalisieren kann, und die Einschätzungen zum möglichen Verhalten des jeweiligen Akteurs aufgrund seiner subjektiven Einschätzungen erlauben. Da subjektive Weltsichten meistens zumindest partiell unzutreffend sind, z.T. sogar überwiegend unzutreffend, sind subjektive Wahrscheinlichkeiten nur eingeschränkt brauchbar, um realweltliche Prozesse zu beschreiben.(iii) In einer (deskriptiv) empirischen Sicht betrachtet man reale Ereignisse, die im Kontext von Ereignisfolgen auftreten. Anhand von diversen Kriterien mit der ‚Häufigkeit‘ als Basisterm kann man die Ereignisse zu unterschiedlichen Mustern ‚gruppieren‘, ohne dass weitergehende Annahmen über mögliche Wirkzusammenhänge mit ‚auslösenden Konstellationen von realen Faktoren‘ getätigt werden. Nimmt man eine solche ‚deskriptive‘ Sicht aber zum Ausgangspunkt, um weitergehende Fragen nach möglichen realen Wirkzusammenhängen zu stellen, dann kommt man (iv) zu einer eher objektivistischen Sicht. [23] Hier sieht man in der Häufigkeiten von Ereignissen innerhalb von Ereignisfolgen mögliche Hinweise auf reale Konstellationen, die aufgrund ihrer inhärenten Eigenschaften diese Ereignisse verursachen, allerdings nicht ‚monokausal‘ sondern ‚multikausal‘ in einem nicht-deterministischem Sinne. Dies konstituiert die Kategorie ‚Nicht deterministisch und zugleich nicht rein zufällig‘.[24]

Wie der nachfolgende Text zeigen wird, findet man Popper bei der ‚objektivistischen Sicht‘ wieder. Er bezeichnet Ereignisse, die durch Häufigkeiten auffallen, als ‚Propensities‘, von mir übersetzt als ‚Tendenzen‘, was letztlich aber nur im Kontext der nachfolgenden Erläuterungen voll verständlich wird.

Popper sagt von sich, dass er nach vielen Jahren Auseinandersetzung mit der theoretischen (mathematischen) Sicht der Wahrscheinlichkeit (ca. ab 1921) (vgl. S.8f) zu dieser — seiner — Sicht gelangt ist, die er 1956 zum ersten Mal bekannt gemacht und seitdem kontinuierlich weiter entwickelt hat.[24]

Also, wenn man beobachtbare Häufigkeiten von Ereignissen nicht isoliert betrachtet (was sich angesichts des generellen Prozesscharakters aller realen Ereignisse eigentlich sowieso verbietet), dann kommt man wie Popper zu der Annahme, dass die beobachtete — überzufällige aber dennoch auch nicht deterministische — Häufigkeit die nachfolgende ‚Wirkung‘ einer realen Ausgangskonstellation von realen Faktoren sein muss, deren reale Beschaffenheit einen ‚Anlass‘ liefert, dass ‚etwas Bestimmtes passiert‘, was zu einem beobachtbaren Ereignis führt.(vgl. S.11f, dazu auch [25]) Dies schließt nicht aus, dass diese realen Wirkungen von spezifischen ‚Bedingungen‘ abhängig sein können, die erfüllt sein müssen, damit es zur Wirkung kommt. Jede dieser Bedingungen kann selbst eine ‚Wirkung‘ sein, die von anderen realen Faktoren abhängig ist, die wiederum bedingt sind, usw. Obwohl also ein ‚realer Wirkzusammenhang‘ vorliegen kann, der als solcher ‚klar‘ ist — möglicherweise sogar deterministisch — kann eine Vielzahl von ‚bedingenden Faktoren‘ das tatsächliche Auftreten der Wirkung so beeinflussen, dass eine ‚deterministische Wirkung‘ dennoch nicht als ‚deterministisch‘ auftritt.

Popper sieht in dieser realen Inhärenz von Wirkungen in auslösenden realen Faktoren eine bemerkenswerte Eigenschaft des realen Universums.(vgl. S.12) Sie würde direkt erklären, warum Häufigkeiten (Statistiken) überhaupt stabil bleiben können. (vgl. S.12). Mit dieser Interpretation bekommen Häufigkeiten einen objektiven Charakter. ‚Häufigkeiten‘ verwandeln sich in Indikatoren für ‚objektive Tendenzen‘ (‚propensities‘), die auf ‚reale Kräfte‘ verweisen, deren Wirksamkeit zu beobachtbaren Ereignissen führen.(vgl. S.12)

Die in der theoretischen Wahrscheinlichkeit verbreitete Charakterisierung von wahrscheinlichen Ereignissen auf einer Skala von ‚1‘ (passiert auf jeden Fall) bis ‚0‘ (passiert auf keinen Fall) deutet Popper für reale Tendenzen dann so um, dass alle Werte kleiner als 1 darauf hindeuten, dass es mehrere Faktoren gibt, die aufeinander einwirken, und dass der ‚Nettoeffekt‘ aller Einwirkungen dann zu einer realen Wirkung führt die kleiner als 1 ist, aber dennoch vorhanden ist; man kann ihr über Häufigkeiten sogar eine phasenweise Stabilität im Auftreten zuweisen, so lange sich die Konstellation der wechselwirkenden Faktoren nicht ändert.(vgl. S.13) Was hier aber wichtig ist — und Popper weist ausdrücklich darauf hin — die ‚realen Tendenzen‘ verweisen nicht auf einzelne konkrete, spezielle Eigenschaften inhärent in einem Objekt, sondern Tendenzen korrespondieren eher mit einer ‚Situation‘ (’situation‘), die als komplexe Gesamtheit bestimmte Tendenzen ‚zeigt‘.(vgl. SS.14-17) [26]

Schaut man nicht nur auf die Welt der Physik sonder lenkt den Blick auf den Alltag, in dem u.a. auch biologische Akteure auftreten, speziell auch Lebensformen vom Typ Homo sapiens, dann explodiert der Raum der möglichen Faktoren geradezu, die Einfluss auf den Gang der Dinge nehmen können. Nicht nur bildet der Körper als solcher beständig irgendwelche ‚Reize‘ aus, die auf den Akteur einwirken, sondern auch die Beschaffenheit der Situation wirkt in vielfältiger Weise. Insbesondere wirkt sich die erworbene Erfahrung, das erworbene Wissen samt seinen unterschiedlichen emotionalen Konnotationen auf die Art der Wahrnehmung aus, auf die Art der Bewertung des Wahrgenommenen und auf den Prozess möglicher Handlungsentscheidungen. Diese Prozesse können extrem labil sein, so dass Sie in jedem Moment abrupt geändert werden können. Und dies gilt nicht nur für einen einzelnen Homo sapiens Akteur, sondern natürlich auch für die vielen Gruppen, in denen ein Homo sapiens Akteur auftreten kann bzw. auftritt bzw. auftreten muss. Dieses Feuerwerk an sich wechselseitig beständig beeinflussenden Faktoren sprengt im Prinzip jede Art von Formalisierung oder formalisierter Berechnung. Wir Menschen selbst können dem ‚Inferno des Alles oder Nichts‘ im Alltag nur entkommen, wenn wir ‚Konventionen‘ einführen, ‚Regeln des Verhaltens‘, ‚Rollen definieren‘ usw. um das praktisch unberechenbare ‚Universum der alltäglichen Labilität‘ partiell zu ‚zähmen‘, für alltägliche Belange ‚berechenbar‘ zu machen.

Popper zieht aus dieser Beschaffenheit des Alltags den Schluss, das Indeterminismus und freier Wille zum Gegenstandsbereich und zum Erklärungsmodell der physikalischen und biologischen Wissenschaften gehören sollten.(vgl. S.17f)

Popper folgert aus einer solchen umfassenden Sicht von der Gültigkeit der Tendenzen-Annahme für vorkommende reale Ereignisse, dass die Zukunft nicht determiniert ist. Sie ist objektiv offen.(vgl. S.18)

Näher betrachtet ist die eigentliche zentrale Einsicht tatsächlich gar nicht die Möglichkeit, dass bestimmte Wirkzusammenhänge vielleicht tatsächlich determiniert sein könnten, sondern die Einsicht in eine durchgängige Beschaffenheit der uns umgebenden realen Ereigniswelt die sich – dies ist eine Hypothese! — durchgängig als eine Ansammlung von komplexen Situationen manifestiert, in denen mögliche unterscheidbare Faktoren niemals isoliert auftreten, sondern immer als ‚eingebettet‘ in eine ‚Nachbarschaften‘, so dass sowohl jeder Faktor selbst als auch die jeweiligen Auswirkungen dieses einen Faktors immer in kontinuierlichen Wechselwirkungen mit den Auswirkungen anderer Faktoren stehen. Dies bedeutet, dass nicht nur die starke Idealisierungen eines mechanistischen Weltbildes — auch eine Hypothese — als fragwürdig angesehen werden müssen, sondern auch die Idealisierung der Akteure zu einer ‚ Monade‘ [27],[27b], die die Welt letztlich nur ‚von sich aus‘ erlebt und gestaltet — eine andere Hypothese –.[27c]

Denkt man gemeinsam mit Popper weiter in die Richtung einer totalen Verflechtung aller Faktoren in einem kontinuierlich-realen Prozess, der sich in realen Tendenzen manifestiert (vgl. S.18f), dann sind alle üblichen endlichen, starren Konzepte in den empirischen Wissenschaften letztlich nicht mehr seriös anwendbar. Die ‚Zerstückelung‘ der Wirklichkeit in lauter einzelne, kleine, idealisierte Puzzle-Teile, wie sie bis heute Standard ist, führt sich relativ schnell ad absurdum. Die übliche Behauptung, auf andere Weise könne man eben nichts Verwertbares Erkennen, läuft beständig Gefahr, auf diese Weise die reale Problematik der konkreten Forschungspraxis deutlich zu überdehnen, nur weil man in der Tat Schwierigkeiten hat, die vorfindliche Komplexität ‚irgendwie experimentell nachvollziehbar‘ zu rekonstruieren.

Popper dehnt seine Beispiele für die Anwendbarkeit einer objektivistischen Sicht von realen Tendenzen weiterhin aus auf die Chemie (vgl. S.19f) und auf die Evolution des Lebens. (vgl. S.20) Und auch wenn er zuvor sagte, dass die Zukunft objektiv offen sei, so ist sie dennoch in der realen Gegenwart implizit gegenwärtig in den Aktivitäten der vorhandenen realen Faktoren.(vgl. S.20) Anders formuliert, jede Zukunft entscheidet sich immer jetzt, in der Gegenwart, auch wenn die lebenden Akteure zu einem bestimmten Zeitpunkt vielleicht das Geflecht der vielen Faktoren und Wirkungen nur unvollständig durchschauen. Mangelndes Wissen ist auch ein realer Faktor und kann als solcher u.U. wichtige Optionen übersehen, die — würde man sie kennen — vielleicht viel Unheil ersparen würden.

Nachbemerkung – Epilog

Verglichen mit den vielen Seiten Text, die Popper im Laufe seines Lebens geschrieben hat, erscheint der hier kommentierte kurze Text von 27 Seiten verschwindend kurz, gering, möglicherweise gar unbedeutend.

Betrachtet man aber die Kernthesen von Poppers theoretischem Prozess, dann tauchen diese Kernthesen in diesem kurzen Text letztlich alle auf! Und seine Thesen zur Realität von beobachtbaren Tendenzen enthalten alles, was er an Kritik zu all jenen Wissenschaftsformen gesagt hat, die dieser Kernthese nicht folgen. Der ganze riesige Komplex zur theoretischen Wahrscheinlichkeit, zu subjektiver Wahrscheinlichkeit und zu den vielfältigen Spezialformen von Überlegungen zur Wahrscheinlichkeit sagen letztlich nicht viel, wenn sie die objektivistische Interpretation von Häufigkeiten, dazu im Verbund mit der Annahme eines grundlegenden realen Prozesses, in dem sich alle realen Faktoren in beständiger realer Wechselbeziehung befinden, nicht akzeptieren. Die moderne Quantenmechanik wäre in einer realen Theorie der objektiven Tendenzen tatsächlich eine Teiltheorie, weil sie nur einige wenige — wenngleich wichtige — Aspekte der realen Welt thematisiert.

Poppers Mission einer umfassenden Theorie von Wahrheit als Innensicht einer umfassenden prozesshaften Realität bleibt — so scheint es mir — weiterhin brandaktuell.

Fortsetzung Popper 1989

Eine Kommentierung des zweiten Artikels aus dem Büchlein findet sich HIER.

Anmerkungen

Abkürzung: wkp := Wikipedia, de := Deutsche, en := Englische

[*] Es gibt noch zwei weiter Beiträge vom ’späten‘ Popper, die ich in den Diskurs aufnehmen möchte, allerdings erst nachdem ich diesen Beitrag rezipiert und in das finale Theorieformat im Kontext des oksimo-Paradigmas eingebunden habe.

[1] Karl Popper in wkp-en: https://en.wikipedia.org/wiki/Karl_Popper (auch in wkp-de: https://de.wikipedia.org/wiki/Karl_Popper )

[1b] Wiener Kreis (‚vienna circle‚) in wkp-de: https://de.wikipedia.org/wiki/Wiener_Kreis und wkp-en: https://en.wikipedia.org/wiki/Vienna_Circle

[2a] Karl Popper, „A World of Propensities“, Thoemmes Press, Bristol, (1990, repr. 1995)

[2b] Karl Popper, The Logic of Scientific Discovery, zuerst publiziert 1935 auf Deutsch als  Logik der Forschung, dann 1959 auf Englisch durch  Basic Books, New York (viele weitere Ausgaben folgten; ich benutze die eBookausgabe von Routledge (2002))

[3a] Die meisten wohl im uffmm.org Blog.

[3b] Oksimo und Popper in uffmm.org: https://www.uffmm.org/2021/03/15/philosophy-of-science/

[4] Das oksimo-Paradigma und die oksimo-Software auf oksimo.org: https://www.oksimo.org/

[5] Robert Ulanowizc in wkp-en: https://en.wikipedia.org/wiki/Robert_Ulanowicz

[5b] Robert Ulanowizc, Ecology: The Ascendant Perspective, Columbia University Press (1997) 

[6a] Karl-Popper Sammlung der Universität Klagenfurt in wkp-de: https://www.aau.at/universitaetsbibliothek-klagenfurt/karl-popper-sammlung/

[6b] An dieser Stelle möchte ich die freundliche Unterstützung von Mag. Dr. Thomas Hainscho besonders erwähnen.

[7] Eine kürzere Version dieses Artikels hat Popper 1988 auf dem Weltkongress der Philosophie 1988 im Brighton vorgetragen (Vorwort zu [2a]).

[8] Rudolf Carnap in wkp-en: https://en.wikipedia.org/wiki/Rudolf_Carnap

[8b] Rudolf Carnap,  Logical Foundations of Probability. University of Chicago Press (1950)

[9] Aristoteles in wkp-de: https://de.wikipedia.org/wiki/Aristoteles

[10] Alfred Tarski in wkp-en: https://en.wikipedia.org/wiki/Alfred_Tarski

[11] Kurt Gödel in wkp-ed: https://en.wikipedia.org/wiki/Kurt_G%C3%B6del

[12] Aus dem Buch von Kegel „Die Herrscher der Welt…“: Siehe https://www.cognitiveagent.org/2015/12/06/die-herrscher-der-welt-mikroben-besprechung-des-buches-von-b-kegel-teil-1/

[13] Natürlich ist die Sachlage bei Betrachtung der hier einschlägigen Details noch ein wenig komplexer, aber für die grundsätzliche Argumentation reicht diese Vereinfachung.

[14] Das sagen uns die vielen empirischen Arbeiten der experimentellen Psychologie und Biologie, Hand in Hand mit den neuen Erkenntnissen der Neuropsychologie.

[15] Hinter diesen Aussagen stecken die Ergebnisse eines ganzen Bündels von wissenschaftlichen Disziplinen: vorweg wieder die experimentelle Psychologie mit hunderten von einschlägigen Arbeiten, ergänzt um Linguistik/ Sprachwissenschaften, Neurolinguistik, ja auch verschiedene philosophische ‚Zuarbeiten‘ aus dem Bereich Alltagssprache (hier unbedingt der späte Wittgenstein [16] als großer Inspirator) und der Semiotik.

[16] Ludwig Wittgenstein in wkp-en: https://en.wikipedia.org/wiki/Ludwig_Wittgenstein

[17] Logik ( ‚logic‚) in der wkp-de: https://de.wikipedia.org/wiki/Logik und wkp-en: https://en.wikipedia.org/wiki/Logic

[18] Mathematik (‚mathematics‚) in der wkp-de: https://de.wikipedia.org/wiki/Mathematik und wkp-en: https://en.wikipedia.org/wiki/Mathematics

[19] Werner Heisenberg in wkp-en: https://en.wikipedia.org/wiki/Werner_Heisenberg

[19b] Unsicherheitsprinzip (‚uncertainty principle‘) in wkp-en: https://en.wikipedia.org/wiki/Uncertainty_principle

[20] Natürlich gab es schon viele Jahrhunderte früher unterschiedliche Vorläufer eines Denkens in Wahrscheinlichkeiten.

[21] Theoretische Wahrscheinlichkeit, z.B. in wkp-en: https://en.wikipedia.org/wiki/Probability

[22] Subjektive Wahrscheinlichkeit, z.B. in wkp-de: https://de.wikipedia.org/wiki/Subjektiver_Wahrscheinlichkeitsbegriff; illustrieret mit der Bayeschen Wahrscheinlichkeit in wkp-en: https://en.wikipedia.org/wiki/Bayesian_probability

[23] Objektivistische Wahrscheinlichkeit, nur ansatzweise erklärt in wkp-de: https://de.wikipedia.org/wiki/Objektivistischer_Wahrscheinlichkeitsbegriff

[23b] Deskriptive Statistik in wkp-de: https://de.wikipedia.org/wiki/Deskriptive_Statistik (siehe auch ‚descriptive statistics in wkp-en: https://en.wikipedia.org/wiki/Descriptive_statistics

[24] Zu verschiedenen Sichten von Wahrscheinlichkeiten sie auch: Karl Popper, The Open Universe: An Argument for Indeterminism, 1956–57 (as privately circulated galley proofs;) 1982 publiziert als Buch

[25] Hier sei angemerkt, dass ein Akteur natürlich nur dann ein bestimmtes Ereignis wahrnehmen kann, wenn er (i) überhaupt hinschaut und (ii) er über geeignete Beobachtungsinstrumente (= Messgeräte) verfügt, die das jeweilige Ereignis anzeigen. So sah die Welt z.B. ohne Fernglas und Mikroskop ‚einfacher‘ aus als mit.

[26] Diese Betonung einer Situation als Kontext für Tendenzen schließt natürlich nicht aus, dass die Wissenschaften im Laufe der Zeit gewisse Kontexte (z.B. das Gehirn, der Körper, …) schrittweise immer mehr auflösen in erkennbare ‚Komponenten‘, deren individuelles Verhalten in einem rekonstruierbaren Wechselspiel unterschiedliche Ereignisfolgen hervorbringen kann, die zuvor nur grob als reale Tendenz erkennbar waren. Tatsächlich führt eine zunehmende ‚Klarheit‘ bzgl. der internen Struktur einer zuvor nicht analysierbaren Situation auch zur Entdeckung von weiteren Kontextfaktoren, die zuvor unbekannt waren.(vgl. S.14f)

[27] Gottfried Wilhelm Leibniz in wkp-de: https://de.wikipedia.org/wiki/Gottfried_Wilhelm_Leibniz

[27b] Monadenlehre von Leibnuz in wkp-de: https://de.wikipedia.org/wiki/Monade_(Philosophie)

[27c] Allerdings muss man bemerken, dass die Leibnizsche Monadenlehre natürlich in einem ziemlich anderen ‚begrifflichen Koordinatensystem‘ einzubetten ist und die Bezugnahme auf diese Lehre nur einen stark vereinfachten Aspekt trifft.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

CORONA UPDATE. Notiz

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 2.Februar 2022
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de

Vorbemerkung

Zu Beginn der Covid19 Pandemie (was viele kritisieren, es sei ja nur eine ‚Endemie‘, nichts mehr als eine ‚gewöhnliche Grippe‘) hatte ich versucht, mit einer eigenen Covid19-Seite [1] mir selbst einen Überblick zu den verschiedenen Aspekten von Covid19 zu verschaffen. Im Laufe der Zeit musste ich dann aber feststellen, dass die Menge der hierzu einschlägigen Berichte und Dokumentationen pro Tag so umfangreich war, dass ich da mit meiner geringen Zeit nicht mithalten konnte. Also musste ich darauf vertrauen, dass es genügend Institutionen gibt, die diese Datenflut einigermaßen sachgerecht screenen, zusammenfassen und das Wichtigste darstellen. Im Laufe der Zeit konnte ich feststellen, dass das von vielen oft hart kritisierte RKI (Robert-Koch-Institut) mit Abstand die umfangreichsten, detailliertesten und methodisch voll transparenten Daten zur Verfügung stellt, die man in Deutschland bekommen kann.[2] Zusätzlich musste ich feststellen, dass ich — obgleich ich selbst als Wissenschaftler verstehe — im Kontext von Covid19 auf so viele Aspekte traf, die oft ein Spezialwissen erfordern, dass ich mir irgendwann eingestehen musste, dass ich viele Sachverhalte nicht wirklich einordnen konnte (und natürlich auch heute nicht kann). Eine Orientierung in unserer heutigen sehr komplexen und schnell sich ändernden Welt geht nur, wenn es andere gibt, die über das jeweilige Spezialwissen verfügen, denen man ‚vertrauen‘ kann. Wenn es diese anderen nicht gibt, dann zerbricht eine Gesellschaft ‚an sich selbst‘: ein einzelner kann eine komplexe Vielfalt niemals ersetzen; genau das heißt ‚Gesellschaft‘; zusammen ist man stark, alleine ist man schwach. Schnelle Parolen mögen bei einzelnen zwar ‚Ängste‘ beruhigen, sie bieten aber nicht wirklich die Antworten, die wir als Gesellschaft brauchen. Insofern ist Gesellschaft Chance und Risiko zugleich.

INFIZIERT – HOSPITALISIERT – GESTORBEN

Einfache OpenLibre-Grafiken anhand der Excel-Daten des RKI aus [7]

Während in der obersten Grafik — Zeit Okt.2020 bis Jan 2022 — die Zahl der Infizierten mit der omikron-Variante von Covid19 dramatisch angestiegen ist, verbleibt die Zahl der Hospitalisierten mit Symptomen weitgehend niedrig.

Im mittleren Bild wird die Zahl der Hospitalisierten (Spalte O) der Zahl der Verstorbenen (Spalte P) gegenüber gestellt. Man sieht hier eine gewisse ‚Parallelität‘ beider Kurven (ein Korrelationskoeffizient von 0.9)[9].

Bei näherer Betrachtung (Bildung des Durchschnittswertes aller Werte und dann Differenzbildung mit jedem Wert einzeln) zeigt sich aber, dass die Sterberate zu Beginn (vor omikron) dramatisch viel höher war und seit der Kalenderwoche 53 von 2021 deutlich niedriger ist oder gar weiter abnimmt.

Hospitalisierung nach Altersgruppen – Belegung Intensivbetten

Einfache LibreOffice Grafik zu den Excel-Daten vom RKI-Bericht aus [7] und zu den Altersgruppen bei der Hospitalisierung und die Belegung der Intensivbetten aus dem Wochenbericht zum 27.Januar 2022 [4]

In der oberen Grafik kann man sehen, dass die Hospitalisierungsrate stark Altersabhängig ist. Bis zu 14 Jahren ist sie sehr niedrig, und steigt dann mit dem Alter sehr an. Während die allgemeinen Spitzen über 14 Jahre letztlich deutlich abnehmen ist bei den bis 14-Jährigen ein leichter Anstieg zu erkennen. Das könnte u.U. auf eine Verschiebung hindeuten.

In der unteren Grafik kann man die Belegung der Intensivbetten beobachten. Generell korreliert diese Kurve mit der Kurve der Menschen mit Symptomen im Krankenhaus.

Intensivstation: Geimpft – Ungeimpft

Aufschlüsselung der Belegung von Intensivstationen samt Sterbefällen nach Geimpften und Nicht-Geimpften nach [4]. Hinweis: Die Erfassung nach ‚Geimpft – nicht Geimpft‘ wird erst seit Dez 2021 vorgenommen (ziemlich spät!). Im übrigen sind alle Daten mit Unschärfen verbunden, weil das komplexe Meldesystem bislang keine 100%ige Genauigkeit zulässt.

Diese letzte Tabelle ist insofern von Interesse, als oft behauptet wird, dass es ja egal sei, ob man geimpft sei oder nicht, da die Zahl der Geimpften in Krankenhäusern oder dann sogar auf Intensivstationen genauso hoch — oder sogar höher — sei als die Zahl der Ungeimpften. Dies würde — auf den ersten Blick! — auch durch obige Tabelle bestätigt werden.

Allerdings muss man sich die Frage stellen, welchen Anteil die Ungeimpften mit Symptomen in Krankhäusern (= 345) an der Gesamtgruppe der Ungeimpften in der Bevölkerung (= 20.3 Mio) haben und entsprechend die Grundgeimpften und Aufgefrischten (=542) an der Gesamtbevölkerung (=61.17 Mio). Die Wahrscheinlichkeit, dass ein Ungeimpfter durch Infektion mit Symptomen in ein Krankenhaus (oder gar Intensivstation) kommt liegt (grob) bei 20.3:83.2, also ca. bei 0.25, und die Wahrscheinlichkeit für einen Geimpften bei 61.2:83.2, also bei ca. 0.75, ohne die Berücksichtigung von sonstigen Umständen. Danach müssten ca. 9x so viele Geimpfte in Krankenhäusern landen wie Ungeimpfte. Tatsächlich ist das Verhältnis von Ungeimpften zu Geimpften aber 1:1.5, also es sind dramatisch weniger Geimpfte im Krankenhaus als sie rein kombinatorisch sein müssten. Dafür kann es natürlich viele Ursachen geben, aber Fakt ist erst einmal, dass anteilmäßig dramatisch viel weniger Geimpfte mit Symptomen im Krankenhaus landen wie Ungeimpfte.

ANMERKUNGEN

[1] Meine persönliche Covid19-Seite zu Beginn der Pandemie: https://www.cognitiveagent.org/2020/12/14/meine-sars-cov-2-covir-19-seite/

[2] Was ich im Vergleich dazu von vielen Corona-Gegnern hören und lesen konnte, wirkte auf mich dagegen bislang sehr schwach, willkürlich, ohne wirkliche Daten. Aber vielleicht irre ich mich hier; wer weiß das schon.

[3] Allgemeine Übersicht des RKI zu Covid19: https://www.rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/nCoV_node.html;jsessionid=3DC820BF0550C5A7ADE582A9CD979BCB.internet091#doc13490882bodyText12

[3b] SARS-CoV-2: Virologische Basisdaten sowie Virusvarianten: https://www.rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/Virologische_Basisdaten.html

[4] Wöchentlicher Lagebericht des RKI vom 27.Januar 2022: https://www.rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/Situationsberichte/Wochenbericht/Wochenbericht_2022-01-27.pdf?__blob=publicationFile

[5] Überblick über das Intensivregister Deutschland mit Links auf verfügbare Daten: https://www.intensivregister.de/#/aktuelle-lage/downloads

[6] Trendreihen des Intensivregisters: file:///C:/Users/gerd_2/Downloads/DIVI_Intensivregister_Report.pdf

[7] COVID-19-Fälle nach Meldewoche und Geschlecht sowie Anteile mit für COVID-19 relevanten Symptomen, Anteile Hospitalisierter/Verstorbener und Altersmittelwert/-median (Tabelle wird jeden Donnerstag aktualisiert), 26.Januar 2022: https://www.rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/Daten/Klinische_Aspekte.html

[8] Bevölkerung Deutschland nach Statistischem Bundesamt 2021: https://www.destatis.de/DE/Themen/Gesellschaft-Umwelt/Bevoelkerung/Bevoelkerungsstand/_inhalt.html

[9] Korrelationskoeffizient in der Wikipedia DE: https://de.wikipedia.org/wiki/Korrelationskoeffizient

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

KULTUR BEI NICHT-MENSCHEN? EVOLUTION IN VIER DIMENSIONEN. Nachhall zu Jablonka & Lamb (2017, 2005)

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 13.-17.Januar 2022, 07:30 h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de

VORBEMERKUNG

Dieser Text verstand sich ursprünglich als ein ‚Trigger‘, der auf ein Thema verweist, das von Interesse zu sein scheint, ohne dass die vielen Aspekte des Themas hier voll ausgeleuchtet werden (können). Mittlerweile ist der Text eine Einleitung für eine längere Diskussion mit der Position von Jablonka & Lamb geworden.

KONTEXT

Das Thema ‚Evolution des Lebens‘ ist in diesem Blog schon sehr oft besprochen und diskutiert worden.[2] Dabei nimmt der Autor cagent die Position ein, dass Evolution die Eigenschaft einer Population P ist, die in einer Umgebung U vorkommt, wobei diese Umgebung ‚dynamisch‘ ist, d.h. nicht stationär; sie ändert sich permanent. Um das jeweils ‚aktuelle Format‘ (Genotyp [1f] und Phänotyp [1g]) in der Abfolge der Zustände der Umgebung U ‚am Leben‘ zu erhalten (‚im Spiel zu bleiben‘), müssen die Mitglieder der Population P sowohl ihr Format kontinuierlich ‚anpassen‘ wie auch ihren Verhaltensraum. [2b] Primär geschieht dies über die genetischen Informationen, die ‚Konstruktionsanweisungen‘ enthalten, wie sich ein neuer Organismus entwickeln sollte. Bei der ‚Reproduktion‘ dieser ‚Anweisungen‘ wie auch bei der ‚Umsetzung der Anweisung‘ in einen Konstruktionsprozess (‚Wachstum‘, ‚Ontogenese‘ [1h]), treten mehr oder weniger große ‚Veränderungen‘ auf, die eine Formatänderung bedingen können. Wie neuere Erkenntnisse nahelegen, können die genetischen Informationen auch schon zu Lebzeiten eines individuellen Organismus auf molekularer Ebene verändert werden. Es wird grob eine Interaktion zwischen dem Gesamtsystem und den genetischen Informationen angenommen. [3] Klar ist aber auch, dass solche Lebensformen, die über eine hinreichend differenzierte Wahrnehmung und hinreichende soziale Kommunikation verfügen, unabhängig von den genetischen Informationen durch Änderungen des Verhaltens, eventuell noch ergänzt um individuell unabhängige Artefakte der Umgebung, Veränderungen der Umwelt herbeiführen können, die als Umgebung spezifisch auf die Mitglieder einer Population ‚rückwirken‘ können. Die Möglichkeit der Artefakt-Gesteuerten Verhaltensänderungen bildet einen ‚offenen Raum‘ ab, der von Nicht-Menschen und Menschen besetzt wird. Jenen Teilraum, den wir Menschen als ‚Kultur‘ [4] bezeichnen, von jenem Teilraum abzugrenzen, der nicht als ‚Kultur‘ zu verstehen ist, ist nicht ganz einfach. In der Sicht von Jablonka und Lamb wird zumindest aufgezeigt, dass auch nicht-menschliche Populationen grundlegende Muster aufweisen, die man als ‚Kultur‘ bezeichnen könnte.

ERSTE THESEN AUS DEM BUCH

Erste Thesen zum Buch werden anhand der Zusammenfassung in dem Kurzartikel „Traditionen und kumulierende Evolution: Wie sich ein neuer Lebensstil entwickelt“ [1b] hier vorgestellt. Im Anschluss werden diese Anfangsthesen dann anhand der Deutschen — gegenüber der Englischen Ausgabe erweiterten — Ausgabe von 2017 weiter differenziert.

BILD 1: Infografik zum Kurztext von Jablonka & Lamb [1b]

Die Infografik in Bild 1 zeigt vereinfachend und kondensiert die zentralen Aussagen aus dem Kurztext [1b]. Man kann sie wie folgt zusammenfassen:

  1. Die hier referierten Erkenntnisse entstammen den Forschungen von menschlichen Wissenschaftlerinnen, die wiederum auf eine Vielzahl anderer Wissenschaftler und Wissenschaftlerinnen aufbauen.
  2. Der Forschungsgegenstand sind nicht-menschliche Lebensformen, in diesem Fall Affen, insbesondere japanische Makaken.
  3. Generell werden Populationen einer bestimmten Lebensform betrachtet, die in einer bestimmten Umgebung leben, wobei die Umgebung sich ändern kann.
  4. Wichtig ist, dass die Population für ihre eigenen Mitglieder auch eine Form von Umgebung bildet: der Körper eines biologischen Individuums ist für die jeweils anderen auch Teil der Umgebung.
  5. Neue Umweltreize in der Umgebung können dazu führen, dass sich bei mindestens einem Mitglied der Population eine neue Verhaltensantwort heraus bildet.
  6. Neue Verhaltensantworten eines Mitglieds der Population sind selbst neue Reize, die wiederum andere Mitglieder dazu anregen können, diese neuen Verhaltensantworten zu übernehmen.
  7. Verhaltensantworten können abgewandelt werden sowohl in der Form der Ausführung wie auch in Bezug auf die Handlungssituation.
  8. Jüngere Mitglieder einer Population sind tendenziell eher bereit, etwas Neues zu übernehmen und abzuwandeln als ältere Mitglieder.
  9. Wenn ein neues Verhalten bei den älteren Mitgliedern ‚angekommen‘ ist, dann sind z.B. die ‚Mütter‚ diejenigen, die neues Verhalten an Jüngere ‚weitergeben‘.
  10. Verhalten kann sich — auch ohne Sprache — über mehrere Generationen erhalten.
  11. Es wird beobachtet, dass die Veränderung der Wirkung eines genetischen Programms schon zu Lebzeiten eines Organismus stattfinden kann. Diese Phänomene werden durch den Ausdruck ‚Epigenetik‘ adressiert. [1i]

Dies sind ‚Thesen‘, die man dem Kurztext [1b] entnehmen kann. Es fehlen in dem Kurztext natürlich alle ausführlichen Erläuterungen und Begründungen. Dennoch kann schon diese Kurzform zu verschiedenen Überlegungen Anlass bieten.

ERSTE ÜBERLEGUNGEN

Klar wird schon durch diesen Kurztext, dass wir es bei der Analyse von biologischen Lebensformen mit mindestens den folgenden ‚Dimensionen‘ zu tun haben:

  1. Es gibt eine vorfindliche ‚Natur‘ als eine veränderliche Größe mit ’naturspezifischen‘ Eigenschaften, und
  2. in dieser Natur gibt es als ‚Bestandteil der Natur‘ biologische Populationen, die für ihre eigenen Mitglieder wie auch für andere Populationen selbst als ‚Umwelt‘ erscheinen.
  3. Populationen sind selbst veränderlich.
  4. Die Mitglieder einer biologischen Population sind in der Lage auf Eigenschaften der umgebenden Natur — mit den anderen Mitgliedern der Population als Bestandteil der Umgebung (Selbstbezüglichkeit einer Population) — durch ein spezifisches Verhalten zu reagieren.
  5. Ein Verhalten kann sowohl in seiner Form wie auch bezogen auf einen konkreten Anlass verändert werden.
  6. Aufgrund der Selbstbezüglichkeit einer Population kann eine Population daher
    1. das eigene Verhalten wechselwirkend verändern
    2. durch das veränderte Verhalten mit der Umgebung veränderlich interagieren (und dadurch in gewissem Umfang die Umgebung selbst verändern)
  7. Es zeigt sich, dass Mitglieder einer Population bestimmte Verhaltensweisen in Abhängigkeit von Umgebungseigenschaften auch über längere Zeiträume erinnern können.
  8. Aufgrund der unterschiedlichen Lebenszeiten wie auch durch das Erinnerungsvermögen können neue Verhaltensweisen zwischen Generationen übertragen werden, was eine Tradierung über eine Generation hinaus ermöglicht.
  9. Ferner wird beobachtet, dass sich die Wirkung genetischer Informationen im Kontext der Reproduktion meta-genetisch (epigenetisch) unterschiedlich auswirken können, wobei diese meta-genetische (epigenetische) Veränderungen zu Lebzeiten stattfinden. Die Kombination aus genetischen und epigenetischen Faktoren kann sich auf die Nachkommen auswirken. Die Wirkung solcher epigenetisch beeinflussbaren Änderungen im tatsächlichen Verhalten (Phänotyp) ist nicht linear. [1i]

Die Rolle von ’symbolischer Interaktion‘, in komplexen Formen als ‚Sprache‘, wird aus dem Kurztext [1b] noch nicht klar.

DEFINTIONS-HYPOTHESEN

Für die weitere Diskussion ist es hilfreich, sich schon an dieser Stelle darüber Klarheit zu verschaffen, welches die grundlegenden (Leit-)Begriffe sind, die den weiteren Diskurs prägen. Dies soll in Form ‚tentativer‘ Definitionen erfolgen. Sollten diese sich im weiteren Verlauf als ‚unangemessen‘ erweisen, dann kann man sie entsprechend abändern.

Drei Begriffe erscheinen an dieser Stelle als solche Leitbegriffe eine Rolle zu spielen: ‚Population‘, ‚Kultur‘ und — der Diskussion vorgreifend — ‚Gesellschaft‘.

Def0: Population

Unter Population soll hier minimal eine solche Gruppierung von biologischen Individuen verstanden werden, die eine biologische Fortpflanzungsgemeinschaft bilden.(Dies ist enger als die übliche Verwendung des Begriffs ‚Population‘, siehe [4a])

Def0: Kultur

Im üblichen Sprachgebrauch wird der Begriff ‚Kultur‘ auf die Population von ‚Menschen‘ beschränkt. [4] Hier wird der Vorschlag gemacht, ‚Kultur‘ dort beginnen zu lassen, wo biologische Populationen zu minimaler Traditionsbildung aufgrund ihres Verhaltensraumes fähig sind. Damit erweitert sich der Anwendungsbereich des Begriffs der ‚Kultur‘ über die Population der Menschen hinaus auf viele andere biologische Populationen, aber nicht auf alle.

Def0: Gesellschaft

Der Begriff ‚Gesellschaft‘ gewinnt je nach Betrachtungswinkel (einer Disziplin) ganz unterschiedliche Bedeutungen. (Vgl. [4b]) Hier soll der Begriff mit Bezug auf [4a], [4] minimalistisch dahingehend bestimmt werden, dass biologisch eine ‚Gesellschaft‘ minimal vorliegt, wenn es eine biologische Population gibt [4a], in der auf minimale Weise ‚Kultur‘ [4] vorkommt.

Es soll weiter betrachtet werden, wie diese Prozesse im einzelnen zu verstehen sind und was dies in philosophischer Sicht bedeuten kann.

ANMERKUNGEN

wkp := Wikipedia

[1] Regina Oehler, Petra Gehring, Volker Mosbrugger (Hrsg.), 2017, Reihe: Senckenberg-Buch 78, „Biologie und Ethik: Leben als Projekt. Ein Funkkolleg Lesebuch“, Stuttgart, E. Schweizerbart’sche Verlagsbuchhandlung (Nägele u. Obermiller) und Senckenberg Gesellschaft für Naturforschung

[1b] Eva Jablonka, Marion J. Lamb, 2017, „Traditionen und kumulierende Evolution: Wie sich ein neuer Lebensstil entwickelt“, In: [1], SS.141-146, verweist auf [1c]

[1c] Eva Jablonka, Marion J. Lamb, 2017, „Evolution in vier Dimensionen. Wie Genetik, Epigenetik, Verhalten und Symbole die Geschichte des Lebens prägen“, Stuttgart, S. Hirzel Verlag. Ursprünglich auf English (2005) als „Evolution in Four Dimensions: Genetic, Epigenetic, Behavioral, and Symbolic Variation in the History of Life“ , MIT Press: siehe: https://en.wikipedia.org/wiki/Evolution_in_Four_Dimensions. Auf der Buchseite Hinweise auf einige Review-Artikel. Die Englische Zusammenfassung des Buches auf der MIT Press Webseite lautet wie folgt: „Ideas about heredity and evolution are undergoing a revolutionary change. New findings in molecular biology challenge the gene-centered version of Darwinian theory according to which adaptation occurs only through natural selection of chance DNA variations. In Evolution in Four Dimensions, Eva Jablonka and Marion Lamb argue that there is more to heredity than genes. They trace four „dimensions“ in evolution—four inheritance systems that play a role in evolution: genetic, epigenetic (or non-DNA cellular transmission of traits), behavioral, and symbolic (transmission through language and other forms of symbolic communication). These systems, they argue, can all provide variations on which natural selection can act. Evolution in Four Dimensions offers a richer, more complex view of evolution than the gene-based, one-dimensional view held by many today. The new synthesis advanced by Jablonka and Lamb makes clear that induced and acquired changes also play a role in evolution. After discussing each of the four inheritance systems in detail, Jablonka and Lamb „put Humpty Dumpty together again“ by showing how all of these systems interact. They consider how each may have originated and guided evolutionary history and they discuss the social and philosophical implications of the four-dimensional view of evolution. Each chapter ends with a dialogue in which the authors engage the contrarieties of the fictional (and skeptical) „I.M.,“ or Ifcha Mistabra—Aramaic for „the opposite conjecture“—refining their arguments against I.M.’s vigorous counterarguments. The lucid and accessible text is accompanied by artist-physician Anna Zeligowski’s lively drawings, which humorously and effectively illustrate the authors‘ points.“, siehe: https://mitpress.mit.edu/books/evolution-four-dimensions.“

Die Deutsche Ausgabe von 2017 ist eine überarbeitete, erweiterte Fassung gegenüber den Englischen Fassung. Anhand dieser erweiterten Deutschen Fassung werden die Anfangsthesen dann weiter entwickelt.

[1d] Eva Jablonka in wkp-de: https://de.wikipedia.org/wiki/Eva_Jablonka

[1e] Marion J. Lamb in wkp-ed: https://en.wikipedia.org/wiki/Marion_J._Lamb

[1f] Genotyp in wkp-de: https://de.wikipedia.org/wiki/Genotyp

[1g] Phänotyp in wkp-de: https://de.wikipedia.org/wiki/Ph%C3%A4notyp#Ph%C3%A4notypische_Plastizit%C3%A4t

[1h] Ontogenese in wkp-de: https://de.wikipedia.org/wiki/Ontogenese

[1i] Epigenetik in wkp-de: https://de.wikipedia.org/wiki/Epigenetik

[2] Das Thema ‚Evolution‘ in diesem Blog z.B. hier: https://www.cognitiveagent.org/category/evolution/

[2b] Unter ‚Verhaltensraum‘ wird hier die Menge der möglichen individuellen Verhaltensweisen verstanden, durch die ein Individuum mit der Umgebung interagieren kann. Das gleiche Format (Genotyp & Phänotyp) können ganz verschiedene Verhaltensräume ermöglichen. Dies hängt von der kognitiven Basis des Verhaltens ab. Das genetisch gleiche Gehirn hat eine ungeheuer große Bandbreite an potentiellen Verhaltenssteuerungen.

[3] Zu den Details epigenetischer Veränderungsprozesse siehe einleitend [1i].

[4] Kultur in wkp-de: https://de.wikipedia.org/wiki/Kultur

[4a] Population in der wkp-de: https://de.wikipedia.org/wiki/Population_(Biologie)

[4b] Gesellschaft in der wkp-de: https://de.wikipedia.org/wiki/Gesellschaft

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

KLIMA-ANTHROPOZÄN-ARTENVIELFALT-ANTHROMS-Was ist mit uns?

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 9.Januar 2022, 12:00h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

VORBEMERKUNG

Dieser Text versteht sich als ein ‚Trigger‘, der auf ein Thema verweist, das von Interesse zu sein scheint, ohne dass die vielen Aspekte des Themas hier voll ausgeleuchtet werden (können).

KONTEXT

Im Jahr 2022 hat das Thema ‚Klimaänderung‘ mit den Aspekten ‚Verursachung durch den Menschen‘ und ‚Folgen für den Menschen‘ eine hohe Aufmerksamkeit. Vielfache Phänomene lassen sich als Hinweise für die Realität einer Klimaänderung interpretieren, die vom Menschen mindestens mit verursacht sein sollen [1]. Dennoch bleibt das Thema kontrovers, da es — wie bei jedem komplexen Phänomen — trotz allem offene Fragen geben kann, auch weitere Wirkfaktoren, die man berücksichtigen könnte/ sollte.

Im folgenden Text sollen diese Fragen nicht ‚geschlichtet werden. Es geht vielmehr darum, einige wichtige Aspekte zu thematisieren, die bei der Fokussierung auf den Aspekt ‚Klima‘ alleine leicht übersehen werden können bzw. tatsächlich — in der Öffentlichkeit — aus dem Blick geraten.

KLIMA IM KONTEXT

Blickt man auf die vielen Botschaften von Naturereignissen rund um den Globus mit den heftigen Auswirkungen auf Menschen in ganzen Regionen, dann erscheinen diese Phänomene als Boten eines Klimawandels bedrohlich. Und mit den Hinweisen auf den Menschen als Verursacher von z.B. Treibhausgasen und von massiven Veränderung der Erdoberfläche und der Meere gerät der Mensch selbst immer mehr in den Fokus der Betrachtung.

ANTHROPOZÄN

Seit Jahrzehnten wird diskutiert, ob der immense Einfluss des Menschen auf den Planeten Erde — mit einer deutlichen Beschleunigung seit den 1950er Jahren — mittlerweile nicht so groß ist, dass man diese aktuelle Phase mit einer neuen Erdepochenbezeichnung entsprechend kenntlich machen sollte: Anthropozän. [2],[2b], [3] Noch ist es nicht offiziell.

Erst kürzlich haben sich Forscher zu Wort gemeldet [2c], die diese Art von Benennung irreführend finden. Mit Verweis auf das große erdgeschichtliche ‚Sauerstoffereignis‘ [2a] schlagen sie vor, nicht von einer geologischen ‚Epoche‘ zu sprechen, sondern von einem globalen ‚Ereignis‘, das die Situation auf der Erde für alle Beteiligten verändert.

Die Diskussion ist kontrovers, aber aus Sicht des Autors dieser Zeilen wird die ‚Ereignissicht‘ eher der Prozesshaftigkeit gerecht, um das Wechselspiel zwischen menschlicher Population (als Teil der Biosphäre) und ‚allem anderen‘ zu beschreiben.

ARTENVIELFALT (BIODIVERSITÄT)

Im Kontext der Diskussion um die Wechselwirkung des Menschen mit ‚allem anderen‘ wird nicht nur das aktuell sehr prominente Thema der ‚Klimaänderung aufgrund der Einwirkungen des Menschen‘ diskutiert, sondern auch z.B. das Phänomen der negativen Auswirkungen des Menschen auf die vielen anderen Lebensformen: einmal ‚verdrängt‘ der Mensch viele Arten bis hin zu ihrer völligen Auslöschung; zum anderen führen die bislang erfassten Änderungen des Klimas indirekt ebenfalls zu einem massiven Artensterben.[5], [5b]

ANTHROMES (ANTHROPOGENE BIOME)

Eine Lebensform als solche kann aber nicht ‚einfach so‘ existieren; ihre Existenz verlangt immer nach einer eigenen ‚Umgebung‘, ohne die der notwendige lebenserhaltende Prozess nicht stattfinden kann. Diese Einheit von Lebensraum und spezifischer Lebensform wird allgemein ‚Biom‘ genannt. [6c]

Ein Teilaspekt der Umgebung eines Bioms ist das ‚Land‘, das eine Lebensform benötigt. Da die Lebensform des Homo sapiens mittlerweile mehr als 3/4 der verfügbaren Landflächen für sich vereinnahmt hat [6], [6a], gibt es Vorschläge, das dem Menschen zugeordnete Biom als ‚anthropogenes Biom‘ zu bezeichnen, um seine Sonderrolle zu thematisieren. Abkürzend heißt es u.a. auch ‚Anthrom‘.

Die Grundlegung für das Konzept eines Bioms kann man bei Jakob J. von Uexküll verorten, der mit seinen Untersuchungen 1909 deutlich machte, wie spezifische eine bestimmte Lebensform auf eine bestimmte Umgebung zugeschnitten ist (wobei die jeweils anderen Lebensformen in der Umgebung jeweils auch zur Umgebung gehören). [6d], [6e]

WELT UND ‚WELTBILD‘

Im Ringen um das richtige Verständnis unserer aktuellen Situation im globalen Kontext wird deutlich, dass das Verhältnis von der ‚real existierenden Welt‘ und den verschiedenen ‚Ansichten‘ zu dieser Welt sehr vielfältig bis widersprüchlich ist. Dies ist kein Zufall. Die Art und Weise, wie wir die Welt ‚beschreiben‘ ist nicht fest vorgegeben. Jede Generation muss für sich neu klären, mit welchen Konzepten, mit welcher Sprache, mit welchen Beobachtungsmethoden will man alle jene Aspekte der realen Welt ‚gedanklich so aufbereiten‘, dass sie ‚gemeinschaftlich verstehbar‘ und ‚überprüfbar‘ werden. Im Bereich der ‚Ökologie‘, der allgemeinen Erforschung unserer Umwelt unter Berücksichtigung der Biosphäre samt den vielfältigen Prozessen, die hier involviert sind, hat sich ein Vorgehen etabliert, das als ‚theoretische Ökologie‘ [7] bezeichnet wird. Hier werden die wichtigsten Konzepte, die wichtigsten theoretischen Modelle zusammengetragen, angewendet, und überprüft. Dies fördert die begriffliche Klarheit, fördert Synergieeffekte, fördert unterschiedliche Integrationen der verschiedenen Teilaspekte.

Eine fortschreitende Theoretisierung‘ besitzt aber neue Gefahren, die darin bestehen, dass ein theoretisches Modell als solches zwar faszinieren kann, dass aber sein ‚Wirklichkeitsbezug‘ immer wieder neu, z.T. sehr aufwendig, hergestellt werden muss. Ein beeindruckendes Beispiel für Theoriebildung ist hier Stephen P.Hubbell [7a] mit seiner Theorie [7b], die aber zugleich wegen ihres Bezugs zur Realität umstritten ist. Auch Volker Mosbrugger zeigt sich in seinem Beitrag sehr ‚theoriefreudig‘, ist sich aber der Problematik der oft noch unzulänglichen Abstützung durch unvollständige Daten sehr bewusst. [5] Andere Akzente setzen Robert Ulanowicz [7c] oder Stuart Kauffman [7d].

WAS IST MIT UNS?

Mit diesem versuchten Blick auf das ‚Ganze‘ (wer den Blog ‚Philosophie Jetzt‘ kennt, der weiß, dass dies natürlich nicht wirklich das ‚Ganze‘ ist), stellt sich die einfache — und zugleich schwere — Frage, was dies dann für jeden einzelnen, für seine Region, sein Land, für den ganzen Planeten bedeutet?

Was immer als bewusstes Handeln geschehen soll, es wird nur dann als ‚gemeinsames Werk‘ gelingen, wenn alle Handelnden zu einer einigermaßen einheitlichen ‚Sicht der Dinge‘ gelangen würden, und dass diese Handelnden über ‚genügend politische Macht‘ und ‚genügend materielle Ressourcen‘ verfügen müssen, um die Einsichten auch umsetzen zu können.

Entgegen dem Mainstream-Märchen, dass Künstliche Intelligenz bei genügender Versorgung mit ‚Daten‘ schon alles richten werde — die Menschen kommen in diesem Märchen praktischerweise erst gar nicht vor –, muss man festhalten, dass die Erarbeitung einer angemessenen theoretischen Sicht auf eine komplexe Realität das menschliche Erkennen an seine Grenzen führt. Dies ist kein ‚Selbstläufer‘ sondern erfordert extreme Anstrengungen. Und damit diese Bemühungen nicht nur in den Gehirnen einzelner Spezialisten stattfinden, brauchen sie eine umfassende gesellschaftliche Kommunikation auf hohem Niveau, was ohne ein entsprechend lebendiges Bildungssystem ein Wunschdenken bleibt. Die ausreichende Bereitstellung der notwendigen Ressourcen ist damit noch nicht geklärt, auch nicht die zentrale Frage der Macht. Laut dem schwedischen V-dem Institut [8] gab es weltweit 2010 noch 32 liberale Demokratien von 208 Staaten, 2020 nur noch 16! Auch wenn man über die Details dieser Klassifikationen streiten kann, der globale Trend ist eindeutig. In nicht-liberalen Demokratien, erst Recht in totalitären Regimen, können wir ständig zerstörerische Prozesse beobachten, wo sich die Bevölkerung gegen totalitäre Machthaber erheben und diese mit brutalster Gewalt zurückschlagen, d.h. ihre eigene Bevölkerung wie Kriminelle behandeln, und sie im übrigen regelrecht ausbeuten. Moderne Technologien ermöglichen totalitären Regimen — und nicht nur diesen — eine immer umfassendere Überwachung ihrer Bürger.

Diese Phänomene sind nicht neu. In den letzten Jahrtausenden gab es viele vergleichbare Phänomene. Insbesondere kann man studieren, wie die Veränderung eines gesellschaftlich geteilten Weltbildes immer viele Generationen gebraucht hat, 100 bis 200 und mehr Jahre sind normal.

Unsere Gegenwart ist hier mit Sicherheit keine Ausnahme. Seit der großen UN Konferenz zur Nachhaltigkeit 1992 sind schon 30 Jahre vergangen und die aktuelle Verfasstheit der verschiedenen Länder ist weit davon entfernt, eine wirklich gemeinsame Reaktion zu zeigen. Auch mit einem klaren Ziel vor Augen sollten wir uns darauf einstellen, dass die Klimaänderung mit all ihren verheerenden Folgen mehr oder weniger stattfinden wird.

Festzuhalten ist: Nicht das Klima ist das Problem, sondern die Art und Weise, wie die Lebensform des Homo sapiens mit der Welt, der Biosphäre und sich selbst umgeht, das ist das zentrale Problem. Wir Menschen haben mittlerweile enorme Technologien entwickelt (und es gibt natürlich noch viel mehr), aber wir selbst haben uns in entscheidenden Fähigkeiten scheinbar kaum weiter entwickelt. Obwohl das biologische Leben auf dem Planet Erde das größte Wunderwerk ist, was in dem bekannten Universum vorkommt, glauben wir naiv, primitive Maschinen (die wir selbst entwickelt haben) wären uns überlegen. Welch grandioser Irrtum.

ANMERKUNGEN

wkp := Wikipedia

[1] Climate change in wkp-en: https://en.wikipedia.org/wiki/Climate_change

[1b] Regina Oehler, Petra Gehring, Volker Mosbrugger (Hrsg.), 2017, Reihe: Senckenberg-Buch 78, „Biologie und Ethik: Leben als Projekt. Ein Funkkolleg Lesebuch“, Stuttgart, E. Schweizerbart’sche Verlagsbuchhandlung (Nägele u. Obermiller) und Senckenberg Gesellschaft für Naturforschung

[2] ‚Anthropocene‚ in wkp-en: https://en.wikipedia.org/wiki/Anthropocene

[2a] Great oxidation event in wkp-en: https://en.wikipedia.org/wiki/Great_Oxidation_Event

[2b] Wolfgang Haber, Martin Held, Markus Vogt (Hrsg.), 2015, „Die Welt im Anthropozän“, München, Oekom-Verlag

[2c] Bauer, Andrew M.; Edgeworth, Matthew; Edwards, Lucy E.; Ellis, Erle C.; Gibbard, Philip; Merritts, Dorothy J. (Korrespondenz 16. September 2021). „Anthropocene: event or epoch?“Nature597 (7876): 332

[3] Wolfgang Haber, Martin Held, Markus Vogt: „Das Anthropozän im Spannungsfeld zwischen Ökologie und Humanität“, in [1], SS.97-105 (entnommen aus [2])

[4] Drenckhahn, D. und Hacker, J. ,(Hrsg.), 2013, “ Rolle der Wissenschaft im Globalen Wandel“, Nova Acta Leopoldina NF Bd. 118

[5] Volker Mosbrugger: „Globaler Wandel der Biodiversität“, in [1], SS. 108-117 (aus [4])

[5b] E.O.Wilson, 2016, „Die Hälfte der Erde: So retten wir die Biosphäre“ , München, Verlag C.H.Beck

[5c] E.O.Wilson, 2017, „Die Hälfte der Erde: So retten wir die Biosphäre“, in [1], SS.118-120, aus [5b]

[5d] E.O.Wilson in wkp-en: https://en.wikipedia.org/wiki/E._O._Wilson

[6] Erle C. Ellis, 2020, „Anthromes“, in: Encyclopedia of the World’s Biomes, Elevier Inc. (Autor: Department of Geography & Environmental Systems, University of Maryland, Baltimore, MD, United States)

[6a] ‚Anthromes‚ auf der Webseite von Ellis: https://anthroecology.org/anthromes

[6b] ‚Anthropogenetic Biome‚ in wkp-en: https://en.wikipedia.org/wiki/Anthropogenic_biome

[6c] Biome in wkp-en: https://en.wikipedia.org/wiki/Biome

[6d] Jakob Johann von Uexküll in wkp-de: https://de.wikipedia.org/wiki/Jakob_Johann_von_Uexk%C3%BCll

[6e] Jakob von Uexküll, 1909, Umwelt und Innenwelt der Tiere. Berlin: J. Springer. (Download: https://ia802708.us.archive.org/13/items/umweltundinnenwe00uexk/umweltundinnenwe00uexk.pdf )

[7] Theoretical ecology in wkp-edn: https://en.wikipedia.org/wiki/Theoretical_ecology

[7a] Stephen P. Hubbell in wkp-en: https://en.wikipedia.org/wiki/Stephen_P._Hubbell

[7b] Unified neutral theory of biodiversity in wkp-en: https://en.wikipedia.org/wiki/Unified_neutral_theory_of_biodiversity

[7c] Robert Ulanowicz in wkp-en: https://en.wikipedia.org/wiki/Robert_Ulanowicz

[7d] S.A.Kauffman in wkp-en: https://en.wikipedia.org/wiki/Stuart_Kauffman (siehe eine Diskussion seines Buches „Reinventing The Sacred. A new View of Science, Reason, and Religion.“  in 7 Teilen HIER).

[8] Gerd Doeben-Henisch, 2021, “ OKSIMO PARADIGMA und DEMOKRATIE – Das V-dem Forschungsinstitut für Demokratie„, in: UNIVERSELLE PROZESSPLANUNG: https://www.oksimo.org/2021/08/28/oksimo-paradigma-und-demokratie-das-v-dem-forschungsinstitut-fuer-demokratie/

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

KOLLEKTIVE MENSCH:MASCHINE INTELLIGENZ und das Konzept ‚Social Machines‘

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 2.-5.Dezember 2021, 13:12h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

KONTEXT

Der Autor dieses Textes ist involviert in die Ausarbeitung zur Theorie und zur praktischen Umsetzung eines neuen Konzeptes von ‚Kollektiver Mensch:Maschine Intelligenz‘, das unter dem Begriff ‚oksimo Paradigma‘ vorgestellt und diskutiert wird.[1] In diesem Zusammenhang ist es wichtig, den eigenen Standpunkt immer wieder mit anderen Positionen in der Literatur abzugleichen: Ist das Ganze letztlich doch nicht wirklich ‚Neu‘? Falls doch, in welchem Sinne neu? Interessant sind auch die Beziehungen zwischen den verschiedenen Konzepten, ihre historische Entwicklung.

In einer online-Veranstaltung am 30.November 2021 bekam der Autor von Jörn Lamla den Hinweis auf den Artikel ‚Social Machines‘. [2] Wie man in dem kurzen aber prägnanten Artikel in der englischen Wikipedia nachlesen kann [3], ist der Begriff ‚Social Machine‘ (‚Soziale Maschine‘) schon gut 150 Jahre alt, zeigt aber noch keine sehr klaren Konturen. Der Versuch, das ‚Soziale‘ mit der ‚Technologie‘, mit ‚Maschinen‘ — hier sind vernetzte Computer gemeint, letztlich der ‚Cyberspace‘ — begrifflich zu vernetzen, drängt sich auf, ist für Gesellschaftswissenschaften verführerisch, führt aber nicht automatisch zu präzisen Konzepten. Weder ‚das Soziale‘ noch ‚die Maschine‘ sind Begriffe, die aus sich heraus irgendwie klar sind. Umso gespannter kann man sein, was die Autoren meinen, wenn sie zum begrifflichen Konstrukt ‚Soziale Maschine‘ einen Text schreiben.

SOZIALE MASCHINEN

Im weiteren Text bekennen sich die Autoren zu der schwer fassbaren Semantik des Begriffs ‚Soziale Maschine‘, indem sie diverse Beispiele aus der Literatur zitieren, die ein viel schillerndes Bild bietet. Um für ihre Diskussion einen irgendwie gearteten begrifflichen Referenzpunkt zu gewinnen, führen sie dann ihrerseits eine ‚Definition‘ von ‚Sozialer Maschine‘ ein (ohne sich allerdings der Mühe zu unterziehen, die Vielfalt der bisherigen Positionen tatsächlich im einzelnen zu diskutieren).

Def 1: Social Machines

Ihre Definition lautet: „Social Machines sind soziotechnische Systeme, in denen die Prozesse sozialer Interaktion hybrid zwischen menschlichen und maschinellen Akteuren ablaufen und teilweise algorithmisiert sind.“

An dieser Stelle ist es eine offene Frage, ob diese Definition eine ‚adäquate Repräsentation‘ des vorausgehenden Diskurses zu Sozialen Maschinen darstellt, oder ob es sich nur um eine spezielle Setzung der Autoren handelt, deren Begründung nicht schlüssig aus dem bisherigen Diskurszusammenhang folgt.

Liest man die Definition der Autoren, dann fallen u.a. folgende Formulierungen auf: (i) dass die ‚Prozesse sozialer Interaktion‚ ‚hybrid‚ sein sollen; (ii) dass diese Prozesse zwischen ‚menschlichen und maschinellen Akteuren‚ ablaufen sollen, und (iii) dass diese ‚ teilweise algorithmisiert‚ sein sollen.

Hybrides Handeln

Angesichts des großen Bedeutungsspektrums des Ausdrucks ’soziale Interaktion‘ in der Literatur (dazu oft sehr theorieabhängig genutzt) ist an dieser Stelle nicht ganz klar, was mit sozialer Interaktion‘ gemeint sein soll. Dazu der Ausdruck ‚hybrid‘. Ab wann sind menschliche Handlungen hybrid? Handelt ein Mensch ‚hybrid‘ wenn er Werkzeuge benutzt? Handelt ein Mensch ‚hybrid‘, wenn er die Gegebenheiten der Natur nutzt, um Nahrung zu finden oder zu produzieren? Handelt ein Mensch ‚hybrid‘, wenn er andere Menschen ‚instrumentalisiert‘, um persönliche Ziele zu erreichen? Handelt ein Mensch ‚hybrid‘, wenn er eine Sprache benutzt, die er in einer Gesellschaft als Instrument der Kommunikation vorfindet? Warum sollte die Benutzung einer Maschine eine besondere Form von ‚hybridem Handeln‘ darstellen, wenn die Nutzung der Maschine für den ‚Inhalt der Aktion‘ ‚unwesentlich‘ ist?

Für die weitere Diskussion sei hier daher die Verabredung getroffen, dass immer dann, wenn ein Mensch in seiner Interaktion mit der Welt irgendwelche Umstände so benutzt, dass dieses Handeln ohne diese Bezugnahme nicht erklärbar wäre, von einer ‚allgemein hybriden Handlung‘ gesprochen werden soll. Da jede Interaktion mit der Umgebung ‚als Interaktion‘ in diesem Sinne ‚allgemein hybrid‘ ist, sagt der Ausdruck ‚allgemein hybrid‘ nicht allzu viel, außer, das er uns bewusst machen kann, dass wir im Handeln niemals nur ‚für uns‘ handeln, niemals nur ‚isoliert, autonom‘ handeln, sondern wir uns unausweichlich in einer ‚Wechselwirkung‘ mit ‚etwas anderem‘ befinden. Und dies liegt nicht am ‚Handeln als solchem‘ sondern in der Art und Weise, wie jegliches Handeln von Homo sapiens Exemplaren in der ‚inneren Struktur‘ eines Homo sapiens ‚verankert‘ ist.

Die Benutzung vieler Computerdienste (maschinelle Dienstleistungen) sind in diesem Sinne zwar ‚allgemein hybrid‘ insoweit ein Mensch zusätzliche Mittel für sein Handeln benutzt, aber ob man den die maschinelle Dienstleistung benutzt oder nicht, muss nicht notwendigerweise einen wesentlichen Einfluss auf den ‚Inhalt des Handelns‘ haben (außer dass diese Benutzung das Handeln ‚bequemer‘ oder ’schneller‘ oder … macht). Wenn die Autoren also die Bedeutung von ‚hybrid‘ in diesem Zusammenhang so betonen, stellt sich die Frage, was denn in dieser Interaktion so ‚besonders‘, so ’speziell‘ sein soll, dass es sich lohnt, dies hervor zu heben. Allein die Einbeziehung von ‚etwas anderem‘ in das menschliche Handeln geschieht seitdem es den Homo sapiens gibt, tatsächlich sogar schon viel länger, wenn man die evolutionäre Vorgeschichte des Homo sapiens berücksichtigt. Selbst unter Prä-Homo sapiens Lebensformen, die heute leben, ist ‚allgemein hybrides‘ Handeln verbreitet.

Menschliche und Maschinelle Akteure

Es fragt sich, ob mit der Konkretisierung des ‚technischen Anteils‘ im Ausdruck ’soziotechnische Systeme‘ zu ‚Maschinen‘ etwas gewonnen wird? Gibt es technische Systeme, die keine Maschinen sind? Was ist mit hochentwickelten Landwirtschaften, wie sie sich in der Zeit islamischer Besetzung in Spanien um und vor +1000 fanden: komplexe Bewässerungssysteme, komplexe Architektur, komplexe Organisationsformen machten aus Spanien eine blühende und fruchtbare Landschaft. Ist das auch Technologie, und dann sogar im eminenten Sinne soziotechnisch‘? Was ist mit den großartigen Bibliotheken in der Hochblüte des Islams mit vielen hundert Tausend Büchern? Was ist mit der Seeschifffahrt durch die letzten Jahrtausende, die Städte, den Bauwerken, den Straßen und Brücken, den … ? Der Begriff ‚technisches System‘ ist nicht besonders klar, genauso wenig der Begriff ‚Maschine‘. Wie ein kurzer Blick in die englische Wikipedia zeigt [8], hat der Begriff eine lange Geschichte mit einem starken Bedeutungswandel, der die Spuren vielfältiger kultureller Entwicklungen in sich aufgenommen hat. Welche Typen von Maschinen meinen die Autoren?

Durch die Kombination von ‚Maschine‘ und ‚Akteur‘ kommt auf jeden Fall eine besondere Note ins Spiel, da der Begriff des ‚Akteurs‘ — in sich auch nicht klar definiert! — die unscharfe Vorstellung assoziiert, dass damit ein ‚System‘ gemeint sein könnte, das ‚(selbständig?) handeln‘ kann — was immer genau ‚(selbständig) handeln‘ heißen mag –.

Im Englischen meint ‚Akteur‘ als ‚actor‘ schlicht Menschen, die als Schauspieler in einem Stück handeln [9]. Sie handeln aber tatsächlich nur partiell ’selbständig, aus sich heraus‘, insofern sie das vorgegebene Drehbuch zwar in den groben Linien ’nachspielen‘, im Detail der Rolle aber mit ihrem realen Verhalten diese Rolle ‚modifizieren‘ können; in der Art und Weise dieses ‚Modifizierens einer Rolle‘ meinen viele erkennen zu können, ob es sich um einen ‚großen Schauspieler‘ handelt.

In neueren technischen Kontexten gibt es viele Standards, u.a. auch UML (Unified Modeling Language). [10] In UML wird für den Bereich der Programmierung das Zusammenspiel, die Interaktion verschiedener ‚Rollen‘ in einem Interaktionsfeld strukturiert beschrieben. ‚Akteure‘ (‚actors‘) sind dann jene abgrenzbare Größen, die Ereignisse aus der Umgebung (Input) aufnehmen, wie auch auf die Umgebung durch Reaktionen (Output) reagieren können.[11]

Viele andere sprachliche Verwendungszusammhänge mit dem Begriff ‚Akteur‘ sind bekannt. Die Autoren bieten dazu keine Erläuterungen, weder für die Frage, warum sie den allgemeinen Begriff des ‚technischen Systems‘ auf ‚Maschinen als Akteure‘ einschränken noch, welche Art von ‚Akteuren‘ sie genau meinen.

Teilweise Algorithmisiert

Der heutige Begriff des ‚Algorithmus‘ im Kontext von programmierbaren Maschinen [12] hat eine lange Vorgeschichte im Kontext der Mathematik (von heute aus ca. 4.500 Jahre rückwärts), wird aber seit der Verfügbarkeit von real programmierbaren Maschinen (‚Computern‘) seit ca. 1930 vornehmlich für jene Befehlslisten verwendet, mit denen programmierbare Maschinen gesteuert werden.[13] Der Ausdruck der Autoren, dass ’soziale Interaktionen‘ ‚teilweise algorithmisiert‘ sind, wirft von daher mindestens eine Frage auf: Was an einer sozialen Interaktion soll algorithmisiert‘ sein, wenn doch nach allgemeinem Verständnis nur programmierbare Maschinen von einem Algorithmus gesteuert werden können?

Nehmen wir an, dass hier soziotechnische Systeme gemeint sind, die — vereinfachend — aus Akteuren bestehen, die sowohl biologische und nicht-biologische Systeme sein können. Im angenommenen Fall sind diese Akteure auf der einen Seite weiter spezialisiert zu ‚biologischen System‘, die ‚Homo sapiens Exemplare‘ darstellen, und auf der anderen Seite ‚programmierbare Maschinen‘. Von den programmierbaren Maschinen ist bekannt, dass sie — per Definition — über ein ‚Programm‘ verfügen können, das die Eigenschaften eines ‚Algorithmus‘ besitzt. In einer ‚Interaktion‘ zwischen Homo sapiens Akteuren und programmierbaren Maschinen würden — Annahme — die Homo sapiens Akteure so handeln, wie sie immer handeln: Bezugnehmend auf ihre Wahrnehmung der Umgebung würden sie auf der Basis der bis dahin erworbenen Erfahrungen und aktuellen Motivationslagen auf diese Umgebung reagieren; dieses ‚Muster‘ von ‚Wahrnehmung + innere Zustände + Reagieren‘ würde dann einen groben Rahmen für den Begriff einer ‚Handlung‘ zur Verfügung stellen, die bezogen auf eine Situation mit einem anderen Akteur als ‚Gegenüber‘ dann als ‚Interaktion‘ bezeichnet werden könnte. [14] Jede Art von ‚Interaktion‘ in dieser Sicht wäre ‚allgemein hybrid‘, sofern das ‚Gegenüber‘ zu einem Homo sapiens Exemplar nicht wieder ein anderes Homo sapiens Exemplar wäre, also allgemein ‚kein biologisches System‘! Insofern ‚programmierbare Maschinen‘ sehr spezielle Formen von Maschinen — und generell von technischen Systemen — darstellen, die in er ‚Rolle eines Akteurs‘ auftreten können, hätten wir das Muster einer ‚allgemein hybriden‘ Interaktion, die sich zunächst nicht von irgendwelchen anderen Interaktionen des Homo sapiens Exemplars mit irgendwelchen nicht-biologischen Systemen unterscheidet.

An dieser Stelle könnte man dann die Frage stellen, ob und wie die Interaktion eines Homo sapiens Exemplars mit einer programmierbaren Maschine irgendwelche Besonderheiten aufweisen kann verglichen mit einer ‚allgemein hybriden Interaktion‘?

Nach diesen ersten Fragen an die Autoren hier die Interpretation, die die Autoren selbst zu ihrer Definition geben.

Def. 2: Soziotechnisches System

Interessant ist die Formulierung „… verstehen wir unter einem soziotechnischen System ein komplexes Gefüge, welches Menschen, Hard- und Software, organisationale und soziale Prozesse für gegebene Aufgaben oder Ziele miteinander interagieren lässt.“

Das zuvor ermittelte Schema von zwei Akteuren unterschiedlicher Art (biologisch und nicht-biologisch, im letzteren Fall ‚programmierbare Maschinen‘), wird hier in einem Bündel von vier Faktoren gesehen: (i) Menschen, (ii) Hard- und Software, (iii) ‚organisationale und soziale Prozesse‘, sowie (iv) ‚Aufgaben und Ziele‘. Diese vier Faktoren sind dynamisch so verknüpft, dass es ‚Aufgaben und Ziele‘ sind, bezogen auf diese die anderen drei Faktoren in Wechselwirkungen treten. Normalerweise würde man annehmen, dass es die Interaktionen von ‚Menschen‘ einerseits und ‚Hard- und Software‘ andererseits sind, durch die ‚Prozesse‘ stattfinden. In der Formulierung der Autoren liest es sich aber so, als ob ‚organisationale und soziale Prozesse‘ einen eigenständigen Faktor neben ‚Menschen‘ und ‚Hard- und Software‘ bilden, und zwar so, dass alle drei Faktoren interagieren. Also, ein ‚Prozess‘ interagiert mit einem Menschen oder einer Hard- und Software und umgekehrt. Eine sehr ungewöhnliche Vorstellung.

In einem sehr verbreiteten Verständnis von ‚Prozess‘ [15] ist ein Prozess eine Serie von Aktivitäten, die ineinandergreifen, um ein ‚Ergebnis‘ zu produzieren. Je nach Kontext (Disziplin, Anwendungsbereich) können die Aktivitäten sehr unterschiedlich aussehen, ebenso das erzielte Ergebnis.[15] Ergänzend ist es ein verbreitetes Verständnis von ‚Aktion’/’Aktivität‘, dass es sich um ein Ereignis handelt, das von einem ‚Agenten’/ ‚Akteur‘ für eine bestimmte ‚Absicht’/ ‚Ziel‘ herbeigeführt wird, das ‚in‘ dem handelnden Akteur ‚verankert‘ ist. [16]

In diesem Verständnishorizont sind es also Agenten/ Akteure, die unter dem Einfluss von Zielen bestimmte Ereignisse erzeugen — als handeln, indem sie Aktionen ausführen –, die zusammen genommen als ein ‚Prozess‘ verstanden werden können. In diesem Sinne sind ‚Prozesse‚ keine ’normalen Objekte‘ der realen Welt sondern begriffliche Konstrukte, die sich in den Köpfen von Akteuren bilden können, um eine Folge von konkreten Ereignissen — stark abstrahierend — als einen ‚Prozess‘ zu verstehen. Von einem ‚Prozess‘ zu sprechen verlangt daher von den Beteiligten, sich jeweils darüber zu vergewissern, welche Abfolge von Ereignissen (Handlungen) zum aktuellen Begriff eines Prozesses gehören sollen.

Bemerkenswert ist auch, dass die Ziele — die intendierten Ergebnisse — ebenfalls nicht als ’normale Objekte‘ vorkommen, sondern primär ‚in den Akteuren‘ verankert sind, und es eine der schwierigsten Aufgaben in jedem Prozess ist, zwischen allen beteiligten Akteuren zu klären, was man unter dem ‚gemeinsamen‘ Ziel — eventuell individuell ganz unterschiedlich gedacht — so zu verstehen hat, dass es zwischen allen Beteiligten ‚klar genug‘ ist. [17] Da Ziele keine realen Objekte sind, sondern immer nur ‚innere Objekte‘ der Akteure, ist eine vollständige Klärung der ‚gemeinten Bedeutung‘ generell nur annäherungsweise über aufzeigbare Beispiele möglich.

Versucht man der Intention der Autoren zu folgen, dann wären Prozesse Entitäten, die mit Menschen und/oder Hard- und Software interagieren können. Hierin klingt irgendwie an, als ob Prozesse soziale Realitäten sind, die als solche greifbar sind und mit denen Menschen interagieren können so wie mit anderen Gegebenheiten. Da die Autoren den Begriff der ‚Interaktion‘ bzw. der ‚Aktion‘ bislang nicht geklärt haben, bleibt der Versuch des Verstehens an dieser Stelle ‚mit sich alleine‘.

Im Lichte eines verbreiteten Verständnisses sind Prozesse höchstens in einem sehr abstrakten Sinne ’soziale Realitäten‘, die mit Menschen sowie Hard- und Software ‚interagieren‘. Nehmen wir z.B. einen beliebigen Planungsprozess in einer Firma oder einer Behörde. Ein Chef kann z.B. einen Mitarbeiter davon in Kenntnis setzen, dass er ab morgen in dem Planungsprozess Px mitarbeiten soll. Damit wird der Mitarbeiter Mitglied der Projektgruppe PGx zum Planungsprozess Px. Als Mitglied der Projektgruppe startet für das neue Mitglied ein Kommunikationsprozess, innerhalb dessen er sich ein ‚inneres Bild‘ von dem Projekt und seinen Aufgaben machen kann. In dem Maße, wie der Mitarbeiter aufgrund seines ‚inneren Bildes‘ versteht, was genau seine Aufgaben mitsamt einem spezifischen Aufgabenumfeld sind, kann der Mitarbeiter anfangen, ‚etwas zu tun‘, d.h. er kann ‚gezielt Handlungen vornehmen‘. Im ‚Stattfinden‘ seiner Handlungen und durch die möglichen ‚erfahrbaren Resultaten‘ können die anderen Mitglieder der Projektgruppe ‚wahrnehmen‘, was der neue Mitarbeiter tut und sie können die neuen ‚Wahrnehmungen‘ mit ihrem ‚inneren Bild des Projektes‘ ‚abgleichen‘: passen die Handlungen und Ergebnisse des neuen Mitarbeiters zu ‚ihrem inneren Bild‘ des Prozesses?

Im Lichte dieses Beispiels würde das Konzept einer ‚Interaktion zwischen Menschen und einem Prozess‘ letztlich zurück übersetzt werden müssen zu einer ‚Interaktion zwischen Menschen‘, da ein Prozess niemals als solcher als ein ‚erfahrbares Objekt‘ existiert, sondern immer nur als ‚abstraktes Konzept‘ im ‚Innern von Menschen‘, die über Kommunikation verbunden mit Handlungen und aufzeigbaren Artefakten miteinander interagieren. Kann man solchen Kommunikationen und Interaktionen mit Artefakten ein gewisses ‚Format‘ zuordnen, dann sprechen wir von einem ‚Prozess‘, der durch Akteure — hier Menschen — in einer Abfolge typischer Handlungen ’stattfindet‘.

Def. 2*: Soziotechnisches System

An dieser Stelle des Rekonstruktionsversuchs würde man die Formulierung der Autoren wie folgt ‚um-formulieren‘ können: „… verstehen wir unter einem soziotechnischen System ein komplexes Gefüge bestehend aus Menschen und Hard- und Software, die aufgrund von akzeptierten Zielen so miteinander interagieren können, dass organisationale und soziale Prozesse stattfinden, die zu Änderungen in der bestehenden Umgebung führen können.

Möglicherweise meinen die Autoren auch, dass die Tatsache, dass eine Gruppe von Menschen aufgrund von festgelegten Zielen längere Zeit in einem bestimmten Format miteinander so interagieren, dass andere dieses Vorgehen ‚in ihrem Innern‘ als ein ‚Prozess‘ erkennen, und diese ‚Wahrnehmung und Interpretation‘ für die ‚Beobachter‘ eine irgendwie geartete ‚Wirkung entfaltet, dass solch eine ‚Wirkung im Innern‘ als ‚Teil einer Interaktion‘ der Beobachter mit dem beobachtbaren Prozess verstanden werden kann. Eine solche Ausweitung der Bedeutung von normalen ‚Wahrnehmungsprozessen‘ zu ‚Interaktionsprozessen‘ würde aber für eine Analyse wenig attraktiv erscheinen.

Der Ausdruck ‚Gefüge‚, den die Autoren benutzen, klingt ein wenig ‚altmodisch‘. Nach mehr als 100 Jahren diverse Strukturwissenschaften sollte man das Wort ‚Gefüge‘ doch vielleicht eher durch den Ausdruck ‚Struktur‚ ersetzen. [18] Eine ‚Struktur‘ liegt vor, wenn man verschiedene Komponenten unterscheiden kann, hier z.B. ‚Menschen‘ und ‚Hard- und Software‘, und diese Komponenten können in Form ‚typischer‘ Handlungen miteinander interagieren, also etwa

SOZIOTECHNISCHES SYSTEM (ST) gdw ST = <Menschen, Hard-/Software, …, Interaktionen, …>

Die Elemente ‚Absicht‘, ‚Ziel‘, ‚inneres Bild von…‘ usw. würden dann in einer eigenständigen Sub-Struktur ‚Mensch‘ oder ‚menschlicher Akteur‘ verortet, da ein Mensch als eine ‚eigenständige Struktur‘ aufgefasst werden kann, etwa:

MENSCH(M) gdw M = <Bilder, Ziele, …, Handlungen, …>

Die beiden Strukturen ST und M würden sogar eine kleine ‚Hierarchie‚ bilden: die Struktur M wäre eingebettet in die Struktur ST.

Offen ist dabei noch, in welchen Sinne ‚Hard- und Software‘ überhaupt interagieren können.

Def 3: Prozesse sozialer Interaktion

sind sich dynamisch ändernde Abfolgen sozialer Aktionen zwischen Individuen und/oder Gruppen.

Die Unklarheit, die durch Def. 2 noch darin gegeben war, als ob ‚organisationale und soziale Prozesse‘ quasi ‚gleichberechtigte‘ Faktoren neben Akteuren, Hard- und Software sind, wird durch Def. 3 aufgehoben. In der Formulierung von Def. 3 sind ‚Prozesse sozialer Interaktion‘ ‚Abfolgen sozialer Aktionen‘, die ‚zwischen Individuen und/oder Gruppen‘ stattfinden, und die sich ‚dynamisch ändern‘ können. Diese Lesart entspricht weitgehend dem Formulierungsvorschlag Def 2*.

Def. 4: Hybridität

Unter ihrer Hybridität schließlich verstehen wir, dass an diesen Prozessen inhärent sowohl maschinelle als auch menschliche Akteure wesentlich beteiligt sind.

Anders formuliert sagen die Autoren, dass ‚Prozesse sozialer Interaktion‘ dann hybrid sind, wenn in solchen Prozessen sowohl ‚maschinelle als auch ‚menschliche Akteure‘ beteiligt sind.

Mit Blick auf die Diskussion zum Ausdruck ‚hybrid‘ im Anschluss an Def. 1 beschränkt sich die Formulierung von Def. 4 zunächst darauf, nur zu fordern, dass im Rahmen von ‚Prozessen sozialer Interaktionen‘ neben dem Akteurstyp ‚Mensch‘ auch der Akteurstyp ‚Maschine‘ vorkommt. Wie solch eine Interaktion aussieht, welche Eigenschaften sie auszeichnen, bleibt hier noch offen. In der vorausgehenden Diskussion war ja schon thematisiert worden, dass menschliche Akteure andere nicht-menschliche Mittel — also auch Maschinen (welche Typen von Maschinen?) — ‚unwesentlich‘ benutzen können. Damit war gemeint, dass man zwar eine programmierbare Maschine (Computer) zum ‚Text schreiben‘ benutzen kann, dass der Computer hier aber keine ‚wesentliche‘ Rolle spielt; er macht das Erstellen von Texten vielleicht ‚einfacher‘, wäre aber generell nicht notwendig.

Den folgenden Text kann man grob als eine Serie von ‚Annahmen‘ über die Wirklichkeit bezeichnen, vermischt mit impliziten Folgerungen, in denen die bisherige Einleitung weiter ausdifferenziert wird.

Ziel der Diskussion bleibt es, zu klären, wie sich das Konzept der ‚kollektiven Mensch:Maschine Intelligenz‘ aus dem oksimo Paradigma zum Konzept der ‚Sozialen Maschine‘ verhält.

ANNAHME-Hybridisierung 1

Die Autoren benennen drei Komponenten ‚Webtechnologie‘ — mit dem Attribut ‚mobil‘ ergänzt –, ‚lernende Bots‘ und ‚KI‘, wodurch „Sozialität und Maschine“ zunehmend verschmelzen. Daraus ziehen sie den Schluss: „Die menschlichen und nichtmenschlichen Komponenten der Social Machine sind folglich immer schwerer voneinander zu unterscheiden und zu trennen, was als paradigmatischer Trend zur fortschreitenden Hybridisierung der Social Machine bezeichnet werden kann“.

Der Kern der Schlussfolgerung fokussiert in der Idee, dass der „Trend zur fortschreitenden Hybridisierung“ offensichtlich sei.

Wenn nach Def. 4 von den Autoren festgehalten wird, dass man unter „Hybridität“ verstehen sollte, „dass an diesen Prozessen inhärent sowohl maschinelle als auch menschliche Akteure wesentlich beteiligt sind“, dann fragt man sich, was man sich unter dem ‚Fortschreiten einer Hybridisierung‘ verstehen soll. Die bloße Vermehrung der ‚Anzahl‘ der beteiligten Faktoren ‚Menschen‘ oder ‚Maschinen‘ kann es wohl nicht sein. Zumindest gibt die Def. 4 dies nicht her.

Die Autoren sprechen vor ihrer Schlussfolgerung davon, dass „Sozialität und Maschine zunehmend verschmelzen„. Dies kann man so interpretieren, dass die ‚fortschreitende Hybridisierung‘ zusammenhängt mit einer ‚Verschmelzung‘ von Sozialität und Maschine. Der Ausdruck ‚verschmelzen‘ wurde von den Autoren zuvor nicht eigens definiert. Die eher sprachliche Deutung von ‚Verschmelzung‘ von Worten scheint nicht gemeint zu sein.[19] Der bedeutungsnahe Ausdruck ‚Fusion‘ bietet eine Vielzahl von Varianten. [20] Welche Variante meinen die Autoren. Dass so ungleiche Wirklichkeiten wie ‚Sozialität‘ und ‚Maschinen‘ ‚verschmelzen‘, dafür fehlt jeglicher Ansatzpunkt einer sinnvollen Interpretation.

Um dieses Dilemma aufzulösen könnte der Ausdruck „… sind folglich immer schwerer voneinander zu unterscheiden und zu trennen …“ einen Hinweis liefern. Wenn man das ‚unterscheiden‘ und ‚trennen‘ nicht auf reale Sachverhalte — wie Sozialität und Maschine — bezieht sondern auf die ‚Verarbeitung von Sinneseindrücken im Innern des Menschen‘, dann könnte man sich eine Interpretation vorstellen, in der durch die Art und Weise, wie Sozialität und Maschine in der Umwelt ‚vorkommen‘, im menschlichen Akteur ‚Vorstellungen‘ auslöst, in denen das menschliche Denken eine klare Unterscheidung immer weniger leisten kann. Dann wäre die angenommene Verschmelzung der Autoren ein rein kognitives/ mentales Problem der menschlichen Akteure, die sich in Interaktion mit einer Umwelt befinden, in der mindestens Menschen und Maschinen vorkommen, aber auf eine Weise, die eine klare Unterscheidung kognitiv/ mental schwer macht.

Dies führt zu folgendem Formulierungsvorschlag:

ANNAHME-Hybridisierung 1 *

Meine Formulierung würde dann lauten: „Menschliche und nichtmenschliche Akteure (hier Maschinen) können in einer Weise in der Umwelt vorkommen, dass es für die beteiligten Menschen in ihren mentalen/ kognitiven Bildern von der Welt immer schwerer wird, diese Akteure klar voneinander zu unterscheiden und zu trennen.

Zu beachten ist auch, dass die Autoren zu Beginn des Abschnitts von drei unterschiedlichen Komponenten sprechen (‚Webtechnologie‘ — mit dem Attribut ‚mobil‘ ergänzt –, ‚Bots‘ und ‚KI‘), die im Gefolge dann offensichtlich dem Ausdruck ‚Maschine‘ zugeschlagen werden. Der Ausdruck ‚Maschine‘ wurde aber bislang nicht wirklich definiert. Auch sei der Ausdruck ‚Hard- und Software‘ erinnert, der in Def. 2 von den Autoren benutzt wird. Nach den Kontexten gehört dieser auch in das Bedeutungsfeld ‚Maschine‘, so wie es die Autoren praktizieren. Halten wir an dieser Stelle fest:

Def. 5 Maschine (indirekt abgeleitet):

Für die Autoren repräsentieren die Ausdrücke ‚Hard- und Software‘, ‚Webtechnologie (mit Aspekten der ‚Mobilität‘), ‚lernende Bots‘ und ‚KI‘ Aspekte des Bedeutungsfelds ‚Maschine‘, wie es im Kontext der Begriffe ’soziotechnisches System‘ bzw. ‚Soziale Maschine‘ implizit angenommen wird.

In der ‚realen Welt‘ beschreiben die aufgelisteten Ausdrücke (‚Hard- und Software‘, ‚Webtechnologie (mit Aspekten der ‚Mobilität‘), ‚lernende Bots‘ und ‚KI‘ ) ganz unterschiedliche Sachverhalte, deren Verhältnis zueinander keinesfalls trivial ist. Dies sei hier ganz kurz angedeutet:

Webtechnologie, Mobil, Hard- und Software

Der Begriff ‚Webtechnologie‚ ist in sich eher unklar, was mit dem unklaren Begriff ‚Web‚ zusammenhängt. Die englische Wikipedia listet mögliche Bedeutungsvarianten auf und verweist bei ‚web‘ auch auf das ‚World Wide Web [WWW]‘.[21] Die wichtige Botschaft ist [22], dass das WWW nicht das Internet ist, sondern das Internet als Basistechnologie voraussetzt. Das WWW selbst ist eine reine Softwareangelegenheit, wodurch es möglich ist, mittels eines speziellen Adresssystems (URLs) Signale zwischen diesen Adressen hin und her zu schicken. Die Art und Weise, wie dieser Signalaustausch formal stattfinden soll, regelt ein ‚Protokoll‘ (das ‚Hypertext Transfer Protocol‘ [HTTP]; mit zusätzlicher Sicherheit als HTTPS). Auf Seiten der Anwender benötigt man dazu eine Software, die ‚Browser‚ genannt wird, und innerhalb des Internets benötigt man einen Server, auf dem eine Software läuft, die ‚Webserver‚ genannt wird. Die ‚Mobilität‘ des WWW ist keine direkte Eigenschaft des WWW selbst sondern ergibt sich aus veränderten technischen Bedingungen des vorausgesetzten Internets: mobile Endgeräte, auf denen eine Browser Software installiert ist, erlauben eine Kommunikation innerhalb des WWWs.[23] Während das WWW eine reine Software ist, kann man fragen, was denn dann mit ‚Webtechnologie‘ gemeint sein soll? Wenn mit ‚Webtechnologie‘ auch ‚Software‘ gemeint ist, dann wäre der Begriff ‚Technologie‘ stark ausgeweitet. Das ‚Internet‘ — eine spezielle Kombination aus Hardware und Software — wird als ‚Netzwerk von Netzwerken‘ gesehen, innerhalb dessen ganz unterschiedliche Kommunikationsprotokolle am Werk sind, die ganz unterschiedliche Informationsquellen und Dienste ermöglichen. Das WWW ist eine Komponenten unter vielen.[24] Mit ‚Netzwerk‚ ist in diesem Kontext ein ‚Computernetzwerk‚ gemeint. Es besteht aus unterschiedlichen ‚Computern‚, die über geeignete ‚Verbindungen‘ und ‚Verbindungstechnologien‘ miteinander so verknüpft sind, dass Signalpakete entsprechend vereinbarten Protokollen hin und her gesendet werden können. Computer verstehen sich hier immer als Kombinationen aus Hard- und Software.[25] Als umfassender Begriff für die Vielfalt der Technologien und Anwendungen, die durch das ‚Internet‘ möglich sind, gibt es schon sehr früh — zumindest im Englischen Sprachraum — den Begriff ‚Cyberspace‚.[26]

Lernende Bots

Generell gibt es verschiedene Typen von bots. [27] Im allgemeinen ist ein bot im Internet eine Softwareanwendung, die automatisch bestimmte Aufgaben ausführt.[28] Wikipedia selbst benutzt z.B. über 2500 Wikipedia-typische Bots, um die mehr als 54 Mio. Wikipedia-Seiten zu verwalten.[29] Für die Interaktion mit Menschen gibt es u.a. den Typ des ‚Chatbots‘ [30]: die Software eines Chatbots versucht das Verhalten von Menschen anzunähern. Dies gelingt bislang aber nicht wirklich gut.[30] Ein spezielles, aber schon viele Jahre andauerndes Einsatzfeld von künstlicher Intelligenz Techniken sind Computerspiele, in denen ‚Nicht-Spieler Charaktere‘ (’non-player characters‘ [NPCs) das Spielgeschehen anreichern. Diese erledigen sehr vielfältige Aufgaben und sind keineswegs mit einem ‚menschenähnlichen‘ Spielcharakter zu vergleichen.[31] Insgesamt ist der Begriff ‚lernend‘ im Kontext von ‚Bots‘ generell sehr unscharf: einmal, weil der Ausdruck ‚bot‘ nicht einheitlich definiert ist, und zum anderen, weil der Begriff ‚lernend‘ im Kontext von ‚Künstlicher Intelligenz [KI]‘ bzw. ‚Maschinellem Lernen [ML]‘ keinesfalls klar ist. Das Feld ist zu uneinheitlich. [32]

KI (Künstliche Intelligenz)

Der Ausdruck ‚KI‘ — Abkürzung für ‚Künstliche Intelligenz‘ (heute oft auch einschränkend ‚ML‘ für maschinelles Lernen) — bezeichnet ein Teilgebiet der Informatik, das bislang keine klare Definition bietet, da schon der Begriff der ‚Intelligenz‘ selbst nicht klar definiert ist.[32], [33] Aufgrund der Unklarheit im Zusammenhang mit dem Begriff der ‚Intelligenz‘ bei biologischen Systemen — obgleich es hier einige Definitionen gibt, die für eingeschränkte Bereiche sehr brauchbar sind — versucht die Englischsprachige Informatik das Problem dadurch zu lösen, dass sie den Begriff AI nur für den Bereich nicht-biologischer Systeme — hier speziell für programmierbare Maschinen — definieren will. Programmierbare Maschinen mit KI können sowohl ihre Umwelt partiell wahrnehmen als auch dann — meist unter Zuhilfenahme systeminterner Zustände — wieder auf die Umwelt reagieren. Zusätzlich wird für solche Systeme mit künstlicher Intelligenz postuliert, dass sie ‚Zielen (‚goals‘) folgen können.[34]

Diese scheinbare Erleichterung, sich vom ursprünglichen Phänomenfeld der Intelligenz bei biologischen Systemen abzukoppeln, weil eine befriedigende Definition von Intelligenz hier schwierig ist, hat aber tatsächlich zu keiner befriedigenden Situation geführt. Sowohl der Intelligenzbegriff eingeschränkt auf programmierbare Maschinen ist heute nicht wirklich klar, noch ist es bislang möglich, zwischen dem Verhalten biologischer und nicht-biologischer Systeme dadurch eine brauchbare Verhältnisbestimmung aufzubauen. Dies führt dann z.T. zu der bizarren Situation, dass spezielle Leistungen von programmierbaren Maschinen für Bereich X, wo Maschinen dem Menschen überlegen sind, als generelle Aussage über das Verhältnis von Maschinen und Menschen benutzt werden, ohne dass man jene Bereiche, in denen biologische Systeme den programmierbaren Maschinen haushoch überlegen sind, überhaupt noch thematisiert. Es ist dem ai100-Report zu verdanken, dass er neu darauf aufmerksam macht, dass es durch diese asymmetrische Diskussion bislang unmöglich ist, genauer zu bestimmen, wie maschinelle Intelligenz der menschlichen Intelligenz konstruktiv unterstützen könnte.[32]

FORTSETZUNG folgt…

ANMERKUNGEN

Hinweis: Wenn in den Anmerkungen Quellen aus dem Internet angegeben werden, dann ergibt sich die Zeit des letzten Aufrufs aus dem Datum der Abfassung dieses Beitrags, die im Kopf des Artikels angegeben ist.

[1] Dazu gibt es einige Beiträge in diesem Philosophie-Jetzt- Blog, und in zwei anderen Blogs uffmm.org mit dem Schwerpunkt ‚Theorie‘ und dem Blog oksimo.org mit dem Schwerpunkt ‚Anwendungen‘.

[2] Claude Draude · Christian Gruhl · Gerrit Hornung · Jonathan Kropf · Jörn Lamla · JanMarco Leimeister · Bernhard Sick · Gerd Stumme , 2021, „Social Machines„, Informatik Spektrum, https://doi.org/10.1007/s00287-021-01421-4, Springer

[3] Social Machine, Wikipedia [EN]: https://en.wikipedia.org/wiki/Social_machine

[4] Berners-Lee, Tim; J. Hendler (2009). „From the Semantic Web to social machines: A research challenge for AI on the World WideWeb“ (PDF). Artificial Intelligence. 174 (2): 156–161. doi:10.1016/j.artint.2009.11.010.

[5] Markus Luczak-Roesch, Ramine Tinati, Kieron O’Hara, Nigel Shadbol, (2015), Socio-technical Computation, CSCW’15 Companion, March 14–18, 2015, Vancouver, BC, Canada. ACM 978-1-4503-2946-0/15/03, http://dx.doi.org/10.1145/2685553.2698991

[6] Luczak-Roesch, M.; Tinati, R.; Shadbolt, N. (2015). When Resources Collide: Towards a Theory of Coincidence in Information Spaces (PDF). WWW 2015 Companion. ACM. pp. 1137–1142. doi:10.1145/2740908.2743973. ISBN9781450334730. S2CID17495801.

[7] Cristianini, Nello; Scantamburlo, Teresa; Ladyman, James (4 October 2021). „The social turn of artificial intelligence“ (PDF). AI & Society: 0. doi:10.1007/s00146-021-01289-8.

[8] Der Begriff ‚machine‘ (Maschine) in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Machine

[9] Der Begriff ‚actor‘ in der Wikipedia [EN] für die Rolle des Schauspielers: https://en.wikipedia.org/wiki/Actor

[10] Der Begriff ‚UML (Unified Modeling Language)‘ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Unified_Modeling_Language

[11] Der Begrifff ‚actor‘ in der Wikipedia [EN] im Rahmen des technischen Standards UML: https://en.wikipedia.org/wiki/Actor_(UML)

[12] Nicht alle Maschinen sind programmierbar, können aber meistens — im Prinzip — nach Bedarf mit programmierbaren Maschinen erweitert werden.

[13] Der Begriff ‚algorithm‘ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Algorithm

[14] Wenn man den Begriff ‚Interaktion‘ auf solche Situationen beschränken würde, in denen ein Homo sapiens Akteur mit einem anderen Akteur (biologisch oder nicht-biologisch) handelt, dann würde es auch Handlungen geben, die keine typische Interaktion mit anderen Akteuren repräsentieren, z.B. wenn ich einen Kaffee oder Tee oder … trinke, oder ich esse einen Apfel, ich fahre mit dem Fahrrad, ….

[15] Der Begriff ‚process‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Process

[16] Der Begriff ‚activities‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Action_(philosophy)

[17] Im Systems Engineering wird dieser Sachverhalt als ’semantic gap‘ bezeichnet, siehe z.B.: Doeben-Henisch, G., Wagner, M. [2007] Validation within Safety Critical Systems Engineering from a Computation Semiotics Point of View, Proceedings of the IEEE Africon2007 Conference, ISBN 0-7803-8606-X, Paper-ID 701

[18] Der Begriff ‚structure‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Structure

[19] Der Ausdruck ‚Verschmelzung‚ in der Wikipedia [DE]: https://de.wikipedia.org/wiki/Verschmelzung_(Grammatik)

[20] Der Ausdruck ‚Fusion‚ in der Wikipedia [DE]: https://de.wikipedia.org/wiki/Fusion

[21] Der Ausdruck ‚web‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Web

[22] Der Ausdruck ‚World Wide Web‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/World_Wide_Web

[23] Der Ausdruck ‚mobile‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Mobile

[24] Der Ausdruck ‚Internet‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Internet

[25] Der Ausdruck ‚Computer network‘ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Computer_network

[26] Der Ausdruck ‚cyberspace‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Cyberspace

[27] Der Ausdruck ‚bot‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Bot

[28] Der Ausdruck ‚Internet bot‘ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Internet_bot

[29] Der Ausdruck ‚bots‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Wikipedia:Bots

[30] Der Ausdruck ‚chatbot‚ in der Wikipedia [EN] : https://en.wikipedia.org/wiki/Chatbot

[31] Der Ausdruck ‚Artificial intelligence in video games‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Artificial_intelligence_in_video_games

[32] Michael L. Littman, Ifeoma Ajunwa, Guy Berger, Craig Boutilier, Morgan Currie, Finale Doshi-Velez, Gillian Hadfield, Michael C. Horowitz, Charles Isbell, Hiroaki Kitano, Karen Levy, Terah Lyons, Melanie Mitchell, Julie Shah, Steven Sloman, Shannon Vallor, and Toby Walsh. “Gathering Strength, Gathering Storms: The One Hundred Year Study on Artificial Intelligence (AI100) 2021 Study Panel Report.” Stanford University, Stanford, CA, September
2021. Doc: http://ai100.stanford.edu/2021-report. Report: https://ai100.stanford.edu/sites/g/files/sbiybj18871/files/media/file/AI100Report_MT_10.pdf

[33] Der Ausdruck ‚KI (Künstliche Intelligenz)‚ — auch ‚ML (Maschinelles Lernen)‘ in der Wikipedia [DE] : https://de.wikipedia.org/wiki/K%C3%BCnstliche_Intelligenz

[34] Der Ausdruck ‚Artificial intelligence [AI]‘ in der Wikipedia [EN] : https://en.wikipedia.org/wiki/Artificial_intelligence

Some Soundexperiment from the past …

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.