Archiv der Kategorie: Empirische Theorie

KÜNSTLICHE INTELLIGENZ im Spiegel der Menschen. Teil 1

Zeit: 8.Febr 24 – 3.März 24

Autor: Gerd Doeben-Henisch

Email: gerd@doeben-henisch.de

KONTEXT

Das Thema Mensch und Maschine durchzieht den gesamten Blog von Anfang an. Es liegt daher nahe, diese Thematik auch in Vorträgen zu thematisieren. Allerdings, jede der beiden Komponenten ‚Mensch‘ wie auch ‚Maschine‘ ist in sich sehr komplex; eine Wechselwirkung zwischen beiden umso mehr. Dazu ‚einfach mal so‘ einen Vortrag zu halten erscheint daher fast unmöglich, wie eine ‚Quadratur des Kreises‘. Dennoch lasse ich mich gelegentlich darauf ein.

Überblick

Im Teil 1 wird eine Ausgangslage beschrieben, die in Vorbereitung eines Vortrags angenommen worden ist. Im Rahmen des Vortrags konnte das Thema aber nur ansatzweise behandelt werden. In den nachfolgenden Texten soll die Themenstellung daher nochmals aufgegriffen und ausführlicher behandelt werden.

Ankündigung des Vortrags

Im offiziellen Ankündigungs-Flyer konnte man folgenden Text lesen:

Perspektive Vortragender

Das Eigentümliche von freien Vorträgen ist, dass man die Zusammensetzung des Publikums vorab nicht kennt. Man muss mit einer großen Vielfalt rechnen, was auch am 21.Febr 2024 der Fall war. Ein voller Saal, immerhin fast alle hatten schon mal Kontakt mit chatGPT gehabt, manche sogar sehr viel Kontakt. Wie ein roter Faden liefen aber bei allen Fragen der Art mit, was man denn jetzt von dieser Software halten solle? Ist sie wirklich intelligent? Kann sie eine Gefahr für uns Menschen darstellen? Wie soll man damit umgehen, dass auch immer mehr Kinder und Jugendliche diese SW benutzen ohne wirklich zu verstehen, wie diese SW arbeitet? … und weitere Fragen.

Als Vortragender kann man auf die Vielzahl der einzelnen Fragen kaum angemessen eingehen. Mein Ziel war es, ein Grundverständnis von der Arbeitsweise von chatGPT4 als Beispiel für einen chatbot und für generative KI zu vermitteln, und dieses Grundverständnis dann in Bezug zu setzen, wie wir Menschen mit dem Problem Zukunft umgehen: auf welche Weise kann chatGPT4 uns helfen, Zukunft gemeinsam ein wenig zu verstehen, so dass wir dadurch gemeinsam etwas rationaler und zielgerichteter handeln können.

Ob und wieweit mir dies dann faktisch im Vortrag und bei den Gesprächen gelungen ist, bleibt eine offene Frage. Bei einigen, die aufgrund ihrer individuellen Experimente mit chatGPT sich schon ein bestimmtes Bild von chatGPT gemacht hatten, sicher nicht. Sie waren so begeistert davon, was chatGPT alles kann, dass sie weiterführende Überlegungen eher abwehrten.

Absicht des Vortragenden

Wie schon angedeutet, gab es die Themenkomplexe (i) chatbots/ generative KI/ KI, (ii) Zukunft verstehen und gestalten sowie (iii) Ob und wie kann generative KI uns Menschen dabei helfen.

Chatbots/ Generative KI/ KI

Aufgrund der heute stark ausgefächerten Terminologie mit stark verschwommenen Bedeutungsrändern habe ich eine Skizze des Begriffsfelds in den Raum gestellt, um dann Eliza und chatGPT4 als Beispiel für chatbots/ generative KI/ maschinelles Lernen näher zu betrachten.

Das Programm Eliza [1,2] ist insoweit von historischem Interesse, als es der erste chatbot [3] war, der einige Berühmtheit erlangte. Trotz seiner einfachen Struktur (ohne jede explizite Wissensbasis) übte der chatbot eine starke Wirkung auf die Menschen aus, die mit dem Programm per Tastatur und Bildschirm interagierten. Alle hatten das Gefühl, dass der chatbot sie ‚versteht‘. Dies verweist auf Grundmuster der menschlichen Psychologie, Vertrauen zu schenken, wenn erlebte Interaktionsformen den persönlichen Erwartungen entsprechen.

Verglichen mit Eliza besitzt der chatbot chatGPT4 [4a,b,c] eine unfassbar große Datenbasis von vielen Millionen Dokumenten, sehr breit gestreut. Diese wurden miteinander ‚verrechnet‘ mit Blick auf mögliche Kontexte von Worten samt Häufigkeiten. Zusätzlich werden diese ‚Sekundärdaten‘ in speziellen Trainingsrunden an häufig vorkommende Dialogformen angepasst.

Während Eliza 1966 nur im Format eines Psychotherapeuten im Stil der Schule von Rogers [5] antworten konnte, weil das Programm speziell dafür programmiert war, kann chatGPT4 ab 2023 viele verschiedene Therapie-Formen nachahmen. Überhaupt ist die Bandbreite möglicher Interaktionsformen von chatGPT4 erheblich breiter. So kann man folgenden Formate finden und ausprobieren:

  1. Fragen beantworten …
  2. Texte zusammenfassen …
  3. Texte kommentieren …
  4. Texte entwerfen …
  5. Übersetzen …
  6. Text zu Bild …
  7. Text zu Video
  8. … und weitere …

Bewertung

Eine Software wie chatGBT4 zu benutzen ist das eine. Wie aber kann man solch eine Software bewerten?

Aus dem Alltag wissen wir, dass wir zur Feststellung der Länge eines bestimmten räumlichen Abschnitts ein standardisiertes Längenmaß wie ‚das Meter‘ benutzen oder für das Gewicht eines Objekts das standardisierte Gewichtsmaß ‚das Kilogramm‘.[6]

Wo gibt es eine standardisierte Maßeinheit für chatbots?

Je nachdem, für welche Eigenschaft man sich interessiert, kann man sich viele Maßeinheiten denken.

Im hier zur Debatte stehenden Fall soll es um das Verhalten von Menschen gehen, die gemeinsam mittels Sprache sich auf die Beschreibung eines möglichen Zustands in der Zukunft einigen wollen, so, dass die einzelnen Schritte in Richtung Ziel überprüfbar sind. Zusätzlich kann man sich viele Erweiterungen denken wie z.B. ‚Wie viel Zeit‘ wird die Erreichung des Ziels benötigen?‘, ‚Welche Ressourcen werden benötigt werden zu welchen Kosten?‘, ‚Wie viele Menschen mit welchen Fähigkeiten und in welchem zeitlichem Umfang müssen mitwirken? … und einiges mehr.

Man merkt sofort, dass es hier um einen ziemlich komplexen Prozess geht.

Um diesen Prozess wirklich als ‚Bezugspunkt‘ wählen zu können, der in seinen einzelnen Eigenschaften dann auch ‚entscheidbar‘ ist hinsichtlich der Frage, ob chatGPT4 in diesem Kontext hilfreich sein kann, muss man diesen Prozess offensichtlich so beschreiben, dass ihn jeder nachvollziehen kann. Dass man dies tun kann ist keineswegs selbstverständlich.

Anforderungen für eine gemeinsame Zukunftsbewältigung

BILD : Andeutung der Fragen, die beantwortet werden müssen, um möglicherweise eine Antwort zu bekommen.

ZUKUNFT KEIN NORMALES OBJEKT

Generell gilt, dass das mit dem Wort ‚Zukunft‘ Gemeinte kein normales Objekt ist wie ein Stuhl, ein Auto, oder ein Hund, der gerade über die Straße läuft. Zukunft kommt für uns immer nur in unserem Denken vor als Bild eines möglichen Zustands, das sich nach einer gewissen Zeit möglicherweise ‚bewahrheiten kann‘.

Wollen wir also möglichst viele Menschen in die Zukunft mitnehmen, dann stellt sich die Aufgabe, dass das gemeinsamen Denken möglichst viel von dem, was wir uns für die Zukunft wünschen, ‚voraus sehen‘ können muss, um einen Weg in ein mögliches gedachtes Weiterleben zu sichern.

BEISPIEL MIT BRETTSPIEL

Dies klingt kompliziert, aber anhand eines bekannten Brettspiels kann man dies veranschaulichen. Auf Deutsch heißt dies Spiel ‚Mensch ärgere Dich nicht‘ (auf dem Bild sieht man eine Version für die Niederlande).[7]

BILD : Spielbrett des Spiels ‚Mensch ärgere Dich nicht‘

BILD : Strukturelemente einer Spielsituation und die darin angenommenen Beziehungen. Die reale SPIELSITUATION wird im Text der SPIELANLEITUNG vorausgesetzt und beschrieben. Neben den ELEMENTEN der Spielsituation enthalten die SPIELREGELN Beschreibungen möglicher Aktionen, um die Spielsituation zu verändern sowie die Beschreibung einer möglichen Konfiguration von Elementen, die (i) als STARTSITUATION gelten soll wie auch als ZIELZUSTAND (ZIEL). Ferner gibt es eine ANLEITUNG, WER WAS WANN WIE tun darf.

Was man in der Gegenwart sieht, das ist ein Spielbrett mit diversen Symbolen und Spielsteinen. Zusätzlich gibt es noch den Kontext zum Spielbrett bestehend aus vier Spielern und einem Würfel. Alle diese Elemente zusammen bilden eine Ausgangslage oder Startzustand oder den aktuellen IST-Zustand.

Ferner muss man annehmen, dass sich in den Köpfen der Mitspieler ein Wissen befindet, aufgrund dessen die Mitspieler die einzelnen Elemente als Elemente eines Spiels erkennen können, das ‚Mensch ärgere dich nicht‘ heißt.

Um dieses Spiel praktisch spielen zu können, müssen die Spieler auch wissen, wer wann welche Veränderungen wie auf dem Spielbrett vornehmen darf. Diese Veränderungen werden beschrieben durch Spielregeln, zu denen es noch eine geschriebene Spielanleitung gibt, aus der hervorgehen muss, welche Regel wann wie von wem angewendet werden darf.

Wenn die Spieler nach den vorgegebenen Regeln Veränderungen auf dem Spielbrett vornehmen, dann kann das Spiel beliebig lange laufen, es sei denn, es gibt eine klar Beschreibung eines Zielzustands, der als Ziel und gleichzeitig als Ende vereinbart ist. Wenn dieser Zielzustand auf dem Brett eintreten sollte, dann wäre das Spiel beendet und jener Spieler, der den Zielzustand als erster erreicht, wäre dann ein Gewinner im Sinne des Spiels.

Nicht zu vergessen: Genauso wichtig die die Beschreibung eines Zielzustandes ist die Beschreibung eines Startzustands, mit dem das Spiel beginnen soll.

Für die Frage der Zukunft im Kontext Spiel wird sichtbar, dass die Zukunft in Gestalt eines Zielzustands zwar in Form einer textlichen Beschreibung existiert, aber nicht als reale Konfiguration auf dem Spielbrett. Es wird von den beteiligten Spielern aber angenommen, dass die beschrieben Zielkonfiguration durch wiederholte Ausführung von Spielregeln beginnend mit einer Startkonfiguration irgendwann im Verlaufe des Spiels eintreten kann. Im Fall des Eintretens der Zielkonfiguration als reale Konfiguration auf dem Spielbrett wäre dies für alle wahrnehmbar und entscheidbar.

Interessant in diesem Zusammenhang ist der Sachverhalt, dass die Auswahl eines Zielzustands nur möglich ist, weil die Vorgabe einer Startsituation in Kombination mit Spielregeln einen Raum von möglichen Zuständen markiert. Der Zielzustand ist dann immer die Auswahl einer spezifischen Teilmenge aus dieser Menge der möglichen Folgezuständen.

Spiel und Alltag

Wenn man sich den Alltag anschaut, auch dort, wo nicht explizit ein Spiel gespielt wird, dann kann man feststellen, dass sehr viele — letztlich alle ? — Situationen sich als Spiel interpretieren lassen. Ob wir die Vorbereitung eines Essens nehmen, den Tisch decken, Zeitung lesen, Einkaufen, Musik machen, Auto fahren …. alle diese Tätigkeiten folgen dem Schema, dass es eine Ausgangssituation (Startsituation) gibt, ein bestimmtes Ziel, das wir erreichen wollen, und eine Menge von bestimmten Verhaltensweisen, die wir gewohnt sind auszuführen, wenn wir das spezielle Ziel erreichen wollen. Verhalten wir uns richtig, dann erreichen wir — normalerweise — das gewünschte Ziel. Diese Alltagsregeln für Alltagsziele lernt man gewöhnlich nicht in er Schule, sondern durch die Nachahmung anderer oder durch eigenes Ausprobieren. Durch die Vielfalt von Menschen und Alltagssituationen mit unterschiedlichsten Zielen gibt es eine ungeheure Bandbreite an solchen Alltags-Spielen. Letztlich erscheinen diese als die Grundform menschlichen Verhaltens. Es ist die Art und Weise, wie wir als Menschen lernen und miteinander handeln. [8]

Im Unterschied zu expliziten Spielen verlaufen die Alltagsspiele nicht starr innerhalb der von der Spielanleitung beschriebenen Grenzen, sondern die Alltagsspiele finden innerhalb einer offenen Welt statt, sie sind ein kleiner Teil eines größeren dynamischen Gesamtgeschehens, welches dazu führen kann, dass während der Umsetzung eines Alltagsspiels andere Ereignisse die Umsetzung auf unterschiedliche Weise behindern können (Ein Telefonanruf unterbricht, Zutaten beim Kochen fehlen, beim Einkaufen findet man nicht den richtigen Gegenstand, …). Außerdem können Ziele im Alltag auch scheitern und können neben schlechten Gefühlen real auch negative Wirkungen erzeugen. Auch können Alltagsspiele irgendwann unangemessen werden, wenn sich die umgebende dynamische Welt soweit geändert hat, dass ein die Regeln des Alltagsspiels nicht mehr zum erhofften Ziel führen.

Vor diesem Hintergrund kann man vielleicht verstehen, dass explizite Spiele eine besondere Bedeutung haben: sie sind keine Kuriositäten im Leben der Menschen, sondern sie repräsentieren die normalen Strukturen und Prozesse des Alltags in zugespitzten, kondensierten Formaten, die aber von jedem Menschen mehr oder weniger sofort verstanden werden bzw. verstanden werden können.[9] Die Nichterreichung eines Zieles im expliziten Spiel kann zwar auch schlechte Gefühle auslösen, hat aber normalerweise keine weiteren reale negative Auswirkungen. Explizite Spiele ermöglichen es, ein Stück weit reale Welt zu spielen ohne sich dabei aber einem realen Risiko auszusetzen. Diese Eigenschaft kann für Mitbürger eine große Chance auch für den realen Alltag bieten.

Wissen und Bedeutung oder: Der Elefant im Raum

Ist man erst einmal aufmerksam geworden auf die Allgegenwart von Spielstrukturen in unserem Alltag, dann erscheint es fast ’normal‘, dass wir Menschen uns im Format des Spiels scheinbar schwerelos bewegen können. Wo immer man hinkommt, wen man auch immer trifft, das Verhalten im Format eines Spiels ist jedem vertraut. Daher fällt es meistens gar nicht auf, dass hinter dieser Verhaltensoberfläche einige Fähigkeiten des Menschen aktiv sind, die als solche alles andere als selbstverständlich sind.

Überall dort, wo mehr als ein Mensch sich im Format eines Spiels verhält, müssen alle beteiligten Menschen (Mitspieler, Mitbürger,…) in ihrem Kopf über ein Wissen verfügen, in dem alle Aspekte, die zu einem spielerischen Verhalten gehören, vorhanden (repräsentiert) sind. Wenn ein Spieler beim Fußballspiel nicht weiß, wann er im Abseits steht, macht er einen Fehler. Wer nicht weiß, dass man beim Einkaufen am Ende seine Waren bezahlen muss, macht einen Fehler. Wer nicht weiß, wie man bei der Essenszubereitung richtig schneidet/ würzt/ brät/ … verändert dies das erhoffte Ergebnis. Wer nicht weiß, wie er Bargeld aus dem Automat bekommt, hat ein Problem … Jeder lernt im Alltag, dass er wissen muss, um richtig handeln zu können. Was aber hat es genau mit diesem Wissen auf sich?

Und, um die Geschichte vollständig zu erzählen: Im Alltag operieren wir ständig mit Alltagssprache: wir produzieren Laute, die andere hören können und umgekehrt. Das Besondere an diesen Lauten ist, dass alle Teilnehmer des Alltags die eine gleiche Alltagssprache gelernt haben, diese Laute spontan in ihrem Kopf mit Teilen des Wissens verknüpfen, über das sie verfügen. Die gesprochenen und gehörten Laute sind daher nur ein Mittel zum Zweck. Als solche haben die Laute keine Bedeutung (was man sofort merken kann, wenn jemand die benutzte Alltagssprache nicht kennt). Aber für die, die die gleiche Alltagssprache im Alltag gelernt haben, stimulieren diese Laute in ihrem Kopf bestimmte Wissenselemente, falls wir über sie verfügen. Solche Wissenselemente, die sich durch die Laute einer gelernten Alltagssprache in einem Mitbürger stimulieren lassen, nennt man gewöhnlich sprachliche Bedeutung, wobei hier nicht nur die gehörten Laute alleine eine Rolle spielen, sondern normalerweise sind viele Kontexteigenschaften zusätzlich wichtig: Wie jemand etwas sagt, unter welchen Begleitumständen, in welcher Rolle usw. Meist muss man in der Situation des Sprechens anwesend sein, um all diese Kontextfaktoren erfassen zu können.

Hat man verstanden, dass jede geteilte Alltagssituation im Spielformat zentral zum notwendigen Alltagswissen auch eine Alltagssprache voraussetzt, dann wird auch klar, dass jedes explizite Spiel im Format einer Spielanleitung genau jenes Spielwissen bereit zu stellen versucht, welches man kennen muss, um das explizite Spiel spielen zu können. Im Alltag entsteht das notwendige Wissen durch Lernprozesse: durch Nachahmung und Ausprobieren baut jeder in seinem Kopf jenes Wissen auf, das er für ein bestimmtes Alltagshandeln benötigt. Für sich alleine braucht man nicht unbedingt einen Text, der das eigene Alltagshandeln beschreibt. Will man aber andere Mitbürger in sein Alltagsverhalten einbeziehen — gerade auch wenn es viele sein sollen, die nicht unbedingt am gleichen Ort sind –, dann muss man sein Alltagsverhalten mittels Alltagssprache ausdrücken.

Wissenschaftliches Denken und Kommunizieren

Für alle die, die nicht direkt mit wissenschaftlicher Arbeit zu tun haben, bildet Wissenschaft eine Zusammenballung von vielen unverständlichen Begriffen, Sprachen und Methoden. Dies führt in der Gegenwart leider vielfach zu einer Art Entfremdung der normalen Bürger von der Wissenschaft. Was nicht nur schade ist, sondern für eine Demokratie sogar gefährlich werden kann.[10,11]

Diese Entfremdung müsste aber nicht stattfinden. Die Alltagsspiele wie auch die expliziten Spiele, welche unsere natürlichen Wissens- und Verhaltensformen im Alltag darstellen, haben bei näherer Betrachtung die gleiche Struktur wie wissenschaftliche Theorien. Begreift man, dass Alltagsspiele strukturgleich mit wissenschaftlichen Theorien sind, dann kann man sogar entdecken, dass Alltagtheorien sogar noch umfassender sind als normale wissenschaftliche Theorien. Während eine empirisch Theorie (ET) erklären kann, was mit einer gewissen Wahrscheinlichkeit in einer möglichen nachfolgenden Situation passieren kann, falls gewisse Voraussetzungen in einer Situation gegeben sind, gehen Alltagstheorien über diese Beschreibungskraft in der Regel hinaus: In einer Alltagstheorie wird nicht nur gesagt, was passieren wird, wenn man in einer bestimmten Situation eine bestimmte Änderung vornimmt, sondern im Alltag wählt man normalerweise auch ein bestimmtes Ziel aus, das man mit Anwendung des Veränderungswissens erreichen möchte.

Im Unterschied zu einer normalen empirischen Theorie, die sich auf erklärende Zusammenhänge beschränkt, besteht im Alltagsprozess die beständige Herausforderung, den Lebensprozess des einzelnen wie jenen von unterschiedlichen Gruppen von Menschen bestmöglichst am Laufen zu halten. Dies aber geht nicht ohne explizite Ziele, deren Einlösung als Beitrag zur Erhaltung des alltäglichen Lebensprozesses angenommen wird.

Die normale Wissenschaft hat diesen Aspekt der Einbeziehung von Zielen in eine Theoriebildung noch nicht in ihre normale Arbeit integriert. Die Verknüpfung von Erklärungswissen in Form einer empirischen Theorie (ET) mit irgendwelchen Zielen überlässt die Wissenschaft bislang der Gesellschaft und ihren unterschiedlichen Gruppierungen und Institutionen. Dies kann gut sein, weil dadurch eine maximale Bandbreite an möglichen Ideen zur Sprache kommen kann; es kann aber auch schlecht sein, wenn mangels Verständnis von Wissenschaft und überhaupt aufgrund von mangelndem Wissen keine guten Ziel-Vorschläge zustande kommen.

Alltagstheorie (AT) und Empirische Theorie (ET)

Mancher wird sich an dieser Stelle vielleicht fragen, wie man sich jetzt genau die Struktur-Gleichheit von Alltagstheorien (AT) und Nachhaltigen Empirischen Theorien (NET) vorstellen kann. Hier ein kurze Beschreibung.

BILD : Skizze der Struktur einer empirischen Theorie ohne Ziele. Eine empirische Theorie (ET) mit Zielen wäre eine ’nachhaltige empirische Theorie (NET)‘. Siehe Text weiter unten.

Diese Skizze zeigt menschliche Akteure hier nicht als die Anwender einer Theorie — wie im Beispiel eines Brettspiels — sondern als Autoren einer Theorie, also jene Menschen, die Theorien in Interaktion mit dem realen Alltag entwickeln.

Hier wird davon ausgegangen, dass Theorie-Autoren im Normalfall irgendwelche Bürger sind, die ein Interesse eint, bestimmte Vorgänge in ihrem Alltag besser zu verstehen.

Zum Start müssen sie sich darauf einigen, welchen Ausschnitt aus ihrem Alltag sie als Startsituation (S) benutzen wollen. Diese Startsituation muss in einem Text beschrieben werden, der sich von allen Beteiligten als im Alltag zutreffend (wahr) erweist.

Aufgrund des verfügbaren Wissens über die bisherige Vergangenheit müssen die Theorie-Autoren sich darauf einigen, welche Arten von Veränderungen (V) sie für ihre Theorie benutzen wollen.

Schließlich müssen sie sich auch darüber einigen, auf welche Weise die ausgewählten Veränderungsbeschreibungen (V) auf eine gegebene Situation (S) so angewendet werden können, dass sich dadurch die Beschreibung jener Situation S1 ergibt, die durch die angewendeten Veränderungen entsteht. Abkürzend geschrieben: V(S)=S1.

Da sich in den meisten Fällen die angenommenen Veränderungsregeln V auch auf die neue nachfolgende Situation S1 wieder anwenden lässt — also V(S1)=S2 usw. –, reichen diese drei Elemente <S, V, Anwendung> aus, um aus einer Gegenwart S heraus mit Hilfe von Veränderungswissen bestimmte Zustände als möglich in einer Zukunft zu prognostizieren.

Dies beschreibt die Struktur und den Inhalt einer gewöhnlichen empirischen Theorie (ET).

Nachhaltige Empirische Theorie (NET) = ET + Ziele

Der Übergang von einer normalen empirischen Theorie (ET) zu einer nachhaltigen empirischen Theorie (NET) ist vergleichsweise einfach: man muss nur das empirische Wissen mit solchen Zielen (Z) verknüpfen, die aus der Gesellschaft heraus als interessante Kandidaten für eine mögliche gute Zukunft erwachsen.

BILD : Ergänzend zur normalen empirischen Theorie (ET) kann die Gesellschaft, die den Kontext zu einer empirischen Theorie bildet, Ziele (Z) generieren, von denen sie glaubt, dass sie für möglichst viele eine möglichst gute Zukunft unterstützen. Formulierte Ziele können zugleich als Benchmark benutzt werden, um aktuelle Zustände S daraufhin zu evaluieren, welche große Übereinstimmung (in %) sie mit dem gewählten Ziel Z aufweisen.

Während empirisches Wissen als solches wertneutral ist, d.h. keine bestimmte Richtung in eine mögliche Zukunft favorisiert, können aber die Wertvorstellungen, die die Auswahl von realen Fragestellungen leiten, indirekt dazu führen, dass wichtiges Wissen aufgrund von der Wissenschaft vorgelagerten Entscheidungen nicht generiert wird. 12]

Fortsetzung: Teil 2

Kann Maschinelles Lernen im Format einer generativen KI einen Beitrag zur Bildung von nachhaltigen empirischen Theorien (NET) leisten?

QUELLEN

[1] Eliza Computer Programm in wkp-en: https://en.wikipedia.org/wiki/ELIZA, ELIZA is an early natural language processing computer program developed from 1964 to 1967[1] at MIT by Joseph Weizenbaum.[2][3] Created to explore communication between humans and machines, ELIZA simulated conversation by using a pattern matching and substitution methodology that gave users an illusion of understanding on the part of the program, but had no representation that could be considered really understanding what was being said by either party.[4][5][6]

[2] Joseph Weizenbaum, ELIZA A Computer Program For the Study of Natural Language Communication Between Man And Machine, Communications of the ACM Volume 9 / Number 1, January 1966, pp: 36-45

[3] chatbot in wkp-de: https://de.wikipedia.org/wiki/Chatbot, „Ein Chatterbot, Chatbot oder kurz Bot ist ein textbasiertes Dialogsystem, das Chatten mit einem technischen System erlaubt. Er hat je einen Bereich zur Textein- und -ausgabe, über die sich in natürlicher Sprache mit dem System kommunizieren lässt. Chatbots können, müssen aber nicht in Verbindung mit einem Avatar benutzt werden. Technisch sind Chatbots näher mit einer Volltextsuchmaschine verwandt als mit künstlicher oder gar natürlicher Intelligenz. Mit der steigenden Computerleistung können Chatbot-Systeme allerdings immer schneller auf immer umfangreichere Datenbestände zugreifen und daher auch intelligente Dialoge für den Nutzer bieten, wie zum Beispiel das bei OpenAI entwickelte ChatGPT oder das von Google LLC vorgestellte Language Model for Dialogue Applications (LaMDA). Solche Systeme werden auch als virtuelle persönliche Assistenten bezeichnet. Es gibt auch Chatbots, die gar nicht erst versuchen, wie ein menschlicher Chatter zu wirken (daher keine Chatterbots), sondern ähnlich wie IRC-Dienste nur auf spezielle Befehle reagieren. Sie können als Schnittstelle zu Diensten außerhalb des Chats dienen, oder auch Funktionen nur innerhalb ihres Chatraums anbieten, z. B. neu hinzugekommene Chatter mit dem Witz des Tages begrüßen. Heute wird meistens durch digitale Assistenten wie Google Assistant und Amazon Alexa, über Messenger-Apps wie Facebook Messenger oder WhatsApp oder aber über Organisationstools und Webseiten auf Chatbots zugegriffen[1][2].“

[4] Generative KI als ‚Generativer Vortrainierter Transformer‘ (Generative pre-trained transformers GPT) in wkp-de, https://de.wikipedia.org/wiki/Generativer_vortrainierter_Transformer, „Generative vortrainierte Transformer (englisch Generative pre-trained transformers, GPT) sind eine Art großes Sprachmodell[1][2][3] und ein bedeutendes Framework für generative künstliche Intelligenz.[4][5] Der erste GPT wurde 2018 vom amerikanischen Unternehmen für künstliche Intelligenz (KI) OpenAI vorgestellt.[6] GPT-Modelle sind künstliche neuronale Netzwerke, die auf der TransformerArchitektur basieren, auf großen Datensätzen unbeschrifteten Textes vorab trainiert werden und in der Lage sind, neuartige, menschenähnliche Inhalte zu generieren.[2] Bis 2023 haben die meisten LLMs diese Eigenschaften[7] und werden manchmal allgemein als GPTs bezeichnet.[8] OpenAI hat sehr einflussreiche GPT-Grundmodelle veröffentlicht, die fortlaufend nummeriert wurden und die „GPT-n“-Serie bilden. Jedes dieser Modelle war signifikant leistungsfähiger als das vorherige, aufgrund zunehmender Größe (Anzahl der trainierbaren Parameter) und des Trainings. Das jüngste dieser Modelle, GPT-4, wurde im März 2023 veröffentlicht. Solche Modelle bilden die Grundlage für ihre spezifischeren GPT-Systeme, einschließlich Modellen, die für die Anweisungsbefolgung optimiert wurden und wiederum den ChatGPTChatbot-Service antreiben.[1] Der Begriff „GPT“ wird auch in den Namen und Beschreibungen von Modellen verwendet, die von anderen entwickelt wurden. Zum Beispiel umfasst eine Reihe von Modellen, die von EleutherAI erstellt wurden, weitere GPT-Grundmodelle. Kürzlich wurden auch sieben Modelle von Cerebras erstellt. Auch Unternehmen in verschiedenen Branchen haben auf ihren jeweiligen Gebieten aufgabenorientierte GPTs entwickelt, wie z. B. „EinsteinGPT“ von Salesforce (für CRM)[9] und „BloombergGPT“ von Bloomberg (für Finanzen).[10]

[4a] Die Firma openAI: https://openai.com/

[4b] Kurze Beschreibung: https://en.wikipedia.org/wiki/ChatGPT

[4c] Tutorial zu chatGPT: https://blogkurs.de/chatgpt-prompts/

[5] Person-Centered Therapy in wkp-en: https://en.wikipedia.org/wiki/Person-centered_therapy

[6] Messung in wkp-de: https://de.wikipedia.org/wiki/Messung

[7] Mensch ärgere Dich nicht in wkp-de: https://de.wikipedia.org/wiki/Mensch_%C3%A4rgere_Dich_nicht

[8] Elain Rich, 1983, Artificial Intelligence. McGraw-Hill Book Company. Anmerkung: In der Informatik der 1970iger und 1980iger Jahre hatte man gemerkt, dass die Beschränkung auf die Logik als Beschreibung von Realität zu einfach und zu umständlich ist. Konfrontiert mit dem Alltag wurden Begriffe aktiviert wie ‚Schema‘, ‚Frame (Rahmen)‘, ‚Script‘, ‚Stereotype‘, ‚Rule Model (Rollenmodell)‘. Doch wurden diese Konzepte letztlich noch sehr starr verstanden und benutzt. Siehe Kap.7ff bei Rich.

[9] Natürlich gibt es auch Spiele, die einen Umfang haben, der von den Spielern eine sehr intensive Beschäftigung verlangt, um sie wirklich voll zu verstehen. Ermöglichen solche komplexe Spiele aber zugleich wertvolle ‚Emotionen/ Gefühle‘ in den Spielern, dann wirkt die Komplexität nicht abschreckend, sondern kann zu einer lang anhaltenden Quelle von Spiellust werden, die in Spielsucht übergehen kann (und vielfach auch tatsächlich in Spielsucht übergeht).

[10] Warren Weaver, Science and the Citizens, Bulletion of the Atomic Scientists, 1957, Vol 13, pp. 361-365.

[11] Philipp Westermeier, 23.Nov. 2022, Besprechung Science and the Citizen von Warren Weaver, URL: https://www.oksimo.org/2022/11/23/besprechung-science-and-the-citizen-von-warren-weaver/

[12] Indirekt kann empirisches Wissen einen gewissen Einfluss auf eine mögliche Zukunft ausüben, indem bei der Auswahl einer zu erstellenden empirische Theorie (ET) gerade solche Aspekte nicht ausgewählt werden, die vielleicht für eine bestimmte Zielerreichung wichtig wären, jetzt aber eben nicht verfügbar sind. Dies kann sich vielfach manifestieren, z.B. durch eine Forschungspolitik, die von vornherein viele Themenfelder ausblendet, weil sie im Lichte aktueller Trends als nicht vorteilhaft eingestuft werden.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

Homo Sapiens: empirische und nachhaltig-empirische Theorien, Emotionen, und Maschinen. Eine Skizze

5.Aug 2023 – 29.Aug 2023 (10:37h)

Autor: Gerd Doeben-Henisch

Email: gerd@doeben-henisch.de

(Eine Englische Version findet sich hier: https://www.uffmm.org/2023/08/24/homo-sapiens-empirical-and-sustained-empirical-theories-emotions-and-machines-a-sketch/)

Kontext

Dieser Text stellt die Skizze zu einem Vortrag dar, der im Rahmen der Konferenz „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ (25./26.August 2023, TU Darmstadt) gehalten werden soll. [1] Die Englische Version des überarbeiteten Vortrags findet sich schon jetzt HIER: https://www.uffmm.org/2023/10/02/collective-human-machine-intelligence-and-text-generation-a-transdisciplinary-analysis/ . Die Deutsche Version des überarbeiteten Vortrags wird im Verlag Walter de Gruyter bis Ende 2023/ Anfang 2024 erscheinen. Diese Veröffentlichung wird hier dann bekannt gegeben werden.

Sehr geehrtes Auditorium,

In dieser Tagung mit dem Titel „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ geht es zentral um wissenschaftliche Diskurse und den möglichen Einfluss von KI-Textgeneratoren auf diese Diskurse. Der heiße Kern bleibt aber letztlich das Phänomen Text selbst, seine Geltung.

SICHTWEISEN-TRANS-DISZIPLINÄR

In dieser Konferenz werden zu diesem Thema viele verschiedene Sichten vorgetragen, die zu diesem Thema möglich sind.

Mein Beitrag zum Thema versucht die Rolle der sogenannten KI-Textgeneratoren dadurch zu bestimmen, dass aus einer ‚transdisziplinären Sicht‘ heraus die Eigenschaften von ‚KI-Textgeneratoren‘ in eine ’strukturelle Sicht‘ eingebettet werden, mit deren Hilfe die Besonderheiten von wissenschaftlichen Diskursen herausgestellt werden kann. Daraus können sich dann ‚Kriterien für eine erweiterte Einschätzung‘ von KI-Textgeneratoren in ihrer Rolle für wissenschaftliche Diskurse ergeben.

Einen zusätzlichen Aspekt bildet die Frage nach der Struktur der ‚kollektiven Intelligenz‘ am Beispiel des Menschen, und wie sich diese mit einer ‚Künstlichen Intelligenz‘ im Kontext wissenschaftlicher Diskurse möglicherweise vereinen kann.

‚Transdisziplinär‘ bedeutet in diesem Zusammenhang eine ‚Meta-Ebene‘ aufzuspannen, von der aus es möglich sein soll, die heutige ‚Vielfalt von Textproduktionen‘ auf eine Weise zu beschreiben, die ausdrucksstark genug ist, um eine ‚KI-basierte‘ Texterzeugung von einer ‚menschlichen‘ Texterzeugung unterscheiden zu können.

MENSCHLICHE TEXTERZEUGUNG

Die Formulierung ‚wissenschaftlicher Diskurs‘ ist ein Spezialfall des allgemeineren Konzepts ‚menschliche Texterzeugung‘.

Dieser Perspektivenwechsel ist meta-theoretisch notwendig, da es auf den ersten Blick nicht der ‚Text als solcher ‚ ist, der über ‚Geltung und Nicht-Geltung‘ entscheidet, sondern die ‚Akteure‘, die ‚Texte erzeugen und verstehen‘. Und beim Auftreten von ‚verschiedenen Arten von Akteuren‘ — hier ‚Menschen‘, dort ‚Maschinen‘ — wird man nicht umhin kommen, genau jene Unterschiede — falls vorhanden — zu thematisieren, die eine gewichtige Rolle spielen bei der ‚Geltung von Texten‘.

TEXTFÄHIGE MASCHINEN

Bei der Unterscheidung in zwei verschiedenen Arten von Akteuren — hier ‚Menschen‘, dort ‚Maschinen‘ — sticht sofort eine erste ‚grundlegende Asymmetrie‘ ins Auge: sogenannte ‚KI-Textgeneratoren‘ sind Gebilde, die von Menschen ‚erfunden‘ und ‚gebaut‘ wurden, es sind ferner Menschen, die sie ‚benutzen‘, und das wesentliche Material, das von sogenannten KI-Generatoren benutzt wird, sind wiederum ‚Texte‘, die als ‚menschliches Kulturgut‘ gelten.

Im Falle von sogenannten ‚KI-Textgeneratoren‘ soll hier zunächst nur so viel festgehalten werden, dass wir es mit ‚Maschinen‘ zu tun haben, die über ‚Input‘ und ‚Output‘ verfügen, dazu über eine minimale ‚Lernfähigkeit‘, und deren Input und Output ‚textähnliche Objekte‘ verarbeiten kann.

BIOLOGISCH-NICHT-BIOLOGISCH

Auf der Meta-Ebene wird also angenommen, dass wir einerseits über solche Akteure verfügen, die minimal ‚textfähige Maschinen‘ sind — durch und durch menschliche Produkte –, und auf der anderen Seite über Akteure, die wir ‚Menschen‘ nennen. Menschen gehören als ‚Homo-Sapiens Population‘ zur Menge der ‚biologischen Systeme‘, während ‚textfähige Maschinen‘ zu den ’nicht-biologischen Systemen‘ gehören.

LEERSTELLE INTELLIGENZ-BEGRIFF

Die hier vorgenommene Transformation des Begriffs ‚KI-Textgenerator‘ in den Begriff ‚textfähige Maschine‘ soll zusätzlich verdeutlichen, dass die verbreitete Verwendung des Begriffs ‚KI‘ für ‚Künstliche Intelligenz‘ eher irreführend ist. Es gibt bislang in keiner wissenschaftlichen Disziplin einen allgemeinen, über die Einzeldisziplin hinaus anwendbaren und akzeptierten Begriff von ‚Intelligenz‘. Für die heute geradezu inflatorische Verwendung des Begriffs KI gibt es keine wirkliche Begründung außer jener, dass der Begriff so seiner Bedeutung entleert wurde, dass man ihn jederzeit und überall benutzen kann, ohne etwas Falsches zu sagen. Etwas, was keine Bedeutung besitzt, kann weder wahr‘ noch ‚falsch‘ sein.

VORAUSSETZUNGEN FÜR TEXT-GENERIERUNG

Wenn nun die Homo-Sapiens Population als originärer Akteur für ‚Text-Generierung‘ und ‚Text-Verstehen‘ identifiziert wird, soll nun zunächst untersucht werden, welches denn ‚jene besonderen Eigenschaften‘ sind, die eine Homo-Sapiens Population dazu befähigt, Texte zu generieren und zu verstehen und sie ‚im alltäglichen Lebensprozess erfolgreich anzuwenden‘.

GELTUNG

Ein Anknüpfungspunkt für die Untersuchung der besonderen Eigenschaften einer Homo-Sapiens Text-Generierung und eines Text-Verstehens ist der Begriff ‚Geltung‘, der im Tagungsthema vorkommt.

Auf dem primären Schauplatz des biologischen Lebens, in den alltäglichen Prozessen, im Alltag, hat die ‚Geltung‘ eines Textes mit ‚Zutreffen‘ zu tun. Wenn ein Text nicht von vornherein mit einem ‚fiktiven Charakter‘ geplant wird, sondern mit einem ‚Bezug zum Alltagsgeschehen‘, das jeder im Rahmen seiner ‚Weltwahrnehmung‘ ‚überprüfen‘ kann, dann hat ‚Geltung im Alltag‘ damit zu tun, dass das ‚Zutreffen eines Textes überprüft‘ werden kann. Trifft die ‚Aussage eines Textes‘ im Alltag ‚zu‘, dann sagt man auch, dass diese Aussage ‚gilt‘, man räumt ihr ‚Geltung‘ ein, man bezeichnet sie auch als ‚wahr‘. Vor diesem Hintergrund könnte man geneigt sein fortzusetzen und zu sagen: ‚Trifft‘ die Aussage eines Textes ’nicht zu‘, dann kommt ihr ‚keine Geltung‘ zu; vereinfacht zur Formulierung, dass die Aussage ’nicht wahr‘ sei bzw. schlicht ‚falsch‘.

Im ‚realen Alltag‘ ist die Welt allerdings selten ’schwarz‘ und ‚weiß‘: nicht selten kommt es vor, dass wir mit Texten konfrontiert werden, denen wir aufgrund ihrer ‚gelernten Bedeutung‘ geneigt sind ‚eine mögliche Geltung‘ zu zuschreiben, obwohl es möglicherweise gar nicht klar ist, ob es eine Situation im Alltag gibt — bzw. geben wird –, in der die Aussage des Textes tatsächlich zutrifft. In solch einem Fall wäre die Geltung dann ‚unbestimmt‘; die Aussage wäre ‚weder wahr noch falsch‘.

ASYMMETRIE: ZUTREFFEN – NICHT-ZUTREFFEN

Man kann hier eine gewisse Asymmetrie erkennen: Das ‚Zutreffen‘ einer Aussage, ihre tatsächliche Geltung, ist vergleichsweise eindeutig. Das ‚Nicht-Zutreffen‘, also eine ‚bloß mögliche‘ Geltung, ist hingegen schwierig zu entscheiden.

Wir berühren mit diesem Phänomen der ‚aktuellen Nicht-Entscheidbarkeit‘ einer Aussage sowohl das Problem der ‚Bedeutung‘ einer Aussage — wie weit ist überhaupt klar, was gemeint ist? — als auch das Problem der ‚Unabgeschlossenheit unsres Alltags‘, besser bekannt als ‚Zukunft‘: ob eine ‚aktuelle Gegenwart‘ sich als solche fortsetzt, ob genau so, oder ob ganz anders, das hängt davon ab, wie wir ‚Zukunft‘ generell verstehen und einschätzen; was die einen als ’selbstverständlich‘ für eine mögliche Zukunft annehmen, kann für die anderen schlicht ‚Unsinn‘ sein.

BEDEUTUNG

Dieses Spannungsfeld von ‚aktuell entscheidbar‘ und ‚aktuell noch nicht entscheidbar‘ verdeutlicht zusätzlich einen ‚autonomen‘ Aspekt des Phänomens Bedeutung: hat sich ein bestimmtes Wissen im Gehirn gebildet und wurde dieses als ‚Bedeutung‘ für ein ‚Sprachsystem‘ nutzbar gemacht, dann gewinnt diese ‚assoziierte‘ Bedeutung für den Geltungsbereich des Wissens eine eigene ‚Realität‘: es ist nicht die ‚Realität jenseits des Gehirns‘, sondern die ‚Realität des eigenen Denkens‘, wobei diese Realität des Denkens ‚von außen betrachtet‘ etwas ‚Virtuelles‘ hat.

Will man über diese ‚besondere Realität der Bedeutung‘ im Kontext des ‚ganzen Systems‘ sprechen, dann muss man zu weitreichenden Annahmen greifen, um auf der Meta-Ebene einen ‚begrifflichen Rahmen‘ installieren zu können, der in der Lage ist, die Struktur und die Funktion von Bedeutung hinreichend beschreiben zu können. Dafür werden minimal die folgenden Komponenten angenommen (‚Wissen‘, ‚Sprache‘ sowie ‚Bedeutungsbeziehung‘):

  1. WISSEN: Es gibt die Gesamtheit des ‚Wissens‘, das sich im Homo-Sapiens Akteur im Laufe der Zeit im Gehirn ‚aufbaut‘: sowohl aufgrund von kontinuierlichen Interaktionen des ‚Gehirns‘ mit der ‚Umgebung des Körpers‘, als auch aufgrund von Interaktionen ‚mit dem Körper selbst‘, sowie auch aufgrund der Interaktionen ‚des Gehirns mit sich selbst‘.
  2. SPRACHE: Vom Wissen zu unterscheiden ist das dynamische System der ‚potentiellen Ausdrucksmittel‘, hier vereinfachend ‚Sprache‘ genannt, die sich im Laufe der Zeit in Interaktion mit dem ‚Wissen‘ entfalten können.
  3. BEDEUTUNGSBEZIEHUNG: Schließlich gibt es die dynamische ‚Bedeutungsbeziehung‘, ein Interaktionsmechanismus, der beliebige Wissenselemente jederzeit mit beliebigen sprachlichen Ausdrucksmitteln verknüpfen kann.

Jede dieser genannten Komponenten ‚Wissen‘, ‚Sprache‘ wie auch ‚Bedeutungsbeziehung‘ ist extrem komplex; nicht weniger komplex ist auch ihr Zusammenspiel.

ZUKUNFT UND EMOTIONEN

Neben dem Phänomen Bedeutung wurde beim Phänomen des Zutreffens auch sichtbar, dass die Entscheidung des Zutreffens auch von einer ‚verfügbaren Alltagssituation‘ abhängt, in der sich eine aktuelle Entsprechung ‚konkret aufzeigen‘ lässt oder eben nicht.

Verfügen wir zusätzlich zu einer ‚denkbaren Bedeutung‘ im Kopf aktuell über keine Alltagssituation, die dieser Bedeutung im Kopf hinreichend korrespondiert, dann gibt es immer zwei Möglichkeiten: Wir können diesem gedachten Konstrukt trotz fehlendem Realitätsbezug den ‚Status einer möglichen Zukunft‘ verleihen oder nicht.

Würden wir uns dafür entscheiden, einer ‚Bedeutung im Kopf‘ den Status einer möglichen Zukunft zu zusprechen, dann stehen meistens folgende zwei Anforderungen im Raum: (i) Lässt sich im Lichte des verfügbaren Wissens hinreichend plausibel machen, dass sich die ‚gedachte mögliche Situation‘ in ‚absehbarer Zeit‘ ausgehend von der aktuellen realen Situation ‚in eine neue reale Situation transformieren lässt‘? Und (ii) Gibt es ’nachhaltige Gründe‚ warum man diese mögliche Zukunft ‚wollen und bejahen‘ sollte?

Die erste Forderung verlangt nach einer leistungsfähigen ‚Wissenschaft‘, die aufhellt, ob es überhaupt gehen kann. Die zweite Forderung geht darüber hinaus und bringt unter dem Gewand der ‚Nachhaltigkeit‘ den scheinbar ‚irrationalen‘ Aspekt der ‚Emotionalität‘ ins Spiel: es geht nicht nur einfach um ‚Wissen als solches‘, es geht auch nicht nur um ein ’sogenanntes nachhaltiges Wissen‘, das dazu beitragen soll, das Überleben des Lebens auf dem Planet Erde — und auch darüber hinaus — zu unterstützen, es geht vielmehr auch um ein ‚gut finden, etwas bejahen, und es dann auch entscheiden wollen‘. Diese letzten Aspekte werden bislang eher jenseits von ‚Rationalität‘ angesiedelt; sie werden dem diffusen Bereich der ‚Emotionen‘ zugeordnet; was seltsam ist, da ja jedwede Form von ‚üblicher Rationalität‘ genau in diesen ‚Emotionen‘ gründet.[2]

WISSENSCHAFTLICHER DISKURS UND ALLTAGSSITUATIONEN

In diesem soeben angedeuteten Kontext von ‚Rationalität‘ und ‚Emotionalität‘ ist es nicht uninteressant, dass im Tagungsthema der ‚wissenschaftliche Diskurs‘ als Referenzpunkt thematisiert wird, um den Stellenwert textfähiger Maschinen abzuklären.

Es fragt sich, inwieweit ein ‚wissenschaftlicher Diskurs‘ überhaupt als Referenzpunkt für einen erfolgreichen Text dienen kann?

Dazu kann es helfen, sich bewusst zu machen, dass das Leben auf diesem Planet Erde sich in jedem Moment in einer unfassbar großen Menge von ‚Alltagssituationen‘ abspielt, die alle gleichzeitig stattfinden. Jede ‚Alltagssituation‘ repräsentiert für die Akteure eine ‚Gegenwart‘. Und in den Köpfen der Akteure findet sich ein individuell unterschiedliches Wissen darüber, wie sich eine Gegenwart in einer möglichen Zukunft ‚verändern kann‘ bzw. verändern wird.

Dieses ‚Wissen in den Köpfen‘ der beteiligten Akteure kann man generell ‚in Texte transformieren‘, die auf unterschiedliche Weise einige der Aspekte des Alltags ’sprachlich repräsentieren‘.

Der entscheidende Punkt ist, dass es nicht ausreicht, dass jeder ‚für sich‘ alleine, ganz ‚individuell‘, einen Text erzeugt, sondern dass jeder zusammen ‚mit allen anderen‘, die auch von der Alltagssituation betroffen sind, einen ‚gemeinsamen Text‘ erzeugen muss. Eine ‚kollektive‘ Leistung ist gefragt.

Und es geht auch nicht um ‚irgendeinen‘ Text, sondern um einen solchen, der so beschaffen ist, dass er die ‚Generierung möglicher Fortsetzungen in der Zukunft‘ erlaubt, also das, was traditionell von einem ‚wissenschaftlichen Text‘ erwartet wird.

Aus der umfangreichen Diskussion — seit den Zeiten eines Aristoteles — was denn ‚wissenschaftlich‘ bedeuten soll, was eine ‚Theorie‘ ist, was eine ‚empirische Theorie‘ sein soll, skizziere ich das, was ich hier das ‚minimale Konzept einer empirischen Theorie‘ nenne.

  1. Ausgangspunkt ist eine ‚Gruppe von Menschen‘ (die ‚Autoren‘), die einen ‚gemeinsamen Text‘ erstellen wollen.
  2. Dieser Text soll die Eigenschaft besitzen, dass er ‚begründbare Voraussagen‘ für mögliche ‚zukünftige Situationen‘ erlaubt, denen sich dann in der Zukunft ‚irgendwann‘ auch eine ‚Geltung zuordnen lässt‘.
  3. Die Autoren sind in der Lage, sich auf eine ‚Ausgangssituation‘ zu einigen, die sie mittels einer ‚gemeinsamen Sprache‘ in einen ‚Ausgangstext‘ [A] transformieren.
  4. Es gilt als abgemacht, dass dieser Ausgangstext nur ’solche sprachliche Ausdrücke‘ enthalten darf, die sich ‚in der Ausgangssituation‘ als ‚wahr‘ ausweisen lassen.
  5. In einem weiteren Text stellen die Autoren eine Reihe von ‚Veränderungsregeln‘ [V] zusammen, die ‚Formen von Veränderungen‘ an einer gegebenen Situation ins Wort bringen.
  6. Auch in diesem Fall gilt es als abgemacht, dass nur ’solche Veränderungsregeln‘ aufgeschrieben werden dürfen, von denen alle Autoren wissen, dass sie sich in ‚vorausgehenden Alltagssituationen‘ als ‚wahr‘ erwiesen haben.
  7. Der Text mit den Veränderungsregeln V liegt auf einer ‚Meta-Ebene‘ verglichen mit dem Text A über die Ausgangssituation, der relativ zum Text V auf einer ‚Objekt-Ebene‘ liegt.
  8. Das ‚Zusammenspiel‘ zwischen dem Text V mit den Veränderungsregeln und dem Text A mit der Ausgangssituation wird in einem eigenen ‚Anwendungstext‘ [F] beschrieben: Hier wird beschrieben, wann und wie man eine Veränderungsregel (in V) auf einen Ausgangstext A anwenden darf und wie sich dabei der ‚Ausgangstext A‘ zu einem ‚Folgetext A*‘ verändert.
  9. Der Anwendungstext F liegt damit auf einer nächst höheren Meta-Ebene zu den beiden Texten A und V und kann bewirken, dass der Anwendungstext den Ausgangstext A verändert wird.
  1. In dem Moment, wo ein neuer Folgetext A* vorliegt, wird der Folgetext A* zum neuen Anfangstext A.
  2. Falls der neue Ausgangstext A so beschaffen ist, dass sich wieder eine Veränderungsregel aus V anwenden lässt, dann wiederholt sich die Erzeugung eines neuen Folgetextes A*.
  3. Diese ‚Wiederholbarkeit‘ der Anwendung kann zur Generierung von vielen Folgetexten <A*1, …, A*n> führen.
  4. Eine Serie von vielen Folgetexten <A*1, …, A*n> nennt man üblicherweise auch eine ‚Simulation‘.
  5. Abhängig von der Beschaffenheit des Ausgangstextes A und der Art der Veränderungsregeln in V kann es sein, dass mögliche Simulationen ‚ganz unterschiedlich verlaufen können‘. Die Menge der möglichen wissenschaftlichen Simulationen repräsentiert ‚Zukunft‘ damit also nicht als einen einzigen, bestimmten Verlauf, sondern als eine ‚beliebig große Menge möglicher Verläufe‘.
  6. Die Faktoren, von denen unterschiedliche Verläufe abhängen, sind vielfältig. Ein Faktor sind die Autoren selbst. Jeder Autor ist ja mit seiner Körperlichkeit vollständig selbst Teil genau jener empirischen Welt, die in einer wissenschaftlichen Theorie beschrieben werden soll. Und wie bekannt, kann jeder menschliche Akteur seine Meinung jederzeit ändern. Er kann buchstäblich im nächsten Moment genau das Gegenteil von dem tun, was er zuvor gedacht hat. Und damit ist die Welt schon nicht mehr die gleiche, wie zuvor in der wissenschaftlichen Beschreibung angenommen.

Schon dieses einfache Beispiel zeigt, dass die Emotionalität des ‚Gut-Findens, des Wollens, und des Entscheidens‘ der Rationalität wissenschaftlicher Theorien voraus liegt. Dies setzt sich in der sogenannten ‚Nachhaltigkeitsdiskussion‘ fort.

NACHHALTIGE EMPIRISCHE THEORIE

Mit dem soeben eingeführten ‚minimalen Konzepts einer empirischen Theorie (ET)‘ lässt sich direkt auch ein ‚minimales Konzept einer nachhaltigen empirischen Theorie (NET)‘ einführen.

Während eine empirische Theorie einen beliebig großen Raum an begründeten Simulationen aufspannen kann, die den Raum von vielen möglichen Zukünften sichtbar machen, verbleibt den Akteuren des Alltags die Frage, was sie denn von all dem als ‚ihre Zukunft‘ haben wollen? In der Gegenwart erleben wir die Situation, dass die Menschheit den Eindruck erweckt, als ob sie damit einverstanden ist, das Leben jenseits der menschlichen Population mehr und mehr nachhaltig zu zerstören mit dem erwartbaren Effekt der ‚Selbst-Zerstörung‘.

Dieser in Umrissen vorhersehbare Selbst-Zerstörungseffekt ist aber im Raum der möglichen Zukünfte nur eine Variante. Die empirische Wissenschaft kann sie umrisshaft andeuten. Diese Variante vor anderen auszuzeichnen, sie als ‚gut‘ zu akzeptieren, sie ‚zu wollen‘, sich für diese Variante zu ‚entscheiden‘, liegt in jenem bislang kaum erforschten Bereich der Emotionalität als Wurzel aller Rationalität.

Wenn sich Akteure des Alltags für eine bestimmte rational aufgehellte Variante von möglicher Zukunft entschieden haben, dann können sie jederzeit mit einem geeigneten ‚Evaluationsverfahren (EVAL)‘ auswerten, wie viel ‚Prozent (%) der Eigenschaften des Zielzustandes Z‘ bislang erreicht worden sind, vorausgesetzt, der favorisierte Zielzustand wird in einen passenden Text Z transformiert.

Anders formuliert: in dem Moment, wo wir Alltagsszenarien über geeignete Texte in einen rational greifbaren Zustand transformiert haben, nehmen die Dinge eine gewisse Klarheit an und werden dadurch — in gewisser Weise — einfach. Dass wir solche Transformationen vornehmen und auf welche Aspekte eines realen oder möglichen Zustands wir uns dann fokussieren, das ist aber als emotionale Dimension der textbasierten Rationalität vor-gelagert.[2]

MENSCH-MASCHINE

Nach diesen vorbereitenden Überlegungen stellt sich die abschließende Frage, ob und wie die Hauptfrage dieser Tagung „Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ in irgendeiner Weise beantwortet werden kann?

Meine bisherigen Ausführungen haben versucht aufzuzeigen, was es bedeutet, dass Menschen kollektiv Texte erzeugen, die die Kriterien für einen wissenschaftlichen Diskurs erfüllen, der zudem die Anforderungen für empirische oder gar nachhaltig-empirische Theorien erfüllt.

Dabei zeigt sich, dass sowohl bei der Generierung eines kollektiven wissenschaftlichen Textes wie auch bei seiner Anwendung im Alltag ein enger Wechselbezug sowohl mit der gemeinsamen erfahrbaren Welt wie auch mit den dynamischen Wissens- und Bedeutungskomponenten in jedem Akteur eine Rolle spielen.

Der Aspekt der ‚Geltung‘ ist Teil eines dynamischen Weltbezugs, dessen Einschätzung als ‚wahr‘ beständig im Fluss ist; während der eine Akteur vielleicht dazu tendiert zu sagen „Ja, kann stimmen“, tendiert ein anderer Akteur vielleicht gerade zum Gegenteil. Während die einen eher dazu tendieren, eine mögliche Zukunftsvariante X zu favorisieren, wollen die anderen lieber die Zukunftsvariante Y. Rationale Argumente fehlen; die Gefühle sprechen. Während eine Gruppe gerade beschlossen hat, dem Plan Z zu ‚glauben‘ und ihn ‚umzusetzen‘, wenden sich die anderen ab, verwerfen Plan Z, und tun etwas ganz anderes.

Dieser unstete, unsichere Charakter des Zukunft-Deutens und Zukunft-Handelns begleitet die Homo Sapiens Population von Anbeginn. Der unverstandene emotionale Komplex begleitet den Alltag beständig wie ein Schatten.[2]

Wo und wie können ‚textfähige Maschinen‘ in dieser Situation einen konstruktiven Beitrag leisten?

Angenommen es liegt ein Ausgangstext A vor, dazu ein Veränderungstext V sowie eine Anleitung F, dann könnten heutige Algorithmen alle möglichen Simulationen schneller durchrechnen als es Menschen könnten.

Angenommen zusätzlich es läge auch noch ein Zieltext Z vor, dann könnte ein heutiger Algorithmus auch eine Auswertung zum Verhältnis zwischen einer aktuellen Situation als A und dem Zieltext Z berechnen.

Mit anderen Worten: wäre eine empirische oder eine nachhaltig-empirische Theorie mit ihren notwendigen Texten formuliert, dann könnte ein heutiger Algorithmus alle möglichen Simulationen und den Grad der Zielerfüllung automatisch schneller berechnen, als jeder Mensch allein.

Wie steht es aber mit der (i) Ausarbeitung einer Theorie bzw. (ii) mit der vor-rationalen Entscheidung für eine bestimmte empirische oder gar nachhaltig-empirische Theorie ?

Eine klare Antwort auf beide Fragen erscheint mir zum aktuellen Zeitpunkt kaum möglich, verstehen wir Menschen doch noch zu wenig, wie wir selbst im Alltag kollektiv Theorien bilden, auswählen, überprüfen, vergleichen und auch wieder verwerfen.

Meine Arbeitshypothese zum Thema lautet: dass wir sehr wohl lernfähige Maschinen brauchen werden, um in der Zukunft die Aufgabe erfüllen zu können, brauchbare nachhaltig-empirische Theorien für den gemeinsamen Alltag zu entwickeln. Wann dies aber real geschehen wird und in welchem Umfang scheint mir zum jetzigen Zeitpunkt weitgehend unklar.

ANMERKUNGEN

[1] https://zevedi.de/themen/ki-text/

[2] Das Sprechen über ‚Emotionen‘ im Sinne von ‚Faktoren in uns‘, die uns dazu bewegen, aus dem Zustand ‚vor dem Text‘ in den Zustand ‚geschriebener Text‘ überzugehen, der lässt sehr viele Aspekte anklingen. In einem kleinen explorativen Text „STÄNDIGE WIEDERGEBURT – Jetzt. Schweigen hilft nicht …“ ( https://www.cognitiveagent.org/2023/08/28/staendige-wiedergeburt-jetzt-schweigen-hilft-nicht-exploration/ ) hat der Autor versucht, einige dieser Aspekte anzusprechen. Beim Schreiben wird deutlich, dass hier sehr viele ‚individuell subjektive‘ Aspekte eine Rolle spielen, die natürlich nicht ‚isoliert‘ auftreten, sondern immer auch einen Bezug zu konkreten Kontexten aufblitzen lassen, die sich mit dem Thema verknüpfen. Dennoch, es ist nicht der ‚objektive Kontext‘, der die Kernaussage bildet, sondern die ‚individuell subjektive‘ Komponente, die im Vorgang des ‚ins-Wort-Bringens‘ aufscheint. Diese individuell-subjektive Komponenten wird hier versuchsweise als Kriterium für ‚authentische Texte‘ benutzt im Vergleich zu ‚automatisierten Texten‘ wie jene, die von allerlei Bots generiert werden können. Um diesen Unterschied greifbarer zu machen, hat der Autor sich dazu entschieden, mit dem zitierten authentischen Text zugleich auch einen ‚automatisierten Text‘ mit gleicher Themenstellung zu erzeugen. Dazu hat er chatGBT4 von openAI benutzt. Damit beginnt ein philosophisch-literarisches Experiment, um auf diese Weise vielleicht den möglichen Unterschied sichtbarer zu machen. Aus rein theoretischen Gründen ist klar, dass ein von chatGBT4 erzeugter Text im Ursprung niemals ‚authentische Texte‘ erzeugen kann, es sei denn, er benutzt als Vorlage einen authentischen Text, den er abwandeln kann. Dann ist dies aber ein klares ‚fake Dokument‘. Um solch einem Missbrauch vorzubeugen, schreibt der Autor im Rahmen des Experiments den authentischen Text zu erst und beauftragt dann chatGBT4 zur vorgegebenen Themenstellung etwas zu schreiben, ohne dass chatGBT4 den authentischen Text kennt, da er noch nicht über das Internet in die Datenbasis von chatGBT4 Eingang gefunden hat.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

DENKEN: alltäglich – philosophisch – empirisch theoretisch (Skizze)

(Letzte Änderung: 9.Juni 2023, 17:55h)

KONTEXT

Die aktuelle Phase meines Denkens kreist weiterhin um die Frage, wie sich die verschiedenen Erkenntniszustände zueinander verhalten: die vielen einzel-wissenschaftlichen Disziplinen treiben nebeneinander her; Philosophie beansprucht weiterhin eine Oberhoheit, kann sich aber selbst nicht wirklich überzeugend verorten; und das Denken im Alltag zieht weiterhin unbeirrt seine Bahnen mit der Überzeugung ‚Alles sei doch klar‘, man müsse doch nur einfach hinschauen ‚wie es ist‘. Dann kommen noch die verschiedenen ‚religiösen Anschauungen‘ um die Ecke mit einem sehr hohen Anspruch bei gleichzeitigem Verbot, nicht zu genau hinschauen zu dürfen. … und vieles mehr.

ABSICHT

Im folgenden Text werden drei fundamentale Betrachtungsweise unserer gegenwärtigen Welt skizziert und sie werden zugleich zueinander in Beziehung gesetzt. Manche bislang unbeantwortete Fragen lassen sich dadurch möglicherweise besser beantworten, viele neue Fragen entstehen aber auch. Wenn ‚alte Denkmuster‘ außer Kraft gesetzt werden, muss man viele (die meisten? Alle?) der bislang vertrauten Denkmuster neu justieren. Mit einem Mal sind sie schlicht ‚falsch‘ oder stark ‚reparaturbedürftig‘.

Leider ist es nur eine ‚Skizze‘.

DENKEN im ALLTAG

BILD 1: Im Alltagsdenken geht jeder Mensch (ein ‚homo sapiens‘ (HS)) davon aus, dass das, was er von einer ‚realen Welt‘ weiß, das ist, was er ‚wahrnimmt‘. Dass es diese reale Welt mit ihren Eigenschaften gibt, ist ihm — mehr oder weniger — ‚bewusst‘, darüber muss man nicht eigens diskutieren. Das, was ‚ist, ist‘.

… vieles wäre zu sagen …

PHILOSOPHISCHES DENKEN

BILD 2: Das philosophische Denken beginnt dort, wo einem auffällt, dass die ‚reale Welt‘ nicht von allen Menschen in ‚gleicher Weise‘ wahrgenommen und noch weniger in gleicher Weise ‚vorgestellt‘ wird. Manche Menschen haben ‚ihre Vorstellungen‘ von der realen Welt, die markant ‚anders sind‘ als die Vorstellungen anderer Menschen, und doch bestehen sie darauf, dass die Welt genau so ist, wie sie sich das vorstellen. Aus dieser Beobachtung im Alltag, können viele neue Fragen entstehen. Die Antworten auf diese Fragen sind so vielfältig wie es Menschen gab und gibt, die sich diesen philosophischen Fragen hingaben oder noch hingeben.

… berühmte Beispiele: Platons Höhlengleichnis deutet an, dass die Inhalte unseres Bewusstseins vielleicht doch nicht ‚die Sachen selbst‘ sind sondern nur die ‚Schatten‘ vom dem, was letztlich ‚wahr‘ ist … Descartes berühmtes ‚cogito ergo sum‘ bringt den Aspekt ins Spiel, dass die Inhalte des Bewusstsein auch etwas über ihn selbst sagen, der solche Inhalte ‚bewusst wahrnimmt’…. die ‚Existenz der Inhalte‘ setzt seine ‚Existenz des Denkenden‘ voraus, ohne die die Existenz der Inhalte gar nicht möglich wäre …was sagt uns dies? … Kants berühmtes ‚Ding an sich‘ kann man auf die Einsicht beziehen, dass die konkreten, flüchtigen Wahrnehmungen niemals die ‚Welt als solche‘ in ihrer ‚Allgemeinheit direkt zeigen können. Diese liegt ‚irgendwo dahinter‘, schwer greifbar, eigentlich gar nicht greifbar? ….

… vieles wäre zu sagen …

EMPIRISCH-THEORETISCHES DENKEN

BILD 3: Das Konzept einer ‚empirischen Theorie‘ entwickelte sich sehr spät in der dokumentierten Geschichte des Menschen auf diesem Planeten. Einerseits philosophisch angeregt, andererseits unabhängig von den verbreiteten Formen von Philosophie, aber sehr stark beeinflusst von logischem und mathematischem Denken, siedelte sich das neue ‚empirische theoretische‘ Denken genau an dieser Bruchstelle zwischen ‚Alltagsdenken‘ und ‚theologischem‘ sowie ’stark metaphysischem philosophischem Denken‘ an. Dass Menschen ‚mit dem Brustton der Überzeugung‘ Aussagen über die Welt machen konnten, obwohl es nicht möglich war, ‚gemeinsame Erfahrungen der realen Welt‘ aufzuzeigen, die mit den geäußerten Aussagen ‚übereinstimmten‘, führte dazu, dass einzelne Menschen damit begannen, die ‚erfahrbare (empirische) Welt‘ so zu untersuchen, dass jeder andere bei ‚gleichem Vorgehen‘, die ‚gleichen Erfahrungen‘ machen konnte. Diese ‚transparenten Vorgehensweisen‘ waren ‚wiederholbar‘ und solche Vorgehensweisen wurden zu dem, was später als ‚empirisches Experiment‘ bzw. dann, noch einen Schritt weiter, als ‚Messen‘ bezeichnet wurde. Beim ‚Messen‘ vergleicht man das ‚Ergebnis‘ eines bestimmten experimentellen Vorgehens mit einem ‚zuvor definierten Standard-Objekt‘ (‚Kilogramm‘, ‚Meter‘, …).

Diese Vorgehensweise führte dazu, dass — zumindest die Experimentatoren — ‚lernten‘, dass unser Wissen um die ‚reale Welt‘ in zwei Komponenten zerfällt: es gibt das ‚allgemeine Wissen‘ was unsere Sprache artikulieren kann, mit Begriffen, die nicht automatisch etwas mit der ‚erfahrbaren Welt‘ zu tun haben müssen, und solchen Begriffen, die sich mit experimentellen Erfahrungen in Verbindung bringen lassen, und zwar so, dass auch andere Menschen, sofern sie sich auf das experimentelle Vorgehen einlassen, diese Erfahrungen wiederholen und dadurch bestätigen können. Eine grobe Unterscheidung zwischen diesen beiden Arten von sprachlichen Äußerungen könnte sein: ‚fiktive‘ Ausdrücke mit ungeklärtem Erfahrungsanspruch, und ‚empirische‘ Ausdrücke mit bestätigtem Erfahrungsanspruch.

Seit dem Beginn der neuen empirisch-theoretischen Denkweise im ca. 17.Jahrhundert dauerte es gut mindestens 300 Jahre, bis sich das Konzept einer ‚empirischen Theorie‘ soweit gefestigt hatte, dass es in weiten Bereichen der Wissenschaft zu einem prägenden Paradigma geworden war. Viele methodische Fragen blieben aber strittig oder blieben sogar ‚ungelöst‘.

DATEN und THEORIE

Viele Jahrhunderte wurde bei vielen — bei nicht wenigen auch bis in unsere Gegenwart — der ‚Missbrauch der Alltagssprache‘ für die Ermöglichung von ‚empirisch nicht verifizierbare Aussagen‘ direkt dieser Alltagssprache angekreidet und die gesamte Alltagssprache wurde als ‚Quelle von Unwahrheiten‘ diskreditiert. Eine Befreiung von diesem ‚ Monster Alltagssprache‘ wurde immer mehr in formalen Kunstsprachen gesucht bzw. dann in der modernen axiomatisierte Mathematik, die ein enges Bündnis mit der modernen formalen Logik eingegangen war (ab Ende des 19.Jahrhunderts). Die Ausdruckssysteme der modernen formalen Logik bzw. dann der modernen formalen Mathematik hatten als solche (nahezu) keine ‚Eigenbedeutung‘. Diese mussten fallweise explizit eingeführt werden. Eine ‚formale mathematische Theorie‘ konnte so formuliert werden, dass sie auch ohne ‚explizite Zuweisung‘ einer ‚externen Bedeutung‘ ‚logische Schlüsse‘ zulässt, die es erlaubten, bestimmte formale Ausdrücke als ‚formal wahr‘ oder ‚formal falsch‘ zu bezeichnen.

Dies erschien auf den ersten Blick sehr ‚beruhigend‘: die Mathematik als solche ist kein Ort von ‚falschen‘ oder ‚untergejubelten‘ Wahrheiten.

Der intensive Einsatz formaler Theorien in Verbindung mit erfahrungsbasierten Experimenten machte aber dann schrittweise deutlich, dass ein einzelner Messwert als solcher eigentlich auch keine ‚Bedeutung‘ besitzt: was soll es ‚bedeuten‘ dass man zu einem bestimmten ‚Zeitpunkt‘ an einem bestimmten ‚Ort‘ einen ‚erfahrbaren Zustand‘ mit bestimmten ‚Eigenschaften‘ feststellt, im Idealfall einem zuvor vereinbarten ‚Standardobjekt‘ vergleichbar? ‚Ausdehnungen‘ von Körpern können sich ändern, ‚Gewicht‘ und ‚Temperatur‘ ebenso. Alles kann sich in der Erfahrungswelt ändern, schnell, langsam, … was kann also ein einzelner isolierter Messwert sagen?

So manchem dämmerte es — nicht nur den erfahrungsbasierten Forschern, sondern auch verschiedenen Philosophen –, dass einzelne Messwerte nur eine ‚Bedeutung‘, einen möglichen ‚Sinn‘ bekommen, wenn man mindestens ‚Beziehungen‘ zwischen einzelnen Messwerten herstellen kann: Beziehungen ‚in der Zeit‘ (vorher – nachher), Beziehungen am/im Ort (höher – tiefer, nebeneinander, …), ‚zusammenhängende Größen‘ (Objekte – Flächen, …), und dass darüber hinaus die verschiedenen ‚Beziehungen‘ selbst nochmals einen ‚begrifflichen Kontext‘ benötigen (einzeln – Menge, Wechselwirkungen, kausal – nicht kausal, …).

Schließlich wurde damit auch klar, dass einzelne Messwerte darüberhinaus ‚Klassenbegriffe‘ benötigten, damit man sie überhaupt irgendwie einordnen konnte: abstrakte Begriffe wie ‚Baum‘, ‚Pflanze‘, ‚Wolke‘, ‚Fluss‘, ‚Fisch‘ usw. wurden so zu ‚Sammelstellen‘, bei denen man ‚Einzelbeobachtungen‘ abliefern konnte. Damit konnten dann aberhundert Einzelwerte z.B. zur Charakterisierung des abstrakten Begriffs ‚Baum‘ oder ‚Pflanze‘ usw. benutzt werden.

Diese Unterscheidung in ‚einzeln, konkret‘ und ‚abstrakt, allgemein‘ erweist sich als fundamental. Sie machte auch deutlich, dass die Einteilung der Welt mit Hilfe von solchen abstrakten Begriffen letztlich ‚willkürlich‘ ist: sowohl ‚welche Begriffe‘ man wählt ist willkürlich, als auch die Zuordnung von einzelnen Erfahrungsdaten zu abstrakten Begriffen ist nicht vorab eindeutig geregelt. Der Prozess der Zuordnung von einzelnen Erfahrungsdaten zu bestimmten Begriffen innerhalb eines ‚Prozesses in der Zeit‘ ist selbst stark ‚hypothetisch‘ und selbst wiederum Teil von anderen ‚Beziehungen‘ die zusätzliche ‚Kriterien‘ liefern können, ob nun Datum X eher zum Begriff A oder eher zum Begriff B gehört (die Biologie ist voll von solchen Klassifikationsproblemen).

Ferner zeigte sich, dass die so ‚unschuldig‘ daher kommende Mathematik bei näherer Betrachtung keineswegs als ‚unschuldig‘ gelten kann. Die breite Diskussion der Wissenschaftsphilosophie im 20.Jahrhundert brachte viele ‚Artefakte‘ zur Sprache, welche die Beschreibung einer dynamischen Erfahrungswelt mindestens leicht ‚korrumpieren‘ kann.

So gehört es zu formalen mathematischen Theorien, dass sie mit sogenannten ‚All- oder Partikularaussagen‘ operieren können. Mathematisch ist es wichtig, dass ich über ‚alle‘ Elemente eines Bereichs/ einer Menge reden kann. Ansonsten wird das Reden sinnlos. Wenn ich nun ein formales mathematisches System als begrifflichen Rahmen für eine Theorie wähle, die ‚empirische Sachverhalte‘ so beschreibt, dass Folgerung möglich werden, die im Sinne der Theorie ‚wahr sind‘ und damit zu ‚Prognosen‘ werden, die behaupten, dass ein bestimmter Sachverhalt entweder ‚absolut‘ oder mit einer bestimmten Wahrscheinlichkeit X größer 50% eintreten wird, dann vereinigen sich zwei verschiedene Welten: die fragmentarischen Einzelaussagen über die Erfahrungswelt werden eingebettet in ‚Allaussagen‘, die grundsätzlich mehr sagen, als Erfahrungsdaten bereit stellen können.

An dieser Stelle wird sichtbar, dass die so ’neutral‘ erscheinende Mathematik genau den gleichen Job tut wie die ‚Alltagssprache‘ mit ihren ‚abstrakten Begriffen‘: die abstrakten Begriffe der Alltagssprache gehen immer über den Einzelfall hinaus (sonst könnten wir letztlich gar nichts sagen), aber gerade dadurch erlauben sie Überlegungen und Planungen, wie wir sie an den mathematischen Theorien so schätzen.

Empirische Theorien im Format formaler mathematischer Theorien haben das weitere Problem, dass sie ja als solche über (nahezu) keine eigene Bedeutungen verfügen. Will man die formalen Ausdrücke mit der Erfahrungswelt in Beziehung setzen, dann muss man (mit Hilfe der Alltagssprache!) für jeden abstrakten Begriff der formalen Theorie (oder auch für jede formale Beziehung oder auch für jeden formalen Operator) explizit eine ‚Bedeutung konstruieren‘, indem man zwischen den abstrakten Konstrukten und bestimmten aufweisbaren Erfahrungstatsachen eine ‚Abbildung’/ eine ‚Zuordnung‘ herstellt. Was sich hier auf den ersten Blick vielleicht so einfach anhört, hat sich im Laufe der letzten 100 Jahren als ein fast unlösbares Problem erwiesen. Daraus folgt jetzt nicht, dass man es überhaupt nicht tun sollte; es macht aber darauf aufmerksam, dass die Wahl einer formalen mathematischen Theorie nicht automatisch eine gute Lösung sein muss.

… vieles wäre noch zu sagen …

FOLGERN und WAHRHEIT

Eine formale mathematische Theorie kann aus bestimmten ‚Annahmen‘ bestimmte Aussagen als formal ‚wahr‘ oder ‚falsch‘ ableiten. Dies geht, weil es zwei grundlegende Voraussetzungen gibt: (i) Alle formalen Ausdrücke haben einen ‚abstrakten Wahrheitswert‘ als ‚abstrakt wahr‘ oder eben als ‚abstrakt nicht wahr‘. Ferner gibt es einen sogenannten ‚formalen Folgerungsbegriff‘, der festlegt, ob und wie man aus einer gegebenen ‚Menge von formalen Ausdrücken‘ mit vereinbarten abstrakten Wahrheitswerten und einer klar definierten ‚Form‘ andere formalen Ausdrücke ‚ableiten‘ kann. Dieses ‚Ableiten‘ besteht aus ‚Operationen über den Zeichen der formalen Ausdrücke‘. Die formalen Ausdrücke sind hier ‚Objekte‘ des Folgerungsbegriffs, der auf einer ‚Ebene höher‘ angesiedelt ist, auf einer ‚Meta-Ebene 1‘. Der Folgerungsbegriff ist insofern eine eigene ‚formale Theorie‘, die über bestimmte ‚Objekte einer tieferen Ebene‘ spricht so wie die abstrakten Begriffe einer Theorie (oder der Alltagssprache) über konkrete Erfahrungstatbestände sprechen. Das Zusammenwirken von Folgerungsbegriff (auf Meta-Ebene 1) und den formalen Ausdrücken als Objekten setzt eine eigene ‚Interpretationsbeziehung‘ (letztlich eine Art von ‚Abbildung‘) voraus, die wiederum auf einer noch anderen Ebene — Meta-Ebene 2 — angesiedelt ist. Diese Interpretationsbeziehung benutzt sowohl die formalen Ausdrücke (mit ihren Wahrheitswerten!) und den Folgerungsbegriff als ‚Objekte‘, um zwischen diesen eine Interpretationsbeziehung zu installieren. Normalerweise wird diese Meta-Ebene 2 von der so gescholtenen Alltagssprache bewältigt und die implizite Interpretationsbeziehung ist ‚in den Köpfen der Mathematiker (eigentlich in den Köpfen der Logiker)‘ verortet, die davon ausgehen, dass ihre ‚Praxis des Folgerns‘ genügend Erfahrungsdaten liefern, um den ‚Inhalt der Bedeutungsbeziehung‘ zu ‚verstehen‘.

Es war Kurt Gödel gewesen [2], der 1931 versucht hat, das ‚intuitive Vorgehen‘ bei Meta-Beweisen selbst auch zu formalisieren (mit Hilfe der berühmten Gödelisierung) und damit die Meta-Ebene 3 wiederum zu einem neuen ‚Objekt‘ gemacht hat, über das man explizit diskutieren kann. Im Anschluss an Gödels Beweis gab es weitere Versuche, diese Meta-Ebene 3 nochmals anders zu formulieren oder gar deine Meta-Ebene 4 zu formalisieren. Doch blieben diese Ansätze bislang ohne klares philosophisches Ergebnis.

Klar scheint nur zu sein, dass die Fähigkeit des menschlichen Gehirns, immer wieder neue Meta-Ebenen zu eröffnen, um damit zuvor formulierte Sachverhalte zu analysieren und zu diskutieren, prinzipiell unbeschränkt ist (nur beschränkt durch die Endlichkeit des Gehirns, dessen Energiezufuhr, die Zeit, und ähnliche materielle Faktoren).

Eine interessante Spezialfrage ist es, ob der formaler Folgerungsbegriff der formalen Mathematik angewendet auf Erfahrungstatsachen einer dynamischen empirischen Welt der spezifischen ‚Welt-Dynamik‘ überhaupt angemessen ist? Für den Bereich der ’scheinbar materiellen Strukturen‘ des Universums hat die moderne Physik vielfache Phänomene geortet, die sich einfach klassischen Konzepten entziehen. Eine ‚Materie‘, die zugleich ‚Energie‘ ist, ist tendenziell eher nicht mehr klassisch beschreibbar, und Quantenphysik ist — bei aller ‚Modernität‘ — letztlich immer noch ein ‚klassisches Denken‘ im Rahmen einer formalen Mathematik, die vom Ansatz her viele Eigenschaften nicht besitzt, die aber der erfahrbaren Welt zukommen.

Diese Begrenztheit eines formal-mathematischen physikalischen Denkens zeigt sich besonders krass am Beispiel jener Phänomene, die wir ‚Leben‘ nennen. Die erfahrungsbasierten Phänomene, die wir mit ‚lebenden (= biologischen) Systemen‘ in Verbindung bringen, sind auf den ersten Blick komplett materielle Strukturen, allerdings haben sie dynamische Eigenschaften, die mehr über die ‚Energie‘ aussagen, die sie hervorruft, als über die Materialität, mittels der sie sich realisieren. Insofern ist die implizite Energie der eigentliche ‚Informationsgehalt‘ von lebenden Systemen, die in ihrer Grundstruktur ‚radikal freie‘ Systeme sind, da Energie als ’nicht begrenzbar‘ erscheint. Die unübersehbare Tendenz lebender Systeme, ‚aus sich heraus‘ immer ‚mehr Komplexität zu ermöglichen‘ und zu integrieren widerspricht allen bekannten physikalischen Prinzipien. Die ‚Entropie‘ wird gerne als Argument benutzt, um diese Form von ‚biologischer Selbstdynamik‘ mit Verweis auf eine simple ‚obere Schranke‘ als ‚begrenzt‘ zu relativieren, doch macht dieser Verweis das originäre Phänomen des ‚Lebendigen‘ damit nicht vollständig zunichte.

Besonders spannend wird es, wenn man es wagt, an dieser Stelle die Frage nach der ‚Wahrheit‘ zu stellen. Lokalisiert man die Bedeutung des Begriffs ‚Wahrheit‘ zunächst mal in der Situation, in der ein biologisches System (hier der Mensch) innerhalb seines Denkens eine gewisse ‚Korrespondenz‘ zwischen seinen abstrakten Begriffen und solchen konkreten Wissensstrukturen herstellen kann, die sich über einen Interaktionsprozess mit Eigenschaften einer erfahrbaren Welt in Verbindung bringen lassen, und zwar nicht nur als einzelnes Individuum, sondern zusammen mit anderen Individuen, dann hat jedes abstrakte Ausdruckssystem (genannt ‚Sprache‘) nur in dem Maße einen ‚wahren Wirklichkeitsbezug‘, als es biologische Systeme gibt, die solche Bezüge herstellen können. Und diese Bezüge hängen weiterhin ab von der Struktur der Wahrnehmung und der Struktur des Denkens dieser Systeme; diese wiederum hängen ab von der Beschaffenheit der Körper als Kontext der Gehirne, und die Körper hängen wiederum sowohl ab von der materiellen Struktur und Dynamik der Umgebung wie auch von den gesellschaftlichen Alltagsprozessen, die weitgehend festlegen, was ein Mitglied einer Gesellschaft erleben, lernen, arbeiten, planen und tun kann. Was immer ein Individuum kann bzw. könnte, die Gesellschaft verstärkt entweder das individuelle Potential oder ‚friert‘ es ein. ‚Wahrheit‘ existiert unter diesen Bedingungen als ein ‚frei beweglicher Parameter‘, der durch die jeweilige Prozessumgebung erheblich beeinflusst wird. Das Reden von ‚kultureller Vielfalt‘ kann eine gefährliche ‚Verniedlichung‘ von massiver Unterdrückung ‚alternativer Lern- und Handlungsprozessen‘ sein, die einer Gesellschaft ‚entzogen‘ werden, weil sie ’sich selbst einsperrt‘. Unwissenheit ist tendenziell kein guter Ratgeber. Wissen als solches garantiert aber auch kein ‚richtiges‘ Handeln. Der ‚Prozess der Freiheit‘ auf dem Planet Erde ist ein ‚galaktisches Experiment‘, dessen Ernsthaftigkeit und Ausmaß bislang kaum gesehen wird.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

ANMERKUNGEN

[1] Auf Literaturangaben wird hier verzichtet. Es wären viele hunderte Texte zu erwähnen. Das kann keine Skizze leisten.

[2] Siehe Kurt Gödel, Unvollständigkeitssätze, 1931: https://de.wikipedia.org/wiki/Kurt_G%C3%B6del#Die_Unvollst%C3%A4ndigkeitss%C3%A4tze

NACHHALTIGE EMPIRISCHE THEORIE mit Software und Alltagsprozessen

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 2.April 2023 – 2.April 2023
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (cagent@cognitiveagent.org)

Kontext/ Einleitung

Im Kontext der Entwicklung einer ’nachhaltigen empirischen Theorie‘ (NET) gibt es neben den ‚meta-theoretischen‘ Diskussionen nicht wenige Diskussionen auch im Kontext der möglichen ‚Anwendungsszenarien‘. Das folgende Schaubild lässt ein wenig die Umrisse der Thematik erkennen.

Theorie und Anwendungsszenarien

Erläuterungen zum Bild

Konzepte und Prozesse

Neben den ’strukturellen Konzepten‘ auf der linken Seite muss man die ‚Prozessstrukturen im Alltag‘ auf der rechten Bildseite berücksichtigen.

Konzept Theorie

Ein strukturelles Konzept beschreibt z.B. auf einem Meta-Level was eine ’nachhaltige empirische Theorie‘ ist und vergleicht dieses Konzept mit dem Konzept ‚Spiel‘ und ‚Theaterstück‘. Da es schnell sehr aufwendig werden kann, komplette Theorien per Hand hinzuschreiben, kann es sehr hilfreich sein, eine Software zu haben (es gibt eine unter dem Namen ‚oksimo.R‘), die den Bürger darin unterstützt, gemeinsam mit anderen Bürgern in ’normaler Sprache‘ den ‚Text einer Theorie‘ aufzuschreiben und nach Bedarf auch zu ’simulieren‘; darüber hinaus wäre es gut, man könnte eine Theorie auch ‚interaktiv spielen‘ (und letztlich sogar noch viel mehr).

Den Text einer Theorie zu haben, diese auszuprobieren und weiter zu entwickeln ist eine Sache. Aber der Weg zu einer Theorie kann mühsam und langwierig sein. Er benötigt sehr viel ‚Erfahrung‘, ‚Wissen‘ und vielfältige Formen von dem, was man meist sehr vage ‚Intelligenz‘ nennt.

Konzept Kollektive Intelligenz

Intelligenz kommt typischerweise im Kontext ‚biologischer Systeme‘ vor, bei ‚Menschen‘ und ‚Nicht-Menschen‘. In neuerer Zeit gibt es auch Beispiele, denen man vage Intelligenz zuspricht, die von ‚Maschinen‘ realisiert wird. Letztlich bilden alle diese unterschiedlichen Phänomene, die man unter dem Begriff ‚Intelligenz‘ grob zusammen fasst, ein Muster, das man unter einer bestimmen Rücksicht als ‚kollektive Intelligenz‘ betrachten könnte. Dafür gibt es sehr viele prominenten Beispiel aus dem Bereich ’nicht-menschlicher biologischer Systeme‘, und dann ganz besonders bei ‚menschlichen biologischen Systemen‘ mit ihrem ‚koordinierten Verhalten‘ in Verbindung mit ihren ’symbolischen Sprachen‘.

Die große Herausforderung der Zukunft besteht darin, diese verschiedenen ‚Typen von individueller und kollektiver Intelligenz‘ zu einer wirklichen konstruktiv-kollektiven Intelligenz zusammen zu führen.

Konzept empirische Daten

Die allgemeinste Form einer Sprache bildet die sogenannte ’normale Sprache‘ oder ‚Alltagssprache. Sie enthält in einem Konzept alles, was wir heute über Sprachen wissen.

Ein interessanter Aspekt ist die Tatsache, dass die Alltagssprache für jede spezielle Art von Sprache (Logik, Mathematik, …) jene ‚Meta-Sprache‘ bildet, auf deren Basis die andere spezielle Sprache ‚eingeführt‘ wird.

Die möglichen ‚Bedeutungselemente und Bedeutungsstrukturen‘, aus denen heraus sich die alltäglichen Sprachstrukturen gebildet haben, entspringen dem Raum des Alltags und seiner Ereigniswelt.

Während die normalen Wahrnehmungsprozesse in Abstimmung unter den verschiedenen Sprechern-Hörer schon eine Menge wertvoller Beschreibungen von alltäglichen Eigenschaften und Prozessen liefern können, können spezialisierte Beobachtungsprozesse in Form von ’standardisierten Messprozessen‘ die Genauigkeit von Beschreibungen erheblich steigern. Das zentrale Moment ist, dass sich alle beteiligten Sprecher-Hörer, die sich für ein ‚bestimmtes Thema‘ (Physik, Chemie, Raumverhältnisse, Spielzüge, …) interessieren, sich für alle ‚wichtigen Eigenschaften‘ auf ‚vereinbarte Beschreibungsprozeduren‘ einigen, die jeder in gleicher Weise auf transparente und reproduzierbare Weise ausführt.

Prozesse im Alltag

Auf welche konzeptuelle Strukturen man sich auch immer geeinigt haben mag, sie können nur dann ‚zur Wirkung kommen‘ (‚zum Leben erweckt‘ werden), wenn es genügend Menschen gibt, die bereit sind, im Rahmen des Alltags all jene ‚Prozesse‘ konkret zu leben. Dazu braucht es Raum, Zeit, die notwendigen Ressourcen und eine hinreichend starke und anhaltende ‚Motivation‘, diese Prozesse jeden Tag aufs Neue zu leben.

So gibt es neben den Menschen, Tieren und Pflanzen und deren Bedürfnissen mittlerweile eine riesige Menge an künstlichen Strukturen (Häuser, Straßen, Maschinen,…), die jeweils auch bestimmte Anforderungen an ihre Umgebung stellen. Diese Anforderungen zu kennen und sie so zu ‚koordinieren/ zu managen‘, dass sie positive Synergien‘ ermöglichen, ist eine gewaltige Herausforderung, die — so der Eindruck im Jahr 2023 — die Menschheit vielfach überfordert.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

GRAMMATIK FÜR EINE NACHHALTIGE ENTWICKLUNG. Skizze

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 20.Februar 2023 – 20.Februar 2023, 15:38h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (cagent@cognitiveagent.org)

(For an English Version see HERE)

Kontext

Der folgende Text ist ein Zusammenfluss von Ideen, die mich seit vielen Monaten umtreiben. Teile davon finden sich als Texte in allen drei Blogs (Bürgerwissenschaft 2.0 für Nachhaltige Entwicklung, Integrated Engineering and the Human Factor, Philosophie jetzt (= dieser Blog)). Die Wahl des Wortes ‚Grammatik‘ [1] für den folgenden Text ist eher ungewöhnlich, scheint mir aber den Charakter der Überlegungen gut wieder zu spiegeln.

Nachhaltigkeit für Populationen

Das Konzept einer nachhaltigen Entwicklung wird hier betrachtet im Kontext von ‚biologischen Populationen‘. Solche Populationen sind dynamische Gebilde mit vielen ‚komplexen Eigenschaften‘. Für die Analyse der ‚Nachhaltigkeit‘ solcher Populationen gibt es einen Aspekt, der ‚fundamental‘ für ein angemessenes Verständnis erscheint. Es handelt sich um den Aspekt, ob und wie die Mitglieder einer Population — die Akteure — untereinander verbunden sind oder nicht.

Eine ‚unverbundene‘ Menge

Wenn ich ‚Akteure‘ einer ‚Population‘ habe, die in keinerlei direkter ‚Interaktion‘ miteinander stehen, dann ist auch das ‚Handeln‘ dieser Akteure voneinander isoliert. In einem weiten Gebiet kommen sie sich einander vermutlich ’nicht in die Quere‘; auf engstem Raum könnten sie sich leicht behindern oder gar wechselseitig bekämpfen, bis hin zur gegenseitigen Zerstörung.

Festzuhalten ist, dass auch solche unverbundene Akteure über ein minimales ‚Wissen‘ über sich und die Umgebung verfügen müssen, auch über minimale ‚Emotionen‘, um überhaupt leben zu können.

Ohne direkte Interaktion wird eine unverbundene Population als Population relativ schnell dennoch aussterben.

Eine ‚verbundene‘ Menge

Eine ‚verbundene Menge‘ liegt vor, wenn die Akteure einer Population über hinreichend viele direkte Interaktion verfügen, durch die sie ihr Wissen über sich und die Welt sowie ihre Emotionen soweit ‚abstimmen‘ könnten, dass sie zu einem ‚abgestimmten Handeln‘ fähig sind. Dadurch werden die einzelnen, individuellen Handlungen bezogen auf ihre mögliche Wirkung zu einer ‚gemeinsamen (= sozialen) Handlung‘ die mehr bewirken kann, als jeder einzeln es vermocht hätte.

Die beteiligten ‚Emotionen‘ müssen eher so sein, dass sie weniger ‚abgrenzen/ ausschließen‘, als vielmehr eher ‚einbeziehen/ anerkennen‘.

Das ‚Wissen‘ muss eher so sein, dass es nicht ’statisch‘ und nicht ‚unrealistisch‘ ist, sondern vielmehr ‚offen‘, ‚lernend‘ und ‚realistisch‘.

Das ‚Überleben‘ einer verbundenen Population ist grundsätzlich möglich, wenn die wichtigsten ‚Faktoren‘ eines Überlebens hinreichend erfüllt sind.

Übergänge von – zu

Der ‚Übergang‘ von einem ‚unverbundenen‘ zu einem ‚verbundenen‘ Zustand einer Population ist nicht zwangsläufig. Das primäre Motiv ist möglicherweise einfach der ‚Wille zum Überleben‘ (eine Emotion), und die wachsende ‚Einsicht‘ (= Wissen), dass dies nur bei ‚minimaler Kooperation‘ möglich ist. Ein einzelner kann allerdings Zeit seines Lebens im Zustand des ‚Einzelgängers‘ leben, weil er seinen individuellen Tod nicht als hinreichenden Grund erleben muss, sich mit anderen zu verbünden. Eine Population als solche kann aber nur überleben, wenn hinreichend viele einzelne überleben, die minimal miteinander interagieren. Die Geschichte des Lebens auf dem Planet Erde legt die Arbeitshypothese nahe, dass es in biologischen Populationen (einschließlich der menschlichen Population) seit 3.5 Milliarden Jahren immer hinreichend viele Mitglieder einer Population gegeben hat, die den ’selbst zerstörerischen Tendenzen‘ einzelner ein ‚aufbauende Tendenz‘ entgegen setzen konnten.

Das Entstehen und der Erhalt einer ‚verbundenen Population‘ benötigt zum Gelingen ein Minimum an ‚geeignetem Wissen‘ und ‚geeigneten Emotionen‘.

Es ist für alle biologischen Populationen eine bleibende Herausforderung, die eigenen Emotionen so zu gestalten, dass sie tendenziell eher nicht ausgrenzen, verachten, sondern tendenziell eher einbeziehen und anerkennen. Desgleichen muss das Wissen geeignet sein, ein realistisches Bild von sich, den anderen und der Umwelt zu erlangen, damit das jeweilige Verhalten ’sachlich angemessen‘ ist und tendenziell eher zum ‚Erfolg‘ führen kann.

Wie die Geschichte der menschlichen Population zeigt, wird sowohl die ‚Formung der Emotionen‘ wie die ‚Formung eines leistungsfähigen Wissens‘ in der Regel weitgehend unterschätzt und schlecht bis gar nicht organisiert. Es wird der notwendige ‚Aufwand‘ gescheut, man unterschätzt die notwendige ‚Dauer‘ solcher Prozesse. Innerhalb des Wissens gibt es zusätzlich das generelle Problem, dass die ‚kurzen Zeitspannen‘ innerhalb eines individuellen Lebens ein Hindernis sind, solche Prozesse dort zu erkennen und zu gestalten, wo größere Zeitspannen dies erfordern (das betrifft fast alle ‚wichtigen‘ Prozesse).

Wir müssen auch zur Kenntnis nehmen, dass ‚verbundene Zustände‘ von Populationen jederzeit auch wieder in sich zusammen fallen können, wenn jene Verhaltensweisen, die sie ermöglichen, abgeschwächt werden oder ganz verschwinden. Zusammenhänge im Bereich biologischer Populationen sind weitgehend ’nicht determiniert‘! Sie beruhen auf komplexen Prozessen in und zwischen den einzelnen Akteuren. Ganze Gesellschaften können ‚über Nacht kippen‘, wenn ein Ereignis das ‚Vertrauen in den Zusammenhang‘ zerstört. Ohne Vertrauen ist keinerlei Zusammenhang möglich. Das Entstehen und das Vergehen von Vertrauen sollte zum Grundanliegen jeder Gesellschaft im Zustand des Verbundenseins gehören.

Politische Spielregeln

‚Politik‘ umfasst die Gesamtheit der Regelungen, die die Mitglieder einer menschlichen Population vereinbaren, um gemeinsam verbindliche Entscheidungsprozesse zu organisieren.[2] In einer groben Skala könnte man zwei Extremwerte platzieren: (i) Einerseits eine Population mit einem ‚demokratischen System‘ [3] und eine Population mit einem maximal un-demokratischen System.[4]

Wie schon generell für ‚verbundene Systeme‘ angemerkt: das Gelingen von demokratischen Systeme ist in keiner Weise determiniert. Ermöglichung und Erhalt erfordern den totalen Einsatz aller Beteiligten ‚aus eigener Überzeugung‘.

Grundrealität ‚Körperlichkeit‘

Biologische Populationen sind grundlegend geprägt von einer ‚Körperlichkeit‘, die durch und durch von ‚Gesetzmäßigkeiten‘ der bekannten materiellen Strukturen bestimmt sind. In ihren ‚komplexen Ausgestaltungen‘ manifestieren biologische Systeme zwar auch ‚komplexe Eigenschaften‘, die sich nicht einfach aus ihren ‚Einzelteilen‘ ableiten lassen, aber die jeweiligen identifizierbaren ‚materiellen Bestandteile‘ ihres ‚Körpers‘ samt vieler ‚funktionalen Zusammenhänge‘ unterliegen grundlegend einer Vielzahl von ‚Gesetzen‘ die ‚vorgegeben‘ sind. Diese ‚abzuändern‘ ist — wenn überhaupt — nur unter bestimmten begrenzten Bedingungen möglich.

Alle biologischen Akteure bestehen aus ‚biologischen Zellen‘, die für alle gleich sind. Hierin sind die menschlichen Akteure Teil der Gesamtentwicklung des (biologischen) Lebens auf dem Planet Erde. Die Gesamtheit des (biologischen) Lebens nennt man auch ‚Biom‘ und den gesamten Lebensraum eines Bioms auch ‚Biosphäre‘. [5] Die Population des homo sapiens ist nur ein verschwindend kleiner Teil des Bioms, beansprucht aber mit der homo-sapiens typischen Lebensweise immer größere Teile der Biosphäre für sich zu Lasten aller anderen Lebensformen.

Das (biologische) Leben findet seit ca. 3.5 Milliarden Jahren auf dem Planet Erde statt.[6] Die Erde, als Teil des Sonnensystems [7], hatte eine sehr bewegte Geschichte und zeigt bis heute eine starke Dynamik, die sich unmittelbar auf die Lebensbedingungen des biologischen Lebens auswirkten kann und auswirkt (Kontinentalplatten-Verschiebung, Erdbeben, Vulkanausbrüche, Magnetfeld-Verschiebung, Meeresströmungen, Klima, …).

Biologische Systeme benötigen generell eine kontinuierliche Aufnahme von materiellen Stoffen (mit Energiepotentialen), um ihre eigenen Stoffwechselprozesse zu ermöglichen. Sie scheiden auch Stoffe aus. Menschliche Populationen brauchen bestimmte Mengen an ‚Nahrungsmitteln‘, ‚Wasser‘, ‚Behausungen‘, ‚Lagerstätten‘, ‚Transportmittel‘, ‚Energie‘, … ‚Rohstoffe‘, … ‚Produktionsprozesse‘, ‚Austauschprozesse‘ … Mit dem Anwachsen der schieren Größe einer Population multiplizieren sich die materiellen Bedarfsmengen (und auch Abfälle) in Größenordnungen, die das Funktionieren der Biosphäre zerstören können.

Prognosefähiges Wissen

Wenn eine zusammenhängende Population mögliche zukünftige Zustände nicht dem puren Zufall überlassen will, dann braucht sie ein ‚Wissen‘, das geeignet ist, aus dem Wissen über die Gegenwart und über die Vergangenheit ‚Voraussagen‘ (‚Prognosen‘) für eine mögliche Zukunft (oder sogar vielen ‚Varianten von Zukunft‘) zu konstruieren.

In der bisherigen Geschichte des homo sapiens gibt es nur eine Wissensform, mit der nachweisbar demonstriert werden konnte, dass sie für belastbare nachhaltige Prognosen geeignet ist: die Wissensform der empirischen Wissenschaften. [8] Diese Wissensform ist bislang nicht perfekt, aber eine bessere Alternative ist nicht bekannt. Im Kern umfasst ‚empirisches Wissen‘ die folgenden Elemente: (i) Die Beschreibung einer Ausgangslage, die als ‚empirisch zutreffend‘ angenommen wird; (ii) Eine Menge von ‚Beschreibungen von Veränderungsprozessen‘, die man im Laufe der Zeit formulieren konnte, und von denen man weiß, dass es ‚hoch wahrscheinlich‘ ist, dass die beschriebenen Veränderungen unter bekannten Bedingungen immer wieder stattfinden; (iii) ein ‚Folgerungskonzept‘, das beschreibt, wie man auf die Beschreibung einer ‚gegebene aktuelle Situation‘ die bekannten Beschreibungen von Veränderungsprozessen so anwenden kann, dass man die Beschreibung der aktuellen Situation so abändern kann, dass eine ‚veränderte Beschreibung‘ entsteht, die eine neue Situation beschreibt, die als ‚hoch wahrscheinliche Fortsetzung‘ der aktuellen Situation in der Zukunft gelten kann.[9]

Die eben skizzierte ‚Grundidee‘ einer empirischen Theorie mit Prognosefähigkeit kann man konkret auf vielerlei Weise realisieren. Dies zu untersuchen und zu beschreiben ist Aufgabe der ‚Wissenschaftstheorie‘ bzw. ‚Wissenschaftsphilosophie‘. Allerdings, die Vagheiten, die sich im Umgang mit dem Begriff einer ‚empirischen Theorie‘ finden, finden sich auch im Verständnis dessen, was denn mit ‚Wissenschaftstheorie‘ gemeint sein soll.[10]

In dem vorliegenden Text wird die Auffassung vertreten, dass der ‚Grundbegriff‘ einer empirischen Theorie sich im normalen Alltagshandeln unter Benutzung der Alltagssprache vollständig realisieren lässt. Dieses Konzept einer ‚Allgemeinen Empirischen Theorie‘ kann man nach Bedarf durch beliebige spezielle Sprachen, Methoden und Teiltheorien erweitern. Damit ließe sich das bislang ungelöste Problem der vielen verschiedenen empirischen Einzeldisziplinen nahezu von selbst lösen.[11]

Nachhaltiges Wissen

Im Normalfall kann eine empirische Theorie im günstigsten Fall Prognosen generieren, denen eine gewisse empirisch begründete Wahrscheinlichkeit zugesprochen werden kann. In ‚komplexen Situationen‘ kann solch eine Prognose viele ‚Varianten‘ umfassen: A, B, …, Z. Welche dieser Varianten nun im Lichte eines ‚anzunehmenden Kriteriums‘ ‚besser‘ oder schlechter‘ ist, kann eine empirische Theorie selbst nicht bestimmen. Hier sind die ‚Produzenten‘ und die ‚Benutzer‘ der Theorie gefragt: Verfügen diese über irgendwelche ‚Präferenzen warum z.B. die Variante ‚B‘ der Variante ‚C‘ vorzuziehen sei‘?: „Fahrrad, U-Bahn, Auto oder Flugzeug?“ , „Gentechnik oder nicht?“, „Pestizide oder nicht?“, „Atomenergie oder nicht?“, „Unkontrollierter Fischfang oder nicht?“ …

Die zur Anwendung kommenden ‚Bewertungskriterien‘ verlangen selbst eigentlich einerseits nach ‚explizitem Wissen‘ zur Abschätzung eines möglichen ‚Nutzens‘, andererseits ist der Begriff des ‚Nutzens‘ verankert im Fühlen und Wollen von menschlichen Akteuren: Warum genau will ich etwas? Warum ‚fühlt sich etwas gut an‘? …

Die aktuellen Diskussionen weltweit zeigen, dass das Arsenal der ‚Bewertungskriterien‘ und ihre Umsetzung alles andere als ein klares Bild bieten.

ANMERKUNGEN

[1] Für die typische Verwendung des Begriffs ‚Grammatik‘ siehe die Deutsche Wikipedia: https://de.wikipedia.org/wiki/Grammatik. In dem Text hier im Blog übertrage ich dieses Konzept von der ‚Sprache‘ auf jenen ‚komplexen Prozess‘, in dem die Population der Lebensform ‚homo sapiens‘ versucht, auf dem Planet Erde einen ‚Gesamtzustand‘ zu erreichen, der für möglichst viel ‚Leben‘ (mit den Menschen als Teilpopulation) eine ‚maximal gute Zukunft‘ ermöglicht. Eine ‚Grammatik der Nachhaltigkeit‘ setzt eine bestimmte Menge von Grundgegebenheiten, Faktoren voraus, die in einem dynamischen Prozess miteinander ‚wechselwirken‘, um in einer ‚Folge von Zuständen‘ möglichst viele Zustände realisiert, die für möglichst viele ein möglichst gutes Leben ermöglichen.

[2] Für die typische Verwendungsweise des Begriffs Politik siehe die Deutsche Wikipedia: https://de.wikipedia.org/wiki/Politik. Diese Bedeutung wird in dem vorliegenden Text hier auch vorausgesetzt.

[3] Ein sehr aufschlussreiches Projekt zur empirischen Forschung zum Zustand und zur Entwicklung von ‚empirischen Systemen’Demokratien‘ auf dem Planet Erde ist das V-dem Institut: https://www.v-dem.net/

[4] Natürlich könnte man auch ganz andere Grundbegriffe für eine Skala wählen. Mit erscheint aber das Konzept eines ‚demokratischen Systems‘ (bei allen Schwächen) im Lichte der Anforderungen für eine nachhaltige Entwicklung als das ‚geeignetste‘ System zu sein; zugleich stellt es aber von allen System die höchsten Anforderungen an alle Beteiligten. Dass es überhaupt zur Ausbildung von ‚Demokratie ähnlichen‘ Systemen im Laufe der Geschichte kam, grenzt eigentlich fast an ein Wunder. Die weitere Entwicklung solcher Demokratie ähnlicher Systeme schwankt beständig zwischen Erhalt und Zerfall. Positiv könnte man sagen, dass das beständige Ringen um den Erhalt eine Art ‚Training‘ ist, um eine nachhaltige Entwicklung zu ermöglichen.

[5] Für die typischen Verwendungsweisen der Begriffe ‚Biom‘ und ‚Biosphäre‘ siehe die entsprechenden Einträge in der Deutschen Wikipedia: Biom (https://de.wikipedia.org/wiki/Biom) und Biosphäre (https://de.wikipedia.org/wiki/Biosph%C3%A4re).

[6] Einige Grunddaten zur Erde: https://de.wikipedia.org/wiki/Erde

[7] Einige Grunddaten zum Sonnensystem: https://de.wikipedia.org/wiki/Sonnensystem

[8] Der Begriff der ‚empirischen Wissenschaft‘ wird in der Deutschen Wikipedia sehr unterbestimmt dargestellt: https://de.wikipedia.org/wiki/Empirie#Empirische_Wissenschaften. Die englische Wikipedia ist hier auch nicht besser: https://en.wikipedia.org/wiki/Science. Der Begriff ‚empirische Wissenschaft‘ kommt erst gar nicht vor, nur der vage Begriffe ‚Science‘ (‚Wissenschaft‘).

[9] Wenn man eine Uhr mit Stunden- und Minutenzeiger besitzt, die aktuell 11:04h anzeigt, und man aus alltäglicher Erfahrung weiß, dass der Minutenzeiger jede Minute um einen Strich vorrückt, dann kann man mit einer ziemlich hohen Wahrscheinlichkeit folgern, dass der Minutenzeiger ’sehr bald‘ um einen Strich weiter wandert. Die Ausgangsbeschreibung ‚Die Uhr zeigt 11.04h an‘ würde dann zu der der neuen Beschreibung ‚Die Uhr zeigt 11:05h an‘ verändert werden können. Vor dem ’11:05h Ereignis‘ hätte die Aussage ‚Die Uhr zeigt 11:05h an‘ den Status einer ‚Prognose‘.

[10] In dem Übersichtsartikel in der Deutschen Wikipedia zum Begriff ‚Wissenschaftstheorie‘ (https://de.wikipedia.org/wiki/Wissenschaftstheorie) findet man eine große Zahl von Varianten zum Begriff, aber wichtige Teilgebiete, erste Recht nicht die Grundstruktur empirischer Theorien, findet man in diesem Artikel nicht. Etwas klarer erscheint hier die Englische Wikipedia, wenngleich auch sie neben dem großen Panorama keine alles zusammenfassende Arbeitshypothese für das bietet, was denn ‚empirische Wissenschaft‘ ist: https://en.wikipedia.org/wiki/Philosophy_of_science

[11] ‚Aus sich heraus‘ kann eine Einzeldisziplin (Physik, Chemie, Biologie, Psychologie, …) nicht ‚das Ganze‘ begrifflich fassen; muss sie ja auch nicht. Die verschiedenen Versuche, irgendeine Einzeldisziplin auf eine andere (besonders beliebt ist hier die Physik) zu ‚reduzieren‘, sind bislang alle gescheitert. Ohne eine geeignete ‚Meta-Theorie‘ kann keine Einzeldisziplin sich aus ihrer Spezialisierung befreien. Das Konzept einer ‚Allgemeinen Empirischen Theorie‘ versteht sich als solch eine Meta-Theorie. Eine solche Meta-Theorie passt in das Konzept eines modernen philosophischen Denkens.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

Eine Konferenz als Sprachspiel, das im Verlauf eine empirische Theorie hervorbringt

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 18.August 2022 – 26.August 2022, 07:34h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Kontext

Der nachfolgende Text greift Anregungen aus der Popper-Lektüre in diesem Blog auf (siehe letzte Beiträge), dazu die intensive Diskussion um den Begriff einer ‚Nachhaltigen Empirischen Theorie‘ aus dem englischen Theorie-Blog uffmm.org, sowie aus einem laufenden realen Theorieexperiment zum Thema Wasser, bei dem es darum geht zu prüfen, was passiert, wenn eine offene Gruppe von Bürgern versucht, sich zum Thema ‚Wie viel Wasser gibt es?‘ so auszutauschen, dass daraus eine empirische Theorie entsteht, die Grundlage eines gemeinsamen Handelns als Bürger sein kann.

Aufgabenstellung

Im folgenden Text soll also anhand einer konkreten Konferenz untersucht werden, welches ‚Sprachspiel‘ diese Konferenz charakterisiert, und ob und wie im Prozess dieses Sprachspiels etwas entsteht, was — auch im Sinne Poppers — eine ‚empirische Theorie darstellt‘.

Eine Konferenz

Als ‚Konferenz‘ wird hier ein Ereignis verstanden, bei dem eine Person andere Personen dazu einlädt, sich zu einem bestimmten Zeitpunkt miteinander für eine gewisse Zeit zu einem bestimmten ‚Thema‘ sprachlich auszutauschen. Im konkreten Fall gibt es einen konkreten Ort in der Stadt Frankfurt, das Institut für Neue Medien mitten im Osthafen, in der Schmickstrasse 18, dort im ‚Konferenzraum‘. Man kann entweder ‚vor Ort‘ real ‚in Präsenz‘ teilnehmen oder ‚online‘ per ‚Videokonferenz‘. Diese Konferenz im INM soll nach Vereinbarung 2 Stunden dauern.[1]

Eine Ausgangslage

Nehmen wir an, es gibt nur drei Konferenzteilnehmer A, B und C. A hat eingeladen und sitzt ‚vor Ort‘ im INM im Konferenzraum mit einem Computer online und einem Beamer, der allen Anwesenden den Inhalt des Bildschirms anzeigt. Dazu gibt es eine ‚Konferenzmaschine‘, die alle Beteiligten vor Ort per Audio und Bild aufnimmt und in die Videokonferenz einblendet. Es soll nun eine sprachliche Beschreibung entwickelt werden, die sowohl die ‚jeweils aktuelle Situation (IST)‘ wiedergibt, als auch ‚mögliche Veränderungen (VR := Veränderungsregeln)‘. Ferner sollte es klar sein, welches ‚Ziel (Z)‘ die Konferenz verfolgt. Schließlich sollte es möglich sein, dass man den ‚Prozess/ Verlauf‘ der Konferenz anhand der sprachlichen Beschreibung ’simulieren‘ kann, d.h. für jede aktuelle Situation lässt sich eine ‚Prognose‘ generieren, wie die Nachfolgesituation aussehen wird. Vom Teilnehmer B weiß man, dass er auch ins INM kommen will, und C will sich online dazu schalten.

Drei Gehirne und ein Text

Etwas ungewöhnlich, aber hilfreich, ist die Vorstellung, dass die Gehirne der drei teilnehmenden Personen A, B und C jeweils ‚für sich‘ mit unglaublich vielen Dingen ‚angefüllt‘ sein können. Kein Gehirn kann jedoch wissen, was ‚in dem anderen Gehirn‘ stattfindet, es sei denn, jedes Gehirn ‚kommuniziert sprachlich‘ mit dem jeweils anderen Gehirn, indem es ‚Sätze äußert‘ oder ‚Sätze aufschreibt‘. Ein solcher ‚geäußerter Satz‘ ist ein ‚empirisches Gebilde‘ — nennen wir es einen ’sprachlichen Ausdruck‘ –, das körperlich erzeugt wird (durch Schall oder durch Aufschreiben), und das deswegen ’sinnlich wahrgenommen‘ werden kann. ‚Sprachliche Ereignisse‘ finden zwischen den Körpern von Gehirnen als ‚empirische Ereignisse‘ statt. Wenn die Hörer/ Leser solcher sprachlichen Ereignisse die ‚benutzte Sprache‘ nicht kennen, dann können sie ein sprachliches Ereignis zwar sinnlich wahrnehmen, es wird in ihrem Gehirn aber kein ‚Sprachverstehen‘ stattfinden. Haben die Hörer/ Leser die gleiche Sprache ‚gelernt‘, dann kann ein Sprachverstehen ‚in ihnen‘ stattfinden. Dieses ist aber ‚privat‘. Die jeweils anderen haben darauf keinen unmittelbaren Zugriff. Wenn z.B. Person A im Konferenzraum des INM von dem „weißen Beamer auf dem Glastisch“ spricht, dann weiß Person A nicht, ob die anderen Personen ihn verstanden haben. Wenn B, der im gleichen Raum anwesend ist, darauf antworten würde „Ja, Du musst ihn aber noch einschalten“, dann wird Person A das ‚Gefühl‘ haben, Person B hat verstanden, wovon er spricht. Person C hingegen, die sich online zugeschaltet hat, antwortet vielleicht noch nicht, da sie möglicherweise den Ausdruck „der weiße Beamer auf dem Glastisch“ zwar ‚versteht‘, sich womöglich sogar ein ‚inneres Bild‘ von dem weißen Beamer auf dem Glastisch machen kann, aber aktuell noch nichts Konkretes dazu sagen kann, da der Beamer von der Kamera noch nicht erfasst wurde. Ein sprachlicher Ausdruck ‚zwischen‘ den Körpern von beteiligten Gehirnen kann also auftreten im Kontext eines ‚Nicht-Verstehens‘ oder eines ‚informierten Verstehens ohne konkrete Wahrnehmung‘ oder eines ‚informierten Verstehens mit zusätzlicher konkreter Wahrnehmung‘. Im Falle eines ‚informierten Verstehens ohne konkrete Wahrnehmung‘ kann dann noch der Fall auftreten, dass jemand sich zwar aufgrund seines ‚Verstehens‘ eine ‚innere Vorstellung‘ bilden kann, dass diese sich aber im weiteren Verlauf als ‚partiell‘ oder ‚ganz falsch‘ erweist. Im Verhältnis von ‚innerer Vorstellung‘ zu ‚konkreter sinnlicher Wahrnehmung‘ kann es — wie jeder aus seiner Alltagserfahrung weiß — viele Schattierungen geben: die eigene innere Vorstellung ist z.B. ‚gänzlich verschieden‘ von der konkreten sinnlichen Wahrnehmung (man hat sich ‚geirrt‘) oder befindet sich ‚weitgehend‘ bis ‚vollständig‘ in ‚Übereinstimmung‘ mit dieser (man fühlt sich ‚bestätigt‘). Dazwischen kann es ‚unscharfe Fälle‘ geben: Ist das nun ein Beamer oder nicht? Man ist ‚unsicher‘.[7]

Trotz all dieser Unsicherheiten bleibt aber festzuhalten, dass die ‚gemeinsame Erzeugung einer Menge von Ausdrücken‘ — als ‚Dialog‘ oder als ‚Text‘ — der einzige Weg ist, dass unterschiedliche Gehirne einige ihrer ‚inneren zustände‘ austauschen können.[2]

Ein möglicher Start-Text mit einem Ziel

Spielen wir das Spiel (das ‚Sprachspiel‘) mal versuchsweise durch.

Gehen wir mal davon aus, dass das ‚Ziel‘ der Konferenz ist, dass eine Situation hergestellt wird, in der sich alle drei über einen gewissen Zeitraum ‚austauschen‘ können. Man könnte dieses Ziel in Form einer ‚Situationsbeschreibung‘ vielleicht so formulieren:

Das Ende der Konferenz ist erreicht. Die Teilnehmer konnten sich austauschen.

Die Startsituation könnte vielleicht wie folgt beschrieben werden:

Die Konferenz hat noch nicht angefangen. Teilnehmer A ist vor Ort. Teilnehmer B ist noch nicht da. Teilnehmer C hat sich noch nicht eingewählt. Ein weißer Beamer steht auf dem Glastisch. Der Beamer ist noch nicht eingeschaltet. Die Konferenzmaschine ist an den Laptop von Person A angeschlossen.

Natürlich kann man über diesen kurzen Text streiten: Reicht er aus? Müsste nicht noch mehr darin stehen? Warum muss man den Beamer erwähnen? Und ähnliche Fragen. Man muss sich aber klar machen, dass in einer solchen ‚Startsituation‘ die Beteiligten zu Beginn keine ‚gemeinsame‘ Vorstellung haben. Sie müssen sich diese erst ‚erzeugen/ herstellen‘, indem sie ’sprachliche Ausdrücke zusammentragen‘, durch die die Anfangssituation ‚im Wort‘ erst einmal entsteht. Perfektion ist in solch einer Situation weder möglich noch notwendig. Denn, egal mit welchen Ausdrücken man beginnt, im weiteren Verlauf kann man diese beliebig korrigieren, ergänzen und wieder wegnehmen. Die mögliche ‚Wahrheit‘ liegt also nicht ‚im Moment‘, sondern ‚im Prozess‘. Solange alle Beteiligten konstruktiv am Prozess mitwirken, so lange gibt es eine ‚Gemeinsamkeit‘ zwischen den Gehirnen, die man ‚gestalten‘ kann. Bricht man einfach ab, hat man nichts mehr außer ’sich selbst‘. Auf Dauer ist ein ‚reines Selbst‘ nicht lebensfähig.

Wie erreicht man das Ziel?

Wann stimmt eine Situation mit einem Ziel überein?

Wenden wir uns der nächsten Frage zu, wie man von einer — wie auch immer gearteten — Startsituation ausgehend, diese schrittweise so verändern kann, dass sich die jeweils aktuelle Situation immer mehr ‚dem Ziel annähert‘? Wobei sich die Frage stellt, woran man erkennen kann, ob eine jeweils aktuelle Situation die Zielsituation enthält?

Man kann diese Frage auf verschiedene Weisen beantworten. Eine sehr einfache aber zugleich sehr effektive Antwort geht so:

  1. Man kann die Startsituation mit ihren sprachlichen Ausdrücken als eine ‚Menge‘ von Ausdrücken auffassen, also z.B. Startsituation = {Die Konferenz hat noch nicht angefangen. Teilnehmer A ist vor Ort. Teilnehmer B ist noch nicht da. Teilnehmer C hat sich noch nicht eingewählt. Ein weißer Beamer steht auf dem Glastisch. Der Beamer ist noch nicht eingeschaltet. Die Konferenzmaschine ist an den Laptop von Person A angeschlossen.}
  2. Entsprechend kann man die Ziel-Situation als eine Menge von Ausdrücken auffassen: Ziel = {Das Ende der Konferenz ist erreicht. Die Teilnehmer konnten sich austauschen.}
  3. Eine Formulierung kann jetzt sein: Eine Situation S hat eine Ziel-Situation Z erreicht, wenn Z als Teil von S vorkommt. Angenommen S hätte die Ausdrücke {x,y,z} und Z hätte die Ausdrücke {v,w}, dann käme das Ziel in S noch nicht vor. Würden wir S schrittweise verändern zu S‘ = {x,w,z}, dann wären schon 50% vom Ziel-Zustand Z im aktuellen Zustand S‘. Und bei weiteren Veränderungen zu S“ = {v,w,z} lägen wir dann bei 100% Enthaltensein.

Dieser Mechanismus vergleicht nur die ‚Form‘ von Ausdrücken, nicht ihre ‚Inhalte/ mögliche Bedeutungen‘. Für die Korrektheit der Bedeutung sind die Teilnehmer der Konferenz zuständig. Nur sie können aufgrund ihrer ‚inneren Zustände‘ im Gehirn wissen, was jeweils mit der ‚Bedeutung‘ gemeint ist.

Wie beschreibt man Veränderungen?

Bisher steht nur fest, dass die sprachlichen Ausdrücke einer Start-Situation S in den Gehirnen der beteiligten Personen jeweils innere Zustände aktivieren, die die ‚gelernten Bedeutungen‘ repräsentieren. Diese gelernten Bedeutungen können mit der ‚konkreten Wahrnehmung‘ einer gemeinsam geteilten Situation ‚hinreichend übereinstimmen‘, so, dass alle Beteiligten zustimmen, dass das mit den sprachlichen Ausdrücken ‚Gemeinte‘ in der gemeinsamen Situation ‚tatsächlich zutrifft‘, also ‚wahr‘ ist, oder nicht. Egal, welche Wahrnehmungen oder Gedanken jeder einzelne ansonsten noch haben mag, die ‚gemeinsame Anschauung‘ liegt nur vor, sofern es einen ‚gemeinsamen Text‘ gibt. Ein gemeinsamer Text kann im aktuellen Kontext in drei Formen auftreten:

  1. Ein Text, der eine ‚Start-Situation‘ repräsentiert.
  2. Ein Text, der durch Veränderungen aus einer Start-Situation als Repräsentation der jeweils ‚aktuellen Situation‘ fungiert.
  3. Ein Text, der den Text einer ‚Ziel-Situation‘ in unterschiedlichem Maße als ‚Teilmenge‘ enthält.

Die Frage nach möglichen ‚Veränderungen‘ reduziert sich dann auf die Frage, wie man einen gegebenen Text — verstanden als eine Menge von sprachlichen Ausdrücken — verändern kann. Letztlich gibt es nur zwei Möglichkeiten: (i) Man nimmt einen Ausdruck aus der bestehenden Menge weg oder (ii) Man fügt einen neuen Ausdruck zu der Menge hinzu.

Dieser Mechanismus mag auf den ersten Blick unnatürlich abstrakt erscheinen. Dies ist aber ein Trugschluss. Dadurch, dass sprachliche Ausdrücke im ‚Innern des Gehirns‘ mit ‚Bedeutungen‘ verknüpft sind, die Aspekte der ‚gegebenen‘ oder ‚möglichen realen Welt‘ repräsentieren, führt das Wegnehmen oder Hinzufügen von Ausdrücken dazu, dass sich damit im Kopf der Beteiligten die ‚Welt ändert‘, die über die Bedeutungsbeziehung mit den Ausdrücken verknüpft ist. Ein Computer im Vergleich kann dagegen immer nur mit Ausdrücken hantieren ohne jegliche Bedeutung.[3]

Aus diesen Überlegungen legt sich folgende einfache Form einer ‚Regel zur Veränderung einer gegebenen Situation‘ — kurz: ‚Veränderungsregel (VR)‘ — nahe:

  1. BEDINGUNG: Ausdrücke, die in einer gegebenen Situation S gegeben sein müssen, damit die Veränderungsregel angewendet werden darf.
  2. HANDLUNG:
    1. Füge einen oder mehrere neue Ausdrücke zur gegebenen Menge von sprachlichen Ausdrücken hinzu.
    2. Entferne einen oder mehrere Ausdrücke aus der gegebenen Menge von sprachlichen Ausdrücken.

Ein Beispiel für eine mögliche Veränderungs-Regel könnte sein:

VR1:

WENN:

Teilnehmer B ist noch nicht da.

Teilnehmer C hat sich noch nicht eingewählt.

DANN:

Plus:

Teilnehmer B ist da.

Teilnehmer C ist eingewählt.

Minus:

Teilnehmer B ist noch nicht da.

Teilnehmer C hat sich noch nicht eingewählt.

Wie man intuitiv erkennen kann, wird der bisherige Text zur Situation dadurch abgeändert, dass die bisherigen Aussagen zu den Teilnehmern B und C entfernt werden und stattdessen zwei neue hinzugefügt werden. Als Ergebnis würde man wohl den folgenden neuen Text T‘ erhalten, den man als ‚Nachfolge-Text‘ zum Text T bezeichnen könnte, konkret:

Es sei T = {Die Konferenz hat noch nicht angefangen. Teilnehmer A ist vor Ort. Teilnehmer B ist noch nicht da. Teilnehmer C hat sich noch nicht eingewählt. Ein weißer Beamer steht auf dem Glastisch. Der Beamer ist noch nicht eingeschaltet. Die Konferenzmaschine ist an den Laptop von Person A angeschlossen.}

Es sei VR1 = {WENN: Teilnehmer B ist noch nicht da. Teilnehmer C hat sich noch nicht eingewählt. DANN: Plus: Teilnehmer B ist da. Teilnehmer C ist eingewählt. Minus: Teilnehmer B ist noch nicht da. Teilnehmer C hat sich noch nicht eingewählt.}

Durch ‚Anwendung‘ der Veränderungsregel VR1 auf den Text T erhalten wir den neuen Text

T‘ = {Die Konferenz hat noch nicht angefangen. Teilnehmer A ist vor Ort. Teilnehmer B ist da. Teilnehmer C ist eingewählt. Ein weißer Beamer steht auf dem Glastisch. Der Beamer ist noch nicht eingeschaltet. Die Konferenzmaschine ist an den Laptop von Person A angeschlossen.}

Man erkennt leicht, dass sich die Situation verändert hat. Man kann auch erkennen, dass die Ziel-Situation noch nicht erreicht ist. Damit die aktuelle Situation — beschrieben durch den Text T‘ — soweit verändert wird, dass die Zielsituation Z in der aktuellen Situation enthalten ist, müssen noch weitere Veränderungen vorgenommen werden.

Man kann auch erkennen, dass die Frage, welche Veränderungen vorgenommen werden sollen, und in welcher Abfolge, nicht festliegt. Es liegt an den Teilnehmern, zu entscheiden, welche Veränderungen sie für sinnvoll erachten. Ein ziemlich abruptes Ende könnte man mit folgender Regel erreichen:

VR2

WENN:

Die Konferenz hat noch nicht angefangen. Teilnehmer A ist vor Ort. Teilnehmer B ist da. Teilnehmer C ist eingewählt. Ein weißer Beamer steht auf dem Glastisch. Der Beamer ist noch nicht eingeschaltet. Die Konferenzmaschine ist an den Laptop von Person A angeschlossen.

DANN:

Plus:

Das Ende der Konferenz ist erreicht.

Die Teilnehmer konnten sich austauschen.

Der Beamer ist eingeschaltet.

Minus:

Die Konferenz hat noch nicht angefangen.

Der Beamer ist noch nicht eingeschaltet.

Man sieht unmittelbar, wie die Beschreibung des Konferenz-Prozesses mit dieser zweiten Veränderungsregel abrupt zum ‚Stillstand‘ kommt bei voller Erfüllung des Zieles:

T‘ = {Die Konferenz hat noch nicht angefangen. Teilnehmer A ist vor Ort. Teilnehmer B ist da. Teilnehmer C ist eingewählt. Ein weißer Beamer steht auf dem Glastisch. Der Beamer ist noch nicht eingeschaltet. Die Konferenzmaschine ist an den Laptop von Person A angeschlossen.}

Es sei VR2 = {WENN: Die Konferenz hat noch nicht angefangen. Teilnehmer A ist vor Ort. Teilnehmer B ist da. Teilnehmer C ist eingewählt. Ein weißer Beamer steht auf dem Glastisch. Der Beamer ist noch nicht eingeschaltet. Die Konferenzmaschine ist an den Laptop von Person A angeschlossen. DANN: Plus: Das Ende der Konferenz ist erreicht. Die Teilnehmer konnten sich austauschen. Der Beamer ist eingeschaltet. Minus: Die Konferenz hat noch nicht angefangen. Der Beamer ist noch nicht eingeschaltet.}

Durch ‚Anwendung‘ der Veränderungsregel VR2 auf den Text T‘ erhalten wir den neuen Text T“:

T“ = {Teilnehmer A ist vor Ort. Teilnehmer B ist da. Teilnehmer C ist eingewählt. Ein weißer Beamer steht auf dem Glastisch. Der Beamer ist eingeschaltet. Die Konferenzmaschine ist an den Laptop von Person A angeschlossen. Das Ende der Konferenz ist erreicht. Die Teilnehmer konnten sich austauschen.}

oksimoR Computerprogramm – So würde es dort aussehen

Wie auf der oksimo.org Webseite beschrieben, lässt sich dieses Konferenz-Sprachspiel (und natürlich viele andere auch) mit einer neuartigen Software unterstützen.[4] Eine Simulation mit der Startsituation, der Zielsituation und zwei Veränderungsregeln würde — leider noch in einer etwas schwer lesbaren Form (Die Entwickler lassen grüßen) — wie folgt aussehen:[5]

Your vision:
Die Teilnehmer konnten sich austauschen.,Das Ende der Konferenz ist erreicht.

Initial states: 
Die Konferenz hat noch nicht angefangen.,Die Konferenzmaschine ist an den Laptop von Person A angeschlossen.,Teilnehmer C hat sich noch nicht eingewählt.,Teilnehmer A ist vor Ort.,Ein weißer Beamer steht auf dem Glastisch.,Der Beamer ist noch nicht eingeschaltet.,Teilnehmer B ist noch nicht da.


Round 1

State rules:
vr-teilnehmer1 applied  (Prob: 100 Rand: 82/100)
vr-konferenz2 not applied (conditions not met)

Current states: Die Konferenz hat noch nicht angefangen.,Der Beamer ist noch nicht eingeschaltet.,Die Konferenzmaschine ist an den Laptop von Person A angeschlossen.,Teilnehmer B ist da.,Teilnehmer C ist eingewählt.,Teilnehmer A ist vor Ort.,Ein weißer Beamer steht auf dem Glastisch.
Current visions: Die Teilnehmer konnten sich austauschen.,Das Ende der Konferenz ist erreicht.

0.00 percent of your vision was achieved by reaching the following states:
None


Round 2

State rules:
vr-teilnehmer1 not applied (conditions not met)
vr-konferenz2 applied  (Prob: 100 Rand: 55/100)

Current states: Die Konferenzmaschine ist an den Laptop von Person A angeschlossen.,Der Beamer ist eingeschaltet.,Die Teilnehmer konnten sich austauschen.,Teilnehmer B ist da.,Teilnehmer C ist eingewählt.,Teilnehmer A ist vor Ort.,Das Ende der Konferenz ist erreicht.,Ein weißer Beamer steht auf dem Glastisch.
Current visions: Die Teilnehmer konnten sich austauschen.,Das Ende der Konferenz ist erreicht.

100.00 percent of your vision was achieved by reaching the following states:
Die Teilnehmer konnten sich austauschen.,Das Ende der Konferenz ist erreicht.

Wie man erkennen kann, sind die Namen der Zustände und Regeln im Programm leicht andere:

  1. Start-Situation , T <—-> ‚Initial state‘
  2. Ziel-Situation <—–> ‚Vision‘
  3. VR1 <—–> ‚vr-teilnehmer1‘
  4. VR2 <—–> ‚vr-konferenz2‘

Empirische Theorie

Soweit, so gut, bleibt noch die Frag offen, inwiefern das ‚Sprachspiel Konferenz‘ im vorliegenden Fall eine ‚empirische Theorie‘ erzeugt, und zwar ‚ganz nebenbei‘?

Hinsichtlich des Begriffs ‚Empirische Theorie‘ darf man nicht überrascht sein, wenn man weder in der Deutschen noch in der Englischen Wikipedia diesen Begriff findet.[6] Ich selbst verstehe den Begriff wie folgt:

  1. Es gibt eine Menge M von Aussagen über einen bestimmten Bereich, die alle Beteiligten als ‚zutreffend = wahr‘ annehmen. Das ‚Zutreffen‘ wird durch vereinbarte Vorgehensweisen (‚Messen‘) nachvollzogen.
  2. Es gibt eine Menge X von Veränderungsregeln (oft auch genannt ‚Axiome‘, ‚Naturgesetze‘, ‚Hypothesen‘, …), die bei bestimmten Bedingungen mögliche Ereignisse bzw. Veränderungen ankündigen (mit einer Wahrscheinlichkeit deutlich über 50%).
  3. Es gibt einen Ableitungsbegriff |– der festlegt, wie man aus ‚wahren Sätzen‘ und ‚Veränderungsregeln‘ zu Schlussfolgerungen (‚Prognosen‘) kommen kann.
  4. Mögliche Prognosen müssen sich nach vereinbarten Verfahren auch als ‚zutreffen = wahr‘ erweisen lassen, um akzeptiert zu werden.

Im vorausgehenden Beispiel gilt Folgendes:

  1. Die Menge M von Aussagen über einen bestimmten Bereich, die alle Beteiligten als ‚zutreffend = wahr‘ annehmen, wird im Beispiel durch die Ausdrucksmenge der Startkonfiguration gebildet.
  2. Die Menge X von Veränderungsregeln, die bei bestimmten Bedingungen mögliche Ereignisse bzw. Veränderungen ankündigen (mit einer Wahrscheinlichkeit deutlich über 50%), wird im Beispiel durch die Veränderungsregeln VR1 und VR2 gebildet.
  3. Der Ableitungsbegriff |– der festlegt, wie man aus ‚wahren Sätzen‘ und ‚Veränderungsregeln‘ zu Schlussfolgerungen (‚Prognosen‘) kommen kann, wird beschrieben durch die Art und Weise, wie man die Veränderungsregeln auf einen gegeben Text anwenden kann (was in der Software der sogenannte ‚Simulator‘ macht). Jede Veränderungsregel enthält in ihrem DANN-Teil mögliche Prognosen.
  4. Die Qualifizierung einer Prognose als ‚zutreffend = wahr‘ erfolgt durch die Benutzer der Theorie, indem Sie anhand ihres Verstehens und ihres Weltbezuges feststellen, ob die Bedeutung, die mit den sprachlichen Ausdrücken in ihnen wachgerufen werden, mit der aktuellen Weltwahrnehmung übereinstimmt oder nicht.

Im Lichte dieser Vereinbarungen muss man feststellen, dass eine Konferenz, die dem Muster dieses Sprachspiels folgt, als Prozess alle Elemente verwirklicht, die eine empirische Theorie ausmachen.

KOMMENTARE

[1] Alle notwendigen Details zu der Wasser-Konferenz im INM finden sich unter diesem Link.

[2] Natürlich gibt es noch viele weitere Möglichkeiten des Austausches durch körperliche Aktivitäten (Gesten, Gebärden, Gesichtsausdrücke, Kleidung, Tanzen, Liebkosen, Klänge, Melodien, Einzelbilder, Skulpturen,…), aber ein Austausch zum Zweck einer Verständigung darüber, wie die Welt‘ konkret beschaffen‘ ist bzw. sich auch ‚konkret verändern‘ kann, gelingt nur mit Sprache.

[3] Dass moderne Spracherkennungs- oder Übersetzungssysteme für den Benutzer den Eindruck erwecken, ‚als ob sie verstehen‘ liegt daran, dass diese Systeme sehr große Mengen an sprachlichen Ausdrücken — dann auch noch durch einen Verwendungszusammenhang im Internet kontextualisiert — rein statistisch so auswerten können, dass sie nur über die Ausdrucksseite der Sprache die Verwendung von sprachlichen Ausdrücken für viele täglichen Situationen zumindest annähern können. Für ernsthafte inhaltliche Gespräche sind diese Programme in keiner Weise geeignet. Anmerkung: mit den gleichen Verfahren kann man auch Musikstücke oder Bildfolgen generieren lassen. Diese ’statistischen Attrappen‘ von Bedeutung sind aber letztlich ‚brutal sinnlos‘.

[4] Diese liegt mittlerweile in Version Level 2 vor; an Level 3 wird gerade gearbeitet. Der Zugang zur Software läuft über die Adresse oksimo.com (bislang nur für registrierte Benutzer nach Absprache). Im übrigen wird man weitere Details über die Rubrik oksimo-R Software im oksimo.org Blog finden.

[5] Bei dem Ausdruck wurden einige weitere Feature weggelassen, über die das Programm zusätzlich verfügt. Vielleicht bei einem weiteren Beispiel.

[6] Am Beispiel der Englischen Wikipedia habe ich mal einige Sprachspiele im Bedeutungsfeld ‚Empirische‘ und ‚Wissenschaft‘ zusammengetragen und versucht, diese zu analysieren (siehe z.B. https://www.uffmm.org/2022/08/17/side-trip-to-wikipedia/ ). Die Begrifflichkeit wirkt verworren und ist wenig konsistent. Dies sollte nicht verwundern, da die offizielle Wissenschaftsphilosophie seit dem Ende des 19.Jahrhunderts bis heute zu keiner allgemein akzeptierten Fassung gefunden hat.

[7] Hier ist vielleicht auch der Ort, um auf die im Alltag häufig anzutreffende Unterscheidung zwischen ‚Fakten‘ und ‚Annahmen‘ einzugehen.

[7.1] FAKTEN: Eine typische Redewendung ist „Fakten sind gesetzt als wahr“ aber „Annahmen sind unsicher, sind Vermutungen, können falsch sein“. Wenn man sich die Situation vor Augen führt, die im Abschnitt ‚Drei Gehirne und ein Text‘ geschildert wird, dann dürfte klar sein, dass diese klare Unterscheidung vielleicht modifiziert werden müsste. Folgende ‚Ebenen‘ in der Benutzung von sprachlichen Ausdrücken legen sich für eine Unterscheidung nahe: (i) Die sprachlichen Ausdrücke als ‚physikalische Ereignisse‘ haben zunächst keinerlei weitere Bedeutung. (ii) Sprachliche Ausdrücke in der ‚Wahrnehmung von Menschen‘ können eine Bedeutung haben, wenn die jeweiligen Hörer-Sprecher die Sprache kennen, zu der diese Ausdrücke gehören. (iii) Wahrgenommene Ausdrücke einer bekannten Sprache sind normalerweise mit unterschiedlichen inneren Zuständen im Hörer-Sprecher verbunden, die man ‚Bedeutung‘ nennt. Diese sind überwiegend ‚unbewusst‘, in besonderen Situationen auch ‚bewusst‘ (z.B. wenn man sich erinnert).(iv) Durch sprachliche Ausdrücke aktiviertes Bedeutungs-Wissen kann in speziellen Fällen mit einer anderen sinnlichen Wahrnehmung korrelieren, die als ein mögliches Beispiel (als ‚Instanz‘) der aktivierten Bedeutung angesehen wird. In diesem Fall hat die ‚gewusste Bedeutung‘ einen kognitiven Bezug zu einem ’sinnlichen Ereignis‘, das als ‚etwas in der externen Körperwelt‘ interpretiert wird. Dieser ‚empirische Bezug‘ kann im Alltag verschiedene Formen annehmen: (iv.1) Im einfachen Fall begnügt man sich mit der individuellen Alltagswahrnehmung ohne besondere Hilfsmittel. (iv.2) Im verschärften Fall sollen mehrere Personen im Rahmen ihrer Alltagswahrnehmung zustimmen. (iv.3) In einem ‚objektivierenden‘ Fall gibt es ‚vereinbarte Verfahren‘ (Standards, Messverfahren), mit denen man das Vorliegen und Zutreffen einer Eigenschaft (Ausdehnung, Gewicht, Temperatur, …) protokolliert/ misst. (iv.4) In einer weiter verschäften Form müssen alle Hilfsmittel, die in einem offiziellen Messverfahren benutzt werden, von einer offiziellen Institution ‚zertifiziert‘ sein. Die Qualifizierung eines sprachlichen Ausdrucks als ‚empirische Aussage‘ kann also viele Schattierungen aufweisen. Zu sagen, es handle sich bei den ‚Inhalten‘ einer empirischen Aussage um ‚Fakten‘ bedeutet primär also, dass das Zutreffen einer bestimmten ‚Eigenschaft‘, die als ‚Bedeutung‘ mit dem Ausdruck verknüpft ist, im Rahmen einer — möglicherweise gestuften — Alltagserfahrung als ‚zutreffend‘ (und in diesem Sinne als ‚wahr‘) angenommen wird. Im Alltag kann es sehr viele sprachliche Ausdrücke geben, die von den Sprachteilnehmern so qualifiziert werden können. Wenn jetzt eine ausgezeichnete Gruppe von Menschen gemeinsam eine Theorie T entwickeln möchte, dann müssen diese aus der großen Menge F der möglichen Fakten-Aussagen eine kleine Teilmenge F* auswählen, die im Rahmen ihrer Theorie T gelten sollen. Diese ausgewählte Menge an Fakten-Aussagen F* kann man dann als die ‚Menge der als zutreffen (wahr) angenommen Aussagen für die Theorie T‘ bezeichnen.

[7.2] ANNAHMEN: Im Rahmen einer Theorie reicht es ja nicht aus, als Ausgangsmenge eine Reihe von Fakten-Aussagen anzunehmen, sondern man muss auch in der Lage sein, mindestens eine ‚Veränderungs-Aussage‘ formulieren zu können, die beschreibt, wie sich aus einer gegebenen Konstellation von faktischen (= empirischen) Eigenschaften etwas ‚Neues‘ (mit einer Wahrscheinlichkeit größer 50%) ergeben kann bzw. wird, wenn diese Konstellation gegeben ist. Die minimale Struktur einer solchen Veränderungsaussage ist immer ein BEDINGUNGSTEIL (welche Ausgangsbedingungen gegeben sein müssen) und ein WIRKUNGSTEIL (welche Eigenschaften sich an der Ausgangslage dann auf welche Weise ändern werden). Die ‚vermuteten‘ Wirkungen werden als Ausdrücke formuliert, die empirische zutreffen können oder nicht. Insofern gleichen die Wirk-Aussagen den normalen Fakten-Aussagen. Während ’normale‘ Fakten-Aussagen aber so genannt werden, weil sie von allen Beteiligten entsprechend ‚qualifiziert‘ worden sind, müssen die ‚Wirk-Aussagen‘ sich erst noch als ‚empirische zutreffend‘ erweisen, indem es gelingt, sie empirisch zu qualifizieren. Im Alltag gibt es aber auch hier grobe Unterscheidungen wie etwa: (i) Reine Vermutung; keine Ahnung ob das klappt; (ii) Das haben wir schon mal gemacht; da hat es gut geklappt; (iii) Das machen wir seit Jahren so; hat fast immer geklappt; (iv) Es gibt dazu offizielle Testreihen, die dieses Vorgehen stark unterstützen; (v) Dies Verfahren ist mehrfach getestet und vielfach angewendet worden; bislang wurden keine Probleme bekannt.

Ein Überblick über alle Beiträge des Autors nach Titeln findet sich HIER.

PSYCHOANALYSE ALS PROTOTYP EINER REFLEKTIERTEN EMPIRISCHEN WISSENSCHAFT. Bericht zur Sitzung vom 9.September 2018

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 10.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Die Sitzung am 9.September 2018 hatte eine Vorgeschichte.

ROBOTER VERLANGEN BESCHREIBUNG

In einer Sitzung im Januar 2018 hatte sich die bunt gemischte Gesprächsrunde die Frage gestellt, ob man einen Psychoanalytiker durch einen Roboter ersetzen könne. Die Analyse kam zur Erkenntnis, dass der Bau eines geeigneten Roboters voraussetzt, dass es eine hinreichend angemessene Beschreibung dessen gibt, was genau ein Psychoanalytiker im Rahmen eines therapeutischen Prozesses tut, wie die Interaktionen mit dem Analysanden sind, und welche speziellen ‚inneren Zustände‘ beim Analytiker gegeben sein müssen, damit er so handeln kann. Damit verschob sich die Aufgabenstellung hin zu einer solchen angemessenen Beschreibung des Psychoanalytikers/ der Psychoanalytikerin in einem Therapieprozess.

PSYCHOANALYSE ALS EMPIRISCHE THEORIE

In der nachfolgenden Sitzung im März 2018 wurde daher das Selbstverständnis der Psychoanalyse im Rahmen des Begriffs einer empirischen Theorie abgefragt. Das erstaunliche Ergebnis war, dass die Psychoanalyse grundsätzlich alle Anforderungen an eine empirische Wissenschaft erfüllt. Sie hat allerdings zwei Besonderheiten: (i) Der Beobachter und der Theoriemacher sind selbst Bestandteil der Theorie; (ii) die Messvorgänge laufen unter Laborbedingungen ab, die neben schon klassifizierten Phänomenen kontinuierlich auch ’neue‘ Phänomene zulässt, die für die Theoriebildung wichtig sein können (für Details siehe den Beitrag).

VON DEN DATEN ZUM MODELL

In der nachfolgenden Sitzung im April 2018 fokussierte sich das Gespräch auf das Wechselspiel zwischen ‚Daten‘ und erklärendem ‚Modell‘ (‚Theorie‘) und wie es zum Modell kommt. Speziell im Fall des Psychoanalytikers ergibt sich eine Doppelrolle: (i) als Teil des Prozesses agiert er/sie im Prozess als Mensch mit ‚Un-Bewusstem‘ und und seinen ‚Erfahrungen‘ und seinem bisherigen ‚Modell‘, andererseits (ii) ist er/sie reflektierter Profi, der seine Wahrnehmungen des Analysanden, der Umgebung und seiner selbst mit seinem ‚professionellen Modell‘ abgleichen muss. Der hier offensichtlich werdende ‚dynamische Charakter der Modellbildung‘ ist charakteristisch für jede Modellbildung, wird aber in den meisten empirischen Wissenschaften eher verdeckt. (Für Details siehe den Beitrag).

EINE PSYCHOANALYTISCHE FALLSTUDIE

In der Sitzung vom Mai 2018 wurde nach so viel vorausgehender Theorie ein konkretes Fallbeispiel betrachtet, das eine der teilnehmenden Psychoanalytikerinnen  vorstellte. Dieses Beispiel demonstrierte sehr klar, wie die Psychoanalytikerin als aktives Moment im Therapieprozess im Bereich des Un-Bewussten mit dem Analysand interagiert und dadurch diesen in die Lage versetzt, einen Zugriff auf jene Faktoren zu bekommen, die im Un-Bewussten das Verhalten über Jahrzehnte massiv beeinflusst hatten. Dadurch lies sich dann schnell und wirkungsvoll eine qualitative Verbesserung der Situation des Analysanden herstellen.

WISSENSCHAFTSPHILOSOPHISCHE AKTUALITÄT DER PSYCHOANALYSE

GEISTESWISSENSCHAFTEN VERSUS NATURWISSENSCHAFTEN

Die Gegensatzbildung zwischen ‚Geisteswissenschaften‘ einerseits und ‚Harten Wissenschaften‘ andererseits ist nicht neu und bei vielen so eine Art Stereotyp, das man gar nicht mehr hinterfragt. In den ‚harten Wissenschaften‘ selbst gibt es aber immer wieder von einzelnen selbst-kritische Überlegungen zur Problematik des ‚Beobachters‘ und des ‚Theoriemachers‘, die aus der eigentlichen Theorie ausgeklammert werden, was wissenschaftsphilosophisch zu erheblichen Problemen führt (Ein prominentes Beispiel, was ich auch gerade im Blog analysiere und diskutiere ist Edelman, ein exzellenter Erforscher des Immunsystems und des Gehirns).

INGENIEURWISSENSCHAFTEN

In den Ingenieurwissenschaften, die den empirischen Wissenschaften in Sachen Formalisierung in Nichts nachstehen, eher noch ausführlicher und in vielen Fällen erheblich detaillierter sind, gibt es dagegen schon seit vielen Jahren die wachsende Erkenntnis, dass 60 – 80% der Projekte nicht daran scheitern, dass die beteiligten Experten zu wenig wissen, sondern daran, dass die beteiligten ExpertenInnen ihre eigenen psychologischen Zustände zu wenig kennen, mit ihnen nicht umgehen können, diese in die Planung von Projekten und den zugehörigen komplexen Formalisierungen nicht einbeziehen. Statt von ‚Beobachter‘ und ‚Theoriemacher‘ spreche ich hier vom ‚Akteur‘ als jenem Moment eines Theorieprozesses, das sowohl die Theorie entwickelt als auch anwendet. Eine moderne und zukunftsfähige Theorie des Engineerings wird nicht umhin kommen, irgendwann den Akteur selbst in die Theoriebildung einzubeziehen (einen Theorieansatz in diese Richtung findet sich in dem Online-Buchprojekt ‚Actor-Actor-Interaction Anaysis‘).

PSYCHOANALYSE ALS PROTOTYP

Interessant ist, dass die Psychoanalyse eigentlich ein Prototyp einer solchen ‚Beobachter-Integrierten empirischen Theorie‘ ist, und zwar schon von Anfang an. Wie Jürgen Hardt, einer der teilnehmenden Psychoanalytiker, in Erinnerung rief, hatte der Begründer der Psychoanalyse, Freud, von Anfang an die Forderungen aufgestellt, (i) dass die Psychoanalyse eine Naturwissenschaft sein muss, allerdings (ii) mit dem methodischen Hinweis, dass man das ‚Seelische‘ nicht mit den unleugbar somatischen Parallelvorgängen (im Gehirn, im Körper) verwechseln dürfe. Aus Sicht eines verkürzten Empirieverständnisses wurde dies oft als ‚un-empirisch‘ oder gar als ‚dualistisch‘ charakterisiert. Dies ist jedoch unangemessen. Freud ging es primär darum, zunächst mal jene ‚Phänomene zu retten‘, die sich bei dem damaligen Zustand der empirischen Wissenschaften noch nicht in die aktuellen theoretischen Modelle (sofern es denn überhaupt echte empirische Modelle waren) einordnen liesen. Es zeichnet ‚wahre empirische Wissenschaft‘ schon immer aus, dass sie ‚Phänomene‘ akzeptiert, auch und gerade dann, wenn die aktuelle Theoriebildung sie noch nicht einordnen kann.

KEIN DUALISMUS

Dazu kommt, dass man die Charakterisierung von ‚Dualismus‘ selbst sehr kritisch hinterfragen muss. In der modernen Mathematik und damit auch in allen empirischen Theorien, die Mathematik benutzen (was letztlich alle empirischen Disziplinen sind, die den Anforderungen einer ‚wissenschaftlichen‘ Theorie gerecht werden wollen) gibt es nur zwei Grundbegriffe:’Menge‘ und ‚Relation (Funktion)‘. Während man für das abstrakte Konzept ‚Menge‘ in der empirischen Wirklichkeit nahezu beliebig viele konkrete ‚Objekte‘ finden kann, die als ‚Instanzen/ Beispiele‘ für Mengen dienen können, sozusagen die Prototypen für ‚Reales‘, lassen sich für ‚Relationen/ Funktionen‘ so leicht keine direkte Entsprechungen finden. ‚Relationen‘ bestehen nur ‚zwischen‘ Objekten, ‚Funktionen‘ dagegen lassen sich ‚Veränderungen‘ zuschreiben. Beides ‚Beziehungen zwischen‘ und ‚Veränderungen‘ sind keine realen Objekte; sie existieren quasi nur in unserer Wahrnehmung als ‚virtuelle‘ Objekte. Das Verhältnis zwischen ‚realen Objekten‘ und ‚virtuellen Relationen/ Funktionen‘ würde man daher nicht als ‚Dualismus‘ bezeichnen, da der Begriff des Dualismus spätestens seit Descartes  eher für die Forderung nach zwei unterschiedliche ‚Substanzen‘ (‚res extensa‘, ‚res cogitans) reserviert hat. Objekte kann man vielleicht als Substnzen (‚res extensa‘) bezeichnen, nicht aber ‚virtuelle Relationen/ Funktionen‘.

Angewendet auf die Psychoanalyse wäre die Freudsche Unterscheidung von ’somatischen Prozessen‘ (Gehirn/ Körper als ‚res extensa‘, denen zugleich aber auch ‚dynamische‘ Eigenschaften zukommen (= Funktionen)) und dem ‚Seelischen‘, das sich qualitativ im ‚Bewusstsein‘ zeigt (= Phänomene als ‚virtuelle Objekte‘ (mit virtuellen Beziehungen) in einer spezifischen Dynamik (mit virtuellen Funktionen)) dann kein klassischer Dualismus sondern eine Unterscheidung unterschiedlicher Phänomenklassen, denen unterschiedliche Gesetzmäßigkeiten zukommen.

SYSTEMISCHES KONZEPT

Was viele gern übersehen, das ist die ‚Gesamtsicht‘, die der Psychoanalyse zu eigen ist. Freud selbst tendierte in seiner Spätphase (Hinweis Jürgen Hardt) zu einem ‚organismischen‘ Denken, wie er es nannte; heute würde man es vielleicht ’systemisch‘ nennen. Durch die Anerkennung der Tatsache, dass das ‚Bewusstsein‘ nur einen Teil – heute müsste man vielleicht sagen: einen sehr kleinen Teil! – der Vorgänge im menschlichen Körper abbildet, wobei das ‚Un-Bewusste‘ letztlich den ganzen Restkörper beinhaltet, muss die Psychoanalyse jede Reaktion eines Akteurs als eine ‚Antwort des ganzen Systems‘ betrachten, die in den meisten Fällen von Prozessen und Faktoren verursacht werden, die eben un-bewusst sind. Insofern es weder aktuell eine vollständige Theorie aller Körperprozesse gibt noch man davon ausgehen kann, dass die Menge der möglichen Körperprozesse endlich und konstant ist, nicht einmal im Fall eines einzelnen Akteurs, ist die psychoanalytische Theoriebildung kontinuierlich in einer Situation, wo es eine Modellvorstellung M bis zum Zeitpunkt t gibt, die ab dem Zeitpunkt t mit einer offenen Menge von Phänomenen Ph_t+ konfrontiert werden kann, die vielfach bzw. überwiegend noch nicht Teil des bisherigen Modells M sind. Sofern das Modell M Anhaltspunkte für Interpretationen oder Verhaltensprognosen gibt, kann der Therapeut danach handeln; sofern das Modell ’schweigt‘, muss er das tun, was die Evolution seit 3.8 Milliarden Jahren tut: mangels Wissen über die Zukunft lassen biologische Populationen die Bildung von ‚Varianten‘ zu, von denen vielleicht einige dann in der Zukunft ‚passen‘, wenn alle anderen aufgrund von Veränderungen der Umgebung ’nicht mehr passen‘. Dieses ‚Handeln bei mangelndem Wissen ist der wichtigste Überlebensakt aller biologischer Systeme. Die ‚Quelle‘ für psychotherapeutische Verhaltensvarianten ist das eigene System, der Körper des Psychoanalytikers, schwerpunktmäßig sein Un-Bewusstes, das ‚aus sich heraus‘ wahrnimmt und reagiert.

Von den Psychoanalytikern wurde zahllose Beispiel angeführt, deren Phänomenologie die Arbeitshypothese nahelegt, dass es zwischen dem ‚Un-Bewussten‘ des Therapeuten und dem Un-Bewussten des Patienten offensichtlich eine Kommunikation im Nicht-Bewussten-Bereich geben muss, da unbewusste Zustände des Patienten, von denen der Therapeut bis dahin nichts wusste, sehr charakteristische Körperzustände beim Therapeut hervorriefen, die dann zum ‚Katalysator‘ dafür wurden, dass der Therapeut und der Patient dadurch einen entscheidenden Hinweis auf die zugrunde liegenden un-bewussten Faktoren im Patient gewinnen konnten.

Angesichts dieser Systemsicht und ihrer komplexen Dynamik stellt sich die Frage nach der Funktion des ‚Bewusstseins‘ ganz anders. Irgendwie erscheint das Bewusstsein wichtig (mindestens für alle sprachliche Kommunikation und explizite Planung), aber irgendwie ist das Bewusstsein nur ein kleiner Teil eines viel größeren dynamischen Systems, dessen Ausmaß und genaue Beschaffenheit weitgehend im Dunkeln liegt. Die moderne Gehirnforschung (wie auch die gesamte moderne Physiologie) könnte hier sicher viele wertvolle Erkenntnisse beisteuern, wären sie nicht bislang wissenschaftsphilosophisch so limitiert aufgestellt. Viele der möglichen interessanten Erkenntnisse ‚verpuffen‘ daher im Raum möglicher Theorien, da diese Theorien nicht ausformuliert werden.

ERFOLGSKRITERIEN

Natürlich kann und muss man die Frage stellen, inwieweit ein psychoanalytisches Modell – oder gar eine ausgebaute Theorie – ‚verifizierbar‘ bzw. ‚falsifizierbar‘ ist. Berücksichtigt man die methodischen Probleme mit dem Begriff der ‚Falsifikation‘ (siehe dazu die kurze Bemerkung Nr.18 im Blogbeitrag vom 5.September 2018) beschränken wir uns hier auf den Aspekt der ‚Verifikation‘.

Eine Verifikation wäre im allgemeinen die ‚Bestätigung‘ einer ‚Prognose‘, die man aus dem ‚bestehenden Modell‘ ‚abgeleitet‘ hatte. Da das ‚bestehende Modell‘ im Fall der Psychoanalyse im allgemeinen nicht als ‚formalisiertes Modell‘ vorliegt, kann es sich bei den möglichen ‚Prognosen‘ daher nur um ‚intuitive Schlüsse‘ des Therapeuten aus seinem ‚bewusst-unbewussten‘ Modell handeln. Im praktischen Fall bedeutet dies, dass (i) es einen ‚therapeutischen Prozess‘ gab, der alle offiziellen Anforderungen an einen psychoanalytischen Prozess erfüllt, dass (ii) ein Zustand erreicht wird, in dem der Patient einen höheren Grad an ‚Selbststeuerung‘ erreicht hat. Dies kann sich an vielerlei Phänomenen fest machen, z.B. der Patient hat weniger ‚Angst‘, sein ‚körperlicher Gesundheitszustand‘ ist besser geworden, er kann seine ‚Alltagsaufgaben besser lösen‘, er ist generell ‚weniger krank‘, er besitzt mehr ‚Selbstvertrauen‘ im Umgang mit zuvor gefürchteten Situationen, und dergleichen mehr. All diese Phänomene kann man objektivieren. Die sehr verbreiteten Auswertungen nur per Fragebogen sind eher unbrauchbar und nutzlos.

WEITERES VORGEHEN

Zum ersten Mal tauchte die Idee auf, die bisherigen Gespräche zur Psychoanalyse in einem kleinen Büchlein zusammen zu fassen und zu publizieren.

Eine spontane Fortsetzung findet sich HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

WISSENSCHAFTSPHILOSOPHIE IM ALLTAG. Wahrheit im Dauerversuch

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 26.Nov. 2017
URL: cognitiveagent.org
info@cognitiveagent.org

Autor: cagent
Email: cagent@cognitiveagent.org

INHALT

I Wissenschaftsphilosophie und Wahrheit …1
II Interdisziplinär und Unterschiede …2
III Interdisziplinäres Projekt…2
III-A Einzelvorschläge zum Begriff ’Simulation’ . . . . . . . .3
III-B Vernetzung der Einzelvorschläge . ….3
III-C Formalisierungsversuch . . . . . . . . 4
Weiter zur Wahrheit …7
IV Literaturverweise …8

WORUM ES GEHT

‚Wissenschaftsphilosophie‘ klingt für die meisten sehr abstrakt. Wendet man sich aber dem Alltag zu und betrachtet ein – fast beliebiges – Beispiel, dann kann man
schnell entdecken, dass eine wissenschaftsphilosophische
Sehweise sehr konkret – und auch sehr praktisch – werden
kann. Dies wird in diesem Beitrag illustriert.

PDF

I. WISSENSCHAFTSPHILOSOPHIE UND WAHRHEIT

In einem vorausgehenden Beitrag in diesem Blog mit
der Überschrift ”WAHRHEIT ALS UNABDINGBARER
ROHSTOFF EINER KULTUR DER ZUKUNFT”  wurde
besprochen, welche Mechanismen uns Menschen
zur Verfügung stehen, um wahre Aussagen über
die Welt und uns selbst machen zu können. Die
Blickweise, die hinter diesen Überlegungen stand,
war die der Wissenschaftsphilosophie. Aber was ist
’Wissenschaftsphilosophie’? Warum ist diese Blickweise
so wichtig?

’Wissenschaftsphilosophie’ ist, wie der Name schon
andeutet, ein Teil der philosophischen Blickweise auf die
Welt.

Während sich die Einzelwissenschaften aufgrund ihrer
spezifischen Interessen auf ’Teilgebiete der erfahrbaren
Wirklichkeit’ festlegen und diese im Rahmen des Paradigmas der experimentellen Wissenschaften im Detail erforschen, versteht sich eine philosophische
Blickweise als jene, die nicht von vornherein
Ausgrenzungen vornimmt, sondern alle Phänomene
zulässt, die sich dem menschlichen Bewusstsein zur
Erfahrung geben. Ein philosophisches Denken legt sich
auch nicht auf einige wenige Methoden fest, sondern
erlaubt zunächst einmal alles, was geht.
Eine so verstandene philosophische Blickweise hat
Vor- und Nachteile. Die Nachteile liegen auf der Hand:
der Verzicht auf eine wie auch immer geartete Vorweg-
Zensur von Erfahrung konfrontiert einen Philosophen
von vornherein mit einer solchen Fülle von Phänomen
und Methoden, dass es im Allgemeinen schwer ist,
hier auf einfache und schnelle Weise zu strukturierten
Erkenntnissen zu kommen.

Andererseits, schaut man sich die fortschreitende
Zersplitterung der Einzelwissenschaften an, dann
trifft man auch hier auf eine methodisch bedingte
Vielfalt, die bislang nicht systematisch integriert ist.
Zum aktuellen Zeitpunkt ist es nicht einmal abzusehen,
wann und wie diese immensen, sich gegenseitig
ausschließenden Datengebirge und Teildeutungen, sich
irgendwann zu einem einzigen großen integrierten
Ganzen zusammenfügen lassen lassen.

Die philosophische Blickweise als solche trägt im
Prinzip den Keim der Integration in sich, da sie ja
nicht auf Teilaspekte der Wirklichkeit abonniert ist,
sondern im Prinzip für alles offen ist. So kann sie sich
die Ergebnisse der Einzelwissenschaften vornehmen
und versuchsweise, spielerisch die verschiedenen
Erkenntnisse z.B. zum subjektiven Bewusstsein, zum
objektiven Verhalten oder zum objektiven Körper
aufgreifen, miteinander in Beziehung setzen, und
versuchen, die darin verborgenen Zusammenhänge
sichtbar zu machen.

Philosophen können dies irgendwie machen, oder
sie können sich im Jahr 2017 die denkerischen
Vorarbeiten der Wissenschaftsphilosophen aus den
letzten ca. 150 Jahren zu Nutze machen. Diese haben nämlich spezielle Teilaspekte der Wirklichkeit, des Denkens, der Wissenschaften systematisch untersucht.
Dazu gehören Themen wie Messen, Modellbildung,
logische Argumentation, Überprüfung eines Modells,
Simulation, und vieles mehr. Im Endeffekt haben die
Wissenschaftsphilosophen untersucht, wie das Konzept
einer experimentellen Wissenschaften überhaupt
funktioniert, unter welchen Umständen experimentelle
Theorien wahr sind, und unter welchen Bedingungen
man verschiedene Theorien integrieren kann.

Da das Thema Wissenschaftsphilosophie für sich
sehr umfassend ist und in vielen Bereichen nicht gerade
einfach zu erklären ist, sei an dieser Stelle auf eine solche
umfassende Darstellung verzichtet (Vergleiche dazu z.B.: [Sup79], [Sne79],
[Bal82], [BMS87]). Stattdessen sei hier ein einfaches (reales) Beispiel aus dem (realen) Alltag
vorgestellt, wie es jeder erleben kann oder schon erlebt
hat.

II. INTERDISZIPLINÄR UND UNTERSCHIEDE

Das Wort Interdisziplinär ist heute ja ein
richtiges Modewort, um das Zusammenarbeiten
von unterschiedlichen Disziplinen, Experten mit
unterschiedlichem Knowhow, unterschiedlichen
Erfahrungen zu etikettieren.

Während wir in den verschiedenen Gesellschaften
in Europa und weltweit zunehmend eher wieder
Phänomene der Abgrenzung beobachten, der
Ausgrenzung, der Abschottung, der identitätserhaltenden
Gruppenbildung, haben wir immer mehr international
operierende Firmen, in denen die Zusammenarbeit
von Menschen aus vielen Nationen (bis über 100)
Alltag ist und funktioniert. Es spielt nicht wirklich eine
Rolle, aus welchem Land jemand kommt, welche
Religion er hat, wie sie sich kleidet, was jemand isst,
solange alle im Rahmen der gestellten Aufgabe friedlich
zusammenwirken können. Auch in den Wissenschaften
ist dies eigentlich Alltag. Mathematik ist für alle gleich und
die Welt, die es zu erforschen gilt, ist auch für alle gleich.
Ähnlich ist es in den großen internationalen Metropolen
dieser Welt. Dort leben ganz viele verschiedene Kulturen
so lange friedlich zusammen, so lange niemand anfängt,
bewusst Hass und Zwietracht zu streuen.

Andererseits scheint das Phänomen der Abgrenzung
ein tief sitzender Reflex im menschlichen Verhalten
zu sein. Denn überall, wo Menschen leben und
es in der jeweiligen Gemeinschaft unterschiedliche
Gruppen – alleine schon wegen der notwendigen und
fortschreitenden Spezialisierungen – gibt, tendiert jede
Gruppe dazu, sich von den anderen abzugrenzen.
Es ist letztlich eine kognitive Entlastungsstrategie: es
ist immer einfacher, sich nur dem den Eigenschaften
und Regeln der eigenen Gruppe zu beschäftigen, als
zusätzlich auch noch mit den Eigenheiten und Regeln
einer anderen Gruppe. Dies strengt an und belastet.
Zu diesem Zweck gibt es allgemeine Verhaltensregeln,
die einem im Alltag Entscheidungen abnehmen, und
es gibt Klischees, Stereotype, mit denen man andere
Gruppen – und damit auch die einzelnen Mitglieder
der anderen Gruppen – mit einem einzigen Wort
in eine große Kiste von Klischees einsortiert. Dies
fängt schon im Bereich der Familie an, und erstreckt
sich dann über Schulklassen, Schulen, Abteilungen
in Behörden und Betrieben zu ganzen Einrichtungen,
Stadtteilen, Volksgruppen. Im ’Normalbetrieb’ verläuft
dies friedlich, ohne direkte Auseinandersetzungen, ist
fester Bestandteil von Witzen, Volksbelustigungen und
vielen Fernsehsendungen und Filmen.

Im Konfliktfall sind diese Vorurteile aber wie trockenes
Holz, das sich blitzschnell entzünden kann, und mit
einem Mal sind die Nachbarn, die Arbeitskolleginnen,
und die Leute aus dem anderen Stadtteil nicht einfach
nur anders, sondern gefährlich anders, moralisch anders,
überhaupt anders. Aus unverfänglichen Unterschieden
werden plötzlich metaphysische Ungeheuer. Die
gedankliche Bequemlichkeit, die sich im Alltag im
Gebrauch von Klischees ausruht, wird zur gedanklichen
Hilflosigkeit, die im Stress einfach wild um sich schlägt,
und dann natürlich auf das haut, was sie in ihrer
vereinfachten Weltsicht kennt: auf die stereotypen
Unterschiede, die plötzlich die ganze Welt bedeuten.

III. INTERDISZIPLINÄRES PROJEKT

Während interdisziplinäres Zusammenarbeiten in
großen Firmen und Behörden von Metropolen Alltag ist,
tun sich die Bildungseinrichtungen, speziell Hochschulen
in Deutschland, damit noch schwer. Selbst an einer
Hochschule in einer internationalen Metropole, an der
junge Menschen aus mehr als 100 Nationen studieren,
gibt es nur einen verschwindend geringen Anteil von
wirklich interdisziplinären Studienprogrammen. Die
Lehrenden mögen solche Veranstaltungen nicht, da
der normal Lehrende ein Spezialist ist; auch die
Fachbereichsstrukturen an Hochschulen stehen einer
wirklichen Interdisziplinarität massiv im Wege, und die
Hochschulleitungen sind heute von der Realität der
Lehre in ihren eigenen Hochschulen meist so weit
entfernt, dass sie in der Regel gar nicht wirklich wissen,
wie der Alltag der Lehre aussieht.

Das folgende Beispiel stammt aus einer realen
Lehrveranstaltung von einer realen Hochschule mit
Studierenden aus mehr als 100 Nationen, an der es
offiziell genau zwei interdisziplinäre Studienprogramme
gibt. Im Rahmen des einen Programms gibt es ein Modul,
in dem sich Studierende aus verschiedenen Disziplinen
mit dem Begriff der Simulation auseinander setzen sollen.

So gibt es in diesem Modul z.B. Studierende
aus den Disziplinen soziale Arbeit, Pflege, Case
Management, Architektur, Maschinenbau, Elektrotechnik
und Informatik.

A. Einzelvorschläge zum Begriff ’Simulation’

Das Modul ist so angelegt, dass alle Beteiligten
im Rahmen von Kommunikationsprozessen, eigenen
Recherchen und eigenen Experimenten schrittweise
ihr bisheriges Verständnis des Begriffs ’Simulation’
verfeinern und mit den Vorstellungen der jeweils
anderen Disziplinen integrieren, falls möglich. Im
Folgenden Beispiele von Formulierungen, wie der Begriff
Simulation’ zu Beginn von den Teilnehmern umschrieben
wurde.

  • Team A: Unter Simulation versteht man ein realitätsnahes Nachbilden von Situationen.
    • Ein virtueller Raum wird mit Hilfe von Visualisierungsprogrammen realistisch dargestellt .
    • Nach einer Abbildung mit verschiedenen Programmen kann das Modell mit Hilfe von Grundrissen geschaffen werden.
    • Verschiedene Gebäudetypen, zum Beispiel:
      öffentliche, kulturelle oder soziale Einrichtungen,
      können simuliert werden.
    • Der Außenraum bzw. die Umgebung wird beim
      Entwurf mitberücksichtigt und 3D visualisiert.
    • Durch Materialität, Textur, Lichtverhältnissen
      und Schattierungen wird versucht, den Entwurf
      realitätsnah wie möglich darzustellen.
    • Konstruktionen können in Simulationsprogrammen ebenfalls detailliert ausgeführt werden.
  • Team B: Simulation ist eine Methode Situationen abzubilden, z.B. räumliche Wirkungen, Umwelteinflüsse, Szenarien, um effektiv Probleme und
    Lösungen zu analysieren.
  • Team C: Die Analyse von möglichen Problemen
    im Alltag. Die Nachbildung von Anwendungsfällen
    wie zum Beispiel Flugsimulation und Wettersimulation. Die Optimierung von Systemen und Prozessen.
    Komplexe Sachverhalten zu vereinfachen und (visuell) darzustellen. Es ist eine kostengünstigere Variante als die tatsächliche Umsetzung. Es werden in
    einer Simulation Prognosen und Voraussagen erstellt.
  • Team D:
    1. Analyse von Systemen vor der praktischen An-
      wendung
    2. Die Simulation ist ein Bestandteil eines Produktlebenszyklus. Dabei lassen sich die Entwicklungsschritte wie folgt definieren:
      1. Konzeptentwicklung
      2. Simulation
      3. Konstruktiond) Produktherstellung
      4. Integration im System
    3. Optimierung von einem bestehendem Prozess
      mit Ziel die Effizienz und die Fehlerbehebung
      zu verbessern −→ Prozessoptimierung
  • Team E: Unter dem Begriff ”Simulation” ist das
    theoretische bzw. praktische Durchspielen unterschiedlicher Szenarien zu verstehen. Das Durchspielen oder auch Verifizieren der Situation lässt
    die Übertragung von komplexen Aussagen über das
    mögliche Verhalten des gewählten Klientels zu. Das
    Ergebnis kann auf die Realität projiziert werden,
    ohne damit laufende Prozesse negativ zu beeinflussen.
  • Team F : Eine Simulation ist eine modellhafte
    Darstellung einer möglichen oder reellen Situation.
    Die Situation kann sowohl prospektiv als auch retrospektiv sein. Sie dient der Analyse, Übung und Optimierung verschiedener Prozesse beziehungsweise
    einzelner Prozessabläufe.
  • Team G: Simulationen in der sozialen Arbeit bieten die Möglichkeit insbesondere ethisch schwierig
    vertretbare oder praktisch schwierig umsetzbare Situationen experimentell darzustellen und dadurch
    präventiv Kompetenzen zu erwerben, Lerninhalte
    zu erarbeiten, Lösungsansätze zu entwickeln und
    Problem- bzw. Konfliktsituationen zu vermeiden.
  • Team H: Simulation im Beratungskontext meint das
    Herstellen realitätsnaher Szenarien, um das Verhalten von Personen in speziellen Situationen erproben,
    beobachten und evaluieren zu können.
B. Vernetzung der Einzelvorschläge

Diese Textfragmente wirken unterschiedlich und tragen
deutlich Spuren der unterschiedlichen Fachkulturen. So
ist das Team A unschwer als Team aus dem Bereich
Architektur zu erkennen, oder Team C: das klingt sehr
nach einem technischen Hintergrund. Team E klingt
nach sozialer Arbeit oder Case Management. usw.

Was macht man nun damit?

Es gab ein Live-Gespräch, bei dem die einzelnen
Formulierungen nacheinander diskutiert wurden
und einzelne Begriffe, die hervor stachen, wurden
versuchsweise auf ein Whiteboard geschrieben (siehe
Schaubild Nr. 1).

Bild Nr.1: Tafelbild aus einer Live-Diskussion
Bild Nr.1: Tafelbild aus einer Live-Diskussion

Für einen Unbeteiligten wirkt dieses Bild vermutlich
noch ein wenig ’wirr’, aber bei näherem Hinsehen kann
man die Umrisse einer ersten Struktur erkennen.
In einer im Anschluss erstellten Idealisierung des
ersten Tafelbild (siehe Schaubild Nr. 2) kann man die
in diesen Begriffen liegende verborgene Struktur schon
deutlicher erkennen.

Reinzeichnung des Tafelbildes
Reinzeichnung des Tafelbildes

Man erkennt abgrenzbare Bereiche, Komponenten
wie z.B. die reale Welt oder das Ersatzsystem, Modell,
oder auch so etwas wie die Idee von etwas Neuem.
Zwischen diesen Komponenten findet man Beziehungen
wie Nachbilden oder Erfinden oder Modell nutzen.

Offensichtlich passen diese Größen nicht in das
klassische Schema einer Definition, bei dem ein neuer
Begriff (das ’Definiendum’) durch schon bekannte
Begriffe (das ’Definiens’) ’erklärt’ wird (vgl. dazu [Mit95] und [San10]), sondern es ist
eher die Einführung eines neuen Bedeutungsfeldes im
Sinne einer axiomatischen Theorie: man benennt eine
Reihe von Komponenten, von denen man annimmt, dass
sie alle wichtig sind, beschreibt Beziehungen zwischen
diesen Komponenten, die man ebenfalls für wichtig
findet, und nennt dann das Ganze ’Simulation’. Eine
zunächst diffuse Wirklichkeit gewinnt dadurch Konturen,
gewinnt eine Struktur.

Ob diese sich so heraus schälende Struktur wirklich
brauchbar ist, irgendwelche Wahrheitsansprüche
einlösen lässt, das kann man zu diesem Zeitpunkt
noch nicht entscheiden. Dazu ist das Ganze noch
zu vage. Andererseits gibt es an dieser Stelle auch
keine festen Regeln, wie man solche Strukturen
herausarbeitet. Auf der einen Seite sammelt man
Phänomene ein, auf der anderen Seite sucht man
Begriffe, sprachliche Ausdrücke, die passen könnten.
Was einem auffällt, und wie man es dann anordnet,
hängt offensichtlich von aktuellen Interessen, verfügbarer
Erfahrung und verfügbarem Sprachwissen ab. Drei
verschiedene Personen kämen isoliert vermutlich zu drei
unterschiedlichen Ergebnissen.

Man kann jetzt bei dem Schaubild stehen
bleiben, oder man kann das Instrumentarium der
Wissenschaftsphilosophie weiter nutzen indem man
z.B. eine formale Strukturbildung versucht. Unter
Verwendung einer mengentheoretischen Sprache
kann man versuchen, die erkannten Komponenten
und Beziehungen in mathematische Strukturen
umzuschreiben. Falls es gelingt, führt dies zu noch
mehr struktureller Klarheit, ohne dass man irgendwelche
Feinheiten opfern müsste. Man kann im Verlauf eines
solchen Formalisierungsprozesses Details nach Bedarf
beliebig ergänzen.

C. Formalisierungsversuch

Das idealisierte Schaubild lässt erkennen, dass wir
es mit drei Wirklichkeitsbereichen zu tun haben: (i)
die Reale Welt (W) als Ausgangspunkt; (ii) die Welt
der kreativen Ideen (KID) als Quelle möglicher neuer
Gegenstände oder Verhaltensweisen; und verschiedene
Ersatzsysteme, Modelle (M), mittels deren man etwas tun kann.

Unter Voraussetzung dieser genannten Gegenstandsbereiche W, KID, M wurde folgende wichtige Beziehungen genannt, die zwischen diesen
Gegenstandsbereichen angenommen wurden:

  1. Nachbilden, Abbilden (Abb): Bestimmte Aspekte
    der realen Welt W werden in einem Ersatzsystem,
    in einem Modell M so nachgebildet, dass man
    damit etwas tun kann. Außerdem soll das Modell
    u.a. realitätsnah sein, Kosten sparen, und Risiken
    vermindern.
  2. Erfinden (Erf): Aufgrund von kreativen Ideen KID
    wird ein Modell M erstellt, um diese Ideen sichtbar
    zu machen.
  3. Simulieren (Sim): Hat man ein Modell M gebaut,
    dann können Menschen (ME) mit dem Modell
    unterschiedliche Simulationen für unterschiedliche
    Zwecke vornehmen. Aufgrund von Simulationen
    werden die Menschen Erfahrungen (X+) mit dem
    Modell sammeln, die zu einem verbesserten Verhalten (V+) auch in der realen Welt führen können, zugleich kann aufgrund dieser Erfahrungen das
    bisherige Modell oft auch optimiert werden; man
    kommt also zu einem optimierten Modell (M+).
  4. Transfer (Trans): Aufgrund von neuen Erfahrungen
    (X+) und einem möglicherweise optimierten Modell
    (M+) besteht die Möglichkeit, dass man im Ausgangspunkt, in der realen Welt (W), Sachverhalte und Abläufe ändert, um die Verbesserungen im
    Modell und im neuen Verhalten in die reale Welt,
    in den Alltag, einzubringen. Würde man dies tun,
    dann erhielte man eine verbesserte Welt (W+).

Diese Vorstrukturierung kann man nun weiter treiben und tatsächlich eine mathematische Struktur hinschreiben. Diese könnte folgendermaßen aussehen:

— Siehe hierzu das PDF-Dokument —

Der Ausdruck zu Nummer (1) besagt, dass etwas (x) genau nur dann (iff) eine Simulation (SIMU) genannt wird, wenn es die folgenden Komponenten enthält: W, W+ M, M+ , KID, X+ , ME. Zusätzlich werden folgenden Beziehungen zwischen diesen Komponenten angenommen: Abb, Erf, Sim, Trans. Welcher Art diese Beziehungen sind, wird in den folgenden Nummern (2) – (5) erläutert.

In der Abbildungsbeziehung Abb : ME × W−→ M werden Aspekte der realen Welt W von Menschen ME in ein idealisierendes Modell M abgebildet.

In der Erfindungsbeziehung Erf : ME × KID −→ M werden Aspekte aus der Welt der Ideen KID von Menschen ME in ein idealisierendes Modell M abgebildet.

In der Simulationsbeziehung Sim : ME × M −→ M+ × X+ benutzen Menschen ME Modelle M und machen dadurch neue Erfahrungen X+ und können u.a. das Modell verbessern, optimieren M+ .

In der Transferbeziehung  rans : ME × M+ × X+ −→ W+ können Menschen ME optimierte Modelle M+ und/ oder neue Erfahrungen X+ in ihren Alltag, in die reale Welt so einbringen, dass die bisherige Welt zu einer besseren Welt M+ verändert wird.

IV. WEITER ZUR WAHRHEIT

An diesem kleinen Beispiel wird deutlich, wie man
unterschiedliche alltagssprachliche Formulierungen
miteinander vernetzen kann, daraus Strukturen
herausarbeitet, und diese ansatzweise formalisiert.

Um einen möglichen Wahrheitsanspruch dieser
Formalisierung klären zu können, müsste nun weiter
herausgearbeitet werden, was mit den einzelnen
Größen dieser Struktur gemeint ist. Also, wenn man die
Beziehung Abbildung liest ( Abb : ME × W −→ M), müsste klar sein, welche Menschen gemeint sind, die dort eine Abbildungsbeziehung herstellen, und was
müsste man sich konkret darunter vorstellen, dass
Menschen Aspekte der Welt (W) in ein Modell (M)
abbilden?

Wenn ein Kind ein Stück Holz benutzt, als ob es
ein Spielzeugauto ist, mit dem es auf dem Boden
herumfährt und dazu ’BrumBrum’ macht, dann ist für
das Kind das Stück Holz offensichtlich ein Modell für ein
Autor aus der realen Welt, seine Bewegungen simulieren
das Herumfahren, und das ’BrumBrum’ simuliert das
Motorgeräusch (bald nicht mehr, vielleicht).

Wenn Architekten (früher) aus Gips ein Gebäude im
Maßstab angefertigt hatten, es in eine Modelllandschaft
stellten, und dies einer Lichtquelle aussetzten, die
analog der Sonne bewegt wurde, dann war offensichtlich
das Gipshaus in der Landschaft mit der Lichtquelle
ein Modell des Schattenwurfs eines Gebäudes bei
Sonnenlicht.

Wenn Pflegestudierende heute an einem Krankenbett
mit einer künstlichen Puppe üben, wie man verschiedene
Pflegetätigkeiten ausübt, dann ist diese Puppe im Bett
offensichtlich ein Modell des realen Patienten, an dem
man übt.

Wenn Case Managerinnen in Rollenspielen
Beratungsgespräche üben, dann sind diese Rollen,
die sie ausfüllenden Personen, und die stattfindenden
Interaktionen ein Modell der realen Situation.

Wenn Informatikstudierende am Computerbildschirm
Schaltungen zusammenbauen, dann sind diese Software
basierten Bauteile und Schaltungen offensichtlich
Modelle von richtigen Bauteilen und den daraus
konstruierten Schaltungen.

Die Liste der hier möglichen Beispiele ist potentiell
unendlich lang.

Die Abbildung von Aspekten der realen Welt in
Ersatzsysteme, die wie Modelle fungieren, anhand bzw.
mittels deren man üben kann, analysieren usw. ist
offensichtlich sehr grundlegend.

Ob solch ein modellierendes Ersatzsystem und
die damit möglichen Handlungen die abzubildende
Wirklichkeit hinreichend gut abbilden, oder ob sie diese
so verzerren, dass das Modell bezogen auf die reale
Welt falsch ist, dies zu beurteilen ist nicht immer ganz
einfach oder vielleicht sogar unmöglich. Schwierig und
unmöglich ist dies dann, wenn das erarbeitete Modell
etwas zeigt, was in der realen Welt selbst durch die
Verwobenheit mit anderen Faktoren gar nicht sichtbar
ist, wenn also dass Modell überhaupt erst etwas sichtbar
macht, was ansonsten verdeckt, verborgen ist. Damit
würde das Modell selbst zu einer Art Standard, an dem
man die reale Welt misst.

Was im ersten Moment absurd klingt, ist aber genau
die Praxis der Wissenschaften. Das Ur-Meter, das als
Standard für eine Längeneinheit vereinbart wurde, ist
ein Modell für eine bestimmte Länge, die überall in
der räumlichen Welt angetroffen werden kann, aber
ohne das Ur-Meter können wir nicht sagen, welche der
unendlich vielen Stellen nun einem Meter entspricht. Wir
benutzen also ein künstlich erschaffenes Modell einer
bestimmten Länge, um damit die ansonsten amorphe
reale Welt mit Plaketten zu überziehen. Wir projizieren
das Ur-Meter in die reale Welt und sehen dann überall
Längen, die die realer Welt als solche nicht zeigt. Zu
sagen, diese Strecke hier in der realen Welt ist 1 m lang,
ist eine Äußerung, von der wir normalerweise sagen
würden, sie ist wahr. Wahrheit ist hier eine Beziehung
zwischen einer vereinbarten Einheit und einem Aspekt
der realen Welt.

Im allgemeinen Fall haben wir irgendwelche
sprachlichen Ausdrücke (z.B. Abb : ME × W −→ M), wir ordnen diesen sprachlichen Ausdrücke davon unabhängige Bedeutungen zu, und stellen dann fest,
ob es in der realen Welt Sachverhalte gibt, die mit
dieser vereinbarten Bedeutung korrespondieren oder
nicht. Falls Korrespondenz feststellbar ist, sprechen
wir von Wahrheit, sonst nicht. Eine solche Wahrheit ist
aber keine absolute Wahrheit, sondern eine abgeleitete
Wahrheit, die nur festgestellt werden kann, weil zuvor
eine Bedeutung vereinbart wurde, deren Korrespondenz
man dann feststellt (oder nicht). Sprachlich gefasste
Wahrheiten können also immer nur etwas feststellen,
was zuvor vereinbart worden ist (wie beim Ur-Meter), und
man dann sagt, ja, das früher vereinbarte X liegt jetzt
hier auch vor. Und diese grundsätzliche Feststellung,
diese ist fundamental. Sie erlaubt, in den veränderlichen
vielfältigen Bildern der Welt, ansatzweise Ähnlichkeiten,
Wiederholungen und Unterschiede feststellen zu
können, ohne dass damit immer schon irgendwelche
letzten absoluten Sachverhalte dingfest gemacht werden.

Die moderne Wissenschaft hat uns demonstriert, wie
dieses einfachen Mittel in vielen kleinen Schritten über
Jahrzehnte hinweg dann doch zu sehr allgemeingültigen
Sachverhalten hinführen können.

LITERATURHINWEISE

[Bal82] W. Balzer, editor. Empirische Theorien: Modelle, Strukturen,
Beispiele. Friedr.Vieweg & Sohn, Wiesbaden, 1 edition, 1982.

[BMS87] W. Balzer, C. U. Moulines, and J. D. Sneed. An Architectonic
for Science. D.Reidel Publishing Company, Dordrecht (NL),
1 edition, 1987.

[Mit95] Jürgen Mittelstrass, editor. Enzyklopädie Philosophie und
Wissenschaftstheorie Teil: Bd. 1., A – G. Verlag J.B. Metzler,
Stuttgart – Weimar, 1 edition, 1995.

[San10] Hans Jörg Sandkühler, editor. Enzyklopädie Philosophie,
Bd.1-3. Meiner Verlag, Hamburg, 1 edition, 2010.

[Sne79] J. D. Sneed. The Logical Structure of Mathematical Physics.
D.Reidel Publishing Company, Dordrecht – Boston – London,
2 edition, 1979.

[Sup79] F. Suppe, editor. The Structure of Scientific Theories. Uni-
versity of Illinois Press, Urbana, 2 edition, 1979.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

ONTOLOGIE DES BEWUSSTSEINS – Nachbemerkung zu Craik

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 29.Juli 2017
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

PDF

Übersicht
Craik führt in seinem Buch eine breit angelegte Diskussion im Spannungsfeld von Philosophie, Psychologie, Physiologie, Physik und Technik, die einige Hauptthemen erkennen lässt: ein Plädoyer für ein kausales Verständnis der realen Welt, für die Rekonstruktion von Bewusstsein durch Rückgriff auf das Nervensystem, für die zentrale Rolle mentaler Modelle, sowie für die wichtige Rolle von Sprache in allem Erklären. Dies gibt Anlass, den ontologischen Status des Bewusstseins nochmals zu präzisieren.

I. KONTEXT

In einem vorausgehenden Blogeintrag hatte ich kurz einige der Hauptthemen aus dem Buch ’The Nature of Explanation’ (1943) von Craig vorgestellt und kurz kommentiert. In diesem Buch weist Craik zurecht darauf hin, dass eine Erklärung der geistigen/ mentalen/ kognitiven Phänomene des Menschen ohne Rückgriff auf das ermöglichende Gehirn unvollständig sind. Eine introspektive Beschreibung solcher Phänomene beschreibt die Oberfläche dieser Phänomene, wenn sie gut gemacht ist, auch noch deren Dynamik, aber sie kann sie nicht wirklich erklären, da derjenige Kontext, der kausal für diese Phänomene verantwortlich zu sein scheint (harte Beweise gibt es nicht, siehe weiter unten), das menschliche Gehirn, in solch einer phänomenalen Beschreibung nicht berücksichtigt wird (bisher nicht!).

Dieser überdeutliche Hinweis seitens Craig wird durch vielfache Überlegungen untermauert. Was aber fehlt ist ein klares Konzept, wie denn eine philosophisch-wissenschaftliche Beschreibung des Sachverhalts methodisch vorgenommen werden müsste, um allen Aspekten Rechnung zu tragen. Obwohl Craig alle wesentlich beteiligten Disziplinen explizit nennt (Philosophie, Psychologie, Physiologie, Physik) und er sich in diesen Bereichen gut auskennt, lässt er das genaue Verhältnis dieser Disziplinen zueinander offen.

II. MULTIPLE SICHTEN

Multiple Sichten auf den Menschen und sein Umfeld
Multiple Sichten auf den Menschen und sein Umfeld

1) Vielleicht kann es in dieser Situation helfen, sich bewusst zu machen, welch Faktoren in dieser Erkenntnissituation beteiligt sind und wie diese (grob) aufeinander bezogen sind.
2) Im Schaubild 1 sind diese Faktoren angedeutet. Die Perspektive, aus der heraus dieses Bild entstanden ist, ist zunächst die der empirischen Wissenschaften, dann ergänzt um eine introspektive Perspektive.
3) Die Physik erzählt uns die Geschichte vom Universum, seiner Entstehung seit dem Big-Bang Ereignis, seiner Struktur, die u.a. unsere Heimatgalaxie, die Milchstraße, enthält. Innerhalb der Milchstraße gibt es u.a. unser Sonnensystem mit der Erde, unserem Heimatplaneten. Die Biologie erzählt uns die Geschichte von der Entstehung des biologischen Lebens auf der Erde, die Entwicklung all der unzähligen Arten (von denen die meisten wieder ausgestorben sind), bis hin zum homo sapiens, den wir repräsentieren.
4) Um den Menschen herum gibt es zahllose wissenschaftliche Disziplinen, die unterschiedliche Aspekte des homo sapiens untersuchen. Die Physiologie hat uns darüber belehrt, dass der menschliche Körper mit all seinen komplexen Organen letztlich aus einzelnen Zellen besteht, die auf unterschiedliche Weise im Körper als Zellverbände kooperieren und dabei kommunizieren.
5) Was man bei der Betrachtung der beeindruckenden Gesamtleistung aber niemals vergessen darf, ist, dass alle Zellen zu jedem Zeitpunkt aus Molekülen bestehen, diese wiederum aus Atomen, diese wiederum aus sub-atomaren Teilchen. Jede dieser identifizierbaren Einheiten folgt eigenen, spezifischen Gesetzen des Verhaltens.
Diese Verhaltensweisen sind so spezifisch, dass es sinnvoll ist, hier entsprechend den jeweiligen Einheiten von unterschiedlichen Organisationsebenen zu sprechen, mit steigender Komplexität.
6) Diese Unterscheidung nach Organisationsebenen (denen unterschiedliche Komplexitätsebenen entsprechen), ist hilfreich, wenn man die Interaktion zwischen allen Einheiten betrachtet. Das Herz z.B. ist in einer Hinsicht eine ’Pumpe’, die das Blut durch die Adern pumpt. Es ist über Zellen auch mit dem Gehirn verbunden, das den Zustand des Herzens ’kontrolliert’ und durch elektrische-chemische Impulse beeinflussen kann. Die einzelnen Zellen, die den Zellverband ’Herz’ bilden, sind ferner für sich genommen individuelle, autonome Systeme, die untereinander durch Stoffwechselprozesse (Energieversorgung, …) verbunden sind, die absterben und durch  neue ersetzt werden, und vieles mehr. Je nach Zustand der Umgebung einer Zelle, welche Moleküle, Atome dort vorkommen, kann dies auch die Zelle stören, zerstören. Die Zelle kann auch selbst Störungen aufweisen.
7) Insofern alle Moleküle auch Atome sind mit subatomaren Einheiten, unterliegen diese Atome jederzeit den unterschiedlichen Wechselwirkungen, die zwischen Atomen und subatomaren Einheiten im gesamten Universum möglich sind. Wie die Physik uns heute erzählen kann, gibt es hier vielfältige Wechselwirkungen im quanten-mechanischen Bereich, die über den Bereich eines einzelnen menschlichen Körpers weit hinausgehen, die bis in die Dimension der Milchstraße reichen.
8) Dies alles gilt natürlich auch für den Zellverband, der unser Nervensystem mit dem Gehirn bildet. Das Gehirn ist Teil des Gesamtkörpers; es liegt im Körper. Das Gehirn, so erzählen die Gehirnforscher heute, hat trotz der Flexibilität, Plastizität seiner Zellen in sich eine Struktur, die unterschiedliche funktionelle Einheiten abgrenzen lässt, die sowohl in sich wie auch miteinander sowohl über elektro-chemische Weise kommunizieren wie auch nur chemisch. Dabei werden die quantenmechanischen Wechselbeziehungen normalerweise nicht berücksichtigt.
9) Lässt man die quantenmechanischen Wechselbeziehungen außen vor, dann kann das Gehirn mit der Umgebung des Körpers nur über Zellen kommunizieren, die elektro-chemische oder chemische Signale austauschen. Dazu gibt es spezielle Sinneszellen, die externe Energieereignisse in interne neuronale Energieereignisse übersetzen, und diese dann auf unterschiedliche Weise von Zelle zu Zelle weiter reichen. Dieser Prozess ist niemals 1-zu-1 sondern bringt mehrfache Transformationen und Abstraktionen mit sich. In der Regel werden zudem nicht Signale von einzelnen Sinneszellen benutzt, sondern meistens viele Hunderte, Tausend, Hunderttausende oder gar Millionen gleichzeitig und parallel. Diese werden auf unterschiedliche Weise miteinander verrechnet. Wie das Gehirn es schafft, ohne direkten Kontakt mit der externen Welt aus diesen vielen Abermillionen gleichzeitigen Einzelsignalen brauchbare Muster, Zusammenhänge und Abläufe zu extrahieren und damit ein komplexes Verhalten zu steuern, das enthüllt sich nur langsam.
10) Aus empirischer Sicht ist die Geschichte hier zu Ende. Im Schaubild 1 gibt es aber noch die Größe Bewusstsein. Wie kommt die ins Spiel?

III. BEWUSSTSEIN

1) Aus empirischer Sicht (Physiologie, Gehirnforschung, Biologie, Physik, Chemie, Molekularbiologie, Genetik, empirische Psychologie,…) kann man die Zellen, Zellverbände, ihre Eigenschaften beobachten, messen, und das Verhalten dieser Einheiten auf der Basis dieser Messwerte beschreiben, auch mit kausalen Beziehungen, zunehmend auch mit partiellen Modellen. Dabei wurden und werden zahlreiche interessante Wechselbeziehungen aufgedeckt z.B. zwischen Zellen und deren Molekülen, gar Atomen. In dieser Perspektive gibt es aber keinerlei Phänomene, die irgendetwas mit dem sogenannten Bewusstsein zu tun haben. In einer empirischen Perspektive gibt es prinzipiell keinerlei Möglichkeiten, bewusstseinsrelevante Phänomene zu beobachten und zu beschreiben.
2) Selbst die moderne empirische Psychologie ist methodisch beschränkt auf messbare Sachverhalte, die sie letztlich nur im Bereich des beobachtbaren Verhaltens finden kann, neuerdings erweiterbar mit physiologischen Daten, sodass man in einer neuro-psychologischen Vorgehensweise beobachtbare Verhaltensdaten mit Körperdaten und speziell Gehirndaten in Beziehung setzen kann. Dies hat zu einer erheblichen Ausweitung der möglichen Erklärungsleistung geführt. Aber auch in der Perspektive einer Neuro-Psychologie gibt es streng genommen keinerlei Phänomene, die man als bewusstseins-relevant bezeichnen könnte.
3) Wissenschaftstheoretisch (andere sprechen von Wissenschaftsphilosophisch) beschränkt sich der Begriff Bewusstsein auf eine spezielle Form von Innensicht des Gehirns, wie wir sie bislang explizit nur von Exemplaren des homo sapiens kennen, da dieser mittels des Werkzeugs symbolische Sprache Aussagen, Beschreibungen
liefern kann, die indirekt Zeugnis geben von Sachverhalten, die sich auf diese Innensicht des Gehirns beziehen. Die Innensicht des Gehirns ist einer empirischen Beobachtung nicht direkt zugänglich (auch wenn man in zahllosen neuro-psychologischen Abhandlungen immer wieder das Wort ’Bewusstsein’ findet, auch z.B, in der Wortschöpfung ’neuronales Korrelat des Bewusstseins’; wissenschaftsphilosophisch ist dies Unsinn; es kann aber möglicherweise einen gewissen ’heuristischen’ Wert innerhalb wissenschaftlicher Untersuchungen haben.)
4) Dass wir überhaupt von Bewusstsein sprechen liegt daran, dass alle Exemplare des homo sapiens (und vermutlich nahezu alle biologischen Systeme) über diese bemerkenswerte Fähigkeit einer Innensicht des Gehirns verfügen, die die Betroffenen mit einem kontinuierlichen Strom von Ereignissen versorgt. Um diese Ereignisse aus der Innensicht des Gehirns von den Ereignissen der empirischen Wissenschaften abzugrenzen, sprechen die Philosophen spätestens seit dem Philosophen Edmund Husserl (1859 – 1938) von phänomenalen Ereignissen statt einfach von Ereignissen. Dies hat damit zu tun, dass Edmund Husserl und alle weiteren Anhänger einer bewusstseinsbasierten Philosophie die Ereignisse in der Innensicht des Gehirns generell als Phänomene (Ph) bezeichnet haben.
5) Da jeder Mensch qua Mensch im normalen Erkenntniszustand sich primär im Modus der Innensicht des Gehirns befindet (was anderes hat er auch gar nicht zur Verfügung) hat er zwar direkten Zugang zu den Phänomenen seines Erlebnisstroms, aber er hat nahezu keine Möglichkeit, den Begriff ’Bewusstsein’ intersubjektiv, objektiv zu definieren. Der einzelne Mensch hat zwar Zugang zu seinen Phänomenen, aber eben nur zu seinen; das gilt für jeden Menschen in gleicher Weise. Sofern verschiedene Menschen eine gemeinsame Sprache sprechen und in dieser Sprache z.B. den Begriff ’Bewusstsein’ einführen, können sie die Wortmarke ’Bewusstsein’ zwar untereinander vorstellen, sie können aber niemals ein intersubjektives Objekt aufzeigen, auf das sich die Wortmarke ’Bewusstsein’ beziehen könnte. Nach zehntausenden Jahren von menschlicher Existenz (wissenschaftlich gibt es den homo sapiens ca. 200.000 Jahre) gibt es so etwas wie ein explizites Sprechen mit dem Begriff ’Bewusstsein’ vielleicht 400 – 500 Jahre, höchstens. Ausführlich und systematisch vielleicht erst seit ca. 150 Jahren. Und bis heute erwecken die vielen Sprachspiele, in denen die Wortmarke ’Bewusstsein’ vorkommt, nicht den Eindruck, als ob allen Beteiligten so richtig klar ist, was sie da tun.

IV. SUBJEKTIV – EMPIRISCH

1) Die Tatsache, dass Menschen sich zunächst und primär im Modus der Innensicht des Gehirns vorfinden, ist einerseits – biologisch – normal, da sich explizite und leistungsfähige Nervensysteme und Gehirne erst relativ spät entwickelt haben, aber dann für die biologischen Systeme, die darüber verfügen konnten, zu einer der wertvollsten Eigenschaften des Überlebens und dann auch überhaupt Lebens auf der Erde wurden.
Jedes biologische System bekommt durch die Innensicht seines Gehirns eine Reihe von wertvollen (allerdings meist hochkomplexe) Informationen, mittels deren es seine aktuelle Situation, seine Geschichte, und seine mögliche Zukunft immer besser ausrechnen kann. Beim homo sapiens kommt dazu eine spezielle Kommunikationsfähigkeit hinzu. Gerade die besonderen Eigenschaften des Nervensystems beim Menschen haben dem homo sapiens eine gigantische Überlegenheit über nahezu alle anderen biologischen Systeme gegeben. Für den homo sapiens ist dies eine Erfolgsgeschichte, nicht für die anderen Arten, die der homo sapiens entweder ausgerottet oder stark dezimiert hat oder für seine Zwecke brutal knechtet.
2) Durch die immense Zunahme der Population des homo sapiens aufgrund seiner immer verfeinerten Technik und Kultur gab es, beginnend vor ca. 2500 bis 3000 Jahren und dann andauernd bis ca. vor 500 Jahren (letztlich andauernd bis heute) immer größere Konflikte mit dem Reden über die Welt. Der Reichtum der Phänomene in der Innensicht des Gehirns ermöglicht in Kombination mit der symbolischen Sprache immer komplexere Beschreibungen von phänomenal möglichen Sachverhalten, denen aber nicht notwendigerweise etwas in der (empirischen, objektiven, intersubjektiven) Außenwelt entsprechen musste. Das menschliche Gehirn kann in der Innensicht mühelos abstrakt-virtuelle Strukturen erzeugen, denen direkt nichts in der Außenwelt entsprechen muss. Dies kann zu Verwirrungen führen, zu Fehlern, Katastrophen (man denke z.B. an die vorwissenschaftliche Medizin oder Physik oder …).
3) An diesem – in gewisser Weise ’natürlichem’ – Kulminationspunkt von denkerisch-sprachlicher Blütezeit und Diskrepanz zwischen gedachten Bedeutungen und empirisch, realer Bedeutung entdeckten immer mehr Menschen, dass eine Unterscheidung der menschlichen Rede in jene Redewendungen, die sich auf reale Aspekte der Welt beziehen, und jene, die ’anders’ sind, von hohem praktischen Nutzen wäre. Die Idee einer empirischen (wissenschaftlichen) Sprache wurde geboren: empirisch wissenschaftlich sollten fortan nur noch jene Redewendungen gelten, die sich auf Gegebenheiten der realen Außenwelt beziehen lassen. Und damit dies
intersubjektiv, objektiv zweifelsfrei sei, wurde zusätzlich postuliert, dass sich diese Gegebenheiten nach einem vereinbarten Vergleichsverfahren mit einem vereinbarten Standard wissenschaftlich messen lassen. Nur solche Aussagen sollten künftig als wissenschaftlich relevante Fakten/ Daten akzeptiert werden.
4) Damit gab es nun zwar wissenschaftliche Fakten, aber es war nicht verbindlich geklärt, in welcher Form man diese Fakten dann zu komplexeren Aussagen über Beziehungen, Beziehungsnetzwerken (Modelle, Theorien) nutzen könnte. Faktisch benutzen die meisten mathematische Formeln zur abstrakten Beschreibung von empirischen Sachverhalten, die dann durch die empirischen Fakten fundiert wurden. Was genau aber eine wissenschaftliche empirische Theorie ist, dies wurde bis in die Gegenwart nicht restlos geklärt (trotz Wissenschaftstheorie oder Philosophy of Science. Noch heute kann man in jeder sogenannten wissenschaftlichen Zeitschrift Artikel finden, in denen die Autoren sichtlich keine Vorstellung haben, was letztlich eine wissenschaftlich empirische Theorie ist!)
5) Ein negativer (wenngleich unnötiger) Nebeneffekt der Entstehung wissenschaftlich empirischer Redeformen war die (zunächst sinnvolle) Abgrenzung gegenüber den nicht-wissenschaftlichen Redeformen, die dann aber im weiteren Verlauf zu einer Aufspaltung des Denkens in wissenschaftlich und nicht wissenschaftlich führte mit dem besonderen Akzent, dass das nicht-wissenschaftliche Reden (von den empirischen Wissenschaftlern) grundsätzlich negativ belegt wurde. Aufgrund der historischen Lebensformen, Machtausübungen, Unterdrückungen kann man diese stark abgrenzende Haltung der Wissenschaft gegenüber den nicht wissenschaftlichen Redeformen aus der Vergangenheit verstehen. Heute dagegen wirkt diese Abgrenzung mehr und mehr kontra-produktiv.
6) Man sollte sich immer wieder bewusst machen, dass die Erfindung der empirischen Redeformen durch Verknüpfung des Redens mit definierten Vergleichsverfahren im intersubjektiven Bereich die grundsätzliche Ausgangssituation des Erkennens nicht verändert hat. Auch ein empirischer Wissenschaftler lebt primär mit dem Ereignisstrom in der Innensicht des Gehirns. Da kommt er trotz Einführung der Verknüpfung mit Messverfahren auch nicht heraus. Man kann sich dies so veranschaulichen: Ausgangspunkt für jeden Menschen ist die Menge seiner phänomenalen Ereignisse (Ph) in der Innensicht. Diese differenziert sich in aktuelle sinnliche (externe wie interne) Wahrnehmung vermischt mit den aktuell verfügbaren Gedächtnisinhalten, die diese Wahrnehmungen automatisch interpretieren. Diejenigen Phänomene, die mit intersubjektiven Messverfahren korrespondieren, bleiben trotzdem Ereignisse in der Innensicht des Gehirns; nennen wir sie Ph_emp . Als Phänomene bilden sie
dann eine Teilmenge von allen Phänomenen (Ph), also Ph_emp ⊆ Ph. Der empirische Wissenschaftler steigt also nicht grundsätzlich aus dem Club der Phänomenologen aus, sondern er folgt einer methodisch motivierten Beschränkung, wann und wie er wissenschaftlich über die empirische Welt spricht.
7) Auch in dieser Betrachtungsweise wird nochmals klar, dass eine wissenschaftliche Definition eines Begriffs ’Bewusstsein’ niemals möglich sein wird, da es grundsätzlich keine intersubjektiven Messverfahren geben kann.
8) Allerdings sollte durch diese Überlegungen auch klar werden, dass eine grundsätzliche Ausklammerung einer Beschäftigung mit der Innensicht des Gehirns und des möglichen Wechselspiels zwischen phänomenalen und empirisch-phänomenalen Ereignissen von allerhöchstem Interesse sein sollte. Denn das Gesamtphänomen Innensicht des Gehirns ist eines der erstaunlichsten Phänomene im gesamten bekannten Universum und es wäre eine Bankrotterklärung jeglichen menschlichen Erkenntnisstrebens, würde man sich dem Phänomen verschließen, nur weil die bisher vereinbarten wissenschaftlichen Redeformen dieses Phänomen ausschließen. Wissenschaft muss nicht notwendigerweise bei den empirischen Sachverhalten enden.

 KONTEXTE

Frühe Überlegungen zu diesem Thema gab es schon 2009 HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER