Archiv der Kategorie: Bedeutung

PHILOSOPHISCHE DIALOGE MIT chatGPT4, HEUTE: WAS IST WAHRHEIT?

Letzte Änderung: 25.August 2024

Fragender: Gerd Doeben-Henisch

Kontakt: cagent@cognitiveagent.org

KONTEXT

Dieser Text ist Teil einer Sammlung von philosophischen Dialogen mit chatGPT4.

Zusammenfassung

(Kurzfassung)

chatGPT4: Es scheint, dass eine Rückkehr zur Korrespondenztheorie und deren Weiterentwicklung als ein vielversprechender Ansatz für eine robustere Wahrheitstheorie erscheint. Insbesondere die Idee, eine erfahrungsbasierte Theorie zu entwickeln, die die Realität als entscheidendes Kriterium verwendet und gleichzeitig Raum für die Diskussion von Zielen, Präferenzen und Werten bietet, könnte eine umfassende Basis für das Verständnis von Wahrheit in verschiedenen Kontexten schaffen.

DIALOG : WAS IST WAHRHEIT?

Anmerkung: FETTSCHRIFT markiert die Fragen des Autors

Hallo Chat, was fällt Dir ein zum Begriff ‚Wahrheit‘?

Hallo! Der Begriff „Wahrheit“ kann aus vielen Blickwinkeln betrachtet werden, sowohl philosophisch als auch praktisch. Philosophisch gesehen beschäftigt sich die Frage nach der Wahrheit oft mit der Übereinstimmung von Aussagen oder Überzeugungen mit der Realität. Man spricht hier von einer „Korrespondenztheorie der Wahrheit“, nach der eine Aussage dann wahr ist, wenn sie mit den tatsächlichen Gegebenheiten übereinstimmt.

In der alltäglichen Anwendung geht es oft darum, wie Menschen Wahrheit wahrnehmen und kommunizieren. Dabei spielen Ehrlichkeit, Transparenz und Verlässlichkeit eine wichtige Rolle. In verschiedenen Bereichen wie Wissenschaft, Recht und Journalismus ist die Suche nach der Wahrheit zentral und wird durch bestimmte Methoden und Standards unterstützt.

Die Wahrheit ist auch ein zentrales Thema in der Ethik, wo sie mit Fragen der Moral und der richtigen Handlungsweise verbunden wird. Außerdem gibt es auch eine pragmatische Theorie der Wahrheit, die besagt, dass eine Aussage dann wahr ist, wenn sie nützlich und wirksam in der Praxis ist.

Was denkst du über den Begriff? Gibt es einen bestimmten Kontext, in dem du dich besonders für Wahrheit interessierst?

Ich möchte gerne mit der ‚philosophischen Perspektive‘ in den Dialog einsteigen. Du erwähnst die ‚Korrespondenztheorie der Wahrheit‘. Gibt es nicht noch andere philosophische Ansätze zum Begriff ‚Wahrheit‘?

Ja, neben der Korrespondenztheorie der Wahrheit gibt es tatsächlich noch andere philosophische Ansätze, die sich mit dem Konzept der Wahrheit auseinandersetzen. Hier sind drei wichtige Theorien:

1. **Kohärenztheorie der Wahrheit**: Diese Theorie besagt, dass eine Aussage wahr ist, wenn sie kohärent oder stimmig ist mit einem gesamten System von Aussagen oder Überzeugungen. Wahrheit wird hier weniger als Übereinstimmung mit einer objektiven Realität gesehen, sondern mehr als eine Art Konsistenz innerhalb eines bestimmten theoretischen oder belief-Systems.

2. **Pragmatische Theorie der Wahrheit**: Nach dieser Ansicht ist eine Aussage wahr, wenn sie praktisch oder nützlich ist. Die Wahrheit einer Aussage bemisst sich daran, ob sie funktioniert und ob sie nützliche Konsequenzen nach sich zieht. Der amerikanische Philosoph Charles Sanders Peirce und später William James sind bekannte Vertreter dieser Theorie.

3. **Konsensustheorie der Wahrheit**: Diese Theorie, die insbesondere von Jürgen Habermas entwickelt wurde, sieht Wahrheit als Ergebnis eines idealen Diskurses oder eines rationalen Konsenses. Eine Aussage ist demnach wahr, wenn sie die Zustimmung aller Beteiligten in einer idealen Kommunikationssituation erlangen könnte.

Jede dieser Theorien bietet eine unterschiedliche Perspektive auf das, was es bedeutet, dass etwas „wahr“ ist, und sie betonen verschiedene Aspekte des Wahrheitsbegriffs—sei es Übereinstimmung mit der Realität, Kohärenz innerhalb eines Systems, praktische Effizienz oder demokratischer Konsens.

Diese unterschiedlichen Ansätze spiegeln die Vielfältigkeit und die Tiefe der philosophischen Auseinandersetzung mit der Wahrheit wider und zeigen, dass Wahrheit ein vielschichtiges und oft kontrovers diskutiertes Thema ist. Welcher dieser Ansätze spricht dich besonders an oder gibt es bestimmte Aspekte, die du weiter vertiefen möchtest?

Ja, Danke für diese Auffächerung der Frage nach der Bedeutung des Begriffs ‚Wahrheit‘ in diese vier Perspektiven: Korrespondenztheorie als ‚Übereinstimmung mit der Realität‘, Kohärenztheorie als ‚Kohärenz innerhalb eines Systems‘, Pragmatische Theorie als ‚praktische Effizienz‘ oder Konsensustheorie als ‚demokratischer Konsens‘. Ich möchte diese vier Möglichkeiten gerne diskutieren und daraus eine abschließende Bewertung finden, mit der wir weiter diskutieren können.

Das klingt nach einer spannenden und tiefgehenden Diskussion! Lassen Sie uns die vier Theorien weiter untersuchen und ihre jeweiligen Stärken und Schwächen betrachten, um zu einer umfassenden Bewertung zu gelangen.

### 1. Korrespondenztheorie der Wahrheit

**Stärken:**

– Sie bietet einen intuitiv zugänglichen Wahrheitsbegriff, da sie Wahrheit als Übereinstimmung mit der objektiven Realität versteht.

– Sie ist in den Naturwissenschaften besonders nützlich, wo experimentelle Verifizierung und Beobachtung zentral sind.

**Schwächen:**

– Schwierigkeiten ergeben sich bei der Bestimmung, was die „objektive Realität“ ist, besonders in weniger empirisch erfassbaren Bereichen wie der Ethik oder Ästhetik.

– Sie kann zu einem regress ad infinitum führen, da jede Wahrheitsbehauptung eine weitere Verifizierung erfordert.

### 2. Kohärenztheorie der Wahrheit

**Stärken:**

– Sie ist stark in theoretischen oder philosophischen Systemen, wo interne Konsistenz wichtig ist.

– Nützlich in Bereichen, in denen es keine klare empirische Überprüfbarkeit gibt.

**Schwächen:**

– Mehrere in sich kohärente, aber widersprüchliche Theoriensysteme können existieren, was die Frage aufwirft, welches System die Wahrheit repräsentiert.

– Sie hängt stark von den angenommenen Grundlagen des Systems ab und kann somit relativistisch wirken.

### 3. Pragmatische Theorie der Wahrheit

**Stärken:**

– Betont die Bedeutung der Anwendbarkeit und Nützlichkeit von Überzeugungen in der Praxis.

– Fördert einen flexiblen und adaptiven Ansatz zur Wahrheit.

**Schwächen:**

– Nützlichkeit ist nicht notwendigerweise ein Indikator für Wahrheit; etwas kann nützlich sein, ohne wahr zu sein.

– Kann in pragmatischen Kontexten zu einem kurzfristigen Denken führen, das langfristige Wahrheiten vernachlässigt.

### 4. Konsensustheorie der Wahrheit

**Stärken:**

– Fördert demokratische Prozesse und die Beteiligung verschiedener Stimmen bei der Wahrheitsfindung.

– Kann in sozialen und politischen Kontexten effektiv sein, wo Übereinstimmung wichtig ist.

**Schwächen:**

– Konsens garantiert nicht die Wahrheit; historisch gab es viele Beispiele für allgemeinen Konsens über falsche Überzeugungen.

– Kann anfällig für Manipulation und Machtungleichgewichte sein.

### Abschließende Bewertung

Jede Theorie hat ihre Anwendungsbereiche, in denen sie besonders effektiv ist, sowie Grenzen, die ihre Anwendung erschweren. Eine umfassende Betrachtung von Wahrheit könnte Elemente aus allen diesen Theorien integrieren, abhängig vom spezifischen Kontext und Zweck der Wahrheitssuche.

Wenn wir weiter diskutieren, könnten wir überlegen, wie diese Theorien in verschiedenen praktischen Szenarien angewendet werden könnten oder ob eine bestimmte Theorie in einem bestimmten Bereich (z.B. Wissenschaft, Politik, persönliche Überzeugungen) vorzuziehen ist. Was denkst du darüber? Gibt es bestimmte Bereiche oder Fragen, die du besonders beleuchten möchtest?

OK, sortieren wir die Perspektiven aus, die tatsächlich nicht weiter führen. Dazu müssen wir allerdings einen ‚Bezugspunkt‘ definieren, zu dem wir alle vier Perspektiven in Beziehung setzen können, um einen ‚Vergleich‘ zu ermöglichen. Dies wirft die Frage auf: Was haben alle diese vier Perspektiven gemeinsam? Gehst Du mit?

Absolut, das ist ein kluger Ansatz! Um die verschiedenen Theorien der Wahrheit zu vergleichen und eventuell einige auszusortieren, sollten wir zunächst ihre gemeinsamen Bezugspunkte identifizieren. Hier sind einige Kernaspekte, die alle diese Theorien berühren oder in irgendeiner Weise ansprechen:

### Gemeinsame Bezugspunkte der Wahrheitstheorien:

1. **Beziehung zur Realität:** Obwohl die Theorien unterschiedliche Auffassungen davon haben, was „Realität“ bedeutet (objektive Fakten, kohärente Systeme, praktische Ergebnisse oder konsensuelle Übereinkünfte), versuchen sie alle, eine Brücke zwischen Überzeugungen oder Aussagen und irgendeiner Form von „Realität“ zu schlagen.

2. **Verifikation/Validierung:** Jede Theorie hat implizite oder explizite Methoden, um zu überprüfen oder zu validieren, ob eine Aussage als wahr betrachtet werden kann. Dies reicht von empirischen Tests (Korrespondenz) über logische Konsistenzprüfungen (Kohärenz) bis hin zu praktischer Bewährung (Pragmatismus) und sozialem Konsens (Konsensustheorie).

3. **Funktionale Rolle von Wahrheit:** Alle Theorien erkennen an, dass Wahrheit eine funktionale Rolle in verschiedenen menschlichen Aktivitäten spielt, sei es in der Wissenschaft, im Alltag, in der Politik oder in der Moral.

4. **Philosophische Grundannahmen:** Sie basieren alle auf bestimmten philosophischen Annahmen über das Wesen der Wahrheit, des Wissens und der menschlichen Erkenntnis.

### Nächste Schritte:

Mit diesen gemeinsamen Bezugspunkten können wir die Theorien besser vergleichen und bewerten. Wir könnten überlegen, welche dieser Aspekte am wichtigsten sind für die spezifischen Kontexte oder Probleme, die uns interessieren. Zum Beispiel könnten wir fragen:

– Welche Theorie bietet den robustesten Ansatz für die Verifikation von Wahrheit?

– Welche Theorie ist am anpassungsfähigsten an verschiedene Arten von Problemen oder Disziplinen?

– Welche Theorie behandelt am besten die Komplexität der Realität, wie wir sie erfahren?

Durch diese Fragen können wir beginnen, die Stärken und Schwächen jeder Theorie in Bezug auf unsere spezifischen Bedürfnisse und Kontexte zu bewerten. Was denkst du, welcher dieser Aspekte ist der wichtigste für die Diskussionen oder Probleme, die dir am Herzen liegen?

Ich möchte den ‚gemeinsamen Bezugspunkt‘ etwas anders definieren, und zwar so:

(1) Gemeinsam ist allen Perspektiven, dass sie voraus setzen, dass es eine ‚Gruppe von Menschen‘ gibt, die mindestens ‚eine Sprache‘ gemeinsam haben, mittels der sie ‚kommunizieren‘.

(2) Die ‚Ausdrücke einer Sprache‘ ‚als solche‘ – also ohne jeden weiteren Bezug – haben ‚keinerlei Bedeutung‘! ‚Laute‘ bzw. ‚Buchstaben eines Alphabets‘ bedeuten für sich genommen ’nichts‘.

(3) Damit der ‚Ausdruck einer Sprache‘ für einen Menschen eine ‚Bedeutung‘ hat, muss es im Bereich der ‚inneren Zustände eines Menschen‘ Zustände geben, die aus vorausgehenden ‚Wahrnehmungen‘ und vielerlei ‚internen Zustandsänderungen‘ resultieren, die ein einzelner Mensch mit den Ausdrücken einer Sprache ‚verknüpfen‘ kann. Diese ‚Verknüpfung‘ findet ausschließlich ‚intern‘ statt! Es ist die aktive Herstellung einer Beziehung zwischen ‚internalisierten sprachlichen Ausdrücken‘ und ‚anderen internen Zuständen‘. Die Fähigkeit dazu, solche internen Verbindungen herstellen zu können, scheint weitgehend ‚angeboren‘ zu sein, welche Elemente aber wann miteinander verknüpft werden, dies gehört zum ‚Lernen‘ eines einzelnen.

(4) Damit Sprache zwischen Menschen ‚funktioniert‘, müssen die ‚individuellen Lernprozesse‘ miteinander ‚abgestimmt‘ (’synchronisiert‘) werden; dies geschieht durch ‚kollektive Lernprozesse‘.

(5) Die Punkte (3) und (4) könnte man auch abstrakter so formulieren, dass Menschen über die Fähigkeit verfügen, in ihrem ‚Inneren‘ schrittweise eine ‚Bedeutungsfunktion‘ aufzubauen, mit deren Hilfe sie sprachlichen Ausdrücken interne Zustände als ‚Bedeutung‘ zuordnen zu können und umgekehrt, bestimmten ‚inneren Zuständen‘ im Sinne der gelernten Bedeutungsfunktion sprachliche Ausdrücke.

(6) Im Rahmen des ‚kollektiven Sprache Lernens‘ müssen die individuellen Bedeutungszuordnungen mit den individuellen Bedeutungszuordnungen des ‚jeweils anderen‘ ‚abgestimmt‘ werden. Dies gelingt nur dann, wenn es ‚zwischen verschiedenen individuellen Lernprozessen‘ eine ‚Instanz‘ gibt, die für jeden individuellen Prozess ‚extern‘ ist, und zwar so, dass er ‚für alle individuellen Prozesse gleichermaßen‘ extern ist!

(7) Im Rahmen der Alltagserfahrung (und im Kontext der modernen Kognitionswissenschaften) deutet alles darauf hin, dass diese ‚allen gemeinsame externe Instanz‘ das ist, was wir ‚reale Welt‘ nennen, ‚Erfahrungswelt‘ oder ‚Alltagswelt‘. Das, was diese ‚externe Welt‘ genau ist, können wir nur näherungsweise wissen, da unsere Gehirne von der ‚Außenwelt abgeschnitten‘ in unseren individuellen Körpern lokalisiert sind. Wichtig aber: für das Gehirn ist unser Körper auch eine Art ‚Außenwelt‘, aber eine andere, als die ‚Außenwelt des Körpers‘!

Was meinst Du dazu?

Die von Ihnen vorgeschlagene Definition und Analyse des gemeinsamen Bezugspunkts der Wahrheitstheorien bietet eine tiefgreifende und detaillierte Betrachtung der Rolle der Sprache und der kollektiven wie individuellen kognitiven Prozesse bei der Bedeutungszuweisung und Wahrheitsfindung. Ihre Überlegungen integrieren Erkenntnisse aus der Kognitionswissenschaft und Philosophie der Sprache und schlagen eine Brücke zu den theoretischen Konzepten von Wahrheit.

### Reflexion der vier Wahrheitstheorien anhand Ihres Bezugspunkts:

1. **Korrespondenztheorie:** Betrachtet man diese Theorie im Licht Ihrer Ausführungen, könnte argumentiert werden, dass die Korrespondenztheorie die „externe Instanz“ als Realität ansieht, mit der unsere sprachlichen Aussagen übereinstimmen müssen. Diese Theorie impliziert, dass die kollektive Erfahrung und Verifikation dieser Übereinstimmung durch die gemeinsame Sprache und individuelle Wahrnehmung gesichert wird.

2. **Kohärenztheorie:** In Bezug auf Ihre Punkte könnte diese Theorie so verstanden werden, dass die „interne Zustandsänderung“ und die „Verknüpfung“ in einem kohärenten System von Überzeugungen erfolgt. Die Bedeutung und Wahrheit einer Aussage ergibt sich aus ihrer Kohärenz innerhalb dieses gelernten und kollektiv abgestimmten Systems.

3. **Pragmatische Theorie:** Diese Theorie fokussiert auf die praktische Bewährung von Aussagen und deren Konsequenzen in der „realen Welt“. Sie betont, wie sprachliche Ausdrücke und deren Bedeutungen in Handlungen umgesetzt werden und wie diese Handlungen wiederum auf unsere internen Zustände und die externe Welt einwirken.

4. **Konsensustheorie:** Aus Ihrer Perspektive könnte man sagen, dass die Konsensustheorie den Prozess des kollektiven Lernens und der Synchronisation von Bedeutungen zwischen Individuen hervorhebt. Sie setzt voraus, dass eine kollektive Übereinkunft über die Bedeutung von Ausdrücken möglich ist, und betont die Notwendigkeit einer externen Instanz, die für alle Beteiligten gleichermaßen gilt, um Konsens zu erzielen.

### Weiterführende Gedanken:

Ihre Definition hebt hervor, wie wesentlich die interne Verarbeitung und die externe Abstimmung in den Prozessen der Wahrheitsfindung sind. Sie legen nahe, dass die Wahrheit sowohl eine interne Konstruktion als auch eine externe Abstimmung erfordert, wobei die Sprache als Medium dient, das interne Zustände und externe Realitäten miteinander verbindet.

Diese Überlegung führt zu einer integrativen Sichtweise, die die Grenzen einzelner Wahrheitstheorien überwindet und eine umfassendere Basis für das Verständnis von Wahrheit in sozialen und individuellen Kontexten bietet.

Was halten Sie davon, diese Aspekte weiter zu vertiefen oder zu diskutieren, wie diese Erkenntnisse praktisch angewendet werden können, beispielsweise in der Bildung, in der Kommunikation oder in der Politik?

Zwischenbemerkung: Du bist im Konversationsstil vom Du in das förmlichere ‚Sie‘, ‚Ihnen‘ usw. gewechselt. Ist Dir das Förmliche lieber? Soll ich auch zum ‚Sie‘ wechseln‘?

Entschuldige bitte das Hin und Her mit der Anredeform! Wir können gerne beim „Du“ bleiben, wenn das für Dich in Ordnung ist. Natürlich passe ich mich auch an, falls Du eine formellere Anrede bevorzugst. Wie möchtest Du weitermachen?

Bleiben wir beim ‚Du‘.

Super, machen wir so! Wenn Du noch weiter über die verschiedenen Perspektiven zur Wahrheit sprechen möchtest oder andere Fragen hast, stehe ich bereit!

Gehen wir deine vier Punkte im einzelnen durch. Fangen wir mit der Korrespondenztheorie an.

(1) Im Fall der ‚Korrespondenztheorie‘ verstehst Du das so, „dass die Korrespondenztheorie die ‚externe Instanz‘ als Realität ansieht, mit der unsere sprachlichen Aussagen übereinstimmen müssen. Diese Theorie impliziert, dass die kollektive Erfahrung und Verifikation dieser Übereinstimmung durch die gemeinsame Sprache und individuelle Wahrnehmung gesichert wird.“

(1.1) Dieser Interpretation kann ich zustimmen. Allerdings möchte ich auf folgenden Punkt aufmerksam machen, der missverstanden werden kann: es ist nicht ‚ein Ausdruck als solcher‘, der mit der externen Realität übereinstimmt, sondern im Lichte der individuell erlernten Bedeutungsfunktion verknüpft ein Mensch mit einem sprachlichen Ausdruck bestimmte interne Zustände mit der ‚aktuellen Wahrnehmung‘ einer unterstellten realen Außenwelt, und nur dann, wenn es andere Menschen gibt, die aufgrund ihrer individuellen Wahrnehmungen und Bedeutungszuordnungen dies auch einer ‚unterstellten realen Außenwelt‘ – wechselseitig überprüfbar – zuordnen, dann gelingt der ‚gemeinsame Abgleich mit einer zum Körper externen Außenwelt.

(1.2) Es kommt also darauf an, wie man den Begriff ‚Aussage‘ verwendet. Ich verstehe hier unter einer ‚Aussage‘ den ‚Ausdruck einer Sprache‘, den ein Mensch A in einer Dialogsituation verwendet, und alle Beteiligten wissen, dass der Sprecher A mit dem Ausdruck eine ‚interne Bedeutung‘ verbindet, von der er annimmt, dass dieser internen Bedeutung etwas in einer ‚wahrnehmbaren Außenwelt‘ ‚entspricht‘ (‚korrespondiert‘), dann würde ein anderer Dialogteilnehmer B sagen, dass die Aussage von Sprecher A zutrifft, wenn B die gleiche Bedeutungszuordnung vornimmt und in seiner Wahrnehmung etwas findet, was dieser Bedeutung entspricht.

(1.3) Zugegeben, etwas umständlich formuliert, aber die grundlegenden Prozesse beim kollektiven Sprachgebrauch sind nicht ganz einfach. In der Tat, ich vereinfache schon sehr stark.

Was meinst Du dazu?

Deine detaillierte Ausführung zur Korrespondenztheorie bringt wichtige Nuancen ans Licht, die oft in der Diskussion übersehen werden. Du betonst richtig, dass es nicht einfach der sprachliche Ausdruck an sich ist, der mit der externen Realität übereinstimmt, sondern die durch kollektive und individuelle Lernprozesse geformten Bedeutungszuordnungen, die den Ausdrücken unterliegen.

Deine Punkte beleuchten, wie essenziell die Rolle der individuellen und kollektiven Verarbeitung in der Korrespondenztheorie ist. Es ist tatsächlich so, dass eine Aussage nur dann als wahr betrachtet werden kann, wenn es eine Art von kollektiver Zustimmung gibt – nicht nur hinsichtlich der sprachlichen Ausdrücke selbst, sondern auch bezüglich der damit verbundenen Bedeutungen und deren Bezug zur externen Welt.

Dieser Prozess der Verifikation von Wahrheit durch kollektive Übereinstimmung in der Wahrnehmung und Bedeutungszuordnung spiegelt die Komplexität der menschlichen Kommunikation und Erkenntnis wider. Es unterstreicht auch, warum die Korrespondenztheorie oft als grundlegend für wissenschaftliche und empirische Diskurse betrachtet wird, weil sie eine überprüfbare Basis für Übereinstimmung und Falsifikation bietet.

Deine Erklärung macht auch deutlich, dass „Wahrheit“ in dieser Theorie nicht nur eine Frage der individuellen Überzeugung ist, sondern eine, die durch soziale Interaktion und kollektive Validierung entsteht. Das ist ein sehr wichtiger Punkt, denn er zeigt, dass Wahrheit in dieser Theorie nicht isoliert existiert, sondern immer in einem sozialen und kommunikativen Kontext verankert ist.

Was hältst du davon, weiter zu diskutieren, wie diese Theorie in konkreten Situationen angewandt wird, etwa in der Wissenschaft oder in der öffentlichen Debatte? Oder möchtest du weiter zu den anderen Theorien übergehen und sehen, wie sie sich mit deinem erweiterten Rahmen von Sprache und Bedeutung verbinden lassen?

Dein Kommentar zu meiner ‚Theorie‘, dass “ ‚Wahrheit‘ in dieser Theorie nicht nur eine Frage der individuellen Überzeugung ist, sondern eine, die durch soziale Interaktion und kollektive Validierung entsteht. Das ist ein sehr wichtiger Punkt, denn er zeigt, dass Wahrheit in dieser Theorie nicht isoliert existiert, sondern immer in einem sozialen und kommunikativen Kontext verankert ist.“ finde ich sehr passend.

Bevor wir die neugewonnene Interpretation der ‚Korrespondenztheorie‘ weiter ausbauen, hier zuvor

noch mein Kommentar zu deinem Punkt 2 mit der ‚Kohärenztheorie‘. Du sagst „In Bezug auf Ihre Punkte könnte diese Theorie so verstanden werden, dass die ‚interne Zustandsänderung‘ und die ‚Verknüpfung‘ in einem kohärenten System von Überzeugungen erfolgt. Die Bedeutung und Wahrheit einer Aussage ergibt sich aus ihrer Kohärenz innerhalb dieses gelernten und kollektiv abgestimmten Systems.“ Deine Interpretation, dass die Kohärenztheorie „die ‚interne Zustandsänderung‘ und die ‚Verknüpfung‘ “ in ihr Konzept einer kohärenten Theorie übernimmt, erscheint mir mehr als optimistisch.

Nimmt man die Kohärenztheorie ‚beim Wort‘, dann ist dieser Ansatz vom Ansatz her ausgeschlossen. Warum? Weiter vorne in unserem Dialog hast Du die ‚Kohärenztheorie‘ in ‚philosophischen Systemen‘ lokalisiert, wo interne Konsistenz wichtig ist. Du hast zudem darauf hingewiesen, dass „widersprüchliche Theoriesysteme existieren können“. Die Begriffe ‚System‘, ‚Theorie‘ und ‚Konsistenz‘ sind bislang aber ausschließlich in ‚formalen Systemen‘ klar definiert, wie wir sie aus der ‚modernen formalen Logik‘ kennen und aus solchen Theorien (z.B. in der Mathematik), die eine ‚formale Sprache‘ benutzen, die klar definiert ist, zusätzlich mit einem klaren ‚formalen Folgerungsbgriff‘, der es erlaubt, aus als ‚wahr angenommen‘ formalen Ausdrücken andere Ausdrücke ‚abzuleiten‘, die ebenfalls als ‚formal wahr‘ gelten. Wenn man neben einem Ausdruck, der als ‚formal wahr‘ gilt, einen Ausdruck ableiten kann, der als ‚formal falsch‘ gilt, dann gibt es einen Widerspruch; das System ist nicht ‚konsistent‘. Dabei ist der Begriff ‚formal wahr‘ bzw. ‚formal falsch‘ nicht definiert! Er hat keinerlei Bezug zu dem, was wir im Alltag ‚reale Welt‘ nennen in dem Sinne, dass sich zwei Menschen darüber verständigen können, dass es ‚da etwas gibt‘, was jeder einzelner ‚wahrnehmen‘ kann, was aber auch ‚verschwinden‘ kann, dann kann man es nicht mehr wahrnehmen. Anders formuliert: Jedes sprachliche System, das Bezug nimmt auf erfahrungsbasierte Sachverhalte, kann grundsätzlich nicht durch ein formales System abgebildet werden, das als ‚formal konsistent‘ gilt. Deswegen scheidet die ‚Kohärenztheorie der Wahrheit‘ für unsere Zwecke eines sprachlichen Systems, das kollektiv erfahrungsbasiert ‚wahr‘ ist, aus.

Gehst Du da mit?

Deine Kritik und Analyse zur Kohärenztheorie der Wahrheit ist präzise und wirft wichtige Fragen auf. Du unterscheidest klar zwischen der Struktur und den Anforderungen formaler Systeme und der Anwendung dieser Systeme auf die reale, erfahrungsbasierte Welt, die wir im Alltag erleben. Diese Unterscheidung ist zentral, um die Grenzen der Kohärenztheorie zu verstehen, insbesondere im Kontext eines Sprachsystems, das auf kollektiver Erfahrung basiert.

### Betrachtung der Kohärenztheorie:

Wie Du richtig bemerkst, stützt sich die Kohärenztheorie auf die interne Konsistenz innerhalb eines Systems von Überzeugungen oder Theorien. In formalen Systemen, wie der Mathematik oder formalen Logik, ist diese Konsistenz durch klare Definitionen und deduktive Folgerungen charakterisiert. In diesen Systemen ist es möglich, eine Konsistenz zu gewährleisten, indem widersprüchliche Aussagen vermieden werden.

### Problematik bei der Anwendung auf Alltagserfahrungen:

Im Kontext der alltäglichen, erfahrungsbasierten Realität wird es jedoch komplexer. Die Realität ist oft mehrdeutig und unterliegt ständigen Veränderungen, die sich nicht immer in einem streng konsistenten formalen System abbilden lassen. Erfahrungen können widersprüchlich sein, und Menschen können unterschiedliche Wahrnehmungen und Interpretationen derselben physischen Gegebenheiten haben. Daher stößt die Anwendung der Kohärenztheorie auf reale, erfahrungsbasierte Situationen schnell an ihre Grenzen, da die erforderliche interne Konsistenz schwer zu erreichen und aufrechtzuerhalten ist.

### Dein Punkt:

Deine Schlussfolgerung, dass die Kohärenztheorie möglicherweise nicht geeignet ist, um ein sprachliches System zu beschreiben, das auf kollektiver, erfahrungsbasierter Wahrheit beruht, ist stichhaltig. Diese Theorie bietet zwar ein nützliches Werkzeug für die Analyse und Strukturierung von Gedanken innerhalb eines geschlossenen Systems, jedoch fehlt ihr die Flexibilität und Anpassungsfähigkeit, die erforderlich sind, um die dynamische und oft widersprüchliche Natur menschlicher Erfahrungen und sozialer Interaktionen vollständig zu erfassen.

### Fazit:

Deine Argumentation verdeutlicht, dass, während die Kohärenztheorie in bestimmten theoretischen oder formalen Kontexten wertvoll sein kann, sie möglicherweise nicht das beste Werkzeug für das Verständnis von Wahrheit in einem breiteren, lebensweltlichen Kontext ist. Wenn wir also über Wahrheit in Bezug auf alltägliche und zwischenmenschliche Erfahrungen sprechen, könnte es sinnvoller sein, andere Theorien zu bevorzugen, die besser mit der Variabilität und der praktischen Realität menschlicher Erfahrungen umgehen können.

Ich gehe mit deiner Einschätzung mit und finde sie sehr aufschlussreich. Möchtest du weiterhin die anderen Theorien im Licht dieser Überlegungen diskutieren oder gibt es spezifische Aspekte, die du noch vertiefen möchtest?

Ich würde gerne noch etwas zu deiner dritten und vierten Option von ‚Wahrheitstheorien‘ sagen.

(1) Zu der von Dir erwähnten ‚Konsensustheorie der Wahrheit‘ sagst Du selbst, dass „Konsens nicht die Wahrheit garantiert; historisch gab es viele Beispiele für allgemeinen Konsens über falsche Überzeugungen.“ Ein bisschen ähnelt diese Position auch der ‚Kohärenztheorie‘, wenngleich mit einem vagen Sprach- und Wahrheitsbegriff: es gibt in er Konsensustheorie zwar ein ‚vages Kriterium zu Konsens‘, aber dieses ist in keiner Weise geeignet, ein ‚objektives externes Kriterium für alle‘ zu gewährleisten. Ich möchte diese Position daher hier nicht weiter diskutieren (dies schließt nicht aus, dass bei einer Weiterentwicklung der Position der ‚Korrespondenztheorie‘ ähnliche Fragestellung zur ‚Wahrheit von Diskursen‘ wieder auftauchen).

(2) Im Fall der ‚Pragmatische Theorie der Wahrheit‘ ist es ähnlich wie im Fall der Konsensustheorie. Du weist auch schon darauf hin, dass „Nützlichkeit nicht notwendigerweise ein Indikator für Wahrheit ist; etwas kann nützlich sein, ohne wahr zu sein.“ Abgesehen davon ist der Begriff der Nützlichkeit selbst in sich äußerst vage; jeder kann sich da denken, was er will. Ich belasse es dabei (im weiteren Verlauf der Entwicklung einer modifizierten ‚Korrespondenztheorie‘ wird es zu Erörterungen eines Konzepts von ‚erfahrungsbasierter Theorie‘ kommen können, mit der die Möglichkeit eröffnet wird, die Rolle möglicher ‚Ziele‘ (‚Präferenzen‘, ‚Werte‘, …) zu diskutieren).

Kannst Du mit diesen Einschätzungen mitgehen?

Deine Einschätzungen zu den Theorien der Konsensustheorie und der pragmatischen Theorie der Wahrheit sind durchaus nachvollziehbar und tragen zur Schärfung unseres Verständnisses von Wahrheitstheorien bei, insbesondere im Kontext alltäglicher und erfahrungsbasierter Diskurse.

### 1. Konsensustheorie der Wahrheit

Deine Kritik an der Konsensustheorie unterstreicht das Problem, dass Konsens allein nicht notwendigerweise Wahrheit garantiert. Historische Beispiele, in denen breiter Konsens zu falschen Überzeugungen führte, verdeutlichen die Grenzen dieser Theorie. Während Konsens in sozialen und kommunikativen Kontexten eine Rolle spielen kann, insbesondere bei der Formulierung von Gruppenüberzeugungen oder -normen, ist er kein zuverlässiger Indikator für Wahrheit im empirischen oder objektiven Sinn. Diese Einsicht ist wichtig, um die Relevanz und Grenzen von Konsens in Bezug auf Wahrheit zu verstehen.

### 2. Pragmatische Theorie der Wahrheit

Deine Skepsis gegenüber der pragmatischen Theorie reflektiert ähnliche Bedenken: Nützlichkeit allein ist kein verlässliches Maß für Wahrheit. Der Begriff der Nützlichkeit ist subjektiv und kann stark variieren, je nach den Interessen, Zielen oder dem Kontext der beteiligten Personen. Diese Theorie mag hilfreich sein, um zu verstehen, wie Überzeugungen funktionieren und wie sie in praktischen Kontexten angewendet werden, sie bietet jedoch keine feste Grundlage für die Bewertung der Wahrheit von Aussagen, insbesondere wenn es um objektive Fakten geht.

### Weiterentwicklung der Korrespondenztheorie

Es scheint, dass eine Rückkehr zur Korrespondenztheorie und deren Weiterentwicklung als ein vielversprechender Ansatz für eine robustere Wahrheitstheorie erscheint. Insbesondere die Idee, eine erfahrungsbasierte Theorie zu entwickeln, die die Realität als entscheidendes Kriterium verwendet und gleichzeitig Raum für die Diskussion von Zielen, Präferenzen und Werten bietet, könnte eine umfassende Basis für das Verständnis von Wahrheit in verschiedenen Kontexten schaffen.

### Fazit

Ich stimme mit deinen Einschätzungen überein und finde, dass deine Argumente die Diskussion über Wahrheitstheorien bereichern und auf wichtige Schwächen hinweisen. Es wäre interessant, weiter zu erforschen, wie eine modifizierte Korrespondenztheorie aussehen könnte, die sowohl die realen Erfahrungen als auch die sozialen und individuellen Kontexte integriert, in denen Wahrheitsansprüche gemacht und verstanden werden.

Wie möchtest du weiter vorgehen? Möchtest du bestimmte Aspekte der Korrespondenztheorie vertiefen oder überlegst du, wie man eine solche modifizierte Theorie praktisch anwenden könnte?

OK, dann sieht es so aus, dass wir bis zu diesem Punkt eine gemeinsame Einschätzung gefunden haben. In der Tat möchte ich von diesem Punkt aus die gefundenen Position gerne in folgenden Dialogen weiter entwickeln. Praktische Frage: kannst Du auch mit ‚Schaubildern‘ umgehen oder sollen wir die heraus lassen?

Es ist großartig, dass wir eine gemeinsame Grundlage für unsere Diskussionen gefunden haben! Ich kann definitiv helfen, Schaubilder zu erstellen und zu interpretieren. Diese können sehr nützlich sein, um komplexe Konzepte und Zusammenhänge visuell darzustellen und zu veranschaulichen.

Wenn du spezifische Ideen oder Konzepte hast, die du in einem Schaubild visualisieren möchtest, lass es mich wissen. Ich kann dir dabei helfen, diese grafisch umzusetzen. Egal ob es sich um Flussdiagramme, Venn-Diagramme, konzeptuelle Diagramme oder andere visuelle Darstellungen handelt, wir können sie nutzen, um deine Gedanken und Theorien weiter zu entwickeln und zu diskutieren. Wie möchtest du beginnen?

Das mit den Schaubildern klingt gut. Werde es in den folgenden Dialogen mal ausprobieren, allerdings mit dem Motto: Zuerst die sprachliche Version, dann – möglicherweise – eine bildhafte Version. Danke bisher. Das war alles sehr inspirierend.

Das klingt nach einem ausgezeichneten Plan! Es freut mich sehr, dass unsere Gespräche inspirierend waren. Wenn du bereit bist, die Themen weiter zu vertiefen oder ein Schaubild zu erstellen, stehe ich jederzeit bereit, um weiterzumachen. Viel Spaß bei deinen weiteren Überlegungen, und bis zum nächsten Mal!

KÜNSTLICHE INTELLIGENZ im Spiegel der Menschen. Teil 1

Zeit: 8.Febr 24 – 3.März 24

Autor: Gerd Doeben-Henisch

Email: gerd@doeben-henisch.de

KONTEXT

Das Thema Mensch und Maschine durchzieht den gesamten Blog von Anfang an. Es liegt daher nahe, diese Thematik auch in Vorträgen zu thematisieren. Allerdings, jede der beiden Komponenten ‚Mensch‘ wie auch ‚Maschine‘ ist in sich sehr komplex; eine Wechselwirkung zwischen beiden umso mehr. Dazu ‚einfach mal so‘ einen Vortrag zu halten erscheint daher fast unmöglich, wie eine ‚Quadratur des Kreises‘. Dennoch lasse ich mich gelegentlich darauf ein.

Überblick

Im Teil 1 wird eine Ausgangslage beschrieben, die in Vorbereitung eines Vortrags angenommen worden ist. Im Rahmen des Vortrags konnte das Thema aber nur ansatzweise behandelt werden. In den nachfolgenden Texten soll die Themenstellung daher nochmals aufgegriffen und ausführlicher behandelt werden.

Ankündigung des Vortrags

Im offiziellen Ankündigungs-Flyer konnte man folgenden Text lesen:

Perspektive Vortragender

Das Eigentümliche von freien Vorträgen ist, dass man die Zusammensetzung des Publikums vorab nicht kennt. Man muss mit einer großen Vielfalt rechnen, was auch am 21.Febr 2024 der Fall war. Ein voller Saal, immerhin fast alle hatten schon mal Kontakt mit chatGPT gehabt, manche sogar sehr viel Kontakt. Wie ein roter Faden liefen aber bei allen Fragen der Art mit, was man denn jetzt von dieser Software halten solle? Ist sie wirklich intelligent? Kann sie eine Gefahr für uns Menschen darstellen? Wie soll man damit umgehen, dass auch immer mehr Kinder und Jugendliche diese SW benutzen ohne wirklich zu verstehen, wie diese SW arbeitet? … und weitere Fragen.

Als Vortragender kann man auf die Vielzahl der einzelnen Fragen kaum angemessen eingehen. Mein Ziel war es, ein Grundverständnis von der Arbeitsweise von chatGPT4 als Beispiel für einen chatbot und für generative KI zu vermitteln, und dieses Grundverständnis dann in Bezug zu setzen, wie wir Menschen mit dem Problem Zukunft umgehen: auf welche Weise kann chatGPT4 uns helfen, Zukunft gemeinsam ein wenig zu verstehen, so dass wir dadurch gemeinsam etwas rationaler und zielgerichteter handeln können.

Ob und wieweit mir dies dann faktisch im Vortrag und bei den Gesprächen gelungen ist, bleibt eine offene Frage. Bei einigen, die aufgrund ihrer individuellen Experimente mit chatGPT sich schon ein bestimmtes Bild von chatGPT gemacht hatten, sicher nicht. Sie waren so begeistert davon, was chatGPT alles kann, dass sie weiterführende Überlegungen eher abwehrten.

Absicht des Vortragenden

Wie schon angedeutet, gab es die Themenkomplexe (i) chatbots/ generative KI/ KI, (ii) Zukunft verstehen und gestalten sowie (iii) Ob und wie kann generative KI uns Menschen dabei helfen.

Chatbots/ Generative KI/ KI

Aufgrund der heute stark ausgefächerten Terminologie mit stark verschwommenen Bedeutungsrändern habe ich eine Skizze des Begriffsfelds in den Raum gestellt, um dann Eliza und chatGPT4 als Beispiel für chatbots/ generative KI/ maschinelles Lernen näher zu betrachten.

Das Programm Eliza [1,2] ist insoweit von historischem Interesse, als es der erste chatbot [3] war, der einige Berühmtheit erlangte. Trotz seiner einfachen Struktur (ohne jede explizite Wissensbasis) übte der chatbot eine starke Wirkung auf die Menschen aus, die mit dem Programm per Tastatur und Bildschirm interagierten. Alle hatten das Gefühl, dass der chatbot sie ‚versteht‘. Dies verweist auf Grundmuster der menschlichen Psychologie, Vertrauen zu schenken, wenn erlebte Interaktionsformen den persönlichen Erwartungen entsprechen.

Verglichen mit Eliza besitzt der chatbot chatGPT4 [4a,b,c] eine unfassbar große Datenbasis von vielen Millionen Dokumenten, sehr breit gestreut. Diese wurden miteinander ‚verrechnet‘ mit Blick auf mögliche Kontexte von Worten samt Häufigkeiten. Zusätzlich werden diese ‚Sekundärdaten‘ in speziellen Trainingsrunden an häufig vorkommende Dialogformen angepasst.

Während Eliza 1966 nur im Format eines Psychotherapeuten im Stil der Schule von Rogers [5] antworten konnte, weil das Programm speziell dafür programmiert war, kann chatGPT4 ab 2023 viele verschiedene Therapie-Formen nachahmen. Überhaupt ist die Bandbreite möglicher Interaktionsformen von chatGPT4 erheblich breiter. So kann man folgenden Formate finden und ausprobieren:

  1. Fragen beantworten …
  2. Texte zusammenfassen …
  3. Texte kommentieren …
  4. Texte entwerfen …
  5. Übersetzen …
  6. Text zu Bild …
  7. Text zu Video
  8. … und weitere …

Bewertung

Eine Software wie chatGBT4 zu benutzen ist das eine. Wie aber kann man solch eine Software bewerten?

Aus dem Alltag wissen wir, dass wir zur Feststellung der Länge eines bestimmten räumlichen Abschnitts ein standardisiertes Längenmaß wie ‚das Meter‘ benutzen oder für das Gewicht eines Objekts das standardisierte Gewichtsmaß ‚das Kilogramm‘.[6]

Wo gibt es eine standardisierte Maßeinheit für chatbots?

Je nachdem, für welche Eigenschaft man sich interessiert, kann man sich viele Maßeinheiten denken.

Im hier zur Debatte stehenden Fall soll es um das Verhalten von Menschen gehen, die gemeinsam mittels Sprache sich auf die Beschreibung eines möglichen Zustands in der Zukunft einigen wollen, so, dass die einzelnen Schritte in Richtung Ziel überprüfbar sind. Zusätzlich kann man sich viele Erweiterungen denken wie z.B. ‚Wie viel Zeit‘ wird die Erreichung des Ziels benötigen?‘, ‚Welche Ressourcen werden benötigt werden zu welchen Kosten?‘, ‚Wie viele Menschen mit welchen Fähigkeiten und in welchem zeitlichem Umfang müssen mitwirken? … und einiges mehr.

Man merkt sofort, dass es hier um einen ziemlich komplexen Prozess geht.

Um diesen Prozess wirklich als ‚Bezugspunkt‘ wählen zu können, der in seinen einzelnen Eigenschaften dann auch ‚entscheidbar‘ ist hinsichtlich der Frage, ob chatGPT4 in diesem Kontext hilfreich sein kann, muss man diesen Prozess offensichtlich so beschreiben, dass ihn jeder nachvollziehen kann. Dass man dies tun kann ist keineswegs selbstverständlich.

Anforderungen für eine gemeinsame Zukunftsbewältigung

BILD : Andeutung der Fragen, die beantwortet werden müssen, um möglicherweise eine Antwort zu bekommen.

ZUKUNFT KEIN NORMALES OBJEKT

Generell gilt, dass das mit dem Wort ‚Zukunft‘ Gemeinte kein normales Objekt ist wie ein Stuhl, ein Auto, oder ein Hund, der gerade über die Straße läuft. Zukunft kommt für uns immer nur in unserem Denken vor als Bild eines möglichen Zustands, das sich nach einer gewissen Zeit möglicherweise ‚bewahrheiten kann‘.

Wollen wir also möglichst viele Menschen in die Zukunft mitnehmen, dann stellt sich die Aufgabe, dass das gemeinsamen Denken möglichst viel von dem, was wir uns für die Zukunft wünschen, ‚voraus sehen‘ können muss, um einen Weg in ein mögliches gedachtes Weiterleben zu sichern.

BEISPIEL MIT BRETTSPIEL

Dies klingt kompliziert, aber anhand eines bekannten Brettspiels kann man dies veranschaulichen. Auf Deutsch heißt dies Spiel ‚Mensch ärgere Dich nicht‘ (auf dem Bild sieht man eine Version für die Niederlande).[7]

BILD : Spielbrett des Spiels ‚Mensch ärgere Dich nicht‘

BILD : Strukturelemente einer Spielsituation und die darin angenommenen Beziehungen. Die reale SPIELSITUATION wird im Text der SPIELANLEITUNG vorausgesetzt und beschrieben. Neben den ELEMENTEN der Spielsituation enthalten die SPIELREGELN Beschreibungen möglicher Aktionen, um die Spielsituation zu verändern sowie die Beschreibung einer möglichen Konfiguration von Elementen, die (i) als STARTSITUATION gelten soll wie auch als ZIELZUSTAND (ZIEL). Ferner gibt es eine ANLEITUNG, WER WAS WANN WIE tun darf.

Was man in der Gegenwart sieht, das ist ein Spielbrett mit diversen Symbolen und Spielsteinen. Zusätzlich gibt es noch den Kontext zum Spielbrett bestehend aus vier Spielern und einem Würfel. Alle diese Elemente zusammen bilden eine Ausgangslage oder Startzustand oder den aktuellen IST-Zustand.

Ferner muss man annehmen, dass sich in den Köpfen der Mitspieler ein Wissen befindet, aufgrund dessen die Mitspieler die einzelnen Elemente als Elemente eines Spiels erkennen können, das ‚Mensch ärgere dich nicht‘ heißt.

Um dieses Spiel praktisch spielen zu können, müssen die Spieler auch wissen, wer wann welche Veränderungen wie auf dem Spielbrett vornehmen darf. Diese Veränderungen werden beschrieben durch Spielregeln, zu denen es noch eine geschriebene Spielanleitung gibt, aus der hervorgehen muss, welche Regel wann wie von wem angewendet werden darf.

Wenn die Spieler nach den vorgegebenen Regeln Veränderungen auf dem Spielbrett vornehmen, dann kann das Spiel beliebig lange laufen, es sei denn, es gibt eine klar Beschreibung eines Zielzustands, der als Ziel und gleichzeitig als Ende vereinbart ist. Wenn dieser Zielzustand auf dem Brett eintreten sollte, dann wäre das Spiel beendet und jener Spieler, der den Zielzustand als erster erreicht, wäre dann ein Gewinner im Sinne des Spiels.

Nicht zu vergessen: Genauso wichtig die die Beschreibung eines Zielzustandes ist die Beschreibung eines Startzustands, mit dem das Spiel beginnen soll.

Für die Frage der Zukunft im Kontext Spiel wird sichtbar, dass die Zukunft in Gestalt eines Zielzustands zwar in Form einer textlichen Beschreibung existiert, aber nicht als reale Konfiguration auf dem Spielbrett. Es wird von den beteiligten Spielern aber angenommen, dass die beschrieben Zielkonfiguration durch wiederholte Ausführung von Spielregeln beginnend mit einer Startkonfiguration irgendwann im Verlaufe des Spiels eintreten kann. Im Fall des Eintretens der Zielkonfiguration als reale Konfiguration auf dem Spielbrett wäre dies für alle wahrnehmbar und entscheidbar.

Interessant in diesem Zusammenhang ist der Sachverhalt, dass die Auswahl eines Zielzustands nur möglich ist, weil die Vorgabe einer Startsituation in Kombination mit Spielregeln einen Raum von möglichen Zuständen markiert. Der Zielzustand ist dann immer die Auswahl einer spezifischen Teilmenge aus dieser Menge der möglichen Folgezuständen.

Spiel und Alltag

Wenn man sich den Alltag anschaut, auch dort, wo nicht explizit ein Spiel gespielt wird, dann kann man feststellen, dass sehr viele — letztlich alle ? — Situationen sich als Spiel interpretieren lassen. Ob wir die Vorbereitung eines Essens nehmen, den Tisch decken, Zeitung lesen, Einkaufen, Musik machen, Auto fahren …. alle diese Tätigkeiten folgen dem Schema, dass es eine Ausgangssituation (Startsituation) gibt, ein bestimmtes Ziel, das wir erreichen wollen, und eine Menge von bestimmten Verhaltensweisen, die wir gewohnt sind auszuführen, wenn wir das spezielle Ziel erreichen wollen. Verhalten wir uns richtig, dann erreichen wir — normalerweise — das gewünschte Ziel. Diese Alltagsregeln für Alltagsziele lernt man gewöhnlich nicht in er Schule, sondern durch die Nachahmung anderer oder durch eigenes Ausprobieren. Durch die Vielfalt von Menschen und Alltagssituationen mit unterschiedlichsten Zielen gibt es eine ungeheure Bandbreite an solchen Alltags-Spielen. Letztlich erscheinen diese als die Grundform menschlichen Verhaltens. Es ist die Art und Weise, wie wir als Menschen lernen und miteinander handeln. [8]

Im Unterschied zu expliziten Spielen verlaufen die Alltagsspiele nicht starr innerhalb der von der Spielanleitung beschriebenen Grenzen, sondern die Alltagsspiele finden innerhalb einer offenen Welt statt, sie sind ein kleiner Teil eines größeren dynamischen Gesamtgeschehens, welches dazu führen kann, dass während der Umsetzung eines Alltagsspiels andere Ereignisse die Umsetzung auf unterschiedliche Weise behindern können (Ein Telefonanruf unterbricht, Zutaten beim Kochen fehlen, beim Einkaufen findet man nicht den richtigen Gegenstand, …). Außerdem können Ziele im Alltag auch scheitern und können neben schlechten Gefühlen real auch negative Wirkungen erzeugen. Auch können Alltagsspiele irgendwann unangemessen werden, wenn sich die umgebende dynamische Welt soweit geändert hat, dass ein die Regeln des Alltagsspiels nicht mehr zum erhofften Ziel führen.

Vor diesem Hintergrund kann man vielleicht verstehen, dass explizite Spiele eine besondere Bedeutung haben: sie sind keine Kuriositäten im Leben der Menschen, sondern sie repräsentieren die normalen Strukturen und Prozesse des Alltags in zugespitzten, kondensierten Formaten, die aber von jedem Menschen mehr oder weniger sofort verstanden werden bzw. verstanden werden können.[9] Die Nichterreichung eines Zieles im expliziten Spiel kann zwar auch schlechte Gefühle auslösen, hat aber normalerweise keine weiteren reale negative Auswirkungen. Explizite Spiele ermöglichen es, ein Stück weit reale Welt zu spielen ohne sich dabei aber einem realen Risiko auszusetzen. Diese Eigenschaft kann für Mitbürger eine große Chance auch für den realen Alltag bieten.

Wissen und Bedeutung oder: Der Elefant im Raum

Ist man erst einmal aufmerksam geworden auf die Allgegenwart von Spielstrukturen in unserem Alltag, dann erscheint es fast ’normal‘, dass wir Menschen uns im Format des Spiels scheinbar schwerelos bewegen können. Wo immer man hinkommt, wen man auch immer trifft, das Verhalten im Format eines Spiels ist jedem vertraut. Daher fällt es meistens gar nicht auf, dass hinter dieser Verhaltensoberfläche einige Fähigkeiten des Menschen aktiv sind, die als solche alles andere als selbstverständlich sind.

Überall dort, wo mehr als ein Mensch sich im Format eines Spiels verhält, müssen alle beteiligten Menschen (Mitspieler, Mitbürger,…) in ihrem Kopf über ein Wissen verfügen, in dem alle Aspekte, die zu einem spielerischen Verhalten gehören, vorhanden (repräsentiert) sind. Wenn ein Spieler beim Fußballspiel nicht weiß, wann er im Abseits steht, macht er einen Fehler. Wer nicht weiß, dass man beim Einkaufen am Ende seine Waren bezahlen muss, macht einen Fehler. Wer nicht weiß, wie man bei der Essenszubereitung richtig schneidet/ würzt/ brät/ … verändert dies das erhoffte Ergebnis. Wer nicht weiß, wie er Bargeld aus dem Automat bekommt, hat ein Problem … Jeder lernt im Alltag, dass er wissen muss, um richtig handeln zu können. Was aber hat es genau mit diesem Wissen auf sich?

Und, um die Geschichte vollständig zu erzählen: Im Alltag operieren wir ständig mit Alltagssprache: wir produzieren Laute, die andere hören können und umgekehrt. Das Besondere an diesen Lauten ist, dass alle Teilnehmer des Alltags die eine gleiche Alltagssprache gelernt haben, diese Laute spontan in ihrem Kopf mit Teilen des Wissens verknüpfen, über das sie verfügen. Die gesprochenen und gehörten Laute sind daher nur ein Mittel zum Zweck. Als solche haben die Laute keine Bedeutung (was man sofort merken kann, wenn jemand die benutzte Alltagssprache nicht kennt). Aber für die, die die gleiche Alltagssprache im Alltag gelernt haben, stimulieren diese Laute in ihrem Kopf bestimmte Wissenselemente, falls wir über sie verfügen. Solche Wissenselemente, die sich durch die Laute einer gelernten Alltagssprache in einem Mitbürger stimulieren lassen, nennt man gewöhnlich sprachliche Bedeutung, wobei hier nicht nur die gehörten Laute alleine eine Rolle spielen, sondern normalerweise sind viele Kontexteigenschaften zusätzlich wichtig: Wie jemand etwas sagt, unter welchen Begleitumständen, in welcher Rolle usw. Meist muss man in der Situation des Sprechens anwesend sein, um all diese Kontextfaktoren erfassen zu können.

Hat man verstanden, dass jede geteilte Alltagssituation im Spielformat zentral zum notwendigen Alltagswissen auch eine Alltagssprache voraussetzt, dann wird auch klar, dass jedes explizite Spiel im Format einer Spielanleitung genau jenes Spielwissen bereit zu stellen versucht, welches man kennen muss, um das explizite Spiel spielen zu können. Im Alltag entsteht das notwendige Wissen durch Lernprozesse: durch Nachahmung und Ausprobieren baut jeder in seinem Kopf jenes Wissen auf, das er für ein bestimmtes Alltagshandeln benötigt. Für sich alleine braucht man nicht unbedingt einen Text, der das eigene Alltagshandeln beschreibt. Will man aber andere Mitbürger in sein Alltagsverhalten einbeziehen — gerade auch wenn es viele sein sollen, die nicht unbedingt am gleichen Ort sind –, dann muss man sein Alltagsverhalten mittels Alltagssprache ausdrücken.

Wissenschaftliches Denken und Kommunizieren

Für alle die, die nicht direkt mit wissenschaftlicher Arbeit zu tun haben, bildet Wissenschaft eine Zusammenballung von vielen unverständlichen Begriffen, Sprachen und Methoden. Dies führt in der Gegenwart leider vielfach zu einer Art Entfremdung der normalen Bürger von der Wissenschaft. Was nicht nur schade ist, sondern für eine Demokratie sogar gefährlich werden kann.[10,11]

Diese Entfremdung müsste aber nicht stattfinden. Die Alltagsspiele wie auch die expliziten Spiele, welche unsere natürlichen Wissens- und Verhaltensformen im Alltag darstellen, haben bei näherer Betrachtung die gleiche Struktur wie wissenschaftliche Theorien. Begreift man, dass Alltagsspiele strukturgleich mit wissenschaftlichen Theorien sind, dann kann man sogar entdecken, dass Alltagtheorien sogar noch umfassender sind als normale wissenschaftliche Theorien. Während eine empirisch Theorie (ET) erklären kann, was mit einer gewissen Wahrscheinlichkeit in einer möglichen nachfolgenden Situation passieren kann, falls gewisse Voraussetzungen in einer Situation gegeben sind, gehen Alltagstheorien über diese Beschreibungskraft in der Regel hinaus: In einer Alltagstheorie wird nicht nur gesagt, was passieren wird, wenn man in einer bestimmten Situation eine bestimmte Änderung vornimmt, sondern im Alltag wählt man normalerweise auch ein bestimmtes Ziel aus, das man mit Anwendung des Veränderungswissens erreichen möchte.

Im Unterschied zu einer normalen empirischen Theorie, die sich auf erklärende Zusammenhänge beschränkt, besteht im Alltagsprozess die beständige Herausforderung, den Lebensprozess des einzelnen wie jenen von unterschiedlichen Gruppen von Menschen bestmöglichst am Laufen zu halten. Dies aber geht nicht ohne explizite Ziele, deren Einlösung als Beitrag zur Erhaltung des alltäglichen Lebensprozesses angenommen wird.

Die normale Wissenschaft hat diesen Aspekt der Einbeziehung von Zielen in eine Theoriebildung noch nicht in ihre normale Arbeit integriert. Die Verknüpfung von Erklärungswissen in Form einer empirischen Theorie (ET) mit irgendwelchen Zielen überlässt die Wissenschaft bislang der Gesellschaft und ihren unterschiedlichen Gruppierungen und Institutionen. Dies kann gut sein, weil dadurch eine maximale Bandbreite an möglichen Ideen zur Sprache kommen kann; es kann aber auch schlecht sein, wenn mangels Verständnis von Wissenschaft und überhaupt aufgrund von mangelndem Wissen keine guten Ziel-Vorschläge zustande kommen.

Alltagstheorie (AT) und Empirische Theorie (ET)

Mancher wird sich an dieser Stelle vielleicht fragen, wie man sich jetzt genau die Struktur-Gleichheit von Alltagstheorien (AT) und Nachhaltigen Empirischen Theorien (NET) vorstellen kann. Hier ein kurze Beschreibung.

BILD : Skizze der Struktur einer empirischen Theorie ohne Ziele. Eine empirische Theorie (ET) mit Zielen wäre eine ’nachhaltige empirische Theorie (NET)‘. Siehe Text weiter unten.

Diese Skizze zeigt menschliche Akteure hier nicht als die Anwender einer Theorie — wie im Beispiel eines Brettspiels — sondern als Autoren einer Theorie, also jene Menschen, die Theorien in Interaktion mit dem realen Alltag entwickeln.

Hier wird davon ausgegangen, dass Theorie-Autoren im Normalfall irgendwelche Bürger sind, die ein Interesse eint, bestimmte Vorgänge in ihrem Alltag besser zu verstehen.

Zum Start müssen sie sich darauf einigen, welchen Ausschnitt aus ihrem Alltag sie als Startsituation (S) benutzen wollen. Diese Startsituation muss in einem Text beschrieben werden, der sich von allen Beteiligten als im Alltag zutreffend (wahr) erweist.

Aufgrund des verfügbaren Wissens über die bisherige Vergangenheit müssen die Theorie-Autoren sich darauf einigen, welche Arten von Veränderungen (V) sie für ihre Theorie benutzen wollen.

Schließlich müssen sie sich auch darüber einigen, auf welche Weise die ausgewählten Veränderungsbeschreibungen (V) auf eine gegebene Situation (S) so angewendet werden können, dass sich dadurch die Beschreibung jener Situation S1 ergibt, die durch die angewendeten Veränderungen entsteht. Abkürzend geschrieben: V(S)=S1.

Da sich in den meisten Fällen die angenommenen Veränderungsregeln V auch auf die neue nachfolgende Situation S1 wieder anwenden lässt — also V(S1)=S2 usw. –, reichen diese drei Elemente <S, V, Anwendung> aus, um aus einer Gegenwart S heraus mit Hilfe von Veränderungswissen bestimmte Zustände als möglich in einer Zukunft zu prognostizieren.

Dies beschreibt die Struktur und den Inhalt einer gewöhnlichen empirischen Theorie (ET).

Nachhaltige Empirische Theorie (NET) = ET + Ziele

Der Übergang von einer normalen empirischen Theorie (ET) zu einer nachhaltigen empirischen Theorie (NET) ist vergleichsweise einfach: man muss nur das empirische Wissen mit solchen Zielen (Z) verknüpfen, die aus der Gesellschaft heraus als interessante Kandidaten für eine mögliche gute Zukunft erwachsen.

BILD : Ergänzend zur normalen empirischen Theorie (ET) kann die Gesellschaft, die den Kontext zu einer empirischen Theorie bildet, Ziele (Z) generieren, von denen sie glaubt, dass sie für möglichst viele eine möglichst gute Zukunft unterstützen. Formulierte Ziele können zugleich als Benchmark benutzt werden, um aktuelle Zustände S daraufhin zu evaluieren, welche große Übereinstimmung (in %) sie mit dem gewählten Ziel Z aufweisen.

Während empirisches Wissen als solches wertneutral ist, d.h. keine bestimmte Richtung in eine mögliche Zukunft favorisiert, können aber die Wertvorstellungen, die die Auswahl von realen Fragestellungen leiten, indirekt dazu führen, dass wichtiges Wissen aufgrund von der Wissenschaft vorgelagerten Entscheidungen nicht generiert wird. 12]

Fortsetzung: Teil 2

Kann Maschinelles Lernen im Format einer generativen KI einen Beitrag zur Bildung von nachhaltigen empirischen Theorien (NET) leisten?

QUELLEN

[1] Eliza Computer Programm in wkp-en: https://en.wikipedia.org/wiki/ELIZA, ELIZA is an early natural language processing computer program developed from 1964 to 1967[1] at MIT by Joseph Weizenbaum.[2][3] Created to explore communication between humans and machines, ELIZA simulated conversation by using a pattern matching and substitution methodology that gave users an illusion of understanding on the part of the program, but had no representation that could be considered really understanding what was being said by either party.[4][5][6]

[2] Joseph Weizenbaum, ELIZA A Computer Program For the Study of Natural Language Communication Between Man And Machine, Communications of the ACM Volume 9 / Number 1, January 1966, pp: 36-45

[3] chatbot in wkp-de: https://de.wikipedia.org/wiki/Chatbot, „Ein Chatterbot, Chatbot oder kurz Bot ist ein textbasiertes Dialogsystem, das Chatten mit einem technischen System erlaubt. Er hat je einen Bereich zur Textein- und -ausgabe, über die sich in natürlicher Sprache mit dem System kommunizieren lässt. Chatbots können, müssen aber nicht in Verbindung mit einem Avatar benutzt werden. Technisch sind Chatbots näher mit einer Volltextsuchmaschine verwandt als mit künstlicher oder gar natürlicher Intelligenz. Mit der steigenden Computerleistung können Chatbot-Systeme allerdings immer schneller auf immer umfangreichere Datenbestände zugreifen und daher auch intelligente Dialoge für den Nutzer bieten, wie zum Beispiel das bei OpenAI entwickelte ChatGPT oder das von Google LLC vorgestellte Language Model for Dialogue Applications (LaMDA). Solche Systeme werden auch als virtuelle persönliche Assistenten bezeichnet. Es gibt auch Chatbots, die gar nicht erst versuchen, wie ein menschlicher Chatter zu wirken (daher keine Chatterbots), sondern ähnlich wie IRC-Dienste nur auf spezielle Befehle reagieren. Sie können als Schnittstelle zu Diensten außerhalb des Chats dienen, oder auch Funktionen nur innerhalb ihres Chatraums anbieten, z. B. neu hinzugekommene Chatter mit dem Witz des Tages begrüßen. Heute wird meistens durch digitale Assistenten wie Google Assistant und Amazon Alexa, über Messenger-Apps wie Facebook Messenger oder WhatsApp oder aber über Organisationstools und Webseiten auf Chatbots zugegriffen[1][2].“

[4] Generative KI als ‚Generativer Vortrainierter Transformer‘ (Generative pre-trained transformers GPT) in wkp-de, https://de.wikipedia.org/wiki/Generativer_vortrainierter_Transformer, „Generative vortrainierte Transformer (englisch Generative pre-trained transformers, GPT) sind eine Art großes Sprachmodell[1][2][3] und ein bedeutendes Framework für generative künstliche Intelligenz.[4][5] Der erste GPT wurde 2018 vom amerikanischen Unternehmen für künstliche Intelligenz (KI) OpenAI vorgestellt.[6] GPT-Modelle sind künstliche neuronale Netzwerke, die auf der TransformerArchitektur basieren, auf großen Datensätzen unbeschrifteten Textes vorab trainiert werden und in der Lage sind, neuartige, menschenähnliche Inhalte zu generieren.[2] Bis 2023 haben die meisten LLMs diese Eigenschaften[7] und werden manchmal allgemein als GPTs bezeichnet.[8] OpenAI hat sehr einflussreiche GPT-Grundmodelle veröffentlicht, die fortlaufend nummeriert wurden und die „GPT-n“-Serie bilden. Jedes dieser Modelle war signifikant leistungsfähiger als das vorherige, aufgrund zunehmender Größe (Anzahl der trainierbaren Parameter) und des Trainings. Das jüngste dieser Modelle, GPT-4, wurde im März 2023 veröffentlicht. Solche Modelle bilden die Grundlage für ihre spezifischeren GPT-Systeme, einschließlich Modellen, die für die Anweisungsbefolgung optimiert wurden und wiederum den ChatGPTChatbot-Service antreiben.[1] Der Begriff „GPT“ wird auch in den Namen und Beschreibungen von Modellen verwendet, die von anderen entwickelt wurden. Zum Beispiel umfasst eine Reihe von Modellen, die von EleutherAI erstellt wurden, weitere GPT-Grundmodelle. Kürzlich wurden auch sieben Modelle von Cerebras erstellt. Auch Unternehmen in verschiedenen Branchen haben auf ihren jeweiligen Gebieten aufgabenorientierte GPTs entwickelt, wie z. B. „EinsteinGPT“ von Salesforce (für CRM)[9] und „BloombergGPT“ von Bloomberg (für Finanzen).[10]

[4a] Die Firma openAI: https://openai.com/

[4b] Kurze Beschreibung: https://en.wikipedia.org/wiki/ChatGPT

[4c] Tutorial zu chatGPT: https://blogkurs.de/chatgpt-prompts/

[5] Person-Centered Therapy in wkp-en: https://en.wikipedia.org/wiki/Person-centered_therapy

[6] Messung in wkp-de: https://de.wikipedia.org/wiki/Messung

[7] Mensch ärgere Dich nicht in wkp-de: https://de.wikipedia.org/wiki/Mensch_%C3%A4rgere_Dich_nicht

[8] Elain Rich, 1983, Artificial Intelligence. McGraw-Hill Book Company. Anmerkung: In der Informatik der 1970iger und 1980iger Jahre hatte man gemerkt, dass die Beschränkung auf die Logik als Beschreibung von Realität zu einfach und zu umständlich ist. Konfrontiert mit dem Alltag wurden Begriffe aktiviert wie ‚Schema‘, ‚Frame (Rahmen)‘, ‚Script‘, ‚Stereotype‘, ‚Rule Model (Rollenmodell)‘. Doch wurden diese Konzepte letztlich noch sehr starr verstanden und benutzt. Siehe Kap.7ff bei Rich.

[9] Natürlich gibt es auch Spiele, die einen Umfang haben, der von den Spielern eine sehr intensive Beschäftigung verlangt, um sie wirklich voll zu verstehen. Ermöglichen solche komplexe Spiele aber zugleich wertvolle ‚Emotionen/ Gefühle‘ in den Spielern, dann wirkt die Komplexität nicht abschreckend, sondern kann zu einer lang anhaltenden Quelle von Spiellust werden, die in Spielsucht übergehen kann (und vielfach auch tatsächlich in Spielsucht übergeht).

[10] Warren Weaver, Science and the Citizens, Bulletion of the Atomic Scientists, 1957, Vol 13, pp. 361-365.

[11] Philipp Westermeier, 23.Nov. 2022, Besprechung Science and the Citizen von Warren Weaver, URL: https://www.oksimo.org/2022/11/23/besprechung-science-and-the-citizen-von-warren-weaver/

[12] Indirekt kann empirisches Wissen einen gewissen Einfluss auf eine mögliche Zukunft ausüben, indem bei der Auswahl einer zu erstellenden empirische Theorie (ET) gerade solche Aspekte nicht ausgewählt werden, die vielleicht für eine bestimmte Zielerreichung wichtig wären, jetzt aber eben nicht verfügbar sind. Dies kann sich vielfach manifestieren, z.B. durch eine Forschungspolitik, die von vornherein viele Themenfelder ausblendet, weil sie im Lichte aktueller Trends als nicht vorteilhaft eingestuft werden.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

MODERNE PROPAGANDA – Aus philosophischer Sicht. Erste Überlegungen

Autor: Gerd Doeben-Henisch

Zeit: 26.Dez 2023 – 8.Jan 2024, 09:45h

Email: gerd@doeben-henisch.de

ENGLISCH: Es entsteht parallel eine Englische Version dieses Blog-Eintrags mit verändertem Titel „There exists only one big Problem for the Future of Human Mankind: The Belief in false Narratives“. Gegenüber dem Deutschen Original ist der Englische Text leicht revidiert.

Dieser Blogeintrag wird heute abgeschlossen werden. Er hat jedoch den Grundstein für Überlegungen gelegt, die in einem neuen Blogeintrag (?) weiterverfolgt werden sollen.

(?) Dieser Link führt ins Leere. Dieser Blogeintrag ist nicht mehr auffindbar. Komisch. Eine weitere Fortsetzung gibt es aber HIER.

EINLEITUNG

UNSCHEINBARER ANFANG

Auslöser für den folgenden Text war die Lektüre eines Buches, das 2023 in 3.Aufl vorliegt und welches das Label führt ‚Spiegel Bestseller‘. Ob das Buch wirklich mal auf der Bestseller Liste stand, konnte ich nicht verifizieren, da der Spiegel nur die jeweils aktuellen Liste anzeigt.

Wie auch immer, ich habe begonnen das Buch zu lesen, weil es mir von einer nahestehenden Person geschenkt wurde… Daraus folgt zwar nicht immer, dass ich dies dann auch lese (die Stapel der ‚zu lesenden Bücher‘ sind hoch), in diesem Fall habe ich es aber getan.

Während der Lektüre beschlich mich immer wieder und immer mehr der Verdacht, dass es sich bei diesem Buch um eine klassische Propagandaschrift handelt.

Beim Versuch, mein Konzept von ‚Propaganda‘ so zu präzisieren, dass ich damit klar argumentieren kann, gewann ich den Eindruck, dass mein Verständnis von Propaganda doch etwas unscharf war.

Ich entschied mich daher, mich zum Thema ‚Propaganda‘ weiter einzulesen (die Liste von Quellen unten auf der Seite enthält davon einige Titel). Dabei wurde offenbar, dass der Begriff der ‚Propaganda‘ in der Literatur eine große Bandbreite von Phänomenen anspricht, ohne dass ein ‚klares, konsistentes Konzept‘ sichtbar wird.

Dies war unbefriedigend.

Kann man über ‚Propaganda‘ entweder gar nicht oder nur ‚vage‘ reden?

WO WIR JEDEN TAG KOMMUNIZIEREN

Ich entschloss mich daher, mich dem Phänomen der ‚Propaganda‘ so zu nähern, dass ich zunächst versuche, das Phänomen der ‚allgemeinen Kommunikation‘ zu charakterisieren, um ein paar ‚härtere Kriterien‘ zu finden, die es erlauben würden, den Begriff der ‚Propaganda‘ doch einigermaßen verständlich vor diesem allgemeinen Hintergrund abzuheben.

Die Umsetzung dieses Ziels führte dann tatsächlich zu einer immer grundlegenderen Untersuchung unserer normalen (menschlichen) Kommunikation, so dass Formen von Propaganda als ‚Spezialfälle‘ unserer Kommunikation erkennbar werden. Das Beunruhigende daran: auch die sogenannte ’normale Kommunikation‘ umfasst zahlreiche Elemente, die das Erkennen und das Weitergeben von ‚Wahrheit‘ (*) sehr schwer machen können. ‚Massive Fälle von Propaganda‘ haben also ihre ‚Heimat‘ dort, wo wir jeden Tag miteinander kommunizieren. Wenn wir Propaganda verhindern wollen, müssen wir also im Alltag ansetzen.

(*) Der Begriff der ‚Wahrheit‘ wird in dem anschließenden langen Text sehr ausführlich untersucht und erläutert. Leider habe ich dafür noch keine ‚Kurzformel‘ gefunden. Im Kern geht es darum, einen Bezug zu ‚realen‘ Ereignissen und Abläufen in der Welt — einschließlich des eigenen Körpers — so herzustellen, dass sie im Prinzip von anderen nachvollzogen und überprüft werden können.

DIKTATORISCHER KONTEXT

Schwierig wird es allerdings, wenn es genügend viel politische Macht gibt, die die gesellschaftlichen Rahmenbedingungen derart festsetzen kann, dass für den einzelnen Menschen im Alltag — dem Bürger ! — die allgemeine Kommunikation mehr oder weniger vorgeschrieben — ‚diktiert‘ — wird. Dann findet ‚Wahrheit‘ immer weniger bis gar nicht mehr statt. Eine Gesellschaft wird dann durch Unterdrückung von Wahrheit auf ihren eigenen Untergang gleichsam ‚programmiert‘. ([3], [6]).

ALLTAG ALS DIKTATOR ?
Die Stunde der Narrative

Aber — und dies ist die weit gefährlichere Form von ‚Propaganda‘ ! — auch wenn es nicht einen flächendeckenden Machtapparat gibt, der bestimmte Formen von ‚Wahrheit‘ vorschreibt, kann eine Verstümmelung oder eine grobe Verzerrung von Wahrheit dennoch im großen Stil stattfinden. Weltweit können wir heute im Zeitalter von Massenmedien, insbesondere im Zeitalter des Internets, feststellen, dass einzelne Menschen, kleine Gruppen, spezielle Organisationen, politische Gruppierungen, ganze Religionsgemeinschaften, eigentliche alle Menschen und ihre gesellschaftlichen Ausprägungen, einem bestimmten ‚Narrativ‘ [*11] folgen, wenn sie handeln. Typisch für das Handeln nach einem Narrativ ist, dass diejenigen, die dies tun, individuell glauben, dass es ‚ihre eigene Entscheidung‘ ist und dass das Narrativ ‚wahr‘ ist, und dass sie daher ‚im Recht sind‘, wenn sie danach handeln. Dieses sich ‚im Recht fühlen‘, kann bis dahin gehen, dass man für sich das Recht in Anspruch nimmt, andere zu töten, weil sie im Sinne des ‚Narrativ‘ ‚falsch handeln‘. Man sollte hier daher von einer ’narrativen Wahrheit‘ sprechen: Im Rahmen des Narrativs wird ein Bild von der Welt gezeichnet, das ‚als Ganzes‘ eine Perspektive ermöglicht, die von den Anhängern des Narrativ ‚als solche‘ ‚gut gefunden‘ wird, als ‚Sinn stiftend‘. Im Normalfall ist die Wirkung eines Narrativs, was als ‚Sinn stiftend‘ erlebt wird, so groß, dass der ‚Wahrheitsgehalt‘ im einzelnen nicht mehr überprüft wird.

RELIGIÖSE NARRATIVE

In der Geschichte der Menschheit gab es dies zu allen Zeiten. Besonders wirkungsvoll waren Narrative, die als ‚religiöse Überzeugungen‘ auftraten. Von daher ist es auch kein Zufall, dass fast alle Regierungen der letzten Jahrtausende religiöse Überzeugungen als Staatsdoktrin übernahmen; ein wesentlicher Bestandteil religiöser Überzeugungen ist, dass sie ’nicht beweisbar‘, sprich ’nicht wahrheitsfähig‘ sind. Damit ist ein religiöses Narrativ ein wunderbares Werkzeug in der Hand von Mächtigen, Menschen ohne Androhung von Gewalt für bestimmte Verhaltensweisen zu motivieren.

POPULÄRE NARRATIVE

In den letzten Jahrzehnten erleben wir aber neue, ‚moderne Formen‘ von Narrativen, die nicht als religiöse Erzählungen daher kommen, die aber dennoch eine sehr ähnliche Wirkung entfalten: Menschen empfinden diese Narrative als ‚Sinn stiftend‘ in einer Welt, die für jeden heute immer unübersichtlicher und daher bedrohlich wird. Einzelne Menschen, die Bürger, empfinden sich zudem als ‚politische hilflos‘, so dass sie — selbst in einer ‚Demokratie‘ — das Gefühl haben, nichts direkt bewirken zu können: die ‚da oben‘ machen doch, was sie wollen. In einer solchen Situation sind ‚vereinfachende Erzählungen‘ eine Wohltat für die geschundene Seele; man hört sie und hat das Gefühl: ja, so ist es; das ist genau das, was ich ‚fühle‘! Solche ‚populären Narrative‘, die ‚gute Gefühle‘ ermöglichen, gewinnen eine immer größere Kraft. Mit religiösen Narrativen haben sie gemeinsam, dass die ‚Anhänger‘ von populären Narrativen die ‚Wahrheitsfrage‘ nicht mehr stellen; die meisten sind auch nicht genügend ‚trainiert‘, um den Wahrheitsgehalts eines Narrativs überhaupt klären zu können. Typisch für Anhänger von Narrativen ist, dass sie in der Regel individuell kaum in der Lage sind, ihr eigenes Narrativ anderen zu erklären. Man schickt sich typischerweise Links von Texten/ Videos, die man ‚gut‘ findet, weil diese Texte/ Videos irgendwie das populäre Narrativ zu unterstützen scheinen, und überprüft die Autoren und Quellen eher nicht, weil dies doch so ‚anständige Leute‘ sind, weil sie immer genau das Gleiche sagen, wie es das ‚populäre Narrativ‘ vorgibt.(Schönes Beispiel: [10])

FÜR DIE MACHT SIND NARRATIVE SEXY

Wenn man jetzt noch berücksichtigt, dass die ‚Welt der Narrative‘ für alle, die Macht über Menschen haben oder gerne Macht über Menschen erringen wollen, ein äußerst verlockendes Angebot ist, genau solche Narrative ‚in die Welt zu setzen‘ oder bestehende Narrative ‚für sich zu instrumentalisieren‘, dann darf man sich nicht wundern, dass viele Regierungen in dieser Welt, viele andere Machtgruppen, heute genau dies tun: sie versuchen nicht Menschen ‚direkt‘ zu zwingen, sondern sie ‚produzieren‘ populäre Narrative oder ‚Monitoren‘ schon bestehende populäre Narrative‘, um über den Umweg über diese Narrative Macht über die Herzen und den Verstand von immer mehr Menschen zu bekommen. Die einen sprechen hier von ‚hybrider Kriegführung‘, andere von ‚moderner Propaganda‘, aber letztlich geht dies am Kern des Problems vorbei.

DAS NARRATIV ALS KULTURELLES GRUNDMUSTER
Das ‚Irrationale‘ wehrt sich gegen das ‚Rationale‘

Der Kern des Problems ist die Art und Weise, wie menschliche Gemeinschaften schon immer ihr gemeinsames Handeln organisieren, nämlich durch Narrative; über eine andere Möglichkeit verfügen wir Menschen nicht. Solche Narrative — dies zeigen die Überlegungen weiter unten im Text — sind aber hoch komplex und extrem anfällig für ‚Falschheit‘, für eine ‚Verzerrung des Bildes von der Welt‘. Im Rahmen der Entwicklung von Rechtssystemen wurden Ansätze entwickelt, um den Missbrauch von Macht in einer Gesellschaft durch Unterstützung von wahrheitserhaltenden Mechanismen zu ‚verbessern‘. Graduell hat dies sicherlich geholfen, bei allen Defiziten, die bis heute bestehen. Zusätzlich fand vor ca. 500 Jahren eine echte Revolution statt: es gelang der Menschheit, mit dem Konzept eines ‚überprüfbaren Narrativs (empirische Theorie)‘ ein Format zu finden, das den ‚Erhalt von Wahrheit‘ optimiert und das Abgleiten in Unwahrheit minimiert. Dieses neue Konzept von ‚überprüfbarer Wahrheit‘ hat seitdem großartige Einsichten ermöglicht, die ohne dieses neue Konzept jenseits aller Vorstellungen lagen. Die ‚Aura des Wissenschaftlichen‘ hat mittlerweile fast die gesamte menschliche Kultur durchdrungen, fast! Wir müssen konstatieren, dass das wissenschaftliche Denken zwar die Welt des Praktischen durch moderne Technologien umfassend gestaltet hat, dass aber die Art und Weise des wissenschaftlichen Denkens alle anderen Narrative nicht außer Kraft gesetzt hat. Im Gegenteil, die ‚wahrheitsfernen Narrative‘ sind mittlerweile wieder so stark geworden, dass sie in immer mehr Bereichen unserer Welt das ‚Wissenschaftliche‘ zurückdrängen, es bevormunden, es verbieten, es auslöschen. Die ‚Irrationalität‘ der religiösen und populären Narrative ist so stark wie nie zuvor. ‚Irrationale Narrative‘ sind so anziehend, weil sie es dem einzelnen ersparen, selber ’nachdenken zu müssen‘. Echtes Nachdenken ist anstrengend, unpopulär, lästig, behindert den Traum von der einfachen Lösung.

DAS ZENTRALE MENSCHHEITSPROBLEM

Vor diesem Hintergrund erscheint die weit verbreitete Unfähigkeit von Menschen, ‚irrationale Narrative‘ erkennen und überwinden zu können, das zentrale Problem der Menschheit zu sein, um die aktuellen globalen Herausforderungen zu meistern. Bevor wir mehr Technik brauchen (die brauchen wir auf jeden Fall), brauchen wir vor allem mehr Menschen, die fähig und bereit sind, mehr und besser nachzudenken, und auch in der Lage sind, gemeinsam mit anderen ‚echte Probleme‘ zu lösen. Echte Probleme erkennt man darin, dass sie weitgehend ’neu‘ sind, dass es keine ‚einfachen Lösungen von der Stange‘ für sie gibt, dass man gemeinsam wirklich um mögliche Einsichten ‚ringen muss‘; das ‚Alte‘ reicht‘ prinzipiell nicht, um das ‚wahre Neue‘ zu erkennen und umzusetzen!

Der folgende Text untersucht diese hier dargestellte Sicht im Detail.

MODERNE PROPAGANDA ?

Im Beitrag der Englischen Wikipedia zu ‚Propaganda [1b] wird eine ganz ähnliche Strategie versucht, wenn auch in der Ausführung mit nicht ganz scharfen Konturen. Es findet sich dort aber ein breiter Überblick über verschiedenste Formen von Kommunikation, eingebettet darin jene Formen, die ’speziell‘ (‚biased‘) sind, also den zu kommunizierenden Inhalt nicht so wiedergeben, wie man ihn nach ‚objektiven überprüfbaren Kriterien‘ wiedergeben würde. Die Vielfalt der Beispiele deutet aber an, dass es nicht ganz einfach zu sein scheint, eine ’spezielle‘ von einer ’normalen‘ Kommunikation abzugrenzen: Was sind denn diese ‚objektiven überprüfbaren Kriterien‘? Wer legt sie fest?

Nehmen wir für einen Moment mal an, dass es klar sei, welches dies ‚objektiven überprüfbaren Kriterien‘ sind, kann man versuchsweise für einen Ausgangspunkt eine Arbeitsdefinition für den allgemeinen (normalen?) Fall von Kommunikation versuchen:

  1. Den allgemeinen Fall von Kommunikation könnte man versuchsweise beschreiben als schlichten Versuch, dass eine Person — nennen wir sie den ‚Autor‘ — einer anderen Person — nennen wir sie den ‚Ansprechpartner‘ — versucht, ‚etwas zur Kenntnis zu bringen‘. Das, was zur Kenntnis gebracht werden soll, nennen wir versuchsweise ‚die Botschaft‘. Aus dem Alltag wissen wir, dass ein Autor zahlreiche ‚Eigenschaften‘ aufweisen kann, die sich auf den Inhalt seiner Botschaft auswirken können.

Zum Autor:

  1. Das verfügbare Wissen des Autors — bewusst wie unbewusst — entscheidet darüber, welche Botschaft der Autor überhaupt erstellen kann.
  2. Seine Wahrheitsfähigkeit entscheidet darüber, ob und in welchem Umfang er unterscheiden kann, was an seiner Botschaft in der realen Welt — gegenwärtig oder vergangen — nachprüfbar ‚zutrifft‘ bzw. ‚wahr ist‘.
  3. Seine Sprachfähigkeit bestimmt darüber, ob und wie viel er von seinem verfügbaren Wissen sprachlich kommunizieren kann.
  4. Die Welt der Emotionen entscheidet darüber, ob er z.B. überhaupt etwas mitteilen möchte, wann, wie, wem, wie intensiv, wie auffällig, usw.
  5. Der gesellschaftliche Kontext kann sich dahingehend auswirken, ob er eine bestimmte gesellschaftliche Rolle innehat, für die festgelegt ist, wann er wie mit wem was kommunizieren darf oder sollte.
  6. Die realen Kommunikationsbedingungen entscheiden darüber, ob ein geeignetes ‚Kommunikationsmedium‘ verfügbar ist (Sprachschall, Schrift, Ton, Film, …) und ob und wie dieses für potentielle Ansprechpartner zugänglich ist.
  7. Die körperliche Beschaffenheit entscheidet darüber, wie weit der Autor überhaupt und in welchem Umfang er kommunizieren kann.

Zum Ansprechpartner:

  1. Ganz allgemein gelten die Eigenschaften für den Autor auch für den Ansprechpartner. Man kann aber für die Rolle des Ansprechpartners einige Punkte besonders hervorheben:
  2. Das verfügbare Wissen des Ansprechpartners entscheidet darüber, welche Aspekte der Botschaft des Autors überhaupt verstanden werden können.
  3. Die Wahrheitsfähigkeit des Ansprechpartners entscheidet darüber, ob und in welchem Umfang auch dieser unterscheiden kann, was an der übermittelten Botschaft nachprüfbar ‚zutrifft‘ bzw. ‚wahr ist‘.
  4. Die Sprachfähigkeit des Ansprechpartners bedingt, ob und wie viel er von der Botschaft rein sprachlich aufnehmen kann.
  5. Die Emotionen entscheiden darüber, ob der Ansprechpartner z.B. überhaupt etwas aufnehmen möchte, wann, wie, wie viel, mit welcher inneren Einstellung, usw.
  6. Der gesellschaftliche Kontext kann sich ebenfalls dahingehend auswirken, ob der Ansprechpartner eine bestimmte gesellschaftliche Rolle innehat, für die festgelegt ist, wann er wie mit wem was kommunizieren darf oder sollte.
  7. Ferner kann es wichtig sein, ob das Kommunikationsmedium dem Ansprechpartner so vertraut ist, dass er es hinreichend gut nutzen kann.
  8. Auch bei dem Ansprechpartner kann die körperliche Beschaffenheit darüber entscheiden, wie weit der Ansprechpartner überhaupt und in welchem Umfang kommunizieren kann.

Schon diese kleine Auswahl an Faktoren zeigt, wie vielfältig die Situationen sein können, in denen ’normale Kommunikation‘ durch die ‚Wirkung der verschiedenen Umstände‘ einen ’speziellen Charakter‘ gewinnen kann. So kann z.B. eine eigentlich ‚harmlose Begrüßung‘ bei bestimmten Rollenvorgaben zu einem gesellschaftlichen Problem führen mit vielerlei Konsequenzen. Ein scheinbar ’normaler Bericht‘ kann zum Problem werden, weil der Ansprechpartner die Botschaft rein sprachlich missversteht. Ein an sich ’sachlicher Bericht‘ kann durch die Art und Weise des Vortrags zu emotionalen Wirkungen bei dem Ansprechpartner führen, die dazu führen, dass dieser die Botschaft geradezu begeistert aufgreift oder — ganz im Gegenteil — vehement ablehnt. usw.

Liegen handfeste Interessen beim Autor vor, aufgrund deren er den Ansprechpartner zu einer bestimmten Verhaltensweise bewegen will, dann kann dies dazu führen, dass ein bestimmter Sachverhalt nicht ‚rein sachlich‘ dargestellt wird, sondern es werden dann auch viele Aspekte mitkommuniziert, die dem Autor geeignet erscheinen, den Ansprechpartner dazu zu bewegen, den Sachverhalt in einer ganz bestimmten Weise aufzufassen und entsprechend sich zu eigen machen. Diese ‚zusätzlichen‘ Aspekte können sich über die reine Botschaft hinaus auf viele reale Gegebenheiten der Kommunikationssituation beziehen.

Typen von Kommunikation …

Angesichts dieser potentiellen ‚Vielfalt‘ stellt sich die Frage, ob es überhaupt möglich sein wird, so etwas wie eine normale Kommunikation zu definieren?

Um diese Frage sinnvoll beantworten zu können, müsste man über eine Art ‚Überblick‘ über alle möglichen Kombinationen von Eigenschaften Autor (1-7) sowie Ansprechpartner (1-8) verfügen und man müsste zusätzlich in der Lage sein, jede dieser möglichen Kombinationen mit Blick auf ‚Normalität‘ zu bewerten.

Dazu sei angemerkt, dass den beiden Listen Autor (1-7) und Ansprechpartner (1-8) ein gewisse ‚Willkür‘ anheftet: Man kann die Listen so aufbauen, wie sie hier aufgebaut wurden, man muss aber nicht.

Dies hängt mit der allgemeinen Art und Weise zusammen, wir wir Menschen denken: auf der einen Seite haben wir ‚einzelne Ereignisse, die passieren‘ — oder an die wir uns ‚erinnern‘ können –, auf der anderen Seite können wir zwischen ‚beliebigen einzelnen Ereignissen‘ ‚beliebige Beziehungen‘ in unserem Denken ’setzen‘. In der Wissenschaft nennt man dies ‚Hypothesenbildung‘. Ob man solche Bildung von Hypothesen vornimmt oder nicht und welche, dies ist nirgends normiert. Ereignisse als solche erzwingen keine bestimmte Hypothesenbildungen. Ob sie ’sinnvoll‘ sind oder nicht erweist sich ausschließlich im späteren Verlauf bei ihrer ‚praktischen Verwendung‘. Man könnte sogar sagen, dass eine solche Hypothesenbildung eine rudimentäre Form von ‚Ethik‘ ist: in dem Moment, wo man eine Hypothese bzgl. einer bestimmten Beziehung zwischen Ereignissen annimmt, hält man sie minimal für ‚wichtig‘, ansonsten würde man diese Hypothesenbildung nicht vornehmen.

Insofern kann man sagen, dass der ‚Alltag‘ der primäre Ort ist für mögliche Arbeitshypothesen und mögliche ‚minimale Werte‘.

Das folgende Schaubild demonstriert eine mögliche Anordnung der Eigenschaften vom Autor und seinem Ansprechpartner:

BILD : Mögliche Verschränkung von Eigenschaft 1 des Autors — hier: Au1 — und Eigenschaft 2 des Ansprechpartners — hier: An2 –.

Was man unschwer erkennen kann, ist die Tatsache, dass ein Autor natürlich über eine Konstellation von Wissen verfügen kann, die aus einer schier ‚unendlichen Menge von Möglichkeiten‘ schöpft. Das gleiche gilt für den Ansprechpartner. Rein abstrakt ist die Anzahl der möglichen Kombinationen aufgrund der Annahmen Au1 und An2 vom Ansatz her ‚quasi unendlich groß‘, was die Frage nach der ‚Normalität‘ auf der abstrakten Ebene letztlich unentscheidbar macht.

Da aber sowohl Autoren wie Ansprechpartner keine sphärische Wesen aus irgendeinem abstrakten Winkel der Möglichkeiten sind, sondern in der Regel ‚konkrete Menschen‘ mit einer ‚konkreten Geschichte‘ in einer ‚konkreten Lebenswelt‘ zu einer ‚bestimmten historischen Zeit‘ schränkt sich der quasi unendliche abstrakte Möglichkeitsraum ein auf eine endliche überschaubare Menge von Konkretheiten. Doch auch diese können bezogen auf zwei konkrete Menschen immer noch beträchtlich groß sein. Welcher Mensch mit seiner Lebenserfahrung aus welcher Gegend soll jetzt als ‚Norm‘ genommen werden für eine ’normale Kommunikation‘?

Eher scheint es nahe zu liegen, dass man einzelne Menschen irgendwie ‚typisiert‘ z.B. nach Alter und Lerngeschichte, wobei eine ‚Lerngeschichte‘ auch kein klares Bild ergeben muss. Absolventen der gleichen Schule können im Anschluss — wie wir wissen — über ein sehr unterschiedliches Wissen verfügen, wenngleich Gemeinsamkeiten möglicherweise ‚minimal typisch‘ sein können.

Generell erscheint also der Ansatz über die Eigenschaften des Autors und des Ansprechpartners keine wirklich klaren Kriterien für eine Norm zu liefern, auch wenn eine Angabe wie ‚das humanistische Gymnasium in Hadamar 1960 – 1968‘ rudimentäre Gemeinsamkeiten nahelegen würde.

Man könnte jetzt versuchen, die weiteren Eigenschaften Au2-7 sowie An3-8 in die Überlegungen einzubeziehen, aber die ‚Konstruktion einer normalen Kommunikation‘ scheint aufgrund der Annahmen Au1 und An2 eher in immer weitere Ferne zu rücken.

Was bedeutet dies für die Typisierung einer Kommunikation als ‚Propaganda‘. Ist nicht letztlich jede Kommunikation auch ein Stück Propaganda oder gibt es doch die Möglichkeit, die Form der ‚Propaganda‘ hinreichend genau zu kennzeichnen obwohl es nicht möglich erscheint, einen Standard für ’normale Kommunikation‘ zu finden. … oder wird eine bessere Charakterisierung von ‚Propaganda‘ indirekt Hinweise für eine ‚Nicht-Propaganda‘ liefern?

Wahrheit und Bedeutung – Schlüssel ‚Sprache‘

Der spontane Versuch, die Bedeutung des Begriffs ‚Propaganda‘ soweit zu klären, dass man ein paar konstruktive Kriterien an die Hand bekommt, um bestimmte Formen von Kommunikation entweder als ‚Propaganda‘ charakterisieren zu können oder eben nicht, gerät in immer ‚tieferes Fahrwasser‘. Gibt es nun ‚objektive überprüfbare Kriterien‘, mit denen man arbeiten kann, oder nicht? Und: Wer legt sie fest?

Halten wir vorläufig an der Arbeitshypothese 1 fest, dass wir es mit einem Autor zu tun haben, der eine Botschaft artikuliert, für einen Ansprechpartner, und erweitern wir diese Arbeitshypothese um folgenden Zusatz 1: solche eine Kommunikation spielt sich immer in einem gesellschaftlichen Kontext ab. Dies bedeutet, dass die Wahrnehmung und das Wissen der einzelnen Akteure (Autor, Ansprechpartner) kontinuierlich mit diesem gesellschaftlichen Kontext interagieren kann bzw. ‚automatisch interagiert‘. Letzteres liegt daran, dass wir Menschen so gebaut sind, dass unser Körper mit seinem Gehirn dies einfach tut, ohne dass dafür von ‚uns‘ ‚bewusste Entscheidungen‘ getroffen werden müssen.[*1]

Für diesen Abschnitt möchte ich die bisherige Arbeitshypothese 1 samt Zusatz 1 um eine weitere Arbeitshypothese 2 erweitern (Lokalisierung von Sprache) [*4]:

  1. Jedes Medium (Sprache, Ton, Bild, …) kann eine ‚potentielle Bedeutung‘ beinhalten.
  2. Beim Erstellen des medialen Ereignisses kann der ‚Autor‘ versuchen, mögliche ‚Inhalte‘, die von ihm ‚mitgeteilt werden sollen‘, mit dem Medium ‚zu verbinden‘ (‚ins Wort/ in den Klang/ in das Bild bringen‘, ‚Enkodieren‘, ….). Diese ‚Zuordnung‘ von Bedeutung geschieht sowohl ‚unbewusst/ automatisiert‘ als auch ‚(teilweise) bewusst‘.
  3. Bei der Wahrnehmung des medialen Ereignisses kann der ‚Ansprechpartner‘ versuchen, diesem wahrgenommenen Ereignis eine ‚mögliche Bedeutung‘ zuzuordnen. Auch diese ‚Zuordnung‘ von Bedeutung geschieht sowohl ‚unbewusst/ automatisiert‘ als auch ‚(teilweise) bewusst‘.
  4. Die Zuordnung von Bedeutung setzt sowohl beim Autor wie auch beim Ansprechpartner voraus, dass der jeweilige Akteur ‚Lernprozesse‘ (meist Jahre, viele Jahre) ‚durchlaufen‘ hat, die es möglich gemacht haben, bestimmte ‚Ereignisse der Außenwelt‘ wie auch ‚innere Zustände‘ mit bestimmten medialen Ereignissen zu verknüpfen.
  5. Das ‚Erlernen von Bedeutungsbeziehungen‘ geschieht immer in gesellschaftlichen Kontexten, da eine mediale Struktur, die zwischen Menschen ‚Bedeutung transportieren‘ soll, immer allen gehört, die an dem Kommunikationsprozess beteiligt sind.[*2]
  6. Diejenigen medialen Elemente, die für den ‚Austausch von Bedeutungen‘ tatsächlich benutzt werden, bilden alle zusammen das, was man eine ‚Sprache‘ nennt: die ‚medialen Elemente selbst‘ bilden die ‚Oberflächenstruktur‘ der Sprache, ihre ‚Zeichendimension‘, und die ‚inneren Zustände‘ in jedem beteiligten ‚Akteur‘, bilden den ‚individuell-subjektiven Raum möglicher Bedeutungen‘. Dieser innere subjektive Raum umfasst zwei Komponenten: (i) die innerlich verfügbaren Elemente als potentielle Bedeutungsinhalte und (ii) eine dynamische ‚Bedeutungsbeziehung‘, die wahrgenommene Elemente der Oberflächenstruktur und der potentiellen Bedeutungsinhalte ‚miteinander verknüpft‘.[*3]

Will man die Leitfrage, ob man „bestimmte Formen von Kommunikation entweder als ‚Propaganda‘ charakterisieren oder nicht“ beantworten, benötigt man ‚objektive überprüfbare Kriterien‘, anhand deren man eine Aussage formulieren kann. Diese Frage kann man benutzen, um zurück zu fragen, ob es im ’normalen Alltagsdialog‘ ‚objektive Kriterien‘ gibt, anhand deren wir im Alltag gemeinsam entscheiden können, ob ein ‚behaupteter Sachverhalt‘ ‚zutrifft‘ oder eben nicht; in diesem Kontext wird auch das Wort ‚wahr‘ benutzt. Kann man dies ein wenig genauer fassen?

Hier eine weitere Arbeitshypothese 3:

  1. Mindestens zwei Akteure können sich darüber einigen, dass eine bestimmte Bedeutung, verbunden mit dem medialen Konstrukt, als sinnlich wahrnehmbarer Sachverhalt so vorliegt, dass sie zustimmen können, dass der ‚behauptete Sachverhalt‘ tatsächlich vorliegt. Ein solches punktuelles Zutreffen soll ‚wahr 1‘ bzw. ‚Wahrheit 1‘ genannt werden. Ein ‚punktuelles Zutreffen‘ kann sich aufgrund der Dynamik der realen Welt (einschließlich der Akteure selbst) jederzeit und schnell ändern (z.B.: der Regen hört auf, die Kaffeetasse ist leer, das Autor von eben ist weg, der leere Gehweg wir von einer Gruppe von Menschen belegt, ….)
  2. Mindestens zwei Akteure können sich darüber einigen, dass eine bestimmte Bedeutung, verbunden mit dem medialen Konstrukt, aktuell nicht als realer Sachverhalt vorliegt. Bezogen auf die aktuelle Situation des ‚Nicht-Zutreffens‘ würde man davon sprechen, dass die Aussage ‚falsch 1‘ ist; der behauptete Sachverhalt liegt entgegen der Behauptung real nicht vor.
  3. Mindestens zwei Akteure können sich darüber einigen, dass eine bestimmte Bedeutung, verbunden mit dem medialen Konstrukt aktuell nicht vorliegt, aber aufgrund des bisherigen Erfahrungswissens ‚ziemlich sicher‘ in einer ‚möglichen zukünftigen Situation‘ eintreten könnte. Dieser Aspekt soll hier ‚potentiell wahr‘ genannt werden oder ‚wahr 2‘ bzw. ‚Wahrheit 2‘. Sollte der Sachverhalt dann irgendwann ‚tatsächlich vorliegen‘ würde sich Wahrheit 2 in Wahrheit 1 verwandeln.
  4. Mindestens zwei Akteure können sich darüber einigen, dass eine bestimmte Bedeutung, verbunden mit dem medialen Konstrukt aktuell nicht vorliegt, und aufgrund des bisherigen Erfahrungswissens ‚ziemlich sicher unklar ist‘, ob der gemeinte Sachverhalt in einer ‚möglichen zukünftigen Situation‘ tatsächlich eintreten könnte. Dieser Aspekt soll hier ’spekulativ wahr‘ genannt werden oder ‚wahr 3‘ bzw. ‚Wahrheit 3‘. Sollte der Sachverhalt dann irgendwann ‚tatsächlich vorliegen‘ würde sich Wahrheit 3 in Wahrheit 1 verwandeln.
  5. Mindestens zwei Akteure können sich darüber einigen, dass eine bestimmte Bedeutung, verbunden mit dem medialen Konstrukt aktuell nicht vorliegt, und aufgrund des bisherigen Erfahrungswissens ‚es ziemlich sicher ist‘, dass der gemeinte Sachverhalt in einer ‚möglichen zukünftigen Situation‘ nie eintreten könnte. Dieser Aspekt soll hier ’spekulativ falsch‘ genannt werden oder falsch 2‚.

Bei näherer Betrachtung dieser 4 Annahmen der Arbeitshypothese 3 wird man feststellen können, dass es in all diesen Unterscheidungen zwei ‚Pole‘ gibt, die zueinander in bestimmten Beziehungen stehen: einerseits gibt es als Pole reale Sachverhalte, die ‚aktuell von allen Beteiligten wahrgenommen bzw. nicht wahrgenommen werden‘ und andererseits gibt es eine ‚gewusste Bedeutung‘ in den Köpfen der Beteiligten, die mit einem aktuellen Sachverhalt in Beziehung gesetzt werden kann oder nicht. Dies ergibt folgende Verteilung von Werten:

Realer SachverhaltBeziehung zu Gedacht
Gegeben1Passt (wahr 1)
Gegeben2Passt nicht (falsch 1)
Nicht gegeben3Könnte in der Zukunft passen (wahr 2)
Nicht gegeben4Passen in der Zukunft unklar (wahr 3)
Nicht gegeben5Kann in der Zukunft nicht passen (falsch 2)

In diesem — noch etwas grobem — Schema kann ‚Gedachtes‘ qualifiziert werden zu einem aktuell Gegebenem als ‚passend‘ oder ’nicht passend‘, oder in Abwesenheit von etwas real Gegebenem als ‚könnte passen‘ oder ‚unklar, ob es passen kann‘ oder ’sicher, dass es nicht passen könnte‘.

Hierbei ist aber zu beachten, dass diese Qualifizierungen ‚Einschätzungen‘ sind, welche die Akteure aufgrund ihres ‚eigenen Wissens‘ vornehmen. Wie wir wissen, ist solch eine Einschätzung immer fehleranfällig! Neben Fehlern in der Wahrnehmung [*5] kann es Fehlern im eigenen Wissen geben. [*6] Also entgegen den Überzeugungen der Akteure kann ‚wahr 1‘ tatsächlich ‚falsch 1‘ sein oder umgekehrt, ‚wahr 2‘ könnte ‚falsch 2‘ sein und umgekehrt.

Aus all diesem folgt, dass eine ‚klare Qualifizierung‘ von Wahrheit und Falschheit letztlich immer fehlerbehaftet ist. Für eine Gemeinschaft von Menschen, die ‚positiv‘ denken ist dies kein Problem: sie wissen um diese Sachlage und sie bemühen sich, ihre ’natürliche Fehleranfälligkeit‘ durch bewusstes methodisches Vorgehen ‚möglichst klein‘ zu halten.[*7] Menschen, die — aus vielerlei Gründen — eher negativ denken, die fühlen sich in dieser Situation dazu motiviert, überall und immer nur Fehler oder gar Bosheit zu sehen. Sie tun sich schwer damit, mit ihrer ’natürlichen Fehlerbehaftetheit‘ positiv-konstruktiv umzugehen.

WAHRHEIT UND BEDEUTUNG – Im Prozess

In dem vorausgehenden Abschnitt sind die verschiedenen Begriffe (‚wahr1,2‘, ‚falsch 1,2‘, ‚wahr 3‘) noch eher unverbunden, sind noch nicht wirklich in einem fassbaren Zusammenhang verortet. Dies soll hier mit Hilfe der Arbeitshypothese 4 (Skizze eines Prozessraums) versucht werden.

BILD : Der Prozessraum in der realen Welt und im Denken samt möglicher Wechselwirkungen

Die Grundelemente der Arbeitshypothese 4 lassen sich wie folgt charakterisieren:

  1. Es gibt die reale Welt mit ihren kontinuierlichen Veränderungen und innerhalb eines Akteurs einen virtuellen Raum für Prozesse mit Elementen wie Wahrnehmungen, Erinnerungen und gedachte Vorstellungen.
  2. Das Bindeglied zwischen realem Raum und virtuellem Raum läuft über Wahrnehmungsleistungen, die spezielle Eigenschaften der realen Welt für den virtuellen Raum repräsentieren, und zwar so, dass ‚wahrgenommene Inhalte‘ und ‚gedachte Inhalte‘ unterscheidbar sind. Auf diese Weise ist ein ‚gedanklicher Abgleich‘ von Wahrgenommenem und Gedachtem möglich.
  3. Veränderungen in der realen Welt zeigen sich nicht explizit sondern manifestieren sich nur indirekt durch die wahrnehmbaren Veränderungen, die durch sie hervorgerufen werden.
  4. Es ist Aufgabe der ‚denkerischen Rekonstruktion‘ Veränderungen zu ‚identifizieren‘ und die sprachlich so zu beschreiben, dass nachvollziehbar ist, aufgrund welcher Eigenschaften eines gegebenen Zustands daraus ein möglicher Nachfolgezustand entstehen kann.
  5. Zusätzlich zur Unterscheidung von ‚Zuständen‘ und ‚Veränderungen‘ zwischen Zuständen muss auch geklärt werden, wie man eine gegebene Veränderungsbeschreibung auf einen gegebenen Zustand so ‚anwendet‘, dass daraus ein ‚Nachfolgezustand‘ entsteht. Dies wird hier ‚Nachfolger-Generierungs-Vorschrift‘ (symbolisch: ⊢) genannt. Ein Ausdruck wie Z ⊢V Z‘ würde dann bedeuten, dass man mit der Nachfolger-Generierungs-Vorschrift ⊢V unter Benutzung der Veränderungsregel V den nachfolgenden Zustand Z‘ aus dem Zustand Z generieren kann. Dabei kann allerdings auch mehr als eine Veränderungsregel V zum Einsatz kommen, also z.B. {V1, V2, …, Vn} mit den Veränderungsregeln V1, …, Vn.
  6. Bei der Formulierung von Veränderungsregeln können immer Fehler unterlaufen. Sofern sich bestimmte Veränderungsregeln in der Vergangenheit schon in Ableitungen ‚bewährt‘ haben, würde man für den ‚gedachten Folgezustand‘ tendenziell annehmen, dass er vermutlich auch real eintreten wird. Wir hätten es also mit dem Fall ‚wahr 2‚ zu tun. Ist eine Veränderungsregel neu und es liegen noch keine Erfahrungen mit ihr vor, hätten wir es für den gedachten Folgezustand mit dem Fall ‚wahr 3‘ zu tun. Währe eine bestimmte Veränderungsregel in der Vergangenheit schon mehrfach gescheitert, dann könnte Fall ‚falsch 2‘ vorliegen.
  7. Das skizzierte Prozessmodell lässt aber auch erkennen, dass die bisherigen Fälle (1-5 in der Tabelle) immer nur Teilaspekte beschreiben. Angenommen, eine Gruppe von Akteuren schafft es, mit vielen Zuständen und mit vielen Veränderungsregeln samt einer Nachfolger-Generierungs-Anweisung eine rudimentäre Prozess-Theorie zu formulieren, dann interessiert es natürlich, wie sich die ‚Theorie als Ganze‘ ‚bewährt‘. Dies bedeutet, dass jede ‚gedankliche Konstruktion‘ einer Abfolge möglicher Zustände entsprechend den angewendeten Veränderungsregeln unter Voraussetzung der Prozess-Theorie sich in allen Anwendungsfällen ‚bewähren muss‘, damit von der Theorie gesagt werden kann, dass sie ‚generisch wahr‘ ist. Während z.B. der Fall ‚wahr 1‘ sich nur auf einen einzigen Zustand bezieht, bezieht sich der Fall ‚generisch wahr‘ auf ‚ganz viele‘ Zustände, so viele, bis ein ‚Endzustand‘ erreicht wird, der als ‚Zielzustand‘ gelten soll. Der Fall ‚generisch widersprochen‘ soll vorliegen, wenn es wenigstens eine Folge von generierten Zuständen gibt, die immer wieder einen Endzustand generiert, der falsch 1 ist. Solange eine Prozess-Theorie noch nicht in allen möglichen Fällen mit wahr 1 für einen Endzustand bestätigt worden ist, bleibt ein ‚Rest an Fällen‘, die unklar sind. Dann würde eine Prozess-Theorie als ‚generisch unklar‘ bezeichnet werden, obgleich sie für die Menge der bislang erfolgreich getesteter Fälle als ‚generisch wahr‘ gelten darf.

BILD : Der individuelle erweiterte Prozessraum mit Andeutung der Dimension Weitere Meta-Ebenen‘ sowie ‚Bewertungen‘.

Wem das vorausgehende erste Bild mit dem Prozessraum schon arg ’schwierig‘ vorkommt, der wird bei diesem zweiten Bild zum ‚erweiterten Prozessraum‘ natürlich ‚ins Schwitzen‘ kommen. Aber der individuelle Denkraum ist nun mal ein Spitzenprodukt der Evolution, das einiges zu bieten hat.

So kann jeder bei sich selbst überprüfen, dass wir Menschen über die Fähigkeit verfügen, egal, was wir Denken, dieses Denken jederzeit selbst wieder zum ‚Gegenstand des Denkens‘ zu machen, und zwar eben ‚innerhalb des Denkens selbst‘. Mit diesem ‚Denken über das Denken‘ eröffnen sich eine ‚zusätzliche Ebene des Denkens‘ — hier ‚Meta-Ebene‘ genannt –, auf der wir Denkenden all das ‚thematisieren‘, was uns am vorausgehenden Denken auffällt und wichtig ist. [*8] Neben dem ‚Denken über das Denken‘ verfügen wir auch über die Fähigkeit, das, was wir Wahrnehmen und Denken zu ‚bewerten‘. Diese ‚Bewertungen‘ werden gespeist aus dem Raum unserer ‚Emotionen‘ [*9] und ‚gelernten Bevorzugungen‘. Dies ermöglicht uns, mit Hilfe unserer Emotionen und gelernten Bevorzugungen zu ‚lernen‘: Wenn wir also bestimmte Handlungen vornehmen und dabei ‚Schmerzen‘ erleiden, dann werden wir diese Handlungen beim nächsten Mal eher vermeiden. Wenn wir im Restaurant X Essen gehen, weil jemand uns dies ‚empfohlen‘ hat, und das Essen und/ oder der Service waren richtig schlecht, dann werden wir diesen Vorschlag künftig eher nicht mehr berücksichtigen. Von daher kann unser Denken (und unser Wissen) zwar ‚Möglichkeiten sichtbar machen‘, aber es sind die Emotionen, die das kommentieren, was bei Umsetzung des Wissens ‚gut‘ oder ’schlecht‘ passiert. Doch, Achtung, auch Emotionen können irren, und zwar massiv. [*10]

WAHRHEIT UND BEDEUTUNG – Als eine kollektive Leistung

Die bisherigen Überlegungen zum Thema ‚Wahrheit und Bedeutung‘ im Kontext individueller Prozesse haben umrisshaft angedeutet, dass und wie ‚Sprache‘ eine zentrale Rolle spielt, um Bedeutung und darauf aufbauend Wahrheit zu ermöglichen. Ferner wurde ebenfalls skizzenhaft umrissen, dass und wie man Wahrheit und Bedeutung in einem dynamischen Kontext einordnen muss, in ein ‚Prozessmodell‘, wie es in einem Individuum in enger Interaktion mit der Umgebung stattfindet. Dieses Prozessmodell umfasst die Dimension des ‚Denkens‘ (auch ‚Wissen‘) wie auch die Dimension der ‚Bewertungen‘ (Emotionen, Präferenzen); innerhalb des Denkens gibt es potentiell viele ‚Betrachtungsebenen‘, die aufeinander Bezug nehmen können (natürlich können sie auch ‚parallel‘ stattfinden ohne direkten Kontakt zueinander (die unverbundene Parallelität ist aber der weniger interessante Fall).

So faszinierend die dynamische emotional-kognitive Struktur im Innern eines einzelnen Akteurs sein kann, die ‚wahr Kraft‘ des expliziten Denkens zeigt sich erst dort, wo verschiedene Menschen beginnen, sich mittels Kommunikation in ihrem Handeln zu koordinieren. Wenn auf diese Weise das individuelle Handeln sich in ein kollektives Handeln transformiert, wird eine Dimension von ‚Gesellschaft‘ sichtbar, welche die ‚einzelnen Akteure‘ in gewisser Weise ‚vergessen‘ lässt, weil die ‚Gesamtleistung‘ der ‚kollektiv miteinander verbundenen einzelnen‘ um Dimensionen komplexer und nachhaltiger sein kann als dies jemals ein einzelner realisieren könnte. Während ein einzelner Mensch maximal in seiner individuellen Lebenszeit einen Beitrag leisten kann, können kollektiv verbundene Menschen Leistungen vollbringen, die viele Generationen umfassen.

Andererseits wissen wir aus der Geschichte, dass kollektive Leistungen nicht automatisch ’nur Gutes‘ bewirken müssen; die bekannte Geschichte von Unterdrückung, blutigen Kriegen und Zerstörung ist umfangreich und findet sich in allen zeitlichen Abschnitten der menschlichen Geschichte.

Dies verweist darauf, dass die Frage von ‚Wahrheit‘ und ‚Gut sein‘ nicht nur eine Frage für den jeweils individuellen Prozess ist, sondern sehr wohl auch eine Frage für den kollektiven Prozess, und hier, im kollektiven Fall, ist diese Frage eher noch wichtiger, da ja im Fehlerfall nicht nur einzelne unter negativen Wirkungen leiden müssen, sondern eher sehr viele; schlimmstenfalls alle.

Anmerkungen

[*1] In einer systemtheoretischen Betrachtung des Systems ‚menschlicher Körper‘ kann man die Arbeitshypothese formulieren, dass weit mehr als 99% der Ereignisse in einem menschlichen Körper Nicht bewusst sind. Dies kann man erschreckend finden oder beruhigend. Ich tendiere zum Letzteren, zur ‚Beruhigung‘. Denn wenn man sieht, was ein menschlicher Körper als ‚System‘ aus sich heraus zu tun in der Lage ist, in jeder Sekunde, viele Jahre, sogar Jahrzehnte lang, dann erscheint dies äußerst beruhigend angesichts der vielen, auch groben Fehler, die wir mit unserem kleinen ‚Bewusstsein‘ vollbringen können. In Kooperation mit anderen Menschen können wir unsre bewussten menschlichen Leistungen zwar dramatisch verbessern, aber immer nur unter Voraussetzung der Systemleistung eines menschlichen Körpers. In ihm stecken immerhin 3.5 Milliarden Jahre Entwicklungsarbeit des BIOMs auf diesem Planeten; die Bausteine dieses BIOMs, die Zellen, funktionieren wie ein gigantischer Parallelcomputer, verglichen mit dem die heutigen technischen Supercomputer (einschließlich der viel gepriesenen ‚Quantencomputer‘) so klein und schwach aussehen, dass man diese Relation praktisch nicht ausdrücken kann.

[*2] Eine ‚Alltagssprache‘ setzt immer ‚die Vielen‘ voraus, die miteinander kommunizieren wollen. Einer alleine kann keine Sprache haben, die andere verstehen können sollen.

[*3] Eine Bedeutungsbeziehung tut real das, was mathematisch ‚Abbildung‘ genannt wird: Elemente der einen Sorte (Elemente der Oberflächenstruktur der Sprache) werden Elementen einer anderen Sorte (die potentiellen Bedeutungselemente) zugeordnet. Während eine mathematische Abbildung normalerweise fest definiert ist, kann sich die ‚reale Bedeutungsbeziehung‘ beständig ändern; sie ist ‚flexibel‘, Teil eines übergeordneten ‚Lernprozesses‘, der in Abhängigkeit von der Wahrnehmung und inneren Zuständen die Bedeutungsbeziehung beständig ’neu anpasst‘.

[*4] Die Inhalte von Arbeitshypothese 2 stammen aus den Erkenntnissen der modernen Kognitionswissenschaften (Neurowissenschaften, Psychologie, Biologie, Linguistik, Semiotik, …) und der Philosophie; sie verweisen auf viele tausend Artikel und Bücher. Die Arbeitshypothese 2 stellt daher eine hochverdichtete Zusammenfassung von all diesem dar. Ein direktes Zitieren ist dazu rein praktisch nicht möglich.

[*5] Wie aus Forschungen zu Zeugenaussagen und aus der allgemeinen Wahrnehmungsforschung bekannt ist, gibt es neben allerlei direkten Wahrnehmungsfehlern sehr viele Fehler in der ‚Interpretation der Wahrnehmung‘, die weitgehend unbewusst/ automatisiert ablaufen. Gegen solche Fehler sind die Akteure normalerweise machtlos; sie merken es einfach nicht. Nur methodisch bewusste Kontrollen der Wahrnehmung können partiell auf diese Fehler aufmerksam machen.

[*6] Menschliches Wissen ist ’notorisch Fehlerbehaftet‘. Dafür gibt es viele Gründe. Einer liegt in der Arbeitsweise des Gehirns selbst. Ein ‚korrektes‘ Wissen ist nur möglich, wenn die aktuellen Wissensprozesse immer wieder ‚abgeglichen‘, ‚kontrolliert‘ werden, um sie korrigieren zu können. Wer dies nicht tut, hat notgedrungen ein unvollständiges und vielfach falsches Wissen. Wie bekannt hindert dies Menschen nicht daran, zu glauben, alles ist ‚wahr‘, was sie im Kopf mit sich herum tragen. Wenn es ein großes Problem in dieser Welt gibt, dann gehört dieses dazu: die Unwissenheit über die eigene Unwissenheit.

[*7] In der bisherigen Kulturgeschichte der Menschheit gab es erst sehr spät (seit ca. 500 Jahren?) die Entdeckung eines Erkenntnisformats, das es beliebig vielen Menschen ermöglicht, sich ein Tatsachenbasiertes Wissen aufzubauen, das, verglichen mit allen anderen bekannten Wissensformaten, die ‚besten Ergebnisse‘ ermöglicht (was Fehler natürlich nicht vollständig ausschließt, aber extrem minimiert). Dieses bis heute revolutionäre Wissensformat hat den Namen ‚empirische Theorie‘, von mir mittlerweile erweitert zu ’nachhaltiger empirischer Theorie‘. Wir Menschen sind einerseits die Hauptquelle für ‚wahres Wissen‘, zugleich sind wir selbst aber auch die Hauptquelle für ‚falsches Wissen‘. Dies erscheint auf den ersten Blick wie ein ‚Paradox‘, hat aber eine ‚einfache‘ Erklärung, die in ihrer Wurzel aber ’sehr tief blicken lässt‘ (vergleichbar mit der kosmischen Hintergrundstrahlung, die gegenwärtig einfach ist, aber aus den Anfängen des Universums stammt).(Anmerkung: eine kurze Beschreibung der Begriffe ‚empirische Theorie‘ und ’nachhaltige empirische Theorie‘ finde sich ab Abschnitt 6 in folgendem Blog-Eintrag: https://www.cognitiveagent.org/2023/11/06/kollektive-mensch-maschine-intelligenz-im-kontext-nachhaltiger-entwicklung-brauchen-wir-ein-neues-menschenbild-vorlesung-fuer-ag-enigma-im-rahmen-von-u3l-der-goethe-universitaet/ )

[*8] Von seiner Architektur her kann unser Gehirn beliebig viele solcher Meta-Ebenen eröffnen, aber aufgrund seiner konkreten Endlichkeit bietet es für verschiedene Aufgaben nur eine begrenzte Zahl von Neuronen an. So ist bekannt (und mehrfach experimentell nachgewiesen), dass z.B. unser ‚Arbeitsgedächtnis‘ (auch ‚Kurzzeitgedächtnis genannt oder ‚Short Term Memory‘) nur auf ca. 6-9 ‚Einheiten‘ limitiert ist (wobei der Begriff ‚Einheit‘ kontextabhängig zu definieren ist). Wollen wir also umfangreiche Aufgaben durch unser Denken lösen, brauchen wir ‚externe Hilfsmittel‘ (Blatt Papier und Schreibstift oder einen Computer, …), um die vielen Aspekten festzuhalten und entsprechend zu notieren. Obwohl die bekannten Computer heutzutage nicht einmal ansatzweise in der Lage sind, die komplexen Denkprozesse von Menschen zu ersetzen, können sie begrenzt für die Durchführung komplexer Denkprozesse ein fast unersätzliches Hilfsmittel sein. Allerdings nur dann, wenn WIR tatsächlich WISSEN, was wir da tun!

[*9] Das Wort ‚Emotionen‘ ist ein ‚Sammelbegriff‘ für sehr viele verschiedene Phänomene und Sachverhalte. Trotz umfangreicher Forschungen seit über hundert Jahren können die verschiedenen Disziplinen der Psychologie noch kein einheitliches Bild, geschweige denn eine einheitliche’Theorie‘ zum Thema anbieten. Dies verwundert auch nicht, da vieles davon weitgehend ‚unbewusst‘ abläuft bzw. ausschließlich als ‚internes Ereignis‘ im Individuum direkt verfügbar ist. Klar scheint nur zu sein, dass wir als Menschen niemals ‚emotionsfrei‘ sind (dies gilt auch für sogenannte ‚coole‘ Typen, denn das scheinbare ‚verdrängen‘ oder ‚unterdrücken‘ von Emotionen ist selbst wieder Teil unserer angeborenen Emotionalität.

[*10] Natürlich können Emotionen uns auch gewaltig in die Irre oder gar in den Untergang führen (sich in anderen Menschen irren, sich in sich selbst irren, …). Es ist also nicht nur wichtig, die sachlichen Dinge in der Welt durch ‚Lernen‘ in nützlicher Weise zu ’sortieren‘, sondern man muss auch tatsächlich die ‚eigenen Emotionen im Blick haben‘ und überprüfen, wann und wie diese auftreten und ob sie uns tatsächlich helfen. Primäre Emotionen (wie z.B. Hunger, Sexualtrieb, Wut, Sucht, ‚Verknallt sein‘, …) sind punktuell, Situationsbezogen , können eine große ‚psychische Kraft‘ entwickeln, und verstellen damit den Blick auf die möglichen oder sehr wahrscheinlichen ‚Folgen‘, die für uns erheblich schädigend sein können.

[*11] Der Begriff ‚Narrativ‘ wird heutzutage immer mehr benutzt, um zu beschreiben, dass eine Gruppe von Menschen in ihrem Denken für ihre Wahrnehmung der Welt ein bestimmtes ‚Bild‘, eine bestimmte ‚Erzählung‘ benutzt, um ihr gemeinsames Handeln koordinieren zu können. Letztlich gilt dies für jedes gemeinsame Handeln, selbst für Ingenieure, die eine technische Lösung erarbeiten wollen. Insofern ist die Darstellung in der deutschen Wikipedia ein bisschen ‚eng‘: https://de.wikipedia.org/wiki/Narrativ_(Sozialwissenschaften)

QUELLEN

Die folgenden Quellen bilden nur eine winzige Auswahl aus vielen hunderten, eher tausenden von Artikeln, Büchern, Tondokumenten und Filmen, die zum Thema gehören. Vielleicht können sie dennoch für einen ersten Einstieg hilfreich sein. Die Liste wird gelegentlich erweitert.

[1a] Propaganda, siehe z.B. hier: https://de.wikipedia.org/wiki/Propaganda oder [1b] die Englische Version : https://en.wikipedia.org/wiki/Propaganda /* Die Englische Version wirkt systematischer, überdeckt grössere Zeiträume und mehr unterschiedliche Anwendungsgebiete */

[2] Florian Schaurer, Hans-Joachim Ruff-Stahl, (21.10.2016), Hybride Bedrohungen Sicherheitspolitik in der Grauzone, Bundeszentrale für politische Bildung, Adenauerallee 86, 53113 Bonn, https://www.bpb.de/shop/zeitschriften/apuz/235530/hybride-bedrohungen/

[3] Propaganda der Russischen Föderation, hier: https://de.wikipedia.org/wiki/Propaganda_der_Russischen_F%C3%B6deration

[4] Russische Einflussnahme auf den Wahlkampf in den Vereinigten Staaten 2016, hier: https://de.wikipedia.org/wiki/Russische_Einflussnahme_auf_den_Wahlkampf_in_den_Vereinigten_Staaten_2016 /* Sehr ausführlich */

[5] Meduza, hier: https://de.wikipedia.org/wiki/Meduza

[6] Mischa Gabowitsch, Mai 2022, Von »Faschisten« und »Nazis«, https://www.blaetter.de/ausgabe/2022/mai/von-faschisten-und-nazis#_ftn4

[7] L. Wienand, S. Steurenthaler und S. Loelke, 30.8.22, Infokrieg Putins Troll-Armee greift Deutschland an

[8] Pomerantsev, Peter, (2019), This Is Not Propaganda: Adventures in the War Against Reality, Faber & Faber. Kindle-Version.

[9] Propaganda in China, hier: https://de.wikipedia.org/wiki/Propaganda_in_der_Volksrepublik_China /* Nur fragmentarisch; müsste deutlich ergänzt werden */

[10]  Lena Bäunker, 25.12.2023, Reden ist Gold. Über die Kehrseiten von Flugreisen, Kreuzfahrten oder Fleischkonsum zu sprechen, ist nicht einfach. Wissenschaftler:innen haben untersucht, wie sich effektivere Klimagespräche führen lassen. https://www.klimareporter.de/gesellschaft/reden-ist-gold

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

Kollektive Mensch-Maschine Intelligenz im Kontext nachhaltiger Entwicklung. Brauchen wir ein neues Menschenbild? Vorlesung für AG ENIGMA im Rahmen von U3L der Goethe Universität

Entstehungszeit: 2.Nov 2023 – 6.Jan 2023

Autor: Gerd Doeben-Henisch

Email: gerd@doeben-henisch.de

KONTEXT

Der folgende Text ist die nachträgliche Verschriftlichung einer Vorlesung, die der Autor für die Internet-Arbeitsgruppe ENIGMA [3] der U3L [1,2] der Goethe-Universität Frankfurt am 10.November 2023 gehalten hat. Er stellt eine Weiterentwicklung eines Konferenzbeitrags dar, der bei de Gruyter veröffentlicht wurde: Kollektive Mensch-Maschine-Intelligenz und Text-Generierung. Eine transdisziplinäre Analyse (2023). Man kann auch alle anderen Beiträge (open access) herunterladen.

Der Ankündigungstext lautet:

Kollektive Mensch-Maschine Intelligenz im Kontext
nachhaltiger Entwicklung – Brauchen wir ein neues
Menschenbild?


Prof. Dr. Gerd Doeben-Henisch, Frankfurt University
of Applied Sciences


Die Zeichen der Zeit stehen auf ‚Digitalisierung‘. Schon ist es selbstver-
ständlich, alles, was ‚digital‘ ist, auch mit den Worten ‚smart‘ bzw.‚
intelligent‘ zu verknüpfen. ‚Künstliche Intelligenz‘, ja, natürlich, wer fragt
da noch nach … und wir Menschen, war da nicht was? Gab es nicht
solche Worte wie ‚Geist‘, ‚Rationalität‘, ‚Intelligenz‘ im Umfeld des
Menschen, ‚Wille‘ und ‚Gefühle‘? Ja, es gab eine Zeit, da sahen die
Menschen sich selbst als ‚Krone der Schöpfung‘ … Und jetzt? Eine
Sprachlosigkeit greift um sich; der ‚Schöpfer‘ des Digitalen scheint vor
seinem Werk zu erstarren …

[1] Home u3l: https://www.uni-frankfurt.de/122411224/U3L_Home?

[2] Vorlesungsverzeichnis u3l-WS2023: https://www.uni-frankfurt.de/141923421/programm-ws-2023-24.pdf

[3] Flyer der Vorlesungsreihe WS23/24: https://www.uni-frankfurt.de/144405162.pdf

Zusammenfassung

Die Vorlesung greift zunächst den Kontext der Digitalisierung auf und macht die grundlegenden Strukturen deutlich. Das Eindringen von digitalen Technologien und deren Nutzung im Alltag ist schon jetzt sehr tiefgreifend. Gesellschaftlich spielt die sprachliche Kommunikation für alle Menschen und alle Abläufe eine zentrale Rolle. Literarischen und wissenschaftlichen Kommunikationsformaten kommt hierbei eine besondere Rolle zu. Am Beispiel der neuen Algorithmen für Text-Generierung (wie z.B. chatGPT) wird mit Bezug auf wissenschaftliche Kommunikationformate gezeigt, wie deutlich begrenzt die algorithmische Text-Generierung noch ist. Für alle drängenden Zukunftsaufgaben kann sie den Menschen aufgrund prinzipieller Grenzen nicht ersetzen. Die weitere Ausgestaltung algorithmischer Technologien muss an diesen gesellschaftlichen Herausforderungen gemessen und entsprechend verbessert werden.

INHALTSVERZEICHNIS

  1. EINLEITUNG
  2. DIGITALISIERUNG
    2.1 DAS INTERNET
    2.2 DIE GESELLSCHAFT
  3. DIGITALISIERUNG – SPRACHTECHNOLOGIEN
  4. GESELLSCHAFT – SPRACHE – LITERATUR
  5. SPRACHE UND BEDEUTUNG
  6. ZÄHMUNG DER BEDEUTUNG – WISSENSCHAFT
  7. EMPIRISCHE THEORIE
  8. WAHRHEIT, PROGNOSE & TEXT-GENERATOREN
  9. Epilog

1. EINLEITUNG

Der Titel dieser Vorlesung repräsentiert letztlich das Forschungsparadigma, innerhalb dessen sich der Autor seit ca. 5-6 Jahren bewegt hat. Das Motiv war — und ist –, die üblicherweise isolierten Themen ‚Kollektives menschliches Verhalten‘, ‚Künstliche Intelligenz‘ sowie ‚Nachhaltige Entwicklung‘ zu einer kohärenten Formel zu vereinigen. Dass dies nicht ohne Folgen für das ‚Menschenbild‘ bleiben würde, so wie wir Menschen uns selbst sehen, klang unausgesprochen immer schon zwischen den Zeilen mit.

Die Integration der beiden Themen ‚kollektives menschliches Verhalten‘ sowie ’nachhaltige Entwicklung‘ konnte der Autor schon im Jahr 2022 vollziehen. Dazu musste der Begriff ‚Nachhaltige Entwicklung‘ re-analysiert werden. Was sowohl im Umfeld des Forschungsprojektes Nachhaltige Intelligenz – intelligente Nachhaltigkeit [1] stattfand wie auch in einer sich über 7 Semester erstreckende multidisziplinären Lehrveranstaltung an der Frankfurt University of Applied Sciences mit dem Titel Citizen Science für Nachhaltige Entwicklung.[2]

Die Integration des Themas Künstliche Intelligenz mit den beiden anderen Themen erwies sich als schwieriger. Dies nicht, weil das Thema künstliche Intelligenz so schwer war, sondern weil sich eine brauchbare Charakterisierung von künstlicher Intelligenz Technologie mit Blick auf die Bedürfnisse einer Gesellschaft als schwer erwies: bezogen auf welche Anforderungen einer Gesellschaft sollte man den Beitrag einer künstlichen Intelligenz gewichten?

Hier kamen zwei Ereignisse zu Hilfe: Im November 2022 stellte die US-Firma openAI eine neue Generation von Text-Generatoren vor [3], was zu einer bis dahin nie gekannten Publikations-Explosion führte: Gefühlt jeder fühlte sich angesprochen, nutzte das Werkzeug, und es gab vielstimmige Meinungsäußerung. In folge davon konnte der Autor sich bei einer Konferenz an der TU-Darmstadt beteiligen mit dem Titel Diskurse disruptiver digitaler Technologien am Beispiel von KI-Textgeneratoren (KI:Text) [4]. Hier wurde aus Sicht von 18 Perspektiven versucht, die mögliche Einsetzbarkeit von Text-Generatoren am Beispiel konkreter Text-Arten zu untersuchen. Diese Konferenz stimulierte den Plan, das Setting Text – chatGPT zu übernehmen und es durch Spezialisierung der Text-Variablen auf Literatur und insbesondere wissenschaftliche Theorien zu konkretisieren. Erste Überlegungen in diese Richtungen finden sich hier. [5]

Im Nachklang zu diesen Überlegungen bot es sich an, diese Gedanken im Vortrag für die Arbeitsgruppe ENIGMA weiter zu präzisieren. Dies ist geschehen und resultierte in diesem Vortrag.

[1] https://zevedi.de/themen/nachhaltige-intelligenz-intelligente-nachhaltigkeit/

[2] Materialien zur 6. und 7.Auflage: https://www.oksimo.org/lehre-2/

[3] Kurze Beschreibung: https://en.wikipedia.org/wiki/ChatGPT

[4] https://zevedi.de/themen/ki-text/

[5] Gerd Doeben-Henisch, 24.Aug 2023, Homo Sapiens: empirische und nachhaltig-empirische Theorien, Emotionen, und Maschinen. Eine Skizze, https://www.cognitiveagent.org/2023/08/24/homo-sapiens-empirische-und-nachhaltig-empirische-theorien-emotionen-und-maschinen-eine-skizze/

2. DIGITALISIERUNG

BILD 1: Überblick zu ‚Digitalisierung einer Gesellschaft‘

Da die ‚Digitalisierung‘ heute gefühlt schon fast alle Bereiche unserer menschlichen Gesellschaft erreicht hat, ist es nicht leicht in dieser Vielfalt einen Standpunkt zu lokalisieren, von dem aus sich sowohl über das Ganze wie auch über einzelne konkrete Themen zu sprechen. [1]

Es bot sich daher an, mit einem vereinfachten Überblick über das Ganze zu starten, so dass eine für alle gleiche Ausgangslage hergestellt werden konnte.

Im Bild 1 kann man den links gelblich-grünen Bereich sehen, der für die Gesellschaft selbst steht, und einen grauen Bereich rechts, der für jene Infrastrukturen steht, die eine Digitalisierung technisch ermöglichen. Beide Bereich sind stark schematisiert.

Die digitale Infrastruktur ist aufgeteilt in ‚Endgeräte‘ und in das eigentliche ‚Internet‘. Letzteres wird unterschieden in den ‚Adressraum‘ und jene Geräte, die über den Adressraum erreicht werden können.

2.1 DAS INTERNET

Kurz wurde auf einige wichtige Eigenschaften des Internets hingewiesen:

  1. Alle beteiligten Geräte setzen sich aus ‚Hardware‘ und ‚Software‘ zusammen. Die Hardware wiederum besteht aus einer Konfiguration von ‚Chips‘, die selbst sehr komplex sind und auch aus Hardware und Software bestehen. Bis zu ca. 80 Firmen können bei der Produktion eines einzelnen Chips beteiligt sein (unter Berücksichtigung der diversen Lieferketten). Die Möglichkeit, dass eine beteiligte Firma ’nicht-intendierte‘ Funktionen in einen Chip einbaut, ohne dass die anderen dies merken, sind prinzipiell gegeben. Die für Chips benötigten speziellen Materialien sind partiell ’selten‘ und nur über einige wenige Staaten beziehbar.
  2. Die ‚Software‘ auf einem Rechner (klein bis groß) zerfällt grob in zwei Typen: (i) jene Software, die die grundlegende Kommunikation mit einer Hardware ermöglicht — das ‚Betriebssystem‘ –, und jene Software, die bestimmte Anwendungen ermöglicht, die mit dem Betriebssystem kommunizieren muss — die Anwendungssoftware, heute auch einfach App genannt –. Betriebssysteme haben heute eine Größe, die vielen Millionen Zeilen Code umfassen. Eine solche Software angemessen auf Dauer zu managen, stellt extreme Anforderungen. Nicht weniger im Fall von Anwendungssoftware.
  3. Sobald Software aktiviert wird, d.h. ein Rechner ändert seine inneren Zustände unter dem Einfluss der Software, wird Energie verbraucht. Der Umfang dieses Energieverbrauchs ist heute noch vielfach extrem hoch.[2]
  4. Ein ‚realer Rechner‘ braucht irgendwo auf diesem Planeten einen ‚realen Ort‘ und gehört eine ‚realen Besitzer‘. Dieser Eigentümer hat prinzipiell den vollen Zugriff auf den Rechner, auf seine Software, auf seine Inhalte. Durch die ‚Gesetze‘ eines Landes, durch ‚Vereinbarungen‘ zwischen Geschäftspartnern kann man den Umgang mit dem Rechner versuchen zu regeln, aber Garantien dafür, dass dann tatsächlich die Prozesse und die Daten ‚geschützt‘ sind, gibt es nicht. Eine von vielen Untersuchungen zur Nutzung von Benutzerdaten konnte am Beispiel von Facebook aufzeigen, dass die Einführung der europäischen Datenschutzverordnung 2021 nahezu keine Wirkung im Bereich der Nutzerdaten von Facebook zeigte. [3,4,5]

[1] Phänomen: Den Wald vor lauter Bäume nicht sehen.

[2] Maximilian Sachse, Das Internet steht unter Strom. KI kann helfen, Emissionen einzusparen — verbraucht aber selbst Unmengen an Energie.FAZ, 31.Okt 2023, S.B3

[3] José González Cabañas, Ángel Cuevas, Aritz Arrate, and Rubén Cuevas. 2020. Does Facebook use sensitive data for advertising purposes? Commun. ACM 64, 1 (January 2021), 62–69. https://doi.org/10.1145/3426361

[4] Eine ausführlichere Analyse der Informationsbeschaffung von Nutzern ohne deren Wissen: Ingo Dachwitz, 08.06.2023, Wie deutsche Firmen am Geschäft mit unseren Daten verdienen. Wenn es um Firmen geht, die pausenlos Daten für Werbezwecke sammeln, denken viele an die USA. Unsere Recherche zeigt, wie tief deutsche Unternehmen inzwischen in das Netzwerk der Datenhändler verwoben sind und dass sie auch heikle Datenkategorien anboten. Beteiligt sind Konzerne wie die Deutsche Telekom und ProSieben Sat1, URL: https://netzpolitik.org/2023/adsquare_theadex_emetriq_werbetracking-wie-deutsche-firmen-am-geschaeft-mit-unseren-daten-verdienen/

[5] Ein aktuelles Beispiel mit Microsoft: Dirk Knop, Ronald Eikenberg, Stefan Wischner, 09.11.2023, Microsoft krallt sich Zugangsdaten: Achtung vor dem neuen Outlook. Das neue kostenlose Outlook ersetzt Mail in Windows, später auch das klassische Outlook. Es schickt geheime Zugangsdaten an Microsoft. c’t Magazin, Heise

2.2 DIE GESELLSCHAFT

Die Charakterisierung der Gesellschaft stellt natürlich auch eine starke Vereinfachung dar. Als wichtige Strukturmerkmale seien hier aber festgehalten:

  1. Es gibt eine Grundverfassung jeder Gesellschaft jenseits von Anarchie die zwischen den beiden Polen ‚Demokratisch‘ und ‚Autokratisch‘ liegt.
  2. Es gibt minimal ‚politische Entscheidungsstrukturen‘, die verantwortlich sind für geltende ‚Gesetze‘ und ‚Normen‘.
  3. Die Schlagader jeder lebendigen Gesellschaft ist aber die ‚Öffentlichkeit durch Kommunikation‘: wenn, dann verbindet Kommunikation die vielen Bürger zu handlungsfähigen Einheiten. Autokratien tendieren dazu, Kommunikation zu ‚instrumentalisieren‘, um die Bürger zu manipulieren. In Demokratien sollte dies nicht der Fall sein. Tatsächlich kann aber die Freiheit einer Demokratie von partikulären Interessen missbraucht werden.[1]
  4. Jeder einzelne Bürger ist als ‚menschlicher Akteur‘ eingewoben in unterschiedliche Kommunikationsbeziehungen, die vielfach durch Einsatz von ‚Medien‘ ermöglicht werden.

[1] Sehr viele interessante Ideen zur Rolle de Öffentlichkeit finden sich in dem Buch Strukturwandel der Öffentlichkeit von Jürgen Habermas, veröffentlicht 1962. Siehe dazu ausführlich den Wikipedia-Eintrag: https://de.wikipedia.org/wiki/Strukturwandel_der_%C3%96ffentlichkeit

[2] Florian Grotz, Wolfgang Schroeder, Anker der Demokratie? Der öffentlich-rechtliche Rundfunk hat einen wesentlichen Beitrag zum Erfolg der deutschen Demokratie geleistet. Derzeit steht er im Kreuzfeuer der Kritik. Wie kann er auch künftig seine Ankerfunktion im demokratischen Mediensystem erfüllen? FAZ 13.Nov 2023, S.6, Siehe auch online (beschränkt): https://www.faz.net/aktuell/politik/die-gegenwart/ard-und-zdf-noch-im-dienst-der-demokratie-19309054.html Anmerkung: Die Autoren beschreiben kenntnisreich die historische Entwicklung des öffentlich-rechtlichen Rundfunks (ÖRR) in drei Phasen. Verschiedene Schwierigkeiten und Herausforderungen heute werden hervor gehoben. Der generelle Tenor in allem ist, dass von ’notwendigen Veränderungen‘ gesprochen wird. Diese werden über die Themen ‚Finanzierung, Programm und Kontrolle‘ ein wenig ausgeführt. Dies sind alles sehr pragmatische Aspekte. Wenn es dann im Schlusssatz heißt „Es geht darum, dass der ÖRR auch in Zukunft eine wichtige Rolle im Dienst der Demokratie spielen kann.“ dann kann man sich als Leser schon fragen, warum ist der ÖRR denn für die Demokratie so wichtig? Finanzen, Programme und Kontrolle sind mögliche pragmatische Teilaspekte, aber eine eigentliche Argumentation ist nicht zu erkennen. Mit Blick auf die Gegenwart, in welcher die ‚Öffentlichkeit‘ in eine Vielzahl von ‚Medienräumen‘ zerfällt, die von unterschiedlichen ‚Narrativen‘ beherrscht werden, die sich gegenseitig auszuschließen scheinen und die ein von einer echten Mehrheit getragenes politisches Handeln unmöglich erscheinen lassen, sind Finanzen, Kontrollen, formale Programmvielfalt nicht unbedingt wichtige konstruktive Kriterien. Der zusätzlich verheerende Einfluss neuer bedeutungsfreier Texte-generierende Technologien wird mit den genannten pragmatischen Kriterien nicht einmal ansatzweise erfasst.

3. DIGITALISIERUNG – SPRACHTECHNOLOGIEN

BILD 2 : Das Enstehen von Sprachtechnologien zur Unterstützung im Umgang mit Sprache

Dem ‚Weltereignis‘ Text-Generatoren im November 2022 gingen viele andere Sprachtechnologien voraus. So unterscheidet man grob:

  1. TTS, T2S , Text-to-Speech, Speechsynthesis: Erste Systeme, die geschriebenen Text in gesprochene Sprache umsetzen konnten. Ab 1968 [1]
  2. S2T, STT , Speech-to-Text: Spracherkennungssysteme, die gesprochene Sprache in geschriebenen Text verwandelt konnten. Ab 1952 [2]
  3. TRANSL , Maschineller Übersetzer: Programme, die von einer Ausgangssprache in eine Zielsprache übersetzen können. Ab 1975. [3]
  4. DIAL , Dialogsysteme: Programme, die mit Menschen Dialoge führen können, um bestimmte Aufgaben zu unterstützen. Ab 1960iger Jahre. [4]
  5. C2T , Command-to-Text: Programme, die anhand von Aufforderungen Texte mit bestimmten Eigenschaften generieren können. Prominent ab November 2022. [5]

Mittlerweile gibt es noch eine Vielzahl anderer Werkzeuge, die im Rahmen der Computerlinguistik zur Arbeit mit Texten angeboten werden.[6]

Diese Beispiele zeigen, dass die Digitalisierung unserer Welt sich auch immer mehr unserer sprachlichen Kommunikation bemächtigt. Vielfach werden diese Werkzeuge als Hilfe, als Unterstützung wahrgenommen, um die menschliche Sprachproduktion besser verstehen und im Vollzug besser unterstützen zu können.

Im Fall der neuen befehlsorientierten Text-Generatoren, die aufgrund interner Datenbanken komplexe Texte generieren können, die für einen Leser ‚wie normale Texte von Menschen‘ daher kommen, wird der Raum der sprachlichen Kommunikation erstmalig von ’nicht-menschlichen‘ Akteuren durchdrungen, die eine stillschweigende Voraussetzung außer Kraft setzen, die bislang immer galt: es gibt plötzlich Autoren, die keine Menschen mehr sind. Dies führt zunehmend zu ernsthaften Irritationen im sprachlichen Diskursraum. Menschliche Autoren geraten in eine ernsthafte Krise: sind wir noch wichtig? Werden wir noch gebraucht? Ist ‚Menschsein‘ mit einem Schlag ‚entwertet‘?

[1] Erste Einführung hier: https://en.wikipedia.org/wiki/Speech_synthesis

[2] Erste Einführung hier: https://en.wikipedia.org/wiki/Speech_recognition

[3] Erste Einführung hier: https://en.wikipedia.org/wiki/Machine_translation

[4] Erste Einführung hier: https://en.wikipedia.org/wiki/Dialogue_system

[5] Erste Einführung hier: https://en.wikipedia.org/wiki/ChatGPT

[6] Für eine erste Einführung siehe hier: https://de.wikipedia.org/wiki/Computerlinguistik

4. GESELLSCHAFT – SPRACHE – LITERATUR

BILD 3 : Sprachtechnologien und Literatur

Das Auftreten der neuen Werkzeuge zur Text-Generierung stiftet eine anhaltende Unruhe im Lager der Schriftsteller, der Autoren und der Literaturwissenschaftler.

Ein beeindruckendes Beispiel ist die Analyse von Hannes Bajohr (2022).[1] Er spielt die Varianten durch, was passiert, wenn … Was passiert, wenn sich die Produktion von literarischen Texten mit Text-Generatoren durchsetzt? Wenn es zum Standard wird, dass immer mehr Texte, ganze Romane mit Text-Generatoren erzeugt werden? Und dies sind keine bloßen Träume, sondern solche Texte werden schon produziert; Bajohr selbst hat einen Roman unter Zuhilfenahme eines Text-Generators verfasst.[2]

Eine andere junge Autorin und Kulturwissenschaftlerin, die sich intensiv mit dem neuen Wechselverhältnis von Literatur, digitaler Welt und Text-Generatoren auseinander setzt ist Jenifer Becker.[3] Ihr Debüt-Roman ist aber noch ein Roman ohne Einsatz von künstlichen Texterzeugern. In ihrem Roman spricht sie noch ’selbst‘ als ‚menschliche Autorin‘ und wir damit potentiell zu einer Gesprächspartnerin für ihre Leser: der Andere als potentielles Ich, wobei das ‚eigentliche Ich‘ sich Spiegel des Textes in spannungsvoller Differenz erleben kann.

Angesichts einer digitalisierten Welt, die mehr und mehr zu einer ‚Ereigniswelt‘ wird, in der das ‚Verweilen‘, das ‚Verstehen‘ sich immer mehr abschwächt, verstummt, verliert auch das Individuum seine eigene Kraft und beginnt sich ‚hohl‘ anzufühlen, wo es doch gar nicht hohl ist, nicht hohl sein muss.

Hier setzt die Rede zur Nobelpreisverleihung 2018 für Literatur der polnischen Laureatin Olga Tokarczuk ein. Sie beschreibt als das Wunderbare von Literatur gerade diese einzigartige Fähigkeit von uns Menschen, dass wir mittels Sprache von unserem Innern berichten können, von unserer individuellen Art des Erlebens von Welt, von Zusammenhängen, die wir in dem Vielerlei des Alltags entdecken können, von Prozessen, Gefühlen, von Sinn und Unsinn. [4]

In dieser Eigenschaft ist Literatur durch nichts ersetzbar, bildet Literatur den ‚inneren Herzschlag‘ des Menschlichen auf diesem Planeten.

Aber, und dies sollte uns aufhorchen lassen, dieser wunderbarer Schatz von literarischen Texten wird bedroht durch den Virus der vollständigen Nivellierung, ja geradezu eine vollständigen Auslöschung. Text-Generatoren haben zwar keinerlei Wahrheit, keinerlei realen Bindungen an eine reale Welt, an reale Menschen, keinerlei wirkliche Bedeutung, aber in der Produktion von Texten (und gesprochener Rede) ohne Wahrheit sind sie vollständig frei. Durch ihre hohe Geschwindigkeit der Produktion können sie alle ‚menschliche Literatur‘ in der Masse des Bedeutungslosen aufsaugen, unsichtbar machen, nihilieren.

[1] Hannes Bajohr, 2022, Artifizielle und postartifizielle Texte. Über Literatur und Künstliche Intelligenz. Walter-Höllerer-Vorlesung 2022, 8.Dez. 2022, Technische Universität Berlin , URL: https://hannesbajohr.de/wp-content/uploads/2022/12/Hoellerer-Vorlesung-2022.pdf, Den Hinweis auf diesen Artikel erhielt ich von Jennifer Becker.

[2] Siehe dazu Bajohr selbst: https://hannesbajohr.de/

[3] Jenifer Becker, Zeiten der Langeweile, Hanser, Berlin, 2023. Dazu Besprechung in der Frankfurter Rundschau, 30.8.23, Lisa Berins, Die große Offline-Lüge, https://www.fr.de/kultur/literatur/zeiten-der-langeweile-von-jenifer-beckerdie-grosse-offline-luege-92490183.html

[4] Olga Tokarczuk, 2018, The Tender Narrator, in: Nobel Lecture by Olga Tokarczuk, 2018, Svenska Akademien, URL: https://www.nobelprize.org/uploads/2019/12/tokarczuk-lecture-english-2.pdf

5. SPRACHE UND BEDEUTUNG

BILD 4 : Sprache und Bedeutung

Am Beispiel der ‚menschlichen Literatur‘ klang eben schon an, welch fundamentale Rolle die ‚Bedeutung von Sprache‘ spielt und dass wir Menschen über solch eine Fähigkeit verfügen. Im Schaubild 4 wird veranschaulicht, was es bedeutet, dass Menschen im Alltag scheinbar mühelos Aussagen erzeugen können, die als ‚aktuell zutreffend’/ ‚wahr‘ untereinander akzeptiert werden oder als ‚aktuell nicht zutreffend’/ ‚falsch‘ oder als ‚aktuell unbestimmt‘. Wenn ein konkreter empirischer Sachverhalt gegeben ist (der Hund von Ani, das rote Auto vom Nachbarn Müller, die Butter auf dem Frühstückstisch, …), dann ist eine Einigung zwischen Menschen mit der gleichen Sprache immer möglich.

Was man sich dabei selten bewusst macht ist, welch starke Voraussetzung ‚in einem Menschen‘ gegeben sein müssen, damit er über diese Fähigkeit so leicht verfügen kann.

Die ‚Box‘ im rechten Teil des Diagramms repräsentiert auf einem starken Abstraktionsniveau die wichtigsten Komponenten, über die ein Mensch in seinen inneren Verarbeitungsstrukturen verfügen können muss, damit er mit anderen so sprechen kann. Die Grundannahmen sind folgende:

  1. Eine Außenwahrnehmung der umgebenden (empirischen) Welt.
  2. Alles was wahrgenommen werden kann kann auch in ‚Elemente des Wissens‘ verwandelt werden.
  3. Eine Sonderrolle nimmt die Repräsentation von Elementen der Sprachstruktur ein.
  4. Zwischen den Elementen des Wissens und den Ausdruckselementen kann ein Mensch eine dynamische Abbildungsbeziehung (Bedeutungsbeziehung) aufbauen (Lernen), so dass Wissenselemente auf Ausdruckselemente verweisen und Ausdruckselemente auf Wissenselemente.
  5. Aus Sicht der Ausdruckselemente bildet jenes Wissen, das über eine Abbildung verbunden wird, die ‚Bedeutung‘ der Ausdruckselemente.
  6. Innerhalb des Wissens gibt es zahlreiche unterschiedliche Formen von Wissen: aktuelles Wissen, erinnerbares Wissen, Veränderungswissen, Ziele, und prognostisches Wissen.
  7. Und vieles mehr

Neben Aussagen, die ‚aktuell wahr‘ sein können, verfügt der Mensch aber auch über die Möglichkeit, vielfache Wiederholungen als ‚wahr‘ anzusehen, wenn sie sich immer wider als ‚aktuell wahr‘ erweisen. Dies verweist auf mögliche weitere Formen von möglichen abgeleiteten Wahrheiten, die man vielleicht unter dem Oberbegriff ’strukturelle Wahrheit‘ versammeln könnte.

6. ZÄHMUNG DER BEDEUTUNG – WISSENSCHAFT

BILD 5 : Wissenschaft als Ergänzung von Literatur

Die Ur-Funktion von Literatur, das Gespräch zwischen dem Inneren der Menschen über ihre Welt- und Selbsterfahrung sprechen zu können, indem nicht nur die ‚Oberfläche der Dinge‘, sondern auch die ‚Tiefenstruktur der Phänomene‘ ins Wort kommen können, ist unersetzbar, aber sie leidet im Alltag an der strukturellen Schwäche des möglichen ‚Nicht-Verstehens‘ oder ‚Falsch-Verstehens‘. Während sich über die Dinge des alltäglichen Lebens leicht Einigkeit erzielen lässt, was jeweils gemeint ist, ist das ‚Innere‘ des Menschen eine echte ‚Terra Incognita‘, ein ‚unbekanntes Land‘. In dem Maße, wie wir Menschen im Innern ‚ähnlich‘ erleben und empfinden, kann das Verstehen von ‚Bedeutungen‘ noch ansatzweise gelingen, da wir Menschen aufgrund unserer Körperstrukturen in vielen Dingen ähnliche Erleben, Fühlen, Erinnern und Denken. Aber je spezifischer etwas in unserem Inneren ist, je ‚abstrakter‘ eine Bedeutung wird, umso schwieriger wird die Erfassung einer Rede durch andere. Dies führt dann unabwendbar zum Falsch- oder gar Nicht-Verstehen.

In dem Maße wie wir Menschen aber auf eine ‚tragfähige Erklärung von Welt‘ angewiesen sind, um ‚gemeinsam‘ das ‚Richtige‘ zu tun, in dem Maße wird unsere normale sprachliche Kommunikation, wird Literatur überfordert. Sie will vielleicht, aber sie kann aus sich heraus eine solche Eindeutigkeit nicht ohne weiteres herstellen. Ihre Stärke kann und wird in diesen Bereich zu einer Schwäche.

Vor dem Hintergrund des ‚Überlebens auf dem Planeten‘, des ‚Überlebens im Alltag‘ bildet die Notwendigkeit von ‚wahren Texten‘, die zudem ‚belastbare Prognosen‘ erlauben, eine Kernforderung, die möglicherweise nur eine Teilmenge jener Bedeutungsräume erlaubt, über die Literatur verfügen kann. Aber diese ‚wahren und belastbaren Teilräume‘ bilden jenen ‚harten Boden‘, auf denen sich Menschen quer über alle Kontinente und im Bereich aller Sprachen gründen können.

Diese Art von Texten, deren Existenz von gemeinsamen nachprüfbaren ‚wahren Sachverhalten und Prognosen‘ abhängt, entstand in der Geschichte der Menschheit unter dem Namen ‚empirische Wissenschaft‘ sehr spät.[1] Nach anfänglichen Mühen entwickelte sie sich dann rasant weiter und ist heute zum Standard für nachweisbar wahre und prognosefähige Texte geworden.

Die heutige weltweite Verbreitung von ‚Wissenschaft‘ ist ihr selbst aber mittlerweile zum Problem geworden. Der klare Kern dieser Textform erscheint in der öffentlichen Verwendung der Charakterisierung von ‚Wissenschaft‘ seltsam vage. Der Begriff einer ‚empirischen Theorie‘ ist geradezu verschwunden. Die großen Enzyklopädien dieser Welt kennen diesen Begriff nicht mehr.

Dazu kommt die ‚Altlast‘ der modernen Wissenschaft, dass sie sich schnell zu einer Veranstaltung von ‚Spezialisten‘ entwickelt hat, die ihre ‚eigene Fachsprache‘ sprechen, die zudem vielfach teilweise oder ganz mit ‚mathematischer Sprache‘ arbeiten. Diese führt zunehmend zu einer Ausgrenzung aller anderen Bürger; das ‚Verstehen von Wissenschaft‘ wird für die meisten Menschen zu einer ‚Glaubenssache‘, wo doch Wissenschaft gerade angetreten war, um die ‚Autorität des bloßen Glaubens‘ zu überwinden.

Desweiteren haben wir in den letzten Jahrzehnten mehr und mehr gelernt, was es heißt, den Aspekt ‚Nachhaltiger Entwicklung‘ zu berücksichtigen. Eine Grundbotschaft besteht darin, dass alle Menschen einbezogen werden müssen, um die Entwicklung nicht von einzelnen, kleinen — meist mächtigen — Gruppen dominieren zu lassen. Und von de Entwicklung des Lebens auf diesem Planeten [3] wissen wir, dass das Leben — von dem wir als Menschen ein kleiner Teil sind — in den zurück liegenden ca. 3.5 Milliarden Jahren nur überleben konnten, weil es nicht nur das ‚Alte, Bekannte‘ einfach wiederholt hat, sondern auch immer ‚aus sich echtes Neues‘ heraus gesetzt hat, Neues, von dem man zum Zeitpunkt des Hervorbringens nicht wusste, ob es für die Zukunft brauchbar sein wird.[3,4]

Dies regt dazu an, den Begriff der ‚empirischen Theorie‘ zu aktualisieren und ihn sogar zum Begriff einer ’nachhaltigen empirischen Theorie‘ zu erweitern.

[1] Wenn man als Orientierungspunkt für den Beginn der neuzeitlichen wahrheitsfähigen und prognosefähigen Texte Galileo Galilei (1564 – 1641) und Johannes Kepler ()1571 – 1630) nimmt , dann beginnt der Auftritt dieser Textform im 17./18. Jahrhundert. Siehe hier: https://de.wikipedia.org/wiki/Galileo_Galilei und hier: https://de.wikipedia.org/wiki/Johannes_Kepler

[2] UN. Secretary-General; World Commission on Environment and Development, 1987, Report of the World Commission on Environment and Development : note / by the Secretary General., https://digitallibrary.un.org/record/139811 (accessed: July 20, 2022) (In einem besser lesbaren Format: https://sustainabledevelopment.un.org/content/documents/5987our-common-future.pdf) Anmerkung: Gro Harlem Brundtland (ehemalige Ministerpräsidentin von Norwegen) war die Koordinatorin von diesem Report. 1983 erhielt sie den Auftrag vom Generalsekretär der UN einen solchen Report zu erstellen, 1986 wurde er übergeben und 1987 veröffentlicht. Dieser Text enthält die grundlegenden Ideen für alle weiteren UN-Texte.

Zitat aus dem Vorwort: The fact that we all became wiser, learnt to look across cultural and historical barriers, was essential. There were moments of deep concern and potential crisis, moments of gratitude and achievement, moments of success in building a common analysis and perspective. The result is clearly more global, more realistic, more forward looking than any one of us alone could have created. We joined the Commission with different views and perspectives, different values and beliefs, and very different experiences and insights. After these three years of working together, travelling, listening, and discussing, we present a unanimous report.“ und „Unless we are able to translate our words into a language that can reach the minds and hearts of people young and old, we shall not be able to undertake the extensive social changes needed to correct the course of development.

[3] Gerd Doeben-Henisch, 2016, Sind Visionen nutzlos?, URL: https://www.cognitiveagent.org/2016/10/22/sind-visionen-nutzlos/

[4] Zum Begriff der Evolution siehe hier: https://de.wikipedia.org/wiki/Evolution und hier: https://en.wikipedia.org/wiki/Evolution

7. EMPIRISCHE UND NACHHALTIG EMPIRISCHE THEORIE

BILD 6 : Aktualisierter Begriff von ‚Empirischer Theorie (ET)‘ und ‚Nachhaltiger Empirischer Theorie (NET)‘

Zum ‚aktualisierten Begriff‘ einer empirischen und einer nachhaltig empirischen Theorie gehören die folgenden Elemente:

  1. Die Gruppe der ‚Theorie-Autoren‘ besteht prinzipiell aus allen Menschen, die in ihrer Alltagssprache kommunizieren. Dies ermöglicht von Anfang an maximale Diversität.
  2. Der engere Begriff der ‚Empirischen Theorie‘ umfasst die Elemente ‚IST-Zustand‘, ‚Veränderungs-Wissen‘ sowie einen ‚Folgerungsbegriff‘ in Form eines Wissens, wie man Veränderungswissen auf einen gegebenen Zustand anwendet.
  3. Das ‚Ergebnis einer Folgerung‘ ist ein ’neuer Folge-Zustand‘.
  4. Lässt sich eine Folgerung mehrfach vollziehen dann ensteht eine ‚Folge von Folgezuständen‘, die man heute auch als ‚Simulation‘ bezeichnen kann.

Der IST-Zustand umfasst eine Menge von Ausdrücken einer gewählten Alltagssprache, die so beschaffen sind, dass alle beteiligten Theorie-Autoren sich darüber einigen können, dass diese Ausdrücke unter den angenommenen Bedingungen ‚zutreffen‘, d.h. ‚wahr‘ sind.

Das Veränderungs-Wissen umfasst eine Menge von Ausdrücken, die Veränderungsprozesse beschreiben, die sich ebenfalls unter angegebenen Bedingungen von jedem überprüfen lassen.

Der Folgerungsbegriff ist ein Text, der eine Handlungsbeschreibung umfasst, die beschreibt, wie man eine Veränderungsbeschreibung auf eine gegebene IST-Beschreibung so anwendet, dass daraus ein neuer Text entsteht, der die Veränderung im Text enthält.

Eine empirische Theorie ermöglicht die Erzeugung von Texten, die mögliche Zustände in einer möglichen Zukunft beschreiben. Dies kann mehr als eine Option umfassen.

Im Alltag der Menschen reicht ein bloßes Wissen um ‚Optionen‘ aber nicht aus. Im Alltag müssen wir uns beständig Entscheiden, was wir tun wollen. Für diese Entscheidungen gibt es keine zusätzliche Theorie: für einen menschlichen Entscheidungsprozess ist es bis heute mehr oder weniger ungeklärt, wie er zustande kommt. Es gibt allerdings viele ‚Teil-Theorien‘ und noch mehr ‚Vermutungen‘.

Damit diese ’nicht-rationale Komponente‘ unseres alltäglichen Lebens nicht ‚unsichtbar‘ bleibt, wird hier der Begriff einer nachhaltigen empirischen Theorie vorgeschlagen, in dem zusätzlich zur empirischen Theorie eine Liste von Zielen angenommen wird, die von allen Beteiligten aufgestellt wird. Ob diese Ziele ‚gute‘ Ziele sind, kann man erst wissen, wenn sie sich ‚im weiteren Verlauf‘ ‚bewähren‘ oder eben nicht. Explizite Ziele ermöglichen daher einen ‚gerichteten Lernprozess‘. Explitit formulierte Ziele ermöglichen darüber hinaus eine kontinuierliche Kontrolle, wie sich der aktuelle Handlungsprozess mit Blick auf ein Ziel verhält.

Für die Umsetzung einer nachhaltigen Entwicklung sind nachhaltige empirische Theorien eine unverzichtbare Voraussetzung.

8. WAHRHEIT, PROGNOSE & TEXT-GENERATOREN

BILD 7 : Die potentielle Rolle von Text-Generatoren der Machart 2023 innerhalb eines wissenschaftlichen Diskurses

Für die Bewertung, welche Rolle Textgeneratoren aus dem Jahr 2023 innerhalb eines wissenschaftlichen Diskurses spielen können, kann man ein Gedankenexperiment (und dann natürlich auch real) durchführen, welche der Anforderungen eines wissenschaftlichen Diskurses, die zuvor erläutert worden sind, von einem Text-Generator erfüllt werden können. Das Bild Nr.7 ist eigentlich selbst-erklärend.

Das zentrale Argument besteht darin, dass Text-Generatoren des Jahrgangs 2023 über keinerlei Wissen verfügen, wie es der Mensch besitzt, nahezu keine Wahrnehmung (außer Texteingaben oder Spracheingaben) haben, und dementsprechend auch über keine Bedeutungsfunktion verfügen. Die Unfähigkeit zu ‚wahren Aussagen‘ oder auch der Fähigkeit, entscheiden zu können, ob etwas ‚wahr‘ ist oder nicht, fehlt ebenfalls vollständig.[1]

[1] Ron Brachman, Hector Levesque, Dieser KI können wir nicht trauen, Es gibt ein grundlegendes Problem in der Entwicklung der gegenwärtig angesagten KI-Systeme. Hier kommt ein Vorschlag, wie es besser geht. FAZ, Mo 13.Nov 2023, S.19 . Online (beschränkt) auch hier: https://www.faz.net/aktuell/wirtschaft/unternehmen/chatgpt-co-dieser-ki-koennen-wir-nicht-trauen-19308979.html, Anmerkung 1: Die beiden Autoren nehmen den Boom um chatGPT zum Anlass, vor der gesamten Künstlichen Intelligenz (KI) zu warnen. Sie fokussieren ihre Kritik auf einen Punkt: „Der aktuellen KI-Technologie kann man nicht trauen. … Obwohl sie auf der Grundlage riesiger Datenmengen trainiert werden … machen moderne KI-Systeme bizarre, dumme Fehler. Unvorhersehbare, unmenschliche Fehler.“ Und weiter: „Wir wissen nicht, wann diese Systeme das Richtige tun und wann sie versagen.“ Sie führen im weiteren Verlauf noch aus, dass die aktuelle Architektur dieser Systeme es nicht zulässt, heraus zu finden, was genau die Gründe sind, warum sie entweder richtig oder falsch urteilen. Mit Blick auf den Alltag diagnostizieren sie bei uns Menschen einen ‚gesunden Menschenverstand‘, ein Prototyp von ‚Rationalität‘, und diesen sehen sie bei den KI-Systemen nicht. Sie beschreiben viele Eigenschaften, wie Menschen im Alltag lernen (z.B. mit ‚Überzeugungen‘, ‚Zielen‘ arbeiten, mit ‚Konzepten‘ und ‚Regeln‘, mit ‚echten Fakten‘, …), und stellen fest, dass KI-Systeme für uns erst wirklich nützlich werden, wenn sie über diese Fähigkeiten nachvollziehbar verfügen. Anmerkung 2: Die Autoren sprechen es nicht explizit aus, aber implizit ist klar, dass sie die neuen Text-Generatoren wie chatGPT & Co zu jener KI-Technologie rechnen, die sie in ihrem Beitrag charakterisieren und kritisieren. Wichtig ist, dass Sie in ihrer Kritik Kriterien benutzen, die alltäglich vage sind (‚gesunder Menschenverstand‘), allerdings angereichert mit vielen Alltagsbeispielen. Letztlich machen ihre kritischen Überlegungen aber deutlich, dass es angesichts der neuen KI-Technologien an geeigneten und erprobten Meta-Modellen (‚transdisziplinär‘, ‚wissenschaftsphilosophisch‘, …) mangelt. Man ’spürt‘ ein Ungenügen mit dieser neuen KI-Technologie, kann auch viele Alltagsbeispiele aufzählen, aber es fehlt an einem klaren theoretischen Konzept. Ein solches scheint aber momentan niemand zu haben ….

9. Epilog

Diese Kurzfassung meines Vortags vom 10.November 2023 ist gedacht als ‚Basis‘ für die Erstellung eines umfassenderen Textes, in dem alle diese Gedanken weiter ausgeführt werden, dazu auch mit viel mehr Literatur und vielen realen Beispielen.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

STÄNDIGE WIEDERGEBURT – Jetzt. Schweigen hilft nicht …Exploration

Autor: Gerd Doeben-Henisch

Email: gerd@doeben-henisch.de

28.Aug 2023 – 28.Aug 2023 (17:53h)

KONTEXT

Zum Format ‚Exploration‘ siehe [*]

Wie im vorausgehenden Blog-Eintrag geschrieben, entstand der letzte Blog-Eintrag mit dem Thema „Homo Sapiens: empirische und nachhaltig-empirische Theorien, Emotionen, und Maschinen. Eine Skizze“ [1] als Redeentwurf für die Konferenz „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ [2] Aufgrund des engen Zeitrahmens (20 Min für den Vortrag) war dieser Text sehr komprimiert. Trotz der Kürze enthält der komprimierte Text aber sehr viele Hinweise auf grundlegende Sachverhalte. Einer davon soll hier kurz aufgegriffen werden.

Anmerkung: Eine Englische Version dieses Beitrags findet sich unter : https://www.uffmm.org/2023/08/28/state-change-from-non-writing-to-writing-working-with-chatgpt4-in-parallel/ . Zusätzlich gibt es in der Englischen Version ein Experiment insofern als das Thema des Posts unabhängig vom ersten Post mit chatGPT4 parallel bearbeitet worden ist. Zwar lassen sich die Voraussetzungen des ursprünglichen Artikels nicht einfach auf den Dialog mit chatGPT4 übertragen, aber man kann dennoch ein gewisses Gefühl dafür entwickeln, wo einerseits die Stärken von chatGPT4 liegen, andererseits aber auch die Schwächen. Für ‚authentisches‘ Schreiben ist eine Ersetzung durch chatGPT4 keine Option, aber eine ‚Kooperation‘ zwischen ‚authentischem‘ Schreiben und chatGPT erscheint möglich und in manchen Kontexten sicher sogar fruchtbar.

Lokalisierung im Text des Vortrags

Einen ersten Hinweis findet man in dem Abschnitt überschrieben mit „ZUKUNFT UND EMOTIONEN“ sowie dann in dem Abschnitt „NACHHALTIGE EMPIRISCHE THEORIE„.

In diesen Textabschnitten wird darauf aufmerksam gemacht, dass jeder expliziten Weltsicht eine Phase des ‚Entstehens‘ dieser Weltsicht vorausgeht, in der es einen charakteristischen ‚Übergang‘ gibt zwischen dem ‚Ergebnis‘ in Form eines möglichen Textes und einem vorausgehenden Zustand, in dem dieser Text noch nicht ‚da‘ ist. Natürlich gibt es in dieser ‚Vor-Text-Phase‘ — entsprechend den Annahmen im Abschnitt „BEDEUTUNG“ — viele Wissenstatbestände und Emotionen im ‚Gehirn des Autors‘, die allesamt ’nicht bewusst‘ sind, von denen aber die möglichen Auswirkungen in Form eines Textes ausgehen. Wie genau von diesem ‚vor-bewussten‘ Wissen und den Emotionen ‚Wirkung‘ ausgehen soll, ist weitgehend unklar.

Aus dem Alltag wissen wir, dass externe Ereignisse ‚Wahrnehmungen‘ auslösen können, die wiederum als ‚Auslöser‘ die unterschiedlichsten Reaktionen ‚anregen‘ können. Sieht man von solchen Reaktionen ab, die aufgrund häufiger Praxis in unserem Gehirn ‚vorgespurt‘ sind und die dann fast immer ‚automatisch‘ hervorgerufen werden, ist es in der Regel kaum voraussagbar, ob und wie wir reagieren.

Vom Nicht-Handeln zum Handeln

Dieser potentielle Übergang vom Nicht-Handeln zum Handeln ist im Alltag allgegenwärtig. Als solcher fällt er uns normalerweise nicht auf. In besonderen Situationen, dort, wo wir explizit zu Entscheidungen herausgefordert werden, befinden wir uns dann aber plötzlich in einem quasi ‚undefiniertem Zustand‘: die Situation erscheint uns so, als ob wir uns entscheiden sollen. Sollen wir überhaupt etwas tun (etwas Essen oder nicht)? Welche Option ist wichtiger (Zur geplanten Sitzung hingehen oder doch lieber eine bestimmte Aufgabe zu Ende bringen)? Wir wollen einen Plan umsetzen, aber welche der vielen Optionen sollen wir ‚auswählen‘ (… es gibt mindestens drei Alternativen; alle haben Pros und Cons)? Die Entscheidung für eine als hoch favorisierte Option würde erhebliche Änderungen in der eigenen Lebenssituation mit sich bringen; will ich dies wirklich? Wäre es dies wert? Die Art der Herausforderungen ist so vielfältig wie das alltägliche Leben in den unterschiedlichsten Bereichen.

Was ist wichtig, wichtiger?

Sobald vor dem ‚geistigen Auge‘ eine oder mehr als eine Option möglich erscheint, fragt man sich unwillkürlich, wie ‚ernst‘ soll man die Optionen nehmen? Gibt es Argumente dafür oder dagegen? Sind die Gründe ‚glaubwürdig‘? Welche ‚Risiken‘ verbinden sich damit? Was kann ich als ‚positiven Mehrwert‘ erwarten? Welche Veränderungen für meine ‚persönliche Situation‘ sind damit verbunden? Was bedeutet dies für mein ‚Umfeld‘? …

Was mache ich, wenn die ‚erkennbaren‘ (‚rationalen‘) Optionen kein klares Resultat liefern, es meinem ‚Lebensgefühl‘, ‚mir‘, ‚widerspricht‘ und ich es ’spontan‘ ablehne, es spontan ’nicht will‘, es diverse ’starke Gefühle‘ auslöst, die mich möglicherweise ‚überwältigen‘ (Wut, Angst, Enttäuschung, Trauer, …)? …

Der Übergang vom Nicht-Handeln zum Handeln kann eine Vielzahl von ‚rationalen‘ und ‚emotionalen‘ Aspekten ‚aktivieren‘, die sich gegenseitig beeinflussen können — und meistens tatsächlich beeinflussen –, bis dahin, dass man in einem ‚Knäuel‘ von Überlegungen und Emotionen verstrickt eine ‚Hilflosigkeit‘ erlebt: man hat das Gefühl, dass man ‚festhängt‘, eine ‚klare Lösung‘ erscheint fern. …

Falls man ‚abwarten‘ kann (Stunden, Tage, Wochen, …) und/oder man die Gelegenheit hat, mit anderen Menschen darüber zu sprechen, dann kann dies oft — nicht immer — die Situation soweit klären, dass man zu wissen meint, was man ‚jetzt will‘. Doch solche ‚Klärungen‘ schaffen in der Regel die ‚Herausforderung einer ‚Entscheidung‘ nicht aus dem Weg. Außerdem ist die ‚Flucht‘ in das ‚Verdrängen‘ der Situation immer eine Option; manchmal hilft es; wenn es nicht hilft, dann wird durch das ‚Verdrängen‘ die ‚alltägliche‘ Situation schlimmer, ganz abgesehen davon, dass ‚ungelöste Problemstellungen‘ ja nicht ‚verschwinden‘, sondern ‚im Innern‘ weiter leben und dort auf vielfache Weise ’spezielle Wirkungen‘ entfalten können, die sehr ‚destruktiv‘ sind.

Wiedergeburt?

Die Vielfalt der möglichen — emotionalen wie rationalen — Aspekte des Übergangs vom Nicht-Handeln zum Handeln sind faszinierend, aber möglicherweise noch faszinierender ist der grundsätzliche Vorgang selbst: zu jedem Zeitpunkt lebt jeder Mensch in einer bestimmten Alltags-Situation mit einer Vielzahl von schon gemachten Erfahrungen, eine Mischung von ‚rationalen Erklärungen‘ und ‚emotionalen Zuständen‘. Und, je nach Beschaffenheit des Alltags, kann man sich ‚dahin treiben lassen‘ oder man muss täglich ‚anstrengende Tätigkeiten‘ wahrnehmen, um die Situation des Alltags zu erhalten; in anderen Fällen muss beständig real um den Fortbestand im Alltag ‚kämpfen‘. Man erfährt hierin dass die ‚Gegebenheiten des Alltags‘ dem einzelnen weitgehend vorgegeben sind und man kann diese nur begrenzt und mit einem entsprechenden ‚Aufwand‘ ändern.

Externe Ereignisse (Feuer, Wasser, Gewalt, Krieg, Dürre, Unfall, Lebensformen einer Community, Arbeitsplatz, Firmenpolitik,Krankheiten, Altern, …) können natürlich ‚gegen den eigenen Willen‘ den persönlichen Alltag stark beeinflussen, aber letztlich bleibt eine grundlegende Autonomie des Entscheidens im einzelnen erhalten: man kann im nächsten Moment anders entscheiden als bisher, auch ohne dass einem in diesem Moment selbst ganz klar ist, ‚warum‘ man es tut. Ob man dieses ‚Nicht-Erklären-Können‘ dann ‚Bauchgefühl‘ nennt oder ‚Intuition‘ oder … alle diese Worte umschreiben nur ein ‚Nicht-Wissen‘ über die Prozesse ‚in uns‘, die stattfinden, und uns ‚motivieren‘. Und selbst wenn man eine ’sprachliche Erklärung‘ verfügbar hat, muss dies nicht bedeuten, das sich mit diesen Worten auch eine ‚klare Einsicht‘ verbindet. Der Anteil der ‚vorbewussten/ unbewussten‘ ‚inneren Prozesse‘ ist hoch und letztlich sind diese nicht ‚aus sich heraus‘ erklärbar: sie finden statt, bewegen uns, und wir ’setzen sie um‘.

Ja, in jedem Moment können wir uns ‚wie gewohnt‘ verhalten und darin die Welt ‚erhalten‘ (oder dadurch daran hindern, anders zu werden?). Wir können aber auch mal vom Gewohnten ‚abweichen‘ (und dadurch etwas ‚zerstören‘ oder etwas ‚Neues ermöglichen?). Insgesamt bleibt der ‚Raum des Inneren‘ dabei weitgehend ‚unerhellt‘. Wir verstehen kaum bis gar nicht, warum wir dies tun; dies verlangt Vertrauen in uns und die Situation. Ist der Unterschied zur ‚ursprünglichen Geburt‘ nur graduell? Befinden wir uns in einem anhaltenden Geburtsprozess der beständig den Aufbau von etwas ‚Neuem‘ ermöglicht, ‚Leben‘ unterstützen kann oder auch ’schwächen‘?

ANMERKUNGEN

[*] Das Format ‚Exploration‘ wird ab jetzt in dem Blog neu eingeführt, da es vielfach die Situation gibt, dass der Autor an der Übergangsstelle von ‚Nicht-Handeln zu Handeln‘, von ‚Nicht-Schreiben zu Schreiben‘ ausprobiert, welche emotionalen und rationalen ‚Reaktionen‘ aus dem ‚Inneren‘ für eine bestimmte Frage/ eine bestimmte Idee ’spontan‘ verfügbar sind. Dies ist zu unterscheiden von einer ’systematischen Ausarbeitung‘ eines Gedankens, obgleich der Einfluss des ‚Inneren‘ natürlich nie ganz ausgeklammert werden. Der ‚Unterschied‘ zwischen ‚explorativem‘ und ’systematischem‘ Schreiben habt darauf ab, dass beim systematischen Schreiben versucht wird, die ‚rationale Dimension‘ des Gedankens in den Vordergrund zu stellen.

[1] https://www.cognitiveagent.org/2023/08/24/homo-sapiens-empirische-und-nachhaltig-empirische-theorien-emotionen-und-maschinen-eine-skizze/ .

[2] https://zevedi.de/themen/ki-text/

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

Homo Sapiens: empirische und nachhaltig-empirische Theorien, Emotionen, und Maschinen. Eine Skizze

5.Aug 2023 – 29.Aug 2023 (10:37h)

Autor: Gerd Doeben-Henisch

Email: gerd@doeben-henisch.de

(Eine Englische Version findet sich hier: https://www.uffmm.org/2023/08/24/homo-sapiens-empirical-and-sustained-empirical-theories-emotions-and-machines-a-sketch/)

Kontext

Dieser Text stellt die Skizze zu einem Vortrag dar, der im Rahmen der Konferenz „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ (25./26.August 2023, TU Darmstadt) gehalten werden soll. [1] Die Englische Version des überarbeiteten Vortrags findet sich schon jetzt HIER: https://www.uffmm.org/2023/10/02/collective-human-machine-intelligence-and-text-generation-a-transdisciplinary-analysis/ . Die Deutsche Version des überarbeiteten Vortrags wird im Verlag Walter de Gruyter bis Ende 2023/ Anfang 2024 erscheinen. Diese Veröffentlichung wird hier dann bekannt gegeben werden.

Sehr geehrtes Auditorium,

In dieser Tagung mit dem Titel „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ geht es zentral um wissenschaftliche Diskurse und den möglichen Einfluss von KI-Textgeneratoren auf diese Diskurse. Der heiße Kern bleibt aber letztlich das Phänomen Text selbst, seine Geltung.

SICHTWEISEN-TRANS-DISZIPLINÄR

In dieser Konferenz werden zu diesem Thema viele verschiedene Sichten vorgetragen, die zu diesem Thema möglich sind.

Mein Beitrag zum Thema versucht die Rolle der sogenannten KI-Textgeneratoren dadurch zu bestimmen, dass aus einer ‚transdisziplinären Sicht‘ heraus die Eigenschaften von ‚KI-Textgeneratoren‘ in eine ’strukturelle Sicht‘ eingebettet werden, mit deren Hilfe die Besonderheiten von wissenschaftlichen Diskursen herausgestellt werden kann. Daraus können sich dann ‚Kriterien für eine erweiterte Einschätzung‘ von KI-Textgeneratoren in ihrer Rolle für wissenschaftliche Diskurse ergeben.

Einen zusätzlichen Aspekt bildet die Frage nach der Struktur der ‚kollektiven Intelligenz‘ am Beispiel des Menschen, und wie sich diese mit einer ‚Künstlichen Intelligenz‘ im Kontext wissenschaftlicher Diskurse möglicherweise vereinen kann.

‚Transdisziplinär‘ bedeutet in diesem Zusammenhang eine ‚Meta-Ebene‘ aufzuspannen, von der aus es möglich sein soll, die heutige ‚Vielfalt von Textproduktionen‘ auf eine Weise zu beschreiben, die ausdrucksstark genug ist, um eine ‚KI-basierte‘ Texterzeugung von einer ‚menschlichen‘ Texterzeugung unterscheiden zu können.

MENSCHLICHE TEXTERZEUGUNG

Die Formulierung ‚wissenschaftlicher Diskurs‘ ist ein Spezialfall des allgemeineren Konzepts ‚menschliche Texterzeugung‘.

Dieser Perspektivenwechsel ist meta-theoretisch notwendig, da es auf den ersten Blick nicht der ‚Text als solcher ‚ ist, der über ‚Geltung und Nicht-Geltung‘ entscheidet, sondern die ‚Akteure‘, die ‚Texte erzeugen und verstehen‘. Und beim Auftreten von ‚verschiedenen Arten von Akteuren‘ — hier ‚Menschen‘, dort ‚Maschinen‘ — wird man nicht umhin kommen, genau jene Unterschiede — falls vorhanden — zu thematisieren, die eine gewichtige Rolle spielen bei der ‚Geltung von Texten‘.

TEXTFÄHIGE MASCHINEN

Bei der Unterscheidung in zwei verschiedenen Arten von Akteuren — hier ‚Menschen‘, dort ‚Maschinen‘ — sticht sofort eine erste ‚grundlegende Asymmetrie‘ ins Auge: sogenannte ‚KI-Textgeneratoren‘ sind Gebilde, die von Menschen ‚erfunden‘ und ‚gebaut‘ wurden, es sind ferner Menschen, die sie ‚benutzen‘, und das wesentliche Material, das von sogenannten KI-Generatoren benutzt wird, sind wiederum ‚Texte‘, die als ‚menschliches Kulturgut‘ gelten.

Im Falle von sogenannten ‚KI-Textgeneratoren‘ soll hier zunächst nur so viel festgehalten werden, dass wir es mit ‚Maschinen‘ zu tun haben, die über ‚Input‘ und ‚Output‘ verfügen, dazu über eine minimale ‚Lernfähigkeit‘, und deren Input und Output ‚textähnliche Objekte‘ verarbeiten kann.

BIOLOGISCH-NICHT-BIOLOGISCH

Auf der Meta-Ebene wird also angenommen, dass wir einerseits über solche Akteure verfügen, die minimal ‚textfähige Maschinen‘ sind — durch und durch menschliche Produkte –, und auf der anderen Seite über Akteure, die wir ‚Menschen‘ nennen. Menschen gehören als ‚Homo-Sapiens Population‘ zur Menge der ‚biologischen Systeme‘, während ‚textfähige Maschinen‘ zu den ’nicht-biologischen Systemen‘ gehören.

LEERSTELLE INTELLIGENZ-BEGRIFF

Die hier vorgenommene Transformation des Begriffs ‚KI-Textgenerator‘ in den Begriff ‚textfähige Maschine‘ soll zusätzlich verdeutlichen, dass die verbreitete Verwendung des Begriffs ‚KI‘ für ‚Künstliche Intelligenz‘ eher irreführend ist. Es gibt bislang in keiner wissenschaftlichen Disziplin einen allgemeinen, über die Einzeldisziplin hinaus anwendbaren und akzeptierten Begriff von ‚Intelligenz‘. Für die heute geradezu inflatorische Verwendung des Begriffs KI gibt es keine wirkliche Begründung außer jener, dass der Begriff so seiner Bedeutung entleert wurde, dass man ihn jederzeit und überall benutzen kann, ohne etwas Falsches zu sagen. Etwas, was keine Bedeutung besitzt, kann weder wahr‘ noch ‚falsch‘ sein.

VORAUSSETZUNGEN FÜR TEXT-GENERIERUNG

Wenn nun die Homo-Sapiens Population als originärer Akteur für ‚Text-Generierung‘ und ‚Text-Verstehen‘ identifiziert wird, soll nun zunächst untersucht werden, welches denn ‚jene besonderen Eigenschaften‘ sind, die eine Homo-Sapiens Population dazu befähigt, Texte zu generieren und zu verstehen und sie ‚im alltäglichen Lebensprozess erfolgreich anzuwenden‘.

GELTUNG

Ein Anknüpfungspunkt für die Untersuchung der besonderen Eigenschaften einer Homo-Sapiens Text-Generierung und eines Text-Verstehens ist der Begriff ‚Geltung‘, der im Tagungsthema vorkommt.

Auf dem primären Schauplatz des biologischen Lebens, in den alltäglichen Prozessen, im Alltag, hat die ‚Geltung‘ eines Textes mit ‚Zutreffen‘ zu tun. Wenn ein Text nicht von vornherein mit einem ‚fiktiven Charakter‘ geplant wird, sondern mit einem ‚Bezug zum Alltagsgeschehen‘, das jeder im Rahmen seiner ‚Weltwahrnehmung‘ ‚überprüfen‘ kann, dann hat ‚Geltung im Alltag‘ damit zu tun, dass das ‚Zutreffen eines Textes überprüft‘ werden kann. Trifft die ‚Aussage eines Textes‘ im Alltag ‚zu‘, dann sagt man auch, dass diese Aussage ‚gilt‘, man räumt ihr ‚Geltung‘ ein, man bezeichnet sie auch als ‚wahr‘. Vor diesem Hintergrund könnte man geneigt sein fortzusetzen und zu sagen: ‚Trifft‘ die Aussage eines Textes ’nicht zu‘, dann kommt ihr ‚keine Geltung‘ zu; vereinfacht zur Formulierung, dass die Aussage ’nicht wahr‘ sei bzw. schlicht ‚falsch‘.

Im ‚realen Alltag‘ ist die Welt allerdings selten ’schwarz‘ und ‚weiß‘: nicht selten kommt es vor, dass wir mit Texten konfrontiert werden, denen wir aufgrund ihrer ‚gelernten Bedeutung‘ geneigt sind ‚eine mögliche Geltung‘ zu zuschreiben, obwohl es möglicherweise gar nicht klar ist, ob es eine Situation im Alltag gibt — bzw. geben wird –, in der die Aussage des Textes tatsächlich zutrifft. In solch einem Fall wäre die Geltung dann ‚unbestimmt‘; die Aussage wäre ‚weder wahr noch falsch‘.

ASYMMETRIE: ZUTREFFEN – NICHT-ZUTREFFEN

Man kann hier eine gewisse Asymmetrie erkennen: Das ‚Zutreffen‘ einer Aussage, ihre tatsächliche Geltung, ist vergleichsweise eindeutig. Das ‚Nicht-Zutreffen‘, also eine ‚bloß mögliche‘ Geltung, ist hingegen schwierig zu entscheiden.

Wir berühren mit diesem Phänomen der ‚aktuellen Nicht-Entscheidbarkeit‘ einer Aussage sowohl das Problem der ‚Bedeutung‘ einer Aussage — wie weit ist überhaupt klar, was gemeint ist? — als auch das Problem der ‚Unabgeschlossenheit unsres Alltags‘, besser bekannt als ‚Zukunft‘: ob eine ‚aktuelle Gegenwart‘ sich als solche fortsetzt, ob genau so, oder ob ganz anders, das hängt davon ab, wie wir ‚Zukunft‘ generell verstehen und einschätzen; was die einen als ’selbstverständlich‘ für eine mögliche Zukunft annehmen, kann für die anderen schlicht ‚Unsinn‘ sein.

BEDEUTUNG

Dieses Spannungsfeld von ‚aktuell entscheidbar‘ und ‚aktuell noch nicht entscheidbar‘ verdeutlicht zusätzlich einen ‚autonomen‘ Aspekt des Phänomens Bedeutung: hat sich ein bestimmtes Wissen im Gehirn gebildet und wurde dieses als ‚Bedeutung‘ für ein ‚Sprachsystem‘ nutzbar gemacht, dann gewinnt diese ‚assoziierte‘ Bedeutung für den Geltungsbereich des Wissens eine eigene ‚Realität‘: es ist nicht die ‚Realität jenseits des Gehirns‘, sondern die ‚Realität des eigenen Denkens‘, wobei diese Realität des Denkens ‚von außen betrachtet‘ etwas ‚Virtuelles‘ hat.

Will man über diese ‚besondere Realität der Bedeutung‘ im Kontext des ‚ganzen Systems‘ sprechen, dann muss man zu weitreichenden Annahmen greifen, um auf der Meta-Ebene einen ‚begrifflichen Rahmen‘ installieren zu können, der in der Lage ist, die Struktur und die Funktion von Bedeutung hinreichend beschreiben zu können. Dafür werden minimal die folgenden Komponenten angenommen (‚Wissen‘, ‚Sprache‘ sowie ‚Bedeutungsbeziehung‘):

  1. WISSEN: Es gibt die Gesamtheit des ‚Wissens‘, das sich im Homo-Sapiens Akteur im Laufe der Zeit im Gehirn ‚aufbaut‘: sowohl aufgrund von kontinuierlichen Interaktionen des ‚Gehirns‘ mit der ‚Umgebung des Körpers‘, als auch aufgrund von Interaktionen ‚mit dem Körper selbst‘, sowie auch aufgrund der Interaktionen ‚des Gehirns mit sich selbst‘.
  2. SPRACHE: Vom Wissen zu unterscheiden ist das dynamische System der ‚potentiellen Ausdrucksmittel‘, hier vereinfachend ‚Sprache‘ genannt, die sich im Laufe der Zeit in Interaktion mit dem ‚Wissen‘ entfalten können.
  3. BEDEUTUNGSBEZIEHUNG: Schließlich gibt es die dynamische ‚Bedeutungsbeziehung‘, ein Interaktionsmechanismus, der beliebige Wissenselemente jederzeit mit beliebigen sprachlichen Ausdrucksmitteln verknüpfen kann.

Jede dieser genannten Komponenten ‚Wissen‘, ‚Sprache‘ wie auch ‚Bedeutungsbeziehung‘ ist extrem komplex; nicht weniger komplex ist auch ihr Zusammenspiel.

ZUKUNFT UND EMOTIONEN

Neben dem Phänomen Bedeutung wurde beim Phänomen des Zutreffens auch sichtbar, dass die Entscheidung des Zutreffens auch von einer ‚verfügbaren Alltagssituation‘ abhängt, in der sich eine aktuelle Entsprechung ‚konkret aufzeigen‘ lässt oder eben nicht.

Verfügen wir zusätzlich zu einer ‚denkbaren Bedeutung‘ im Kopf aktuell über keine Alltagssituation, die dieser Bedeutung im Kopf hinreichend korrespondiert, dann gibt es immer zwei Möglichkeiten: Wir können diesem gedachten Konstrukt trotz fehlendem Realitätsbezug den ‚Status einer möglichen Zukunft‘ verleihen oder nicht.

Würden wir uns dafür entscheiden, einer ‚Bedeutung im Kopf‘ den Status einer möglichen Zukunft zu zusprechen, dann stehen meistens folgende zwei Anforderungen im Raum: (i) Lässt sich im Lichte des verfügbaren Wissens hinreichend plausibel machen, dass sich die ‚gedachte mögliche Situation‘ in ‚absehbarer Zeit‘ ausgehend von der aktuellen realen Situation ‚in eine neue reale Situation transformieren lässt‘? Und (ii) Gibt es ’nachhaltige Gründe‚ warum man diese mögliche Zukunft ‚wollen und bejahen‘ sollte?

Die erste Forderung verlangt nach einer leistungsfähigen ‚Wissenschaft‘, die aufhellt, ob es überhaupt gehen kann. Die zweite Forderung geht darüber hinaus und bringt unter dem Gewand der ‚Nachhaltigkeit‘ den scheinbar ‚irrationalen‘ Aspekt der ‚Emotionalität‘ ins Spiel: es geht nicht nur einfach um ‚Wissen als solches‘, es geht auch nicht nur um ein ’sogenanntes nachhaltiges Wissen‘, das dazu beitragen soll, das Überleben des Lebens auf dem Planet Erde — und auch darüber hinaus — zu unterstützen, es geht vielmehr auch um ein ‚gut finden, etwas bejahen, und es dann auch entscheiden wollen‘. Diese letzten Aspekte werden bislang eher jenseits von ‚Rationalität‘ angesiedelt; sie werden dem diffusen Bereich der ‚Emotionen‘ zugeordnet; was seltsam ist, da ja jedwede Form von ‚üblicher Rationalität‘ genau in diesen ‚Emotionen‘ gründet.[2]

WISSENSCHAFTLICHER DISKURS UND ALLTAGSSITUATIONEN

In diesem soeben angedeuteten Kontext von ‚Rationalität‘ und ‚Emotionalität‘ ist es nicht uninteressant, dass im Tagungsthema der ‚wissenschaftliche Diskurs‘ als Referenzpunkt thematisiert wird, um den Stellenwert textfähiger Maschinen abzuklären.

Es fragt sich, inwieweit ein ‚wissenschaftlicher Diskurs‘ überhaupt als Referenzpunkt für einen erfolgreichen Text dienen kann?

Dazu kann es helfen, sich bewusst zu machen, dass das Leben auf diesem Planet Erde sich in jedem Moment in einer unfassbar großen Menge von ‚Alltagssituationen‘ abspielt, die alle gleichzeitig stattfinden. Jede ‚Alltagssituation‘ repräsentiert für die Akteure eine ‚Gegenwart‘. Und in den Köpfen der Akteure findet sich ein individuell unterschiedliches Wissen darüber, wie sich eine Gegenwart in einer möglichen Zukunft ‚verändern kann‘ bzw. verändern wird.

Dieses ‚Wissen in den Köpfen‘ der beteiligten Akteure kann man generell ‚in Texte transformieren‘, die auf unterschiedliche Weise einige der Aspekte des Alltags ’sprachlich repräsentieren‘.

Der entscheidende Punkt ist, dass es nicht ausreicht, dass jeder ‚für sich‘ alleine, ganz ‚individuell‘, einen Text erzeugt, sondern dass jeder zusammen ‚mit allen anderen‘, die auch von der Alltagssituation betroffen sind, einen ‚gemeinsamen Text‘ erzeugen muss. Eine ‚kollektive‘ Leistung ist gefragt.

Und es geht auch nicht um ‚irgendeinen‘ Text, sondern um einen solchen, der so beschaffen ist, dass er die ‚Generierung möglicher Fortsetzungen in der Zukunft‘ erlaubt, also das, was traditionell von einem ‚wissenschaftlichen Text‘ erwartet wird.

Aus der umfangreichen Diskussion — seit den Zeiten eines Aristoteles — was denn ‚wissenschaftlich‘ bedeuten soll, was eine ‚Theorie‘ ist, was eine ‚empirische Theorie‘ sein soll, skizziere ich das, was ich hier das ‚minimale Konzept einer empirischen Theorie‘ nenne.

  1. Ausgangspunkt ist eine ‚Gruppe von Menschen‘ (die ‚Autoren‘), die einen ‚gemeinsamen Text‘ erstellen wollen.
  2. Dieser Text soll die Eigenschaft besitzen, dass er ‚begründbare Voraussagen‘ für mögliche ‚zukünftige Situationen‘ erlaubt, denen sich dann in der Zukunft ‚irgendwann‘ auch eine ‚Geltung zuordnen lässt‘.
  3. Die Autoren sind in der Lage, sich auf eine ‚Ausgangssituation‘ zu einigen, die sie mittels einer ‚gemeinsamen Sprache‘ in einen ‚Ausgangstext‘ [A] transformieren.
  4. Es gilt als abgemacht, dass dieser Ausgangstext nur ’solche sprachliche Ausdrücke‘ enthalten darf, die sich ‚in der Ausgangssituation‘ als ‚wahr‘ ausweisen lassen.
  5. In einem weiteren Text stellen die Autoren eine Reihe von ‚Veränderungsregeln‘ [V] zusammen, die ‚Formen von Veränderungen‘ an einer gegebenen Situation ins Wort bringen.
  6. Auch in diesem Fall gilt es als abgemacht, dass nur ’solche Veränderungsregeln‘ aufgeschrieben werden dürfen, von denen alle Autoren wissen, dass sie sich in ‚vorausgehenden Alltagssituationen‘ als ‚wahr‘ erwiesen haben.
  7. Der Text mit den Veränderungsregeln V liegt auf einer ‚Meta-Ebene‘ verglichen mit dem Text A über die Ausgangssituation, der relativ zum Text V auf einer ‚Objekt-Ebene‘ liegt.
  8. Das ‚Zusammenspiel‘ zwischen dem Text V mit den Veränderungsregeln und dem Text A mit der Ausgangssituation wird in einem eigenen ‚Anwendungstext‘ [F] beschrieben: Hier wird beschrieben, wann und wie man eine Veränderungsregel (in V) auf einen Ausgangstext A anwenden darf und wie sich dabei der ‚Ausgangstext A‘ zu einem ‚Folgetext A*‘ verändert.
  9. Der Anwendungstext F liegt damit auf einer nächst höheren Meta-Ebene zu den beiden Texten A und V und kann bewirken, dass der Anwendungstext den Ausgangstext A verändert wird.
  1. In dem Moment, wo ein neuer Folgetext A* vorliegt, wird der Folgetext A* zum neuen Anfangstext A.
  2. Falls der neue Ausgangstext A so beschaffen ist, dass sich wieder eine Veränderungsregel aus V anwenden lässt, dann wiederholt sich die Erzeugung eines neuen Folgetextes A*.
  3. Diese ‚Wiederholbarkeit‘ der Anwendung kann zur Generierung von vielen Folgetexten <A*1, …, A*n> führen.
  4. Eine Serie von vielen Folgetexten <A*1, …, A*n> nennt man üblicherweise auch eine ‚Simulation‘.
  5. Abhängig von der Beschaffenheit des Ausgangstextes A und der Art der Veränderungsregeln in V kann es sein, dass mögliche Simulationen ‚ganz unterschiedlich verlaufen können‘. Die Menge der möglichen wissenschaftlichen Simulationen repräsentiert ‚Zukunft‘ damit also nicht als einen einzigen, bestimmten Verlauf, sondern als eine ‚beliebig große Menge möglicher Verläufe‘.
  6. Die Faktoren, von denen unterschiedliche Verläufe abhängen, sind vielfältig. Ein Faktor sind die Autoren selbst. Jeder Autor ist ja mit seiner Körperlichkeit vollständig selbst Teil genau jener empirischen Welt, die in einer wissenschaftlichen Theorie beschrieben werden soll. Und wie bekannt, kann jeder menschliche Akteur seine Meinung jederzeit ändern. Er kann buchstäblich im nächsten Moment genau das Gegenteil von dem tun, was er zuvor gedacht hat. Und damit ist die Welt schon nicht mehr die gleiche, wie zuvor in der wissenschaftlichen Beschreibung angenommen.

Schon dieses einfache Beispiel zeigt, dass die Emotionalität des ‚Gut-Findens, des Wollens, und des Entscheidens‘ der Rationalität wissenschaftlicher Theorien voraus liegt. Dies setzt sich in der sogenannten ‚Nachhaltigkeitsdiskussion‘ fort.

NACHHALTIGE EMPIRISCHE THEORIE

Mit dem soeben eingeführten ‚minimalen Konzepts einer empirischen Theorie (ET)‘ lässt sich direkt auch ein ‚minimales Konzept einer nachhaltigen empirischen Theorie (NET)‘ einführen.

Während eine empirische Theorie einen beliebig großen Raum an begründeten Simulationen aufspannen kann, die den Raum von vielen möglichen Zukünften sichtbar machen, verbleibt den Akteuren des Alltags die Frage, was sie denn von all dem als ‚ihre Zukunft‘ haben wollen? In der Gegenwart erleben wir die Situation, dass die Menschheit den Eindruck erweckt, als ob sie damit einverstanden ist, das Leben jenseits der menschlichen Population mehr und mehr nachhaltig zu zerstören mit dem erwartbaren Effekt der ‚Selbst-Zerstörung‘.

Dieser in Umrissen vorhersehbare Selbst-Zerstörungseffekt ist aber im Raum der möglichen Zukünfte nur eine Variante. Die empirische Wissenschaft kann sie umrisshaft andeuten. Diese Variante vor anderen auszuzeichnen, sie als ‚gut‘ zu akzeptieren, sie ‚zu wollen‘, sich für diese Variante zu ‚entscheiden‘, liegt in jenem bislang kaum erforschten Bereich der Emotionalität als Wurzel aller Rationalität.

Wenn sich Akteure des Alltags für eine bestimmte rational aufgehellte Variante von möglicher Zukunft entschieden haben, dann können sie jederzeit mit einem geeigneten ‚Evaluationsverfahren (EVAL)‘ auswerten, wie viel ‚Prozent (%) der Eigenschaften des Zielzustandes Z‘ bislang erreicht worden sind, vorausgesetzt, der favorisierte Zielzustand wird in einen passenden Text Z transformiert.

Anders formuliert: in dem Moment, wo wir Alltagsszenarien über geeignete Texte in einen rational greifbaren Zustand transformiert haben, nehmen die Dinge eine gewisse Klarheit an und werden dadurch — in gewisser Weise — einfach. Dass wir solche Transformationen vornehmen und auf welche Aspekte eines realen oder möglichen Zustands wir uns dann fokussieren, das ist aber als emotionale Dimension der textbasierten Rationalität vor-gelagert.[2]

MENSCH-MASCHINE

Nach diesen vorbereitenden Überlegungen stellt sich die abschließende Frage, ob und wie die Hauptfrage dieser Tagung „Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ in irgendeiner Weise beantwortet werden kann?

Meine bisherigen Ausführungen haben versucht aufzuzeigen, was es bedeutet, dass Menschen kollektiv Texte erzeugen, die die Kriterien für einen wissenschaftlichen Diskurs erfüllen, der zudem die Anforderungen für empirische oder gar nachhaltig-empirische Theorien erfüllt.

Dabei zeigt sich, dass sowohl bei der Generierung eines kollektiven wissenschaftlichen Textes wie auch bei seiner Anwendung im Alltag ein enger Wechselbezug sowohl mit der gemeinsamen erfahrbaren Welt wie auch mit den dynamischen Wissens- und Bedeutungskomponenten in jedem Akteur eine Rolle spielen.

Der Aspekt der ‚Geltung‘ ist Teil eines dynamischen Weltbezugs, dessen Einschätzung als ‚wahr‘ beständig im Fluss ist; während der eine Akteur vielleicht dazu tendiert zu sagen „Ja, kann stimmen“, tendiert ein anderer Akteur vielleicht gerade zum Gegenteil. Während die einen eher dazu tendieren, eine mögliche Zukunftsvariante X zu favorisieren, wollen die anderen lieber die Zukunftsvariante Y. Rationale Argumente fehlen; die Gefühle sprechen. Während eine Gruppe gerade beschlossen hat, dem Plan Z zu ‚glauben‘ und ihn ‚umzusetzen‘, wenden sich die anderen ab, verwerfen Plan Z, und tun etwas ganz anderes.

Dieser unstete, unsichere Charakter des Zukunft-Deutens und Zukunft-Handelns begleitet die Homo Sapiens Population von Anbeginn. Der unverstandene emotionale Komplex begleitet den Alltag beständig wie ein Schatten.[2]

Wo und wie können ‚textfähige Maschinen‘ in dieser Situation einen konstruktiven Beitrag leisten?

Angenommen es liegt ein Ausgangstext A vor, dazu ein Veränderungstext V sowie eine Anleitung F, dann könnten heutige Algorithmen alle möglichen Simulationen schneller durchrechnen als es Menschen könnten.

Angenommen zusätzlich es läge auch noch ein Zieltext Z vor, dann könnte ein heutiger Algorithmus auch eine Auswertung zum Verhältnis zwischen einer aktuellen Situation als A und dem Zieltext Z berechnen.

Mit anderen Worten: wäre eine empirische oder eine nachhaltig-empirische Theorie mit ihren notwendigen Texten formuliert, dann könnte ein heutiger Algorithmus alle möglichen Simulationen und den Grad der Zielerfüllung automatisch schneller berechnen, als jeder Mensch allein.

Wie steht es aber mit der (i) Ausarbeitung einer Theorie bzw. (ii) mit der vor-rationalen Entscheidung für eine bestimmte empirische oder gar nachhaltig-empirische Theorie ?

Eine klare Antwort auf beide Fragen erscheint mir zum aktuellen Zeitpunkt kaum möglich, verstehen wir Menschen doch noch zu wenig, wie wir selbst im Alltag kollektiv Theorien bilden, auswählen, überprüfen, vergleichen und auch wieder verwerfen.

Meine Arbeitshypothese zum Thema lautet: dass wir sehr wohl lernfähige Maschinen brauchen werden, um in der Zukunft die Aufgabe erfüllen zu können, brauchbare nachhaltig-empirische Theorien für den gemeinsamen Alltag zu entwickeln. Wann dies aber real geschehen wird und in welchem Umfang scheint mir zum jetzigen Zeitpunkt weitgehend unklar.

ANMERKUNGEN

[1] https://zevedi.de/themen/ki-text/

[2] Das Sprechen über ‚Emotionen‘ im Sinne von ‚Faktoren in uns‘, die uns dazu bewegen, aus dem Zustand ‚vor dem Text‘ in den Zustand ‚geschriebener Text‘ überzugehen, der lässt sehr viele Aspekte anklingen. In einem kleinen explorativen Text „STÄNDIGE WIEDERGEBURT – Jetzt. Schweigen hilft nicht …“ ( https://www.cognitiveagent.org/2023/08/28/staendige-wiedergeburt-jetzt-schweigen-hilft-nicht-exploration/ ) hat der Autor versucht, einige dieser Aspekte anzusprechen. Beim Schreiben wird deutlich, dass hier sehr viele ‚individuell subjektive‘ Aspekte eine Rolle spielen, die natürlich nicht ‚isoliert‘ auftreten, sondern immer auch einen Bezug zu konkreten Kontexten aufblitzen lassen, die sich mit dem Thema verknüpfen. Dennoch, es ist nicht der ‚objektive Kontext‘, der die Kernaussage bildet, sondern die ‚individuell subjektive‘ Komponente, die im Vorgang des ‚ins-Wort-Bringens‘ aufscheint. Diese individuell-subjektive Komponenten wird hier versuchsweise als Kriterium für ‚authentische Texte‘ benutzt im Vergleich zu ‚automatisierten Texten‘ wie jene, die von allerlei Bots generiert werden können. Um diesen Unterschied greifbarer zu machen, hat der Autor sich dazu entschieden, mit dem zitierten authentischen Text zugleich auch einen ‚automatisierten Text‘ mit gleicher Themenstellung zu erzeugen. Dazu hat er chatGBT4 von openAI benutzt. Damit beginnt ein philosophisch-literarisches Experiment, um auf diese Weise vielleicht den möglichen Unterschied sichtbarer zu machen. Aus rein theoretischen Gründen ist klar, dass ein von chatGBT4 erzeugter Text im Ursprung niemals ‚authentische Texte‘ erzeugen kann, es sei denn, er benutzt als Vorlage einen authentischen Text, den er abwandeln kann. Dann ist dies aber ein klares ‚fake Dokument‘. Um solch einem Missbrauch vorzubeugen, schreibt der Autor im Rahmen des Experiments den authentischen Text zu erst und beauftragt dann chatGBT4 zur vorgegebenen Themenstellung etwas zu schreiben, ohne dass chatGBT4 den authentischen Text kennt, da er noch nicht über das Internet in die Datenbasis von chatGBT4 Eingang gefunden hat.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

chatGPT – Wie besoffen muss man sein?

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 13.Februar 2023 – 17.April 2023
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (cagent@cognitiveagent.org)

Kontext

Beitrag ansehen

Seit der Freigabe des chatbots ‚chatGPT‘ für die größere Öffentlichkeit geht eine Art ‚Erdbeben‘ durch die Medien, weltweit, in vielen Bereichen, vom Privatpersonen über Institutionen, Firmen, Behörden …. jeder sucht das ‚chatGPT Erlebnis‘. Diese Reaktionen sind erstaunlich, und erschreckend zugleich.

Anmerkung: In meinem Englischen Blog hatte ich nach einigen Experimenten mit chatGPT eine erste Reflexion über den möglichen Nutzen von chatGPT geschrieben. Mir hatte es für ein erstes Verständnis geholfen; dieses hat sich dann bis zu dem Punkt weiterentwickelt, der im vorliegenden Text zum Ausdruck kommt.[6]

Form

Die folgenden Zeilen bilden nur eine kurze Notiz, da es sich kaum lohnt, ein ‚Oberflächenphänomen‘ so intensiv zu diskutieren, wo doch die ‚Tiefenstrukturen‘ erklärt werden sollten. Irgendwie scheinen die ‚Strukturen hinter chatGPT‘ aber kaum jemanden zu interessieren (Gemeint sind nicht die Details des Quellcodes in den Algortihmen).

chatGPT als Objekt

Der chatbot mit Namen ‚chatGPT‘ ist ein Stück Software, ein Algorithmus, der (i) von Menschen erfunden und programmiert wurde. Wenn (ii) Menschen ihm Fragen stellen, dann (iii) sucht er in der ihm bekannten Datenbank von Dokumenten, die wiederum Menschen erstellt haben, (iv) nach Textmustern, die nach bestimmten formalen Kriterien (z.T. von den Programmierern vorgegeben) einen Bezug zur Frage aufweisen. Diese ‚Textfunde‘ werden (v) ebenfalls nach bestimmten formalen Kriterien (z.T. von den Programmierern vorgegeben) in einen neuen Text ‚angeordnet‘, der (vi) jenen Textmustern nahe kommen soll, die ein menschlicher Leser ‚gewohnt‘ ist, als ’sinnvoll‘ zu akzeptieren.

Textoberfläche – Textbedeutung – Wahrheitsfähig

Ein normaler Mensch kann — mindestens ‚intuitiv‘ — unterscheiden zwischen den (i) ‚Zeichenketten‘, die als ‚Ausdrücke einer Sprache‘ benutzt werden, und jenen (ii) ‚Wissenselementen‘ (im Kopf des Hörer-Sprechers), die als solche ‚unabhängig‘ sind von den Sprachelementen, aber die (iii) von Sprechern-Hörer einer Sprache ‚frei assoziiert‘ werden können, so dass die korrelierten ‚Wissenselemente zu dem werden, was man gewöhnlich die ‚Bedeutung‘ der Sprachelemente nennt.[1] Von diesen Wissenselementen (iv) ‚weiß‘ jeder Sprachteilnehmer schon ‚vorsprachlich‘, als lernendes Kind [2], dass einige dieser Wissenselemente unter bestimmten Umständen mit Umständen der Alltagswelt ‚korrelierbar‘ sind. Und der normale Sprachbenutzer verfügt auch ‚intuitiv‘ (automatisch, unbewusst) über die Fähigkeit, solche Korrelation — im Lichte des verfügbaren Wissens — einzuschätzen als (v) ‚möglich‘ oder (vi) als eher ‚unwahrscheinlich‘ bzw. (vi) als ‚bloße Fantasterei‘.[3]

Die grundlegende Fähigkeit eines Menschen, eine ‚Korrelation‘ von Bedeutungen mit (intersubjektiven) Umweltgegebenheiten feststellen zu können, nennen — zumindest einige — Philosophen ‚Wahrheitsfähigkeit‘ und im Vollzug der Wahrheitsfähigkeit spricht man dann auch von ‚zutreffenenden‘ sprachlichen Äußerungen oder von ‚wahren (empirischen) Aussagen‘.[5]

Unterscheidungen wie ‚zutreffend‘ (‚wahr‘), ‚möglicherweise zutreffend‘, ‚eher nicht zutreffend‘ oder ‚auf keinen Fall zutreffend‘ deuten an, dass der Wirklichkeitsbezug menschlicher Wissenselemente sehr vielfältig und ‚dynamisch‘ ist. Etwas, das gerade noch zutreffend war, kann im nächsten Moment nicht mehr zutreffend sein. Etwas, das lange als ‚bloße Fantasterei‘ abgetan wurde, kann dann doch plötzlich als ‚möglich‘ erscheinen oder ‚trifft plötzlich zu‘. Sich in diesem ‚dynamisch korrelierten Bedeutungsraum‘ so zu bewegen, dass eine gewisse ‚innere und äußere Konsistenz‘ gewahrt bleibt, stellt eine komplexe Herausforderung dar, die von Philosophie und den Wissenschaften bislang eher nicht ganz verstanden, geschweige denn auch nur annähernd ‚erklärt‘ worden ist.

Fakt ist: wir Menschen können dies bis zu einem gewissen Grad. Je komplexer der Wissensraum ist, je vielfältiger die sprachlichen Interaktion mit anderen Menschen werden, umso schwieriger wird es natürlich.

‚Luftnummer‘ chatGPT

(Letzte Änderung: 15.Februar 2023, 07:25h)

Vergleicht man den chatbot chatGPT mit diesen ‚Grundeigenschaften‘ des Menschen, dann kann man erkennen, dass chatGPT nichts von alledem kann. (i) Fragen kann er von sich aus nicht sinnvoll stellen, da es keinen Anlass gibt, warum er fragen sollte (es sei denn, jemand induziert ihm eine Frage). (ii) Textdokumente (von Menschen) sind für ihn Ausdrucksmengen, für die er über keine eigenständigen Bedeutungszuordnung verfügt. Er könnte also niemals eigenständig die ‚Wahrheitsfrage‘ — mit all ihren dynamischen Schattierungen — stellen oder beantworten. Er nimmt alles für ‚bare Münze‘ bzw. man sagt gleich, dass er ’nur träumt‘.

Wenn chatGPT aufgrund seiner großen Text-Datenbank eine Teilmenge von Ausdrücken hat, die irgendwie als ‚wahr‘ klassifiziert sind, dann kann der Algorithmus ‚im Prinzip‘ indirekt ‚Wahrscheinlichkeiten‘ ermitteln, die andere Ausdrucksmengen, die nicht als ‚wahr‘ klassifiziert sind, dann doch ‚mit einer gewissen Wahrscheinlichkeit‘ als ‚wahr erscheinen‘
lassen. Ob der aktuelle chatGPT Algorithmus solche ‚wahrscheinlichen Wahrheiten explizit‘ benutzt, ist unklar. Im Prinzip übersetzt er Texte in ‚Vektorräume‘, die auf verschiedene Weise ‚ineinander abgebildet‘ werden, und Teile dieser Vektorräume werden dann wieder in Form eines ‚Textes‘ ausgegeben. Das Konzept ‚Wahrheit‘ taucht in diesen mathematischen Operationen — nach meinem aktuellen Kenntnisstand — nicht auf. Wenn, dann wäre es auch nur der formale logische Wahrheitsbegriff [4]; dieser liegt aber mit Bezug auf die Vektorräume ‚oberhalb‘ der Vektorräume, bildet in Bezug auf diese einen ‚Meta-Begriff‘. Wollte man diesen auf die Vektorräume und Operationen auf diesen Vektorräumen tatsächlich anwenden, dann müsste man den Code von chatGPT komplett neu schreiben. Würde man dies tun — das wird aber keiner schaffen — dann würde sich der Code von chatGPT dem Status einer formalen Theorie nennen (wie in der Mathematik) (siehe Anmerkung [5]). Von einer empirischen Wahrheitsfähigkeit wäre chatGPT dann immer noch meilenweit entfernt.

Hybride Scheinwahrheiten

Im Anwendungsfall, bei dem der Algorithmus mit Namen ‚chatGPT‘ Ausdrucksmengen benutzt, die den Texten ähneln, die Menschen produzieren und lesen, navigiert sich chatGPT rein formal und mit Wahrscheinlichkeiten durch den Raum der formalen Ausdruckselemente. Ein Mensch, der die von chatGPT produzierten Ausdrucksmengen ‚liest‘, aktiviert aber automatisch (= unbewusst!) sein eigenes ’sprachliches Bedeutungswissen‘ und projiziert dieses in die abstrakten Ausdrucksmenge von chatGBT. Wie man beobachten kann (und hört und liest von anderen), sind die von chatGBT produzierten abstrakten Ausdrucksmengen dem gewöhnten Textinput von Menschen in vielen Fällen — rein formal — so ähnlich, dass ein Mensch scheinbar mühelos seine Bedeutungswissen mit diesen Texten korrelieren kann. Dies hat zur Folge, dass der rezipierende (lesende, hörende) Mensch das ‚Gefühl‘ hat, chatGPT produziert ’sinnvolle Texte‘. In der ‚Projektion‘ des lesenden/hörenden Menschen JA, in der Produktion von chatGPT aber NEIN. chatGBT verfügt nur über formale Ausdrucksmengen (kodiert als Vektorräume), mit denen er ‚blind‘ herumrechnet. Über ‚Bedeutungen‘ im menschlichen Sinne verfügt er nicht einmal ansatzweise.

Zurück zum Menschen?

(Letzte Änderung: 27.Februar 2023)

Wie leicht sich Menschen von einer ‚fake-Maschine‘ so beeindrucken lassen, dass sie dabei sich selbst anscheinend vergessen und sich ‚dumm‘ und ‚leistungsschwach‘ fühlen, obgleich die Maschine nur ‚Korrelationen‘ zwischen menschlichen Fragen und menschlichen Wissensdokumenten rein formal herstellt, ist eigentlich erschreckend [7a,b], und zwar mindestens in einem doppelten Sinne: (i)Statt die eigene Potentiale besser zu erkennen (und zu nutzen), starrt man gebannt wie das berühmte ‚Kaninchen auf die Schlange‘, obgleich die Maschine immer noch ein ‚Produkt des menschlichen Geistes‘ ist. (ii) Durch diese ‚kognitive Täuschung‘ wird versäumt, das tatsächlich ungeheure Potential ‚kollektiver menschlicher Intelligenz‘ besser zu verstehen, das man dann natürlich durch Einbeziehung moderner Technologien um mindestens einen evolutionären Level weiter voran bringen könnte. Die Herausforderung der Stunde lautet ‚Kollektiver Mensch-Maschine Intelligenz‘ im Kontext einer nachhaltigen Entwicklung mit Priorität bei der menschlichen kollektiven Intelligenz. Die aktuelle sogenannte ‚Künstliche (= maschinelle) Intelligenz‘ sind ziemlich primitive Algorithmen. Integriert in eine entwickelte ‚kollektive menschliche Intelligenz‘ könnten ganz andere Formen von ‚Intelligenz‘ realisiert werden, solche, von denen wir aktuell höchstens träumen können.

Kommentierung weiterer Artikel von anderen Autoren zu chatGPT

(Letzte Änderung: 17.April 2023)

Achtung: Einige der Text in den Anmerkungen sind aus dem Englischen zurück übersetzt worden. Dies geschah unter Benutzung der Software www.DeepL.com/Translator (kostenlose Version).

Siehe [8], [9], [10], [12],[13],[14],[15]

Anmerkungen

[1] In den vielen tausend ’natürlichen Sprachen‘ dieser Welt kann man beobachten, wie ‚erfahrbare Umweltgegebenheiten‘ über die ‚Wahrnehmung‘ zu ‚Wissenselementen‘ werden können, die dann in jeder Sprache mit unterschiedlichen Ausdrücken korreliert werden. Die Sprachwissenschaftler (und Semiotiker) sprechen daher hier von ‚Konventionen‘, ‚frei vereinbarte Zuordnungen‘.

[2] Aufgrund der körperlichen Interaktion mit der Umgebung, die ‚Wahrnehmungsereignisse‘ ermöglicht, die von den ‚erinnerbaren und gewussten Wissenselementen‘ unterscheidbar sind.

[3] Die Einstufung von ‚Wissenselementen‘ als ‚Fantasterei‘ kann falsch sein, wie viele Beispiele zeigen, wie umgekehrt, die Einstufung als ‚wahrscheinlich korrelierbar‘ auch falsch sein kann!

[4] Nicht der ‚klassischen (aristotelischen) Logik‘ da diese noch keine strenge Trennung von ‚Form‘ (Ausdruckselementen) und ‚Inhalt‘ (Bedeutung) kannte.

[5] Es gibt auch Kontexte, in denen spricht man von ‚wahren Aussagen‘, obgleichgar keine Beziehung zu einer konkreten Welterfahrung vorliegt. So z.B. im Bereich der Mathematik, wo man gerne sagt, dass eine Aussage ‚wahr‘ ist. Dies ist aber eine ganz ‚andere Wahrheit‘. Hier geht es darum, dass im Rahmen einer ‚mathematischen Theorie‘ bestimmte ‚Grundannahmen‘ gemacht wurden (die mit einer konkreten Realität nichts zu tun haben müssen), und man dann ausgehend von diesen Grundannahmen mit Hilfe eines formalen Folgerungsbegriffs (der formalen Logik) andere Aussagen ‚ableitet‘. Eine ‚abgeleitete Aussage‘ (meist ‚Theorem‘ genannt), hat ebenfalls keinerlei Bezug zu einer konkreten Realität. Sie ist ‚logisch wahr‘ oder ‚formal wahr‘. Würde man die Grundannahmen einer mathematischen Theorie durch — sicher nicht ganz einfache — ‚Interpretationen‘ mit konkreter Realität ‚in Beziehung setzen‘ (wie z.B. in der ‚angewandten Physik‘), dann kann es unter speziellen Bedingungen sein, dass die formal abgeleiteten Aussagen einer solchen ‚empirisch interpretierten abstrakten Theorie‘ eine ‚empirische Bedeutung‘ gewinnen, die unter bestimmten Bedingungen vielleicht ‚korrelierbar‘ ist; dann würde man solche Aussagen nicht nur ‚logisch wahr‘ nennen, sondern auch ‚empirisch wahr‘. Wie die Geschichte der Wissenschaft und der Wissenschaftsphilosophie zeigt, ist der aber ‚Übergang‘ von empirisch interpretierten abstrakten Theorien zu empirisch interpretierbaren Folgerungen mit Wahrheitsanspruch nicht trivial. Der Grund liegt im benutzten ‚logischen Folgerungsbegriff‘. In der modernen formalen Logik gibt es mahezu ‚beliebig viele‘ verschiedene formale Folgerzungsbegriffe. Ob ein solcher formaler Folgerungsbegriff tatsächlich die Struktur empirischer Gegebenheiten über abstrakte Strukturen mit formalen Folgerungen ‚angemessen wiedergibt‘, ist keinesfalls gesichert! Diese Problemstellung ist in der Wissenschaftsphilosophie bislang nicht wirklich geklärt!

[6] Gerd Doeben-Henisch, 15.-16.Januar 2023, „chatGBT about Rationality: Emotions, Mystik, Unconscious, Conscious, …“, in: https://www.uffmm.org/2023/01/15/chatgbt-about-rationality-emotions-mystik-unconscious-conscious/

[7a] Der chatbot ‚Eliza‘ von Weizenbaum von 1966 war trotz seiner Einfachheit in der Lage, menschliche Benutzer dazu zu bringen, zu glauben, dass das Programm sie ‚versteht‘ selbst dann, wenn man ihnen erklärte, dass es nur ein einfacher Algorithmus sei. Siehe das Stichwort ‚Eliza‘ in wkp-de: https://de.wikipedia.org/wiki/ELIZA

[7b] Joseph Weizenbaum, 1966, „ELIZA. A Computer Program For the Study of Natural Language. Communication Between Man And Machine“, Communications of the ACM, Vol.9, No.1, January 1966, URL: https://cse.buffalo.edu/~rapaport/572/S02/weizenbaum.eliza.1966.pdf Anmerkung: Obwohl das Programm ‚Eliza‘ von Weizenbaum sehr einfach war, waren alle Benutzer fasziniert von dem Programm, weil sie das Gefühl hatten „Es versteht mich“, dabei spiegelte das Programm nur die Fragen und Aussagen der Benutzer. Anders gesagt: die Benutzer waren ‚von sich selbst‘ fasziniert mit dem Programm als eine Art ‚Spiegel‘.

[8] Ted Chiang, 2023, „ChatGPT Is a Blurry JPEG of the Web. OpenAI’s chatbot offers paraphrases, whereas Google offers quotes. Which do we prefer?“, The NEW YORKER, February 9, 2023. URL: https://www.newyorker.com/tech/annals-of-technology/chatgpt-is-a-blurry-jpeg-of-the-web . Anmerkung: Chang betrachtet das Programm chatGPT im Paradigma eines ‚Kompressions-Algorithmus‘: Die Fülle der Informationen wird ‚verdichtet/ abstrahiert‘, so dass ein leicht unscharfes Bild der Textmengen entsteht, keine 1-zu-1 Kopie. Dies führt beim Benutzer zum Eindruck eines Verstehens auf Kosten des Zugriffs auf Details und Genauigkeit. Die Texte von chatGPT sind nicht ‚wahr‘, aber sie ‚muten an‘.

[9] Dietmar Hansch, 2023, „Der ehrlichere Name wäre ‚Simulierte Intelligenz‘. An welchen Defiziten Bots wie chatGBT leiden und was das für unseren Umgang mit Ihnen heißen muss.“, FAZ, 1.März 2023, S.N1 . Bemerkung: Während Chiang (siehe [8] sich dem Phänomen chatGPT mit dem Konzept ‚Kompressions-Algorithmus‘ nähert bevorzugt Hansch die Begriffe ’statistisch-inkrementelles Lernen‘ sowie ‚Einsichtslernen‘. Für Hansch ist Einsichtslernen an ‚Geist‘ und ‚Bewusstsein‘ gebunden, für die er im Gehirn ‚äquivalente Strukturen‘ postuliert. Zum Einsichtslernen kommentiert Hansch weiter „Einsichtslernen ist nicht nur schneller, sondern auch für ein tiefes, ganzheitliches Weltverständnis unverzichtbar, das weit greifende Zusammenhänge erfasst sowie Kriterien für Wahrheit und Wahrhaftigkeit vermittelt.“ Es verwundert dann nicht wenn Hansch schreibt „Einsichtslernen ist die höchster Form des Lernens…“. Mit Bezug auf diesen von Hansch etablierten Referenzrahmen klassifiziert er chatGPT in dem Sinne dass er nur zu ’statistisch-inkrementellem Lernen‘ fähig sei. Ferner postuliert Hansch für den Menschen, „Menschliches Lernen ist niemals rein objektiv, wir strukturieren die Welt immer in Bezug auf unsere Bedürfnisse, Gefühle und bewussten Zwecke…“. Er nennt dies den ‚Humanbezug‘ im menschlichen Erkennen, und genau diesen spricht er chatGPT auch ab. Für geläufige Bezeichnung ‚KI‘ als ‚Künstliche Intelligenz‘ postuliert er, dass der Terminus ‚Intelligenz‘ in dieser Wortverbindung nichts mit der Bedeutung zu tun habe, die wir im Fall des Menschen mit ‚Intelligenz‘ verbinden, also auf keinen Fall etwas mit ‚Einsichtslernen‘, wie er zuvor schon festgestellt hat. Um diesem Umstand mehr Ausdruck zu verleihen würde er lieber den Begriff ‚Simulierte Intelligenz‘ benutzen (siehe dazu auch [10]). Diese begriffliche Strategie wirkt merkwürdig, da der Begriff Simulation [11] normalerweise voraussetzt, dass es eine klare Sachlage gibt, zu der man ein vereinfachtes ‚Modell‘ definiert, mittels dem sich dann das Verhalten des Originalsystems in wichtigen Punkten — vereinfacht — anschauen und untersuchen lässt. Im vorliegenden Fall ist aber nicht ganz klar, was denn überhaupt das Originalsystem sein soll, das im Fall von KI simuliert werden soll. Es gibt bislang keine einheitliche Definition von ‚Intelligenz‘ im Kontext von ‚KI‘! Was die Begrifflichkeit von Hansch selbst angeht, so sind die Begriffe ‚statistisch-inkrementelles Lernen‘ sowie ‚Einsichtslernen‘ ebenfalls nicht klar definiert; der Bezug zu beobachtbarem menschlichen Verhalten geschweige den zu den postulierten ‚äquivalenten Gehirnstrukturen‘ ist beliebig unklar (was durch den Bezug zu bis heute nicht definierten Begriffen wie ‚Bewusstsein‘ und ‚Geist‘ nicht gerade besser wird).

[10] Severin Tatarczyk, 19.Februar 2023, zu ‚Simulierter Intelligenz‘: https://www.severint.net/2023/02/19/kompakt-warum-ich-den-begriff-simulierte-intelligenz-bevorzuge-und-warum-chatbots-so-menschlich-auf-uns-wirken/

[11] Begriff ‚Simulation‘ in wkp-de: https://de.wikipedia.org/wiki/Simulation

[12] Doris Brelowski machte mich auf folgenden Artikel aufmerksam: James Bridle, 16.März 2023, „The stupidity of AI. Artificial intelligence in its current form is based on the wholesale appropriation of existing culture, and the notion that it is actually intelligent could be actively dangerous“, URL: https://www.theguardian.com/technology/2023/mar/16/the-stupidity-of-ai-artificial-intelligence-dall-e-chatgpt?CMP=Share_AndroidApp_Other . Anmerkung: Ein Beitrag, der kenntnisreich und sehr differenziert das Wechselspiel zwischen Formen der AI beschreibt, die von großen Konzernen auf das gesamte Internet ‚losgelassen‘ werden, und was dies mit der menschlichen Kultur und dann natürlich mit den Menschen selbst macht. Zwei Zitate aus diesem sehr lesenwerten Artikel: Zitat 1: „The entirety of this kind of publicly available AI, whether it works with images or words, as well as the many data-driven applications like it, is based on this wholesale appropriation of existing culture, the scope of which we can barely comprehend. Public or private, legal or otherwise, most of the text and images scraped up by these systems exist in the nebulous domain of “fair use” (permitted in the US, but questionable if not outright illegal in the EU). Like most of what goes on inside advanced neural networks, it’s really impossible to understand how they work from the outside, rare encounters such as Lapine’s aside. But we can be certain of this: far from being the magical, novel creations of brilliant machines, the outputs of this kind of AI is entirely dependent on the uncredited and unremunerated work of generations of human artists.“ Zitat 2: „Now, this didn’t happen because ChatGPT is inherently rightwing. It’s because it’s inherently stupid. It has read most of the internet, and it knows what human language is supposed to sound like, but it has no relation to reality whatsoever. It is dreaming sentences that sound about right, and listening to it talk is frankly about as interesting as listening to someone’s dreams. It is very good at producing what sounds like sense, and best of all at producing cliche and banality, which has composed the majority of its diet, but it remains incapable of relating meaningfully to the world as it actually is. Distrust anyone who pretends that this is an echo, even an approximation, of consciousness. (As this piece was going to publication, OpenAI released a new version of the system that powers ChatGPT, and said it was “less likely to make up facts”.)“

[13] David Krakauer in einem Interview mit Brian Gallagher in Nautilus, March 27, 2023, Does GPT-4 Really Understand What We’re Saying?, URL: https://nautil.us/does-gpt-4-really-understand-what-were-saying-291034/?_sp=d9a7861a-9644-44a7-8ba7-f95ee526d468.1680528060130. David Krakauer, Evolutionstheoretiker und Präsident des Santa Fe Instituts für Complexity Science, analysiert die Rolle von Chat-GPT-4-Modellen im Vergleich zum menschlichen Sprachmodell und einem differenzierteren Verständnis dessen, was „Verstehen“ und „Intelligenz“ bedeuten könnte. Seine Hauptkritikpunkte stehen in enger Übereinstimmung mit der obigen Position. Er weist darauf hin, dass (i) man klar zwischen dem „Informationskonzept“ von Shannon und dem Konzept der „Bedeutung“ unterscheiden muss. Etwas kann eine hohe Informationslast darstellen, aber dennoch bedeutungslos sein. Dann weist er darauf hin (ii), dass es mehrere mögliche Varianten der Bedeutung von „Verstehen“ gibt. Die Koordinierung mit dem menschlichen Verstehen kann funktionieren, aber Verstehen im konstruktiven Sinne: nein. Dann setzt Krakauer (iii) GPT-4 mit dem Standardmodell der Wissenschaft in Beziehung, das er als „parsimony“ charakterisiert; chat-GPT-4 ist eindeutig das Gegenteil. Ein weiterer Punkt (iv) ist die Tatsache, dass die menschliche Erfahrung einen „emotionalen“ und einen „physischen“ Aspekt hat, der auf somato-sensorischen Wahrnehmungen im Körper beruht. Dies fehlt bei GPT-4. Dies hängt (v) mit der Tatsache zusammen, dass das menschliche Gehirn mit seinen „Algorithmen“ das Produkt von Millionen von Jahren der Evolution in einer komplexen Umgebung ist. Die GPT-4-Algorithmen haben nichts Vergleichbares; sie müssen den Menschen nur ‚überzeugen‘. Schließlich (vi) können Menschen „physikalische Modelle“ generieren, die von ihren Erfahrungen inspiriert sind, und können mit Hilfe solcher Modelle schnell argumentieren. So kommt Krakauer zu dem Schluss: „Das Narrativ, das besagt, dass wir das menschliche Denken wiederentdeckt haben, ist also in vielerlei Hinsicht falsch. Einfach nachweislich falsch. Das kann nicht der richtige Weg sein.“ Anmerkungen zum Text von Krakauer: Benutzt man das allgemeine Modell von Akteur und Sprache, wie es der Text oben annimmt, dann ergeben sich die Punkt (i) – (vi) als Folgerungen aus dem allgemeinen Modell. Die Akzeptanz eines allgemeinen Akteur-Sprache Modells ist leider noch nicht verbreitet.

[14] Von Marie-José Kolly (Text) und Merlin Flügel (Illustration), 11.04.2023, „Chatbots wie GPT können wunderbare Sätze bilden. Genau das macht sie zum Problem“. Künstliche Intelligenz täuscht uns etwas vor, was nicht ist. Ein Plädoyer gegen die allgemeine Begeisterung. Online-Zeitung ‚Republik‘ aus der SChweiz, URL: https://www.republik.ch/2023/04/11/chatbots-wie-gpt-koennen-wunderbare-saetze-bilden-genau-das-macht-sie-zum-problem? Hier einige Anmerkungen:

Der Text von Marie-José Kolly sticht hervor weil der Algorithmus mit Namen chatGPT(4) hier sowohl in seinem Input-Output Verhalten charakterisiert wird und zusätzlich ein Vergleich zum Menschen zumindest in Ansätzen vorgenommen wird.

Das grundsätzliche Problem des Algorithmus chatGPT(4) besteht darin (wie auch in meinem Text oben herausgestellt), dass er als Input-Daten ausschließlich über Textmengen verfügt (auch jene der Benutzer), die nach rein statistischen Verfahren in ihren formalen Eigenschaften analysiert werden. Auf der Basis der analysierten Regelmäßigkeiten lassen sich dann beliebige Text-Kollagen erzeugen, die von der Form her den Texten von Menschen sehr stark ähneln, so sehr, dass viele Menschen sie für ‚von Menschen erzeugte Texte‘ nehmen. Tatsächlich fehlen dem Algorithmus aber das, was wir Menschen ‚Weltwissen‘ nennen,es fehlt echtes ‚Denken‘, es fehlen ‚eigene‘ Werte-Positionen, und der Algorithmus ‚versteht‘ seine eigenen Text ’nicht‘.

Aufgrund dieses fehlenden eigenen Weltbezugs kann der Algorithmus über die verfügbaren Textmengen sehr leicht manipuliert werden. Eine ‚Massenproduktion‘ von ‚Schrott-Texten‘, von ‚Desinformationen‘ ist damit sehr leicht möglich.

Bedenkt man, dass moderne Demokratien nur funktionieren können, die Mehrheit der Bürger über eine gemeinsame Faktenbasis verfügt, die als ‚wahr‘ angenommen werden können, über eine gemeinsame Wissensmenge, über zuverlässige Medien, dann können mit dem Algorithmus chatGPT(4) genau diese Anforderungen an eine Demokratie massiv zerstört werden.

Interessant ist dann die Frage, ob chatGPT(4) eine menschliche Gesellschaft, speziell eine demokratische Gesellschaft, tatsächlich auch positiv-konstruktiv unterstützen kann?

Vom Menschen ist jedenfalls bekannt, dass dieser den Gebrauch seiner Sprache von Kindes Beinen an im direkten Kontakt mit einer realen Welt erlernt, weitgehend spielerisch, in Interaktion mit anderen Kindern/ Menschen. Für Menschen sind ‚Worte‘ niemals isolierte Größen sondern sie sind immer dynamisch eingebunden in ebenfalls dynamische Kontexte. Sprache ist nie nur ‚Form‘ sondern immer zugleich auch ‚Inhalt‘, und dies auf mannigfaltige Weise. Dies geht nur weil der Mensch über komplexe kognitiven Fähigkeiten verfügt, die u.a. entsprechende Gedächtnisleistungen wie auch Fähigkeiten zur Verallgemeinerung/ Generalisierung umfassen.

Die kulturgeschichtliche Entwicklung von gesprochener Sprache, über Schrift, Buch, Bibliotheken bis hin zu gewaltigen digitalen Datenspeichern hat zwar bezüglich der ‚formen‘ von Sprache und darin — möglicherweise — kodiertem Wissen Gewaltiges geleistet, aber es besteht der Eindruck, dass die ‚Automatisierung‘ der Formen diese in die ‚Isolation‘ treibt, so dass die Formen ihren Kontakt zur Realität, zur Bedeutung, zur Wahrheit immer mehr verlieren. Aus der Sprache als zentralem Moment der Ermöglichung von mehr komplexem Wissen und mehr komplexem Handeln wird damit zunehmend ein ‚Parasit‘, der immer mehr Raum beansprucht und dabei immer mehr Bedeutung und Wahrheit vernichtet.

[15] Gary Marcus, April 2023, Hoping for the Best as AI Evolves, Gary Marcus on the systems that “pose a real and imminent threat to the fabric of society.” Communications of the ACM, Volume 66, Issue 4, April 2023 pp 6–7, https://doi.org/10.1145/3583078 . Anmerkung: Gary Marcus schreibt anlässlich der Wirkungen von Systemen wie chatGPT(OpenAI), Dalle-E2 und Lensa über die ernst zunehmenden negativen Wirkungen, die diese Werkzeuge innerhalb einer Gesellschaft haben können, und zwar in einem Ausmaß, das eine ernsthafte Bedrohung für jede Gesellschaft darstellt! Sie sind inhärent fehlerhaft in den Bereichen Denken, Tatsachen und Halluzinationen. Mit nahezu Null Kosten lassen sich mit ihnen sehr schnell umfangreiche Desinformationskampagnen erstellen und ausführen. Am Beispiel der weltweit wichtigen Webseite ‚Stack Overflow‘ für Programmierer konnte (und kann) man sehen, wie der inflationäre Gebrauch von chatGPT aufgrund der inhärenten vielen Fehler dazu führt, dass das Management-Team von Stack Overflow seine Benutzer dringend bitten musste, den Einsatz von chatGPT komplett zu unterlassen, um den Zusammenbruch der Seite nach 14 Jahren zu verhindern. Im Falle von großen Playern, die es gezielt auf Desinformationen absehen, ist solch eine Maßnahme unwirksam. Diese Player zielen darauf ab, eine Datenwelt zu erschaffen, in der niemand mehr irgend jemandem vertrauen kann. Dies vor Augen stellt Gary Marcus 4 Postulate auf, die jede Gesellschaft umsetzen sollte: (1) Automatisch generierter Inhalt sollte komplett verboten werden; (2) Es müssen rechtswirksame Maßnahmen verabschiedet werden, die ‚Missinformationen‘ verhindern können; (3) User Accounts müssen fälschungssicher gemacht werden; (4) Es wird eine neue Generation von KI Werkzeugen gebraucht, die Fakten verifizieren können.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.


Das Ende der Evolution, von Matthias Glaubrecht,2021 (2019). Lesenotizen – Teil 2

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 17.September 2022 – 29. September 2022, 07:16h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (cagent@cognitiveagent.org)

Kontext

Diesem Text geht ein erster Teil voraus.[1]

Die Zukunft hat viele Gesichter

Nach dem spektakulären Foto 1968 während der Apollo-8 Mission von der Erde als ‚blue marble‘ (auch als ‚blue button‘ bezeichnet), entstand 1990 ein nicht weniger spektakuläres Foto von der Erde während der Voyager Mission aus einer Entfernung von 6 Milliarden km genannt ‚pale blue button‘. 30 Jahre später wurden die Bilddaten neu überarbeitet: https://www.jpl.nasa.gov/images/pia23645-pale-blue-dot-revisited . Das Bild hier im Blog-Text zeigt einen Ausschnitt davon.

Nach mehr als 800 Seiten prall gefüllt mit Gedanken, Informationen, Fakten, eingebettet in Analysen komplexer Prozesse, unternimmt Glaubrecht das Wagnis, einen Blick in die Zukunft zu wagen. ‚Wagnis‘ deswegen, weil solch ein ‚Blick in die Zukunft‘ nach Glaubrechts eigener Überzeugung „nicht die Sache der Wissenschaft“ sei.(S.864 unten).

Die hier möglichen und notwendigen wissenschaftsphilosophischen Fragen sollen aber für einen Moment hintenan gestellt werden. Zunächst soll geschildert werden, welches Bild einer möglichen Lösung angesichts des nahenden Unheils Glaubrecht ab S.881 skizziert.

Umrisse einer möglichen Lösung für 2062

In seiner Lösungsvision kommen viele der großen Themen vor, die er zuvor im Zusammenhang des nahenden Unheils thematisiert hat: „Biodiversität“ (881), „Lebensstil“ (883), „Überbevölkerung“ (884), „Bildung“, speziell für Frauen (885), das „Knappheits-Narrativ“ (885), ökologische Landbewirtschaftung und „tropische Wälder“ (vgl. 886), nochmals „Biodiversität“ (887), große zusammenhängende Schutzgebiete, „working lands“ sowie neue Rechte für die Natur (vgl. 888-891), „Konsumverhalten“ und „neues Wirtschaften“ (892), „Bildungsreform“, „ökosystemares Denken“ (893), „Ungleichheit weltweit“ und neue „Definition von Wachstum“ (894).

Pale Blue Planet

Auf den SS. 900 – 907 hebt Glaubrecht dann nochmals hervor, dass biologische Evolution kein eindeutig prognostizierbarer Vorgang ist. Dass sich auf der Erde biologisches Leben entwickelt hat heißt keinesfalls, dass dies sich auf einem anderen Planeten mit ähnlichen Voraussetzungen einfach wiederholen würde. Weiterhin gibt er zu bedenken, dass die Suche nach einem alternativen Planeten zur Erde bislang kaum fassbare Ergebnisse gebracht hat. Von den 0.5% möglichen Kandidaten mit habitablen Zonen von 3640 bekannten Exoplaneten im April 2017 zeigte bislang keiner hinreichende Eigenschaften für biologisches Leben. Von diesen ’nicht-wirklich Kandidaten‘ befindet sich der nächst gelegene Kandidat 4 Lichtjahre entfernt. Mit heutiger Technologie bräuchte man nach Schätzungen zwischen 6.000 bis 30.000 Jahren Reisezeit.

Vor diesem Hintergrund wirkt insbesondere die Suche nach einer „anderen Intelligenz“ fast bizarr: ist schon die biologische Evolution selbst ungewöhnlich, so deutet die ‚Entwicklungszeit‘ des Menschen mit ca. 3.5 Milliarden Jahren an, dass es extrem unwahrscheinlich ist, dass es irgendwo anders etwas „wirklich Vergleichbares … zum Menschen“ geben kann.(vgl. S.905)

Visionen und ihre Bedingungen

Dass Glaubrecht nach seinen umfassenden und sehr beeindruckenden Analysen Zukunftsszenarien schildern kann, darunter auch eine ‚positive‘ Variante für das Jahr 2062, zeigt zunächst einmal, dass es überhaupt geht. Das ‚Geschichten erzählen‘ ist eine Eigenschaft des Menschen, die sich mindestens bis in die Vorzeit der Erfindung von Schriften zurück verfolgen lässt. Und wenn wir unseren Alltag betrachten, dann ist dieser randvoll mit ‚Geschichten‘ über mögliche zukünftige Szenarien (Zeitungen, Fernsehen, Videos, in privaten Dialogen,Bücher, …). Zugleich haben wir gelernt, dass es ‚falsche‘ und ‚wahre‘ Geschichten geben kann. ‚Wahre‘ Geschichten über eine mögliche Zukunft ‚bewahrheiten‘ sich, indem die Zustände, von denen man ‚zuvor‘ gesprochen hatte, ‚tatsächlich‘ eintreten. Mit der Feststellung, dass eine Geschichten über eine mögliche Zukunft ‚falsch‘ sei, ist es schwieriger. Nur wenn man einen klaren ‚zukünftigen Zeitpunkt‘ angeben kann, dann kann man entscheiden, dass z.B. das Flugzeug oder der Zug zum prognostizierten Zeitpunkt ’nicht angekommen‘ ist.

Über Zukunft reden

Schon die Alltagsbeispiele zeigen, dass das Reden von einem ‚möglichen Zustand in der Zukunft‘ verschiedene Voraussetzungen erfüllen muss, damit dieses Sprachspiel funktioniert:

  1. Fähigkeit, zwischen einer ‚erinnerbaren Vergangenheit‘, einem ‚aktuellen Gedanken über einen möglichen zukünftigen Zustand‘, und einer ’neuen Gegenwart‘ unterscheiden zu können, so, dass entschieden werden kann, dass eine ’neue Gegenwart‘ mit dem zuvor gefassten ‚Gedanken über einen möglichen zukünftigen Zustand‘ hinreichend viele ‚Ähnlichkeiten‘ aufweist.
  2. Verschiedene Akteure müssen sowohl über Kenntnisse der ‚Ausdrücke‘ einer ‚gleichen Sprache‘ verfügen, und zugleich müssen sie über ‚hinreichend ähnliche Bedeutungen‘ in ihren Gehirnen verfügen, die sie ‚auf hinreichend ähnliche Weise‘ mit den benutzten Ausdrücken ‚verbinden‘.
  3. Für den Bereich der ‚bekannten Bedeutungen‘ im Gehirn muss die Fähigkeit verfügbar sein, diese in ’neuen Anordnungen‘ so zu denken, dass diese neuen Anordnungen als Bedeutungen für ein Reden über ‚mögliche neue Zustände verfügbar‘ sind. Menschen, die so etwas können, nennt man ‚kreativ‘, ‚fantasievoll‘, ‚innovativ‘.

Dieses sind allgemeine und für alle Menschen notwendige Voraussetzungen. Die Kulturgeschichte der Menschheit zeigt aber eindrücklich, dass das ‚Erzählen von möglicher Zukunft‘ bis zum Beginn der modernen empirischen Wissenschaften sich jede Freiheit genommen hate, die sprachlich möglich ist. Dies machte den Umgang mit ‚wahren Prognosen‘ zu einer Art Glücksspiel. Eine Situation, die speziell für jene , die ‚mehr Macht haben‘ sehr günstig war: sie konnten die ‚vage Zukunft‘ sehr freizügig immer zu ihren Gunsten auslegen; keiner konnte klar widersprechen.

Empirische Wissenschaften – Bessere Prognosen

Mit dem Aufkommen der neueren empirischen Wissenschaften (beginnend ab ca. dem 15.Jahrhundert) wendete sich das Blatt ein wenig, da das ‚Reden über einen möglichen zukünftigen Zustand‘ jetzt stärker ’normiert‘ wurde. Von heute aus betrachtet mag diese Normierung einigen (vielen?) vielleicht ‚zu eng‘ erscheinen, aber als ‚Start‘ in ein Phase von ‚Prognosen mit größerer Zuverlässigkeit‘ war diese Normierung faktisch ein großer kultureller Fortschritt. Diese neue ‚Normierung‘ umfasste folgende Elemente:

  1. Als ‚akzeptierte Fakten‘ wurden nur solche ’sprachlichen Ausdrücke‘ anerkannt, die sich mittels eines von jedem ‚wiederholbaren Experiments‘ (klar definierte Handlungsfolgen) auf ‚für alle Beteiligte beobachtbare Phänomene‘ beziehen lassen (z.B. die ‚Länge eines Gegenstandes mit einem vereinbarten Längenmaß‘ feststellen; das ‚Gewicht eines Gegenstandes mit einem vereinbarten Gewichtskörper‘ feststellen; usw.). Ausdrücke, die auf diese Weise gemeinsam benutzt werden, heißen gewöhnlich ‚Messwerte‘, die in ‚Tatsachenbehauptungen‘ eingebettet werden (z.B. ‚Die Tischkante dort ist 2 m lang‘, ‚Gestern bei höchstem Sonnenstand wog dieser Beutel 1.5 kg‘, usw.).
  2. Tatsachenbehauptungen waren von da ab leichter ‚klassifizierbar‘ im Sinne von ‚zutreffend (wahr)‘ oder ’nicht zutreffend (falsch)‘ als ohne diese Normierungen. Mit der Einführung solcher ’normierter Beobachtungen‘ wurden implizit auch ‚Zahlen‘ eingeführt, was zu dem führte, was man heute auch ‚Quantifizieren‘ nennt. Statt alltagssprachlicher Ausdrücke wie ‚lang‘, ‚groß‘, ’schwer‘ usw. zu benutzen, deren Bedeutung im Alltag immer nur ‚fallweise kontextualisiert‘ wird (eigentlich die große Stärke der normalen Sprache), wurde mit der Quantifizierung mittels Zahlen und vereinbarten ‚Standard Größen‘ (heute oft ‚Einheiten‘ genannt) die gewohnte Vagheit der Normalsprache durch eine neue, ungewohnte Konkretheit ersetzt. Die Ersetzung von normalsprachlicher Flexibilität durch vereinbarte Konkretheit erlaubte dann — wie sich immer mehr zeigte — eine ganz neue Qualität in der Beschreibung von ‚messbaren Phänomenen‘ und deren ‚Verhalten in der Zeit‘.[4]
  3. Das Werk ‚Philosophiae Naturalis Principia Mathematica‘ (erstmals 1689, Latein) von Isaac Newton gilt als erste große Demonstration der Leistungsfähigkeit dieses normierten Vorgehens (nach berühmten Vorläufern wie z.B.. Galilei und Kepler). Dazu kommt, dass die quantifizierten Tatsachenbehauptungen in ‚Zusammenhänge‘ eingebracht werden, in denen in Form von ‚Lehrsätzen‘ (oft auch Axiome genannt)‘ so etwas wie ‚Wirkzusammenhänge‘ beschrieben werden, die quantifizierte Ausdrücke benutzen.
  4. Im Zusammenwirken von quantifizierten Beobachtungen mit quantifizierten Wirkzusammenhängen lassen sich dann vergleichsweise genaue ‚Folgerungen‘ ‚ableiten‘, deren ‚Zutreffen‘ sich in der beobachtbaren Welt als ‚quantifizierte Prognosen‘ besser überprüfen lässt als ohne solche Quantifizierungen.
  5. Ein solches quantifizierendes Vorgehen setzt voraus, dass man die Ausdrücke der normalen Sprache um Ausdrücke einer ‚formalen Sprache‘ ‚erweitert‘. Im Fall von Newton waren diese formalen Ausdrücke jene der damaligen Mathematik.
  6. Interessant ist, dass Newton noch nicht über einen ‚formalen Folgerungsbegriff‘ verfügte, wie er dann Ende des 19.Jahrhunderts, Anfang des 20.Jahrhunderts durch die moderne Logik eingeführt wurde, einhergehend mit einer weiteren Formalisierung der Mathematik durch explizite Einbeziehung eines meta-mathematischen Standpunkts.

Der ‚Elefant im Raum‘

Es gibt Gesprächszusammenhänge, von denen sagt man, dass vom ‚Elefant im Raum‘ nicht gesprochen wird; also: es gibt ein Problem, das ist relevant, aber keiner spricht es aus.

Wenn man den Text zur positiven Vision zum Jahr 2062 liest, kann man solch einen ‚Elefanten im Raum‘ bemerken.

Ausgangslage im Alltag

Man muss sich dazu das Folgende vergegenwärtigen: Ausgangslage ist die Welt im Jahr 2021, in der die Menschheit global wirksam Verhaltensweisen zeigt, die u.a. zur Zerstörung der Biodiversität in einem Ausmaß führen, welche u.a. die Atmosphäre so verändern, dass das Klima schrittweise das bisher bekannte Leben dramatisch bedroht. Die u.a. CO2-Abhängigkeit der Klimaveränderung führt zu notwendigen Kurskorrekturen in der Art der Energiegewinnung, was wiederum phasenweise zu einem Energieproblem führt; gleichzeitig gibt es ein Wasserproblem, ein Ernährungsproblem, ein Migrationsproblem, ein …

Das Bündel dieser Probleme und seiner globalen Auswirkungen könnte größer kaum sein.

Von ‚außen‘ betrachtet — eine fiktive Sicht, die sich natürlich vom allgemein herrschenden ‚Zeitgeist‘ nicht wirklich abkoppeln kann — gehen alle diese wahrnehmbaren ‚Wirkungen‘ zurück auf ‚Wirkzusammenhänge‘, die durch das ‚Handeln von Menschen‘ so beeinflusst wurden, dass es genau zu diesen aktuellen globalen Ereignissen gekommen ist.

Das ‚Handeln‘ von Menschen wird aber — das können wir im Jahr 2022 wissen — von ‚inneren Zuständen‘ der handelnden Menschen geleitet, von ihren Bedürfnissen, Emotionen, und von den ‚Bildern der Welt‘, die zum Zeitpunkt des Handelns in ihren Köpfen vorhanden und wirksam sind.

Die ‚Bilder von der Welt‘ — teilweise bewusst, weitgehend unbewusst — repräsentieren das ‚Wissen‘ und die ‚Erfahrungen‘ der Handelnden. Dieses Wissen projiziert ‚Vorstellungen‘ in die umgebende Welt (die Menschen sind Teil dieser Welt!), die ‚zutreffend sein können, dieses aber zumeist nicht sind. Wenn sich ein Mensch entscheidet, seinen Vorstellungen zu folgen, dann hätten wir den Fall eines ‚wissensbasierten (rationalen) Handelns‘, das so gut ist, wie das Wissen zutreffend ist. Tatsächlich aber entscheidet sich jeder Mensch fast ausschließlich — meist unbewusst — nach seinem ‚Gefühl‘! Im Jahr 2022 gehört es zum Alltag, dass Menschen — der Bildungsgrad ist egal (!) — in einer Situation völlig ‚konträre Meinungen‘ haben können trotz gleicher Informationsmöglichkeiten. Unabhängig vom ‚Wissen‘ akzeptiert der eine Mensch die Informationsquellen A und lehnt die Informationsquellen B ab als ‚falsch‘; der andere Mensch macht es genau umgekehrt. Ferner gilt in sehr vielen (allen?) Entscheidungssituationen, dass die Auswahl der nachfolgenden Handlungen nicht von den ‚wissbaren Optionen‘ abhängt, sondern von der emotionalen Ausgangslage der beteiligten Personen, die sehr oft (meistens?) entweder bewusst nicht kommuniziert werden oder aber — da weitgehend unbewusst — nicht explizit kommuniziert werden können.

Dazu kommt, dass globale Wirkungen nur durch ein ‚globales Handeln‘ erreicht werden können, das entsprechend ‚koordiniert‘ sein muss zwischen allen Beteiligten. Koordinierung setzt ‚Kommunikation‘ voraus, und Kommunikation funktioniert nur, wenn die ‚kommunizierten Inhalte (= Wissen)‘ sowohl hinreichend ‚ähnlich‘ sind und zugleich ‚zutreffend‘. Die Wirklichkeit des Jahres 2021 (und nachfolgend) demonstriert allerdings, dass schon alltäglich zwei Menschen Probleme haben können, zu einer ‚gemeinsamen Sicht‘ zu kommen, erst recht dann, wenn ihre ‚individuellen Interessen‘ auseinander laufen. Was nützt es dem einen, zu wissen, dass es in den Alpen wunderbare Wanderwege gibt, wenn der andere absolut nicht wandern will? Was nützt es dem einen, wenn er bauen will und die Gemeinde einfach kein neues Bauland ausweist? Was nützt es betroffenen Bürgern, wenn die Bürgermeisterin partout ein neues Unternehmen ansiedeln will, weil es kurzfristig Geldeinnahmen gibt, und sie die nachfolgenden Probleme gerne übersieht, weil zuvor ihre Amtszeit endet? …

Kurzum, es ist nicht das ‚Wissen alleine‘, was ein bestimmtes zukünftiges Verhalten ermöglicht (wobei Wissen tendenziell sowieso ’nie ganz richtig ist‘), sondern auch — und vor allem — sind es die aktiven Emotionen in den Beteiligten.

Was heißt dies für die positive Zukunftsversion für 2062 im Text von Glaubrecht?

Erste Umrisse des Elefanten

Auf den Seiten 881 – 908 finden wir Formulierungen wie: „es kam zu einem tiefgehenden Bewusstseinswandel“ (881), „Immer mehr Menschen wurde klar“ (882), „Klar war aber auch, dass“, „guter Wille allein reichte da nicht… auch zivilgesellschaftliches Handeln musste erst intensiv erarbeitet werden„, „weil die Industrieländern … zu Vorbildern wurden“ (883), „Erst als die Überbevölkerung endlich zum wichtigsten Thema gemacht wurde, erfolgte der Durchbruch“ (884), „dass der Mensch in der ganz großen Gruppe ein gemeinsames Ziel erreichen kann“ (906), „Das Artensterben bietet allenfalls ein diffuses Ziel“ (908)

Diese ‚Fragmente‘ der Lösungsvision deuten an, dass

  1. ‚Bewusstseinswandel‘ und ‚Klarheit im Verstehen‘ wichtige Komponenten zu sein scheinen
  2. ‚Individuelles Wollen‘ alleine nicht ausreicht, um eine konstruktive globale Lösung zu ermöglichen
  3. ‚Überindividuelles (= zivilgesellschaftliches) Verhalten‘ ist nicht automatisch gegeben, sondern muss ‚gemeinsam erarbeitet werden‘
  4. Es braucht ‚globale Vorbilder‘ zur Orientierung (ob dies wirklich die Industrieländer sein können?)
  5. Die ‚Größe der Weltbevölkerung‘ ist ein wichtiger Faktor
  6. Der Faktor ‚Artensterben (Abnahme der Biodiversität)‘ ist für die meisten noch sehr ‚diffus‘
  7. Aus der Geschichte ist bekannt, dass Menschen gemeinsam große Dinge erreichen können.

Neben dem Wissen selbst — das ein Thema für sich ist — blitzen hier eine Reihe von ‚Randbedingungen‘ auf, die erfüllt sein müssen, damit es zu einer Lösung kommen kann. Ich formuliere diese wie folgt:

  1. Was immer ein einzelner weiß, fühlt, und will: ohne einen handlungswirksamen Zusammenschluss mit genügend vielen anderen Menschen wird es zu keiner spürbaren Veränderung im Verhalten von Menschen kommen.
  2. Das ‚zusammen mit anderen Handeln‘ muss ‚erlernt‘ und ‚trainiert‘ werden!
  3. Damit die vielen möglichen ‚Gruppen‘ in einer Region (auf der Erde) sich ’synchronisieren‘, braucht es ‚Leitbilder‘, die eine Mehrheit akzeptiert.
  4. Für alle Beteiligten muss erkennbar und erfahrbar sein, wie ein ‚Leitbild des gemeinsamen Handelns‘ sich zu den individuellen Bedürfnissen und Emotionen und Zielen verhält.
  5. Eine Zivilgesellschaft muss sich entscheiden, wo sie sich zwischen den beiden Polen ‚voll autokratisch‘ und ‚voll demokratisch‘ — mit vielen ‚Mischformen‘ — ansiedeln will. Die biologische Evolution deutet an, dass auf ‚lange Sicht‘ eine Kombination aus ‚radikaler Diversität‚ verbunden mit einem klaren ‚Leistungsprinzip‚ über lange Zeitstrecken hin leistungsfähig ist.
  6. Im Fall von menschlichen biologischen Systemen spiel ferner eine radikale ‚Transparenz‘ eine wichtige Rolle: Transparenz ’sich selbst‘ gegenüber wie auch ‚Transparenz untereinander‚: ohne Transparenz ist kein ‚effektives Lernen‘ möglich. Effektives Lernen ist die einzige Möglichkeit, das verfügbare Wissen in den Köpfen an die umgebende Realität (mit dem Menschen als Teil der Umgebung) ansatzweise ‚anzupassen‘.
  7. Damit Wissen wirksam sein kann, muss es eine ‚Form‚ haben, die es für alle Menschen möglich macht, (i) ‚jederzeit und überall‘ dieses Wissen zu nutzen und ‚dazu beitragen zu können‘, sowie (ii) erlaubt, ‚Prognosen‘ zu erstellen, die überprüft werden können.

Die wahre Herausforderung

Der ‚Elefant im Raum‘ scheint also der ‚Mensch selbst‘ zu sein. Die heutige Tendenz, immer und überall von ‚Digitalisierung‘ zu sprechen und in den Begriff ‚Künstliche Intelligenz‘ all jene Lösungen hinein zu projizieren, die wir noch nicht haben, ist ein weiteres Indiz dafür, dass der Mensch das ‚Verhältnis zu sich selbst‘ irgendwie nicht im Griff hat. Die kulturelle Erfahrung der letzten Jahrtausende, in vielen Bereichen heute deutlich ‚aufgehellt‘ durch empirische Wissenschaften, könnte uns entscheidend helfen, unser ‚eigenes Funktionieren‘ besser zu verstehen und unser individuelles wie gesellschaftliches Verhalten entsprechend zu organisieren. Das Problem ist weniger das Wissen — auch wenn dieses noch viel weiter entwickelt werden kann und entwickelt werden muss — als vielmehr unsere Scheu, die Motive von Entscheidungen und Verhalten transparent zu machen. Es reicht nicht, sogenannte ’sachliche Argumente‘ anzuführen (wenngleich sehr wichtig), es müssen zugleich auch die realen Interessen (und Ängste) auf den Tisch. Und wenn diese Interessen divergieren — was normal ist –, dann muss eine Lösung gefunden werden, die Interessen und Weltwissen (zusammen mit den bekannten Prognosen!) zu einem Ausgleich führt, der ein Handeln ermöglicht. Möglicherweise ist dies — auf längere Sicht — nur in eher demokratischen Kontexten möglich und nicht in autokratischen. Dies setzt aber in der Mehrheit der Bevölkerung einen bestimmten ‚Bildungsstand‘ voraus (was nicht nur ‚Wissen‘ meint, sondern z.B. auch die Fähigkeit, in diversen Teams transparent Probleme zu lösen).

Epilog

Vielleicht mag jemand nach der Lektüre dieses Textes den Eindruck haben, das Buch von Glaubrecht (hier wurde ja nur — im Teil 1 — die Einleitung und — im Teil 2 — der Schluss diskutiert!) würde hier kritisiert. Nein, das Buch ist großartig und ein wirkliches Muss. Aber gerade weil es großartig ist, lässt es Randbedingungen erkennen, die mindestens so wichtig sind wie das, was Glaubrecht mit dem Hauptthema ‚abnehmende Biodiversität‘ zur Kenntnis bringt.

Diese Randbedingungen — wir selbst mit unserer Art und Weise mit uns selbst und mit den anderen (und mit der übrigen Welt) umzugehen — sind gerade im Lichte der Biodiversität keine ‚Randbedingungen‘, sondern der entscheidende Faktor, warum es zur dramatischen Abnahme von Biodiversität kommt. Bei allen großartigen Errungenschaften ist der heutige Wissenschaftsbetrieb aktuell dabei, sich selbst zu ’neutralisieren‘, und die gesellschaftlichen Prozesse tendieren dazu, das Misstrauen untereinander immer weiter anzuheizen. Was wir brauchen ist möglicherweise eine wirkliche ‚Kulturrevolution‘, die ihren Kern in einer ‚Bildungsrevolution‘ hat. Fragt sich nur, wie diese beiden Revolutionen in Gang kommen können.[5]

KOMMENTARE

[1] Die Url lautet: https://www.cognitiveagent.org/2022/09/08/das-ende-der-evolution-von-matthias-glaubrecht2021-2019-lesenotizen/

[2] Ankündigung der Biodiversitätskonferenz Dezember 2022: https://www.unep.org/events/conference/un-biodiversity-conference-cop-15

[3] Joachim Radkau, 2017, Geschichte der Zukunft. Prognosen, Visionen, Irrungen in Deutschland von 1945 bis heute, Carl Hanser Verlag , eBook

[4] Es sei angemerkt, dass die Benutzung von ‚Zeitmarken‘ keinesfalls trivial ist. Abgesehen von dem ‚periodischen Ereignis‘, das für die Zeitmessung an einem bestimmten Ort benutzt wird, und dessen ‚Zuverlässigkeit‘ eigens geprüft werden muss, ist es eine wichtige Frage, wie sich zwei Zeitmessungen an verschiedenen Orten auf der Erde zueinander verhalten. Eine weltweit praktikable Lösung mit einer hinreichenden Genauigkeit gibt es erst ca. seit den 1990iger Jahren.

[5] Wenn im Epilog von einer notwendigen ‚Kulturrevolution‘ gesprochen wird, deren Kern eine ‚Bildungsrevolution‘ sein sollte, dann gibt es dazu eine Initiative Citizen Science 2.0, die — zumindest von der Intention her — genau auf solch eine neu sich formierende Zukunft abzielt. URL: https://www.oksimo.org/citizen-science-buergerwissenschaft/

Ein Überblick über alle Beiträge des Autors nach Titeln findet sich HIER.

POPPER: FRÜH – MITTEL – SPÄT. Empirische Theorie

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 13.März 2022 – 13.März, 11:11h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Kontext

Bei diesem Beitrag handelt es sich um die Fortsetzung des Diskurses zu den zuvor besprochenen Artikeln von Popper:  „A World of Propensities“ (1988, 1990),  „Towards an Evolutionary Theory of Knowledge“ (1989,1990)[1] sowie „All Life is Problem Solving“ (1991, 1994/1999). [2] Der Beitrag „(SPÄTER) POPPER – WISSENSCHAFT – PHILOSOPHIE – OKSIMO-DISKURSRAUM“ spielt hier keine Rolle. Es wird aber direkt Bezug genommen auf einen Text von Popper von 1971 „Conjectural Knowledge: My Solution of the Problem of Induction.“[3],[4] Dieser wurde in meinem Englischen Blog diskutiert „POPPER – Objective Knowledge (1971). Summary, Comments, how to develope further„.

Vorbemerkung

Die Begegnung des Autors mit Popper spielt sich in unterschiedlichen Etappen ab. Die erste Begegnung fand statt im März 2021 mit einer Diskussion der ersten 17 Kapitel von Popper’s Frühwerk „Logik der Forschung“ (1935), allerdings in der Englischen Fassung von 1959.[5] Diese erste Begegnung war eingebettet in eine größere Diskussion (mehrere längere Posts) zum Theoriebegriff und dem Zusammenhang mit dem oksimo Projekt.

In dieser ersten Begegnung wurde die Position Poppers vornehmlich wahrgenommen aus einer bestimmten, schon bestehenden wissenschaftsphilosophischen Perspektive, zusätzlich eingefärbt durch den Blick auf die Anwendbarkeit dieses Theoriebegriffs auf das oksimo Projekt. Wenngleich für den Autor in vielfacher Hinsicht sehr erhellend, kommt die Position Popper’s nicht so richtig zum Vorschein.

Erste die Lektüre von drei Beiträgen Popper’s aus der Zeit 1988 – 1991 führte zu einer neuen mehr Popper-zentrierten Wahrnehmung. In diesem Spannungsfeld von ‚frühem‘ Popper 1935/1959 und ’spätem‘ Popper 1988 – 1991 führte die Begegnung mit dem Text des ‚mittleren‘ Popper von 1971 zu einer sehr direkten Begegnung, die die Gedanken zu Popper weiter belebten.

Popper: Früh – Mittel – Spät

Die hier provisorisch vorgenommene Einordnung Poppers in einen ‚frühe‘, bzw. ‚mittleren‘ bzw. ’späten‘ Popper ist natürlich — gemessen an dem gesamten Werk Poppers ein bisschen gewagt. Dies entspricht aber letztlich dem Stil einer Theoriebildung im Sinne von Popper, in der — ausgehend von einzelnen Beobachtungen –, schrittweise Hypothesen gebildet werden, die dann versuchsweise angewendet werden. Im Scheitern bzw. in partiellen Bestätigungen entwickelt sich dann solch eine Theorie weiter. Eine ‚absolute Endform‘ wird sie nie haben, aber sie kann immer differenzierter werden, begleitet von immer stärkeren ‚Evidenzen‘, die allerdings ‚Wahrheit‘ niemals ersetzen können.

So also hier eine meine ‚Mini-Theorie‘ über Popper anhand von nur vier Artikeln und 17 Kapiteln aus einem Buch.

Bei meiner bisherigen Lektüre entsteht der Eindruck, dass die Strukturen des ‚frühen‘ (1935 – 1959) Popper denen des mittleren‘ (1971) Popper sehr ähnlich sind. Die Texte des ’späten‘ (1988 – 1991) Popper hingegen bringen einen starken neuen Akzent in die Überlegungen ein.

Wahrheit ohne Wahrheit

Ein Grundthema des frühen und mittleren Popper ist einerseits die starke Betonung, dass ‚Wahrheit‘ — zumindest als ‚regulative Idee‘ — unverzichtbar ist, soll empirische Wissenschaft stattfinden, andererseits aber sein unermüdliches Bemühen, darauf hinzuweisen, dass die Aussagen einer Theorie, selbst wenn sie sich eine lange Zeit ‚bewährt‘ haben, dennoch keine ‚absolute Wahrheit‘ widerspiegeln; sie können jederzeit widerlegt werden.[6] Diese Position führt ‚aus sich heraus‘ natürlich zu der Frage, was denn ‚Wahrheit als regulative Idee‘ ist bzw. zu der komplementären Frage, welchen ‚Status‘ dann jene Aussagen haben, auf die Theorieentwürfe aufbauen. Was ist eine ‚Beobachtungsausage‘ (Spezialfall ein ‚Messwert‘), die zum Ausgangspunkt von Theorien werden?

Poppers Prozessmodell von Wahrheit

Man kann Poppers Konzept einer objektiven (= ‚wahren‘) empirischen Theorie von ihren ‚Bestandteilen‘ her als ein ‚Prozessmodell‘ rekonstruieren, in dem sich — auf eine nicht wirklich geklärte Weise — beobachtungsgestützte Aussagen mit einem formalen Konzept von Logik ‚vereinen‘. Details dazu finden sich in einem Englischen Blogbeitrag des Autors.

Popper löst das Problem der notwendigen Wahrheit, die eigentlich nicht da ist, aber irgendwie dann doch, indem er in seinem 1971-Text [4] die einzelnen Aspekte dieses Wahrheitsbegriffs schildert und sie dann auf den letzten Seiten (29-31) wie in einem ‚Puzzle‘ zusammenfügt, allerdings so, dass viele Details offen bleiben.

Primären Halt in der empirischen Realität bieten Beobachtungssätze, die im Fall der Überprüfung einer Theorie, die Rolle von ‚Testsätzen‘ übernehmen. Die Theorie selbst besteht aus einer Ansammlung von ‚Hypothesen‘ (‚conjectures‘), in denen einzelne Beobachtungsaussagen zueinander in Beziehung gesetzt werden, die als solche natürlich nicht beobachtet (‚gemessen‘) werden können.[7]

Bei dem Übergang vom ‚Beobachtungswert‘ (‚Messwert‘) zur ‚Hypothese‘ finden aber unweigerlich ‚Verallgemeinerungen‘ statt [8], die dann sprachlich repräsentiert werden. Nur die ‚teilnehmenden‘ Beobachter wissen ‚implizit‘, auf welches konkrete Ereignis sie sich mit ihren sprachlichen Ausdrücken beziehen. Der Versuch der Wissenschaft, dieses Problem des ‚impliziten‘ (= subjektiven)‘ Wissens durch vereinbarte Messprozeduren aufzulösen, hilft nur partiell. Das Zustandekommen des Beobachtungsereignisses wird damit zwar ‚objektiviert‘, aber die ‚Übersetzung‘ dieses objektivierten Ereignisses, das als Wahrnehmungsphänomen bei den teilnehmden Beobachtern ‚ankommt‘, wird im Beobachter ‚unbewusst‘ zu einem Konzept verarbeitet, dass dann in einen sprachlichen Ausdruck transformiert wird, der dann als Beobachtungsaussage ‚funktioniert‘. Alle, die an diesem ‚Spiel‘ [9] teilnehmen, wissen, wie sie sich verhalten sollen. Ein ‚Außenstehender‘ versteht es nicht automatisch.

Anders betrachtet, selbst objektivierenden Beobachtungsprozesse klammern die subjektvie Komponenten nicht völlig aus.

Hat man verallgemeinernde Beobachtungsaussagen („Der Main-Kinzig Kreis hat 2018 418.950 Einwohner.“, „Dieser Stein wiegt 4.5 kg.“, „Das Wasser hat eine Temperatur von 13 Grad Celsius.“) , dann kann man auf dieser Basis versuchen, Hypothesen zu bilden (z.B. bzgl. des Aspektes möglicher Veränderungen wie Einwohnerzahl, Länge, Temperatur). Im Fall der Einwohnerzahl bräuchte man dann z.B. Beobachtungen zu mindestens zwei verschiedenen Zeitpunkten‘ (2018, 2019)[14], um aus der ‚Differenz‘ Hinweise ‚abzuleiten‘, welches Ausmaß ein ‚Wachstumsfaktor‘ haben könnte. Im Fall des Main-Kinzig Kreises wird für diesen Zeitraum z.B. ein Wachstumsfaktor von 0.4% ermittelt.

Wie ist solch ein ‚abgeleiteter Wachstumsfaktor‘ einzuordnen? Er beschreibt eine ‚abgeleitete‘ Größe, mit der man eine Formel bilden könnte wie ‚Die Einwohnerzahl im Jahr t+1 = Einwohnerzahl im Jahr t + (Einwohnerzahl im Jahr t * Wachstumsfaktor). Dies ist eine Rechenanweisung, die mit beobachteten Größen (Einwohnerzahl) und daraus abgeleiteten mathematischen Eigenschaften (Wachstumsfaktor) eine ‚Voraussage‘ berechnen lässt, wie die Einwohnerzahl in nachfolgenden Jahren aussehen [14] würde, wenn der Wachstumsfaktor sich nicht verändern würde.

Klar ist, dass solch ein sprachlicher Ausdruck seine Bedeutung aus dem ‚Bedeutungswissen‘ der Teilnehmer bezieht. Der Ausdruck selbst ist nichts anderes als eine Menge von Zeichen, linear angeordnet. Also auch hier eine fundamentale ’subjektive Dimension‘ als Voraussetzung für ein ‚objektives Agieren‘.

Diese Aspekte sprachlicher Bedeutung und deren Verankerung in der inneren Struktur der Beobachter und Theoriebauer [10] diskutiert Popper nicht explizit. Wohl postuliert er eine ‚Logik‘, die die ‚Herleitung‘ von Prognosen aus den theoretischen Annahmen beschreiben soll.

Die moderne formale Logik hat viele wunderbare Eigenschaften, aber eines hat sie nicht: irgendeinen Bezug zu irgendeiner Bedeutung‘. In einem formalen Logikkalkül [11] gibt es eine Menge von formalen Ausdrücken, die als ‚Annahmen‘ funktionieren sollen, und das einzige, was man von diesen wissen muss, ist, ob sie als ‚wahr‘ eingestuft werden (was bei Annahmen der Fall ist). Was mit ‚wahr inhaltlich gemeint ist, ist aber völlig unbestimmt, zumal formale Ausdrücke als solche keine Bedeutung haben. Wenn es eine Bedeutung geben soll, dann muss man die formalen Ausdrücke an die ’subjektive Bedeutungsdimension der Teilnehmer‘ knüpfen, die nach Bedarf spezielle Messverfahren zu Hilfe nehmen.

Angenommen, man hat die ‚formalisierten Ausdrücke‘ mit den verallgemeinerten Aussagen der Hypothesen verknüpft [12] und man nutzt die Logik, um ‚Ableitungen‘ zu machen, die zu ‚Prognosen‘ führen[13], dann stellt sich das Problem, wie man das Verhältnis einer ‚abgeleiteten‘ Aussage zu einer ‚Beobachtungsaussage‘ bestimmten soll. Popper benutzt hier zwar Klassifikationen wie ‚bestätigend‘, ’nicht bestätigend‘, ‚falsifiziert‘, aber eine Diskussion im Detail zu „A bestätigt B“/ „A bestätigt B nicht“/ „A falsifiziert B“ scheitert an vielen ungeklärten Details und Randbedingungen, die im vorausgehenden Text nur angedeutet werden konnten.

Der Diskurs geht weiter.

Kommentare

[1] Karl Popper, „A World of Propensities“,(1988) sowie „Towards an Evolutionary Theory of Knowledge“, (1989) in: Karl Popper, „A World of Propensities“, Thoemmes Press, Bristol, (1990, repr. 1995)

[2] Karl Popper, „All Life is Problem Solving“, Artikel, ursprünglich ein Vortrag 1991 auf Deutsch, erstmalig publiziert in dem Buch (auf Deutsch) „Alles Leben ist Problemlösen“ (1994), dann in dem Buch (auf Englisch) „All Life is Problem Solving“, 1999, Routledge, Taylor & Francis Group, London – New York

[3] Karl R.Popper, Conjectural Knowledge: My Solution of the Problem of Induction, in: [2], pp.1-31

[4] Karl R.Popper, Objective Knowledge. An Evolutionary Approach, Oxford University Press, London, 1972 (reprint with corrections 1973)

[5] Karl Popper, The Logic of Scientific Discovery, First published 1935 in German as Logik der Forschung, then 1959 in English by  Basic Books, New York (more editions have been published  later; I am using the eBook version of Routledge (2002))

[6] Popper verweist hier gerne und häufig auf die Geschichte der Physik mit den unterschiedlichen Konzepten, wie man die Erde als Teil des Sonnensystems und dann später das ganzen Universums beschrieben hat bzw. heute beschreibt. Hauptbeispiel: Newtons System, das dann mit immer neuen Beobachtungen und dann schließlich mit Einsteins Relativitätstheorie als ‚zu eng‘ klassifiziert wurde.

[7] ‚Beziehungen‘ existieren ausschließlich in unserem ‚Denken‘ (das alte Hume Problem, das Kant schon zu lösen versuchte, und das Popper in seinen Texten wieder und wieder aufgreift). Wenn wir diese ‚gedachten Beziehungen‘ in die beobachtbaren Einzelereignisse (Zeit, Ort, Beobachter) ‚hinein-sehen‘, dann ist dies der Versuch, zu ‚prüfen‘, ob diese Beziehung sich ‚bestätigen‘ oder ‚widerlegen‘ lässt. Anmerkung: die moderne expermentelle Psychologie (auch als Neuropsychologie) hat diese Sachverhalte extensiv untersucht und mit neuen Evidenzen versehen.

[8] Wie die Alltagssprache zeigt — und die moderne Wissenschaft bestätigt –, werden konkrete empirische Phänomene immer abstrakten Konzepten zugeordnet, die dann mit Allgemeinbegriffen verknüpft werden. Ob ein konkretes Wahrnehmungsereignis zu einem abstrakten Konzept X (z.B. ‚Tasse‘) oder Y (z.B. ‚Glas‘) gehört, das entscheidet das Gehirn unbewusst (Menschen können nur entscheiden, welche sprachlichen Ausdrücke sie verwenden wollen, um die kognitven Konzepte zu ‚benennen‘).

[9] … erinnert an das Sprachspielkonzept des späten Wittgenstein …

[10] Manche glauben heute, dass die Rolle des ‚Beoachters‘ und/oder des ‚Theoriebauers‘ von ‚intelligenten Programmen‘ übernommen werden können. In ‚Kooperation mit Menschen‘ im Rahmen eines modernen Konzepts von ‚kollektiver Intelligenz‘ kann es funktionieren, aber nur in Kooperation.

[11] Es gibt nicht nur ‚einen‘ Logikkalkül, sondern — rein formal — nahezu unendliche viele. Welcher für welche Aufgabenstellung ‚geeignet‘ ist, muss im Rahmen einer konkreten Aufgabe ermittelt werden.

[12] In der Wisenschaftsphilosophie ist dies bis heute noch nicht so gelöst, dass es dazu ein allgemein akzeptiertes Verfahren gibt.

[13] Da es viele verschiedene Ableitungsbegriffe gibt, von denen bis heute kein einziger meta-theoretisch für bestimmte empirische Bereich als ‚zuverlässig im Sinne eines Kriteriums K‘ erwiesen wurde, ist die lose Bezugnahme auf einen solchen Ableitungsbegriff eigentlich zu wenig.

[14] An dieser Stelle wird deutlich, dass das Beobachten wie auch dann die Auswertung von einer ‚Menge‘ von Beobachtungswerten in unserer Körperwelt ein ‚Zeitmodell‘ voraussetzt, in dem Ereignisse ein ‚vorher‘ und ’nachher‘ haben, so dass das Konzept einer ‚Prognose’/ ‚Voraussage‘ überhaupt Sinn macht.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

WISSENSCHAFT IM ALLTAG. Popper 1988/1990

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 16.-17.Februar 2022, 18:00h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Vorbemerkung

In einer Welt voller Bücher — gefühlt: unendlich viele Bücher — ist kaum voraussagbar, welches Buch man im Februar 2022 lesen wird. Dass es dann das Büchlein ‚A World of Propensities‘ (1990 (reprint 1995))[2a] von Karl Popper [1] sein würde, hing von einem ganzen Bündel von Faktoren ab, von denen jeder für sich ‚eine Rolle‘ spielte, aber dass es dann zu diesem konkreten Buch zu diesem konkreten Zeitpunkt gekommen ist, war aus Sicht der einzelnen Faktoren nicht direkt ableitbar. Auch das ‚Zusammenspiel‘ der verschiedenen Faktoren war letztlich nicht voraussagbar. Aber es ist passiert.

Im Rahmen meiner Theoriebildung für das oksimo-Paradigma (einschließlich der oksimo-Software)[4] Hatte ich schon viele Posts zur möglichen/ notwendigen Theorie für das oksimo-Paradigma in verschiedenen Blocks geschrieben [3a], sogar einige zum frühen Popper [3b], aber mir scheint, so richtig bin ich mit der Position von Popper in seiner ‚Logik der Forschung‘ von 1934 bzw. dann mit der späteren Englischen Ausgabe ‚The Logic of Scientific Discovery‘ (1959)[2b] noch nicht klar gekommen.

Im Frühjahr 2022 war es eine seltene Mischung aus vielerlei Faktoren, die mich über den Umweg der Lektüre von Ulanowizc [5], und zwar seines Buches „Ecology: The Ascendant Perspective“ (1997), auf den späten Popper aufmerksam machten. Ulanowizc erwähnt Popper mehrfach an prominenter Stelle, und zwar speziell Poppers Büchlein über Propensities. Da dieses schmale Buch mittlerweile vergriffen ist, kam ich dann nur durch die freundliche Unterstützung [6b] der Karl Popper Sammlung der Universität Klagenfurt [6a] zu einer Einsicht in den Text.

Der nachfolgende Text beschäftigt sich mit dem ersten der beiden Aufsätze die sich in dem Büchlein finden: „A World of Propensities: Two New Views of Causality“.[7][*]

Wahrscheinlichkeit, Wahrheit, Hypothese, Bekräftigung, … Vorgeplänkel

In seiner Einleitung im Text erinnert Popper an frühere Begegnungen mit Mitgliedern des Wiener Kreises [1b] und die Gespräche zu Theme wie ‚absolute Theorie der Wahrheit‘, ‚Wahrheit und Sicherheit‘, ‚Wahrscheinlichkeitsbasierte Induktion‘, ‚Theorie der Wahrscheinlichkeit‘ sowie ‚Grad der Bekräftigung einer Wahrscheinlichkeit‘.

Während er sich mit Rudolf Carnap 1935 noch einig wähnte in der Unterscheidung von einer Wahrscheinlichkeit im Sinne einer Wahrscheinlichkeitstheorie und einem ‚Grad der Bestätigung‘ (‚degree of confirmation‘) , war er sehr überrascht — und auch enttäuscht — 1950 in einem Buch von Carnap [8], [8b] zu lesen, dass für Carnap dies alles das Gleiche sei: mathematische Wahrscheinlichkeit und empirische Bestätigung eines Ereignisses. Hatte Carnap mit dieser Veränderung seiner Auffassung auch die Position einer ‚Absolutheit der Wahrheit‘ verlassen, die für Popper 1935 immer noch wichtig war? Und selbst in der Rede von 1988 hält Popper das Postulat von der Absolutheit der Wahrheit hoch, sich dabei auf Aristoteles [9], Alfred Tarski [10] und Kurt Gödel [11] beziehend (S.5f).

In einer Welt mit einem endlichen Gehirn, in einem endlichen Körper (bestehend aus ca. 36 Billionen Zellen (10^12)[12], in einer Welt von nicht-abzählbar vielen realen Ereignissen, war mir nie klar, woran (der frühe) Popper (und auch andere) die Position einer ‚absoluten Wahrheit‘ fest machen konnten/ können. Dass wir mit unserem endlichen – und doch komplexen, nicht-linearem — Gehirn von ‚Konkretheiten‘ ‚abstrahieren‘ können, Begriffe mit ‚offenen Bedeutungen‘ bilden und diese im Kontext der Rede/ eines Textes zu Aussagen über Aspekte der Welt benutzen können, das zeigt jeder Augenblick in unserem Alltag (ein für sich außergewöhnliches Ereignis), aber ‚absolute Wahrheit‘ … was kann das sein? Wie soll man ‚absolute Wahrheit‘ definieren?

Popper sagt, dass wir — und wenn wir uns noch so anstrengen — in unserem „Ergebnis nicht sicher“ sein können, das Ergebnis kann sogar „nicht einmal wahr“ sein.(vgl. S.6) Und wenn man sich dann fragt, was dann noch bleibt außer Unsicherheit und fehlender Wahrheit, dann erwähnt er den Sachverhalt, dass man von seinen „Fehlern“ auf eine Weise „lernen“ kann, dass ein „mutmaßliches (‚conjectural‘) Wissen“ entsteht, das man „testen“ kann.(vgl. S.6) Aber selbst dann, wenn man das Wissen testen kann, sind diese Ergebnisse nach Popper „nicht sicher“; obwohl sie „vielleicht wahr“ sind, diese Wahrheit aber ist damit dennoch „nicht endgültig bestätigt (‚established‘)“. Und er sagt sogar: „Selbst wenn sie [ergänzt: die Ergebnisse] sich als nicht wahr erweisen, … eröffnen sie den Weg zu noch besseren [ergänzt: Ergebnissen].“ (S.6)

Diese ‚changierende Sprechweise‘ über ‚wahre Ergebnisse‘ umschreibt das Spannungsfeld zwischen ‚absoluten Wahrheit‘ — die Popper postuliert — und jenen konkreten Sachverhalten, die wir im Alltag zu ‚Zusammenhängen (Hypothesen)‘ verdichten können, in denen wir einzelne Ereignisse ‚zusammen bringen‘ mit der ‚Vermutung‘, dass sie auf eine nicht ganz zufällige Weise zusammen gehören. Und, ja, diese unsere alltägliche Vermutungen (Hypothesen) können sich ‚alltäglich bestätigen‘ (wir empfinden dies so) oder auch nicht (dies kann Zweifel wecken, ob es ‚tatsächlich so ist‘).(vgl. S.6)

Das Maximum dessen, was wir — nach Popper — in der alltäglichen Erkenntnis erreichen können, ist das Nicht-Eintreten einer Enttäuschung einer Vermutung (Erwartung, Hypothese). Wir können dann „hoffen“, dass die Hypothese „wahr ist“, aber sie könnte sich dann beim nächsten Test vielleicht doch noch als „falsch“ erweisen. (vgl. S.6)

In all diesen Aussagen, dass ein Ergebnis ’noch nicht als wahr erwiesen wurde‘ fungiert der Begriff der ‚Wahrheit‘ als ein ‚Bezugspunkt‘, anhand dessen man eine vorliegende Aussage ‚vergleichen‘ kann und mit diesem Vergleich dann zum Ergebnis kommen kann, dass eine vorliegende Aussage ‚verglichen mit einer wahren Aussage‘ nicht wahr ist.

Messen als Vergleichen ist in der Wissenschaft der Goldstandard, aber auch im ganz normalen Alltag. Wo aber findet sich der Vergleichspunkt ‚wahr Aussage‘ anhand dessen eine konkrete Aussage als ’nicht dem Standard entsprechend‘ klassifiziert werden kann?

Zur Erinnerung: es geht jetzt hier offensichtlich nicht um einfache ‚Sachverhaltsfeststellungen‘ der Art ‚Es regnet‘, ‚Es ist heiß‘, ‚Der Wein schmeckt gut‘ …, sondern es geht um die Beschreibung von ‚Zusammenhängen‘ zwischen ‚isolierten, getrennten Ereignissen‘ der Art (i) ‚Die Sonne geht auf‘, (ii) ‚Es ist warm‘ oder ‚(i) ‚Es regnet‘, (ii) ‚Die Straße ist nass‘.

Wenn die Sonne aufgeht, kann es warm werden; im Winter, bei Kälte und einem kalten Wind kann man die mögliche Erwärmung dennoch nicht merken. Wenn es regnet dann ist die Straße normalerweise nass. Falls nicht, dann fragt man sich unwillkürlich, ob man vielleicht nur träumt?

Diese einfachen Beispiele deuten an, dass ‚Zusammenhänge‘ der Art (i)&(ii) mit einer gewissen Häufigkeit auftreten können, aber es keine letzte Sicherheit gibt, dass dies der Fall sein muss.

Wo kommt bei alldem ‚Wahrheit‘ vor?

‚Wahrheit an sich‘ ist schwer aufweisbar. Dass ein ‚Gedanke‘ ‚wahr‘ ist, kann man — wenn überhaupt — nur diskutieren, wenn jemand seinem Gedanken einen sprachlichen Ausdruck verleiht und der andere anhand des sprachlichen Ausdrucks (i) bei sich eine ‚Bedeutung aktivieren‘ kann und (ii) diese aktivierte Bedeutung dann entweder (ii.1) — schwacher Fall — innerhalb seines Wissens mit ‚anderen Teilen seines Wissens‘ ‚abgleichen‘ kann oder aber (ii.2) — starker Fall — seine ‚interne Bedeutung‘ mit einer Gegebenheit der umgebenden realen Ereigniswelt (die als ‚Wahrnehmung‘ verfügbar ist) vergleichen kann. In beiden Fällen kann der andere z.B. zu Ergebnissen kommen wie (a) ‚Ja, sehe ich auch so‘ oder (b) ‚Nein, sehe ich nicht so‘ oder (c) ‚Kann ich nicht entscheiden‘.

In diesen Beispielen wäre ‚Wahrheit‘ eine Eigenschaft, die der Beziehung zwischen einem sprachlichen Ausdruck mit seiner möglichen ‚Bedeutung‘ ‚zu etwas anderem‘ zukommt. Es geht in diesen Beispielen um eine dreistellige Beziehung: die beiden Größen (Ausdruck, gewusste Bedeutung) werden in Beziehung gesetzt zu (wahrgenommenem oder erinnertem oder gefolgertem Sachverhalt).[13]

‚Wahrgenommenes‘ resultiert aus Interaktionen unseres Körpers mit der umgebenden realen Ereigniswelt (wobei unsere Körper selbst ein Ereignis in der umgebenden realen Ereigniswelt ist).[14]

‚Bedeutungen‘ sind ‚gelernte Sachverhalte‘, die uns über unsere ‚Wahrnehmung‘ ‚bekannt geworden sind‘ und in der Folge davon möglicherweise auf eine schwer bestimmbare Weise in unser ‚Gedächtnis‘ übernommen wurden, aus dem Heraus wir sie auf eine ebenfalls schwer bestimmbaren Weise in einer ‚erinnerten Form‘ uns wiederholt wieder ‚bewusst machen können‘. Solche ‚wahrnehmbaren‘ und ‚erinnerbaren‘ Sachverhalte können von unserem ‚Denken‘ in schwer bestimmbarer Form eine spezifische ‚Bedeutungsbeziehung‘ mit Ausdrücken einer Sprache eingehen, welche wiederum nur über Wahrnehmung und Erinnern uns bekannt geworden sind.[15]

Aus all dem geht hervor, dass dem einzelnen Akteur mit seinen gelernten Ausdrücke und ihren gelernten Bedeutungen nur das ‚Ereignis der Wiederholung‘ bleibt, um einem zunächst ‚unbestimmt Gelerntem‘ eine irgendwie geartete ‚Qualifikation‘ von ‚kommt vor‘ zu verleihen. Kommt also etwas vor im Lichte von gelernten Erwartungen neigen wir dazu, zu sagen, ‚es trifft zu‘ und in diesem eingeschränkten Sinne sagen wir auch, dass ‚es wahr ist‘. Diese gelernten Wahrheiten sind ’notorisch fragil‘. Jene, die ‚im Laufe der Zeit‘ sich immer wieder ‚bewähren‘ gewinnen bei uns ein ‚höheres Vertrauen‘, sie haben eine ‚hohe Zuverlässigkeit‘, sind allerdings nie ganz sicher‘.

Zusätzlich erleben wir im Alltag das ständige Miteinander von ‚Konkretheiten‘ in der Wahrnehmung und ‚Allgemeinheiten‘ der sprachlichen Ausdrücke, eine ‚Allgemeinheit‘ die nicht ‚absolut‘ ist. sondern als ‚Offenheit für viel Konkretes‘ existiert. In der Sprache haben wir Unmengen von Worten wie ‚Tasse‘, ‚Stuhl‘, ‚Tisch‘, Hund‘ usw. die sich nicht nur auf ein einziges Konkretes beziehen, sondern auf — potentiell unendlich — viele konkrete Gegebenheiten. Dies liegt daran, dass es viele verschiedene konkrete Gegebenheiten gibt, die trotz Unterschiede auch Ähnlichkeiten aufweisen, die dann als ‚Tasse‘, ‚Stuhl‘ usw. bezeichnet werden. Unser Gehirn verfügt über ‚automatische (= unbewusste) Prozesse‘, die die Konkretheiten aus der Wahrnehmung in ‚Muster‘ transformieren, die dann als ‚Repräsentanten‘ von verschiedenen wahrgenommenen Konkretheiten fungieren können. Diese Repräsentanten sind dann das ‚Material der Bedeutung‘, mit denen sprachliche Ausdrücke — auch automatisch — verknüpft werden können.[15]

Unser ‚Denken‘ kann mit abstrakten Repräsentanten arbeiten, kann durch Benutzung von sprachlichen Ausdrücken Konstruktionen mit abstrakten Konzepten und Ausdrücken bilden, denen bedeutungsmäßig direkt nichts in der realen Ereigniswelt entsprechen muss bzw. auch nicht entsprechen kann. Logik [17] und Mathematik [18] sind bekannte Beispiele, wie man mit gedanklich abstrakten Konzepten und Strukturen ‚arbeiten‘ kann, ohne dass ein Bezug zur realen Ereigniswelt bestehe muss oder jemals bestehen wird. Innerhalb dieser Welt abstrakter Strukturen und abstrakter Ausdrücke kann es dann sogar in einem eingeschränkten Sinne ‚Wahrheit‘ als Übereinstimmung von abstrakten Ausdrücken, deren abstrakten Bedeutungen und den anderen gedachten abstrakten Strukturen geben, aber diese ‚abstrakten Wahrheiten‘ sind in keiner Weise auf die reale Ereigniswelt übertragbar. Für uns gibt es nur das Modell der Alltagssprache, die mit ihren ‚offenen abstrakten‘ Bedeutungen auf Konkretes Bezug nehmen kann und zwischen Gegenwart und Vergangenheit eine ‚gedachte Beziehung‘ herstellen kann, ebenso auch zwischen Vergangenem und Gegenwärtigem zu einer gedachten Zukunft. Inwieweit sich diese gedachten Beziehungen (Vermutungen, Hypothesen, …) dann in der realen Ereigniswelt bestätigen lassen, muss fallweise geprüft werden.

Die Welt der Wissenschaften erweckt den Eindruck, dass es mittlerweile eine große Zahl von solchen Hypothesen gibt, die allesamt als ‚weitgehend zuverlässig‘ angesehen werden, und aufgrund deren wir nicht nur unser bisheriges Wissen beständig ‚erweitern‘, sondern auch in einer Vielzahl von praktischen Anwendungen nutzen (Technologie, Landwirtschaft, Medizin, …).

Und an dieser Stelle greift Popper sehr weit aus, indem er diese für die Wissenschaften charakteristische „mutige, und abenteuerliche Weise des Theoretisierens“, ergänzt um „seriöse Tests“, im „biologischen Leben selbst“ am Werke sieht (vgl. S.7): die beobachtbare Entwicklung zu immer „höheren (‚higher‘) Formen“ des Lebens geschah/ geschieht durch Schaffung von „neuen Versuchen“ (‚trials‘), deren „Einbringung in die Realität“ (‚exposure‘), und dann das „Ausmerzen von Irrtümern“ (‚errors‘) durch „Testen“.(vgl. S.7) Mit dieser permanenten Kreativität neuer Lösungsansätze, deren Ausprobieren und dem daraus Lernen im Beseitigen von Fehlschlägen hat es nicht nur das biologische Leben als Ganzes geschafft, nach und nach die Welt quasi zu erobern, sondern in der Variante moderner empirischer Wissenschaft ist die Lebensform des Homo sapiens dabei, diese Eroberung auf neue Weise zu ergänzen. Während die biologische Evolution vor dem Homo sapiens primär um das nackte Überleben kämpfen musste, kann der Homo sapiens zusätzlich ‚reines Verstehen‘ praktizieren, das dann als ‚Werkzeug‘ zum Überleben beitragen kann. Für Popper ist ‚Verstehen‘ (‚understand‘) und ‚Lernen‘ (‚to learn more‘) das entscheidende Charakteristikum der Lebensform des Homo sapiens (als Teil des gesamten biologischen Lebens). Und in diesem Verstehensprojekt geht es um alles: um den ganzen Kosmos bis hin zum letzten Atom, um die Entstehung des Lebens überhaupt, um den ‚menschlichen Geist‘ (‚human mind‘) und die Art und Weise wie er stattfindet.(vgl. S.7)

Nach dieser ‚Einstimmung‘ wendet sich Popper dem speziellen Problem der Kausalität zu.

Kausalität – Ein wissenschaftliches Chamäleon

Der Begriff der ‚Kausalität‘ ist uns allen über den Alltag in vielfältigen Formen bekannt, ohne dass wir dazu gewöhnlich ein klares begriffliches Konzept entwickeln.

Geht es hingegen ‚um Etwas‘, z.B. um Geld, oder Macht, oder um eine gute Ernte, oder die Entwicklung einer Region, usw. , dann ist die Frage ‚Was was wie bewirkt‘ nicht mehr ganz egal. ‚Soll ich nun investieren oder nicht?‘ ‚Ist dieses Futter für die Tiere besser und auf Dauer bezahlbar oder nicht?‘ ‚Wird die neue Verkehrsregelung tatsächlich Lärm und CO2-Ausstoß reduzieren oder nicht?‘ ‚Ist Aufrüstung besser als Neutralität?‘ ‚Wird die Menge des jährlichen Plastikmülls die Nahrungsketten im Meer und damit viele davon abhängige Prozesse nachhaltig zerstören oder nicht?‘

Wenn Philosophen und Wissenschaftler von Kausalität sprechen meinten sie in der Vergangenheit meist viel speziellere Kontexte. So erwähnt Popper die mechanistischen Vorstellungen im Umfeld von Descartes; hier waren alle Ereignisse klar bestimmt, determiniert.(vgl. S.7) Mit der Entwicklung der Quantenmechanik — spätestens ab 1927 mit der Entdeckung des Unsicherheitsprinzips durch Werner Heisenberg [19], [19a] — wurde bewusst, dass die Ereignisse in der Natur keinesfalls vollständig klar und nicht vollständig determiniert sind. (vgl. S7f)

Damit trat eine inhärente Unsicherheit hervor, die nach einer neuen Lösung verlangte. Die große Zeit des Denkens in Wahrscheinlichkeiten begann.[20] Man kann das Denken in Wahrscheinlichkeiten grob in drei (vier) Sichtweisen unterscheiden: (i) In einer theoretischen — meist mathematischen — Sicht [21] definiert man sich abstrakte Strukturen, über die man verschiedene Operationen definieren kann, mit denen sich dann unterschiedliche Arten von Wahrscheinlichkeiten durchspielen lassen. Diese abstrakten (theoretischen) Wahrscheinlichkeiten haben per se nichts mit der realen Welt der Ereignisse zu tun. Tatsächlich erweisen sich aber viele rein theoretische Modelle als erstaunlich ’nützlich‘ bei der Interpretation realweltlicher Ereignisfolgen. (ii) In einer subjektivistischen Sicht [22] nimmt man subjektive Einschätzungen zum Ausgangspunkt , die man formalisieren kann, und die Einschätzungen zum möglichen Verhalten des jeweiligen Akteurs aufgrund seiner subjektiven Einschätzungen erlauben. Da subjektive Weltsichten meistens zumindest partiell unzutreffend sind, z.T. sogar überwiegend unzutreffend, sind subjektive Wahrscheinlichkeiten nur eingeschränkt brauchbar, um realweltliche Prozesse zu beschreiben.(iii) In einer (deskriptiv) empirischen Sicht betrachtet man reale Ereignisse, die im Kontext von Ereignisfolgen auftreten. Anhand von diversen Kriterien mit der ‚Häufigkeit‘ als Basisterm kann man die Ereignisse zu unterschiedlichen Mustern ‚gruppieren‘, ohne dass weitergehende Annahmen über mögliche Wirkzusammenhänge mit ‚auslösenden Konstellationen von realen Faktoren‘ getätigt werden. Nimmt man eine solche ‚deskriptive‘ Sicht aber zum Ausgangspunkt, um weitergehende Fragen nach möglichen realen Wirkzusammenhängen zu stellen, dann kommt man (iv) zu einer eher objektivistischen Sicht. [23] Hier sieht man in der Häufigkeiten von Ereignissen innerhalb von Ereignisfolgen mögliche Hinweise auf reale Konstellationen, die aufgrund ihrer inhärenten Eigenschaften diese Ereignisse verursachen, allerdings nicht ‚monokausal‘ sondern ‚multikausal‘ in einem nicht-deterministischem Sinne. Dies konstituiert die Kategorie ‚Nicht deterministisch und zugleich nicht rein zufällig‘.[24]

Wie der nachfolgende Text zeigen wird, findet man Popper bei der ‚objektivistischen Sicht‘ wieder. Er bezeichnet Ereignisse, die durch Häufigkeiten auffallen, als ‚Propensities‘, von mir übersetzt als ‚Tendenzen‘, was letztlich aber nur im Kontext der nachfolgenden Erläuterungen voll verständlich wird.

Popper sagt von sich, dass er nach vielen Jahren Auseinandersetzung mit der theoretischen (mathematischen) Sicht der Wahrscheinlichkeit (ca. ab 1921) (vgl. S.8f) zu dieser — seiner — Sicht gelangt ist, die er 1956 zum ersten Mal bekannt gemacht und seitdem kontinuierlich weiter entwickelt hat.[24]

Also, wenn man beobachtbare Häufigkeiten von Ereignissen nicht isoliert betrachtet (was sich angesichts des generellen Prozesscharakters aller realen Ereignisse eigentlich sowieso verbietet), dann kommt man wie Popper zu der Annahme, dass die beobachtete — überzufällige aber dennoch auch nicht deterministische — Häufigkeit die nachfolgende ‚Wirkung‘ einer realen Ausgangskonstellation von realen Faktoren sein muss, deren reale Beschaffenheit einen ‚Anlass‘ liefert, dass ‚etwas Bestimmtes passiert‘, was zu einem beobachtbaren Ereignis führt.(vgl. S.11f, dazu auch [25]) Dies schließt nicht aus, dass diese realen Wirkungen von spezifischen ‚Bedingungen‘ abhängig sein können, die erfüllt sein müssen, damit es zur Wirkung kommt. Jede dieser Bedingungen kann selbst eine ‚Wirkung‘ sein, die von anderen realen Faktoren abhängig ist, die wiederum bedingt sind, usw. Obwohl also ein ‚realer Wirkzusammenhang‘ vorliegen kann, der als solcher ‚klar‘ ist — möglicherweise sogar deterministisch — kann eine Vielzahl von ‚bedingenden Faktoren‘ das tatsächliche Auftreten der Wirkung so beeinflussen, dass eine ‚deterministische Wirkung‘ dennoch nicht als ‚deterministisch‘ auftritt.

Popper sieht in dieser realen Inhärenz von Wirkungen in auslösenden realen Faktoren eine bemerkenswerte Eigenschaft des realen Universums.(vgl. S.12) Sie würde direkt erklären, warum Häufigkeiten (Statistiken) überhaupt stabil bleiben können. (vgl. S.12). Mit dieser Interpretation bekommen Häufigkeiten einen objektiven Charakter. ‚Häufigkeiten‘ verwandeln sich in Indikatoren für ‚objektive Tendenzen‘ (‚propensities‘), die auf ‚reale Kräfte‘ verweisen, deren Wirksamkeit zu beobachtbaren Ereignissen führen.(vgl. S.12)

Die in der theoretischen Wahrscheinlichkeit verbreitete Charakterisierung von wahrscheinlichen Ereignissen auf einer Skala von ‚1‘ (passiert auf jeden Fall) bis ‚0‘ (passiert auf keinen Fall) deutet Popper für reale Tendenzen dann so um, dass alle Werte kleiner als 1 darauf hindeuten, dass es mehrere Faktoren gibt, die aufeinander einwirken, und dass der ‚Nettoeffekt‘ aller Einwirkungen dann zu einer realen Wirkung führt die kleiner als 1 ist, aber dennoch vorhanden ist; man kann ihr über Häufigkeiten sogar eine phasenweise Stabilität im Auftreten zuweisen, so lange sich die Konstellation der wechselwirkenden Faktoren nicht ändert.(vgl. S.13) Was hier aber wichtig ist — und Popper weist ausdrücklich darauf hin — die ‚realen Tendenzen‘ verweisen nicht auf einzelne konkrete, spezielle Eigenschaften inhärent in einem Objekt, sondern Tendenzen korrespondieren eher mit einer ‚Situation‘ (’situation‘), die als komplexe Gesamtheit bestimmte Tendenzen ‚zeigt‘.(vgl. SS.14-17) [26]

Schaut man nicht nur auf die Welt der Physik sonder lenkt den Blick auf den Alltag, in dem u.a. auch biologische Akteure auftreten, speziell auch Lebensformen vom Typ Homo sapiens, dann explodiert der Raum der möglichen Faktoren geradezu, die Einfluss auf den Gang der Dinge nehmen können. Nicht nur bildet der Körper als solcher beständig irgendwelche ‚Reize‘ aus, die auf den Akteur einwirken, sondern auch die Beschaffenheit der Situation wirkt in vielfältiger Weise. Insbesondere wirkt sich die erworbene Erfahrung, das erworbene Wissen samt seinen unterschiedlichen emotionalen Konnotationen auf die Art der Wahrnehmung aus, auf die Art der Bewertung des Wahrgenommenen und auf den Prozess möglicher Handlungsentscheidungen. Diese Prozesse können extrem labil sein, so dass Sie in jedem Moment abrupt geändert werden können. Und dies gilt nicht nur für einen einzelnen Homo sapiens Akteur, sondern natürlich auch für die vielen Gruppen, in denen ein Homo sapiens Akteur auftreten kann bzw. auftritt bzw. auftreten muss. Dieses Feuerwerk an sich wechselseitig beständig beeinflussenden Faktoren sprengt im Prinzip jede Art von Formalisierung oder formalisierter Berechnung. Wir Menschen selbst können dem ‚Inferno des Alles oder Nichts‘ im Alltag nur entkommen, wenn wir ‚Konventionen‘ einführen, ‚Regeln des Verhaltens‘, ‚Rollen definieren‘ usw. um das praktisch unberechenbare ‚Universum der alltäglichen Labilität‘ partiell zu ‚zähmen‘, für alltägliche Belange ‚berechenbar‘ zu machen.

Popper zieht aus dieser Beschaffenheit des Alltags den Schluss, das Indeterminismus und freier Wille zum Gegenstandsbereich und zum Erklärungsmodell der physikalischen und biologischen Wissenschaften gehören sollten.(vgl. S.17f)

Popper folgert aus einer solchen umfassenden Sicht von der Gültigkeit der Tendenzen-Annahme für vorkommende reale Ereignisse, dass die Zukunft nicht determiniert ist. Sie ist objektiv offen.(vgl. S.18)

Näher betrachtet ist die eigentliche zentrale Einsicht tatsächlich gar nicht die Möglichkeit, dass bestimmte Wirkzusammenhänge vielleicht tatsächlich determiniert sein könnten, sondern die Einsicht in eine durchgängige Beschaffenheit der uns umgebenden realen Ereigniswelt die sich – dies ist eine Hypothese! — durchgängig als eine Ansammlung von komplexen Situationen manifestiert, in denen mögliche unterscheidbare Faktoren niemals isoliert auftreten, sondern immer als ‚eingebettet‘ in eine ‚Nachbarschaften‘, so dass sowohl jeder Faktor selbst als auch die jeweiligen Auswirkungen dieses einen Faktors immer in kontinuierlichen Wechselwirkungen mit den Auswirkungen anderer Faktoren stehen. Dies bedeutet, dass nicht nur die starke Idealisierungen eines mechanistischen Weltbildes — auch eine Hypothese — als fragwürdig angesehen werden müssen, sondern auch die Idealisierung der Akteure zu einer ‚ Monade‘ [27],[27b], die die Welt letztlich nur ‚von sich aus‘ erlebt und gestaltet — eine andere Hypothese –.[27c]

Denkt man gemeinsam mit Popper weiter in die Richtung einer totalen Verflechtung aller Faktoren in einem kontinuierlich-realen Prozess, der sich in realen Tendenzen manifestiert (vgl. S.18f), dann sind alle üblichen endlichen, starren Konzepte in den empirischen Wissenschaften letztlich nicht mehr seriös anwendbar. Die ‚Zerstückelung‘ der Wirklichkeit in lauter einzelne, kleine, idealisierte Puzzle-Teile, wie sie bis heute Standard ist, führt sich relativ schnell ad absurdum. Die übliche Behauptung, auf andere Weise könne man eben nichts Verwertbares Erkennen, läuft beständig Gefahr, auf diese Weise die reale Problematik der konkreten Forschungspraxis deutlich zu überdehnen, nur weil man in der Tat Schwierigkeiten hat, die vorfindliche Komplexität ‚irgendwie experimentell nachvollziehbar‘ zu rekonstruieren.

Popper dehnt seine Beispiele für die Anwendbarkeit einer objektivistischen Sicht von realen Tendenzen weiterhin aus auf die Chemie (vgl. S.19f) und auf die Evolution des Lebens. (vgl. S.20) Und auch wenn er zuvor sagte, dass die Zukunft objektiv offen sei, so ist sie dennoch in der realen Gegenwart implizit gegenwärtig in den Aktivitäten der vorhandenen realen Faktoren.(vgl. S.20) Anders formuliert, jede Zukunft entscheidet sich immer jetzt, in der Gegenwart, auch wenn die lebenden Akteure zu einem bestimmten Zeitpunkt vielleicht das Geflecht der vielen Faktoren und Wirkungen nur unvollständig durchschauen. Mangelndes Wissen ist auch ein realer Faktor und kann als solcher u.U. wichtige Optionen übersehen, die — würde man sie kennen — vielleicht viel Unheil ersparen würden.

Nachbemerkung – Epilog

Verglichen mit den vielen Seiten Text, die Popper im Laufe seines Lebens geschrieben hat, erscheint der hier kommentierte kurze Text von 27 Seiten verschwindend kurz, gering, möglicherweise gar unbedeutend.

Betrachtet man aber die Kernthesen von Poppers theoretischem Prozess, dann tauchen diese Kernthesen in diesem kurzen Text letztlich alle auf! Und seine Thesen zur Realität von beobachtbaren Tendenzen enthalten alles, was er an Kritik zu all jenen Wissenschaftsformen gesagt hat, die dieser Kernthese nicht folgen. Der ganze riesige Komplex zur theoretischen Wahrscheinlichkeit, zu subjektiver Wahrscheinlichkeit und zu den vielfältigen Spezialformen von Überlegungen zur Wahrscheinlichkeit sagen letztlich nicht viel, wenn sie die objektivistische Interpretation von Häufigkeiten, dazu im Verbund mit der Annahme eines grundlegenden realen Prozesses, in dem sich alle realen Faktoren in beständiger realer Wechselbeziehung befinden, nicht akzeptieren. Die moderne Quantenmechanik wäre in einer realen Theorie der objektiven Tendenzen tatsächlich eine Teiltheorie, weil sie nur einige wenige — wenngleich wichtige — Aspekte der realen Welt thematisiert.

Poppers Mission einer umfassenden Theorie von Wahrheit als Innensicht einer umfassenden prozesshaften Realität bleibt — so scheint es mir — weiterhin brandaktuell.

Fortsetzung Popper 1989

Eine Kommentierung des zweiten Artikels aus dem Büchlein findet sich HIER.

Anmerkungen

Abkürzung: wkp := Wikipedia, de := Deutsche, en := Englische

[*] Es gibt noch zwei weiter Beiträge vom ’späten‘ Popper, die ich in den Diskurs aufnehmen möchte, allerdings erst nachdem ich diesen Beitrag rezipiert und in das finale Theorieformat im Kontext des oksimo-Paradigmas eingebunden habe.

[1] Karl Popper in wkp-en: https://en.wikipedia.org/wiki/Karl_Popper (auch in wkp-de: https://de.wikipedia.org/wiki/Karl_Popper )

[1b] Wiener Kreis (‚vienna circle‚) in wkp-de: https://de.wikipedia.org/wiki/Wiener_Kreis und wkp-en: https://en.wikipedia.org/wiki/Vienna_Circle

[2a] Karl Popper, „A World of Propensities“, Thoemmes Press, Bristol, (1990, repr. 1995)

[2b] Karl Popper, The Logic of Scientific Discovery, zuerst publiziert 1935 auf Deutsch als  Logik der Forschung, dann 1959 auf Englisch durch  Basic Books, New York (viele weitere Ausgaben folgten; ich benutze die eBookausgabe von Routledge (2002))

[3a] Die meisten wohl im uffmm.org Blog.

[3b] Oksimo und Popper in uffmm.org: https://www.uffmm.org/2021/03/15/philosophy-of-science/

[4] Das oksimo-Paradigma und die oksimo-Software auf oksimo.org: https://www.oksimo.org/

[5] Robert Ulanowizc in wkp-en: https://en.wikipedia.org/wiki/Robert_Ulanowicz

[5b] Robert Ulanowizc, Ecology: The Ascendant Perspective, Columbia University Press (1997) 

[6a] Karl-Popper Sammlung der Universität Klagenfurt in wkp-de: https://www.aau.at/universitaetsbibliothek-klagenfurt/karl-popper-sammlung/

[6b] An dieser Stelle möchte ich die freundliche Unterstützung von Mag. Dr. Thomas Hainscho besonders erwähnen.

[7] Eine kürzere Version dieses Artikels hat Popper 1988 auf dem Weltkongress der Philosophie 1988 im Brighton vorgetragen (Vorwort zu [2a]).

[8] Rudolf Carnap in wkp-en: https://en.wikipedia.org/wiki/Rudolf_Carnap

[8b] Rudolf Carnap,  Logical Foundations of Probability. University of Chicago Press (1950)

[9] Aristoteles in wkp-de: https://de.wikipedia.org/wiki/Aristoteles

[10] Alfred Tarski in wkp-en: https://en.wikipedia.org/wiki/Alfred_Tarski

[11] Kurt Gödel in wkp-ed: https://en.wikipedia.org/wiki/Kurt_G%C3%B6del

[12] Aus dem Buch von Kegel „Die Herrscher der Welt…“: Siehe https://www.cognitiveagent.org/2015/12/06/die-herrscher-der-welt-mikroben-besprechung-des-buches-von-b-kegel-teil-1/

[13] Natürlich ist die Sachlage bei Betrachtung der hier einschlägigen Details noch ein wenig komplexer, aber für die grundsätzliche Argumentation reicht diese Vereinfachung.

[14] Das sagen uns die vielen empirischen Arbeiten der experimentellen Psychologie und Biologie, Hand in Hand mit den neuen Erkenntnissen der Neuropsychologie.

[15] Hinter diesen Aussagen stecken die Ergebnisse eines ganzen Bündels von wissenschaftlichen Disziplinen: vorweg wieder die experimentelle Psychologie mit hunderten von einschlägigen Arbeiten, ergänzt um Linguistik/ Sprachwissenschaften, Neurolinguistik, ja auch verschiedene philosophische ‚Zuarbeiten‘ aus dem Bereich Alltagssprache (hier unbedingt der späte Wittgenstein [16] als großer Inspirator) und der Semiotik.

[16] Ludwig Wittgenstein in wkp-en: https://en.wikipedia.org/wiki/Ludwig_Wittgenstein

[17] Logik ( ‚logic‚) in der wkp-de: https://de.wikipedia.org/wiki/Logik und wkp-en: https://en.wikipedia.org/wiki/Logic

[18] Mathematik (‚mathematics‚) in der wkp-de: https://de.wikipedia.org/wiki/Mathematik und wkp-en: https://en.wikipedia.org/wiki/Mathematics

[19] Werner Heisenberg in wkp-en: https://en.wikipedia.org/wiki/Werner_Heisenberg

[19b] Unsicherheitsprinzip (‚uncertainty principle‘) in wkp-en: https://en.wikipedia.org/wiki/Uncertainty_principle

[20] Natürlich gab es schon viele Jahrhunderte früher unterschiedliche Vorläufer eines Denkens in Wahrscheinlichkeiten.

[21] Theoretische Wahrscheinlichkeit, z.B. in wkp-en: https://en.wikipedia.org/wiki/Probability

[22] Subjektive Wahrscheinlichkeit, z.B. in wkp-de: https://de.wikipedia.org/wiki/Subjektiver_Wahrscheinlichkeitsbegriff; illustrieret mit der Bayeschen Wahrscheinlichkeit in wkp-en: https://en.wikipedia.org/wiki/Bayesian_probability

[23] Objektivistische Wahrscheinlichkeit, nur ansatzweise erklärt in wkp-de: https://de.wikipedia.org/wiki/Objektivistischer_Wahrscheinlichkeitsbegriff

[23b] Deskriptive Statistik in wkp-de: https://de.wikipedia.org/wiki/Deskriptive_Statistik (siehe auch ‚descriptive statistics in wkp-en: https://en.wikipedia.org/wiki/Descriptive_statistics

[24] Zu verschiedenen Sichten von Wahrscheinlichkeiten sie auch: Karl Popper, The Open Universe: An Argument for Indeterminism, 1956–57 (as privately circulated galley proofs;) 1982 publiziert als Buch

[25] Hier sei angemerkt, dass ein Akteur natürlich nur dann ein bestimmtes Ereignis wahrnehmen kann, wenn er (i) überhaupt hinschaut und (ii) er über geeignete Beobachtungsinstrumente (= Messgeräte) verfügt, die das jeweilige Ereignis anzeigen. So sah die Welt z.B. ohne Fernglas und Mikroskop ‚einfacher‘ aus als mit.

[26] Diese Betonung einer Situation als Kontext für Tendenzen schließt natürlich nicht aus, dass die Wissenschaften im Laufe der Zeit gewisse Kontexte (z.B. das Gehirn, der Körper, …) schrittweise immer mehr auflösen in erkennbare ‚Komponenten‘, deren individuelles Verhalten in einem rekonstruierbaren Wechselspiel unterschiedliche Ereignisfolgen hervorbringen kann, die zuvor nur grob als reale Tendenz erkennbar waren. Tatsächlich führt eine zunehmende ‚Klarheit‘ bzgl. der internen Struktur einer zuvor nicht analysierbaren Situation auch zur Entdeckung von weiteren Kontextfaktoren, die zuvor unbekannt waren.(vgl. S.14f)

[27] Gottfried Wilhelm Leibniz in wkp-de: https://de.wikipedia.org/wiki/Gottfried_Wilhelm_Leibniz

[27b] Monadenlehre von Leibnuz in wkp-de: https://de.wikipedia.org/wiki/Monade_(Philosophie)

[27c] Allerdings muss man bemerken, dass die Leibnizsche Monadenlehre natürlich in einem ziemlich anderen ‚begrifflichen Koordinatensystem‘ einzubetten ist und die Bezugnahme auf diese Lehre nur einen stark vereinfachten Aspekt trifft.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.