Archiv der Kategorie: Bedeutung

Kollektive Mensch-Maschine Intelligenz im Kontext nachhaltiger Entwicklung. Brauchen wir ein neues Menschenbild? Vorlesung für AG ENIGMA im Rahmen von U3L der Goethe Universität

Entstehungszeit: 2.Nov 2023 – 15.Nov 2023

Autor: Gerd Doeben-Henisch

Email: gerd@doeben-henisch.de

KONTEXT

Der folgende Text ist die nachträgliche Verschriftlichung einer Vorlesung, die der Autor für die Internet-Arbeitsgruppe ENIGMA [3] der U3L [1,2] der Goethe-Universität Frankfurt am 10.November 2023 gehalten hat.

Der Ankündigungstext lautet:

Kollektive Mensch-Maschine Intelligenz im Kontext
nachhaltiger Entwicklung – Brauchen wir ein neues
Menschenbild?


Prof. Dr. Gerd Doeben-Henisch, Frankfurt University
of Applied Sciences


Die Zeichen der Zeit stehen auf ‚Digitalisierung‘. Schon ist es selbstver-
ständlich, alles, was ‚digital‘ ist, auch mit den Worten ‚smart‘ bzw.‚
intelligent‘ zu verknüpfen. ‚Künstliche Intelligenz‘, ja, natürlich, wer fragt
da noch nach … und wir Menschen, war da nicht was? Gab es nicht
solche Worte wie ‚Geist‘, ‚Rationalität‘, ‚Intelligenz‘ im Umfeld des
Menschen, ‚Wille‘ und ‚Gefühle‘? Ja, es gab eine Zeit, da sahen die
Menschen sich selbst als ‚Krone der Schöpfung‘ … Und jetzt? Eine
Sprachlosigkeit greift um sich; der ‚Schöpfer‘ des Digitalen scheint vor
seinem Werk zu erstarren …

[1] Home u3l: https://www.uni-frankfurt.de/122411224/U3L_Home?

[2] Vorlesungsverzeichnis u3l-WS2023: https://www.uni-frankfurt.de/141923421/programm-ws-2023-24.pdf

[3] Flyer der Vorlesungsreihe WS23/24: https://www.uni-frankfurt.de/144405162.pdf

Zusammenfassung

Die Vorlesung greift zunächst den Kontext der Digitalisierung auf und macht die grundlegenden Strukturen deutlich. Das Eindringen von digitalen Technologien und deren Nutzung im Alltag ist schon jetzt sehr tiefgreifend. Gesellschaftlich spielt die sprachliche Kommunikation für alle Menschen und alle Abläufe eine zentrale Rolle. Literarischen und wissenschaftlichen Kommunikationsformaten kommt hierbei eine besondere Rolle zu. Am Beispiel der neuen Algorithmen für Text-Generierung (wie z.B. chatGPT) wird mit Bezug auf wissenschaftliche Kommunikationformate gezeigt, wie deutlich begrenzt die algorithmische Text-Generierung noch ist. Für alle drängenden Zukunftsaufgaben kann sie den Menschen aufgrund prinzipieller Grenzen nicht ersetzen. Die weitere Ausgestaltung algorithmischer Technologien muss an diesen gesellschaftlichen Herausforderungen gemessen und entsprechend verbessert werden.

INHALTSVERZEICHNIS

  1. EINLEITUNG
  2. DIGITALISIERUNG
    2.1 DAS INTERNET
    2.2 DIE GESELLSCHAFT
  3. DIGITALISIERUNG – SPRACHTECHNOLOGIEN
  4. GESELLSCHAFT – SPRACHE – LITERATUR
  5. SPRACHE UND BEDEUTUNG
  6. ZÄHMUNG DER BEDEUTUNG – WISSENSCHAFT
  7. EMPIRISCHE THEORIE
  8. WAHRHEIT, PROGNOSE & TEXT-GENERATOREN
  9. Epilog

1. EINLEITUNG

Der Titel dieser Vorlesung repräsentiert letztlich das Forschungsparadigma, innerhalb dessen sich der Autor seit ca. 5-6 Jahren bewegt hat. Das Motiv war — und ist –, die üblicherweise isolierten Themen ‚Kollektives menschliches Verhalten‘, ‚Künstliche Intelligenz‘ sowie ‚Nachhaltige Entwicklung‘ zu einer kohärenten Formel zu vereinigen. Dass dies nicht ohne Folgen für das ‚Menschenbild‘ bleiben würde, so wie wir Menschen uns selbst sehen, klang unausgesprochen immer schon zwischen den Zeilen mit.

Die Integration der beiden Themen ‚kollektives menschliches Verhalten‘ sowie ’nachhaltige Entwicklung‘ konnte der Autor schon im Jahr 2022 vollziehen. Dazu musste der Begriff ‚Nachhaltige Entwicklung‘ re-analysiert werden. Was sowohl im Umfeld des Forschungsprojektes Nachhaltige Intelligenz – intelligente Nachhaltigkeit [1] stattfand wie auch in einer sich über 7 Semester erstreckende multidisziplinären Lehrveranstaltung an der Frankfurt University of Applied Sciences mit dem Titel Citizen Science für Nachhaltige Entwicklung.[2]

Die Integration des Themas Künstliche Intelligenz mit den beiden anderen Themen erwies sich als schwieriger. Dies nicht, weil das Thema künstliche Intelligenz so schwer war, sondern weil sich eine brauchbare Charakterisierung von künstlicher Intelligenz Technologie mit Blick auf die Bedürfnisse einer Gesellschaft als schwer erwies: bezogen auf welche Anforderungen einer Gesellschaft sollte man den Beitrag einer künstlichen Intelligenz gewichten?

Hier kamen zwei Ereignisse zu Hilfe: Im November 2022 stellte die US-Firma openAI eine neue Generation von Text-Generatoren vor [3], was zu einer bis dahin nie gekannten Publikations-Explosion führte: Gefühlt jeder fühlte sich angesprochen, nutzte das Werkzeug, und es gab vielstimmige Meinungsäußerung. In folge davon konnte der Autor sich bei einer Konferenz an der TU-Darmstadt beteiligen mit dem Titel Diskurse disruptiver digitaler Technologien am Beispiel von KI-Textgeneratoren (KI:Text) [4]. Hier wurde aus Sicht von 18 Perspektiven versucht, die mögliche Einsetzbarkeit von Text-Generatoren am Beispiel konkreter Text-Arten zu untersuchen. Diese Konferenz stimulierte den Plan, das Setting Text – chatGPT zu übernehmen und es durch Spezialisierung der Text-Variablen auf Literatur und insbesondere wissenschaftliche Theorien zu konkretisieren. Erste Überlegungen in diese Richtungen finden sich hier. [5]

Im Nachklang zu diesen Überlegungen bot es sich an, diese Gedanken im Vortrag für die Arbeitsgruppe ENIGMA weiter zu präzisieren. Dies ist geschehen und resultierte in diesem Vortrag.

[1] https://zevedi.de/themen/nachhaltige-intelligenz-intelligente-nachhaltigkeit/

[2] Materialien zur 6. und 7.Auflage: https://www.oksimo.org/lehre-2/

[3] Kurze Beschreibung: https://en.wikipedia.org/wiki/ChatGPT

[4] https://zevedi.de/themen/ki-text/

[5] Gerd Doeben-Henisch, 24.Aug 2023, Homo Sapiens: empirische und nachhaltig-empirische Theorien, Emotionen, und Maschinen. Eine Skizze, https://www.cognitiveagent.org/2023/08/24/homo-sapiens-empirische-und-nachhaltig-empirische-theorien-emotionen-und-maschinen-eine-skizze/

2. DIGITALISIERUNG

BILD 1: Überblick zu ‚Digitalisierung einer Gesellschaft‘

Da die ‚Digitalisierung‘ heute gefühlt schon fast alle Bereiche unserer menschlichen Gesellschaft erreicht hat, ist es nicht leicht in dieser Vielfalt einen Standpunkt zu lokalisieren, von dem aus sich sowohl über das Ganze wie auch über einzelne konkrete Themen zu sprechen. [1]

Es bot sich daher an, mit einem vereinfachten Überblick über das Ganze zu starten, so dass eine für alle gleiche Ausgangslage hergestellt werden konnte.

Im Bild 1 kann man den links gelblich-grünen Bereich sehen, der für die Gesellschaft selbst steht, und einen grauen Bereich rechts, der für jene Infrastrukturen steht, die eine Digitalisierung technisch ermöglichen. Beide Bereich sind stark schematisiert.

Die digitale Infrastruktur ist aufgeteilt in ‚Endgeräte‘ und in das eigentliche ‚Internet‘. Letzteres wird unterschieden in den ‚Adressraum‘ und jene Geräte, die über den Adressraum erreicht werden können.

2.1 DAS INTERNET

Kurz wurde auf einige wichtige Eigenschaften des Internets hingewiesen:

  1. Alle beteiligten Geräte setzen sich aus ‚Hardware‘ und ‚Software‘ zusammen. Die Hardware wiederum besteht aus einer Konfiguration von ‚Chips‘, die selbst sehr komplex sind und auch aus Hardware und Software bestehen. Bis zu ca. 80 Firmen können bei der Produktion eines einzelnen Chips beteiligt sein (unter Berücksichtigung der diversen Lieferketten). Die Möglichkeit, dass eine beteiligte Firma ’nicht-intendierte‘ Funktionen in einen Chip einbaut, ohne dass die anderen dies merken, sind prinzipiell gegeben. Die für Chips benötigten speziellen Materialien sind partiell ’selten‘ und nur über einige wenige Staaten beziehbar.
  2. Die ‚Software‘ auf einem Rechner (klein bis groß) zerfällt grob in zwei Typen: (i) jene Software, die die grundlegende Kommunikation mit einer Hardware ermöglicht — das ‚Betriebssystem‘ –, und jene Software, die bestimmte Anwendungen ermöglicht, die mit dem Betriebssystem kommunizieren muss — die Anwendungssoftware, heute auch einfach App genannt –. Betriebssysteme haben heute eine Größe, die vielen Millionen Zeilen Code umfassen. Eine solche Software angemessen auf Dauer zu managen, stellt extreme Anforderungen. Nicht weniger im Fall von Anwendungssoftware.
  3. Sobald Software aktiviert wird, d.h. ein Rechner ändert seine inneren Zustände unter dem Einfluss der Software, wird Energie verbraucht. Der Umfang dieses Energieverbrauchs ist heute noch vielfach extrem hoch.[2]
  4. Ein ‚realer Rechner‘ braucht irgendwo auf diesem Planeten einen ‚realen Ort‘ und gehört eine ‚realen Besitzer‘. Dieser Eigentümer hat prinzipiell den vollen Zugriff auf den Rechner, auf seine Software, auf seine Inhalte. Durch die ‚Gesetze‘ eines Landes, durch ‚Vereinbarungen‘ zwischen Geschäftspartnern kann man den Umgang mit dem Rechner versuchen zu regeln, aber Garantien dafür, dass dann tatsächlich die Prozesse und die Daten ‚geschützt‘ sind, gibt es nicht. Eine von vielen Untersuchungen zur Nutzung von Benutzerdaten konnte am Beispiel von Facebook aufzeigen, dass die Einführung der europäischen Datenschutzverordnung 2021 nahezu keine Wirkung im Bereich der Nutzerdaten von Facebook zeigte. [3,4,5]

[1] Phänomen: Den Wald vor lauter Bäume nicht sehen.

[2] Maximilian Sachse, Das Internet steht unter Strom. KI kann helfen, Emissionen einzusparen — verbraucht aber selbst Unmengen an Energie.FAZ, 31.Okt 2023, S.B3

[3] José González Cabañas, Ángel Cuevas, Aritz Arrate, and Rubén Cuevas. 2020. Does Facebook use sensitive data for advertising purposes? Commun. ACM 64, 1 (January 2021), 62–69. https://doi.org/10.1145/3426361

[4] Eine ausführlichere Analyse der Informationsbeschaffung von Nutzern ohne deren Wissen: Ingo Dachwitz, 08.06.2023, Wie deutsche Firmen am Geschäft mit unseren Daten verdienen. Wenn es um Firmen geht, die pausenlos Daten für Werbezwecke sammeln, denken viele an die USA. Unsere Recherche zeigt, wie tief deutsche Unternehmen inzwischen in das Netzwerk der Datenhändler verwoben sind und dass sie auch heikle Datenkategorien anboten. Beteiligt sind Konzerne wie die Deutsche Telekom und ProSieben Sat1, URL: https://netzpolitik.org/2023/adsquare_theadex_emetriq_werbetracking-wie-deutsche-firmen-am-geschaeft-mit-unseren-daten-verdienen/

[5] Ein aktuelles Beispiel mit Microsoft: Dirk Knop, Ronald Eikenberg, Stefan Wischner, 09.11.2023, Microsoft krallt sich Zugangsdaten: Achtung vor dem neuen Outlook. Das neue kostenlose Outlook ersetzt Mail in Windows, später auch das klassische Outlook. Es schickt geheime Zugangsdaten an Microsoft. c’t Magazin, Heise

2.2 DIE GESELLSCHAFT

Die Charakterisierung der Gesellschaft stellt natürlich auch eine starke Vereinfachung dar. Als wichtige Strukturmerkmale seien hier aber festgehalten:

  1. Es gibt eine Grundverfassung jeder Gesellschaft jenseits von Anarchie die zwischen den beiden Polen ‚Demokratisch‘ und ‚Autokratisch‘ liegt.
  2. Es gibt minimal ‚politische Entscheidungsstrukturen‘, die verantwortlich sind für geltende ‚Gesetze‘ und ‚Normen‘.
  3. Die Schlagader jeder lebendigen Gesellschaft ist aber die ‚Öffentlichkeit durch Kommunikation‘: wenn, dann verbindet Kommunikation die vielen Bürger zu handlungsfähigen Einheiten. Autokratien tendieren dazu, Kommunikation zu ‚instrumentalisieren‘, um die Bürger zu manipulieren. In Demokratien sollte dies nicht der Fall sein. Tatsächlich kann aber die Freiheit einer Demokratie von partikulären Interessen missbraucht werden.[1]
  4. Jeder einzelne Bürger ist als ‚menschlicher Akteur‘ eingewoben in unterschiedliche Kommunikationsbeziehungen, die vielfach durch Einsatz von ‚Medien‘ ermöglicht werden.

[1] Sehr viele interessante Ideen zur Rolle de Öffentlichkeit finden sich in dem Buch Strukturwandel der Öffentlichkeit von Jürgen Habermas, veröffentlicht 1962. Siehe dazu ausführlich den Wikipedia-Eintrag: https://de.wikipedia.org/wiki/Strukturwandel_der_%C3%96ffentlichkeit

[2] Florian Grotz, Wolfgang Schroeder, Anker der Demokratie? Der öffentlich-rechtliche Rundfunk hat einen wesentlichen Beitrag zum Erfolg der deutschen Demokratie geleistet. Derzeit steht er im Kreuzfeuer der Kritik. Wie kann er auch künftig seine Ankerfunktion im demokratischen Mediensystem erfüllen? FAZ 13.Nov 2023, S.6, Siehe auch online (beschränkt): https://www.faz.net/aktuell/politik/die-gegenwart/ard-und-zdf-noch-im-dienst-der-demokratie-19309054.html Anmerkung: Die Autoren beschreiben kenntnisreich die historische Entwicklung des öffentlich-rechtlichen Rundfunks (ÖRR) in drei Phasen. Verschiedene Schwierigkeiten und Herausforderungen heute werden hervor gehoben. Der generelle Tenor in allem ist, dass von ’notwendigen Veränderungen‘ gesprochen wird. Diese werden über die Themen ‚Finanzierung, Programm und Kontrolle‘ ein wenig ausgeführt. Dies sind alles sehr pragmatische Aspekte. Wenn es dann im Schlusssatz heißt „Es geht darum, dass der ÖRR auch in Zukunft eine wichtige Rolle im Dienst der Demokratie spielen kann.“ dann kann man sich als Leser schon fragen, warum ist der ÖRR denn für die Demokratie so wichtig? Finanzen, Programme und Kontrolle sind mögliche pragmatische Teilaspekte, aber eine eigentliche Argumentation ist nicht zu erkennen. Mit Blick auf die Gegenwart, in welcher die ‚Öffentlichkeit‘ in eine Vielzahl von ‚Medienräumen‘ zerfällt, die von unterschiedlichen ‚Narrativen‘ beherrscht werden, die sich gegenseitig auszuschließen scheinen und die ein von einer echten Mehrheit getragenes politisches Handeln unmöglich erscheinen lassen, sind Finanzen, Kontrollen, formale Programmvielfalt nicht unbedingt wichtige konstruktive Kriterien. Der zusätzlich verheerende Einfluss neuer bedeutungsfreier Texte-generierende Technologien wird mit den genannten pragmatischen Kriterien nicht einmal ansatzweise erfasst.

3. DIGITALISIERUNG – SPRACHTECHNOLOGIEN

BILD 2 : Das Enstehen von Sprachtechnologien zur Unterstützung im Umgang mit Sprache

Dem ‚Weltereignis‘ Text-Generatoren im November 2022 gingen viele andere Sprachtechnologien voraus. So unterscheidet man grob:

  1. TTS, T2S , Text-to-Speech, Speechsynthesis: Erste Systeme, die geschriebenen Text in gesprochene Sprache umsetzen konnten. Ab 1968 [1]
  2. S2T, STT , Speech-to-Text: Spracherkennungssysteme, die gesprochene Sprache in geschriebenen Text verwandelt konnten. Ab 1952 [2]
  3. TRANSL , Maschineller Übersetzer: Programme, die von einer Ausgangssprache in eine Zielsprache übersetzen können. Ab 1975. [3]
  4. DIAL , Dialogsysteme: Programme, die mit Menschen Dialoge führen können, um bestimmte Aufgaben zu unterstützen. Ab 1960iger Jahre. [4]
  5. C2T , Command-to-Text: Programme, die anhand von Aufforderungen Texte mit bestimmten Eigenschaften generieren können. Prominent ab November 2022. [5]

Mittlerweile gibt es noch eine Vielzahl anderer Werkzeuge, die im Rahmen der Computerlinguistik zur Arbeit mit Texten angeboten werden.[6]

Diese Beispiele zeigen, dass die Digitalisierung unserer Welt sich auch immer mehr unserer sprachlichen Kommunikation bemächtigt. Vielfach werden diese Werkzeuge als Hilfe, als Unterstützung wahrgenommen, um die menschliche Sprachproduktion besser verstehen und im Vollzug besser unterstützen zu können.

Im Fall der neuen befehlsorientierten Text-Generatoren, die aufgrund interner Datenbanken komplexe Texte generieren können, die für einen Leser ‚wie normale Texte von Menschen‘ daher kommen, wird der Raum der sprachlichen Kommunikation erstmalig von ’nicht-menschlichen‘ Akteuren durchdrungen, die eine stillschweigende Voraussetzung außer Kraft setzen, die bislang immer galt: es gibt plötzlich Autoren, die keine Menschen mehr sind. Dies führt zunehmend zu ernsthaften Irritationen im sprachlichen Diskursraum. Menschliche Autoren geraten in eine ernsthafte Krise: sind wir noch wichtig? Werden wir noch gebraucht? Ist ‚Menschsein‘ mit einem Schlag ‚entwertet‘?

[1] Erste Einführung hier: https://en.wikipedia.org/wiki/Speech_synthesis

[2] Erste Einführung hier: https://en.wikipedia.org/wiki/Speech_recognition

[3] Erste Einführung hier: https://en.wikipedia.org/wiki/Machine_translation

[4] Erste Einführung hier: https://en.wikipedia.org/wiki/Dialogue_system

[5] Erste Einführung hier: https://en.wikipedia.org/wiki/ChatGPT

[6] Für eine erste Einführung siehe hier: https://de.wikipedia.org/wiki/Computerlinguistik

4. GESELLSCHAFT – SPRACHE – LITERATUR

BILD 3 : Sprachtechnologien und Literatur

Das Auftreten der neuen Werkzeuge zur Text-Generierung stiftet eine anhaltende Unruhe im Lager der Schriftsteller, der Autoren und der Literaturwissenschaftler.

Ein beeindruckendes Beispiel ist die Analyse von Hannes Bajohr (2022).[1] Er spielt die Varianten durch, was passiert, wenn … Was passiert, wenn sich die Produktion von literarischen Texten mit Text-Generatoren durchsetzt? Wenn es zum Standard wird, dass immer mehr Texte, ganze Romane mit Text-Generatoren erzeugt werden? Und dies sind keine bloßen Träume, sondern solche Texte werden schon produziert; Bajohr selbst hat einen Roman unter Zuhilfenahme eines Text-Generators verfasst.[2]

Eine andere junge Autorin und Kulturwissenschaftlerin, die sich intensiv mit dem neuen Wechselverhältnis von Literatur, digitaler Welt und Text-Generatoren auseinander setzt ist Jenifer Becker.[3] Ihr Debüt-Roman ist aber noch ein Roman ohne Einsatz von künstlichen Texterzeugern. In ihrem Roman spricht sie noch ’selbst‘ als ‚menschliche Autorin‘ und wir damit potentiell zu einer Gesprächspartnerin für ihre Leser: der Andere als potentielles Ich, wobei das ‚eigentliche Ich‘ sich Spiegel des Textes in spannungsvoller Differenz erleben kann.

Angesichts einer digitalisierten Welt, die mehr und mehr zu einer ‚Ereigniswelt‘ wird, in der das ‚Verweilen‘, das ‚Verstehen‘ sich immer mehr abschwächt, verstummt, verliert auch das Individuum seine eigene Kraft und beginnt sich ‚hohl‘ anzufühlen, wo es doch gar nicht hohl ist, nicht hohl sein muss.

Hier setzt die Rede zur Nobelpreisverleihung 2018 für Literatur der polnischen Laureatin Olga Tokarczuk ein. Sie beschreibt als das Wunderbare von Literatur gerade diese einzigartige Fähigkeit von uns Menschen, dass wir mittels Sprache von unserem Innern berichten können, von unserer individuellen Art des Erlebens von Welt, von Zusammenhängen, die wir in dem Vielerlei des Alltags entdecken können, von Prozessen, Gefühlen, von Sinn und Unsinn. [4]

In dieser Eigenschaft ist Literatur durch nichts ersetzbar, bildet Literatur den ‚inneren Herzschlag‘ des Menschlichen auf diesem Planeten.

Aber, und dies sollte uns aufhorchen lassen, dieser wunderbarer Schatz von literarischen Texten wird bedroht durch den Virus der vollständigen Nivellierung, ja geradezu eine vollständigen Auslöschung. Text-Generatoren haben zwar keinerlei Wahrheit, keinerlei realen Bindungen an eine reale Welt, an reale Menschen, keinerlei wirkliche Bedeutung, aber in der Produktion von Texten (und gesprochener Rede) ohne Wahrheit sind sie vollständig frei. Durch ihre hohe Geschwindigkeit der Produktion können sie alle ‚menschliche Literatur‘ in der Masse des Bedeutungslosen aufsaugen, unsichtbar machen, nihilieren.

[1] Hannes Bajohr, 2022, Artifizielle und postartifizielle Texte. Über Literatur und Künstliche Intelligenz. Walter-Höllerer-Vorlesung 2022, 8.Dez. 2022, Technische Universität Berlin , URL: https://hannesbajohr.de/wp-content/uploads/2022/12/Hoellerer-Vorlesung-2022.pdf, Den Hinweis auf diesen Artikel erhielt ich von Jennifer Becker.

[2] Siehe dazu Bajohr selbst: https://hannesbajohr.de/

[3] Jenifer Becker, Zeiten der Langeweile, Hanser, Berlin, 2023. Dazu Besprechung in der Frankfurter Rundschau, 30.8.23, Lisa Berins, Die große Offline-Lüge, https://www.fr.de/kultur/literatur/zeiten-der-langeweile-von-jenifer-beckerdie-grosse-offline-luege-92490183.html

[4] Olga Tokarczuk, 2018, The Tender Narrator, in: Nobel Lecture by Olga Tokarczuk, 2018, Svenska Akademien, URL: https://www.nobelprize.org/uploads/2019/12/tokarczuk-lecture-english-2.pdf

5. SPRACHE UND BEDEUTUNG

BILD 4 : Sprache und Bedeutung

Am Beispiel der ‚menschlichen Literatur‘ klang eben schon an, welch fundamentale Rolle die ‚Bedeutung von Sprache‘ spielt und dass wir Menschen über solch eine Fähigkeit verfügen. Im Schaubild 4 wird veranschaulicht, was es bedeutet, dass Menschen im Alltag scheinbar mühelos Aussagen erzeugen können, die als ‚aktuell zutreffend’/ ‚wahr‘ untereinander akzeptiert werden oder als ‚aktuell nicht zutreffend’/ ‚falsch‘ oder als ‚aktuell unbestimmt‘. Wenn ein konkreter empirischer Sachverhalt gegeben ist (der Hund von Ani, das rote Auto vom Nachbarn Müller, die Butter auf dem Frühstückstisch, …), dann ist eine Einigung zwischen Menschen mit der gleichen Sprache immer möglich.

Was man sich dabei selten bewusst macht ist, welch starke Voraussetzung ‚in einem Menschen‘ gegeben sein müssen, damit er über diese Fähigkeit so leicht verfügen kann.

Die ‚Box‘ im rechten Teil des Diagramms repräsentiert auf einem starken Abstraktionsniveau die wichtigsten Komponenten, über die ein Mensch in seinen inneren Verarbeitungsstrukturen verfügen können muss, damit er mit anderen so sprechen kann. Die Grundannahmen sind folgende:

  1. Eine Außenwahrnehmung der umgebenden (empirischen) Welt.
  2. Alles was wahrgenommen werden kann kann auch in ‚Elemente des Wissens‘ verwandelt werden.
  3. Eine Sonderrolle nimmt die Repräsentation von Elementen der Sprachstruktur ein.
  4. Zwischen den Elementen des Wissens und den Ausdruckselementen kann ein Mensch eine dynamische Abbildungsbeziehung (Bedeutungsbeziehung) aufbauen (Lernen), so dass Wissenselemente auf Ausdruckselemente verweisen und Ausdruckselemente auf Wissenselemente.
  5. Aus Sicht der Ausdruckselemente bildet jenes Wissen, das über eine Abbildung verbunden wird, die ‚Bedeutung‘ der Ausdruckselemente.
  6. Innerhalb des Wissens gibt es zahlreiche unterschiedliche Formen von Wissen: aktuelles Wissen, erinnerbares Wissen, Veränderungswissen, Ziele, und prognostisches Wissen.
  7. Und vieles mehr

Neben Aussagen, die ‚aktuell wahr‘ sein können, verfügt der Mensch aber auch über die Möglichkeit, vielfache Wiederholungen als ‚wahr‘ anzusehen, wenn sie sich immer wider als ‚aktuell wahr‘ erweisen. Dies verweist auf mögliche weitere Formen von möglichen abgeleiteten Wahrheiten, die man vielleicht unter dem Oberbegriff ’strukturelle Wahrheit‘ versammeln könnte.

6. ZÄHMUNG DER BEDEUTUNG – WISSENSCHAFT

BILD 5 : Wissenschaft als Ergänzung von Literatur

Die Ur-Funktion von Literatur, das Gespräch zwischen dem Inneren der Menschen über ihre Welt- und Selbsterfahrung sprechen zu können, indem nicht nur die ‚Oberfläche der Dinge‘, sondern auch die ‚Tiefenstruktur der Phänomene‘ ins Wort kommen können, ist unersetzbar, aber sie leidet im Alltag an der strukturellen Schwäche des möglichen ‚Nicht-Verstehens‘ oder ‚Falsch-Verstehens‘. Während sich über die Dinge des alltäglichen Lebens leicht Einigkeit erzielen lässt, was jeweils gemeint ist, ist das ‚Innere‘ des Menschen eine echte ‚Terra Incognita‘, ein ‚unbekanntes Land‘. In dem Maße, wie wir Menschen im Innern ‚ähnlich‘ erleben und empfinden, kann das Verstehen von ‚Bedeutungen‘ noch ansatzweise gelingen, da wir Menschen aufgrund unserer Körperstrukturen in vielen Dingen ähnliche Erleben, Fühlen, Erinnern und Denken. Aber je spezifischer etwas in unserem Inneren ist, je ‚abstrakter‘ eine Bedeutung wird, umso schwieriger wird die Erfassung einer Rede durch andere. Dies führt dann unabwendbar zum Falsch- oder gar Nicht-Verstehen.

In dem Maße wie wir Menschen aber auf eine ‚tragfähige Erklärung von Welt‘ angewiesen sind, um ‚gemeinsam‘ das ‚Richtige‘ zu tun, in dem Maße wird unsere normale sprachliche Kommunikation, wird Literatur überfordert. Sie will vielleicht, aber sie kann aus sich heraus eine solche Eindeutigkeit nicht ohne weiteres herstellen. Ihre Stärke kann und wird in diesen Bereich zu einer Schwäche.

Vor dem Hintergrund des ‚Überlebens auf dem Planeten‘, des ‚Überlebens im Alltag‘ bildet die Notwendigkeit von ‚wahren Texten‘, die zudem ‚belastbare Prognosen‘ erlauben, eine Kernforderung, die möglicherweise nur eine Teilmenge jener Bedeutungsräume erlaubt, über die Literatur verfügen kann. Aber diese ‚wahren und belastbaren Teilräume‘ bilden jenen ‚harten Boden‘, auf denen sich Menschen quer über alle Kontinente und im Bereich aller Sprachen gründen können.

Diese Art von Texten, deren Existenz von gemeinsamen nachprüfbaren ‚wahren Sachverhalten und Prognosen‘ abhängt, entstand in der Geschichte der Menschheit unter dem Namen ‚empirische Wissenschaft‘ sehr spät.[1] Nach anfänglichen Mühen entwickelte sie sich dann rasant weiter und ist heute zum Standard für nachweisbar wahre und prognosefähige Texte geworden.

Die heutige weltweite Verbreitung von ‚Wissenschaft‘ ist ihr selbst aber mittlerweile zum Problem geworden. Der klare Kern dieser Textform erscheint in der öffentlichen Verwendung der Charakterisierung von ‚Wissenschaft‘ seltsam vage. Der Begriff einer ‚empirischen Theorie‘ ist geradezu verschwunden. Die großen Enzyklopädien dieser Welt kennen diesen Begriff nicht mehr.

Dazu kommt die ‚Altlast‘ der modernen Wissenschaft, dass sie sich schnell zu einer Veranstaltung von ‚Spezialisten‘ entwickelt hat, die ihre ‚eigene Fachsprache‘ sprechen, die zudem vielfach teilweise oder ganz mit ‚mathematischer Sprache‘ arbeiten. Diese führt zunehmend zu einer Ausgrenzung aller anderen Bürger; das ‚Verstehen von Wissenschaft‘ wird für die meisten Menschen zu einer ‚Glaubenssache‘, wo doch Wissenschaft gerade angetreten war, um die ‚Autorität des bloßen Glaubens‘ zu überwinden.

Desweiteren haben wir in den letzten Jahrzehnten mehr und mehr gelernt, was es heißt, den Aspekt ‚Nachhaltiger Entwicklung‘ zu berücksichtigen. Eine Grundbotschaft besteht darin, dass alle Menschen einbezogen werden müssen, um die Entwicklung nicht von einzelnen, kleinen — meist mächtigen — Gruppen dominieren zu lassen. Und von de Entwicklung des Lebens auf diesem Planeten [3] wissen wir, dass das Leben — von dem wir als Menschen ein kleiner Teil sind — in den zurück liegenden ca. 3.5 Milliarden Jahren nur überleben konnten, weil es nicht nur das ‚Alte, Bekannte‘ einfach wiederholt hat, sondern auch immer ‚aus sich echtes Neues‘ heraus gesetzt hat, Neues, von dem man zum Zeitpunkt des Hervorbringens nicht wusste, ob es für die Zukunft brauchbar sein wird.[3,4]

Dies regt dazu an, den Begriff der ‚empirischen Theorie‘ zu aktualisieren und ihn sogar zum Begriff einer ’nachhaltigen empirischen Theorie‘ zu erweitern.

[1] Wenn man als Orientierungspunkt für den Beginn der neuzeitlichen wahrheitsfähigen und prognosefähigen Texte Galileo Galilei (1564 – 1641) und Johannes Kepler ()1571 – 1630) nimmt , dann beginnt der Auftritt dieser Textform im 17./18. Jahrhundert. Siehe hier: https://de.wikipedia.org/wiki/Galileo_Galilei und hier: https://de.wikipedia.org/wiki/Johannes_Kepler

[2] UN. Secretary-General; World Commission on Environment and Development, 1987, Report of the World Commission on Environment and Development : note / by the Secretary General., https://digitallibrary.un.org/record/139811 (accessed: July 20, 2022) (In einem besser lesbaren Format: https://sustainabledevelopment.un.org/content/documents/5987our-common-future.pdf) Anmerkung: Gro Harlem Brundtland (ehemalige Ministerpräsidentin von Norwegen) war die Koordinatorin von diesem Report. 1983 erhielt sie den Auftrag vom Generalsekretär der UN einen solchen Report zu erstellen, 1986 wurde er übergeben und 1987 veröffentlicht. Dieser Text enthält die grundlegenden Ideen für alle weiteren UN-Texte.

Zitat aus dem Vorwort: The fact that we all became wiser, learnt to look across cultural and historical barriers, was essential. There were moments of deep concern and potential crisis, moments of gratitude and achievement, moments of success in building a common analysis and perspective. The result is clearly more global, more realistic, more forward looking than any one of us alone could have created. We joined the Commission with different views and perspectives, different values and beliefs, and very different experiences and insights. After these three years of working together, travelling, listening, and discussing, we present a unanimous report.“ und „Unless we are able to translate our words into a language that can reach the minds and hearts of people young and old, we shall not be able to undertake the extensive social changes needed to correct the course of development.

[3] Gerd Doeben-Henisch, 2016, Sind Visionen nutzlos?, URL: https://www.cognitiveagent.org/2016/10/22/sind-visionen-nutzlos/

[4] Zum Begriff der Evolution siehe hier: https://de.wikipedia.org/wiki/Evolution und hier: https://en.wikipedia.org/wiki/Evolution

7. EMPIRISCHE UND NACHHALTIG EMPIRISCHE THEORIE

BILD 6 : Aktualisierter Begriff von ‚Empirischer Theorie (ET)‘ und ‚Nachhaltiger Empirischer Theorie (NET)‘

Zum ‚aktualisierten Begriff‘ einer empirischen und einer nachhaltig empirischen Theorie gehören die folgenden Elemente:

  1. Die Gruppe der ‚Theorie-Autoren‘ besteht prinzipiell aus allen Menschen, die in ihrer Alltagssprache kommunizieren. Dies ermöglicht von Anfang an maximale Diversität.
  2. Der engere Begriff der ‚Empirischen Theorie‘ umfasst die Elemente ‚IST-Zustand‘, ‚Veränderungs-Wissen‘ sowie einen ‚Folgerungsbegriff‘ in Form eines Wissens, wie man Veränderungswissen auf einen gegebenen Zustand anwendet.
  3. Das ‚Ergebnis einer Folgerung‘ ist ein ’neuer Folge-Zustand‘.
  4. Lässt sich eine Folgerung mehrfach vollziehen dann ensteht eine ‚Folge von Folgezuständen‘, die man heute auch als ‚Simulation‘ bezeichnen kann.

Der IST-Zustand umfasst eine Menge von Ausdrücken einer gewählten Alltagssprache, die so beschaffen sind, dass alle beteiligten Theorie-Autoren sich darüber einigen können, dass diese Ausdrücke unter den angenommenen Bedingungen ‚zutreffen‘, d.h. ‚wahr‘ sind.

Das Veränderungs-Wissen umfasst eine Menge von Ausdrücken, die Veränderungsprozesse beschreiben, die sich ebenfalls unter angegebenen Bedingungen von jedem überprüfen lassen.

Der Folgerungsbegriff ist ein Text, der eine Handlungsbeschreibung umfasst, die beschreibt, wie man eine Veränderungsbeschreibung auf eine gegebene IST-Beschreibung so anwendet, dass daraus ein neuer Text entsteht, der die Veränderung im Text enthält.

Eine empirische Theorie ermöglicht die Erzeugung von Texten, die mögliche Zustände in einer möglichen Zukunft beschreiben. Dies kann mehr als eine Option umfassen.

Im Alltag der Menschen reicht ein bloßes Wissen um ‚Optionen‘ aber nicht aus. Im Alltag müssen wir uns beständig Entscheiden, was wir tun wollen. Für diese Entscheidungen gibt es keine zusätzliche Theorie: für einen menschlichen Entscheidungsprozess ist es bis heute mehr oder weniger ungeklärt, wie er zustande kommt. Es gibt allerdings viele ‚Teil-Theorien‘ und noch mehr ‚Vermutungen‘.

Damit diese ’nicht-rationale Komponente‘ unseres alltäglichen Lebens nicht ‚unsichtbar‘ bleibt, wird hier der Begriff einer nachhaltigen empirischen Theorie vorgeschlagen, in dem zusätzlich zur empirischen Theorie eine Liste von Zielen angenommen wird, die von allen Beteiligten aufgestellt wird. Ob diese Ziele ‚gute‘ Ziele sind, kann man erst wissen, wenn sie sich ‚im weiteren Verlauf‘ ‚bewähren‘ oder eben nicht. Explizite Ziele ermöglichen daher einen ‚gerichteten Lernprozess‘. Explitit formulierte Ziele ermöglichen darüber hinaus eine kontinuierliche Kontrolle, wie sich der aktuelle Handlungsprozess mit Blick auf ein Ziel verhält.

Für die Umsetzung einer nachhaltigen Entwicklung sind nachhaltige empirische Theorien eine unverzichtbare Voraussetzung.

8. WAHRHEIT, PROGNOSE & TEXT-GENERATOREN

BILD 7 : Die potentielle Rolle von Text-Generatoren der Machart 2023 innerhalb eines wissenschaftlichen Diskurses

Für die Bewertung, welche Rolle Textgeneratoren aus dem Jahr 2023 innerhalb eines wissenschaftlichen Diskurses spielen können, kann man ein Gedankenexperiment (und dann natürlich auch real) durchführen, welche der Anforderungen eines wissenschaftlichen Diskurses, die zuvor erläutert worden sind, von einem Text-Generator erfüllt werden können. Das Bild Nr.7 ist eigentlich selbst-erklärend.

Das zentrale Argument besteht darin, dass Text-Generatoren des Jahrgangs 2023 über keinerlei Wissen verfügen, wie es der Mensch besitzt, nahezu keine Wahrnehmung (außer Texteingaben oder Spracheingaben) haben, und dementsprechend auch über keine Bedeutungsfunktion verfügen. Die Unfähigkeit zu ‚wahren Aussagen‘ oder auch der Fähigkeit, entscheiden zu können, ob etwas ‚wahr‘ ist oder nicht, fehlt ebenfalls vollständig.[1]

[1] Ron Brachman, Hector Levesque, Dieser KI können wir nicht trauen, Es gibt ein grundlegendes Problem in der Entwicklung der gegenwärtig angesagten KI-Systeme. Hier kommt ein Vorschlag, wie es besser geht. FAZ, Mo 13.Nov 2023, S.19 . Online (beschränkt) auch hier: https://www.faz.net/aktuell/wirtschaft/unternehmen/chatgpt-co-dieser-ki-koennen-wir-nicht-trauen-19308979.html, Anmerkung 1: Die beiden Autoren nehmen den Boom um chatGPT zum Anlass, vor der gesamten Künstlichen Intelligenz (KI) zu warnen. Sie fokussieren ihre Kritik auf einen Punkt: „Der aktuellen KI-Technologie kann man nicht trauen. … Obwohl sie auf der Grundlage riesiger Datenmengen trainiert werden … machen moderne KI-Systeme bizarre, dumme Fehler. Unvorhersehbare, unmenschliche Fehler.“ Und weiter: „Wir wissen nicht, wann diese Systeme das Richtige tun und wann sie versagen.“ Sie führen im weiteren Verlauf noch aus, dass die aktuelle Architektur dieser Systeme es nicht zulässt, heraus zu finden, was genau die Gründe sind, warum sie entweder richtig oder falsch urteilen. Mit Blick auf den Alltag diagnostizieren sie bei uns Menschen einen ‚gesunden Menschenverstand‘, ein Prototyp von ‚Rationalität‘, und diesen sehen sie bei den KI-Systemen nicht. Sie beschreiben viele Eigenschaften, wie Menschen im Alltag lernen (z.B. mit ‚Überzeugungen‘, ‚Zielen‘ arbeiten, mit ‚Konzepten‘ und ‚Regeln‘, mit ‚echten Fakten‘, …), und stellen fest, dass KI-Systeme für uns erst wirklich nützlich werden, wenn sie über diese Fähigkeiten nachvollziehbar verfügen. Anmerkung 2: Die Autoren sprechen es nicht explizit aus, aber implizit ist klar, dass sie die neuen Text-Generatoren wie chatGPT & Co zu jener KI-Technologie rechnen, die sie in ihrem Beitrag charakterisieren und kritisieren. Wichtig ist, dass Sie in ihrer Kritik Kriterien benutzen, die alltäglich vage sind (‚gesunder Menschenverstand‘), allerdings angereichert mit vielen Alltagsbeispielen. Letztlich machen ihre kritischen Überlegungen aber deutlich, dass es angesichts der neuen KI-Technologien an geeigneten und erprobten Meta-Modellen (‚transdisziplinär‘, ‚wissenschaftsphilosophisch‘, …) mangelt. Man ’spürt‘ ein Ungenügen mit dieser neuen KI-Technologie, kann auch viele Alltagsbeispiele aufzählen, aber es fehlt an einem klaren theoretischen Konzept. Ein solches scheint aber momentan niemand zu haben ….

9. Epilog

Diese Kurzfassung meines Vortags vom 10.November 2023 ist gedacht als ‚Basis‘ für die Erstellung eines umfassenderen Textes, in dem alle diese Gedanken weiter ausgeführt werden, dazu auch mit viel mehr Literatur und vielen realen Beispielen.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

STÄNDIGE WIEDERGEBURT – Jetzt. Schweigen hilft nicht …Exploration

Autor: Gerd Doeben-Henisch

Email: gerd@doeben-henisch.de

28.Aug 2023 – 28.Aug 2023 (17:53h)

KONTEXT

Zum Format ‚Exploration‘ siehe [*]

Wie im vorausgehenden Blog-Eintrag geschrieben, entstand der letzte Blog-Eintrag mit dem Thema „Homo Sapiens: empirische und nachhaltig-empirische Theorien, Emotionen, und Maschinen. Eine Skizze“ [1] als Redeentwurf für die Konferenz „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ [2] Aufgrund des engen Zeitrahmens (20 Min für den Vortrag) war dieser Text sehr komprimiert. Trotz der Kürze enthält der komprimierte Text aber sehr viele Hinweise auf grundlegende Sachverhalte. Einer davon soll hier kurz aufgegriffen werden.

Anmerkung: Eine Englische Version dieses Beitrags findet sich unter : https://www.uffmm.org/2023/08/28/state-change-from-non-writing-to-writing-working-with-chatgpt4-in-parallel/ . Zusätzlich gibt es in der Englischen Version ein Experiment insofern als das Thema des Posts unabhängig vom ersten Post mit chatGPT4 parallel bearbeitet worden ist. Zwar lassen sich die Voraussetzungen des ursprünglichen Artikels nicht einfach auf den Dialog mit chatGPT4 übertragen, aber man kann dennoch ein gewisses Gefühl dafür entwickeln, wo einerseits die Stärken von chatGPT4 liegen, andererseits aber auch die Schwächen. Für ‚authentisches‘ Schreiben ist eine Ersetzung durch chatGPT4 keine Option, aber eine ‚Kooperation‘ zwischen ‚authentischem‘ Schreiben und chatGPT erscheint möglich und in manchen Kontexten sicher sogar fruchtbar.

Lokalisierung im Text des Vortrags

Einen ersten Hinweis findet man in dem Abschnitt überschrieben mit „ZUKUNFT UND EMOTIONEN“ sowie dann in dem Abschnitt „NACHHALTIGE EMPIRISCHE THEORIE„.

In diesen Textabschnitten wird darauf aufmerksam gemacht, dass jeder expliziten Weltsicht eine Phase des ‚Entstehens‘ dieser Weltsicht vorausgeht, in der es einen charakteristischen ‚Übergang‘ gibt zwischen dem ‚Ergebnis‘ in Form eines möglichen Textes und einem vorausgehenden Zustand, in dem dieser Text noch nicht ‚da‘ ist. Natürlich gibt es in dieser ‚Vor-Text-Phase‘ — entsprechend den Annahmen im Abschnitt „BEDEUTUNG“ — viele Wissenstatbestände und Emotionen im ‚Gehirn des Autors‘, die allesamt ’nicht bewusst‘ sind, von denen aber die möglichen Auswirkungen in Form eines Textes ausgehen. Wie genau von diesem ‚vor-bewussten‘ Wissen und den Emotionen ‚Wirkung‘ ausgehen soll, ist weitgehend unklar.

Aus dem Alltag wissen wir, dass externe Ereignisse ‚Wahrnehmungen‘ auslösen können, die wiederum als ‚Auslöser‘ die unterschiedlichsten Reaktionen ‚anregen‘ können. Sieht man von solchen Reaktionen ab, die aufgrund häufiger Praxis in unserem Gehirn ‚vorgespurt‘ sind und die dann fast immer ‚automatisch‘ hervorgerufen werden, ist es in der Regel kaum voraussagbar, ob und wie wir reagieren.

Vom Nicht-Handeln zum Handeln

Dieser potentielle Übergang vom Nicht-Handeln zum Handeln ist im Alltag allgegenwärtig. Als solcher fällt er uns normalerweise nicht auf. In besonderen Situationen, dort, wo wir explizit zu Entscheidungen herausgefordert werden, befinden wir uns dann aber plötzlich in einem quasi ‚undefiniertem Zustand‘: die Situation erscheint uns so, als ob wir uns entscheiden sollen. Sollen wir überhaupt etwas tun (etwas Essen oder nicht)? Welche Option ist wichtiger (Zur geplanten Sitzung hingehen oder doch lieber eine bestimmte Aufgabe zu Ende bringen)? Wir wollen einen Plan umsetzen, aber welche der vielen Optionen sollen wir ‚auswählen‘ (… es gibt mindestens drei Alternativen; alle haben Pros und Cons)? Die Entscheidung für eine als hoch favorisierte Option würde erhebliche Änderungen in der eigenen Lebenssituation mit sich bringen; will ich dies wirklich? Wäre es dies wert? Die Art der Herausforderungen ist so vielfältig wie das alltägliche Leben in den unterschiedlichsten Bereichen.

Was ist wichtig, wichtiger?

Sobald vor dem ‚geistigen Auge‘ eine oder mehr als eine Option möglich erscheint, fragt man sich unwillkürlich, wie ‚ernst‘ soll man die Optionen nehmen? Gibt es Argumente dafür oder dagegen? Sind die Gründe ‚glaubwürdig‘? Welche ‚Risiken‘ verbinden sich damit? Was kann ich als ‚positiven Mehrwert‘ erwarten? Welche Veränderungen für meine ‚persönliche Situation‘ sind damit verbunden? Was bedeutet dies für mein ‚Umfeld‘? …

Was mache ich, wenn die ‚erkennbaren‘ (‚rationalen‘) Optionen kein klares Resultat liefern, es meinem ‚Lebensgefühl‘, ‚mir‘, ‚widerspricht‘ und ich es ’spontan‘ ablehne, es spontan ’nicht will‘, es diverse ’starke Gefühle‘ auslöst, die mich möglicherweise ‚überwältigen‘ (Wut, Angst, Enttäuschung, Trauer, …)? …

Der Übergang vom Nicht-Handeln zum Handeln kann eine Vielzahl von ‚rationalen‘ und ‚emotionalen‘ Aspekten ‚aktivieren‘, die sich gegenseitig beeinflussen können — und meistens tatsächlich beeinflussen –, bis dahin, dass man in einem ‚Knäuel‘ von Überlegungen und Emotionen verstrickt eine ‚Hilflosigkeit‘ erlebt: man hat das Gefühl, dass man ‚festhängt‘, eine ‚klare Lösung‘ erscheint fern. …

Falls man ‚abwarten‘ kann (Stunden, Tage, Wochen, …) und/oder man die Gelegenheit hat, mit anderen Menschen darüber zu sprechen, dann kann dies oft — nicht immer — die Situation soweit klären, dass man zu wissen meint, was man ‚jetzt will‘. Doch solche ‚Klärungen‘ schaffen in der Regel die ‚Herausforderung einer ‚Entscheidung‘ nicht aus dem Weg. Außerdem ist die ‚Flucht‘ in das ‚Verdrängen‘ der Situation immer eine Option; manchmal hilft es; wenn es nicht hilft, dann wird durch das ‚Verdrängen‘ die ‚alltägliche‘ Situation schlimmer, ganz abgesehen davon, dass ‚ungelöste Problemstellungen‘ ja nicht ‚verschwinden‘, sondern ‚im Innern‘ weiter leben und dort auf vielfache Weise ’spezielle Wirkungen‘ entfalten können, die sehr ‚destruktiv‘ sind.

Wiedergeburt?

Die Vielfalt der möglichen — emotionalen wie rationalen — Aspekte des Übergangs vom Nicht-Handeln zum Handeln sind faszinierend, aber möglicherweise noch faszinierender ist der grundsätzliche Vorgang selbst: zu jedem Zeitpunkt lebt jeder Mensch in einer bestimmten Alltags-Situation mit einer Vielzahl von schon gemachten Erfahrungen, eine Mischung von ‚rationalen Erklärungen‘ und ‚emotionalen Zuständen‘. Und, je nach Beschaffenheit des Alltags, kann man sich ‚dahin treiben lassen‘ oder man muss täglich ‚anstrengende Tätigkeiten‘ wahrnehmen, um die Situation des Alltags zu erhalten; in anderen Fällen muss beständig real um den Fortbestand im Alltag ‚kämpfen‘. Man erfährt hierin dass die ‚Gegebenheiten des Alltags‘ dem einzelnen weitgehend vorgegeben sind und man kann diese nur begrenzt und mit einem entsprechenden ‚Aufwand‘ ändern.

Externe Ereignisse (Feuer, Wasser, Gewalt, Krieg, Dürre, Unfall, Lebensformen einer Community, Arbeitsplatz, Firmenpolitik,Krankheiten, Altern, …) können natürlich ‚gegen den eigenen Willen‘ den persönlichen Alltag stark beeinflussen, aber letztlich bleibt eine grundlegende Autonomie des Entscheidens im einzelnen erhalten: man kann im nächsten Moment anders entscheiden als bisher, auch ohne dass einem in diesem Moment selbst ganz klar ist, ‚warum‘ man es tut. Ob man dieses ‚Nicht-Erklären-Können‘ dann ‚Bauchgefühl‘ nennt oder ‚Intuition‘ oder … alle diese Worte umschreiben nur ein ‚Nicht-Wissen‘ über die Prozesse ‚in uns‘, die stattfinden, und uns ‚motivieren‘. Und selbst wenn man eine ’sprachliche Erklärung‘ verfügbar hat, muss dies nicht bedeuten, das sich mit diesen Worten auch eine ‚klare Einsicht‘ verbindet. Der Anteil der ‚vorbewussten/ unbewussten‘ ‚inneren Prozesse‘ ist hoch und letztlich sind diese nicht ‚aus sich heraus‘ erklärbar: sie finden statt, bewegen uns, und wir ’setzen sie um‘.

Ja, in jedem Moment können wir uns ‚wie gewohnt‘ verhalten und darin die Welt ‚erhalten‘ (oder dadurch daran hindern, anders zu werden?). Wir können aber auch mal vom Gewohnten ‚abweichen‘ (und dadurch etwas ‚zerstören‘ oder etwas ‚Neues ermöglichen?). Insgesamt bleibt der ‚Raum des Inneren‘ dabei weitgehend ‚unerhellt‘. Wir verstehen kaum bis gar nicht, warum wir dies tun; dies verlangt Vertrauen in uns und die Situation. Ist der Unterschied zur ‚ursprünglichen Geburt‘ nur graduell? Befinden wir uns in einem anhaltenden Geburtsprozess der beständig den Aufbau von etwas ‚Neuem‘ ermöglicht, ‚Leben‘ unterstützen kann oder auch ’schwächen‘?

ANMERKUNGEN

[*] Das Format ‚Exploration‘ wird ab jetzt in dem Blog neu eingeführt, da es vielfach die Situation gibt, dass der Autor an der Übergangsstelle von ‚Nicht-Handeln zu Handeln‘, von ‚Nicht-Schreiben zu Schreiben‘ ausprobiert, welche emotionalen und rationalen ‚Reaktionen‘ aus dem ‚Inneren‘ für eine bestimmte Frage/ eine bestimmte Idee ’spontan‘ verfügbar sind. Dies ist zu unterscheiden von einer ’systematischen Ausarbeitung‘ eines Gedankens, obgleich der Einfluss des ‚Inneren‘ natürlich nie ganz ausgeklammert werden. Der ‚Unterschied‘ zwischen ‚explorativem‘ und ’systematischem‘ Schreiben habt darauf ab, dass beim systematischen Schreiben versucht wird, die ‚rationale Dimension‘ des Gedankens in den Vordergrund zu stellen.

[1] https://www.cognitiveagent.org/2023/08/24/homo-sapiens-empirische-und-nachhaltig-empirische-theorien-emotionen-und-maschinen-eine-skizze/ .

[2] https://zevedi.de/themen/ki-text/

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

Homo Sapiens: empirische und nachhaltig-empirische Theorien, Emotionen, und Maschinen. Eine Skizze

5.Aug 2023 – 29.Aug 2023 (10:37h)

Autor: Gerd Doeben-Henisch

Email: gerd@doeben-henisch.de

(Eine Englische Version findet sich hier: https://www.uffmm.org/2023/08/24/homo-sapiens-empirical-and-sustained-empirical-theories-emotions-and-machines-a-sketch/)

Kontext

Dieser Text stellt die Skizze zu einem Vortrag dar, der im Rahmen der Konferenz „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ (25./26.August 2023, TU Darmstadt) gehalten werden soll. [1] Die Englische Version des überarbeiteten Vortrags findet sich schon jetzt HIER: https://www.uffmm.org/2023/10/02/collective-human-machine-intelligence-and-text-generation-a-transdisciplinary-analysis/ . Die Deutsche Version des überarbeiteten Vortrags wird im Verlag Walter de Gruyter bis Ende 2023/ Anfang 2024 erscheinen. Diese Veröffentlichung wird hier dann bekannt gegeben werden.

Sehr geehrtes Auditorium,

In dieser Tagung mit dem Titel „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ geht es zentral um wissenschaftliche Diskurse und den möglichen Einfluss von KI-Textgeneratoren auf diese Diskurse. Der heiße Kern bleibt aber letztlich das Phänomen Text selbst, seine Geltung.

SICHTWEISEN-TRANS-DISZIPLINÄR

In dieser Konferenz werden zu diesem Thema viele verschiedene Sichten vorgetragen, die zu diesem Thema möglich sind.

Mein Beitrag zum Thema versucht die Rolle der sogenannten KI-Textgeneratoren dadurch zu bestimmen, dass aus einer ‚transdisziplinären Sicht‘ heraus die Eigenschaften von ‚KI-Textgeneratoren‘ in eine ’strukturelle Sicht‘ eingebettet werden, mit deren Hilfe die Besonderheiten von wissenschaftlichen Diskursen herausgestellt werden kann. Daraus können sich dann ‚Kriterien für eine erweiterte Einschätzung‘ von KI-Textgeneratoren in ihrer Rolle für wissenschaftliche Diskurse ergeben.

Einen zusätzlichen Aspekt bildet die Frage nach der Struktur der ‚kollektiven Intelligenz‘ am Beispiel des Menschen, und wie sich diese mit einer ‚Künstlichen Intelligenz‘ im Kontext wissenschaftlicher Diskurse möglicherweise vereinen kann.

‚Transdisziplinär‘ bedeutet in diesem Zusammenhang eine ‚Meta-Ebene‘ aufzuspannen, von der aus es möglich sein soll, die heutige ‚Vielfalt von Textproduktionen‘ auf eine Weise zu beschreiben, die ausdrucksstark genug ist, um eine ‚KI-basierte‘ Texterzeugung von einer ‚menschlichen‘ Texterzeugung unterscheiden zu können.

MENSCHLICHE TEXTERZEUGUNG

Die Formulierung ‚wissenschaftlicher Diskurs‘ ist ein Spezialfall des allgemeineren Konzepts ‚menschliche Texterzeugung‘.

Dieser Perspektivenwechsel ist meta-theoretisch notwendig, da es auf den ersten Blick nicht der ‚Text als solcher ‚ ist, der über ‚Geltung und Nicht-Geltung‘ entscheidet, sondern die ‚Akteure‘, die ‚Texte erzeugen und verstehen‘. Und beim Auftreten von ‚verschiedenen Arten von Akteuren‘ — hier ‚Menschen‘, dort ‚Maschinen‘ — wird man nicht umhin kommen, genau jene Unterschiede — falls vorhanden — zu thematisieren, die eine gewichtige Rolle spielen bei der ‚Geltung von Texten‘.

TEXTFÄHIGE MASCHINEN

Bei der Unterscheidung in zwei verschiedenen Arten von Akteuren — hier ‚Menschen‘, dort ‚Maschinen‘ — sticht sofort eine erste ‚grundlegende Asymmetrie‘ ins Auge: sogenannte ‚KI-Textgeneratoren‘ sind Gebilde, die von Menschen ‚erfunden‘ und ‚gebaut‘ wurden, es sind ferner Menschen, die sie ‚benutzen‘, und das wesentliche Material, das von sogenannten KI-Generatoren benutzt wird, sind wiederum ‚Texte‘, die als ‚menschliches Kulturgut‘ gelten.

Im Falle von sogenannten ‚KI-Textgeneratoren‘ soll hier zunächst nur so viel festgehalten werden, dass wir es mit ‚Maschinen‘ zu tun haben, die über ‚Input‘ und ‚Output‘ verfügen, dazu über eine minimale ‚Lernfähigkeit‘, und deren Input und Output ‚textähnliche Objekte‘ verarbeiten kann.

BIOLOGISCH-NICHT-BIOLOGISCH

Auf der Meta-Ebene wird also angenommen, dass wir einerseits über solche Akteure verfügen, die minimal ‚textfähige Maschinen‘ sind — durch und durch menschliche Produkte –, und auf der anderen Seite über Akteure, die wir ‚Menschen‘ nennen. Menschen gehören als ‚Homo-Sapiens Population‘ zur Menge der ‚biologischen Systeme‘, während ‚textfähige Maschinen‘ zu den ’nicht-biologischen Systemen‘ gehören.

LEERSTELLE INTELLIGENZ-BEGRIFF

Die hier vorgenommene Transformation des Begriffs ‚KI-Textgenerator‘ in den Begriff ‚textfähige Maschine‘ soll zusätzlich verdeutlichen, dass die verbreitete Verwendung des Begriffs ‚KI‘ für ‚Künstliche Intelligenz‘ eher irreführend ist. Es gibt bislang in keiner wissenschaftlichen Disziplin einen allgemeinen, über die Einzeldisziplin hinaus anwendbaren und akzeptierten Begriff von ‚Intelligenz‘. Für die heute geradezu inflatorische Verwendung des Begriffs KI gibt es keine wirkliche Begründung außer jener, dass der Begriff so seiner Bedeutung entleert wurde, dass man ihn jederzeit und überall benutzen kann, ohne etwas Falsches zu sagen. Etwas, was keine Bedeutung besitzt, kann weder wahr‘ noch ‚falsch‘ sein.

VORAUSSETZUNGEN FÜR TEXT-GENERIERUNG

Wenn nun die Homo-Sapiens Population als originärer Akteur für ‚Text-Generierung‘ und ‚Text-Verstehen‘ identifiziert wird, soll nun zunächst untersucht werden, welches denn ‚jene besonderen Eigenschaften‘ sind, die eine Homo-Sapiens Population dazu befähigt, Texte zu generieren und zu verstehen und sie ‚im alltäglichen Lebensprozess erfolgreich anzuwenden‘.

GELTUNG

Ein Anknüpfungspunkt für die Untersuchung der besonderen Eigenschaften einer Homo-Sapiens Text-Generierung und eines Text-Verstehens ist der Begriff ‚Geltung‘, der im Tagungsthema vorkommt.

Auf dem primären Schauplatz des biologischen Lebens, in den alltäglichen Prozessen, im Alltag, hat die ‚Geltung‘ eines Textes mit ‚Zutreffen‘ zu tun. Wenn ein Text nicht von vornherein mit einem ‚fiktiven Charakter‘ geplant wird, sondern mit einem ‚Bezug zum Alltagsgeschehen‘, das jeder im Rahmen seiner ‚Weltwahrnehmung‘ ‚überprüfen‘ kann, dann hat ‚Geltung im Alltag‘ damit zu tun, dass das ‚Zutreffen eines Textes überprüft‘ werden kann. Trifft die ‚Aussage eines Textes‘ im Alltag ‚zu‘, dann sagt man auch, dass diese Aussage ‚gilt‘, man räumt ihr ‚Geltung‘ ein, man bezeichnet sie auch als ‚wahr‘. Vor diesem Hintergrund könnte man geneigt sein fortzusetzen und zu sagen: ‚Trifft‘ die Aussage eines Textes ’nicht zu‘, dann kommt ihr ‚keine Geltung‘ zu; vereinfacht zur Formulierung, dass die Aussage ’nicht wahr‘ sei bzw. schlicht ‚falsch‘.

Im ‚realen Alltag‘ ist die Welt allerdings selten ’schwarz‘ und ‚weiß‘: nicht selten kommt es vor, dass wir mit Texten konfrontiert werden, denen wir aufgrund ihrer ‚gelernten Bedeutung‘ geneigt sind ‚eine mögliche Geltung‘ zu zuschreiben, obwohl es möglicherweise gar nicht klar ist, ob es eine Situation im Alltag gibt — bzw. geben wird –, in der die Aussage des Textes tatsächlich zutrifft. In solch einem Fall wäre die Geltung dann ‚unbestimmt‘; die Aussage wäre ‚weder wahr noch falsch‘.

ASYMMETRIE: ZUTREFFEN – NICHT-ZUTREFFEN

Man kann hier eine gewisse Asymmetrie erkennen: Das ‚Zutreffen‘ einer Aussage, ihre tatsächliche Geltung, ist vergleichsweise eindeutig. Das ‚Nicht-Zutreffen‘, also eine ‚bloß mögliche‘ Geltung, ist hingegen schwierig zu entscheiden.

Wir berühren mit diesem Phänomen der ‚aktuellen Nicht-Entscheidbarkeit‘ einer Aussage sowohl das Problem der ‚Bedeutung‘ einer Aussage — wie weit ist überhaupt klar, was gemeint ist? — als auch das Problem der ‚Unabgeschlossenheit unsres Alltags‘, besser bekannt als ‚Zukunft‘: ob eine ‚aktuelle Gegenwart‘ sich als solche fortsetzt, ob genau so, oder ob ganz anders, das hängt davon ab, wie wir ‚Zukunft‘ generell verstehen und einschätzen; was die einen als ’selbstverständlich‘ für eine mögliche Zukunft annehmen, kann für die anderen schlicht ‚Unsinn‘ sein.

BEDEUTUNG

Dieses Spannungsfeld von ‚aktuell entscheidbar‘ und ‚aktuell noch nicht entscheidbar‘ verdeutlicht zusätzlich einen ‚autonomen‘ Aspekt des Phänomens Bedeutung: hat sich ein bestimmtes Wissen im Gehirn gebildet und wurde dieses als ‚Bedeutung‘ für ein ‚Sprachsystem‘ nutzbar gemacht, dann gewinnt diese ‚assoziierte‘ Bedeutung für den Geltungsbereich des Wissens eine eigene ‚Realität‘: es ist nicht die ‚Realität jenseits des Gehirns‘, sondern die ‚Realität des eigenen Denkens‘, wobei diese Realität des Denkens ‚von außen betrachtet‘ etwas ‚Virtuelles‘ hat.

Will man über diese ‚besondere Realität der Bedeutung‘ im Kontext des ‚ganzen Systems‘ sprechen, dann muss man zu weitreichenden Annahmen greifen, um auf der Meta-Ebene einen ‚begrifflichen Rahmen‘ installieren zu können, der in der Lage ist, die Struktur und die Funktion von Bedeutung hinreichend beschreiben zu können. Dafür werden minimal die folgenden Komponenten angenommen (‚Wissen‘, ‚Sprache‘ sowie ‚Bedeutungsbeziehung‘):

  1. WISSEN: Es gibt die Gesamtheit des ‚Wissens‘, das sich im Homo-Sapiens Akteur im Laufe der Zeit im Gehirn ‚aufbaut‘: sowohl aufgrund von kontinuierlichen Interaktionen des ‚Gehirns‘ mit der ‚Umgebung des Körpers‘, als auch aufgrund von Interaktionen ‚mit dem Körper selbst‘, sowie auch aufgrund der Interaktionen ‚des Gehirns mit sich selbst‘.
  2. SPRACHE: Vom Wissen zu unterscheiden ist das dynamische System der ‚potentiellen Ausdrucksmittel‘, hier vereinfachend ‚Sprache‘ genannt, die sich im Laufe der Zeit in Interaktion mit dem ‚Wissen‘ entfalten können.
  3. BEDEUTUNGSBEZIEHUNG: Schließlich gibt es die dynamische ‚Bedeutungsbeziehung‘, ein Interaktionsmechanismus, der beliebige Wissenselemente jederzeit mit beliebigen sprachlichen Ausdrucksmitteln verknüpfen kann.

Jede dieser genannten Komponenten ‚Wissen‘, ‚Sprache‘ wie auch ‚Bedeutungsbeziehung‘ ist extrem komplex; nicht weniger komplex ist auch ihr Zusammenspiel.

ZUKUNFT UND EMOTIONEN

Neben dem Phänomen Bedeutung wurde beim Phänomen des Zutreffens auch sichtbar, dass die Entscheidung des Zutreffens auch von einer ‚verfügbaren Alltagssituation‘ abhängt, in der sich eine aktuelle Entsprechung ‚konkret aufzeigen‘ lässt oder eben nicht.

Verfügen wir zusätzlich zu einer ‚denkbaren Bedeutung‘ im Kopf aktuell über keine Alltagssituation, die dieser Bedeutung im Kopf hinreichend korrespondiert, dann gibt es immer zwei Möglichkeiten: Wir können diesem gedachten Konstrukt trotz fehlendem Realitätsbezug den ‚Status einer möglichen Zukunft‘ verleihen oder nicht.

Würden wir uns dafür entscheiden, einer ‚Bedeutung im Kopf‘ den Status einer möglichen Zukunft zu zusprechen, dann stehen meistens folgende zwei Anforderungen im Raum: (i) Lässt sich im Lichte des verfügbaren Wissens hinreichend plausibel machen, dass sich die ‚gedachte mögliche Situation‘ in ‚absehbarer Zeit‘ ausgehend von der aktuellen realen Situation ‚in eine neue reale Situation transformieren lässt‘? Und (ii) Gibt es ’nachhaltige Gründe‚ warum man diese mögliche Zukunft ‚wollen und bejahen‘ sollte?

Die erste Forderung verlangt nach einer leistungsfähigen ‚Wissenschaft‘, die aufhellt, ob es überhaupt gehen kann. Die zweite Forderung geht darüber hinaus und bringt unter dem Gewand der ‚Nachhaltigkeit‘ den scheinbar ‚irrationalen‘ Aspekt der ‚Emotionalität‘ ins Spiel: es geht nicht nur einfach um ‚Wissen als solches‘, es geht auch nicht nur um ein ’sogenanntes nachhaltiges Wissen‘, das dazu beitragen soll, das Überleben des Lebens auf dem Planet Erde — und auch darüber hinaus — zu unterstützen, es geht vielmehr auch um ein ‚gut finden, etwas bejahen, und es dann auch entscheiden wollen‘. Diese letzten Aspekte werden bislang eher jenseits von ‚Rationalität‘ angesiedelt; sie werden dem diffusen Bereich der ‚Emotionen‘ zugeordnet; was seltsam ist, da ja jedwede Form von ‚üblicher Rationalität‘ genau in diesen ‚Emotionen‘ gründet.[2]

WISSENSCHAFTLICHER DISKURS UND ALLTAGSSITUATIONEN

In diesem soeben angedeuteten Kontext von ‚Rationalität‘ und ‚Emotionalität‘ ist es nicht uninteressant, dass im Tagungsthema der ‚wissenschaftliche Diskurs‘ als Referenzpunkt thematisiert wird, um den Stellenwert textfähiger Maschinen abzuklären.

Es fragt sich, inwieweit ein ‚wissenschaftlicher Diskurs‘ überhaupt als Referenzpunkt für einen erfolgreichen Text dienen kann?

Dazu kann es helfen, sich bewusst zu machen, dass das Leben auf diesem Planet Erde sich in jedem Moment in einer unfassbar großen Menge von ‚Alltagssituationen‘ abspielt, die alle gleichzeitig stattfinden. Jede ‚Alltagssituation‘ repräsentiert für die Akteure eine ‚Gegenwart‘. Und in den Köpfen der Akteure findet sich ein individuell unterschiedliches Wissen darüber, wie sich eine Gegenwart in einer möglichen Zukunft ‚verändern kann‘ bzw. verändern wird.

Dieses ‚Wissen in den Köpfen‘ der beteiligten Akteure kann man generell ‚in Texte transformieren‘, die auf unterschiedliche Weise einige der Aspekte des Alltags ’sprachlich repräsentieren‘.

Der entscheidende Punkt ist, dass es nicht ausreicht, dass jeder ‚für sich‘ alleine, ganz ‚individuell‘, einen Text erzeugt, sondern dass jeder zusammen ‚mit allen anderen‘, die auch von der Alltagssituation betroffen sind, einen ‚gemeinsamen Text‘ erzeugen muss. Eine ‚kollektive‘ Leistung ist gefragt.

Und es geht auch nicht um ‚irgendeinen‘ Text, sondern um einen solchen, der so beschaffen ist, dass er die ‚Generierung möglicher Fortsetzungen in der Zukunft‘ erlaubt, also das, was traditionell von einem ‚wissenschaftlichen Text‘ erwartet wird.

Aus der umfangreichen Diskussion — seit den Zeiten eines Aristoteles — was denn ‚wissenschaftlich‘ bedeuten soll, was eine ‚Theorie‘ ist, was eine ‚empirische Theorie‘ sein soll, skizziere ich das, was ich hier das ‚minimale Konzept einer empirischen Theorie‘ nenne.

  1. Ausgangspunkt ist eine ‚Gruppe von Menschen‘ (die ‚Autoren‘), die einen ‚gemeinsamen Text‘ erstellen wollen.
  2. Dieser Text soll die Eigenschaft besitzen, dass er ‚begründbare Voraussagen‘ für mögliche ‚zukünftige Situationen‘ erlaubt, denen sich dann in der Zukunft ‚irgendwann‘ auch eine ‚Geltung zuordnen lässt‘.
  3. Die Autoren sind in der Lage, sich auf eine ‚Ausgangssituation‘ zu einigen, die sie mittels einer ‚gemeinsamen Sprache‘ in einen ‚Ausgangstext‘ [A] transformieren.
  4. Es gilt als abgemacht, dass dieser Ausgangstext nur ’solche sprachliche Ausdrücke‘ enthalten darf, die sich ‚in der Ausgangssituation‘ als ‚wahr‘ ausweisen lassen.
  5. In einem weiteren Text stellen die Autoren eine Reihe von ‚Veränderungsregeln‘ [V] zusammen, die ‚Formen von Veränderungen‘ an einer gegebenen Situation ins Wort bringen.
  6. Auch in diesem Fall gilt es als abgemacht, dass nur ’solche Veränderungsregeln‘ aufgeschrieben werden dürfen, von denen alle Autoren wissen, dass sie sich in ‚vorausgehenden Alltagssituationen‘ als ‚wahr‘ erwiesen haben.
  7. Der Text mit den Veränderungsregeln V liegt auf einer ‚Meta-Ebene‘ verglichen mit dem Text A über die Ausgangssituation, der relativ zum Text V auf einer ‚Objekt-Ebene‘ liegt.
  8. Das ‚Zusammenspiel‘ zwischen dem Text V mit den Veränderungsregeln und dem Text A mit der Ausgangssituation wird in einem eigenen ‚Anwendungstext‘ [F] beschrieben: Hier wird beschrieben, wann und wie man eine Veränderungsregel (in V) auf einen Ausgangstext A anwenden darf und wie sich dabei der ‚Ausgangstext A‘ zu einem ‚Folgetext A*‘ verändert.
  9. Der Anwendungstext F liegt damit auf einer nächst höheren Meta-Ebene zu den beiden Texten A und V und kann bewirken, dass der Anwendungstext den Ausgangstext A verändert wird.
  1. In dem Moment, wo ein neuer Folgetext A* vorliegt, wird der Folgetext A* zum neuen Anfangstext A.
  2. Falls der neue Ausgangstext A so beschaffen ist, dass sich wieder eine Veränderungsregel aus V anwenden lässt, dann wiederholt sich die Erzeugung eines neuen Folgetextes A*.
  3. Diese ‚Wiederholbarkeit‘ der Anwendung kann zur Generierung von vielen Folgetexten <A*1, …, A*n> führen.
  4. Eine Serie von vielen Folgetexten <A*1, …, A*n> nennt man üblicherweise auch eine ‚Simulation‘.
  5. Abhängig von der Beschaffenheit des Ausgangstextes A und der Art der Veränderungsregeln in V kann es sein, dass mögliche Simulationen ‚ganz unterschiedlich verlaufen können‘. Die Menge der möglichen wissenschaftlichen Simulationen repräsentiert ‚Zukunft‘ damit also nicht als einen einzigen, bestimmten Verlauf, sondern als eine ‚beliebig große Menge möglicher Verläufe‘.
  6. Die Faktoren, von denen unterschiedliche Verläufe abhängen, sind vielfältig. Ein Faktor sind die Autoren selbst. Jeder Autor ist ja mit seiner Körperlichkeit vollständig selbst Teil genau jener empirischen Welt, die in einer wissenschaftlichen Theorie beschrieben werden soll. Und wie bekannt, kann jeder menschliche Akteur seine Meinung jederzeit ändern. Er kann buchstäblich im nächsten Moment genau das Gegenteil von dem tun, was er zuvor gedacht hat. Und damit ist die Welt schon nicht mehr die gleiche, wie zuvor in der wissenschaftlichen Beschreibung angenommen.

Schon dieses einfache Beispiel zeigt, dass die Emotionalität des ‚Gut-Findens, des Wollens, und des Entscheidens‘ der Rationalität wissenschaftlicher Theorien voraus liegt. Dies setzt sich in der sogenannten ‚Nachhaltigkeitsdiskussion‘ fort.

NACHHALTIGE EMPIRISCHE THEORIE

Mit dem soeben eingeführten ‚minimalen Konzepts einer empirischen Theorie (ET)‘ lässt sich direkt auch ein ‚minimales Konzept einer nachhaltigen empirischen Theorie (NET)‘ einführen.

Während eine empirische Theorie einen beliebig großen Raum an begründeten Simulationen aufspannen kann, die den Raum von vielen möglichen Zukünften sichtbar machen, verbleibt den Akteuren des Alltags die Frage, was sie denn von all dem als ‚ihre Zukunft‘ haben wollen? In der Gegenwart erleben wir die Situation, dass die Menschheit den Eindruck erweckt, als ob sie damit einverstanden ist, das Leben jenseits der menschlichen Population mehr und mehr nachhaltig zu zerstören mit dem erwartbaren Effekt der ‚Selbst-Zerstörung‘.

Dieser in Umrissen vorhersehbare Selbst-Zerstörungseffekt ist aber im Raum der möglichen Zukünfte nur eine Variante. Die empirische Wissenschaft kann sie umrisshaft andeuten. Diese Variante vor anderen auszuzeichnen, sie als ‚gut‘ zu akzeptieren, sie ‚zu wollen‘, sich für diese Variante zu ‚entscheiden‘, liegt in jenem bislang kaum erforschten Bereich der Emotionalität als Wurzel aller Rationalität.

Wenn sich Akteure des Alltags für eine bestimmte rational aufgehellte Variante von möglicher Zukunft entschieden haben, dann können sie jederzeit mit einem geeigneten ‚Evaluationsverfahren (EVAL)‘ auswerten, wie viel ‚Prozent (%) der Eigenschaften des Zielzustandes Z‘ bislang erreicht worden sind, vorausgesetzt, der favorisierte Zielzustand wird in einen passenden Text Z transformiert.

Anders formuliert: in dem Moment, wo wir Alltagsszenarien über geeignete Texte in einen rational greifbaren Zustand transformiert haben, nehmen die Dinge eine gewisse Klarheit an und werden dadurch — in gewisser Weise — einfach. Dass wir solche Transformationen vornehmen und auf welche Aspekte eines realen oder möglichen Zustands wir uns dann fokussieren, das ist aber als emotionale Dimension der textbasierten Rationalität vor-gelagert.[2]

MENSCH-MASCHINE

Nach diesen vorbereitenden Überlegungen stellt sich die abschließende Frage, ob und wie die Hauptfrage dieser Tagung „Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ in irgendeiner Weise beantwortet werden kann?

Meine bisherigen Ausführungen haben versucht aufzuzeigen, was es bedeutet, dass Menschen kollektiv Texte erzeugen, die die Kriterien für einen wissenschaftlichen Diskurs erfüllen, der zudem die Anforderungen für empirische oder gar nachhaltig-empirische Theorien erfüllt.

Dabei zeigt sich, dass sowohl bei der Generierung eines kollektiven wissenschaftlichen Textes wie auch bei seiner Anwendung im Alltag ein enger Wechselbezug sowohl mit der gemeinsamen erfahrbaren Welt wie auch mit den dynamischen Wissens- und Bedeutungskomponenten in jedem Akteur eine Rolle spielen.

Der Aspekt der ‚Geltung‘ ist Teil eines dynamischen Weltbezugs, dessen Einschätzung als ‚wahr‘ beständig im Fluss ist; während der eine Akteur vielleicht dazu tendiert zu sagen „Ja, kann stimmen“, tendiert ein anderer Akteur vielleicht gerade zum Gegenteil. Während die einen eher dazu tendieren, eine mögliche Zukunftsvariante X zu favorisieren, wollen die anderen lieber die Zukunftsvariante Y. Rationale Argumente fehlen; die Gefühle sprechen. Während eine Gruppe gerade beschlossen hat, dem Plan Z zu ‚glauben‘ und ihn ‚umzusetzen‘, wenden sich die anderen ab, verwerfen Plan Z, und tun etwas ganz anderes.

Dieser unstete, unsichere Charakter des Zukunft-Deutens und Zukunft-Handelns begleitet die Homo Sapiens Population von Anbeginn. Der unverstandene emotionale Komplex begleitet den Alltag beständig wie ein Schatten.[2]

Wo und wie können ‚textfähige Maschinen‘ in dieser Situation einen konstruktiven Beitrag leisten?

Angenommen es liegt ein Ausgangstext A vor, dazu ein Veränderungstext V sowie eine Anleitung F, dann könnten heutige Algorithmen alle möglichen Simulationen schneller durchrechnen als es Menschen könnten.

Angenommen zusätzlich es läge auch noch ein Zieltext Z vor, dann könnte ein heutiger Algorithmus auch eine Auswertung zum Verhältnis zwischen einer aktuellen Situation als A und dem Zieltext Z berechnen.

Mit anderen Worten: wäre eine empirische oder eine nachhaltig-empirische Theorie mit ihren notwendigen Texten formuliert, dann könnte ein heutiger Algorithmus alle möglichen Simulationen und den Grad der Zielerfüllung automatisch schneller berechnen, als jeder Mensch allein.

Wie steht es aber mit der (i) Ausarbeitung einer Theorie bzw. (ii) mit der vor-rationalen Entscheidung für eine bestimmte empirische oder gar nachhaltig-empirische Theorie ?

Eine klare Antwort auf beide Fragen erscheint mir zum aktuellen Zeitpunkt kaum möglich, verstehen wir Menschen doch noch zu wenig, wie wir selbst im Alltag kollektiv Theorien bilden, auswählen, überprüfen, vergleichen und auch wieder verwerfen.

Meine Arbeitshypothese zum Thema lautet: dass wir sehr wohl lernfähige Maschinen brauchen werden, um in der Zukunft die Aufgabe erfüllen zu können, brauchbare nachhaltig-empirische Theorien für den gemeinsamen Alltag zu entwickeln. Wann dies aber real geschehen wird und in welchem Umfang scheint mir zum jetzigen Zeitpunkt weitgehend unklar.

ANMERKUNGEN

[1] https://zevedi.de/themen/ki-text/

[2] Das Sprechen über ‚Emotionen‘ im Sinne von ‚Faktoren in uns‘, die uns dazu bewegen, aus dem Zustand ‚vor dem Text‘ in den Zustand ‚geschriebener Text‘ überzugehen, der lässt sehr viele Aspekte anklingen. In einem kleinen explorativen Text „STÄNDIGE WIEDERGEBURT – Jetzt. Schweigen hilft nicht …“ ( https://www.cognitiveagent.org/2023/08/28/staendige-wiedergeburt-jetzt-schweigen-hilft-nicht-exploration/ ) hat der Autor versucht, einige dieser Aspekte anzusprechen. Beim Schreiben wird deutlich, dass hier sehr viele ‚individuell subjektive‘ Aspekte eine Rolle spielen, die natürlich nicht ‚isoliert‘ auftreten, sondern immer auch einen Bezug zu konkreten Kontexten aufblitzen lassen, die sich mit dem Thema verknüpfen. Dennoch, es ist nicht der ‚objektive Kontext‘, der die Kernaussage bildet, sondern die ‚individuell subjektive‘ Komponente, die im Vorgang des ‚ins-Wort-Bringens‘ aufscheint. Diese individuell-subjektive Komponenten wird hier versuchsweise als Kriterium für ‚authentische Texte‘ benutzt im Vergleich zu ‚automatisierten Texten‘ wie jene, die von allerlei Bots generiert werden können. Um diesen Unterschied greifbarer zu machen, hat der Autor sich dazu entschieden, mit dem zitierten authentischen Text zugleich auch einen ‚automatisierten Text‘ mit gleicher Themenstellung zu erzeugen. Dazu hat er chatGBT4 von openAI benutzt. Damit beginnt ein philosophisch-literarisches Experiment, um auf diese Weise vielleicht den möglichen Unterschied sichtbarer zu machen. Aus rein theoretischen Gründen ist klar, dass ein von chatGBT4 erzeugter Text im Ursprung niemals ‚authentische Texte‘ erzeugen kann, es sei denn, er benutzt als Vorlage einen authentischen Text, den er abwandeln kann. Dann ist dies aber ein klares ‚fake Dokument‘. Um solch einem Missbrauch vorzubeugen, schreibt der Autor im Rahmen des Experiments den authentischen Text zu erst und beauftragt dann chatGBT4 zur vorgegebenen Themenstellung etwas zu schreiben, ohne dass chatGBT4 den authentischen Text kennt, da er noch nicht über das Internet in die Datenbasis von chatGBT4 Eingang gefunden hat.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

chatGPT – Wie besoffen muss man sein?

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 13.Februar 2023 – 17.April 2023
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (cagent@cognitiveagent.org)

Kontext

Beitrag ansehen

Seit der Freigabe des chatbots ‚chatGPT‘ für die größere Öffentlichkeit geht eine Art ‚Erdbeben‘ durch die Medien, weltweit, in vielen Bereichen, vom Privatpersonen über Institutionen, Firmen, Behörden …. jeder sucht das ‚chatGPT Erlebnis‘. Diese Reaktionen sind erstaunlich, und erschreckend zugleich.

Anmerkung: In meinem Englischen Blog hatte ich nach einigen Experimenten mit chatGPT eine erste Reflexion über den möglichen Nutzen von chatGPT geschrieben. Mir hatte es für ein erstes Verständnis geholfen; dieses hat sich dann bis zu dem Punkt weiterentwickelt, der im vorliegenden Text zum Ausdruck kommt.[6]

Form

Die folgenden Zeilen bilden nur eine kurze Notiz, da es sich kaum lohnt, ein ‚Oberflächenphänomen‘ so intensiv zu diskutieren, wo doch die ‚Tiefenstrukturen‘ erklärt werden sollten. Irgendwie scheinen die ‚Strukturen hinter chatGPT‘ aber kaum jemanden zu interessieren (Gemeint sind nicht die Details des Quellcodes in den Algortihmen).

chatGPT als Objekt

Der chatbot mit Namen ‚chatGPT‘ ist ein Stück Software, ein Algorithmus, der (i) von Menschen erfunden und programmiert wurde. Wenn (ii) Menschen ihm Fragen stellen, dann (iii) sucht er in der ihm bekannten Datenbank von Dokumenten, die wiederum Menschen erstellt haben, (iv) nach Textmustern, die nach bestimmten formalen Kriterien (z.T. von den Programmierern vorgegeben) einen Bezug zur Frage aufweisen. Diese ‚Textfunde‘ werden (v) ebenfalls nach bestimmten formalen Kriterien (z.T. von den Programmierern vorgegeben) in einen neuen Text ‚angeordnet‘, der (vi) jenen Textmustern nahe kommen soll, die ein menschlicher Leser ‚gewohnt‘ ist, als ’sinnvoll‘ zu akzeptieren.

Textoberfläche – Textbedeutung – Wahrheitsfähig

Ein normaler Mensch kann — mindestens ‚intuitiv‘ — unterscheiden zwischen den (i) ‚Zeichenketten‘, die als ‚Ausdrücke einer Sprache‘ benutzt werden, und jenen (ii) ‚Wissenselementen‘ (im Kopf des Hörer-Sprechers), die als solche ‚unabhängig‘ sind von den Sprachelementen, aber die (iii) von Sprechern-Hörer einer Sprache ‚frei assoziiert‘ werden können, so dass die korrelierten ‚Wissenselemente zu dem werden, was man gewöhnlich die ‚Bedeutung‘ der Sprachelemente nennt.[1] Von diesen Wissenselementen (iv) ‚weiß‘ jeder Sprachteilnehmer schon ‚vorsprachlich‘, als lernendes Kind [2], dass einige dieser Wissenselemente unter bestimmten Umständen mit Umständen der Alltagswelt ‚korrelierbar‘ sind. Und der normale Sprachbenutzer verfügt auch ‚intuitiv‘ (automatisch, unbewusst) über die Fähigkeit, solche Korrelation — im Lichte des verfügbaren Wissens — einzuschätzen als (v) ‚möglich‘ oder (vi) als eher ‚unwahrscheinlich‘ bzw. (vi) als ‚bloße Fantasterei‘.[3]

Die grundlegende Fähigkeit eines Menschen, eine ‚Korrelation‘ von Bedeutungen mit (intersubjektiven) Umweltgegebenheiten feststellen zu können, nennen — zumindest einige — Philosophen ‚Wahrheitsfähigkeit‘ und im Vollzug der Wahrheitsfähigkeit spricht man dann auch von ‚zutreffenenden‘ sprachlichen Äußerungen oder von ‚wahren (empirischen) Aussagen‘.[5]

Unterscheidungen wie ‚zutreffend‘ (‚wahr‘), ‚möglicherweise zutreffend‘, ‚eher nicht zutreffend‘ oder ‚auf keinen Fall zutreffend‘ deuten an, dass der Wirklichkeitsbezug menschlicher Wissenselemente sehr vielfältig und ‚dynamisch‘ ist. Etwas, das gerade noch zutreffend war, kann im nächsten Moment nicht mehr zutreffend sein. Etwas, das lange als ‚bloße Fantasterei‘ abgetan wurde, kann dann doch plötzlich als ‚möglich‘ erscheinen oder ‚trifft plötzlich zu‘. Sich in diesem ‚dynamisch korrelierten Bedeutungsraum‘ so zu bewegen, dass eine gewisse ‚innere und äußere Konsistenz‘ gewahrt bleibt, stellt eine komplexe Herausforderung dar, die von Philosophie und den Wissenschaften bislang eher nicht ganz verstanden, geschweige denn auch nur annähernd ‚erklärt‘ worden ist.

Fakt ist: wir Menschen können dies bis zu einem gewissen Grad. Je komplexer der Wissensraum ist, je vielfältiger die sprachlichen Interaktion mit anderen Menschen werden, umso schwieriger wird es natürlich.

‚Luftnummer‘ chatGPT

(Letzte Änderung: 15.Februar 2023, 07:25h)

Vergleicht man den chatbot chatGPT mit diesen ‚Grundeigenschaften‘ des Menschen, dann kann man erkennen, dass chatGPT nichts von alledem kann. (i) Fragen kann er von sich aus nicht sinnvoll stellen, da es keinen Anlass gibt, warum er fragen sollte (es sei denn, jemand induziert ihm eine Frage). (ii) Textdokumente (von Menschen) sind für ihn Ausdrucksmengen, für die er über keine eigenständigen Bedeutungszuordnung verfügt. Er könnte also niemals eigenständig die ‚Wahrheitsfrage‘ — mit all ihren dynamischen Schattierungen — stellen oder beantworten. Er nimmt alles für ‚bare Münze‘ bzw. man sagt gleich, dass er ’nur träumt‘.

Wenn chatGPT aufgrund seiner großen Text-Datenbank eine Teilmenge von Ausdrücken hat, die irgendwie als ‚wahr‘ klassifiziert sind, dann kann der Algorithmus ‚im Prinzip‘ indirekt ‚Wahrscheinlichkeiten‘ ermitteln, die andere Ausdrucksmengen, die nicht als ‚wahr‘ klassifiziert sind, dann doch ‚mit einer gewissen Wahrscheinlichkeit‘ als ‚wahr erscheinen‘
lassen. Ob der aktuelle chatGPT Algorithmus solche ‚wahrscheinlichen Wahrheiten explizit‘ benutzt, ist unklar. Im Prinzip übersetzt er Texte in ‚Vektorräume‘, die auf verschiedene Weise ‚ineinander abgebildet‘ werden, und Teile dieser Vektorräume werden dann wieder in Form eines ‚Textes‘ ausgegeben. Das Konzept ‚Wahrheit‘ taucht in diesen mathematischen Operationen — nach meinem aktuellen Kenntnisstand — nicht auf. Wenn, dann wäre es auch nur der formale logische Wahrheitsbegriff [4]; dieser liegt aber mit Bezug auf die Vektorräume ‚oberhalb‘ der Vektorräume, bildet in Bezug auf diese einen ‚Meta-Begriff‘. Wollte man diesen auf die Vektorräume und Operationen auf diesen Vektorräumen tatsächlich anwenden, dann müsste man den Code von chatGPT komplett neu schreiben. Würde man dies tun — das wird aber keiner schaffen — dann würde sich der Code von chatGPT dem Status einer formalen Theorie nennen (wie in der Mathematik) (siehe Anmerkung [5]). Von einer empirischen Wahrheitsfähigkeit wäre chatGPT dann immer noch meilenweit entfernt.

Hybride Scheinwahrheiten

Im Anwendungsfall, bei dem der Algorithmus mit Namen ‚chatGPT‘ Ausdrucksmengen benutzt, die den Texten ähneln, die Menschen produzieren und lesen, navigiert sich chatGPT rein formal und mit Wahrscheinlichkeiten durch den Raum der formalen Ausdruckselemente. Ein Mensch, der die von chatGPT produzierten Ausdrucksmengen ‚liest‘, aktiviert aber automatisch (= unbewusst!) sein eigenes ’sprachliches Bedeutungswissen‘ und projiziert dieses in die abstrakten Ausdrucksmenge von chatGBT. Wie man beobachten kann (und hört und liest von anderen), sind die von chatGBT produzierten abstrakten Ausdrucksmengen dem gewöhnten Textinput von Menschen in vielen Fällen — rein formal — so ähnlich, dass ein Mensch scheinbar mühelos seine Bedeutungswissen mit diesen Texten korrelieren kann. Dies hat zur Folge, dass der rezipierende (lesende, hörende) Mensch das ‚Gefühl‘ hat, chatGPT produziert ’sinnvolle Texte‘. In der ‚Projektion‘ des lesenden/hörenden Menschen JA, in der Produktion von chatGPT aber NEIN. chatGBT verfügt nur über formale Ausdrucksmengen (kodiert als Vektorräume), mit denen er ‚blind‘ herumrechnet. Über ‚Bedeutungen‘ im menschlichen Sinne verfügt er nicht einmal ansatzweise.

Zurück zum Menschen?

(Letzte Änderung: 27.Februar 2023)

Wie leicht sich Menschen von einer ‚fake-Maschine‘ so beeindrucken lassen, dass sie dabei sich selbst anscheinend vergessen und sich ‚dumm‘ und ‚leistungsschwach‘ fühlen, obgleich die Maschine nur ‚Korrelationen‘ zwischen menschlichen Fragen und menschlichen Wissensdokumenten rein formal herstellt, ist eigentlich erschreckend [7a,b], und zwar mindestens in einem doppelten Sinne: (i)Statt die eigene Potentiale besser zu erkennen (und zu nutzen), starrt man gebannt wie das berühmte ‚Kaninchen auf die Schlange‘, obgleich die Maschine immer noch ein ‚Produkt des menschlichen Geistes‘ ist. (ii) Durch diese ‚kognitive Täuschung‘ wird versäumt, das tatsächlich ungeheure Potential ‚kollektiver menschlicher Intelligenz‘ besser zu verstehen, das man dann natürlich durch Einbeziehung moderner Technologien um mindestens einen evolutionären Level weiter voran bringen könnte. Die Herausforderung der Stunde lautet ‚Kollektiver Mensch-Maschine Intelligenz‘ im Kontext einer nachhaltigen Entwicklung mit Priorität bei der menschlichen kollektiven Intelligenz. Die aktuelle sogenannte ‚Künstliche (= maschinelle) Intelligenz‘ sind ziemlich primitive Algorithmen. Integriert in eine entwickelte ‚kollektive menschliche Intelligenz‘ könnten ganz andere Formen von ‚Intelligenz‘ realisiert werden, solche, von denen wir aktuell höchstens träumen können.

Kommentierung weiterer Artikel von anderen Autoren zu chatGPT

(Letzte Änderung: 17.April 2023)

Achtung: Einige der Text in den Anmerkungen sind aus dem Englischen zurück übersetzt worden. Dies geschah unter Benutzung der Software www.DeepL.com/Translator (kostenlose Version).

Siehe [8], [9], [10], [12],[13],[14],[15]

Anmerkungen

[1] In den vielen tausend ’natürlichen Sprachen‘ dieser Welt kann man beobachten, wie ‚erfahrbare Umweltgegebenheiten‘ über die ‚Wahrnehmung‘ zu ‚Wissenselementen‘ werden können, die dann in jeder Sprache mit unterschiedlichen Ausdrücken korreliert werden. Die Sprachwissenschaftler (und Semiotiker) sprechen daher hier von ‚Konventionen‘, ‚frei vereinbarte Zuordnungen‘.

[2] Aufgrund der körperlichen Interaktion mit der Umgebung, die ‚Wahrnehmungsereignisse‘ ermöglicht, die von den ‚erinnerbaren und gewussten Wissenselementen‘ unterscheidbar sind.

[3] Die Einstufung von ‚Wissenselementen‘ als ‚Fantasterei‘ kann falsch sein, wie viele Beispiele zeigen, wie umgekehrt, die Einstufung als ‚wahrscheinlich korrelierbar‘ auch falsch sein kann!

[4] Nicht der ‚klassischen (aristotelischen) Logik‘ da diese noch keine strenge Trennung von ‚Form‘ (Ausdruckselementen) und ‚Inhalt‘ (Bedeutung) kannte.

[5] Es gibt auch Kontexte, in denen spricht man von ‚wahren Aussagen‘, obgleichgar keine Beziehung zu einer konkreten Welterfahrung vorliegt. So z.B. im Bereich der Mathematik, wo man gerne sagt, dass eine Aussage ‚wahr‘ ist. Dies ist aber eine ganz ‚andere Wahrheit‘. Hier geht es darum, dass im Rahmen einer ‚mathematischen Theorie‘ bestimmte ‚Grundannahmen‘ gemacht wurden (die mit einer konkreten Realität nichts zu tun haben müssen), und man dann ausgehend von diesen Grundannahmen mit Hilfe eines formalen Folgerungsbegriffs (der formalen Logik) andere Aussagen ‚ableitet‘. Eine ‚abgeleitete Aussage‘ (meist ‚Theorem‘ genannt), hat ebenfalls keinerlei Bezug zu einer konkreten Realität. Sie ist ‚logisch wahr‘ oder ‚formal wahr‘. Würde man die Grundannahmen einer mathematischen Theorie durch — sicher nicht ganz einfache — ‚Interpretationen‘ mit konkreter Realität ‚in Beziehung setzen‘ (wie z.B. in der ‚angewandten Physik‘), dann kann es unter speziellen Bedingungen sein, dass die formal abgeleiteten Aussagen einer solchen ‚empirisch interpretierten abstrakten Theorie‘ eine ‚empirische Bedeutung‘ gewinnen, die unter bestimmten Bedingungen vielleicht ‚korrelierbar‘ ist; dann würde man solche Aussagen nicht nur ‚logisch wahr‘ nennen, sondern auch ‚empirisch wahr‘. Wie die Geschichte der Wissenschaft und der Wissenschaftsphilosophie zeigt, ist der aber ‚Übergang‘ von empirisch interpretierten abstrakten Theorien zu empirisch interpretierbaren Folgerungen mit Wahrheitsanspruch nicht trivial. Der Grund liegt im benutzten ‚logischen Folgerungsbegriff‘. In der modernen formalen Logik gibt es mahezu ‚beliebig viele‘ verschiedene formale Folgerzungsbegriffe. Ob ein solcher formaler Folgerungsbegriff tatsächlich die Struktur empirischer Gegebenheiten über abstrakte Strukturen mit formalen Folgerungen ‚angemessen wiedergibt‘, ist keinesfalls gesichert! Diese Problemstellung ist in der Wissenschaftsphilosophie bislang nicht wirklich geklärt!

[6] Gerd Doeben-Henisch, 15.-16.Januar 2023, „chatGBT about Rationality: Emotions, Mystik, Unconscious, Conscious, …“, in: https://www.uffmm.org/2023/01/15/chatgbt-about-rationality-emotions-mystik-unconscious-conscious/

[7a] Der chatbot ‚Eliza‘ von Weizenbaum von 1966 war trotz seiner Einfachheit in der Lage, menschliche Benutzer dazu zu bringen, zu glauben, dass das Programm sie ‚versteht‘ selbst dann, wenn man ihnen erklärte, dass es nur ein einfacher Algorithmus sei. Siehe das Stichwort ‚Eliza‘ in wkp-de: https://de.wikipedia.org/wiki/ELIZA

[7b] Joseph Weizenbaum, 1966, „ELIZA. A Computer Program For the Study of Natural Language. Communication Between Man And Machine“, Communications of the ACM, Vol.9, No.1, January 1966, URL: https://cse.buffalo.edu/~rapaport/572/S02/weizenbaum.eliza.1966.pdf Anmerkung: Obwohl das Programm ‚Eliza‘ von Weizenbaum sehr einfach war, waren alle Benutzer fasziniert von dem Programm, weil sie das Gefühl hatten „Es versteht mich“, dabei spiegelte das Programm nur die Fragen und Aussagen der Benutzer. Anders gesagt: die Benutzer waren ‚von sich selbst‘ fasziniert mit dem Programm als eine Art ‚Spiegel‘.

[8] Ted Chiang, 2023, „ChatGPT Is a Blurry JPEG of the Web. OpenAI’s chatbot offers paraphrases, whereas Google offers quotes. Which do we prefer?“, The NEW YORKER, February 9, 2023. URL: https://www.newyorker.com/tech/annals-of-technology/chatgpt-is-a-blurry-jpeg-of-the-web . Anmerkung: Chang betrachtet das Programm chatGPT im Paradigma eines ‚Kompressions-Algorithmus‘: Die Fülle der Informationen wird ‚verdichtet/ abstrahiert‘, so dass ein leicht unscharfes Bild der Textmengen entsteht, keine 1-zu-1 Kopie. Dies führt beim Benutzer zum Eindruck eines Verstehens auf Kosten des Zugriffs auf Details und Genauigkeit. Die Texte von chatGPT sind nicht ‚wahr‘, aber sie ‚muten an‘.

[9] Dietmar Hansch, 2023, „Der ehrlichere Name wäre ‚Simulierte Intelligenz‘. An welchen Defiziten Bots wie chatGBT leiden und was das für unseren Umgang mit Ihnen heißen muss.“, FAZ, 1.März 2023, S.N1 . Bemerkung: Während Chiang (siehe [8] sich dem Phänomen chatGPT mit dem Konzept ‚Kompressions-Algorithmus‘ nähert bevorzugt Hansch die Begriffe ’statistisch-inkrementelles Lernen‘ sowie ‚Einsichtslernen‘. Für Hansch ist Einsichtslernen an ‚Geist‘ und ‚Bewusstsein‘ gebunden, für die er im Gehirn ‚äquivalente Strukturen‘ postuliert. Zum Einsichtslernen kommentiert Hansch weiter „Einsichtslernen ist nicht nur schneller, sondern auch für ein tiefes, ganzheitliches Weltverständnis unverzichtbar, das weit greifende Zusammenhänge erfasst sowie Kriterien für Wahrheit und Wahrhaftigkeit vermittelt.“ Es verwundert dann nicht wenn Hansch schreibt „Einsichtslernen ist die höchster Form des Lernens…“. Mit Bezug auf diesen von Hansch etablierten Referenzrahmen klassifiziert er chatGPT in dem Sinne dass er nur zu ’statistisch-inkrementellem Lernen‘ fähig sei. Ferner postuliert Hansch für den Menschen, „Menschliches Lernen ist niemals rein objektiv, wir strukturieren die Welt immer in Bezug auf unsere Bedürfnisse, Gefühle und bewussten Zwecke…“. Er nennt dies den ‚Humanbezug‘ im menschlichen Erkennen, und genau diesen spricht er chatGPT auch ab. Für geläufige Bezeichnung ‚KI‘ als ‚Künstliche Intelligenz‘ postuliert er, dass der Terminus ‚Intelligenz‘ in dieser Wortverbindung nichts mit der Bedeutung zu tun habe, die wir im Fall des Menschen mit ‚Intelligenz‘ verbinden, also auf keinen Fall etwas mit ‚Einsichtslernen‘, wie er zuvor schon festgestellt hat. Um diesem Umstand mehr Ausdruck zu verleihen würde er lieber den Begriff ‚Simulierte Intelligenz‘ benutzen (siehe dazu auch [10]). Diese begriffliche Strategie wirkt merkwürdig, da der Begriff Simulation [11] normalerweise voraussetzt, dass es eine klare Sachlage gibt, zu der man ein vereinfachtes ‚Modell‘ definiert, mittels dem sich dann das Verhalten des Originalsystems in wichtigen Punkten — vereinfacht — anschauen und untersuchen lässt. Im vorliegenden Fall ist aber nicht ganz klar, was denn überhaupt das Originalsystem sein soll, das im Fall von KI simuliert werden soll. Es gibt bislang keine einheitliche Definition von ‚Intelligenz‘ im Kontext von ‚KI‘! Was die Begrifflichkeit von Hansch selbst angeht, so sind die Begriffe ‚statistisch-inkrementelles Lernen‘ sowie ‚Einsichtslernen‘ ebenfalls nicht klar definiert; der Bezug zu beobachtbarem menschlichen Verhalten geschweige den zu den postulierten ‚äquivalenten Gehirnstrukturen‘ ist beliebig unklar (was durch den Bezug zu bis heute nicht definierten Begriffen wie ‚Bewusstsein‘ und ‚Geist‘ nicht gerade besser wird).

[10] Severin Tatarczyk, 19.Februar 2023, zu ‚Simulierter Intelligenz‘: https://www.severint.net/2023/02/19/kompakt-warum-ich-den-begriff-simulierte-intelligenz-bevorzuge-und-warum-chatbots-so-menschlich-auf-uns-wirken/

[11] Begriff ‚Simulation‘ in wkp-de: https://de.wikipedia.org/wiki/Simulation

[12] Doris Brelowski machte mich auf folgenden Artikel aufmerksam: James Bridle, 16.März 2023, „The stupidity of AI. Artificial intelligence in its current form is based on the wholesale appropriation of existing culture, and the notion that it is actually intelligent could be actively dangerous“, URL: https://www.theguardian.com/technology/2023/mar/16/the-stupidity-of-ai-artificial-intelligence-dall-e-chatgpt?CMP=Share_AndroidApp_Other . Anmerkung: Ein Beitrag, der kenntnisreich und sehr differenziert das Wechselspiel zwischen Formen der AI beschreibt, die von großen Konzernen auf das gesamte Internet ‚losgelassen‘ werden, und was dies mit der menschlichen Kultur und dann natürlich mit den Menschen selbst macht. Zwei Zitate aus diesem sehr lesenwerten Artikel: Zitat 1: „The entirety of this kind of publicly available AI, whether it works with images or words, as well as the many data-driven applications like it, is based on this wholesale appropriation of existing culture, the scope of which we can barely comprehend. Public or private, legal or otherwise, most of the text and images scraped up by these systems exist in the nebulous domain of “fair use” (permitted in the US, but questionable if not outright illegal in the EU). Like most of what goes on inside advanced neural networks, it’s really impossible to understand how they work from the outside, rare encounters such as Lapine’s aside. But we can be certain of this: far from being the magical, novel creations of brilliant machines, the outputs of this kind of AI is entirely dependent on the uncredited and unremunerated work of generations of human artists.“ Zitat 2: „Now, this didn’t happen because ChatGPT is inherently rightwing. It’s because it’s inherently stupid. It has read most of the internet, and it knows what human language is supposed to sound like, but it has no relation to reality whatsoever. It is dreaming sentences that sound about right, and listening to it talk is frankly about as interesting as listening to someone’s dreams. It is very good at producing what sounds like sense, and best of all at producing cliche and banality, which has composed the majority of its diet, but it remains incapable of relating meaningfully to the world as it actually is. Distrust anyone who pretends that this is an echo, even an approximation, of consciousness. (As this piece was going to publication, OpenAI released a new version of the system that powers ChatGPT, and said it was “less likely to make up facts”.)“

[13] David Krakauer in einem Interview mit Brian Gallagher in Nautilus, March 27, 2023, Does GPT-4 Really Understand What We’re Saying?, URL: https://nautil.us/does-gpt-4-really-understand-what-were-saying-291034/?_sp=d9a7861a-9644-44a7-8ba7-f95ee526d468.1680528060130. David Krakauer, Evolutionstheoretiker und Präsident des Santa Fe Instituts für Complexity Science, analysiert die Rolle von Chat-GPT-4-Modellen im Vergleich zum menschlichen Sprachmodell und einem differenzierteren Verständnis dessen, was „Verstehen“ und „Intelligenz“ bedeuten könnte. Seine Hauptkritikpunkte stehen in enger Übereinstimmung mit der obigen Position. Er weist darauf hin, dass (i) man klar zwischen dem „Informationskonzept“ von Shannon und dem Konzept der „Bedeutung“ unterscheiden muss. Etwas kann eine hohe Informationslast darstellen, aber dennoch bedeutungslos sein. Dann weist er darauf hin (ii), dass es mehrere mögliche Varianten der Bedeutung von „Verstehen“ gibt. Die Koordinierung mit dem menschlichen Verstehen kann funktionieren, aber Verstehen im konstruktiven Sinne: nein. Dann setzt Krakauer (iii) GPT-4 mit dem Standardmodell der Wissenschaft in Beziehung, das er als „parsimony“ charakterisiert; chat-GPT-4 ist eindeutig das Gegenteil. Ein weiterer Punkt (iv) ist die Tatsache, dass die menschliche Erfahrung einen „emotionalen“ und einen „physischen“ Aspekt hat, der auf somato-sensorischen Wahrnehmungen im Körper beruht. Dies fehlt bei GPT-4. Dies hängt (v) mit der Tatsache zusammen, dass das menschliche Gehirn mit seinen „Algorithmen“ das Produkt von Millionen von Jahren der Evolution in einer komplexen Umgebung ist. Die GPT-4-Algorithmen haben nichts Vergleichbares; sie müssen den Menschen nur ‚überzeugen‘. Schließlich (vi) können Menschen „physikalische Modelle“ generieren, die von ihren Erfahrungen inspiriert sind, und können mit Hilfe solcher Modelle schnell argumentieren. So kommt Krakauer zu dem Schluss: „Das Narrativ, das besagt, dass wir das menschliche Denken wiederentdeckt haben, ist also in vielerlei Hinsicht falsch. Einfach nachweislich falsch. Das kann nicht der richtige Weg sein.“ Anmerkungen zum Text von Krakauer: Benutzt man das allgemeine Modell von Akteur und Sprache, wie es der Text oben annimmt, dann ergeben sich die Punkt (i) – (vi) als Folgerungen aus dem allgemeinen Modell. Die Akzeptanz eines allgemeinen Akteur-Sprache Modells ist leider noch nicht verbreitet.

[14] Von Marie-José Kolly (Text) und Merlin Flügel (Illustration), 11.04.2023, „Chatbots wie GPT können wunderbare Sätze bilden. Genau das macht sie zum Problem“. Künstliche Intelligenz täuscht uns etwas vor, was nicht ist. Ein Plädoyer gegen die allgemeine Begeisterung. Online-Zeitung ‚Republik‘ aus der SChweiz, URL: https://www.republik.ch/2023/04/11/chatbots-wie-gpt-koennen-wunderbare-saetze-bilden-genau-das-macht-sie-zum-problem? Hier einige Anmerkungen:

Der Text von Marie-José Kolly sticht hervor weil der Algorithmus mit Namen chatGPT(4) hier sowohl in seinem Input-Output Verhalten charakterisiert wird und zusätzlich ein Vergleich zum Menschen zumindest in Ansätzen vorgenommen wird.

Das grundsätzliche Problem des Algorithmus chatGPT(4) besteht darin (wie auch in meinem Text oben herausgestellt), dass er als Input-Daten ausschließlich über Textmengen verfügt (auch jene der Benutzer), die nach rein statistischen Verfahren in ihren formalen Eigenschaften analysiert werden. Auf der Basis der analysierten Regelmäßigkeiten lassen sich dann beliebige Text-Kollagen erzeugen, die von der Form her den Texten von Menschen sehr stark ähneln, so sehr, dass viele Menschen sie für ‚von Menschen erzeugte Texte‘ nehmen. Tatsächlich fehlen dem Algorithmus aber das, was wir Menschen ‚Weltwissen‘ nennen,es fehlt echtes ‚Denken‘, es fehlen ‚eigene‘ Werte-Positionen, und der Algorithmus ‚versteht‘ seine eigenen Text ’nicht‘.

Aufgrund dieses fehlenden eigenen Weltbezugs kann der Algorithmus über die verfügbaren Textmengen sehr leicht manipuliert werden. Eine ‚Massenproduktion‘ von ‚Schrott-Texten‘, von ‚Desinformationen‘ ist damit sehr leicht möglich.

Bedenkt man, dass moderne Demokratien nur funktionieren können, die Mehrheit der Bürger über eine gemeinsame Faktenbasis verfügt, die als ‚wahr‘ angenommen werden können, über eine gemeinsame Wissensmenge, über zuverlässige Medien, dann können mit dem Algorithmus chatGPT(4) genau diese Anforderungen an eine Demokratie massiv zerstört werden.

Interessant ist dann die Frage, ob chatGPT(4) eine menschliche Gesellschaft, speziell eine demokratische Gesellschaft, tatsächlich auch positiv-konstruktiv unterstützen kann?

Vom Menschen ist jedenfalls bekannt, dass dieser den Gebrauch seiner Sprache von Kindes Beinen an im direkten Kontakt mit einer realen Welt erlernt, weitgehend spielerisch, in Interaktion mit anderen Kindern/ Menschen. Für Menschen sind ‚Worte‘ niemals isolierte Größen sondern sie sind immer dynamisch eingebunden in ebenfalls dynamische Kontexte. Sprache ist nie nur ‚Form‘ sondern immer zugleich auch ‚Inhalt‘, und dies auf mannigfaltige Weise. Dies geht nur weil der Mensch über komplexe kognitiven Fähigkeiten verfügt, die u.a. entsprechende Gedächtnisleistungen wie auch Fähigkeiten zur Verallgemeinerung/ Generalisierung umfassen.

Die kulturgeschichtliche Entwicklung von gesprochener Sprache, über Schrift, Buch, Bibliotheken bis hin zu gewaltigen digitalen Datenspeichern hat zwar bezüglich der ‚formen‘ von Sprache und darin — möglicherweise — kodiertem Wissen Gewaltiges geleistet, aber es besteht der Eindruck, dass die ‚Automatisierung‘ der Formen diese in die ‚Isolation‘ treibt, so dass die Formen ihren Kontakt zur Realität, zur Bedeutung, zur Wahrheit immer mehr verlieren. Aus der Sprache als zentralem Moment der Ermöglichung von mehr komplexem Wissen und mehr komplexem Handeln wird damit zunehmend ein ‚Parasit‘, der immer mehr Raum beansprucht und dabei immer mehr Bedeutung und Wahrheit vernichtet.

[15] Gary Marcus, April 2023, Hoping for the Best as AI Evolves, Gary Marcus on the systems that “pose a real and imminent threat to the fabric of society.” Communications of the ACM, Volume 66, Issue 4, April 2023 pp 6–7, https://doi.org/10.1145/3583078 . Anmerkung: Gary Marcus schreibt anlässlich der Wirkungen von Systemen wie chatGPT(OpenAI), Dalle-E2 und Lensa über die ernst zunehmenden negativen Wirkungen, die diese Werkzeuge innerhalb einer Gesellschaft haben können, und zwar in einem Ausmaß, das eine ernsthafte Bedrohung für jede Gesellschaft darstellt! Sie sind inhärent fehlerhaft in den Bereichen Denken, Tatsachen und Halluzinationen. Mit nahezu Null Kosten lassen sich mit ihnen sehr schnell umfangreiche Desinformationskampagnen erstellen und ausführen. Am Beispiel der weltweit wichtigen Webseite ‚Stack Overflow‘ für Programmierer konnte (und kann) man sehen, wie der inflationäre Gebrauch von chatGPT aufgrund der inhärenten vielen Fehler dazu führt, dass das Management-Team von Stack Overflow seine Benutzer dringend bitten musste, den Einsatz von chatGPT komplett zu unterlassen, um den Zusammenbruch der Seite nach 14 Jahren zu verhindern. Im Falle von großen Playern, die es gezielt auf Desinformationen absehen, ist solch eine Maßnahme unwirksam. Diese Player zielen darauf ab, eine Datenwelt zu erschaffen, in der niemand mehr irgend jemandem vertrauen kann. Dies vor Augen stellt Gary Marcus 4 Postulate auf, die jede Gesellschaft umsetzen sollte: (1) Automatisch generierter Inhalt sollte komplett verboten werden; (2) Es müssen rechtswirksame Maßnahmen verabschiedet werden, die ‚Missinformationen‘ verhindern können; (3) User Accounts müssen fälschungssicher gemacht werden; (4) Es wird eine neue Generation von KI Werkzeugen gebraucht, die Fakten verifizieren können.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.


Das Ende der Evolution, von Matthias Glaubrecht,2021 (2019). Lesenotizen – Teil 2

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 17.September 2022 – 29. September 2022, 07:16h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (cagent@cognitiveagent.org)

Kontext

Diesem Text geht ein erster Teil voraus.[1]

Die Zukunft hat viele Gesichter

Nach dem spektakulären Foto 1968 während der Apollo-8 Mission von der Erde als ‚blue marble‘ (auch als ‚blue button‘ bezeichnet), entstand 1990 ein nicht weniger spektakuläres Foto von der Erde während der Voyager Mission aus einer Entfernung von 6 Milliarden km genannt ‚pale blue button‘. 30 Jahre später wurden die Bilddaten neu überarbeitet: https://www.jpl.nasa.gov/images/pia23645-pale-blue-dot-revisited . Das Bild hier im Blog-Text zeigt einen Ausschnitt davon.

Nach mehr als 800 Seiten prall gefüllt mit Gedanken, Informationen, Fakten, eingebettet in Analysen komplexer Prozesse, unternimmt Glaubrecht das Wagnis, einen Blick in die Zukunft zu wagen. ‚Wagnis‘ deswegen, weil solch ein ‚Blick in die Zukunft‘ nach Glaubrechts eigener Überzeugung „nicht die Sache der Wissenschaft“ sei.(S.864 unten).

Die hier möglichen und notwendigen wissenschaftsphilosophischen Fragen sollen aber für einen Moment hintenan gestellt werden. Zunächst soll geschildert werden, welches Bild einer möglichen Lösung angesichts des nahenden Unheils Glaubrecht ab S.881 skizziert.

Umrisse einer möglichen Lösung für 2062

In seiner Lösungsvision kommen viele der großen Themen vor, die er zuvor im Zusammenhang des nahenden Unheils thematisiert hat: „Biodiversität“ (881), „Lebensstil“ (883), „Überbevölkerung“ (884), „Bildung“, speziell für Frauen (885), das „Knappheits-Narrativ“ (885), ökologische Landbewirtschaftung und „tropische Wälder“ (vgl. 886), nochmals „Biodiversität“ (887), große zusammenhängende Schutzgebiete, „working lands“ sowie neue Rechte für die Natur (vgl. 888-891), „Konsumverhalten“ und „neues Wirtschaften“ (892), „Bildungsreform“, „ökosystemares Denken“ (893), „Ungleichheit weltweit“ und neue „Definition von Wachstum“ (894).

Pale Blue Planet

Auf den SS. 900 – 907 hebt Glaubrecht dann nochmals hervor, dass biologische Evolution kein eindeutig prognostizierbarer Vorgang ist. Dass sich auf der Erde biologisches Leben entwickelt hat heißt keinesfalls, dass dies sich auf einem anderen Planeten mit ähnlichen Voraussetzungen einfach wiederholen würde. Weiterhin gibt er zu bedenken, dass die Suche nach einem alternativen Planeten zur Erde bislang kaum fassbare Ergebnisse gebracht hat. Von den 0.5% möglichen Kandidaten mit habitablen Zonen von 3640 bekannten Exoplaneten im April 2017 zeigte bislang keiner hinreichende Eigenschaften für biologisches Leben. Von diesen ’nicht-wirklich Kandidaten‘ befindet sich der nächst gelegene Kandidat 4 Lichtjahre entfernt. Mit heutiger Technologie bräuchte man nach Schätzungen zwischen 6.000 bis 30.000 Jahren Reisezeit.

Vor diesem Hintergrund wirkt insbesondere die Suche nach einer „anderen Intelligenz“ fast bizarr: ist schon die biologische Evolution selbst ungewöhnlich, so deutet die ‚Entwicklungszeit‘ des Menschen mit ca. 3.5 Milliarden Jahren an, dass es extrem unwahrscheinlich ist, dass es irgendwo anders etwas „wirklich Vergleichbares … zum Menschen“ geben kann.(vgl. S.905)

Visionen und ihre Bedingungen

Dass Glaubrecht nach seinen umfassenden und sehr beeindruckenden Analysen Zukunftsszenarien schildern kann, darunter auch eine ‚positive‘ Variante für das Jahr 2062, zeigt zunächst einmal, dass es überhaupt geht. Das ‚Geschichten erzählen‘ ist eine Eigenschaft des Menschen, die sich mindestens bis in die Vorzeit der Erfindung von Schriften zurück verfolgen lässt. Und wenn wir unseren Alltag betrachten, dann ist dieser randvoll mit ‚Geschichten‘ über mögliche zukünftige Szenarien (Zeitungen, Fernsehen, Videos, in privaten Dialogen,Bücher, …). Zugleich haben wir gelernt, dass es ‚falsche‘ und ‚wahre‘ Geschichten geben kann. ‚Wahre‘ Geschichten über eine mögliche Zukunft ‚bewahrheiten‘ sich, indem die Zustände, von denen man ‚zuvor‘ gesprochen hatte, ‚tatsächlich‘ eintreten. Mit der Feststellung, dass eine Geschichten über eine mögliche Zukunft ‚falsch‘ sei, ist es schwieriger. Nur wenn man einen klaren ‚zukünftigen Zeitpunkt‘ angeben kann, dann kann man entscheiden, dass z.B. das Flugzeug oder der Zug zum prognostizierten Zeitpunkt ’nicht angekommen‘ ist.

Über Zukunft reden

Schon die Alltagsbeispiele zeigen, dass das Reden von einem ‚möglichen Zustand in der Zukunft‘ verschiedene Voraussetzungen erfüllen muss, damit dieses Sprachspiel funktioniert:

  1. Fähigkeit, zwischen einer ‚erinnerbaren Vergangenheit‘, einem ‚aktuellen Gedanken über einen möglichen zukünftigen Zustand‘, und einer ’neuen Gegenwart‘ unterscheiden zu können, so, dass entschieden werden kann, dass eine ’neue Gegenwart‘ mit dem zuvor gefassten ‚Gedanken über einen möglichen zukünftigen Zustand‘ hinreichend viele ‚Ähnlichkeiten‘ aufweist.
  2. Verschiedene Akteure müssen sowohl über Kenntnisse der ‚Ausdrücke‘ einer ‚gleichen Sprache‘ verfügen, und zugleich müssen sie über ‚hinreichend ähnliche Bedeutungen‘ in ihren Gehirnen verfügen, die sie ‚auf hinreichend ähnliche Weise‘ mit den benutzten Ausdrücken ‚verbinden‘.
  3. Für den Bereich der ‚bekannten Bedeutungen‘ im Gehirn muss die Fähigkeit verfügbar sein, diese in ’neuen Anordnungen‘ so zu denken, dass diese neuen Anordnungen als Bedeutungen für ein Reden über ‚mögliche neue Zustände verfügbar‘ sind. Menschen, die so etwas können, nennt man ‚kreativ‘, ‚fantasievoll‘, ‚innovativ‘.

Dieses sind allgemeine und für alle Menschen notwendige Voraussetzungen. Die Kulturgeschichte der Menschheit zeigt aber eindrücklich, dass das ‚Erzählen von möglicher Zukunft‘ bis zum Beginn der modernen empirischen Wissenschaften sich jede Freiheit genommen hate, die sprachlich möglich ist. Dies machte den Umgang mit ‚wahren Prognosen‘ zu einer Art Glücksspiel. Eine Situation, die speziell für jene , die ‚mehr Macht haben‘ sehr günstig war: sie konnten die ‚vage Zukunft‘ sehr freizügig immer zu ihren Gunsten auslegen; keiner konnte klar widersprechen.

Empirische Wissenschaften – Bessere Prognosen

Mit dem Aufkommen der neueren empirischen Wissenschaften (beginnend ab ca. dem 15.Jahrhundert) wendete sich das Blatt ein wenig, da das ‚Reden über einen möglichen zukünftigen Zustand‘ jetzt stärker ’normiert‘ wurde. Von heute aus betrachtet mag diese Normierung einigen (vielen?) vielleicht ‚zu eng‘ erscheinen, aber als ‚Start‘ in ein Phase von ‚Prognosen mit größerer Zuverlässigkeit‘ war diese Normierung faktisch ein großer kultureller Fortschritt. Diese neue ‚Normierung‘ umfasste folgende Elemente:

  1. Als ‚akzeptierte Fakten‘ wurden nur solche ’sprachlichen Ausdrücke‘ anerkannt, die sich mittels eines von jedem ‚wiederholbaren Experiments‘ (klar definierte Handlungsfolgen) auf ‚für alle Beteiligte beobachtbare Phänomene‘ beziehen lassen (z.B. die ‚Länge eines Gegenstandes mit einem vereinbarten Längenmaß‘ feststellen; das ‚Gewicht eines Gegenstandes mit einem vereinbarten Gewichtskörper‘ feststellen; usw.). Ausdrücke, die auf diese Weise gemeinsam benutzt werden, heißen gewöhnlich ‚Messwerte‘, die in ‚Tatsachenbehauptungen‘ eingebettet werden (z.B. ‚Die Tischkante dort ist 2 m lang‘, ‚Gestern bei höchstem Sonnenstand wog dieser Beutel 1.5 kg‘, usw.).
  2. Tatsachenbehauptungen waren von da ab leichter ‚klassifizierbar‘ im Sinne von ‚zutreffend (wahr)‘ oder ’nicht zutreffend (falsch)‘ als ohne diese Normierungen. Mit der Einführung solcher ’normierter Beobachtungen‘ wurden implizit auch ‚Zahlen‘ eingeführt, was zu dem führte, was man heute auch ‚Quantifizieren‘ nennt. Statt alltagssprachlicher Ausdrücke wie ‚lang‘, ‚groß‘, ’schwer‘ usw. zu benutzen, deren Bedeutung im Alltag immer nur ‚fallweise kontextualisiert‘ wird (eigentlich die große Stärke der normalen Sprache), wurde mit der Quantifizierung mittels Zahlen und vereinbarten ‚Standard Größen‘ (heute oft ‚Einheiten‘ genannt) die gewohnte Vagheit der Normalsprache durch eine neue, ungewohnte Konkretheit ersetzt. Die Ersetzung von normalsprachlicher Flexibilität durch vereinbarte Konkretheit erlaubte dann — wie sich immer mehr zeigte — eine ganz neue Qualität in der Beschreibung von ‚messbaren Phänomenen‘ und deren ‚Verhalten in der Zeit‘.[4]
  3. Das Werk ‚Philosophiae Naturalis Principia Mathematica‘ (erstmals 1689, Latein) von Isaac Newton gilt als erste große Demonstration der Leistungsfähigkeit dieses normierten Vorgehens (nach berühmten Vorläufern wie z.B.. Galilei und Kepler). Dazu kommt, dass die quantifizierten Tatsachenbehauptungen in ‚Zusammenhänge‘ eingebracht werden, in denen in Form von ‚Lehrsätzen‘ (oft auch Axiome genannt)‘ so etwas wie ‚Wirkzusammenhänge‘ beschrieben werden, die quantifizierte Ausdrücke benutzen.
  4. Im Zusammenwirken von quantifizierten Beobachtungen mit quantifizierten Wirkzusammenhängen lassen sich dann vergleichsweise genaue ‚Folgerungen‘ ‚ableiten‘, deren ‚Zutreffen‘ sich in der beobachtbaren Welt als ‚quantifizierte Prognosen‘ besser überprüfen lässt als ohne solche Quantifizierungen.
  5. Ein solches quantifizierendes Vorgehen setzt voraus, dass man die Ausdrücke der normalen Sprache um Ausdrücke einer ‚formalen Sprache‘ ‚erweitert‘. Im Fall von Newton waren diese formalen Ausdrücke jene der damaligen Mathematik.
  6. Interessant ist, dass Newton noch nicht über einen ‚formalen Folgerungsbegriff‘ verfügte, wie er dann Ende des 19.Jahrhunderts, Anfang des 20.Jahrhunderts durch die moderne Logik eingeführt wurde, einhergehend mit einer weiteren Formalisierung der Mathematik durch explizite Einbeziehung eines meta-mathematischen Standpunkts.

Der ‚Elefant im Raum‘

Es gibt Gesprächszusammenhänge, von denen sagt man, dass vom ‚Elefant im Raum‘ nicht gesprochen wird; also: es gibt ein Problem, das ist relevant, aber keiner spricht es aus.

Wenn man den Text zur positiven Vision zum Jahr 2062 liest, kann man solch einen ‚Elefanten im Raum‘ bemerken.

Ausgangslage im Alltag

Man muss sich dazu das Folgende vergegenwärtigen: Ausgangslage ist die Welt im Jahr 2021, in der die Menschheit global wirksam Verhaltensweisen zeigt, die u.a. zur Zerstörung der Biodiversität in einem Ausmaß führen, welche u.a. die Atmosphäre so verändern, dass das Klima schrittweise das bisher bekannte Leben dramatisch bedroht. Die u.a. CO2-Abhängigkeit der Klimaveränderung führt zu notwendigen Kurskorrekturen in der Art der Energiegewinnung, was wiederum phasenweise zu einem Energieproblem führt; gleichzeitig gibt es ein Wasserproblem, ein Ernährungsproblem, ein Migrationsproblem, ein …

Das Bündel dieser Probleme und seiner globalen Auswirkungen könnte größer kaum sein.

Von ‚außen‘ betrachtet — eine fiktive Sicht, die sich natürlich vom allgemein herrschenden ‚Zeitgeist‘ nicht wirklich abkoppeln kann — gehen alle diese wahrnehmbaren ‚Wirkungen‘ zurück auf ‚Wirkzusammenhänge‘, die durch das ‚Handeln von Menschen‘ so beeinflusst wurden, dass es genau zu diesen aktuellen globalen Ereignissen gekommen ist.

Das ‚Handeln‘ von Menschen wird aber — das können wir im Jahr 2022 wissen — von ‚inneren Zuständen‘ der handelnden Menschen geleitet, von ihren Bedürfnissen, Emotionen, und von den ‚Bildern der Welt‘, die zum Zeitpunkt des Handelns in ihren Köpfen vorhanden und wirksam sind.

Die ‚Bilder von der Welt‘ — teilweise bewusst, weitgehend unbewusst — repräsentieren das ‚Wissen‘ und die ‚Erfahrungen‘ der Handelnden. Dieses Wissen projiziert ‚Vorstellungen‘ in die umgebende Welt (die Menschen sind Teil dieser Welt!), die ‚zutreffend sein können, dieses aber zumeist nicht sind. Wenn sich ein Mensch entscheidet, seinen Vorstellungen zu folgen, dann hätten wir den Fall eines ‚wissensbasierten (rationalen) Handelns‘, das so gut ist, wie das Wissen zutreffend ist. Tatsächlich aber entscheidet sich jeder Mensch fast ausschließlich — meist unbewusst — nach seinem ‚Gefühl‘! Im Jahr 2022 gehört es zum Alltag, dass Menschen — der Bildungsgrad ist egal (!) — in einer Situation völlig ‚konträre Meinungen‘ haben können trotz gleicher Informationsmöglichkeiten. Unabhängig vom ‚Wissen‘ akzeptiert der eine Mensch die Informationsquellen A und lehnt die Informationsquellen B ab als ‚falsch‘; der andere Mensch macht es genau umgekehrt. Ferner gilt in sehr vielen (allen?) Entscheidungssituationen, dass die Auswahl der nachfolgenden Handlungen nicht von den ‚wissbaren Optionen‘ abhängt, sondern von der emotionalen Ausgangslage der beteiligten Personen, die sehr oft (meistens?) entweder bewusst nicht kommuniziert werden oder aber — da weitgehend unbewusst — nicht explizit kommuniziert werden können.

Dazu kommt, dass globale Wirkungen nur durch ein ‚globales Handeln‘ erreicht werden können, das entsprechend ‚koordiniert‘ sein muss zwischen allen Beteiligten. Koordinierung setzt ‚Kommunikation‘ voraus, und Kommunikation funktioniert nur, wenn die ‚kommunizierten Inhalte (= Wissen)‘ sowohl hinreichend ‚ähnlich‘ sind und zugleich ‚zutreffend‘. Die Wirklichkeit des Jahres 2021 (und nachfolgend) demonstriert allerdings, dass schon alltäglich zwei Menschen Probleme haben können, zu einer ‚gemeinsamen Sicht‘ zu kommen, erst recht dann, wenn ihre ‚individuellen Interessen‘ auseinander laufen. Was nützt es dem einen, zu wissen, dass es in den Alpen wunderbare Wanderwege gibt, wenn der andere absolut nicht wandern will? Was nützt es dem einen, wenn er bauen will und die Gemeinde einfach kein neues Bauland ausweist? Was nützt es betroffenen Bürgern, wenn die Bürgermeisterin partout ein neues Unternehmen ansiedeln will, weil es kurzfristig Geldeinnahmen gibt, und sie die nachfolgenden Probleme gerne übersieht, weil zuvor ihre Amtszeit endet? …

Kurzum, es ist nicht das ‚Wissen alleine‘, was ein bestimmtes zukünftiges Verhalten ermöglicht (wobei Wissen tendenziell sowieso ’nie ganz richtig ist‘), sondern auch — und vor allem — sind es die aktiven Emotionen in den Beteiligten.

Was heißt dies für die positive Zukunftsversion für 2062 im Text von Glaubrecht?

Erste Umrisse des Elefanten

Auf den Seiten 881 – 908 finden wir Formulierungen wie: „es kam zu einem tiefgehenden Bewusstseinswandel“ (881), „Immer mehr Menschen wurde klar“ (882), „Klar war aber auch, dass“, „guter Wille allein reichte da nicht… auch zivilgesellschaftliches Handeln musste erst intensiv erarbeitet werden„, „weil die Industrieländern … zu Vorbildern wurden“ (883), „Erst als die Überbevölkerung endlich zum wichtigsten Thema gemacht wurde, erfolgte der Durchbruch“ (884), „dass der Mensch in der ganz großen Gruppe ein gemeinsames Ziel erreichen kann“ (906), „Das Artensterben bietet allenfalls ein diffuses Ziel“ (908)

Diese ‚Fragmente‘ der Lösungsvision deuten an, dass

  1. ‚Bewusstseinswandel‘ und ‚Klarheit im Verstehen‘ wichtige Komponenten zu sein scheinen
  2. ‚Individuelles Wollen‘ alleine nicht ausreicht, um eine konstruktive globale Lösung zu ermöglichen
  3. ‚Überindividuelles (= zivilgesellschaftliches) Verhalten‘ ist nicht automatisch gegeben, sondern muss ‚gemeinsam erarbeitet werden‘
  4. Es braucht ‚globale Vorbilder‘ zur Orientierung (ob dies wirklich die Industrieländer sein können?)
  5. Die ‚Größe der Weltbevölkerung‘ ist ein wichtiger Faktor
  6. Der Faktor ‚Artensterben (Abnahme der Biodiversität)‘ ist für die meisten noch sehr ‚diffus‘
  7. Aus der Geschichte ist bekannt, dass Menschen gemeinsam große Dinge erreichen können.

Neben dem Wissen selbst — das ein Thema für sich ist — blitzen hier eine Reihe von ‚Randbedingungen‘ auf, die erfüllt sein müssen, damit es zu einer Lösung kommen kann. Ich formuliere diese wie folgt:

  1. Was immer ein einzelner weiß, fühlt, und will: ohne einen handlungswirksamen Zusammenschluss mit genügend vielen anderen Menschen wird es zu keiner spürbaren Veränderung im Verhalten von Menschen kommen.
  2. Das ‚zusammen mit anderen Handeln‘ muss ‚erlernt‘ und ‚trainiert‘ werden!
  3. Damit die vielen möglichen ‚Gruppen‘ in einer Region (auf der Erde) sich ’synchronisieren‘, braucht es ‚Leitbilder‘, die eine Mehrheit akzeptiert.
  4. Für alle Beteiligten muss erkennbar und erfahrbar sein, wie ein ‚Leitbild des gemeinsamen Handelns‘ sich zu den individuellen Bedürfnissen und Emotionen und Zielen verhält.
  5. Eine Zivilgesellschaft muss sich entscheiden, wo sie sich zwischen den beiden Polen ‚voll autokratisch‘ und ‚voll demokratisch‘ — mit vielen ‚Mischformen‘ — ansiedeln will. Die biologische Evolution deutet an, dass auf ‚lange Sicht‘ eine Kombination aus ‚radikaler Diversität‚ verbunden mit einem klaren ‚Leistungsprinzip‚ über lange Zeitstrecken hin leistungsfähig ist.
  6. Im Fall von menschlichen biologischen Systemen spiel ferner eine radikale ‚Transparenz‘ eine wichtige Rolle: Transparenz ’sich selbst‘ gegenüber wie auch ‚Transparenz untereinander‚: ohne Transparenz ist kein ‚effektives Lernen‘ möglich. Effektives Lernen ist die einzige Möglichkeit, das verfügbare Wissen in den Köpfen an die umgebende Realität (mit dem Menschen als Teil der Umgebung) ansatzweise ‚anzupassen‘.
  7. Damit Wissen wirksam sein kann, muss es eine ‚Form‚ haben, die es für alle Menschen möglich macht, (i) ‚jederzeit und überall‘ dieses Wissen zu nutzen und ‚dazu beitragen zu können‘, sowie (ii) erlaubt, ‚Prognosen‘ zu erstellen, die überprüft werden können.

Die wahre Herausforderung

Der ‚Elefant im Raum‘ scheint also der ‚Mensch selbst‘ zu sein. Die heutige Tendenz, immer und überall von ‚Digitalisierung‘ zu sprechen und in den Begriff ‚Künstliche Intelligenz‘ all jene Lösungen hinein zu projizieren, die wir noch nicht haben, ist ein weiteres Indiz dafür, dass der Mensch das ‚Verhältnis zu sich selbst‘ irgendwie nicht im Griff hat. Die kulturelle Erfahrung der letzten Jahrtausende, in vielen Bereichen heute deutlich ‚aufgehellt‘ durch empirische Wissenschaften, könnte uns entscheidend helfen, unser ‚eigenes Funktionieren‘ besser zu verstehen und unser individuelles wie gesellschaftliches Verhalten entsprechend zu organisieren. Das Problem ist weniger das Wissen — auch wenn dieses noch viel weiter entwickelt werden kann und entwickelt werden muss — als vielmehr unsere Scheu, die Motive von Entscheidungen und Verhalten transparent zu machen. Es reicht nicht, sogenannte ’sachliche Argumente‘ anzuführen (wenngleich sehr wichtig), es müssen zugleich auch die realen Interessen (und Ängste) auf den Tisch. Und wenn diese Interessen divergieren — was normal ist –, dann muss eine Lösung gefunden werden, die Interessen und Weltwissen (zusammen mit den bekannten Prognosen!) zu einem Ausgleich führt, der ein Handeln ermöglicht. Möglicherweise ist dies — auf längere Sicht — nur in eher demokratischen Kontexten möglich und nicht in autokratischen. Dies setzt aber in der Mehrheit der Bevölkerung einen bestimmten ‚Bildungsstand‘ voraus (was nicht nur ‚Wissen‘ meint, sondern z.B. auch die Fähigkeit, in diversen Teams transparent Probleme zu lösen).

Epilog

Vielleicht mag jemand nach der Lektüre dieses Textes den Eindruck haben, das Buch von Glaubrecht (hier wurde ja nur — im Teil 1 — die Einleitung und — im Teil 2 — der Schluss diskutiert!) würde hier kritisiert. Nein, das Buch ist großartig und ein wirkliches Muss. Aber gerade weil es großartig ist, lässt es Randbedingungen erkennen, die mindestens so wichtig sind wie das, was Glaubrecht mit dem Hauptthema ‚abnehmende Biodiversität‘ zur Kenntnis bringt.

Diese Randbedingungen — wir selbst mit unserer Art und Weise mit uns selbst und mit den anderen (und mit der übrigen Welt) umzugehen — sind gerade im Lichte der Biodiversität keine ‚Randbedingungen‘, sondern der entscheidende Faktor, warum es zur dramatischen Abnahme von Biodiversität kommt. Bei allen großartigen Errungenschaften ist der heutige Wissenschaftsbetrieb aktuell dabei, sich selbst zu ’neutralisieren‘, und die gesellschaftlichen Prozesse tendieren dazu, das Misstrauen untereinander immer weiter anzuheizen. Was wir brauchen ist möglicherweise eine wirkliche ‚Kulturrevolution‘, die ihren Kern in einer ‚Bildungsrevolution‘ hat. Fragt sich nur, wie diese beiden Revolutionen in Gang kommen können.[5]

KOMMENTARE

[1] Die Url lautet: https://www.cognitiveagent.org/2022/09/08/das-ende-der-evolution-von-matthias-glaubrecht2021-2019-lesenotizen/

[2] Ankündigung der Biodiversitätskonferenz Dezember 2022: https://www.unep.org/events/conference/un-biodiversity-conference-cop-15

[3] Joachim Radkau, 2017, Geschichte der Zukunft. Prognosen, Visionen, Irrungen in Deutschland von 1945 bis heute, Carl Hanser Verlag , eBook

[4] Es sei angemerkt, dass die Benutzung von ‚Zeitmarken‘ keinesfalls trivial ist. Abgesehen von dem ‚periodischen Ereignis‘, das für die Zeitmessung an einem bestimmten Ort benutzt wird, und dessen ‚Zuverlässigkeit‘ eigens geprüft werden muss, ist es eine wichtige Frage, wie sich zwei Zeitmessungen an verschiedenen Orten auf der Erde zueinander verhalten. Eine weltweit praktikable Lösung mit einer hinreichenden Genauigkeit gibt es erst ca. seit den 1990iger Jahren.

[5] Wenn im Epilog von einer notwendigen ‚Kulturrevolution‘ gesprochen wird, deren Kern eine ‚Bildungsrevolution‘ sein sollte, dann gibt es dazu eine Initiative Citizen Science 2.0, die — zumindest von der Intention her — genau auf solch eine neu sich formierende Zukunft abzielt. URL: https://www.oksimo.org/citizen-science-buergerwissenschaft/

Ein Überblick über alle Beiträge des Autors nach Titeln findet sich HIER.

POPPER: FRÜH – MITTEL – SPÄT. Empirische Theorie

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 13.März 2022 – 13.März, 11:11h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Kontext

Bei diesem Beitrag handelt es sich um die Fortsetzung des Diskurses zu den zuvor besprochenen Artikeln von Popper:  „A World of Propensities“ (1988, 1990),  „Towards an Evolutionary Theory of Knowledge“ (1989,1990)[1] sowie „All Life is Problem Solving“ (1991, 1994/1999). [2] Der Beitrag „(SPÄTER) POPPER – WISSENSCHAFT – PHILOSOPHIE – OKSIMO-DISKURSRAUM“ spielt hier keine Rolle. Es wird aber direkt Bezug genommen auf einen Text von Popper von 1971 „Conjectural Knowledge: My Solution of the Problem of Induction.“[3],[4] Dieser wurde in meinem Englischen Blog diskutiert „POPPER – Objective Knowledge (1971). Summary, Comments, how to develope further„.

Vorbemerkung

Die Begegnung des Autors mit Popper spielt sich in unterschiedlichen Etappen ab. Die erste Begegnung fand statt im März 2021 mit einer Diskussion der ersten 17 Kapitel von Popper’s Frühwerk „Logik der Forschung“ (1935), allerdings in der Englischen Fassung von 1959.[5] Diese erste Begegnung war eingebettet in eine größere Diskussion (mehrere längere Posts) zum Theoriebegriff und dem Zusammenhang mit dem oksimo Projekt.

In dieser ersten Begegnung wurde die Position Poppers vornehmlich wahrgenommen aus einer bestimmten, schon bestehenden wissenschaftsphilosophischen Perspektive, zusätzlich eingefärbt durch den Blick auf die Anwendbarkeit dieses Theoriebegriffs auf das oksimo Projekt. Wenngleich für den Autor in vielfacher Hinsicht sehr erhellend, kommt die Position Popper’s nicht so richtig zum Vorschein.

Erste die Lektüre von drei Beiträgen Popper’s aus der Zeit 1988 – 1991 führte zu einer neuen mehr Popper-zentrierten Wahrnehmung. In diesem Spannungsfeld von ‚frühem‘ Popper 1935/1959 und ’spätem‘ Popper 1988 – 1991 führte die Begegnung mit dem Text des ‚mittleren‘ Popper von 1971 zu einer sehr direkten Begegnung, die die Gedanken zu Popper weiter belebten.

Popper: Früh – Mittel – Spät

Die hier provisorisch vorgenommene Einordnung Poppers in einen ‚frühe‘, bzw. ‚mittleren‘ bzw. ’späten‘ Popper ist natürlich — gemessen an dem gesamten Werk Poppers ein bisschen gewagt. Dies entspricht aber letztlich dem Stil einer Theoriebildung im Sinne von Popper, in der — ausgehend von einzelnen Beobachtungen –, schrittweise Hypothesen gebildet werden, die dann versuchsweise angewendet werden. Im Scheitern bzw. in partiellen Bestätigungen entwickelt sich dann solch eine Theorie weiter. Eine ‚absolute Endform‘ wird sie nie haben, aber sie kann immer differenzierter werden, begleitet von immer stärkeren ‚Evidenzen‘, die allerdings ‚Wahrheit‘ niemals ersetzen können.

So also hier eine meine ‚Mini-Theorie‘ über Popper anhand von nur vier Artikeln und 17 Kapiteln aus einem Buch.

Bei meiner bisherigen Lektüre entsteht der Eindruck, dass die Strukturen des ‚frühen‘ (1935 – 1959) Popper denen des mittleren‘ (1971) Popper sehr ähnlich sind. Die Texte des ’späten‘ (1988 – 1991) Popper hingegen bringen einen starken neuen Akzent in die Überlegungen ein.

Wahrheit ohne Wahrheit

Ein Grundthema des frühen und mittleren Popper ist einerseits die starke Betonung, dass ‚Wahrheit‘ — zumindest als ‚regulative Idee‘ — unverzichtbar ist, soll empirische Wissenschaft stattfinden, andererseits aber sein unermüdliches Bemühen, darauf hinzuweisen, dass die Aussagen einer Theorie, selbst wenn sie sich eine lange Zeit ‚bewährt‘ haben, dennoch keine ‚absolute Wahrheit‘ widerspiegeln; sie können jederzeit widerlegt werden.[6] Diese Position führt ‚aus sich heraus‘ natürlich zu der Frage, was denn ‚Wahrheit als regulative Idee‘ ist bzw. zu der komplementären Frage, welchen ‚Status‘ dann jene Aussagen haben, auf die Theorieentwürfe aufbauen. Was ist eine ‚Beobachtungsausage‘ (Spezialfall ein ‚Messwert‘), die zum Ausgangspunkt von Theorien werden?

Poppers Prozessmodell von Wahrheit

Man kann Poppers Konzept einer objektiven (= ‚wahren‘) empirischen Theorie von ihren ‚Bestandteilen‘ her als ein ‚Prozessmodell‘ rekonstruieren, in dem sich — auf eine nicht wirklich geklärte Weise — beobachtungsgestützte Aussagen mit einem formalen Konzept von Logik ‚vereinen‘. Details dazu finden sich in einem Englischen Blogbeitrag des Autors.

Popper löst das Problem der notwendigen Wahrheit, die eigentlich nicht da ist, aber irgendwie dann doch, indem er in seinem 1971-Text [4] die einzelnen Aspekte dieses Wahrheitsbegriffs schildert und sie dann auf den letzten Seiten (29-31) wie in einem ‚Puzzle‘ zusammenfügt, allerdings so, dass viele Details offen bleiben.

Primären Halt in der empirischen Realität bieten Beobachtungssätze, die im Fall der Überprüfung einer Theorie, die Rolle von ‚Testsätzen‘ übernehmen. Die Theorie selbst besteht aus einer Ansammlung von ‚Hypothesen‘ (‚conjectures‘), in denen einzelne Beobachtungsaussagen zueinander in Beziehung gesetzt werden, die als solche natürlich nicht beobachtet (‚gemessen‘) werden können.[7]

Bei dem Übergang vom ‚Beobachtungswert‘ (‚Messwert‘) zur ‚Hypothese‘ finden aber unweigerlich ‚Verallgemeinerungen‘ statt [8], die dann sprachlich repräsentiert werden. Nur die ‚teilnehmenden‘ Beobachter wissen ‚implizit‘, auf welches konkrete Ereignis sie sich mit ihren sprachlichen Ausdrücken beziehen. Der Versuch der Wissenschaft, dieses Problem des ‚impliziten‘ (= subjektiven)‘ Wissens durch vereinbarte Messprozeduren aufzulösen, hilft nur partiell. Das Zustandekommen des Beobachtungsereignisses wird damit zwar ‚objektiviert‘, aber die ‚Übersetzung‘ dieses objektivierten Ereignisses, das als Wahrnehmungsphänomen bei den teilnehmden Beobachtern ‚ankommt‘, wird im Beobachter ‚unbewusst‘ zu einem Konzept verarbeitet, dass dann in einen sprachlichen Ausdruck transformiert wird, der dann als Beobachtungsaussage ‚funktioniert‘. Alle, die an diesem ‚Spiel‘ [9] teilnehmen, wissen, wie sie sich verhalten sollen. Ein ‚Außenstehender‘ versteht es nicht automatisch.

Anders betrachtet, selbst objektivierenden Beobachtungsprozesse klammern die subjektvie Komponenten nicht völlig aus.

Hat man verallgemeinernde Beobachtungsaussagen („Der Main-Kinzig Kreis hat 2018 418.950 Einwohner.“, „Dieser Stein wiegt 4.5 kg.“, „Das Wasser hat eine Temperatur von 13 Grad Celsius.“) , dann kann man auf dieser Basis versuchen, Hypothesen zu bilden (z.B. bzgl. des Aspektes möglicher Veränderungen wie Einwohnerzahl, Länge, Temperatur). Im Fall der Einwohnerzahl bräuchte man dann z.B. Beobachtungen zu mindestens zwei verschiedenen Zeitpunkten‘ (2018, 2019)[14], um aus der ‚Differenz‘ Hinweise ‚abzuleiten‘, welches Ausmaß ein ‚Wachstumsfaktor‘ haben könnte. Im Fall des Main-Kinzig Kreises wird für diesen Zeitraum z.B. ein Wachstumsfaktor von 0.4% ermittelt.

Wie ist solch ein ‚abgeleiteter Wachstumsfaktor‘ einzuordnen? Er beschreibt eine ‚abgeleitete‘ Größe, mit der man eine Formel bilden könnte wie ‚Die Einwohnerzahl im Jahr t+1 = Einwohnerzahl im Jahr t + (Einwohnerzahl im Jahr t * Wachstumsfaktor). Dies ist eine Rechenanweisung, die mit beobachteten Größen (Einwohnerzahl) und daraus abgeleiteten mathematischen Eigenschaften (Wachstumsfaktor) eine ‚Voraussage‘ berechnen lässt, wie die Einwohnerzahl in nachfolgenden Jahren aussehen [14] würde, wenn der Wachstumsfaktor sich nicht verändern würde.

Klar ist, dass solch ein sprachlicher Ausdruck seine Bedeutung aus dem ‚Bedeutungswissen‘ der Teilnehmer bezieht. Der Ausdruck selbst ist nichts anderes als eine Menge von Zeichen, linear angeordnet. Also auch hier eine fundamentale ’subjektive Dimension‘ als Voraussetzung für ein ‚objektives Agieren‘.

Diese Aspekte sprachlicher Bedeutung und deren Verankerung in der inneren Struktur der Beobachter und Theoriebauer [10] diskutiert Popper nicht explizit. Wohl postuliert er eine ‚Logik‘, die die ‚Herleitung‘ von Prognosen aus den theoretischen Annahmen beschreiben soll.

Die moderne formale Logik hat viele wunderbare Eigenschaften, aber eines hat sie nicht: irgendeinen Bezug zu irgendeiner Bedeutung‘. In einem formalen Logikkalkül [11] gibt es eine Menge von formalen Ausdrücken, die als ‚Annahmen‘ funktionieren sollen, und das einzige, was man von diesen wissen muss, ist, ob sie als ‚wahr‘ eingestuft werden (was bei Annahmen der Fall ist). Was mit ‚wahr inhaltlich gemeint ist, ist aber völlig unbestimmt, zumal formale Ausdrücke als solche keine Bedeutung haben. Wenn es eine Bedeutung geben soll, dann muss man die formalen Ausdrücke an die ’subjektive Bedeutungsdimension der Teilnehmer‘ knüpfen, die nach Bedarf spezielle Messverfahren zu Hilfe nehmen.

Angenommen, man hat die ‚formalisierten Ausdrücke‘ mit den verallgemeinerten Aussagen der Hypothesen verknüpft [12] und man nutzt die Logik, um ‚Ableitungen‘ zu machen, die zu ‚Prognosen‘ führen[13], dann stellt sich das Problem, wie man das Verhältnis einer ‚abgeleiteten‘ Aussage zu einer ‚Beobachtungsaussage‘ bestimmten soll. Popper benutzt hier zwar Klassifikationen wie ‚bestätigend‘, ’nicht bestätigend‘, ‚falsifiziert‘, aber eine Diskussion im Detail zu „A bestätigt B“/ „A bestätigt B nicht“/ „A falsifiziert B“ scheitert an vielen ungeklärten Details und Randbedingungen, die im vorausgehenden Text nur angedeutet werden konnten.

Der Diskurs geht weiter.

Kommentare

[1] Karl Popper, „A World of Propensities“,(1988) sowie „Towards an Evolutionary Theory of Knowledge“, (1989) in: Karl Popper, „A World of Propensities“, Thoemmes Press, Bristol, (1990, repr. 1995)

[2] Karl Popper, „All Life is Problem Solving“, Artikel, ursprünglich ein Vortrag 1991 auf Deutsch, erstmalig publiziert in dem Buch (auf Deutsch) „Alles Leben ist Problemlösen“ (1994), dann in dem Buch (auf Englisch) „All Life is Problem Solving“, 1999, Routledge, Taylor & Francis Group, London – New York

[3] Karl R.Popper, Conjectural Knowledge: My Solution of the Problem of Induction, in: [2], pp.1-31

[4] Karl R.Popper, Objective Knowledge. An Evolutionary Approach, Oxford University Press, London, 1972 (reprint with corrections 1973)

[5] Karl Popper, The Logic of Scientific Discovery, First published 1935 in German as Logik der Forschung, then 1959 in English by  Basic Books, New York (more editions have been published  later; I am using the eBook version of Routledge (2002))

[6] Popper verweist hier gerne und häufig auf die Geschichte der Physik mit den unterschiedlichen Konzepten, wie man die Erde als Teil des Sonnensystems und dann später das ganzen Universums beschrieben hat bzw. heute beschreibt. Hauptbeispiel: Newtons System, das dann mit immer neuen Beobachtungen und dann schließlich mit Einsteins Relativitätstheorie als ‚zu eng‘ klassifiziert wurde.

[7] ‚Beziehungen‘ existieren ausschließlich in unserem ‚Denken‘ (das alte Hume Problem, das Kant schon zu lösen versuchte, und das Popper in seinen Texten wieder und wieder aufgreift). Wenn wir diese ‚gedachten Beziehungen‘ in die beobachtbaren Einzelereignisse (Zeit, Ort, Beobachter) ‚hinein-sehen‘, dann ist dies der Versuch, zu ‚prüfen‘, ob diese Beziehung sich ‚bestätigen‘ oder ‚widerlegen‘ lässt. Anmerkung: die moderne expermentelle Psychologie (auch als Neuropsychologie) hat diese Sachverhalte extensiv untersucht und mit neuen Evidenzen versehen.

[8] Wie die Alltagssprache zeigt — und die moderne Wissenschaft bestätigt –, werden konkrete empirische Phänomene immer abstrakten Konzepten zugeordnet, die dann mit Allgemeinbegriffen verknüpft werden. Ob ein konkretes Wahrnehmungsereignis zu einem abstrakten Konzept X (z.B. ‚Tasse‘) oder Y (z.B. ‚Glas‘) gehört, das entscheidet das Gehirn unbewusst (Menschen können nur entscheiden, welche sprachlichen Ausdrücke sie verwenden wollen, um die kognitven Konzepte zu ‚benennen‘).

[9] … erinnert an das Sprachspielkonzept des späten Wittgenstein …

[10] Manche glauben heute, dass die Rolle des ‚Beoachters‘ und/oder des ‚Theoriebauers‘ von ‚intelligenten Programmen‘ übernommen werden können. In ‚Kooperation mit Menschen‘ im Rahmen eines modernen Konzepts von ‚kollektiver Intelligenz‘ kann es funktionieren, aber nur in Kooperation.

[11] Es gibt nicht nur ‚einen‘ Logikkalkül, sondern — rein formal — nahezu unendliche viele. Welcher für welche Aufgabenstellung ‚geeignet‘ ist, muss im Rahmen einer konkreten Aufgabe ermittelt werden.

[12] In der Wisenschaftsphilosophie ist dies bis heute noch nicht so gelöst, dass es dazu ein allgemein akzeptiertes Verfahren gibt.

[13] Da es viele verschiedene Ableitungsbegriffe gibt, von denen bis heute kein einziger meta-theoretisch für bestimmte empirische Bereich als ‚zuverlässig im Sinne eines Kriteriums K‘ erwiesen wurde, ist die lose Bezugnahme auf einen solchen Ableitungsbegriff eigentlich zu wenig.

[14] An dieser Stelle wird deutlich, dass das Beobachten wie auch dann die Auswertung von einer ‚Menge‘ von Beobachtungswerten in unserer Körperwelt ein ‚Zeitmodell‘ voraussetzt, in dem Ereignisse ein ‚vorher‘ und ’nachher‘ haben, so dass das Konzept einer ‚Prognose’/ ‚Voraussage‘ überhaupt Sinn macht.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

WISSENSCHAFT IM ALLTAG. Popper 1988/1990

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 16.-17.Februar 2022, 18:00h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Vorbemerkung

In einer Welt voller Bücher — gefühlt: unendlich viele Bücher — ist kaum voraussagbar, welches Buch man im Februar 2022 lesen wird. Dass es dann das Büchlein ‚A World of Propensities‘ (1990 (reprint 1995))[2a] von Karl Popper [1] sein würde, hing von einem ganzen Bündel von Faktoren ab, von denen jeder für sich ‚eine Rolle‘ spielte, aber dass es dann zu diesem konkreten Buch zu diesem konkreten Zeitpunkt gekommen ist, war aus Sicht der einzelnen Faktoren nicht direkt ableitbar. Auch das ‚Zusammenspiel‘ der verschiedenen Faktoren war letztlich nicht voraussagbar. Aber es ist passiert.

Im Rahmen meiner Theoriebildung für das oksimo-Paradigma (einschließlich der oksimo-Software)[4] Hatte ich schon viele Posts zur möglichen/ notwendigen Theorie für das oksimo-Paradigma in verschiedenen Blocks geschrieben [3a], sogar einige zum frühen Popper [3b], aber mir scheint, so richtig bin ich mit der Position von Popper in seiner ‚Logik der Forschung‘ von 1934 bzw. dann mit der späteren Englischen Ausgabe ‚The Logic of Scientific Discovery‘ (1959)[2b] noch nicht klar gekommen.

Im Frühjahr 2022 war es eine seltene Mischung aus vielerlei Faktoren, die mich über den Umweg der Lektüre von Ulanowizc [5], und zwar seines Buches „Ecology: The Ascendant Perspective“ (1997), auf den späten Popper aufmerksam machten. Ulanowizc erwähnt Popper mehrfach an prominenter Stelle, und zwar speziell Poppers Büchlein über Propensities. Da dieses schmale Buch mittlerweile vergriffen ist, kam ich dann nur durch die freundliche Unterstützung [6b] der Karl Popper Sammlung der Universität Klagenfurt [6a] zu einer Einsicht in den Text.

Der nachfolgende Text beschäftigt sich mit dem ersten der beiden Aufsätze die sich in dem Büchlein finden: „A World of Propensities: Two New Views of Causality“.[7][*]

Wahrscheinlichkeit, Wahrheit, Hypothese, Bekräftigung, … Vorgeplänkel

In seiner Einleitung im Text erinnert Popper an frühere Begegnungen mit Mitgliedern des Wiener Kreises [1b] und die Gespräche zu Theme wie ‚absolute Theorie der Wahrheit‘, ‚Wahrheit und Sicherheit‘, ‚Wahrscheinlichkeitsbasierte Induktion‘, ‚Theorie der Wahrscheinlichkeit‘ sowie ‚Grad der Bekräftigung einer Wahrscheinlichkeit‘.

Während er sich mit Rudolf Carnap 1935 noch einig wähnte in der Unterscheidung von einer Wahrscheinlichkeit im Sinne einer Wahrscheinlichkeitstheorie und einem ‚Grad der Bestätigung‘ (‚degree of confirmation‘) , war er sehr überrascht — und auch enttäuscht — 1950 in einem Buch von Carnap [8], [8b] zu lesen, dass für Carnap dies alles das Gleiche sei: mathematische Wahrscheinlichkeit und empirische Bestätigung eines Ereignisses. Hatte Carnap mit dieser Veränderung seiner Auffassung auch die Position einer ‚Absolutheit der Wahrheit‘ verlassen, die für Popper 1935 immer noch wichtig war? Und selbst in der Rede von 1988 hält Popper das Postulat von der Absolutheit der Wahrheit hoch, sich dabei auf Aristoteles [9], Alfred Tarski [10] und Kurt Gödel [11] beziehend (S.5f).

In einer Welt mit einem endlichen Gehirn, in einem endlichen Körper (bestehend aus ca. 36 Billionen Zellen (10^12)[12], in einer Welt von nicht-abzählbar vielen realen Ereignissen, war mir nie klar, woran (der frühe) Popper (und auch andere) die Position einer ‚absoluten Wahrheit‘ fest machen konnten/ können. Dass wir mit unserem endlichen – und doch komplexen, nicht-linearem — Gehirn von ‚Konkretheiten‘ ‚abstrahieren‘ können, Begriffe mit ‚offenen Bedeutungen‘ bilden und diese im Kontext der Rede/ eines Textes zu Aussagen über Aspekte der Welt benutzen können, das zeigt jeder Augenblick in unserem Alltag (ein für sich außergewöhnliches Ereignis), aber ‚absolute Wahrheit‘ … was kann das sein? Wie soll man ‚absolute Wahrheit‘ definieren?

Popper sagt, dass wir — und wenn wir uns noch so anstrengen — in unserem „Ergebnis nicht sicher“ sein können, das Ergebnis kann sogar „nicht einmal wahr“ sein.(vgl. S.6) Und wenn man sich dann fragt, was dann noch bleibt außer Unsicherheit und fehlender Wahrheit, dann erwähnt er den Sachverhalt, dass man von seinen „Fehlern“ auf eine Weise „lernen“ kann, dass ein „mutmaßliches (‚conjectural‘) Wissen“ entsteht, das man „testen“ kann.(vgl. S.6) Aber selbst dann, wenn man das Wissen testen kann, sind diese Ergebnisse nach Popper „nicht sicher“; obwohl sie „vielleicht wahr“ sind, diese Wahrheit aber ist damit dennoch „nicht endgültig bestätigt (‚established‘)“. Und er sagt sogar: „Selbst wenn sie [ergänzt: die Ergebnisse] sich als nicht wahr erweisen, … eröffnen sie den Weg zu noch besseren [ergänzt: Ergebnissen].“ (S.6)

Diese ‚changierende Sprechweise‘ über ‚wahre Ergebnisse‘ umschreibt das Spannungsfeld zwischen ‚absoluten Wahrheit‘ — die Popper postuliert — und jenen konkreten Sachverhalten, die wir im Alltag zu ‚Zusammenhängen (Hypothesen)‘ verdichten können, in denen wir einzelne Ereignisse ‚zusammen bringen‘ mit der ‚Vermutung‘, dass sie auf eine nicht ganz zufällige Weise zusammen gehören. Und, ja, diese unsere alltägliche Vermutungen (Hypothesen) können sich ‚alltäglich bestätigen‘ (wir empfinden dies so) oder auch nicht (dies kann Zweifel wecken, ob es ‚tatsächlich so ist‘).(vgl. S.6)

Das Maximum dessen, was wir — nach Popper — in der alltäglichen Erkenntnis erreichen können, ist das Nicht-Eintreten einer Enttäuschung einer Vermutung (Erwartung, Hypothese). Wir können dann „hoffen“, dass die Hypothese „wahr ist“, aber sie könnte sich dann beim nächsten Test vielleicht doch noch als „falsch“ erweisen. (vgl. S.6)

In all diesen Aussagen, dass ein Ergebnis ’noch nicht als wahr erwiesen wurde‘ fungiert der Begriff der ‚Wahrheit‘ als ein ‚Bezugspunkt‘, anhand dessen man eine vorliegende Aussage ‚vergleichen‘ kann und mit diesem Vergleich dann zum Ergebnis kommen kann, dass eine vorliegende Aussage ‚verglichen mit einer wahren Aussage‘ nicht wahr ist.

Messen als Vergleichen ist in der Wissenschaft der Goldstandard, aber auch im ganz normalen Alltag. Wo aber findet sich der Vergleichspunkt ‚wahr Aussage‘ anhand dessen eine konkrete Aussage als ’nicht dem Standard entsprechend‘ klassifiziert werden kann?

Zur Erinnerung: es geht jetzt hier offensichtlich nicht um einfache ‚Sachverhaltsfeststellungen‘ der Art ‚Es regnet‘, ‚Es ist heiß‘, ‚Der Wein schmeckt gut‘ …, sondern es geht um die Beschreibung von ‚Zusammenhängen‘ zwischen ‚isolierten, getrennten Ereignissen‘ der Art (i) ‚Die Sonne geht auf‘, (ii) ‚Es ist warm‘ oder ‚(i) ‚Es regnet‘, (ii) ‚Die Straße ist nass‘.

Wenn die Sonne aufgeht, kann es warm werden; im Winter, bei Kälte und einem kalten Wind kann man die mögliche Erwärmung dennoch nicht merken. Wenn es regnet dann ist die Straße normalerweise nass. Falls nicht, dann fragt man sich unwillkürlich, ob man vielleicht nur träumt?

Diese einfachen Beispiele deuten an, dass ‚Zusammenhänge‘ der Art (i)&(ii) mit einer gewissen Häufigkeit auftreten können, aber es keine letzte Sicherheit gibt, dass dies der Fall sein muss.

Wo kommt bei alldem ‚Wahrheit‘ vor?

‚Wahrheit an sich‘ ist schwer aufweisbar. Dass ein ‚Gedanke‘ ‚wahr‘ ist, kann man — wenn überhaupt — nur diskutieren, wenn jemand seinem Gedanken einen sprachlichen Ausdruck verleiht und der andere anhand des sprachlichen Ausdrucks (i) bei sich eine ‚Bedeutung aktivieren‘ kann und (ii) diese aktivierte Bedeutung dann entweder (ii.1) — schwacher Fall — innerhalb seines Wissens mit ‚anderen Teilen seines Wissens‘ ‚abgleichen‘ kann oder aber (ii.2) — starker Fall — seine ‚interne Bedeutung‘ mit einer Gegebenheit der umgebenden realen Ereigniswelt (die als ‚Wahrnehmung‘ verfügbar ist) vergleichen kann. In beiden Fällen kann der andere z.B. zu Ergebnissen kommen wie (a) ‚Ja, sehe ich auch so‘ oder (b) ‚Nein, sehe ich nicht so‘ oder (c) ‚Kann ich nicht entscheiden‘.

In diesen Beispielen wäre ‚Wahrheit‘ eine Eigenschaft, die der Beziehung zwischen einem sprachlichen Ausdruck mit seiner möglichen ‚Bedeutung‘ ‚zu etwas anderem‘ zukommt. Es geht in diesen Beispielen um eine dreistellige Beziehung: die beiden Größen (Ausdruck, gewusste Bedeutung) werden in Beziehung gesetzt zu (wahrgenommenem oder erinnertem oder gefolgertem Sachverhalt).[13]

‚Wahrgenommenes‘ resultiert aus Interaktionen unseres Körpers mit der umgebenden realen Ereigniswelt (wobei unsere Körper selbst ein Ereignis in der umgebenden realen Ereigniswelt ist).[14]

‚Bedeutungen‘ sind ‚gelernte Sachverhalte‘, die uns über unsere ‚Wahrnehmung‘ ‚bekannt geworden sind‘ und in der Folge davon möglicherweise auf eine schwer bestimmbare Weise in unser ‚Gedächtnis‘ übernommen wurden, aus dem Heraus wir sie auf eine ebenfalls schwer bestimmbaren Weise in einer ‚erinnerten Form‘ uns wiederholt wieder ‚bewusst machen können‘. Solche ‚wahrnehmbaren‘ und ‚erinnerbaren‘ Sachverhalte können von unserem ‚Denken‘ in schwer bestimmbarer Form eine spezifische ‚Bedeutungsbeziehung‘ mit Ausdrücken einer Sprache eingehen, welche wiederum nur über Wahrnehmung und Erinnern uns bekannt geworden sind.[15]

Aus all dem geht hervor, dass dem einzelnen Akteur mit seinen gelernten Ausdrücke und ihren gelernten Bedeutungen nur das ‚Ereignis der Wiederholung‘ bleibt, um einem zunächst ‚unbestimmt Gelerntem‘ eine irgendwie geartete ‚Qualifikation‘ von ‚kommt vor‘ zu verleihen. Kommt also etwas vor im Lichte von gelernten Erwartungen neigen wir dazu, zu sagen, ‚es trifft zu‘ und in diesem eingeschränkten Sinne sagen wir auch, dass ‚es wahr ist‘. Diese gelernten Wahrheiten sind ’notorisch fragil‘. Jene, die ‚im Laufe der Zeit‘ sich immer wieder ‚bewähren‘ gewinnen bei uns ein ‚höheres Vertrauen‘, sie haben eine ‚hohe Zuverlässigkeit‘, sind allerdings nie ganz sicher‘.

Zusätzlich erleben wir im Alltag das ständige Miteinander von ‚Konkretheiten‘ in der Wahrnehmung und ‚Allgemeinheiten‘ der sprachlichen Ausdrücke, eine ‚Allgemeinheit‘ die nicht ‚absolut‘ ist. sondern als ‚Offenheit für viel Konkretes‘ existiert. In der Sprache haben wir Unmengen von Worten wie ‚Tasse‘, ‚Stuhl‘, ‚Tisch‘, Hund‘ usw. die sich nicht nur auf ein einziges Konkretes beziehen, sondern auf — potentiell unendlich — viele konkrete Gegebenheiten. Dies liegt daran, dass es viele verschiedene konkrete Gegebenheiten gibt, die trotz Unterschiede auch Ähnlichkeiten aufweisen, die dann als ‚Tasse‘, ‚Stuhl‘ usw. bezeichnet werden. Unser Gehirn verfügt über ‚automatische (= unbewusste) Prozesse‘, die die Konkretheiten aus der Wahrnehmung in ‚Muster‘ transformieren, die dann als ‚Repräsentanten‘ von verschiedenen wahrgenommenen Konkretheiten fungieren können. Diese Repräsentanten sind dann das ‚Material der Bedeutung‘, mit denen sprachliche Ausdrücke — auch automatisch — verknüpft werden können.[15]

Unser ‚Denken‘ kann mit abstrakten Repräsentanten arbeiten, kann durch Benutzung von sprachlichen Ausdrücken Konstruktionen mit abstrakten Konzepten und Ausdrücken bilden, denen bedeutungsmäßig direkt nichts in der realen Ereigniswelt entsprechen muss bzw. auch nicht entsprechen kann. Logik [17] und Mathematik [18] sind bekannte Beispiele, wie man mit gedanklich abstrakten Konzepten und Strukturen ‚arbeiten‘ kann, ohne dass ein Bezug zur realen Ereigniswelt bestehe muss oder jemals bestehen wird. Innerhalb dieser Welt abstrakter Strukturen und abstrakter Ausdrücke kann es dann sogar in einem eingeschränkten Sinne ‚Wahrheit‘ als Übereinstimmung von abstrakten Ausdrücken, deren abstrakten Bedeutungen und den anderen gedachten abstrakten Strukturen geben, aber diese ‚abstrakten Wahrheiten‘ sind in keiner Weise auf die reale Ereigniswelt übertragbar. Für uns gibt es nur das Modell der Alltagssprache, die mit ihren ‚offenen abstrakten‘ Bedeutungen auf Konkretes Bezug nehmen kann und zwischen Gegenwart und Vergangenheit eine ‚gedachte Beziehung‘ herstellen kann, ebenso auch zwischen Vergangenem und Gegenwärtigem zu einer gedachten Zukunft. Inwieweit sich diese gedachten Beziehungen (Vermutungen, Hypothesen, …) dann in der realen Ereigniswelt bestätigen lassen, muss fallweise geprüft werden.

Die Welt der Wissenschaften erweckt den Eindruck, dass es mittlerweile eine große Zahl von solchen Hypothesen gibt, die allesamt als ‚weitgehend zuverlässig‘ angesehen werden, und aufgrund deren wir nicht nur unser bisheriges Wissen beständig ‚erweitern‘, sondern auch in einer Vielzahl von praktischen Anwendungen nutzen (Technologie, Landwirtschaft, Medizin, …).

Und an dieser Stelle greift Popper sehr weit aus, indem er diese für die Wissenschaften charakteristische „mutige, und abenteuerliche Weise des Theoretisierens“, ergänzt um „seriöse Tests“, im „biologischen Leben selbst“ am Werke sieht (vgl. S.7): die beobachtbare Entwicklung zu immer „höheren (‚higher‘) Formen“ des Lebens geschah/ geschieht durch Schaffung von „neuen Versuchen“ (‚trials‘), deren „Einbringung in die Realität“ (‚exposure‘), und dann das „Ausmerzen von Irrtümern“ (‚errors‘) durch „Testen“.(vgl. S.7) Mit dieser permanenten Kreativität neuer Lösungsansätze, deren Ausprobieren und dem daraus Lernen im Beseitigen von Fehlschlägen hat es nicht nur das biologische Leben als Ganzes geschafft, nach und nach die Welt quasi zu erobern, sondern in der Variante moderner empirischer Wissenschaft ist die Lebensform des Homo sapiens dabei, diese Eroberung auf neue Weise zu ergänzen. Während die biologische Evolution vor dem Homo sapiens primär um das nackte Überleben kämpfen musste, kann der Homo sapiens zusätzlich ‚reines Verstehen‘ praktizieren, das dann als ‚Werkzeug‘ zum Überleben beitragen kann. Für Popper ist ‚Verstehen‘ (‚understand‘) und ‚Lernen‘ (‚to learn more‘) das entscheidende Charakteristikum der Lebensform des Homo sapiens (als Teil des gesamten biologischen Lebens). Und in diesem Verstehensprojekt geht es um alles: um den ganzen Kosmos bis hin zum letzten Atom, um die Entstehung des Lebens überhaupt, um den ‚menschlichen Geist‘ (‚human mind‘) und die Art und Weise wie er stattfindet.(vgl. S.7)

Nach dieser ‚Einstimmung‘ wendet sich Popper dem speziellen Problem der Kausalität zu.

Kausalität – Ein wissenschaftliches Chamäleon

Der Begriff der ‚Kausalität‘ ist uns allen über den Alltag in vielfältigen Formen bekannt, ohne dass wir dazu gewöhnlich ein klares begriffliches Konzept entwickeln.

Geht es hingegen ‚um Etwas‘, z.B. um Geld, oder Macht, oder um eine gute Ernte, oder die Entwicklung einer Region, usw. , dann ist die Frage ‚Was was wie bewirkt‘ nicht mehr ganz egal. ‚Soll ich nun investieren oder nicht?‘ ‚Ist dieses Futter für die Tiere besser und auf Dauer bezahlbar oder nicht?‘ ‚Wird die neue Verkehrsregelung tatsächlich Lärm und CO2-Ausstoß reduzieren oder nicht?‘ ‚Ist Aufrüstung besser als Neutralität?‘ ‚Wird die Menge des jährlichen Plastikmülls die Nahrungsketten im Meer und damit viele davon abhängige Prozesse nachhaltig zerstören oder nicht?‘

Wenn Philosophen und Wissenschaftler von Kausalität sprechen meinten sie in der Vergangenheit meist viel speziellere Kontexte. So erwähnt Popper die mechanistischen Vorstellungen im Umfeld von Descartes; hier waren alle Ereignisse klar bestimmt, determiniert.(vgl. S.7) Mit der Entwicklung der Quantenmechanik — spätestens ab 1927 mit der Entdeckung des Unsicherheitsprinzips durch Werner Heisenberg [19], [19a] — wurde bewusst, dass die Ereignisse in der Natur keinesfalls vollständig klar und nicht vollständig determiniert sind. (vgl. S7f)

Damit trat eine inhärente Unsicherheit hervor, die nach einer neuen Lösung verlangte. Die große Zeit des Denkens in Wahrscheinlichkeiten begann.[20] Man kann das Denken in Wahrscheinlichkeiten grob in drei (vier) Sichtweisen unterscheiden: (i) In einer theoretischen — meist mathematischen — Sicht [21] definiert man sich abstrakte Strukturen, über die man verschiedene Operationen definieren kann, mit denen sich dann unterschiedliche Arten von Wahrscheinlichkeiten durchspielen lassen. Diese abstrakten (theoretischen) Wahrscheinlichkeiten haben per se nichts mit der realen Welt der Ereignisse zu tun. Tatsächlich erweisen sich aber viele rein theoretische Modelle als erstaunlich ’nützlich‘ bei der Interpretation realweltlicher Ereignisfolgen. (ii) In einer subjektivistischen Sicht [22] nimmt man subjektive Einschätzungen zum Ausgangspunkt , die man formalisieren kann, und die Einschätzungen zum möglichen Verhalten des jeweiligen Akteurs aufgrund seiner subjektiven Einschätzungen erlauben. Da subjektive Weltsichten meistens zumindest partiell unzutreffend sind, z.T. sogar überwiegend unzutreffend, sind subjektive Wahrscheinlichkeiten nur eingeschränkt brauchbar, um realweltliche Prozesse zu beschreiben.(iii) In einer (deskriptiv) empirischen Sicht betrachtet man reale Ereignisse, die im Kontext von Ereignisfolgen auftreten. Anhand von diversen Kriterien mit der ‚Häufigkeit‘ als Basisterm kann man die Ereignisse zu unterschiedlichen Mustern ‚gruppieren‘, ohne dass weitergehende Annahmen über mögliche Wirkzusammenhänge mit ‚auslösenden Konstellationen von realen Faktoren‘ getätigt werden. Nimmt man eine solche ‚deskriptive‘ Sicht aber zum Ausgangspunkt, um weitergehende Fragen nach möglichen realen Wirkzusammenhängen zu stellen, dann kommt man (iv) zu einer eher objektivistischen Sicht. [23] Hier sieht man in der Häufigkeiten von Ereignissen innerhalb von Ereignisfolgen mögliche Hinweise auf reale Konstellationen, die aufgrund ihrer inhärenten Eigenschaften diese Ereignisse verursachen, allerdings nicht ‚monokausal‘ sondern ‚multikausal‘ in einem nicht-deterministischem Sinne. Dies konstituiert die Kategorie ‚Nicht deterministisch und zugleich nicht rein zufällig‘.[24]

Wie der nachfolgende Text zeigen wird, findet man Popper bei der ‚objektivistischen Sicht‘ wieder. Er bezeichnet Ereignisse, die durch Häufigkeiten auffallen, als ‚Propensities‘, von mir übersetzt als ‚Tendenzen‘, was letztlich aber nur im Kontext der nachfolgenden Erläuterungen voll verständlich wird.

Popper sagt von sich, dass er nach vielen Jahren Auseinandersetzung mit der theoretischen (mathematischen) Sicht der Wahrscheinlichkeit (ca. ab 1921) (vgl. S.8f) zu dieser — seiner — Sicht gelangt ist, die er 1956 zum ersten Mal bekannt gemacht und seitdem kontinuierlich weiter entwickelt hat.[24]

Also, wenn man beobachtbare Häufigkeiten von Ereignissen nicht isoliert betrachtet (was sich angesichts des generellen Prozesscharakters aller realen Ereignisse eigentlich sowieso verbietet), dann kommt man wie Popper zu der Annahme, dass die beobachtete — überzufällige aber dennoch auch nicht deterministische — Häufigkeit die nachfolgende ‚Wirkung‘ einer realen Ausgangskonstellation von realen Faktoren sein muss, deren reale Beschaffenheit einen ‚Anlass‘ liefert, dass ‚etwas Bestimmtes passiert‘, was zu einem beobachtbaren Ereignis führt.(vgl. S.11f, dazu auch [25]) Dies schließt nicht aus, dass diese realen Wirkungen von spezifischen ‚Bedingungen‘ abhängig sein können, die erfüllt sein müssen, damit es zur Wirkung kommt. Jede dieser Bedingungen kann selbst eine ‚Wirkung‘ sein, die von anderen realen Faktoren abhängig ist, die wiederum bedingt sind, usw. Obwohl also ein ‚realer Wirkzusammenhang‘ vorliegen kann, der als solcher ‚klar‘ ist — möglicherweise sogar deterministisch — kann eine Vielzahl von ‚bedingenden Faktoren‘ das tatsächliche Auftreten der Wirkung so beeinflussen, dass eine ‚deterministische Wirkung‘ dennoch nicht als ‚deterministisch‘ auftritt.

Popper sieht in dieser realen Inhärenz von Wirkungen in auslösenden realen Faktoren eine bemerkenswerte Eigenschaft des realen Universums.(vgl. S.12) Sie würde direkt erklären, warum Häufigkeiten (Statistiken) überhaupt stabil bleiben können. (vgl. S.12). Mit dieser Interpretation bekommen Häufigkeiten einen objektiven Charakter. ‚Häufigkeiten‘ verwandeln sich in Indikatoren für ‚objektive Tendenzen‘ (‚propensities‘), die auf ‚reale Kräfte‘ verweisen, deren Wirksamkeit zu beobachtbaren Ereignissen führen.(vgl. S.12)

Die in der theoretischen Wahrscheinlichkeit verbreitete Charakterisierung von wahrscheinlichen Ereignissen auf einer Skala von ‚1‘ (passiert auf jeden Fall) bis ‚0‘ (passiert auf keinen Fall) deutet Popper für reale Tendenzen dann so um, dass alle Werte kleiner als 1 darauf hindeuten, dass es mehrere Faktoren gibt, die aufeinander einwirken, und dass der ‚Nettoeffekt‘ aller Einwirkungen dann zu einer realen Wirkung führt die kleiner als 1 ist, aber dennoch vorhanden ist; man kann ihr über Häufigkeiten sogar eine phasenweise Stabilität im Auftreten zuweisen, so lange sich die Konstellation der wechselwirkenden Faktoren nicht ändert.(vgl. S.13) Was hier aber wichtig ist — und Popper weist ausdrücklich darauf hin — die ‚realen Tendenzen‘ verweisen nicht auf einzelne konkrete, spezielle Eigenschaften inhärent in einem Objekt, sondern Tendenzen korrespondieren eher mit einer ‚Situation‘ (’situation‘), die als komplexe Gesamtheit bestimmte Tendenzen ‚zeigt‘.(vgl. SS.14-17) [26]

Schaut man nicht nur auf die Welt der Physik sonder lenkt den Blick auf den Alltag, in dem u.a. auch biologische Akteure auftreten, speziell auch Lebensformen vom Typ Homo sapiens, dann explodiert der Raum der möglichen Faktoren geradezu, die Einfluss auf den Gang der Dinge nehmen können. Nicht nur bildet der Körper als solcher beständig irgendwelche ‚Reize‘ aus, die auf den Akteur einwirken, sondern auch die Beschaffenheit der Situation wirkt in vielfältiger Weise. Insbesondere wirkt sich die erworbene Erfahrung, das erworbene Wissen samt seinen unterschiedlichen emotionalen Konnotationen auf die Art der Wahrnehmung aus, auf die Art der Bewertung des Wahrgenommenen und auf den Prozess möglicher Handlungsentscheidungen. Diese Prozesse können extrem labil sein, so dass Sie in jedem Moment abrupt geändert werden können. Und dies gilt nicht nur für einen einzelnen Homo sapiens Akteur, sondern natürlich auch für die vielen Gruppen, in denen ein Homo sapiens Akteur auftreten kann bzw. auftritt bzw. auftreten muss. Dieses Feuerwerk an sich wechselseitig beständig beeinflussenden Faktoren sprengt im Prinzip jede Art von Formalisierung oder formalisierter Berechnung. Wir Menschen selbst können dem ‚Inferno des Alles oder Nichts‘ im Alltag nur entkommen, wenn wir ‚Konventionen‘ einführen, ‚Regeln des Verhaltens‘, ‚Rollen definieren‘ usw. um das praktisch unberechenbare ‚Universum der alltäglichen Labilität‘ partiell zu ‚zähmen‘, für alltägliche Belange ‚berechenbar‘ zu machen.

Popper zieht aus dieser Beschaffenheit des Alltags den Schluss, das Indeterminismus und freier Wille zum Gegenstandsbereich und zum Erklärungsmodell der physikalischen und biologischen Wissenschaften gehören sollten.(vgl. S.17f)

Popper folgert aus einer solchen umfassenden Sicht von der Gültigkeit der Tendenzen-Annahme für vorkommende reale Ereignisse, dass die Zukunft nicht determiniert ist. Sie ist objektiv offen.(vgl. S.18)

Näher betrachtet ist die eigentliche zentrale Einsicht tatsächlich gar nicht die Möglichkeit, dass bestimmte Wirkzusammenhänge vielleicht tatsächlich determiniert sein könnten, sondern die Einsicht in eine durchgängige Beschaffenheit der uns umgebenden realen Ereigniswelt die sich – dies ist eine Hypothese! — durchgängig als eine Ansammlung von komplexen Situationen manifestiert, in denen mögliche unterscheidbare Faktoren niemals isoliert auftreten, sondern immer als ‚eingebettet‘ in eine ‚Nachbarschaften‘, so dass sowohl jeder Faktor selbst als auch die jeweiligen Auswirkungen dieses einen Faktors immer in kontinuierlichen Wechselwirkungen mit den Auswirkungen anderer Faktoren stehen. Dies bedeutet, dass nicht nur die starke Idealisierungen eines mechanistischen Weltbildes — auch eine Hypothese — als fragwürdig angesehen werden müssen, sondern auch die Idealisierung der Akteure zu einer ‚ Monade‘ [27],[27b], die die Welt letztlich nur ‚von sich aus‘ erlebt und gestaltet — eine andere Hypothese –.[27c]

Denkt man gemeinsam mit Popper weiter in die Richtung einer totalen Verflechtung aller Faktoren in einem kontinuierlich-realen Prozess, der sich in realen Tendenzen manifestiert (vgl. S.18f), dann sind alle üblichen endlichen, starren Konzepte in den empirischen Wissenschaften letztlich nicht mehr seriös anwendbar. Die ‚Zerstückelung‘ der Wirklichkeit in lauter einzelne, kleine, idealisierte Puzzle-Teile, wie sie bis heute Standard ist, führt sich relativ schnell ad absurdum. Die übliche Behauptung, auf andere Weise könne man eben nichts Verwertbares Erkennen, läuft beständig Gefahr, auf diese Weise die reale Problematik der konkreten Forschungspraxis deutlich zu überdehnen, nur weil man in der Tat Schwierigkeiten hat, die vorfindliche Komplexität ‚irgendwie experimentell nachvollziehbar‘ zu rekonstruieren.

Popper dehnt seine Beispiele für die Anwendbarkeit einer objektivistischen Sicht von realen Tendenzen weiterhin aus auf die Chemie (vgl. S.19f) und auf die Evolution des Lebens. (vgl. S.20) Und auch wenn er zuvor sagte, dass die Zukunft objektiv offen sei, so ist sie dennoch in der realen Gegenwart implizit gegenwärtig in den Aktivitäten der vorhandenen realen Faktoren.(vgl. S.20) Anders formuliert, jede Zukunft entscheidet sich immer jetzt, in der Gegenwart, auch wenn die lebenden Akteure zu einem bestimmten Zeitpunkt vielleicht das Geflecht der vielen Faktoren und Wirkungen nur unvollständig durchschauen. Mangelndes Wissen ist auch ein realer Faktor und kann als solcher u.U. wichtige Optionen übersehen, die — würde man sie kennen — vielleicht viel Unheil ersparen würden.

Nachbemerkung – Epilog

Verglichen mit den vielen Seiten Text, die Popper im Laufe seines Lebens geschrieben hat, erscheint der hier kommentierte kurze Text von 27 Seiten verschwindend kurz, gering, möglicherweise gar unbedeutend.

Betrachtet man aber die Kernthesen von Poppers theoretischem Prozess, dann tauchen diese Kernthesen in diesem kurzen Text letztlich alle auf! Und seine Thesen zur Realität von beobachtbaren Tendenzen enthalten alles, was er an Kritik zu all jenen Wissenschaftsformen gesagt hat, die dieser Kernthese nicht folgen. Der ganze riesige Komplex zur theoretischen Wahrscheinlichkeit, zu subjektiver Wahrscheinlichkeit und zu den vielfältigen Spezialformen von Überlegungen zur Wahrscheinlichkeit sagen letztlich nicht viel, wenn sie die objektivistische Interpretation von Häufigkeiten, dazu im Verbund mit der Annahme eines grundlegenden realen Prozesses, in dem sich alle realen Faktoren in beständiger realer Wechselbeziehung befinden, nicht akzeptieren. Die moderne Quantenmechanik wäre in einer realen Theorie der objektiven Tendenzen tatsächlich eine Teiltheorie, weil sie nur einige wenige — wenngleich wichtige — Aspekte der realen Welt thematisiert.

Poppers Mission einer umfassenden Theorie von Wahrheit als Innensicht einer umfassenden prozesshaften Realität bleibt — so scheint es mir — weiterhin brandaktuell.

Fortsetzung Popper 1989

Eine Kommentierung des zweiten Artikels aus dem Büchlein findet sich HIER.

Anmerkungen

Abkürzung: wkp := Wikipedia, de := Deutsche, en := Englische

[*] Es gibt noch zwei weiter Beiträge vom ’späten‘ Popper, die ich in den Diskurs aufnehmen möchte, allerdings erst nachdem ich diesen Beitrag rezipiert und in das finale Theorieformat im Kontext des oksimo-Paradigmas eingebunden habe.

[1] Karl Popper in wkp-en: https://en.wikipedia.org/wiki/Karl_Popper (auch in wkp-de: https://de.wikipedia.org/wiki/Karl_Popper )

[1b] Wiener Kreis (‚vienna circle‚) in wkp-de: https://de.wikipedia.org/wiki/Wiener_Kreis und wkp-en: https://en.wikipedia.org/wiki/Vienna_Circle

[2a] Karl Popper, „A World of Propensities“, Thoemmes Press, Bristol, (1990, repr. 1995)

[2b] Karl Popper, The Logic of Scientific Discovery, zuerst publiziert 1935 auf Deutsch als  Logik der Forschung, dann 1959 auf Englisch durch  Basic Books, New York (viele weitere Ausgaben folgten; ich benutze die eBookausgabe von Routledge (2002))

[3a] Die meisten wohl im uffmm.org Blog.

[3b] Oksimo und Popper in uffmm.org: https://www.uffmm.org/2021/03/15/philosophy-of-science/

[4] Das oksimo-Paradigma und die oksimo-Software auf oksimo.org: https://www.oksimo.org/

[5] Robert Ulanowizc in wkp-en: https://en.wikipedia.org/wiki/Robert_Ulanowicz

[5b] Robert Ulanowizc, Ecology: The Ascendant Perspective, Columbia University Press (1997) 

[6a] Karl-Popper Sammlung der Universität Klagenfurt in wkp-de: https://www.aau.at/universitaetsbibliothek-klagenfurt/karl-popper-sammlung/

[6b] An dieser Stelle möchte ich die freundliche Unterstützung von Mag. Dr. Thomas Hainscho besonders erwähnen.

[7] Eine kürzere Version dieses Artikels hat Popper 1988 auf dem Weltkongress der Philosophie 1988 im Brighton vorgetragen (Vorwort zu [2a]).

[8] Rudolf Carnap in wkp-en: https://en.wikipedia.org/wiki/Rudolf_Carnap

[8b] Rudolf Carnap,  Logical Foundations of Probability. University of Chicago Press (1950)

[9] Aristoteles in wkp-de: https://de.wikipedia.org/wiki/Aristoteles

[10] Alfred Tarski in wkp-en: https://en.wikipedia.org/wiki/Alfred_Tarski

[11] Kurt Gödel in wkp-ed: https://en.wikipedia.org/wiki/Kurt_G%C3%B6del

[12] Aus dem Buch von Kegel „Die Herrscher der Welt…“: Siehe https://www.cognitiveagent.org/2015/12/06/die-herrscher-der-welt-mikroben-besprechung-des-buches-von-b-kegel-teil-1/

[13] Natürlich ist die Sachlage bei Betrachtung der hier einschlägigen Details noch ein wenig komplexer, aber für die grundsätzliche Argumentation reicht diese Vereinfachung.

[14] Das sagen uns die vielen empirischen Arbeiten der experimentellen Psychologie und Biologie, Hand in Hand mit den neuen Erkenntnissen der Neuropsychologie.

[15] Hinter diesen Aussagen stecken die Ergebnisse eines ganzen Bündels von wissenschaftlichen Disziplinen: vorweg wieder die experimentelle Psychologie mit hunderten von einschlägigen Arbeiten, ergänzt um Linguistik/ Sprachwissenschaften, Neurolinguistik, ja auch verschiedene philosophische ‚Zuarbeiten‘ aus dem Bereich Alltagssprache (hier unbedingt der späte Wittgenstein [16] als großer Inspirator) und der Semiotik.

[16] Ludwig Wittgenstein in wkp-en: https://en.wikipedia.org/wiki/Ludwig_Wittgenstein

[17] Logik ( ‚logic‚) in der wkp-de: https://de.wikipedia.org/wiki/Logik und wkp-en: https://en.wikipedia.org/wiki/Logic

[18] Mathematik (‚mathematics‚) in der wkp-de: https://de.wikipedia.org/wiki/Mathematik und wkp-en: https://en.wikipedia.org/wiki/Mathematics

[19] Werner Heisenberg in wkp-en: https://en.wikipedia.org/wiki/Werner_Heisenberg

[19b] Unsicherheitsprinzip (‚uncertainty principle‘) in wkp-en: https://en.wikipedia.org/wiki/Uncertainty_principle

[20] Natürlich gab es schon viele Jahrhunderte früher unterschiedliche Vorläufer eines Denkens in Wahrscheinlichkeiten.

[21] Theoretische Wahrscheinlichkeit, z.B. in wkp-en: https://en.wikipedia.org/wiki/Probability

[22] Subjektive Wahrscheinlichkeit, z.B. in wkp-de: https://de.wikipedia.org/wiki/Subjektiver_Wahrscheinlichkeitsbegriff; illustrieret mit der Bayeschen Wahrscheinlichkeit in wkp-en: https://en.wikipedia.org/wiki/Bayesian_probability

[23] Objektivistische Wahrscheinlichkeit, nur ansatzweise erklärt in wkp-de: https://de.wikipedia.org/wiki/Objektivistischer_Wahrscheinlichkeitsbegriff

[23b] Deskriptive Statistik in wkp-de: https://de.wikipedia.org/wiki/Deskriptive_Statistik (siehe auch ‚descriptive statistics in wkp-en: https://en.wikipedia.org/wiki/Descriptive_statistics

[24] Zu verschiedenen Sichten von Wahrscheinlichkeiten sie auch: Karl Popper, The Open Universe: An Argument for Indeterminism, 1956–57 (as privately circulated galley proofs;) 1982 publiziert als Buch

[25] Hier sei angemerkt, dass ein Akteur natürlich nur dann ein bestimmtes Ereignis wahrnehmen kann, wenn er (i) überhaupt hinschaut und (ii) er über geeignete Beobachtungsinstrumente (= Messgeräte) verfügt, die das jeweilige Ereignis anzeigen. So sah die Welt z.B. ohne Fernglas und Mikroskop ‚einfacher‘ aus als mit.

[26] Diese Betonung einer Situation als Kontext für Tendenzen schließt natürlich nicht aus, dass die Wissenschaften im Laufe der Zeit gewisse Kontexte (z.B. das Gehirn, der Körper, …) schrittweise immer mehr auflösen in erkennbare ‚Komponenten‘, deren individuelles Verhalten in einem rekonstruierbaren Wechselspiel unterschiedliche Ereignisfolgen hervorbringen kann, die zuvor nur grob als reale Tendenz erkennbar waren. Tatsächlich führt eine zunehmende ‚Klarheit‘ bzgl. der internen Struktur einer zuvor nicht analysierbaren Situation auch zur Entdeckung von weiteren Kontextfaktoren, die zuvor unbekannt waren.(vgl. S.14f)

[27] Gottfried Wilhelm Leibniz in wkp-de: https://de.wikipedia.org/wiki/Gottfried_Wilhelm_Leibniz

[27b] Monadenlehre von Leibnuz in wkp-de: https://de.wikipedia.org/wiki/Monade_(Philosophie)

[27c] Allerdings muss man bemerken, dass die Leibnizsche Monadenlehre natürlich in einem ziemlich anderen ‚begrifflichen Koordinatensystem‘ einzubetten ist und die Bezugnahme auf diese Lehre nur einen stark vereinfachten Aspekt trifft.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

Worte aufschreiben … sonst nichts …

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 15.November 2021 – 17.Nov 2021, 08:30h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

KONTEXT

In diesem Blog mit seinen geschätzten mehr als 6000 Seiten, die bislang geschrieben worden sind, fand — äußerlich betrachtet — ein einfacher Vorgang stand: es wurden ‚Worte aufgeschrieben‘. … sonst nichts …

Wären wir Maschinen …

Wären wir eine ‚Maschine‘, vielleicht sogar eine ‚intelligente Maschine‘, dann würden die maschinellen Strukturen uns vorgeben, ob wir schreiben, was und wie. Mit ein bisschen ‚künstlicher Intelligenz‘ könnten wir Datenquellen beimischen, ‚Variationen‘ einbauen, mit Satzformen ’spielen‘, und wir könnten vielleicht sogar den einen oder anderen Menschen verblüffen, bei ihm den Eindruck erwecken, hier schreibt ein Mensch.

Menschen brechen das Klischee

Menschen haben allerdings die Besonderheit, dass für sie die Ausdrücke einer Sprache — vornehmlich der ‚Alltagssprache‘ — nie isoliert stehen, sondern eingewoben sind in ein unfassbares Netzwerk von Eindrücken der Außenwelt, des eigenen Körpers, des eigenen ‚Inneren‘, eingebettet in eine Vielzahl von wahrnehmbaren Veränderungen … aber auch darüber hinaus: da das Gehirn sich selbst gegenüber weitgehend unbewusst arbeitet (was nicht gleichzusetzen ist mit ’sinnlos‘), sind die meisten Vorgänge ‚in uns‘ nicht bewusst zugänglich, obwohl sie für uns — soweit wir heute sehen — fundamental zu sein scheinen. Dazu gehört auch die Sprache mit ihrer ‚Bedeutungswolke‘.

Wenn Kinder in die Welt eintauchen …

Wenn Kinder in diese Welt ‚eintauchen‘, wenn sie anfangen, die Luft des Planeten zu atmen, den ‚Rausch ihrer Sinne‘ erleben, ihren eigenen Körper in einer ‚Wolke von Eindrücken‘ erspüren, dann formt das Gehirn aus all diesen Eindrücken, Muster, Abstraktionen, Kategorien als Teil assoziativer Netze, konnotiert mit einer Unzahl von Bedürfnissen und Gefühlen. Dies macht das Gehirn ‚voll automatisch‘, in ‚eigener Regie‘, folgt seiner ‚eingebauten Logik der Wahrscheinlichkeiten‘. So entsteht langsam aber stetig nicht nur ein unfassbares Netzwerk von verbundenen Ereignissen, sondern das Netzwerk wirkt wie ein ‚Bild‘, eine ‚Gesamtschau‘, wie ein ‚Modell‘ dessen ‚was ist‘: das virtuelle Bild einer Welt im Gehirn, die für das Kind, für uns, die ‚primäre Welt‘ ist.

Virtuelle Welt im Gehirn

Die Ausdrücke unserer Alltagssprache beziehen sich in ihrer ‚Bedeutungsdimension‘ ausschließlich auf diese ‚virtuelle Welt des Gehirns‘ als ‚ihrer Welt‘. Und — falls jemand darauf achtet — man kann leicht beobachten, dass die Ausdrücke der Alltagssprache meistens ‚Allgemeinbegriffe‘ sind (‚Haus‘, ‚Stuhl‘, ‚Auto‘, ‚Handy‘, ‚Tasse, …), wohingegen die Gegenstände in unserer realen Umgebung ‚konkret‘ sind, ’speziell‘, ‚einzigartig‘, usw. Wenn ich zu jemandem sage: „Kannst Du mir bitte meine Tasse rüber reichen“, dann kann das Wort (der Ausdruck) ‚Tasse‘ auf tausende verschiedene konkrete Objekte angewendet werden, in der aktuellen Situation aber — falls man über ein aktuelles ‚Situationswissen‘ verfügt — wissen alle Beteiligten, welche der vielen konkreten Gegenstände ‚meine Tasse‘ ist und genau dieses konkrete Objekt wird dann rüber gereicht.

Abstrakt – Konkret

Dies ist eines der vielen Geheimnisse von sprachlicher Bedeutung: die reale Welt um uns herum — die Alltagswelt — zeigt sich uns als eine ‚Meer an konkreten Eigenschaften‘, und unser Gehirn filtert daraus ‚Teilmengen‘ heraus, transformiert diese in einfache (abstrakte) Strukturen, die dann das ‚Baumaterial‘ für mögliche ‚abstrakte virtuelle kognitive ‚Objekte‘ sind. Das tieferliegende ‚Wunder‘ dieses Prozesses ist aber, dass das Gehirn in der Lage ist, zu späteren Zeitpunkten die ’neu erworbenen abstrakten Strukturen (Objekte)‘ auf einer unbewussten Ebene mit aktuellen sinnlichen Eindrücken so zu ‚vergleichen‘, dass es — einigermaßen — entscheiden kann, ob irgendwelche der aktuell sinnlich wahrgenommenen konkreten Strukturen zu irgendwelchen dieser neu erworbenen Strukturen ‚als Beispiel‘ passen! Also, auch wenn wir mittels Sprache immer nur mit Allgemeinbegriffen operieren können (eine geniale Erfindung), kann unser Gehirn jederzeit eine Beziehung des Allgemeinen zum aktuell sinnlich Besonderen herstellen. Es ist halt so ‚gebaut‘.[1]

Dies ist nur die ‚Spitze des Eisbergs‘ vom ‚Wunder des Gehirns‘. Wie man schon ahnen kann, gibt es ja noch die Dimension ‚der anderen Menschen‘ aus Sicht eines einzelnen Menschen.

Gehirn-Kooperationen

Man kann — muss — sich die Frage stellen, wie kann denn ein Gehirn im Körper eines Menschen A mit dem Gehirn im Körper eines Menschen B ‚kooperieren‘? Wie können beide ‚umeinander wissen‘? Wie kann das Gehirn von A, das seine eigene individuelle ‚Lerngeschichte‘ hat, seine ‚Inhalte‘ mit dem Gehirn von B ‚teilen‘?

‚Besoffen‘ vom Alltag mögen diese Fragen im ersten Moment sehr ‚künstlich‘ klingen, ‚unwirklich‘, vielleicht gar sinnlos: Reden wir nicht ständig miteinander? Tun wir denn nicht ständig etwas miteinander? Unterricht in Schulen? Projektarbeit in Firmen? Mannschaftssport? Management eines größeren Unternehmens? …

Der Verweis auf solche ‚Praxis‘ ersetzt aber keine Antwort auf die Frage. Der Alltag deutet nur an, ‚dass‘ wir es irgendwie können, sagt aber nichts darüber, warum und wie wir das können.

Offensichtlich benutzen wir sprachliche Ausdrücke, die wir ‚austauschen‘ (Sprechen, Schreiben, …). Wie oben schon angedeutet wurde, sind Ausdrücke nicht in eins zu setzen mit ihren Bedeutungen. Letztere sind ‚im‘ Sprecher-Hörer‘ lokalisiert, im jeweiligen Gehirn. Die moderne Forschung mit vielen Fachdisziplinen legt nahe, dass es koordinierende‘ Mechanismen gibt, wodurch zwei Gehirne sich für den Bereich der realen Außenwelt einigermaßen verständigen können, welche ‚Aspekte er realen Außenwelt‘ mit welchen Ausdrücken assoziiert werden. Und diese ‚Koordinierung‘ basiert nicht alleine auf den konkreten Aspekten der Außenwelt, sondern wesentlich auch auf jene ‚im Gehirn‘ anhand der Außenweltereignisse prozedural aufgearbeiteten Strukturen. Nur so kann Sprache zugreifen. Die wechselseitige Zustimmung, dass dies konkrete weiße, runde Ding da mit einer inneren Aushöhlung und einem Henkel die ‚Tasse von Gerd‘ ist, setzt also ziemlich viele ‚individuellen Lernprozesse‘ voraus, die sich in hinreichend vielen strukturellen Eigenschaften hinreichend stark ‚ähneln‘. Irrtum inbegriffen.

Fehleranfällige Kommunikation

Das alles erscheint bei näherer Betrachtung alles ’schwindelerregend komplex‘, aber nach vielen Millionen Jahren kontinuierlichen Veränderungen scheint es ‚einigermaßen‘ zu funktionieren. Allerdings weiß jeder aus seinem eigenen Alltag auch wie ‚fragil‘ solche Kommunikation ist. Selbst unter Paaren, die schon viele Jahre, gar Jahrzehnte, zusammen leben, können noch Irrtümer und Missverständnisse auftreten. Umgekehrt weiß jeder, wie aufwendig es ist, aus verschiedenen Menschen ein ‚Team‘ zu formen, das angesichts von komplexen Aufgaben in der Lage ist, sich jederzeit hinreichend gut zu koordinieren. Die hohe Quote an Projektabbrüchen spricht eine eigene Sprache.

Ähnlichkeit als Gefahr

Bei Gruppen, Teams tritt noch ein ganz anderer Aspekt hervor: die partielle ‚Ähnlichkeit‘ der Bedeutungsstrukturen der einzelnen Teammitglieder, die im Laufe der gemeinsamen Arbeit in der Regel weiter zunimmt, vereinfacht zwar die Kommunikation und Abstimmung im Team, sie bietet aber auch eine Gefahr, die umso größer wird, je länger ein Team ‚unter sich‘ ist. Dies hat wiederum damit zu tun, wie unsere Gehirne arbeiten.

Ohne unser bewusstes Zutun sammelt unser Gehirn beständig Eindrücke, verarbeitet sie, und bildet vernetzte abstrakte Einheiten. Dies ist aber nicht alles. Dieser sehr aufwendige Prozess hat den Nebeneffekt, dass die ‚aktuellen‘ sinnlichen Eindrücke mit dem, was ‚bisher Bekannt geworden ist‘ kontinuierlich ‚abgeglichen‘ wird. Das berühmte Glas, das ‚halbvoll‘ oder ‚halbleer‘ erscheinen kann, ist keine Fata Morgana. Dieses Beispiel demonstriert — wenn auch vereinfacht –, dass und wie unser Gehirn seine ‚gespeichertes Wissen‘ (Alt) mit den ‚aktuellen Eindrücken‘ (Neu) ‚abgleicht‘. Je mehr ein Gehirn weiß, um so größer die Wahrscheinlichkeit, dass es ’nichts Neues‘ mehr gibt, weil alles ’scheinbar Neue‘ mit dem ‚Alten‘ ‚erklärt‘ werden kann. [3] Dies — zur Erinnerung — immer auch mit Bedürfnissen, Emotionen und sonstigen Gefühlen/ Stimmungen ‚konnotiert‘.[2]

Tendenz zur ‚Verfestigung‘

Zwar gibt es viele Verhaltenseigenschaften und Strategien, mit denen man dieser Tendenz des Gehirns zur ‚Verfestigung‘ gegensteuern kann, aber sowohl die Geschichte wie die Gegenwart zeigen, dass es immer starke Strömungen gab und gibt, die auf dieser ‚Selbstabschließung‘ des Gehirns basieren (so eine Art ‚mentales locked-in Syndrom‘).

Da es für ein Gehirn (und damit für eine Person) ‚leichter‘ und ‚bequemer‘ ist, das Bild von der Welt — mit all den daran geknüpften Verhaltensgewohnheiten — ‚konstant‘ zu halten, ‚einfach‘, tendieren die meisten Menschen dazu, sich vorzugsweise mit solchen Menschen zu treffen, die ihnen ähnlich sind; solche Meinungen zu teilen, die die eigene Meinung verstärken; das zu tun, was die Mehrheit tut; und vieles dergleichen.

Wenn einzelne Menschen, ganze Gruppen ihr Leben so gestalten, dass sie ‚Neues‘ eher — oder sogar ‚grundsätzlich‘! — ausblenden, verurteilen, ‚verdammen‘, dann reduzieren sie ihr eigenes Potential um grundlegend wichtige Eigenschaften für eine nachhaltige Zukunft: Vielfalt, Diversität, Kreativität, Neugierde, Experimente, Alternativen. Die Biosphäre heute — und damit uns — gibt es nur, weil diese grundlegenden Eigenschaften über 3.5 Milliarden Jahre stärker waren als die reduktiven Tendenzen.

Sprache als System

Betrachtet man die Sprache von einem ‚übergeordneten‘ Standpunkt aus z.B. als ein System ‚als solches‘, dann sind die einzelnen Sprecher-Hörer individuelle Akteure, die von der Sprache individuell ‚Gebrauch machen‘. Ein Akteur kann dann Sprache lernen, weil er/sie/x die Sprache vorfindet, und der Akteur wird einen Teil der ‚möglichen Bedeutungszuordnungen‘ ‚lernen‘. Je nach Lerngeschichte können dann die verschiedenen individuellen Bedeutungsräume sich mehr oder weniger ‚überlappen‘. In dieser Perspektive ist dann klar, dass ein einzelner Akteur nicht die Sprache als solche verändern kann, es sei denn, er/sie/x ist sehr ‚prominent‘ und einzelne seiner Formulierungen werden von einer großen Teilpopulation übernommen. Entsprechend können sich in Teilpopulationen ‚Sprachmoden’/ ‚Sprachtrends‘ ausbilden, die dann zumindest partiell für eine bestimmte Zeit ‚Teil der Sprache‘ werden können.

Diese ‚Eigenwirklichkeit‘ von Sprache hat verschiedene Nebeneffekte. Einer verbindet sich mit erstellten Texten, Textsammlungen, die als Texte den individuellen Autor übersteigen/ überdauern können. Selbst wenn ein Text so alt ist, dass ein potentieller Leser aus der Gegenwart die ‚Bedeutungswelt des Autors‘ kaum oder gar nicht kennt, können Texte ‚Wirkung‘ entfalten. So zeigt z.B. die Interpretation des Buches, das allgemein als ‚Bibel‘ bezeichnet wird, im Laufe von ca. 2000 Jahren eine große Vielfalt und Breite mit offensichtlich z.T. gänzlich konträren Positionen, die selbst ca. 2000 Jahre später noch Wirkungen bei Menschen zeigen.

Tradition ist ambivalent

Dies bedeutet, nicht nur das einzelne Gehirn kann zur Ausbildung von bestimmten ‚Bildern von der Welt‘ kommen, die es mit anderen ‚Gleichgesinnten‘ teilen kann, sondern die konservierten Texte können solche Weltbilder über Jahrhunderte wenn nicht gar Jahrtausende hinweg ‚transportieren‘. Dies kann im Einzelfall konstruktiv sein, es kann aber auch ‚destruktiv‘ sein, wenn alte Weltbilder den Aufbau neuer Weltbilder in einer sich verändernden Welt verhindern.

Wunder des Schreibens

Nach diesen — keinesfalls vollständigen — Hinweisen auf sehr viele eher ‚technische‘ Aspekte von Sprache/ Sprechen/ Schreiben hier doch auch für einen Moment ein paar Worte zum ‚Wunder des Schreibens‘ selbst.

Wenn ich also Worte aufschreibe, jetzt, dann gibt es eigentlich keine bestimmte ‚Regel‘, nach der ich schreibe, kein klar definiertes ‚Ziel‘ (wie sollte solch eine Zielbeschreibung aussehen?), keine …. es ist ziemlich hoffnungslos hier eine endliche Liste von klar definierten Kriterien zu formulieren. Ich selbst bin ‚mir‘ ‚undurchsichtig‘ … ein Nebeneffekt der Tatsache, dass nahezu alles ‚in mir‘ im Jetzt ‚unbewusst‘ ist… Zu keinem Zeitpunkt weiß ich (= ist mir explizit bewusst), was ich ‚tatsächlich weiß‘. Wie denn? Unser Gedächtnis ist eine unfassbar große Sammlungen von dynamischen Strukturen, die entweder nur bei expliziten Aufgaben ‚reagieren‘ (aber nicht zuverlässig), oder aber ein gedanklicher Prozesse in mir läuft unbewusst ab und dieser tritt zu einem bestimmten Zeitpunkt an die ‚Oberfläche‘ indem ich Worte wie diese aufschreibe. Bevor ich diese Worte aufschreibe, weiß ich nicht, was ich aufschreibe. Ich kann dieses Aufschreiben auch nicht planen.’Es‘ denkt in mir, ‚es‘ schreibt… dieses ‚Es‘ ist aber nur scheinbar etwas ‚Fremdes‘; es ist Teil von mir, ich fühle mich damit verbunden, ich bin es, …. die Zuordnung von sprachlichen Ausdrücken zu ‚inneren Vorgängen‘ ist prinzipiell schwierig und ungenau. Ich selbst bin ein ganzer Kosmos von unterschiedlichen Dingen, weitgehend unbewusst, fokussiert in meinem Körper ….

Wir wissen, dass wir sehr viele Abläufe explizit, Schritt für Schritt, so trainieren können, dass sie zu scheinbar ‚automatisch ablaufenden Prozessen‘ werden. Die eigentliche Dynamik ‚dahinter‘ ist aber etwas ganz anderes. Sie bedient sich der vielen Gegebenheiten ’nach Belieben’… sie ‚ereignet sich‘ und ‚im Ereignen‘ ist sie ‚real‘ und darin partiell fassbar …. Menschen sind in ihrem ‚Inneren‘ der totale ‚Anti-Gegenstand‘. Ich kenne kein einziges Bild, keine einzige Metapher, kein irgendwie bekanntes Muster/ Schema, keine bekannte Formel, die dieser un-realen Realität irgendwie nahe kommt … [4],[5]

In diesem Konzert, ab ca. Minute 41, der Song ‚Wind of Change‘ daran erinnernd, dass es auch in Moskau einmal geschah, wenngleich die Ängste der Mächtigen wieder mal stärker waren als die Kraft der Zukunft, die in jedem Menschen anwesend ist …

ANMERKUNGEN

[1] Die Formulierung ‚ist halt so gebaut‘ ist eine ‚Abkürzung‘ für die komplexen Erkenntnisse der Evolutionsbiologie, dass sich das Gehirn des Menschen als Teil des ganzen Körpers mit diesem Körper über nicht nur Millionen, sondern hunderte von Millionen Jahre schrittweise ‚entwickelt‘ hat. Der Begriff ‚entwickelt‘ ist eine weitere Abkürzung für einen komplexen Mechanismus, durch den sich biologische Populationen aus einem Zustand zum Zeitpunkt T in einen ‚anderen Zustand‘ zu einem späteren Zeitpunkt T ‚verändern‘ können. Ob solche Veränderungen nun in irgendeinem Sinne ‚gut‘ oder ’schlecht‘ sind, entscheidet sich in erster Linie an der Frage, ob die Population zum späteren Zeitpunkt T+ noch ‚existiert‘. Die Fähigkeit ’nachhaltig zu existieren‘ ist primär eine ‚Leistungseigenschaft‘: in einer sich ständig veränderten Welt — nicht zuletzt auch deswegen, weil sich die Biosphäre selbst kontinuierlich weiter entwickelt — können nur jene Populationen überleben, die den Anforderungen einer solchen komplexen dynamischen Umwelt gerecht werden

[2] Die Psychologie kennt zahllose Beispiele, wie eigentlich ‚zufällige Ereignisse‘, in denen Menschen entweder etwas ‚Schönes‘, ‚Positives‘ erlebt haben oder umgekehrt etwas ‚Ungutes‘, ‚Trauriges‘, ‚Schreckliches‘, dass sich dann die Gefühle an konkrete Dinge/ Handlungen/ Situationen ‚anheften‘ können, und dann zukünftig die Wahrnehmung, das Verstehen und das Verhalten beeinflussen.

[3] Leute die ‚bewusst anders‘ sein wollen als ‚alle anderen‘ denken oft, sie wären damit ‚besonders‘. Das stimmt, sie sind ‚besonders‘ weil sie ‚für sich‘ sind. Vielfalt im Sinne der Nachhaltigkeit heißt aber nicht, individuell ‚für sich sein‘, sondern individuelle in einem Verbund leben, in dem man seine ‚Besonderheit‘ — so man eine hat! — im Kontext mit anderen so einbringt, dass sie auf die anderen real einwirken kann und umgekehrt. Dieses Interaktionsgeschehen realisiert einen Prozess mit ‚Zustandsfolgen‘, die so sein sollten, das nach einer gewissen Zeit möglichst alle ‚dazu gelernt haben‘. … was allerdings nicht ‚erzwingbar‘ ist … Menschen sind in einem unfassbar radikalen Sinne ‚frei‘ …

[4] Die ‚Beschreibbarkeit‘ eines Phänomens hängt generell von der Frage ab, welche Ausdrücke einer Sprache verfügbar sind, um sich auf Gegenstände, Sachverhalte, Ereignisse der Alltagswelt oder auf ‚innere Zustände‘ eines Menschen beziehen zu lassen. Hier lassen sich leicht Beispiele finden von ‚einfachen Beschreibungen von beobachtbaren Gegenständen‘ („Die Ampel da vorne ist auf Rot“) bis hin zu Asdrücken, wo man nicht mehr so richtig weiß, was gemeint sein kann („Die Demokratie ist gefährdet“; „Mein Gefühl sagt mir, dass dies nicht geht“; „Ich denke“… ).

[5] Ein Beispiel zur Frage der Zuschreibung des Ausdrucks ‚Geist‘ zum Phänomen unseres ‚Inneren‘, sofern es ‚erfahrbar‘ ist, kann das Buch von Friedhelm Decher sein „Handbuch der Philosophie des Geistes„, das ich in vier einzelnen Posts diskutiere: (i) https://www.cognitiveagent.org/2015/12/28/decher-handbuch-philosophie-des-geistes-einleitung-diskurs/, (ii) https://www.cognitiveagent.org/2016/01/05/decher-handbuch-philosophie-des-geistes-vorsokratiker-diskurs-teil-2/, (iii) https://www.cognitiveagent.org/2016/01/18/decher-handbuch-philosophie-des-geistes-platon-diskurs-teil-3/, (iv) https://www.cognitiveagent.org/2016/01/25/decher-handbuch-philosophie-des-geistes-aristoteles-diskurs-teil-4/.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

REAL-VIRTUELL. Ein Einschub

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 1.Februar 2021 (Zuletzt 1.2.2021, 13:45h)
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

KONTEXT

Den wenigsten Menschen ist bewusst, dass das Bild von der Welt, das sie haben, nicht tatsächlich die Welt ist, wie sie unabhängig vom Gehirn (=real) ist, sondern die Welt, die das Gehirn von der Welt da draußen aus all den sensorischen und bislang gespeicherten Daten (Gedächtnis) zusammen rechnet (=virtuell). Dies erklärt, warum die gleiche Welt (da draußen) von verschiedenen Menschen so total verschieden wahrgenommen werden kann.

AUSSEN – INNEN

Übersichtsbild zu Außen-Innen. Zur Erläuterung siehe Text.

Der Begriff Außen ist letztlich nur sinnvoll im Gegensatz zu einem aufzeigbaren Innen. Beispiel für solch ein aufzeigbares Innen ist das menschliche Bewusstsein, das wiederum verweist auf kognitive Zustände unseres Gehirns, das sich in unserem Körper befindet.

Für uns als Menschen ist zunächst das subjektive Erleben unserer Bewusstseinsinhalte wie das Erleben selbst (einschließlich Denken, Vorstellen, Erinnern usw.) primär real. Im Laufe des Lebens kann man aber erkennen, dass diese primäre Realität eindeutig nicht die Welt selbst ist, da sie an unser Bewusstsein gebunden ist, das über das Gehirn in unserem Körper verankert ist. Die subjektive Realität ist eine abgeleitete Realität; unser Gehirn produziert eine virtuelle Realität, die sich für uns als subjektives Erlebende wie eine Realität darstellt!

KONVERSION: REALITÄT ZU VIRTUALITÄT

Hat man diesen Erkenntnispunkt erreicht, dass die subjektive Realität eine abgeleitete Realität ist, ein Rechenergebnis des Gehirns, das sensorische Fragmente einer Welt da draußen (=real) in neuronale Strukturen und Prozesse übersetzt/ konvertiert, die als neuronale Prozesse zwar real sind, aber in den erzeugten internen Informationsstrukturen innerhalb der neuronalen Prozesse als Repräsentanten der mit-verursachenden externen Realität ein Abbildungsprodukt, sind, erzeugt durch Abbildungsprozesse, und so gesehen nur als bildhaft, als virtuell bezeichnete werden können, dann kann man begreifen, dass ein biologischer Organismus wie der des homo sapiens — neben vielen anderen Funktionen — eine Funktion ganz speziell erkennen lässt: der gesamte Organismus ist ein Konverter von Realität in Virtualität!

Der Aufwand, der getrieben werden muss (musste), um dies zu ermöglichen ist extrem hoch und man fragt sich unwillkürlich, wofür das gut sein soll?

Bevor man eine Antwort zu geben versucht, sollte man sich noch eine weitere bemerkenswerten Funktion von homo sapiens Organismen vor Augen führen.

AUSTAUSCH: INNEN ZU INNEN

Von Bakterien und Viren ist bekannt, dass sie als Gesamtheiten schon immer einen intensiven Informationsaustausch pflegen (was mich dazu inspiriert hatte von diesen Gesamtheiten als BIOM zu sprechen und das gesamte BIOM als biologischen Super-Computer zu sehen, der die unfassbaren Formenproduktionen der Evolution in Interaktion mit den jeweiligen Umgebungen ermöglicht hat).

Durch die biologische Ermöglichung einer Konversion von Realität in neuronal ermöglichte Virtualität eröffnete sich nicht nur die Möglichkeit, im Bereich der Virtualität verschiedene kreative Prozesse zu gestalten, die abgeleitete Formen von Realität generieren können, für die es aktuell so noch keine Vorgaben in der umgebenden Realität gibt. Dies neuen Formen können indirekt zu Änderungen in der realen Welt führen, die ohne diese kreativen virtuellen Prozesse entweder gar nicht oder erst sehr viel später möglich gewesen wären. Da Änderungen nicht per se von irgendeinem Vorteil sein müssen — sie können schädlich bis zerstörerisch sein –, ist diese neuartige Befähigung zu inneren kreativen Prozessen somit zwar eine neue Chance, zugleich aber auch ein neues Risiko.

Um nun sowohl die Chance — als auch das Risiko — zu erhöhen, gibt es noch eine weitere speziell Funktion von biologischen Lebensformen — am extremsten ausgeprägt beim homo sapiens –: die zusätzliche Abbildung von kognitiven Strukturen auf andere kognitive Strukturen, bei denen die kognitiven Strukturen auf der einen Seite der Abbildung in Form eines Ausdruckssystems [E] organisiert sind. Betrachtet man kognitive Strukturen generell als kognitive Objekte [KOGOBJ], dann kann man diejenigen kognitiven Objekte, die zusätzlich speziell als kognitive Objekte innerhalb eines Ausdruckssystems E organisiert sind, als KOGOBJ-E abkürzen. Die Abbildungsbeziehung zwischen der speziellen Menge von kognitiven Objekten, die als Ausdrücke KOGOBJ-E fungieren, und allen anderen kognitiven Objekten KOGOBJ (mit KOGOBJ-E als Teilmenge!) wird normalerweise Bedeutungsbeziehung [Π] genannt, geschrieben: Π: KOGOBJ <—–> KOGOBJ-E.

Warum wieder dieser enorme zusätzliche Aufwand?

Wie wir am Verhalten des homo sapiens — Wir — sehen können, kann aufgrund der Bedeutungsbeziehung ein biologischer Organismus A die Ausdruckselemente benutzen, um auf bestimmte virtuelle Aspekte in sich Bezug zu nehmen, und diese internen Ausdruckselemente können dann in Form von Sprachlauten — oder später in der kulturellen Entwicklung auch durch Schriftzeichen — dazu genutzt werden, auf einen anderen Organismus B einzuwirken, so dass dieser — falls man die gleichen Ausdruckselemente mit der gleichen Bedeutungsbeziehung gemeinsam gelernt hat — ‚in sich selbst‘ möglicherweise ähnliche kognitiven Objekte aktiviert wie der andere biologische Organismus A möglicherweise intendiert hat.

Dieser hochkomplexe Vorgang einer zwischen-biologischen Kommunikation ermöglicht es — wie wir aus unserem Alltag wissen können — dass sich auf diese Weise — bis zu einem gewissen Grad — nicht nur das Verhalten generell koordinieren lässt, sondern dass dabei auch — wiederum nur bis zu einem gewissen Grad — inhaltliche Informationen über die Welt ausgetauscht werden können, die eine kognitive erweiterte Koordination möglich machen.

WELTBILDER: WISSENSCHAFT ODER MYTHEN?

Diese ineinander verschränkten Abbildungen von Realität in Virtualität einerseits bzw. Virtualität 1 nach Virtualität 2 andererseits stellen im Kontext der biologischen Evolution mehr als eine Revolution dar. Dies soll jetzt hier gar nicht weiter diskutiert werden. Wohl aber sei der Hinweis gestattet auf das Alltagsphänomen, dass ganze Populationen von Menschen ein virtuelles Bild von der Welt erzeugen, pflegen und danach handeln können, das teilweise oder gar überwiegend falsch ist, mit den entsprechend verheerenden Folgern für alle.

Vor diesem Hintergrund der Massen-Verirrungen — in allen Zeiten der Menschheit gegeben, auch im Jahr 2021 — stellt sich die kritische Frage, was kann eine Gesellschaft als Ganze tun, um durch ihre Kultur Massen-Verirrungen zu verhindern.

Wie Blicke zurück in die Geschichte und hinweg über alle nationale Grenzen heute andeuten, ist ein gemeinsamer Schutz vor Verirrungen alles andere als einfach. Intelligenz alleine ist offensichtlich kein ausreichender Schutz…

So zeigt ein Blick in die Geschichte der Wissenschaften, dass es selbst in der Wissenschaft trotz all der vereinbarten Qualitätssicherungen immer wieder zu strittigen Meinungen kommen kann, die ganze Schulen ausbilden, um die anderen Meinungen ‚zu bekämpfen‘ statt aus den Unterschieden konstruktiv zu lernen.

Die Aufgabe der Gestaltung einer gemeinsamen Kultur der minimalen Verirrungen ist für uns alle real, sie ist hart, sie ist schwierig, und die scheinbar einfachen und griffigen Lösungen sollten eigentlich routinemäßig schon mal eine besondere Aufmerksamkeit erregen, ob das überhaupt so stimmen kann …

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

SPRACHSPIEL und SPRACHLOGIK – Skizze. Teil 1

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 26.-29.Januar 2021
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

KONTEXT

Im vorausgehenden Beitrag Ingenieure und das Glück wird ab dem Abschnitt KOMMUNALE PLANUNG UND BÜRGER? das Problem der Kommunikation zwischen vielen Menschen angesprochen, speziell in dem Kontext, dass diese Menschen — z.B. Bürger einer Kommune — sich auch gemeinsam ein Bild ihrer möglichen Zukunft bzw. ihrer möglichen Zukünfte machen wollen, ist doch Zukunft grundsätzlich unbekannt und der Versuch einer Klärung, welche Ereignisse in der Zukunft planerisch vorweg genommen werden sollten, kann wichtig bis lebenswichtig sein. In diesem Zusammenhang wird das Konzept einer neuen Software [SW] eingeführt, die Menschen bei diesen Kommunikationen und Planungen unterstützend zur Seite stehen soll. Diese Software hat als eine — von mehreren — Besonderheit die, dass sie ausschließlich mit Alltagssprache funktioniert. Dies soll in diesem Text zum Anlass genommen werden, die menschliche Intelligenz am Beispiel von alltäglichen Sprachspielen und der darin waltenden Sprachlogik anhand von Beispielen etwas näher zu betrachten.

ALLTAG UND SPRACHSPIEL(E)

Nimmt man den Begriff Sprachspiel(e) in den Mund, dann ruft dies im modernen philosophischen Denken unweigerlich die Assoziation mit Ludwig Wittgenstein hervor, der im Zeitraum 1936 bis 1946 in Cambridge, in England, dabei war, ein weit verbreitetes Bild vom Funktionieren der Sprache zu zertrümmern. Seine posthum veröffentlichten Philosophischen Untersuchungen [1] sind wie Mahlsteine für jegliches naives Sprachdenken. Aufs Ganze können sie geradezu nihilistisch wirken, da sie zwar alles Gewohnte niederreißen, aber keinerlei Anstalten treffen, zu schauen, wie man denn aus diesem Trümmerfeld einer naiven Sprachauffassung wieder herauskommen kann. Dazu muss man wissen, dass Wittgenstein mit seinem Frühwerk, dem tractatus logico-philosophicus von 1921 [2] selbst dazu beigetragen hatte, unter Voraussetzung des Konzepts der modernen formalen Logik, ein extrem naives Bild von Sprache zu zeichnen. Man darf zumindest die Frage stellen, ob Wittgenstein bei seiner Zertrümmerungsaktion eigentlich weniger die Alltagssprache zertrümmert hat, sondern nur dieses sehr einseitige Bild von Sprache, wie es die moderne formale Logik propagiert.Während die moderne sprach-analytische Philosophie sich in vielfacher Weise abgemüht hat, unter dem Einfluss von Wittgenstein die Alltagssprache neu zu sezieren, hat die moderne formale Logik bis heute in keiner aufweisbaren Weise auf die sprach-kritischen Überlegungen Wittgensteins reagiert.

Anstatt hier jetzt die vielen hundert Artikeln und Bücher in der Nachfolge Wittgensteins zu referieren gehen wir hier zurück auf Start und betrachten verschiedene Alltagssituation, so wie Wittgenstein es getan hat, allerdings mit anderen philosophischen Prämissen als er es tat.

Situation 1: Einfache Alltagssituation mit zwei Personen A und B und einem Tisch.

SITUATION … nach von Uexküll

Über eine Alltagssituation als Situation zu sprechen ist nur so lange trivial, als man nicht darüber nachdenkt.

Im Fall des obigen Bildes fängt es schon mit der Frage an, ob man die Situation von außen, von der Position eines externen Beobachters beschreiben will mit der Fiktion, man könne etwas beobachten ohne Teil der Situation zu sein, oder ob wir uns entscheiden, eine der abgebildeten Personen A oder B als unseren Beobachtungspunkt zu wählen. Ich wähle hier für den Start Person B als unseren Beobachter.

Wie wir spätestens seit von Uexkülls Buch Umwelt und Innenwelt der Tiere, veröffentlicht 1909 [3b], wissen, gibt es für ein biologisches System nicht die Umwelt, sondern nur jene spezifische Umwelt, die diesem biologischen System — hier also A oder B — aufgrund seiner Sensorik, seinen inneren Zuständen, und seiner Handlungsmöglichkeiten zugänglich sind. Aufgrund moderner Messgeräte, anspruchsvoller empirischen Theorien und einem vergleichsweise reich ausgestatteten körperlichen Organismus sind wir als homo sapiens in der Lage, die Fiktion einer objektiven Umwelt aufzubauen, die unabhängig von uns besteht und die weit mehr Eigenschaften umfasst, als wir mit unseren angeborenen Sinnesorganen und Nervenleistungen erfassen können.

Von Uexküll untersucht in seinem Buch sehr viele Lebensformen aus dem Bereich der Wirbellosen, die — verglichen mit einem menschlichen Körper — als ‚einfach‘ oder sogar ’sehr einfach‘ klassifiziert werden könnten. Er betont immer wieder, dass solche Kategorien letztlich am Phänomen vorbeigehen. Entscheidend ist nicht, wie quantitativ komplexer ein Organismus A verglichen mit einem Organismus B ist, sondern ob der Bauplan von z.B. Organismus A zu seiner Umwelt passt. Ein Organismus mag noch so einfach sein — er beschreibt viele schöne Beispiele –, wenn der Organismus mit seiner jeweiligen individuellen Ausstattung (Bauplan) in der jeweiligen Umgebung genügend Nahrung finden kann, sich fortpflanzen kann, dann hat er zunächst mal den Hauptzweck eines biologischen Systems erfüllt. In der Sicht von Uexkülls — die einflussreich war und ist — können also 10 verschiedene biologische Systeme die gleiche äußere Umgebung U teilen und jeder dieser Organismen hat eine komplett anderes inneres Bild B(U)=U* in seinem Inneren und reagiert daher in der Regel anders als einer der anderen Organismen. Für Naturforscher ist es daher immer eine ziemliche Herausforderung, zu ermitteln, was denn die spezifische Umwelt B(U)=U* eines bestimmten Organismus ist.

REALE WELT … als Artefakt

Von der Biologie können wir also lernen, dass die sogenannte reale Welt [RW] aus Sicht eines biologischen System zunächst eine konstruierte Fiktion ist, ein Artefakt des Denkens, ermöglicht durch die neuronalen Aktivitäten im Innern eines Organismus und dass die neuronal kodierte Welt nur so viele Eigenschaften umfasst, wie diese neuronale Kodierung ermöglicht. Anders formuliert: die neuronalen Strukturen fungieren als Repräsentanten von jenen korrespondierenden verursachenden Reizquellen, die von außerhalb des Nervensystems zu neuronalen Erregungsleistungen führen. Die spontan unterstellte Welt da draußen existiert also für den Organismus primär als die Menge der Repräsentationen in unserem Innern (Für eine etwas ausführlichere Erläuterung siehe [8]).

SPRACHLICHE ÄUSSERUNG … Ein Signal von ganz innen

Übernehmen wir diese theoretischen Postulate, dann müssen wir annehmen, dass die Person A nicht weiß, welche inneren Zustände die Person B gerade als ‚die Welt da draußen‘ ansieht, und umgekehrt. Insofern es in der angenommenen Situation aber ein Objekt gibt, das aussieht wie ein Objekt, das wir im Deutschen als Tisch bezeichnen würden, und wir annehmen, dass beide Personen als Menschen über einigermaßen ähnliche Wahrnehmungsstrukturen verfügen und hinreichend viel Deutsch gelernt haben, dann könnte es passieren, dass das Tisch-ähnliche Objekt als Reizquelle genügend korrespondierende neuronale Reizenergie im Innern von Person A aufbaut, die dann möglicherweise die die von A gelernte Bedeutungsfunktion für die Deutsche Sprache aktiviert, die dann wiederum den Sprachapparat aktiviert, was zu der sprachlichen Äußerung führen könnte: Da ist ein Tisch.

Situation 2: Person A macht eine Äußerung über einen Teilaspekt von Situation 1.

Unter den angenommenen Bedingungen besteht dann eine gewisse Wahrscheinlichkeit, dass Person B aufgrund der Schallwellen, erzeugt von A, einen Schallreiz empfängt, den B aufgrund seiner gelernten Bedeutungsfunktion des Deutschen mit jenen internen neuronalen Repräsentanten assoziiert, die von dem Tischobjekt durch die visuelle Wahrnehmung erfasst und ins Innere geleitet werden. Falls dies so geschehen würde, dann könnte sich die Person B denken, dass die Person A ein externes Objekt wahrnimmt, das seiner aktuellen Wahrnehmung entspricht. Ansonsten wüsste Person B nicht wirklich, was Person A gerade wahrnimmt bzw. wofür sie sich interessiert.

Dies ist eine — zugegeben — stark vereinfachende Darstellung des Sachverhalts, dass interne Strukturen in uns Menschen uns zu bestimmten Formen von Wahrnehmungen und internen Verarbeitungsprozessen befähigen. Eine etwas ausführlichere Darstellung — wenngleich immer noch vereinfachend — findet sich bei Gage und Baars (2018). [4] Die für unseren Zusammenhang wichtige Botschaft ist allerdings, dass auch wir Menschen keine beliebige Umgebung wahrnehmen und keine beliebigen geistigen Prozesse ausführen können, sondern nur solche, die unser Körperbau und unser zentrales Nervensystem zulassen.

THEORETISCHE ANNAHMEN – Vereinfacht …

Das folgende Schaubild deutet die wirksamen Strukturen an, durch die wir sprachlich kommunizieren.

Schaubild zu internen kognitiven Strukturen. Siehe zusätzlich auch [8].

Es gibt die angenommene reale Welt [RW], in der es einen aktuellen Ort gibt, der für die vorkommenden Organismen eine aktuelle Umwelt [U], eine Situation [S] bildet. Ein wahrnehmender Organismus — hier die Personen A und B — zerlegen diese Situation in jene Grundeinheiten, die sie aufgrund ihrer körperlichen Ausstattung wahrnehmen können. Diese Grundeinheiten werden hier Fakten [F] (eine Kombination von Eigenschaften (Qualitäten), die einen Sachverhalt ergeben) genannt. Während die Phase der Wahrnehmung — das Stattfinden von neuronalen Erregungen als Reizenergie in verschiedenen Verarbeitungsstufen — teilweise bewusst (mit Bewusstsein [BEW]) stattfinden kann, sind die neuronalen Prozesse standardmäßig unbewusst [UBW]. (Das genaue Verhältnis zwischen Bewusstem und Unbewusstem ist bis heute nicht klar bestimmbar. Am Beispiel des Gedächtnisses kann man nur ahnen, dass nahezu alles unbewusst ist, und nur bei Vorliegen von Reizen, werden davon unter bestimmten Bedingungen einige Fragmente bewusst).

Es wird heute davon ausgegangen, dass die Menge des verfügbaren Wissens (hier vereinfacht angenommen als die Menge der möglichen Fakten) zumindest im homo sapiens ergänzt wird um eine zeitlich versetzte Sprachstruktur. Eine Sprachstruktur umfasst sowohl Ausdrücke (Expressions) [E] als auch einen Abbildungsmechanismus [Π], hier auch Bedeutungsfunktion genannt. Der Abbildungsmechanismus ordnet den verfügbaren Ausdrücken E einer Sprache L Wissenselemente F zu und umgekehrt. Dabei ist zu beachten, dass Ausdrücke einer Sprache ein Doppelleben führen: als Ereignis — gesprochen oder geschrieben — sind sie erst einmal Objekte der Wahrnehmung wie alle anderen Objekte auch. Als Objekte, die intern im Einflussbereich einer Bedeutungsfunktion verortet sind, stellt die Bedeutungsfunktion eine Beziehung zu anderen neuronalen Strukturen her; im Grenzfall kann sich ein sprachliches Objekt dadurch sogar auf ein anderes Sprachobjekt beziehen, z.B. Deine Äußerung ‚Da ist ein Tisch‘ trifft zu.

Der Aspekt der zeitlichen Versetzung von Sprache gegenüber allgemeinem Erkennen und Wissen (Kognition) wurde von der Entwicklungspsychologie im Laufe der Jahrzehnte herausgefunden, da das Erlernen von Sprache zeitlich verzögert zur übrigen Entwicklung von Wissen auftritt. Dies erklärt sich daraus, dass die sprachlichen Ausdrücke, die auf Wissen Bezug nehmen, erst dann wirken können, wenn es erste innere Wissensbestände gibt.

Wenn also zwei Personen alt genug sind, dass sie sowohl über Wissen als auch über hinreichend viele gelernte Ausdruckselemente zusammen mit einer Bedeutungsfunktion verfügen, dann kann es zu solchen Sprachereignissen kommen wie jenes, dass Person A äußert Da ist ein Tisch.

Natürlich haben die einschlägigen Disziplinen (wie Psychologie, Sprachpsychologie, Gedächtnispsychologie, Entwicklungspsychologie, Neurolinguistik, Neuropsychologie, usw.) ungeheuer viel mehr Details zu diesem Thema gefunden. Für das grundlegende Verständnis der neuen Software können diese vereinfachenden Annahmen aber vielleicht ausreichen.

SPRACHLICHE FAKTEN

Bevor zum nächsten Aspekt der Veränderung weiter gegangen wird, wird hier noch eine Zwischenreflexion zur besonderen Rolle von Fakten, die sprachliche Ausdrücke sind, eingefügt.

Wenn in Situation 2 Person A die Äußerung Da ist ein Tisch macht, dann hat diese Äußerung einen doppelten Charakter (wie oben schon mal festgestellt): (i) als Äußerung ist sie ein reales Ereignis in der Situation und ist damit ein normales Faktum, so wie der Tisch oder die beiden Personen A und B. (ii) Das Faktum der Äußerung ist aber zugleich auch ein Ausdruck einer Sprache L, die — laut Annahme — A und B beide kennen. D.h. sowohl A und B können aufgrund ihrer erworbenen (= gelernten) Bedeutungsfunktion dieser Sprache L das Faktum der Äußerung mit neuronalen Repräsentationen in ihrem jeweiligen Inneren, als Teil ihres individuellen Weltbildes UA* und UB*, verknüpfen, so dass das Faktum der Äußerung für sie eine Bedeutung bekommt, die sich in diesem Fall auf etwas in der aktuellen Situation bezieht, nämlich auf das Objekt, das beide als Tisch zu bezeichnen gelernt haben.

Ein sprachliches Objekt wie die Äußerung Da ist ein Tisch ist als ein reales Ereignis, ein Faktum, das als solches ’neu‘ ist und als Faktum die bisherige Situation 1 zur neuen Situation 2 ‚verändert‘ — zu Veränderung siehe den nachfolgenden Abschnitt –. Zugleich nimmt die Äußerung Da ist ein Tisch Bezug auf Teilaspekte der aktuellen Situation. Dadurch kann B — falls seine individuelle Welt UB* hinreichend weit mit der individuellen Welt von UA* übereinstimmt — diese Äußerung als eine Botschaft aus dem Innern von A auffassen, die anklingen lässt, was Person A aktuell beschäftigt, und dass Person A etwas wahrnimmt, was er B auch wahrnimmt. Dabei ist zu beachten, dass eine Person keinerlei Zwang hat, alles in Sprache zu fassen, was sie wahrnimmt oder denkt. Innerhalb von konkreten Situationen werden normalerweise nur jene Aspekte (Fakten) der Situation sprachlich thematisiert, die besonders hervorgehoben werden sollen, weil ja ansonsten angenommen wird, dass die konkrete Situation allen Beteiligten gleicherweise zugänglich ist.

Da gesprochene Äußerungen die Eigenschaft haben, nur für die Zeitdauer des Sprechens real in der gemeinsam geteilten realen Situation vorzukommen, und dann nur — vielleicht — als gespeicherte Erinnerung in den Personen, die die gesprochene Äußerung gehört haben, ist die zeitliche Erstreckung von Situation 2 sehr kurz. Sobald der Schall verklungen ist, gibt es wieder nur eine Situation 3, die äußerlich wie Situation 1 aussieht, die aber dennoch anders ist: diese Situation 3 ist eine Folgesituation von Situation 2. Neben diesem zeitlichen Aspekt können sich aber auch die inneren Zustände der beteiligten Personen verändert haben und ’normalerweise‘ haben sie sich verändert.

Situation 3: Nach der Äußerung des gesprochenen Ausdrucks ‚Da ist ein Tisch‘. Äußerlich ähnelt diese Situation 3 der Situation 1, aber sie ist zeitlich später und kann Änderungen in den inneren Zuständen der Beteiligten beinhalten.

Diese inneren Veränderungen können sich z.B. dadurch manifestieren, dass die Person B antworten könnte: Ja, Du hast Recht. Ein Konflikt könnte entstehen, wenn Person B stattdessen sagen würde: Nein, ich sehe keinen Tisch.

Dank der Erfindung von Schrift [7] könnte z.B. Person B sich auch schriftlich notieren, was Person A gesagt hat. Dann gäbe es eine schriftliche Aufzeichnung, die auch dann noch als reales Faktum existieren würde, wenn das Ereignis des Sprechens bzw. dann auch des Schreibens zeitlich vorbei ist. Würden wir die Abkürzungen Fwritten (geschriebenes Faktum) einführen für eine geschriebene Äußerung und Fspoken (gesprochenes Faktum) für eine gesprochene Äußerung, dann könnten wir notieren Fspoken(Da ist ein Tisch) und Fwritten(Da ist ein Tisch). Im gesprochenen Fall dauert das Ereignis nur kurz, im geschriebenen Fall dauert es so lange an, wie das Geschriebene erhalten bleibt.

Hier deutet sich eine weitere Besonderheit sprachlicher Fakten an: (i) gesprochene Fakten Fspoken dauern zwar kurz, aber der Sachverhalt, auf den sie sich aktuell beziehen, kann mit dem Moment des Sprechens korrespondieren. Ein typischer Fall, wo wir sagen könnten: Du hast Recht oder Das stimmt nicht. (ii) Geschriebene Fakten Fwritten können sehr lange andauern, aber das, worauf sie sich beziehen, kann sich zwischenzeitlich geändert haben. Obwohl man ‚zu Beginn‘ der schriftlichen Fixierung vielleicht sagen konnte Das stimmt, wird man irgendwann später vielleicht sagen müssen Das stimmt nicht, etwa wenn es um 12:00 regnet und um 12:15 nicht mehr.

VERÄNDERUNG

Für den weiteren Vorgang nehmen wir an,dass Person A zu Beginn unserer Betrachtungen tatsächlich eine erste schriftliche Fixierung zur Situation 1 vorgenommen hat, die als Faktum Teil der Situation ist und sich auch in einer entsprechenden Beschreibung der Situation manifestiert.

Situation 1*: Wie Situation 1, nur ergänzt um eine schriftliche Aufzeichnung.

Eine Grunderfahrung von uns Menschen ist, dass sich etwas ändern kann. Dies erscheint uns so selbstverständlich, so natürlich, dass wir darüber normalerweise gar nicht nachdenken. Mit den Worten von v.Uexküll im Ohr, kann man sich aber leicht vorstellen, dass es Organismen gibt, deren neuronalen Repräsentationen zwar aktuelle Reize zur Wirkung bringen können (ist das schon Bewusstsein?), die aber nicht in der Lage sind, aktuelle Reize so speichern zu können, dass sie diese bei Bedarf wieder aktivieren und mit anderen gespeicherten oder aktuell wahrgenommenen Reizenergien irgendwie vergleichen können. Für Organismen, die über keine Speicherung (Gedächtnis!) verfügen, gibt es keine Vergangenheit. Anders gesagt, der homo sapiens — wir — verfügt über ausgeklügelte Mechanismen der Speicherung von wahrgenommenen Reizen und zusätzlich über ausgeklügelten neuronalen Prozessen und Strukturen, um diese gespeicherten Reize anzuordnen, in Beziehung zu setzen, zu abstrahieren, zu bündeln und vieles mehr.

Die funktionellen Wirkungen dieser neuronalen Mechanismen werden in der Psychologie, speziell der Gedächtnispsychologie, untersucht und dargestellt. Als Begründer der modernen Gedächtnispsychologie gilt Hermann Ebbinghaus (1850 – 1909), der in jahrelangen Selbstversuchen grundlegende Erkenntnisse über das beobachtbare Funktionieren jener neuronalen Strukturen gewann [5], [5b], die in seinem Gefolge dann von zahllosen Forschern*innen immer weiter verfeinert wurden, und die heute zusätzlich durch neurolinguistische Untersuchungen ergänzt werden.

In diesem Zusammenhang ist die Tatsache wichtig, dass die neuronalen Strukturen des homo sapiens — also unsere — die Reizenergien aus den verschiedenen Sensoren in reizspezifischen Puffern (Buffer) zwischenspeichern, so dass die aktuelle Inhalte der Puffer für einen bestimmten Zeitraum — zwischen 50 bis vielen hundert Millisekunden — bestehen bleiben, um dann mit neuen Reizenergien überschrieben zu werden. Einige dieser Reizenergien aus einem Puffer werden vorher — weitgehend unbewusst — vom Gehirn auf unterschiedliche Weise mit dem bisher gespeicherten Material auf unterschiedliche Weise ‚verarbeitet‘. Eine sehr anschauliche Darstellung dieser Sachverhalte — wenngleich nicht mit den aller neuesten Daten — findet sich in dem Buch von Card, Moran und Newell (1983), die grundlegende Untersuchungen im Bereich Mensch-Maschine Interaktion angestellt und dabei u.a. diese Sachverhalte untersucht haben.[6]( Für neuere Modelle siehe auch [4])

Die entscheidende Erkenntnis aus diesem Komplex der Pufferung von Reizenergie mit partieller anschließender Speicherung besteht darin, dass unser Nervensystem die wahrnehmbare Wirklichkeit — unsere spezielle Umwelt B(U)=U* — letztlich in Zeitscheiben zerlegt, und aus diesen Zeitscheiben Grundeigenschaften (Qualitäten) extrahiert, die in unterschiedlichen Kombinationen dann unsere Fakten über die Umwelt bilden, einschließlich der Differenzierung in Gegenwart und Vergangenheit.

Betrachtet man das Bild von Situation 1 und das Bild von Situation 2, dann werden wir als Betrachter beider Bilder sofort spontan sagen, dass zwischen beiden Situationen eine Veränderung festgestellt werden kann: In Bild zwei gibt es das neue Symbol für eine Äußerung ‚Da ist ein Tisch‘. Die Person B im Bild wird — angenommen sie sei ein ‚normaler‚ Mensch — ebenfalls eine Veränderung wahrnehmen, da sie aktuell, gegenwärtig, jetzt etwas hört, was sie zuvor nicht gehört hat, d.h. in ihrem Gedächtnis der vorausgehenden Zeit (wie lange vorausgehend?) kann sie sich nicht an eine vergleichbare Äußerung ‚erinnern‘. Wäre die Person B schwerhörig oder gar taub, würde sich für Person B aber dennoch nichts ändern, da diesem Fall die persönliche Umwelt BB(U)=UB* von Person B grundsätzlich keine Schallereignisse enthält.

Nimmt man die Bilder von Situation 1 und 2 als Darstellungen der realen Situation S, wie sie von dem jeweiligen Organismus — hier A oder B — als S* wahrgenommen werden, also z.B. BB(S)=SB*, dann könnte die Menge der Ausdrücke der deutschen Sprache zu Situation 1, die eine Beschreibung der Situation 1 darstellen, vielleicht so aussehen (umgesetzt in Situation 1*):

Beschreibung zu S1*:

{Es gibt eine Person A., Es gibt eine Person B.}

Person A empfindet diese Beschreibung als unvollständig und ergänzt die Beschreibung durch die Äußerung: ‚Da ist ein Tisch‘.

Dies ist eine Veränderung in der Beschreibung (!), die aber mit der Situation 1* korrespondiert.

Situation 2*: Neben der schriftlichen Aufzeichnung gibt es jetzt auch eine gesprochene Äußerung.

Wir erhalten:

Beschreibung zu 2*:

{Fwritten(Es gibt eine Person A.), Fwritten(Es gibt eine Person B.) , Fspoken(Da ist ein Tisch.)}

Eine Veränderung drückt sich also dadurch aus, dass man den vorhandenen Ausdrücken einen neuen Ausdruck hinzufügt. Während im Bild Situation 2* die reale Situation sich nicht geändert hat, nur die Intention des Sprechers, mehr zu sagen als bislang, kann sich die Situation 2* ja auch real durch ein neues Ereignis zu Situation 3 ändern, was Sprecher B zu einer neuen Aussage veranlasst.

Situation 3: Ein neues Ereignis führt zur Veränderung der Situation 2*.

Damit ändert sich auch die Beschreibung der Situation 2* zu der Äusserungsmenge:

Beschreibung zu 3:

{Es gibt eine Person A., Es gibt eine Person B. , Unsere Katze ist da.}

Katzen haben die Angewohnheit, dass sie genauso plötzlich auch wieder verschwinden, wie sie gekommen sind.

Situation 4: Die Katze ist wieder weg

Während die Frage der Vollständigkeit einer Beschreibung zu einer realen wahrgenommenen Situation in das Belieben der beteiligten Personen gestellt ist — man kann, man muss aber nicht notwendigerweise etwas sagen –, soll für die Korrektheit einer Beschreibung gelten, dass nichts gesagt werden soll, was nicht auch in der Situation zutrifft. Wenn also die Katze plötzlich wieder verschwunden ist, dann sollte die Beschreibung der Situation S4 entsprechend angepasst werden. Dies bedeutet: Veränderungen können je nach Gegebenheiten entweder (i) durch Hinzufügung einer Aussage angezeigt werden oder (ii) durch Entfernen einer Aussage. Dies führt zu dem Ergebnis:

Beschreibung von S4:

{Es gibt eine Person A., Es gibt eine Person B. }

VERÄNDERUNGSREGELN

Wenn man eine Beschreibung einer aktuellen Situation S vorliegt, dann kann man eine gewünschte oder eine stattgefundenen Veränderung durch folgende Veränderungsregel beschreiben:

Bedingung —> +Eplus -Eminus

  • Die Bedingung beinhaltet eine Menge von Ausdrücken, die in S vorkommen müssen
  • Eplus umfasst Ausdrücke, die zu S hinzugefügt werden sollen
  • Eminus umfasst Ausdrücke, die von S entfernt werden sollen

Beispiele:

(1) {Es gibt eine Person A.} —> {Da ist ein Tisch}, {}

Wenn die Bedingung ‚Es gibt eine Person A.‘ in einer aktuellen Situation S zutrifft, dann soll für die Nachfolgesituation S‘ die Äußerung ‚Da ist ein Tisch‘ hinzugefügt werden. Zum Entfernen wird nichts gesagt.

(2) {Es gibt eine Person A., Es gibt eine Person B.} —> {Unsere Katze ist da.}{}

Wenn die Bedingung ‚Es gibt eine Person A. Es gibt eine Person B.‘ in einer aktuellen Situation S zutrifft, dann soll für die Nachfolgesituation S‘ die Äußerung ‚Unsere Katze ist da‘ hinzugefügt werden. Zum Entfernen wird nichts gesagt.

(3) {Unsere Katze ist da.} —> {}{Unsere Katze ist da.}

Wenn die Bedingung ‚Unsere Katze ist da.‘ in einer aktuellen Situation S zutrifft, dann soll für die Nachfolgesituation S‘ die Äußerung ‚Unsere Katze ist da.‘ entfernt werden. Zum Hinzufügen wird nichts gesagt.

FORTSETZUNG

Im zweiten Teil wird ein konkretes Beispiel mit der Software gezeigt.

QUELLENANGABEN

[1] Ludwig Wittgenstein (1989 – 1951),Entstanden in den Jahren 1936 bis 1946, veröffentlicht 1953, zwei Jahre nach dem Tod des Autors: Philosophische Untersuchungen. Kritisch-genetische Edition. Herausgegeben von Joachim Schulte. Wissenschaftliche Buchgesellschaft. Frankfurt 2001

[2] Ludwig Wittgenstein (1989 – 1951), 1918 fertig, 1921 erste Veröffentlichung, 1992 offizielle kritische Ausgabe: Logisch-philosophische Abhandlung. (Tractatus Logico-Philosophicus), bei Kegan Paul, Trench, Trubner & Co. in London in der Reihe International Library of Psychology, Philosophy and Scientific Method

[3] Jakob Johann Baron von Uexküll (1864 – 1944) : https://de.wikipedia.org/wiki/Jakob_Johann_von_Uexk%C3%BCll (zuletzt: 11.1.2021)

[3b] Jakob von Uexküll, 1909, Umwelt und Innenwelt der Tiere. Berlin: J. Springer. (Download: https://ia802708.us.archive.org/13/items/umweltundinnenwe00uexk/umweltundinnenwe00uexk.pdf )(Zuletzt: 26.Jan 2021)

[4] Gage, Nicole M. und Baars, Bernard J., 2018, Fundamentals of Cognitive Neuroscience: A Beginner’s Guide, 2.Aufl., Academic Press – Elsevier, London – Oxford – San Diego – Cambridge (MA), ISBN = {ISBN-10: 0128038136, ISBN-13: 978-0128038130}

[5] Hermann Ebbinghaus (1850 – 1909): Er gilt als Pionier der kognitiv-psychologischen Forschung. Ebbinghaus begründete die experimentelle Gedächtnisforschung mit seinen Arbeiten zur Lern- und Vergessenskurve und bereitete den Weg für die empirische Lehr-, Lern- und Bildungsforschung: https://de.wikipedia.org/wiki/Hermann_Ebbinghaus (zuletzt: 27.Jan 2021)

[5b] Hermann ‚Ebbinghaus (1885), Über das Gedächtnis. Leipzig: https://www.deutschestextarchiv.de/book/show/ebbinghaus_gedaechtnis_1885

[6] Stuart K.Card, Thomas P.Moran, Allen Newell [1983], The Psychology of Human-Computer Interaction, Lawrence ERlbaum Associates, Inc.; Mahwah, New Jersey

[7] Zur Entstehung der Schrift, ein erster Ansatz: https://de.wikipedia.org/wiki/Geschichte_der_Schrift (zuletzt: 28.Jan 2021)

[8] Gerd Doeben-Henisch, (1.Febr.2021), REAL-VIRTUELL. Ein Einschub, https://www.cognitiveagent.org/2021/02/01/real-virtuell-ein-einschub/

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.