Archiv der Kategorie: Folgerungsbegriff

Kollektive Mensch-Maschine Intelligenz im Kontext nachhaltiger Entwicklung. Brauchen wir ein neues Menschenbild? Vorlesung für AG ENIGMA im Rahmen von U3L der Goethe Universität

Entstehungszeit: 2.Nov 2023 – 6.Jan 2023

Autor: Gerd Doeben-Henisch

Email: gerd@doeben-henisch.de

KONTEXT

Der folgende Text ist die nachträgliche Verschriftlichung einer Vorlesung, die der Autor für die Internet-Arbeitsgruppe ENIGMA [3] der U3L [1,2] der Goethe-Universität Frankfurt am 10.November 2023 gehalten hat. Er stellt eine Weiterentwicklung eines Konferenzbeitrags dar, der bei de Gruyter veröffentlicht wurde: Kollektive Mensch-Maschine-Intelligenz und Text-Generierung. Eine transdisziplinäre Analyse (2023). Man kann auch alle anderen Beiträge (open access) herunterladen.

Der Ankündigungstext lautet:

Kollektive Mensch-Maschine Intelligenz im Kontext
nachhaltiger Entwicklung – Brauchen wir ein neues
Menschenbild?


Prof. Dr. Gerd Doeben-Henisch, Frankfurt University
of Applied Sciences


Die Zeichen der Zeit stehen auf ‚Digitalisierung‘. Schon ist es selbstver-
ständlich, alles, was ‚digital‘ ist, auch mit den Worten ‚smart‘ bzw.‚
intelligent‘ zu verknüpfen. ‚Künstliche Intelligenz‘, ja, natürlich, wer fragt
da noch nach … und wir Menschen, war da nicht was? Gab es nicht
solche Worte wie ‚Geist‘, ‚Rationalität‘, ‚Intelligenz‘ im Umfeld des
Menschen, ‚Wille‘ und ‚Gefühle‘? Ja, es gab eine Zeit, da sahen die
Menschen sich selbst als ‚Krone der Schöpfung‘ … Und jetzt? Eine
Sprachlosigkeit greift um sich; der ‚Schöpfer‘ des Digitalen scheint vor
seinem Werk zu erstarren …

[1] Home u3l: https://www.uni-frankfurt.de/122411224/U3L_Home?

[2] Vorlesungsverzeichnis u3l-WS2023: https://www.uni-frankfurt.de/141923421/programm-ws-2023-24.pdf

[3] Flyer der Vorlesungsreihe WS23/24: https://www.uni-frankfurt.de/144405162.pdf

Zusammenfassung

Die Vorlesung greift zunächst den Kontext der Digitalisierung auf und macht die grundlegenden Strukturen deutlich. Das Eindringen von digitalen Technologien und deren Nutzung im Alltag ist schon jetzt sehr tiefgreifend. Gesellschaftlich spielt die sprachliche Kommunikation für alle Menschen und alle Abläufe eine zentrale Rolle. Literarischen und wissenschaftlichen Kommunikationsformaten kommt hierbei eine besondere Rolle zu. Am Beispiel der neuen Algorithmen für Text-Generierung (wie z.B. chatGPT) wird mit Bezug auf wissenschaftliche Kommunikationformate gezeigt, wie deutlich begrenzt die algorithmische Text-Generierung noch ist. Für alle drängenden Zukunftsaufgaben kann sie den Menschen aufgrund prinzipieller Grenzen nicht ersetzen. Die weitere Ausgestaltung algorithmischer Technologien muss an diesen gesellschaftlichen Herausforderungen gemessen und entsprechend verbessert werden.

INHALTSVERZEICHNIS

  1. EINLEITUNG
  2. DIGITALISIERUNG
    2.1 DAS INTERNET
    2.2 DIE GESELLSCHAFT
  3. DIGITALISIERUNG – SPRACHTECHNOLOGIEN
  4. GESELLSCHAFT – SPRACHE – LITERATUR
  5. SPRACHE UND BEDEUTUNG
  6. ZÄHMUNG DER BEDEUTUNG – WISSENSCHAFT
  7. EMPIRISCHE THEORIE
  8. WAHRHEIT, PROGNOSE & TEXT-GENERATOREN
  9. Epilog

1. EINLEITUNG

Der Titel dieser Vorlesung repräsentiert letztlich das Forschungsparadigma, innerhalb dessen sich der Autor seit ca. 5-6 Jahren bewegt hat. Das Motiv war — und ist –, die üblicherweise isolierten Themen ‚Kollektives menschliches Verhalten‘, ‚Künstliche Intelligenz‘ sowie ‚Nachhaltige Entwicklung‘ zu einer kohärenten Formel zu vereinigen. Dass dies nicht ohne Folgen für das ‚Menschenbild‘ bleiben würde, so wie wir Menschen uns selbst sehen, klang unausgesprochen immer schon zwischen den Zeilen mit.

Die Integration der beiden Themen ‚kollektives menschliches Verhalten‘ sowie ’nachhaltige Entwicklung‘ konnte der Autor schon im Jahr 2022 vollziehen. Dazu musste der Begriff ‚Nachhaltige Entwicklung‘ re-analysiert werden. Was sowohl im Umfeld des Forschungsprojektes Nachhaltige Intelligenz – intelligente Nachhaltigkeit [1] stattfand wie auch in einer sich über 7 Semester erstreckende multidisziplinären Lehrveranstaltung an der Frankfurt University of Applied Sciences mit dem Titel Citizen Science für Nachhaltige Entwicklung.[2]

Die Integration des Themas Künstliche Intelligenz mit den beiden anderen Themen erwies sich als schwieriger. Dies nicht, weil das Thema künstliche Intelligenz so schwer war, sondern weil sich eine brauchbare Charakterisierung von künstlicher Intelligenz Technologie mit Blick auf die Bedürfnisse einer Gesellschaft als schwer erwies: bezogen auf welche Anforderungen einer Gesellschaft sollte man den Beitrag einer künstlichen Intelligenz gewichten?

Hier kamen zwei Ereignisse zu Hilfe: Im November 2022 stellte die US-Firma openAI eine neue Generation von Text-Generatoren vor [3], was zu einer bis dahin nie gekannten Publikations-Explosion führte: Gefühlt jeder fühlte sich angesprochen, nutzte das Werkzeug, und es gab vielstimmige Meinungsäußerung. In folge davon konnte der Autor sich bei einer Konferenz an der TU-Darmstadt beteiligen mit dem Titel Diskurse disruptiver digitaler Technologien am Beispiel von KI-Textgeneratoren (KI:Text) [4]. Hier wurde aus Sicht von 18 Perspektiven versucht, die mögliche Einsetzbarkeit von Text-Generatoren am Beispiel konkreter Text-Arten zu untersuchen. Diese Konferenz stimulierte den Plan, das Setting Text – chatGPT zu übernehmen und es durch Spezialisierung der Text-Variablen auf Literatur und insbesondere wissenschaftliche Theorien zu konkretisieren. Erste Überlegungen in diese Richtungen finden sich hier. [5]

Im Nachklang zu diesen Überlegungen bot es sich an, diese Gedanken im Vortrag für die Arbeitsgruppe ENIGMA weiter zu präzisieren. Dies ist geschehen und resultierte in diesem Vortrag.

[1] https://zevedi.de/themen/nachhaltige-intelligenz-intelligente-nachhaltigkeit/

[2] Materialien zur 6. und 7.Auflage: https://www.oksimo.org/lehre-2/

[3] Kurze Beschreibung: https://en.wikipedia.org/wiki/ChatGPT

[4] https://zevedi.de/themen/ki-text/

[5] Gerd Doeben-Henisch, 24.Aug 2023, Homo Sapiens: empirische und nachhaltig-empirische Theorien, Emotionen, und Maschinen. Eine Skizze, https://www.cognitiveagent.org/2023/08/24/homo-sapiens-empirische-und-nachhaltig-empirische-theorien-emotionen-und-maschinen-eine-skizze/

2. DIGITALISIERUNG

BILD 1: Überblick zu ‚Digitalisierung einer Gesellschaft‘

Da die ‚Digitalisierung‘ heute gefühlt schon fast alle Bereiche unserer menschlichen Gesellschaft erreicht hat, ist es nicht leicht in dieser Vielfalt einen Standpunkt zu lokalisieren, von dem aus sich sowohl über das Ganze wie auch über einzelne konkrete Themen zu sprechen. [1]

Es bot sich daher an, mit einem vereinfachten Überblick über das Ganze zu starten, so dass eine für alle gleiche Ausgangslage hergestellt werden konnte.

Im Bild 1 kann man den links gelblich-grünen Bereich sehen, der für die Gesellschaft selbst steht, und einen grauen Bereich rechts, der für jene Infrastrukturen steht, die eine Digitalisierung technisch ermöglichen. Beide Bereich sind stark schematisiert.

Die digitale Infrastruktur ist aufgeteilt in ‚Endgeräte‘ und in das eigentliche ‚Internet‘. Letzteres wird unterschieden in den ‚Adressraum‘ und jene Geräte, die über den Adressraum erreicht werden können.

2.1 DAS INTERNET

Kurz wurde auf einige wichtige Eigenschaften des Internets hingewiesen:

  1. Alle beteiligten Geräte setzen sich aus ‚Hardware‘ und ‚Software‘ zusammen. Die Hardware wiederum besteht aus einer Konfiguration von ‚Chips‘, die selbst sehr komplex sind und auch aus Hardware und Software bestehen. Bis zu ca. 80 Firmen können bei der Produktion eines einzelnen Chips beteiligt sein (unter Berücksichtigung der diversen Lieferketten). Die Möglichkeit, dass eine beteiligte Firma ’nicht-intendierte‘ Funktionen in einen Chip einbaut, ohne dass die anderen dies merken, sind prinzipiell gegeben. Die für Chips benötigten speziellen Materialien sind partiell ’selten‘ und nur über einige wenige Staaten beziehbar.
  2. Die ‚Software‘ auf einem Rechner (klein bis groß) zerfällt grob in zwei Typen: (i) jene Software, die die grundlegende Kommunikation mit einer Hardware ermöglicht — das ‚Betriebssystem‘ –, und jene Software, die bestimmte Anwendungen ermöglicht, die mit dem Betriebssystem kommunizieren muss — die Anwendungssoftware, heute auch einfach App genannt –. Betriebssysteme haben heute eine Größe, die vielen Millionen Zeilen Code umfassen. Eine solche Software angemessen auf Dauer zu managen, stellt extreme Anforderungen. Nicht weniger im Fall von Anwendungssoftware.
  3. Sobald Software aktiviert wird, d.h. ein Rechner ändert seine inneren Zustände unter dem Einfluss der Software, wird Energie verbraucht. Der Umfang dieses Energieverbrauchs ist heute noch vielfach extrem hoch.[2]
  4. Ein ‚realer Rechner‘ braucht irgendwo auf diesem Planeten einen ‚realen Ort‘ und gehört eine ‚realen Besitzer‘. Dieser Eigentümer hat prinzipiell den vollen Zugriff auf den Rechner, auf seine Software, auf seine Inhalte. Durch die ‚Gesetze‘ eines Landes, durch ‚Vereinbarungen‘ zwischen Geschäftspartnern kann man den Umgang mit dem Rechner versuchen zu regeln, aber Garantien dafür, dass dann tatsächlich die Prozesse und die Daten ‚geschützt‘ sind, gibt es nicht. Eine von vielen Untersuchungen zur Nutzung von Benutzerdaten konnte am Beispiel von Facebook aufzeigen, dass die Einführung der europäischen Datenschutzverordnung 2021 nahezu keine Wirkung im Bereich der Nutzerdaten von Facebook zeigte. [3,4,5]

[1] Phänomen: Den Wald vor lauter Bäume nicht sehen.

[2] Maximilian Sachse, Das Internet steht unter Strom. KI kann helfen, Emissionen einzusparen — verbraucht aber selbst Unmengen an Energie.FAZ, 31.Okt 2023, S.B3

[3] José González Cabañas, Ángel Cuevas, Aritz Arrate, and Rubén Cuevas. 2020. Does Facebook use sensitive data for advertising purposes? Commun. ACM 64, 1 (January 2021), 62–69. https://doi.org/10.1145/3426361

[4] Eine ausführlichere Analyse der Informationsbeschaffung von Nutzern ohne deren Wissen: Ingo Dachwitz, 08.06.2023, Wie deutsche Firmen am Geschäft mit unseren Daten verdienen. Wenn es um Firmen geht, die pausenlos Daten für Werbezwecke sammeln, denken viele an die USA. Unsere Recherche zeigt, wie tief deutsche Unternehmen inzwischen in das Netzwerk der Datenhändler verwoben sind und dass sie auch heikle Datenkategorien anboten. Beteiligt sind Konzerne wie die Deutsche Telekom und ProSieben Sat1, URL: https://netzpolitik.org/2023/adsquare_theadex_emetriq_werbetracking-wie-deutsche-firmen-am-geschaeft-mit-unseren-daten-verdienen/

[5] Ein aktuelles Beispiel mit Microsoft: Dirk Knop, Ronald Eikenberg, Stefan Wischner, 09.11.2023, Microsoft krallt sich Zugangsdaten: Achtung vor dem neuen Outlook. Das neue kostenlose Outlook ersetzt Mail in Windows, später auch das klassische Outlook. Es schickt geheime Zugangsdaten an Microsoft. c’t Magazin, Heise

2.2 DIE GESELLSCHAFT

Die Charakterisierung der Gesellschaft stellt natürlich auch eine starke Vereinfachung dar. Als wichtige Strukturmerkmale seien hier aber festgehalten:

  1. Es gibt eine Grundverfassung jeder Gesellschaft jenseits von Anarchie die zwischen den beiden Polen ‚Demokratisch‘ und ‚Autokratisch‘ liegt.
  2. Es gibt minimal ‚politische Entscheidungsstrukturen‘, die verantwortlich sind für geltende ‚Gesetze‘ und ‚Normen‘.
  3. Die Schlagader jeder lebendigen Gesellschaft ist aber die ‚Öffentlichkeit durch Kommunikation‘: wenn, dann verbindet Kommunikation die vielen Bürger zu handlungsfähigen Einheiten. Autokratien tendieren dazu, Kommunikation zu ‚instrumentalisieren‘, um die Bürger zu manipulieren. In Demokratien sollte dies nicht der Fall sein. Tatsächlich kann aber die Freiheit einer Demokratie von partikulären Interessen missbraucht werden.[1]
  4. Jeder einzelne Bürger ist als ‚menschlicher Akteur‘ eingewoben in unterschiedliche Kommunikationsbeziehungen, die vielfach durch Einsatz von ‚Medien‘ ermöglicht werden.

[1] Sehr viele interessante Ideen zur Rolle de Öffentlichkeit finden sich in dem Buch Strukturwandel der Öffentlichkeit von Jürgen Habermas, veröffentlicht 1962. Siehe dazu ausführlich den Wikipedia-Eintrag: https://de.wikipedia.org/wiki/Strukturwandel_der_%C3%96ffentlichkeit

[2] Florian Grotz, Wolfgang Schroeder, Anker der Demokratie? Der öffentlich-rechtliche Rundfunk hat einen wesentlichen Beitrag zum Erfolg der deutschen Demokratie geleistet. Derzeit steht er im Kreuzfeuer der Kritik. Wie kann er auch künftig seine Ankerfunktion im demokratischen Mediensystem erfüllen? FAZ 13.Nov 2023, S.6, Siehe auch online (beschränkt): https://www.faz.net/aktuell/politik/die-gegenwart/ard-und-zdf-noch-im-dienst-der-demokratie-19309054.html Anmerkung: Die Autoren beschreiben kenntnisreich die historische Entwicklung des öffentlich-rechtlichen Rundfunks (ÖRR) in drei Phasen. Verschiedene Schwierigkeiten und Herausforderungen heute werden hervor gehoben. Der generelle Tenor in allem ist, dass von ’notwendigen Veränderungen‘ gesprochen wird. Diese werden über die Themen ‚Finanzierung, Programm und Kontrolle‘ ein wenig ausgeführt. Dies sind alles sehr pragmatische Aspekte. Wenn es dann im Schlusssatz heißt „Es geht darum, dass der ÖRR auch in Zukunft eine wichtige Rolle im Dienst der Demokratie spielen kann.“ dann kann man sich als Leser schon fragen, warum ist der ÖRR denn für die Demokratie so wichtig? Finanzen, Programme und Kontrolle sind mögliche pragmatische Teilaspekte, aber eine eigentliche Argumentation ist nicht zu erkennen. Mit Blick auf die Gegenwart, in welcher die ‚Öffentlichkeit‘ in eine Vielzahl von ‚Medienräumen‘ zerfällt, die von unterschiedlichen ‚Narrativen‘ beherrscht werden, die sich gegenseitig auszuschließen scheinen und die ein von einer echten Mehrheit getragenes politisches Handeln unmöglich erscheinen lassen, sind Finanzen, Kontrollen, formale Programmvielfalt nicht unbedingt wichtige konstruktive Kriterien. Der zusätzlich verheerende Einfluss neuer bedeutungsfreier Texte-generierende Technologien wird mit den genannten pragmatischen Kriterien nicht einmal ansatzweise erfasst.

3. DIGITALISIERUNG – SPRACHTECHNOLOGIEN

BILD 2 : Das Enstehen von Sprachtechnologien zur Unterstützung im Umgang mit Sprache

Dem ‚Weltereignis‘ Text-Generatoren im November 2022 gingen viele andere Sprachtechnologien voraus. So unterscheidet man grob:

  1. TTS, T2S , Text-to-Speech, Speechsynthesis: Erste Systeme, die geschriebenen Text in gesprochene Sprache umsetzen konnten. Ab 1968 [1]
  2. S2T, STT , Speech-to-Text: Spracherkennungssysteme, die gesprochene Sprache in geschriebenen Text verwandelt konnten. Ab 1952 [2]
  3. TRANSL , Maschineller Übersetzer: Programme, die von einer Ausgangssprache in eine Zielsprache übersetzen können. Ab 1975. [3]
  4. DIAL , Dialogsysteme: Programme, die mit Menschen Dialoge führen können, um bestimmte Aufgaben zu unterstützen. Ab 1960iger Jahre. [4]
  5. C2T , Command-to-Text: Programme, die anhand von Aufforderungen Texte mit bestimmten Eigenschaften generieren können. Prominent ab November 2022. [5]

Mittlerweile gibt es noch eine Vielzahl anderer Werkzeuge, die im Rahmen der Computerlinguistik zur Arbeit mit Texten angeboten werden.[6]

Diese Beispiele zeigen, dass die Digitalisierung unserer Welt sich auch immer mehr unserer sprachlichen Kommunikation bemächtigt. Vielfach werden diese Werkzeuge als Hilfe, als Unterstützung wahrgenommen, um die menschliche Sprachproduktion besser verstehen und im Vollzug besser unterstützen zu können.

Im Fall der neuen befehlsorientierten Text-Generatoren, die aufgrund interner Datenbanken komplexe Texte generieren können, die für einen Leser ‚wie normale Texte von Menschen‘ daher kommen, wird der Raum der sprachlichen Kommunikation erstmalig von ’nicht-menschlichen‘ Akteuren durchdrungen, die eine stillschweigende Voraussetzung außer Kraft setzen, die bislang immer galt: es gibt plötzlich Autoren, die keine Menschen mehr sind. Dies führt zunehmend zu ernsthaften Irritationen im sprachlichen Diskursraum. Menschliche Autoren geraten in eine ernsthafte Krise: sind wir noch wichtig? Werden wir noch gebraucht? Ist ‚Menschsein‘ mit einem Schlag ‚entwertet‘?

[1] Erste Einführung hier: https://en.wikipedia.org/wiki/Speech_synthesis

[2] Erste Einführung hier: https://en.wikipedia.org/wiki/Speech_recognition

[3] Erste Einführung hier: https://en.wikipedia.org/wiki/Machine_translation

[4] Erste Einführung hier: https://en.wikipedia.org/wiki/Dialogue_system

[5] Erste Einführung hier: https://en.wikipedia.org/wiki/ChatGPT

[6] Für eine erste Einführung siehe hier: https://de.wikipedia.org/wiki/Computerlinguistik

4. GESELLSCHAFT – SPRACHE – LITERATUR

BILD 3 : Sprachtechnologien und Literatur

Das Auftreten der neuen Werkzeuge zur Text-Generierung stiftet eine anhaltende Unruhe im Lager der Schriftsteller, der Autoren und der Literaturwissenschaftler.

Ein beeindruckendes Beispiel ist die Analyse von Hannes Bajohr (2022).[1] Er spielt die Varianten durch, was passiert, wenn … Was passiert, wenn sich die Produktion von literarischen Texten mit Text-Generatoren durchsetzt? Wenn es zum Standard wird, dass immer mehr Texte, ganze Romane mit Text-Generatoren erzeugt werden? Und dies sind keine bloßen Träume, sondern solche Texte werden schon produziert; Bajohr selbst hat einen Roman unter Zuhilfenahme eines Text-Generators verfasst.[2]

Eine andere junge Autorin und Kulturwissenschaftlerin, die sich intensiv mit dem neuen Wechselverhältnis von Literatur, digitaler Welt und Text-Generatoren auseinander setzt ist Jenifer Becker.[3] Ihr Debüt-Roman ist aber noch ein Roman ohne Einsatz von künstlichen Texterzeugern. In ihrem Roman spricht sie noch ’selbst‘ als ‚menschliche Autorin‘ und wir damit potentiell zu einer Gesprächspartnerin für ihre Leser: der Andere als potentielles Ich, wobei das ‚eigentliche Ich‘ sich Spiegel des Textes in spannungsvoller Differenz erleben kann.

Angesichts einer digitalisierten Welt, die mehr und mehr zu einer ‚Ereigniswelt‘ wird, in der das ‚Verweilen‘, das ‚Verstehen‘ sich immer mehr abschwächt, verstummt, verliert auch das Individuum seine eigene Kraft und beginnt sich ‚hohl‘ anzufühlen, wo es doch gar nicht hohl ist, nicht hohl sein muss.

Hier setzt die Rede zur Nobelpreisverleihung 2018 für Literatur der polnischen Laureatin Olga Tokarczuk ein. Sie beschreibt als das Wunderbare von Literatur gerade diese einzigartige Fähigkeit von uns Menschen, dass wir mittels Sprache von unserem Innern berichten können, von unserer individuellen Art des Erlebens von Welt, von Zusammenhängen, die wir in dem Vielerlei des Alltags entdecken können, von Prozessen, Gefühlen, von Sinn und Unsinn. [4]

In dieser Eigenschaft ist Literatur durch nichts ersetzbar, bildet Literatur den ‚inneren Herzschlag‘ des Menschlichen auf diesem Planeten.

Aber, und dies sollte uns aufhorchen lassen, dieser wunderbarer Schatz von literarischen Texten wird bedroht durch den Virus der vollständigen Nivellierung, ja geradezu eine vollständigen Auslöschung. Text-Generatoren haben zwar keinerlei Wahrheit, keinerlei realen Bindungen an eine reale Welt, an reale Menschen, keinerlei wirkliche Bedeutung, aber in der Produktion von Texten (und gesprochener Rede) ohne Wahrheit sind sie vollständig frei. Durch ihre hohe Geschwindigkeit der Produktion können sie alle ‚menschliche Literatur‘ in der Masse des Bedeutungslosen aufsaugen, unsichtbar machen, nihilieren.

[1] Hannes Bajohr, 2022, Artifizielle und postartifizielle Texte. Über Literatur und Künstliche Intelligenz. Walter-Höllerer-Vorlesung 2022, 8.Dez. 2022, Technische Universität Berlin , URL: https://hannesbajohr.de/wp-content/uploads/2022/12/Hoellerer-Vorlesung-2022.pdf, Den Hinweis auf diesen Artikel erhielt ich von Jennifer Becker.

[2] Siehe dazu Bajohr selbst: https://hannesbajohr.de/

[3] Jenifer Becker, Zeiten der Langeweile, Hanser, Berlin, 2023. Dazu Besprechung in der Frankfurter Rundschau, 30.8.23, Lisa Berins, Die große Offline-Lüge, https://www.fr.de/kultur/literatur/zeiten-der-langeweile-von-jenifer-beckerdie-grosse-offline-luege-92490183.html

[4] Olga Tokarczuk, 2018, The Tender Narrator, in: Nobel Lecture by Olga Tokarczuk, 2018, Svenska Akademien, URL: https://www.nobelprize.org/uploads/2019/12/tokarczuk-lecture-english-2.pdf

5. SPRACHE UND BEDEUTUNG

BILD 4 : Sprache und Bedeutung

Am Beispiel der ‚menschlichen Literatur‘ klang eben schon an, welch fundamentale Rolle die ‚Bedeutung von Sprache‘ spielt und dass wir Menschen über solch eine Fähigkeit verfügen. Im Schaubild 4 wird veranschaulicht, was es bedeutet, dass Menschen im Alltag scheinbar mühelos Aussagen erzeugen können, die als ‚aktuell zutreffend’/ ‚wahr‘ untereinander akzeptiert werden oder als ‚aktuell nicht zutreffend’/ ‚falsch‘ oder als ‚aktuell unbestimmt‘. Wenn ein konkreter empirischer Sachverhalt gegeben ist (der Hund von Ani, das rote Auto vom Nachbarn Müller, die Butter auf dem Frühstückstisch, …), dann ist eine Einigung zwischen Menschen mit der gleichen Sprache immer möglich.

Was man sich dabei selten bewusst macht ist, welch starke Voraussetzung ‚in einem Menschen‘ gegeben sein müssen, damit er über diese Fähigkeit so leicht verfügen kann.

Die ‚Box‘ im rechten Teil des Diagramms repräsentiert auf einem starken Abstraktionsniveau die wichtigsten Komponenten, über die ein Mensch in seinen inneren Verarbeitungsstrukturen verfügen können muss, damit er mit anderen so sprechen kann. Die Grundannahmen sind folgende:

  1. Eine Außenwahrnehmung der umgebenden (empirischen) Welt.
  2. Alles was wahrgenommen werden kann kann auch in ‚Elemente des Wissens‘ verwandelt werden.
  3. Eine Sonderrolle nimmt die Repräsentation von Elementen der Sprachstruktur ein.
  4. Zwischen den Elementen des Wissens und den Ausdruckselementen kann ein Mensch eine dynamische Abbildungsbeziehung (Bedeutungsbeziehung) aufbauen (Lernen), so dass Wissenselemente auf Ausdruckselemente verweisen und Ausdruckselemente auf Wissenselemente.
  5. Aus Sicht der Ausdruckselemente bildet jenes Wissen, das über eine Abbildung verbunden wird, die ‚Bedeutung‘ der Ausdruckselemente.
  6. Innerhalb des Wissens gibt es zahlreiche unterschiedliche Formen von Wissen: aktuelles Wissen, erinnerbares Wissen, Veränderungswissen, Ziele, und prognostisches Wissen.
  7. Und vieles mehr

Neben Aussagen, die ‚aktuell wahr‘ sein können, verfügt der Mensch aber auch über die Möglichkeit, vielfache Wiederholungen als ‚wahr‘ anzusehen, wenn sie sich immer wider als ‚aktuell wahr‘ erweisen. Dies verweist auf mögliche weitere Formen von möglichen abgeleiteten Wahrheiten, die man vielleicht unter dem Oberbegriff ’strukturelle Wahrheit‘ versammeln könnte.

6. ZÄHMUNG DER BEDEUTUNG – WISSENSCHAFT

BILD 5 : Wissenschaft als Ergänzung von Literatur

Die Ur-Funktion von Literatur, das Gespräch zwischen dem Inneren der Menschen über ihre Welt- und Selbsterfahrung sprechen zu können, indem nicht nur die ‚Oberfläche der Dinge‘, sondern auch die ‚Tiefenstruktur der Phänomene‘ ins Wort kommen können, ist unersetzbar, aber sie leidet im Alltag an der strukturellen Schwäche des möglichen ‚Nicht-Verstehens‘ oder ‚Falsch-Verstehens‘. Während sich über die Dinge des alltäglichen Lebens leicht Einigkeit erzielen lässt, was jeweils gemeint ist, ist das ‚Innere‘ des Menschen eine echte ‚Terra Incognita‘, ein ‚unbekanntes Land‘. In dem Maße, wie wir Menschen im Innern ‚ähnlich‘ erleben und empfinden, kann das Verstehen von ‚Bedeutungen‘ noch ansatzweise gelingen, da wir Menschen aufgrund unserer Körperstrukturen in vielen Dingen ähnliche Erleben, Fühlen, Erinnern und Denken. Aber je spezifischer etwas in unserem Inneren ist, je ‚abstrakter‘ eine Bedeutung wird, umso schwieriger wird die Erfassung einer Rede durch andere. Dies führt dann unabwendbar zum Falsch- oder gar Nicht-Verstehen.

In dem Maße wie wir Menschen aber auf eine ‚tragfähige Erklärung von Welt‘ angewiesen sind, um ‚gemeinsam‘ das ‚Richtige‘ zu tun, in dem Maße wird unsere normale sprachliche Kommunikation, wird Literatur überfordert. Sie will vielleicht, aber sie kann aus sich heraus eine solche Eindeutigkeit nicht ohne weiteres herstellen. Ihre Stärke kann und wird in diesen Bereich zu einer Schwäche.

Vor dem Hintergrund des ‚Überlebens auf dem Planeten‘, des ‚Überlebens im Alltag‘ bildet die Notwendigkeit von ‚wahren Texten‘, die zudem ‚belastbare Prognosen‘ erlauben, eine Kernforderung, die möglicherweise nur eine Teilmenge jener Bedeutungsräume erlaubt, über die Literatur verfügen kann. Aber diese ‚wahren und belastbaren Teilräume‘ bilden jenen ‚harten Boden‘, auf denen sich Menschen quer über alle Kontinente und im Bereich aller Sprachen gründen können.

Diese Art von Texten, deren Existenz von gemeinsamen nachprüfbaren ‚wahren Sachverhalten und Prognosen‘ abhängt, entstand in der Geschichte der Menschheit unter dem Namen ‚empirische Wissenschaft‘ sehr spät.[1] Nach anfänglichen Mühen entwickelte sie sich dann rasant weiter und ist heute zum Standard für nachweisbar wahre und prognosefähige Texte geworden.

Die heutige weltweite Verbreitung von ‚Wissenschaft‘ ist ihr selbst aber mittlerweile zum Problem geworden. Der klare Kern dieser Textform erscheint in der öffentlichen Verwendung der Charakterisierung von ‚Wissenschaft‘ seltsam vage. Der Begriff einer ‚empirischen Theorie‘ ist geradezu verschwunden. Die großen Enzyklopädien dieser Welt kennen diesen Begriff nicht mehr.

Dazu kommt die ‚Altlast‘ der modernen Wissenschaft, dass sie sich schnell zu einer Veranstaltung von ‚Spezialisten‘ entwickelt hat, die ihre ‚eigene Fachsprache‘ sprechen, die zudem vielfach teilweise oder ganz mit ‚mathematischer Sprache‘ arbeiten. Diese führt zunehmend zu einer Ausgrenzung aller anderen Bürger; das ‚Verstehen von Wissenschaft‘ wird für die meisten Menschen zu einer ‚Glaubenssache‘, wo doch Wissenschaft gerade angetreten war, um die ‚Autorität des bloßen Glaubens‘ zu überwinden.

Desweiteren haben wir in den letzten Jahrzehnten mehr und mehr gelernt, was es heißt, den Aspekt ‚Nachhaltiger Entwicklung‘ zu berücksichtigen. Eine Grundbotschaft besteht darin, dass alle Menschen einbezogen werden müssen, um die Entwicklung nicht von einzelnen, kleinen — meist mächtigen — Gruppen dominieren zu lassen. Und von de Entwicklung des Lebens auf diesem Planeten [3] wissen wir, dass das Leben — von dem wir als Menschen ein kleiner Teil sind — in den zurück liegenden ca. 3.5 Milliarden Jahren nur überleben konnten, weil es nicht nur das ‚Alte, Bekannte‘ einfach wiederholt hat, sondern auch immer ‚aus sich echtes Neues‘ heraus gesetzt hat, Neues, von dem man zum Zeitpunkt des Hervorbringens nicht wusste, ob es für die Zukunft brauchbar sein wird.[3,4]

Dies regt dazu an, den Begriff der ‚empirischen Theorie‘ zu aktualisieren und ihn sogar zum Begriff einer ’nachhaltigen empirischen Theorie‘ zu erweitern.

[1] Wenn man als Orientierungspunkt für den Beginn der neuzeitlichen wahrheitsfähigen und prognosefähigen Texte Galileo Galilei (1564 – 1641) und Johannes Kepler ()1571 – 1630) nimmt , dann beginnt der Auftritt dieser Textform im 17./18. Jahrhundert. Siehe hier: https://de.wikipedia.org/wiki/Galileo_Galilei und hier: https://de.wikipedia.org/wiki/Johannes_Kepler

[2] UN. Secretary-General; World Commission on Environment and Development, 1987, Report of the World Commission on Environment and Development : note / by the Secretary General., https://digitallibrary.un.org/record/139811 (accessed: July 20, 2022) (In einem besser lesbaren Format: https://sustainabledevelopment.un.org/content/documents/5987our-common-future.pdf) Anmerkung: Gro Harlem Brundtland (ehemalige Ministerpräsidentin von Norwegen) war die Koordinatorin von diesem Report. 1983 erhielt sie den Auftrag vom Generalsekretär der UN einen solchen Report zu erstellen, 1986 wurde er übergeben und 1987 veröffentlicht. Dieser Text enthält die grundlegenden Ideen für alle weiteren UN-Texte.

Zitat aus dem Vorwort: The fact that we all became wiser, learnt to look across cultural and historical barriers, was essential. There were moments of deep concern and potential crisis, moments of gratitude and achievement, moments of success in building a common analysis and perspective. The result is clearly more global, more realistic, more forward looking than any one of us alone could have created. We joined the Commission with different views and perspectives, different values and beliefs, and very different experiences and insights. After these three years of working together, travelling, listening, and discussing, we present a unanimous report.“ und „Unless we are able to translate our words into a language that can reach the minds and hearts of people young and old, we shall not be able to undertake the extensive social changes needed to correct the course of development.

[3] Gerd Doeben-Henisch, 2016, Sind Visionen nutzlos?, URL: https://www.cognitiveagent.org/2016/10/22/sind-visionen-nutzlos/

[4] Zum Begriff der Evolution siehe hier: https://de.wikipedia.org/wiki/Evolution und hier: https://en.wikipedia.org/wiki/Evolution

7. EMPIRISCHE UND NACHHALTIG EMPIRISCHE THEORIE

BILD 6 : Aktualisierter Begriff von ‚Empirischer Theorie (ET)‘ und ‚Nachhaltiger Empirischer Theorie (NET)‘

Zum ‚aktualisierten Begriff‘ einer empirischen und einer nachhaltig empirischen Theorie gehören die folgenden Elemente:

  1. Die Gruppe der ‚Theorie-Autoren‘ besteht prinzipiell aus allen Menschen, die in ihrer Alltagssprache kommunizieren. Dies ermöglicht von Anfang an maximale Diversität.
  2. Der engere Begriff der ‚Empirischen Theorie‘ umfasst die Elemente ‚IST-Zustand‘, ‚Veränderungs-Wissen‘ sowie einen ‚Folgerungsbegriff‘ in Form eines Wissens, wie man Veränderungswissen auf einen gegebenen Zustand anwendet.
  3. Das ‚Ergebnis einer Folgerung‘ ist ein ’neuer Folge-Zustand‘.
  4. Lässt sich eine Folgerung mehrfach vollziehen dann ensteht eine ‚Folge von Folgezuständen‘, die man heute auch als ‚Simulation‘ bezeichnen kann.

Der IST-Zustand umfasst eine Menge von Ausdrücken einer gewählten Alltagssprache, die so beschaffen sind, dass alle beteiligten Theorie-Autoren sich darüber einigen können, dass diese Ausdrücke unter den angenommenen Bedingungen ‚zutreffen‘, d.h. ‚wahr‘ sind.

Das Veränderungs-Wissen umfasst eine Menge von Ausdrücken, die Veränderungsprozesse beschreiben, die sich ebenfalls unter angegebenen Bedingungen von jedem überprüfen lassen.

Der Folgerungsbegriff ist ein Text, der eine Handlungsbeschreibung umfasst, die beschreibt, wie man eine Veränderungsbeschreibung auf eine gegebene IST-Beschreibung so anwendet, dass daraus ein neuer Text entsteht, der die Veränderung im Text enthält.

Eine empirische Theorie ermöglicht die Erzeugung von Texten, die mögliche Zustände in einer möglichen Zukunft beschreiben. Dies kann mehr als eine Option umfassen.

Im Alltag der Menschen reicht ein bloßes Wissen um ‚Optionen‘ aber nicht aus. Im Alltag müssen wir uns beständig Entscheiden, was wir tun wollen. Für diese Entscheidungen gibt es keine zusätzliche Theorie: für einen menschlichen Entscheidungsprozess ist es bis heute mehr oder weniger ungeklärt, wie er zustande kommt. Es gibt allerdings viele ‚Teil-Theorien‘ und noch mehr ‚Vermutungen‘.

Damit diese ’nicht-rationale Komponente‘ unseres alltäglichen Lebens nicht ‚unsichtbar‘ bleibt, wird hier der Begriff einer nachhaltigen empirischen Theorie vorgeschlagen, in dem zusätzlich zur empirischen Theorie eine Liste von Zielen angenommen wird, die von allen Beteiligten aufgestellt wird. Ob diese Ziele ‚gute‘ Ziele sind, kann man erst wissen, wenn sie sich ‚im weiteren Verlauf‘ ‚bewähren‘ oder eben nicht. Explizite Ziele ermöglichen daher einen ‚gerichteten Lernprozess‘. Explitit formulierte Ziele ermöglichen darüber hinaus eine kontinuierliche Kontrolle, wie sich der aktuelle Handlungsprozess mit Blick auf ein Ziel verhält.

Für die Umsetzung einer nachhaltigen Entwicklung sind nachhaltige empirische Theorien eine unverzichtbare Voraussetzung.

8. WAHRHEIT, PROGNOSE & TEXT-GENERATOREN

BILD 7 : Die potentielle Rolle von Text-Generatoren der Machart 2023 innerhalb eines wissenschaftlichen Diskurses

Für die Bewertung, welche Rolle Textgeneratoren aus dem Jahr 2023 innerhalb eines wissenschaftlichen Diskurses spielen können, kann man ein Gedankenexperiment (und dann natürlich auch real) durchführen, welche der Anforderungen eines wissenschaftlichen Diskurses, die zuvor erläutert worden sind, von einem Text-Generator erfüllt werden können. Das Bild Nr.7 ist eigentlich selbst-erklärend.

Das zentrale Argument besteht darin, dass Text-Generatoren des Jahrgangs 2023 über keinerlei Wissen verfügen, wie es der Mensch besitzt, nahezu keine Wahrnehmung (außer Texteingaben oder Spracheingaben) haben, und dementsprechend auch über keine Bedeutungsfunktion verfügen. Die Unfähigkeit zu ‚wahren Aussagen‘ oder auch der Fähigkeit, entscheiden zu können, ob etwas ‚wahr‘ ist oder nicht, fehlt ebenfalls vollständig.[1]

[1] Ron Brachman, Hector Levesque, Dieser KI können wir nicht trauen, Es gibt ein grundlegendes Problem in der Entwicklung der gegenwärtig angesagten KI-Systeme. Hier kommt ein Vorschlag, wie es besser geht. FAZ, Mo 13.Nov 2023, S.19 . Online (beschränkt) auch hier: https://www.faz.net/aktuell/wirtschaft/unternehmen/chatgpt-co-dieser-ki-koennen-wir-nicht-trauen-19308979.html, Anmerkung 1: Die beiden Autoren nehmen den Boom um chatGPT zum Anlass, vor der gesamten Künstlichen Intelligenz (KI) zu warnen. Sie fokussieren ihre Kritik auf einen Punkt: „Der aktuellen KI-Technologie kann man nicht trauen. … Obwohl sie auf der Grundlage riesiger Datenmengen trainiert werden … machen moderne KI-Systeme bizarre, dumme Fehler. Unvorhersehbare, unmenschliche Fehler.“ Und weiter: „Wir wissen nicht, wann diese Systeme das Richtige tun und wann sie versagen.“ Sie führen im weiteren Verlauf noch aus, dass die aktuelle Architektur dieser Systeme es nicht zulässt, heraus zu finden, was genau die Gründe sind, warum sie entweder richtig oder falsch urteilen. Mit Blick auf den Alltag diagnostizieren sie bei uns Menschen einen ‚gesunden Menschenverstand‘, ein Prototyp von ‚Rationalität‘, und diesen sehen sie bei den KI-Systemen nicht. Sie beschreiben viele Eigenschaften, wie Menschen im Alltag lernen (z.B. mit ‚Überzeugungen‘, ‚Zielen‘ arbeiten, mit ‚Konzepten‘ und ‚Regeln‘, mit ‚echten Fakten‘, …), und stellen fest, dass KI-Systeme für uns erst wirklich nützlich werden, wenn sie über diese Fähigkeiten nachvollziehbar verfügen. Anmerkung 2: Die Autoren sprechen es nicht explizit aus, aber implizit ist klar, dass sie die neuen Text-Generatoren wie chatGPT & Co zu jener KI-Technologie rechnen, die sie in ihrem Beitrag charakterisieren und kritisieren. Wichtig ist, dass Sie in ihrer Kritik Kriterien benutzen, die alltäglich vage sind (‚gesunder Menschenverstand‘), allerdings angereichert mit vielen Alltagsbeispielen. Letztlich machen ihre kritischen Überlegungen aber deutlich, dass es angesichts der neuen KI-Technologien an geeigneten und erprobten Meta-Modellen (‚transdisziplinär‘, ‚wissenschaftsphilosophisch‘, …) mangelt. Man ’spürt‘ ein Ungenügen mit dieser neuen KI-Technologie, kann auch viele Alltagsbeispiele aufzählen, aber es fehlt an einem klaren theoretischen Konzept. Ein solches scheint aber momentan niemand zu haben ….

9. Epilog

Diese Kurzfassung meines Vortags vom 10.November 2023 ist gedacht als ‚Basis‘ für die Erstellung eines umfassenderen Textes, in dem alle diese Gedanken weiter ausgeführt werden, dazu auch mit viel mehr Literatur und vielen realen Beispielen.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

ABSTRAKTE MORAL in einer ENDLICHEN und VERÄNDERLICHEN WELT

(16.Juni 2023 – 19.Juni 2023, 15:15h)

KONTEXT

Die Bedeutung und die Befolgung von moralischen Werten im Kontext des alltäglichen Handelns hat schon immer für Spannungen, Diskussionen und handfeste Konflikte gesorgt.

In diesem Text soll kurz beleuchtet werden, warum dies so ist, und warum dies vermutlich nie anders sein wird, so lange wir Menschen so sind, wie wir sind.

ENDLICHE-UNENDLICHE WELT

In diesem Text wird angenommen, dass die Wirklichkeit, in der wir uns von Kindheit an ‚vorfinden‘, eine ‚endliche‘ Welt ist. Damit ist gemeint, dass kein Phänomen, auf das wir in dieser Welt stoßen — wir selbst mit eingeschlossen — ‚unendlich‘ ist. Anders ausgedrückt: alle Ressourcen, auf die wir stoßen, sind ‚begrenzt‘. Auch die ‚Sonnenenergie, die im heutigen Sprachgebrauch als ‚erneuerbar‘ angesehen wird, ist ‚begrenzt‘, wenngleich diese Begrenzung die Lebenszeit vieler Generationen von Menschen überdauert.

Diese ‚Endlichkeit‘ ist aber kein Gegensatz dazu, dass sich unsere endliche Welt kontinuierlich in einem ‚Veränderungsprozess‘ befindet, der von vielen Seiten gespeist wird. Eine ’sich-selbst-verändernde Endlichkeit‘ ist damit ein Etwas, was an und in sich irgendwie ‚über sich hinaus weist‘! Die ‚Wurzeln‘ dieser ‚immanenten Veränderlichkeit‘ sind weitgehend vielleicht noch unklar, aber die ‚Auswirkungen‘ der immanenten Veränderlichkeit‘ deuten an, dass das jeweils ‚konkret Endliche‘ nicht das Entscheidende ist; das ‚jeweils konkret Endliche‘ ist eher eine Art ‚Indikator‘ für eine ‚immanente Veränderungsursache‘, die sich mittels konkreter Endlichkeiten in Veränderung ‚manifestiert‘. Die ‚Formen konkreter Veränderungsmanifestationen‘ können daher vielleicht eine Art ‚Ausdruck‘ sein, von etwas, was ‚dahinter immanent wirkt‘.

In der Physik gibt es das Begriffspaar ‚Energie‘ und ‚Masse‘, letztere als Synonym für ‚Materie‘. Atomphysik und Quantenmechanik haben uns gelehrt, dass die verschieden ‚Manifestationen von Masse/ Materie‘ nur eine ‚Zustandsform von Energie‘ sein können. Die überall und immer angenommene ‚Energie‘ ist jener ‚Ermöglichungsfaktor‘, der sich in all den bekannten Formen von Materie ‚manifestieren‘ kann. ‚Sich-verändernde-Materie‘ kann man dann verstehen als eine Form von ‚Information‘ über die ‚ermöglichende Energie‘.

Setzt man das, was die Physik bislang über ‚Energie‘ herausgefunden hat, als jene Form von ‚Unendlichkeit‘, die sich uns über die erfahrbare Welt erschließt, dann sind die verschiedenen ‚Manifestationen von Energie‘ in diversen ‚Formen von Materie‘ Formen konkreter Endlichkeiten, die aber im Kontext der unendlichen Energie letztlich nicht wirklich endlich sind. Alle bekannten materiellen Endlichkeiten sind nur ‚Übergänge‘ (‚Transitionen‘) in einem nahezu unendlichen Raum von möglichen Endlichkeiten, der letztlich in der ‚unendlichen Energie‘ gründet. Ob es ’neben‘ oder ‚hinter‘ oder ‚qualitativ nochmals ganz anders zu‘ der ‚erfahrbaren Unendlichkeit‘ noch eine ‚andere Unendlichkeit‘ gibt, ist damit völlig offen.[1]

ALLTAGSERFAHRUNGEN

Unser normale Lebenskontext ist das, was wir heute ‚Alltag‘ nennen: ein Bündel von regelmäßigen Abläufen, vielfach verbunden mit charakteristischen Verhaltens-Rollen. Dazu gehört die Erfahrung, einen ‚endlichen Körper‘ zu haben; dass ‚Abläufe real Zeit benötigen‘; dass jeder Prozess durch seinen eigenen ‚typischen Ressourcenverbrauch‘ charakterisiert ist; dass ‚alle Ressourcen endlich‘ sind (wobei es hier unterschiedliche Zeit-Skalen geben kann (siehe das Beispiel mit der Sonnenenergie)).

Aber auch hier: das ‚Eingebettet-Sein‘ aller Ressourcen und ihr Verbrauch in eine umfassende Veränderlichkeit macht aus allen Angaben ‚Momentaufnahmen‘, die ihre ‚Wahrheit‘ nicht allein ‚im Moment‘ haben, sondern in der ‚Gesamtheit der Abfolge‘! An sich ‚kleine Veränderungen‘ im Alltag können, wenn sie andauern, Größen annehmen und Wirkungen erzielen, die einen ‚bekannten Alltag‘ soweit verändern, dass lang bekannte ‚Anschauungen‘ und ‚lang praktizierte Verhaltensweisen‘ irgendwann ’nicht mehr stimmen‘: Das Format des eigenen Denkens und Verhaltens gerät dann in zunehmendem Widerspruch zur erfahrbaren Welt. Dann ist der Punkt gekommen, wo die immanente Unendlichkeit sich in der alltäglichen Endlichkeit ‚manifestiert‘ und uns darin ‚demonstriert‘, dass der ‚gedachte Kosmos in unserem Kopf‘ eben nicht der ‚wahre Kosmos‘ ist. Letztlich ist diese immanente Unendlichkeit ‚wahrer‘ als die ’scheinbare Endlichkeit‘.

HOMO SAPIENS (Wir)

Neben den lebensfreien materiellen Prozessen in dieser endlichen Welt gibt es seit ca. 3.5 Mrd. Jahren die Erscheinungsformen, die wir ‚Leben‘ nennen, und sehr spät — quasi ‚gerade eben‘ — zeigte sich in den Milliarden von Lebensformen eine, die wir ‚Homo sapiens‘ nennen. Das sind wir.

Die heutigen Kenntnisse von dem ‚Weg‘, den das Leben in diesen 3.5 Mrd. Jahren ‚genommen‘ hat, waren und sind nur möglich, weil die Wissenschaft gelernt hat, das ’scheinbar Endliche‘ als ‚Momentaufnahme‘ eines andauernden Veränderungsprozesses zu begreifen, der seine ‚Wahrheit‘ nur in der ‚Gesamtheit der einzelnen Momente‘ zeigt. Dass wir als Menschen, als die ‚Spätlinge‘ in diesem Lebens-Entstehungs-Prozess‘, über die Fähigkeit verfügen, aufeinander folgende ‚Momente‘ ‚einzeln‘ wie auch ‚in Abfolge‘ ‚erkennen‘ zu können, liegt an der besonderen Beschaffenheit des ‚Gehirns‘ im ‚Körper‘ und der Art und Weise, wie unser Körper mit der umgebenden Welt ‚interagiert‘. Von der ‚Existenz einer immanenten Unendlichkeit‘ wissen wir also nicht ‚direkt‘, sondern nur ‚indirekt‘ über die ‚Prozesse im Gehirn‘, die auf eine ’neuronal programmierte Weise‘ Momente identifizieren, speichern, prozessieren und in möglichen Abfolgen ‚anordnen‘ können. Also: unser Gehirn ermöglicht uns aufgrund einer vorgegebenen neuronalen und körperlichen Struktur, ein ‚Bild/ Modell‘ einer möglichen immanenten Unendlichkeit zu ‚konstruieren‘, von dem wir annehmen, dass es die ‚Ereignisse um uns herum‘ einigermaßen gut ‚repräsentieren‘.

DENKEN

Eine Eigenschaft, die dem Homo Sapiens zugeschrieben wird, heißt ‚Denken‘; ein Begriff, der bis heute nur vage und sehr vielfältig durch verschiedene Wissenschaften beschrieben wird. Von einem anderen Homo Sapiens erfahren wir von seinem Denken nur durch seine Art des ‚Sich Verhaltens‘, und ein Spezialfall davon ist ’sprachliche Kommunikation‘.

Sprachliche Kommunikation ist dadurch gekennzeichnet, dass sie grundsätzlich mit ‚abstrakten Begriffen‘ arbeitet, denen als solches direkt kein einzelnes Objekt in der realen Welt entspricht (‚Tasse‘, ‚Haus‘, ‚Hund‘, ‚Baum‘, ‚Wasser‘ usw.). Stattdessen ordnet das menschliche Gehirn ‚völlig automatisch‘ (‚unbewusst‘!) unterschiedlichste konkrete Wahrnehmungen dem einen oder anderen abstrakten Begriff so zu, dass ein Mensch A sich mit einem Menschen B darüber einigen kann, ob man dies konkrete Phänomen da vorne dem abstrakten Begriff ‚Tasse‘, ‚Haus‘, ‚Hund‘, ‚Baum‘, oder ‚Wasser‘ zuordnet. Irgendwann weiß im Alltag Mensch A welche konkrete Phänomene gemeint sein können, wenn Mensch B ihn fragt, ob er eine ‚Tasse Tee‘ habe, bzw. ob der ‚Baum‘ Äpfel trägt usw.

Diese empirische belegte ‚automatische Bildung‘ von abstrakten Konzepten durch unser Gehirn basiert nicht nur auf einem einzigen Moment, sondern diese automatischen Konstruktionsprozesse arbeiten mit den ‚wahrnehmbaren Abfolgen‘ von endlichen Momenten ‚eingebettet in Veränderungen‘, die das Gehirn selbst auch automatisch ‚erstellt‘. ‚Veränderung als solche‘ ist insofern kein ‚typisches Objekt‘ der Wahrnehmung, sondern ist das ‚Resultat eines Prozesses‘, der im Gehirn stattfindet, der ‚Folgen von einzelnen Wahrnehmungen‘ konstruiert, und diese ‚errechneten Folgen‘ gehen als ‚Elemente‘ in die Bildung von ‚abstrakten Begriffen‘ ein: ein ‚Haus‘ ist von daher kein ’statisches Konzept‘, sondern ein Konzept, das viele einzelne Eigenschaften umfassen kann, das aber als ‚Konzept‘ ‚dynamisch erzeugt‘ wird, so dass ’neue Elemente‘ dazu kommen können oder ‚vorhandene Elemente‘ möglicherweise wieder ‚weg genommen‘ werden.

MODELL: WELT ALS PROZESS

Obwohl es bislang keine allgemein akzeptierte umfassende Theorie des menschlichen Denkens gibt, gibt es doch viele unterschiedliche Modelle (alltäglicher Begriff für den korrekteren Begriff ‚Theorien‘), die versuchen, wichtige Aspekte des menschlichen Denkens anzunähern.

Das vorausgehende Bild zeigt die Umrisse eines minimal einfachen Modells zu unserem Denken.

Dieses Modell nimmt an, dass die umgebende Welt — mit uns selbst als Bestandteile dieser Welt — als ein ‚Prozess‘ zu verstehen ist, bei dem man zu einem gewählten ‚Zeitpunkt‘ in idealisierter Weise alle ‚beobachtbaren Phänomene‘ beschreiben kann, die dem Beobachter zu diesem Zeitpunkt wichtig sind. Diese Beschreibung eines ‚Weltausschnitts‘ sei hier ‚Situationsbeschreibung‘ zum Zeitpunkt t oder einfach ‚Situation‘ zu t genannt.

Dann benötigt man ein ‚Wissen über mögliche Veränderungen‘ von Elementen der Situationsbeschreibung in der Art und Weise (vereinfacht): ‚Wenn X Element der Situationsbeschreibung zu t ist, dann wird für eine nachfolgende Situation zu t entweder X gelöscht oder durch ein neues X* ersetzt‘. Möglicherweise gibt es für das Löschen oder die Ersetzung mehrere Alternativen mit unterschiedlichen Wahrscheinlichkeiten. Solche ‚Beschreibungen von Veränderungen‘ werden hier vereinfachend ‚Veränderungsregeln‘ genannt.

Zusätzlich gibt es als Teil des Modells noch eine ‚Spielanleitung‘ (klassisch: ‚Folgerungsbegriff‘), die erklärt wann und wie man einer Veränderungsregel auf eine gegebene Situation Sit zu t so anwenden kann, dass zum nachfolgenden Zeitpunkt t+1 eine Situation Sit* existiert, in der die Veränderungen vorgenommen worden sind, die die Veränderungsregel beschreibt.

Im Normalfall gibt es mehr als eine Veränderungsregel, die gleichzeitig mit den anderen angewendet werden kann. Auch dies gehört zur Spielanleitung.

Dieses minimale Modell kann und muss man auch vor dem Hintergrund der durchgängigen Veränderung sehen.

Für diese Struktur von Wissen wird vorausgesetzt, dass man ‚Situationen‘ beschreiben kann, mögliche Veränderungen solch einer Situation, und dass man ein Konzept haben kann, wie man Beschreibungen von erkannte möglichen Veränderungen auf eine gegebene Situation anwenden kann.

Mit der Erkenntnis einer immanenten Unendlichkeit, die sich in vielen konkreten endlichen Situationen manifestiert, ist sogleich klar, dass die Menge der angenommenen Veränderungsbeschreibungen mit den beobachtbaren Veränderungen korrespondieren sollte, da ansonsten die Theorie nur einen geringen praktischen Nutzen hat. Ebenso ist es natürlich wichtig, dass die angenommenen Situationsbeschreibungen mit der beobachtbaren Welt korrespondieren. Die Korrespondenz-Anforderungen zu erfüllen bzw. ihr Zutreffen zu überprüfen ist alles andere als trivial.

ABSTRAKT – REAL – INDETERMINIERT

Zu diesen ‚Korrespondenz-Anforderungen‘ hier einige zusätzliche Überlegungen, in denen die Sicht der Alltagsperspektive zur Sprache kommt.

Zu beachten ist, dass ein ‚Modell‘ nicht die Umwelt selbst ist, sondern nur eine ’symbolische Beschreibung‘ eines Umweltausschnitts aus der Sicht und mit dem Verständnis eines menschlichen ‚Autors‘! Auf welche Eigenschaften der Umwelt sich eine Beschreibung bezieht, das weiß nur der Autor selbst, der die gewählten ‚Symbole‘ (Text oder Sprache) ‚in seinem Kopf‘ mit bestimmten Eigenschaften der Umwelt ‚verknüpft‘, wobei diese Eigenschaften der Umwelt ebenfalls ‚im Kopf‘ repräsentiert sein müssen, quasi ‚Wissensabbilder‘ von ‚Wahrnehmungsereignissen‘, die durch die Umwelteigenschaften ausgelöst worden sind. Diese ‚Wissensabbilder im Kopf‘ sind für den jeweiligen Kopf ‚real‘; verglichen mit der Umgebung sind sie aber grundsätzlich nur ‚fiktiv‘; es sei denn, es gibt zwischen aktuellen fiktiven ‚Bilder im Kopf‘ und den ‚aktuellen Wahrnehmungen‘ von ‚Umweltereignissen‘ aktuell einen Zusammenhang, der die ‚konkreten Elemente der Wahrnehmung‘ als ‚Elemente der fiktiven Bilder‘ erscheinen lässt. Dann wären die ‚fiktiven‘ Bilder ‚fiktiv und real‘.

Aufgrund des ‚Gedächtnisses‘, dessen ‚Inhalt‘ im ‚Normalzustand‘ mehr oder weniger ‚unbewusst‘ sind, können wir aber ‚erinnern‘, dass bestimmte ‚fiktive Bilder‘ in der Vergangenheit mal ‚fiktiv und real‘ waren. Dies kann dazu führen, dass wir im Alltag dazu tendieren, fiktiven Bilder, die in der Vergangenheit schon mal ‚real‘ waren, auch in der aktuellen Gegenwart eine ‚vermutliche Realität‘ zuzuschreiben. Diese Tendenz ist im alltäglichen Leben vermutlich von hoher praktischer Bedeutung. In vielen Fällen funktionieren diese ‚Annahmen‘ auch. Dieses ’spontan-für-real-Halten‘ kann aber auch oft daneben liegen; eine häufige Quelle für Fehler.

Das ’spontan-für-real-Halten‘ kann aus vielen Gründen nachteilig sein. So können die fiktiven Bilder (als unausweichlich abstrakte Bilder) schon als solche vielleicht nur ‚partiell angemessen‘ sein. Der Kontext der Anwendung kann sich geändert haben. Generell befindet sich die Umgebung ‚im Fluss‘: Sachverhalte, die gestern gegeben waren, können heute anders sein.

Die Gründe für die anhaltenden Veränderungen sind verschieden. Neben solchen Veränderungen, die wir durch unsere Erfahrung als ein ‚identifizierbares Muster‘ erkennen konnten, gibt es auch Veränderungen, die wir noch keinem Muster zuordnen konnten; diese können für uns einen ‚zufälligen Charakter‘ haben. Schließlich gibt es auch noch die verschiedenen ‚Lebensformen‘, die von ihrer Systemstruktur her bei aller ‚partiellen Determiniertheit‘ grundsätzlich ’nicht determiniert‘ sind (man kann dies auch ‚immanente Freiheit‘ nennen). Das Verhalten diese Lebensformen kann zu allen anderen erkannten Mustern konträr liegen. Ferner verhalten sich Lebensformen nur partiell ‚einheitlich‘, wenngleich Alltagsstrukturen mit ihren ‚Verhaltensregeln‘ — und viele anderen Faktoren — Lebensformen mit ihrem Verhalten in eine bestimmte Richtung ‚drängen‘ können.

Erinnert man sich an dieser Stelle nochmals an die vorausgehenden Gedanken zur ‚immanenten Unendlichkeit‘ und der Sicht, dass die einzelnen, endlichen Momente nur als ‚Teil eines Prozesses‘ verstehbar sind, dessen ‚Logik‘ bis heute weitgehend noch nicht entschlüsselt ist, dann ist klar, dass jegliche Art von ‚Modellbildung‘ von innerhalb der umfassenden Veränderungsprozesse immer nur einen vorläufigen Näherungscharakter haben kann, zumal erschwerend dazu kommt, dass die menschlichen Akteure ja nicht nur ‚passiv Aufnehmende‘ sind, sondern zugleich immer auch ‚aktiv Handelnde‘, die durch ihr Handeln mit auf den Veränderungsprozess einwirken! Diese menschlichen Einwirkungen resultieren aus der gleichen immanenten Unendlichkeit wie jene, die alle übrigen Veränderungen bewirkt. Die Menschen (wie das gesamte Leben) sind damit real ‚ko-Kreativ‘ …. mit all den Verantwortlichkeiten, die sich daraus ergeben.

MORAL ÜBER ALLEM

Was man unter ‚Moral‘ genau zu verstehen hat, muss man aus vielen hundert — oder gar mehr — verschiedenen Texten heraus lesen. Jede Zeit — und sogar jede Region in dieser Welt — hat dazu unterschiedliche Versionen entwickelt.

In diesem Text wird davon ausgegangen, dass mit ‚Moral‘ solche ‚Anschauungen‘ gemeint sind, die dazu beitragen sollen, dass ein einzelner Mensch (oder eine Gruppe oder …) in Fragen der ‚Entscheidung‘, soll ich eher A oder B tun, ‚Hinweise‘ bekommen soll, wie diese Frage ‚am besten‘ beantwortet werden kann.

Erinnert man sich an dieser Stelle daran, was zu vor gesagt wurde zu jener Denkform, die ‚Prognosen‘ erlaubt (das Denken in expliziten ‚Modellen‘ oder ‚Theorien‘) , dann müsste es unabhängig von eine aktuellen ‚Situationsbeschreibung‘ und unabhängig vom möglichen ‚Veränderungswissen‘ eine ‚Bewertung‘ der ‚möglichen Fortsetzungen‘ geben. Es muss also ’neben‘ der Beschreibung einer Situation, wie sie ‚ist‘ mindestens eine ‚zweite Ebene‘ (eine ‚Meta-Ebene‘) geben, die ‚über‘ die Elemente der ‚Objektebene so sprechen kann, dass z.B. gesagt werden kann, dass ein ‚Element A‘ aus der Objektebene ‚gut‘ oder ’schlecht‘ oder ’neutral‘ ist oder mit einer bestimmten graduellen ‚Abstimmung‘ ‚gut‘ oder ’schlecht‘ oder ’neutral‘. Dies kann auch mehrere Elemente oder ganze Teilmengen der Objektebene betreffen. Dies kann man machen. Damit es ‚rational akzeptierbar‘ ist, müssten diese Bewertungen aber mit ‚irgendeiner Form von Motivation‘ verknüpft sein, ‚warum‘ diese Bewertung angenommen werden soll. Ohne solch eine ‚Motivation von Bewertungen‘ würde solch eine Bewertung als ‚pure Willkür‘ erscheinen.

An dieser Stelle wird die ‚Luft‘ recht ‚dünn‘: in der bisherigen Geschichte wurde bislang kein überzeugendes Modell für eine moralische Begründung bekannt, das letztlich nicht auf die Entscheidung von Menschen zurück zu führen ist, bestimmte Regeln als ‚gültig für alle‘ (Familie, Dorf, Stamm, …) anzusetzen. Oft lassen sich die Begründungen noch in den konkreten ‚Lebensumständen‘ verorten, genauso oft treten die konkreten Lebensumstände im Laufe der Zeit ‚in den Hintergrund‘ und stattdessen werden abstrakte Begriffe eingeführt, die man mit einer ’normativen Kraft‘ ausstattet, die sich einer konkreteren Analyse entziehen. Ein rationaler Zugriff ist dann kaum bis gar nicht mehr möglich.

In einer Zeit wie im Jahr 2023, in dem das verfügbare Wissen dazu ausreicht, die wechselseitigen Abhängigkeiten von buchstäblich jedem von jedem erkennen zu können, dazu die Veränderungsdynamik, die mit der Komponenten ‚Erderwärmung‘ den ’nachhaltigen Bestand des Lebens auf der Erde‘ substantiell bedrohen kann bzw. bedroht, erscheinen ‚abstrakt gesetzte Normbegriffe‘ nicht nur ‚aus der Zeit‘ gefallen, nein, sie sind höchst gefährlich, da sie den Erhalt des Lebens für die weitere Zukunft substantiell behindern können.

META-MORAL (Philosophie)

Es stellt sich dann die Frage, ob dieses ‚rationale schwarze Loch‘ von ‚begründungsfreien Normbegriffen‘ die Endstation menschlichen Denkens markiert oder ob das Denken hier nicht gerade erst anfangen sollte?

Traditionell versteht sich eigentlich die Philosophie als jene Denkhaltung, in der jedes ‚Gegebene‘ — dazu gehören dann auch jegliche Art von Normbegriffen — zu einem ‚Gegenstand des Denkens‘ gemacht werden kann. Und gerade das philosophische Denken hat in Jahrtausende langem Ringen genau dieses Ergebnis hervorgebracht: es gibt keinen Punkt im Denken, aus dem sich alles Sollen/ alles Bewerten, ‚einfach so‘ ‚ableiten lässt.

Im Raum des philosophischen Denkens, auf der Meta-Moral-Ebene, kann man zwar immer mehr Aspekte unserer Situation als ‚Menschheit‘ in einer dynamischen Umwelt (mit dem Menschen selbst als Teil dieser Umwelt) ‚thematisieren‘, ‚benennen‘, in eine ‚potentielle Beziehungen‘ einordnen, ‚Denkexperimente‘ über ‚mögliche Entwicklungen‘ anstellen, aber dieses philosophische Meta-Moral-Wissen ist komplett transparent und immer identifizierbar. Die Folgerungen, warum etwas ‚besser‘ erscheint als etwas anderes, sind immer ‚eingebettet‘, ‚bezogen‘. Die Forderungen nach einer ‚autonomen Moral‘, nach einer ‚absoluten Moral‘ neben dem philosophischen Denken erscheinen vor diesem Hintergrund ‚grundlos‘, ‚willkürlich‘, der ‚Sache fremd‘. Eine rationale Begründung ist nicht möglich.

Ein ‚rational Unerkennbares‘ mag es geben, gibt es sogar unausweichlich, aber dieses rational Unerkennbare ist unsere schiere Existenz, das tatsächliche reale Vorkommen, für das es bislang keine rationale ‚Erklärung gibt‘, genauer: noch nicht gibt. Dies ist aber kein ‚Freifahrschein‘ für Irrationalität. In der ‚Irrationalität‘ verschwindet alles, sogar das ‚rational Unerkennbare‘, und dieses gehört mit zu den wichtigsten ‚Sachverhalten‘ in der Welt des Lebens.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

ANMERKLUNGEN

[1] Die verschiedenen Formen von ‚Unendlichkeit‘, die mit den Arbeiten von Georg Cantor in die Mathematik eingeführt und intensiv weiter untersucht wurden, haben mit der im Text beschrieben erfahrbaren Endlichkeit/ Unendlichkeit nichts zu tun: https://de.wikipedia.org/wiki/Georg_Cantor . Allerdings, will man die ‚Erfahrung‘ von realer Endlichkeit/ Unendlichkeit ‚beschreiben‘, dann wird man möglicherweise auf Beschreibungsmittel der Mathematik zurückgreifen wollen. Nur ist nicht von vornherein ausgemacht, ob die mathematischen Konzepte mit der zur Sache stehenden empirischen Erfahrung ‚harmonieren‘.

DENKEN: alltäglich – philosophisch – empirisch theoretisch (Skizze)

(Letzte Änderung: 9.Juni 2023, 17:55h)

KONTEXT

Die aktuelle Phase meines Denkens kreist weiterhin um die Frage, wie sich die verschiedenen Erkenntniszustände zueinander verhalten: die vielen einzel-wissenschaftlichen Disziplinen treiben nebeneinander her; Philosophie beansprucht weiterhin eine Oberhoheit, kann sich aber selbst nicht wirklich überzeugend verorten; und das Denken im Alltag zieht weiterhin unbeirrt seine Bahnen mit der Überzeugung ‚Alles sei doch klar‘, man müsse doch nur einfach hinschauen ‚wie es ist‘. Dann kommen noch die verschiedenen ‚religiösen Anschauungen‘ um die Ecke mit einem sehr hohen Anspruch bei gleichzeitigem Verbot, nicht zu genau hinschauen zu dürfen. … und vieles mehr.

ABSICHT

Im folgenden Text werden drei fundamentale Betrachtungsweise unserer gegenwärtigen Welt skizziert und sie werden zugleich zueinander in Beziehung gesetzt. Manche bislang unbeantwortete Fragen lassen sich dadurch möglicherweise besser beantworten, viele neue Fragen entstehen aber auch. Wenn ‚alte Denkmuster‘ außer Kraft gesetzt werden, muss man viele (die meisten? Alle?) der bislang vertrauten Denkmuster neu justieren. Mit einem Mal sind sie schlicht ‚falsch‘ oder stark ‚reparaturbedürftig‘.

Leider ist es nur eine ‚Skizze‘.

DENKEN im ALLTAG

BILD 1: Im Alltagsdenken geht jeder Mensch (ein ‚homo sapiens‘ (HS)) davon aus, dass das, was er von einer ‚realen Welt‘ weiß, das ist, was er ‚wahrnimmt‘. Dass es diese reale Welt mit ihren Eigenschaften gibt, ist ihm — mehr oder weniger — ‚bewusst‘, darüber muss man nicht eigens diskutieren. Das, was ‚ist, ist‘.

… vieles wäre zu sagen …

PHILOSOPHISCHES DENKEN

BILD 2: Das philosophische Denken beginnt dort, wo einem auffällt, dass die ‚reale Welt‘ nicht von allen Menschen in ‚gleicher Weise‘ wahrgenommen und noch weniger in gleicher Weise ‚vorgestellt‘ wird. Manche Menschen haben ‚ihre Vorstellungen‘ von der realen Welt, die markant ‚anders sind‘ als die Vorstellungen anderer Menschen, und doch bestehen sie darauf, dass die Welt genau so ist, wie sie sich das vorstellen. Aus dieser Beobachtung im Alltag, können viele neue Fragen entstehen. Die Antworten auf diese Fragen sind so vielfältig wie es Menschen gab und gibt, die sich diesen philosophischen Fragen hingaben oder noch hingeben.

… berühmte Beispiele: Platons Höhlengleichnis deutet an, dass die Inhalte unseres Bewusstseins vielleicht doch nicht ‚die Sachen selbst‘ sind sondern nur die ‚Schatten‘ vom dem, was letztlich ‚wahr‘ ist … Descartes berühmtes ‚cogito ergo sum‘ bringt den Aspekt ins Spiel, dass die Inhalte des Bewusstsein auch etwas über ihn selbst sagen, der solche Inhalte ‚bewusst wahrnimmt’…. die ‚Existenz der Inhalte‘ setzt seine ‚Existenz des Denkenden‘ voraus, ohne die die Existenz der Inhalte gar nicht möglich wäre …was sagt uns dies? … Kants berühmtes ‚Ding an sich‘ kann man auf die Einsicht beziehen, dass die konkreten, flüchtigen Wahrnehmungen niemals die ‚Welt als solche‘ in ihrer ‚Allgemeinheit direkt zeigen können. Diese liegt ‚irgendwo dahinter‘, schwer greifbar, eigentlich gar nicht greifbar? ….

… vieles wäre zu sagen …

EMPIRISCH-THEORETISCHES DENKEN

BILD 3: Das Konzept einer ‚empirischen Theorie‘ entwickelte sich sehr spät in der dokumentierten Geschichte des Menschen auf diesem Planeten. Einerseits philosophisch angeregt, andererseits unabhängig von den verbreiteten Formen von Philosophie, aber sehr stark beeinflusst von logischem und mathematischem Denken, siedelte sich das neue ‚empirische theoretische‘ Denken genau an dieser Bruchstelle zwischen ‚Alltagsdenken‘ und ‚theologischem‘ sowie ’stark metaphysischem philosophischem Denken‘ an. Dass Menschen ‚mit dem Brustton der Überzeugung‘ Aussagen über die Welt machen konnten, obwohl es nicht möglich war, ‚gemeinsame Erfahrungen der realen Welt‘ aufzuzeigen, die mit den geäußerten Aussagen ‚übereinstimmten‘, führte dazu, dass einzelne Menschen damit begannen, die ‚erfahrbare (empirische) Welt‘ so zu untersuchen, dass jeder andere bei ‚gleichem Vorgehen‘, die ‚gleichen Erfahrungen‘ machen konnte. Diese ‚transparenten Vorgehensweisen‘ waren ‚wiederholbar‘ und solche Vorgehensweisen wurden zu dem, was später als ‚empirisches Experiment‘ bzw. dann, noch einen Schritt weiter, als ‚Messen‘ bezeichnet wurde. Beim ‚Messen‘ vergleicht man das ‚Ergebnis‘ eines bestimmten experimentellen Vorgehens mit einem ‚zuvor definierten Standard-Objekt‘ (‚Kilogramm‘, ‚Meter‘, …).

Diese Vorgehensweise führte dazu, dass — zumindest die Experimentatoren — ‚lernten‘, dass unser Wissen um die ‚reale Welt‘ in zwei Komponenten zerfällt: es gibt das ‚allgemeine Wissen‘ was unsere Sprache artikulieren kann, mit Begriffen, die nicht automatisch etwas mit der ‚erfahrbaren Welt‘ zu tun haben müssen, und solchen Begriffen, die sich mit experimentellen Erfahrungen in Verbindung bringen lassen, und zwar so, dass auch andere Menschen, sofern sie sich auf das experimentelle Vorgehen einlassen, diese Erfahrungen wiederholen und dadurch bestätigen können. Eine grobe Unterscheidung zwischen diesen beiden Arten von sprachlichen Äußerungen könnte sein: ‚fiktive‘ Ausdrücke mit ungeklärtem Erfahrungsanspruch, und ‚empirische‘ Ausdrücke mit bestätigtem Erfahrungsanspruch.

Seit dem Beginn der neuen empirisch-theoretischen Denkweise im ca. 17.Jahrhundert dauerte es gut mindestens 300 Jahre, bis sich das Konzept einer ‚empirischen Theorie‘ soweit gefestigt hatte, dass es in weiten Bereichen der Wissenschaft zu einem prägenden Paradigma geworden war. Viele methodische Fragen blieben aber strittig oder blieben sogar ‚ungelöst‘.

DATEN und THEORIE

Viele Jahrhunderte wurde bei vielen — bei nicht wenigen auch bis in unsere Gegenwart — der ‚Missbrauch der Alltagssprache‘ für die Ermöglichung von ‚empirisch nicht verifizierbare Aussagen‘ direkt dieser Alltagssprache angekreidet und die gesamte Alltagssprache wurde als ‚Quelle von Unwahrheiten‘ diskreditiert. Eine Befreiung von diesem ‚ Monster Alltagssprache‘ wurde immer mehr in formalen Kunstsprachen gesucht bzw. dann in der modernen axiomatisierte Mathematik, die ein enges Bündnis mit der modernen formalen Logik eingegangen war (ab Ende des 19.Jahrhunderts). Die Ausdruckssysteme der modernen formalen Logik bzw. dann der modernen formalen Mathematik hatten als solche (nahezu) keine ‚Eigenbedeutung‘. Diese mussten fallweise explizit eingeführt werden. Eine ‚formale mathematische Theorie‘ konnte so formuliert werden, dass sie auch ohne ‚explizite Zuweisung‘ einer ‚externen Bedeutung‘ ‚logische Schlüsse‘ zulässt, die es erlaubten, bestimmte formale Ausdrücke als ‚formal wahr‘ oder ‚formal falsch‘ zu bezeichnen.

Dies erschien auf den ersten Blick sehr ‚beruhigend‘: die Mathematik als solche ist kein Ort von ‚falschen‘ oder ‚untergejubelten‘ Wahrheiten.

Der intensive Einsatz formaler Theorien in Verbindung mit erfahrungsbasierten Experimenten machte aber dann schrittweise deutlich, dass ein einzelner Messwert als solcher eigentlich auch keine ‚Bedeutung‘ besitzt: was soll es ‚bedeuten‘ dass man zu einem bestimmten ‚Zeitpunkt‘ an einem bestimmten ‚Ort‘ einen ‚erfahrbaren Zustand‘ mit bestimmten ‚Eigenschaften‘ feststellt, im Idealfall einem zuvor vereinbarten ‚Standardobjekt‘ vergleichbar? ‚Ausdehnungen‘ von Körpern können sich ändern, ‚Gewicht‘ und ‚Temperatur‘ ebenso. Alles kann sich in der Erfahrungswelt ändern, schnell, langsam, … was kann also ein einzelner isolierter Messwert sagen?

So manchem dämmerte es — nicht nur den erfahrungsbasierten Forschern, sondern auch verschiedenen Philosophen –, dass einzelne Messwerte nur eine ‚Bedeutung‘, einen möglichen ‚Sinn‘ bekommen, wenn man mindestens ‚Beziehungen‘ zwischen einzelnen Messwerten herstellen kann: Beziehungen ‚in der Zeit‘ (vorher – nachher), Beziehungen am/im Ort (höher – tiefer, nebeneinander, …), ‚zusammenhängende Größen‘ (Objekte – Flächen, …), und dass darüber hinaus die verschiedenen ‚Beziehungen‘ selbst nochmals einen ‚begrifflichen Kontext‘ benötigen (einzeln – Menge, Wechselwirkungen, kausal – nicht kausal, …).

Schließlich wurde damit auch klar, dass einzelne Messwerte darüberhinaus ‚Klassenbegriffe‘ benötigten, damit man sie überhaupt irgendwie einordnen konnte: abstrakte Begriffe wie ‚Baum‘, ‚Pflanze‘, ‚Wolke‘, ‚Fluss‘, ‚Fisch‘ usw. wurden so zu ‚Sammelstellen‘, bei denen man ‚Einzelbeobachtungen‘ abliefern konnte. Damit konnten dann aberhundert Einzelwerte z.B. zur Charakterisierung des abstrakten Begriffs ‚Baum‘ oder ‚Pflanze‘ usw. benutzt werden.

Diese Unterscheidung in ‚einzeln, konkret‘ und ‚abstrakt, allgemein‘ erweist sich als fundamental. Sie machte auch deutlich, dass die Einteilung der Welt mit Hilfe von solchen abstrakten Begriffen letztlich ‚willkürlich‘ ist: sowohl ‚welche Begriffe‘ man wählt ist willkürlich, als auch die Zuordnung von einzelnen Erfahrungsdaten zu abstrakten Begriffen ist nicht vorab eindeutig geregelt. Der Prozess der Zuordnung von einzelnen Erfahrungsdaten zu bestimmten Begriffen innerhalb eines ‚Prozesses in der Zeit‘ ist selbst stark ‚hypothetisch‘ und selbst wiederum Teil von anderen ‚Beziehungen‘ die zusätzliche ‚Kriterien‘ liefern können, ob nun Datum X eher zum Begriff A oder eher zum Begriff B gehört (die Biologie ist voll von solchen Klassifikationsproblemen).

Ferner zeigte sich, dass die so ‚unschuldig‘ daher kommende Mathematik bei näherer Betrachtung keineswegs als ‚unschuldig‘ gelten kann. Die breite Diskussion der Wissenschaftsphilosophie im 20.Jahrhundert brachte viele ‚Artefakte‘ zur Sprache, welche die Beschreibung einer dynamischen Erfahrungswelt mindestens leicht ‚korrumpieren‘ kann.

So gehört es zu formalen mathematischen Theorien, dass sie mit sogenannten ‚All- oder Partikularaussagen‘ operieren können. Mathematisch ist es wichtig, dass ich über ‚alle‘ Elemente eines Bereichs/ einer Menge reden kann. Ansonsten wird das Reden sinnlos. Wenn ich nun ein formales mathematisches System als begrifflichen Rahmen für eine Theorie wähle, die ‚empirische Sachverhalte‘ so beschreibt, dass Folgerung möglich werden, die im Sinne der Theorie ‚wahr sind‘ und damit zu ‚Prognosen‘ werden, die behaupten, dass ein bestimmter Sachverhalt entweder ‚absolut‘ oder mit einer bestimmten Wahrscheinlichkeit X größer 50% eintreten wird, dann vereinigen sich zwei verschiedene Welten: die fragmentarischen Einzelaussagen über die Erfahrungswelt werden eingebettet in ‚Allaussagen‘, die grundsätzlich mehr sagen, als Erfahrungsdaten bereit stellen können.

An dieser Stelle wird sichtbar, dass die so ’neutral‘ erscheinende Mathematik genau den gleichen Job tut wie die ‚Alltagssprache‘ mit ihren ‚abstrakten Begriffen‘: die abstrakten Begriffe der Alltagssprache gehen immer über den Einzelfall hinaus (sonst könnten wir letztlich gar nichts sagen), aber gerade dadurch erlauben sie Überlegungen und Planungen, wie wir sie an den mathematischen Theorien so schätzen.

Empirische Theorien im Format formaler mathematischer Theorien haben das weitere Problem, dass sie ja als solche über (nahezu) keine eigene Bedeutungen verfügen. Will man die formalen Ausdrücke mit der Erfahrungswelt in Beziehung setzen, dann muss man (mit Hilfe der Alltagssprache!) für jeden abstrakten Begriff der formalen Theorie (oder auch für jede formale Beziehung oder auch für jeden formalen Operator) explizit eine ‚Bedeutung konstruieren‘, indem man zwischen den abstrakten Konstrukten und bestimmten aufweisbaren Erfahrungstatsachen eine ‚Abbildung’/ eine ‚Zuordnung‘ herstellt. Was sich hier auf den ersten Blick vielleicht so einfach anhört, hat sich im Laufe der letzten 100 Jahren als ein fast unlösbares Problem erwiesen. Daraus folgt jetzt nicht, dass man es überhaupt nicht tun sollte; es macht aber darauf aufmerksam, dass die Wahl einer formalen mathematischen Theorie nicht automatisch eine gute Lösung sein muss.

… vieles wäre noch zu sagen …

FOLGERN und WAHRHEIT

Eine formale mathematische Theorie kann aus bestimmten ‚Annahmen‘ bestimmte Aussagen als formal ‚wahr‘ oder ‚falsch‘ ableiten. Dies geht, weil es zwei grundlegende Voraussetzungen gibt: (i) Alle formalen Ausdrücke haben einen ‚abstrakten Wahrheitswert‘ als ‚abstrakt wahr‘ oder eben als ‚abstrakt nicht wahr‘. Ferner gibt es einen sogenannten ‚formalen Folgerungsbegriff‘, der festlegt, ob und wie man aus einer gegebenen ‚Menge von formalen Ausdrücken‘ mit vereinbarten abstrakten Wahrheitswerten und einer klar definierten ‚Form‘ andere formalen Ausdrücke ‚ableiten‘ kann. Dieses ‚Ableiten‘ besteht aus ‚Operationen über den Zeichen der formalen Ausdrücke‘. Die formalen Ausdrücke sind hier ‚Objekte‘ des Folgerungsbegriffs, der auf einer ‚Ebene höher‘ angesiedelt ist, auf einer ‚Meta-Ebene 1‘. Der Folgerungsbegriff ist insofern eine eigene ‚formale Theorie‘, die über bestimmte ‚Objekte einer tieferen Ebene‘ spricht so wie die abstrakten Begriffe einer Theorie (oder der Alltagssprache) über konkrete Erfahrungstatbestände sprechen. Das Zusammenwirken von Folgerungsbegriff (auf Meta-Ebene 1) und den formalen Ausdrücken als Objekten setzt eine eigene ‚Interpretationsbeziehung‘ (letztlich eine Art von ‚Abbildung‘) voraus, die wiederum auf einer noch anderen Ebene — Meta-Ebene 2 — angesiedelt ist. Diese Interpretationsbeziehung benutzt sowohl die formalen Ausdrücke (mit ihren Wahrheitswerten!) und den Folgerungsbegriff als ‚Objekte‘, um zwischen diesen eine Interpretationsbeziehung zu installieren. Normalerweise wird diese Meta-Ebene 2 von der so gescholtenen Alltagssprache bewältigt und die implizite Interpretationsbeziehung ist ‚in den Köpfen der Mathematiker (eigentlich in den Köpfen der Logiker)‘ verortet, die davon ausgehen, dass ihre ‚Praxis des Folgerns‘ genügend Erfahrungsdaten liefern, um den ‚Inhalt der Bedeutungsbeziehung‘ zu ‚verstehen‘.

Es war Kurt Gödel gewesen [2], der 1931 versucht hat, das ‚intuitive Vorgehen‘ bei Meta-Beweisen selbst auch zu formalisieren (mit Hilfe der berühmten Gödelisierung) und damit die Meta-Ebene 3 wiederum zu einem neuen ‚Objekt‘ gemacht hat, über das man explizit diskutieren kann. Im Anschluss an Gödels Beweis gab es weitere Versuche, diese Meta-Ebene 3 nochmals anders zu formulieren oder gar deine Meta-Ebene 4 zu formalisieren. Doch blieben diese Ansätze bislang ohne klares philosophisches Ergebnis.

Klar scheint nur zu sein, dass die Fähigkeit des menschlichen Gehirns, immer wieder neue Meta-Ebenen zu eröffnen, um damit zuvor formulierte Sachverhalte zu analysieren und zu diskutieren, prinzipiell unbeschränkt ist (nur beschränkt durch die Endlichkeit des Gehirns, dessen Energiezufuhr, die Zeit, und ähnliche materielle Faktoren).

Eine interessante Spezialfrage ist es, ob der formaler Folgerungsbegriff der formalen Mathematik angewendet auf Erfahrungstatsachen einer dynamischen empirischen Welt der spezifischen ‚Welt-Dynamik‘ überhaupt angemessen ist? Für den Bereich der ’scheinbar materiellen Strukturen‘ des Universums hat die moderne Physik vielfache Phänomene geortet, die sich einfach klassischen Konzepten entziehen. Eine ‚Materie‘, die zugleich ‚Energie‘ ist, ist tendenziell eher nicht mehr klassisch beschreibbar, und Quantenphysik ist — bei aller ‚Modernität‘ — letztlich immer noch ein ‚klassisches Denken‘ im Rahmen einer formalen Mathematik, die vom Ansatz her viele Eigenschaften nicht besitzt, die aber der erfahrbaren Welt zukommen.

Diese Begrenztheit eines formal-mathematischen physikalischen Denkens zeigt sich besonders krass am Beispiel jener Phänomene, die wir ‚Leben‘ nennen. Die erfahrungsbasierten Phänomene, die wir mit ‚lebenden (= biologischen) Systemen‘ in Verbindung bringen, sind auf den ersten Blick komplett materielle Strukturen, allerdings haben sie dynamische Eigenschaften, die mehr über die ‚Energie‘ aussagen, die sie hervorruft, als über die Materialität, mittels der sie sich realisieren. Insofern ist die implizite Energie der eigentliche ‚Informationsgehalt‘ von lebenden Systemen, die in ihrer Grundstruktur ‚radikal freie‘ Systeme sind, da Energie als ’nicht begrenzbar‘ erscheint. Die unübersehbare Tendenz lebender Systeme, ‚aus sich heraus‘ immer ‚mehr Komplexität zu ermöglichen‘ und zu integrieren widerspricht allen bekannten physikalischen Prinzipien. Die ‚Entropie‘ wird gerne als Argument benutzt, um diese Form von ‚biologischer Selbstdynamik‘ mit Verweis auf eine simple ‚obere Schranke‘ als ‚begrenzt‘ zu relativieren, doch macht dieser Verweis das originäre Phänomen des ‚Lebendigen‘ damit nicht vollständig zunichte.

Besonders spannend wird es, wenn man es wagt, an dieser Stelle die Frage nach der ‚Wahrheit‘ zu stellen. Lokalisiert man die Bedeutung des Begriffs ‚Wahrheit‘ zunächst mal in der Situation, in der ein biologisches System (hier der Mensch) innerhalb seines Denkens eine gewisse ‚Korrespondenz‘ zwischen seinen abstrakten Begriffen und solchen konkreten Wissensstrukturen herstellen kann, die sich über einen Interaktionsprozess mit Eigenschaften einer erfahrbaren Welt in Verbindung bringen lassen, und zwar nicht nur als einzelnes Individuum, sondern zusammen mit anderen Individuen, dann hat jedes abstrakte Ausdruckssystem (genannt ‚Sprache‘) nur in dem Maße einen ‚wahren Wirklichkeitsbezug‘, als es biologische Systeme gibt, die solche Bezüge herstellen können. Und diese Bezüge hängen weiterhin ab von der Struktur der Wahrnehmung und der Struktur des Denkens dieser Systeme; diese wiederum hängen ab von der Beschaffenheit der Körper als Kontext der Gehirne, und die Körper hängen wiederum sowohl ab von der materiellen Struktur und Dynamik der Umgebung wie auch von den gesellschaftlichen Alltagsprozessen, die weitgehend festlegen, was ein Mitglied einer Gesellschaft erleben, lernen, arbeiten, planen und tun kann. Was immer ein Individuum kann bzw. könnte, die Gesellschaft verstärkt entweder das individuelle Potential oder ‚friert‘ es ein. ‚Wahrheit‘ existiert unter diesen Bedingungen als ein ‚frei beweglicher Parameter‘, der durch die jeweilige Prozessumgebung erheblich beeinflusst wird. Das Reden von ‚kultureller Vielfalt‘ kann eine gefährliche ‚Verniedlichung‘ von massiver Unterdrückung ‚alternativer Lern- und Handlungsprozessen‘ sein, die einer Gesellschaft ‚entzogen‘ werden, weil sie ’sich selbst einsperrt‘. Unwissenheit ist tendenziell kein guter Ratgeber. Wissen als solches garantiert aber auch kein ‚richtiges‘ Handeln. Der ‚Prozess der Freiheit‘ auf dem Planet Erde ist ein ‚galaktisches Experiment‘, dessen Ernsthaftigkeit und Ausmaß bislang kaum gesehen wird.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

ANMERKUNGEN

[1] Auf Literaturangaben wird hier verzichtet. Es wären viele hunderte Texte zu erwähnen. Das kann keine Skizze leisten.

[2] Siehe Kurt Gödel, Unvollständigkeitssätze, 1931: https://de.wikipedia.org/wiki/Kurt_G%C3%B6del#Die_Unvollst%C3%A4ndigkeitss%C3%A4tze

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 6

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 29.August 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE ÄNDERUNG: 1.Dez.2018, Wiederholung der vorausgehenden Diskussion gestrichen. Kumulierte Zusammenfassungen sind HIER.

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

KAP.7 DIE PROBLEME NEU ÜBERLEGT

  1. Nach den ersten Analysen in Kap.1-6 stellt Edelman eine ‚Zwischenreflexion‘ an. Angesichts der entdeckten Komplexität und Dynamik im Fall des Gehirns und seiner Entwicklung stellt sich die Frage, wie man den Zusammenhang zwischen den vorfindlichen materiellen Strukturen und ihren Funktionen miteinander in Beziehung setzen (‚to relate‘) kann.(vgl. S.65f)
  2. Und um seine mögliche neue Position zu bestimmen wiederholt er summarisch nochmals seine zuvor geäußerte Kritik an der ‚falschen Objektivität‘ der Physik, an der zu eng gefassten Kognitionswissenschaft, und er wiederholt auch wieder die unsinnigen Vergleiche mit einem falschen Begriff von Computer, der weder theoretisch noch praktisch Sinn macht.(vgl. SS.66-69)
  3. Grundsätzlich hält er an der Forderung fest, (i) eine ‚Theorie‘ zu bauen (‚to construct), die (ii) ‚wissenschaftlich‘ ist. ‚Wissenschaftlich sein‘ macht er an der Eigenschaft fest (iii), dass die Theorie ‚überprüfbar‘ sein soll. Allerdings muss die Theorie (iv) ’nicht immer‘ zu (v) ‚Voraussagen auf allen Ebenen führen‘, noch muss (vi) ‚jeder Teil von der Theorie direkt falsifizierbar‘ sein.(vgl. S.66)
  4. Aufgrund seiner massiven Kritik an der unterdrückten Rolle des Beobachters speziell in der Physik (vgl. S.66f) muss man indirekt folgern, dass (a) der Beobachter in einer ‚kritischen Wissenschaft‘ im Zusammenspiel mit der Theorie ‚anders integriert wird als bisher‘. Dies bedeutet, man muss berücksichtigen, (b) dass es ‚mentale Ereignisse‘ gibt (‚Bewusstsein‘, ‚Intentionalität‘) gibt, die (c) nur durch ‚Introspektion‘ oder (d) nur durch indirekte Schlüsse aufgrund des beobachtbaren Verhaltens von anderen‘ zugänglich sind.(vgl. S.67)

DISKUSSION FORTSETZUNG

  1. Das Kapitel 7 ist sehr kurz und bringt weitgehend nur Wiederholungen ausgenommen der Punkt mit der Theorie. Der ist neu. Und es ist überhaupt das erste Mal, dass Edelman in diesem Buch explizit über eine ‚wissenschaftliche Theorie‘ spricht, obgleich er sich selbst ja als Wissenschaftler versteht und  er seine eigenen Überlegungen gleichwohl als wissenschaftlich verstanden wissen will (wenngleich er das aktuelle Buch in seiner Form nicht streng als wissenschaftliche Theorie verfasst hat).
  2. Seine Charakterisierung einer ‚wissenschaftlichen Theorie‘ ist interessant. Sie ist generell sehr fragmentarisch; sie ist ferner in ihrer Ernsthaftigkeit fragwürdig, da er die Forderung der Falsifizierbarkeit mit dem Argument einschränkt, dass ansonsten Darwins Theorie in ihrer Anfangszeit niemals hätte Erfolg haben können; und sie ist geradezu mystisch, da er eine radikal neue Rolle des Beobachters mit all seinen mentalen Eigenschaften innerhalb der Theoriebildung einfordert, ohne aber irgendwelche Hinweise zu liefern, wie das praktiziert werden soll.
  3. Man stellt sich die Frage, welchen ‚Begriff von Theorie‘ Edelman eigentlich benutzt? In der Geschichte der empirischen Wissenschaften gab es viele verschiedene Begrifflichkeiten, die nicht ohne weiteres kompatibel sind, und seit ca. 100 Jahren gibt es eine eigene Meta-Wissenschaft zu den Wissenschaften mit Namen wie ‚Wissenschaftsphilosophie‘, ‚Wissenschaftstheorie‘, ‚Wissenschaftslogik‘, deren Gegenstandsbereich gerade die empirischen Wissenschaften und ihr Theoriebegriff ist. Obgleich das Gebiet der Wissenschaftsphilosophie, wie ich es hier nenne, bislang immer noch keinen geschlossenen begrifflichen Raum darstellt, gibt es doch eine Reihe von grundlegenden Annahmen, die die meisten Vertreter dieses Feldes einer Metawissenschaft zu den Wissenschaften teilen. Aufgrund seiner bisherigen Ausführungen scheint Edelman nichts vom Gebiet der Wissenschaftsphilosophie zu kennen.
  4. Die Überprüfbarkeit einer Theorie ist in der Tat ein wesentliches Merkmal der modernen empirischen Wissenschaften. Ohne diese Überprüfbarkeit gäbe es keine empirische Wissenschaft. Die Frage ist nur, was mit ‚Überprüfbarkeit‘ gemeint ist bzw. gemeint sein kann.
  5. Wenn Edelman fordert dass für eine Theorie gelten soll, dass nicht (vi) ‚jeder Teil von der Theorie direkt falsifizierbar‘ sein muss, dann geht er offensichtlich davon aus, dass eine Theorie T aus ‚Teilen‘ besteht, also etwa T(T1, T2, …, Tn) und dass im ‚Idealfall‘ jeder Teil ‚direkt falsifizierbar‘ sein müsste. Diese Vorstellung ist sehr befremdlich und hat weder mit der Realität existierender physikalischer Theorien irgend etwas zu tun noch entspricht dies den modernen Auffassungen von Theorie. Moderne Theorien T sind mathematische (letztlich algebraische) Strukturen, die als solche überhaupt nicht interpretierbar sind, geschweige den einzelne Teile davon. Ferner liegt die Erklärungsfähigkeit von Theorien nicht in ihren Teilen, sondern in den ‚Beziehungen‘, die mittels dieser Teile formulierbar und behauptbar werden. Und ob man irgendetwas aus solch einer Theorie ‚voraussagen‘ kann hängt minimal davon ab, ob die mathematische Struktur der Theorie die Anwendung eines ‚logischen Folgerungsbegriffs‘ erlaubt, mittels dem sich ‚Aussagen‘ ‚ableiten‘ lassen, die sich dann – möglicherweise – ‚verifizieren‘ lassen. Diese Verifizierbarkeit impliziert sowohl eine ‚Interpretierbarkeit‘ der gefolgerten Aussagen wie auch geeignete ‚Messverfahren‘, um feststellen zu können, ob die ‚in den interpretierten Aussagen involvierten entscheidbaren Eigenschaften‘ per Messung verifiziert werden können oder nicht. Der zentrale Begriff ist hier ‚Verifikation‘. Der Begriff der ‚Falsifikation‘ ist relativ zu Verifikation als komplementärer Begriff definiert. Begrifflich erscheint dies klar: wenn ich nicht verifizieren kann, dann habe ich automatisch falsifiziert. In der Praxis stellt sich aber oft das Problem, entscheiden zu können, ob der ganz Prozess des Verifizierens ‚korrekt genug‘ war: sind die Umgebungsbedingungen angemessen? Hat das Messgerät richtig funktioniert? Haben die Beobachter sich eventuell geirrt? Usw. Als ‚theoretischer Begriff‘ ist Falsifikation elegant, in der Praxis aber nur schwer anzuwenden. Letztlich gilt dies dann auch für den Verifikationsbegriff: selbst wenn der Messvorgang jene Werte liefert, die man aufgrund einer abgeleiteten und interpretierten Aussage erwartet, heißt dies nicht mit absoluter Sicherheit, dass richtig gemessen wurde oder dass die Aussage möglicherweise falsch interpretiert oder falsch abgeleitet worden ist.
  6. All diese Schwierigkeiten verweisen auf den ausführenden Beobachter, der im Idealfall auch der Theoriemacher ist. In der Tat ist es bislang ein menschliches Wesen, das mit seinen konkreten mentalen Eigenschaften (basierend auf einer bestimmten materiellen Struktur Gehirn im Körper in einer Welt) sowohl Phänomene und Messwerte in hypothetische mathematische Strukturen transformiert, und diese dann wiederum über Folgerungen und Interpretationen auf Phänomene und Messwerte anwendet. Dies in der Regel nicht isoliert, sondern als Teil eines sozialen Netzwerkes, das sich über Interaktionen, besonders über Kommunikation, konstituiert und am Leben erhält.
  7. Edelman hat Recht, wenn er auf die bisherige unbefriedigende Praxis der Wissenschaften hinweist, in der die Rolle des Theoriemachers als Teil der Theoriebildung kaum bis gar nicht thematisiert wird, erst recht geht diese Rolle nicht in die eigentliche Theorie mit ein. Edelman selbst hat aber offensichtlich keinerlei Vorstellung, wie eine Verbesserung erreicht werden könnte, hat er ja noch nicht einmal einen rudimentären Theoriebegriff.
  8. Aus dem bisher Gesagten lässt sich zumindest erahnen, dass ein verbessertes Konzept einer Theorie darin bestehen müsste, dass es eine explizite ‚Theorie einer Population von Theoriemachern (TPTM)‘ gibt, die beschreibt, wie solch eine Population überhaupt eine Theorie gemeinsam entwickeln und anwenden kann und innerhalb dieser Theorie einer Population von Theoriemachern würden die bisherigen klassischen Theoriekonzepte dann als mögliche Theoriemodelle eingebettet. Die TPTM wäre dann quasi ein ‚Betriebssystem für Theorien‘. Alle Fragen, die Edelman angeschnitten hat, könnte man dann in einem solchen erweiterten begrifflichen Rahmen bequem diskutieren, bis hinab in winzigste Details, auch unter Einbeziehung der zugrunde liegenden materiellen Strukturen.
  9. Das, was Edelman als Theorie andeutet, ist vollständig unzulänglich und sogar in wesentlichen Punkten falsch.
  10. Anmerkung: Darwin hatte nichts was einem modernen Begriff von Theorie entsprechen würde. Insofern ist auch das Reden von einer ‚Evolutionstheorie‘ im Kontext von Darwin unangemessen. Damit wird aber der epochalen Leistung von Darwin kein Abbruch getan! Eher wirkt sein Werk dadurch noch gewaltiger, denn die Transformation von Gedanken, Phänomenen, Fakten usw. in die Form einer modernen Theorie setzt nicht nur voraus, dass man über die notwendigen Formalisierungsfähigkeiten verfügt (selbst bei den theoretischen Physikern ist dies nicht unbedingt vollständig gegeben) sondern man kann erst dann ’sinnvoll formalisieren‘, wenn man überhaupt irgendetwas ‚Interessantes‘ hat, was man formalisieren kann. Die großen Naturforscher (wie z.B. Darwin) hatten den Genius, die Kreativität, den Mut, die Zähigkeit, das bohrende, systematisierende Denken, was den Stoff für interessante Erkenntnisse liefert. Dazu braucht man keine formale Theorie. Die Transformation in eine formale Theorie ist irgendwo Fleißarbeit, allerdings, wie die Geschichte der Physik zeigt, braucht man auch hier gelegentlich die ‚Genies‘, die das Formale so beherrschen, dass sie bisherige ‚umständliche‘ oder ‚unpassende‘ Strukturen in ‚einfachere‘, ‚elegantere‘, ‚besser passende‘ formale Strukturen umschreiben.

Fortsetzung folgt HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.