Philosophische Dialoge mit chatGPT4, heute: Wie definierst Du das Konzept ‚Empirische Theorie‘?

Letzte Änderung: 16.Juli 2024

Fragender: Gerd Doeben-Henisch

Kontakt: cagent@cognitiveagent.org

(Dieser Text ist eine Übersetzung (mit chatGPT4) des Englischen Originals.)

Wie definierst Du das Konzept ‚Empirische Theorie‘?

ZUSAMMENFASSUNG

Am Ende des Dialogs äußerte der Fragende: Ich stimme deiner Schlussfolgerung zu. Aber diese Schlussfolgerung ist keine ausreichende Antwort auf meine Frage. Irgendwie sagst Du, dass es eine „erhebliche Herausforderung“ ist, ohne heute eine klare Antwort zu haben. Ist das richtig?

chatGPT4: Ja, das ist eine faire Einschätzung. Die Integration verschiedener Formalismen über verschiedene wissenschaftliche Disziplinen hinweg bleibt eine erhebliche Herausforderung und ein Bereich kontinuierlicher Forschung und Entwicklung. Obwohl es Strategien und Ansätze gibt, die diese Integration unterstützen können, wie früher erwähnt, gibt es keine universell anwendbare Lösung, die nahtlos für alle Bereiche und alle Arten von Problemen funktioniert.

Protokoll des Dialogs

FRAGE: Wie definierst Du das Konzept „empirische Theorie“?

Das Konzept einer „empirischen Theorie“ bezieht sich im Allgemeinen auf eine Theorie, die auf Beobachtungen und Daten basiert, die aus realen Erfahrungen, Experimenten oder Messungen abgeleitet sind, anstatt nur auf rein theoretischem oder abstraktem Denken. Hier sind einige Schlüsselaspekte, die eine empirische Theorie definieren:

  1. Datenbasiert: Eine empirische Theorie basiert auf Daten, die durch Beobachtungen, Experimente oder andere Formen der empirischen Forschung gesammelt wurden. Die Theorie muss gegenüber der natürlichen Welt testbar und messbar sein.
  2. Vorhersagekraft: Sie bietet typischerweise ein Rahmenwerk, das nicht nur aktuelle Beobachtungen erklärt, sondern auch zukünftige Ereignisse oder Verhaltensweisen vorhersagt. Dieser prädiktive Aspekt ist entscheidend für die Validierung und den Nutzen der Theorie.
  3. Falsifizierbarkeit: Ein Kernprinzip empirischer Theorien ist, dass sie falsifizierbar sein müssen. Das bedeutet, es muss eine denkbare Beobachtung oder ein Experiment geben, das die Theorie widerlegen könnte, wenn sie nicht wahr wäre, wodurch sie einer potenziellen Widerlegung unterliegt.
  4. Replizierbarkeit: Die Ergebnisse, die eine empirische Theorie unterstützen, sollten durch unabhängige Studien replizierbar sein. Dies ist wichtig, um sicherzustellen, dass die Theorie robust ist und nicht das Ergebnis von experimentellen Fehlern oder Verzerrungen ist.
  5. Revision und Verfeinerung: Empirische Theorien sind nicht statisch; sie entwickeln sich weiter, wenn neue Daten verfügbar werden und alte Annahmen getestet werden. Theorien können verfeinert oder verworfen werden, je nachdem, wie gut sie weiterhin mit den Beobachtungen übereinstimmen.

Empirische Theorien sind grundlegend in Wissenschaften wie Physik, Chemie, Biologie und Sozialwissenschaften, wo Theorien auf beobachtbaren Phänomenen basieren und experimentell validiert werden müssen.

FRAGE: Du erwähnst als eine Schlüsseleigenschaft einer empirischen Theorie die ‚Vorhersagekraft‘. Welche Formalismen innerhalb einer Theorie ermöglichen ‚Vorhersagekraft‘?

Das Konzept der „Vorhersagekraft“ in einer empirischen Theorie ist zentral für deren Nutzen und Glaubwürdigkeit. Vorhersagekraft ermöglicht es einer Theorie, zukünftige Ereignisse oder Phänomene auf der Grundlage bestehender Daten und Prinzipien vorherzusagen. Mehrere Formalismen innerhalb einer Theorie ermöglichen diese prädiktive Fähigkeit:

  1. Mathematische Modelle: Viele wissenschaftliche Theorien stützen sich auf mathematische Modelle, die Beziehungen zwischen Variablen quantitativ beschreiben. Diese Modelle nehmen oft die Form von Gleichungen an, die zur Vorhersage verwendet werden können. Zum Beispiel nutzen Newtons Bewegungsgesetze Differentialgleichungen, um die zukünftige Position und Geschwindigkeit bewegter Objekte vorherzusagen.
  2. Statistische Modelle: Diese Modelle verwenden statistische Methoden, um Ergebnisse auf der Grundlage von Daten zu erschließen und vorherzusagen. Die Regressionsanalyse kann beispielsweise eine abhängige Variable auf der Grundlage einer oder mehrerer unabhängiger Variablen vorhersagen. Auch maschinelle Lernalgorithmen fallen in diese Kategorie, bei denen Modelle mit historischen Daten trainiert werden, um Ergebnisse aus neuen Daten vorherzusagen.
  3. Hypothesen und Propositionen: Theorien beinhalten oft spezifische Hypothesen, die testbare Aussagen sind, die aus allgemeinen Prinzipien der Theorie abgeleitet werden. Diese Hypothesen können verwendet werden, um Ergebnisse in spezifischen Situationen vorherzusagen, die dann durch Experimente oder Beobachtungen getestet werden können.
  4. Simulationen: In einigen Bereichen, insbesondere in komplexen Systemen wie der Klimawissenschaft oder der Ökonomie, spielen Simulationen eine entscheidende Rolle bei der Vorhersage. Diese Simulationen werden typischerweise auf Rechenmodellen durchgeführt, die viele Variablen und deren Interaktionen enthalten, um zukünftige Zustände vorherzusagen.
  5. Algorithmische Regeln: Insbesondere in Theorien, die mit Informatik oder Systemtheorie zusammenhängen, können algorithmische Regeln, die Handlungs- oder Entscheidungssequenzen auf der Grundlage von Eingabebedingungen festlegen, Ergebnisse von Prozessen oder das Verhalten von Systemen vorhersagen.
  6. Kausale Inferenz: Die Identifizierung kausaler Beziehungen innerhalb von Daten ermöglicht es Theorien, die Auswirkungen der Veränderung einer Variablen auf eine andere vorherzusagen. Dies ist grundlegend in Bereichen wie Epidemiologie und Wirtschaftswissenschaften, wo das Verständnis von Ursache und Wirkung entscheidend für die Vorhersage ist.

Diese Formalismen sind nicht nur instrumental bei der Vorhersage zukünftiger Ereignisse, sondern auch bei der Bestätigung der Gültigkeit der Theorien selbst. Durch erfolgreiche Vorhersagen validieren Theorien ihre zugrunde liegenden Annahmen und steigern ihre Glaubwürdigkeit und Akzeptanz in der wissenschaftlichen Gemeinschaft.

FRAGE: Dass „verschiedene Formalismen“ als „für bestimmte Arten von Problemen nützlich“ angesehen werden können, ist in Ordnung. Aber das beantwortet nicht die grundlegende Frage, wie man „verschiedene Formalismen integrieren“ kann. Kennst Du eine Art Strategie, die das Problem auf einer allgemeinen formalen Ebene löst?

Das Integrieren verschiedener Formalismen aus unterschiedlichen wissenschaftlichen Disziplinen ist eine komplexe Herausforderung, die oft einen facettenreichen Ansatz erfordert. Hier sind einige Strategien, die dieses Problem auf einer formaleren Ebene angehen können:

1. Einheitliche Modellierungsrahmen

Ein Ansatz zur Integration verschiedener Formalismen ist die Verwendung einheitlicher Modellierungsrahmen, die verschiedene Arten von Modellen aufnehmen können. Beispielsweise bieten Systemtheorie und Netzwerktheorie Rahmenwerke, die physische, biologische, soziale und Informationssysteme modellieren können. Diese Rahmenwerke ermöglichen die Integration verschiedener Datentypen und Beziehungen in ein kohärentes Modell. Beispiele hierfür sind agentenbasierte Modellierung und Systemdynamik, die sowohl qualitative als auch quantitative Daten integrieren können.

2. Meta-Analysen und systematische Übersichten

In Bereichen wie Medizin und Sozialwissenschaften werden Meta-Analysen und systematische Übersichten verwendet, um Ergebnisse aus mehreren Studien, die unterschiedliche Methodologien und Formalismen verwenden, zu synthetisieren. Dieser Ansatz bietet eine Möglichkeit, Daten aus verschiedenen Quellen quantitativ zu kombinieren, um zu allgemeineren Schlussfolgerungen zu gelangen.

3. Interdisziplinäre Zusammenarbeit

Aktive Zusammenarbeit über Disziplinen hinweg kann die Integration verschiedener Formalismen erleichtern, indem die Expertise von Spezialisten in jedem Bereich genutzt wird. Dies kann gemeinsame Forschungsprojekte, interdisziplinäre Teams und fachübergreifende Ausbildungsprogramme umfassen, die ein tieferes Verständnis und die Anpassung verschiedener Methodologien fördern.

4. Mathematische und statistische Brückenmethoden

Techniken wie Bayes-Statistik, Monte-Carlo-Methoden und andere rechnerische Ansätze können als Brücken zwischen verschiedenen Formalismen dienen. Diese Methoden ermöglichen die Kombination von Daten und Vorhersagen aus verschiedenen Modelltypen, auch wenn diese Modelle auf unterschiedlichen Grundannahmen basieren.

5. Semantische Integration

Dies beinhaltet die Entwicklung eines gemeinsamen Vokabulars und eines Konzeptsatzes, der fachübergreifend geteilt werden kann. Ontologien und semantische Webtechnologien sind in diesem Kontext nützlich, da sie helfen, Beziehungen zwischen verschiedenen Konzepten zu definieren und die Datenintegration über verschiedene Datensätze hinweg zu erleichtern.

6. Hybridmodelle

Die Erstellung von Hybridmodellen, die Elemente aus verschiedenen Formalismen integrieren, kann besonders in der Technik und Umweltwissenschaft effektiv sein. Zum Beispiel kann die Kombination von physikalischen Gesetzen mit empirischen Daten in einem Rechenmodell genauere und robustere Vorhersagen liefern als diejenigen, die aus einem einzigen Formalismus gewonnen wurden.

7. Philosophische und methodologische Versöhnung

Das Ansprechen zugrundeliegender philosophischer und methodologischer Unterschiede ist entscheidend für die Integration von Formalismen. Dies könnte die Entwicklung neuer Methodologien beinhalten, die epistemologische Unterschiede anerkennen und überbrücken, wie beispielsweise die Kombination von qualitativen und quantitativen Forschungsmethoden.

Schlussfolgerung

Obwohl die Integration verschiedener Formalismen erhebliche Herausforderungen darstellt, bieten diese Strategien Wege, um umfassendere und universell anwendbare Theorien zu entwickeln. Der Prozess ist von Natur aus iterativ und erfordert einen fortlaufenden Dialog zwischen verschiedenen wissenschaftlichen Domänen. Diese Integration ist wesentlich, um komplexe, facettenreiche Probleme zu lösen, die keine einzelne Disziplin allein lösen kann.

FRAGE: Ich stimme deiner Schlussfolgerung zu. Aber diese Schlussfolgerung ist keine ausreichende Antwort auf meine Frage. Irgendwie sagst Du, dass es eine „erhebliche Herausforderung“ ist, ohne heute eine klare Antwort zu haben. Ist das richtig?

ANTWORT: Ja, das ist eine faire Einschätzung. Die Integration verschiedener Formalismen über verschiedene wissenschaftliche Disziplinen hinweg bleibt eine erhebliche Herausforderung und ein Bereich kontinuierlicher Forschung und Entwicklung. Obwohl es Strategien und Ansätze gibt, die diese Integration unterstützen können, wie früher erwähnt, gibt es keine universell anwendbare Lösung, die nahtlos für alle Bereiche und alle Arten von Problemen funktioniert.

Die Komplexität der Integration von Formalismen ergibt sich aus mehreren Faktoren:

  1. Epistemologische Unterschiede: Verschiedene Disziplinen operieren oft unter grundlegend verschiedenen Annahmen und Theorien über die Natur des Wissens und der Realität. Diese Unterschiede können es schwierig machen, ein gemeinsames Rahmenwerk zu schaffen, das fachübergreifend akzeptiert und nützlich ist.
  2. Methodologische Vielfalt: Jedes Feld hat seine Methodologien und Werkzeuge entwickelt, die für seine spezifischen Datentypen und Probleme optimiert sind. Das Überbrücken dieser methodologischen Lücken erfordert nicht nur technische Lösungen, sondern oft auch ein Überdenken der grundlegenden Prinzipien.
  3. Dateninkompatibilität: Unterschiedliche Datentypen, von quantitativen Messungen bis zu qualitativen Beobachtungen, können aufgrund von Unterschieden in Skalierung, Einheiten und Interpretationen schwer zu integrieren sein.
  4. Kommunikationsbarrieren: Effektive interdisziplinäre Zusammenarbeit, die für die Integration von Formalismen entscheidend ist, wird oft durch Unterschiede in Terminologie, Prioritäten und Forschungskulturen behindert.

Die von mir erwähnten Strategien (einheitliche Modellierungsrahmen, interdisziplinäre Zusammenarbeit, Hybridmodelle usw.) sind Bemühungen, diese Herausforderungen anzugehen, sie zielen jedoch mehr darauf ab, die Schwierigkeiten zu mildern, als sie vollständig zu lösen. Es werden Fortschritte gemacht, insbesondere mit dem Aufkommen fortgeschrittener computergestützter Techniken und einer wachsenden Betonung interdisziplinärer Forschung, aber die vollständige Integration verschiedener wissenschaftlicher Formalismen in ein kohärentes, universell anwendbares Rahmenwerk bleibt ein erstrebenswertes Ziel und keine gegenwärtige Realität.

So haben zwar erhebliche Fortschritte in spezifischen Kontexten oder Projekten stattgefunden, die breitere Herausforderung besteht jedoch weiterhin und ist ein dynamisches Feld der akademischen Forschung und praktischen Anwendung.

ANTWORT DES FRAGENDEN: Danke für diesen Dialog 🙂

ANTWORT: Gern geschehen! Ich freue mich, dass wir dieses Thema zusammen besprechen konnten. Wenn Sie weitere Fragen haben oder weitere Klarstellungen zu etwas benötigen, fragen Sie ruhig. Frohes Denken! 😊

SELBSTZERSTÖRUNG IST EINE OPTION. Notiz

Autor: Gerd Doeben-Henisch

Start: 14.Juli 2024; Letzte Änderung: 14.Juli 2024

Diesen Text kann man als Teil des Textes „Neustart der Menschlichkeit (Rebooting humanity)“ betrachten.

(Die Englische Version findet sich HIER)

Ausgangspunkt

BILD : Notiz vom 14.7.24

WIR AUF DEM PLANETEN

Im Jahr 2024 der christlichen Zeitrechnung befinden wir uns als Menschen (die Lebensform ‚Homo sapiens‘) noch immer auf dem Planet Erde. Wir sind quantitativ ein sehr kleiner Teil des ‚Lebens‘, qualitativ verfügen wir über Fähigkeiten, alles Leben und den gesamten Planeten entweder in ihrer Existenz zu unterstützen oder alles auszulöschen.

SELBSTPROGRAMMIERUNG

Im Gegensatz zu den heutigen Maschinen sind alle Lebewesen — der Mensch eingeschlossen — so gebaut, dass sie sich ’selbst programmieren‘: was immer wir von uns selbst, den anderen, von der Umwelt wahrnehmen, es wird vollautomatisch in unser Inneres transportiert und dort ebenfalls weitgehend automatisch strukturiert, angeordnet, bewertet, und vieles mehr. Niemand kann sich dagegen wehren. Man kann diese ‚Selbstprogrammierung‘ nur dadurch etwas steuern, dass man seine Umgebung so gestaltet, dass bestimmte Wahrnehmungen eher nicht stattfinden, dafür andere mehr. Erziehungsprozesse setzen diese Selbstprogrammierungsfähigkeit voraus und sie entscheiden auch über das, was während der Erziehung stattfinden soll.

DIKTATUR DES ‚IST DA‘

Was in unserem Inneren angekommen ist, das ist erst einmal da. Es bildet unsere primäre Wirklichkeit. Wenn wir handeln wollen, dann greifen wir erst einmal zurück auf das, was da ist. Das, was da ist, ist für uns irgendwie ‚wahr‘, prägt unser weiteres Wahrnehmen und Verstehen. Etwas ‚um uns herum‘, was ‚anders‘ ist, ist tatsächlich ‚anders‘ und ‚passt nicht‘ zu unserer inneren Wahrheit.

WELCHE VERGLEICHSPUNKTE?

Angenommen, die Mehrheit dessen, was ‚in uns drin‘ ist, was wir erst mal als ‚wahr‘ annehmen, wäre in der realen Welt da draußen ‚falsch‘, ‚unangemessen‘, ‚unzutreffend‘ usw., wir hätten kaum eine Chance die eigene ‚Unwahrheit‘ zu erkennen, so lange die meisten Menschen um uns herum die gleiche ‚Unwahrheit‘ teilen‘.[1] Das Erkennen von ‚Unwahrheit‘ setzt voraus, dass man irgenwie über ‚Beispiele der Wahrheit‘ verfügt, die geeignet sind, mit der herrschenden Unwahrheit ‚verglichen‘ zu werden. Das Vorhandensein von Beispielen der Wahrheit garantiert allerdings keine Erkenntnis von Unwahrheit, sondern es steigt nur die Wahrscheinlichkeit, dass es passieren könnte.[2]

[1] Durch die ganze bekanntgewordene Geschichte der Menschheit können wir beobachten, wie bestimmte ‚Unwahrheiten‘ ganze Völker beherrschen konnten, nicht nur in autokratischen Systemen.

[2] Systeme mit staatlich geförderter Unwahrheit kann man u.a. daran erkennen, dass das Vorkommen von Vielfalt, Beispielen von Wahrheit, drastisch unterdrückt wird und nur bestimmte Formen von Meinungen zugelassen werden.

MODERNE UNWAHRHEITEN

Im Gegensatz zu autokratischen Systemen herrscht in demokratischen Systemen offiziell ‚Meinungsfreiheit‘, was eine große Vielfalt ermöglicht. In demokratischen Systemen im Format Demokratie 1.0 geht man davon aus, dass diese garantierte Freiheit nicht missbraucht wird.[1]

Mit dem Aufkommen von modernen Medien, speziell von Medien in Verbindung mit dem Internet, ist es aber möglich, mit der Verbreitung von Medien im großen Stil Geld zu verdienen. Die Versuchung liegt nahe, Medien über das Internet so zu verbreiten, dass man damit maximal viel Geld verdienen kann. Eine beliebte Methode ist ‚Werbung‘: je länger und öfter ein Nutzer vor einem Inhalt verweilt, umso mehr Werbeeinnahmen sprudeln. Die Versuchung ist groß genug, dem Nutzer möglichst nur das zu bieten, was sein ‚automatisches Interesse weckt‘. Dass das ‚automatische Interesse‘ ein sehr starkes Motiv darstellt und speziell mit solchen Inhalten korreliert, die nicht viel Nachdenken erfordern, bestätigt sich täglich. Dass auf diese Weise große Teile einer Population ’speziell programmiert‘ werden kann, ist mittlerweile bekannt und wird immer mehr beschrieben.

Im ‚Kampf der Macht getriebenen Systeme‘ macht man sich diese Möglichkeit der Fremdprogrammierung von Menschen mit Hilfe des Internets im Rahmen der sogenannten ‚Hybriden Kriegführung‘ massiv zu Nutze. Während autokratische Systeme ‚massiv geschlossene‘ Systeme sind, sind die modernen Demokratien im Format 1.0 geradezu ein Eldorado für die Anwendung von Methoden der hybriden Kriegführung. Ähnlich wie die Geldbessessene Medienindustrie benutzt man in der hybriden Kriegführung auch ‚leichte Inhalte‘, mischt Fragmente von ‚Wahrem‘ mit Fragmente von ‚Falschem‘, und zwar solches, was leicht aufregt, und in kurzer Zeit wächst die ‚Schar der Gläubigen‘ von diesen Botschaften.[2] Die ‚Gemeinde dieser Propaganda-Gläubigen‘ kann man normalerweise nicht mittels ‚Argumenten‘ beeinflussen. Diese Überzeugung sind so programmiert, dass alle die Quellen, die kritische Alternativen darstellen könnten, von vornherein schon ‚geächtet‘ sind.[3]

Und es ist leider wahr, dass Demokratien im Format 1.0 für diese Art von Freiheitsgebrauch bislang ’schwach‘ wirken, und ‚hilflos‘, wenngleich langsam die Erkenntnisse zunehmen, dass es so etwas wie ein Missbrauch durch ‚Falschprogrammierung der Menschen‘ gibt.

[1] Das Unterbinden von systematischem Missbrauch von Freiheit ist in Demokratien 1.0 nur schwer bis gar nicht durchführbar, ohne die Meinungsfreiheit selbst zu verändern.

[2] Die breite Abdeckung dieser Propaganda kann man leicht daran erkennen, wenn man in verschiedenen Orten von Deutschland (und im Ausland!) mit Menschen ins Gespräch kommt, die sich untereinander nicht kennen, aber im Laufe des Gespräches mehr oder weniger die gleichen Geschichten im Brustton der Überzeugung erzählen. Viele (die meisten davon?) haben sogar studiert. Was die Frage aufwirft, wie wenig eine akademische Ausbildung offenbar einen ‚kritischen Geist‘ fördert.

[3] Eine beliebte Formulierung ist die von der ‚Lügenpresse‘. Alles was ‚gefährlich‘ werden könnte ist ‚Lüge‘, obgleich diejenigen, die von Lügenpresse sprechen, sich mit dieser Presse überhaupt nicht ernsthaft beschäftigen.

WELCHE ÜBERLEBENSWAHRSCHEINLICHKEIT HAT WAHRHEIT?

Wer sich in seinem Leben schon mal intensiv mit der Frage von ‚Wahrheit‘ beschäftigt hat und wer weiß, dass es vielerlei Recherchen, Untersuchungen, Überlegungen, auch Experimente braucht, um ‚hinter die augenscheinlichen Phänomene‘ zu schauen, dazu viel Kommunikation mit anderen Menschen, bisweilen in anderen Sprachen, derjenige weiß, dass Wahrheit kein ‚Selbstläufer‘ ist; Wahrheit passiert ’nicht einfach so‘; Wahrheit kann man nicht zum ‚Nulltarif‘ bekommen. Der Einsatz von Wahrheit für hilfreiche Technologien, neue Landwirtschaftsformen, neue Verkehrssysteme usw. erscheint im Nachhinein, am Ende eines langen Weges, wenn es dann irgendwie ‚offensichtlich‘ ist, wofür das alles gut ist, als erstrebenswert, aber am Beginn des Weges ist dies für fast jeden nicht erkennbar. Die bemitleidenswerte Form des Bildungssystems in vielen Ländern gibt ein beredtes Zeugnis ab für die Geringschätzung von Bildung als Trainingsprozess für Wahrheit.

Angesichts der rasanten Ausbreitung von skrupellosen Internet-Medien-Geschäften begleitend von einem weltweiten Anschwellen von hybrider Kriegführung erscheint die Überlebenswahrscheinlichkeit von Wahrheit immer geringer zu werden. Die Demokratien als eigentliche ‚Horte der Wahrheit‘ erleben gerade sich selbst als einen Ort der beschleunigten ‚Wahrheitsverflüchtigung‘.

KOLLEKTIVES WISSEN : Generative KI im Chatbot-Format als Helfer

Dieser Text ist Teil des Textes „Neustart der Menschlichkeit (Rebooting humanity)“

(Die Englische Version findet sich HIER)

Autor Nr. 1 (Gerd Doeben-Henisch)Kontakt: cagent@cognitiveagent.org

(Start: 10.Juli 2024, Letzte Änderung: 10.Juli  2024)

Ausgangspunkt

Wie die Texte des Buches nach und nach zeigen werden, repräsentiert der Ausdruck ‚Kollektives Wissen‘ einen entscheidenden Schlüsselbegriff für eine Eigenschaft, welche den Menschen — die Lebensform des ‚homo sapiens‘ — sehr tief charakterisiert. Für einen einzelnen Menschen ist das ‚kollektive Wissen‘ direkt kaum wahrnehmbar, aber ohne dieses kollektive Wissen hätte kein einziger Mensch überhaupt ein Wissen. Ja, dies klingt nicht nur wie ein Paradox, es ist ein Paradox. Während ein ‚Widerspruch‘ zwischen zwei verschiedenen Aussagen eine sachliche Unvereinbarkeit repräsentiert, vermittelt ein ‚Paradox‘ zwar auch den Eindruck eines ‚Widerspruchs‘, aber tatsächlich, von der Sache her, ist es dann doch keine ‚Unvereinbarkeit‘. Das ‚Wissen von uns einzelnen‘ ist ein reales Wissen, aber aufgrund der Endlichkeit unseres Körpers, unseres Wahrnehmungssystems, unseres Gedächtnisses können wir rein sachlich nur einen sehr kleinen Umfang an Wissen ‚in uns‘ versammeln. Je mehr Menschen es aber gibt, je mehr ‚Wissen‘ jeder Mensch täglich ‚produziert‘ — nur analog, oder dann auch digital –, um so größer wächst die Menge des Wissens, das wir Menschen in unserer Welt ‚ablagern‘. Zeitungen, Bücher, Bibliotheken, Datenbanken können diese Wissens begrenzt sammeln und sortieren. Ein einzelnen Mensch kann aber von diesem ‚gesammelten Wissen‘ nur kleine Bruchteile finden und ‚verarbeiten‘. Der Abstand zwischen dem ‚verfügbaren gesammelten Wissen‘ und dem ‚individuell verarbeitbaren Wissen‘ wächst beständig. In einer solchen Situation ist die Verfügbarkeit von generativer Künstlicher Intelligenz im Format von Chatbots ein geradezu ‚evolutionäres Ereignis‘! Diese neue Technologie löst nicht alle Fragen, aber sie kann dazu beitragen, dass der einzelne Menschen ‚prinzipiell‘ einen neuartigen direkten Zugriff auf das bekommen kann, was wir ‚kollektives Wissen der Menschheit‘ nennen sollten.

Vor der Digitalisierung der Welt …

war es tatsächlich mühsam, Gedanken, Wissen, so zu übermitteln, dass es andere davon Kenntnis nehmen konnten: zunächst nur mündliche Überlieferungen, dann Pergament und Papyrus, Steine und Ton, Inschriften in Felsen. Mit der Verfügbarkeit von Papier vereinfachte sich das Aufschreiben (es gab aber das Problem der Haltbarkeit); es kam zu Sammlung von Texten, zu Büchern und ersten Bibliotheken mit Büchern (Bibliotheken hab es aber auch schon für Keilschrift- und Tontafeln). Große Bibliotheken wie die ‚Bibliothek von Alexandria‘ wurden zu kostbaren ‚Sammelpunkten von Wissen‘, die aber auch während ihres Bestehens vielfältigen zerstörerischen Ereignissen ausgesetzt waren, was zu großen Verlusten an aufgezeichneten Wissen führen konnte.

Eine ‚mechanisierte Erstellung von Büchern‘ gab es seit ca. dem 8.Jahrhundert und der moderne Buchdruck begann im 15.Jahrhundert. Die Entwicklung von Bibliotheken verlief dennoch lange Zeit ’schleppend‘, vielfach nur auf privater Basis. Erst ab dem 19.Jahrhundert kam es zu einer stärkeren Entwicklung des Bibliothekswesens, hier jetzt auch von öffentlichen Bibliotheken.

Trotz dieser Entwicklung blieb es für einen einzelnen Menschen schwierig, sich Zugang zu Wissen über eine Bibliothek zu verschaffen, und selbst wenn es diesen (meist privilegierten) Zugang gab, war die Verfügbarkeit bestimmter Texte, ihre Einsichtnahme, das Erstellen von Notizen — oder später von Kopien — umständlich und zeitraubend. Der Zugriff des individuellen Lesers ähnelten kleinen ‚Stichproben‘, die selbst im Rahmen von wissenschaftlichen Arbeiten über Jahre sehr überschaubar blieben. Nicht zu vernachlässigen ist auch das Sprachproblem: der Anteil von ‚fremdsprachlichen Büchern‘ in der Bibliothek eines Landes A war überwiegend auf Texte mit der Sprache des Landes A beschränkt.

‚Gewinnung von Wissen‘ war für einen einzelnen Menschen daher mühsam, zeitaufwendig, sehr fragmentiert.

Eine immer wichtigere Alternative zu diesem schwer verfügbaren Feld des Bibliotheks-Wissens waren moderne Zeitschriften, Journale, in vielen Sprachen, mit immer kürzeren ‚Wissenszyklen‘. Je mehr solcher Zeitschriften es aber gibt, umso mehr treten die natürlichen individuellen Begrenzungen in Kraft, die angesichts des Anschwellens des Zeitschriften-Wissens schmerzhaft erfahrbar sind. Aktuell (2024) ist es kaum noch möglich, die genaue Zahl allein von wissenschaftlichen Zeitschriften zu schätzen. Allein im Bereich der Informatik schätzt man ca. 2000 Zeitschriften mit im Schnitt ca. 25.000 (oder mehr) Artikeln pro Jahr. Und wissenschaftliche Zeitschriften nur in chinesischer Sprache werden mit über 10.000 angegeben.[1]

[1] Soehe: https://www.eastview.com/resources/journals/caj

Mit der Digitalisierung

Seit der Verfügbarkeit des World Wide Web (WWW) ab den 1990-iger Jahren entstand ein einheitlicher Informationsraum, der sich seitdem immer mehr weltweit ausgebreitet hat. Zwar erleben wir in der Gegenwart in immer mehr Ländern eine ‚Abschottung‘ des WWW untereinander, aber die Entwicklung eines gemeinsamen Informationsraumes ist nicht mehr wirklich aufzuhalten.

Parallel zum Informationsraum entwickelten sich auch immer mehr ‚Technologien‘ des ‚Sammelns‘, ‚Aufbewahrens‘, ‚Wiederfindens‘ und ‚Auswertens‘, die es zunehmend möglich machen, auf ‚Fragen‘ ‚Antworten‘ aus immer mehr Quellen zu finden.

Mit der Verfügbarkeit von sogenannter ‚Generativer Künstlicher Intelligenz im Format von Chatbots‘ (GKI-CHaBo) seit 2022 hat diese ‚Technologie der Datennutzung‘ einen Level erreicht, der nicht nur ‚rohe Daten‘ findet, sondern der durch vollständige Indexierung von Wortclustern in Verbindung mit dem Trainieren von ‚Dialogformaten‘ einem einzelnen Nutzer mit seinen real beschränktem Wissen mit einem Mal einen ‚direkten Zugang‘ zum ‚kollektiven Wissen der Menschen‘ ermöglicht, sofern dieses digitalisiert werden konnte.

Für die ‚Evolution des Lebens auf diesem Planeten‘ erscheint diese Verfügbarkeit von kollektivem Wissen für den einzelnen möglicherweise das wichtigste Ereignis zu sein seit dem Auftreten des Homo sapiens selbst vor ca. 300.000 Jahren. Warum?

Der nächste Level?

Die Nachhaltigkeitsdebatte der letzten ca. 50 Jahre hat dazu beigetragen, dass neben der eher individuellen Perspektive des Lebens, neben stark regionalen oder auch nationalen Interessen und Perspektiven des Erfolgs, schrittweise auch Perspektiven ins Bewusstsein — nicht bei allen — getreten sind, die andeuten — und mittlerweile durch vielfältige Daten und Berechnungsmodellen belegen –, dass es Problemstellungen gibt, die den Ereignishorizont einzelner partikulärer Gruppen — und dies können ganze Nationalen sein — deutlich übersteigen. Viele denken hier zunächst an ‚Ressourcen‘ die knapp werden (z.B. Fischbestände), oder die verunreinigt werden (Weltmeere), oder gefährlich reduziert werden (Waldsysteme, Rohstoffe, Lebensformen,…) oder einiges mehr. Was bislang noch kaum Thema ist, obgleich es das eigentliche Thema sein sollte, das ist jener Faktor, der all diese Probleme hervorbringt: der Homo sapiens selbst, der durch sein Verhalten, ja, alleine schon auch durch seine große Zahl, alle die bekannten ‚Probleme‘ hervorruft. Und dies geschieht nicht ‚automatisch‘, sondern weil das Verhalten des Homos sapiens auf diesem Planeten von seinem ‚Inneren‘ in einer Weise ‚gesteuert‘ wird, dass er im großen Stil ‚unfähig‘ erscheint, sein Verhalten zu ändern, weil er sein ‚Inneres‘ nicht ‚im Griff‘ hat.

Dieses Innere setzt sich — grob betrachtet — aus Bedürfnissen zusammen, aus unterschiedlichen Emotionen, und aus gesammelten Erfahrungen verknüpft mit Wissen. Das Wissen liefert die ‚Bilder‘ von sich selbst, den anderen und von der Welt, wie ein Homo sapiens sie sieht. Bedürfnisse und Emotionen können Wissen blockieren, ‚fesseln‘ oder verändern. Dasjenige Wissen, was gerade verfügbar ist, hat allerdings eine große Macht: ein Homo sapiens kann letztlich nur das tun, was sein aktuelles Wissen ihm sagt — falls er auf sein Wissen hört und nicht auf ‚andere‘ die ihm aufgrund der Lebenssituation ‚etwas bedeuten‘.

Wenn man sich nun für eine ‚mögliche Zukunft‘ interessiert, oder — noch spezieller — für eine ‚mögliche Zukunft, die für möglichst viele möglichst gut ist‘, und zwar ’nachhaltig, dann ergibt sich die Herausforderung, wie können Menschen in der Situation eines Alltags, einer bestimmten Form von Gegenwart, diese Gegenwart ‚gedanklich‘ so weit ‚übersteigen‘, dass sie trotz aktueller Gegenwart ‚irgendwie‘ ein Stück ‚möglicher Zukunft‘ denken können.

‚Generative Künstliche Intelligenz im Format von Chatbots‘ (GKI-ChaBo) kann zwar helfen, die (angenäherte) Gesamtheit des bisherigen Wissens — wenngleich auch nur punktuell anhand von Fragen — zugänglich zu machen, aber das ‚Wissen der Vergangenheit‘ liefert ‚aus sich heraus‘ nichts ‚Neues‘ und — vor allem –, die Vergangenheit verfügt nicht unbedingt über jene ‚Ziele‘ und ‚Werte‘ die in der aktuellen Gegenwart notwendig sind, um genau ‚jene mögliche Zukunft zu wollen‘, auf die es ankommen wird.

Mit dieser Herausforderung stößt der Homo sapiens mit voller Wucht ‚auf sich selbst‘ und er wird sich nicht ‚hinter GKI-ChaBo verstecken‘ können. Eine GKI-ChaBo liefert sowieso immer nur das, was Menschen zuvor gesagt und getan haben, dies zwar in einer Breite, die ein einzelner Mensch nicht zustande bringen könnte, aber letztlich fungiert ein GKI-ChaBo nur wie eine Art ‚Spiegel des menschlichen Kollektivs‘. Eine GKI-ChaBo kann die Menschheit selbst nicht ersetzen. Eine GKI-ChaBo ist das Produkt kollektiver menschlicher Intelligenz und kann die Gesamtheit dieser kollektiven Intelligenz umrisshaft sichtbar machen (eine unfassbar tolle Leistung), aber mehr auch nicht.

Für den nächsten Level muss der Homo sapiens es irgendwie schaffen ’sich selbst ganz anders ‚in den Griff zu bekommen‘ wie bisher. In der bisherigen Geschichte gibt es kaum brauchbare Vorbilder. Was wird der Homo sapiens tun? GKI-ChaBo ist ein außerordentlicher Erfolg, aber es ist nicht der letzte Level. Wir können gespannt sein….

Automatisierung des Menschen – Eine Typologisierung am Beispiel ‚Text schreiben‘, ‚Rechnen‘ und ‚Planen‘

Dieser Text ist Teil des Textes „Neustart der Menschlichkeit (Rebooting humanity)“

(Die Englische Version findet sich HIER)

Autor Nr. 1 (Gerd Doeben-Henisch)

Kontakt: cagent@cognitiveagent.org

(Start: 5.Juni 2024, Letzte Änderung: 6.Juni 2024)

Ausgangspunkt

Im Gesamtbild menschlicher Aktivitäten gibt es drei ‚Typen‘ von Handlungsmustern, die alltagsnah und für die gemeinsame Kommunikation und Koordination wichtig sind: (i) das Verfassen von Texten, (ii) das Bescheiben (Berechnen) von quantitativen Zusammenhängen, und (iii) das Planen von möglichen Zuständen in einer angenommenen Zukunft. Alle drei Typen finden sich seit dem Beginn eines ‚kulturellen Lebens‘ der Menschen, sofern es dokumentiert wurde. Im Folgenden wird eine grobe Typologisierung versucht verbunden mit bekannten Formen der Umsetzungen.

Typen und ihre Umsetzungsformate

(a) MANUELL: Wir schreiben Texte ‚manuell‘ mit Hilfe von Schreibwerkzeugen und Schreibunterlagen. Entsprechend bei quantitativen Sachverhalten ein manuelles Hantieren mit Objekten, die mengenmäßige Zusammenhänge repräsentieren. Beim Planen gibt es das Problem, wie man einen ’neuen‘ Zustand darstellen will: handelt es sich bei dem ‚Neuen‘ um etwas ’schon Bekanntes‘, dann kann man ‚auf Bilder/ Zeichen‘ des Bekannten zurück greifen; handelt es sich um ‚wirklich Neues‘, wird es schwierig; es gibt keinen ‚Automatismus des Neuen‘. Wie beschreibt man etwas, was es so bislang noch nie gab? Dazu kommt das — oft übersehene — Problem, dass ‚Gegenstände des Planens‘ meistens ‚Wert- und Zielabhängig‘ sind; Bedürfnisse, Absichten, Erwartungen, sachliche Notwendigkeiten können eine Rolle spielen. Letztere können ‚gesellschaftlich normiert‘ sein, aber angesichts der ‚radikalen Offenheit von Zukunft‘ erweisen sich in der Geschichte ‚zu starke Normierungen‘ als mögliche Abkürzung zu einem Scheitern.

(b) MANUELL-UNTERSTÜTZT: Überspringen wir die Phase der ‚partiell mechanischen‘ Unterstützung und gehen über zur Phase der frühen ‚Computer Unterstützung‘, dann gibt es Maschinen, die man mittels ‚Programmiersprachen‘ so ‚programmieren‘ kann, dass sowohl das Schreibgerät wie auch die Schreibunterlage mittels der programmierten Maschine dargestellt wird, was viele zusätzliche Funktionen ermöglicht (Korrigieren von Texten, Abspeichern, mehrere Versionen, Automatische Korrekturen, …). Schreiben muss man allerdings tatsächlich noch selbst: Buchstabe für Buchstabe, Wort für Wort, … Beim ‚Rechnen‘ ist das Aufschreiben noch sehr mühsam, aber das ‚Ausrechnen‘ erfolgt dann partiell ‚automatisch‘. Mit dem Planen ist es ähnlich wie beim Text schreiben: das ‚Aufschreiben‘ wird unterstützt (mit all den Zusatzfunktionen), aber ‚was‘ man aufschreibt, das bleibt dem Anwender überlassen. Abgesehen vom ‚quantitativen Berechnen‘ wird ein ‚Hochrechnen‘, ein ‚Voraussagen‘ generell nicht unterstützt. Eine ‚Bewertung‘ auch nicht.

(c) SPRACHBASIERTE-UNTERSTÜTZUNG: Die Phase der ’sprachbasierten Unterstützung‘ ersetzt die manuelle Eingabe durch Sprechen. Für ausgewählte Bereiche von Texten gelingt dies immer besser. Für ‚quantitative Sachverhalte‘ (Rechnen, Mathematik,…) noch kaum. Für Planung auch nur sehr begrenzt, dort wo es um schon formulierte Texte geht.

(d) KÜNSTLICHE INTELLIGENZ-UMGEBUNGEN: Die Künstliche Intelligenz (KI) Umgebung wird hier im Kontext von Dialogformaten betrachtet: Der Anwender kann Fragen stellen oder Anorderungen übermitteln, und das System reagiert darauf. Die hier einschlägigen Formate von KI sind die sogenannten ‚generativen KIs‘ im chatbot-Format. Unter Voraussetzung von ‚vorhandenem Wissen‘ von Menschen im Format ‚abgelegte Dokumente/ Bilder/…‘ und unter Voraussetzung von ‚Dialogformaten‘ von Menschen (auch durch explizites Training) können diese generativen KIs Fragen und Aufträge in ‚formaler Nähe‘ zu dem bekannten Material im Kontext eines Dialogs so aufbereiten, dass man ’nicht mehr selbst‘ eingreifen muss. Korrekturen und Veränderungen im Detail sind möglich. Sowohl beim ‚Text erstellen‘ wie beim ‚Rechnen‘ kann dies im Bereich des ‚Bekannten‘ einigermaßen funktionieren. Das tatsächliche Zutreffen in der ‚realen Welt‘ ist aber in keinem Fall gesichert. Beim ‚Planen‘ bleibt das spezielle Problem, dass für die KI ‚wirklich Neues‘ nur im Rahmen von kombinatorischen Sachverhalten begrenzt möglich ist. Der Wahrheits-Vorbehalt bleibt, gilt aber auch im ‚manuellen Fall‘, wo der Mensch selbst plant. Das Bewertungsproblem ist auch eingeschränkt auf schon bekannte Bewertungsmuster: Zukunft ist aber nicht gleich zu setzen mit Vergangenheit; Zukunft ist mehr oder weniger ‚anders‘. Wo sollen die hier notwendigen Bewertungen herkommen?

Als interessante Frage bleibt dann, in welchem Sinne die fortschreitende Unterstützung durch generative KIs die Kommunikation und Koordination zwischen Menschen tatsächlich unterstützt und speziell, ob und wieweit die zentrale Herausforderung einer ‚Zukunftsplanung‘ damit zusätzlich unterstützt werden kann. Fakt ist, dass wir Menschen uns mit Zukunftsplanung im Bereich von sozialem Leben, kommunalem Leben und größeren Kontexten wie Landkreis, Bundesland usw. offensichtlich schwer bis sehr schwer tun. Für eine nachhaltige Zukunft erscheint eine gelingende Planung aber unabdingbar zu sein.

Eine ‚Logik des Lebens‘?

Dieser Text ist Teil des Textes „Neustart der Menschlichkeit (Rebooting humanity)“

(Die Englische Version findet sich HIER)

Autor Nr. 1 (Gerd Doeben-Henisch)

Kontakt: cagent@cognitiveagent.org

(Start: 25.Juni 2024, Letzte Änderung: 28.Juni 2024)

Ausgangspunkt

Die ersten Überlegungen zur ‚kollektiven menschlichen Intelligenz (KMI)‘ lassen anfangshaft aufscheinen, wie im Grundschema allen Lebens —  (i) Fortpflanzung Generation 1, dann  Geburt einer Generation 2, dann  Wachstum der Generation 2, dann Einsetzen von Verhalten der Generation 2 begleitet von Lernprozessen, dann Fortpflanzung der Generation 2 – …. — genetische Voreinstellungen und ‚freies Adaptieren‘, meist ‚Lernen‘ genannt, sich phasenweise abwechseln. Während genetische Vorgaben Strukturen ermöglichen mit typischen Funktionalitäten, die ‚mögliche Handlungsräume‘ erschließen, ist das ‚Ausfüllen dieser Handlungsräume‘ selbst nicht genetisch determiniert. Dies würde auch keinen Sinn ergeben, da ja das reale ‚biologische Trägersystem‘ nicht alleine ist, sondern in einer ‚offenen Umgebung‘ vorkommt, deren konkrete Ausgestaltung samt Dynamik sich konstant ändert. Aus Sicht eines ’nachhaltigen Überlebens‘ ist es also wichtig, dass das biologische Trägersystem über die Fähigkeiten verfügt, die Eigenheiten der Umgebung nicht nur ‚aktuell punktuell aufzufassen‘, sondern auch unter Einbeziehung von Raum und Zeit kombinatorisch zu repräsentieren, zu kombinieren, austesten zu können. Diese einfachen Worte verweisen auf einen höchst komplexen Prozess, den als ‚Lernen‘ zu bezeichnen, sich zwar eingebürgert hat, aber diese ‚Einfachheit der Benennung‘ kann leicht darüber hinweg täuschen, dass wir es hier mit einem ‚evolutionären Wunder der Extraklasse‘ zu tun haben. Das weit verbreitete Konzept von ‚Evolution‘ greift in dieser Perspektive viel zu kurz; es beschreibt nur ein Fragment.

Eine ‚Logik des Lebens‘?

Grundschema allen Lebens

Das ‚Grundschema allen Lebens‘ regt zu vielen Überlegungen an. Auffällig ist, wie Phasen der genetischen Veränderung, die neue Strukturen und Funktionalität implizieren, letztlich den ‚Ausgangsraum‘ der genetischen Veränderungen in neue, erheblich komplexere Räume transformieren, nicht nur einmal, sondern immer wieder, und je öfter, umso mehr Komplexität gerät in Reichweite. [1]

Die Lebensform des ‚Homo sapiens‘ — also ‚Wir‘, die wir uns ‚Menschen‘ nennen — stellt in der zeitlichen Betrachtung der bisherigen Geschichte einen vorläufigen Höhepunkt an Komplexität dar, verweist aber ‚aus sich‘ heraus schon auf eine mögliche ’nächste evolutionäre Stufe‘.

Verkörpert schon der einzelne Mensch — nah betrachtet — mit seiner strukturierten Zellgalaxie, mit den hier möglichen Funktionen, mit seinem individuellen Lernen ein außerordentliches Ereignis — bezogen auf das gesamte bekannte Universum –, so ist dieser ‚einzelne‘ Mensch in seiner aktuellen Beschaffenheit aber schon voll ausgelegt auf eine ‚Vielheit von Menschen‘, auf ‚kollektives Verhalten‘, auf ‚kollektives Lernen‘, und auf jeden Fall auch auf ‚kollektive Leistungen‘.

[1] Die Welt der ‚Moleküle‘ wird transformiert in die Welt der ‚einzelnen Zellen‘; die Welt der ‚einzelnen Zellen‘ wird transformiert in die Welt von ‚vielen Zellen (Zellverbänden)‘; die Welt der ‚Zellverbände‘ wird transformiert in die Welt der ’strukturierten Zellverbände‘, …., die Welt der strukturierten ‚Zellgalaxien‘ wird transformiert in die Welt der ‚kooperierenden strukturierten Zellgalaxien mit individuellem und kollektivem Lernen‘, …

Zeitliche Einordnung

Nicht nur die letzten Jahrtausende haben aufblitzen lassen, wozu viele Menschen zusammen fähig sind, sondern auch und gerade die ‚modernen Ingenieurleistungen‘ im Zusammenwirken von vielen tausenden, wenn nicht gar zehntausenden von Experten, global verteilt, über längere Zeiträume (Monate, Jahre, viele Jahre), simultan mit vielen verschiedenen Sprachen, im Umgang mit hoch komplexen Materialien und Erzeugungsprozessen — Prozessen, in denen Meta-Reflexion und Rückkopplungen selbstverständlich sind — … Diese Prozesse, die spätestens seit dem großen Krieg Mitte des 20.Jahrhunderts weltweit angelaufen sind, wurden seitdem mehr und mehr zum alltäglichen Standard, weltweit. [2] Die Erfindung von programmierbaren Maschinen, von Informationsnetzwerken, von hoch komplexen Speichersystemen, die Bereitstellung von immer ‚menschen-gemäßeren Schnittstellen‘ (visuell, akustisch, taktil, …), bis hin zu jenen Formaten, die dem menschlichen Benutzer so erscheinen, als ob ‚hinter der Schnittstelle‘ ein anderer lebender Mensch sitzt (auch wenn es ’nur‘ eine Maschine ist), haben innerhalb von nur ca. 70 Jahren stattgefunden.

Während es also von den ersten Zeugnissen biologischen Lebens auf dem Planet Erde (vor ca. -3.4 Milliarden Jahre) bis zum ersten nachweisbaren Auftritt des Homo sapiens in Nordafrika (vor ca. -300.000 Jahre) eine ziemliche Zeitspanne gebraucht hat, ging es mit der Entwicklung der komplexen ‚geistigen‘ und ‚kommunikativen‘ Leistungen des Homo sapiens ab ca. -300.000 Jahren erst langsam (Erfindung der Schrift ca. -6000) und dann in den letzten ca. 150 Jahren immer schneller voran: die komplexen Ereignisse überstürzen sich geradezu. Berücksichtigt man aber die gesamte Zeit seit der angenommenen Entstehung des gesamten Universums von vor ca. 13.7 Milliarden Jahren, dann gibt es das grobe Zeitschema:

  • Nach ca. 75% der Gesamtzeit der Existenz des Universums erste Anzeichen für biologisches Leben
  • Nach ca. 99,998% der Gesamtzeit der Existenz des Universums erste Anzeichen für den Homo sapiens
  • Nach ca. 99,999998% der Gesamtzeit der Existenz des Universums erste Anzeichen von komplexen kollektiven menschlich-technischen Intelligenzleistungen

Dies bedeutet, bezogen auf die Gesamtzeit sind die Zeitspannen für die ‚letzten‘ Komplexitätssprünge so ‚kurz‘, dass sie sich auf der großen Skala gar nicht mehr unterscheiden lassen. Man kann dies auch als ‚Beschleunigung‘ interpretieren. Es stellt sich die Frage, ob diese ‚Beschleunigung‘ in dem Hervorbringen von immer komplexeren kollektiven Intelligenzleistungen eine ‚Prozesslogik‘ erkennen lassen, die weitere Überlegungen ermöglichen würde?

[2] Hier begann die Karriere der modernen Form von ‚Systems Engineering‘, jenem quasi Standard der Problemlösung, zumindest in der Englischsprachigen Welt.

Komplexitätsebene Biologische Zelle

Mit der Beschreibung eines ‚Grundschemas allen Lebens‘ deutet sich ein Muster an, das mindestens ab der Komplexitätsebene einer biologischen Zelle beschreibbar ist.

Die Komplexitätsebene, welche der biologischen Zelle voraus geht, ist die Ebene der ‚Moleküle‘, die in unterschiedliche Prozessketten eingebunden sein können.

Im Fall der biologischen Zelle haben wir u.a. den Fall, dass im Kontext der Fortpflanzung einer Zelle Moleküle einer Art 1 von Molekülen einer Art 2 so verwendet werden, ‚als ob‘ die Moleküle der Art 1 ‚Zeichenketten‘ sind, die Moleküle einer Art 3 ‚repräsentieren‘, die dann durch bestimmte chemische Prozesse ‚erzeugt‘ werden. Anders formuliert: es gibt materielle Strukturen, die andere materielle Strukturen als ‚Zeichenketten‘ interpretieren, für die sie über eine ‚Bedeutungszuordnung‘ verfügen, die zur Erzeugung von neuen materiellen Strukturen führt. [3]

So gesehen demonstrieren biologische Zellen den Einsatz einer ‚Bedeutungszuordnung‘, wie wir sie strukturell im Fall symbolischer Sprachen von komplexen Zellgalaxien kennen. Dies ist extrem erstaunlich: wie können ‚ganz normale Moleküle‘ einer Art 2 über eine ‚Bedeutungszuordnung‘ verfügen, die es erlaubt, andere Moleküle einer Art 1 als ‚Zeichenketten‘ so zu interpretieren, dass sie — im Sinne der Bedeutungszuordnung — zur Organisation von anderen Molekülen einer Art 3 führen, die vom Endergebnis her eine Struktur mit funktionellen Eigenschaften bilden, die sich ‚rein materiell‘ nicht aus den Molekülen der Art 1 ableiten lassen.

…. !! Neuer Text in Vorbereitung !! …

[3] In diesem Zusammenhang wird in der Literatur meistens von ‚Information‘ (oder auch ‚biologischer Information‘) gesprochen. Sollte dieser Sprachgebrauch auf die Terminologie von Claude Shannon anspielen, dann wäre sie im Ansatz schwer anwendbar, da es im konkreten Fall nicht wie bei Shannon um eine Vermittlung von ‚Signal-Elementen‘ über einen Signal-Kanal zu ‚empfangenen Signal-Elementen‘ (eine strukturelle 1-zu-1 Abbildung) geht, sondern um eine Zuordnung von ‚Zeichen (= Signalelementen)‘ zu etwas ‚ganz anderem‘ als die ursprünglichen Signalelementen.

Eine ‚Logik‘?

Wenn hier — wenn auch versuchsweise (‚hypothetisch‘) — im Haupttitel von ‚Logik des Lebens‘ gesprochen wird, dann sollte auch geklärt werden, was speziell mit dem Wort ‚Logik‘ als möglichem Konzept ‚gemeint‘ ist.

Ein Begriff von ‚Logik‘ geht auf Aristoteles zurück, der ihn vor ca. 2400 Jahren in Griechenland in Umlauf brachte und der — über den Umweg der islamischen Kultur ab ca. 1000 wieder ins Latein des christlichen Mittelalters zurück übersetzt — bis ins hohe Mittelalter das geistige Leben Europas tief geprägt hat. In Abgrenzung von der ‚modernen formalen Logik‘ — ab dem Ende des 19.Jahrhunderts — spricht man bei der ‚aristotelischen Logik‘ auch von der ‚klassischen Logik‘.

Sieht man von vielen Details ab, unterscheiden sich klassische und moderne Logik eigentlich nur in einem Punkt: in der klassischen Logik spielt die ’sprachliche Bedeutung‘ der verwendeten Ausrücke eine wichtige Rolle, in der modernen Logik wurde die sprachliche Bedeutung hingegen vollständig ausgeklammert. ‚Verstümmelte Reste‘ von Bedeutung finden sich noch im Konzept eines ‚abstrakten Wahrheitsbegriffs‘, der sich in ‚abstrakten Wahrheitswerten‘ niederschlägt, deren ‚Bedeutungsgehalt‘ aber völlig leer ist.

Das Konzept der klassischen wie modernen Logik wird — trotz aller Unterschiede — geeint durch das Konzept des ‚logischen Folgerns‘: Angenommen, man hat eine Menge von Ausdrücken, die von den Logikanwendern als ‚irgendwie wahr‘ eingestuft wird, dann gibt es ‚Regeln der Anwendung‘, wie man auf der Basis der Menge der ‚als wahr angenommenen Ausdrücke‘ andere Ausdrücke ‚erzeugen‘ kann, die dann auch als ‚wahre Ausdrücke‘ angesehen werden dürfen. Dieses ‚Erzeugen‘ von neuen Ausdrücken aus schon vorhandenen Ausdrücken wird ‚Schließen‘ genannt oder ‚Folgern‘ und das ‚Ergebnis‘ des Folgerns ist dann ein ‚Schluss‘, eine ‚Folgerung‘.

Eine eher moderne — formelhaft verkürzende — Schreibweise für diesen Sachverhalt wäre z.B.:

A ⊢Tr B

Das Symbol ‚A‘ steht hier für eine Menge von Ausdrücken, die als ‚wahr‘ angenommen werden, ‚Tr‘ steht für eine Menge von Transformationsanweisungen (meist ‚Schlussregeln oder Folgerungsregeln genannt), ‚B‘ steht hier für einen erzeugten (abgeleiteten) Ausdruck, und ‚⊢‘ verweist auf einen ‚Handlungszusammenhang‘, innerhalb dessen Logikanwender mit Hilfe von Transformationsregeln die ‚Erzeugung von B bezogen auf A‘ vornehmen.

Ein ’normaler‘ Logiker spricht im Falle des Symbols ‚⊢‘ nicht von einem Handlungszusammenhang‘ sondern meist nur von einem ‚Folgerungsbegriff‘ oder — mit Blick auf den heute verbreiteten Einsatz von Computern — von einem ‚Folgerungsmechanismus‘; diese Art zu reden darf aber nicht darüber hinweg täuschen, das ‚das, was real vorliegt‘, einmal konkrete ‚Objekte‘ in Form von ‚Ausdrücken‘ ‚A‘ und ‚B‘ sind, zum anderen in Form von Ausdrücken ‚Tr‘. Diese Ausdrücke als solche haben weder irgendeine ‚Bedeutung‘ noch können diese Ausdrücke ‚aus sich heraus‘ irgendeine Erzeugung generieren. Damit die konkreten Ausdrücke ‚B‘ als ‚Folgerung‘ aus den Ausdrücken ‚A‘ klassifiziert werden können, die ‚mittels der Ausdrücke Tr‘ ‚real erzeugt‘ werden, muss real ein ‚Prozess‘ stattfinden, in dem ‚B‘ aus ‚A‘ ‚im Sinne von Tr‘ ‚real erzeugt‘ wird.

Ein Prozess ist ein realer Vorgang ‚in der Zeit‘, in dem es einen realen Zustand gibt, der das Objekt ‚A‘ enthält, und einen realen Logikanwender, der ‚in seinem Kopf‘ über ein ‚Konzept = Modell‘ des ‚logischen Folgerns‘ verfügt, in dem die ‚Ausdrücke‘ der Erzeugungsregeln Tr mit konkreten Prozessschritten (der Bedeutung der Ausdrücke Tr) verknüpft sind, so dass der Logikanwender die zu A gehörenden Ausdrücke als Teil der Erzeugungsregeln in einer Weise identifizieren kann, dass die Erzeugungsregeln den Ausdrücken A einen neuen Ausdruck B ‚zuordnen‘ können. Sofern diese Zuordnung ‚im Kopf des Logikanwenders‘ (im Alltag spricht man von ‚Denken‘) gelingt, kann dieser dann mit Verweis auf die konkreten Ausdrücke Tr in einer ’nachfolgenden Situation‘ einen neuen Ausdruck B hinschreiben. Ein anderer Logikanwender wird diesen neuen Ausdruck ‚B‘ nur akzeptieren, wenn er in seinem Kopf ebenfalls über ein ‚Konzept = Modell‘ des logischen Folgerns verfügt, das in seinem Kopf um gleichen Ergebnis ‚B‘ führt. Kommt der andere Logikanwender zu einem anderen Ergebnis als ‚B‘, dann wird er widersprechen.

–!! Noch nicht fertig !–

Kollektive Intelligenz

Dieser Text ist Teil des Textes „Neustart der Menschlichkeit (Rebooting humanity)“

(Die Englische Version findet sich HIER)

Autor Nr. 1 (Gerd Doeben-Henisch)

Kontakt: cagent@cognitiveagent.org

(Start: 20.Juni 2024, Letzte Änderung: 25.Juni 2024)

Ausgangspunkt

Das Hauptthema dieses Abschnitts soll die ‚kollektive menschliche Intelligenz (KMI)‘ sein. Diese kommt jedoch nicht isoliert vor, nicht losgelöst von allem anderen. Vielmehr spannt das Leben auf dem Planet Erde ein komplexes Netzwerk von Prozessen auf, die — bei näherer Betrachtung — ‚in sich‘ Strukturen erkennen lassen, die für alle Lebensformen in ihren Eckwerten gleich sind, sich jedoch partiell unterscheiden. Dazu muss berücksichtigt werden, dass diese Grundstrukturen in ihrer Prozessform sich immer auch mit anderen Prozessen verweben, sie greifen ineinander, beeinflussen sich gegenseitig. Eine Beschreibung dieser Grund-Strukturen soll hier daher zunächst eher skizzenhaft sein, da man sich bei der ungeheuren Vielfalt der Details sonst zu schnell im ‚Dickicht des Besonderen‘ verirrt .

Wichtige Faktoren

Basiszyklus

Ausgehend von der einzelnen Zelle bis hin zu den mächtigsten Zellgalaxien [1], die das Leben bislang hervorgebracht hat, findet sich bei jeder identifizierbaren Lebensform ein ‚Grundschema‘ des Lebensprozesses, das sich wie ein ‚roter Faden‘ durch alle Lebensformen zieht: sofern es überhaupt mehr als ein einzelnes Lebenssystem gibt (eine ‚Population‘), gibt es während der gesamten Lebenszeit den Basiszyklus (i) Fortpflanzung Generation 1 – Geburt einer Generation 2- Wachstum der Generation 2 – Einsetzen von Verhalten der Generation 2 begleitet von Lernprozessen – Fortpflanzung der Generation 2 – ….

Genetische Determiniertheit

Dieser Basiszyklus ist in der Phase ‚Fortpflanzung‘ und ‚Geburt‘ weitgehend ‚genetisch determiniert‘ [2]. Der Wachstumsprozess selbst — der Aufbau der Zellgalaxie — ist grundsätzlich auch stark genetisch determiniert, aber hier nehmen zunehmend Faktoren Einfluss, die aus dem Umfeld des Wachstumsprozesses stammen und die unterschiedlich stark den Wachstumsprozess modifizieren können. Die Ergebnisse von Fortpflanzung und Wachstum können also schon mehr oder weniger stark variieren.

Lernen

In dem Maße, wie das Wachstum die Zellgalaxie in einen ‚ausgereiften‘ Zustand überführt hat, kann das Gesamtsystem unterschiedliche ‚Funktionen‘ ermöglichen, die zunehmend ein ‚Lernen‘ ermöglichen.

Ein Minimalbegriff von Lernen bezogen auf handelnde Systeme erkennt das ‚Lernen eines Systems‘ daran, dass das ‚Verhalten‘ eines Systems sich bezogen auf einen bestimmten Umgebungsreiz über längere Zeit ändert, und diese Veränderung ist ‚mehr als zufällig‘.[3]

‚Lernen‘ bewegt sich auf einer Skala von ‚relativ determiniert‘ bis hin zu ‚weitgehend offen‘. ‚Offen‘ heißt hier, dass die Kontrolle durch genetische Vorgaben abnehmen und das System innerhalb eines Spektrums von Handlungsmöglichkeiten individuell unterschiedliche Erfahrungen machen kann.

Erfahrungen

Erfahrungen gewinnen ihr ‚Format‘ innerhalb folgender Koordinaten:

(i) (sinnliche) Wahrnehmung (konkrete Ereignisse in unsren Sinnesorganen, ausgelöst durch Ereignisse der Umgebung)

(ii) Abstraktionen der sinnlichen Wahrnehmungen, die sich

(iii) (bedingt) abrufbar im Innern des Systems bilden (die Gesamtheit solcher bedingt abrufbaren (erinnerbaren) Wahrnehmungen nennt man auch Gedächtnisinhalte [4]), die Möglichkeit von

(iv) beliebigen Abstraktionen von vorhandenen Abstraktionen, das

(v) Abspeichern von zeitlichem Hintereinander von Abstraktionen genauso wie

(vi) Abstraktionen von ganzen Folgen von zeitlich aufeinander folgenden Ereignissen, sowie das

(vii) freie Kombinieren von beliebigen Abstraktionen zu neuen integrierten (abstrakten) Einheiten. Dazu kommt auch noch

(viii) die ‚Wahrnehmung körperinnerer Ereignisse‘ (auch ‚propriozeptive‘ Wahrnehmung genannt) [5], die sich mit allen anderen Wahrnehmungen und Abstraktionen ‚verknüpfen (assoziieren)‘ können [6]. Zu beachten ist auch, dass es eine Eigenschaft von Wahrnehmung ist, dass

(ix) Ereignisse in der Regel nie isoliert auftreten, sondern als ‚Teil einer Raumstruktur‘ erscheinen. Obwohl man ‚Teilräume unterscheiden kann (visuell, akustisch, taktil, …), lassen sich diese Teilräume zu einem ‚Gesamtraum‘ integrieren, der das Format eines ‚drei-dimensionalen Körperraums‘ hat, mit dem eigenen Körper als Teil. ‚In Gedanken‘ können wir zwar einzelne Objekte ‚für sich‘ betrachten, losgelöst von einem Körperraum, aber sobald wir uns dem ’sinnlichen Erfahrungsraum‘ zuwenden, wird die drei-dimensionale Raumstruktur aktiv.

Individuell – kollektiv

Im individuellen Durchleben von alltäglichen Situationen formiert sich diese ‚innere Erfahrungswelt‘ weitgehend unbewusst auf vielfältigste Weise.

Sobald aber ‚menschliche Systeme‘ — kurz: Menschen — in einer Situation nicht alleine sind, sondern zusammen mit anderen Menschen, können diese Menschen die gleiche Umgebung ‚ähnlich‘ oder ‚verschieden‘ wahrnehmen und erinnern. In ihren individuellen Erfahrungen können sich unterschiedliche Elemente zu bestimmten Mustern kombinieren.

Koordination von Verhalten

Spannend wird es, wenn verschiedene Menschen versuchen, ihr Verhalten zu koordinieren, und sei es nur, um ‚Kontakt‘ miteinander aufzunehmen. Und, obwohl dies auch ohne explizite symbolische Sprache in vielfältiger Weise möglich ist [7], gelingt ein anspruchsvolles, komplexes gemeinsames Handeln mit vielen Teilnehmer über längere Zeiträume mit anspruchsvollen Aufgabenstellungen nach heutigem Wissen nur unter Einbeziehung symbolischer Sprache.

Die Fähigkeit von Menschen, Sprachen zu benutzen, erscheint grundsätzlich genetisch bedingt zu sein. [8] ‚Wie‘ Sprache benutzt wird, ‚wann‘, ‚mit welchen Gedächtnisinhalten Sprache verknüpft‘ wird, dies ist genetisch nicht bedingt. Dies müssen Menschen jeweils ‚aus der jeweiligen Situation heraus‘ einerseits individuell lernen, zugleich aber auch kollektiv, in Abstimmung mit anderen, da Sprache ja nur Sinn macht als ein ‚gemeinsames Kommunikationsmittel‘, das anspruchsvolle Koordinierungen ermöglichen soll.

Sprachliche Bedeutung

Welches System von Lauten (und dann auch Zeichen) in eine Sprache zum Einsatz kommt entscheiden letztlich diejenigen, die erstmalig gemeinsam eine Sprache benutzen.[9] Da es faktisch viele tausend Sprachen gibt [10], kann man daraus schließen, dass es eine ziemliche Freiheit bei der konkreten Ausgestaltung einer Sprache gibt.[11]

Am stärksten zeigt sich diese ‚Freiheit in der konkreten Ausgestaltung‘ in der Zuordnung zwischen Sprachelementen und möglicher Bedeutung. Der gleiche ‚Gegenstand‘ oder das ‚gleiche Ereignis‘ oder der gleiche ‚Sachverhalt‘ kann von Menschen mit unterschiedlichen Sprache vollständig anders ‚ausgedrückt‘ werden.[12] Und dieses ‚anders‘ bezieht sich nicht nur auf die ‚Benennung‘ einzelner Eigenschaften oder Gegenstände, sondern spielt sich in einem ‚größeren Zusammenhang‘ von ‚Sehweisen‘ ab, wie in einer bestimmten Sprachgemeinschaft die Welt des Alltags als ganze wahrgenommen, klassifiziert und praktiziert wird. Diese Unterschiede treten auch ‚innerhalb einer Sprachgemeinschaft‘ auf in Form von ‚Milieus’/ ‚gesellschaftlichen Schichten‘, in denen sich die ‚Praxis des Lebens‘ unterscheiden.

Der wichtigste Aspekt des Verhältnisses von Sprachsystem (Laute, Zeichen, Anordnung von Lauten und Zeichen) zu möglichen ‚Bedeutungsinhalten‘ besteht darin, dass jede Art von ‚Inhalt‘ im ‚Innern‘ des Menschen ( im Innern des ‚Systems‘) zu verorten ist. [13]

Wie oben die kurze Skizze zum Erfahrungsraum anklingen lässt, so ist die Menge der Elemente, die einen Erfahrungsraum konstituieren können, so vielschichtig, so dynamisch, dass eine Zuordnung zwischen Sprachelementen und Erfahrungselementen — so die Arbeitshypothese — grundsätzlich unvollständig ist. Dazu kommt, dass sich zwei unterschiedliche Systeme (Menschen) nur dann über Erfahrungselemente als ’sprachliche Bedeutung‘ ‚einigen‘ können, wenn sie über ‚gemeinsame Bezugspunkte‘ in ihren individuellen Erfahrungsräumen verfügen. Dazu gibt es aufgrund der Systemstruktur nur folgende ‚Typen von Bezugspunkten‘:

(i) Es gibt sinnliche Wahrnehmungen von Gegebenheiten einer gemeinsam geteilten Umgebung, die bei allen Beteiligten ‚hinreichend‘ ähnlich wahrgenommen werden können (und im Erfahrungsraum automatisch (unbewusst!) in abstraktere Einheiten transformiert werden).

(ii) Es gibt interne Körperwahrnehmungen, die aufgrund einer genetisch bedingten Strukturähnlichkeit ’normalerweise‘ in jedem Menschen ähnlich auftreten können.[14]

(iii) Es gibt interne Wahrnehmungen von internen Prozessen, die aufgrund einer genetisch bedingten Strukturähnlichkeit die ebenfalls ’normalerweise‘ in jedem Menschen ähnlich auftreten können.[15]

Je ‚ähnlicher‘ solche internen Strukturen sind und je ‚konstanter‘ sie auftreten, umso größer ist die Wahrscheinlichkeit, dass sich unterschiedliche Sprachteilnehmer ‚interne Arbeitshypothesen‘ bilden können, was der jeweils ‚andere meint‘, wenn er bestimmte sprachliche Ausdrücke benutzt. Je mehr sich Erfahrungsinhalte von den Typen (i) – (iii) entfernen, um so schwieriger bis unmöglich wird eine Einigung.

Die Frage nach ‚wahren Aussagen‘ und nach ‚überprüfbaren Voraussagen‘ ist ein spezieller Teilkomplex des Bedeutungsproblems, der gesondert behandelt wird.

Komplexe Sprachformen

Erscheint schon die Bedeutungszuordnung und Bedeutungsfeststellung bei vergleichsweise ‚einfachen‘ sprachlichen Ausdrücken nicht ganz einfach, wird dies bei ‚komplexeren Sprachformen‘ schnell ‚verschwommen‘, ‚vage‘. Die Diskussionen und Forschungen zu diesem Themenkomplex sind unfassbar groß.[16]

Ich möchte hier nur kurz an das Beispiel von Ludwig Wittgenstein erinnern, der mit seinem Frühwerk ‚Tractatus logicop-philosophicus‘ (1921) zunächst das sehr schlichte Bedeutungskonzept der damaligen modernen formalen Logik ‚gedanklich experimentell‘ in einem Text durchgespielt hat, dann aber, viele Jahre später (1936 – 1946), das Problem der Bedeutung am Beispiel der Alltagssprache anhand vieler konkreter Beispiele neu durchexerzierte. Dabei entdeckte er — eigentlich kein Wunder — dass die ’normale Sprache‘ anders und erheblich komplexer funktioniert, als es in dem schlichten Bedeutungsmodell der formalen Logik vorausgesetzt wird.[17] Das, was Wittgenstein in seinen ‚alltagsnahen Analysen‘ entdeckt, war so vielschichtig-komplex, dass er sich außer Stande sah, dies in eine systematische Darstellung zu transformieren.[18]

Generell kann man sagen, dass es bis heute nicht einmal ansatzweise eine umfassende und zutreffende ‚Theorie der Bedeutung der normalen Sprache‘ gibt.[19]

Die Entstehung und Verbreitung von’generativer Intelligenz‘ in den letzten Jahren [20] kann hier möglicherweise eine unverhoffte Chance bieten, das Problem vielleicht ganz neu aufzurollen. Hier demonstriert die moderne Ingenieurkunst, dass einfache Algorithmen, die selbst über keinerlei eigenem Bedeutungswissen verfügen, nur unter Verwendung von Sprachmaterial [21] in sprachlicher Interaktion mit Menschen in der Lage sind, sprachlichen Output zu produzieren, der groß sein kann, strukturiert, und so angeordnet, dass Menschen diesen sprachlichen Output so auffassen, ‚als ob er von einem Menschen‘ stammt, was letztlich sogar stimmt. [22] Das, was ein Mensch an diesem sprachlichen Output bewundert, das ist dann letztlich ‚er selbst‘, allerdings nicht er in seinen individuellen Sprachleistungen, die häufig schlechter sind, als jene, die die Algorithmen generieren. Das, was dem individuellen Benutzer in solch generierten Texten begegnet, ist letztlich das ‚kollektive Sprachwissen‘ vieler Millionen von Menschen, das uns ohne diese Algorithmen (!) in dieser extrahierten Form gar nicht zugänglich wäre.

Diese generativen Algorithmen [23] kann man vergleichen mit der Erfindung des Mikroskops oder des Fernglases oder der modernen Mathematik: all diese Erfindung haben es dem Menschen ermöglicht, Sachverhalte, Strukturen zu erkennen, die ohne diese Instrumente unsichtbar geblieben wären. Das wahr Ausmaß kollektiver Sprachleistungen wäre ohne die moderne Technologie allein schon deshalb ‚unsichtbar‘, weil Menschen ohne diese Technologien den Umfang und das Ausmaß samt allen Details gar nicht erfassen könnten.

Vorläufiges Zwischenergebnis

Die bisherigen Überlegungen lassen nur in ersten Umrissen erkennen, was kollektive Intelligenz sein kann bzw. ist.

[1] Erinnerung: Wenn wir für die Anzahl der Sterne in unserer Heimatgalaxie der Milchstraße mit geschätzten 100 – 400 Milliarden Sterne mal annehmen, dass es 200 Milliarden sind, dann würde unser Körpersystem dem Umfang von 700 Galaxien im Format der Milchstraße entsprechen, eine Zelle für einen Stern. … ein einzelner Körper !

[2] Wobei wir heute wissen, dass Gene sich in verschiedenen Phase auf unterschiedliche Weise ändern können bzw. verändert werden.

[3] Vereinfachend kann man sagen, dass ‚Zufälligkeit‘ in einer ‚verteilungsfreien Form‘ besagt, dass jede der bekannten möglichen Fortsetzungen ‚gleich wahrscheinlich‘ ist; keine der möglichen Fortsetzungen weist im Laufe der Zeit eine ‚höhere Häufigkeit‘ auf als eine der anderen. Eine Zufälligkeit mit einer ‚impliziten Verteilung‘ fällt dadurch auf, dass zwar die möglichen Fortsetzungen auch zufällig sind, aber bestimmte Fortsetzungen zeigen im Laufe der Zeit eine andere Häufigkeit als andere. Alle diese besonderen individuellen Häufigkeit zusammen lassen ein ‚Muster‘ erkennen, anhand dessen man sie charakterisieren kann. Ein Beispiel für eine ‚Zufälligkeit mit Verteilung‘ ist die ’natürliche (oder Gauss-) Verteilung‘.

[4] Der Begriff des ‚Gedächtnisses‘ ist ein theoretisches Konzept, dessen empirische und funktionale Beschreibung bis heute nicht ganz abgeschlossen ist. In der Literatur unterscheidet man z.B. viele verschiedene ‚Formen von Gedächtnis‘ wie ‚Kurzzeitgedächtnis‘, ‚Langzeitgedächtnis‘, ’sensorisches Gedächtnis‘, ‚episodisches Gedächtnis‘, und vieles mehr.

[5] Z.B. ‚Stellung der Gelenke‘, ‚Schmerzen‘, ‚Völlegefühl‘, ‚Unwohlsein‘, ‚Hunger‘, ‚Durst‘, verschiedene ‚Emotionen‘ usw.

[6] Man sieht dann eben nicht nur einfach einen ‚blauen Himmel‘ und empfindet gleichzeitig eine ‚leichten Brise auf der Haut‘, sondern man hat zugleich ein Gefühl des ‚Unwohlseins‘, von ‚Fieber‘, vielleicht sogar noch ein ‚Gefühl von Niedergeschlagenheit‘ und Ähnlichem.

[7] In der biologischen Verhaltensforschung gibt es zahllose Beispiel von Lebensformen, die beeindruckende Koordinationsleistungen zeigen, wie z.B. beim gemeinsamen Jagen, bei der Organisation für die Aufzucht der Nachkommen, im ‚Familienverband‘, beim Erlernen der ‚Dialekte‘ ihrer jeweiligen Sprache, beim Hantieren mit Werkzeugen, …

[8] Jedes Kind kann überall jede bekannte menschliche Sprache lernen, sofern es eine Umgebung gibt, in der eine Sprache praktiziert wird. Bekannt sind viele tausend verschiedene Sprachen.

[9] Der genaue Mechanismus, wie eine Sprache erstmalig zwischen einer Gruppe von Menschen entsteht, ist bis heute nicht vollständig geklärt. Es gibt allerdings immer mehr Computer-Simulationen zum Sprache lernen (Sprachevolution), die versuchen, dies zu erhellen. Aufgrund der ungeheuren Vielzahl der beteiligten Faktoren beim realen Sprachgebrauch erscheinen diese Simulationen aber noch ‚eher einfach‘.

[10] Wie wir anhand vieler Zeugnisse wissen, gab es in vorausgehenden Zeiten viele andere Sprachen, die irgendwann ausgestorben sind (‚tote Sprachen‘), und von denen dann nur schriftliche Zeugnisse existieren. Interessant sind auch solche Fälle, in denen sich eine Sprache ‚weiter entwickelt‘ hat, wo dann ältere Formen aber als Texte weiter existieren.

[11] Die Sprachforschung (viele unterschiedliche Disziplinen wirken hier zusammen) legt aber die Arbeitshypothesen nahe, dass (i) die Art und der Umfang der Laute, die in einer Sprache zum Einsatz kommen, aufgrund des menschlichen Sprachapparats eine endliche Menge darstellen, die sich mehr oder wenig ähnlich in allen Sprachen wiederfinden, wenngleich zwischen den großen Sprachfamilien dann doch noch unterschiedliche Mengen an Lauten auftreten. Ferner (ii) legen viele Analysen der Struktur gesprochener und dann der geschriebenen — Sprache nahe, dass es ‚Grundstrukturen‘ (‚Syntax‘) gibt, die sich — mit Variationen — in allen Sprachen finden.

[12] Jeder, der mit Menschen zusammen kommt, die eine andere Sprache sprechen, kann dies hautnah und konkret erleben.

[13] Im Lichte der modernen Gehirnforschung und allgemeiner Physiologie wird man hier als ‚Ort‘ das Gehirn annehmen. Diese Verortung nützt allerdings nicht all zuviel, da die Erforschung des materiellen Gehirns im Körper mitsamt seinen Interaktionen mit dem umgebenden Körper bis heute kaum in der Lage ist, die genauen Mechanismen von ‚Bedeutungszuordnungen‘ zu erfassen (genauso wenig wie man aufgrund von physikalischen Signalen der Chips eines Computers allein aufgrund von diesen Signalen denjenigen Algorithmus identifizieren zu können, dessen Ausführung die beobachtbaren Signale verursacht).

[14] z.B. ‚Hunger‘, ‚Durst‘, ‚Zahnschmerzen‘ …

[15] Das ‚Erinnern‘ von etwas, was schon mal passiert ist; das ‚Wiedererkennen‘ von etwas sinnlich Konkretem, was man ‚erinnern‘ kann; das ‚Kombinieren‘ von Erinnerbarem zu neuen ‚Konstellationen‘, und vieles mehr.

[16] Teile dieser Diskussion finden sich im Kontext von ‚Textanalysen‘, ‚Textinterpretationen‘, ‚Hermeneutik‘, ‚Bibelauslegung‘ usw.

[17] Was wiederum überhaupt nicht verwundert, da die moderne formalen Logik ja gerade nur entstehen könnte, weil man sich ‚programmatisch radikal‘ von dem, was alltags-sprachlich mit Bedeutung zu tun hat, verabschiedet hatte. Übrig geblieben waren nur ‚Stummel einer abstrakten Wahrheit‘ in Form von abstrakten ‚Wahrheitswerten‘, die jeder Bedeutung beraubt waren.

[18] Seine posthum heraus gegebenen ‚Philosophical Investigations‘ (1953) bieten daher ’nur‘ eine Sammlung von Einzelerkenntnissen, die aber immerhin das Zeug hatten, die Reflexionen über sprachliche Bedeutung weltweit zu beeinflussen.

[19] Die Liste von Publikationen, in denen es laut Titel um die ‚Bedeutung von Sprache‘ geht, ist überaus lang. Dies ändert aber nichts an der Tatsache, dass keine dieser Publikationen das Problem in umfassender Sicht zufriedenstellend löst. Es ist aktuell auch nicht absehbar, wie eine Lösung entstehen kann, da dies das Zusammenwirken von vielen Disziplinen verlangen würde, die im aktuellen Hochschulbetrieb gut verteilt und getrennt ein ‚Eigendasein‘ führen.

[20] Mit chatGPT als einem Beispiel.

[21] Viele Millionen von Texten, die Menschen für die Zwecke der ‚Kommunikation von Inhalten‘ produziert haben.

[22] Was letztlich ja sogar stimmt, weil die Algorithmen selbst keinen Text ‚erfinden‘, sondern nur anhand vorhandener Texte ‚tatsächlich benutzte‘ sprachliche Ausdrücke benutzen, um damit ‚hoch wahrscheinliche‘ Kombinationen von Ausdrücken zu generieren, die Menschen wahrscheinlich verwenden würden.

[23] Die man nicht isoliert sehen darf: ohne extrem leistungsfähige Rechenzentren samt entsprechenden globalen Netzen samt gesellschaftlichen Strukturen, die eine flächendeckende Nutzung möglich machen, wären diese Algorithmen wertlos. Hier leuchtet indirekt auch das auf, was nur aufgrund der kollektiven menschlichen Intelligenz möglich wurde und im Alltag funktioniert.

Blind’s World One (1995!)

Dieser Text ist Teil des Textes „Neustart der Menschlichkeit (Rebooting humanity)“

Autor: Gerd Doeben-Henisch

Kontakt: cagent@cognitiveagent.org

(Letzte Änderung: 14.Juni 2024)

Ausgangspunkt

Wie kann man philosophisch künstliche Intelligenz (KI) in Interaktion mit realen Menschen denken, eine KI, die reale Sprache mit realer Bedeutung selbst lernt? Aufgrund eines Angebots der ars electronica 95, ein philosophisch inspiriertes Kunstprojekt einzubringen, habe ich in intensiven Monaten mit einem ad hoc gebildeten Software-Team (das Team war wunderbar!) auf der Basis philosophischer Überlegungen die interaktive Netzwerkversion einer kleinen künstlichen Welt designed (welche vom Software Team wunderbar umgesetzt wurde), in der ‚blinde Knowbots‘ lebten, die mit der Außenwelt kommunizieren konnten, und die ihre übrigen sensorischen Erfahrungen samt elementaren Körperzuständen als Grundlage von Bedeutungszuordnungen zur jeweiligen Sprache verwendeten. Welche Sprache auch immer die Benutzer (meistens Kinder!) benutzten, sie konnten diese Sprache mit ihrer realen Welterfahrung verknüpft. Dieses Experiment hat mich über viele Jahre, eigentlich bis heute, geprägt.

(Der Text wurde aus dem Buch der ars electronica 95 kopiert, da der Text nicht mehr zugänglich ist)

Der Text

Der Mensch und Maschinen, mit denen Klang erzeugt werden kann

Dieser Text ist Teil des Textes „Neustart der Menschlichkeit (Rebooting humanity)“

Autor: Gerd Doeben-Henisch

Kontakt: cagent@cognitiveagent.org

(Letzte Änderung: 14.Juni 2024)

Ausgangspunkt

Seit September 2015 versuche ich immer wieder — theoretisch wie praktisch — zu verstehen, was eigentlich Klangkunst ist; was ist Klang? Was macht dieser mit uns? Eine Überlegung jagte die andere; dazwischen reale Experimente und reale Auftritte. Es gab auch lange ‚Stillstandszeiten’…. Bei einem Klangkunstkonzert am 11.Juni 2024 im Mousonturm in Frankfurt hat es in meinem Kopf zu einer bestimmten grundlegenden Frage ‚Klick‘ gemacht und mit einem Male wurde mir die Besonderheit der ‚kollektiven menschlichen Intelligenz‘ in Konfrontation mit sogenannten ‚intelligenten Maschinen‘ irgendwie ’neu‘ klarer.

XEROX EXOTIQUE #090 – IMPRESSIONEN

Dieser Beitrag in einem assoziierten Blog handelt von Menschen und Maschinen, mit denen Klang erzeugt werden kann.

Auslöser war eine Klangkunst-Veranstaltung im Mousonturm zu Frankfurt am Main am 11.Juni 2024.

SKIZZE :Mousonturm, kleiner Veranstaltungsbereich rechts vom Eingang mit kleiner Bühne. Einige Akteure hervorgehoben. Ausführlicher Infos zur Veranstaltung findet man auf der Seite von XEROX EXOTIQUE (xeroxex.de)

Zum Beitrag folge diesem Link: https://philosophy-in-concert.org/2024/06/12/xerox-exotique-090-impressionen/

Veränderungen

Dieser Text ist Teil des Textes „Neustart der Menschlichkeit (Rebooting humanity)“

(Die Englische Version findet sich HIER)

Autor Nr. 1 (Gerd Doeben-Henisch)

Kontakt: cagent@cognitiveagent.org

(Start: 10.Juni 2024, Letzte Änderung: 10.Juni 2024)

Ausgangspunkt

Sowohl im Abschnitt ‚Reden über die Welt‘ wie auch im Abschnitt ‚Überprüfbare Aussagen‘ blitzt immer wieder das Moment der ‚Veränderung‘ auf: unsere alltägliche Welt zeichnet sich dadurch aus, dass sich alles, was wir kennen, ‚verändern‘ kann, auch wir selbst verändern uns, dauernd, vielfach unbewusst; es passiert einfach. Im Kontext von Menschen, die versuchen, sich gemeinsam ein Bild von der Welt zu machen, die vielleicht auch versuchen, ‚Pläne‘ zu schmieden, was gemeinsam unternommen werden sollte, um für möglichst viele eine möglichst gute Lebenssituation in der Zukunft zu erreichen, stellt das Phänomen der ‚Veränderung‘ eine ambivalente Herausforderung dar: gäbe es überhaupt keine Veränderung, dann gäbe es auch keine Zukunft, nur ‚Gegenwart‘; mit dem Stattfinden von Veränderung wird es aber schwierig, ‚in die Zukunft zu schauen‘. Wie können wir wissen, in welchen zukünftigen Zustand uns die Summer aller Veränderungen führen wird? Haben wir überhaupt eine Chance?

Veränderungen

Motivation

Für die aktuelle Situation halten wir das Szenario bei, dass wir als Kontext Menschen voraussetzen, die versuchen, sich gemeinsam ein Bild von der Welt zu machen, die vielleicht auch versuchen, ‚Pläne‘ zu schmieden, was gemeinsam unternommen werden sollte. Dabei ist es natürlich bei der Suche nach den ‚relevanten‘ Themen nicht egal, mit ‚welchen Menschen‘ man arbeitet, da jede Gruppe in einer Gesellschaft sehr wohl ‚eigene Perspektiven‘ haben kann und auch oft hat. Und es sind nicht nur ‚autokratische‘ Gesellschaftssysteme, in denen die Perspektiven von Bürgern leicht unter die Räder kommen können; wir haben genügend Beispiele von offiziell ‚demokratischen‘ Gesellschaftssystemen, in denen die Belange von Bürgern auch ‚unter die Räder‘ kommen, was genauer zu analysieren ist.

An dieser Stelle geht es zunächst um die elementaren Mechanismen von ‚Veränderungen‘, hier um die ‚gemeinsame Beschreibung‘ von Veränderungen. Das Motiv für diese Gewichtung folgt aus dem Sachverhalt, dass verschiedene Menschen sich für ein ‚gemeinsames Verhalten‘ nur dann ‚abstimmen (koordinieren)‘ können, wenn es ihnen zuvor gelingt, sich im Rahmen von ‚Kommunikationsprozessen‘ mindestens über die ‚Inhalte ihres Verhaltens‘ zu ‚verständigen‘.

Während dies bei einfachen Sachverhalten oder wenigen Teilnehmern noch rein mündlich funktionieren kann, braucht man in den meisten Fällen aber ‚geschriebene Texte‘ (Dokumente). Im letzteren Fall hat man gegenüber der direkten Sprache aber ganz schnell den Nachteil, dass ein ‚Text‘ in einer Situation ‚gelesen‘ werden kann, in der der ‚Leser‘ sich aktuell nicht direkt in jener Situation befindet, über die der Text schreibt. Im Sinne der ‚Überprüfbarkeit von Aussagen‘ stellt dies eine reale Herausforderung dar: jeder Text hat aufgrund der ‚gelernten Bedeutungsbeziehungen‘ für einen Leser automatisch eine ‚Bedeutung‘, die ‚im Kopf des Lesers‘ aktiviert wird, aber für eine ‚Bedeutung im Kopf‘ ist in jedem Fall zu klären, ob es dazu auch eine ‚reale überprüfbare Entsprechung‘ zu der im Text ‚beschriebenen Situation‘ gibt.

Wenn wir voraussetzen, dass die Gruppe von Menschen ernsthaft über eine ‚Zukunft‘ nachdenken will, für die diese Menschen annehmen, dass Sie ‚eher eintreten wird als nicht‘, und zwar nicht nur ‚gedacht‘ sondern ‚real‘, dann muss es eine Chance geben, die Beschreibung einer ‚Ausgangslage‘ so zu gestalten, dass alle Beteiligten eine Chance haben, das ‚Zutreffen im gemeinsam geteilten Alltag‘ überprüfen zu können.

Überprüfbare Aussagen

Dieser Text ist Teil des Textes „Neustart der Menschlichkeit (Rebooting humanity)“

(Die Englische Version findet sich HIER)

Autor Nr. 1 (Gerd Doeben-Henisch)

Kontakt: cagent@cognitiveagent.org

(Start: 7.Juni 2024, Letzte Änderung: 9.Juni 2024)

Ausgangspunkt

Sprechen im Alltag bringt es mit sich, dass wir durch unsere Art und Weise zu sprechen, die Wahrnehmungen unseres Umgebung ordnen, allein durch unser Sprechen. Diese Ordnung findet durch das Denken statt, das sich im Sprechen manifestiert. Wie schon zuvor geschildert, ist die Fähigkeit zum Sprechen uns Menschen zwar angeboren, nicht aber die Art und Weise, wie wir unser Sprechen benutzen. Im Sprechen schaffen wir automatisch eine Ordnung, aber ob diese Ordnung tatsächlich den Gegebenheiten unserer Alltagswelt entspricht, erfordert eine zusätzliche Überprüfung. Diese Überprüfung geschieht aber nicht automatisch, wir müssen dies ausdrücklich wollen und konkret durchführen.

Überprüfbare Aussagen

Wenn man den Ausgangspunkt akzeptiert, dass sprachliche Äußerungen, die unser Denken möglich macht, im Ansatz zunächst ’nur gedacht‘ sind und einer zusätzlichen ‚Überprüfung im Alltag‘ bedürfen, um einen minimalen ‚Geltungsanspruch auf Zutreffen‘ im Alltag verdienen, dann kann man diese Grundidee als Ausgangspunkt für das Konzept einer ‚empirischen Überprüfbarkeit‘ benutzen, welches hier als einer von mehreren ‚Bausteinen‘ für das umfassendere Konzept einer ‚empirischen Theorie (ET)‘ gesehen wird.

Sprache ohne Zahlwörter

Hier einige Beispiele aus dem Alltag, mit denen einige Aspekte des Konzepts ‚empirische Überprüfbarkeit‘ erläutert werden können[1]:

  1. Fall 1: Es gibt ein Objekt mit bestimmten Eigenschaften, das die beteiligten Personen sinnlich wahrnehmen können. Dann kann eine Person A sagen: „Da gibt es ein Objekt X mit Eigenschaften Y“. Und eine andere Person B kann sagen: „Ja, ich stimme zu“.
  2. Fall 2: Ein bestimmtes Objekt X mit Eigenschaften Y kann von den beteiligten Personen sinnlich nicht wahrnehmen werden. Dann kann eine Person A sagen: „Das Objekt X mit Eigenschaften Y ist nicht da“. Und eine andere Person B kann sagen: „Ja, ich stimme zu“.
  3. Fall 3: Es gibt ein Objekt mit bestimmten Eigenschaften, das die beteiligten Personen sinnlich wahrnehmen können, das sie vorher noch nie gesehen haben. Dann kann eine Person A sagen: „Da gibt es ein Objekt mit Eigenschaften, das kenne ich noch nicht. Das ist für mich neu“. Und eine andere Person B kann dann sagen: „Ja, ich stimme zu“.

Die gemeinsame Grundstruktur aller drei Fälle ist, dass es mindestens zwei Menschen gibt, welche die ‚gleiche Sprache sprechen‘ und die sich in einer ‚gemeinsam geteilten Situation‘ im Alltag befinden. Ein Mensch — nennen wir ihn A — startet jeweils ein Gespräch mit einer ‚Aussage über ein Objekt mit Eigenschaften‘, wobei die Aussage je nach Situation variiert. In allen vier Fällen kann der angesprochene Mensch — nennen wir ihn hier B –den Aussagen von A ‚zustimmen‘.

Die drei Fälle unterscheiden sich z.B. darin, wie das Objekt ‚vorkommt‘: Im Fall 1 ist ein Objekt ‚einfach da‘, man kann es ‚wahrnehmen‘ und das Objekt erscheint als ‚bekannt‘. Im Fall 2 ist das Objekt bekannt, aber nicht da. Im Fall 3 gibt es auch ein Objekt, man kann es wahrnehmen, aber es ist ’nicht bekannt‘.

Für das konstruktive Gelingen des Feststellens einer Übereinstimmung, die zwischen mehreren Menschen Zustimmung findet, werden am Beispiel der drei Fälle folgende Elemente angenommen:

Die Teilnehmer verfügen

  1. über eine ’sinnliche Wahrnehmung‘, die Ereignisse der Umgebung dem Wahrnehmenden erkennbar macht.
  2. über ein ‚Gedächtnis‘, das Wahrgenommenes speichern kann.
  3. über die ‚Entscheidungsfähigkeit‘ darüber entscheiden zu können, ob entweder (i) das Wahrgenommene schon mal wahrgenommen wurde oder ob (ii) das Wahrgenommene etwas ‚Neues‘ ist oder ob (iii) ein Objekt ’nicht mehr da ist‘, was ‚vorher‘ da war.
  4. über eine hinreichend ähnliche ‚Bedeutungsbeziehung‘, welche die Menschen in die Lage versetzt, zwischen den Elementen der gesprochenen Sprache und den Elementen sowohl der Wahrnehmung wie auch der Erinnerung eine aktive Beziehung zu aktivieren, wodurch Sprachelemente auf Inhalte verweisen können und umgekehrt Inhalte auf Sprachelemente.

Nur wenn alle diese vier Komponenten [2] in jedem Menschen gegeben sind, der an der Situation beteiligt ist, kann der eine dem anderen sprachlich etwas über seine Wahrnehmung von Welt in einer Weise mitteilen, dass der andere zustimmen kann oder nicht. Fehlt eine der genannten Komponenten (Wahrnehmung, Gedächtnis, Entscheiden können, Bedeutungsbeziehung), ist die Prozedur des Feststellens einer Übereinstimmung bei der Benutzung eines sprachlichen Ausdrucks nicht möglich.

[1] Es gibt sehr viele unterschiedliche Fälle!

[2] Diese vier Konzepte (Wahrnehmung, Gedächtnis, Entscheiden können, Bedeutungsbeziehung) sind ‚aus sich heraus‘ nicht verständlich. Sie müssen im weiteren Verlauf durch einen geeigneten Kontext erklärt werden. Sie werden hier im aktuellen Konzept ‚überprüfbare Aussagen‘ in einem funktionalen Kontext benutzt, welcher das Konzept ‚überprüfbare Aussage‘ charakterisiert.

Sprache mit Zahlwörtern

In der Regel enthalten heute Alltagssprachen auch Zahlwörter (z.B. eins, zwei, 33, 4400, …, 1/2, 1/4, ), wenngleich mit unterschiedlichem Umfang.

Solche Zahlwörter beziehen sich in der Regel auf irgendwelche ‚Objekte‘ (z.B. drei Eier, 5 Rosen, 33 Kartoffeln, 4400 Einwohner, … 1/2 Pfund Mehl, 44 Liter Niederschlag in einer Stunde, …), die sich in einem bestimmten Raumgebiet befinden.

Eine nachvollziehbare Überprüfung hängt dann von folgenden Faktoren ab:

  1. Lässt sich die angegebene Anzahl oder Menge in diesem Raumgebiet direkt feststellen (es muss eine klare Zahl heraus kommen)?
  2. Falls die Anzahl oder die Menge zu groß ist, um sie in dem Raumgebiet direkt abschätzen zu können, gibt es dann ein nachvollziehbares Verfahren, mit dem dies möglich ist?
  3. Wie hoch ist der Zeitaufwand, um die Feststellung in dem Raumgebiet durchführen zu können (z.B. Minuten, Stunden, Tage, Wochen, …)?

Falls der notwendige Zeitaufwand immer größer wird, dann wird es immer schwerer, die Aussage für einen bestimmten Zeitpunkt zu machen (z.B. die Anzahl der Einwohner in einer Stadt).

Diese Beispiele lassen erkennen, dass die Frage der Überprüfung sehr schnell immer mehr Aspekte umfasst, die erfüllt sein müssen, damit die Überprüfbarkeit einer Aussage von allen Beteiligten nachvollzogen und akzeptiert werden kann.

Sprache mit Abstraktionen

Eine andere durchgehende Eigenschaft von Alltagssprachen ist das Phänomen, das sich im Kontext von Wahrnehmung und Gedächtnis (Speichern und Erinnern) automatisch abstrakte Strukturen bilden, die als solche auch in die Sprache abgebildet werden. Hier einfache Beispiele:

BILD : Vier Arten von Gegenständen, die jeweils als konkrete Beispiele einer abstrakten Art (Klasse) gesehen werden können.

Im Alltag haben wir für die wahrgenommenen Objekte der Art 1-4 jeweils ein Wort, obwohl die konkrete Vielfalt jedes Objekt anders aussehen lässt: Im Fall der Objekte der Gruppe 1 können wir von einer ‚Uhr‘ sprechen, im Fall von Gruppe 2 von einer ‚Tasse‘, bei 3 von ‚Kugelschreibern‘ und im Fall von 4 von ‚Computermäusen‘, kurz ‚Mäusen‘. wobei jeder aufgrund des Kontextes weiß, dass mit ‚Maus‘ hier keine biologische Maus gemeint ist sondern ein technisches Gerät im Kontext von Computern. Obwohl wir ’sinnlich‘ jeweils etwas ‚anderes‘ sehen, benutzen wir jeweils das ‚gleiche Wort‘. Das ‚eine Wort‘ steht dann für potentiell ‚viele konkrete Objekte‘, mit der Besonderheit, dass wir ‚implizit wissen‘, welches konkrete Objekt mit welchem Wort zu verknüpfen ist. Wären wir nicht dazu in der Lage, viele konkrete verschiedene Objekte jeweils mit ‚einem Wort‘ zu benennen, dann wären wir nicht nur außer Stande, so viele verschiedene Worte zu erfinden, wie wir bräuchten, sondern die Abstimmung untereinander würde vollständig aus dem Ruder laufen: wie sollten sich zwei verschiedene Menschen darauf einigen können, was sie ‚in gleicher Weise‘ wahrnehmen, wenn jedes Detail der Wahrnehmung zählen würde? Das gleiche Objekt kann ja je nach Sichtwinkel und Licht schon sehr verschieden aussehen.[1]

Das Geheimnis dieser Zuordnung von einem Wort zu vielen sinnlich unterschiedlichen Objekten liegt allerdings nicht in der Zuordnung von Worten zu Wissenselementen, sondern das Geheimnis liegt schon eine Stufe tiefer, dort, wo die Ereignisse der Wahrnehmung in Ereignisse des Gedächtnisses transformiert werden. Vereinfachend kann man sagen, dass die Vielzahl der sensorischen Ereignisse (visuell, akustisch, geschmacklich (gustatorisch), berührungsmäßig (taktil), …) nach ihrer Umwandlung in chemisch-physikalische Zustände von Nervenzellen Teile von neuronalen Signalflüssen werden, die vielfachen ‚Verarbeitungen‘ unterliegen. Im Ergebnis wird die ‚Vielfalt der Signale‘ in ‚abstrakte Strukturen‘ kondensiert, die als eine Art ‚Prototyp‘ funktionieren, die dann mit vielen konkreten ‚Varianten‘ verbunden sind. Es gibt also so etwas wie ‚Kerneigenschaften‘ die verschiedenen Wahrnehmungsereignissen wie ‚Tasse‘ ‚gemeinsam‘ sind, und dann viele ’sekundäre Eigenschaften‘, die auch auftreten können, aber eben nicht immer, die Kerneigenschaften schon. Im Fall der ‚Uhr‘ können z.B. die beiden Zeiger samt der kreisförmigen Anordnung von Marken solche ‚Kerneigenschaften‘ sein. Alles andere kann stark variieren. Außerdem bilden sich die ‚Muster von Kerneigenschaften und sekundären Eigenschaften‘ nicht einmalig, sondern als Teil von Prozessen mit vielfältigen Aspekten (z.B. möglichen Veränderungen, mögliche zeitlich parallelen Ereignissen usw., die als ‚Kontexte‘ funktionieren können (z.B. der Unterschied zwischen ‚technisch‘ und ‚biologisch‘ im Fall des der Bezeichnung ‚Maus‘).

Die Benutzung eines Wortes wie ‚Uhr‘ oder ‚Tasse‘ beinhaltet also — wie zuvor besprochen — einmal den Bezug zu Gedächtnisinhalten, zu Wahrnehmungsinhalten, zu erlernten Bedeutungsbeziehungen sowie die Fähigkeit, zu ‚entscheiden‘, welche der konkreten Wahrnehmungsmuster zu welchem gelernten ‚Prototypen‘ gehören. Je nachdem, wie diese Entscheidung ausfällt, sagen wir dann eben ‚Uhr‘ oder ‚Tasse‘ oder etwas entsprechend Anderes. Diese Fähigkeit unseres Gehirns zu ‚abstrahieren‘, indem es automatisch prototypisch ‚Muster‘ generiert, die exemplarisch für viele sensorisch verschiedene Einzelobjekte stehen können, ist für unser Denken und Sprechen im Alltag fundamental. Nur aufgrund dieser Abstraktionsfähigkeit kann Sprache funktionieren.

Nicht weniger beeindruckend ist es, dass diese grundlegenden ‚Abstraktionsfähigkeit‘ unseres Gehirns sich nicht auf die Beziehung zwischen den beiden Ebenen ’sinnliche Wahrnehmung‘ sowie ‚Speichern im Gedächtnis‘ beschränkt, sondern überall im Gedächtnis zwischen beliebigen Ebenen funktioniert. So haben wir kein Problem, verschiedene einzelne Uhren aufgrund von Eigenschaften weiter zu ‚gruppieren‘ z.B. zu ‚Armbanduhren‘ und ‚Wanduhren‘. Bei Tassen wissen wir, dass sie als Teil von ‚Trinkgefäßen‘ oder als Teil von ‚Küchengeschirr‘ gesehen werden können. Kugelschreiber ordnet man zu den ‚Schreibgeräten‘ und ‚Computermäuse‘ sind Teil von ‚Computerzubehör‘, usw.

Oft spricht man bei solchen Abstraktionsleistungen auch von ‚Kategorisierungen‘ oder ‚Klassenbildung‘ und die Objekte, die solchen Klassenbezeichnungen zugeordnet werden, bilden dann den ‚Klasseninhalt‘, wobei der ‚Umfang‘ einer Klasse ‚fließend‘ ist. Ständig können neue Objekte auftreten, die das Gehirn der einen oder anderen Klasse zuschlägt.

Bei dieser Vielfalt von ‚Abstraktionen‘ wundert es nicht, dass die Zuordnung einzelner Objekte zu einer dieser Klassen ‚fließend‘ ist, ‚unscharf‘. Bei den hunderten oder mehr verschiedenen Formen von Stühlen oder Tischen, die es mittlerweile gibt, ist es bisweilen schwierig, zu entscheiden, ist das noch ein ‚Stuhl‘ oder ein ‚Tisch‘ im ‚ursprünglichen Sinne‘ [2] oder eher ein ‚Designprodukt‘ auf der Suche nach einer neuen Form.

Für die leitende Frage nach der Überprüfbarkeit von sprachlichen Äußerungen, die Abstraktionen enthalten (und dies sind fast alle), ergibt sich nach den vorausgehenden Überlegungen, dass die ‚Bedeutung eines Wortes‘ bzw. dann auch die ‚Bedeutung einer sprachlichen Äußerung‘ niemals nur durch die Worte alleine ermitteln lässt, sondern fast immer nur durch den ‚Kontext‘, in dem die sprachliche Äußerung stattfindet. So, wie schon die Beispiele mit den ‚Zahlworten‘ aufleuchten lassen, so muss bei einer Bitte wie „Kannst Du mir meine Tasse rüber reichen“ sehr wohl wissen, welche der verschiedenen Tassen denn die ‚Tasse des Sprechers‘ war. Dies setzt die Situation voraus und ‚Wissen um die Vergangenheit dieser Situation‘: welche der möglichen Objekte hatte er als seine Tasse benutzt?[3]

Oder, wenn Menschen versuchen die Beschreibung einer Straße, eines Stadtviertels, eines einzelnen Hauses und dergleichen mit Sprache zu geben. Aufgrund der allgemeinen Bedeutungsstrukturen kann sich jeder Leser beim Lesen zwar ein ‚einigermaßen klares Bild‘ ‚in seinem Kopf‘ machen, aber nahezu alle Details, die nicht explizit beschrieben wurden (was im normalen Fall fast ausgeschlossen ist), sind im rekonstruierten ‚Bild im Kopf‘ des Lesers dann auch nicht vorhanden. Aufgrund des ‚Erfahrungswissens‘ der Sprachteilnehmer kann natürlich jeder sich sein ‚Bild im Kopf‘ zusätzlich ‚ausmalen‘.[4]

Will man als eine Gruppe von Menschen sicher sein, dass eine Beschreibung ‚hinreichend deutlich‘ ist, muss man für alle wichtigen Elemente des Berichts, die ‚vieldeutig‘ sind, zusätzliche Informationen bereit stellen. Man kann die beschriebenen Objekte z.B. gemeinsam besichtigen, untersuchen und/ oder man kann zusätzliche spezielle Beschreibungen erstellen, eventuell ergänzt um Bilder, Tonaufnahmen oder sonstigen Hinweisen.

Wenn es um Details geht, dann reicht die Alltagssprache alleine nicht aus. Es bedarf zusätzlich spezieller Maßnahmen.[5]

[1] Ein Problem, mit dem die maschinelle Bilderkennung von Anfang an zu kämpfen hatte und bis heute kämpft.

[2] Der ‚ursprüngliche‘ Sinn, also jenes Prinzip, das der Abstraktionsleistung ‚zugrunde‘ liegt, ist in jenen neuronalen Mechanismen zu suchen, die für diese Prototyp-Bildung zuständig sind. Die ‚innere Logik‘ dieser neuronalen Prozesse ist bislang noch nicht vollständig erforscht, aber ihre ‚Wirkung‘ kann beobachtet und analysieren. In der Psychologie gibt es seit den 1960iger Jahren viele Modellbildungen, die dieses Verhalten anzunähern versuchen, mit zum Teil beachtlichen Erfolgen.

[3] Algorithmen der generativen Künstlichen Intelligenz (wie z.B. chatGPT), die über keinen realen Kontext verfügen, die auch über kein ‚körperbasiertes Wissen‘ verfügen, versuchen das Problem dadurch zu lösen, dass sie extrem große Mengen von Worten durch die Zerlegung von Dokumenten in ihre Wortbestandteile samt möglichen Kontexte jedes Wortes so analysieren, dass sie über diese Wortdatenbank mögliche ‚formale Kontexte‘ erschließen, die sie dann als ‚Quasi-Bedeutungskontexte‘ fungieren. Bis zu einem gewissen Grad funktioniert dies mittlerweile recht gut, aber eben nur in einem abgeschlossen Wortraum (closed world).

[4] Ein bekanntes Beispiel aus dem Alltag hierzu ist der Unterschied, der entstehen kann, wenn jemand einen Roman liest, sich dazu Vorstellungen in seinem Kopf bilden, und irgendwann gibt es einen Film zum Roman: inwieweit korrespondieren dann die Vorstellungen, die man sich von einzelnen Personen gemacht hat, mit denen im Film?

[5] Einige kennen vielleicht noch Texte aus sogenannten ‚heiligen Schriften‘ einer Religion (z.B. die ‚Bibel‘). Das grundlegende Problem der ‚Vieldeutigkeit‘ von Sprache wird im Falle historischer Texte natürlich verstärkt. Mit dem zeitlichen Abstand verliert sich das Wissen um die jeweilige Alltagswelt, in der ein Text entstanden ist. Dann kommt bei älteren Texten meist ein Sprachproblem hinzu: die ursprünglichen Texte wie z.B. der Bibel waren in einem alten Hebräisch (‚Altes Testament‘) bzw. in einem alten Griechisch (Neues Testament‘) abgefasst, dessen Sprachgebrauch oft nicht mehr bekannt ist. Zusätzlich wurden diese Texte in unterschiedlichen Textformen abgefasst, beim Alten Testament zudem zu verschiedenen Zeiten, wobei Text auch immer wieder umgearbeitet worden sind (was vielfach auch noch damit verbunden ist, dass nicht klar ist, wer jeweils genau die Autoren waren). Unter diesen Randbedingungen eine ‚genaue‘ Bedeutung zu erschließen, ist mehr oder weniger eingeschränkt oder unmöglich. Dies mag erklären, warum in den ca. 2000 Jahren ‚Bibelauslegung‘ die Interpretationen zu allen Zeiten sehr unterschiedlich waren.