Archiv für den Monat: Juli 2024

Philosophische Dialoge mit chatGPT4, heute: Wie definierst Du das Konzept ‚Empirische Theorie‘?

Letzte Änderung: 16.Juli 2024

Fragender: Gerd Doeben-Henisch

Kontakt: cagent@cognitiveagent.org

(Dieser Text ist eine Übersetzung (mit chatGPT4) des Englischen Originals.)

Wie definierst Du das Konzept ‚Empirische Theorie‘?

ZUSAMMENFASSUNG

Am Ende des Dialogs äußerte der Fragende: Ich stimme deiner Schlussfolgerung zu. Aber diese Schlussfolgerung ist keine ausreichende Antwort auf meine Frage. Irgendwie sagst Du, dass es eine „erhebliche Herausforderung“ ist, ohne heute eine klare Antwort zu haben. Ist das richtig?

chatGPT4: Ja, das ist eine faire Einschätzung. Die Integration verschiedener Formalismen über verschiedene wissenschaftliche Disziplinen hinweg bleibt eine erhebliche Herausforderung und ein Bereich kontinuierlicher Forschung und Entwicklung. Obwohl es Strategien und Ansätze gibt, die diese Integration unterstützen können, wie früher erwähnt, gibt es keine universell anwendbare Lösung, die nahtlos für alle Bereiche und alle Arten von Problemen funktioniert.

Protokoll des Dialogs

FRAGE: Wie definierst Du das Konzept „empirische Theorie“?

Das Konzept einer „empirischen Theorie“ bezieht sich im Allgemeinen auf eine Theorie, die auf Beobachtungen und Daten basiert, die aus realen Erfahrungen, Experimenten oder Messungen abgeleitet sind, anstatt nur auf rein theoretischem oder abstraktem Denken. Hier sind einige Schlüsselaspekte, die eine empirische Theorie definieren:

  1. Datenbasiert: Eine empirische Theorie basiert auf Daten, die durch Beobachtungen, Experimente oder andere Formen der empirischen Forschung gesammelt wurden. Die Theorie muss gegenüber der natürlichen Welt testbar und messbar sein.
  2. Vorhersagekraft: Sie bietet typischerweise ein Rahmenwerk, das nicht nur aktuelle Beobachtungen erklärt, sondern auch zukünftige Ereignisse oder Verhaltensweisen vorhersagt. Dieser prädiktive Aspekt ist entscheidend für die Validierung und den Nutzen der Theorie.
  3. Falsifizierbarkeit: Ein Kernprinzip empirischer Theorien ist, dass sie falsifizierbar sein müssen. Das bedeutet, es muss eine denkbare Beobachtung oder ein Experiment geben, das die Theorie widerlegen könnte, wenn sie nicht wahr wäre, wodurch sie einer potenziellen Widerlegung unterliegt.
  4. Replizierbarkeit: Die Ergebnisse, die eine empirische Theorie unterstützen, sollten durch unabhängige Studien replizierbar sein. Dies ist wichtig, um sicherzustellen, dass die Theorie robust ist und nicht das Ergebnis von experimentellen Fehlern oder Verzerrungen ist.
  5. Revision und Verfeinerung: Empirische Theorien sind nicht statisch; sie entwickeln sich weiter, wenn neue Daten verfügbar werden und alte Annahmen getestet werden. Theorien können verfeinert oder verworfen werden, je nachdem, wie gut sie weiterhin mit den Beobachtungen übereinstimmen.

Empirische Theorien sind grundlegend in Wissenschaften wie Physik, Chemie, Biologie und Sozialwissenschaften, wo Theorien auf beobachtbaren Phänomenen basieren und experimentell validiert werden müssen.

FRAGE: Du erwähnst als eine Schlüsseleigenschaft einer empirischen Theorie die ‚Vorhersagekraft‘. Welche Formalismen innerhalb einer Theorie ermöglichen ‚Vorhersagekraft‘?

Das Konzept der „Vorhersagekraft“ in einer empirischen Theorie ist zentral für deren Nutzen und Glaubwürdigkeit. Vorhersagekraft ermöglicht es einer Theorie, zukünftige Ereignisse oder Phänomene auf der Grundlage bestehender Daten und Prinzipien vorherzusagen. Mehrere Formalismen innerhalb einer Theorie ermöglichen diese prädiktive Fähigkeit:

  1. Mathematische Modelle: Viele wissenschaftliche Theorien stützen sich auf mathematische Modelle, die Beziehungen zwischen Variablen quantitativ beschreiben. Diese Modelle nehmen oft die Form von Gleichungen an, die zur Vorhersage verwendet werden können. Zum Beispiel nutzen Newtons Bewegungsgesetze Differentialgleichungen, um die zukünftige Position und Geschwindigkeit bewegter Objekte vorherzusagen.
  2. Statistische Modelle: Diese Modelle verwenden statistische Methoden, um Ergebnisse auf der Grundlage von Daten zu erschließen und vorherzusagen. Die Regressionsanalyse kann beispielsweise eine abhängige Variable auf der Grundlage einer oder mehrerer unabhängiger Variablen vorhersagen. Auch maschinelle Lernalgorithmen fallen in diese Kategorie, bei denen Modelle mit historischen Daten trainiert werden, um Ergebnisse aus neuen Daten vorherzusagen.
  3. Hypothesen und Propositionen: Theorien beinhalten oft spezifische Hypothesen, die testbare Aussagen sind, die aus allgemeinen Prinzipien der Theorie abgeleitet werden. Diese Hypothesen können verwendet werden, um Ergebnisse in spezifischen Situationen vorherzusagen, die dann durch Experimente oder Beobachtungen getestet werden können.
  4. Simulationen: In einigen Bereichen, insbesondere in komplexen Systemen wie der Klimawissenschaft oder der Ökonomie, spielen Simulationen eine entscheidende Rolle bei der Vorhersage. Diese Simulationen werden typischerweise auf Rechenmodellen durchgeführt, die viele Variablen und deren Interaktionen enthalten, um zukünftige Zustände vorherzusagen.
  5. Algorithmische Regeln: Insbesondere in Theorien, die mit Informatik oder Systemtheorie zusammenhängen, können algorithmische Regeln, die Handlungs- oder Entscheidungssequenzen auf der Grundlage von Eingabebedingungen festlegen, Ergebnisse von Prozessen oder das Verhalten von Systemen vorhersagen.
  6. Kausale Inferenz: Die Identifizierung kausaler Beziehungen innerhalb von Daten ermöglicht es Theorien, die Auswirkungen der Veränderung einer Variablen auf eine andere vorherzusagen. Dies ist grundlegend in Bereichen wie Epidemiologie und Wirtschaftswissenschaften, wo das Verständnis von Ursache und Wirkung entscheidend für die Vorhersage ist.

Diese Formalismen sind nicht nur instrumental bei der Vorhersage zukünftiger Ereignisse, sondern auch bei der Bestätigung der Gültigkeit der Theorien selbst. Durch erfolgreiche Vorhersagen validieren Theorien ihre zugrunde liegenden Annahmen und steigern ihre Glaubwürdigkeit und Akzeptanz in der wissenschaftlichen Gemeinschaft.

FRAGE: Dass „verschiedene Formalismen“ als „für bestimmte Arten von Problemen nützlich“ angesehen werden können, ist in Ordnung. Aber das beantwortet nicht die grundlegende Frage, wie man „verschiedene Formalismen integrieren“ kann. Kennst Du eine Art Strategie, die das Problem auf einer allgemeinen formalen Ebene löst?

Das Integrieren verschiedener Formalismen aus unterschiedlichen wissenschaftlichen Disziplinen ist eine komplexe Herausforderung, die oft einen facettenreichen Ansatz erfordert. Hier sind einige Strategien, die dieses Problem auf einer formaleren Ebene angehen können:

1. Einheitliche Modellierungsrahmen

Ein Ansatz zur Integration verschiedener Formalismen ist die Verwendung einheitlicher Modellierungsrahmen, die verschiedene Arten von Modellen aufnehmen können. Beispielsweise bieten Systemtheorie und Netzwerktheorie Rahmenwerke, die physische, biologische, soziale und Informationssysteme modellieren können. Diese Rahmenwerke ermöglichen die Integration verschiedener Datentypen und Beziehungen in ein kohärentes Modell. Beispiele hierfür sind agentenbasierte Modellierung und Systemdynamik, die sowohl qualitative als auch quantitative Daten integrieren können.

2. Meta-Analysen und systematische Übersichten

In Bereichen wie Medizin und Sozialwissenschaften werden Meta-Analysen und systematische Übersichten verwendet, um Ergebnisse aus mehreren Studien, die unterschiedliche Methodologien und Formalismen verwenden, zu synthetisieren. Dieser Ansatz bietet eine Möglichkeit, Daten aus verschiedenen Quellen quantitativ zu kombinieren, um zu allgemeineren Schlussfolgerungen zu gelangen.

3. Interdisziplinäre Zusammenarbeit

Aktive Zusammenarbeit über Disziplinen hinweg kann die Integration verschiedener Formalismen erleichtern, indem die Expertise von Spezialisten in jedem Bereich genutzt wird. Dies kann gemeinsame Forschungsprojekte, interdisziplinäre Teams und fachübergreifende Ausbildungsprogramme umfassen, die ein tieferes Verständnis und die Anpassung verschiedener Methodologien fördern.

4. Mathematische und statistische Brückenmethoden

Techniken wie Bayes-Statistik, Monte-Carlo-Methoden und andere rechnerische Ansätze können als Brücken zwischen verschiedenen Formalismen dienen. Diese Methoden ermöglichen die Kombination von Daten und Vorhersagen aus verschiedenen Modelltypen, auch wenn diese Modelle auf unterschiedlichen Grundannahmen basieren.

5. Semantische Integration

Dies beinhaltet die Entwicklung eines gemeinsamen Vokabulars und eines Konzeptsatzes, der fachübergreifend geteilt werden kann. Ontologien und semantische Webtechnologien sind in diesem Kontext nützlich, da sie helfen, Beziehungen zwischen verschiedenen Konzepten zu definieren und die Datenintegration über verschiedene Datensätze hinweg zu erleichtern.

6. Hybridmodelle

Die Erstellung von Hybridmodellen, die Elemente aus verschiedenen Formalismen integrieren, kann besonders in der Technik und Umweltwissenschaft effektiv sein. Zum Beispiel kann die Kombination von physikalischen Gesetzen mit empirischen Daten in einem Rechenmodell genauere und robustere Vorhersagen liefern als diejenigen, die aus einem einzigen Formalismus gewonnen wurden.

7. Philosophische und methodologische Versöhnung

Das Ansprechen zugrundeliegender philosophischer und methodologischer Unterschiede ist entscheidend für die Integration von Formalismen. Dies könnte die Entwicklung neuer Methodologien beinhalten, die epistemologische Unterschiede anerkennen und überbrücken, wie beispielsweise die Kombination von qualitativen und quantitativen Forschungsmethoden.

Schlussfolgerung

Obwohl die Integration verschiedener Formalismen erhebliche Herausforderungen darstellt, bieten diese Strategien Wege, um umfassendere und universell anwendbare Theorien zu entwickeln. Der Prozess ist von Natur aus iterativ und erfordert einen fortlaufenden Dialog zwischen verschiedenen wissenschaftlichen Domänen. Diese Integration ist wesentlich, um komplexe, facettenreiche Probleme zu lösen, die keine einzelne Disziplin allein lösen kann.

FRAGE: Ich stimme deiner Schlussfolgerung zu. Aber diese Schlussfolgerung ist keine ausreichende Antwort auf meine Frage. Irgendwie sagst Du, dass es eine „erhebliche Herausforderung“ ist, ohne heute eine klare Antwort zu haben. Ist das richtig?

ANTWORT: Ja, das ist eine faire Einschätzung. Die Integration verschiedener Formalismen über verschiedene wissenschaftliche Disziplinen hinweg bleibt eine erhebliche Herausforderung und ein Bereich kontinuierlicher Forschung und Entwicklung. Obwohl es Strategien und Ansätze gibt, die diese Integration unterstützen können, wie früher erwähnt, gibt es keine universell anwendbare Lösung, die nahtlos für alle Bereiche und alle Arten von Problemen funktioniert.

Die Komplexität der Integration von Formalismen ergibt sich aus mehreren Faktoren:

  1. Epistemologische Unterschiede: Verschiedene Disziplinen operieren oft unter grundlegend verschiedenen Annahmen und Theorien über die Natur des Wissens und der Realität. Diese Unterschiede können es schwierig machen, ein gemeinsames Rahmenwerk zu schaffen, das fachübergreifend akzeptiert und nützlich ist.
  2. Methodologische Vielfalt: Jedes Feld hat seine Methodologien und Werkzeuge entwickelt, die für seine spezifischen Datentypen und Probleme optimiert sind. Das Überbrücken dieser methodologischen Lücken erfordert nicht nur technische Lösungen, sondern oft auch ein Überdenken der grundlegenden Prinzipien.
  3. Dateninkompatibilität: Unterschiedliche Datentypen, von quantitativen Messungen bis zu qualitativen Beobachtungen, können aufgrund von Unterschieden in Skalierung, Einheiten und Interpretationen schwer zu integrieren sein.
  4. Kommunikationsbarrieren: Effektive interdisziplinäre Zusammenarbeit, die für die Integration von Formalismen entscheidend ist, wird oft durch Unterschiede in Terminologie, Prioritäten und Forschungskulturen behindert.

Die von mir erwähnten Strategien (einheitliche Modellierungsrahmen, interdisziplinäre Zusammenarbeit, Hybridmodelle usw.) sind Bemühungen, diese Herausforderungen anzugehen, sie zielen jedoch mehr darauf ab, die Schwierigkeiten zu mildern, als sie vollständig zu lösen. Es werden Fortschritte gemacht, insbesondere mit dem Aufkommen fortgeschrittener computergestützter Techniken und einer wachsenden Betonung interdisziplinärer Forschung, aber die vollständige Integration verschiedener wissenschaftlicher Formalismen in ein kohärentes, universell anwendbares Rahmenwerk bleibt ein erstrebenswertes Ziel und keine gegenwärtige Realität.

So haben zwar erhebliche Fortschritte in spezifischen Kontexten oder Projekten stattgefunden, die breitere Herausforderung besteht jedoch weiterhin und ist ein dynamisches Feld der akademischen Forschung und praktischen Anwendung.

ANTWORT DES FRAGENDEN: Danke für diesen Dialog 🙂

ANTWORT: Gern geschehen! Ich freue mich, dass wir dieses Thema zusammen besprechen konnten. Wenn Sie weitere Fragen haben oder weitere Klarstellungen zu etwas benötigen, fragen Sie ruhig. Frohes Denken! 😊

SELBSTZERSTÖRUNG IST EINE OPTION. Notiz

Autor: Gerd Doeben-Henisch

Start: 14.Juli 2024; Letzte Änderung: 14.Juli 2024

Diesen Text kann man als Teil des Textes „Neustart der Menschlichkeit (Rebooting humanity)“ betrachten.

(Die Englische Version findet sich HIER)

Ausgangspunkt

BILD : Notiz vom 14.7.24

WIR AUF DEM PLANETEN

Im Jahr 2024 der christlichen Zeitrechnung befinden wir uns als Menschen (die Lebensform ‚Homo sapiens‘) noch immer auf dem Planet Erde. Wir sind quantitativ ein sehr kleiner Teil des ‚Lebens‘, qualitativ verfügen wir über Fähigkeiten, alles Leben und den gesamten Planeten entweder in ihrer Existenz zu unterstützen oder alles auszulöschen.

SELBSTPROGRAMMIERUNG

Im Gegensatz zu den heutigen Maschinen sind alle Lebewesen — der Mensch eingeschlossen — so gebaut, dass sie sich ’selbst programmieren‘: was immer wir von uns selbst, den anderen, von der Umwelt wahrnehmen, es wird vollautomatisch in unser Inneres transportiert und dort ebenfalls weitgehend automatisch strukturiert, angeordnet, bewertet, und vieles mehr. Niemand kann sich dagegen wehren. Man kann diese ‚Selbstprogrammierung‘ nur dadurch etwas steuern, dass man seine Umgebung so gestaltet, dass bestimmte Wahrnehmungen eher nicht stattfinden, dafür andere mehr. Erziehungsprozesse setzen diese Selbstprogrammierungsfähigkeit voraus und sie entscheiden auch über das, was während der Erziehung stattfinden soll.

DIKTATUR DES ‚IST DA‘

Was in unserem Inneren angekommen ist, das ist erst einmal da. Es bildet unsere primäre Wirklichkeit. Wenn wir handeln wollen, dann greifen wir erst einmal zurück auf das, was da ist. Das, was da ist, ist für uns irgendwie ‚wahr‘, prägt unser weiteres Wahrnehmen und Verstehen. Etwas ‚um uns herum‘, was ‚anders‘ ist, ist tatsächlich ‚anders‘ und ‚passt nicht‘ zu unserer inneren Wahrheit.

WELCHE VERGLEICHSPUNKTE?

Angenommen, die Mehrheit dessen, was ‚in uns drin‘ ist, was wir erst mal als ‚wahr‘ annehmen, wäre in der realen Welt da draußen ‚falsch‘, ‚unangemessen‘, ‚unzutreffend‘ usw., wir hätten kaum eine Chance die eigene ‚Unwahrheit‘ zu erkennen, so lange die meisten Menschen um uns herum die gleiche ‚Unwahrheit‘ teilen‘.[1] Das Erkennen von ‚Unwahrheit‘ setzt voraus, dass man irgenwie über ‚Beispiele der Wahrheit‘ verfügt, die geeignet sind, mit der herrschenden Unwahrheit ‚verglichen‘ zu werden. Das Vorhandensein von Beispielen der Wahrheit garantiert allerdings keine Erkenntnis von Unwahrheit, sondern es steigt nur die Wahrscheinlichkeit, dass es passieren könnte.[2]

[1] Durch die ganze bekanntgewordene Geschichte der Menschheit können wir beobachten, wie bestimmte ‚Unwahrheiten‘ ganze Völker beherrschen konnten, nicht nur in autokratischen Systemen.

[2] Systeme mit staatlich geförderter Unwahrheit kann man u.a. daran erkennen, dass das Vorkommen von Vielfalt, Beispielen von Wahrheit, drastisch unterdrückt wird und nur bestimmte Formen von Meinungen zugelassen werden.

MODERNE UNWAHRHEITEN

Im Gegensatz zu autokratischen Systemen herrscht in demokratischen Systemen offiziell ‚Meinungsfreiheit‘, was eine große Vielfalt ermöglicht. In demokratischen Systemen im Format Demokratie 1.0 geht man davon aus, dass diese garantierte Freiheit nicht missbraucht wird.[1]

Mit dem Aufkommen von modernen Medien, speziell von Medien in Verbindung mit dem Internet, ist es aber möglich, mit der Verbreitung von Medien im großen Stil Geld zu verdienen. Die Versuchung liegt nahe, Medien über das Internet so zu verbreiten, dass man damit maximal viel Geld verdienen kann. Eine beliebte Methode ist ‚Werbung‘: je länger und öfter ein Nutzer vor einem Inhalt verweilt, umso mehr Werbeeinnahmen sprudeln. Die Versuchung ist groß genug, dem Nutzer möglichst nur das zu bieten, was sein ‚automatisches Interesse weckt‘. Dass das ‚automatische Interesse‘ ein sehr starkes Motiv darstellt und speziell mit solchen Inhalten korreliert, die nicht viel Nachdenken erfordern, bestätigt sich täglich. Dass auf diese Weise große Teile einer Population ’speziell programmiert‘ werden kann, ist mittlerweile bekannt und wird immer mehr beschrieben.

Im ‚Kampf der Macht getriebenen Systeme‘ macht man sich diese Möglichkeit der Fremdprogrammierung von Menschen mit Hilfe des Internets im Rahmen der sogenannten ‚Hybriden Kriegführung‘ massiv zu Nutze. Während autokratische Systeme ‚massiv geschlossene‘ Systeme sind, sind die modernen Demokratien im Format 1.0 geradezu ein Eldorado für die Anwendung von Methoden der hybriden Kriegführung. Ähnlich wie die Geldbessessene Medienindustrie benutzt man in der hybriden Kriegführung auch ‚leichte Inhalte‘, mischt Fragmente von ‚Wahrem‘ mit Fragmente von ‚Falschem‘, und zwar solches, was leicht aufregt, und in kurzer Zeit wächst die ‚Schar der Gläubigen‘ von diesen Botschaften.[2] Die ‚Gemeinde dieser Propaganda-Gläubigen‘ kann man normalerweise nicht mittels ‚Argumenten‘ beeinflussen. Diese Überzeugung sind so programmiert, dass alle die Quellen, die kritische Alternativen darstellen könnten, von vornherein schon ‚geächtet‘ sind.[3]

Und es ist leider wahr, dass Demokratien im Format 1.0 für diese Art von Freiheitsgebrauch bislang ’schwach‘ wirken, und ‚hilflos‘, wenngleich langsam die Erkenntnisse zunehmen, dass es so etwas wie ein Missbrauch durch ‚Falschprogrammierung der Menschen‘ gibt.

[1] Das Unterbinden von systematischem Missbrauch von Freiheit ist in Demokratien 1.0 nur schwer bis gar nicht durchführbar, ohne die Meinungsfreiheit selbst zu verändern.

[2] Die breite Abdeckung dieser Propaganda kann man leicht daran erkennen, wenn man in verschiedenen Orten von Deutschland (und im Ausland!) mit Menschen ins Gespräch kommt, die sich untereinander nicht kennen, aber im Laufe des Gespräches mehr oder weniger die gleichen Geschichten im Brustton der Überzeugung erzählen. Viele (die meisten davon?) haben sogar studiert. Was die Frage aufwirft, wie wenig eine akademische Ausbildung offenbar einen ‚kritischen Geist‘ fördert.

[3] Eine beliebte Formulierung ist die von der ‚Lügenpresse‘. Alles was ‚gefährlich‘ werden könnte ist ‚Lüge‘, obgleich diejenigen, die von Lügenpresse sprechen, sich mit dieser Presse überhaupt nicht ernsthaft beschäftigen.

WELCHE ÜBERLEBENSWAHRSCHEINLICHKEIT HAT WAHRHEIT?

Wer sich in seinem Leben schon mal intensiv mit der Frage von ‚Wahrheit‘ beschäftigt hat und wer weiß, dass es vielerlei Recherchen, Untersuchungen, Überlegungen, auch Experimente braucht, um ‚hinter die augenscheinlichen Phänomene‘ zu schauen, dazu viel Kommunikation mit anderen Menschen, bisweilen in anderen Sprachen, derjenige weiß, dass Wahrheit kein ‚Selbstläufer‘ ist; Wahrheit passiert ’nicht einfach so‘; Wahrheit kann man nicht zum ‚Nulltarif‘ bekommen. Der Einsatz von Wahrheit für hilfreiche Technologien, neue Landwirtschaftsformen, neue Verkehrssysteme usw. erscheint im Nachhinein, am Ende eines langen Weges, wenn es dann irgendwie ‚offensichtlich‘ ist, wofür das alles gut ist, als erstrebenswert, aber am Beginn des Weges ist dies für fast jeden nicht erkennbar. Die bemitleidenswerte Form des Bildungssystems in vielen Ländern gibt ein beredtes Zeugnis ab für die Geringschätzung von Bildung als Trainingsprozess für Wahrheit.

Angesichts der rasanten Ausbreitung von skrupellosen Internet-Medien-Geschäften begleitend von einem weltweiten Anschwellen von hybrider Kriegführung erscheint die Überlebenswahrscheinlichkeit von Wahrheit immer geringer zu werden. Die Demokratien als eigentliche ‚Horte der Wahrheit‘ erleben gerade sich selbst als einen Ort der beschleunigten ‚Wahrheitsverflüchtigung‘.

KOLLEKTIVES WISSEN : Generative KI im Chatbot-Format als Helfer

Dieser Text ist Teil des Textes „Neustart der Menschlichkeit (Rebooting humanity)“

(Die Englische Version findet sich HIER)

Autor Nr. 1 (Gerd Doeben-Henisch)Kontakt: cagent@cognitiveagent.org

(Start: 10.Juli 2024, Letzte Änderung: 10.Juli  2024)

Ausgangspunkt

Wie die Texte des Buches nach und nach zeigen werden, repräsentiert der Ausdruck ‚Kollektives Wissen‘ einen entscheidenden Schlüsselbegriff für eine Eigenschaft, welche den Menschen — die Lebensform des ‚homo sapiens‘ — sehr tief charakterisiert. Für einen einzelnen Menschen ist das ‚kollektive Wissen‘ direkt kaum wahrnehmbar, aber ohne dieses kollektive Wissen hätte kein einziger Mensch überhaupt ein Wissen. Ja, dies klingt nicht nur wie ein Paradox, es ist ein Paradox. Während ein ‚Widerspruch‘ zwischen zwei verschiedenen Aussagen eine sachliche Unvereinbarkeit repräsentiert, vermittelt ein ‚Paradox‘ zwar auch den Eindruck eines ‚Widerspruchs‘, aber tatsächlich, von der Sache her, ist es dann doch keine ‚Unvereinbarkeit‘. Das ‚Wissen von uns einzelnen‘ ist ein reales Wissen, aber aufgrund der Endlichkeit unseres Körpers, unseres Wahrnehmungssystems, unseres Gedächtnisses können wir rein sachlich nur einen sehr kleinen Umfang an Wissen ‚in uns‘ versammeln. Je mehr Menschen es aber gibt, je mehr ‚Wissen‘ jeder Mensch täglich ‚produziert‘ — nur analog, oder dann auch digital –, um so größer wächst die Menge des Wissens, das wir Menschen in unserer Welt ‚ablagern‘. Zeitungen, Bücher, Bibliotheken, Datenbanken können diese Wissens begrenzt sammeln und sortieren. Ein einzelnen Mensch kann aber von diesem ‚gesammelten Wissen‘ nur kleine Bruchteile finden und ‚verarbeiten‘. Der Abstand zwischen dem ‚verfügbaren gesammelten Wissen‘ und dem ‚individuell verarbeitbaren Wissen‘ wächst beständig. In einer solchen Situation ist die Verfügbarkeit von generativer Künstlicher Intelligenz im Format von Chatbots ein geradezu ‚evolutionäres Ereignis‘! Diese neue Technologie löst nicht alle Fragen, aber sie kann dazu beitragen, dass der einzelne Menschen ‚prinzipiell‘ einen neuartigen direkten Zugriff auf das bekommen kann, was wir ‚kollektives Wissen der Menschheit‘ nennen sollten.

Vor der Digitalisierung der Welt …

war es tatsächlich mühsam, Gedanken, Wissen, so zu übermitteln, dass es andere davon Kenntnis nehmen konnten: zunächst nur mündliche Überlieferungen, dann Pergament und Papyrus, Steine und Ton, Inschriften in Felsen. Mit der Verfügbarkeit von Papier vereinfachte sich das Aufschreiben (es gab aber das Problem der Haltbarkeit); es kam zu Sammlung von Texten, zu Büchern und ersten Bibliotheken mit Büchern (Bibliotheken hab es aber auch schon für Keilschrift- und Tontafeln). Große Bibliotheken wie die ‚Bibliothek von Alexandria‘ wurden zu kostbaren ‚Sammelpunkten von Wissen‘, die aber auch während ihres Bestehens vielfältigen zerstörerischen Ereignissen ausgesetzt waren, was zu großen Verlusten an aufgezeichneten Wissen führen konnte.

Eine ‚mechanisierte Erstellung von Büchern‘ gab es seit ca. dem 8.Jahrhundert und der moderne Buchdruck begann im 15.Jahrhundert. Die Entwicklung von Bibliotheken verlief dennoch lange Zeit ’schleppend‘, vielfach nur auf privater Basis. Erst ab dem 19.Jahrhundert kam es zu einer stärkeren Entwicklung des Bibliothekswesens, hier jetzt auch von öffentlichen Bibliotheken.

Trotz dieser Entwicklung blieb es für einen einzelnen Menschen schwierig, sich Zugang zu Wissen über eine Bibliothek zu verschaffen, und selbst wenn es diesen (meist privilegierten) Zugang gab, war die Verfügbarkeit bestimmter Texte, ihre Einsichtnahme, das Erstellen von Notizen — oder später von Kopien — umständlich und zeitraubend. Der Zugriff des individuellen Lesers ähnelten kleinen ‚Stichproben‘, die selbst im Rahmen von wissenschaftlichen Arbeiten über Jahre sehr überschaubar blieben. Nicht zu vernachlässigen ist auch das Sprachproblem: der Anteil von ‚fremdsprachlichen Büchern‘ in der Bibliothek eines Landes A war überwiegend auf Texte mit der Sprache des Landes A beschränkt.

‚Gewinnung von Wissen‘ war für einen einzelnen Menschen daher mühsam, zeitaufwendig, sehr fragmentiert.

Eine immer wichtigere Alternative zu diesem schwer verfügbaren Feld des Bibliotheks-Wissens waren moderne Zeitschriften, Journale, in vielen Sprachen, mit immer kürzeren ‚Wissenszyklen‘. Je mehr solcher Zeitschriften es aber gibt, umso mehr treten die natürlichen individuellen Begrenzungen in Kraft, die angesichts des Anschwellens des Zeitschriften-Wissens schmerzhaft erfahrbar sind. Aktuell (2024) ist es kaum noch möglich, die genaue Zahl allein von wissenschaftlichen Zeitschriften zu schätzen. Allein im Bereich der Informatik schätzt man ca. 2000 Zeitschriften mit im Schnitt ca. 25.000 (oder mehr) Artikeln pro Jahr. Und wissenschaftliche Zeitschriften nur in chinesischer Sprache werden mit über 10.000 angegeben.[1]

[1] Soehe: https://www.eastview.com/resources/journals/caj

Mit der Digitalisierung

Seit der Verfügbarkeit des World Wide Web (WWW) ab den 1990-iger Jahren entstand ein einheitlicher Informationsraum, der sich seitdem immer mehr weltweit ausgebreitet hat. Zwar erleben wir in der Gegenwart in immer mehr Ländern eine ‚Abschottung‘ des WWW untereinander, aber die Entwicklung eines gemeinsamen Informationsraumes ist nicht mehr wirklich aufzuhalten.

Parallel zum Informationsraum entwickelten sich auch immer mehr ‚Technologien‘ des ‚Sammelns‘, ‚Aufbewahrens‘, ‚Wiederfindens‘ und ‚Auswertens‘, die es zunehmend möglich machen, auf ‚Fragen‘ ‚Antworten‘ aus immer mehr Quellen zu finden.

Mit der Verfügbarkeit von sogenannter ‚Generativer Künstlicher Intelligenz im Format von Chatbots‘ (GKI-CHaBo) seit 2022 hat diese ‚Technologie der Datennutzung‘ einen Level erreicht, der nicht nur ‚rohe Daten‘ findet, sondern der durch vollständige Indexierung von Wortclustern in Verbindung mit dem Trainieren von ‚Dialogformaten‘ einem einzelnen Nutzer mit seinen real beschränktem Wissen mit einem Mal einen ‚direkten Zugang‘ zum ‚kollektiven Wissen der Menschen‘ ermöglicht, sofern dieses digitalisiert werden konnte.

Für die ‚Evolution des Lebens auf diesem Planeten‘ erscheint diese Verfügbarkeit von kollektivem Wissen für den einzelnen möglicherweise das wichtigste Ereignis zu sein seit dem Auftreten des Homo sapiens selbst vor ca. 300.000 Jahren. Warum?

Der nächste Level?

Die Nachhaltigkeitsdebatte der letzten ca. 50 Jahre hat dazu beigetragen, dass neben der eher individuellen Perspektive des Lebens, neben stark regionalen oder auch nationalen Interessen und Perspektiven des Erfolgs, schrittweise auch Perspektiven ins Bewusstsein — nicht bei allen — getreten sind, die andeuten — und mittlerweile durch vielfältige Daten und Berechnungsmodellen belegen –, dass es Problemstellungen gibt, die den Ereignishorizont einzelner partikulärer Gruppen — und dies können ganze Nationalen sein — deutlich übersteigen. Viele denken hier zunächst an ‚Ressourcen‘ die knapp werden (z.B. Fischbestände), oder die verunreinigt werden (Weltmeere), oder gefährlich reduziert werden (Waldsysteme, Rohstoffe, Lebensformen,…) oder einiges mehr. Was bislang noch kaum Thema ist, obgleich es das eigentliche Thema sein sollte, das ist jener Faktor, der all diese Probleme hervorbringt: der Homo sapiens selbst, der durch sein Verhalten, ja, alleine schon auch durch seine große Zahl, alle die bekannten ‚Probleme‘ hervorruft. Und dies geschieht nicht ‚automatisch‘, sondern weil das Verhalten des Homos sapiens auf diesem Planeten von seinem ‚Inneren‘ in einer Weise ‚gesteuert‘ wird, dass er im großen Stil ‚unfähig‘ erscheint, sein Verhalten zu ändern, weil er sein ‚Inneres‘ nicht ‚im Griff‘ hat.

Dieses Innere setzt sich — grob betrachtet — aus Bedürfnissen zusammen, aus unterschiedlichen Emotionen, und aus gesammelten Erfahrungen verknüpft mit Wissen. Das Wissen liefert die ‚Bilder‘ von sich selbst, den anderen und von der Welt, wie ein Homo sapiens sie sieht. Bedürfnisse und Emotionen können Wissen blockieren, ‚fesseln‘ oder verändern. Dasjenige Wissen, was gerade verfügbar ist, hat allerdings eine große Macht: ein Homo sapiens kann letztlich nur das tun, was sein aktuelles Wissen ihm sagt — falls er auf sein Wissen hört und nicht auf ‚andere‘ die ihm aufgrund der Lebenssituation ‚etwas bedeuten‘.

Wenn man sich nun für eine ‚mögliche Zukunft‘ interessiert, oder — noch spezieller — für eine ‚mögliche Zukunft, die für möglichst viele möglichst gut ist‘, und zwar ’nachhaltig, dann ergibt sich die Herausforderung, wie können Menschen in der Situation eines Alltags, einer bestimmten Form von Gegenwart, diese Gegenwart ‚gedanklich‘ so weit ‚übersteigen‘, dass sie trotz aktueller Gegenwart ‚irgendwie‘ ein Stück ‚möglicher Zukunft‘ denken können.

‚Generative Künstliche Intelligenz im Format von Chatbots‘ (GKI-ChaBo) kann zwar helfen, die (angenäherte) Gesamtheit des bisherigen Wissens — wenngleich auch nur punktuell anhand von Fragen — zugänglich zu machen, aber das ‚Wissen der Vergangenheit‘ liefert ‚aus sich heraus‘ nichts ‚Neues‘ und — vor allem –, die Vergangenheit verfügt nicht unbedingt über jene ‚Ziele‘ und ‚Werte‘ die in der aktuellen Gegenwart notwendig sind, um genau ‚jene mögliche Zukunft zu wollen‘, auf die es ankommen wird.

Mit dieser Herausforderung stößt der Homo sapiens mit voller Wucht ‚auf sich selbst‘ und er wird sich nicht ‚hinter GKI-ChaBo verstecken‘ können. Eine GKI-ChaBo liefert sowieso immer nur das, was Menschen zuvor gesagt und getan haben, dies zwar in einer Breite, die ein einzelner Mensch nicht zustande bringen könnte, aber letztlich fungiert ein GKI-ChaBo nur wie eine Art ‚Spiegel des menschlichen Kollektivs‘. Eine GKI-ChaBo kann die Menschheit selbst nicht ersetzen. Eine GKI-ChaBo ist das Produkt kollektiver menschlicher Intelligenz und kann die Gesamtheit dieser kollektiven Intelligenz umrisshaft sichtbar machen (eine unfassbar tolle Leistung), aber mehr auch nicht.

Für den nächsten Level muss der Homo sapiens es irgendwie schaffen ’sich selbst ganz anders ‚in den Griff zu bekommen‘ wie bisher. In der bisherigen Geschichte gibt es kaum brauchbare Vorbilder. Was wird der Homo sapiens tun? GKI-ChaBo ist ein außerordentlicher Erfolg, aber es ist nicht der letzte Level. Wir können gespannt sein….

Automatisierung des Menschen – Eine Typologisierung am Beispiel ‚Text schreiben‘, ‚Rechnen‘ und ‚Planen‘

Dieser Text ist Teil des Textes „Neustart der Menschlichkeit (Rebooting humanity)“

(Die Englische Version findet sich HIER)

Autor Nr. 1 (Gerd Doeben-Henisch)

Kontakt: cagent@cognitiveagent.org

(Start: 5.Juni 2024, Letzte Änderung: 6.Juni 2024)

Ausgangspunkt

Im Gesamtbild menschlicher Aktivitäten gibt es drei ‚Typen‘ von Handlungsmustern, die alltagsnah und für die gemeinsame Kommunikation und Koordination wichtig sind: (i) das Verfassen von Texten, (ii) das Bescheiben (Berechnen) von quantitativen Zusammenhängen, und (iii) das Planen von möglichen Zuständen in einer angenommenen Zukunft. Alle drei Typen finden sich seit dem Beginn eines ‚kulturellen Lebens‘ der Menschen, sofern es dokumentiert wurde. Im Folgenden wird eine grobe Typologisierung versucht verbunden mit bekannten Formen der Umsetzungen.

Typen und ihre Umsetzungsformate

(a) MANUELL: Wir schreiben Texte ‚manuell‘ mit Hilfe von Schreibwerkzeugen und Schreibunterlagen. Entsprechend bei quantitativen Sachverhalten ein manuelles Hantieren mit Objekten, die mengenmäßige Zusammenhänge repräsentieren. Beim Planen gibt es das Problem, wie man einen ’neuen‘ Zustand darstellen will: handelt es sich bei dem ‚Neuen‘ um etwas ’schon Bekanntes‘, dann kann man ‚auf Bilder/ Zeichen‘ des Bekannten zurück greifen; handelt es sich um ‚wirklich Neues‘, wird es schwierig; es gibt keinen ‚Automatismus des Neuen‘. Wie beschreibt man etwas, was es so bislang noch nie gab? Dazu kommt das — oft übersehene — Problem, dass ‚Gegenstände des Planens‘ meistens ‚Wert- und Zielabhängig‘ sind; Bedürfnisse, Absichten, Erwartungen, sachliche Notwendigkeiten können eine Rolle spielen. Letztere können ‚gesellschaftlich normiert‘ sein, aber angesichts der ‚radikalen Offenheit von Zukunft‘ erweisen sich in der Geschichte ‚zu starke Normierungen‘ als mögliche Abkürzung zu einem Scheitern.

(b) MANUELL-UNTERSTÜTZT: Überspringen wir die Phase der ‚partiell mechanischen‘ Unterstützung und gehen über zur Phase der frühen ‚Computer Unterstützung‘, dann gibt es Maschinen, die man mittels ‚Programmiersprachen‘ so ‚programmieren‘ kann, dass sowohl das Schreibgerät wie auch die Schreibunterlage mittels der programmierten Maschine dargestellt wird, was viele zusätzliche Funktionen ermöglicht (Korrigieren von Texten, Abspeichern, mehrere Versionen, Automatische Korrekturen, …). Schreiben muss man allerdings tatsächlich noch selbst: Buchstabe für Buchstabe, Wort für Wort, … Beim ‚Rechnen‘ ist das Aufschreiben noch sehr mühsam, aber das ‚Ausrechnen‘ erfolgt dann partiell ‚automatisch‘. Mit dem Planen ist es ähnlich wie beim Text schreiben: das ‚Aufschreiben‘ wird unterstützt (mit all den Zusatzfunktionen), aber ‚was‘ man aufschreibt, das bleibt dem Anwender überlassen. Abgesehen vom ‚quantitativen Berechnen‘ wird ein ‚Hochrechnen‘, ein ‚Voraussagen‘ generell nicht unterstützt. Eine ‚Bewertung‘ auch nicht.

(c) SPRACHBASIERTE-UNTERSTÜTZUNG: Die Phase der ’sprachbasierten Unterstützung‘ ersetzt die manuelle Eingabe durch Sprechen. Für ausgewählte Bereiche von Texten gelingt dies immer besser. Für ‚quantitative Sachverhalte‘ (Rechnen, Mathematik,…) noch kaum. Für Planung auch nur sehr begrenzt, dort wo es um schon formulierte Texte geht.

(d) KÜNSTLICHE INTELLIGENZ-UMGEBUNGEN: Die Künstliche Intelligenz (KI) Umgebung wird hier im Kontext von Dialogformaten betrachtet: Der Anwender kann Fragen stellen oder Anorderungen übermitteln, und das System reagiert darauf. Die hier einschlägigen Formate von KI sind die sogenannten ‚generativen KIs‘ im chatbot-Format. Unter Voraussetzung von ‚vorhandenem Wissen‘ von Menschen im Format ‚abgelegte Dokumente/ Bilder/…‘ und unter Voraussetzung von ‚Dialogformaten‘ von Menschen (auch durch explizites Training) können diese generativen KIs Fragen und Aufträge in ‚formaler Nähe‘ zu dem bekannten Material im Kontext eines Dialogs so aufbereiten, dass man ’nicht mehr selbst‘ eingreifen muss. Korrekturen und Veränderungen im Detail sind möglich. Sowohl beim ‚Text erstellen‘ wie beim ‚Rechnen‘ kann dies im Bereich des ‚Bekannten‘ einigermaßen funktionieren. Das tatsächliche Zutreffen in der ‚realen Welt‘ ist aber in keinem Fall gesichert. Beim ‚Planen‘ bleibt das spezielle Problem, dass für die KI ‚wirklich Neues‘ nur im Rahmen von kombinatorischen Sachverhalten begrenzt möglich ist. Der Wahrheits-Vorbehalt bleibt, gilt aber auch im ‚manuellen Fall‘, wo der Mensch selbst plant. Das Bewertungsproblem ist auch eingeschränkt auf schon bekannte Bewertungsmuster: Zukunft ist aber nicht gleich zu setzen mit Vergangenheit; Zukunft ist mehr oder weniger ‚anders‘. Wo sollen die hier notwendigen Bewertungen herkommen?

Als interessante Frage bleibt dann, in welchem Sinne die fortschreitende Unterstützung durch generative KIs die Kommunikation und Koordination zwischen Menschen tatsächlich unterstützt und speziell, ob und wieweit die zentrale Herausforderung einer ‚Zukunftsplanung‘ damit zusätzlich unterstützt werden kann. Fakt ist, dass wir Menschen uns mit Zukunftsplanung im Bereich von sozialem Leben, kommunalem Leben und größeren Kontexten wie Landkreis, Bundesland usw. offensichtlich schwer bis sehr schwer tun. Für eine nachhaltige Zukunft erscheint eine gelingende Planung aber unabdingbar zu sein.