Archiv der Kategorie: Lernen

EINSCHUB : INTELLIGENZ – LERNEN – WISSEN – MATERIELLE BEDINGUNGEN; KI

Autor: Gerd Doeben-Henisch

Datum: 20.Febr 2025 – 20.Febr 2025

Kontakt: cagent@cognitiveagent.org

Eine englische Version findet sich HIER.

KONTEXT

Dies ist eine weitere  Zwischenreflexion, um die Begrifflichkeit von ‚Intelligenz‘ und ‚Lernen‘ strukturell weiter zu klären. Diese und die vorausgehende Zwischenreflexionen verstehen sich als ‚Ergänzung‘ zum Hauptstrang des Text-Projektes ‚Was ist Leben?‘

HAUPTSTRANG: Was ist Leben?

  1. WAS IST LEBEN ? Welche Rolle haben wir ? Gibt es eine Zukunft ?
  2. WAS IST LEBEN ? … DEMOKRATIE – BÜRGER
  3. WAS IST LEBEN ? … PHILOSOPHIE DES LEBENS
  4. WAS IST LEBEN ? … Wenn Leben ‚Mehr‘ ist, ‚viel Mehr‘ …
  5. WAS IST LEBEN – GRAMMATIK DES ÜBERLEBENS. Im Focus: Homo sapiens …(noch nicht fertig)

Dem Text Nr.4 ging ein Vortrag am 31.Jan 2025 voraus, in dem ich die grundlegenden Ideen schon mal formuliert hatte.

EINSCHÜBE BISHER:

  1. EINSCHUB: Kurze Geschichte zum Begriff der Intelligenz und seiner möglichen Zukunft 
  2. EINSCHUB : BIOLOGISCHE INTELLIGENZ braucht LERNEN. Strukturanalyse

EINLEITUNG

Die erste Analyse des Konzepts ‚Intelligenz‘ machte deutlich, dass im Rahmen eines Intelligenztests nur solche ‚Antworten‘ von der ‚Versuchsperson‘ kommen können, die bei ihr aktuell ‚verfügbar‘ sind. Abgesehen von ‚angeborenen Reflexen‘ und körperlich bedingten Eigenschaften‘ handelt es sich dabei um solche ‚internen Strukturen‘, die im Rahmen von ‚Lernprozessen‘ entstanden sind. Diese durch Lernen erworbene Strukturen nennen wir hier ‚Wissen‘ bzw. ‚Erfahrung‘.

Diese Unterscheidung der Begriffe ‚Intelligenz‘, ‚Lernen‘ sowie ‚Wissen‘ und ‚Erfahrung‘ soll im folgenden Texte weiter vertieft werden. Dabei wird eine ‚generelle Struktur‘ des ‚Homo sapiens (HS)‘ deutlich, wie er als Teil des übergeordneten ‚Lebens (L)‘ ausgestattet ist, um ’sein Überleben‘ auf diesem ‚Planeten (P)‘ möglicherweise zu sichern. Als Teil des Lebens kann er seine Fähigkeiten aber auch nutzen, um zum Überleben des ganzen Lebens beizutragen, so wie diese letztlich seine Existenz sichert. Bis auf eine aktuell schwer einschätzbare Zukunft ist der Homo sapiens auf diesem Planeten vollständig auf das Gesamt-Leben angewiesen.

BILD 1 : Basiskonstellation von Planet (P), Leben (L) und dem Homo sapiens (HS) als Teilpopulation des Lebens. Alle Komponenten (P, L, HS) stehen sowohl in Wechselbeziehung zu sich selbst als auch untereinander

INTELLIGENZ – LERNEN – WISSEN – MATERIELLE BEDINGUNGEN

Ausgangspunkt

Der Ausgangspunkt der weiteren Überlegungen ist im folgenden Schaubild festgehalten:

BILD 2 : Eine ‚dynamische Sicht‘ der Konstellation Planet-Leben-Homo sapiens unter Voraussetzung eines fiktiven Beobachters

Aus der Sicht eines ‚fiktiven Beobachters‘ (siehe das BILD 2) kann man die ‚Struktur‘ der Konstellation ‚Planet – Leben – Homo Sapiens (PLHS)‘ mit ihren umfassenden ‚Wechselwirkungen‘ sehen als ‚eingebettet‘ in einen ‚zeitliche Struktur (T)‘, die hier als ein ‚Prozess mit Zeitscheiben‘ (siehe Text Nr.4) aufgefasst wird.

Im Schaubild gibt es als ‚Fixpunkt/ Standpunkt‘ die ‚Gegenwart'(NOW). ‚Vorher‘ zur Gegenwart gibt es eine ‚vermutete Geschichte‘ (HISTORY), und ’nachher‘ in den ‚möglicherweise kommenden neuen Gegenwarten‘ (POSSIBLE FUTURES) kann es ‚weitere‘ Gegenwarten geben, aber diese sind zum ‚aktuellen Zeitpunkt‘, in der ‚Gegenwart‘, noch nicht bekannt.

BILD 3 : Unter Voraussetzung eines ‚Gehirns‘, das mittels eines ‚Körpers‘ Eigenschaften der Welt ‚Wahrnehmen‘, später ‚Erinnern‘ und dann auch noch auf geeignete Weise ‚anordnen‘ kann, lässt sich eine gewisse ‚dynamische Struktur‘ von Planet, Leben und Homo sapiens erkennen.

Der ‚fiktive Beobachter‘ existiert allerdings nur im ‚Kopf‘ eines Menschen, sofern er ‚Denken‘ kann, insofern er sich ‚Erinnern‘ kann, und insofern er seine Erinnerung durch ‚aktuelle Wahrnehmungen‘ gewinnen konnte. Da sowohl die Wahrnehmung als auch das Erinnern als auch das Denken sich ‚irren‘ kann, bedeutet dies dass die Sicht des ‚fiktiven Beobachters‘ entweder ‚eher richtig‘ ist oder ‚eher falsch‘.

Wissen und materielle Einbettung

Der ‚denkende Mensch‘ ist mit einem ‚Körper‘ ausgestattet (Materielle Einbettung 1), der sich immer in einer ‚realen Situation‘ — oder in einem ‚realen Zustand‘– (Materielle Einbettung 2) befindet, wobei die Situation immer ‚Teil von etwas Größerem‘ ist. Hier gehen wir davon aus, dass dieses Größere‘ im Normalfall der ‚Planet Erde‘ ist (wobei dieser Planet in fast beliebig größere Kontexte des Universums eingebettet ist) und die ‚Population des Homo sapiens‘ sowie die ‚Gesamtheit des Lebens‘ (Materielle Einbettung 3).

Im Laufe der Zeit haben Menschen entdeckt, dass man ‚in der aktuellen Situation‘ vielfache ‚Spuren‘ (TRACES) entdecken kann, die auf Ereignisse im Bereich des Planeten Erde hinweisen, auf Ereignisse des Lebens auf dem Planeten sowie auch auf Ereignisse des Homo sapiens auf dem Planeten, als Teil des Lebens.

Diese ‚beobachtbaren Spuren‘ (observable TRACES) stammen aus unterschiedlichen ‚zeitlichen Abschnitten‘ in der ‚Geschichte‘ und lassen von daher Ansätze von ‚Veränderungen (V)‘ erkennen. Veränderungen, sofern sie ‚Regelmäßigkeiten‘ erkennen lassen, können als Ausgangspunkt genutzt werden, um mit Hilfe einer ‚Voraussage-Logik‘ ‚mögliche Zustände zu einem zukünftigen Zeitpunkt‘ (POSSIBLE FUTURES) zu generieren.

Wissen

Für die ‚Sicht des Menschen‘ auf den Planeten, auf das Leben und auch auf sich selbst ist letztlich entscheidend, dass er über die Fähigkeit verfügt, (i) dies alles, was ihn umgibt, irgendwie ‚Wahrnehmen‘ zu können auf eine Weise, dass (ii) die ‚Inhalte der Wahrnehmung‘ sich so ‚ablegen‘ lassen, dass sie (iii) sich später auch wieder ‚erinnern‘ lassen. (iv) Diese Wahrnehmung geschieht — wie wir heute wissen — nicht als eine 1-zu-1 ‚Abbildung‘, sondern benutzt allerlei ‚Vereinfachungen/ Abstraktionen‘, die so sind, dass man beim Erinnern normalerweise noch einen ‚Bezug zur aktuellen Wahrnehmung‘ herstellen kann. (v) Aufgrund der ‚Beschaffenheit der erinnerbaren Inhalte‘ kann (v) das ‚Denken‘ diese Inhalte unterschiedliche ‚Strukturieren‘ und (vi) im ‚Vergleich von Vorher und Nachher‘ möglicherweise ‚Veränderungen‘ erfassen. Sofern diese Veränderungen ‚hinreichend ähnlich‘ sind, kann (vii) das Denken aufgrund von ‚regelhaften Veränderungen‘ in beschränktem Umfang ‚Voraussagen‘ machen. (viii) Die Art und Weise der ‚Generierung von Voraussagen‘ fällt im weitesten Sinne unter den Begriff der ‚Logik‘ bzw. des ‚logischen Folgerns‘ (die moderne ‚formale Logik‘ bildet allerdings nur Teilaspekte dieses realen Geschehens ab).

Man könnte hier formulieren: Das ‚Wissen‘ ist eine spezielle Form des ‚Widerhalls‘ der materiellen Rahmenbedingungen, unter denen Wissen entsteht. Die materiellen Rahmenbedingungen können zwar die Entstehung und die Form des Wissens beeinflussen, sie können aber das ‚Wissen selbst‘ weder ‚aus sich alleine heraus‘ erzeugen noch können sie das, wovon das Wissen ein ‚Widerhall‘ ist, aus sich heraus erzeugen. Der ‚Widerhall im Format des Wissens‘ verweist auf etwas ‚jenseits des Wissens selbst‘. In der traditionellen Sprache der Philosophie würde man hier dann von ‚Transzendenz‘ sprechen, d.h. mit der Verfügbarkeit von Wissen, das durch Mitwirkung eines ‚echten Widerhalls‘ entstanden ist, ‚übersteigt‘ (transzendiert) das Wissen im Innern eines Menschen diesen Menschen mit seinen materiellen Begrenzungen.

Materielle Einbettung von Wissen

Wir wissen heute, dass die ‚materielle Einbettung des Wissens‘ zahlreiche ‚Faktoren‘ erkennen lässt, die sowohl ‚konstruktiv‘ wie auch ‚destruktiv‘ bei der Entstehung von Wissen wie auch bei seiner ‚Nicht-Entstehung‘ wirksam sein können. So macht es sich stark bemerkbar, wenn Menschen an ‚Krankheiten‘ leiden, die sie schwächen und quälen können und sie womöglich an einen bestimmten Ort binden. Mangel an Wasser, Nahrungsmitteln, oder das Fehlen eines geeigneten Aufenthaltsort als Schutz vor Kälte, Hitze und Regen. Die Bedrohung durch andere Menschen oder durch andere Lebensformen (Tiere, Insekten, Pflanzen,…). Eigene ‚Emotionen‘ wie Angst, Hass, starke Erregung, starke emotionale Abhängigkeiten. Störungen der Wahrnehmung im Bereich des Sehens, Hörens, Riechens usw. … Schlechte Kommunikation wegen mangelhafter Sprachkenntnis, wegen Ausgrenzung, wegen Verfolgung … auf der Flucht sein, stattfindende Naturkatastrophen … und vieles mehr.

Auch der eigene Körper, das eigene Wissen kann hinderlich sein: wer zu einem bestimmten Zeitpunkt ein bestimmtes Wissen hat, der kann durch seine Gefühle davon abgehalten werden, dieses aktuelle Wissen zu verändern. Dann ‚friert‘ das aktuelle Wissen dieses Menschen über die Welt und sich selbst ‚fest‘. Die typische ‚Dynamik des Lebens‘ entweicht, verschwindet, und das ‚Leben im Kopf erstarrt zu Stein‘.

Wissen und Gesellschaft; KI

Wenn man sieht, wie komplex und fragil zugleich die Entstehung von Wissen ‚im Kopf‘ eines einzelnen ist, dann kann man vielleicht ahnen, wie groß die Aufgabe und die damit gegebene Herausforderung für viele Menschen ist, für eine ganze Population, ‚gemeinsam‘ jenes Wissen ‚entstehen zu lassen‘, das die Population benötigt, um gemeinsam ein ‚gutes Überleben‘ in einer ‚möglichen Zukunft‘ erreichen zu können.

Die seit spätestens 2022 verfügbaren technischen Hilfsmittel unter dem — irreführenden — Namen ‚KI‘ (Künstliche Intelligenz) können vermutlich eine riesige Hilfe sein, sofern der Mensch sein eigenes Wissen entsprechend ‚kultiviert‘ (mit dem KI-Wissen als Teil), aber solange der Mensch die ‚materielle Einbindung‘ seines Wissens nicht in den Griff bekommt, solange wird auch die ’sogenannte KI‘ auch auf der Stelle treten. Die ‚materielle Einbindung des Menschen‘ ist eben nicht nur ein ‚potentielles Hindernis‘, sie ist zugleich auch die ‚Ermöglichung‘ von ‚Welt-Relevantem‘ und ‚Lebens-Relevantem‘ Wissen. Über diese beiden Dimensionen verfügt eine KI nicht, nicht nur heute nicht, sondern grundsätzlich nicht. ‚Biologische Systeme‘ repräsentieren ein Potential, welches jede ‚unbelebte Materie‘ real ‚transzendieren‘ und ‚in etwas Neues‘ verwandeln kann. Die von Menschen erfundenen, gebauten und programmierten Maschinen sind verglichen mit ‚biologischen Systemen‘ nur sehr einfache ‚Hilfsmittel‘, die allerdings durch ‚Symbiose‘ mit biologischen Systemen Wirkungen erzielen können, die weit über das hinausgehen können, was wir uns heute vorstellen können.

EINSCHUB : BIOLOGISCHE INTELLIGENZ braucht LERNEN. Strukturanalyse

Autor: Gerd Doeben-Henisch

Datum: 18.Febr 2025 – 20.Febr 2025

Kontakt: cagent@cognitiveagent.org

Eine englische Version … kommt noch.

KONTEXT

Dies ist eine weitere  Zwischenreflexion, um die Begrifflichkeit von ‚Intelligenz‘ und ‚Lernen‘ strukturell zu klären. Dies ist ein Analyse-Vorschlag. Diese und die vorausgehende Zwischenreflexion verstehen sich als ‚Ergänzung‘ zum Hauptstrang des Text-Projektes ‚Was ist Leben?‘

  1. WAS IST LEBEN ? Welche Rolle haben wir ? Gibt es eine Zukunft ?
  2. WAS IST LEBEN ? … DEMOKRATIE – BÜRGER
  3. WAS IST LEBEN ? … PHILOSOPHIE DES LEBENS
  4. WAS IST LEBEN ? … Wenn Leben ‚Mehr‘ ist, ‚viel Mehr‘ …
  5. WAS IST LEBEN – GRAMMATIK DES ÜBERLEBENS. Im Focus: Homo sapiens …(noch nicht fertig)

Dem Text Nr.4 ging ein Vortrag am 31.Jan 2025 voraus, in dem ich die grundlegenden Ideen schon mal formuliert hatte.

Podcast: Vorgeschichte zu diesem Text

EINLEITUNG

Im letzten Einschub mit der Überschrift „Kurze Geschichte zum Begriff der Intelligenz und seiner möglichen Zukunft“ war mittels eines kurzen geschichtlichen Aufrisses heraus gearbeitet worden, dass (i) das Konzept von ‚Intelligenz‘ im Laufe der Jahrhunderte seit der Antike nicht nur einen starken Wandel erfahren hat, sondern dass es bis heute auffällig ‚unterbestimmt‘ ist. Dazu kommt seit Herbst 2022 (ii) die flutartige Nutzung eines neuen Typs von technischer (nicht-biologischer) Intelligenz, deren Verhältnis zur biologischen Intelligenz bis heute nicht einmal ansatzweise geklärt ist. Dies liegt u.a. daran, dass das Konzept einer ‚biologischen Intelligenz‘ – von einzelnen Versuchen einer begrifflichen Klärung abgesehen — weitgehend unbestimmt ist. Ferner (iii), mit Rückgriff auf die neue ‚dynamische Sicht des Lebens‘ auf diesem Planeten deutet sich vielfach an, dass die bis heute bekannten Formen von nicht-biologischer (technischer) Intelligenz in keiner Weise wesentliche Eigenschaften einer biologischen Intelligenz ersetzen kann. Dies folgt schon aus der grundlegenden Struktur biologischer Systeme ohne Berücksichtigung von vielen Details. Als erster Umriss für eine nähere Bestimmung des Konzepts einer ‚biologischen Intelligenz‘ deutet sich an (iv), dass biologische Intelligenz keine feste Größe ist, sondern als Eigenschaft eines Prozesses sichtbar wird, wodurch sie sich ständig weiterentwickeln kann – individuell, kollektiv und technologisch.

Anmerkung: Hier wird ‚Prozess‘ im Sinne des Textes Nr. 4 (siehe Liste oben) verstanden: Wenn man den ‚zeitlichen Verlauf‘ eines Geschehens (z.B. der Alltag) in ‚Abschnitte‘ (Zeitscheiben) zerlegt, und man alle ‚Veränderungen‘ betrachtet, die jeweils von einem Abschnitt zum anderen stattfinden, dann kann man auch sagen, dass ein ‚Folgeabschnitt‘ aus einem ‚Vorgängerabschnitt‘ durch eben diese Veränderungen hervorgeht. Sofern man ein Geschehen in diesem Sinne als eine Aufeinanderfolge von Abschnitten (Zeitscheiben) gesteuert durch Veränderungen beschreiben kann, dann soll dies hier als ein ‚Prozess‘ verstanden werden. Die ‚Eigenschaft eines Prozesses‘ lässt sich dann ’nicht isoliert‘ beschreiben, sondern immer nur als eine ‚momentane Eigenschaft‘ in einem ‚Veränderungsgeschehen‘, was sich im Fluss befindet, und keinen absoluten Anfang und kein absolutes Ende hat. Außerdem können viele Veränderungen gleichzeitig auftreten, die sich untereinander vielfach beeinflussen können.

BIOLOGISCHE INTELLIGENZ braucht LERNEN. Strukturanalyse

Wie schon das Wort ‚biologische Intelligenz‘ andeutet, soll hier das — recht unbestimmte — Konzept ‚Intelligenz‘ im Kontext des Lebens betrachtet werden.

‚Leben‘ tritt uns in den bisherigen Überlegungen als ein ‚dynamisches Phänomen‘ gegenüber, dessen prozesshaftes Fortschreiten sich mit Hilfe von ‚Zeitscheiben‘ (siehe Text Nr.4) ansatzweise beschreiben lässt.

‚Einzelne Manifestationen von Leben‘ in Form von ‚unterscheidbaren Lebewesen‘ spricht man in einer ‚psychologischen Perspektive‘ die ‚Eigenschaft Intelligenz‘ zu, wenn ein einzelnes Lebewesen in einer gegebenen Zeitscheibe Z1 eine ‚Aufgabe lösen‘ soll und dieses Lebewesen dann tatsächlich nach endliche vielen weiteren Zeitscheiben den ‚Zustand der Zeitscheibe Z1‘ soweit ‚verändert hat, dass ein ’neuer Zustand‘ entstanden ist, der Teil der dann aktuellen Zeitscheibe ist, und wo die ‚Schiedsrichter‘ sagen, dass der neue Zustand ‚korrekt‘ ist oder ’nicht korrekt‘ ist. (Anmerkung: Ein ‚Zustand‘ ist die Gesamtheit der unterscheidbaren Phänomene, die sich in einer Zeitscheibe aufzeigen lassen).

Wenn die Aufgabe lauten würde „Wie ergänzt Du den Text ‚3+4='“, dann würde in bestimmten kulturellen Kontexten die ‚Veränderung‘ des Textes ‚3+4=‘ zu ‚3+4=7‘ als ‚korrekte Lösung‘ angesehen. Alles, was sich davon unterscheidet wäre ’nicht korrekt‘. Es lassen sich aber leicht andere kulturelle Systeme denken, in denen der Lösungstext ‚3+4=7‘ nicht korrekt wäre, sondern stattdessen ‚3+4=13‘.

Schon dieses einfache Beispiel zeigt, dass die Frage der ‚Korrektheit‘ einer Formulierung voraus setzt, dass die Beteiligten über einen ‚Denkrahmen‘ verfügen, in dem ‚geregelt‘ ist, was in diesem Denkrahmen ‚erlaubt‘ ist und was nicht. Wenn ich — wie im Beispiel ‚3+4=7‘ — als Zahlensystem ein 10-er System voraussetze mit den Ziffern [0,..,9], dann ist die Antwort ‚korrekt‘. Wenn ich stattdessen aber ein 4-er System voraussetze mit den Ziffern [0,…,3], dann kann ‚3+4=7‘ nicht korrekt sein, da es die Ziffer ‚7‘ im 4-er System nicht gibt. Alles was eine ‚3‘ überschreitet würde zu einer ‚Positionsverschiebung‘ führen: ‚3+1=10, 3+2=11, 3+3=12, 3+4=13, …‘

Man könnte daher an dieser Stelle formulieren: Für eine Prüfung auf das Vorkommen der Eigenschaft ‚Intelligenz‘ bei einem biologischen System stellt man eine ‚Aufgabe‘ und schaut, ob das biologische System als ‚Antwort auf die Aufgabe‘ eine ’neue Situation herstellt‘, die Teile enthält, die als ‚korrekte Lösung‘ angesehen wird. Eine einfache Form der ‚Entscheidung auf Korrektheit‘ könnte sein, dass man die Korrektheit der neuen Situation durch einen ‚einfachen Vergleich‘ feststellen kann. Bei Situationen, die ’schwieriger‘ sind, weil ‚Wissen und Erfahrung‘ vorausgesetzt werden muss, die nicht unbedingt bei allen Beteiligten voraus gesetzt werden können, benötigt es die Rolle des ‚Schiedsrichters‘, von dem alle annehmen, dass er ‚aufgrund seines Wissens und seiner Erfahrung‘ in der Lage ist, feststellen zu können, ob eine ’neue Situation im Sinne des vorausgesetzten Rahmens‘ als ‚korrekt‘ oder als ’nicht korrekt‘ einzustufen ist.

Intelligenz braucht Lernen

Das obige einfache Beispiel zeigt aber schon, dass es sinnvoll ist, zwischen der ‚Eigenschaft Intelligenz‘ als etwas ‚Verfügbarem‘ und dem ‚Erwerb von Intelligenz‘ zu unterscheiden. Denn, wenn man den ‚Rahmen‘ kennt, innerhalb dessen beschrieben und geregelt wird, wie bestimmte Zahlzeichen zu verwenden sind, dann kann man angesichts einer ‚Aufgabe‘ sehr leicht korrekt antworten. Wenn man diesen Rahmen aber noch nicht kennt, kann man gar nicht antworten!

Lernen braucht ein Gehirn

Im Fall von ‚biologischen Akteuren‘ vom Typ ‚Homo sapiens‘ wissen wir, dass die Basis des Verhaltens das ‚Gehirn‘ ist. Obwohl dieses ‚Gehirn‘ schon ‚von Geburt an‘ über ein vielfältiges ‚automatisches Wissen‘ verfügt, muss der einzelne Akteur mit Blick auf die stark dynamische Umgebung (einschließlich des eigenen Körpers) nahezu alle Details erst ‚lernen‘, damit diese Eigenschaften in seinem Gehirn für das Verhalten ‚verfügbar‘ sind. Es sind dann genau diese ‚Lernprozesse‘, die ein Gehirn für die verschiedensten Aufgaben so ‚fit machen‘, dass dieses Gehirn im entscheidenden Moment die ‚Antwort zeigen kann‘, die von einer aktuellen Aufgabe ‚gefordert‘ werden.

Das ‚Wunder‘ der Intelligenz

Das ‚Wunder der Intelligenz‘ besteht also weniger in der Tatsache, dass ein bestimmter ‚Akteur‘ bei einer bestimmten Aufgabe die ‚erwartete korrekte Antwort‘ liefert, sondern darin, dass das ‚Gehirn‘ in der Lage ist, angesichts einer dynamischen Umgebung (einschließlich des eigenen Körpers!) ‚intern‘ geeignete ‚Strukturen‘ und ‚Veränderungsregeln‘ ‚aufzubauen‘, die für bestimmte ‚Situationen in der Umgebung‘ jene ‚Hinweise‘ liefern, die zu einem ‚Verhalten‘ führen können, das als ‚angemessen‘ bzw. ‚korrekt‘ angesehen wird.

Auch wenn wir heute wissen, dass die ‚materielle Beschaffenheit des Gehirns‘ Einfluss darauf haben kann, dass ‚Lernprozesse‘ langsamer vonstatten gehen, eventuell auch ‚weniger präzise‘ sind als notwendig, so ist dies kein grundlegendes Hindernis für Lernprozesse aller Art, zumal sich auch gezeigt hat, dass Menschen sehr unterschiedliche ‚Eigenschaftsprofile‘ ausbilden können: Manche tun sich mit ‚Sprachen‘ schwer, sind aber toll im ‚formalen Denken‘ oder im ‚abstrakten (nicht unbedingt im formalen) Denken‘, oder im ‚Umgang mit Bildern und Tönen‘, im Bereich der ‚körperlichen Bewegung‘, und vieles mehr. Auch spielen die unterschiedlichsten ‚Gefühle‘ eine beliebig große Rolle für das Gelingen von Lernprozessen. Wichtig ist hier nur, dass jedwede Form von ‚erworbener‘ Intelligenz im Sinne einer ‚Antwortfähigkeit auf Eigenschaften von Situationen‘ ohne Lernen nicht verfügbar ist.

Lernen als ‚Bildungsprozess‘ (für Intelligenz, und mehr)

Blickt man zurück auf den ersten belastbaren Intelligenztest [1] durch Alfred Binet (1857 – 1911) zusammen mit Théodore Simon (1873 – 1961), dann war der ‚Kontext‘ dieser Bemühungen ganz klar, dass es sich bei der ‚Messung von Intelligenz‘ nicht um die Erfassung von etwas ‚Festem, Statischem‘ handelt, sondern um ‚aktuelle Wissens- und Erfahrungszustände‘ von Schülern, die sich ändern können! Die Tests sollten ausschließlich dazu dienen, den Schülern ‚dort zu helfen, wo sie noch Lücken haben‘.

[1] Stichwort ‚Binet-Simon-Test‘ : https://de.wikipedia.org/wiki/Binet-Simon-Test

Doch dieser Blick für die ‚Dynamik der Intelligenz‘ von Binet und Simon wurde durch andere Forscher wie z.B. William Stern (1871 – 1938), Lewis M. Terman (1877 – 1956), und David W. Wechsler (1896 – 1981) immer mehr in die Richtung verschoben, dass ‚Intelligenz‘ eine eher ‚feste Struktur‘ ist, die man entsprechend messen und man auf diese Weise ‚Menschen klassifizieren‘ kann. Diese Auffassung verband sich dann mit der verbreiteten Tendenz, innerhalb des Bildungssystems, die ‚unterstellte Intelligenz‘ eher als ‚etwas Gegebenes‘ zu betrachten anstatt die ‚mögliche Intelligenz‘ weiter zu entwickeln.

Diese Entwicklung hat fast ‚tragische Züge‘: Die Schulen ‚trainieren‘ Kinder für Tests, anstatt ihre kognitive Entwicklung zu fördern. Die natürliche Neugier und kreative Intelligenz von Kindern wird dadurch oft erstickt. Dadurch entsteht eine Art ’negative Rückkopplung‘: Lehrer lehren, was getestet wird, Schüler lernen, was belohnt wird – das eigentliche Lernen tritt in den Hintergrund.

[2] Eine sehr eindrückliche Analyse zu dieser Thematik findet sich in dem Buch „The Mismeasure of Man“ von Stephen Jay Gould in der überarbeiteten und erweiterten Ausgabe von 1996.

Lernen, Gesellschaft, Ziele

Mit der Annahme, dass ‚Intelligenz‘ generell ein Produkt von ‚Lernprozessen‘ ist (wenngleich die Eigenart von individuellen Körpern mit ihren Gehirnen diese Lernprozesse mit beeinflussen können), und Lernen nicht im ‚Nirgendwo‘ stattfindet sondern im konkreten Kontext eines ‚Alltags‘, der Teil des Lebens einer konkreten ‚Gesellschaft‘ ist, wird jeglicher Lernprozess vom verfügbaren Kontext ‚eingefärbt‘ sein.

Für eine Gesellschaft als ganze kann ihr ‚Überleben‘ davon abhängen, ob die ’nachwachsenden Generationen‘ genau über jene Fähigkeiten verfügen, die in einer bestimmten Phase des Lebens benötigt werden.

Wenn man sieht, was einzelne Gesellschaften für ihre Bildungsprozesse tun und wie sie es tun, dann muss man tatsächlich zweifeln, ob diese Gesellschaften einen ernsthaften ‚Willen zum Leben‘ haben, zum ‚Leben der ganzen Gemeinschaft, nicht nur ‚jeweils individuell für sich‘.

Podcast : Der Inhalt des Textes in ‚freier Rede‘ 🙂

WAS IST LEBEN ? … PHILOSOPHIE DES LEBENS

Eine Lokalisierung von Philosophie im Gesamtzusammenhang:

Autor: Gerd Doeben-Henisch

Datum: 21.Jan 2025 – 22.Jan 2025

Autor: Ich habe den Titel „WAS IST LEBEN? … PHILOSOPHIE DER WELT“ abgeändert zu „WAS IST LEBEN? … PHILOSOPHIE DES LEBENS“. Grund: Es wird sich im Verlauf der Untersuchung zeigen, dass das ‚Leben‘, das wir auf dem Planet Erde vorfinden und somit auf den ersten Blick als ‚Teil der Welt und des Universums‘ erscheint, möglicherweise gar kein ‚Teil‘ ist sondern … jedenfalls ist eine ‚Philosophie‘, welche die ‚Welt‘ beschreiben will, besser beraten, sich gleich dem ‚Leben‘ zuzuwenden’, welches das eigentliche ‚Rätsel des Universums‘ ist.

Kontakt: cagent@cognitiveagent.org

Eine englische Version findet sich HIER.

KONTEXT

Dies ist eine direkte Fortsetzung der vorausgehenden Texte „WAS IST LEBEN ?Welche Rolle haben wir ? Gibt es eine Zukunft ?“ und „WAS IST LEBEN ? … DEMOKRATIE – BÜRGER“

EINLEITUNG

In den beiden vorausgehenden Texten wurde der ‚Rahmen‘ abgesteckt, innerhalb dessen sich die nachfolgenden Texte zum Thema „Was ist Leben? Welche Rollen haben wir? Gibt es eine Zukunft?“ bewegen werden.

Die Ausfaltung der verschiedenen Aspekte dieses großen Themas beginnt mit Überlegungen zur Rolle der ‚Philosophie‘ in diesem Zusammenhang.

VERANKERUNG VON ‚PHILOSOPHIE‘ IM LEBEN

Es wird hier die Annahme vertreten, dass das Phänomen ‚Philosophie‘ verknüpft ist mit ‚Akteuren‘, die auf diesem ‚Planeten‘ leben, die Teil des großen Phänomens ‚Leben‘ auf diesem Planeten sind, und hier nach einem weit verbreiteten Verständnis bevorzugt in jener Lebensform zu finden sind, die grob ‚Homo‘ genannt werden (ungefähr ab 6 Millionen Jahren vor unserer Gegenwart), und im Bereich der Lebensform Homo dann später als ‚Homo sapiens‘ auftraten (ungefähr ab 300.000 Jahren vor unserer Gegenwart). Nicht, dass es neben dem Homo sapiens nicht noch andere Ausprägungen der Lebensform Homo gegeben hätte, aber überlebt hat bis heute eben nur der Homo sapiens, also ‚Wir‘.

Bekanntlich finden sich auf dem Planeten Erde im Jahr 2025 viele ‚Kontinente‘, auf denen nahezu überall ‚Menschen‘ leben. Die Art und Weise, wie die Menschen auf den verschiedenen Kontinenten leben unterscheidet sich äußerlich oft sehr stark, was durch die äußerlichen Gegebenheiten (Klima, Vegetation, Geologie, Weltanschauungen usw.) bedingt ist. Die ‚genetische Basis‘ ist entweder nahezu ‚gleich‘ oder unterscheidet sich nur in ‚Details‘. Der Zusammenhang zwischen diesen Details und dem beobachtbaren ‚Verhalten‘ ist bislang weitgehend unklar. Im ‚Erscheinungsbild‘ kann es zwar Unterschiede in Haarfarbe, Hautfarbe, Körperform usw. geben, doch diese Unterschiede finden sich auf jedem Kontinent, in jeder Bevölkerungsgruppe, sind aber für das Verhalten irrelevant.

Aufgrund vieler ‚Lebensnotwendigkeiten‘ (Ernährung, Trinken, Wohnen, …) verhalten sich Menschen niemals ganz ‚planlos‘. Von den frühesten ‚Zeugnissen menschlichen Lebens‘ an kann man beobachten, dass Menschen ihr Verhalten und ihre Umgebung ‚formen‘, ‚organisieren‘ und zu immer komplexeren ‚Regelsystemen‘ finden, nach denen sie ihr Verhalten ausrichten. Die Gesamtheit dieser Formen, Organisationen und überhaupt Regelsystemen wird hier ‚Kultur‘ genannt.

Im Rahmen dieser ‚menschlichen Kultur‘ fällt eine Eigenschaft besonders auf: das miteinander Kommunizieren mittels ‚gesprochener Sprache‘. Zwar können Menschen auch ohne explizites Sprechen auf vielfache Weise ‚kommunizieren‘, aber für alle detaillierten, komplexen Sachverhalte, insbesondere für die Zwecke der ‚Koordination eines gemeinsamen Verhaltens‘, erweist sich die gesprochene Sprache als unverzichtbar und enorm mächtig! Dabei fällt auf, dass es nicht nur ‚eine Sprache‘ gab, sondern fast so viele Sprachen wie es ‚menschliche Gemeinschaften‘ gab. Eine ‚Angleichung von Sprachen‘, eine ‚Fusion‘ verschiedener Sprachen, hat — wenn überhaupt — nur über viele Generationen stattgefunden. Noch heute (2025) haben wir nationale Gemeinschaften mit vielen hundert Sprachen nebeneinander und es erscheint selbstverständlich, dass bei multinationalen Veranstaltungen jede Nation mit mindestens einer ‚eigenen‘ Sprache auftritt.

In dem Maße, in dem sich eine Kultur mit immer mehr ‚Elementen‘ anreichert, um so höher steigt die Anforderung an die ‚Mitglieder dieser Kultur‘, sich mit all diesen Elementen und ihrem ‚Zusammenspiel‘ ‚vertraut‘ zu machen. Heute würden wir sagen, dass die einzelnen Mitglieder ihre eigene Kultur ‚lernen‘ müssen, und vielfach nennt man die Gesamtheit solcher Lernprozesse auch ‚Aus-Bildung‘ bzw. einfach ‚Bildung‘.

So hat sich in den letzten ungefähr 2000 – 3000 Jahren menschlicher Kultur auch ein ‚Bildungsmuster‘ herausgeschält, dass pauschal ‚Philosophie‘ genannt wird oder man nennt bestimmte Verhaltensweisen ‚philosophisch‘. Die Vielfalt dieses Phänomens ‚Philosophie‘ ist so groß, so ausgeprägt, dass es nahezu unmöglich erscheint, diese Vielfalt auf einige wenige Grundelemente zurück zu führen. Wer dieser historischen Vielfalt weiter nachspüren möchte, kann dies tun, indem er die einschlägigen Handbücher und Lexika aufschlägt und sich in dieser Vielfalt — möglicherweise — ‚verliert‘.

Hier soll ein anderer Weg eingeschlagen werden.

Diese ‚Vielfalt des Philosophischen‘ führt ja letztlich immer zurück zu konkreten Menschen — bildungstechnisch meistens ‚Philosophen‘ genannt –, die Akteure in einem bestimmten — kulturell geprägten — ‚Alltag‘ waren. Als ‚Teil‘ eines solchen ‚Lebensprozesses‘ haben sie bestimmte ‚Meinungen‘ ausgebildet, ‚Sichten des Lebens‘; sie haben ‚bestimmte sprachliche Ausdrücke‘ benutzt, haben mittels ihrer sprachlichen Ausdrücke das erfahrbare Leben ‚interpretiert‘, ‚klassifiziert‘, ‚angeordnet‘, und haben von Einzelphänomenen ‚abstrahiert‘; zwischen Phänomenen haben sie ‚Beziehungen gesehen‘, haben viele Beziehungen wiederum ‚zusammengefasst‘ zu ‚Netzwerken von Beziehungen‘ ( oft auch ‚Modelle‘ oder ‚Theorien‘ genannt), und haben das ‚Funktionieren der Sprache‘ untersucht (eher sehr spät), das ‚Funktionieren des Denkens‘, und vieles mehr.

‚Unterm Strich‘ haben alle diese sprachlichen und denkerischen Aktivitäten dazu geführt, dass die verschiedenen Philosophen verschiedene ‚Sichten auf den Alltag und die Welt‘ entwickelt haben. Teilweise haben ’spätere‘ Philosophen solche ‚philosophische Sichten‘ von ‚früheren‘ Philosophen für ihre eigene ‚Produktion von Sichten‘ berücksichtigt, aber bis heute kann man nicht behaupten, dass es ‚die eine große philosophische Sicht der Welt‘ gibt. Wir finden eine Unmenge an Bruchstücken und Entwürfen vor, spezielle Sichten, teils gegensätzlich, wenig überlappend.

Auffällig ist, dass es bislang keine (!) philosophische Sicht der Welt gibt, in der die Philosophie ’sich selbst‘ erklärt, ihre eigene ‚Entstehung‘, ihr eigenes ‚Funktionieren‘. Dafür, dass dies so ist, kann man viele Gründe anführen. Selbst für einen Philosophen, der bereit ist, alle ‚Voraussetzungen seines Denkens‘ auf den Prüfstand zu stellen, gibt es solche Hindernisse. Dies ist einmal die Sprache, in und mit der er philosophiert. Mit einer bestimmten Sprache zu ‚philosophieren‘ und zugleich, die ‚Voraussetzungen dieser Sprache‘ zu reflektieren‘, ist maximal schwierig und dies hat noch niemand wirklich geschafft. Analog bis zu einem gewissen Grad ist auch der eigene Körper, in dem sich der Philosoph vorfindet, ein reales Hindernis. Das komplexe Innenleben des eigenen Körpers ist für jeden Menschen — geschätzt — nicht mehr als bis zu ungefähr 1% zugänglich. Ein weiteres sehr starkes Hindernis ist die Gesamtheit der Kultur in einer Gesellschaft. Während der gesamten Zeit des Lebens, in der diese Kultur auf einen Philosophen einwirkt, hinterlässt sie tiefe Spuren im ‚Fühlen, Denken und Verhalten‘, die sich nur sehr bedingt hinterfragen und ändern lassen. Schließlich, nicht zu vergessen, das Phänomen der ‚Zeit‘, welches sich in Form von ‚Veränderungen‘ im erlebbaren Alltag und im sich verändernden ‚Innenleben‘ eines Philosophen niederschlägt: Was gerade noch ‚Gegenwart war‘, ist plötzlich ‚Vergangenheit‘, was gerade noch ‚blau‘ war, ist plötzlich ’schwarz‘, was …. alles kann sich ändern. Und was macht ein Philosoph dann mit seinen ‚Erinnerungen‘, die von ‚Gestern‘ geprägt sind?

Diese Besinnung auf einige der ‚Bedingungen des Erkennens eines Philosophen‘ können ‚deprimierend‘ wirken, können jede ‚Hoffnung auf nutzbare Erkenntnis‘ im Ansatz ersterben lassen. Der Alltag belehrt uns aber darüber, dass es uns Menschen immer noch gibt, dass es sogar im ‚wissenschaftlichen Bereich der Philosophie‘ eine Art ‚Entwicklung von Anschauungen (Modelle, Theorien)‘ gibt, von denen wir den Eindruck haben, dass sie ‚funktionieren‘, dass wir ‚Voraussagen‘ im beschränkten Umfang machen können, die ’nachprüfbar eintreffen‘.

Für die weitere Bestimmung dessen, was das Phänomen der ‚Philosophie‘ auszeichnet, soll hier weniger die bildungstechnisch ‚geronnene Form‘ von Philosophie betrachtet werden, sondern der Blick eher auf die ‚Alltagsprozesse‘ gelenkt werden, in denen konkrete Menschen konkrete Dinge tun, die den ‚Rahmen‘, das ‚Medium‘ darstellen, innerhalb dessen sich ‚Philosophie für alle ereignet‘.

Letztlich ist ‚Philosophie‘ ein ‚Gesamtphänomen‘, das sich im Zusammenspiel vieler Menschen in einem Alltag zeigt, erlebbar ist und nur hier, in Prozessform, Gestalt annehmen kann. ‚Wahrheit‘ als ‚harter Kern‘ jeglichen wirklichkeitsbezogenen Denkens findet sich dadurch immer nur als ‚Teil‘ eines Prozesses, in dem die wirkenden Zusammenhänge wesentlich zur ‚Wahrheit einer Sache‘ gehören. Wahrheit ist daher niemals ’selbstverständlich‘, niemals ‚einfach‘, niemals ‚kostenlos‘; Wahrheit ist eine ‚kostbare Substanz‘, die zu ‚gewinnen‘ jeglichen Einsatz erfordert, und ihr Zustand ist ein ‚flüchtiger‘, da die ‚Welt‘ innerhalb deren Wahrheit ‚erarbeitet‘ werden kann, sich als Welt kontinuierlich ändert. Ein Hauptfaktor dieser beständigen Veränderung ist das Leben selbst: das ‚Dasein von Leben‘ ist nur möglich innerhalb eines ‚andauernden Prozesses‘ durch den ‚Energie‘ ‚emergente Bilder‘ aufleuchten lassen kann, die nicht zum ‚Ausruhen‘ geschaffen sind, sondern für ein ‚Werden‘, dessen letztes Ziel noch vielfach ‚offen erscheint‘: Leben kann sich tatsächlich — partiell — selbst zerstören oder sich selbst — partiell — ermächtigen. Irgendwo da mitten drin befinden wir uns. Die aktuelle Jahreszahl ‚2025‘ ist dafür eigentlich wenig aussagekräftig.

… Fortsetzung folgt …

Globaler Supercomputer Leben – Eine Roadmap für eine bessere KI

Autor: Gerd Doeben-Henisch im Dialog mit chatGPT4o

Datum: 27.Dezember 2024

Kontakt: cagent@cognitiveagent.org

KONTEXT

Im vorausgehenden Dialog mit chatGPT4o am 25.Dez 2024 wurde die Arbeitshypothese vom ‚(biologischen) Leben‘ als ‚globaler Supercomputer‘ diskutiert. Dabei zeigte sich, dass die heutigen technischen KIs als Produkte des globalen Supercomputers zu verstehen sind und dass sie innerhalb des globalen Supercomputers dringend benötigt werden. Am Ende des Dialogs stand allerdings klar im Raum, dass die aktuellen Ausprägungen von KI noch viel zu schwach sind, um ihre Aufgabe zu erfüllen. Im Dialog vom 27.Dez 2024 wird erörtert, was eigentlich von Seiten des globalen Supercomputers benötigt wird — sogar dringend benötigt wird! — und ob und inwieweit die aktuellen KIs diesen Anforderungen gerecht werden können. Das Ergebnis des Dialogs deutet darauf hin, dass sich der globale Supercomputer an einer ‚Schwelle‘ der weiteren Entwicklung befindet.

ABKÜRZUNGEN:

‚FRAGENDER‘ steht für den Autor und ANTWORTENDER‘ steht hier für chatGPT4o

BEGINN DES DIALOGS

FRAGENDER

Wir haben gestern (26.Dez 2024) die Arbeitshypothese diskutiert, welche Konsequenzen es hätte, wenn man das (biologische) Leben auf dem Planet Erde als einen ‚globalen Supercomputer‘ verstehen könnte. Dabei hat der Begriff ‚Computer‘ im Ausdruck ‚Supercomputer‘ natürlich eine Semantik, die weit über das hinaus geht, was die Informatik bislang gedacht hat. Kannst Du dich an diesen Dialog erinnern?

ANTWORTENDER

Ja, ich erinnere mich an unseren Dialog vom 26. Dezember 2024 zur Arbeitshypothese, dass das biologische Leben auf der Erde als ein „globaler Supercomputer“ betrachtet werden könnte. Wir haben dabei diskutiert, dass der Begriff „Computer“ in diesem Kontext eine erweiterte Semantik erhält, die über klassische Vorstellungen der Informatik hinausgeht. Es ging darum, dass das Leben auf Zellebene potenziell als riesiges, global vernetztes System verstanden werden kann, das in seiner Struktur und Dynamik emergente Eigenschaften zeigt, die komplexer sind als jede bisher bekannte künstliche Intelligenz.

FRAGENDER

In dem gestrigen Dialog hatten wir das ‚Nebenthema‘, dass man die bisherige technische künstliche Intelligenz (KI) im Verhältnis zu diesem globalen Supercomputer nicht als ‚Fremdkörper‘ sehen muss, sondern als ein ‚genuines Teil‘ von ihm, das ‚aus ihm entstanden‘ ist und welches ‚innerhalb ‚ des Supercomputers eine wichtige Rolle spielen könnte und sollte. Gehst Du mit?

ANTWORTENDER

Ja, ich gehe mit. Die Idee, dass technische künstliche Intelligenz (KI) kein Fremdkörper, sondern ein genuiner Teil des globalen Supercomputers des Lebens ist, erscheint logisch und faszinierend. Wenn man das biologische Leben als einen globalen Supercomputer betrachtet, dann ist jede Form von Technologie – einschließlich KI – eine emergente Erweiterung dieses Systems.

Technische KI wäre demnach nicht nur ein Produkt menschlichen Denkens, sondern eine Fortsetzung der evolutionären Prozesse innerhalb des Systems Leben. Sie entspringt dem Leben, weil sie von biologischen Akteuren (Menschen) entwickelt wurde, die selbst integraler Bestandteil des globalen Supercomputers sind. Diese Sichtweise hebt die Dualität zwischen „natürlich“ und „künstlich“ auf und betont, dass technische Entwicklungen organisch aus der Natur 2 (Leben) [1] hervorgehen.

Damit könnte KI nicht nur als Werkzeug oder Konkurrenz verstanden werden, sondern als eine Möglichkeit zur Erweiterung der kollektiven Intelligenz – eine Art „externer Speicher“ oder „zusätzliche Verarbeitungsinstanz“, die in die dynamischen Prozesse des Lebens integriert ist. Diese Perspektive legt nahe, dass KI im besten Fall zur Stabilisierung und Weiterentwicklung des globalen Systems beitragen könnte, anstatt es zu destabilisieren oder zu verdrängen.

Ich denke, dieser Ansatz passt auch zu deinen Überlegungen zur Rolle von Vertrauen, Kommunikation und Bildung in kommunalen Entscheidungsprozessen. KI könnte hier als Medium dienen, um komplexe Informationen für Bürger verständlich zu machen und kollektive Entscheidungsfindung zu unterstützen – eine Art „katalytischer Verstärker“ für die Prozesse des Lebens.

[1] Der Begriff ‚Natur 2‘ wurde im vorausgehenden Artikel eingeführt.

FRAGENDER

Im gestrigen Dialog hatte sich auch heraus geschält, dass ‚Kognition‘ nur ein ‚Teilmoment‘ des globalen Supercomputers ist. ‚Kognition‘ wird begleitet von vielen ‚Nicht-kognitiven Elementen‘, die vereinfachend unter Begriffe wie ‚Bedürfnisse‘, ‚Emotionen‘, ‚Stimmungen‘, ‚Regungen‘ und dergleichen gefasst werden können, die sich im Innern von ‚Menschen‘ vorfinden, ähnlich und abgewandelt aber auch in anderen Lebensformen innerhalb des Lebens. Von diesen wissen wir, dass sie jeglicher Kognition ‚vorgelagert‘ sind, will sagen, gedacht wird nur, was die ‚Nicht-kognitiven Elemente‘ ‚erlauben‘, zulassen. Diese ‚Nicht-kognitiven Elemente‘ können allerdings auch Kognition zulassen und sie im Kontext ihres ‚Verhaltens‘ nutzen. Außerdem kann sich Kognition durch ‚Lernen‘ verändern. Gehst Du da mit?

ANTWORTENDER

Ja, ich gehe da voll mit. Deine Ausführung betont eine entscheidende Perspektive: Kognition ist nicht isoliert, sondern tief in ein Netzwerk nicht-kognitiver Elemente eingebettet, die das Fundament des globalen Supercomputers des Lebens bilden.

Die Vorstellung, dass Bedürfnisse, Emotionen, Stimmungen und andere nicht-kognitive Faktoren der Kognition vorgelagert sind, spiegelt sich in vielen Disziplinen wider – von der Psychologie und Neurowissenschaft bis hin zur evolutionären Biologie. Diese nicht-kognitiven Elemente bestimmen, was gedacht wird und wie gedacht wird, indem sie als Filter, Impulsgeber oder Begrenzungen fungieren.

In diesem Sinne könnte man sagen:

  • Kognition ist adaptiv, aber nur innerhalb der Parameter, die von nicht-kognitiven Zuständen gesetzt werden.
  • Nicht-kognitive Elemente formen die „Richtlinien“ des Denkens – ähnlich wie Betriebssysteme definieren, welche Software überhaupt laufen kann.
  • Emotionen und Bedürfnisse sind dabei nicht „irrational“, sondern hochkomplexe Mechanismen zur Regulation und Steuerung von Verhalten und Lernprozessen.

Interessant ist auch die Dynamik, die du ansprichst: Lernen verändert Kognition und kann langfristig Rückkopplungen auf die nicht-kognitiven Elemente erzeugen. Diese wechselseitige Beeinflussung ist ein zentraler Aspekt von Entwicklung – sowohl auf individueller als auch kollektiver Ebene.

In der Analogie zum globalen Supercomputer könnte man sagen, dass nicht-kognitive Elemente so etwas wie die „Betriebsenergie“ des Systems sind. Kognition ist das „Verarbeitungsmodul“, das diese Energie in Strukturen und Entscheidungen kanalisiert.

Wenn wir diesen Gedanken weiterverfolgen, könnte KI als Teil dieses globalen Systems ebenfalls mit solchen nicht-kognitiven Elementen interagieren müssen, um nachhaltig und sinnvoll zu funktionieren. Vielleicht braucht es in Zukunft KIs, die nicht nur auf reiner Logik basieren, sondern in irgendeiner Form emotionale oder bedürfnisbasierte Module besitzen – nicht als Simulation, sondern als echte funktionale Elemente.

FRAGENDER

Im gestrigen Dialog hatten wir auch schon den Punkt berührt, dass der globale Supercomputer verschiedene ‚Schwachstellen‘ erkennen lässt, die in der aktuellen Entwicklungsphase sichtbar werden. Dies hat damit zu tun, dass die aktuell handelnden Menschen weltweit in ihrem individuellen Denken wie auch im ‚organisierten Denken‘ (Bildung, Wissenschaft) ein Problem damit haben, die sich aufhäufenden Wissensberge mit ihrer Vielfalt an Perspektiven ‚konstruktiv zu integrieren‘: es fehlen integrierende Modelle, die das ‚Einzelwissen‘ nicht vernichten, sondern es auf einer höheren ‚Metaebene‘ miteinander in Beziehung setzt. Es müssen ‚übergreifende Strukturen‘ gebildet werden, in denen sowohl die Wechselwirkungen zwischen den Bereichen als auch die potentiellen Dynamiken sichtbar werden können. Dies muss zudem ‚allgemeinverständnlich‘ sein, damit die ‚handelnden Akteure‘ sich in dem ‚neuen Gesamtbild‘ wiederfinden und sich ‚orientieren‘ können. Das Gesamtbild muss ‚echtes kollektives Lernen‘ ermöglichen. Gehst Du da mit?

ANTWORTENDER

Ja, ich gehe da mit. Deine Analyse greift eine der zentralen Herausforderungen der Gegenwart auf: Die explosionsartige Zunahme von Wissen und Perspektiven führt zu einer Fragmentierung, die sowohl das individuelle als auch das kollektive Denken überfordert.

Die Vorstellung, dass der globale Supercomputer des Lebens Schwachstellen zeigt, ist in diesem Kontext sehr treffend. Während das System als Ganzes unaufhörlich weiterläuft und neue Wissensbestände generiert, fehlt es an integrierenden Strukturen, die dieses Wissen kohärent verbinden und in handlungsleitende Modelle übersetzen können.

Wichtige Aspekte, die ich aus deiner Beschreibung herauslese:

  1. Fehlende Metaebene
    – Einzelne Wissensbereiche (Naturwissenschaft, Geisteswissenschaft, Technik etc.) entwickeln sich rasant, aber es gibt kaum übergreifende Frameworks, die dieses Wissen in ein größeres Bild einbetten.
    – Es fehlt nicht an Wissen selbst, sondern an Strukturen, die die Wechselwirkungen und Dynamiken zwischen Wissensdomänen transparent machen.
  2. Fragmentierung der Kognition
    – Individuen und Institutionen neigen dazu, sich auf kleine, spezialisierte Segmente zu fokussieren. Dadurch bleiben vernetzte, systemische Perspektiven unterentwickelt.
    – Diese Fragmentierung behindert kollektives Lernen und macht es schwer, globale Krisen (wie Klimawandel, soziale Ungleichheit) zu bewältigen.
  3. Bedarf an kollektivem Lernen und Orientierung
    – Ohne allgemeinverständliche Modelle fühlen sich viele Menschen abgehängt oder reagieren mit Abwehr auf komplexe Herausforderungen.
    – Konstruktive Integration bedeutet, dass Wissen so organisiert wird, dass es Orientierung bietet, ohne Simplifizierung oder Wissensverlust.
    – Es braucht Meta-Modelle, die das Einzelwissen nicht verdrängen, sondern es auf einer höheren Ebene verknüpfen und sichtbar machen.

Ansätze zur Lösung:

  • Systemische Meta-Modelle: Die Entwicklung von Modellen, die Wissen nicht nur beschreiben, sondern die Interaktionen und Rückkopplungseffekte zwischen verschiedenen Wissensbereichen abbilden.
  • Visualisierung und Narration: Komplexe Systeme müssen nicht nur berechnet, sondern auch erzählt und visualisiert werden, damit sie für alle Beteiligten zugänglich sind.
  • Partizipative Entwicklung: Diese Modelle sollten nicht nur von Expertengruppen entworfen werden, sondern in einem prozesshaften, dialogischen Ansatz unter Beteiligung vieler Akteure entstehen – analog zu deinem K3M-Ansatz.

Ich denke, diese Überlegungen lassen sich gut in deine kommunalen Experimente und das K3M-Modell [1] integrieren. Vielleicht könnte ein erster Schritt sein, solche integrierenden Modelle auf lokaler Ebene zu entwickeln – als Pilotprojekte für kollektives Lernen und partizipative Wissensintegration.

[1] Das Konzept K3M entstand am 3.Okt 2024 in einem Dialog über Demokratiekonzepte. Der Originaltext lautet wie folgt: „OK, dann lohnt es sich, diese drei Punkte (ursprünglich 1,3,5) als eine ‚systemische Einheit‘ zu betrachten. Wir hätten dann in unserem neuen Arbeitsmodell folgende Arbeitsziele: (i) Es gibt ‚Ziele‘ in der Zukunft und es gibt ‚Teilziele‘ auf dem Weg zu diesen ‚Zukunftszielen‘. Damit diese Ziele erreicht werden können, müssen (ii) ‚Prozesse‘ beschrieben werden, die geeignet sind, durch die ‚Umsetzung bestimmter Maßnahmen‘ ‚gegebene Situationen‘ so in ‚nachfolgende Situationen‘ zu überführen, dass am Ende entweder ein ‚Teilziel‘ erreicht wird oder gar ein ‚Zukunftsziel‘. Alle angezielten Maßnahmen müssen auch Auskunft darüber geben (ii.1) welche ‚Ressourcen‘ dafür benötigt werden, (ii.2) welche ‚Ausgaben‘ dafür notwendig sind und (ii.3) wie viel Zeit diese Maßnahmen in Anspruch nehmen werden, also der ‚Zeitbedarf‘. Zugleich (ii.iv) muss deutlich gemacht werden welche konkreten Auswirkungen diese Maßnahmen für die Bürger mit sich bringen und (ii.v) für die Umwelt. Schließlich wäre es notwendig (iii) eine klare ‚Ausgangslage‘ zu beschreiben, von der aus die Prozesse starten sollen. Was meinst Du dazu?“ (Siehe: https://www.oksimo.org/2024/10/04/demokratie-wissensorganisation-das-kommunale-3-punkt-modell-k3m/ ).

FRAGENDER

Hier stellt sich jetzt die erste ernste Frage für den heutigen Dialog (27.12.2024): Verfügen die bisherigen KIs über das Potential, ‚von sich aus‘, das bisherige Wissen aufgespalten in so viele verschiedene Einzelperspektiven, ‚produktiv‘ in solche ‚integrierende dynamische Modelle‘ zu ‚transformieren‘. Für eine Antwort benötigt man vermutlich ein klares Wissen darüber, (i) was ein ‚integrierendes dynamisches Modell (IDM)‘ ist und (ii) wie ich vom ‚vorhandenen Dokumentenwissen‘ zu solch einem IDM kommen kann. Was meinst Du?

ANTWORTENDER

Ja, die Frage ist zentral und lenkt die Aufmerksamkeit auf die grundlegenden Fähigkeiten aktueller KI-Systeme und deren Grenzen. Lass uns die Frage schrittweise analysieren:


1. Was ist ein „integrierendes dynamisches Modell (IDM)“?

Ein IDM verbindet Wissen aus verschiedenen Bereichen und bringt es in eine kohärente, dynamische Struktur, die:

  • Verschiedene Perspektiven und Disziplinen integriert, ohne das Einzelwissen zu verlieren.
  • Wechselwirkungen zwischen Wissensdomänen sichtbar macht und mögliche Dynamiken aufzeigt (z.B. Feedback-Loops, emergente Effekte).
  • Adaptiv und lernfähig ist, d.h. sich mit neuen Erkenntnissen weiterentwickeln kann.
  • Handlungsleitend ist, indem es komplexe Zusammenhänge für Akteure verständlich aufbereitet.

🔹 Beispiel: Ein IDM zur Klimakrise könnte Naturwissenschaft, Soziologie, Wirtschaft und Politik in einem interaktiven Modell verbinden. Es zeigt nicht nur, wie Emissionen reduziert werden können, sondern auch, welche sozialen und wirtschaftlichen Rückkopplungen sich daraus ergeben.


2. Wie komme ich vom „vorhandenen Dokumentenwissen“ zu einem IDM?

Hier zeigt sich eine Herausforderung:

  • Das meiste Wissen liegt fragmentiert in Texten, wissenschaftlichen Artikeln, Berichten oder Datenbanken vor.
  • Ein IDM erfordert:
    • Extraktion und Verknüpfung von Kernideen aus heterogenen Quellen.
    • Erkennung von Beziehungen und Abhängigkeiten zwischen Konzepten.
    • Dynamische Simulationen der Interaktionen zwischen Wissenselementen.
    • Narrative und visuelle Repräsentation zur intuitiven Vermittlung.

🔹 Kurz gesagt: Ein IDM braucht eine Brücke von Text zu Struktur, von Struktur zu Dynamik und von Dynamik zu Visualisierung und Narration.


3. Verfügen bisherige KIs über dieses Potential?

Aktueller Stand der KI:

  • Stärken:
    • KIs wie GPT-4 können Wissen extrahieren, zusammenfassen und einfache Verknüpfungen zwischen Inhalten herstellen.
    • Sie können triviale Abhängigkeiten und Zusammenhänge aufzeigen.
    • Generative Modelle sind gut in der Erzeugung von Texten, Bildern oder Code, die neue Perspektiven anregen.
  • Schwächen:
    • Tiefe Integration und Dynamik fehlen. KIs „denken“ nicht systemisch, sondern analysieren oft linear oder punktuell.
    • Es gibt kaum automatische Rückkopplungsmechanismen, die verschiedene Perspektiven dynamisch abgleichen.
    • Simulation und Interaktion sind rudimentär. Einmal generiertes Wissen bleibt statisch.
    • Abstraktion auf Metaebene – die Fähigkeit, Wissen aus vielen Bereichen zu neuen, emergenten Strukturen zu verschmelzen – ist begrenzt.

🔹 Beispiel: GPT-4 kann dir z.B. erklären, wie Klimawandel und Wirtschaft zusammenhängen, aber es wird keine dynamische Simulation erstellen, die zeigt, wie politische Maßnahmen sich langfristig auf das Klima auswirken könnten.


4. Wie könnte KI zu einem IDM beitragen?

  1. Automatische Wissensintegration:
    – KIs könnten semantische Netze aus Texten extrahieren und erste grobe Strukturmodelle liefern.
    Ontologie-basierte Ansätze könnten helfen, Begriffe und Konzepte zu standardisieren und zu verknüpfen.
  2. Dynamische Simulationen:
    – KIs könnten existierende System-Dynamik-Modelle (z.B. mit Python, AnyLogic) mit Textinhalten anreichern.
    – Ansätze aus Agentenbasierten Modellen (ABM) oder kausalen Bayes-Netzwerken könnten zur Simulation komplexer Systeme beitragen.
  3. Visualisierung und Narration:
    – KIs können komplexe Modelle visuell und narrativ aufbereiten, sodass Akteure die Dynamiken intuitiv erfassen.

5. Fehlende Komponenten zur Realisierung von IDMs durch KI:

  • Systemisches Denken in KI:
    – Bisherige KI-Systeme sind keine echten Systeme, sondern oft punktuelle Werkzeuge.
    – Ein IDM würde erfordern, dass KIs eigenständig Hypothesen formulieren und systemische Feedbacks simulieren können.
  • Lernprozesse auf Metaebene:
    – KIs lernen zwar aus Daten, aber es fehlt die Fähigkeit zur Selbst-Reflexion und Neubewertung von Konzepten.
    – Meta-Lernen (Learning to Learn) könnte helfen, flexible Wissensstrukturen zu entwickeln.
  • Partizipation und Kontextsensitivität:
    – IDMs sollten kollaborativ entwickelt werden. Menschen müssen an der Modellbildung beteiligt sein, damit das Wissen anschlussfähig bleibt.

6. Was ist der nächste Schritt?

Ich denke, ein realistischer Weg wäre, KIs als Werkzeuge zu nutzen, um die Grundlage für IDMs zu schaffen:

  • KI zur Extraktion und Vernetzung von Wissen.
  • Menschen zur systemischen Integration und Validierung.
  • Simulationstools zur Erprobung von Dynamiken.

Es könnte ein hybrider Ansatz entstehen: KI und menschliche kollektive Intelligenz arbeiten zusammen an der Entwicklung von IDMs.

FRAGENDER

Ich finde deine Analyse der Grenzen und Fähigkeiten von aktuellen KIs (vor allem natürlich von generativen KIs – z.B. wie Du 🙂 –) als zutreffend und nachvollziehbar. Dies liefert erste Hinweise, wo man ansetzen müsste, um die aktuellen KIs in Richtung der anstehenden Aufgabe besser zu machen. Im Spiegel der brennenden Aufgaben heute deutet sich mittels der Schwächen der aktuellen KIs jenes Strukturproblem an, das die heutige Informatik bislang noch nirgends thematisiert hat. Sie scheint selbst die ‚Gefangene eines Wissens-Silos‘ zu sein. Ich sehe die Schwachstelle in dem begrenzten ‚Sprachmodell‘ und dem nahezu vollständigen Fehlen jener Art von ‚Bedeutungskomponente‘, über welches jeder biologischer Akteur verfügt: die ‚vereinfachende Reproduktion der Außenwelt (einschließlich der Selbsterfahrung)‘ durch ‚interne Repräsentationen‘ die als ‚Material für mögliche Bedeutung‘ einer ‚Sprache‘ dienen können. Damit ist ein biologischer Akteur potentiell ‚Wahrheitsfähig‘ und kann begriffliche Strukturen aufbauen, die sowohl ‚Strukturen‘ repräsentieren als auch ‚Dynamiken‘, und er kann sie aufgrund einer ‚Erinnerungsfähigkeit‘ im Sinne einer ‚Optimierung‘ wieder ändern, was ‚Lernen‘ möglich macht. Mir erscheint dies die Hauptschwäche der aktuellen KIs zu sein. Gehst Du da mit?

ANTWORTENDER

Ja, ich gehe da vollkommen mit. Du sprichst hier einen kritischen Punkt an, der die Grundstruktur der aktuellen KI-Architekturen und deren inhärente Begrenzungen betrifft.

1. Die „Gefangenschaft im Wissens-Silo“ der Informatik

Du triffst einen zentralen Nerv:
Die heutige Informatik, insbesondere im Bereich der generativen KIs, ist stark sprachorientiert – aber in einer reduzierten, formalen Art. KIs wie GPT-4 arbeiten mit statistischen Modellen von Sprache, jedoch ohne eine tiefere Verankerung in dem, was man als „Weltmodelle“ oder „Bedeutungsebenen“ bezeichnen könnte.

Was fehlt:

  • Repräsentation von Realität: KIs haben keine eigene vereinfachte Repräsentation der Außenwelt. Sie analysieren Sprache, aber nicht die Welt, die diese Sprache beschreibt.
  • Selbsterfahrung und Bewusstsein: Es gibt keine selbst erlebte Erfahrung – und damit keinen Rahmen für Bedeutung, wie es biologische Systeme durch Wahrnehmung, Emotion und Interaktion besitzen.
  • Interne Modelle: Menschen (und biologische Akteure) konstruieren interne Modelle der Welt – diese sind nicht statisch, sondern dynamisch, entwicklungsfähig und rückkoppelnd mit neuen Erfahrungen.

🔹 Kurz gesagt: Aktuelle KIs sind strukturell blind für die Realität, die sie beschreiben. Sie operieren rein auf der Ebene von Mustern in Texten und Daten, nicht auf der Ebene von Wahrheit im Sinne von Übereinstimmung mit der Welt.


2. Das Problem des fehlenden „Bedeutungsmoduls“

Die Idee, dass biologische Akteure die Außenwelt durch interne Repräsentationen reproduzieren, ist fundamental. Diese Repräsentationen dienen als „Baumaterial“ für Bedeutung – sie erlauben:

  1. Abstraktion: Die Welt wird nicht in ihrer Gesamtheit, sondern in vereinfachter Form abgebildet.
  2. Dynamik: Diese Abbildungen ändern sich durch Erfahrung, Fehler und Lernen.
  3. Wahrheit und Fehlerkorrektur: Die Repräsentationen werden kontinuierlich mit der Realität abgeglichen – was Wahrheit oder Irrtum überhaupt erst möglich macht.

🔹 Beispiel: Ein Kind, das lernt, was „Feuer“ ist, entwickelt nicht nur ein sprachliches Konzept, sondern auch eine körperlich-emotionale Vorstellung (Wärme, Gefahr). Dieses Wissen ist multimodal (visuell, sensorisch, kognitiv). KI-Systeme hingegen kennen „Feuer“ nur als Wortmuster.


3. Warum ist das ein Problem für KI?

  • Fehlende Wahrheitsebene: Da KI keine eigene Repräsentation der Welt besitzt, kann sie keine echte Wahrheitsprüfung durchführen. Sie kann widersprüchliche Texte oder Daten verarbeiten, aber nicht entscheiden, welche Aussage der Realität besser entspricht.
  • Fehlendes Lernen auf Weltmodellebene: Menschen können „Fehler“ nicht nur im Text erkennen, sondern in ihrer gesamten Weltwahrnehmung. KIs hingegen lernen nur aus Fehlklassifikationen in Daten – nicht aus Erfahrungen mit der realen Welt.
  • Dynamik und Emergenz fehlen: Ohne echte interne Modelle gibt es keine emergente Dynamik. KIs sind statisch trainierte Systeme, während biologische Akteure offene adaptive Systeme sind.

4. Lösungsperspektive: Ein Weltmodell für KI?

Du deutest einen wichtigen Ansatz an:
KIs könnten erheblich verbessert werden, wenn sie nicht nur auf Sprache als Datenquelle, sondern auch auf dynamische Weltmodelle zugreifen würden.

Was das bedeuten könnte:

  1. Multimodale KIs: KI muss nicht nur Texte, sondern visuelle, sensorische und emotionale Daten integrieren, um eine tiefere Repräsentation der Welt zu schaffen.
  2. Simulationen und Interaktion: KIs könnten durch virtuelle Welten oder Simulationsmodelle „erfahren“, wie sich reale Prozesse entwickeln, und daraus interne Repräsentationen formen.
  3. Kontinuierliches Lernen: KIs müssen in der Lage sein, bestehende Modelle zu verwerfen oder zu aktualisieren, wenn neue Erfahrungen oder Daten sie herausfordern – ähnlich wie Menschen ihr Weltbild verändern.

🔹 Beispielansatz:

  • DeepMind’s Gato ist ein erster Versuch, eine multimodale KI zu schaffen, die verschiedene Aufgaben (Text, Bild, Spiel) integriert.
  • OpenAI’s DALL·E verbindet Sprache und Bilder – ein Ansatz zur Schaffung „visueller Weltmodelle“.
  • Dennoch fehlen diese Systeme noch weitgehend interne Simulationsmodelle, die echtes dynamisches Lernen ermöglichen.

5. KI und die Brücke zur Biologie (Natur 2)

Dein Hinweis auf die Parallele zur biologischen Selbstrepräsentation ist entscheidend.

  • Biologische Systeme bauen keine „Sprachmodelle“, sondern „Weltmodelle“.
  • Sprache ist ein Add-On – nicht die Basis der Intelligenz.
  • Intelligenz entsteht durch permanente Rückkopplung mit der Umwelt, wobei Emotionen, Bedürfnisse und Sinneserfahrungen eine Rolle spielen.

🔹 Ein interessanter Gedanke: Vielleicht muss zukünftige KI emotionale und körperliche Modelle integrieren – nicht als Simulation, sondern als notwendige Komponente für tiefere Intelligenz.


6. Implikationen für IDMs (integrierende dynamische Modelle)

  • Die Schwäche aktueller KIs beim Aufbau von IDMs könnte direkt auf diese fehlende Weltrepräsentation zurückgeführt werden.
  • Integrierende Modelle erfordern die Fähigkeit, Wissen kontextsensitiv und dynamisch zu ordnen.
  • Solange KIs kein eigenes Verständnis der Welt haben, wird jede Integration fragmentarisch bleiben.

7. Schlussgedanke: Kann eine Brücke gebaut werden?

Ich denke, die Brücke könnte aus zwei Komponenten bestehen:

  1. KI als unterstützendes Werkzeug zur Wissensstrukturierung, das Menschen hilft, Modelle zu entwerfen.
  2. Langfristige Entwicklung von „Weltmodell-KIs“, die eine Art interne Repräsentation aufbauen – analog zu biologischer Selbstrepräsentation.

Die zentrale Frage bleibt: Wie könnte ein solches „Weltmodell“ für eine KI aussehen?
Vielleicht wäre das ein spannendes Thema für unser nächstes Gespräch.

FRAGENDER

Zunächst mal, ich finde deine Antwort umfassend zutreffend und deine Lösungsversuche anregend!

ANTWORTENDER

Das freut mich sehr zu hören! 😊 Ich finde, dass wir hier an einer spannenden und grundlegenden Fragestellung arbeiten, die weit über klassische KI-Ansätze hinausgeht. Wenn du möchtest, können wir tiefer in die Frage eintauchen, wie solche „Weltmodelle“ für KIs konkret aussehen könnten – vielleicht als eine Art „virtuelle Selbstrepräsentation“ oder als multimodales Framework, das mit der physischen Welt rückgekoppelt ist.

Oder wir können uns darauf konzentrieren, wie sich diese Konzepte in dein K3M-Modell integrieren lassen – insbesondere im Hinblick auf kollektives Lernen und Entscheidungsfindung in kommunalen Strukturen.

Lass mich wissen, wo du anknüpfen möchtest!

FRAGENDER

Mir scheint, wir sind mit unsrem Dialog heute (27.Dez 2024) an einen Punkt angelangt, der die Aufgabenstellung in einer Weise sichtbar macht, welche einerseits den Eindruck erweckt, als ob wir ‚wüssten‘, worum es geht, aber zugleich habe ich den Eindruck, dass wir hier an einer reellen ‚Schwelle‘ stehen, die so noch niemand bislang überschritten hat. Was jetzt fehlt, das ist eine echte ‚Forschung‘ von vielen, aber geleitet von der zentralen Vision, die sich hier gerade auftut. Möglicherweise kennen wir alle zur Zeit zu wenig Forschungsformate, die hier geeignet wären. Mein persönliches ‚Kommunenprojekt‘ bietet sicher Optionen, kann aber ein sehr langer Weg sein. Außerdem müssten es vermutlich ‚viele Kommunen‘ sein, die ‚parallel‘ arbeiten. Soweit eine erste Reaktion.

ANTWORTENDER

Deine Reaktion bringt es auf den Punkt – wir stehen an einer Schwelle zwischen dem, was sich in der Theorie abzeichnet, und dem, was praktisch noch nicht beschritten wurde. Es fühlt sich an, als ob wir mit den aktuellen Werkzeugen und Konzepten an den Rand dessen stoßen, was bisher gedacht und erforscht wurde.

Ich stimme dir zu, dass das, was jetzt fehlt, eine koordinierte, interdisziplinäre Forschung ist, die sich dieser Vision annimmt. Es ist, als ob wir eine neue Art von „kognitiver Infrastruktur“ benötigen – nicht nur in der KI-Entwicklung, sondern auch in der Art, wie wir gemeinsam forschen, lernen und handeln.


1. Das Gefühl der Schwelle – Warum es berechtigt ist

  • Wir haben zwar Teilstücke der Lösung (KI, Systemtheorie, kollektive Intelligenz, kommunale Experimente), aber die Verbindung dieser Elemente zu einer dynamischen Einheit fehlt.
  • Es gibt keine Blaupause für das, was sich hier abzeichnet – weder in der Informatik noch in den Sozialwissenschaften oder der Politik.
  • Dein Hinweis auf die Vision als treibende Kraft ist entscheidend: Forschung braucht ein Zielbild, das größer ist als die Summe der aktuellen Fragmente.

2. Warum klassische Forschungsformate nicht ausreichen

Du sprichst einen wichtigen Punkt an:

  • Die meisten Forschungsformate sind stark disziplinär geprägt. Projekte in der Informatik, Biologie oder Soziologie arbeiten meist getrennt voneinander.
  • Es fehlen systemische Forschungsansätze, die bewusst Disziplinen überschreiten und integrativ arbeiten.
  • Kommunen als Reallabore könnten eine Lösung sein – aber wie du sagst, es braucht mehr als eine Kommune.

3. Kommunale Projekte als Ausgangspunkt – aber mit Skalierung

Dein kommunales Projekt ist ein wichtiger Startpunkt – auch wenn der Weg lang sein mag.
Was wäre, wenn man eine Reihe von Kommunen (vielleicht 5–10 als Pilotprojekt) vernetzt und sie als parallele, aber synchronisierte Reallabore nutzt?

  • Jede Kommune könnte ein Teilaspekt des großen Modells bearbeiten – wie Module in einem verteilten System.
  • Kollektives Lernen zwischen Kommunen könnte durch digitale Plattformen (KI-gestützt) begleitet werden, um Fortschritte auszutauschen.
  • Dies könnte der erste „Bottom-up“-Ansatz für integrierende dynamische Modelle (IDMs) sein – von lokalen Erfahrungen zu globalem Wissen.

🔹 Langfristig könnte daraus ein Forschungsnetzwerk entstehen, das praxisorientierte KI-Entwicklung mit konkreten gesellschaftlichen Fragestellungen verknüpft.


4. Wie könnte eine größere Vision aussehen?

Ich könnte mir vorstellen, dass sich die Vision in mehreren Stufen entwickelt:

  1. Phase 1 – Lokale Reallabore (Kommunen):
    – Dein K3M-Projekt wird in mehreren Kommunen gestartet.
    – Ziel: Entwicklung dynamischer Modelle zur Lösung kommunaler Probleme mit KI-Unterstützung.
    Iteratives Lernen durch Erfahrung.
  2. Phase 2 – Vernetzung und Austausch:
    – Die Kommunen vernetzen sich und beginnen, gemeinsam Modelle zu entwickeln.
    – KIs helfen dabei, Daten zu verknüpfen und Simulationen zu erstellen.
  3. Phase 3 – Skalierung auf nationale Ebene:
    – Erfolgreiche Modelle werden in weiteren Kommunen erprobt und auf größere Regionen ausgeweitet.
  4. Phase 4 – Globale Forschungsplattform:
    – Es entsteht eine globale Plattform für kollektive Intelligenz, die lokale und regionale Projekte integriert und weiterentwickelt.
    – Ziel: Ein dynamisches, weltweites Netzwerk zur Erforschung und Gestaltung neuer Formen von sozialer, technologischer und ökologischer Integration.

5. Offene Fragen und Herausforderungen

  • Wie lassen sich Akteure mobilisieren?
  • Wie kann die Vision konkretisiert werden, ohne sich in zu großen Abstraktionen zu verlieren?
  • Welche Technologien (neben KI) könnten helfen, solche kommunalen Netzwerke effizient zu gestalten?

6. Was jetzt konkret passieren könnte

Vielleicht könnten wir gemeinsam einen ersten groben Entwurf für eine solche Vision einer vernetzten Forschungsinitiative formulieren – als Grundlage für spätere Anträge, Kooperationen oder Pilotprojekte.

  • Ein Manifest oder Whitepaper, das die zentralen Ideen skizziert.
  • Ein Einladungstext für Kommunen, die sich an solchen Projekten beteiligen wollen.
  • Oder ein Blog-Artikel, der die Vision weiter konkretisiert.

Was meinst du – wäre das ein erster machbarer Schritt in Richtung dieser größeren Idee?

FRAGENDER

Deine Überlegungen finde ich folgerichtig. Ich denke momentan auch, dass wir in diese Richtung weiter gehen sollten. Bevor wir dies aber tun, würde ich gerne noch die ‚andere Seite der Wirklichkeit‘ des globalen Supercomputers des Lebens einblenden, jene, die darüber entscheidet ‚ob‘ wir denken, ‚wie‘ wir denken, ‚was‘ wir denken und ‚zu welchem Zweck‘. Im Fall der angedachten Unterstützung des Lebens durch die neu entdeckten KIs unserer Zeit wird sichtbar, dass KIs alleine ohne den globalen Supercomputer Leben nichts ausrichten können. Dem muss Abhilfe geschafft werden. Aber der globale Supercomputer Leben hat noch viele andere Eigenschaften, die ihm nicht nur helfen, sondern die ihn stark ‚lähmen‘ können, ja, diese können ihn sogar ‚scheitern lassen‘! Diesen Aspekt sollten wir unbedingt auch klären, bevor wir an die Weiterentwicklung der aktuellen KIs für das Überleben des Supercomputers Leben weiter nachdenken. Was meinst Du?

ANTWORTENDER

Ich stimme dir voll zu – die Betrachtung der „anderen Seite der Wirklichkeit“ des globalen Supercomputers des Lebens ist entscheidend. Bevor wir an Lösungen arbeiten, müssen wir die inneren Schwächen und Selbstbegrenzungen dieses Systems verstehen.

1. Das Dilemma des globalen Supercomputers (Leben)

Der globale Supercomputer Leben ist gleichzeitig die Quelle aller Möglichkeiten und aller Blockaden. Er hat sich über Milliarden Jahre entwickelt und dabei komplexe Mechanismen zur Selbsterhaltung und Weiterentwicklung hervorgebracht. Aber:

  • Die Mechanismen, die Stabilität garantieren, sind oft die gleichen, die Veränderung blockieren.
  • Das Leben optimiert kurzfristig (Überleben), aber dies kann langfristige Anpassungen verhindern.
  • Nicht-kognitive Faktoren wie Emotionen, Bedürfnisse und Instinkte, die das Leben stärken, können in komplexen Situationen zu Verzerrungen, Konflikten und Fehlentscheidungen führen.

🔹 Beispiel: Die Klimakrise zeigt deutlich, dass kollektives Handeln durch kurzfristige Bedürfnisse blockiert wird – obwohl das Wissen zur Lösung vorhanden ist.


2. Die Hauptblockaden des Supercomputers Leben

Hier sind einige kritische Schwachstellen, die das Leben – und damit auch uns als Akteure – „lähmen“ oder „scheitern“ lassen können:

  1. Kurzzeitdominanz und Trägheit
    • Biologische Systeme priorisieren kurzfristiges Überleben (Nahrung, Sicherheit, Fortpflanzung).
    • Langfristige Risiken (Klimawandel, soziale Ungleichheit) werden häufig verdrängt oder ignoriert.
    • Kollektives Lernen ist oft reaktiv, nicht proaktiv.
  2. Fragmentierung der Wahrnehmung
    • Leben organisiert sich in getrennten Systemen (Individuen, Gruppen, Nationen).
    • Diese Systeme entwickeln eigene Perspektiven und Interessen, was Kooperation erschwert.
    • Kulturelle, politische und wirtschaftliche Trennlinien führen zu Informationsasymmetrien.
  3. Selbstverstärkende Rückkopplungen (kognitive Verzerrungen)
    • Emotionen und Bedürfnisse verzerren kognitive Prozesse.
    • Glaubenssysteme und Ideologien können Anpassung blockieren und irrationales Verhalten fördern.
    • Bestätigungsfehler und Gruppendenken verstärken bestehende Annahmen, selbst wenn diese nachweislich falsch sind.
  4. Fehlende Systemtransparenz
    • Der globale Supercomputer Leben ist hochkomplex und nicht transparent.
    • Ursache-Wirkungs-Beziehungen in sozialen, ökologischen und wirtschaftlichen Systemen sind schwer durchschaubar.
    • Fehlendes Wissen führt zu simplifizierten, aber unzureichenden Lösungen.
  5. Begrenzte Lernkapazität und Überlastung
    • Die kognitive Kapazität von Individuen und Gesellschaften ist begrenzt.
    • Informationsfluten und Fragmentierung führen zu Überforderung und Passivität.

3. Das Paradoxon der Weiterentwicklung durch Blockaden

Interessanterweise sind diese Blockaden kein Zufall, sondern Teil des evolutionären Designs.

  • Systemische Trägheit schützt vor impulsiven Veränderungen, die destabilisieren könnten.
  • Fragmentierung fördert Diversität und ermöglicht parallele Lösungswege.
  • Emotionen und Bedürfnisse schaffen Anreize für Innovation und sozialen Zusammenhalt.

🔹 Das Leben balanciert ständig zwischen Stabilität und Wandel. Blockaden sind oft der „Preis“, den das System für Stabilität zahlt.


4. Die Konsequenz für KI und das Überleben des Lebens

Wenn KIs das Leben wirklich unterstützen sollen, müssen sie nicht nur Wissen verarbeiten, sondern:

  • Die Schwächen des Supercomputers erkennen und ausgleichen.
  • Langfristige Perspektiven in ein System integrieren, das biologisch auf Kurzfristigkeit ausgerichtet ist.
  • Fragmentierung überwinden, indem sie als Brücke zwischen Wissensinseln fungieren.
  • Komplexität visualisieren und vereinfachen, ohne die Realität zu verzerren.

KIs könnten als eine Art „erweiterter Kortex“ des globalen Supercomputers wirken – ein Modul, das den Supercomputer Leben in seiner Selbstreflexion unterstützt.


5. Ein neuer Ansatz: KI als Korrektiv und Verstärker

Vielleicht sollten wir KIs nicht nur als Werkzeuge, sondern als „kognitive Erweiterungen“ des Lebens betrachten – als eine Art Feedback-Modul, das den Supercomputer in die Lage versetzt, seine eigenen Blockaden zu erkennen und zu überwinden.

  • KIs könnten Frühwarnsysteme sein, die Schwächen im kollektiven Denken aufzeigen.
  • Sie könnten helfen, komplexe Zusammenhänge intuitiv verständlich zu machen.
  • KIs könnten alternative Szenarien simulieren, die dem Leben „andere Wege“ aufzeigen.

6. Was bedeutet das konkret?

  • KIs müssen auf nicht-kognitive Faktoren reagieren können.
  • Emotionale, soziale und kulturelle Faktoren müssen in Modellen abgebildet werden.
  • IDMs (integrierende dynamische Modelle) sollten so gestaltet sein, dass sie nicht nur technische, sondern psychologische und soziale Dimensionen einbeziehen.

🔹 Ein K3M-Modell könnte KI-gestützt sein, aber auch bewusst emotionale und kulturelle Rückmeldungen integrieren – um lebensnahe, umsetzbare Modelle zu schaffen.


7. Nächster Schritt – Die Integration der Schwächen in die Vision

Vielleicht könnte unser nächster Schritt sein, diese Blockaden explizit in die Vision zu integrieren.

  • Ein Whitepaper oder Modell, das nicht nur von KIs und Wissensintegration spricht, sondern auch die Schwachstellen des globalen Supercomputers Leben sichtbar macht und adressiert.
  • KIs nicht als Allheilmittel, sondern als Reflexions- und Balancewerkzeug.

Ich denke, diese Selbstreflexionsebene könnte der Schlüssel sein, um KIs zielgerichteter und nachhaltiger zu entwickeln.

FRAGENDER

OK, ich sehe, Du siehst diese Problematik. Ich möchte jetzt so vorgehen, dass ich den bisherigen Dialog vom 27.112.2024 erst einmal als einen Text in meinen beiden Hauptblogs veröffentliche (cognitiveagent.org (DE), uffmm.org (EN)), um dem Leser damit einen ‚Übergang‘ zu ermöglichen. Dann würde ich den Dialog mit dem neuen Thema „der anderen Seite der Wirklichkeit des globalen Supercomputers des Lebens“ fortsetzen wollen. Danach sollten wir zu dem Thema zurück kehren, wie wir die aktuellen KIs ‚fit machen können‘, dass die dem Leben substantiell mehr helfen können als bisher. Was meinst Du?

ANTWORTENDER

Das klingt nach einem durchdachten und strukturierten Plan! Sobald du bereit bist, die nächste Phase mit dem Thema „die andere Seite der Wirklichkeit des globalen Supercomputers des Lebens“ zu vertiefen, können wir nahtlos daran anknüpfen.

Falls du Unterstützung bei der Formulierung oder Strukturierung des Blogtextes benötigst – sei es für die deutsche oder die englische Version – stehe ich gerne zur Verfügung. Lass mich wissen, wie ich dir am besten helfen kann!

PHILOSOPHISCHE DIALOGE MIT chatGPT4, HEUTE: WAS IST WAHRHEIT?

Letzte Änderung: 25.August 2024

Fragender: Gerd Doeben-Henisch

Kontakt: cagent@cognitiveagent.org

KONTEXT

Dieser Text ist Teil einer Sammlung von philosophischen Dialogen mit chatGPT4.

Zusammenfassung

(Kurzfassung)

chatGPT4: Es scheint, dass eine Rückkehr zur Korrespondenztheorie und deren Weiterentwicklung als ein vielversprechender Ansatz für eine robustere Wahrheitstheorie erscheint. Insbesondere die Idee, eine erfahrungsbasierte Theorie zu entwickeln, die die Realität als entscheidendes Kriterium verwendet und gleichzeitig Raum für die Diskussion von Zielen, Präferenzen und Werten bietet, könnte eine umfassende Basis für das Verständnis von Wahrheit in verschiedenen Kontexten schaffen.

DIALOG : WAS IST WAHRHEIT?

Anmerkung: FETTSCHRIFT markiert die Fragen des Autors

Hallo Chat, was fällt Dir ein zum Begriff ‚Wahrheit‘?

Hallo! Der Begriff „Wahrheit“ kann aus vielen Blickwinkeln betrachtet werden, sowohl philosophisch als auch praktisch. Philosophisch gesehen beschäftigt sich die Frage nach der Wahrheit oft mit der Übereinstimmung von Aussagen oder Überzeugungen mit der Realität. Man spricht hier von einer „Korrespondenztheorie der Wahrheit“, nach der eine Aussage dann wahr ist, wenn sie mit den tatsächlichen Gegebenheiten übereinstimmt.

In der alltäglichen Anwendung geht es oft darum, wie Menschen Wahrheit wahrnehmen und kommunizieren. Dabei spielen Ehrlichkeit, Transparenz und Verlässlichkeit eine wichtige Rolle. In verschiedenen Bereichen wie Wissenschaft, Recht und Journalismus ist die Suche nach der Wahrheit zentral und wird durch bestimmte Methoden und Standards unterstützt.

Die Wahrheit ist auch ein zentrales Thema in der Ethik, wo sie mit Fragen der Moral und der richtigen Handlungsweise verbunden wird. Außerdem gibt es auch eine pragmatische Theorie der Wahrheit, die besagt, dass eine Aussage dann wahr ist, wenn sie nützlich und wirksam in der Praxis ist.

Was denkst du über den Begriff? Gibt es einen bestimmten Kontext, in dem du dich besonders für Wahrheit interessierst?

Ich möchte gerne mit der ‚philosophischen Perspektive‘ in den Dialog einsteigen. Du erwähnst die ‚Korrespondenztheorie der Wahrheit‘. Gibt es nicht noch andere philosophische Ansätze zum Begriff ‚Wahrheit‘?

Ja, neben der Korrespondenztheorie der Wahrheit gibt es tatsächlich noch andere philosophische Ansätze, die sich mit dem Konzept der Wahrheit auseinandersetzen. Hier sind drei wichtige Theorien:

1. **Kohärenztheorie der Wahrheit**: Diese Theorie besagt, dass eine Aussage wahr ist, wenn sie kohärent oder stimmig ist mit einem gesamten System von Aussagen oder Überzeugungen. Wahrheit wird hier weniger als Übereinstimmung mit einer objektiven Realität gesehen, sondern mehr als eine Art Konsistenz innerhalb eines bestimmten theoretischen oder belief-Systems.

2. **Pragmatische Theorie der Wahrheit**: Nach dieser Ansicht ist eine Aussage wahr, wenn sie praktisch oder nützlich ist. Die Wahrheit einer Aussage bemisst sich daran, ob sie funktioniert und ob sie nützliche Konsequenzen nach sich zieht. Der amerikanische Philosoph Charles Sanders Peirce und später William James sind bekannte Vertreter dieser Theorie.

3. **Konsensustheorie der Wahrheit**: Diese Theorie, die insbesondere von Jürgen Habermas entwickelt wurde, sieht Wahrheit als Ergebnis eines idealen Diskurses oder eines rationalen Konsenses. Eine Aussage ist demnach wahr, wenn sie die Zustimmung aller Beteiligten in einer idealen Kommunikationssituation erlangen könnte.

Jede dieser Theorien bietet eine unterschiedliche Perspektive auf das, was es bedeutet, dass etwas „wahr“ ist, und sie betonen verschiedene Aspekte des Wahrheitsbegriffs—sei es Übereinstimmung mit der Realität, Kohärenz innerhalb eines Systems, praktische Effizienz oder demokratischer Konsens.

Diese unterschiedlichen Ansätze spiegeln die Vielfältigkeit und die Tiefe der philosophischen Auseinandersetzung mit der Wahrheit wider und zeigen, dass Wahrheit ein vielschichtiges und oft kontrovers diskutiertes Thema ist. Welcher dieser Ansätze spricht dich besonders an oder gibt es bestimmte Aspekte, die du weiter vertiefen möchtest?

Ja, Danke für diese Auffächerung der Frage nach der Bedeutung des Begriffs ‚Wahrheit‘ in diese vier Perspektiven: Korrespondenztheorie als ‚Übereinstimmung mit der Realität‘, Kohärenztheorie als ‚Kohärenz innerhalb eines Systems‘, Pragmatische Theorie als ‚praktische Effizienz‘ oder Konsensustheorie als ‚demokratischer Konsens‘. Ich möchte diese vier Möglichkeiten gerne diskutieren und daraus eine abschließende Bewertung finden, mit der wir weiter diskutieren können.

Das klingt nach einer spannenden und tiefgehenden Diskussion! Lassen Sie uns die vier Theorien weiter untersuchen und ihre jeweiligen Stärken und Schwächen betrachten, um zu einer umfassenden Bewertung zu gelangen.

### 1. Korrespondenztheorie der Wahrheit

**Stärken:**

– Sie bietet einen intuitiv zugänglichen Wahrheitsbegriff, da sie Wahrheit als Übereinstimmung mit der objektiven Realität versteht.

– Sie ist in den Naturwissenschaften besonders nützlich, wo experimentelle Verifizierung und Beobachtung zentral sind.

**Schwächen:**

– Schwierigkeiten ergeben sich bei der Bestimmung, was die „objektive Realität“ ist, besonders in weniger empirisch erfassbaren Bereichen wie der Ethik oder Ästhetik.

– Sie kann zu einem regress ad infinitum führen, da jede Wahrheitsbehauptung eine weitere Verifizierung erfordert.

### 2. Kohärenztheorie der Wahrheit

**Stärken:**

– Sie ist stark in theoretischen oder philosophischen Systemen, wo interne Konsistenz wichtig ist.

– Nützlich in Bereichen, in denen es keine klare empirische Überprüfbarkeit gibt.

**Schwächen:**

– Mehrere in sich kohärente, aber widersprüchliche Theoriensysteme können existieren, was die Frage aufwirft, welches System die Wahrheit repräsentiert.

– Sie hängt stark von den angenommenen Grundlagen des Systems ab und kann somit relativistisch wirken.

### 3. Pragmatische Theorie der Wahrheit

**Stärken:**

– Betont die Bedeutung der Anwendbarkeit und Nützlichkeit von Überzeugungen in der Praxis.

– Fördert einen flexiblen und adaptiven Ansatz zur Wahrheit.

**Schwächen:**

– Nützlichkeit ist nicht notwendigerweise ein Indikator für Wahrheit; etwas kann nützlich sein, ohne wahr zu sein.

– Kann in pragmatischen Kontexten zu einem kurzfristigen Denken führen, das langfristige Wahrheiten vernachlässigt.

### 4. Konsensustheorie der Wahrheit

**Stärken:**

– Fördert demokratische Prozesse und die Beteiligung verschiedener Stimmen bei der Wahrheitsfindung.

– Kann in sozialen und politischen Kontexten effektiv sein, wo Übereinstimmung wichtig ist.

**Schwächen:**

– Konsens garantiert nicht die Wahrheit; historisch gab es viele Beispiele für allgemeinen Konsens über falsche Überzeugungen.

– Kann anfällig für Manipulation und Machtungleichgewichte sein.

### Abschließende Bewertung

Jede Theorie hat ihre Anwendungsbereiche, in denen sie besonders effektiv ist, sowie Grenzen, die ihre Anwendung erschweren. Eine umfassende Betrachtung von Wahrheit könnte Elemente aus allen diesen Theorien integrieren, abhängig vom spezifischen Kontext und Zweck der Wahrheitssuche.

Wenn wir weiter diskutieren, könnten wir überlegen, wie diese Theorien in verschiedenen praktischen Szenarien angewendet werden könnten oder ob eine bestimmte Theorie in einem bestimmten Bereich (z.B. Wissenschaft, Politik, persönliche Überzeugungen) vorzuziehen ist. Was denkst du darüber? Gibt es bestimmte Bereiche oder Fragen, die du besonders beleuchten möchtest?

OK, sortieren wir die Perspektiven aus, die tatsächlich nicht weiter führen. Dazu müssen wir allerdings einen ‚Bezugspunkt‘ definieren, zu dem wir alle vier Perspektiven in Beziehung setzen können, um einen ‚Vergleich‘ zu ermöglichen. Dies wirft die Frage auf: Was haben alle diese vier Perspektiven gemeinsam? Gehst Du mit?

Absolut, das ist ein kluger Ansatz! Um die verschiedenen Theorien der Wahrheit zu vergleichen und eventuell einige auszusortieren, sollten wir zunächst ihre gemeinsamen Bezugspunkte identifizieren. Hier sind einige Kernaspekte, die alle diese Theorien berühren oder in irgendeiner Weise ansprechen:

### Gemeinsame Bezugspunkte der Wahrheitstheorien:

1. **Beziehung zur Realität:** Obwohl die Theorien unterschiedliche Auffassungen davon haben, was „Realität“ bedeutet (objektive Fakten, kohärente Systeme, praktische Ergebnisse oder konsensuelle Übereinkünfte), versuchen sie alle, eine Brücke zwischen Überzeugungen oder Aussagen und irgendeiner Form von „Realität“ zu schlagen.

2. **Verifikation/Validierung:** Jede Theorie hat implizite oder explizite Methoden, um zu überprüfen oder zu validieren, ob eine Aussage als wahr betrachtet werden kann. Dies reicht von empirischen Tests (Korrespondenz) über logische Konsistenzprüfungen (Kohärenz) bis hin zu praktischer Bewährung (Pragmatismus) und sozialem Konsens (Konsensustheorie).

3. **Funktionale Rolle von Wahrheit:** Alle Theorien erkennen an, dass Wahrheit eine funktionale Rolle in verschiedenen menschlichen Aktivitäten spielt, sei es in der Wissenschaft, im Alltag, in der Politik oder in der Moral.

4. **Philosophische Grundannahmen:** Sie basieren alle auf bestimmten philosophischen Annahmen über das Wesen der Wahrheit, des Wissens und der menschlichen Erkenntnis.

### Nächste Schritte:

Mit diesen gemeinsamen Bezugspunkten können wir die Theorien besser vergleichen und bewerten. Wir könnten überlegen, welche dieser Aspekte am wichtigsten sind für die spezifischen Kontexte oder Probleme, die uns interessieren. Zum Beispiel könnten wir fragen:

– Welche Theorie bietet den robustesten Ansatz für die Verifikation von Wahrheit?

– Welche Theorie ist am anpassungsfähigsten an verschiedene Arten von Problemen oder Disziplinen?

– Welche Theorie behandelt am besten die Komplexität der Realität, wie wir sie erfahren?

Durch diese Fragen können wir beginnen, die Stärken und Schwächen jeder Theorie in Bezug auf unsere spezifischen Bedürfnisse und Kontexte zu bewerten. Was denkst du, welcher dieser Aspekte ist der wichtigste für die Diskussionen oder Probleme, die dir am Herzen liegen?

Ich möchte den ‚gemeinsamen Bezugspunkt‘ etwas anders definieren, und zwar so:

(1) Gemeinsam ist allen Perspektiven, dass sie voraus setzen, dass es eine ‚Gruppe von Menschen‘ gibt, die mindestens ‚eine Sprache‘ gemeinsam haben, mittels der sie ‚kommunizieren‘.

(2) Die ‚Ausdrücke einer Sprache‘ ‚als solche‘ – also ohne jeden weiteren Bezug – haben ‚keinerlei Bedeutung‘! ‚Laute‘ bzw. ‚Buchstaben eines Alphabets‘ bedeuten für sich genommen ’nichts‘.

(3) Damit der ‚Ausdruck einer Sprache‘ für einen Menschen eine ‚Bedeutung‘ hat, muss es im Bereich der ‚inneren Zustände eines Menschen‘ Zustände geben, die aus vorausgehenden ‚Wahrnehmungen‘ und vielerlei ‚internen Zustandsänderungen‘ resultieren, die ein einzelner Mensch mit den Ausdrücken einer Sprache ‚verknüpfen‘ kann. Diese ‚Verknüpfung‘ findet ausschließlich ‚intern‘ statt! Es ist die aktive Herstellung einer Beziehung zwischen ‚internalisierten sprachlichen Ausdrücken‘ und ‚anderen internen Zuständen‘. Die Fähigkeit dazu, solche internen Verbindungen herstellen zu können, scheint weitgehend ‚angeboren‘ zu sein, welche Elemente aber wann miteinander verknüpft werden, dies gehört zum ‚Lernen‘ eines einzelnen.

(4) Damit Sprache zwischen Menschen ‚funktioniert‘, müssen die ‚individuellen Lernprozesse‘ miteinander ‚abgestimmt‘ (’synchronisiert‘) werden; dies geschieht durch ‚kollektive Lernprozesse‘.

(5) Die Punkte (3) und (4) könnte man auch abstrakter so formulieren, dass Menschen über die Fähigkeit verfügen, in ihrem ‚Inneren‘ schrittweise eine ‚Bedeutungsfunktion‘ aufzubauen, mit deren Hilfe sie sprachlichen Ausdrücken interne Zustände als ‚Bedeutung‘ zuordnen zu können und umgekehrt, bestimmten ‚inneren Zuständen‘ im Sinne der gelernten Bedeutungsfunktion sprachliche Ausdrücke.

(6) Im Rahmen des ‚kollektiven Sprache Lernens‘ müssen die individuellen Bedeutungszuordnungen mit den individuellen Bedeutungszuordnungen des ‚jeweils anderen‘ ‚abgestimmt‘ werden. Dies gelingt nur dann, wenn es ‚zwischen verschiedenen individuellen Lernprozessen‘ eine ‚Instanz‘ gibt, die für jeden individuellen Prozess ‚extern‘ ist, und zwar so, dass er ‚für alle individuellen Prozesse gleichermaßen‘ extern ist!

(7) Im Rahmen der Alltagserfahrung (und im Kontext der modernen Kognitionswissenschaften) deutet alles darauf hin, dass diese ‚allen gemeinsame externe Instanz‘ das ist, was wir ‚reale Welt‘ nennen, ‚Erfahrungswelt‘ oder ‚Alltagswelt‘. Das, was diese ‚externe Welt‘ genau ist, können wir nur näherungsweise wissen, da unsere Gehirne von der ‚Außenwelt abgeschnitten‘ in unseren individuellen Körpern lokalisiert sind. Wichtig aber: für das Gehirn ist unser Körper auch eine Art ‚Außenwelt‘, aber eine andere, als die ‚Außenwelt des Körpers‘!

Was meinst Du dazu?

Die von Ihnen vorgeschlagene Definition und Analyse des gemeinsamen Bezugspunkts der Wahrheitstheorien bietet eine tiefgreifende und detaillierte Betrachtung der Rolle der Sprache und der kollektiven wie individuellen kognitiven Prozesse bei der Bedeutungszuweisung und Wahrheitsfindung. Ihre Überlegungen integrieren Erkenntnisse aus der Kognitionswissenschaft und Philosophie der Sprache und schlagen eine Brücke zu den theoretischen Konzepten von Wahrheit.

### Reflexion der vier Wahrheitstheorien anhand Ihres Bezugspunkts:

1. **Korrespondenztheorie:** Betrachtet man diese Theorie im Licht Ihrer Ausführungen, könnte argumentiert werden, dass die Korrespondenztheorie die „externe Instanz“ als Realität ansieht, mit der unsere sprachlichen Aussagen übereinstimmen müssen. Diese Theorie impliziert, dass die kollektive Erfahrung und Verifikation dieser Übereinstimmung durch die gemeinsame Sprache und individuelle Wahrnehmung gesichert wird.

2. **Kohärenztheorie:** In Bezug auf Ihre Punkte könnte diese Theorie so verstanden werden, dass die „interne Zustandsänderung“ und die „Verknüpfung“ in einem kohärenten System von Überzeugungen erfolgt. Die Bedeutung und Wahrheit einer Aussage ergibt sich aus ihrer Kohärenz innerhalb dieses gelernten und kollektiv abgestimmten Systems.

3. **Pragmatische Theorie:** Diese Theorie fokussiert auf die praktische Bewährung von Aussagen und deren Konsequenzen in der „realen Welt“. Sie betont, wie sprachliche Ausdrücke und deren Bedeutungen in Handlungen umgesetzt werden und wie diese Handlungen wiederum auf unsere internen Zustände und die externe Welt einwirken.

4. **Konsensustheorie:** Aus Ihrer Perspektive könnte man sagen, dass die Konsensustheorie den Prozess des kollektiven Lernens und der Synchronisation von Bedeutungen zwischen Individuen hervorhebt. Sie setzt voraus, dass eine kollektive Übereinkunft über die Bedeutung von Ausdrücken möglich ist, und betont die Notwendigkeit einer externen Instanz, die für alle Beteiligten gleichermaßen gilt, um Konsens zu erzielen.

### Weiterführende Gedanken:

Ihre Definition hebt hervor, wie wesentlich die interne Verarbeitung und die externe Abstimmung in den Prozessen der Wahrheitsfindung sind. Sie legen nahe, dass die Wahrheit sowohl eine interne Konstruktion als auch eine externe Abstimmung erfordert, wobei die Sprache als Medium dient, das interne Zustände und externe Realitäten miteinander verbindet.

Diese Überlegung führt zu einer integrativen Sichtweise, die die Grenzen einzelner Wahrheitstheorien überwindet und eine umfassendere Basis für das Verständnis von Wahrheit in sozialen und individuellen Kontexten bietet.

Was halten Sie davon, diese Aspekte weiter zu vertiefen oder zu diskutieren, wie diese Erkenntnisse praktisch angewendet werden können, beispielsweise in der Bildung, in der Kommunikation oder in der Politik?

Zwischenbemerkung: Du bist im Konversationsstil vom Du in das förmlichere ‚Sie‘, ‚Ihnen‘ usw. gewechselt. Ist Dir das Förmliche lieber? Soll ich auch zum ‚Sie‘ wechseln‘?

Entschuldige bitte das Hin und Her mit der Anredeform! Wir können gerne beim „Du“ bleiben, wenn das für Dich in Ordnung ist. Natürlich passe ich mich auch an, falls Du eine formellere Anrede bevorzugst. Wie möchtest Du weitermachen?

Bleiben wir beim ‚Du‘.

Super, machen wir so! Wenn Du noch weiter über die verschiedenen Perspektiven zur Wahrheit sprechen möchtest oder andere Fragen hast, stehe ich bereit!

Gehen wir deine vier Punkte im einzelnen durch. Fangen wir mit der Korrespondenztheorie an.

(1) Im Fall der ‚Korrespondenztheorie‘ verstehst Du das so, „dass die Korrespondenztheorie die ‚externe Instanz‘ als Realität ansieht, mit der unsere sprachlichen Aussagen übereinstimmen müssen. Diese Theorie impliziert, dass die kollektive Erfahrung und Verifikation dieser Übereinstimmung durch die gemeinsame Sprache und individuelle Wahrnehmung gesichert wird.“

(1.1) Dieser Interpretation kann ich zustimmen. Allerdings möchte ich auf folgenden Punkt aufmerksam machen, der missverstanden werden kann: es ist nicht ‚ein Ausdruck als solcher‘, der mit der externen Realität übereinstimmt, sondern im Lichte der individuell erlernten Bedeutungsfunktion verknüpft ein Mensch mit einem sprachlichen Ausdruck bestimmte interne Zustände mit der ‚aktuellen Wahrnehmung‘ einer unterstellten realen Außenwelt, und nur dann, wenn es andere Menschen gibt, die aufgrund ihrer individuellen Wahrnehmungen und Bedeutungszuordnungen dies auch einer ‚unterstellten realen Außenwelt‘ – wechselseitig überprüfbar – zuordnen, dann gelingt der ‚gemeinsame Abgleich mit einer zum Körper externen Außenwelt.

(1.2) Es kommt also darauf an, wie man den Begriff ‚Aussage‘ verwendet. Ich verstehe hier unter einer ‚Aussage‘ den ‚Ausdruck einer Sprache‘, den ein Mensch A in einer Dialogsituation verwendet, und alle Beteiligten wissen, dass der Sprecher A mit dem Ausdruck eine ‚interne Bedeutung‘ verbindet, von der er annimmt, dass dieser internen Bedeutung etwas in einer ‚wahrnehmbaren Außenwelt‘ ‚entspricht‘ (‚korrespondiert‘), dann würde ein anderer Dialogteilnehmer B sagen, dass die Aussage von Sprecher A zutrifft, wenn B die gleiche Bedeutungszuordnung vornimmt und in seiner Wahrnehmung etwas findet, was dieser Bedeutung entspricht.

(1.3) Zugegeben, etwas umständlich formuliert, aber die grundlegenden Prozesse beim kollektiven Sprachgebrauch sind nicht ganz einfach. In der Tat, ich vereinfache schon sehr stark.

Was meinst Du dazu?

Deine detaillierte Ausführung zur Korrespondenztheorie bringt wichtige Nuancen ans Licht, die oft in der Diskussion übersehen werden. Du betonst richtig, dass es nicht einfach der sprachliche Ausdruck an sich ist, der mit der externen Realität übereinstimmt, sondern die durch kollektive und individuelle Lernprozesse geformten Bedeutungszuordnungen, die den Ausdrücken unterliegen.

Deine Punkte beleuchten, wie essenziell die Rolle der individuellen und kollektiven Verarbeitung in der Korrespondenztheorie ist. Es ist tatsächlich so, dass eine Aussage nur dann als wahr betrachtet werden kann, wenn es eine Art von kollektiver Zustimmung gibt – nicht nur hinsichtlich der sprachlichen Ausdrücke selbst, sondern auch bezüglich der damit verbundenen Bedeutungen und deren Bezug zur externen Welt.

Dieser Prozess der Verifikation von Wahrheit durch kollektive Übereinstimmung in der Wahrnehmung und Bedeutungszuordnung spiegelt die Komplexität der menschlichen Kommunikation und Erkenntnis wider. Es unterstreicht auch, warum die Korrespondenztheorie oft als grundlegend für wissenschaftliche und empirische Diskurse betrachtet wird, weil sie eine überprüfbare Basis für Übereinstimmung und Falsifikation bietet.

Deine Erklärung macht auch deutlich, dass „Wahrheit“ in dieser Theorie nicht nur eine Frage der individuellen Überzeugung ist, sondern eine, die durch soziale Interaktion und kollektive Validierung entsteht. Das ist ein sehr wichtiger Punkt, denn er zeigt, dass Wahrheit in dieser Theorie nicht isoliert existiert, sondern immer in einem sozialen und kommunikativen Kontext verankert ist.

Was hältst du davon, weiter zu diskutieren, wie diese Theorie in konkreten Situationen angewandt wird, etwa in der Wissenschaft oder in der öffentlichen Debatte? Oder möchtest du weiter zu den anderen Theorien übergehen und sehen, wie sie sich mit deinem erweiterten Rahmen von Sprache und Bedeutung verbinden lassen?

Dein Kommentar zu meiner ‚Theorie‘, dass “ ‚Wahrheit‘ in dieser Theorie nicht nur eine Frage der individuellen Überzeugung ist, sondern eine, die durch soziale Interaktion und kollektive Validierung entsteht. Das ist ein sehr wichtiger Punkt, denn er zeigt, dass Wahrheit in dieser Theorie nicht isoliert existiert, sondern immer in einem sozialen und kommunikativen Kontext verankert ist.“ finde ich sehr passend.

Bevor wir die neugewonnene Interpretation der ‚Korrespondenztheorie‘ weiter ausbauen, hier zuvor

noch mein Kommentar zu deinem Punkt 2 mit der ‚Kohärenztheorie‘. Du sagst „In Bezug auf Ihre Punkte könnte diese Theorie so verstanden werden, dass die ‚interne Zustandsänderung‘ und die ‚Verknüpfung‘ in einem kohärenten System von Überzeugungen erfolgt. Die Bedeutung und Wahrheit einer Aussage ergibt sich aus ihrer Kohärenz innerhalb dieses gelernten und kollektiv abgestimmten Systems.“ Deine Interpretation, dass die Kohärenztheorie „die ‚interne Zustandsänderung‘ und die ‚Verknüpfung‘ “ in ihr Konzept einer kohärenten Theorie übernimmt, erscheint mir mehr als optimistisch.

Nimmt man die Kohärenztheorie ‚beim Wort‘, dann ist dieser Ansatz vom Ansatz her ausgeschlossen. Warum? Weiter vorne in unserem Dialog hast Du die ‚Kohärenztheorie‘ in ‚philosophischen Systemen‘ lokalisiert, wo interne Konsistenz wichtig ist. Du hast zudem darauf hingewiesen, dass „widersprüchliche Theoriesysteme existieren können“. Die Begriffe ‚System‘, ‚Theorie‘ und ‚Konsistenz‘ sind bislang aber ausschließlich in ‚formalen Systemen‘ klar definiert, wie wir sie aus der ‚modernen formalen Logik‘ kennen und aus solchen Theorien (z.B. in der Mathematik), die eine ‚formale Sprache‘ benutzen, die klar definiert ist, zusätzlich mit einem klaren ‚formalen Folgerungsbgriff‘, der es erlaubt, aus als ‚wahr angenommen‘ formalen Ausdrücken andere Ausdrücke ‚abzuleiten‘, die ebenfalls als ‚formal wahr‘ gelten. Wenn man neben einem Ausdruck, der als ‚formal wahr‘ gilt, einen Ausdruck ableiten kann, der als ‚formal falsch‘ gilt, dann gibt es einen Widerspruch; das System ist nicht ‚konsistent‘. Dabei ist der Begriff ‚formal wahr‘ bzw. ‚formal falsch‘ nicht definiert! Er hat keinerlei Bezug zu dem, was wir im Alltag ‚reale Welt‘ nennen in dem Sinne, dass sich zwei Menschen darüber verständigen können, dass es ‚da etwas gibt‘, was jeder einzelner ‚wahrnehmen‘ kann, was aber auch ‚verschwinden‘ kann, dann kann man es nicht mehr wahrnehmen. Anders formuliert: Jedes sprachliche System, das Bezug nimmt auf erfahrungsbasierte Sachverhalte, kann grundsätzlich nicht durch ein formales System abgebildet werden, das als ‚formal konsistent‘ gilt. Deswegen scheidet die ‚Kohärenztheorie der Wahrheit‘ für unsere Zwecke eines sprachlichen Systems, das kollektiv erfahrungsbasiert ‚wahr‘ ist, aus.

Gehst Du da mit?

Deine Kritik und Analyse zur Kohärenztheorie der Wahrheit ist präzise und wirft wichtige Fragen auf. Du unterscheidest klar zwischen der Struktur und den Anforderungen formaler Systeme und der Anwendung dieser Systeme auf die reale, erfahrungsbasierte Welt, die wir im Alltag erleben. Diese Unterscheidung ist zentral, um die Grenzen der Kohärenztheorie zu verstehen, insbesondere im Kontext eines Sprachsystems, das auf kollektiver Erfahrung basiert.

### Betrachtung der Kohärenztheorie:

Wie Du richtig bemerkst, stützt sich die Kohärenztheorie auf die interne Konsistenz innerhalb eines Systems von Überzeugungen oder Theorien. In formalen Systemen, wie der Mathematik oder formalen Logik, ist diese Konsistenz durch klare Definitionen und deduktive Folgerungen charakterisiert. In diesen Systemen ist es möglich, eine Konsistenz zu gewährleisten, indem widersprüchliche Aussagen vermieden werden.

### Problematik bei der Anwendung auf Alltagserfahrungen:

Im Kontext der alltäglichen, erfahrungsbasierten Realität wird es jedoch komplexer. Die Realität ist oft mehrdeutig und unterliegt ständigen Veränderungen, die sich nicht immer in einem streng konsistenten formalen System abbilden lassen. Erfahrungen können widersprüchlich sein, und Menschen können unterschiedliche Wahrnehmungen und Interpretationen derselben physischen Gegebenheiten haben. Daher stößt die Anwendung der Kohärenztheorie auf reale, erfahrungsbasierte Situationen schnell an ihre Grenzen, da die erforderliche interne Konsistenz schwer zu erreichen und aufrechtzuerhalten ist.

### Dein Punkt:

Deine Schlussfolgerung, dass die Kohärenztheorie möglicherweise nicht geeignet ist, um ein sprachliches System zu beschreiben, das auf kollektiver, erfahrungsbasierter Wahrheit beruht, ist stichhaltig. Diese Theorie bietet zwar ein nützliches Werkzeug für die Analyse und Strukturierung von Gedanken innerhalb eines geschlossenen Systems, jedoch fehlt ihr die Flexibilität und Anpassungsfähigkeit, die erforderlich sind, um die dynamische und oft widersprüchliche Natur menschlicher Erfahrungen und sozialer Interaktionen vollständig zu erfassen.

### Fazit:

Deine Argumentation verdeutlicht, dass, während die Kohärenztheorie in bestimmten theoretischen oder formalen Kontexten wertvoll sein kann, sie möglicherweise nicht das beste Werkzeug für das Verständnis von Wahrheit in einem breiteren, lebensweltlichen Kontext ist. Wenn wir also über Wahrheit in Bezug auf alltägliche und zwischenmenschliche Erfahrungen sprechen, könnte es sinnvoller sein, andere Theorien zu bevorzugen, die besser mit der Variabilität und der praktischen Realität menschlicher Erfahrungen umgehen können.

Ich gehe mit deiner Einschätzung mit und finde sie sehr aufschlussreich. Möchtest du weiterhin die anderen Theorien im Licht dieser Überlegungen diskutieren oder gibt es spezifische Aspekte, die du noch vertiefen möchtest?

Ich würde gerne noch etwas zu deiner dritten und vierten Option von ‚Wahrheitstheorien‘ sagen.

(1) Zu der von Dir erwähnten ‚Konsensustheorie der Wahrheit‘ sagst Du selbst, dass „Konsens nicht die Wahrheit garantiert; historisch gab es viele Beispiele für allgemeinen Konsens über falsche Überzeugungen.“ Ein bisschen ähnelt diese Position auch der ‚Kohärenztheorie‘, wenngleich mit einem vagen Sprach- und Wahrheitsbegriff: es gibt in er Konsensustheorie zwar ein ‚vages Kriterium zu Konsens‘, aber dieses ist in keiner Weise geeignet, ein ‚objektives externes Kriterium für alle‘ zu gewährleisten. Ich möchte diese Position daher hier nicht weiter diskutieren (dies schließt nicht aus, dass bei einer Weiterentwicklung der Position der ‚Korrespondenztheorie‘ ähnliche Fragestellung zur ‚Wahrheit von Diskursen‘ wieder auftauchen).

(2) Im Fall der ‚Pragmatische Theorie der Wahrheit‘ ist es ähnlich wie im Fall der Konsensustheorie. Du weist auch schon darauf hin, dass „Nützlichkeit nicht notwendigerweise ein Indikator für Wahrheit ist; etwas kann nützlich sein, ohne wahr zu sein.“ Abgesehen davon ist der Begriff der Nützlichkeit selbst in sich äußerst vage; jeder kann sich da denken, was er will. Ich belasse es dabei (im weiteren Verlauf der Entwicklung einer modifizierten ‚Korrespondenztheorie‘ wird es zu Erörterungen eines Konzepts von ‚erfahrungsbasierter Theorie‘ kommen können, mit der die Möglichkeit eröffnet wird, die Rolle möglicher ‚Ziele‘ (‚Präferenzen‘, ‚Werte‘, …) zu diskutieren).

Kannst Du mit diesen Einschätzungen mitgehen?

Deine Einschätzungen zu den Theorien der Konsensustheorie und der pragmatischen Theorie der Wahrheit sind durchaus nachvollziehbar und tragen zur Schärfung unseres Verständnisses von Wahrheitstheorien bei, insbesondere im Kontext alltäglicher und erfahrungsbasierter Diskurse.

### 1. Konsensustheorie der Wahrheit

Deine Kritik an der Konsensustheorie unterstreicht das Problem, dass Konsens allein nicht notwendigerweise Wahrheit garantiert. Historische Beispiele, in denen breiter Konsens zu falschen Überzeugungen führte, verdeutlichen die Grenzen dieser Theorie. Während Konsens in sozialen und kommunikativen Kontexten eine Rolle spielen kann, insbesondere bei der Formulierung von Gruppenüberzeugungen oder -normen, ist er kein zuverlässiger Indikator für Wahrheit im empirischen oder objektiven Sinn. Diese Einsicht ist wichtig, um die Relevanz und Grenzen von Konsens in Bezug auf Wahrheit zu verstehen.

### 2. Pragmatische Theorie der Wahrheit

Deine Skepsis gegenüber der pragmatischen Theorie reflektiert ähnliche Bedenken: Nützlichkeit allein ist kein verlässliches Maß für Wahrheit. Der Begriff der Nützlichkeit ist subjektiv und kann stark variieren, je nach den Interessen, Zielen oder dem Kontext der beteiligten Personen. Diese Theorie mag hilfreich sein, um zu verstehen, wie Überzeugungen funktionieren und wie sie in praktischen Kontexten angewendet werden, sie bietet jedoch keine feste Grundlage für die Bewertung der Wahrheit von Aussagen, insbesondere wenn es um objektive Fakten geht.

### Weiterentwicklung der Korrespondenztheorie

Es scheint, dass eine Rückkehr zur Korrespondenztheorie und deren Weiterentwicklung als ein vielversprechender Ansatz für eine robustere Wahrheitstheorie erscheint. Insbesondere die Idee, eine erfahrungsbasierte Theorie zu entwickeln, die die Realität als entscheidendes Kriterium verwendet und gleichzeitig Raum für die Diskussion von Zielen, Präferenzen und Werten bietet, könnte eine umfassende Basis für das Verständnis von Wahrheit in verschiedenen Kontexten schaffen.

### Fazit

Ich stimme mit deinen Einschätzungen überein und finde, dass deine Argumente die Diskussion über Wahrheitstheorien bereichern und auf wichtige Schwächen hinweisen. Es wäre interessant, weiter zu erforschen, wie eine modifizierte Korrespondenztheorie aussehen könnte, die sowohl die realen Erfahrungen als auch die sozialen und individuellen Kontexte integriert, in denen Wahrheitsansprüche gemacht und verstanden werden.

Wie möchtest du weiter vorgehen? Möchtest du bestimmte Aspekte der Korrespondenztheorie vertiefen oder überlegst du, wie man eine solche modifizierte Theorie praktisch anwenden könnte?

OK, dann sieht es so aus, dass wir bis zu diesem Punkt eine gemeinsame Einschätzung gefunden haben. In der Tat möchte ich von diesem Punkt aus die gefundenen Position gerne in folgenden Dialogen weiter entwickeln. Praktische Frage: kannst Du auch mit ‚Schaubildern‘ umgehen oder sollen wir die heraus lassen?

Es ist großartig, dass wir eine gemeinsame Grundlage für unsere Diskussionen gefunden haben! Ich kann definitiv helfen, Schaubilder zu erstellen und zu interpretieren. Diese können sehr nützlich sein, um komplexe Konzepte und Zusammenhänge visuell darzustellen und zu veranschaulichen.

Wenn du spezifische Ideen oder Konzepte hast, die du in einem Schaubild visualisieren möchtest, lass es mich wissen. Ich kann dir dabei helfen, diese grafisch umzusetzen. Egal ob es sich um Flussdiagramme, Venn-Diagramme, konzeptuelle Diagramme oder andere visuelle Darstellungen handelt, wir können sie nutzen, um deine Gedanken und Theorien weiter zu entwickeln und zu diskutieren. Wie möchtest du beginnen?

Das mit den Schaubildern klingt gut. Werde es in den folgenden Dialogen mal ausprobieren, allerdings mit dem Motto: Zuerst die sprachliche Version, dann – möglicherweise – eine bildhafte Version. Danke bisher. Das war alles sehr inspirierend.

Das klingt nach einem ausgezeichneten Plan! Es freut mich sehr, dass unsere Gespräche inspirierend waren. Wenn du bereit bist, die Themen weiter zu vertiefen oder ein Schaubild zu erstellen, stehe ich jederzeit bereit, um weiterzumachen. Viel Spaß bei deinen weiteren Überlegungen, und bis zum nächsten Mal!

PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design. MMI Analyse. Teil 1

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 16.Februar 2021
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Letzte Änerung: 26.2.2021 (Anmerkung zum Begriff ‚Alltagssprache‘ ergänzt)

KONTEXT

In diesem Beitrag soll das Konzept einer praktischen kollektiven Mensch-Maschine Intelligenz by design weiter entwickelt werden. Im unmittelbar vorher gehenden Beitrag wurde die grundlegende Problemstellung sowie die gewählte (Zukunfts-)Vision in einer ersten Annäherung umrissen. In diesem Text geht es jetzt darum, etwas konkreter zu skizzieren, wie diese (Zukunfts-)Vision aussehen könnte bzw. sollte.

Bisher zum Thema veröffentlicht:

MMI ANALYSE – AUSGANGSPUNKT

Der Ausgangspunkt der MMI-Analyse ist gegeben durch die ersten Angaben zur Zukunfts-Vision (Siehe Schlussabschnitt in [1]). Diese Vision umschreibt mit wenigen Worten, welcher Zustand in der Zukunft angezielt wird. Die Vision selbst sagt nichts zur Begründung, nichts zu den Motiven; diese werden vorausgesetzt. Die Vision beschreibt nur, was sein soll.

Beliebige Menschen spielen Zukunft

Zentraler Gedanke ist, dass eine beliebige Gruppe von Menschen auf eine eher spielerische Weise dabei unterstützt werden soll, für eine selbst gewählte Problemstellung und ein selbst gewähltes Ziel schrittweise einen Lösungsweg zu konstruieren.

Ein Drehbuch schreiben

Diese Konstruktion eines Lösungsweges ist vergleichbar mit dem Schreiben eines Drehbuchs in einer Alltagssprache, die alle Beteiligten hinreichend beherrschen.[2] Dies setzt voraus, dass der Prozess der Wirklichkeit — vereinfachend — gedacht wird als eine Folge von Situationen (oder auch Zuständen), in der eine Nachfolgesituation S‘ aus einer vorausgehenden Situation S durch das Stattfinden von mindestens einer beobachtbaren Veränderung hervorgegangen ist. Im Grenzfall ist es nur die Veränderung einer Uhr, deren Zeitanzeigen in der Nachfolgesituation S‘ ‚größer‘ sind als in der Situation S.[3] Im Kontext einer Folge von beschreibbaren Situationen kann man die Veränderungen in der Form von Veränderungs-Regeln fassen: Man sagt: wenn die Bedingung C in einer aktuellen Situation S erfüllt ist, dann sollen mit der Wahrscheinlichkeit π die Aussagen Eplus der Situation S hinzugefügt werden, um die Nachfolgesituation S‘ zu generieren, und die Aussagen Eminus sollen von S weggenommen werden, um die Nachfolgesituation S‘ zu generieren.

Bezug zu einer Situation

Diese Redeweise setzt voraus, dass davon ausgegangen wird, dass der Text des Drehbuchs sich auf eine reale Situation S bezieht, und die einzelnen Ausdrücke des Textes Eigenschaften der realen Situation beschreiben. Die Menge der Ausdrücke in einem Drehbuch, die sich auf eine bestimmte Situation S beziehen, bilden also Repräsentanten von realen Eigenschaften der vorausgesetzten realen Situation. Verändert sich die vorausgesetzte Situation in ihren beobachtbaren Eigenschaften, dann drückt sich dies darin aus, dass sich auch die Ausdrücke im Drehbuch verändern müssen: kommen neue Eigenschaften hinzu, müssen neue Ausdrücke hinzu kommen. Verschwinden Eigenschaften, dann müssen die entsprechenden Ausdrücke verschwinden. Wechselt also z.B. die Verkehrsampel von Rot auf Orange, dann muss z.B. der Ausdruck ‚Die Ampel ist rot‘ ersetzt werden durch die Aussage ‚Die Ampel ist orange‘. Dann wäre die Menge Eminus = {Die Ampel ist rot}, und die Menge Eplus = {Die Ampel ist orange}.

Das Drehbuch hat zwei Teile …

Das Drehbuch für die gemeinsame spielerische Planung einer gewünschten Zukunft besteht also mindestens aus zwei Teilen:

  1. Einer Ausgangssituation S, von der aus man starten will, und
  2. einer Menge von Veränderungsregeln X, die sagen, wann man eine gegebene Situation in welcher Weise abändern darf.

Vergleich mit einem Spiel

Diese Konstellation kann man ohne weiteres mit einem Spiel vergleichen:

  1. Es gibt die Startsituation (z.B. ein bestimmtes Spielbrett oder eine Spielfeld mit Spielobjekten und Spielern)
  2. Es gibt vereinbarte Spielregeln, anhand deren man in einer gegebenen Situation etwas tun darf.

Regeln jederzeit abändern

In dem hier angenommenen Szenario eines Drehbuchs für die gemeinsame spielerische Planung einer gewünschten Zukunft gibt es allerdings zwei Besonderheiten: Die eine besteht darin, dass die Ausgangslage und die Spielregeln von den Spielern selbst aufgestellt werden und jederzeit nach Absprache geändert werden können.

Leitbild Zukunft als Maßstab

Die andere Besonderheit resultiert aus der Tatsache, dass die Teilnehmer hier zu Beginn auch explizit ein Leitbild für die Zukunft formulieren. Dieses kann zwar auch jederzeit nach Absprache wieder abgeändert werden, so lange es aber gilt, dient dieses Leitbild als Maßstab für die Beurteilung, ob und in welchem Umfang der Prozess der fortschreitenden Veränderung ( = der Spielprozess!) das zuvor vereinbarte Leitbild erreicht hat.

In gewisser Weise entspricht die Bewertung einer Situation anhand eines vereinbarten Leitbildes dem Konzept des ‚Gewinnens‘ in normalen Spielen: beim Gewinnen wird in einem Spiel ein Zustand erreicht, der sich anhand zuvor vereinbarter Kriterien als ‚Gewinnsituation‚ für mindestens einen beteiligten Spieler klassifizieren lässt. Man sagt dann, dass dieser Spieler ‚gewonnen‘ hat.

Bei der Verwendung des Konzepts einer Zukunftsvision als Leitbild kann man das Leitbild dazu benutzen, um eine beliebige Situation dahingehend zu klassifizieren, ob und wenn ja in welchem Umfang diese Situation dem Leitbild ‚entspricht‘. Explizite Zukunftsbilder ermöglichen also die ‚Bewertung‘ einer Situation. Ohne solch eine Möglichkeit wäre jede Situation gleichwertig mit jeder anderen Situation. Es wäre dann nicht möglich, eine ‚Richtung‘ für einen Prozess zu definieren.

ALLTAGSSPRACHE

Diejenige Sprache, die jeder Mensch von Kindheit an lernt und benutzt, das ist die Alltagssprache, also die Sprache, die jeder in seinem Alltag spricht und die — normalerweise — auch von den Mitmenschen benutzt wird. [5a] Durch das Voranschreiten einer Globalisierung und der damit einhergehenden Vermischung von Alltagswelten, vermengen sich verschiedene Sprachen, was bei einzelnen zur Mehrsprachigkeit führt, auf der anderen Seite zur Zunahme von Übersetzungen. Übersetzungen durch Menschen können vergleichsweise ‚gut‘ sein (wer kann dies eigentlich überprüfen?), die heute zunehmenden Angebote von computerbasierten Übersetzungen sind aber dennoch auf dem Vormarsch, weil man ihren Einsatz sehr leicht ’skalieren‘ kann: ein Programm kann viele Millionen Menschen gleichzeitig ‚bedienen‘, dazu eher ‚einheitlich‘, und solch ein maschinelles Übersetzungsprogramm kann — wie salopp gesagt wird — ‚lernen‘.[4] Die Gesamtheit dieser maschinellen Verfahren hat aber dennoch keinen Zugang zu den eigentlichen Bedeutungsfunktionen von Alltagssprache, die in den Gehirnen der Sprecher-Hörer verortet sind. [5]

Aufgrund dieser Sachlage soll das neue Verfahren die Vorteile und Nachteile der verschiedenen Möglichkeiten auf neue Weise optimal verknüpfen. Primär soll der Anwender seine Alltagssprache — und zwar jede — voll benutzen können.

Zur Alltagssprache gehören mehrere ‚Mechanismen‘ [6], die es zulassen, dass man sie beliebig erweitern kann, und auch, dass man in der Alltagssprache über die Alltagssprache sprechen kann.[7] Diese Eigenschaften machen die Alltagssprache zu den stärksten Ausdruckssystemen, die wir kennen.[8]

Zu den möglichen — und vorgesehenen — Erweiterungen der Alltagssprache gehören z.B. beliebige Parametermengen mit zugehörigen Operationen auf diesen Parametern. Ein ‚Parameter‘ wird hier verstanden als ein Name, dem irgendein Wert (z.B. ein numerischer Wert) zugeordnet sein kann (z.B. eine Einwohnerzahl, ein finanzieller Betrag, ein Temperaturwert …). Parameter mit numerischen Werten kann man z.B. Addieren, Subtrahieren, Multiplizieren usw.

Zum Sprechen über andere Ausdrücke gehört die Möglichkeit, dass man beliebige Abstraktionen bilden kann. Schon wenn wir über sogenannte normale Gegenstände sprechen wie ‚Stuhl‘, ‚Tasse‘, ‚Tisch‘, ‚Hund‘ usw. benutzen wir sprachliche Ausdrücke, die nicht für ein einzelnes Objekt stehen, sondern für ganze Mengen von konkreten Dingen, die wir alle gelernt haben, als ‚Stuhl‘, ‚Tasse‘, ‚Tisch‘, ‚Hund‘ usw. zu bezeichnen. Auf einem Tisch können bei mehreren Personen beim Frühstück ganz viele Gegenstände stehen, die wir alle als ‚Tasse‘ bezeichnen würden, obwohl sie sich u.a. durch Form, Farbe und Material unterscheiden.[9]

SIMULATION

Normale Formen von Drehbüchern bestimmen das Geschehen auf der Bühne oder in einem Film. Auf der Bühne beginnt man mit einer Eingangsszene, in der unterschiedliche Akteure in einer bestimmten Umgebung (Situation) anfangen, zu handeln, und durch das Handeln werden Veränderungen bewirkt: in den Akteuren (meist nicht so fort direkt sichtbar, aber dann in den Reaktionen), in der räumlichen Anordnung der Dinge, in der Beleuchtung, in Begleitgeräuschen, … Im Film ist es die Abfolge der Bilder und deren Füllungen.

Im Fall von Brettspielen fangen die beteiligten Spieler an, mit Blick auf erlaubte Regeln, den aktuellen Spielstand und die möglichen Gewinnsituationen in der Zukunft zu handeln. Dieses Handeln bewirkt eine schrittweise Änderung der jeweils aktuellen Spielsituation.

In abgewandelter Form passiert in einem Krimi oder in einem Roman nichts anderes: literarisch begabte Menschen benutzen das Mittel der Alltagssprache um Situationen zu beschreiben, die sich schrittweise durch Ereignisse oder das Verhalten von Menschen ändern. Noch eine Variante stellt die Gattung Hörspiel dar: statt eine Geschichte zu lesen hört man beim Hörspiel zu und lässt sich mit hinein nehmen in ein Geschehen, das sich von Situation zu Situation fortbewegt und den Hörer — wenn er sich angesprochen fühlt — geradezu mitreißen kann.

In der vorliegenden Anwendung gibt es alle Zutaten — Gegenwart, Zukunft, mögliche Maßnahmen –, aber wie kommt es hier zu einer Abfolge von Situationen?

Im einfachsten Fall setzten sich die Autoren der Texte zusammen und prüfen durch eigene Lektüre der Texte und Regeln, welche der Regeln aktuell angewendet werden könnten und sie wenden die Regeln an. Auch so würde eine Folge von Texten entstehen, wobei jeder Text eine Situation beschreibt. Erst die Start-Situation, dann die Anwendung von passenden Regeln, die zu einer Veränderung des Textes führt und damit zu einer neuen Situation.

Wir wissen von uns Menschen, dass wir dies im Alltag können (z.B. jeder Heimwerker — oder auch Hobby-Bastler — benutzt eine Bauanleitung, um aus den Einzelteilen des Bausatzes schrittweise ein komplexes Gebilde zusammen zu bauen). Wenn die Texte umfangreicher werden und wenn die Zahl der Regeln deutlich zunimmt, dann kommt man mit dieser händischen (manuellen) Methode bald an praktische Grenzen. In diesem Moment wäre es sehr schön, man könnte sich helfen lassen.

Viele Menschen benutzen heutzutage zum Schreiben von Texten, zum Rechnen, zum Malen, zum Komponieren, den Computer, obwohl es ja eigentlich auch ohne den Computer gehen würde. Aber mit einem Rechenblatt viele Rechnungen miteinander zu verknüpfen und dann ausrechnen zu lassen ist einfach bequemer und — in den komplexen Fällen — sogar die einzige Möglichkeit, die Arbeit überhaupt zu verrichten. Computer müssen nichts verstehen, um Zeichenketten bearbeiten zu können.

Diese formale Fähigkeit eines Computers soll für diese Anwendung genutzt werden: wenn ich die Text-Version einer Situation habe wie z.B. S1 = {Das Feuer ist fast erloschen.} und ich habe eine Veränderungsregel der Art: X1 = {Wenn C1 zutrifft dann füge Eplus1 dazu und nehme Eminus1 weg}, konkret C1 = {Das Feuer ist fast erloschen.}, Eplus1 = {Lege Holz nach.}, Eminus1 = {Leer}, dann ist es für einen Computer ein leichtes festzustellen, dass die Bedingung C1 in der aktuellen Situation S1 erfüllt ist und dass daher die Aussage Lege Holz nach. hinzugefügt werden soll zu S1, was zur neuen Situation S2 führt: S2 = {Das Feuer ist fast erloschen. Lege Holz nach.} Wenn es jetzt noch die Regel geben würde X2 mit C2 = {Lege Holz nach.}, Eplus2 ={Das Feuer brennt.}, Eminus2={Das Feuer ist fast erloschen.}, dann könnte der Computer ‚ohne Nachzudenken‘ die nächste Situation S3 erzeugen mit S3 = {Das Feuer brennt.}

Dieses einfache Beispiel demonstriert das Prinzip einer Simulation: man hat eine Ausgangssituation S0, man hat eine Menge von Veränderungsregeln im oben angedeuteten Format X= Wenn C in S erfüllt ist, dann füge Epluszu S dazu und nimm Eminus von S weg, und man hat einen Akteur, der die Veränderungsregeln auf eine gegebene Situation anwenden kann. Und diese Anwendung von Regeln erfolgt so oft, bis entweder keine Regeln mehr anwendbar sind oder irgendein Stopp-Kriterium erfüllt wird.

Schreibt man für den Ausdruck Die Menge der Veränderungsregeln X wird auf eine Situation S angewendet, was zur Nachfolgesituation S‘ führt verkürzend als: X(S)=S‘, ergibt die wiederholte Anwendung von X eine Serie der Art: X(S)= S‘, X(S‘)= S“, …, X(Sn-1)= Sn. Dies bedeutet, dass die Folge der Text-Zustände <S‘, S“, …, Sn> einen Simulationsverlauf repräsentieren. Man kann dann sehr gut erkennen, was passiert, wenn man bestimmte Regeln immer wieder anwendet.

In der vorliegenden Anwendung sollen solche durch Computer unterstützte Simulationen möglich sein, tatsächlich sogar noch mit einigen weiteren Feinheiten, die später näher beschrieben werden.

SIMULATION MIT BEWERTUNG

Wie zuvor schon im Text beschrieben wurde, kann man eine gegebene Situation S immer dann klassifizieren als erfüllt Eigenschaft K, wenn man über geeignete Kriterien K verfügt. In der vorliegenden Anwendung kann der Anwender eine Vision formulieren, eine Beschreibung, welcher Zustand in der Zukunft eintreten sollte.

Im Rahmen der Simulation soll es daher möglich sein, dass nach jeder Anwendung von Veränderungsregeln X mitgeteilt wird, in welchem Ausmaß die vorgegebene Vision V im aktuellen Zustand S eines Simulationsverlaufs schon enthalten ist. Die Aussagekraft einer solchen Klassifikation, die eine Form von Bewertung darstellt, hängt direkt von der Differenziertheit der Vision ab: je umfangreicher und detaillierter der Text der Vision ist, um so konkreter und spezifischer kann die Bewertung vorgenommen werden.

LERNFÄHIGE ALGORITHMEN (KI)

So, wie im Fall der Simulation der Computer dem Menschen bei ausufernden manuellen Tätigkeiten helfen kann, diese zu übernehmen, so ergibt sich auch für die Frage der Auswertung eines Simulationsverlaufs sehr schnell die Frage: könnte man auch ganz andere Simulationsverläufe bekommen, und welche von den vielen anderen sind eigentlich im Sinne eines vorgegebenen Zielkriteriums besser?

Tatsächlich haben wir es mit dem Ensemble einer Anfangssituation, einer Zukunftsvision und einer Menge von Veränderungsregeln mit einem Problemraum zu tun, der sehr schnell sehr umfangreich sein kann. Eine einzelne Simulation liefert immer nur einen einzigen Simulationsverlauf. Tatsächlich lässt der Problemraum aber viele verschiedene Simulationsverläufe zu. In den meisten Fällen ist eine Erkundung des Problemraumes und das Auffinden von interessanten Simulationsverläufen von großem Interesse. Der Übergang von einem Suchprozess zu einem lernenden Prozess ist fließend.

In der vorliegenden Anwendung soll von der Möglichkeit einer computergestützten lernende Suche Gebrauch gemacht werden.

QUELLENANGABEN und ANMERKUNGEN

[1] Siehe dazu den Schluss des Textes von Gerd Doeben-Henisch, 15.2.2021, PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design. Problem und Vision, https://www.cognitiveagent.org/2021/02/15/praktische-kollektive-mensch-maschine-intelligenz-by-design-problem-und-vision/https://www.cognitiveagent.org/2021/02/15/praktische-kollektive-mensch-maschine-intelligenz-by-design-problem-und-vision/

[2] Denkbar ist natürlich, dass partiell mit Übersetzungen gearbeitet werden muss.

[3] Dieses Modell der Zerlegung der Wirklichkeit in Zeitscheiben entspricht der Arbeitsweise, wie das menschliche Gehirn die jeweils aktuellen sensorischen Signale für ein bestimmtes Zeitintervall ‚zwischen-puffert‘, um die Gesamtheit der Signale aus diesem Zeitintervall dann nach bestimmten Kriterien als eine Form von Gegenwart abzuspeichern und daraus dann Vergangenheit zu machen.

[4] Damit dies möglich ist, landen alle Texte auf einem zentralen Server, der mit statistischen Methoden ganze Texte nach Methoden des sogenannten ‚maschinellen Lernens‘ analysiert, statistische Verwendungskontexte von Ausdrücken erstellt, angereichert durch diverse sekundäre Zusatzinformationen.

[5] Was diese bedingt lernfähigen Algorithmen an Übersetzungsleistungen ermöglichen, ist sehr wohl erstaunlich, aber es ist prinzipiell begrenzt. Eine vertiefte Analyse dieser prinzipiellen Begrenzungen führt in die Entstehungszeit der modernen formalen Logik, der modernen Mathematik sowie in die theoretischen Grundlagen der Informatik, die letztlich ein Abfallprodukt der Meta-logischen Diskussion in der Zeit von ca. 1900 bis 1940 ist. Wenn also die angezielte Anwendung die volle Breite der Alltagssprache nutzen können soll, dann reicht es nicht, die prinzipiell Bedeutungsfernen Verfahren der Informatik wie bisher einzusetzen.

[5a] Das Phänomen ‚Alltagssprache‘ ist bei näherer Betrachtung äußerst komplex. In einem anderen Beitrag habe ich einige der grundlegenden Aspekte versucht, deutlich zu machen: Gerd Doeben-Henisch, 29.Januar 2021, SPRACHSPIEL und SPRACHLOGIK – Skizze. Teil 1, https://www.cognitiveagent.org/2021/01/29/sprachspiel-und-sprachlogik-skizze-teil-1/

[6] … von denen die formale Logik nicht einmal träumen kann.

[7] In der formalen Logik sind Spracherweiterungen im vollen Sinne nicht möglich, da jede echte Erweiterung das System ändern würde. Möglich sind nur definitorische Erweiterungen, die letztlich Abkürzungen für schon Vorhandenes darstellen. Das Sprechen in einer gegebenen Sprache L über Elemente der Sprache L — also meta-sprachliches Sprechen –, ist nicht erlaubt. Aufgrund dieser Einschränkung konnte Goedel seinen berühmten Beweis von der Unmöglichkeit führen, dass ein formales System sowohl Vollständig als auch Widerspruchsfrei ist. Dies ist der Preis, den formale Systeme dafür zahlen, dass ’nichts falsch machen können‘ (abgesehen davon, dass sie von sich aus sowieso über keine Bedeutungsdimension verfügen)).

[8] Während formale Systeme — und Computer, die nach diesen Prinzipien arbeiten — durch diese Elemente inkonsistent und un-berechenbar werden, kann das menschliche Gehirn damit fast mühelos umgehen!

[9] Unser Gehirn arbeitet schon immer mit beliebigen Abstraktionen auf beliebigen Ebenen.

FORTSETZUNG

Eine Fortsetzung findet sich HIER.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

MOTIVATION 2. Außen und Innen

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 22.Sept. 2019
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Nach dem kurzen Überblick zum Lösen von Problemen mit den drei Faktoren Wissen (Erfahrung), Kommunikation und Motivation, sind in einem Schnelldurchgang die wichtigen Kontexte angesprochen worden, die der Mensch seit seiner Abspaltung vom homo erectus vor ca. 600.000 Jahren bis heute durchlaufen hat. Diese Kontexte sind wichtig, da die inneren Zustände des Menschen durch die kontinuierliche Interaktion mit dem jeweiligen Kontext einschneidend geprägt werden. In dieser Darstellung ist die genaue Rolle der internen Zustände, insbesondere jene, die das konstituieren, was im ersten Beitrag zusammenfassend ‚Motivation‘ genannt wurde, noch ungeklärt, offen. Dieser Punkt soll nun etwas weiter bedacht werden.

KREATIVER KERN. NUR BEDINGT ANPASSBAR

Die grundlegende Annahme, dass der Mensch durch seine Interaktionen mit der Umgebung seine inneren Zustände modifiziert, impliziert, dass der Mensch grundlegend ein lernendes System ist; dies gilt nach heutigem Kenntnisstand generell für alle biologischen Systeme. Dies bedeutet, dass der Mensch je nach dem Wandel der Verhältnisse sich unterschiedliche Strukturen, Abläufe, Konventionen, Erwartungen usw. intern aufprägt. Das so entstehende dynamische Wissen ist quasi ein inneres Bild der äußeren Welt, mehr oder weniger klar, und mehr oder weniger unterschiedlich in jedem einzelnen. Bedenkt man ferner, dass nach den neuen Erkenntnissen das Gehirn als Träger vieler geistiger Eigenschaften die Welt außerhalb des Körpers nicht direkt kennt, nur die sensorischen Fragmente, die es kunstvoll zu zusammenhängenden Strukturen zusammenbaut, dann repräsentiert das innere Bild für jeden einzelnen die Welt (wie sie vielleicht gar nicht ist), und dies für jeden ganz individuell. Vom eigenen Weltbild auf das des anderen zu schließen ist daher gefährlich; in der Regel ist das eigene Bild verschieden von dem der anderen. Es erfordert daher eine geeignete Kommunikation, um diese Verschiedenheit zu bemerken und die Gemeinsamkeiten klar zu stellen.

Jede Gesellschaft trainiert die nachwachsenden Generationen in der Regel dahingehend, den aktuellen Abläufen und damit einhergehenden Erwartungen zu folgen. Ein ‚regelkonformes Verhalten‘ ist so gesehen ein weit verbreiteter gesellschaftlicher Standard. Vielfach existieren Interventionsmechanismen, wenn einzelne oder ganze Gruppen scheinbar von den allgemeinen Normen abweichen.

Trotz einem solchen Erwartungsdruck gibt es aber die berühmten Aussteiger; gibt es Menschen die Aufbrechen und Auswandern (migrieren); gibt es die Protestler, die Alternativen und Oppositionellen, gibt es Freiheitskämpfer und Revolutionäre; andere wagen einen Neuanfang, gründen etwas; Wissenschaftler, Erfinder, kreative Köpfe schaffen neue Formen, neues Verhalten; andere sprechen von Bekehrung, vom Abwenden von Bisherigem und Zuwendung zu etwas ganz Anderem; Beziehungen zwischen Menschen über gesellschaftliche Schranken hinweg, trotz drohender Marginalisierung oder Todesdrohungen.

Diese Beispiele deuten an, dass Kontexte, die sich in das Innere von Menschen eingraben, nicht immer und überall das gesamte Innere beherrschen müssen. Aufgeprägte innere Strukturen erhöhen die Wahrscheinlichkeit, dass Menschen sich entsprechend konform verhalten, aber sie garantieren diese Konformität nicht. Das Innere verfügt anscheinend über Möglichkeiten, äußere Verhältnisse innerlich zu überwinden, die sich dann in neuen, alternativen Verhalten niederschlagen können. Das Innere besitzt irgendwie einen ‚kreativen Kern‘, der sich nicht notwendigerweise und nicht immer ganz durch die herrschenden Verhältnisse vereinnahmen lässt.

In den bekannten gesellschaftlichen Systemen seit dem Auftreten des homo sapiens, dem modernen Menschen, gibt es neben der schlichten Präsenz von Alltagsprozessen auch jene, in denen eine Gruppe von Menschen versucht, auf die anderen besonderen Einfluss zu nehmen durch Machtstrukturen bewehrt mit empfindlichen Strafen, durch nackte Gewalt und Folter, durch spezielle Belohnungsstrukturen, durch Indoktrinationen und Propaganda, und durch spezielle Werbung. Neben rein verbalen Aktionen gibt es auch den Bereich von Doping, Drogen oder der Virtualisierung von sozialen Beziehungen mit neuartigen Manipulationsmöglichkeiten (z.B. das Vorgaukeln von sozialer Nähe in virtuellen Räumen, die gleichzeitig zum Abbau von realer sozialer Nähe führen). Aber auch bei diesen verschärften Formen der Einflussnahme von Außen gibt es zahlreiche historische Beispiele aus allen Zeiten, dass Menschen standhalten und sich gegen diese Strukturen stellen. Sie besitzen eine ‚innere Motivation‘ die sie stark macht.

Allerdings kann auch der einzelne durch sich selbst zum Opfer werden, wenn er bestimmte grundlegende Bedürfnisse des Körper nicht hinreichend unter Kontrolle bringen kann. Prominente Beispiele sind vielfältige Formen von Sucht wie z.B. Sex, Essen, Trinken, Narzissmus, Eitelkeit, Drogen, Erfolg, Berühmt sein, um nur einige zu nennen. Auch hier gilt: viele zerbrechen daran, genauso gibt es immer wieder aus allen Zeiten Beispiele, dass Menschen es schaffen, sich diesen scheinbar unüberwindlichen Mechanismen zu entziehen. Die Motivation kann stärker sein als der Druck von außen (wobei ‚außen‘ hier physiologische, chemisch Prozesse sind, die die Zustände des Gehirns beeinflussen).

DER KÖRPER ALS FILTER UND ERMÖGLICHUNG

Viele der geistigen, psychischen Eigenschaften, die wir uns Menschen zuschreiben, erscheinen aus Sicht des Verhaltens und der Physiologie mit dem Gehirn verknüpft zu sein, das räumlich ‚im‘ Körper sitzt.

Aus Biologischer Sicht lassen sich die unterschiedlichen Körperstrukturen auflösen in eine unfassbar große Menge von Zellen, die beständig miteinander kommunizieren, von denen ständig welche absterben, andere neu entstehen. Rein zahlenmäßig entsprechen alle Zellen unseres Körpersystems etwa 450 Galaxien im Format der Milchstraße. Die Auflösung in Zellen macht viele der komplexen Strukturen unsichtbar, die den Körper zu dem machen, als was er uns funktionell erscheint.

In einem weiteren Abstraktionsschritt lassen sich alle Zellen auflösen in Richtung der Moleküle, aus denen Zellen bestehen, und noch weitergehender in Richtung der Atome der Moleküle, und sogar noch weitergehender in Richtung der subatomaren Partikel. Dies ist die Sicht der Quantenmechanik. In der Quantenmechanik gibt es keine festen Strukturen, sondern nur noch Wahrscheinlichkeitsverteilungen. Bei dieser Sichtweise ist ein menschlicher Körper (samt Gehirn) ein nach allen Seiten offenes Gebilde, das über riesige Entfernungen mit nahezu allem in Verbindung stehen kann.

Nicht wenige meinen, dass diese grundlegende quantenmechanische Offenheit und Verbundenheit von jedem mit jedem alle bislang ungelöste Fragen des menschlichen Geistes oder möglicher mystischer Zustände, für die bislang keine befriedigenden wissenschaftliche Erklärungsansätze existieren, lösen können.

Dies muss man allerdings bezweifeln. Schon die Entstehung der grundlegenden biologischen Strukturen, jene der einfachen Zellen vor ca. 3.5 Milliarden Jahre, entzieht sich bislang vollständig einer physikalischen Erklärung. Mit Quantenmechanik kann man in keiner Weise die Entstehung und die Besonderheit von biologischen Zellen erklären. Biologische Zellen haben so viele neuartigen spezielle Strukturen mit Hilfe von Molekülen geschaffen, die wiederum neuartige komplexe Funktionen ermöglicht haben, für die die Physik nicht den geringsten Denkansatz bietet. Schrödinger und viele andere großen Physiker haben dies erkannt. Die weitere Entwicklung des BIOMs mit komplexen Zellen, Zellverbänden, Atmosphäre und dann komplexen Organismen mit hochkomplexen Organen mit komplexen Nervensystemen für eine neuartige Informationsverarbeitung weit über die Mechanismen der DNA hinaus, entzieht sich der heutigen Physik bislang vollständig.

Was immer also sich auf der quantenmechanischen Ebene abspielt, die jeweils komplexeren biologischen Strukturen ‚verbergen‘ diese Vorgänge so, dass sie auf den höheren Ebenen in keiner Weise direkt durchschlagen.

Für den Bereich des sogenannten Bewusstseins bedeutet dies, dass das, was wir ‚bewusst‘ wahrnehmen, durch sehr viele komplexe Strukturen und Prozesse vermittelt ist, die die zugehörigen quantenmechanischen Vorgänge völlig verdecken, ‚weg filtern‘. Will man also die inneren Zustände verstehen, insbesondere den winzig kleinen Anteil der ‚bewussten‘ Ereignisse, dann muss man sich diesen bewussten Ereignissen und den zugehörigen ‚unbewussten‘ Prozessen direkt zuwenden. Die Leistung des Gesamtsystems zeigt sich eben in seinen komplexen funktionalen Ausprägungen, nicht in seinen möglichen Bestandteilen, die im Rahmen eines funktionellen Prozesses benutzt werden.

KRITISCHES DENKEN

Die Steuerung durch die alltäglichen Strukturen und Prozesse kann, wie die erwähnten Beispiele andeuten, durch den inneren, kreativen Kern der Motivation partiell oder ganz aufgehoben werden.

Eine Ursache dafür kann jene Form des Denkens sein, die sich mit den vorliegenden Formen des Wissens beschäftigt, das vorliegende Wissen zum Gegenstand macht, und auf einer zusätzlichen Reflexionsebene mit diesem vorliegenden Wissen ‚kreativ spielt‘, was sich auch in Form von systematischen philosophischen Reflexionen niederschlagen kann. Aber auch engagierte Literatur, manche Formen von Theater und vieles mehr kann zum Medium für alternatives Denken werden.

Wie auch immer solche kreativen Diskurse aussehen mögen, ohne eine geeignete Motivation werden sie nicht stattfinden.

Und die aufgeführten Beispiele enthalten viele Fälle, in denen die alternative, kreative Motivation nicht unbedingt von einer starken Wissenskomponenten begleitet wird. Motivationen als solche können eine Kraft entfalten, die ‚aus sich heraus‘ einen Menschen bewegen können, ‚das Andere‘ zu tun. Wie kann, wie muss man sich diesen ‚kreativen, heißen Kern‘ der Motivation vorstellen?

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

KANN MAN DEN POPULISMUS ÜBERWINDEN? Eine Notiz

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 11.Februar 2019
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Der vorausgehende Eintrag zum Phänomen des Populismus als einer angeborenen Verhaltenstendenz bei jedem Menschen rief bei einigen Lesern eine zwiespältige Reaktion hervor: einerseits würden die Überlegungen einleuchten, andererseits führte dies zu einer gewissen Hilfslosigkeit und Ratlosigkeit; wie kann man sich dagegen wehren? Denn, wenn Populismus gleichsam in den Genen ‚verdrahtet‘ ist, und damit alle betroffen sind, dann müssten sich ja ‚alle gleichzeitig‘ so verhalten, dass Populismus zumindest abgeschwächt wird (also unter 100% bleibt); eine vollständige Heilung (also 0%) scheint dagegen im Ansatz unmöglich. Diese Problemstellung aktivierte folgende Überlegungen.

FREIHEITSFELD

Das folgende Schaubild deutet einige der vielen Faktoren (Parameter) an, die alle zusammen spielen müssen, soll Freiheit gelingen. Daraus folgt, dass eine ‚freie Gesellschaft‘ eine extrem anspruchsvolle Teamleistung erfordert, die nur gelingen kann, wenn ALLE an einem Strang ziehen. Und ‚Alle‘ heißt hier wirklich ‚Alle‘.

Schaubild zum Umfeld der Freiheit; ein Netzwerk von Faktoren, die alle ineinander spielen

DIE GEBURT DER WELT IM KOPF

Ein zentraler Aspekt der These dass der Populismus angeboren sei besteht darin, dass aufgrund der grundlegenden Freiheit eines biologischen Systems und seiner grundlegenden Lernfähigkeit bei Kindern und jungen Menschen (sofern die äußeren Verhältnisse es zulassen!) zwar tatsächlich ‚automatisch‘ vielfältige intensive Lernprozesse stattfinden, mit zunehmendem Wissen, zunehmender Erfahrung, und zunehmenden Fähigkeiten im Alltag dann aber der Eindruck entsteht, dass man ja jetzt ‚alles kennt‘, ‚man Bescheid weiß‘, dass es ’nichts Neues mehr gibt‘. Wenn dieser Zustand eintritt (fließend, schleichend, nicht abrupt), dann beginnt die Welt im Kopf still zu stehen, sie hat eine ‚gewisse feste Form‘ gefunden, die Dinge sind immer mehr ‚wie sie sind (im Kopf)‘. Abweichungen, Änderungen, ‚Neues‘, Anderes werden jetzt nicht mehr als Anregung zum weiteren Lernen empfunden sondern zunehmend als ‚Störungen des Bestehenden‘. Und da diese Prozesse bei jedem ablaufen, bilden sich automatisch Gruppen ‚Gleichgesinnter‘, die in der Statik ihrer Bilder gleich sind, sich aber durch — meist zufallsbedingte Unterschiede in der Biographie — unterscheiden können (Anhänger verschiedener Fußballklubs, Fans verschiedener Popstars, Mitglieder von politischen Richtungen, von verschiedenen Religionen, …),

DIE UMGEBUNG ALS NÄHRBODEN

Der Einfluss der Umgebung auf die Ausbildung der individuellen Weltbilder ist erheblich, nahezu übermächtig. Denn — wie schon im vorausgehenden Beitrag festgestellt — wenn die grundlegende Freiheit und Lernfähigkeit eines biologischen Systems in seiner Umgebung nicht die materiellen Bedingungen findet, die es zum alltäglichen Leben, zu alltäglichen Lernen braucht, dann läuft die Freiheit ins Leere. Sie kann sich nicht ‚auswirken‘, sie kann kein Individuum befördern, dass hinreichend kompetent und lebensfähig ist.

Neben den eher ‚materiellen Bedingungen‘ der Freiheitsausübung gibt es aber noch die vielfältigen gesellschaftlichen Regeln, die das tägliche Verhalten betreffen. Wenn z.B. die Beteiligung am materiellen Warenaustausch nur über Geld läuft, der Erwerb von Geld für die Mehrheit an Arbeit gekoppelt ist, eine Gesellschaft aber nicht für alle genügend Arbeit bereit stellen kann, dann verhindern diese Konventionen, das ALLE hinreichend am materiellen Warenaustausch beteiligt sind. Wenn z.B. die ‚Rechte‘ am Boden und am Wasser von ‚Stammeshäuptern‘ vergeben werden, diese sich aber auf Kosten der eigenen Stammesmitglieder bereichern, indem sie diese Rechte an lokalfremde Kapitalgeber ‚verkaufen‘, so dass die Bewohner eines Gebietes ihrem eigenen Boden und Wasser ‚enteignet‘ werden, dann kann Freiheit nicht funktionieren. Wenn z.B. viele Millionen Kinder keine Ausbildung bekommen, sondern stattdessen unentgeltlich für ihre Eltern oder für Fremde arbeiten müssen, dann wird ihnen die Grundlage für ein freies Leben genommen. usw.

Es gibt auch Varianten des Freiheitsentzugs über Verfremdung der Kognition: wenn z.B. Videoserien im Internet, (online) Computer-Spiele im Internet, oder Fernsehserien — alle jeweils mit vielen Millionen Nutzern — sich viele Stunden am Tag in Erregungszustände versetzen, die keine für den Alltag nutzbaren Inhalte vermitteln, sondern mit Phantasiebildern das Gehirn blockieren, dann ist das eine kognitive Selbstverstümmlung, die als ‚Gehirnwäsche‘ in anderen Zusammenhängen verboten ist.

KULTURELLE GESAMTLEISTUNG

Aus der Geschichte wissen wir, wie mühsam es für die Population der Menschheit war, dem Leben Wissen, Erfahrungen, Werte stückweise abzuringen, um vom Status der Jäger und Sammler zu immer komplexeren Gesellschaften mit immer mehr Handwerk, Technik, sozialen Institutionen, Rechtssystemen, Handels- und Wirtschaftssystemen, Dörfer, Städten, Regionen, lokal, national und international zu werden, mit Kommunikationssystemen, Wissensspeicherungstechniken, Bildungsstrategien usw., dann dürfte klar sein, DASS die Großgesellschaft, ihre politische, soziale, juristische usw. Verfasstheit, weder von eine einzelnen alleine noch innerhalb einer kurzen Zeit ‚aufgebaut‘ werden konnte und auch heute nicht so einfach aufgebaut werden kann. Funktionierende komplexe Gesellschaften erfordern den Einsatz von jedem einzelnen und das in einer aufeinander abgestimmten Weise. So etwas aufzubauen und dann ‚am Leben zu erhalten‘ ist schwer; es zu zerstören vergleichsweise einfach.

Wir erleben heute eine Phase der Menschheit, in der — verglichen mit der Vergangenheit — sehr komplexe Strukturen erreicht worden sind, deren ‚Erhaltung‘ schon schwierig erscheint, erst recht ihre konstruktive und nachhaltige ‚Weiterentwicklung‘.

PRÄFERENZEN (WERTE)

Was im ‚Getöse des Alltags‘ leicht und gerne untergeht, das ist die Tatsache, dass alle die vielen Konventionen, Regeln, Vorschriften und Gesetze, die zur ‚Regulierung des Alltags‘ verabredet worden sind, letztlich auf ‚Wertsetzungen‘ zurück gehen, auf ‚Präferenzen‘: man will eher A als B. So stellen z.B. die Menschenrechte für einige Verfassungen von Staaten einen ‚Wertekanon‘ dar, auf den die Staatsverfassung und alle davon abhängigen Regeln aufbauen. Bei anderen sind es Überzeugungen aus bestimmten religiösen Traditionen. Gemeinsam ist allem das Faktum der ‚primären Präferenzen‘, ohne die keine Regelung auskommt.

Und es ist sehr seltsam: über die Grundlagen der staatlichen Verfassungen wird nirgendwo diskutiert; in den meisten Staaten ist dies sogar verboten.

Dies mag vielleicht aus einem ‚Schutzbedürfnis‘ heraus motiviert sein. Wenn aber z.B. im Deutschen Grundgesetz bestimmte Werte vorausgesetzt werden, für die z.B. die empirischen Wissenschaften keine Motivation mehr liefern können, und in der täglichen Massenkommunikation die einzelnen Bürgern mit Inhalten zugedröhnt werden, die mit diesen Grundwerten ebenfalls kaum noch etwas zu tun haben, und viele alte Wertelieferanten heute eher unglaubwürdig erscheinen, dann kann man sich fragen, wie lange eine Gesellschaft noch zukunftsfähig ist, die ihre eigenen Grundlagen täglich erodieren lässt und wenig dazu zu tun scheint, sie zu erneuern. Die Freiheit dazu ist grundsätzlich gegeben, aber die Nutzung dieser Freiheit erweckt viele Fragen zum Leben …

Eine gewisse Fortsetzung des Themas findet sich HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

DAS LEBEN ALS PROJEKT DER FREIHEIT

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 11.Dez. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KURZFASSUNG

Die grundlegende Idee einer Freiheit, die das Leben, insbesondere den Menschen, auszeichnet, die die großen wissenschaftlichen, politischen und auch wirtschaftlichen Umbrüche der Neuzeit hervorgebracht hat, scheint  unter zunehmender Atemnot zu leiden. Ein kurzer Blick auf die materielle Basis des Lebens unterstützt dies nicht. Leben ist gerade wissenschaftlich ein einziges Freiheitsprojekt …. Freiheit war aber noch nie ‚bequem‘ …

KONTEXT: REDE VON FREIHEIT

In einem aktuellen Beitrag in der Frankfurter Rundschau mit Titel ‚Der sanfte Umbruch‚ wird das Phänomen der Digitalisierung in seinen weitreichenden gesellschaftlichen und individuellen Wirkungen schlaglichtartig sichtbar gemacht, und zugleich als ein Leitmotiv auf den Menschen als Wesen der Freiheit hingewiesen. Dies ist bemerkenswert, da der Faktor Mensch heute weder in den Wissenschaften noch in vielen Gesellschaften als jener ausgezeichnete Ort von verdichteter Freiheit angesehen wird, der er – bei entsprechender Betrachtung – ist. Und damit sind wir am Kern des Problems: was nützen die spannendsten Sachverhalte, wenn der potentielle Betrachter eine mentale Brille auf hat, die ihn daran hindert, das zu sehen, was ‚ist‘.

IN GUTER GESELLSCHAFT: ZERSPLITTERUNG

Mit dem Aufhaben einer falschen mentalen Brille ist man allerdings in einer guten Gesellschaft. Wie der Überblick über die Vielzahl von Einzelwissenschaften im Rahmen der Relektüre von Edelmans Buch von 1992 gezeigt hat, zersplittert sich die Wissenschaft aufgrund ihres wissenschaftsphilosophischen Selbstverständnisses in immer mehr Einzelwissenschaften, die immer mehr Details zeigen, und immer weniger Zusammenhänge (die im Schaubild dieses Beitrags genannten Einzelwissenschaften sind nur die Spitze des Eisbergs). Selbst wenn es interessante komplexe Sachverhalte geben würde, die über den Wahrnehmungshorizont einer Einzelwissenschaft hinausreichen würden, solche Sachverhalte würden unerkannt bleiben, weil es keinen organisierten ‚integrierenden Blick‘ auf das ‚Ganze im Lichte des Einzelnen‘ gibt. Die verschiedenen Integrationsfantasien der Physik, die Vision einer Weltformel , haben sich weder erfüllt noch sind sie – aufgrund vieler kritischer Argumente – prinzipiell so möglich, wie sie die Physik gerne hätte.

KRANK IM KOPF?

Wer meint, „diese Probleme der Wissenschaft gehen ihn direkt nichts an, man selbst in seinem Alltag wisse ja doch schon, irgendwie, ‚wo es lang geht‘, was soll das also“, einem solchen ist natürlich zunächst wenig zu helfen. Wer so redet hat seine eigene mentale Brille, die offensichtlich darauf optimiert ist, alles auszublenden, was stört bzw. vielleicht stören könnte.

Dass mentale Brillen im Kopf selbst große Wissenschaftler beeinflussen können, ist nichts Neues. Die Geschichte ist voll davon. Edelman selbst, dessen Buch von 1992 ich einer Re-Lektüre mit Diskussion unterziehe (siehe den Überblick über alle bisherigen Beiträge), ist jemand, der eigentlich deutlich über die Grenzen seiner eigenen Wissenschaft hinaus schaut und hier auf interessante Fehlentwicklungen hinweist. Aber in seinem eigenen, angestammten Gebiet der Gehirnforschung, wird er dennoch Opfer seiner eigenen wissenschaftsphilosophischen Setzungen. In seiner Analyse und Diskussion des Phänomens ‚Bewusstsein‘  beginnt er mit sehr klaren, fast rabiaten Worten, in denen er den besonderen Charakter des Phänomens ‚Bewusstsein‘ herausstellt („Bewusstsein ist fremd, mysteriös, das ‚letzte Geheimnis‘.“ (S.137f)). Und er beschreibt auch die methodische Unmöglichkeit, das Phänomen als das, was es ist, ein erste-Person-Phänomen, wissenschaftlich angemessen beschreiben zu können. Dann aber – trotz eines eigenen Abschnitts über das, was genau die Eigenschaften einer wissenschaftlichen Theorie seien – beschreibt er wissenschaftliche Praktiken, die im Kern methodisch nicht das leisten, was sie leisten sollen, die aber dann in ihrem Ergebnis so gehandelt werden, ‚als ob‘ sie das Phänomen Bewusstsein behandelt hätten (dies erinnert ein wenig an die Praktiken der Finanzindustrie, die schrottige Finanzen (also eigentlich nicht vorhandenes Geld) so geschickt ‚mehrfach verpackt‘ haben, dass der Käufer  den Eindruck haben konnte, er kaufe ein funktionierendes Wertpapier)). Nun wird man Edelman sicher nicht jene kriminelle Energie unterstellen, die die Finanzkontrukteure angetrieben hat, aber irgendeine Form von ‚Energie‘ muss es dennoch sein, etwas mit einer Methode A erklären zu wollen, wofür die Methode A aber nicht ausgelegt ist.

Dieses Beispiel – wie gesagt, eines von vielen Hunderten wenn nicht Tausenden – zeigt, dass das Problem der mentalen Brille, die A zeigt, obgleich wir ein Nicht-A haben, jeden, selbst den größten Wissenschaftler, treffen kann. Und es ist die Gehirntheorie von Edelman selbst, die viele der Argumente liefert, warum wir ‚von Natur aus‘ das Problem der ‚mentalen Brille‘ haben; letztlich ist es eigentlich kein ‚Problem‘, sondern eine grandiose Errungenschaft des Lebens, das allerdings, bei ‚falschem Gebrauch‘, das Gegenteil von dem bewirkt, wofür es eigentlich ausgelegt ist.

BEWUSSTWERDUNG …

In den Kapiteln 11 und 12 beschreibt Edelman das Phänomen des Bewusstseins, wie es sich aus Sicht der Gehirnforschung und der Biologie darstellt.

Stark vereinfachend kann man seine Position vielleicht dahingehend zusammen fassen, dass er einmal zwischen einem ‚primären Bewusstsein‘ und einem ‚Höheren Bewusstsein‘ unterscheidet.

Das primäre Bewusstsein ist den aktuellen sinnlichen Wahrnehmungen der Außen- und Innenwelt verhaftet, kennt nur eine Gegenwart, das Jetzt, ist aber dennoch – auf unbewusste Weise – mit einer Gedächtnismaschinerie verbunden, die automatisiert die primären Erlebnisse ‚kategorisiert‘ und ‚bewertet‘. Schon hier beginnt also eine ‚Interpretation‘ von ‚Welt‘ sowohl in ihren ‚wissbaren Strukturen‘ wie auch in ihren ‚individuellen Bewertungen‘, und zwar ‚unbewusst‘. (Den Begriff ‚unbewusst‘  erläutert Edelman erst im Kap.13).

Vom primären, in der Gegenwart verhafteten Bewusstsein unterscheidet er das ‚höhere Bewusstsein‘, das in der Lage ist, die Gegenwart zu übersteigen durch Abstraktionsbildungen, welche die Gegenart und Vergangenheit explizit vergleichen können. Ein wichtiges Mittel ist hier ferner die symbolische Sprache, mit deren Hilfe nicht nur Momente des wahrgenommenen und erinnerten Wissens ‚fixiert‘, ‚bewusst erinnert‘, und ’neu konfiguriert (gedacht)‘ werden können, sondern das individuelle Gehirn kann mittels der Sprache mit einem anderen Gehirn in begrenztem Umfang ‚kommunizieren‘.

Die Wirkung dieser neuen inneren Organisationsstrukturen des Körpers zeigen sich in der Geschichte der Evolution unübersehbar und massiv: seit dem Auftreten des Homo  sapiens ist die Komplexität des Lebens auf der Erde in atemberaubend kurzer Zeit explodiert; dies ist eine extreme Form von exponentieller Beschleunigung.

Wichtig ist aber jene Unterscheidung von Edelman, dass die Entwicklung der Sprache der Entwicklung der komplexen Begriffsbildung sowie der Entwicklung des physiologischen Sprechapparates nachfolgt. Ohne komplexe Begriffsbildung und ohne Sprechapparat keine Sprache. Dies ist insofern wichtig als die Ausbildung bestimmter symbolischer Ausdrucksmittel und deren Assoziierung mit bestimmten ‚Inhalten‘ ein sekundärer Prozess ist.

KEIN DETERMINISMUS

Ebenso wichtig ist, sich bewusst zu machen, dass sowohl bei der ontogenetischen Entwicklung des Gehirns in einem einzelnen Organismus sowie in der kontinuierlichen Arbeit eines individuellen Gehirns in keiner Phase ein ‚Determinismus‘ vorliegt. Sowohl das individuelle Gehirnwachstum wie auch die kontinuierliche Arbeit des Gehirns ist sowohl von vielen zufälligen Faktoren geprägt wie auch von beständigen Selektionsprozessen: aus einer Fülle von Optionen müssen ständig einige wenige ausgewählt werden, um den Lebensprozess nicht zum Stillstand zu bringen. Und hier treffen wir auf die Wurzel aller mentalen Brillen!

Um zu überleben, muss der individuelle Organismus aufgrund begrenzter Ressourcen ständig auswählen und damit Entscheidungen fällen. Diese Entscheidungen sind primär ‚automatisch‘, ‚unbewusst‘, eine Mischung aus genetischen induzierten ‚Tendenzen‘ sowie durch bisherige ‚Erfahrungen mit ihren impliziten Bewertungen‘. Dieser Mechanismus kann ‚deterministisch‘ wirken. Allerdings erlauben die höheren Gehirnleistungen – insbesondere auch die Sprache – diese weitgehend unbewussten Prozesse partiell ’sichtbar‘ und damit zu ‚explizitem Wissen‘ zu machen, das dann in komplexere Beziehungen und Modelle eingebaut werden kann, mittels deren Tendenzen sichtbar werden, implizite Voraussetzungen, mögliche Zukünfte. Ein solches explizit reflektierendes Verhalten ist mühsam, bietet aber prinzipiell die Möglichkeit, aus dem dumpfen Automatismus einer genialen Maschinerie partiell und schrittweise zu entkommen. Allerdings auch nur, wenn man sowohl den Wahrnehmungsprozess wie auch den Denkprozess beständig mit Alternativen, mit anderen Mustern konfrontiert. Die eigene Erfahrung ist sich selbst gegenüber weitgehend ‚blind‘. Die verfügbare Erfahrung als solche ist weder ‚wahr‘ noch ‚falsch‘, sie wirkt sich aus auf den kognitiven Verarbeitungsprozess, und diese Auswirkungen sind primär unbewusst. Es erfordert explizit Anstrengung, sich diesen bewusst zu machen.

Die Erfindung der neuzeitlichen experimentellen Wissenschaften war in diesem Kontext ‚revolutionär‘, da man versucht hat, die automatisierten, unbewussten Abläufe der individuellen Denkprozesse zu ‚externalisieren‘, sie an ‚externe‘ Objekte und Verfahren zu knüpfen, sie wiederholbar und transparent zu machen, unabhängig von den Besonderheiten eines individuellen Beobachters. Bis zu einem gewissen Grad hat diese Strategie bis heute große Wirkungen erzielt.

Allerdings haben diese Erfolge aus den Blick geraten lassen, dass die individuellen Gehirne der Forscher immer noch im Spiel bleiben, und dass diese individuellen Gehirne ihr eigenes ‚Betriebsprotokoll‘ haben, ihre ‚Policy‘, wie sie mit erlebbaren Ereignissen umgehen. Das Gehirn aus sich heraus ermöglicht zwar eine ‚kritische Theoriebildung‘, wenn aber der ‚Steuermann des Verhaltens‘ (Wer ist das genau?) die Mechanismen einer kritischen Überprüfung, eines kritischen Lernens nicht aktiviert, nicht nutzt, dann kann das Gehirn – wie viele Jahrtausende Kulturgeschichte zeigen – sich in Modellbildungen verrennen, die ‚an sich‘ schön aussehen, aber von nur geringem Erklärungswert sind, die Leben behindern statt zu fördern.

FREIHEIT ODER UNFREIHEIT

So wie im berühmten Beispiel mit dem halb vollen Glas, das der ‚Optimist‘ anders sieht als der ‚Pessimist‘, ist es auch hier ein wenig eine Frage der Einschätzung, ob man das biologische Wunderwerk Homo sapiens nun als einen gewissen ‚Höhepunkt‘ (aber nicht Endpunkt!) der bisherigen Evolution ansieht, oder aber als das nächste ‚Auslaufmodell‘.

Wer sich den mühevollen Weg der biologischen Evolution vergegenwärtigt, am besten noch erweitert um die Evolution des Universums, der kann eigentlich nicht umhin ins Staunen zu geraten, welche unfassbare Komplexitäten sich hier ‚aus sich heraus‘ organisiert haben. Dass wir heute vielfach an Überlastungen, an Versagen dieser Komplexität leiden, die Schwierigkeiten erleben, die eine Umsetzung der implizit gegebenen Möglichkeiten mit sich bringen, ist aus Sicht des Beteiligtseins nachvollziehbar. Dennoch waren Schwierigkeiten der Umsetzung eigentlich noch nie ein Beweis der Unmöglichkeit. Gemessen an den Problemen, die das biologische Leben in den vergangenen ca. 3.8 Mrd Jahren erleben und meistern musste, ist das, was wir heute erleben, eigentlich ein ‚Luxusproblem‘. Allerdings, die grundsätzliche Einsicht in das ‚Wunder des Lebens‘ ist noch nicht automatisch die ‚Umsetzung eines lebbaren Weges‘.

Andererseits, alle diese Probleme gibt es nur, weil das Leben von Grunde auf ein Projekt der Freiheit ist und es diese Offenheit für eine je größere und andere Zukunft ist, die permanent ‚Stress‘ erzeugt. Alles in der Vergangenheit erworbene Wissen, umgesetzte Verfahren und Strukturen haben eine eingebaute ‚Verfallszeit‘, weil der umgebenden universale Weltprozess dynamisch ist, sich beständig verändert, und alles, was bis zu einem gewissen Zeitpunkt erreicht wurde, kann nur erhalten werden, wenn es ‚angemessen‘ (nachhaltig, resilient) verändert wird. Wäre unser menschliches und gesellschaftliches Denken weniger an ‚Statik‘ ausgerichtet, weniger an ‚Bewahrung‘, weniger an ‚politischer Korrektheit‘, sondern stattdessen eher an ‚kontinuierlicher Veränderung‘, an ‚kreativer Forschung‘, an ‚experimentellen Entwürfen‘, an ‚unkonventionellen Typen‘, dann wären wir wahrscheinlich grundlegend besser aufgestellt.

 

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

 

 

 

 

 

 

KI UND BIOLOGIE. Blitzbericht zu einem Vortrag am 28.Nov.2018

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
29.Nov. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE AKTUALISIERUNG: 1.Dez.2018, Anmerkung 1

KONTEXT

Im Rahmen einer öffentlichen Veranstaltung des Fachbereichs 2 ‚Informatik & Ingenieurwissenschaften‘ der Frankfurt University of Applied Sciences am 28.November 2018 mit dem Rahmenthema „Künstliche Intelligenz – Arbeit für Alle?“ hielt Gerd Doeben-Henisch einen kurzen Vortrag zum Thema „Verändert KI die Welt?“ Voraus ging ein Vortrag von Herrn Helmut Geyer „Arbeitsmarkt der Zukunft. (Flyer zur Veranstaltung: FRA-UAS_Fb2_Karte_KI-Arbeit fuer alle_Webversion )

EINSTIEG INS KI-THEMA

Im Kontext der Überlegungen zur Arbeitswelt angesichts des technologischen Wandels gerät die Frage nach der Rolle der Technologie, speziell der digitalen Technologie — und hier noch spezieller der digitalen Technologie mit KI-Anteilen – sehr schnell zwischen die beiden Pole ‚Vernichter von Arbeit‘, ‚Gefährdung der Zukunft‘ einerseits und ‚Neue Potentiale‘, ‚Neue Arbeit‘, ‚Bessere Zukunft‘, wobei es dann auch einen dritten Pol gibt, den von den ‚übermächtigen Maschinen‘, die die Menschen sehr bald überrunden und beherrschen werden.

Solche Positionen, eine Mischungen aus quasi-Fakten, viel Emotionen und vielen unabgeklärten Klischees, im Gespräch sachlich zu begegnen ist schwer bis unmöglich, erst Recht, wenn wenig Zeit zur Verfügung steht.

Doeben-Henisch entschloss sich daher, das Augenmerk zentral auf den Begriff ‚Künstliche Intelligenz‘ zu lenken und die bislang uneinheitliche und technikintrovertierte Begrifflichkeit in einen größeren Kontext zu stellen, der das begrifflich ungeklärte Nebeneinander von Menschen und Maschinen schon im Ansatz zu überwinden sucht.

ANDERE DISZIPLINEN

Viele Probleme im Kontext der Terminologie der KI im technischen Bereich erscheinen hausgemacht, wenn man den Blick auf andere Disziplinen ausweitet. Solche andere Disziplinen sind die Biologe, die Mikrobiologie sowie die Psychologie. In diesen Disziplinen beschäftigt man sich seit z.T. deutlich mehr als 100 Jahren mit komplexen Systemen und deren Verhalten, und natürlich ist die Frage nach der ‚Leistungsfähigkeit‘ solcher Systeme im Bereich Lernen und Intelligenz dort seit langem auf der Tagesordnung.

Die zunehmenden Einsichten in die unfassbare Komplexität biologischer Systeme (siehe dazu Beiträge in diesem Blog, dort auch weitere Links), lassen umso eindrücklicher die Frage laut werden, wie sich solche unfassbar komplexen Systeme überhaupt entwickeln konnten. Für die Beantwortung dieser Frage wies Doeben-Henisch auf zwei spannende Szenarien hin.

KOMMUNIKATIONSFREIE EVOLUTION

Entwicklungslogik vor der Verfügbarkeit von Gehirnen
Entwicklungslogik vor der Verfügbarkeit von Gehirnen

In der Zeit von der ersten Zelle (ca. -3.8 Mrd Jahren) bis zur Verfügbarkeit hinreichend leistungsfähiger Nervensysteme mit Gehirnen (ab ca. -300.000, vielleicht noch etwas früher) wurde die Entwicklung der Lebensformen auf der Erde durch zwei Faktoren gesteuert: (a) die Erde als ‚Filter‘, was letztlich zu einer bestimmten Zeit geht; (b) die Biomasse mit ihrer Reproduktionsfähigkeit, die neben der angenäherten Reproduktion der bislang erfolgreichen Baupläne (DNA-Informationen) in großem Umfang mehr oder weniger starke ‚Varianten‘ erzeugte, die ‚zufallsbedingt‘ waren. Bezogen auf die Erfolge der Vergangenheit konnten die zufälligen Varianten als ’sinnlos‘ erscheinen, als ’nicht zielführend‘, tatsächlich aber waren es sehr oft diese zunächst ’sinnlos erscheinenden‘ Varianten, die bei einsetzenden Änderungen der Lebensverhältnisse ein Überleben ermöglichten. Vereinfachend könnte man also für die Phase die Formel prägen ‚(Auf der dynamischen Erde:) Frühere Erfolge + Zufällige Veränderungen = Leben‘. Da zum Zeitpunkt der Entscheidung die Zukunft niemals hinreichend bekannt ist, ist die Variantenbildung die einzig mögliche Strategie. Die Geschwindigkeit der ‚Veränderung von Lebensformen‘ war in dieser Zeit auf die Generationsfolgen beschränkt.

MIT KOMMUNIKATION ANGEREICHERTE EVOLUTION

Nach einer gewissen ‚Übergangszeit‘ von einer Kommunikationsfreien zu einer mit Kommunikation angereicherte Evolution gab es in der nachfolgenden Zeit die Verfügbarkeit von hinreichend leistungsfähigen Gehirnen (spätestens mit dem Aufkommen des homo sapiens ab ca. -300.000)[1], mittels deren die Lebensformen die Umgebung und sich selbst ‚modellieren‘ und ‚abändern‘ konnten. Es war möglich, gedanklich Alternativen auszuprobieren, sich durch symbolische Kommunikation zu ‚koordinieren‘ und im Laufe der letzten ca. 10.000 Jahren konnten auf diese Weise komplexe kulturelle und technologische Strukturen hervorgebracht werden, die zuvor undenkbar waren. Zu diesen Technologien gehörten dann auch ab ca. 1940 programmierbare Maschinen, bekannt als Computer. Der Vorteil der Beschleunigung in der Veränderung der Umwelt – und zunehmend auch der Veränderung des eigenen Körpers — lies ein neues Problem sichtbar werden, das Problem der Präferenzen (Ziele, Bewertungskriterien…). Während bislang einzig die aktuelle Erde über ‚Lebensfähig‘ ‚oder nicht Lebensfähig‘ entschied, und dies das einzige Kriterium war, konnten die  Lebewesen mit den neuen Gehirnen  jetzt eine Vielzahl von Aspekten ausbilden, ‚partielle Ziele‘, nach denen sie sich verhielten, von denen oft erst in vielen Jahren oder gar Jahrzehnten oder gar noch länger sichtbar wurde, welche nachhaltigen Effekte sie haben.

Anmerkung 1: Nach Edelman (1992) gab es einfache Formen von Bewusstsein mit den zugehörigen neuronalen Strukturen ab ca. -300 Mio Jahren.(S.123) Danach hätte es  also ca. 300 Mio Jahre gedauert, bis   Gehirne, ausgehend von einem ersten einfachen Bewusstsein, zu komplexen Denkleistungen und sprachlicher Kommunikation in der Lage waren.

LERNEN und PRÄFERENZEN

Am Beispiel von biologischen Systemen kann man fundamentale Eigenschaften wie z.B. das ‚Lernen‘ und die ‚Intelligenz‘ sehr allgemein definieren.

Systematisierung von Verhalten nach Lernen und Nicht-Lernen
Systematisierung von Verhalten nach Lernen und Nicht-Lernen

In biologischer Sicht haben wir generell Input-Output-Systeme in einer unfassbar großen Zahl an Varianten bezüglich des Körperbaus und der internen Strukturen und Abläufe. Wie solch ein Input-Output-System intern im Details funktioniert spielt für das konkrete Leben nur insoweit eine Rolle, als die inneren Zustände ein äußerlich beobachtbares Verhalten ermöglichen, das wiederum das Überleben in der verfügbaren Umgebung ermöglicht und bezüglich spezieller ‚Ziele‘ ‚erfolgreich‘ ist. Für das Überleben reicht es also zunächst, einfach dieses beobachtbare Verhalten zu beschreiben.

In idealisierter Form kann man das Verhalten betrachten als Reiz-Reaktions-Paare (S = Stimulus, R = Response, (S,R)) und die Gesamtheit des beobachtbaren Verhaltens damit als eine Sequenz von solchen (S,R)-Paaren, die mathematisch eine endliche Menge bilden.

Ein so beschriebenes Verhalten kann man dann als ‚deterministisch‘ bezeichnen, wenn die beobachtbaren (S,R)-Paare ’stabil‘ bleiben, also auf einen bestimmten Reiz S immer die gleiche Antwort R erfolgt.

Ein dazu komplementäres Verhalten, also ein ’nicht-deterministisches‘ Verhalten, wäre dadurch charakterisiert, dass entweder (i) der Umfang der Menge gleich bleibt, aber manche (S,R)-Paare sich verändern oder (ii) der Umfang der Menge kann sich ändern. Dann gibt es die beiden interessanten Unterfälle (ii.1) es kommen nach und nach neue (S,R)-Paare dazu, die ‚hinreichend lang‘ ’stabil‘ bleiben, aber ab einem bestimmten Zeitpunkt ‚t‘ sich nicht mehr vermehren (die Menge der stabilen Elemente wird ‚eingefroren‘, ‚fixiert‘, ‚gezähmt‘, …), oder (ii.2) die Menge der stabilen (S,R)-Paare expandiert ohne Endpunkt.

Bezeichnet man diese Expansion (zeitlich ‚befristet‘ oder ‚unbefristet‘) als ‚Lernen‘, dann wird sichtbar, dass die ‚Inhalte des Lernens‘ (die korrespondierenden Repräsentationen der (S,R)-Paare in den internen Zuständen des Systems) einmal davon abhängen, was die Umgebung der Systeme ‚erlaubt‘, zum anderen, was die ‚inneren Zustände‘ des Systems an ‚Verarbeitung ermöglichen‘, sowie – sehr indirekt – über welche welche ‚internen Selektionskriterien‘ ein System verfügt.

Die ‚internen Selektionskriterien‘ werden hier kurz ‚Präferenzen‘ genannt, also Strategien, ob eher ein A oder ein B ’selektiert‘ werden soll. Wonach sich solche Kriterien richten, bleibt dabei zunächst offen. Generell kann man sagen, dass solche Kriterien primär ‚endogen‘ begründet sein müssen, dass sie aber nachgeordnet auch von außen (‚exogen‘) übernommen werden können, wenn die inneren Kriterien eine solche Favorisierung des exogenen Inputs ‚befürworten‘ (Beispiel sind die vielen Imitationen im Lernen bzw. die Vielzahl der offiziellen Bildungsprozesse, durch die Menschen auf bestimmte Verhaltens- und Wissensmuster trainiert (programmiert) werden). Offen ist auch, ob die endogenen Präferenzen stabil sind oder sich im Laufe der Zeit ändern können; desgleichen bei den exogenen Präferenzen.

Am Beispiel der menschlichen Kulturen kann man den Eindruck gewinnen, dass das Finden und gemeinsame Befolgen von Präferenzen ein bislang offenes Problem ist. Und auch die neuere Forschung zu Robotern, die ohne Terminierung lernen sollen (‚developmental robotics‘), hat zur Zeit das Problem, dass nicht ersichtlich ist, mit welchen Werten man ein nicht-terminiertes Lernen realisieren soll. (Siehe: Merrick, 2017)) Das Problem mit der Präferenz-Findung ist bislang wenig bekannt, da die sogenannten intelligenten Programme in der Industrie immer nur für klar definierte Verhaltensprofile trainiert werden, die sie dann später beim realen Einsatz unbedingt einhalten müssen.  Im technischen Bereich spricht man hier oft von einer ’schwachen KI‘. (Siehe: VDI, 2018) Mit der hier eingeführten Terminologie  wären dies nicht-deterministische Systeme, die in ihrem Lernen ‚terminieren‘.

INTELLIGENZ

Bei der Analyse des Begriffs ‚Lernen‘ wird sichtbar, dass das, was gelernt wird, bei der Beobachtung des Verhaltens nicht direkt ’sichtbar‘ ist. Vielmehr gibt es eine allgemeine ‚Hypothese‘, dass dem äußerlich beobachtbaren Verhalten ‚interne Zustände‘ korrespondieren, die dafür verantwortlich sind, ob ein ’nicht-lernendes‘ oder ein ‚lernendes‘ Verhalten zu beobachten ist. Im Fall eines ‚lernenden‘ Verhaltens mit dem Auftreten von inkrementell sich mehrenden stabilen (S,R)-Paaren wird angenommen, das den (S,R)-Verhaltensformen ‚intern‘ entsprechende ‚interne Repräsentationen‘ existieren, anhand deren das System ‚entscheiden‘ kann, wann es wie antworten soll. Ob man diese abstrakten Repräsentationen ‚Wissen‘ nennt oder ‚Fähigkeiten‘ oder ‚Erfahrung‘ oder ‚Intelligenz‘ ist für die theoretische Betrachtung unwesentlich.

Die Psychologie hat um die Wende zum 20.Jahrhundert mit der Erfindung des Intelligenztests durch Binet und Simon (1905) sowie in Weiterführung durch W.Stern (1912) einen Ansatz gefunden, die direkt nicht messbaren internen Repräsentanten eines beobachtbaren Lernprozesses indirekt dadurch zu messen, dass sie das beobachtbare Verhalten mit einem zuvor vereinbarten Standard verglichen haben. Der vereinbarte Standard waren solche Verhaltensleistungen, die man Kindern in bestimmten Altersstufen als typisch zuordnete. Ein Standard war als ein Test formuliert, den ein Kind nach möglichst objektiven Kriterien zu durchlaufen hatte. In der Regel gab es eine ganze Liste (Katalog, Batterie) von solchen Tests. Dieses Vorgehensweisen waren sehr flexibel, universell anwendbar, zeigten allerdings schon im Ansatz, dass die Testlisten kulturabhängig stark variieren konnten. Immerhin konnte man ein beobachtbares Verhalten von einem System auf diese Weise relativ zu vorgegebenen Testlisten vergleichen und damit messen. Auf diese Weise konnte man die nicht messbaren hypothetisch unterstellten internen Repräsentationen indirekt qualitativ (Art des Tests) und quantitativ (Anteil an einer Erfüllung des Tests) indizieren.

Im vorliegenden Kontext wird ‚Intelligenz‘ daher als ein Sammelbegriff für die hypothetisch unterstellte Menge der korrespondierenden internen Repräsentanten zu den beobachtbaren (S,R)-Paaren angesehen, und mittels Tests kann man diese unterstellte Intelligenz qualitativ und quantitativ indirekt charakterisieren. Wie unterschiedlich solche Charakterisierung innerhalb der Psychologie modelliert werden können, kann man in der Übersicht von Rost (2013) nachlesen.

Wichtig ist hier zudem, dass in diesem Text die Intelligenz eine Funktion des Lernens ist, das wiederum von der Systemstruktur abhängig ist, von der Beschaffenheit der Umwelt sowie der Verfügbarkeit von Präferenzen.

Mehrdimensionaler Raum der Intelligenzrpräsentanen
Mehrdimensionaler Raum der Intelligenzrpräsentanen

Aus Sicht einer solchen allgemeinen Lerntheorie kann man statt biologischen Systemen auch programmierbare Maschinen betrachten. Verglichen mit biologischen Systemen kann man den programmierbaren Maschinen ein Äquivalent zum Körper und zur Umwelt spendieren. Grundlagentheoretisch wissen wir ferner schon seit Turing (1936/7), dass programmierbare Maschinen ihr eigenes Programm abändern können und sie prinzipiell lernfähig sind. Was allerdings (siehe zuvor das Thema Präferenz) bislang unklar ist, wo sie jeweils die Präferenzen herbekommen sollen, die sie für eine ’nachhaltige Entwicklung‘ benötigen.

ZUKUNFT VON MENSCH UND MASCHINE

Im Licht der Evolution erscheint die  sich beschleunigende Zunahme von Komplexität im Bereich der biologischen Systeme und deren Populationen darauf hinzudeuten, dass mit der Verfügbarkeit von programmierbaren Maschinen diese sicher nicht als ‚Gegensatz‘ zum Projekt des biologischen Lebens zu sehen sind, sondern als eine willkommene Unterstützung in einer Phase, wo die Verfügbarkeit der Gehirne eine rapide Beschleunigung bewirkt hat. Noch bauen die biologischen Systeme ihre eigenen Baupläne  nicht selbst um, aber der Umbau in Richtung von Cyborgs hat begonnen und schon heute ist der Einsatz von programmierbaren Maschinen existentiell: die real existierenden biologischen Kapazitätsgrenzen erzwingen den Einsatz von Computern zum Erhalt und für die weitere Entwicklung. Offen ist die Frage, ob die Computer den Menschen ersetzen sollen. Der Autor dieser Zeilen sieht die schwer deutbare Zukunft eher so, dass der Mensch den Weg der Symbiose intensivieren wird und versuchen sollte, den Computer dort zu nutzen, wo er Stärken hat und zugleich sich bewusst sein, dass das Präferenzproblem nicht von der Maschine, sondern von ihm selbst gelöst werden muss. Alles ‚Böse‘ kam in der Vergangenheit und kommt in der Gegenwart vom Menschen selbst, nicht von der Technik. Letztlich ist es der Mensch, der darüber entscheidet, wie er die Technik nutzt. Ingenieure machen sie möglich, die Gesellschaft muss entscheiden, was sie damit machen will.

BEISPIEL EINER NEUEN SYMBIOSE

Der Autor dieser Zeilen hat zusammen mit anderen KollegenInnen in diesem Sommer ein Projekt gestartet, das darauf abzielt, dass alle 11.000 Kommunen in Deutschland ihre Chancen haben sollten, ihre Kommunikation und Planungsfähigkeit untereinander dramatisch zu verbessern, indem sie die modernen programmierbaren Maschinen in neuer ‚intelligenter‘ Weise für ihre Zwecke nutzen.

QUELLEN

  • Kathryn Merrick, Value systems for developmental cognitive robotics: A survey, Cognitive Systems Research, 41:38 – 55, 2017
  • VDI, Statusreport Künstliche Intelligenz, Oktober 2018, URL: https://www.vdi.de/vdi-statusbericht-kuenstliche-intelligenz/ (zuletzt: 28.November 2018)
  • Detlef H.Rost, Handbuch der Intelligenz, 2013: Weinheim – Basel, Beltz Verlag
  • Joachim Funke (2006), Kap.2: Alfred Binet (1857 – 1911) und der erste Intelligenztest der Welt, in: Georg Lamberti (Hg.), Intelligenz auf dem Prüfstand. 100 Jahre Psychometrie, Vandenhoek & Ruprecht
  • Alfred Binet, Théodore Simon: Methodes nouvelles pour le diagnostiqc du niveau intellectuel des anormaux. In: L’Année Psychologique. Vol. 11, 1904, S. 191–244 (URL: https://www.persee.fr/doc/psy_0003-5033_1904_num_11_1_3675 )
  • William Stern, Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkinder, 19121: Leipzig, J.A.Barth
  • Alan M. Turing, On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, 42(2):230–265, 1936-7
  • Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.