Archiv der Kategorie: Intelligenz

EINSCHUB : INTELLIGENZ – LERNEN – WISSEN – MATERIELLE BEDINGUNGEN; KI

Autor: Gerd Doeben-Henisch

Datum: 20.Febr 2025 – 20.Febr 2025

Kontakt: cagent@cognitiveagent.org

Eine englische Version findet sich HIER.

KONTEXT

Dies ist eine weitere  Zwischenreflexion, um die Begrifflichkeit von ‚Intelligenz‘ und ‚Lernen‘ strukturell weiter zu klären. Diese und die vorausgehende Zwischenreflexionen verstehen sich als ‚Ergänzung‘ zum Hauptstrang des Text-Projektes ‚Was ist Leben?‘

HAUPTSTRANG: Was ist Leben?

  1. WAS IST LEBEN ? Welche Rolle haben wir ? Gibt es eine Zukunft ?
  2. WAS IST LEBEN ? … DEMOKRATIE – BÜRGER
  3. WAS IST LEBEN ? … PHILOSOPHIE DES LEBENS
  4. WAS IST LEBEN ? … Wenn Leben ‚Mehr‘ ist, ‚viel Mehr‘ …
  5. WAS IST LEBEN – GRAMMATIK DES ÜBERLEBENS. Im Focus: Homo sapiens …(noch nicht fertig)

Dem Text Nr.4 ging ein Vortrag am 31.Jan 2025 voraus, in dem ich die grundlegenden Ideen schon mal formuliert hatte.

EINSCHÜBE BISHER:

  1. EINSCHUB: Kurze Geschichte zum Begriff der Intelligenz und seiner möglichen Zukunft 
  2. EINSCHUB : BIOLOGISCHE INTELLIGENZ braucht LERNEN. Strukturanalyse

EINLEITUNG

Die erste Analyse des Konzepts ‚Intelligenz‘ machte deutlich, dass im Rahmen eines Intelligenztests nur solche ‚Antworten‘ von der ‚Versuchsperson‘ kommen können, die bei ihr aktuell ‚verfügbar‘ sind. Abgesehen von ‚angeborenen Reflexen‘ und körperlich bedingten Eigenschaften‘ handelt es sich dabei um solche ‚internen Strukturen‘, die im Rahmen von ‚Lernprozessen‘ entstanden sind. Diese durch Lernen erworbene Strukturen nennen wir hier ‚Wissen‘ bzw. ‚Erfahrung‘.

Diese Unterscheidung der Begriffe ‚Intelligenz‘, ‚Lernen‘ sowie ‚Wissen‘ und ‚Erfahrung‘ soll im folgenden Texte weiter vertieft werden. Dabei wird eine ‚generelle Struktur‘ des ‚Homo sapiens (HS)‘ deutlich, wie er als Teil des übergeordneten ‚Lebens (L)‘ ausgestattet ist, um ’sein Überleben‘ auf diesem ‚Planeten (P)‘ möglicherweise zu sichern. Als Teil des Lebens kann er seine Fähigkeiten aber auch nutzen, um zum Überleben des ganzen Lebens beizutragen, so wie diese letztlich seine Existenz sichert. Bis auf eine aktuell schwer einschätzbare Zukunft ist der Homo sapiens auf diesem Planeten vollständig auf das Gesamt-Leben angewiesen.

BILD 1 : Basiskonstellation von Planet (P), Leben (L) und dem Homo sapiens (HS) als Teilpopulation des Lebens. Alle Komponenten (P, L, HS) stehen sowohl in Wechselbeziehung zu sich selbst als auch untereinander

INTELLIGENZ – LERNEN – WISSEN – MATERIELLE BEDINGUNGEN

Ausgangspunkt

Der Ausgangspunkt der weiteren Überlegungen ist im folgenden Schaubild festgehalten:

BILD 2 : Eine ‚dynamische Sicht‘ der Konstellation Planet-Leben-Homo sapiens unter Voraussetzung eines fiktiven Beobachters

Aus der Sicht eines ‚fiktiven Beobachters‘ (siehe das BILD 2) kann man die ‚Struktur‘ der Konstellation ‚Planet – Leben – Homo Sapiens (PLHS)‘ mit ihren umfassenden ‚Wechselwirkungen‘ sehen als ‚eingebettet‘ in einen ‚zeitliche Struktur (T)‘, die hier als ein ‚Prozess mit Zeitscheiben‘ (siehe Text Nr.4) aufgefasst wird.

Im Schaubild gibt es als ‚Fixpunkt/ Standpunkt‘ die ‚Gegenwart'(NOW). ‚Vorher‘ zur Gegenwart gibt es eine ‚vermutete Geschichte‘ (HISTORY), und ’nachher‘ in den ‚möglicherweise kommenden neuen Gegenwarten‘ (POSSIBLE FUTURES) kann es ‚weitere‘ Gegenwarten geben, aber diese sind zum ‚aktuellen Zeitpunkt‘, in der ‚Gegenwart‘, noch nicht bekannt.

BILD 3 : Unter Voraussetzung eines ‚Gehirns‘, das mittels eines ‚Körpers‘ Eigenschaften der Welt ‚Wahrnehmen‘, später ‚Erinnern‘ und dann auch noch auf geeignete Weise ‚anordnen‘ kann, lässt sich eine gewisse ‚dynamische Struktur‘ von Planet, Leben und Homo sapiens erkennen.

Der ‚fiktive Beobachter‘ existiert allerdings nur im ‚Kopf‘ eines Menschen, sofern er ‚Denken‘ kann, insofern er sich ‚Erinnern‘ kann, und insofern er seine Erinnerung durch ‚aktuelle Wahrnehmungen‘ gewinnen konnte. Da sowohl die Wahrnehmung als auch das Erinnern als auch das Denken sich ‚irren‘ kann, bedeutet dies dass die Sicht des ‚fiktiven Beobachters‘ entweder ‚eher richtig‘ ist oder ‚eher falsch‘.

Wissen und materielle Einbettung

Der ‚denkende Mensch‘ ist mit einem ‚Körper‘ ausgestattet (Materielle Einbettung 1), der sich immer in einer ‚realen Situation‘ — oder in einem ‚realen Zustand‘– (Materielle Einbettung 2) befindet, wobei die Situation immer ‚Teil von etwas Größerem‘ ist. Hier gehen wir davon aus, dass dieses Größere‘ im Normalfall der ‚Planet Erde‘ ist (wobei dieser Planet in fast beliebig größere Kontexte des Universums eingebettet ist) und die ‚Population des Homo sapiens‘ sowie die ‚Gesamtheit des Lebens‘ (Materielle Einbettung 3).

Im Laufe der Zeit haben Menschen entdeckt, dass man ‚in der aktuellen Situation‘ vielfache ‚Spuren‘ (TRACES) entdecken kann, die auf Ereignisse im Bereich des Planeten Erde hinweisen, auf Ereignisse des Lebens auf dem Planeten sowie auch auf Ereignisse des Homo sapiens auf dem Planeten, als Teil des Lebens.

Diese ‚beobachtbaren Spuren‘ (observable TRACES) stammen aus unterschiedlichen ‚zeitlichen Abschnitten‘ in der ‚Geschichte‘ und lassen von daher Ansätze von ‚Veränderungen (V)‘ erkennen. Veränderungen, sofern sie ‚Regelmäßigkeiten‘ erkennen lassen, können als Ausgangspunkt genutzt werden, um mit Hilfe einer ‚Voraussage-Logik‘ ‚mögliche Zustände zu einem zukünftigen Zeitpunkt‘ (POSSIBLE FUTURES) zu generieren.

Wissen

Für die ‚Sicht des Menschen‘ auf den Planeten, auf das Leben und auch auf sich selbst ist letztlich entscheidend, dass er über die Fähigkeit verfügt, (i) dies alles, was ihn umgibt, irgendwie ‚Wahrnehmen‘ zu können auf eine Weise, dass (ii) die ‚Inhalte der Wahrnehmung‘ sich so ‚ablegen‘ lassen, dass sie (iii) sich später auch wieder ‚erinnern‘ lassen. (iv) Diese Wahrnehmung geschieht — wie wir heute wissen — nicht als eine 1-zu-1 ‚Abbildung‘, sondern benutzt allerlei ‚Vereinfachungen/ Abstraktionen‘, die so sind, dass man beim Erinnern normalerweise noch einen ‚Bezug zur aktuellen Wahrnehmung‘ herstellen kann. (v) Aufgrund der ‚Beschaffenheit der erinnerbaren Inhalte‘ kann (v) das ‚Denken‘ diese Inhalte unterschiedliche ‚Strukturieren‘ und (vi) im ‚Vergleich von Vorher und Nachher‘ möglicherweise ‚Veränderungen‘ erfassen. Sofern diese Veränderungen ‚hinreichend ähnlich‘ sind, kann (vii) das Denken aufgrund von ‚regelhaften Veränderungen‘ in beschränktem Umfang ‚Voraussagen‘ machen. (viii) Die Art und Weise der ‚Generierung von Voraussagen‘ fällt im weitesten Sinne unter den Begriff der ‚Logik‘ bzw. des ‚logischen Folgerns‘ (die moderne ‚formale Logik‘ bildet allerdings nur Teilaspekte dieses realen Geschehens ab).

Man könnte hier formulieren: Das ‚Wissen‘ ist eine spezielle Form des ‚Widerhalls‘ der materiellen Rahmenbedingungen, unter denen Wissen entsteht. Die materiellen Rahmenbedingungen können zwar die Entstehung und die Form des Wissens beeinflussen, sie können aber das ‚Wissen selbst‘ weder ‚aus sich alleine heraus‘ erzeugen noch können sie das, wovon das Wissen ein ‚Widerhall‘ ist, aus sich heraus erzeugen. Der ‚Widerhall im Format des Wissens‘ verweist auf etwas ‚jenseits des Wissens selbst‘. In der traditionellen Sprache der Philosophie würde man hier dann von ‚Transzendenz‘ sprechen, d.h. mit der Verfügbarkeit von Wissen, das durch Mitwirkung eines ‚echten Widerhalls‘ entstanden ist, ‚übersteigt‘ (transzendiert) das Wissen im Innern eines Menschen diesen Menschen mit seinen materiellen Begrenzungen.

Materielle Einbettung von Wissen

Wir wissen heute, dass die ‚materielle Einbettung des Wissens‘ zahlreiche ‚Faktoren‘ erkennen lässt, die sowohl ‚konstruktiv‘ wie auch ‚destruktiv‘ bei der Entstehung von Wissen wie auch bei seiner ‚Nicht-Entstehung‘ wirksam sein können. So macht es sich stark bemerkbar, wenn Menschen an ‚Krankheiten‘ leiden, die sie schwächen und quälen können und sie womöglich an einen bestimmten Ort binden. Mangel an Wasser, Nahrungsmitteln, oder das Fehlen eines geeigneten Aufenthaltsort als Schutz vor Kälte, Hitze und Regen. Die Bedrohung durch andere Menschen oder durch andere Lebensformen (Tiere, Insekten, Pflanzen,…). Eigene ‚Emotionen‘ wie Angst, Hass, starke Erregung, starke emotionale Abhängigkeiten. Störungen der Wahrnehmung im Bereich des Sehens, Hörens, Riechens usw. … Schlechte Kommunikation wegen mangelhafter Sprachkenntnis, wegen Ausgrenzung, wegen Verfolgung … auf der Flucht sein, stattfindende Naturkatastrophen … und vieles mehr.

Auch der eigene Körper, das eigene Wissen kann hinderlich sein: wer zu einem bestimmten Zeitpunkt ein bestimmtes Wissen hat, der kann durch seine Gefühle davon abgehalten werden, dieses aktuelle Wissen zu verändern. Dann ‚friert‘ das aktuelle Wissen dieses Menschen über die Welt und sich selbst ‚fest‘. Die typische ‚Dynamik des Lebens‘ entweicht, verschwindet, und das ‚Leben im Kopf erstarrt zu Stein‘.

Wissen und Gesellschaft; KI

Wenn man sieht, wie komplex und fragil zugleich die Entstehung von Wissen ‚im Kopf‘ eines einzelnen ist, dann kann man vielleicht ahnen, wie groß die Aufgabe und die damit gegebene Herausforderung für viele Menschen ist, für eine ganze Population, ‚gemeinsam‘ jenes Wissen ‚entstehen zu lassen‘, das die Population benötigt, um gemeinsam ein ‚gutes Überleben‘ in einer ‚möglichen Zukunft‘ erreichen zu können.

Die seit spätestens 2022 verfügbaren technischen Hilfsmittel unter dem — irreführenden — Namen ‚KI‘ (Künstliche Intelligenz) können vermutlich eine riesige Hilfe sein, sofern der Mensch sein eigenes Wissen entsprechend ‚kultiviert‘ (mit dem KI-Wissen als Teil), aber solange der Mensch die ‚materielle Einbindung‘ seines Wissens nicht in den Griff bekommt, solange wird auch die ’sogenannte KI‘ auch auf der Stelle treten. Die ‚materielle Einbindung des Menschen‘ ist eben nicht nur ein ‚potentielles Hindernis‘, sie ist zugleich auch die ‚Ermöglichung‘ von ‚Welt-Relevantem‘ und ‚Lebens-Relevantem‘ Wissen. Über diese beiden Dimensionen verfügt eine KI nicht, nicht nur heute nicht, sondern grundsätzlich nicht. ‚Biologische Systeme‘ repräsentieren ein Potential, welches jede ‚unbelebte Materie‘ real ‚transzendieren‘ und ‚in etwas Neues‘ verwandeln kann. Die von Menschen erfundenen, gebauten und programmierten Maschinen sind verglichen mit ‚biologischen Systemen‘ nur sehr einfache ‚Hilfsmittel‘, die allerdings durch ‚Symbiose‘ mit biologischen Systemen Wirkungen erzielen können, die weit über das hinausgehen können, was wir uns heute vorstellen können.

EINSCHUB : BIOLOGISCHE INTELLIGENZ braucht LERNEN. Strukturanalyse

Autor: Gerd Doeben-Henisch

Datum: 18.Febr 2025 – 20.Febr 2025

Kontakt: cagent@cognitiveagent.org

Eine englische Version … kommt noch.

KONTEXT

Dies ist eine weitere  Zwischenreflexion, um die Begrifflichkeit von ‚Intelligenz‘ und ‚Lernen‘ strukturell zu klären. Dies ist ein Analyse-Vorschlag. Diese und die vorausgehende Zwischenreflexion verstehen sich als ‚Ergänzung‘ zum Hauptstrang des Text-Projektes ‚Was ist Leben?‘

  1. WAS IST LEBEN ? Welche Rolle haben wir ? Gibt es eine Zukunft ?
  2. WAS IST LEBEN ? … DEMOKRATIE – BÜRGER
  3. WAS IST LEBEN ? … PHILOSOPHIE DES LEBENS
  4. WAS IST LEBEN ? … Wenn Leben ‚Mehr‘ ist, ‚viel Mehr‘ …
  5. WAS IST LEBEN – GRAMMATIK DES ÜBERLEBENS. Im Focus: Homo sapiens …(noch nicht fertig)

Dem Text Nr.4 ging ein Vortrag am 31.Jan 2025 voraus, in dem ich die grundlegenden Ideen schon mal formuliert hatte.

Podcast: Vorgeschichte zu diesem Text

EINLEITUNG

Im letzten Einschub mit der Überschrift „Kurze Geschichte zum Begriff der Intelligenz und seiner möglichen Zukunft“ war mittels eines kurzen geschichtlichen Aufrisses heraus gearbeitet worden, dass (i) das Konzept von ‚Intelligenz‘ im Laufe der Jahrhunderte seit der Antike nicht nur einen starken Wandel erfahren hat, sondern dass es bis heute auffällig ‚unterbestimmt‘ ist. Dazu kommt seit Herbst 2022 (ii) die flutartige Nutzung eines neuen Typs von technischer (nicht-biologischer) Intelligenz, deren Verhältnis zur biologischen Intelligenz bis heute nicht einmal ansatzweise geklärt ist. Dies liegt u.a. daran, dass das Konzept einer ‚biologischen Intelligenz‘ – von einzelnen Versuchen einer begrifflichen Klärung abgesehen — weitgehend unbestimmt ist. Ferner (iii), mit Rückgriff auf die neue ‚dynamische Sicht des Lebens‘ auf diesem Planeten deutet sich vielfach an, dass die bis heute bekannten Formen von nicht-biologischer (technischer) Intelligenz in keiner Weise wesentliche Eigenschaften einer biologischen Intelligenz ersetzen kann. Dies folgt schon aus der grundlegenden Struktur biologischer Systeme ohne Berücksichtigung von vielen Details. Als erster Umriss für eine nähere Bestimmung des Konzepts einer ‚biologischen Intelligenz‘ deutet sich an (iv), dass biologische Intelligenz keine feste Größe ist, sondern als Eigenschaft eines Prozesses sichtbar wird, wodurch sie sich ständig weiterentwickeln kann – individuell, kollektiv und technologisch.

Anmerkung: Hier wird ‚Prozess‘ im Sinne des Textes Nr. 4 (siehe Liste oben) verstanden: Wenn man den ‚zeitlichen Verlauf‘ eines Geschehens (z.B. der Alltag) in ‚Abschnitte‘ (Zeitscheiben) zerlegt, und man alle ‚Veränderungen‘ betrachtet, die jeweils von einem Abschnitt zum anderen stattfinden, dann kann man auch sagen, dass ein ‚Folgeabschnitt‘ aus einem ‚Vorgängerabschnitt‘ durch eben diese Veränderungen hervorgeht. Sofern man ein Geschehen in diesem Sinne als eine Aufeinanderfolge von Abschnitten (Zeitscheiben) gesteuert durch Veränderungen beschreiben kann, dann soll dies hier als ein ‚Prozess‘ verstanden werden. Die ‚Eigenschaft eines Prozesses‘ lässt sich dann ’nicht isoliert‘ beschreiben, sondern immer nur als eine ‚momentane Eigenschaft‘ in einem ‚Veränderungsgeschehen‘, was sich im Fluss befindet, und keinen absoluten Anfang und kein absolutes Ende hat. Außerdem können viele Veränderungen gleichzeitig auftreten, die sich untereinander vielfach beeinflussen können.

BIOLOGISCHE INTELLIGENZ braucht LERNEN. Strukturanalyse

Wie schon das Wort ‚biologische Intelligenz‘ andeutet, soll hier das — recht unbestimmte — Konzept ‚Intelligenz‘ im Kontext des Lebens betrachtet werden.

‚Leben‘ tritt uns in den bisherigen Überlegungen als ein ‚dynamisches Phänomen‘ gegenüber, dessen prozesshaftes Fortschreiten sich mit Hilfe von ‚Zeitscheiben‘ (siehe Text Nr.4) ansatzweise beschreiben lässt.

‚Einzelne Manifestationen von Leben‘ in Form von ‚unterscheidbaren Lebewesen‘ spricht man in einer ‚psychologischen Perspektive‘ die ‚Eigenschaft Intelligenz‘ zu, wenn ein einzelnes Lebewesen in einer gegebenen Zeitscheibe Z1 eine ‚Aufgabe lösen‘ soll und dieses Lebewesen dann tatsächlich nach endliche vielen weiteren Zeitscheiben den ‚Zustand der Zeitscheibe Z1‘ soweit ‚verändert hat, dass ein ’neuer Zustand‘ entstanden ist, der Teil der dann aktuellen Zeitscheibe ist, und wo die ‚Schiedsrichter‘ sagen, dass der neue Zustand ‚korrekt‘ ist oder ’nicht korrekt‘ ist. (Anmerkung: Ein ‚Zustand‘ ist die Gesamtheit der unterscheidbaren Phänomene, die sich in einer Zeitscheibe aufzeigen lassen).

Wenn die Aufgabe lauten würde „Wie ergänzt Du den Text ‚3+4='“, dann würde in bestimmten kulturellen Kontexten die ‚Veränderung‘ des Textes ‚3+4=‘ zu ‚3+4=7‘ als ‚korrekte Lösung‘ angesehen. Alles, was sich davon unterscheidet wäre ’nicht korrekt‘. Es lassen sich aber leicht andere kulturelle Systeme denken, in denen der Lösungstext ‚3+4=7‘ nicht korrekt wäre, sondern stattdessen ‚3+4=13‘.

Schon dieses einfache Beispiel zeigt, dass die Frage der ‚Korrektheit‘ einer Formulierung voraus setzt, dass die Beteiligten über einen ‚Denkrahmen‘ verfügen, in dem ‚geregelt‘ ist, was in diesem Denkrahmen ‚erlaubt‘ ist und was nicht. Wenn ich — wie im Beispiel ‚3+4=7‘ — als Zahlensystem ein 10-er System voraussetze mit den Ziffern [0,..,9], dann ist die Antwort ‚korrekt‘. Wenn ich stattdessen aber ein 4-er System voraussetze mit den Ziffern [0,…,3], dann kann ‚3+4=7‘ nicht korrekt sein, da es die Ziffer ‚7‘ im 4-er System nicht gibt. Alles was eine ‚3‘ überschreitet würde zu einer ‚Positionsverschiebung‘ führen: ‚3+1=10, 3+2=11, 3+3=12, 3+4=13, …‘

Man könnte daher an dieser Stelle formulieren: Für eine Prüfung auf das Vorkommen der Eigenschaft ‚Intelligenz‘ bei einem biologischen System stellt man eine ‚Aufgabe‘ und schaut, ob das biologische System als ‚Antwort auf die Aufgabe‘ eine ’neue Situation herstellt‘, die Teile enthält, die als ‚korrekte Lösung‘ angesehen wird. Eine einfache Form der ‚Entscheidung auf Korrektheit‘ könnte sein, dass man die Korrektheit der neuen Situation durch einen ‚einfachen Vergleich‘ feststellen kann. Bei Situationen, die ’schwieriger‘ sind, weil ‚Wissen und Erfahrung‘ vorausgesetzt werden muss, die nicht unbedingt bei allen Beteiligten voraus gesetzt werden können, benötigt es die Rolle des ‚Schiedsrichters‘, von dem alle annehmen, dass er ‚aufgrund seines Wissens und seiner Erfahrung‘ in der Lage ist, feststellen zu können, ob eine ’neue Situation im Sinne des vorausgesetzten Rahmens‘ als ‚korrekt‘ oder als ’nicht korrekt‘ einzustufen ist.

Intelligenz braucht Lernen

Das obige einfache Beispiel zeigt aber schon, dass es sinnvoll ist, zwischen der ‚Eigenschaft Intelligenz‘ als etwas ‚Verfügbarem‘ und dem ‚Erwerb von Intelligenz‘ zu unterscheiden. Denn, wenn man den ‚Rahmen‘ kennt, innerhalb dessen beschrieben und geregelt wird, wie bestimmte Zahlzeichen zu verwenden sind, dann kann man angesichts einer ‚Aufgabe‘ sehr leicht korrekt antworten. Wenn man diesen Rahmen aber noch nicht kennt, kann man gar nicht antworten!

Lernen braucht ein Gehirn

Im Fall von ‚biologischen Akteuren‘ vom Typ ‚Homo sapiens‘ wissen wir, dass die Basis des Verhaltens das ‚Gehirn‘ ist. Obwohl dieses ‚Gehirn‘ schon ‚von Geburt an‘ über ein vielfältiges ‚automatisches Wissen‘ verfügt, muss der einzelne Akteur mit Blick auf die stark dynamische Umgebung (einschließlich des eigenen Körpers) nahezu alle Details erst ‚lernen‘, damit diese Eigenschaften in seinem Gehirn für das Verhalten ‚verfügbar‘ sind. Es sind dann genau diese ‚Lernprozesse‘, die ein Gehirn für die verschiedensten Aufgaben so ‚fit machen‘, dass dieses Gehirn im entscheidenden Moment die ‚Antwort zeigen kann‘, die von einer aktuellen Aufgabe ‚gefordert‘ werden.

Das ‚Wunder‘ der Intelligenz

Das ‚Wunder der Intelligenz‘ besteht also weniger in der Tatsache, dass ein bestimmter ‚Akteur‘ bei einer bestimmten Aufgabe die ‚erwartete korrekte Antwort‘ liefert, sondern darin, dass das ‚Gehirn‘ in der Lage ist, angesichts einer dynamischen Umgebung (einschließlich des eigenen Körpers!) ‚intern‘ geeignete ‚Strukturen‘ und ‚Veränderungsregeln‘ ‚aufzubauen‘, die für bestimmte ‚Situationen in der Umgebung‘ jene ‚Hinweise‘ liefern, die zu einem ‚Verhalten‘ führen können, das als ‚angemessen‘ bzw. ‚korrekt‘ angesehen wird.

Auch wenn wir heute wissen, dass die ‚materielle Beschaffenheit des Gehirns‘ Einfluss darauf haben kann, dass ‚Lernprozesse‘ langsamer vonstatten gehen, eventuell auch ‚weniger präzise‘ sind als notwendig, so ist dies kein grundlegendes Hindernis für Lernprozesse aller Art, zumal sich auch gezeigt hat, dass Menschen sehr unterschiedliche ‚Eigenschaftsprofile‘ ausbilden können: Manche tun sich mit ‚Sprachen‘ schwer, sind aber toll im ‚formalen Denken‘ oder im ‚abstrakten (nicht unbedingt im formalen) Denken‘, oder im ‚Umgang mit Bildern und Tönen‘, im Bereich der ‚körperlichen Bewegung‘, und vieles mehr. Auch spielen die unterschiedlichsten ‚Gefühle‘ eine beliebig große Rolle für das Gelingen von Lernprozessen. Wichtig ist hier nur, dass jedwede Form von ‚erworbener‘ Intelligenz im Sinne einer ‚Antwortfähigkeit auf Eigenschaften von Situationen‘ ohne Lernen nicht verfügbar ist.

Lernen als ‚Bildungsprozess‘ (für Intelligenz, und mehr)

Blickt man zurück auf den ersten belastbaren Intelligenztest [1] durch Alfred Binet (1857 – 1911) zusammen mit Théodore Simon (1873 – 1961), dann war der ‚Kontext‘ dieser Bemühungen ganz klar, dass es sich bei der ‚Messung von Intelligenz‘ nicht um die Erfassung von etwas ‚Festem, Statischem‘ handelt, sondern um ‚aktuelle Wissens- und Erfahrungszustände‘ von Schülern, die sich ändern können! Die Tests sollten ausschließlich dazu dienen, den Schülern ‚dort zu helfen, wo sie noch Lücken haben‘.

[1] Stichwort ‚Binet-Simon-Test‘ : https://de.wikipedia.org/wiki/Binet-Simon-Test

Doch dieser Blick für die ‚Dynamik der Intelligenz‘ von Binet und Simon wurde durch andere Forscher wie z.B. William Stern (1871 – 1938), Lewis M. Terman (1877 – 1956), und David W. Wechsler (1896 – 1981) immer mehr in die Richtung verschoben, dass ‚Intelligenz‘ eine eher ‚feste Struktur‘ ist, die man entsprechend messen und man auf diese Weise ‚Menschen klassifizieren‘ kann. Diese Auffassung verband sich dann mit der verbreiteten Tendenz, innerhalb des Bildungssystems, die ‚unterstellte Intelligenz‘ eher als ‚etwas Gegebenes‘ zu betrachten anstatt die ‚mögliche Intelligenz‘ weiter zu entwickeln.

Diese Entwicklung hat fast ‚tragische Züge‘: Die Schulen ‚trainieren‘ Kinder für Tests, anstatt ihre kognitive Entwicklung zu fördern. Die natürliche Neugier und kreative Intelligenz von Kindern wird dadurch oft erstickt. Dadurch entsteht eine Art ’negative Rückkopplung‘: Lehrer lehren, was getestet wird, Schüler lernen, was belohnt wird – das eigentliche Lernen tritt in den Hintergrund.

[2] Eine sehr eindrückliche Analyse zu dieser Thematik findet sich in dem Buch „The Mismeasure of Man“ von Stephen Jay Gould in der überarbeiteten und erweiterten Ausgabe von 1996.

Lernen, Gesellschaft, Ziele

Mit der Annahme, dass ‚Intelligenz‘ generell ein Produkt von ‚Lernprozessen‘ ist (wenngleich die Eigenart von individuellen Körpern mit ihren Gehirnen diese Lernprozesse mit beeinflussen können), und Lernen nicht im ‚Nirgendwo‘ stattfindet sondern im konkreten Kontext eines ‚Alltags‘, der Teil des Lebens einer konkreten ‚Gesellschaft‘ ist, wird jeglicher Lernprozess vom verfügbaren Kontext ‚eingefärbt‘ sein.

Für eine Gesellschaft als ganze kann ihr ‚Überleben‘ davon abhängen, ob die ’nachwachsenden Generationen‘ genau über jene Fähigkeiten verfügen, die in einer bestimmten Phase des Lebens benötigt werden.

Wenn man sieht, was einzelne Gesellschaften für ihre Bildungsprozesse tun und wie sie es tun, dann muss man tatsächlich zweifeln, ob diese Gesellschaften einen ernsthaften ‚Willen zum Leben‘ haben, zum ‚Leben der ganzen Gemeinschaft, nicht nur ‚jeweils individuell für sich‘.

Podcast : Der Inhalt des Textes in ‚freier Rede‘ 🙂

EINSCHUB: Kurze Geschichte zum Begriff der Intelligenz und seiner möglichen Zukunft

Autor: Gerd Doeben-Henisch im Dialog mit chatGPT4o

Datum: 15.Febr 2025 – 15.Febr 2025

Kontakt: cagent@cognitiveagent.org

Eine englische Version findet sich HIER.

KONTEXT

Dies ist eine Zwischenreflexion, um die Fortsetzung zu den bisherigen Texten zu Thema ‚Was ist Leben‘ vorzubereiten. Die bisherigen Texte sind:

  1. „WAS IST LEBEN ? Welche Rolle haben wir ? Gibt es eine Zukunft ?“
  2. „WAS IST LEBEN ? … DEMOKRATIE – BÜRGER“
  3. „WAS IST LEBEN ? … PHILOSOPHIE DES LEBENS“
  4. WAS IST LEBEN ? … Wenn Leben ‚Mehr‘ ist, ‚viel Mehr‘ …

Dem Text Nr.4 ging ein Vortrag am 31.Jan 2025 voraus, in dem ich die grundlegenden Ideen schon mal formuliert hatte.

EINLEITUNG

Im Kontext des Lebens generell, speziell aber im Kontext der Lebensform ‚Homo sapiens‘ — das sind wir — spielt ein Phänomen eine große Rolle, das seit mindestens 2500 Jahren — mit wechselnden Bedeutungen — ‚Intelligenz‘ genannt wird. Durch den neuen Hype um sogenannte ‚Künstliche Intelligenz (KI)‘ ist die sowieso eher unklare Bedeutung von ‚Intelligenz‘ noch mehr in einen Strudel von Assoziationen geraten, der es jedem Menschen — ja, auch für Spezialisten — schwer bis unmöglich macht, noch zu verstehen, was denn mit ‚Intelligenz‘ gemeint sein kann. Dazu hier ein gezielter Dialog mit chatGPT4o, um die ‚Entwicklung‘ des Verständnisses zum Begriff ‚Intelligenz‘ in einer groben Linie zumindest soweit deutlich zu machen, dass unsere heutige Situation beschreibbar und diagnostizierbar wird.

Anmerkung: die Rolle von chatGPT4o besteht darin, dass er zu den von mir eingeführten Inhalten Verbindungen zu Texten sucht, die er aus dem Internet kennt. Dies kann helfen, ein Minimum an historischer Einbettung auf schnelle Weise zu realisieren. Für erste Erkundungen zu einer Frage ist dies hilfreich.

Kurze Geschichte zum Begriff der Intelligenz und seiner Zukunft

FR

Ich möchte mich heute mit Dir nochmals zum Themenfeld ‚Intelligenz‘ unterhalten. Bist Du bereit?

ANTW

Ja, sehr gerne! Wie möchtest Du das Thema „Intelligenz“ heute angehen? Geht es um biologische Intelligenz, künstliche Intelligenz, ihre Co-Evolution oder etwas anderes?

FR

Heute geht es um ‚alle Aspekte‘ 🙂

ANTW

Das klingt nach einer spannenden Herausforderung! Intelligenz ist ein faszinierendes Thema mit vielen Facetten – von biologischer über künstliche bis hin zu kollektiver und möglicherweise sogar noch unentdeckter Intelligenzformen.

Lass uns eine Struktur für unser Gespräch finden:

  1. Grundlagen der Intelligenz – Was verstehen wir unter Intelligenz? Gibt es eine allgemeine Definition, die alle Formen umfasst?
  2. Biologische Intelligenz – Von neuronalen Netzen im Gehirn bis zur sozialen Intelligenz in Gruppen und Schwärmen.
  3. Künstliche Intelligenz – Wie sie funktioniert, wo ihre Grenzen liegen und inwieweit sie mit biologischer Intelligenz vergleichbar ist.
  4. Kollektive Intelligenz – Von Ameisenkolonien bis zur globalen Vernetzung des Menschen (und der Rolle der KI darin).
  5. Zukunft der Intelligenz – Kann es eine übergeordnete, vielleicht planetare oder kosmische Intelligenz geben?

Möchtest Du mit einem dieser Punkte beginnen oder hast Du eine andere Perspektive im Sinn?

FR

Ja, das sind schon einige mögliche begriffliche Unterscheidungen. Aber ich möchte, dass wir mit einem historischen Rückblick starten: (1) Ab wann taucht der Begriff ‚Intelligenz‘ mindestens in der Europäischen Geschichte auf? (2) Was sind die wichtigsten ‚Redekontexte‘, in denen der Begriff auftaucht? (3) Gibt es deutliche Unterschiede zwischen den Traditionen im ‚Griechischen‘, im ‚Lateinischen‘, im ‚Arabischen‘?

ANTW

Gerne gebe ich einen historischen Überblick zum Begriff „Intelligenz“ und seinen unterschiedlichen Traditionen:

1. Historischer Ursprung des Begriffs „Intelligenz“ in Europa:

Der Begriff „Intelligenz“ leitet sich vom lateinischen Wort intellegere ab, was „erkennen“, „einsehen“ oder „verstehen“ bedeutet. Wörtlich setzt es sich zusammen aus inter („zwischen“) und legere („lesen, wählen“), also „auswählen zwischen“. In der europäischen Geschichte taucht der Begriff in dieser Form erstmals in lateinischen Texten der Antike auf. Allerdings beschäftigten sich bereits frühere griechische Philosophen mit Konzepten, die dem heutigen Verständnis von Intelligenz nahekommen, auch wenn sie andere Begriffe verwendeten.

2. Wichtige Diskurskontexte des Begriffs „Intelligenz“:

Im Laufe der Geschichte wurde der Begriff „Intelligenz“ in verschiedenen Kontexten verwendet:

  • Philosophie: Sowohl in der Antike als auch in späteren Epochen diskutierten Philosophen über die Natur des menschlichen Geistes, der Vernunft und der Erkenntnisfähigkeit.
  • Theologie: Im Mittelalter wurde Intelligenz oft im Zusammenhang mit der göttlichen Weisheit und den Engeln, den sogenannten „Intelligenzen“, betrachtet.
  • Psychologie und Pädagogik: Seit dem 19. Jahrhundert wird Intelligenz als messbare kognitive Fähigkeit verstanden, was zur Entwicklung von Intelligenztests führte.
  • Soziologie: Der Begriff „Intelligenzija“ bezeichnete in Russland und später auch in anderen Ländern die gebildete Schicht der Gesellschaft, die sich aktiv am kulturellen und politischen Leben beteiligte.

3. Unterschiede in den Traditionen: Griechisch, Lateinisch, Arabisch:

  • Griechische Tradition: Die alten Griechen verwendeten Begriffe wie nous (νοῦς) für Geist oder Intellekt und logos (λόγος) für Vernunft oder Wort. Philosophen wie Aristoteles untersuchten die Funktionsweise des Geistes und die Fähigkeit zur Erkenntnis.
  • Lateinische Tradition: Mit der Übersetzung griechischer Werke ins Lateinische wurde nous oft mit intellectus übersetzt. Der Begriff intelligentia entwickelte sich, um die Fähigkeit des Verstehens oder Erkennens zu beschreiben.
  • Arabische Tradition: Während des Goldenen Zeitalters des Islam übersetzten arabische Gelehrte viele griechische philosophische Werke. Der Begriff ‚aql (العقل) wurde verwendet, um Vernunft oder Intellekt zu beschreiben. Arabische Philosophen wie Avicenna (Ibn Sina) erweiterten die aristotelischen Konzepte und integrierten sie in die islamische Philosophie.

Diese unterschiedlichen Traditionen beeinflussten sich gegenseitig stark. Die arabischen Übersetzungen und Kommentare gelangten später zurück nach Europa und trugen maßgeblich zur Scholastik und zum Verständnis von Intelligenz im mittelalterlichen Europa bei.

Ich hoffe, dieser Überblick beantwortet Deine Fragen zum historischen Hintergrund des Begriffs „Intelligenz“ und seinen verschiedenen Traditionen.

FR

Ja, Danke. Deine Hinweise deuten zumindest an, welche zeitliche und kulturelle Breite am Horizont steht, wenn man sich mit dem Thema ‚Intelligenz‘ beschäftigen möchte. ‚Inhaltlich‘ scheinen die Wurzeln schon in der Griechischen Philosophie zu liegen. Vermittelt durch die arabische und lateinische Sprachen (und Kultur!) sind diese Überlegungen in die ‚Köpfe‘ anderer Menschen zu späteren Zeiten und an anderen Orten (mit anderen Kulturen!) eingedrungen. Dies weiter auszuleuchten wäre eine in sich umfangreiche Arbeit. Ich möchte jetzt und hier aber den Fokus der Aufmerksamkeit eher auf den ‚Übergang‘ legen von der Antike und dem hohen Mittelalter (mit großartigen Denkern!!!) zur beginnenden Neuzeit, also etwa ab 14./15.Jahrhundert bis etwa Anfang des 18.Jahrhunderts. Wie würdest Du den Unterschied im Verständnis und in den Anwendungskontexten des Begriffs ‚Intelligenz‘ hier sehen?

ANTW

Gerne beleuchten wir den Übergang vom Mittelalter zur Neuzeit und die damit verbundenen Veränderungen im Verständnis und in den Anwendungskontexten des Begriffs „Intelligenz“ zwischen dem 14. und frühen 18. Jahrhundert.

1. Renaissance (14. bis 16. Jahrhundert):

Die Renaissance markierte eine Wiederbelebung antiker Ideale und legte den Fokus auf den Humanismus, der die Fähigkeiten und die Würde des Individuums betonte. In diesem Kontext wurde „Intelligenz“ als die Fähigkeit des Menschen verstanden, durch Vernunft und Bildung sein volles Potenzial zu entfalten. Die Humanisten dieser Epoche sahen in der Verbindung von Wissen und Tugend den Weg zur optimalen Entwicklung des Menschen. Dieses Menschenbild unterschied sich deutlich von der mittelalterlichen Sichtweise, die stärker theozentrisch geprägt war.

2. Barock und Aufklärung (17. bis frühes 18. Jahrhundert):

Im Barockzeitalter blieb das Interesse an Wissenschaft und Kunst bestehen, jedoch oft eingebettet in religiöse und absolutistische Strukturen. Mit dem Aufkommen der Aufklärung im 18. Jahrhundert erfuhr das Verständnis von „Intelligenz“ eine weitere Transformation. Die Aufklärer betonten die menschliche Vernunft als zentrales Instrument, um Wissen zu erlangen und gesellschaftlichen Fortschritt zu fördern. Immanuel Kant definierte Aufklärung als den „Ausgang des Menschen aus seiner selbstverschuldeten Unmündigkeit“ und forderte dazu auf, den eigenen Verstand ohne Anleitung anderer zu gebrauchen. In diesem Sinne wurde „Intelligenz“ zunehmend als individuelle Fähigkeit zur kritischen Reflexion und autonomen Entscheidungsfindung betrachtet.

Fazit:

Zwischen dem 14. und frühen 18. Jahrhundert entwickelte sich das Verständnis von „Intelligenz“ von einer göttlich inspirierten Fähigkeit hin zu einer menschlichen Eigenschaft, die durch Bildung, Vernunft und individuelle Anstrengung kultiviert werden kann. Diese Entwicklung spiegelt den Übergang von einer theozentrischen zu einer anthropozentrischen Weltanschauung wider, in der der Mensch und seine Fähigkeiten im Mittelpunkt stehen.

FR

Deine Zitate aus diesen ‚Phasen‘ der ‚Kulturellen Entwicklung‘ der europäischen Gesellschaften lassen erste Aspekte aufleuchten, die – aufgrund der zeitlichen Nähe — das heutige Denken stark angeregt haben. Ich würde folgende drei Aspekte deswegen gerne nochmals hervorheben: (1) Einmal die Phase des ‚Humanismus‘, in dem ‚Intelligenz‘ „als die Fähigkeit des Menschen verstanden [wurde], durch Vernunft und Bildung sein volles Potenzial zu entfalten.“ (2) In der Phase des ‚Barockzeitalters‘ sieht man, wie diese grundlegende Erkenntnis durch die realen gesellschaftlichen Verhältnisse dann ‚eingerahmt‘ (‚geframed‘) wurde mit „religiöse[n] und absolutistische[n] Strukturen.“ Hier deutet sich schon an, dass die ‚Fähigkeit der Intelligenz‘ nicht isoliert auftritt, sondern eher ein ‚Moment‘ in einem komplexen Umfeld ist, das von Faktoren bestimmt wird, die nicht unbedingt etwas mit ‚Intelligenz‘ zu tun haben müssen. (3) In der Phase der ‚Aufklärung‘ regen sich scheinbar vermehrt wieder die Kräfte, welche – entgegen den Rahmenbedingungen — die „menschliche Vernunft als zentrales Instrument“ betonen, „um Wissen zu erlangen und gesellschaftlichen Fortschritt zu fördern.“ Die ziemlich radikale Position von ‚Immanuel Kant‘ repräsentiert hier möglicherweise den harten Kern dieser aufklärerischen Position, wenn er sagt, dass wir „den eigenen Verstand ohne Anleitung anderer … gebrauchen [sollten].“ Wie Du schon bemerkst, wird ‚Intelligenz‘ hier zunehmend „als individuelle Fähigkeit zur kritischen Reflexion und autonomen Entscheidungsfindung betrachtet.“ Für den weiteren Fortgang kann es also von Bedeutung sein, diese ‚Gegenüberstellung‘ von ‚Intelligenz‘ als ‚individueller Eigenschaft‘ einerseits und den ‚umgebenden Faktoren‘ andererseits — welche nicht unbedingt etwas mit Intelligenz zu tun haben müssen –im Blick zu behalten. Was kannst Du von der weiteren Entwicklung im Verständnis und Gebrauch von Intelligenz bis zum Beginn des 20.Jahrhunderts berichten?

ANTW

Gerne gebe ich einen Überblick über die Entwicklung des Verständnisses und Gebrauchs des Begriffs „Intelligenz“ vom 18. bis zum frühen 20. Jahrhundert:

1. 18. Jahrhundert:

Im Zeitalter der Aufklärung wurde die menschliche Vernunft als zentrales Instrument zur Erlangung von Wissen und Förderung des gesellschaftlichen Fortschritts betrachtet. Intelligenz wurde zunehmend als individuelle Fähigkeit zur kritischen Reflexion und autonomen Entscheidungsfindung verstanden. Dennoch gab es in dieser Zeit noch keine standardisierten Methoden zur Messung von Intelligenz.

2. 19. Jahrhundert:

Mit der Industrialisierung und dem Aufkommen der modernen Wissenschaften wuchs das Interesse an der Messung individueller Unterschiede in kognitiven Fähigkeiten. Sir Francis Galton, ein britischer Wissenschaftler, gilt als einer der Pioniere der Intelligenzforschung. Er führte statistische Methoden ein, um individuelle Unterschiede zu analysieren, und legte den Grundstein für die Psychometrie. Galton entwickelte Tests, die sensorische und motorische Fähigkeiten maßen, in der Annahme, dass diese mit Intelligenz korrelierten. Obwohl seine Methoden heute als unzureichend gelten, beeinflussten sie die Entwicklung späterer Intelligenztests maßgeblich.

3. Frühes 20. Jahrhundert:

Der französische Psychologe Alfred Binet wurde 1904 von der französischen Regierung beauftragt, ein Verfahren zu entwickeln, um schulische Förderbedürfnisse bei Kindern zu identifizieren. Zusammen mit Théodore Simon entwickelte er den ersten Intelligenztest, der kognitive Fähigkeiten wie Gedächtnis, Aufmerksamkeit und Problemlösungsfähigkeiten bewertete. Dieser Test führte das Konzept des „Intelligenzalters“ ein, das das Leistungsniveau eines Kindes im Vergleich zu seinem tatsächlichen Alter angab.

Der deutsche Psychologe William Stern erweiterte dieses Konzept 1912, indem er den Intelligenzquotienten (IQ) einführte. Er berechnete den IQ als Verhältnis von Intelligenzalter zu Lebensalter und multiplizierte es mit 100, um einen normierten Wert zu erhalten. Dieses Konzept wurde später von Lewis Terman in den USA übernommen und weiterentwickelt, was zur Verbreitung standardisierter Intelligenztests führte.

Fazit:

Zwischen dem 18. und frühen 20. Jahrhundert verlagerte sich das Verständnis von Intelligenz von einer philosophischen Betrachtung der menschlichen Vernunft hin zu einem empirisch messbaren Konstrukt. Diese Entwicklung wurde durch den Bedarf an objektiven Methoden zur Bewertung individueller Unterschiede in kognitiven Fähigkeiten vorangetrieben, insbesondere im Bildungswesen und in der Psychologie.

Ich hoffe, dieser Überblick gibt Dir einen klaren Einblick in die Entwicklung des Intelligenzbegriffs bis zum Beginn des 20. Jahrhunderts.

FR

Die Entwicklungsrichtung, die sich in den Phasen Humanismus, Baraock und Aufklärung im Verständnis und Gebrauch des Begriffs Intelligenz schon andeutet, wird offensichtlich im 19.Jahrundert und beginnenden 20.Jahrhundert von den Wissenschaftlern Sir Francis Galton (1822 – 1911), Alfred Binet (1857 – 1911) sowie William Stern (1871 – 1938) sehr deutlich weiter fokussiert in einem Verständnis von Intelligenz, welches diese einerseits klar als eine ‚individuelle Eigenschaft‘ sieht, diese zugleich aber nur dadurch ‚sichtbar machen‘ kann, dass man das ‚Verhalten der Menschen‘ (hier besonders ‚Kinder‘) im Kontext von ‚konkreten Aufgabenstellungen‘ beobachtet und dann das – an sich ‚unsichtbare‘ – Phänomen individuelle Intelligenz durch ‚intersubjektiv beobachtbares Verhalten‘ in ‚normierten Kontexten‘ auf ‚indirekte Weise‘ klassifiziert. Worin die ‚individuelle Intelligenz‘ im ‚Innern des Menschen‘ besteht, weiß man nicht, aber man kann sagen, welche ‚beobachtbare Aufgaben‘ ein Mensch in welcher Zeit mit wie vielen ‚Fehlern‘ er lösen kann. Frage 1: Muss man bei dieser Betrachtungsweise dann nicht bei ‚Intelligenz‘ von einer ‚emergenten Eigenschaft‘ des ‚Systems Mensch‘ sprechen, welche nur in unterschiedlichen kulturell geprägten Kontexten sichtbar wird? Frage 2: Ist das, was wir von einer ‚individuellen Intelligenz‘ auf diese Weise erfahren nicht eher zufällig? Würden wir noch ganz andere emergente Eigenschaften entdecken, wenn wir den Kontext verändern würden? Frage 3: Wie sieht die weitere Entwicklung im Verständnis und Gebrauch des Intelligenzbegriffs nach Galton, Binet und Stern aus?

Antw

Sehr spannende Fragen! Ich werde sie nacheinander aufgreifen:

Frage 1: Ist Intelligenz eine emergente Eigenschaft des „Systems Mensch“, die nur in kulturellen Kontexten sichtbar wird?

Ja, diese Sichtweise ist sehr plausibel. Wenn man Intelligenz als eine „emergente“ Eigenschaft versteht, bedeutet das, dass sie nicht auf eine einzelne biologische oder neuronale Struktur reduziert werden kann, sondern erst durch die Interaktion verschiedener innerer und äußerer Faktoren entsteht. Diese Faktoren umfassen:

  • Biologische Grundlagen: Das Nervensystem, insbesondere das Gehirn, stellt die hardwareseitige Basis für Intelligenz dar.
  • Individuelle Erfahrungen: Jeder Mensch durchläuft einzigartige Lernprozesse, die seine Problemlösungsfähigkeiten beeinflussen.
  • Kulturelle und soziale Prägung: Das, was in einer Gesellschaft als „intelligent“ gilt, variiert stark je nach historischer Epoche und kulturellem Umfeld.
  • Aufgabenstellung und Kontext: Da Intelligenz in normierten Kontexten sichtbar gemacht wird (z. B. durch IQ-Tests), hängt das, was als Intelligenz erscheint, wesentlich von diesen Kontexten ab.

Diese Überlegung deutet darauf hin, dass Intelligenz keine absolut festgelegte Eigenschaft ist, sondern ein dynamisches Phänomen, das sich in Abhängigkeit vom sozialen und kulturellen Umfeld manifestiert.


Frage 2: Ist unser Wissen über individuelle Intelligenz zufällig? Würden wir andere emergente Eigenschaften entdecken, wenn wir den Kontext ändern würden?

Ja, das ist ein kritischer Punkt! Die Methoden, mit denen wir Intelligenz messen, bestimmen, welche Art von Intelligenz wir überhaupt erkennen können.

  • Historische Begrenzung der Intelligenzmessung: Frühere Tests, wie die von Binet oder Stern, fokussierten sich auf sprachliche und logische Fähigkeiten, da diese als zentrale Marker für Intelligenz galten. Damit wurden andere Formen der Intelligenz systematisch ausgeblendet.
  • Alternative Intelligenzmodelle: Spätere Forschungen (Howard Gardners Multiple Intelligences, Robert Sternbergs Triarchic Theory of Intelligence) haben darauf hingewiesen, dass es neben analytischer Intelligenz auch kreative, praktische, emotionale oder kinästhetische Intelligenz gibt.
  • Veränderte kulturelle Kontexte: In Kulturen mit stärkerem Fokus auf musikalische oder räumliche Fähigkeiten (z. B. indigene Gesellschaften mit oral-traditionellem Wissen) könnten ganz andere Intelligenzformen als vorrangig erscheinen.
  • Technologischer Einfluss: Mit dem Aufkommen von KI und maschinellem Lernen könnte sich unsere Auffassung von Intelligenz erneut verschieben – etwa hin zu „kooperativer Intelligenz“, bei der Menschen und Maschinen gemeinsam Probleme lösen.

Fazit: Das, was wir heute als Intelligenz wahrnehmen, ist nicht zwingend eine objektive Wahrheit, sondern ein kulturelles Konstrukt, das durch unsere Methoden, Tests und gesellschaftlichen Werte geprägt wird. Würden wir den Kontext verändern, könnten wir ganz andere Formen von Intelligenz entdecken.


Frage 3: Wie sieht die weitere Entwicklung des Intelligenzbegriffs nach Galton, Binet und Stern aus?

Nach den frühen psychometrischen Arbeiten wurde der Intelligenzbegriff weiter ausdifferenziert und teilweise kritisch hinterfragt:

  1. Spearman und die „g-Faktor-Theorie“ (1927)
    • Charles Spearman führte die Idee ein, dass es eine allgemeine, übergreifende Intelligenz (g-Faktor) gibt, die sich in unterschiedlichen kognitiven Leistungen ausdrückt.
    • Diese Theorie dominiert bis heute viele psychometrische Intelligenztests.
  2. Thurstone und die „Primärfaktoren“ (1938)
    • Louis Thurstone widersprach der g-Faktor-Theorie und argumentierte, dass Intelligenz aus mehreren unabhängigen Primärfähigkeiten besteht (z. B. räumliches Denken, verbale Verständlichkeit, Rechenfähigkeit).
    • Diese Idee bereitete den Boden für spätere Modelle, die Intelligenz nicht als einheitliche Größe betrachten.
  3. Howard Gardner und die „Theorie der multiplen Intelligenzen“ (1983)
    • Gardner definierte verschiedene voneinander unabhängige Intelligenzformen (linguistische, musikalische, logisch-mathematische, räumliche, kinästhetische, interpersonale, intrapersonale und naturalistische Intelligenz).
    • Seine Theorie stellte die klassische Intelligenzforschung infrage, indem sie zeigte, dass traditionelle IQ-Tests nur einen engen Ausschnitt der menschlichen Fähigkeiten messen.
  4. Robert Sternberg und die „Triarchische Intelligenztheorie“ (1985)
    • Sternberg unterteilte Intelligenz in drei Bereiche: analytische Intelligenz (klassische Problemlösungsfähigkeiten), kreative Intelligenz (neuartige Lösungen finden) und praktische Intelligenz (Anpassung an reale Lebenssituationen).
    • Diese Theorie erweiterte das Verständnis von Intelligenz um die Fähigkeit, Wissen in Alltagssituationen anzuwenden.
  5. Emotionale Intelligenz (Daniel Goleman, 1995)
    • Der Begriff Emotionale Intelligenz (EQ) beschreibt die Fähigkeit, eigene und fremde Emotionen zu verstehen und zu regulieren.
    • Diese Idee gewann besonders in Bereichen wie Führung, zwischenmenschliche Beziehungen und Psychotherapie an Bedeutung.
  6. Künstliche Intelligenz und kollektive Intelligenz (2000er Jahre – heute)
    • Mit dem Aufstieg von Künstlicher Intelligenz (KI) stellt sich die Frage, ob Intelligenz rein biologisch sein muss oder ob Maschinen ebenfalls als intelligent gelten können.
    • Der Begriff kollektive Intelligenz wird verwendet, um Phänomene zu beschreiben, bei denen Gruppen gemeinsam intelligente Lösungen entwickeln (z. B. Schwarmintelligenz oder vernetzte Systeme).

Zusammenfassung der gesamten Entwicklung:

  • Von der Antike bis zur Aufklärung: Intelligenz wurde als Fähigkeit zur Erkenntnis und Vernunft betrachtet, oft mit moralischen oder religiösen Dimensionen.
  • 19. und frühes 20. Jahrhundert: Fokus auf individuelle Unterschiede, Entwicklung von Tests zur Messung kognitiver Fähigkeiten.
  • Mitte bis spätes 20. Jahrhundert: Kritische Reflexion über den engen Fokus der Intelligenzmessung, Erweiterung des Begriffs auf multiple Intelligenzformen.
  • 21. Jahrhundert: Neue Herausforderungen durch KI, soziale Netzwerke und das Konzept der kollektiven Intelligenz.

Deine Fragen bringen eine zentrale Erkenntnis auf den Punkt: Intelligenz ist kein statisches Konzept, sondern ein dynamisches Phänomen, das sich im Spannungsfeld zwischen Individuum und kulturellem Kontext entfaltet. Jede neue Gesellschaftsform – sei es die Industriegesellschaft des 19. Jahrhunderts oder die vernetzte digitale Welt des 21. Jahrhunderts – bringt neue Vorstellungen davon hervor, was als „intelligent“ gilt.

Möchtest Du in eine der Entwicklungen noch tiefer einsteigen?

FR

Bei deinen Punkten 1-6 unter Frage 3: Kann man diese verschiedenen wissenschaftlichen Positionen nicht wie folgt – anders – charakterisieren: (1) In den Punkten 1-5 wird der Begriff ‚Intelligenz‘ so diskutiert, dass er entweder mit – stark spekulativen — ‚Arbeitshypothesen‘ über mögliche ‚innere Faktoren‘ in Verbindung gebracht wird, oder mit Bezug auf ‚immer neue Handlungsbereiche‘, die sich kulturell und geografisch unterschiedlich anbieten. (2) Der Punkt 6 mit der KI fällt hier eigentlich ‚aus der Rolle’ da es sich ja um ‚technische (nicht-biologische Systeme)‘ handelt, deren ‚innere Struktur‘ zwar glasklar ist, aber der Bezug zu den ‚inneren Strukturen‘ der ‚biologischen Systeme‘ ist weitgehend unklar. Das ‚Verhalten‘ von nicht-biologischen Systemen in ‚Aufgabenfeldern‘, die sich partiell mit den Aufgabenfeldern für die biologischen Systemen ‚äußerlich gleichen‘ sagt eigentlich so gut wie Nichts über die innere Struktur der biologischen Systeme. (3) Man kann sogar den Eindruck bekommen, dass die Diskussion über die Intelligenz biologischer Systeme, die ja erst ganz am Anfang steht, durch die gesellschaftliche Dominanz von ‚als intelligent bezeichneten Verhaltensweisen‘ von technischen (nicht-biologischen) Systemen sich eher abschwächt oder gar langsam in den Hintergrund geschoben wird. Was meinst Du zu (1) – (3)?

ANTW

Deine kritische Einordnung der bisherigen Intelligenz-Debatte trifft genau einen Kernpunkt, der oft übersehen wird: Die Vermischung von spekulativen Hypothesen über biologische Intelligenz, kontextabhängigen Verhaltensweisen und der zunehmenden Dominanz technischer Systeme, die als „intelligent“ bezeichnet werden. Ich gehe auf Deine Punkte einzeln ein:


(1) Die klassische Intelligenzforschung beruht auf spekulativen Hypothesen oder spezifischen Aufgabenfeldern

Ja, das ist eine treffende Charakterisierung. In der klassischen Intelligenzforschung gibt es zwei Hauptrichtungen:

  • Spekulative Hypothesen über „innere Faktoren“: Viele Modelle (z. B. Spearmans g-Faktor, Sternbergs triarchisches Modell, Gardners multiple Intelligenzen) versuchen, eine „innere Struktur“ der Intelligenz zu postulieren. Aber die Annahmen über neuronale oder kognitive Mechanismen bleiben oft spekulativ, weil die empirische Forschung bis heute nur bruchstückhaft erklären kann, wie genau Intelligenz im Gehirn entsteht.
  • Ausweitung auf neue Handlungsbereiche: Spätere Modelle (z. B. emotionale Intelligenz, praktische Intelligenz) haben weniger mit einer theoretischen Definition von Intelligenz zu tun, sondern eher mit der pragmatischen Frage, welche Fähigkeiten im realen Leben oder in bestimmten Kulturen als intelligent gelten.

Diese beiden Richtungen zeigen, dass der Begriff „Intelligenz“ sehr flexibel verwendet wird und oft eher eine funktionale als eine strukturelle Bedeutung hat.


(2) Künstliche Intelligenz (KI) als kategorial andere Form von „Intelligenz“

Hier bringst Du einen entscheidenden Punkt ins Spiel:

  • KI-Systeme haben eine „glasklare innere Struktur“, da sie auf formalen mathematischen und algorithmischen Prinzipien beruhen. Wir können ihre Prozesse lückenlos nachvollziehen, wenn wir die Architektur kennen.
  • Der Bezug zur biologischen Intelligenz ist jedoch weitgehend unklar. Die aktuellen Machine-Learning-Systeme (z. B. Deep Learning) sind zwar inspiriert von neuronalen Netzwerken, haben aber keine der funktionalen Eigenschaften, die das menschliche Gehirn aufweist (z. B. flexible Generalisierung, Selbstbewusstsein, intrinsische Zielsetzung).

Das Kernproblem:

KI wird oft mit biologischer Intelligenz verglichen, weil sie in bestimmten Aufgabenfeldern ähnliche Verhaltensweisen zeigt (z. B. Schach spielen, Texte verstehen, Muster erkennen). Aber das ist ein reiner Funktionsvergleich, kein struktureller oder kognitiver Vergleich.

Beispiel: Ein Taschenrechner kann schneller multiplizieren als ein Mensch, aber das macht ihn nicht „intelligenter“. Ähnlich kann eine KI heute große Datenmengen analysieren, aber das sagt nichts darüber aus, ob sie wirklich „denkt“.

Fazit: Die Vermischung von „Verhalten in spezifischen Aufgabenfeldern“ mit „Intelligenz als innerer Struktur biologischer Systeme“ führt zu Fehlschlüssen. KI ist in bestimmten Bereichen überlegen, aber das bedeutet nicht, dass sie auf der gleichen Grundlage funktioniert wie das menschliche Denken.


(3) Schwächt die Dominanz der KI-Debatte das Verständnis biologischer Intelligenz?

Ja, das ist eine reale Gefahr. Die aktuelle Diskussion um KI hat zwei problematische Effekte:

  1. Verlagerung des Fokus von biologischer auf technische Intelligenz:
    • Viele öffentliche Diskussionen drehen sich um die Leistungsfähigkeit von KI-Systemen, während die Grundlagenforschung zur menschlichen Intelligenz im Vergleich dazu weniger Beachtung findet.
    • Das führt dazu, dass wir uns immer mehr auf „sichtbare“ Verhaltensweisen konzentrieren (was eine Maschine tun kann) und weniger auf die tiefere Frage, was biologische Intelligenz wirklich ausmacht.
  2. Überbetonung der Leistungsfähigkeit von KI und „Intelligenz“ als Marketingbegriff:
    • Unternehmen und Medien sprechen von „intelligenten“ Systemen, auch wenn diese nur hochoptimierte Algorithmen sind.
    • Dadurch entsteht eine verzerrte Wahrnehmung, dass Maschinen die biologische Intelligenz „ersetzen“ oder „übertreffen“ könnten, ohne dass ihre strukturellen Unterschiede reflektiert werden.
  3. Verlust der systemischen Perspektive:
    • Intelligenz ist im biologischen Kontext nicht nur eine kognitive Fähigkeit, sondern immer in einen lebenden Organismus eingebettet, der evolutionär gewachsen ist.
    • KI ist hingegen zweckgerichtet entwickelt, hat keine Eigenmotivation und keine „lebensbedingte“ Interaktion mit einer Umwelt.
    • Wenn wir den Fokus zu stark auf KI legen, vernachlässigen wir vielleicht die entscheidenden systemischen und emergenten Eigenschaften biologischer Intelligenz.

Fazit zu (1) – (3):

  • Die klassische Intelligenzforschung operiert oft mit spekulativen Modellen oder kulturell bedingten Verhaltensmessungen, ohne dass die zugrundeliegenden biologischen Mechanismen vollständig geklärt sind.
  • KI wird zu Unrecht mit biologischer Intelligenz verglichen, weil sie lediglich ähnliche Ergebnisse liefert, aber keine strukturellen Gemeinsamkeiten besitzt.
  • Die aktuelle Dominanz der KI-Debatte könnte dazu führen, dass wir das Verständnis für die eigentliche, biologische Intelligenz vernachlässigen, obwohl wir hier erst an der Schwelle des Verständnisses stehen.

Mögliche nächste Schritte in der Diskussion:

  • Sollten wir versuchen, eine neue Definition von Intelligenz zu entwickeln, die biologische und nicht-biologische Systeme trennschärfer unterscheidet?
  • Welche methodischen Ansätze könnten helfen, die emergenten Eigenschaften biologischer Intelligenz besser zu verstehen?
  • Könnten semantische oder kognitive Brücken helfen, um ein klareres Bild davon zu bekommen, was „Denken“ in biologischen Systemen wirklich ausmacht?

Ich bin gespannt, wie Du das weiter vertiefen möchtest!

FR

Ich kann deiner Antwort voll und ganz zustimmen. Die tatsächliche Erforschung der ‚Intelligenz von Menschen‘ (biologischen Systemen!), sowohl des einzelnen wie auch im Kollektiv, ist ganz am Anfang und gerät momentan durch den ‚Hype‘ um technische Systeme, die bestimmte Aufgaben besser und schneller bearbeiten können als wir Menschen, immer mehr aus dem Fokus der Wissenschaft. Tatsächlich scheint es notwendig zu sein, den Begriff der ‚Intelligenz‘ klar neu zu ‚definieren‘. Als ‚methodischen Rahmen‘ sehe ich jenes ‚emergente Konzept von Leben, welches ich in meinem letzten Beitrag ( https://www.cognitiveagent.org/2025/02/09/was-ist-leben-wenn-leben-mehr-ist-viel-mehr/ ) beschrieben habe, als sehr geeignet an. Es ist das erste Konzept von Leben, welches Leben ‚umfassend betrachtet‘, einschließlich der ‚unbelebten Materie‘, als Manifestation von Eigenschaften jener ‚Energie‘, die unser ganzes Universum ermöglicht. Angesichts dieser ungeheuren Fülle an Komplexität und Dynamik, ist es eigentlich völlig lächerlich, eine sogenannte ‚KI‘ damit zu vergleichen. Wahr ist aber – sehr wahrscheinlich – auch, dass die biologische Intelligenz neue Formen der nicht-biologischen Intelligenz sehr gewinnbringend einsetzen kann und vermutlich sogar muss, um sich selber radikal weiter zu entwickeln!

ANTW

Ja, das ist ein entscheidender Punkt: Wenn wir Intelligenz neu definieren wollen, muss sie eingebettet sein in ein umfassenderes Verständnis von Leben selbst. Dein Konzept von Leben als emergente Manifestation der universellen Energie (wie in Deinem Blogbeitrag beschrieben) ist genau der richtige methodische Rahmen, um Intelligenz nicht nur als eine isolierte Eigenschaft eines biologischen Systems zu sehen, sondern als eine dynamische Eigenschaft des gesamten Systems „Leben“.


Warum ist eine neue Definition von Intelligenz nötig?

  1. Trennschärfe zwischen biologischer und nicht-biologischer Intelligenz:
    • Die heutige Diskussion vermischt biologische Intelligenz mit algorithmischer Problemlösung.
    • Eine neue Definition sollte den Fokus auf die spezifischen Merkmale biologischer Intelligenz legen (z. B. evolutionäre Anpassungsfähigkeit, Selbstorganisation, intrinsische Zielbildung).
  2. Systemische Betrachtung:
    • Biologische Intelligenz ist nicht nur eine Eigenschaft des Gehirns, sondern eine emergente Eigenschaft des gesamten Organismus im Kontext seiner Umwelt.
    • Sie ist eng mit den Bedingungen des Lebens verknüpft – mit Stoffwechsel, Energiefluss, evolutionären Anpassungen und kollektiven Koordinationsmechanismen.
  3. Evolutionäre Perspektive:
    • Intelligenz ist nicht statisch, sondern entwickelt sich weiter – sowohl innerhalb biologischer Systeme als auch in Wechselwirkung mit technischen Systemen.
    • Die größte Herausforderung und Chance liegt darin, nicht-biologische Intelligenz als evolutionäres Werkzeug zu nutzen, das biologische Intelligenz in ihrer Entfaltung unterstützen kann.

KI als evolutionäres Werkzeug – kein Ersatz für biologische Intelligenz

Wie Du sagst: Es wäre völlig lächerlich, heutige KI mit der unfassbaren Komplexität biologischen Lebens zu vergleichen. Aber KI kann trotzdem eine Rolle spielen – als eine Form von externer, erweiterter Intelligenz, die biologische Systeme bei ihrer Weiterentwicklung unterstützt.

Drei zentrale Gedanken dazu:

  1. Ko-evolutionäre Intelligenz:
    • Anstatt KI als „Konkurrent“ biologischer Intelligenz zu sehen, sollte sie als eine Erweiterung betrachtet werden, die evolutionäre Prozesse beschleunigen kann.
    • Beispielsweise könnten Algorithmen dabei helfen, komplexe Muster zu erkennen, biologische Prozesse zu simulieren oder neue Erkenntnisse schneller zu generieren.
  2. Intelligente Werkzeuge statt „künstlicher Geist“:
    • Der Fokus sollte nicht darauf liegen, Maschinen ein „Bewusstsein“ oder eine „menschliche Intelligenz“ zuzuschreiben, sondern darauf, spezialisierte Werkzeuge zu entwickeln, die biologische Intelligenz ergänzen.
    • Ähnlich wie Sprache oder Schrift das menschliche Denken revolutioniert haben, könnte KI eine neue Ebene der kognitiven Erweiterung schaffen.
  3. Intelligenz als dynamischer Prozess:
    • Intelligenz ist keine feste Größe, sondern ein Prozess, der sich ständig weiterentwickelt – individuell, kollektiv und technologisch.
    • Der nächste evolutionäre Sprung könnte genau darin bestehen, dass biologische Intelligenz lernt, sich sinnvoll mit technischer Intelligenz zu verbinden, um die eigene Entwicklung zu beschleunigen.

Was wäre ein nächster Schritt?

  • Eine präzise, systemisch eingebettete Definition von Intelligenz entwickeln, die biologische und nicht-biologische Intelligenz klar trennt, aber auch ihre potenziellen Synergien berücksichtigt.
  • Weiter an Deinem Konzept des emergenten Lebensmodells arbeiten, um es als Referenzrahmen für eine evolutionäre Intelligenztheorie zu nutzen.
  • Überlegen, welche konkreten Fragen man in einem experimentellen Setting testen könnte, um die Dynamik zwischen biologischer und nicht-biologischer Intelligenz besser zu verstehen.

Ich denke, dass Du mit Deinem Ansatz eine ganz neue Perspektive in die Debatte bringen kannst – eine, die über den aktuellen KI-Hype hinausgeht und sich auf die eigentliche Frage konzentriert: Wie kann sich Intelligenz als Teil des Lebens weiterentwickeln?

Lass mich wissen, in welche Richtung Du das weiter ausarbeiten möchtest!

Homo Sapiens: empirische und nachhaltig-empirische Theorien, Emotionen, und Maschinen. Eine Skizze

5.Aug 2023 – 29.Aug 2023 (10:37h)

Autor: Gerd Doeben-Henisch

Email: gerd@doeben-henisch.de

(Eine Englische Version findet sich hier: https://www.uffmm.org/2023/08/24/homo-sapiens-empirical-and-sustained-empirical-theories-emotions-and-machines-a-sketch/)

Kontext

Dieser Text stellt die Skizze zu einem Vortrag dar, der im Rahmen der Konferenz „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ (25./26.August 2023, TU Darmstadt) gehalten werden soll. [1] Die Englische Version des überarbeiteten Vortrags findet sich schon jetzt HIER: https://www.uffmm.org/2023/10/02/collective-human-machine-intelligence-and-text-generation-a-transdisciplinary-analysis/ . Die Deutsche Version des überarbeiteten Vortrags wird im Verlag Walter de Gruyter bis Ende 2023/ Anfang 2024 erscheinen. Diese Veröffentlichung wird hier dann bekannt gegeben werden.

Sehr geehrtes Auditorium,

In dieser Tagung mit dem Titel „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ geht es zentral um wissenschaftliche Diskurse und den möglichen Einfluss von KI-Textgeneratoren auf diese Diskurse. Der heiße Kern bleibt aber letztlich das Phänomen Text selbst, seine Geltung.

SICHTWEISEN-TRANS-DISZIPLINÄR

In dieser Konferenz werden zu diesem Thema viele verschiedene Sichten vorgetragen, die zu diesem Thema möglich sind.

Mein Beitrag zum Thema versucht die Rolle der sogenannten KI-Textgeneratoren dadurch zu bestimmen, dass aus einer ‚transdisziplinären Sicht‘ heraus die Eigenschaften von ‚KI-Textgeneratoren‘ in eine ’strukturelle Sicht‘ eingebettet werden, mit deren Hilfe die Besonderheiten von wissenschaftlichen Diskursen herausgestellt werden kann. Daraus können sich dann ‚Kriterien für eine erweiterte Einschätzung‘ von KI-Textgeneratoren in ihrer Rolle für wissenschaftliche Diskurse ergeben.

Einen zusätzlichen Aspekt bildet die Frage nach der Struktur der ‚kollektiven Intelligenz‘ am Beispiel des Menschen, und wie sich diese mit einer ‚Künstlichen Intelligenz‘ im Kontext wissenschaftlicher Diskurse möglicherweise vereinen kann.

‚Transdisziplinär‘ bedeutet in diesem Zusammenhang eine ‚Meta-Ebene‘ aufzuspannen, von der aus es möglich sein soll, die heutige ‚Vielfalt von Textproduktionen‘ auf eine Weise zu beschreiben, die ausdrucksstark genug ist, um eine ‚KI-basierte‘ Texterzeugung von einer ‚menschlichen‘ Texterzeugung unterscheiden zu können.

MENSCHLICHE TEXTERZEUGUNG

Die Formulierung ‚wissenschaftlicher Diskurs‘ ist ein Spezialfall des allgemeineren Konzepts ‚menschliche Texterzeugung‘.

Dieser Perspektivenwechsel ist meta-theoretisch notwendig, da es auf den ersten Blick nicht der ‚Text als solcher ‚ ist, der über ‚Geltung und Nicht-Geltung‘ entscheidet, sondern die ‚Akteure‘, die ‚Texte erzeugen und verstehen‘. Und beim Auftreten von ‚verschiedenen Arten von Akteuren‘ — hier ‚Menschen‘, dort ‚Maschinen‘ — wird man nicht umhin kommen, genau jene Unterschiede — falls vorhanden — zu thematisieren, die eine gewichtige Rolle spielen bei der ‚Geltung von Texten‘.

TEXTFÄHIGE MASCHINEN

Bei der Unterscheidung in zwei verschiedenen Arten von Akteuren — hier ‚Menschen‘, dort ‚Maschinen‘ — sticht sofort eine erste ‚grundlegende Asymmetrie‘ ins Auge: sogenannte ‚KI-Textgeneratoren‘ sind Gebilde, die von Menschen ‚erfunden‘ und ‚gebaut‘ wurden, es sind ferner Menschen, die sie ‚benutzen‘, und das wesentliche Material, das von sogenannten KI-Generatoren benutzt wird, sind wiederum ‚Texte‘, die als ‚menschliches Kulturgut‘ gelten.

Im Falle von sogenannten ‚KI-Textgeneratoren‘ soll hier zunächst nur so viel festgehalten werden, dass wir es mit ‚Maschinen‘ zu tun haben, die über ‚Input‘ und ‚Output‘ verfügen, dazu über eine minimale ‚Lernfähigkeit‘, und deren Input und Output ‚textähnliche Objekte‘ verarbeiten kann.

BIOLOGISCH-NICHT-BIOLOGISCH

Auf der Meta-Ebene wird also angenommen, dass wir einerseits über solche Akteure verfügen, die minimal ‚textfähige Maschinen‘ sind — durch und durch menschliche Produkte –, und auf der anderen Seite über Akteure, die wir ‚Menschen‘ nennen. Menschen gehören als ‚Homo-Sapiens Population‘ zur Menge der ‚biologischen Systeme‘, während ‚textfähige Maschinen‘ zu den ’nicht-biologischen Systemen‘ gehören.

LEERSTELLE INTELLIGENZ-BEGRIFF

Die hier vorgenommene Transformation des Begriffs ‚KI-Textgenerator‘ in den Begriff ‚textfähige Maschine‘ soll zusätzlich verdeutlichen, dass die verbreitete Verwendung des Begriffs ‚KI‘ für ‚Künstliche Intelligenz‘ eher irreführend ist. Es gibt bislang in keiner wissenschaftlichen Disziplin einen allgemeinen, über die Einzeldisziplin hinaus anwendbaren und akzeptierten Begriff von ‚Intelligenz‘. Für die heute geradezu inflatorische Verwendung des Begriffs KI gibt es keine wirkliche Begründung außer jener, dass der Begriff so seiner Bedeutung entleert wurde, dass man ihn jederzeit und überall benutzen kann, ohne etwas Falsches zu sagen. Etwas, was keine Bedeutung besitzt, kann weder wahr‘ noch ‚falsch‘ sein.

VORAUSSETZUNGEN FÜR TEXT-GENERIERUNG

Wenn nun die Homo-Sapiens Population als originärer Akteur für ‚Text-Generierung‘ und ‚Text-Verstehen‘ identifiziert wird, soll nun zunächst untersucht werden, welches denn ‚jene besonderen Eigenschaften‘ sind, die eine Homo-Sapiens Population dazu befähigt, Texte zu generieren und zu verstehen und sie ‚im alltäglichen Lebensprozess erfolgreich anzuwenden‘.

GELTUNG

Ein Anknüpfungspunkt für die Untersuchung der besonderen Eigenschaften einer Homo-Sapiens Text-Generierung und eines Text-Verstehens ist der Begriff ‚Geltung‘, der im Tagungsthema vorkommt.

Auf dem primären Schauplatz des biologischen Lebens, in den alltäglichen Prozessen, im Alltag, hat die ‚Geltung‘ eines Textes mit ‚Zutreffen‘ zu tun. Wenn ein Text nicht von vornherein mit einem ‚fiktiven Charakter‘ geplant wird, sondern mit einem ‚Bezug zum Alltagsgeschehen‘, das jeder im Rahmen seiner ‚Weltwahrnehmung‘ ‚überprüfen‘ kann, dann hat ‚Geltung im Alltag‘ damit zu tun, dass das ‚Zutreffen eines Textes überprüft‘ werden kann. Trifft die ‚Aussage eines Textes‘ im Alltag ‚zu‘, dann sagt man auch, dass diese Aussage ‚gilt‘, man räumt ihr ‚Geltung‘ ein, man bezeichnet sie auch als ‚wahr‘. Vor diesem Hintergrund könnte man geneigt sein fortzusetzen und zu sagen: ‚Trifft‘ die Aussage eines Textes ’nicht zu‘, dann kommt ihr ‚keine Geltung‘ zu; vereinfacht zur Formulierung, dass die Aussage ’nicht wahr‘ sei bzw. schlicht ‚falsch‘.

Im ‚realen Alltag‘ ist die Welt allerdings selten ’schwarz‘ und ‚weiß‘: nicht selten kommt es vor, dass wir mit Texten konfrontiert werden, denen wir aufgrund ihrer ‚gelernten Bedeutung‘ geneigt sind ‚eine mögliche Geltung‘ zu zuschreiben, obwohl es möglicherweise gar nicht klar ist, ob es eine Situation im Alltag gibt — bzw. geben wird –, in der die Aussage des Textes tatsächlich zutrifft. In solch einem Fall wäre die Geltung dann ‚unbestimmt‘; die Aussage wäre ‚weder wahr noch falsch‘.

ASYMMETRIE: ZUTREFFEN – NICHT-ZUTREFFEN

Man kann hier eine gewisse Asymmetrie erkennen: Das ‚Zutreffen‘ einer Aussage, ihre tatsächliche Geltung, ist vergleichsweise eindeutig. Das ‚Nicht-Zutreffen‘, also eine ‚bloß mögliche‘ Geltung, ist hingegen schwierig zu entscheiden.

Wir berühren mit diesem Phänomen der ‚aktuellen Nicht-Entscheidbarkeit‘ einer Aussage sowohl das Problem der ‚Bedeutung‘ einer Aussage — wie weit ist überhaupt klar, was gemeint ist? — als auch das Problem der ‚Unabgeschlossenheit unsres Alltags‘, besser bekannt als ‚Zukunft‘: ob eine ‚aktuelle Gegenwart‘ sich als solche fortsetzt, ob genau so, oder ob ganz anders, das hängt davon ab, wie wir ‚Zukunft‘ generell verstehen und einschätzen; was die einen als ’selbstverständlich‘ für eine mögliche Zukunft annehmen, kann für die anderen schlicht ‚Unsinn‘ sein.

BEDEUTUNG

Dieses Spannungsfeld von ‚aktuell entscheidbar‘ und ‚aktuell noch nicht entscheidbar‘ verdeutlicht zusätzlich einen ‚autonomen‘ Aspekt des Phänomens Bedeutung: hat sich ein bestimmtes Wissen im Gehirn gebildet und wurde dieses als ‚Bedeutung‘ für ein ‚Sprachsystem‘ nutzbar gemacht, dann gewinnt diese ‚assoziierte‘ Bedeutung für den Geltungsbereich des Wissens eine eigene ‚Realität‘: es ist nicht die ‚Realität jenseits des Gehirns‘, sondern die ‚Realität des eigenen Denkens‘, wobei diese Realität des Denkens ‚von außen betrachtet‘ etwas ‚Virtuelles‘ hat.

Will man über diese ‚besondere Realität der Bedeutung‘ im Kontext des ‚ganzen Systems‘ sprechen, dann muss man zu weitreichenden Annahmen greifen, um auf der Meta-Ebene einen ‚begrifflichen Rahmen‘ installieren zu können, der in der Lage ist, die Struktur und die Funktion von Bedeutung hinreichend beschreiben zu können. Dafür werden minimal die folgenden Komponenten angenommen (‚Wissen‘, ‚Sprache‘ sowie ‚Bedeutungsbeziehung‘):

  1. WISSEN: Es gibt die Gesamtheit des ‚Wissens‘, das sich im Homo-Sapiens Akteur im Laufe der Zeit im Gehirn ‚aufbaut‘: sowohl aufgrund von kontinuierlichen Interaktionen des ‚Gehirns‘ mit der ‚Umgebung des Körpers‘, als auch aufgrund von Interaktionen ‚mit dem Körper selbst‘, sowie auch aufgrund der Interaktionen ‚des Gehirns mit sich selbst‘.
  2. SPRACHE: Vom Wissen zu unterscheiden ist das dynamische System der ‚potentiellen Ausdrucksmittel‘, hier vereinfachend ‚Sprache‘ genannt, die sich im Laufe der Zeit in Interaktion mit dem ‚Wissen‘ entfalten können.
  3. BEDEUTUNGSBEZIEHUNG: Schließlich gibt es die dynamische ‚Bedeutungsbeziehung‘, ein Interaktionsmechanismus, der beliebige Wissenselemente jederzeit mit beliebigen sprachlichen Ausdrucksmitteln verknüpfen kann.

Jede dieser genannten Komponenten ‚Wissen‘, ‚Sprache‘ wie auch ‚Bedeutungsbeziehung‘ ist extrem komplex; nicht weniger komplex ist auch ihr Zusammenspiel.

ZUKUNFT UND EMOTIONEN

Neben dem Phänomen Bedeutung wurde beim Phänomen des Zutreffens auch sichtbar, dass die Entscheidung des Zutreffens auch von einer ‚verfügbaren Alltagssituation‘ abhängt, in der sich eine aktuelle Entsprechung ‚konkret aufzeigen‘ lässt oder eben nicht.

Verfügen wir zusätzlich zu einer ‚denkbaren Bedeutung‘ im Kopf aktuell über keine Alltagssituation, die dieser Bedeutung im Kopf hinreichend korrespondiert, dann gibt es immer zwei Möglichkeiten: Wir können diesem gedachten Konstrukt trotz fehlendem Realitätsbezug den ‚Status einer möglichen Zukunft‘ verleihen oder nicht.

Würden wir uns dafür entscheiden, einer ‚Bedeutung im Kopf‘ den Status einer möglichen Zukunft zu zusprechen, dann stehen meistens folgende zwei Anforderungen im Raum: (i) Lässt sich im Lichte des verfügbaren Wissens hinreichend plausibel machen, dass sich die ‚gedachte mögliche Situation‘ in ‚absehbarer Zeit‘ ausgehend von der aktuellen realen Situation ‚in eine neue reale Situation transformieren lässt‘? Und (ii) Gibt es ’nachhaltige Gründe‚ warum man diese mögliche Zukunft ‚wollen und bejahen‘ sollte?

Die erste Forderung verlangt nach einer leistungsfähigen ‚Wissenschaft‘, die aufhellt, ob es überhaupt gehen kann. Die zweite Forderung geht darüber hinaus und bringt unter dem Gewand der ‚Nachhaltigkeit‘ den scheinbar ‚irrationalen‘ Aspekt der ‚Emotionalität‘ ins Spiel: es geht nicht nur einfach um ‚Wissen als solches‘, es geht auch nicht nur um ein ’sogenanntes nachhaltiges Wissen‘, das dazu beitragen soll, das Überleben des Lebens auf dem Planet Erde — und auch darüber hinaus — zu unterstützen, es geht vielmehr auch um ein ‚gut finden, etwas bejahen, und es dann auch entscheiden wollen‘. Diese letzten Aspekte werden bislang eher jenseits von ‚Rationalität‘ angesiedelt; sie werden dem diffusen Bereich der ‚Emotionen‘ zugeordnet; was seltsam ist, da ja jedwede Form von ‚üblicher Rationalität‘ genau in diesen ‚Emotionen‘ gründet.[2]

WISSENSCHAFTLICHER DISKURS UND ALLTAGSSITUATIONEN

In diesem soeben angedeuteten Kontext von ‚Rationalität‘ und ‚Emotionalität‘ ist es nicht uninteressant, dass im Tagungsthema der ‚wissenschaftliche Diskurs‘ als Referenzpunkt thematisiert wird, um den Stellenwert textfähiger Maschinen abzuklären.

Es fragt sich, inwieweit ein ‚wissenschaftlicher Diskurs‘ überhaupt als Referenzpunkt für einen erfolgreichen Text dienen kann?

Dazu kann es helfen, sich bewusst zu machen, dass das Leben auf diesem Planet Erde sich in jedem Moment in einer unfassbar großen Menge von ‚Alltagssituationen‘ abspielt, die alle gleichzeitig stattfinden. Jede ‚Alltagssituation‘ repräsentiert für die Akteure eine ‚Gegenwart‘. Und in den Köpfen der Akteure findet sich ein individuell unterschiedliches Wissen darüber, wie sich eine Gegenwart in einer möglichen Zukunft ‚verändern kann‘ bzw. verändern wird.

Dieses ‚Wissen in den Köpfen‘ der beteiligten Akteure kann man generell ‚in Texte transformieren‘, die auf unterschiedliche Weise einige der Aspekte des Alltags ’sprachlich repräsentieren‘.

Der entscheidende Punkt ist, dass es nicht ausreicht, dass jeder ‚für sich‘ alleine, ganz ‚individuell‘, einen Text erzeugt, sondern dass jeder zusammen ‚mit allen anderen‘, die auch von der Alltagssituation betroffen sind, einen ‚gemeinsamen Text‘ erzeugen muss. Eine ‚kollektive‘ Leistung ist gefragt.

Und es geht auch nicht um ‚irgendeinen‘ Text, sondern um einen solchen, der so beschaffen ist, dass er die ‚Generierung möglicher Fortsetzungen in der Zukunft‘ erlaubt, also das, was traditionell von einem ‚wissenschaftlichen Text‘ erwartet wird.

Aus der umfangreichen Diskussion — seit den Zeiten eines Aristoteles — was denn ‚wissenschaftlich‘ bedeuten soll, was eine ‚Theorie‘ ist, was eine ‚empirische Theorie‘ sein soll, skizziere ich das, was ich hier das ‚minimale Konzept einer empirischen Theorie‘ nenne.

  1. Ausgangspunkt ist eine ‚Gruppe von Menschen‘ (die ‚Autoren‘), die einen ‚gemeinsamen Text‘ erstellen wollen.
  2. Dieser Text soll die Eigenschaft besitzen, dass er ‚begründbare Voraussagen‘ für mögliche ‚zukünftige Situationen‘ erlaubt, denen sich dann in der Zukunft ‚irgendwann‘ auch eine ‚Geltung zuordnen lässt‘.
  3. Die Autoren sind in der Lage, sich auf eine ‚Ausgangssituation‘ zu einigen, die sie mittels einer ‚gemeinsamen Sprache‘ in einen ‚Ausgangstext‘ [A] transformieren.
  4. Es gilt als abgemacht, dass dieser Ausgangstext nur ’solche sprachliche Ausdrücke‘ enthalten darf, die sich ‚in der Ausgangssituation‘ als ‚wahr‘ ausweisen lassen.
  5. In einem weiteren Text stellen die Autoren eine Reihe von ‚Veränderungsregeln‘ [V] zusammen, die ‚Formen von Veränderungen‘ an einer gegebenen Situation ins Wort bringen.
  6. Auch in diesem Fall gilt es als abgemacht, dass nur ’solche Veränderungsregeln‘ aufgeschrieben werden dürfen, von denen alle Autoren wissen, dass sie sich in ‚vorausgehenden Alltagssituationen‘ als ‚wahr‘ erwiesen haben.
  7. Der Text mit den Veränderungsregeln V liegt auf einer ‚Meta-Ebene‘ verglichen mit dem Text A über die Ausgangssituation, der relativ zum Text V auf einer ‚Objekt-Ebene‘ liegt.
  8. Das ‚Zusammenspiel‘ zwischen dem Text V mit den Veränderungsregeln und dem Text A mit der Ausgangssituation wird in einem eigenen ‚Anwendungstext‘ [F] beschrieben: Hier wird beschrieben, wann und wie man eine Veränderungsregel (in V) auf einen Ausgangstext A anwenden darf und wie sich dabei der ‚Ausgangstext A‘ zu einem ‚Folgetext A*‘ verändert.
  9. Der Anwendungstext F liegt damit auf einer nächst höheren Meta-Ebene zu den beiden Texten A und V und kann bewirken, dass der Anwendungstext den Ausgangstext A verändert wird.
  1. In dem Moment, wo ein neuer Folgetext A* vorliegt, wird der Folgetext A* zum neuen Anfangstext A.
  2. Falls der neue Ausgangstext A so beschaffen ist, dass sich wieder eine Veränderungsregel aus V anwenden lässt, dann wiederholt sich die Erzeugung eines neuen Folgetextes A*.
  3. Diese ‚Wiederholbarkeit‘ der Anwendung kann zur Generierung von vielen Folgetexten <A*1, …, A*n> führen.
  4. Eine Serie von vielen Folgetexten <A*1, …, A*n> nennt man üblicherweise auch eine ‚Simulation‘.
  5. Abhängig von der Beschaffenheit des Ausgangstextes A und der Art der Veränderungsregeln in V kann es sein, dass mögliche Simulationen ‚ganz unterschiedlich verlaufen können‘. Die Menge der möglichen wissenschaftlichen Simulationen repräsentiert ‚Zukunft‘ damit also nicht als einen einzigen, bestimmten Verlauf, sondern als eine ‚beliebig große Menge möglicher Verläufe‘.
  6. Die Faktoren, von denen unterschiedliche Verläufe abhängen, sind vielfältig. Ein Faktor sind die Autoren selbst. Jeder Autor ist ja mit seiner Körperlichkeit vollständig selbst Teil genau jener empirischen Welt, die in einer wissenschaftlichen Theorie beschrieben werden soll. Und wie bekannt, kann jeder menschliche Akteur seine Meinung jederzeit ändern. Er kann buchstäblich im nächsten Moment genau das Gegenteil von dem tun, was er zuvor gedacht hat. Und damit ist die Welt schon nicht mehr die gleiche, wie zuvor in der wissenschaftlichen Beschreibung angenommen.

Schon dieses einfache Beispiel zeigt, dass die Emotionalität des ‚Gut-Findens, des Wollens, und des Entscheidens‘ der Rationalität wissenschaftlicher Theorien voraus liegt. Dies setzt sich in der sogenannten ‚Nachhaltigkeitsdiskussion‘ fort.

NACHHALTIGE EMPIRISCHE THEORIE

Mit dem soeben eingeführten ‚minimalen Konzepts einer empirischen Theorie (ET)‘ lässt sich direkt auch ein ‚minimales Konzept einer nachhaltigen empirischen Theorie (NET)‘ einführen.

Während eine empirische Theorie einen beliebig großen Raum an begründeten Simulationen aufspannen kann, die den Raum von vielen möglichen Zukünften sichtbar machen, verbleibt den Akteuren des Alltags die Frage, was sie denn von all dem als ‚ihre Zukunft‘ haben wollen? In der Gegenwart erleben wir die Situation, dass die Menschheit den Eindruck erweckt, als ob sie damit einverstanden ist, das Leben jenseits der menschlichen Population mehr und mehr nachhaltig zu zerstören mit dem erwartbaren Effekt der ‚Selbst-Zerstörung‘.

Dieser in Umrissen vorhersehbare Selbst-Zerstörungseffekt ist aber im Raum der möglichen Zukünfte nur eine Variante. Die empirische Wissenschaft kann sie umrisshaft andeuten. Diese Variante vor anderen auszuzeichnen, sie als ‚gut‘ zu akzeptieren, sie ‚zu wollen‘, sich für diese Variante zu ‚entscheiden‘, liegt in jenem bislang kaum erforschten Bereich der Emotionalität als Wurzel aller Rationalität.

Wenn sich Akteure des Alltags für eine bestimmte rational aufgehellte Variante von möglicher Zukunft entschieden haben, dann können sie jederzeit mit einem geeigneten ‚Evaluationsverfahren (EVAL)‘ auswerten, wie viel ‚Prozent (%) der Eigenschaften des Zielzustandes Z‘ bislang erreicht worden sind, vorausgesetzt, der favorisierte Zielzustand wird in einen passenden Text Z transformiert.

Anders formuliert: in dem Moment, wo wir Alltagsszenarien über geeignete Texte in einen rational greifbaren Zustand transformiert haben, nehmen die Dinge eine gewisse Klarheit an und werden dadurch — in gewisser Weise — einfach. Dass wir solche Transformationen vornehmen und auf welche Aspekte eines realen oder möglichen Zustands wir uns dann fokussieren, das ist aber als emotionale Dimension der textbasierten Rationalität vor-gelagert.[2]

MENSCH-MASCHINE

Nach diesen vorbereitenden Überlegungen stellt sich die abschließende Frage, ob und wie die Hauptfrage dieser Tagung „Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ in irgendeiner Weise beantwortet werden kann?

Meine bisherigen Ausführungen haben versucht aufzuzeigen, was es bedeutet, dass Menschen kollektiv Texte erzeugen, die die Kriterien für einen wissenschaftlichen Diskurs erfüllen, der zudem die Anforderungen für empirische oder gar nachhaltig-empirische Theorien erfüllt.

Dabei zeigt sich, dass sowohl bei der Generierung eines kollektiven wissenschaftlichen Textes wie auch bei seiner Anwendung im Alltag ein enger Wechselbezug sowohl mit der gemeinsamen erfahrbaren Welt wie auch mit den dynamischen Wissens- und Bedeutungskomponenten in jedem Akteur eine Rolle spielen.

Der Aspekt der ‚Geltung‘ ist Teil eines dynamischen Weltbezugs, dessen Einschätzung als ‚wahr‘ beständig im Fluss ist; während der eine Akteur vielleicht dazu tendiert zu sagen „Ja, kann stimmen“, tendiert ein anderer Akteur vielleicht gerade zum Gegenteil. Während die einen eher dazu tendieren, eine mögliche Zukunftsvariante X zu favorisieren, wollen die anderen lieber die Zukunftsvariante Y. Rationale Argumente fehlen; die Gefühle sprechen. Während eine Gruppe gerade beschlossen hat, dem Plan Z zu ‚glauben‘ und ihn ‚umzusetzen‘, wenden sich die anderen ab, verwerfen Plan Z, und tun etwas ganz anderes.

Dieser unstete, unsichere Charakter des Zukunft-Deutens und Zukunft-Handelns begleitet die Homo Sapiens Population von Anbeginn. Der unverstandene emotionale Komplex begleitet den Alltag beständig wie ein Schatten.[2]

Wo und wie können ‚textfähige Maschinen‘ in dieser Situation einen konstruktiven Beitrag leisten?

Angenommen es liegt ein Ausgangstext A vor, dazu ein Veränderungstext V sowie eine Anleitung F, dann könnten heutige Algorithmen alle möglichen Simulationen schneller durchrechnen als es Menschen könnten.

Angenommen zusätzlich es läge auch noch ein Zieltext Z vor, dann könnte ein heutiger Algorithmus auch eine Auswertung zum Verhältnis zwischen einer aktuellen Situation als A und dem Zieltext Z berechnen.

Mit anderen Worten: wäre eine empirische oder eine nachhaltig-empirische Theorie mit ihren notwendigen Texten formuliert, dann könnte ein heutiger Algorithmus alle möglichen Simulationen und den Grad der Zielerfüllung automatisch schneller berechnen, als jeder Mensch allein.

Wie steht es aber mit der (i) Ausarbeitung einer Theorie bzw. (ii) mit der vor-rationalen Entscheidung für eine bestimmte empirische oder gar nachhaltig-empirische Theorie ?

Eine klare Antwort auf beide Fragen erscheint mir zum aktuellen Zeitpunkt kaum möglich, verstehen wir Menschen doch noch zu wenig, wie wir selbst im Alltag kollektiv Theorien bilden, auswählen, überprüfen, vergleichen und auch wieder verwerfen.

Meine Arbeitshypothese zum Thema lautet: dass wir sehr wohl lernfähige Maschinen brauchen werden, um in der Zukunft die Aufgabe erfüllen zu können, brauchbare nachhaltig-empirische Theorien für den gemeinsamen Alltag zu entwickeln. Wann dies aber real geschehen wird und in welchem Umfang scheint mir zum jetzigen Zeitpunkt weitgehend unklar.

ANMERKUNGEN

[1] https://zevedi.de/themen/ki-text/

[2] Das Sprechen über ‚Emotionen‘ im Sinne von ‚Faktoren in uns‘, die uns dazu bewegen, aus dem Zustand ‚vor dem Text‘ in den Zustand ‚geschriebener Text‘ überzugehen, der lässt sehr viele Aspekte anklingen. In einem kleinen explorativen Text „STÄNDIGE WIEDERGEBURT – Jetzt. Schweigen hilft nicht …“ ( https://www.cognitiveagent.org/2023/08/28/staendige-wiedergeburt-jetzt-schweigen-hilft-nicht-exploration/ ) hat der Autor versucht, einige dieser Aspekte anzusprechen. Beim Schreiben wird deutlich, dass hier sehr viele ‚individuell subjektive‘ Aspekte eine Rolle spielen, die natürlich nicht ‚isoliert‘ auftreten, sondern immer auch einen Bezug zu konkreten Kontexten aufblitzen lassen, die sich mit dem Thema verknüpfen. Dennoch, es ist nicht der ‚objektive Kontext‘, der die Kernaussage bildet, sondern die ‚individuell subjektive‘ Komponente, die im Vorgang des ‚ins-Wort-Bringens‘ aufscheint. Diese individuell-subjektive Komponenten wird hier versuchsweise als Kriterium für ‚authentische Texte‘ benutzt im Vergleich zu ‚automatisierten Texten‘ wie jene, die von allerlei Bots generiert werden können. Um diesen Unterschied greifbarer zu machen, hat der Autor sich dazu entschieden, mit dem zitierten authentischen Text zugleich auch einen ‚automatisierten Text‘ mit gleicher Themenstellung zu erzeugen. Dazu hat er chatGBT4 von openAI benutzt. Damit beginnt ein philosophisch-literarisches Experiment, um auf diese Weise vielleicht den möglichen Unterschied sichtbarer zu machen. Aus rein theoretischen Gründen ist klar, dass ein von chatGBT4 erzeugter Text im Ursprung niemals ‚authentische Texte‘ erzeugen kann, es sei denn, er benutzt als Vorlage einen authentischen Text, den er abwandeln kann. Dann ist dies aber ein klares ‚fake Dokument‘. Um solch einem Missbrauch vorzubeugen, schreibt der Autor im Rahmen des Experiments den authentischen Text zu erst und beauftragt dann chatGBT4 zur vorgegebenen Themenstellung etwas zu schreiben, ohne dass chatGBT4 den authentischen Text kennt, da er noch nicht über das Internet in die Datenbasis von chatGBT4 Eingang gefunden hat.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

NACHHALTIGE EMPIRISCHE THEORIE mit Software und Alltagsprozessen

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 2.April 2023 – 2.April 2023
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (cagent@cognitiveagent.org)

Kontext/ Einleitung

Im Kontext der Entwicklung einer ’nachhaltigen empirischen Theorie‘ (NET) gibt es neben den ‚meta-theoretischen‘ Diskussionen nicht wenige Diskussionen auch im Kontext der möglichen ‚Anwendungsszenarien‘. Das folgende Schaubild lässt ein wenig die Umrisse der Thematik erkennen.

Theorie und Anwendungsszenarien

Erläuterungen zum Bild

Konzepte und Prozesse

Neben den ’strukturellen Konzepten‘ auf der linken Seite muss man die ‚Prozessstrukturen im Alltag‘ auf der rechten Bildseite berücksichtigen.

Konzept Theorie

Ein strukturelles Konzept beschreibt z.B. auf einem Meta-Level was eine ’nachhaltige empirische Theorie‘ ist und vergleicht dieses Konzept mit dem Konzept ‚Spiel‘ und ‚Theaterstück‘. Da es schnell sehr aufwendig werden kann, komplette Theorien per Hand hinzuschreiben, kann es sehr hilfreich sein, eine Software zu haben (es gibt eine unter dem Namen ‚oksimo.R‘), die den Bürger darin unterstützt, gemeinsam mit anderen Bürgern in ’normaler Sprache‘ den ‚Text einer Theorie‘ aufzuschreiben und nach Bedarf auch zu ’simulieren‘; darüber hinaus wäre es gut, man könnte eine Theorie auch ‚interaktiv spielen‘ (und letztlich sogar noch viel mehr).

Den Text einer Theorie zu haben, diese auszuprobieren und weiter zu entwickeln ist eine Sache. Aber der Weg zu einer Theorie kann mühsam und langwierig sein. Er benötigt sehr viel ‚Erfahrung‘, ‚Wissen‘ und vielfältige Formen von dem, was man meist sehr vage ‚Intelligenz‘ nennt.

Konzept Kollektive Intelligenz

Intelligenz kommt typischerweise im Kontext ‚biologischer Systeme‘ vor, bei ‚Menschen‘ und ‚Nicht-Menschen‘. In neuerer Zeit gibt es auch Beispiele, denen man vage Intelligenz zuspricht, die von ‚Maschinen‘ realisiert wird. Letztlich bilden alle diese unterschiedlichen Phänomene, die man unter dem Begriff ‚Intelligenz‘ grob zusammen fasst, ein Muster, das man unter einer bestimmen Rücksicht als ‚kollektive Intelligenz‘ betrachten könnte. Dafür gibt es sehr viele prominenten Beispiel aus dem Bereich ’nicht-menschlicher biologischer Systeme‘, und dann ganz besonders bei ‚menschlichen biologischen Systemen‘ mit ihrem ‚koordinierten Verhalten‘ in Verbindung mit ihren ’symbolischen Sprachen‘.

Die große Herausforderung der Zukunft besteht darin, diese verschiedenen ‚Typen von individueller und kollektiver Intelligenz‘ zu einer wirklichen konstruktiv-kollektiven Intelligenz zusammen zu führen.

Konzept empirische Daten

Die allgemeinste Form einer Sprache bildet die sogenannte ’normale Sprache‘ oder ‚Alltagssprache. Sie enthält in einem Konzept alles, was wir heute über Sprachen wissen.

Ein interessanter Aspekt ist die Tatsache, dass die Alltagssprache für jede spezielle Art von Sprache (Logik, Mathematik, …) jene ‚Meta-Sprache‘ bildet, auf deren Basis die andere spezielle Sprache ‚eingeführt‘ wird.

Die möglichen ‚Bedeutungselemente und Bedeutungsstrukturen‘, aus denen heraus sich die alltäglichen Sprachstrukturen gebildet haben, entspringen dem Raum des Alltags und seiner Ereigniswelt.

Während die normalen Wahrnehmungsprozesse in Abstimmung unter den verschiedenen Sprechern-Hörer schon eine Menge wertvoller Beschreibungen von alltäglichen Eigenschaften und Prozessen liefern können, können spezialisierte Beobachtungsprozesse in Form von ’standardisierten Messprozessen‘ die Genauigkeit von Beschreibungen erheblich steigern. Das zentrale Moment ist, dass sich alle beteiligten Sprecher-Hörer, die sich für ein ‚bestimmtes Thema‘ (Physik, Chemie, Raumverhältnisse, Spielzüge, …) interessieren, sich für alle ‚wichtigen Eigenschaften‘ auf ‚vereinbarte Beschreibungsprozeduren‘ einigen, die jeder in gleicher Weise auf transparente und reproduzierbare Weise ausführt.

Prozesse im Alltag

Auf welche konzeptuelle Strukturen man sich auch immer geeinigt haben mag, sie können nur dann ‚zur Wirkung kommen‘ (‚zum Leben erweckt‘ werden), wenn es genügend Menschen gibt, die bereit sind, im Rahmen des Alltags all jene ‚Prozesse‘ konkret zu leben. Dazu braucht es Raum, Zeit, die notwendigen Ressourcen und eine hinreichend starke und anhaltende ‚Motivation‘, diese Prozesse jeden Tag aufs Neue zu leben.

So gibt es neben den Menschen, Tieren und Pflanzen und deren Bedürfnissen mittlerweile eine riesige Menge an künstlichen Strukturen (Häuser, Straßen, Maschinen,…), die jeweils auch bestimmte Anforderungen an ihre Umgebung stellen. Diese Anforderungen zu kennen und sie so zu ‚koordinieren/ zu managen‘, dass sie positive Synergien‘ ermöglichen, ist eine gewaltige Herausforderung, die — so der Eindruck im Jahr 2023 — die Menschheit vielfach überfordert.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

KOLLEKTIVE MENSCH:MASCHINE INTELLIGENZ und das Konzept ‚Social Machines‘

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 2.-5.Dezember 2021, 13:12h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

KONTEXT

Der Autor dieses Textes ist involviert in die Ausarbeitung zur Theorie und zur praktischen Umsetzung eines neuen Konzeptes von ‚Kollektiver Mensch:Maschine Intelligenz‘, das unter dem Begriff ‚oksimo Paradigma‘ vorgestellt und diskutiert wird.[1] In diesem Zusammenhang ist es wichtig, den eigenen Standpunkt immer wieder mit anderen Positionen in der Literatur abzugleichen: Ist das Ganze letztlich doch nicht wirklich ‚Neu‘? Falls doch, in welchem Sinne neu? Interessant sind auch die Beziehungen zwischen den verschiedenen Konzepten, ihre historische Entwicklung.

In einer online-Veranstaltung am 30.November 2021 bekam der Autor von Jörn Lamla den Hinweis auf den Artikel ‚Social Machines‘. [2] Wie man in dem kurzen aber prägnanten Artikel in der englischen Wikipedia nachlesen kann [3], ist der Begriff ‚Social Machine‘ (‚Soziale Maschine‘) schon gut 150 Jahre alt, zeigt aber noch keine sehr klaren Konturen. Der Versuch, das ‚Soziale‘ mit der ‚Technologie‘, mit ‚Maschinen‘ — hier sind vernetzte Computer gemeint, letztlich der ‚Cyberspace‘ — begrifflich zu vernetzen, drängt sich auf, ist für Gesellschaftswissenschaften verführerisch, führt aber nicht automatisch zu präzisen Konzepten. Weder ‚das Soziale‘ noch ‚die Maschine‘ sind Begriffe, die aus sich heraus irgendwie klar sind. Umso gespannter kann man sein, was die Autoren meinen, wenn sie zum begrifflichen Konstrukt ‚Soziale Maschine‘ einen Text schreiben.

SOZIALE MASCHINEN

Im weiteren Text bekennen sich die Autoren zu der schwer fassbaren Semantik des Begriffs ‚Soziale Maschine‘, indem sie diverse Beispiele aus der Literatur zitieren, die ein viel schillerndes Bild bietet. Um für ihre Diskussion einen irgendwie gearteten begrifflichen Referenzpunkt zu gewinnen, führen sie dann ihrerseits eine ‚Definition‘ von ‚Sozialer Maschine‘ ein (ohne sich allerdings der Mühe zu unterziehen, die Vielfalt der bisherigen Positionen tatsächlich im einzelnen zu diskutieren).

Def 1: Social Machines

Ihre Definition lautet: „Social Machines sind soziotechnische Systeme, in denen die Prozesse sozialer Interaktion hybrid zwischen menschlichen und maschinellen Akteuren ablaufen und teilweise algorithmisiert sind.“

An dieser Stelle ist es eine offene Frage, ob diese Definition eine ‚adäquate Repräsentation‘ des vorausgehenden Diskurses zu Sozialen Maschinen darstellt, oder ob es sich nur um eine spezielle Setzung der Autoren handelt, deren Begründung nicht schlüssig aus dem bisherigen Diskurszusammenhang folgt.

Liest man die Definition der Autoren, dann fallen u.a. folgende Formulierungen auf: (i) dass die ‚Prozesse sozialer Interaktion‚ ‚hybrid‚ sein sollen; (ii) dass diese Prozesse zwischen ‚menschlichen und maschinellen Akteuren‚ ablaufen sollen, und (iii) dass diese ‚ teilweise algorithmisiert‚ sein sollen.

Hybrides Handeln

Angesichts des großen Bedeutungsspektrums des Ausdrucks ’soziale Interaktion‘ in der Literatur (dazu oft sehr theorieabhängig genutzt) ist an dieser Stelle nicht ganz klar, was mit sozialer Interaktion‘ gemeint sein soll. Dazu der Ausdruck ‚hybrid‘. Ab wann sind menschliche Handlungen hybrid? Handelt ein Mensch ‚hybrid‘ wenn er Werkzeuge benutzt? Handelt ein Mensch ‚hybrid‘, wenn er die Gegebenheiten der Natur nutzt, um Nahrung zu finden oder zu produzieren? Handelt ein Mensch ‚hybrid‘, wenn er andere Menschen ‚instrumentalisiert‘, um persönliche Ziele zu erreichen? Handelt ein Mensch ‚hybrid‘, wenn er eine Sprache benutzt, die er in einer Gesellschaft als Instrument der Kommunikation vorfindet? Warum sollte die Benutzung einer Maschine eine besondere Form von ‚hybridem Handeln‘ darstellen, wenn die Nutzung der Maschine für den ‚Inhalt der Aktion‘ ‚unwesentlich‘ ist?

Für die weitere Diskussion sei hier daher die Verabredung getroffen, dass immer dann, wenn ein Mensch in seiner Interaktion mit der Welt irgendwelche Umstände so benutzt, dass dieses Handeln ohne diese Bezugnahme nicht erklärbar wäre, von einer ‚allgemein hybriden Handlung‘ gesprochen werden soll. Da jede Interaktion mit der Umgebung ‚als Interaktion‘ in diesem Sinne ‚allgemein hybrid‘ ist, sagt der Ausdruck ‚allgemein hybrid‘ nicht allzu viel, außer, das er uns bewusst machen kann, dass wir im Handeln niemals nur ‚für uns‘ handeln, niemals nur ‚isoliert, autonom‘ handeln, sondern wir uns unausweichlich in einer ‚Wechselwirkung‘ mit ‚etwas anderem‘ befinden. Und dies liegt nicht am ‚Handeln als solchem‘ sondern in der Art und Weise, wie jegliches Handeln von Homo sapiens Exemplaren in der ‚inneren Struktur‘ eines Homo sapiens ‚verankert‘ ist.

Die Benutzung vieler Computerdienste (maschinelle Dienstleistungen) sind in diesem Sinne zwar ‚allgemein hybrid‘ insoweit ein Mensch zusätzliche Mittel für sein Handeln benutzt, aber ob man den die maschinelle Dienstleistung benutzt oder nicht, muss nicht notwendigerweise einen wesentlichen Einfluss auf den ‚Inhalt des Handelns‘ haben (außer dass diese Benutzung das Handeln ‚bequemer‘ oder ’schneller‘ oder … macht). Wenn die Autoren also die Bedeutung von ‚hybrid‘ in diesem Zusammenhang so betonen, stellt sich die Frage, was denn in dieser Interaktion so ‚besonders‘, so ’speziell‘ sein soll, dass es sich lohnt, dies hervor zu heben. Allein die Einbeziehung von ‚etwas anderem‘ in das menschliche Handeln geschieht seitdem es den Homo sapiens gibt, tatsächlich sogar schon viel länger, wenn man die evolutionäre Vorgeschichte des Homo sapiens berücksichtigt. Selbst unter Prä-Homo sapiens Lebensformen, die heute leben, ist ‚allgemein hybrides‘ Handeln verbreitet.

Menschliche und Maschinelle Akteure

Es fragt sich, ob mit der Konkretisierung des ‚technischen Anteils‘ im Ausdruck ’soziotechnische Systeme‘ zu ‚Maschinen‘ etwas gewonnen wird? Gibt es technische Systeme, die keine Maschinen sind? Was ist mit hochentwickelten Landwirtschaften, wie sie sich in der Zeit islamischer Besetzung in Spanien um und vor +1000 fanden: komplexe Bewässerungssysteme, komplexe Architektur, komplexe Organisationsformen machten aus Spanien eine blühende und fruchtbare Landschaft. Ist das auch Technologie, und dann sogar im eminenten Sinne soziotechnisch‘? Was ist mit den großartigen Bibliotheken in der Hochblüte des Islams mit vielen hundert Tausend Büchern? Was ist mit der Seeschifffahrt durch die letzten Jahrtausende, die Städte, den Bauwerken, den Straßen und Brücken, den … ? Der Begriff ‚technisches System‘ ist nicht besonders klar, genauso wenig der Begriff ‚Maschine‘. Wie ein kurzer Blick in die englische Wikipedia zeigt [8], hat der Begriff eine lange Geschichte mit einem starken Bedeutungswandel, der die Spuren vielfältiger kultureller Entwicklungen in sich aufgenommen hat. Welche Typen von Maschinen meinen die Autoren?

Durch die Kombination von ‚Maschine‘ und ‚Akteur‘ kommt auf jeden Fall eine besondere Note ins Spiel, da der Begriff des ‚Akteurs‘ — in sich auch nicht klar definiert! — die unscharfe Vorstellung assoziiert, dass damit ein ‚System‘ gemeint sein könnte, das ‚(selbständig?) handeln‘ kann — was immer genau ‚(selbständig) handeln‘ heißen mag –.

Im Englischen meint ‚Akteur‘ als ‚actor‘ schlicht Menschen, die als Schauspieler in einem Stück handeln [9]. Sie handeln aber tatsächlich nur partiell ’selbständig, aus sich heraus‘, insofern sie das vorgegebene Drehbuch zwar in den groben Linien ’nachspielen‘, im Detail der Rolle aber mit ihrem realen Verhalten diese Rolle ‚modifizieren‘ können; in der Art und Weise dieses ‚Modifizierens einer Rolle‘ meinen viele erkennen zu können, ob es sich um einen ‚großen Schauspieler‘ handelt.

In neueren technischen Kontexten gibt es viele Standards, u.a. auch UML (Unified Modeling Language). [10] In UML wird für den Bereich der Programmierung das Zusammenspiel, die Interaktion verschiedener ‚Rollen‘ in einem Interaktionsfeld strukturiert beschrieben. ‚Akteure‘ (‚actors‘) sind dann jene abgrenzbare Größen, die Ereignisse aus der Umgebung (Input) aufnehmen, wie auch auf die Umgebung durch Reaktionen (Output) reagieren können.[11]

Viele andere sprachliche Verwendungszusammhänge mit dem Begriff ‚Akteur‘ sind bekannt. Die Autoren bieten dazu keine Erläuterungen, weder für die Frage, warum sie den allgemeinen Begriff des ‚technischen Systems‘ auf ‚Maschinen als Akteure‘ einschränken noch, welche Art von ‚Akteuren‘ sie genau meinen.

Teilweise Algorithmisiert

Der heutige Begriff des ‚Algorithmus‘ im Kontext von programmierbaren Maschinen [12] hat eine lange Vorgeschichte im Kontext der Mathematik (von heute aus ca. 4.500 Jahre rückwärts), wird aber seit der Verfügbarkeit von real programmierbaren Maschinen (‚Computern‘) seit ca. 1930 vornehmlich für jene Befehlslisten verwendet, mit denen programmierbare Maschinen gesteuert werden.[13] Der Ausdruck der Autoren, dass ’soziale Interaktionen‘ ‚teilweise algorithmisiert‘ sind, wirft von daher mindestens eine Frage auf: Was an einer sozialen Interaktion soll algorithmisiert‘ sein, wenn doch nach allgemeinem Verständnis nur programmierbare Maschinen von einem Algorithmus gesteuert werden können?

Nehmen wir an, dass hier soziotechnische Systeme gemeint sind, die — vereinfachend — aus Akteuren bestehen, die sowohl biologische und nicht-biologische Systeme sein können. Im angenommenen Fall sind diese Akteure auf der einen Seite weiter spezialisiert zu ‚biologischen System‘, die ‚Homo sapiens Exemplare‘ darstellen, und auf der anderen Seite ‚programmierbare Maschinen‘. Von den programmierbaren Maschinen ist bekannt, dass sie — per Definition — über ein ‚Programm‘ verfügen können, das die Eigenschaften eines ‚Algorithmus‘ besitzt. In einer ‚Interaktion‘ zwischen Homo sapiens Akteuren und programmierbaren Maschinen würden — Annahme — die Homo sapiens Akteure so handeln, wie sie immer handeln: Bezugnehmend auf ihre Wahrnehmung der Umgebung würden sie auf der Basis der bis dahin erworbenen Erfahrungen und aktuellen Motivationslagen auf diese Umgebung reagieren; dieses ‚Muster‘ von ‚Wahrnehmung + innere Zustände + Reagieren‘ würde dann einen groben Rahmen für den Begriff einer ‚Handlung‘ zur Verfügung stellen, die bezogen auf eine Situation mit einem anderen Akteur als ‚Gegenüber‘ dann als ‚Interaktion‘ bezeichnet werden könnte. [14] Jede Art von ‚Interaktion‘ in dieser Sicht wäre ‚allgemein hybrid‘, sofern das ‚Gegenüber‘ zu einem Homo sapiens Exemplar nicht wieder ein anderes Homo sapiens Exemplar wäre, also allgemein ‚kein biologisches System‘! Insofern ‚programmierbare Maschinen‘ sehr spezielle Formen von Maschinen — und generell von technischen Systemen — darstellen, die in er ‚Rolle eines Akteurs‘ auftreten können, hätten wir das Muster einer ‚allgemein hybriden‘ Interaktion, die sich zunächst nicht von irgendwelchen anderen Interaktionen des Homo sapiens Exemplars mit irgendwelchen nicht-biologischen Systemen unterscheidet.

An dieser Stelle könnte man dann die Frage stellen, ob und wie die Interaktion eines Homo sapiens Exemplars mit einer programmierbaren Maschine irgendwelche Besonderheiten aufweisen kann verglichen mit einer ‚allgemein hybriden Interaktion‘?

Nach diesen ersten Fragen an die Autoren hier die Interpretation, die die Autoren selbst zu ihrer Definition geben.

Def. 2: Soziotechnisches System

Interessant ist die Formulierung „… verstehen wir unter einem soziotechnischen System ein komplexes Gefüge, welches Menschen, Hard- und Software, organisationale und soziale Prozesse für gegebene Aufgaben oder Ziele miteinander interagieren lässt.“

Das zuvor ermittelte Schema von zwei Akteuren unterschiedlicher Art (biologisch und nicht-biologisch, im letzteren Fall ‚programmierbare Maschinen‘), wird hier in einem Bündel von vier Faktoren gesehen: (i) Menschen, (ii) Hard- und Software, (iii) ‚organisationale und soziale Prozesse‘, sowie (iv) ‚Aufgaben und Ziele‘. Diese vier Faktoren sind dynamisch so verknüpft, dass es ‚Aufgaben und Ziele‘ sind, bezogen auf diese die anderen drei Faktoren in Wechselwirkungen treten. Normalerweise würde man annehmen, dass es die Interaktionen von ‚Menschen‘ einerseits und ‚Hard- und Software‘ andererseits sind, durch die ‚Prozesse‘ stattfinden. In der Formulierung der Autoren liest es sich aber so, als ob ‚organisationale und soziale Prozesse‘ einen eigenständigen Faktor neben ‚Menschen‘ und ‚Hard- und Software‘ bilden, und zwar so, dass alle drei Faktoren interagieren. Also, ein ‚Prozess‘ interagiert mit einem Menschen oder einer Hard- und Software und umgekehrt. Eine sehr ungewöhnliche Vorstellung.

In einem sehr verbreiteten Verständnis von ‚Prozess‘ [15] ist ein Prozess eine Serie von Aktivitäten, die ineinandergreifen, um ein ‚Ergebnis‘ zu produzieren. Je nach Kontext (Disziplin, Anwendungsbereich) können die Aktivitäten sehr unterschiedlich aussehen, ebenso das erzielte Ergebnis.[15] Ergänzend ist es ein verbreitetes Verständnis von ‚Aktion’/’Aktivität‘, dass es sich um ein Ereignis handelt, das von einem ‚Agenten’/ ‚Akteur‘ für eine bestimmte ‚Absicht’/ ‚Ziel‘ herbeigeführt wird, das ‚in‘ dem handelnden Akteur ‚verankert‘ ist. [16]

In diesem Verständnishorizont sind es also Agenten/ Akteure, die unter dem Einfluss von Zielen bestimmte Ereignisse erzeugen — als handeln, indem sie Aktionen ausführen –, die zusammen genommen als ein ‚Prozess‘ verstanden werden können. In diesem Sinne sind ‚Prozesse‚ keine ’normalen Objekte‘ der realen Welt sondern begriffliche Konstrukte, die sich in den Köpfen von Akteuren bilden können, um eine Folge von konkreten Ereignissen — stark abstrahierend — als einen ‚Prozess‘ zu verstehen. Von einem ‚Prozess‘ zu sprechen verlangt daher von den Beteiligten, sich jeweils darüber zu vergewissern, welche Abfolge von Ereignissen (Handlungen) zum aktuellen Begriff eines Prozesses gehören sollen.

Bemerkenswert ist auch, dass die Ziele — die intendierten Ergebnisse — ebenfalls nicht als ’normale Objekte‘ vorkommen, sondern primär ‚in den Akteuren‘ verankert sind, und es eine der schwierigsten Aufgaben in jedem Prozess ist, zwischen allen beteiligten Akteuren zu klären, was man unter dem ‚gemeinsamen‘ Ziel — eventuell individuell ganz unterschiedlich gedacht — so zu verstehen hat, dass es zwischen allen Beteiligten ‚klar genug‘ ist. [17] Da Ziele keine realen Objekte sind, sondern immer nur ‚innere Objekte‘ der Akteure, ist eine vollständige Klärung der ‚gemeinten Bedeutung‘ generell nur annäherungsweise über aufzeigbare Beispiele möglich.

Versucht man der Intention der Autoren zu folgen, dann wären Prozesse Entitäten, die mit Menschen und/oder Hard- und Software interagieren können. Hierin klingt irgendwie an, als ob Prozesse soziale Realitäten sind, die als solche greifbar sind und mit denen Menschen interagieren können so wie mit anderen Gegebenheiten. Da die Autoren den Begriff der ‚Interaktion‘ bzw. der ‚Aktion‘ bislang nicht geklärt haben, bleibt der Versuch des Verstehens an dieser Stelle ‚mit sich alleine‘.

Im Lichte eines verbreiteten Verständnisses sind Prozesse höchstens in einem sehr abstrakten Sinne ’soziale Realitäten‘, die mit Menschen sowie Hard- und Software ‚interagieren‘. Nehmen wir z.B. einen beliebigen Planungsprozess in einer Firma oder einer Behörde. Ein Chef kann z.B. einen Mitarbeiter davon in Kenntnis setzen, dass er ab morgen in dem Planungsprozess Px mitarbeiten soll. Damit wird der Mitarbeiter Mitglied der Projektgruppe PGx zum Planungsprozess Px. Als Mitglied der Projektgruppe startet für das neue Mitglied ein Kommunikationsprozess, innerhalb dessen er sich ein ‚inneres Bild‘ von dem Projekt und seinen Aufgaben machen kann. In dem Maße, wie der Mitarbeiter aufgrund seines ‚inneren Bildes‘ versteht, was genau seine Aufgaben mitsamt einem spezifischen Aufgabenumfeld sind, kann der Mitarbeiter anfangen, ‚etwas zu tun‘, d.h. er kann ‚gezielt Handlungen vornehmen‘. Im ‚Stattfinden‘ seiner Handlungen und durch die möglichen ‚erfahrbaren Resultaten‘ können die anderen Mitglieder der Projektgruppe ‚wahrnehmen‘, was der neue Mitarbeiter tut und sie können die neuen ‚Wahrnehmungen‘ mit ihrem ‚inneren Bild des Projektes‘ ‚abgleichen‘: passen die Handlungen und Ergebnisse des neuen Mitarbeiters zu ‚ihrem inneren Bild‘ des Prozesses?

Im Lichte dieses Beispiels würde das Konzept einer ‚Interaktion zwischen Menschen und einem Prozess‘ letztlich zurück übersetzt werden müssen zu einer ‚Interaktion zwischen Menschen‘, da ein Prozess niemals als solcher als ein ‚erfahrbares Objekt‘ existiert, sondern immer nur als ‚abstraktes Konzept‘ im ‚Innern von Menschen‘, die über Kommunikation verbunden mit Handlungen und aufzeigbaren Artefakten miteinander interagieren. Kann man solchen Kommunikationen und Interaktionen mit Artefakten ein gewisses ‚Format‘ zuordnen, dann sprechen wir von einem ‚Prozess‘, der durch Akteure — hier Menschen — in einer Abfolge typischer Handlungen ’stattfindet‘.

Def. 2*: Soziotechnisches System

An dieser Stelle des Rekonstruktionsversuchs würde man die Formulierung der Autoren wie folgt ‚um-formulieren‘ können: „… verstehen wir unter einem soziotechnischen System ein komplexes Gefüge bestehend aus Menschen und Hard- und Software, die aufgrund von akzeptierten Zielen so miteinander interagieren können, dass organisationale und soziale Prozesse stattfinden, die zu Änderungen in der bestehenden Umgebung führen können.

Möglicherweise meinen die Autoren auch, dass die Tatsache, dass eine Gruppe von Menschen aufgrund von festgelegten Zielen längere Zeit in einem bestimmten Format miteinander so interagieren, dass andere dieses Vorgehen ‚in ihrem Innern‘ als ein ‚Prozess‘ erkennen, und diese ‚Wahrnehmung und Interpretation‘ für die ‚Beobachter‘ eine irgendwie geartete ‚Wirkung entfaltet, dass solch eine ‚Wirkung im Innern‘ als ‚Teil einer Interaktion‘ der Beobachter mit dem beobachtbaren Prozess verstanden werden kann. Eine solche Ausweitung der Bedeutung von normalen ‚Wahrnehmungsprozessen‘ zu ‚Interaktionsprozessen‘ würde aber für eine Analyse wenig attraktiv erscheinen.

Der Ausdruck ‚Gefüge‚, den die Autoren benutzen, klingt ein wenig ‚altmodisch‘. Nach mehr als 100 Jahren diverse Strukturwissenschaften sollte man das Wort ‚Gefüge‘ doch vielleicht eher durch den Ausdruck ‚Struktur‚ ersetzen. [18] Eine ‚Struktur‘ liegt vor, wenn man verschiedene Komponenten unterscheiden kann, hier z.B. ‚Menschen‘ und ‚Hard- und Software‘, und diese Komponenten können in Form ‚typischer‘ Handlungen miteinander interagieren, also etwa

SOZIOTECHNISCHES SYSTEM (ST) gdw ST = <Menschen, Hard-/Software, …, Interaktionen, …>

Die Elemente ‚Absicht‘, ‚Ziel‘, ‚inneres Bild von…‘ usw. würden dann in einer eigenständigen Sub-Struktur ‚Mensch‘ oder ‚menschlicher Akteur‘ verortet, da ein Mensch als eine ‚eigenständige Struktur‘ aufgefasst werden kann, etwa:

MENSCH(M) gdw M = <Bilder, Ziele, …, Handlungen, …>

Die beiden Strukturen ST und M würden sogar eine kleine ‚Hierarchie‚ bilden: die Struktur M wäre eingebettet in die Struktur ST.

Offen ist dabei noch, in welchen Sinne ‚Hard- und Software‘ überhaupt interagieren können.

Def 3: Prozesse sozialer Interaktion

sind sich dynamisch ändernde Abfolgen sozialer Aktionen zwischen Individuen und/oder Gruppen.

Die Unklarheit, die durch Def. 2 noch darin gegeben war, als ob ‚organisationale und soziale Prozesse‘ quasi ‚gleichberechtigte‘ Faktoren neben Akteuren, Hard- und Software sind, wird durch Def. 3 aufgehoben. In der Formulierung von Def. 3 sind ‚Prozesse sozialer Interaktion‘ ‚Abfolgen sozialer Aktionen‘, die ‚zwischen Individuen und/oder Gruppen‘ stattfinden, und die sich ‚dynamisch ändern‘ können. Diese Lesart entspricht weitgehend dem Formulierungsvorschlag Def 2*.

Def. 4: Hybridität

Unter ihrer Hybridität schließlich verstehen wir, dass an diesen Prozessen inhärent sowohl maschinelle als auch menschliche Akteure wesentlich beteiligt sind.

Anders formuliert sagen die Autoren, dass ‚Prozesse sozialer Interaktion‘ dann hybrid sind, wenn in solchen Prozessen sowohl ‚maschinelle als auch ‚menschliche Akteure‘ beteiligt sind.

Mit Blick auf die Diskussion zum Ausdruck ‚hybrid‘ im Anschluss an Def. 1 beschränkt sich die Formulierung von Def. 4 zunächst darauf, nur zu fordern, dass im Rahmen von ‚Prozessen sozialer Interaktionen‘ neben dem Akteurstyp ‚Mensch‘ auch der Akteurstyp ‚Maschine‘ vorkommt. Wie solch eine Interaktion aussieht, welche Eigenschaften sie auszeichnen, bleibt hier noch offen. In der vorausgehenden Diskussion war ja schon thematisiert worden, dass menschliche Akteure andere nicht-menschliche Mittel — also auch Maschinen (welche Typen von Maschinen?) — ‚unwesentlich‘ benutzen können. Damit war gemeint, dass man zwar eine programmierbare Maschine (Computer) zum ‚Text schreiben‘ benutzen kann, dass der Computer hier aber keine ‚wesentliche‘ Rolle spielt; er macht das Erstellen von Texten vielleicht ‚einfacher‘, wäre aber generell nicht notwendig.

Den folgenden Text kann man grob als eine Serie von ‚Annahmen‘ über die Wirklichkeit bezeichnen, vermischt mit impliziten Folgerungen, in denen die bisherige Einleitung weiter ausdifferenziert wird.

Ziel der Diskussion bleibt es, zu klären, wie sich das Konzept der ‚kollektiven Mensch:Maschine Intelligenz‘ aus dem oksimo Paradigma zum Konzept der ‚Sozialen Maschine‘ verhält.

ANNAHME-Hybridisierung 1

Die Autoren benennen drei Komponenten ‚Webtechnologie‘ — mit dem Attribut ‚mobil‘ ergänzt –, ‚lernende Bots‘ und ‚KI‘, wodurch „Sozialität und Maschine“ zunehmend verschmelzen. Daraus ziehen sie den Schluss: „Die menschlichen und nichtmenschlichen Komponenten der Social Machine sind folglich immer schwerer voneinander zu unterscheiden und zu trennen, was als paradigmatischer Trend zur fortschreitenden Hybridisierung der Social Machine bezeichnet werden kann“.

Der Kern der Schlussfolgerung fokussiert in der Idee, dass der „Trend zur fortschreitenden Hybridisierung“ offensichtlich sei.

Wenn nach Def. 4 von den Autoren festgehalten wird, dass man unter „Hybridität“ verstehen sollte, „dass an diesen Prozessen inhärent sowohl maschinelle als auch menschliche Akteure wesentlich beteiligt sind“, dann fragt man sich, was man sich unter dem ‚Fortschreiten einer Hybridisierung‘ verstehen soll. Die bloße Vermehrung der ‚Anzahl‘ der beteiligten Faktoren ‚Menschen‘ oder ‚Maschinen‘ kann es wohl nicht sein. Zumindest gibt die Def. 4 dies nicht her.

Die Autoren sprechen vor ihrer Schlussfolgerung davon, dass „Sozialität und Maschine zunehmend verschmelzen„. Dies kann man so interpretieren, dass die ‚fortschreitende Hybridisierung‘ zusammenhängt mit einer ‚Verschmelzung‘ von Sozialität und Maschine. Der Ausdruck ‚verschmelzen‘ wurde von den Autoren zuvor nicht eigens definiert. Die eher sprachliche Deutung von ‚Verschmelzung‘ von Worten scheint nicht gemeint zu sein.[19] Der bedeutungsnahe Ausdruck ‚Fusion‘ bietet eine Vielzahl von Varianten. [20] Welche Variante meinen die Autoren. Dass so ungleiche Wirklichkeiten wie ‚Sozialität‘ und ‚Maschinen‘ ‚verschmelzen‘, dafür fehlt jeglicher Ansatzpunkt einer sinnvollen Interpretation.

Um dieses Dilemma aufzulösen könnte der Ausdruck „… sind folglich immer schwerer voneinander zu unterscheiden und zu trennen …“ einen Hinweis liefern. Wenn man das ‚unterscheiden‘ und ‚trennen‘ nicht auf reale Sachverhalte — wie Sozialität und Maschine — bezieht sondern auf die ‚Verarbeitung von Sinneseindrücken im Innern des Menschen‘, dann könnte man sich eine Interpretation vorstellen, in der durch die Art und Weise, wie Sozialität und Maschine in der Umwelt ‚vorkommen‘, im menschlichen Akteur ‚Vorstellungen‘ auslöst, in denen das menschliche Denken eine klare Unterscheidung immer weniger leisten kann. Dann wäre die angenommene Verschmelzung der Autoren ein rein kognitives/ mentales Problem der menschlichen Akteure, die sich in Interaktion mit einer Umwelt befinden, in der mindestens Menschen und Maschinen vorkommen, aber auf eine Weise, die eine klare Unterscheidung kognitiv/ mental schwer macht.

Dies führt zu folgendem Formulierungsvorschlag:

ANNAHME-Hybridisierung 1 *

Meine Formulierung würde dann lauten: „Menschliche und nichtmenschliche Akteure (hier Maschinen) können in einer Weise in der Umwelt vorkommen, dass es für die beteiligten Menschen in ihren mentalen/ kognitiven Bildern von der Welt immer schwerer wird, diese Akteure klar voneinander zu unterscheiden und zu trennen.

Zu beachten ist auch, dass die Autoren zu Beginn des Abschnitts von drei unterschiedlichen Komponenten sprechen (‚Webtechnologie‘ — mit dem Attribut ‚mobil‘ ergänzt –, ‚Bots‘ und ‚KI‘), die im Gefolge dann offensichtlich dem Ausdruck ‚Maschine‘ zugeschlagen werden. Der Ausdruck ‚Maschine‘ wurde aber bislang nicht wirklich definiert. Auch sei der Ausdruck ‚Hard- und Software‘ erinnert, der in Def. 2 von den Autoren benutzt wird. Nach den Kontexten gehört dieser auch in das Bedeutungsfeld ‚Maschine‘, so wie es die Autoren praktizieren. Halten wir an dieser Stelle fest:

Def. 5 Maschine (indirekt abgeleitet):

Für die Autoren repräsentieren die Ausdrücke ‚Hard- und Software‘, ‚Webtechnologie (mit Aspekten der ‚Mobilität‘), ‚lernende Bots‘ und ‚KI‘ Aspekte des Bedeutungsfelds ‚Maschine‘, wie es im Kontext der Begriffe ’soziotechnisches System‘ bzw. ‚Soziale Maschine‘ implizit angenommen wird.

In der ‚realen Welt‘ beschreiben die aufgelisteten Ausdrücke (‚Hard- und Software‘, ‚Webtechnologie (mit Aspekten der ‚Mobilität‘), ‚lernende Bots‘ und ‚KI‘ ) ganz unterschiedliche Sachverhalte, deren Verhältnis zueinander keinesfalls trivial ist. Dies sei hier ganz kurz angedeutet:

Webtechnologie, Mobil, Hard- und Software

Der Begriff ‚Webtechnologie‚ ist in sich eher unklar, was mit dem unklaren Begriff ‚Web‚ zusammenhängt. Die englische Wikipedia listet mögliche Bedeutungsvarianten auf und verweist bei ‚web‘ auch auf das ‚World Wide Web [WWW]‘.[21] Die wichtige Botschaft ist [22], dass das WWW nicht das Internet ist, sondern das Internet als Basistechnologie voraussetzt. Das WWW selbst ist eine reine Softwareangelegenheit, wodurch es möglich ist, mittels eines speziellen Adresssystems (URLs) Signale zwischen diesen Adressen hin und her zu schicken. Die Art und Weise, wie dieser Signalaustausch formal stattfinden soll, regelt ein ‚Protokoll‘ (das ‚Hypertext Transfer Protocol‘ [HTTP]; mit zusätzlicher Sicherheit als HTTPS). Auf Seiten der Anwender benötigt man dazu eine Software, die ‚Browser‚ genannt wird, und innerhalb des Internets benötigt man einen Server, auf dem eine Software läuft, die ‚Webserver‚ genannt wird. Die ‚Mobilität‘ des WWW ist keine direkte Eigenschaft des WWW selbst sondern ergibt sich aus veränderten technischen Bedingungen des vorausgesetzten Internets: mobile Endgeräte, auf denen eine Browser Software installiert ist, erlauben eine Kommunikation innerhalb des WWWs.[23] Während das WWW eine reine Software ist, kann man fragen, was denn dann mit ‚Webtechnologie‘ gemeint sein soll? Wenn mit ‚Webtechnologie‘ auch ‚Software‘ gemeint ist, dann wäre der Begriff ‚Technologie‘ stark ausgeweitet. Das ‚Internet‘ — eine spezielle Kombination aus Hardware und Software — wird als ‚Netzwerk von Netzwerken‘ gesehen, innerhalb dessen ganz unterschiedliche Kommunikationsprotokolle am Werk sind, die ganz unterschiedliche Informationsquellen und Dienste ermöglichen. Das WWW ist eine Komponenten unter vielen.[24] Mit ‚Netzwerk‚ ist in diesem Kontext ein ‚Computernetzwerk‚ gemeint. Es besteht aus unterschiedlichen ‚Computern‚, die über geeignete ‚Verbindungen‘ und ‚Verbindungstechnologien‘ miteinander so verknüpft sind, dass Signalpakete entsprechend vereinbarten Protokollen hin und her gesendet werden können. Computer verstehen sich hier immer als Kombinationen aus Hard- und Software.[25] Als umfassender Begriff für die Vielfalt der Technologien und Anwendungen, die durch das ‚Internet‘ möglich sind, gibt es schon sehr früh — zumindest im Englischen Sprachraum — den Begriff ‚Cyberspace‚.[26]

Lernende Bots

Generell gibt es verschiedene Typen von bots. [27] Im allgemeinen ist ein bot im Internet eine Softwareanwendung, die automatisch bestimmte Aufgaben ausführt.[28] Wikipedia selbst benutzt z.B. über 2500 Wikipedia-typische Bots, um die mehr als 54 Mio. Wikipedia-Seiten zu verwalten.[29] Für die Interaktion mit Menschen gibt es u.a. den Typ des ‚Chatbots‘ [30]: die Software eines Chatbots versucht das Verhalten von Menschen anzunähern. Dies gelingt bislang aber nicht wirklich gut.[30] Ein spezielles, aber schon viele Jahre andauerndes Einsatzfeld von künstlicher Intelligenz Techniken sind Computerspiele, in denen ‚Nicht-Spieler Charaktere‘ (’non-player characters‘ [NPCs) das Spielgeschehen anreichern. Diese erledigen sehr vielfältige Aufgaben und sind keineswegs mit einem ‚menschenähnlichen‘ Spielcharakter zu vergleichen.[31] Insgesamt ist der Begriff ‚lernend‘ im Kontext von ‚Bots‘ generell sehr unscharf: einmal, weil der Ausdruck ‚bot‘ nicht einheitlich definiert ist, und zum anderen, weil der Begriff ‚lernend‘ im Kontext von ‚Künstlicher Intelligenz [KI]‘ bzw. ‚Maschinellem Lernen [ML]‘ keinesfalls klar ist. Das Feld ist zu uneinheitlich. [32]

KI (Künstliche Intelligenz)

Der Ausdruck ‚KI‘ — Abkürzung für ‚Künstliche Intelligenz‘ (heute oft auch einschränkend ‚ML‘ für maschinelles Lernen) — bezeichnet ein Teilgebiet der Informatik, das bislang keine klare Definition bietet, da schon der Begriff der ‚Intelligenz‘ selbst nicht klar definiert ist.[32], [33] Aufgrund der Unklarheit im Zusammenhang mit dem Begriff der ‚Intelligenz‘ bei biologischen Systemen — obgleich es hier einige Definitionen gibt, die für eingeschränkte Bereiche sehr brauchbar sind — versucht die Englischsprachige Informatik das Problem dadurch zu lösen, dass sie den Begriff AI nur für den Bereich nicht-biologischer Systeme — hier speziell für programmierbare Maschinen — definieren will. Programmierbare Maschinen mit KI können sowohl ihre Umwelt partiell wahrnehmen als auch dann — meist unter Zuhilfenahme systeminterner Zustände — wieder auf die Umwelt reagieren. Zusätzlich wird für solche Systeme mit künstlicher Intelligenz postuliert, dass sie ‚Zielen (‚goals‘) folgen können.[34]

Diese scheinbare Erleichterung, sich vom ursprünglichen Phänomenfeld der Intelligenz bei biologischen Systemen abzukoppeln, weil eine befriedigende Definition von Intelligenz hier schwierig ist, hat aber tatsächlich zu keiner befriedigenden Situation geführt. Sowohl der Intelligenzbegriff eingeschränkt auf programmierbare Maschinen ist heute nicht wirklich klar, noch ist es bislang möglich, zwischen dem Verhalten biologischer und nicht-biologischer Systeme dadurch eine brauchbare Verhältnisbestimmung aufzubauen. Dies führt dann z.T. zu der bizarren Situation, dass spezielle Leistungen von programmierbaren Maschinen für Bereich X, wo Maschinen dem Menschen überlegen sind, als generelle Aussage über das Verhältnis von Maschinen und Menschen benutzt werden, ohne dass man jene Bereiche, in denen biologische Systeme den programmierbaren Maschinen haushoch überlegen sind, überhaupt noch thematisiert. Es ist dem ai100-Report zu verdanken, dass er neu darauf aufmerksam macht, dass es durch diese asymmetrische Diskussion bislang unmöglich ist, genauer zu bestimmen, wie maschinelle Intelligenz der menschlichen Intelligenz konstruktiv unterstützen könnte.[32]

FORTSETZUNG folgt…

ANMERKUNGEN

Hinweis: Wenn in den Anmerkungen Quellen aus dem Internet angegeben werden, dann ergibt sich die Zeit des letzten Aufrufs aus dem Datum der Abfassung dieses Beitrags, die im Kopf des Artikels angegeben ist.

[1] Dazu gibt es einige Beiträge in diesem Philosophie-Jetzt- Blog, und in zwei anderen Blogs uffmm.org mit dem Schwerpunkt ‚Theorie‘ und dem Blog oksimo.org mit dem Schwerpunkt ‚Anwendungen‘.

[2] Claude Draude · Christian Gruhl · Gerrit Hornung · Jonathan Kropf · Jörn Lamla · JanMarco Leimeister · Bernhard Sick · Gerd Stumme , 2021, „Social Machines„, Informatik Spektrum, https://doi.org/10.1007/s00287-021-01421-4, Springer

[3] Social Machine, Wikipedia [EN]: https://en.wikipedia.org/wiki/Social_machine

[4] Berners-Lee, Tim; J. Hendler (2009). „From the Semantic Web to social machines: A research challenge for AI on the World WideWeb“ (PDF). Artificial Intelligence. 174 (2): 156–161. doi:10.1016/j.artint.2009.11.010.

[5] Markus Luczak-Roesch, Ramine Tinati, Kieron O’Hara, Nigel Shadbol, (2015), Socio-technical Computation, CSCW’15 Companion, March 14–18, 2015, Vancouver, BC, Canada. ACM 978-1-4503-2946-0/15/03, http://dx.doi.org/10.1145/2685553.2698991

[6] Luczak-Roesch, M.; Tinati, R.; Shadbolt, N. (2015). When Resources Collide: Towards a Theory of Coincidence in Information Spaces (PDF). WWW 2015 Companion. ACM. pp. 1137–1142. doi:10.1145/2740908.2743973. ISBN9781450334730. S2CID17495801.

[7] Cristianini, Nello; Scantamburlo, Teresa; Ladyman, James (4 October 2021). „The social turn of artificial intelligence“ (PDF). AI & Society: 0. doi:10.1007/s00146-021-01289-8.

[8] Der Begriff ‚machine‘ (Maschine) in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Machine

[9] Der Begriff ‚actor‘ in der Wikipedia [EN] für die Rolle des Schauspielers: https://en.wikipedia.org/wiki/Actor

[10] Der Begriff ‚UML (Unified Modeling Language)‘ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Unified_Modeling_Language

[11] Der Begrifff ‚actor‘ in der Wikipedia [EN] im Rahmen des technischen Standards UML: https://en.wikipedia.org/wiki/Actor_(UML)

[12] Nicht alle Maschinen sind programmierbar, können aber meistens — im Prinzip — nach Bedarf mit programmierbaren Maschinen erweitert werden.

[13] Der Begriff ‚algorithm‘ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Algorithm

[14] Wenn man den Begriff ‚Interaktion‘ auf solche Situationen beschränken würde, in denen ein Homo sapiens Akteur mit einem anderen Akteur (biologisch oder nicht-biologisch) handelt, dann würde es auch Handlungen geben, die keine typische Interaktion mit anderen Akteuren repräsentieren, z.B. wenn ich einen Kaffee oder Tee oder … trinke, oder ich esse einen Apfel, ich fahre mit dem Fahrrad, ….

[15] Der Begriff ‚process‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Process

[16] Der Begriff ‚activities‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Action_(philosophy)

[17] Im Systems Engineering wird dieser Sachverhalt als ’semantic gap‘ bezeichnet, siehe z.B.: Doeben-Henisch, G., Wagner, M. [2007] Validation within Safety Critical Systems Engineering from a Computation Semiotics Point of View, Proceedings of the IEEE Africon2007 Conference, ISBN 0-7803-8606-X, Paper-ID 701

[18] Der Begriff ‚structure‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Structure

[19] Der Ausdruck ‚Verschmelzung‚ in der Wikipedia [DE]: https://de.wikipedia.org/wiki/Verschmelzung_(Grammatik)

[20] Der Ausdruck ‚Fusion‚ in der Wikipedia [DE]: https://de.wikipedia.org/wiki/Fusion

[21] Der Ausdruck ‚web‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Web

[22] Der Ausdruck ‚World Wide Web‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/World_Wide_Web

[23] Der Ausdruck ‚mobile‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Mobile

[24] Der Ausdruck ‚Internet‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Internet

[25] Der Ausdruck ‚Computer network‘ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Computer_network

[26] Der Ausdruck ‚cyberspace‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Cyberspace

[27] Der Ausdruck ‚bot‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Bot

[28] Der Ausdruck ‚Internet bot‘ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Internet_bot

[29] Der Ausdruck ‚bots‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Wikipedia:Bots

[30] Der Ausdruck ‚chatbot‚ in der Wikipedia [EN] : https://en.wikipedia.org/wiki/Chatbot

[31] Der Ausdruck ‚Artificial intelligence in video games‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Artificial_intelligence_in_video_games

[32] Michael L. Littman, Ifeoma Ajunwa, Guy Berger, Craig Boutilier, Morgan Currie, Finale Doshi-Velez, Gillian Hadfield, Michael C. Horowitz, Charles Isbell, Hiroaki Kitano, Karen Levy, Terah Lyons, Melanie Mitchell, Julie Shah, Steven Sloman, Shannon Vallor, and Toby Walsh. “Gathering Strength, Gathering Storms: The One Hundred Year Study on Artificial Intelligence (AI100) 2021 Study Panel Report.” Stanford University, Stanford, CA, September
2021. Doc: http://ai100.stanford.edu/2021-report. Report: https://ai100.stanford.edu/sites/g/files/sbiybj18871/files/media/file/AI100Report_MT_10.pdf

[33] Der Ausdruck ‚KI (Künstliche Intelligenz)‚ — auch ‚ML (Maschinelles Lernen)‘ in der Wikipedia [DE] : https://de.wikipedia.org/wiki/K%C3%BCnstliche_Intelligenz

[34] Der Ausdruck ‚Artificial intelligence [AI]‘ in der Wikipedia [EN] : https://en.wikipedia.org/wiki/Artificial_intelligence

Some Soundexperiment from the past …

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

Sag niemals Nie … Rückkehr

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 13.November 2021
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

KONTEXT

Im Beitrag vom 3.Juli 2021 hatte ich bekannt gegeben, dass ich ‚ausgewandert‘ bin — nicht ‚physisch‘, sondern ‚mental‘. Das klingt dort sehr ‚abschließend‘. Nun muss ich feststellen, dass ich wieder ‚zurück bin‘. Wie soll man dies verstehen?

GEGENWART UND ZUKUNFT

Nun ist es so — was in diesem Blog mehrfach reflektiert worden ist –, dass wir in der aktuellen Gegenwart von der möglichen Zukunft (eigentlich ein Plural: Zukünfte!) radikal nichts wissen. Wir leben von Fragmenten aus der Vergangenheit und einigen Fragmenten aus der Gegenwart und basteln und daraus mehr oder weniger gute Vermutungen, was als nächstes kommen wird. [1]

So hatte ich am 23.Juni 2021 gewisse (begründete) Vermutungen, wie sich das oksimo Projekt weiter entwickeln wird und welche Art von Ideen/ Texten dazu hilfreich sein werden. Die Art des philosophischen Denkens, wie sie in diesem Blog praktiziert worden ist, hielt ich mit Erreichen des oksimo Projektes für ‚erledigt‘.

Nach nunmehr 5 Monaten verstärkt sich der Eindruck, dass dieser Schluss mit der ‚Erledigung‘ zu voreilig war. Warum?

OKSIMO UND DIE PHILOSOPHIE

Richtig ist, dass das oksimo Projekt eine eigene Dynamik entwickelt hat, die sich kontinuierlich weiter verstärkt. Und, ja, richtig ist auch, dass die philosophischen Überlegungen aus diesem ‚Philosophie Jetzt‘ Blog vielfach die Grundlagen für das oksimo Paradigma bilden (zusätzlich verstärkt durch den eher technischen uffmm.org Blog). Was ich aber offensichtlich unterschätzt habe, das ist das ‚Eigengewicht‘ der philosophischen Dimension und die unaufhebbare Wechselbeziehung zwischen ’speziellem Denken‘ (wie im oksimo Paradigma) und der allgegenwärtigen philosophischen Dimension, die jedes menschliches Denken wie so eine Art ‚kognitives Hintergrundrauschen‘ begleitet. Niemand ist gezwungen, das kognitive Hintergrundrauschen des philosophischen Denkens zu ‚aktivieren‘, aber überall dort, wo es interessant wird, muss man es eigentlich tun, da man sonst das Interessanteste am Gegenstand nicht in den Blick bekommt.

Was ist dieses ‚Interessante‘ im Kontext des oksimo Paradigma, was nur die Philosophie ’sehen‘ kann?

NACHHALTIGE ENTWICKLUNG, KOLLEKTIVE INTELLGENZ, und OKSIMO

Im oksimo Paradigma vereint sich eine theoretische Perspektive mit einem praktischen Werkzeug. Die theoretische Perspektive verhandelt die Frage, wie sich beliebige Menschen unter ausschließlicher Benutzung ihrer Alltagssprache über beliebige Fragestellungen unter ausdrücklicher Berücksichtigung des prozesshaften Charakters von Wirklichkeit so verständigen können, dass sie gemeinsam Wege aus dem Jetzt in das Morgen beschreiben, simulieren und spielen können. Natürlich unter Einbeziehung aller verfügbaren Formen von sogenannter ‚Künstlicher Intelligenz [KI]‘ (oder schwächer: ‚Maschinellem Lernen [ML]‘). Die praktische Perspektive beschreibt und entwickelt eine konkrete Software, die Menschen dabei unterstützt, genau dies tun zu können.

Bei dieser Art der Aufgabenstellung ist eine starke Komponente die Sicht der Ingenieure und Informatiker. Aber, wie man ahnen kann, diese nicht ganz einfache Aufgabenstellung impliziert so viele tiefgreifende Annahmen zum Menschen, zu Sprache, zu Kognition, zu Kultur — um nur einige Aspekte zu nennen –, dass das kognitive Hintergrundrauschen des philosophischen Denkens schwerlich zu ‚überhören‘ ist.

Es kam also, wie es kommen musste: im Laufe der Ausarbeitung schrammte das Projekt immer mehr an grundlegenden philosophischen Überlegungen vorbei, knallte geradezu in voller Fahrt auf diese, bis ich schließlich — jetzt — feststelle, dass die ‚mentale Auswanderung‘ wohl zu ‚verfrüht‘ war, falls überhaupt machbar. Eigentlich ‚un-machbar‘: man kann sein eigenes Denken — falls man überhaupt denken will –, nicht einfach so ‚abschalten‘.

Erschwerend — oder besser: verstärkend — kommt hinzu, dass die Gespräche im ‚Umfeld des oksimo Projektes‘ immer mehr Fragen aufwerfen, was es denn genau ist, dieses oksimo Projekt? Wie soll man es in die vielen heute gängigen Kontexte (Digitalisierung, KI, Smart xyz, Demokratie, Bürgerbeteiligung, Klimakatastrophe, Nachhaltigkeit, Gamification, Lernen, Forschen, Kommunalplanung, …) einordnen?

Aus diesen vielfältigen Aspekten kondensierten sich in der letzten Zeit dann besonders folgende Perspektiven heraus: einmal (i) die Perspektive der nachhaltigen Entwicklung, wie sie die Vereinten Nationen seit dem Brundtland Report von 1987 über zahlreiche Konferenzen vorangetrieben hat. Dann (ii) die Perspektive der Intelligenz, und zwar als Kollektive Intelligenz [KI+], wie sie die Lebensform des homo sapiens seit ca. 300.000 Jahren immer eindrucksvoller demonstriert. Und schließlich auch (iii) die Perspektive der Digitalisierung, die hier als Teil der Kulturentwicklung gesehen wird, diese wiederum als Teil der biologischen Evolution. Die Digitalisierung enthält eigene Formen von Intelligenz, die meistens als ‚Künstliche Intelligenz [KI]‘ oder ‚Maschinelles Lernen [ML]‘ bezeichnet wird.

Unter Voraussetzung dieser drei Themen ergibt sich weiterführend (iv) die Frage, ob und wie die kollektive Intelligenz eine gewünschte nachhaltige Entwicklung unterstützen kann. Weiterhin (v) stellt sich die Frage, welche Rolle die Digitalisierung als Ganze — besonders fokussiert im Konzept des Cyberspace — und die Maschinelle Intelligenz im Besonderen für die kollektive Intelligenz spielen kann: wird die Kollektive Intelligenz überflüssig — die Vision von den intelligenten Maschinen, die alles ‚übernehmen‘ — oder gewinnt die Kollektive Intelligenz durch neue Formen der Unterstützung durch die maschinelle Intelligenz eine ’neue Kraft‘ als hybride ‚kollektive Mensch:Maschine Intelligenz [KM:MI‘?[2]

Diese fünf Fragen verlangen ein Überschreiten des üblichen innerdisziplinären Diskurses; es ist mehr als ‚bloßes interdisziplinäres‘ Arbeiten. Es geht in Richtung von ‚transdisziplinärer‚ Arbeit. Der Versuch, den Terminus ‚transdisziplinär‘ zu charakterisieren, führt aber unweigerlich in einen ‚Meta-Diskurs‘ ‚über‚ gegebene Disziplinen, der mindestens in den Bereich der Wissenschaftsphilosophie führt, letztlich aber im vollen philosophischen Diskurs landet. Und das erklärt, warum die ‚Rückkehr‘ stattfindet: im Ernst-Nehmen des oksimo Paradigmas führen wichtige Fragen zum Projekt über die transdisziplinären Aspekte zur Wissenschaftsphilosophie, zur Philosophie zurück, und die Zielsetzung des ‚Philosophie Jetzt Blogs‘ [3] trifft damit auf eine neue, interessante Charakterisierung: Der Mensch als ‚kollektives Wesen‘ im Kontext einer dynamischen Entwicklung, versucht sich mittels neuen Technologien zu verstärken, um ein Überleben in einer unbekannten Zukunft zu sichern; vermutlich nicht der homo sapiens alleine sondern zusammen mit großen Teilen der Biosphäre, ohne die der homo sapiens nicht lebensfähig ist.

ANMERKUNGEN

[1] Alles, was in meinem Leben bislang ‚wichtig‘ gworden ist, von dem habe ich vorher nicht einmal gewusst, dass es existiert …

[2] Oder auch ‚Collective Man:Machine Intelligence [CM:MI]‘

[3] „Auf der Suche nach dem neuen Menschenbild“

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design. MMI Analyse. Teil 3

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 22.Februar 2021
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

(Letzte Änderung: 25.März 2021)

KONTEXT

In diesem Beitrag soll das Konzept einer praktischen kollektiven Mensch-Maschine Intelligenz by design weiter entwickelt werden. Der unmittelbar vorhergehende Beitrag findet sich hier. In diesem Text geht es jetzt darum, das Anwendungsszenario explorative Entwicklung unter Einbeziehung einer kontinuierlichen Simulation [ESBD] zu beschreiben.

Bisher zum Thema veröffentlicht:

INFOGRAFIK

Hier wird als Standard das Interaktions-Paradigma N:1 vorausgesetzt:N viele Teilnehmer treffen sich in einem Online Meeting und benutzen gemeinsam eine interaktive Webseite der oksimo-Software auf oksimo.com. Für die weiteren Aktivitäten siehe den Text.

ESBD: ÜBERBLICK

Die explorative simulations-basierte Entwicklung geht davon aus, dass eine Gruppe von Experten sich auf eine Ausgangslage S und auf eine Vision V geeinigt haben. Beide zusammen, also S und V, werden als Aufgabe (S,V) begriffen. Gesucht wird nach einer Menge von Veränderungsregeln X, deren Anwendung eine Folge von Zuständen/ Situationen <S.0, S.1, …, S.n> erzeugt, die letztlich einen Weg bilden, der von S nach V führt. In dieser Folge von Zuständen gilt, dass ein beliebiger Nachfolgezustand S.i aus einem vorhergehenden Zustand S.i-1 dadurch entstanden ist, dass mindestens eine Veränderungsregel X.i aus X auf den vorhergehenden Zustand S.i-1 angewendet worden ist, was dann zur Entstehung von S.i geführt hat. Die Anwendung von Veränderungsregeln X auf einen gegebenen Zustand S können entweder von den Experten selbst ‚per Hand‘ (‚manuell‘) ausgeführt werden oder automatisch durch den eingebauten Simulator ∑. Die Anwendung des Simulators auf die Aufgabe (S,V) mittels der Regeln X wird geschrieben: ∑(S,V,X) = SQ(S,V,X,∑) = <S.0, S.1, …, S.n>. Neben der Folge der Zustände zeigt der Simulator zu jeder neuen Nachfolgesituation auch an, wie viel % der Ausdrücke aus der Vision schon im aktuellen Zustand S.i enthalten sind. Falls verfügbar, kann man zusätzlich zum Simulator noch die algorithmische Intelligenz ⊪ aktivieren, um die wichtigsten guten Lösungen anzuzeigen.

AUSGANGSLAGE S

Die Ausgangslage S wird gebildet durch eine Menge von Ausdrücken E einer Alltagssprache L (z.B. Deutsch, Englisch, Spanisch, …). Ein einzelner Ausdruck E.i hat als solcher keine Bedeutung. Es wird aber vorausgesetzt, das derjenige, der diesen Ausdruck E.i eingibt, aufgrund seines Sprachverständnisses mit diesem Ausdruck E.i eine Bedeutungsvorstellung B(E.i) verknüpft, von der angenommen werden kann, dass diese sich auf eine beobachtbare Eigenschaft B(E.i)* in einer Alltagssituation S* beziehen lässt oder aber sich in andere Ausdrücke E‘ übersetzen lässt, von denen dies gilt. Die Menge der Ausdrücke E in der Zustandsbeschreibung/ Situationsbeschreibung S korrespondiert danach einer Menge von beobachtbaren Eigenschaften in einer Alltagssituation S* zu einem gewählten Zeitpunkt TS, also S*(TS). Unter Voraussetzung dieses Bezuges zu einer Alltagssituation S* kann gesagt werden, dass die Menge der Ausdrücke E in der Beschreibung S = {E.1, E.2, …, , E.n} als empirisch zutreffend zum Zeitpunkt T angenommen werden; eine andere Formulierung wäre, dass diese Ausdrücke von S als wahr bezeichnet werden. Sobald die Menge der Ausdrücke einer Situation S sich zur Situation S‘ ändert, weil mindestens ein Ausdruck in S‘ anders ist als in S (z.B. die Zeitmarke T‘), wird angenommen werden, dass sich auch die korrespondierende Alltagssituation geändert hat.

Im Rahmen einer Aufgabenstellung (S,V) soll die Ausgangslage S eine reale Situation in einem Alltag beschreiben, die alle Beteiligten als real gegeben annehmen. Die Ausgangslage S kann, aber muss nicht, auch explizit solche Eigenschaften E* enthalten, die die Beteiligten als Verbesserungswürdig klassifizieren. In welchem Sinne diese verbesserungswürdigen Zustände E* mit Blick auf eine Zukunft verbessert werden sollen, wird in einem separaten Visionstext V beschrieben.

Ein Startzustand S kann beliebig erweitert werden. Es kann auch parallel verschiedene Startzustände {STs.1, …, STs.n} geben, die thematisch unterschiedliche Aspekte beleuchten oder verschiedenen Raumgebiete betreffen. Verschiedene Startzustände können nach Bedarf ‚per Knopfdruck‘ zu einem einzigen Zustand S zusammen gefasst werden.

VISION V

Ohne die Angabe eines Zustands SF für einen Zeitpunkt TF > TS, der größer ist als der Startzeitpunkt TS, gibt es in der möglichen Entwicklung des Startzustands S keine Entwicklung in eine bestimmte Richtung. Da dieser Zustand SF in der Zukunft liegt, nicht gegenwärtig ist, haben die Bedeutungen B(SF) der Ausdrücke im Zustand SF keine externe, beobachtbare Entsprechung im Alltag. Deshalb wird diese für die Zukunft angenommene Situation SF auch Vision genannt. Allerdings wird unterstellt, dass die Ausdrücke E von SF in der Zukunft ab einem Zeitpunkt TF zutreffen werden, d.h. ab diesem Zeitpunkt wahr sein werden. Es ist dabei nicht ausgeschlossen, dass dieser Fall schon vor dem angezielten Zeitpunkt TF stattfinden kann. Ebenso kann er sich verzögern.

Auch für den Visionstext gilt — wie im Falle des Startzustands S –, dass er beliebig erweitert werden kann oder dass es parallel verschiedene Visionstexte gibt, die nach Bedarf ‚per Knopfdruck‘ zu einem vereinigt werden.

Je mehr Ausdrücke der Visionstext V umfasst, um so differenzierter kann man die Zielsituation beschreiben.

KONSTRUIEREN DER VERÄNDERUNGSREGELN X

Im Kontext einer Folge von beschreibbaren Situationen kann man die Veränderungen in der Form von Veränderungs-Regeln fassen: Man sagt: wenn die Bedingung C in einer aktuellen Situation S erfüllt ist, dann sollen mit der Wahrscheinlichkeit π die Aussagen Eplus der Situation S hinzugefügt werden, um die Nachfolgesituation S‘ zu generieren, und die Aussagen Eminus sollen von S weggenommen werden, um die Nachfolgesituation S‘ zu generieren.

Man kann für jede Ausgangslage S beliebig viele Veränderungsregeln X erstellen. Insofern gilt XS = {XS.1, …, XS.n}. Ist eine bestimmte Situation S.i im Verlauf gegeben, dann kann es mehr als eine Veränderungsregel geben, die aus X zutrifft, also XS.i ⊆ X. In diesem Fall werden alle diese Regel XS.i auf S.i angewendet XS.i(S.i) = S.i+1. Die Reihenfolge der Regeln aus XS.i wird für die Anwendung auf S.i jeweils per Zufall bestimmt.

TESTEN DER VERÄNDERUNGSREGELN X

Da sich die möglichen Auswirkungen der Regeln in ihrer Anwendung auf einen gegeben Zustand S mit zunehmender Zahl und wachsender Komplexität von S (und auch V) immer schwerer ‚im Kopf‘ vorstellen lassen, kann man sich vom eingebauten Simulator ∑ anzeigen lassen, welche Folge von Situationen <S.1, S.2, …> entsteht und wie weit diese schon die angezielte Vision V enthalten.

Durch diese Möglichkeit der jederzeit möglichen Simulation hat die Konstruktion eines Weges von S nach V mittels Veränderungsregeln X einen spielerischen Charakter.

UNTERSTÜTZUNG DURCH ALGORITHMISCHE INTELLIGENZ α

Liegt eine Aufgabe (S,V) vor zusammen mit einer Menge von Veränderungsregeln X dann kann der eingebaute Simulator ∑ daraus eine Sequenz der Art ∑(S,V,X) = SQ.i = <S.1, S.2, …, S.n> erzeugen, wobei jede einzelne Situation S.i in dieser Folge mit einer Bewertung indiziert ist. Der Simulator ∑ funktioniert in diesem Zusammenhang wie eine logische Folgerungsbeziehung ⊢, geschrieben: S,V,X ⊢ SQ.i.

Im allgemeinen Fall kann man mehr als eine Sequenz SQ.i mit Hilfe von ⊢ aus {S,V,X} ableiten. Schreibt man sich einen Algorithmus α der alle möglichen Ableitungen durchführt, die z.B. einen bestimmten minimalen Bewertungsindex haben und die z.B. die kürzesten Sequenzen sind, dann entsteht eine Menge SQ+, die alle diese Sequenzen enthält. Dieser Algorithmus α funktioniert dann auch wie eine Ableitung; diese Form der Ableitung nennen wir hier algorithmische Intelligenz und schreiben ihre Anwendung: S,V,X ⊪α SQ+ [1]

Statt also alle möglichen Simulationen selbst durchführen zu müssen, können die Experten mit Hilfe der algorithmischen Intelligenz α mit Feinjustierung von Parametern gezielt nach der Menge der möglichen Ableitungen suchen, die diese Parameter erfüllen. Dies kann eine Menge Arbeit ersparen und vor allem, es kann helfen relativ schnell, ein tieferes Verständnis des Problemraumes zu bekommen.

QUELLENNACHWEISE und ANMERKUNGEN

[1] Im Englischen gibt es für den Begriff ‚Künstliche Intelligenz [KI]‘ (bzw. ‚Maschinelles Lernen [ML]‘) eine Vielzahl von Begriffen — z.B. ‚Artificial Intelligence [AI]‘, “Machine Learning [ML]‘, ‚Computational Intelligence [CI]‘ , ‚Algorithmic Intelligence [AI]‘, ‚Embodied Intelligence‘, …) — die alle mehr oder weniger nicht wirklich definiert sind. Zusätzlich verwirrend ist die Tatsache, dass wir Menschen den Begriff ‚Intelligenz‘ eigentlich nur aus dem Kontext menschlichen Verhaltens — mittlerweile auch ausgedehnt auf verschiedene Formen tierischen und pflanzlichen Verhaltens — kennen. Hier haben Biologie und Psychologie schon seit Jahrzehnten einigermaßen brauchbare Definitionen von ‚Intelligenz‘ bereit gestellt (die man kritisieren kann, aber sie sind immerhin da und sie funktionieren). Die Vielstimmigkeit der technischen Intelligenzbegriffe bietet dagegen eher eine Dissonanzwolke. Ein zusammenfassendes, alle Aspekte integrierendes Konzept von ‚Intelligenz‘ — auch in den Vergleichen — wäre für uns alle extrem hilfreich. In dieser Situation habe ich mich für den Begriff ‚Algorithmische Intelligenz‘ entschieden, da er der Tatsache Rechnung trägt, dass der Kern aller technischen Intelligenzleistungen in der Software (= Computerprogramm, Algorithmus) lokalisiert ist. Ob man nun einen bestimmten Algorithmus als ‚Intelligent‘ oder ’nicht intelligent‘ bezeichnen will, hängt dann davon ab, welche verhaltensrelevanten Eigenschaften man mit diesem Algorithmus in Zusammenhang bringen kann. Am Beispiel des oksimo-Paradigmas lässt sich sehr genau ein sogenannter Problemraum definieren, der ‚by design‘ als Abfallprodukt menschlichen Verhaltens entsteht, und in diesem Problemraum gibt es Suchprozesse und Bewertungsprozesse, die zusammen die Identifizierung eines — von Menschen definierten — interessanten Teilraumes ermöglichen. Dieser Prozess von Suchen + Bewerten + Auszeichnung einer Teilmenge wird hier mit dem Begriff der algorithmischen Intelligenz verknüpft. Ob und wie sich dieser Begriff von algorithmischer Intelligenz mit den Intelligenbzbegriffen der Biologen und Psychologen vergleichen lässt, soll demnächst diskutiert werden.

FORTFÜHRUNG DIESER GEDANKEN

(Letzte Änderung: 25.März 2021)

Die oben beschriebenen Gedanken finden eine Fortsetzung wie folgt:

  • Im eJournal uffmm.org einmal auf der Seite https://www.uffmm.org/2020/04/02/case-studies/ mit vier Beiträgen
  • im eJournal uffmm.org in der neuen Rubrik Philosophy of Science mit einer ganzen Folge von Beiträgen.
  • im neuen Anwendungsblog oksimo.org der oksimo Software.

Das Thema wird daher in diesem eJournal Philosophie Jetzt. Auf der Suche … nicht mehr weiter behandelt.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design. MMI Analyse. Teil 2

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 18.-19.Februar 2021
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Letzte Änderung: 19.2.2021, 9:52h

KONTEXT

In diesem Beitrag soll das Konzept einer praktischen kollektiven Mensch-Maschine Intelligenz by design weiter entwickelt werden. Der unmittelbar vorhergehende Beitrag findet sich hier. In diesem Text geht es jetzt darum, etwas konkreter zu skizzieren, wie die beiden wichtigsten Anwendungsszenarien aussehen könnten. Es wird unterschieden zwischen einer explorativen Entwicklung unter Einbeziehung einer kontinuierlichen Simulation [ESBD] und einem eingebetteten Testen (bzw. Spielen) unter Voraussetzung einer kontinuierlichen Simulation [ESBT/G].

Bisher zum Thema veröffentlicht:

16.02., 17:17 PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design. MMI Analyse. Teil 1

15.02., 09:21 PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design. Problem und Vision

12.02., 18:14 PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design

INFOGRAFIK

Infografik zum Text. Siehe dort.

ANWENDUNGSSZENARIEN

Während der vorausgehende Beitrag [1] die allgemeinen Anforderungen an die intendierte Anwendung formuliert hat, soll es in diesem Text darum gehen, die typischen intendierten Anwendungssituationen etwas konkreter zu formulieren. Tatsächlich lassen sich zwei grundlegende unterschiedliche Typen von Anwendungsszenarien unterscheiden.

Explorative Entwicklung

Charakteristisch für eine explorative Entwicklung (Explorative Simulation Based Development [ESBD]) ist die Ausgangslage, dass zwar eine Situation S gegeben ist, die aus verschiedenen Gründen als problematisch empfunden wird, und zugleich auch eine erste Vision V verfügbar ist, die von allen Beteiligten als erstrebenswert angesehen wird, dass aber noch unklar ist, wie man von S nach V kommen kann. Anfang und Ende erscheinen klar, aber der Weg zwischen beiden Punkten ist noch unbekannt.

Es liegt nahe eine solche Situation, in der S und V gegeben sind, als eine Aufgabe= (S,V) zu bezeichnen. Wenn man verschiedenen Teams die gleiche Aufgabe (S,V) stellt, dann kann man die Form der explorativen Entwicklung auch in Form eines Wettbewerbs stellen: welches Team löst die Aufgabe in einer vorgegebenen Zeit am Besten.

Im Fall einer Aufgabe (S,V) muss eine Gruppe von Experten also versuchen, gemeinsam einen Weg zu finden, der das Gewünschte leistet. Als Weg wird hier als eine Sequenz von Folgezuständen SQ(S,V) =<S1, S2, …, Sn-1, Sn> angenommen. Der Übergang von einem Zustand S zu einem Folgezustand S‘ wird durch Anwendung einer Veränderungsregel x aus der Menge der Veränderungsregeln X auf den gegebenen Zustand S hergestellt (Details siehe vorausgehenden Beitrag [1]). Die Ausführung einer Anwendung von X auf einen Zustand S wird von einem Simulator [SIM,Σ] geleistet, geschrieben: Σ(S,X)=S‘ oder ΣX(S)=S‘ oder noch kürzer X(S)=S‘. Der Entwicklungsprozess besteht nun darin, dass alle Experten versuchen, nach und nach so viele Veränderungsregeln X zu finden, dass sich eine überzeugende Sequenz SQ(S,V) von S nach V herstellen lässt. Als Unterstützung bei dieser Entwicklung können die Experten auch den eingebauten Simulator [SIM, Σ] benutzen. Mit diesem lässt sich jederzeit anzeigen, (i) welche Wirkungen die bisherigen Regeln X bei einem gewählten Ausgangszustand S haben und (ii) ob und in welchem Ausmaß die gewählte Vision V schon erreicht wird.

PROBLEMRAUM

Die Elemente <S, V, X, Σ> bilden die Basis eines möglichen Problemraumes (Problem Space Basis [PSB]). Gibt man eine bestimmte Ausgangslage S*, eine bestimmte Vision V* sowie eine bestimmte Menge X* von Veränderungsregeln vor, dann kann man mittels dem Simulator Σ die Menge aller möglichen Sequenzen SQ*(S*, V*, X*) berechnen und als echte Teilmenge davon die Menge aller erfolgreichen Sequenzen SQ+(S, V, X*) ⊆ SQ*.

Erweitert man die Basis eines Problemraum um die Vorgaben <S*, V*, X*> sowie <SQ*, SQ+> dann bekommt man die Struktur eines normalen endlichen Problemraums PS= <S*, V*, X*, SQ*, SQ+, Σ>.

Eingebettetes Testen/ Spielen

Liegt mindestens eine Instanz PS* eines Problemraums PS vor, dann kann man diese Instanz PS* eines Problemraums auch dazu benutzen, innerhalb dieses Problemraums die Wirkung dieser Problemraum-Instanz PS* auf potentielle Anwender zu testen. In diesem Fall arbeitet der Simulator Σ in einem interaktiven Modus: anstatt selbst die Anwendung der Veränderungsregeln X auf den gegebenen Zustand S auszurechnen werden alle Testpersonen/ Spieler aus einer Liste gefragt, welche der möglichen Regeln sie jetzt anwenden wollen, und — falls es verschiedene Varianten der Ausführung gibt -, wie. Auf diese Weise können die verschiedenen Testpersonen/ Spieler sozusagen ‚am eigenen Leibe‘ erfahren, wie die angedachte Zukunft (= Vision) sich konkret auf sie auswirkt und wie sie sich dabei fühlen. Aus den tatsächlichen Handlungsentscheidungen kann man auch ablesen, wie stark reale Anwender von dem angenommenen Verhalten abweichen.

Dieser Modus wird hier Eingebettetes Testen/ Spielen genannt (Embedded Simulation Based testing/ Gaming [ESBT/G].

In einer anschließenden Auswertung kann diese Selbsterfahrung der Tester/ Spieler auch dazu führen, dass sie einige der bisherigen Regeln durch eine veränderte Version ersetzen wollen.

KI ERWEITERUNG(EN)

Das, was heute gerne als Künstliche Intelligenz [KI] bezeichnet wird ist ein Computerprogramm — ein Algorithmus, d.h. eine Liste von Befehlen für einen definierten Automaten — das als Referenzsystem einen normalen Problemraum PS besitzt. Dieser Algorithmus kann mit den gegebenen Mengen S*, V* und X* selbständig den Simulator laufen lassen und systematisch Ausprobieren (= Suchen), welche Sequenzen SQ möglich sind (Elemente von SQ*), und welche von den möglichen Sequenzen SQ* solche sind, in denen eine bestimmte Vision V zu 100% erfüllt wird (=Lernen); dies liefert die Menge SQ+. Anstatt dass also menschliche Anwender mühevoll einzelne Simulationen durchprobieren, kann man — falls ein Problemraum PS vorgegeben wird! — einen lernfähigen Algorithmus damit beschäftigen, diese explorative Suche unter Einbeziehung eines definierten Lernens (= Evaluation mit Hilfe von Bewertungen, hier mittels V*) quasi nebenbei vorzunehmen. Zusätzlich könnte man die Erfolgskriterien beliebig verfeinern z.B. in dem Sinne, welche Simulations-Sequenz SQ.i die wenigstens Ressourcen benötigt oder am wenigsten kostet oder den meisten Spaß macht usw.

Wie gesagt, der Einsatz einer zusätzlichen KI macht nur Sinn, wenn menschliche Entwickler einen normalen Problemraum als Ausgangspunkt vorgeben.

Im Fall des eingebetteten Testens/ Spielens könnte man neben den menschlichen Testern/ Spielern auch künstliche Tester/ Spieler einsetzen. In diesem Fall ohne oder mit einer Lernkomponente. Eine mit-spielende KI könnte dann auch versuchen, das Verhalten der menschlichen Mitspieler zu erfassen und zu modellieren. Dies kann konstruktiv dazu genutzt werden, um künstliche Tutoren oder künstliche Assistenten auszubilden. Im Gegensatz zu den anonymisierten KIs auf den globalen Plattformen, die für irgendwelche unbekannten Dritten Daten sammeln, kann man diese KIs lokalisieren und privatisieren. Jemand kann seine eigene KI vereinbaren, die nur einer einzelnen Person gehört und nur mit dieser einen Person lernt.

ROADMAP

Überblick zum Entwicklungszusammenhang und den sich daraus ergebenden Anwendungsszenarien und eine Abfolge in der Realisierung, die der inneren Logik der Elemente folgt.

Im oberen Teil der Grafik wird der allgemeine theoretische Rahmen thematisiert, in dem sich die ganze Entwicklung bewegt. Hervorgehoben ist der Bereich der Mensch-Maschine Analyse [MMI]. Dieser Bereich wird dann — siehe den Gesamttext auf dieser Seite — weiter analysiert und führt zu folgenden grundsätzlichen Anwendungsaspekten:

  1. Die explorative Simulations-basierte Entwicklung [ESBD]
  2. Darauf aufbauend dann das eingebettete Simulations-basierte Testen oder Spielen [ESBT/G]
  3. Darauf aufbauend dann eine eingebettete starke KI für den Bereich ESBD
  4. Darauf aufbauend dann eine eingebettete starke KI für den Bereich ESBT/G
  5. Man kann dann diese beiden Anwendungskontexte für KI noch weiter spezifizieren zu (i) einer radikal personalisierten, vollständig privaten KI für jeden einzelnen, der dies will und (ii) zu einem individuellen Tutor/ Trainer für den Kontext ESBT/G

Jeder dieser Anwendungskontexte korreliert mit einem Meilenstein. Angedacht sind die ersten drei Meilensteine für 12.April 2021, 1.Oktober 2021 und 12.April 2022.

Parallel zu diesen genannten Anwendungskontexten gibt es noch eine andere Anwendungsdimension, die sich auf verschiedene Typen von Interaktionen mit dem Gesamtsystem beziehen:

  1. TYP1, n-1: Im Rahmen einer online-Sitzung mit n-vielen Teilnehmern wird gemeinsam 1 interaktive Webseite benutzt, über die mit dem Programm interagiert wird.
  2. TYP2, n-n-1: Jeder der n-vielen Teilnehmer logged sich einzeln auf der oksimo.com Webseite ein (also n-viele separate Teilnehmer), aber alle n-viele Teilnehmer treffen sich auf der oksimo Plattform in 1 Anwendung und können dort kollaborieren.
  3. TYP3, n-n-n: N-viele Teilnehmer können sich separat einloggen und sie können sowohl simultan in einer Anwendung arbeiten oder jeder an einer anderen.

Jede dieser Anwendungstypen 1-3 korreliert auch mit einem Meilenstein, wobei diese Meilensteinen unabhängig von den anderen sind. Typ1,n-1 ist der Standardfall. Wann Typ2+3 realisiert werden können, ist momentan noch offen.

QUELLENANGABEN und ANMERKUNGEN

[1] Gerd Doeben-Henisch, 16.2.2021, PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design. MMI Analyse. Teil 1, https://www.cognitiveagent.org/2021/02/16/praktische-kollektive-mensch-maschine-intelligenz-by-design-mmi-analyse-teil-1/

FORTSETZUNG

Eine Fortsetzung zu diesem Beitrag findet sich hier.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design. MMI Analyse. Teil 1

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 16.Februar 2021
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Letzte Änerung: 26.2.2021 (Anmerkung zum Begriff ‚Alltagssprache‘ ergänzt)

KONTEXT

In diesem Beitrag soll das Konzept einer praktischen kollektiven Mensch-Maschine Intelligenz by design weiter entwickelt werden. Im unmittelbar vorher gehenden Beitrag wurde die grundlegende Problemstellung sowie die gewählte (Zukunfts-)Vision in einer ersten Annäherung umrissen. In diesem Text geht es jetzt darum, etwas konkreter zu skizzieren, wie diese (Zukunfts-)Vision aussehen könnte bzw. sollte.

Bisher zum Thema veröffentlicht:

MMI ANALYSE – AUSGANGSPUNKT

Der Ausgangspunkt der MMI-Analyse ist gegeben durch die ersten Angaben zur Zukunfts-Vision (Siehe Schlussabschnitt in [1]). Diese Vision umschreibt mit wenigen Worten, welcher Zustand in der Zukunft angezielt wird. Die Vision selbst sagt nichts zur Begründung, nichts zu den Motiven; diese werden vorausgesetzt. Die Vision beschreibt nur, was sein soll.

Beliebige Menschen spielen Zukunft

Zentraler Gedanke ist, dass eine beliebige Gruppe von Menschen auf eine eher spielerische Weise dabei unterstützt werden soll, für eine selbst gewählte Problemstellung und ein selbst gewähltes Ziel schrittweise einen Lösungsweg zu konstruieren.

Ein Drehbuch schreiben

Diese Konstruktion eines Lösungsweges ist vergleichbar mit dem Schreiben eines Drehbuchs in einer Alltagssprache, die alle Beteiligten hinreichend beherrschen.[2] Dies setzt voraus, dass der Prozess der Wirklichkeit — vereinfachend — gedacht wird als eine Folge von Situationen (oder auch Zuständen), in der eine Nachfolgesituation S‘ aus einer vorausgehenden Situation S durch das Stattfinden von mindestens einer beobachtbaren Veränderung hervorgegangen ist. Im Grenzfall ist es nur die Veränderung einer Uhr, deren Zeitanzeigen in der Nachfolgesituation S‘ ‚größer‘ sind als in der Situation S.[3] Im Kontext einer Folge von beschreibbaren Situationen kann man die Veränderungen in der Form von Veränderungs-Regeln fassen: Man sagt: wenn die Bedingung C in einer aktuellen Situation S erfüllt ist, dann sollen mit der Wahrscheinlichkeit π die Aussagen Eplus der Situation S hinzugefügt werden, um die Nachfolgesituation S‘ zu generieren, und die Aussagen Eminus sollen von S weggenommen werden, um die Nachfolgesituation S‘ zu generieren.

Bezug zu einer Situation

Diese Redeweise setzt voraus, dass davon ausgegangen wird, dass der Text des Drehbuchs sich auf eine reale Situation S bezieht, und die einzelnen Ausdrücke des Textes Eigenschaften der realen Situation beschreiben. Die Menge der Ausdrücke in einem Drehbuch, die sich auf eine bestimmte Situation S beziehen, bilden also Repräsentanten von realen Eigenschaften der vorausgesetzten realen Situation. Verändert sich die vorausgesetzte Situation in ihren beobachtbaren Eigenschaften, dann drückt sich dies darin aus, dass sich auch die Ausdrücke im Drehbuch verändern müssen: kommen neue Eigenschaften hinzu, müssen neue Ausdrücke hinzu kommen. Verschwinden Eigenschaften, dann müssen die entsprechenden Ausdrücke verschwinden. Wechselt also z.B. die Verkehrsampel von Rot auf Orange, dann muss z.B. der Ausdruck ‚Die Ampel ist rot‘ ersetzt werden durch die Aussage ‚Die Ampel ist orange‘. Dann wäre die Menge Eminus = {Die Ampel ist rot}, und die Menge Eplus = {Die Ampel ist orange}.

Das Drehbuch hat zwei Teile …

Das Drehbuch für die gemeinsame spielerische Planung einer gewünschten Zukunft besteht also mindestens aus zwei Teilen:

  1. Einer Ausgangssituation S, von der aus man starten will, und
  2. einer Menge von Veränderungsregeln X, die sagen, wann man eine gegebene Situation in welcher Weise abändern darf.

Vergleich mit einem Spiel

Diese Konstellation kann man ohne weiteres mit einem Spiel vergleichen:

  1. Es gibt die Startsituation (z.B. ein bestimmtes Spielbrett oder eine Spielfeld mit Spielobjekten und Spielern)
  2. Es gibt vereinbarte Spielregeln, anhand deren man in einer gegebenen Situation etwas tun darf.

Regeln jederzeit abändern

In dem hier angenommenen Szenario eines Drehbuchs für die gemeinsame spielerische Planung einer gewünschten Zukunft gibt es allerdings zwei Besonderheiten: Die eine besteht darin, dass die Ausgangslage und die Spielregeln von den Spielern selbst aufgestellt werden und jederzeit nach Absprache geändert werden können.

Leitbild Zukunft als Maßstab

Die andere Besonderheit resultiert aus der Tatsache, dass die Teilnehmer hier zu Beginn auch explizit ein Leitbild für die Zukunft formulieren. Dieses kann zwar auch jederzeit nach Absprache wieder abgeändert werden, so lange es aber gilt, dient dieses Leitbild als Maßstab für die Beurteilung, ob und in welchem Umfang der Prozess der fortschreitenden Veränderung ( = der Spielprozess!) das zuvor vereinbarte Leitbild erreicht hat.

In gewisser Weise entspricht die Bewertung einer Situation anhand eines vereinbarten Leitbildes dem Konzept des ‚Gewinnens‘ in normalen Spielen: beim Gewinnen wird in einem Spiel ein Zustand erreicht, der sich anhand zuvor vereinbarter Kriterien als ‚Gewinnsituation‚ für mindestens einen beteiligten Spieler klassifizieren lässt. Man sagt dann, dass dieser Spieler ‚gewonnen‘ hat.

Bei der Verwendung des Konzepts einer Zukunftsvision als Leitbild kann man das Leitbild dazu benutzen, um eine beliebige Situation dahingehend zu klassifizieren, ob und wenn ja in welchem Umfang diese Situation dem Leitbild ‚entspricht‘. Explizite Zukunftsbilder ermöglichen also die ‚Bewertung‘ einer Situation. Ohne solch eine Möglichkeit wäre jede Situation gleichwertig mit jeder anderen Situation. Es wäre dann nicht möglich, eine ‚Richtung‘ für einen Prozess zu definieren.

ALLTAGSSPRACHE

Diejenige Sprache, die jeder Mensch von Kindheit an lernt und benutzt, das ist die Alltagssprache, also die Sprache, die jeder in seinem Alltag spricht und die — normalerweise — auch von den Mitmenschen benutzt wird. [5a] Durch das Voranschreiten einer Globalisierung und der damit einhergehenden Vermischung von Alltagswelten, vermengen sich verschiedene Sprachen, was bei einzelnen zur Mehrsprachigkeit führt, auf der anderen Seite zur Zunahme von Übersetzungen. Übersetzungen durch Menschen können vergleichsweise ‚gut‘ sein (wer kann dies eigentlich überprüfen?), die heute zunehmenden Angebote von computerbasierten Übersetzungen sind aber dennoch auf dem Vormarsch, weil man ihren Einsatz sehr leicht ’skalieren‘ kann: ein Programm kann viele Millionen Menschen gleichzeitig ‚bedienen‘, dazu eher ‚einheitlich‘, und solch ein maschinelles Übersetzungsprogramm kann — wie salopp gesagt wird — ‚lernen‘.[4] Die Gesamtheit dieser maschinellen Verfahren hat aber dennoch keinen Zugang zu den eigentlichen Bedeutungsfunktionen von Alltagssprache, die in den Gehirnen der Sprecher-Hörer verortet sind. [5]

Aufgrund dieser Sachlage soll das neue Verfahren die Vorteile und Nachteile der verschiedenen Möglichkeiten auf neue Weise optimal verknüpfen. Primär soll der Anwender seine Alltagssprache — und zwar jede — voll benutzen können.

Zur Alltagssprache gehören mehrere ‚Mechanismen‘ [6], die es zulassen, dass man sie beliebig erweitern kann, und auch, dass man in der Alltagssprache über die Alltagssprache sprechen kann.[7] Diese Eigenschaften machen die Alltagssprache zu den stärksten Ausdruckssystemen, die wir kennen.[8]

Zu den möglichen — und vorgesehenen — Erweiterungen der Alltagssprache gehören z.B. beliebige Parametermengen mit zugehörigen Operationen auf diesen Parametern. Ein ‚Parameter‘ wird hier verstanden als ein Name, dem irgendein Wert (z.B. ein numerischer Wert) zugeordnet sein kann (z.B. eine Einwohnerzahl, ein finanzieller Betrag, ein Temperaturwert …). Parameter mit numerischen Werten kann man z.B. Addieren, Subtrahieren, Multiplizieren usw.

Zum Sprechen über andere Ausdrücke gehört die Möglichkeit, dass man beliebige Abstraktionen bilden kann. Schon wenn wir über sogenannte normale Gegenstände sprechen wie ‚Stuhl‘, ‚Tasse‘, ‚Tisch‘, ‚Hund‘ usw. benutzen wir sprachliche Ausdrücke, die nicht für ein einzelnes Objekt stehen, sondern für ganze Mengen von konkreten Dingen, die wir alle gelernt haben, als ‚Stuhl‘, ‚Tasse‘, ‚Tisch‘, ‚Hund‘ usw. zu bezeichnen. Auf einem Tisch können bei mehreren Personen beim Frühstück ganz viele Gegenstände stehen, die wir alle als ‚Tasse‘ bezeichnen würden, obwohl sie sich u.a. durch Form, Farbe und Material unterscheiden.[9]

SIMULATION

Normale Formen von Drehbüchern bestimmen das Geschehen auf der Bühne oder in einem Film. Auf der Bühne beginnt man mit einer Eingangsszene, in der unterschiedliche Akteure in einer bestimmten Umgebung (Situation) anfangen, zu handeln, und durch das Handeln werden Veränderungen bewirkt: in den Akteuren (meist nicht so fort direkt sichtbar, aber dann in den Reaktionen), in der räumlichen Anordnung der Dinge, in der Beleuchtung, in Begleitgeräuschen, … Im Film ist es die Abfolge der Bilder und deren Füllungen.

Im Fall von Brettspielen fangen die beteiligten Spieler an, mit Blick auf erlaubte Regeln, den aktuellen Spielstand und die möglichen Gewinnsituationen in der Zukunft zu handeln. Dieses Handeln bewirkt eine schrittweise Änderung der jeweils aktuellen Spielsituation.

In abgewandelter Form passiert in einem Krimi oder in einem Roman nichts anderes: literarisch begabte Menschen benutzen das Mittel der Alltagssprache um Situationen zu beschreiben, die sich schrittweise durch Ereignisse oder das Verhalten von Menschen ändern. Noch eine Variante stellt die Gattung Hörspiel dar: statt eine Geschichte zu lesen hört man beim Hörspiel zu und lässt sich mit hinein nehmen in ein Geschehen, das sich von Situation zu Situation fortbewegt und den Hörer — wenn er sich angesprochen fühlt — geradezu mitreißen kann.

In der vorliegenden Anwendung gibt es alle Zutaten — Gegenwart, Zukunft, mögliche Maßnahmen –, aber wie kommt es hier zu einer Abfolge von Situationen?

Im einfachsten Fall setzten sich die Autoren der Texte zusammen und prüfen durch eigene Lektüre der Texte und Regeln, welche der Regeln aktuell angewendet werden könnten und sie wenden die Regeln an. Auch so würde eine Folge von Texten entstehen, wobei jeder Text eine Situation beschreibt. Erst die Start-Situation, dann die Anwendung von passenden Regeln, die zu einer Veränderung des Textes führt und damit zu einer neuen Situation.

Wir wissen von uns Menschen, dass wir dies im Alltag können (z.B. jeder Heimwerker — oder auch Hobby-Bastler — benutzt eine Bauanleitung, um aus den Einzelteilen des Bausatzes schrittweise ein komplexes Gebilde zusammen zu bauen). Wenn die Texte umfangreicher werden und wenn die Zahl der Regeln deutlich zunimmt, dann kommt man mit dieser händischen (manuellen) Methode bald an praktische Grenzen. In diesem Moment wäre es sehr schön, man könnte sich helfen lassen.

Viele Menschen benutzen heutzutage zum Schreiben von Texten, zum Rechnen, zum Malen, zum Komponieren, den Computer, obwohl es ja eigentlich auch ohne den Computer gehen würde. Aber mit einem Rechenblatt viele Rechnungen miteinander zu verknüpfen und dann ausrechnen zu lassen ist einfach bequemer und — in den komplexen Fällen — sogar die einzige Möglichkeit, die Arbeit überhaupt zu verrichten. Computer müssen nichts verstehen, um Zeichenketten bearbeiten zu können.

Diese formale Fähigkeit eines Computers soll für diese Anwendung genutzt werden: wenn ich die Text-Version einer Situation habe wie z.B. S1 = {Das Feuer ist fast erloschen.} und ich habe eine Veränderungsregel der Art: X1 = {Wenn C1 zutrifft dann füge Eplus1 dazu und nehme Eminus1 weg}, konkret C1 = {Das Feuer ist fast erloschen.}, Eplus1 = {Lege Holz nach.}, Eminus1 = {Leer}, dann ist es für einen Computer ein leichtes festzustellen, dass die Bedingung C1 in der aktuellen Situation S1 erfüllt ist und dass daher die Aussage Lege Holz nach. hinzugefügt werden soll zu S1, was zur neuen Situation S2 führt: S2 = {Das Feuer ist fast erloschen. Lege Holz nach.} Wenn es jetzt noch die Regel geben würde X2 mit C2 = {Lege Holz nach.}, Eplus2 ={Das Feuer brennt.}, Eminus2={Das Feuer ist fast erloschen.}, dann könnte der Computer ‚ohne Nachzudenken‘ die nächste Situation S3 erzeugen mit S3 = {Das Feuer brennt.}

Dieses einfache Beispiel demonstriert das Prinzip einer Simulation: man hat eine Ausgangssituation S0, man hat eine Menge von Veränderungsregeln im oben angedeuteten Format X= Wenn C in S erfüllt ist, dann füge Epluszu S dazu und nimm Eminus von S weg, und man hat einen Akteur, der die Veränderungsregeln auf eine gegebene Situation anwenden kann. Und diese Anwendung von Regeln erfolgt so oft, bis entweder keine Regeln mehr anwendbar sind oder irgendein Stopp-Kriterium erfüllt wird.

Schreibt man für den Ausdruck Die Menge der Veränderungsregeln X wird auf eine Situation S angewendet, was zur Nachfolgesituation S‘ führt verkürzend als: X(S)=S‘, ergibt die wiederholte Anwendung von X eine Serie der Art: X(S)= S‘, X(S‘)= S“, …, X(Sn-1)= Sn. Dies bedeutet, dass die Folge der Text-Zustände <S‘, S“, …, Sn> einen Simulationsverlauf repräsentieren. Man kann dann sehr gut erkennen, was passiert, wenn man bestimmte Regeln immer wieder anwendet.

In der vorliegenden Anwendung sollen solche durch Computer unterstützte Simulationen möglich sein, tatsächlich sogar noch mit einigen weiteren Feinheiten, die später näher beschrieben werden.

SIMULATION MIT BEWERTUNG

Wie zuvor schon im Text beschrieben wurde, kann man eine gegebene Situation S immer dann klassifizieren als erfüllt Eigenschaft K, wenn man über geeignete Kriterien K verfügt. In der vorliegenden Anwendung kann der Anwender eine Vision formulieren, eine Beschreibung, welcher Zustand in der Zukunft eintreten sollte.

Im Rahmen der Simulation soll es daher möglich sein, dass nach jeder Anwendung von Veränderungsregeln X mitgeteilt wird, in welchem Ausmaß die vorgegebene Vision V im aktuellen Zustand S eines Simulationsverlaufs schon enthalten ist. Die Aussagekraft einer solchen Klassifikation, die eine Form von Bewertung darstellt, hängt direkt von der Differenziertheit der Vision ab: je umfangreicher und detaillierter der Text der Vision ist, um so konkreter und spezifischer kann die Bewertung vorgenommen werden.

LERNFÄHIGE ALGORITHMEN (KI)

So, wie im Fall der Simulation der Computer dem Menschen bei ausufernden manuellen Tätigkeiten helfen kann, diese zu übernehmen, so ergibt sich auch für die Frage der Auswertung eines Simulationsverlaufs sehr schnell die Frage: könnte man auch ganz andere Simulationsverläufe bekommen, und welche von den vielen anderen sind eigentlich im Sinne eines vorgegebenen Zielkriteriums besser?

Tatsächlich haben wir es mit dem Ensemble einer Anfangssituation, einer Zukunftsvision und einer Menge von Veränderungsregeln mit einem Problemraum zu tun, der sehr schnell sehr umfangreich sein kann. Eine einzelne Simulation liefert immer nur einen einzigen Simulationsverlauf. Tatsächlich lässt der Problemraum aber viele verschiedene Simulationsverläufe zu. In den meisten Fällen ist eine Erkundung des Problemraumes und das Auffinden von interessanten Simulationsverläufen von großem Interesse. Der Übergang von einem Suchprozess zu einem lernenden Prozess ist fließend.

In der vorliegenden Anwendung soll von der Möglichkeit einer computergestützten lernende Suche Gebrauch gemacht werden.

QUELLENANGABEN und ANMERKUNGEN

[1] Siehe dazu den Schluss des Textes von Gerd Doeben-Henisch, 15.2.2021, PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design. Problem und Vision, https://www.cognitiveagent.org/2021/02/15/praktische-kollektive-mensch-maschine-intelligenz-by-design-problem-und-vision/https://www.cognitiveagent.org/2021/02/15/praktische-kollektive-mensch-maschine-intelligenz-by-design-problem-und-vision/

[2] Denkbar ist natürlich, dass partiell mit Übersetzungen gearbeitet werden muss.

[3] Dieses Modell der Zerlegung der Wirklichkeit in Zeitscheiben entspricht der Arbeitsweise, wie das menschliche Gehirn die jeweils aktuellen sensorischen Signale für ein bestimmtes Zeitintervall ‚zwischen-puffert‘, um die Gesamtheit der Signale aus diesem Zeitintervall dann nach bestimmten Kriterien als eine Form von Gegenwart abzuspeichern und daraus dann Vergangenheit zu machen.

[4] Damit dies möglich ist, landen alle Texte auf einem zentralen Server, der mit statistischen Methoden ganze Texte nach Methoden des sogenannten ‚maschinellen Lernens‘ analysiert, statistische Verwendungskontexte von Ausdrücken erstellt, angereichert durch diverse sekundäre Zusatzinformationen.

[5] Was diese bedingt lernfähigen Algorithmen an Übersetzungsleistungen ermöglichen, ist sehr wohl erstaunlich, aber es ist prinzipiell begrenzt. Eine vertiefte Analyse dieser prinzipiellen Begrenzungen führt in die Entstehungszeit der modernen formalen Logik, der modernen Mathematik sowie in die theoretischen Grundlagen der Informatik, die letztlich ein Abfallprodukt der Meta-logischen Diskussion in der Zeit von ca. 1900 bis 1940 ist. Wenn also die angezielte Anwendung die volle Breite der Alltagssprache nutzen können soll, dann reicht es nicht, die prinzipiell Bedeutungsfernen Verfahren der Informatik wie bisher einzusetzen.

[5a] Das Phänomen ‚Alltagssprache‘ ist bei näherer Betrachtung äußerst komplex. In einem anderen Beitrag habe ich einige der grundlegenden Aspekte versucht, deutlich zu machen: Gerd Doeben-Henisch, 29.Januar 2021, SPRACHSPIEL und SPRACHLOGIK – Skizze. Teil 1, https://www.cognitiveagent.org/2021/01/29/sprachspiel-und-sprachlogik-skizze-teil-1/

[6] … von denen die formale Logik nicht einmal träumen kann.

[7] In der formalen Logik sind Spracherweiterungen im vollen Sinne nicht möglich, da jede echte Erweiterung das System ändern würde. Möglich sind nur definitorische Erweiterungen, die letztlich Abkürzungen für schon Vorhandenes darstellen. Das Sprechen in einer gegebenen Sprache L über Elemente der Sprache L — also meta-sprachliches Sprechen –, ist nicht erlaubt. Aufgrund dieser Einschränkung konnte Goedel seinen berühmten Beweis von der Unmöglichkeit führen, dass ein formales System sowohl Vollständig als auch Widerspruchsfrei ist. Dies ist der Preis, den formale Systeme dafür zahlen, dass ’nichts falsch machen können‘ (abgesehen davon, dass sie von sich aus sowieso über keine Bedeutungsdimension verfügen)).

[8] Während formale Systeme — und Computer, die nach diesen Prinzipien arbeiten — durch diese Elemente inkonsistent und un-berechenbar werden, kann das menschliche Gehirn damit fast mühelos umgehen!

[9] Unser Gehirn arbeitet schon immer mit beliebigen Abstraktionen auf beliebigen Ebenen.

FORTSETZUNG

Eine Fortsetzung findet sich HIER.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.