Archiv der Kategorie: Kollektive Intelligenz

Homo Sapiens: empirische und nachhaltig-empirische Theorien, Emotionen, und Maschinen. Eine Skizze

5.Aug 2023 – 29.Aug 2023 (10:37h)

Autor: Gerd Doeben-Henisch

Email: gerd@doeben-henisch.de

(Eine Englische Version findet sich hier: https://www.uffmm.org/2023/08/24/homo-sapiens-empirical-and-sustained-empirical-theories-emotions-and-machines-a-sketch/)

Kontext

Dieser Text stellt die Skizze zu einem Vortrag dar, der im Rahmen der Konferenz „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ (25./26.August 2023, TU Darmstadt) gehalten werden soll. [1] Die Englische Version des überarbeiteten Vortrags findet sich schon jetzt HIER: https://www.uffmm.org/2023/10/02/collective-human-machine-intelligence-and-text-generation-a-transdisciplinary-analysis/ . Die Deutsche Version des überarbeiteten Vortrags wird im Verlag Walter de Gruyter bis Ende 2023/ Anfang 2024 erscheinen. Diese Veröffentlichung wird hier dann bekannt gegeben werden.

Sehr geehrtes Auditorium,

In dieser Tagung mit dem Titel „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ geht es zentral um wissenschaftliche Diskurse und den möglichen Einfluss von KI-Textgeneratoren auf diese Diskurse. Der heiße Kern bleibt aber letztlich das Phänomen Text selbst, seine Geltung.

SICHTWEISEN-TRANS-DISZIPLINÄR

In dieser Konferenz werden zu diesem Thema viele verschiedene Sichten vorgetragen, die zu diesem Thema möglich sind.

Mein Beitrag zum Thema versucht die Rolle der sogenannten KI-Textgeneratoren dadurch zu bestimmen, dass aus einer ‚transdisziplinären Sicht‘ heraus die Eigenschaften von ‚KI-Textgeneratoren‘ in eine ’strukturelle Sicht‘ eingebettet werden, mit deren Hilfe die Besonderheiten von wissenschaftlichen Diskursen herausgestellt werden kann. Daraus können sich dann ‚Kriterien für eine erweiterte Einschätzung‘ von KI-Textgeneratoren in ihrer Rolle für wissenschaftliche Diskurse ergeben.

Einen zusätzlichen Aspekt bildet die Frage nach der Struktur der ‚kollektiven Intelligenz‘ am Beispiel des Menschen, und wie sich diese mit einer ‚Künstlichen Intelligenz‘ im Kontext wissenschaftlicher Diskurse möglicherweise vereinen kann.

‚Transdisziplinär‘ bedeutet in diesem Zusammenhang eine ‚Meta-Ebene‘ aufzuspannen, von der aus es möglich sein soll, die heutige ‚Vielfalt von Textproduktionen‘ auf eine Weise zu beschreiben, die ausdrucksstark genug ist, um eine ‚KI-basierte‘ Texterzeugung von einer ‚menschlichen‘ Texterzeugung unterscheiden zu können.

MENSCHLICHE TEXTERZEUGUNG

Die Formulierung ‚wissenschaftlicher Diskurs‘ ist ein Spezialfall des allgemeineren Konzepts ‚menschliche Texterzeugung‘.

Dieser Perspektivenwechsel ist meta-theoretisch notwendig, da es auf den ersten Blick nicht der ‚Text als solcher ‚ ist, der über ‚Geltung und Nicht-Geltung‘ entscheidet, sondern die ‚Akteure‘, die ‚Texte erzeugen und verstehen‘. Und beim Auftreten von ‚verschiedenen Arten von Akteuren‘ — hier ‚Menschen‘, dort ‚Maschinen‘ — wird man nicht umhin kommen, genau jene Unterschiede — falls vorhanden — zu thematisieren, die eine gewichtige Rolle spielen bei der ‚Geltung von Texten‘.

TEXTFÄHIGE MASCHINEN

Bei der Unterscheidung in zwei verschiedenen Arten von Akteuren — hier ‚Menschen‘, dort ‚Maschinen‘ — sticht sofort eine erste ‚grundlegende Asymmetrie‘ ins Auge: sogenannte ‚KI-Textgeneratoren‘ sind Gebilde, die von Menschen ‚erfunden‘ und ‚gebaut‘ wurden, es sind ferner Menschen, die sie ‚benutzen‘, und das wesentliche Material, das von sogenannten KI-Generatoren benutzt wird, sind wiederum ‚Texte‘, die als ‚menschliches Kulturgut‘ gelten.

Im Falle von sogenannten ‚KI-Textgeneratoren‘ soll hier zunächst nur so viel festgehalten werden, dass wir es mit ‚Maschinen‘ zu tun haben, die über ‚Input‘ und ‚Output‘ verfügen, dazu über eine minimale ‚Lernfähigkeit‘, und deren Input und Output ‚textähnliche Objekte‘ verarbeiten kann.

BIOLOGISCH-NICHT-BIOLOGISCH

Auf der Meta-Ebene wird also angenommen, dass wir einerseits über solche Akteure verfügen, die minimal ‚textfähige Maschinen‘ sind — durch und durch menschliche Produkte –, und auf der anderen Seite über Akteure, die wir ‚Menschen‘ nennen. Menschen gehören als ‚Homo-Sapiens Population‘ zur Menge der ‚biologischen Systeme‘, während ‚textfähige Maschinen‘ zu den ’nicht-biologischen Systemen‘ gehören.

LEERSTELLE INTELLIGENZ-BEGRIFF

Die hier vorgenommene Transformation des Begriffs ‚KI-Textgenerator‘ in den Begriff ‚textfähige Maschine‘ soll zusätzlich verdeutlichen, dass die verbreitete Verwendung des Begriffs ‚KI‘ für ‚Künstliche Intelligenz‘ eher irreführend ist. Es gibt bislang in keiner wissenschaftlichen Disziplin einen allgemeinen, über die Einzeldisziplin hinaus anwendbaren und akzeptierten Begriff von ‚Intelligenz‘. Für die heute geradezu inflatorische Verwendung des Begriffs KI gibt es keine wirkliche Begründung außer jener, dass der Begriff so seiner Bedeutung entleert wurde, dass man ihn jederzeit und überall benutzen kann, ohne etwas Falsches zu sagen. Etwas, was keine Bedeutung besitzt, kann weder wahr‘ noch ‚falsch‘ sein.

VORAUSSETZUNGEN FÜR TEXT-GENERIERUNG

Wenn nun die Homo-Sapiens Population als originärer Akteur für ‚Text-Generierung‘ und ‚Text-Verstehen‘ identifiziert wird, soll nun zunächst untersucht werden, welches denn ‚jene besonderen Eigenschaften‘ sind, die eine Homo-Sapiens Population dazu befähigt, Texte zu generieren und zu verstehen und sie ‚im alltäglichen Lebensprozess erfolgreich anzuwenden‘.

GELTUNG

Ein Anknüpfungspunkt für die Untersuchung der besonderen Eigenschaften einer Homo-Sapiens Text-Generierung und eines Text-Verstehens ist der Begriff ‚Geltung‘, der im Tagungsthema vorkommt.

Auf dem primären Schauplatz des biologischen Lebens, in den alltäglichen Prozessen, im Alltag, hat die ‚Geltung‘ eines Textes mit ‚Zutreffen‘ zu tun. Wenn ein Text nicht von vornherein mit einem ‚fiktiven Charakter‘ geplant wird, sondern mit einem ‚Bezug zum Alltagsgeschehen‘, das jeder im Rahmen seiner ‚Weltwahrnehmung‘ ‚überprüfen‘ kann, dann hat ‚Geltung im Alltag‘ damit zu tun, dass das ‚Zutreffen eines Textes überprüft‘ werden kann. Trifft die ‚Aussage eines Textes‘ im Alltag ‚zu‘, dann sagt man auch, dass diese Aussage ‚gilt‘, man räumt ihr ‚Geltung‘ ein, man bezeichnet sie auch als ‚wahr‘. Vor diesem Hintergrund könnte man geneigt sein fortzusetzen und zu sagen: ‚Trifft‘ die Aussage eines Textes ’nicht zu‘, dann kommt ihr ‚keine Geltung‘ zu; vereinfacht zur Formulierung, dass die Aussage ’nicht wahr‘ sei bzw. schlicht ‚falsch‘.

Im ‚realen Alltag‘ ist die Welt allerdings selten ’schwarz‘ und ‚weiß‘: nicht selten kommt es vor, dass wir mit Texten konfrontiert werden, denen wir aufgrund ihrer ‚gelernten Bedeutung‘ geneigt sind ‚eine mögliche Geltung‘ zu zuschreiben, obwohl es möglicherweise gar nicht klar ist, ob es eine Situation im Alltag gibt — bzw. geben wird –, in der die Aussage des Textes tatsächlich zutrifft. In solch einem Fall wäre die Geltung dann ‚unbestimmt‘; die Aussage wäre ‚weder wahr noch falsch‘.

ASYMMETRIE: ZUTREFFEN – NICHT-ZUTREFFEN

Man kann hier eine gewisse Asymmetrie erkennen: Das ‚Zutreffen‘ einer Aussage, ihre tatsächliche Geltung, ist vergleichsweise eindeutig. Das ‚Nicht-Zutreffen‘, also eine ‚bloß mögliche‘ Geltung, ist hingegen schwierig zu entscheiden.

Wir berühren mit diesem Phänomen der ‚aktuellen Nicht-Entscheidbarkeit‘ einer Aussage sowohl das Problem der ‚Bedeutung‘ einer Aussage — wie weit ist überhaupt klar, was gemeint ist? — als auch das Problem der ‚Unabgeschlossenheit unsres Alltags‘, besser bekannt als ‚Zukunft‘: ob eine ‚aktuelle Gegenwart‘ sich als solche fortsetzt, ob genau so, oder ob ganz anders, das hängt davon ab, wie wir ‚Zukunft‘ generell verstehen und einschätzen; was die einen als ’selbstverständlich‘ für eine mögliche Zukunft annehmen, kann für die anderen schlicht ‚Unsinn‘ sein.

BEDEUTUNG

Dieses Spannungsfeld von ‚aktuell entscheidbar‘ und ‚aktuell noch nicht entscheidbar‘ verdeutlicht zusätzlich einen ‚autonomen‘ Aspekt des Phänomens Bedeutung: hat sich ein bestimmtes Wissen im Gehirn gebildet und wurde dieses als ‚Bedeutung‘ für ein ‚Sprachsystem‘ nutzbar gemacht, dann gewinnt diese ‚assoziierte‘ Bedeutung für den Geltungsbereich des Wissens eine eigene ‚Realität‘: es ist nicht die ‚Realität jenseits des Gehirns‘, sondern die ‚Realität des eigenen Denkens‘, wobei diese Realität des Denkens ‚von außen betrachtet‘ etwas ‚Virtuelles‘ hat.

Will man über diese ‚besondere Realität der Bedeutung‘ im Kontext des ‚ganzen Systems‘ sprechen, dann muss man zu weitreichenden Annahmen greifen, um auf der Meta-Ebene einen ‚begrifflichen Rahmen‘ installieren zu können, der in der Lage ist, die Struktur und die Funktion von Bedeutung hinreichend beschreiben zu können. Dafür werden minimal die folgenden Komponenten angenommen (‚Wissen‘, ‚Sprache‘ sowie ‚Bedeutungsbeziehung‘):

  1. WISSEN: Es gibt die Gesamtheit des ‚Wissens‘, das sich im Homo-Sapiens Akteur im Laufe der Zeit im Gehirn ‚aufbaut‘: sowohl aufgrund von kontinuierlichen Interaktionen des ‚Gehirns‘ mit der ‚Umgebung des Körpers‘, als auch aufgrund von Interaktionen ‚mit dem Körper selbst‘, sowie auch aufgrund der Interaktionen ‚des Gehirns mit sich selbst‘.
  2. SPRACHE: Vom Wissen zu unterscheiden ist das dynamische System der ‚potentiellen Ausdrucksmittel‘, hier vereinfachend ‚Sprache‘ genannt, die sich im Laufe der Zeit in Interaktion mit dem ‚Wissen‘ entfalten können.
  3. BEDEUTUNGSBEZIEHUNG: Schließlich gibt es die dynamische ‚Bedeutungsbeziehung‘, ein Interaktionsmechanismus, der beliebige Wissenselemente jederzeit mit beliebigen sprachlichen Ausdrucksmitteln verknüpfen kann.

Jede dieser genannten Komponenten ‚Wissen‘, ‚Sprache‘ wie auch ‚Bedeutungsbeziehung‘ ist extrem komplex; nicht weniger komplex ist auch ihr Zusammenspiel.

ZUKUNFT UND EMOTIONEN

Neben dem Phänomen Bedeutung wurde beim Phänomen des Zutreffens auch sichtbar, dass die Entscheidung des Zutreffens auch von einer ‚verfügbaren Alltagssituation‘ abhängt, in der sich eine aktuelle Entsprechung ‚konkret aufzeigen‘ lässt oder eben nicht.

Verfügen wir zusätzlich zu einer ‚denkbaren Bedeutung‘ im Kopf aktuell über keine Alltagssituation, die dieser Bedeutung im Kopf hinreichend korrespondiert, dann gibt es immer zwei Möglichkeiten: Wir können diesem gedachten Konstrukt trotz fehlendem Realitätsbezug den ‚Status einer möglichen Zukunft‘ verleihen oder nicht.

Würden wir uns dafür entscheiden, einer ‚Bedeutung im Kopf‘ den Status einer möglichen Zukunft zu zusprechen, dann stehen meistens folgende zwei Anforderungen im Raum: (i) Lässt sich im Lichte des verfügbaren Wissens hinreichend plausibel machen, dass sich die ‚gedachte mögliche Situation‘ in ‚absehbarer Zeit‘ ausgehend von der aktuellen realen Situation ‚in eine neue reale Situation transformieren lässt‘? Und (ii) Gibt es ’nachhaltige Gründe‚ warum man diese mögliche Zukunft ‚wollen und bejahen‘ sollte?

Die erste Forderung verlangt nach einer leistungsfähigen ‚Wissenschaft‘, die aufhellt, ob es überhaupt gehen kann. Die zweite Forderung geht darüber hinaus und bringt unter dem Gewand der ‚Nachhaltigkeit‘ den scheinbar ‚irrationalen‘ Aspekt der ‚Emotionalität‘ ins Spiel: es geht nicht nur einfach um ‚Wissen als solches‘, es geht auch nicht nur um ein ’sogenanntes nachhaltiges Wissen‘, das dazu beitragen soll, das Überleben des Lebens auf dem Planet Erde — und auch darüber hinaus — zu unterstützen, es geht vielmehr auch um ein ‚gut finden, etwas bejahen, und es dann auch entscheiden wollen‘. Diese letzten Aspekte werden bislang eher jenseits von ‚Rationalität‘ angesiedelt; sie werden dem diffusen Bereich der ‚Emotionen‘ zugeordnet; was seltsam ist, da ja jedwede Form von ‚üblicher Rationalität‘ genau in diesen ‚Emotionen‘ gründet.[2]

WISSENSCHAFTLICHER DISKURS UND ALLTAGSSITUATIONEN

In diesem soeben angedeuteten Kontext von ‚Rationalität‘ und ‚Emotionalität‘ ist es nicht uninteressant, dass im Tagungsthema der ‚wissenschaftliche Diskurs‘ als Referenzpunkt thematisiert wird, um den Stellenwert textfähiger Maschinen abzuklären.

Es fragt sich, inwieweit ein ‚wissenschaftlicher Diskurs‘ überhaupt als Referenzpunkt für einen erfolgreichen Text dienen kann?

Dazu kann es helfen, sich bewusst zu machen, dass das Leben auf diesem Planet Erde sich in jedem Moment in einer unfassbar großen Menge von ‚Alltagssituationen‘ abspielt, die alle gleichzeitig stattfinden. Jede ‚Alltagssituation‘ repräsentiert für die Akteure eine ‚Gegenwart‘. Und in den Köpfen der Akteure findet sich ein individuell unterschiedliches Wissen darüber, wie sich eine Gegenwart in einer möglichen Zukunft ‚verändern kann‘ bzw. verändern wird.

Dieses ‚Wissen in den Köpfen‘ der beteiligten Akteure kann man generell ‚in Texte transformieren‘, die auf unterschiedliche Weise einige der Aspekte des Alltags ’sprachlich repräsentieren‘.

Der entscheidende Punkt ist, dass es nicht ausreicht, dass jeder ‚für sich‘ alleine, ganz ‚individuell‘, einen Text erzeugt, sondern dass jeder zusammen ‚mit allen anderen‘, die auch von der Alltagssituation betroffen sind, einen ‚gemeinsamen Text‘ erzeugen muss. Eine ‚kollektive‘ Leistung ist gefragt.

Und es geht auch nicht um ‚irgendeinen‘ Text, sondern um einen solchen, der so beschaffen ist, dass er die ‚Generierung möglicher Fortsetzungen in der Zukunft‘ erlaubt, also das, was traditionell von einem ‚wissenschaftlichen Text‘ erwartet wird.

Aus der umfangreichen Diskussion — seit den Zeiten eines Aristoteles — was denn ‚wissenschaftlich‘ bedeuten soll, was eine ‚Theorie‘ ist, was eine ‚empirische Theorie‘ sein soll, skizziere ich das, was ich hier das ‚minimale Konzept einer empirischen Theorie‘ nenne.

  1. Ausgangspunkt ist eine ‚Gruppe von Menschen‘ (die ‚Autoren‘), die einen ‚gemeinsamen Text‘ erstellen wollen.
  2. Dieser Text soll die Eigenschaft besitzen, dass er ‚begründbare Voraussagen‘ für mögliche ‚zukünftige Situationen‘ erlaubt, denen sich dann in der Zukunft ‚irgendwann‘ auch eine ‚Geltung zuordnen lässt‘.
  3. Die Autoren sind in der Lage, sich auf eine ‚Ausgangssituation‘ zu einigen, die sie mittels einer ‚gemeinsamen Sprache‘ in einen ‚Ausgangstext‘ [A] transformieren.
  4. Es gilt als abgemacht, dass dieser Ausgangstext nur ’solche sprachliche Ausdrücke‘ enthalten darf, die sich ‚in der Ausgangssituation‘ als ‚wahr‘ ausweisen lassen.
  5. In einem weiteren Text stellen die Autoren eine Reihe von ‚Veränderungsregeln‘ [V] zusammen, die ‚Formen von Veränderungen‘ an einer gegebenen Situation ins Wort bringen.
  6. Auch in diesem Fall gilt es als abgemacht, dass nur ’solche Veränderungsregeln‘ aufgeschrieben werden dürfen, von denen alle Autoren wissen, dass sie sich in ‚vorausgehenden Alltagssituationen‘ als ‚wahr‘ erwiesen haben.
  7. Der Text mit den Veränderungsregeln V liegt auf einer ‚Meta-Ebene‘ verglichen mit dem Text A über die Ausgangssituation, der relativ zum Text V auf einer ‚Objekt-Ebene‘ liegt.
  8. Das ‚Zusammenspiel‘ zwischen dem Text V mit den Veränderungsregeln und dem Text A mit der Ausgangssituation wird in einem eigenen ‚Anwendungstext‘ [F] beschrieben: Hier wird beschrieben, wann und wie man eine Veränderungsregel (in V) auf einen Ausgangstext A anwenden darf und wie sich dabei der ‚Ausgangstext A‘ zu einem ‚Folgetext A*‘ verändert.
  9. Der Anwendungstext F liegt damit auf einer nächst höheren Meta-Ebene zu den beiden Texten A und V und kann bewirken, dass der Anwendungstext den Ausgangstext A verändert wird.
  1. In dem Moment, wo ein neuer Folgetext A* vorliegt, wird der Folgetext A* zum neuen Anfangstext A.
  2. Falls der neue Ausgangstext A so beschaffen ist, dass sich wieder eine Veränderungsregel aus V anwenden lässt, dann wiederholt sich die Erzeugung eines neuen Folgetextes A*.
  3. Diese ‚Wiederholbarkeit‘ der Anwendung kann zur Generierung von vielen Folgetexten <A*1, …, A*n> führen.
  4. Eine Serie von vielen Folgetexten <A*1, …, A*n> nennt man üblicherweise auch eine ‚Simulation‘.
  5. Abhängig von der Beschaffenheit des Ausgangstextes A und der Art der Veränderungsregeln in V kann es sein, dass mögliche Simulationen ‚ganz unterschiedlich verlaufen können‘. Die Menge der möglichen wissenschaftlichen Simulationen repräsentiert ‚Zukunft‘ damit also nicht als einen einzigen, bestimmten Verlauf, sondern als eine ‚beliebig große Menge möglicher Verläufe‘.
  6. Die Faktoren, von denen unterschiedliche Verläufe abhängen, sind vielfältig. Ein Faktor sind die Autoren selbst. Jeder Autor ist ja mit seiner Körperlichkeit vollständig selbst Teil genau jener empirischen Welt, die in einer wissenschaftlichen Theorie beschrieben werden soll. Und wie bekannt, kann jeder menschliche Akteur seine Meinung jederzeit ändern. Er kann buchstäblich im nächsten Moment genau das Gegenteil von dem tun, was er zuvor gedacht hat. Und damit ist die Welt schon nicht mehr die gleiche, wie zuvor in der wissenschaftlichen Beschreibung angenommen.

Schon dieses einfache Beispiel zeigt, dass die Emotionalität des ‚Gut-Findens, des Wollens, und des Entscheidens‘ der Rationalität wissenschaftlicher Theorien voraus liegt. Dies setzt sich in der sogenannten ‚Nachhaltigkeitsdiskussion‘ fort.

NACHHALTIGE EMPIRISCHE THEORIE

Mit dem soeben eingeführten ‚minimalen Konzepts einer empirischen Theorie (ET)‘ lässt sich direkt auch ein ‚minimales Konzept einer nachhaltigen empirischen Theorie (NET)‘ einführen.

Während eine empirische Theorie einen beliebig großen Raum an begründeten Simulationen aufspannen kann, die den Raum von vielen möglichen Zukünften sichtbar machen, verbleibt den Akteuren des Alltags die Frage, was sie denn von all dem als ‚ihre Zukunft‘ haben wollen? In der Gegenwart erleben wir die Situation, dass die Menschheit den Eindruck erweckt, als ob sie damit einverstanden ist, das Leben jenseits der menschlichen Population mehr und mehr nachhaltig zu zerstören mit dem erwartbaren Effekt der ‚Selbst-Zerstörung‘.

Dieser in Umrissen vorhersehbare Selbst-Zerstörungseffekt ist aber im Raum der möglichen Zukünfte nur eine Variante. Die empirische Wissenschaft kann sie umrisshaft andeuten. Diese Variante vor anderen auszuzeichnen, sie als ‚gut‘ zu akzeptieren, sie ‚zu wollen‘, sich für diese Variante zu ‚entscheiden‘, liegt in jenem bislang kaum erforschten Bereich der Emotionalität als Wurzel aller Rationalität.

Wenn sich Akteure des Alltags für eine bestimmte rational aufgehellte Variante von möglicher Zukunft entschieden haben, dann können sie jederzeit mit einem geeigneten ‚Evaluationsverfahren (EVAL)‘ auswerten, wie viel ‚Prozent (%) der Eigenschaften des Zielzustandes Z‘ bislang erreicht worden sind, vorausgesetzt, der favorisierte Zielzustand wird in einen passenden Text Z transformiert.

Anders formuliert: in dem Moment, wo wir Alltagsszenarien über geeignete Texte in einen rational greifbaren Zustand transformiert haben, nehmen die Dinge eine gewisse Klarheit an und werden dadurch — in gewisser Weise — einfach. Dass wir solche Transformationen vornehmen und auf welche Aspekte eines realen oder möglichen Zustands wir uns dann fokussieren, das ist aber als emotionale Dimension der textbasierten Rationalität vor-gelagert.[2]

MENSCH-MASCHINE

Nach diesen vorbereitenden Überlegungen stellt sich die abschließende Frage, ob und wie die Hauptfrage dieser Tagung „Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ in irgendeiner Weise beantwortet werden kann?

Meine bisherigen Ausführungen haben versucht aufzuzeigen, was es bedeutet, dass Menschen kollektiv Texte erzeugen, die die Kriterien für einen wissenschaftlichen Diskurs erfüllen, der zudem die Anforderungen für empirische oder gar nachhaltig-empirische Theorien erfüllt.

Dabei zeigt sich, dass sowohl bei der Generierung eines kollektiven wissenschaftlichen Textes wie auch bei seiner Anwendung im Alltag ein enger Wechselbezug sowohl mit der gemeinsamen erfahrbaren Welt wie auch mit den dynamischen Wissens- und Bedeutungskomponenten in jedem Akteur eine Rolle spielen.

Der Aspekt der ‚Geltung‘ ist Teil eines dynamischen Weltbezugs, dessen Einschätzung als ‚wahr‘ beständig im Fluss ist; während der eine Akteur vielleicht dazu tendiert zu sagen „Ja, kann stimmen“, tendiert ein anderer Akteur vielleicht gerade zum Gegenteil. Während die einen eher dazu tendieren, eine mögliche Zukunftsvariante X zu favorisieren, wollen die anderen lieber die Zukunftsvariante Y. Rationale Argumente fehlen; die Gefühle sprechen. Während eine Gruppe gerade beschlossen hat, dem Plan Z zu ‚glauben‘ und ihn ‚umzusetzen‘, wenden sich die anderen ab, verwerfen Plan Z, und tun etwas ganz anderes.

Dieser unstete, unsichere Charakter des Zukunft-Deutens und Zukunft-Handelns begleitet die Homo Sapiens Population von Anbeginn. Der unverstandene emotionale Komplex begleitet den Alltag beständig wie ein Schatten.[2]

Wo und wie können ‚textfähige Maschinen‘ in dieser Situation einen konstruktiven Beitrag leisten?

Angenommen es liegt ein Ausgangstext A vor, dazu ein Veränderungstext V sowie eine Anleitung F, dann könnten heutige Algorithmen alle möglichen Simulationen schneller durchrechnen als es Menschen könnten.

Angenommen zusätzlich es läge auch noch ein Zieltext Z vor, dann könnte ein heutiger Algorithmus auch eine Auswertung zum Verhältnis zwischen einer aktuellen Situation als A und dem Zieltext Z berechnen.

Mit anderen Worten: wäre eine empirische oder eine nachhaltig-empirische Theorie mit ihren notwendigen Texten formuliert, dann könnte ein heutiger Algorithmus alle möglichen Simulationen und den Grad der Zielerfüllung automatisch schneller berechnen, als jeder Mensch allein.

Wie steht es aber mit der (i) Ausarbeitung einer Theorie bzw. (ii) mit der vor-rationalen Entscheidung für eine bestimmte empirische oder gar nachhaltig-empirische Theorie ?

Eine klare Antwort auf beide Fragen erscheint mir zum aktuellen Zeitpunkt kaum möglich, verstehen wir Menschen doch noch zu wenig, wie wir selbst im Alltag kollektiv Theorien bilden, auswählen, überprüfen, vergleichen und auch wieder verwerfen.

Meine Arbeitshypothese zum Thema lautet: dass wir sehr wohl lernfähige Maschinen brauchen werden, um in der Zukunft die Aufgabe erfüllen zu können, brauchbare nachhaltig-empirische Theorien für den gemeinsamen Alltag zu entwickeln. Wann dies aber real geschehen wird und in welchem Umfang scheint mir zum jetzigen Zeitpunkt weitgehend unklar.

ANMERKUNGEN

[1] https://zevedi.de/themen/ki-text/

[2] Das Sprechen über ‚Emotionen‘ im Sinne von ‚Faktoren in uns‘, die uns dazu bewegen, aus dem Zustand ‚vor dem Text‘ in den Zustand ‚geschriebener Text‘ überzugehen, der lässt sehr viele Aspekte anklingen. In einem kleinen explorativen Text „STÄNDIGE WIEDERGEBURT – Jetzt. Schweigen hilft nicht …“ ( https://www.cognitiveagent.org/2023/08/28/staendige-wiedergeburt-jetzt-schweigen-hilft-nicht-exploration/ ) hat der Autor versucht, einige dieser Aspekte anzusprechen. Beim Schreiben wird deutlich, dass hier sehr viele ‚individuell subjektive‘ Aspekte eine Rolle spielen, die natürlich nicht ‚isoliert‘ auftreten, sondern immer auch einen Bezug zu konkreten Kontexten aufblitzen lassen, die sich mit dem Thema verknüpfen. Dennoch, es ist nicht der ‚objektive Kontext‘, der die Kernaussage bildet, sondern die ‚individuell subjektive‘ Komponente, die im Vorgang des ‚ins-Wort-Bringens‘ aufscheint. Diese individuell-subjektive Komponenten wird hier versuchsweise als Kriterium für ‚authentische Texte‘ benutzt im Vergleich zu ‚automatisierten Texten‘ wie jene, die von allerlei Bots generiert werden können. Um diesen Unterschied greifbarer zu machen, hat der Autor sich dazu entschieden, mit dem zitierten authentischen Text zugleich auch einen ‚automatisierten Text‘ mit gleicher Themenstellung zu erzeugen. Dazu hat er chatGBT4 von openAI benutzt. Damit beginnt ein philosophisch-literarisches Experiment, um auf diese Weise vielleicht den möglichen Unterschied sichtbarer zu machen. Aus rein theoretischen Gründen ist klar, dass ein von chatGBT4 erzeugter Text im Ursprung niemals ‚authentische Texte‘ erzeugen kann, es sei denn, er benutzt als Vorlage einen authentischen Text, den er abwandeln kann. Dann ist dies aber ein klares ‚fake Dokument‘. Um solch einem Missbrauch vorzubeugen, schreibt der Autor im Rahmen des Experiments den authentischen Text zu erst und beauftragt dann chatGBT4 zur vorgegebenen Themenstellung etwas zu schreiben, ohne dass chatGBT4 den authentischen Text kennt, da er noch nicht über das Internet in die Datenbasis von chatGBT4 Eingang gefunden hat.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

NACHHALTIGE EMPIRISCHE THEORIE mit Software und Alltagsprozessen

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 2.April 2023 – 2.April 2023
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (cagent@cognitiveagent.org)

Kontext/ Einleitung

Im Kontext der Entwicklung einer ’nachhaltigen empirischen Theorie‘ (NET) gibt es neben den ‚meta-theoretischen‘ Diskussionen nicht wenige Diskussionen auch im Kontext der möglichen ‚Anwendungsszenarien‘. Das folgende Schaubild lässt ein wenig die Umrisse der Thematik erkennen.

Theorie und Anwendungsszenarien

Erläuterungen zum Bild

Konzepte und Prozesse

Neben den ’strukturellen Konzepten‘ auf der linken Seite muss man die ‚Prozessstrukturen im Alltag‘ auf der rechten Bildseite berücksichtigen.

Konzept Theorie

Ein strukturelles Konzept beschreibt z.B. auf einem Meta-Level was eine ’nachhaltige empirische Theorie‘ ist und vergleicht dieses Konzept mit dem Konzept ‚Spiel‘ und ‚Theaterstück‘. Da es schnell sehr aufwendig werden kann, komplette Theorien per Hand hinzuschreiben, kann es sehr hilfreich sein, eine Software zu haben (es gibt eine unter dem Namen ‚oksimo.R‘), die den Bürger darin unterstützt, gemeinsam mit anderen Bürgern in ’normaler Sprache‘ den ‚Text einer Theorie‘ aufzuschreiben und nach Bedarf auch zu ’simulieren‘; darüber hinaus wäre es gut, man könnte eine Theorie auch ‚interaktiv spielen‘ (und letztlich sogar noch viel mehr).

Den Text einer Theorie zu haben, diese auszuprobieren und weiter zu entwickeln ist eine Sache. Aber der Weg zu einer Theorie kann mühsam und langwierig sein. Er benötigt sehr viel ‚Erfahrung‘, ‚Wissen‘ und vielfältige Formen von dem, was man meist sehr vage ‚Intelligenz‘ nennt.

Konzept Kollektive Intelligenz

Intelligenz kommt typischerweise im Kontext ‚biologischer Systeme‘ vor, bei ‚Menschen‘ und ‚Nicht-Menschen‘. In neuerer Zeit gibt es auch Beispiele, denen man vage Intelligenz zuspricht, die von ‚Maschinen‘ realisiert wird. Letztlich bilden alle diese unterschiedlichen Phänomene, die man unter dem Begriff ‚Intelligenz‘ grob zusammen fasst, ein Muster, das man unter einer bestimmen Rücksicht als ‚kollektive Intelligenz‘ betrachten könnte. Dafür gibt es sehr viele prominenten Beispiel aus dem Bereich ’nicht-menschlicher biologischer Systeme‘, und dann ganz besonders bei ‚menschlichen biologischen Systemen‘ mit ihrem ‚koordinierten Verhalten‘ in Verbindung mit ihren ’symbolischen Sprachen‘.

Die große Herausforderung der Zukunft besteht darin, diese verschiedenen ‚Typen von individueller und kollektiver Intelligenz‘ zu einer wirklichen konstruktiv-kollektiven Intelligenz zusammen zu führen.

Konzept empirische Daten

Die allgemeinste Form einer Sprache bildet die sogenannte ’normale Sprache‘ oder ‚Alltagssprache. Sie enthält in einem Konzept alles, was wir heute über Sprachen wissen.

Ein interessanter Aspekt ist die Tatsache, dass die Alltagssprache für jede spezielle Art von Sprache (Logik, Mathematik, …) jene ‚Meta-Sprache‘ bildet, auf deren Basis die andere spezielle Sprache ‚eingeführt‘ wird.

Die möglichen ‚Bedeutungselemente und Bedeutungsstrukturen‘, aus denen heraus sich die alltäglichen Sprachstrukturen gebildet haben, entspringen dem Raum des Alltags und seiner Ereigniswelt.

Während die normalen Wahrnehmungsprozesse in Abstimmung unter den verschiedenen Sprechern-Hörer schon eine Menge wertvoller Beschreibungen von alltäglichen Eigenschaften und Prozessen liefern können, können spezialisierte Beobachtungsprozesse in Form von ’standardisierten Messprozessen‘ die Genauigkeit von Beschreibungen erheblich steigern. Das zentrale Moment ist, dass sich alle beteiligten Sprecher-Hörer, die sich für ein ‚bestimmtes Thema‘ (Physik, Chemie, Raumverhältnisse, Spielzüge, …) interessieren, sich für alle ‚wichtigen Eigenschaften‘ auf ‚vereinbarte Beschreibungsprozeduren‘ einigen, die jeder in gleicher Weise auf transparente und reproduzierbare Weise ausführt.

Prozesse im Alltag

Auf welche konzeptuelle Strukturen man sich auch immer geeinigt haben mag, sie können nur dann ‚zur Wirkung kommen‘ (‚zum Leben erweckt‘ werden), wenn es genügend Menschen gibt, die bereit sind, im Rahmen des Alltags all jene ‚Prozesse‘ konkret zu leben. Dazu braucht es Raum, Zeit, die notwendigen Ressourcen und eine hinreichend starke und anhaltende ‚Motivation‘, diese Prozesse jeden Tag aufs Neue zu leben.

So gibt es neben den Menschen, Tieren und Pflanzen und deren Bedürfnissen mittlerweile eine riesige Menge an künstlichen Strukturen (Häuser, Straßen, Maschinen,…), die jeweils auch bestimmte Anforderungen an ihre Umgebung stellen. Diese Anforderungen zu kennen und sie so zu ‚koordinieren/ zu managen‘, dass sie positive Synergien‘ ermöglichen, ist eine gewaltige Herausforderung, die — so der Eindruck im Jahr 2023 — die Menschheit vielfach überfordert.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

KOLLEKTIVE MENSCH:MASCHINE INTELLIGENZ und das Konzept ‚Social Machines‘

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 2.-5.Dezember 2021, 13:12h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

KONTEXT

Der Autor dieses Textes ist involviert in die Ausarbeitung zur Theorie und zur praktischen Umsetzung eines neuen Konzeptes von ‚Kollektiver Mensch:Maschine Intelligenz‘, das unter dem Begriff ‚oksimo Paradigma‘ vorgestellt und diskutiert wird.[1] In diesem Zusammenhang ist es wichtig, den eigenen Standpunkt immer wieder mit anderen Positionen in der Literatur abzugleichen: Ist das Ganze letztlich doch nicht wirklich ‚Neu‘? Falls doch, in welchem Sinne neu? Interessant sind auch die Beziehungen zwischen den verschiedenen Konzepten, ihre historische Entwicklung.

In einer online-Veranstaltung am 30.November 2021 bekam der Autor von Jörn Lamla den Hinweis auf den Artikel ‚Social Machines‘. [2] Wie man in dem kurzen aber prägnanten Artikel in der englischen Wikipedia nachlesen kann [3], ist der Begriff ‚Social Machine‘ (‚Soziale Maschine‘) schon gut 150 Jahre alt, zeigt aber noch keine sehr klaren Konturen. Der Versuch, das ‚Soziale‘ mit der ‚Technologie‘, mit ‚Maschinen‘ — hier sind vernetzte Computer gemeint, letztlich der ‚Cyberspace‘ — begrifflich zu vernetzen, drängt sich auf, ist für Gesellschaftswissenschaften verführerisch, führt aber nicht automatisch zu präzisen Konzepten. Weder ‚das Soziale‘ noch ‚die Maschine‘ sind Begriffe, die aus sich heraus irgendwie klar sind. Umso gespannter kann man sein, was die Autoren meinen, wenn sie zum begrifflichen Konstrukt ‚Soziale Maschine‘ einen Text schreiben.

SOZIALE MASCHINEN

Im weiteren Text bekennen sich die Autoren zu der schwer fassbaren Semantik des Begriffs ‚Soziale Maschine‘, indem sie diverse Beispiele aus der Literatur zitieren, die ein viel schillerndes Bild bietet. Um für ihre Diskussion einen irgendwie gearteten begrifflichen Referenzpunkt zu gewinnen, führen sie dann ihrerseits eine ‚Definition‘ von ‚Sozialer Maschine‘ ein (ohne sich allerdings der Mühe zu unterziehen, die Vielfalt der bisherigen Positionen tatsächlich im einzelnen zu diskutieren).

Def 1: Social Machines

Ihre Definition lautet: „Social Machines sind soziotechnische Systeme, in denen die Prozesse sozialer Interaktion hybrid zwischen menschlichen und maschinellen Akteuren ablaufen und teilweise algorithmisiert sind.“

An dieser Stelle ist es eine offene Frage, ob diese Definition eine ‚adäquate Repräsentation‘ des vorausgehenden Diskurses zu Sozialen Maschinen darstellt, oder ob es sich nur um eine spezielle Setzung der Autoren handelt, deren Begründung nicht schlüssig aus dem bisherigen Diskurszusammenhang folgt.

Liest man die Definition der Autoren, dann fallen u.a. folgende Formulierungen auf: (i) dass die ‚Prozesse sozialer Interaktion‚ ‚hybrid‚ sein sollen; (ii) dass diese Prozesse zwischen ‚menschlichen und maschinellen Akteuren‚ ablaufen sollen, und (iii) dass diese ‚ teilweise algorithmisiert‚ sein sollen.

Hybrides Handeln

Angesichts des großen Bedeutungsspektrums des Ausdrucks ’soziale Interaktion‘ in der Literatur (dazu oft sehr theorieabhängig genutzt) ist an dieser Stelle nicht ganz klar, was mit sozialer Interaktion‘ gemeint sein soll. Dazu der Ausdruck ‚hybrid‘. Ab wann sind menschliche Handlungen hybrid? Handelt ein Mensch ‚hybrid‘ wenn er Werkzeuge benutzt? Handelt ein Mensch ‚hybrid‘, wenn er die Gegebenheiten der Natur nutzt, um Nahrung zu finden oder zu produzieren? Handelt ein Mensch ‚hybrid‘, wenn er andere Menschen ‚instrumentalisiert‘, um persönliche Ziele zu erreichen? Handelt ein Mensch ‚hybrid‘, wenn er eine Sprache benutzt, die er in einer Gesellschaft als Instrument der Kommunikation vorfindet? Warum sollte die Benutzung einer Maschine eine besondere Form von ‚hybridem Handeln‘ darstellen, wenn die Nutzung der Maschine für den ‚Inhalt der Aktion‘ ‚unwesentlich‘ ist?

Für die weitere Diskussion sei hier daher die Verabredung getroffen, dass immer dann, wenn ein Mensch in seiner Interaktion mit der Welt irgendwelche Umstände so benutzt, dass dieses Handeln ohne diese Bezugnahme nicht erklärbar wäre, von einer ‚allgemein hybriden Handlung‘ gesprochen werden soll. Da jede Interaktion mit der Umgebung ‚als Interaktion‘ in diesem Sinne ‚allgemein hybrid‘ ist, sagt der Ausdruck ‚allgemein hybrid‘ nicht allzu viel, außer, das er uns bewusst machen kann, dass wir im Handeln niemals nur ‚für uns‘ handeln, niemals nur ‚isoliert, autonom‘ handeln, sondern wir uns unausweichlich in einer ‚Wechselwirkung‘ mit ‚etwas anderem‘ befinden. Und dies liegt nicht am ‚Handeln als solchem‘ sondern in der Art und Weise, wie jegliches Handeln von Homo sapiens Exemplaren in der ‚inneren Struktur‘ eines Homo sapiens ‚verankert‘ ist.

Die Benutzung vieler Computerdienste (maschinelle Dienstleistungen) sind in diesem Sinne zwar ‚allgemein hybrid‘ insoweit ein Mensch zusätzliche Mittel für sein Handeln benutzt, aber ob man den die maschinelle Dienstleistung benutzt oder nicht, muss nicht notwendigerweise einen wesentlichen Einfluss auf den ‚Inhalt des Handelns‘ haben (außer dass diese Benutzung das Handeln ‚bequemer‘ oder ’schneller‘ oder … macht). Wenn die Autoren also die Bedeutung von ‚hybrid‘ in diesem Zusammenhang so betonen, stellt sich die Frage, was denn in dieser Interaktion so ‚besonders‘, so ’speziell‘ sein soll, dass es sich lohnt, dies hervor zu heben. Allein die Einbeziehung von ‚etwas anderem‘ in das menschliche Handeln geschieht seitdem es den Homo sapiens gibt, tatsächlich sogar schon viel länger, wenn man die evolutionäre Vorgeschichte des Homo sapiens berücksichtigt. Selbst unter Prä-Homo sapiens Lebensformen, die heute leben, ist ‚allgemein hybrides‘ Handeln verbreitet.

Menschliche und Maschinelle Akteure

Es fragt sich, ob mit der Konkretisierung des ‚technischen Anteils‘ im Ausdruck ’soziotechnische Systeme‘ zu ‚Maschinen‘ etwas gewonnen wird? Gibt es technische Systeme, die keine Maschinen sind? Was ist mit hochentwickelten Landwirtschaften, wie sie sich in der Zeit islamischer Besetzung in Spanien um und vor +1000 fanden: komplexe Bewässerungssysteme, komplexe Architektur, komplexe Organisationsformen machten aus Spanien eine blühende und fruchtbare Landschaft. Ist das auch Technologie, und dann sogar im eminenten Sinne soziotechnisch‘? Was ist mit den großartigen Bibliotheken in der Hochblüte des Islams mit vielen hundert Tausend Büchern? Was ist mit der Seeschifffahrt durch die letzten Jahrtausende, die Städte, den Bauwerken, den Straßen und Brücken, den … ? Der Begriff ‚technisches System‘ ist nicht besonders klar, genauso wenig der Begriff ‚Maschine‘. Wie ein kurzer Blick in die englische Wikipedia zeigt [8], hat der Begriff eine lange Geschichte mit einem starken Bedeutungswandel, der die Spuren vielfältiger kultureller Entwicklungen in sich aufgenommen hat. Welche Typen von Maschinen meinen die Autoren?

Durch die Kombination von ‚Maschine‘ und ‚Akteur‘ kommt auf jeden Fall eine besondere Note ins Spiel, da der Begriff des ‚Akteurs‘ — in sich auch nicht klar definiert! — die unscharfe Vorstellung assoziiert, dass damit ein ‚System‘ gemeint sein könnte, das ‚(selbständig?) handeln‘ kann — was immer genau ‚(selbständig) handeln‘ heißen mag –.

Im Englischen meint ‚Akteur‘ als ‚actor‘ schlicht Menschen, die als Schauspieler in einem Stück handeln [9]. Sie handeln aber tatsächlich nur partiell ’selbständig, aus sich heraus‘, insofern sie das vorgegebene Drehbuch zwar in den groben Linien ’nachspielen‘, im Detail der Rolle aber mit ihrem realen Verhalten diese Rolle ‚modifizieren‘ können; in der Art und Weise dieses ‚Modifizierens einer Rolle‘ meinen viele erkennen zu können, ob es sich um einen ‚großen Schauspieler‘ handelt.

In neueren technischen Kontexten gibt es viele Standards, u.a. auch UML (Unified Modeling Language). [10] In UML wird für den Bereich der Programmierung das Zusammenspiel, die Interaktion verschiedener ‚Rollen‘ in einem Interaktionsfeld strukturiert beschrieben. ‚Akteure‘ (‚actors‘) sind dann jene abgrenzbare Größen, die Ereignisse aus der Umgebung (Input) aufnehmen, wie auch auf die Umgebung durch Reaktionen (Output) reagieren können.[11]

Viele andere sprachliche Verwendungszusammhänge mit dem Begriff ‚Akteur‘ sind bekannt. Die Autoren bieten dazu keine Erläuterungen, weder für die Frage, warum sie den allgemeinen Begriff des ‚technischen Systems‘ auf ‚Maschinen als Akteure‘ einschränken noch, welche Art von ‚Akteuren‘ sie genau meinen.

Teilweise Algorithmisiert

Der heutige Begriff des ‚Algorithmus‘ im Kontext von programmierbaren Maschinen [12] hat eine lange Vorgeschichte im Kontext der Mathematik (von heute aus ca. 4.500 Jahre rückwärts), wird aber seit der Verfügbarkeit von real programmierbaren Maschinen (‚Computern‘) seit ca. 1930 vornehmlich für jene Befehlslisten verwendet, mit denen programmierbare Maschinen gesteuert werden.[13] Der Ausdruck der Autoren, dass ’soziale Interaktionen‘ ‚teilweise algorithmisiert‘ sind, wirft von daher mindestens eine Frage auf: Was an einer sozialen Interaktion soll algorithmisiert‘ sein, wenn doch nach allgemeinem Verständnis nur programmierbare Maschinen von einem Algorithmus gesteuert werden können?

Nehmen wir an, dass hier soziotechnische Systeme gemeint sind, die — vereinfachend — aus Akteuren bestehen, die sowohl biologische und nicht-biologische Systeme sein können. Im angenommenen Fall sind diese Akteure auf der einen Seite weiter spezialisiert zu ‚biologischen System‘, die ‚Homo sapiens Exemplare‘ darstellen, und auf der anderen Seite ‚programmierbare Maschinen‘. Von den programmierbaren Maschinen ist bekannt, dass sie — per Definition — über ein ‚Programm‘ verfügen können, das die Eigenschaften eines ‚Algorithmus‘ besitzt. In einer ‚Interaktion‘ zwischen Homo sapiens Akteuren und programmierbaren Maschinen würden — Annahme — die Homo sapiens Akteure so handeln, wie sie immer handeln: Bezugnehmend auf ihre Wahrnehmung der Umgebung würden sie auf der Basis der bis dahin erworbenen Erfahrungen und aktuellen Motivationslagen auf diese Umgebung reagieren; dieses ‚Muster‘ von ‚Wahrnehmung + innere Zustände + Reagieren‘ würde dann einen groben Rahmen für den Begriff einer ‚Handlung‘ zur Verfügung stellen, die bezogen auf eine Situation mit einem anderen Akteur als ‚Gegenüber‘ dann als ‚Interaktion‘ bezeichnet werden könnte. [14] Jede Art von ‚Interaktion‘ in dieser Sicht wäre ‚allgemein hybrid‘, sofern das ‚Gegenüber‘ zu einem Homo sapiens Exemplar nicht wieder ein anderes Homo sapiens Exemplar wäre, also allgemein ‚kein biologisches System‘! Insofern ‚programmierbare Maschinen‘ sehr spezielle Formen von Maschinen — und generell von technischen Systemen — darstellen, die in er ‚Rolle eines Akteurs‘ auftreten können, hätten wir das Muster einer ‚allgemein hybriden‘ Interaktion, die sich zunächst nicht von irgendwelchen anderen Interaktionen des Homo sapiens Exemplars mit irgendwelchen nicht-biologischen Systemen unterscheidet.

An dieser Stelle könnte man dann die Frage stellen, ob und wie die Interaktion eines Homo sapiens Exemplars mit einer programmierbaren Maschine irgendwelche Besonderheiten aufweisen kann verglichen mit einer ‚allgemein hybriden Interaktion‘?

Nach diesen ersten Fragen an die Autoren hier die Interpretation, die die Autoren selbst zu ihrer Definition geben.

Def. 2: Soziotechnisches System

Interessant ist die Formulierung „… verstehen wir unter einem soziotechnischen System ein komplexes Gefüge, welches Menschen, Hard- und Software, organisationale und soziale Prozesse für gegebene Aufgaben oder Ziele miteinander interagieren lässt.“

Das zuvor ermittelte Schema von zwei Akteuren unterschiedlicher Art (biologisch und nicht-biologisch, im letzteren Fall ‚programmierbare Maschinen‘), wird hier in einem Bündel von vier Faktoren gesehen: (i) Menschen, (ii) Hard- und Software, (iii) ‚organisationale und soziale Prozesse‘, sowie (iv) ‚Aufgaben und Ziele‘. Diese vier Faktoren sind dynamisch so verknüpft, dass es ‚Aufgaben und Ziele‘ sind, bezogen auf diese die anderen drei Faktoren in Wechselwirkungen treten. Normalerweise würde man annehmen, dass es die Interaktionen von ‚Menschen‘ einerseits und ‚Hard- und Software‘ andererseits sind, durch die ‚Prozesse‘ stattfinden. In der Formulierung der Autoren liest es sich aber so, als ob ‚organisationale und soziale Prozesse‘ einen eigenständigen Faktor neben ‚Menschen‘ und ‚Hard- und Software‘ bilden, und zwar so, dass alle drei Faktoren interagieren. Also, ein ‚Prozess‘ interagiert mit einem Menschen oder einer Hard- und Software und umgekehrt. Eine sehr ungewöhnliche Vorstellung.

In einem sehr verbreiteten Verständnis von ‚Prozess‘ [15] ist ein Prozess eine Serie von Aktivitäten, die ineinandergreifen, um ein ‚Ergebnis‘ zu produzieren. Je nach Kontext (Disziplin, Anwendungsbereich) können die Aktivitäten sehr unterschiedlich aussehen, ebenso das erzielte Ergebnis.[15] Ergänzend ist es ein verbreitetes Verständnis von ‚Aktion’/’Aktivität‘, dass es sich um ein Ereignis handelt, das von einem ‚Agenten’/ ‚Akteur‘ für eine bestimmte ‚Absicht’/ ‚Ziel‘ herbeigeführt wird, das ‚in‘ dem handelnden Akteur ‚verankert‘ ist. [16]

In diesem Verständnishorizont sind es also Agenten/ Akteure, die unter dem Einfluss von Zielen bestimmte Ereignisse erzeugen — als handeln, indem sie Aktionen ausführen –, die zusammen genommen als ein ‚Prozess‘ verstanden werden können. In diesem Sinne sind ‚Prozesse‚ keine ’normalen Objekte‘ der realen Welt sondern begriffliche Konstrukte, die sich in den Köpfen von Akteuren bilden können, um eine Folge von konkreten Ereignissen — stark abstrahierend — als einen ‚Prozess‘ zu verstehen. Von einem ‚Prozess‘ zu sprechen verlangt daher von den Beteiligten, sich jeweils darüber zu vergewissern, welche Abfolge von Ereignissen (Handlungen) zum aktuellen Begriff eines Prozesses gehören sollen.

Bemerkenswert ist auch, dass die Ziele — die intendierten Ergebnisse — ebenfalls nicht als ’normale Objekte‘ vorkommen, sondern primär ‚in den Akteuren‘ verankert sind, und es eine der schwierigsten Aufgaben in jedem Prozess ist, zwischen allen beteiligten Akteuren zu klären, was man unter dem ‚gemeinsamen‘ Ziel — eventuell individuell ganz unterschiedlich gedacht — so zu verstehen hat, dass es zwischen allen Beteiligten ‚klar genug‘ ist. [17] Da Ziele keine realen Objekte sind, sondern immer nur ‚innere Objekte‘ der Akteure, ist eine vollständige Klärung der ‚gemeinten Bedeutung‘ generell nur annäherungsweise über aufzeigbare Beispiele möglich.

Versucht man der Intention der Autoren zu folgen, dann wären Prozesse Entitäten, die mit Menschen und/oder Hard- und Software interagieren können. Hierin klingt irgendwie an, als ob Prozesse soziale Realitäten sind, die als solche greifbar sind und mit denen Menschen interagieren können so wie mit anderen Gegebenheiten. Da die Autoren den Begriff der ‚Interaktion‘ bzw. der ‚Aktion‘ bislang nicht geklärt haben, bleibt der Versuch des Verstehens an dieser Stelle ‚mit sich alleine‘.

Im Lichte eines verbreiteten Verständnisses sind Prozesse höchstens in einem sehr abstrakten Sinne ’soziale Realitäten‘, die mit Menschen sowie Hard- und Software ‚interagieren‘. Nehmen wir z.B. einen beliebigen Planungsprozess in einer Firma oder einer Behörde. Ein Chef kann z.B. einen Mitarbeiter davon in Kenntnis setzen, dass er ab morgen in dem Planungsprozess Px mitarbeiten soll. Damit wird der Mitarbeiter Mitglied der Projektgruppe PGx zum Planungsprozess Px. Als Mitglied der Projektgruppe startet für das neue Mitglied ein Kommunikationsprozess, innerhalb dessen er sich ein ‚inneres Bild‘ von dem Projekt und seinen Aufgaben machen kann. In dem Maße, wie der Mitarbeiter aufgrund seines ‚inneren Bildes‘ versteht, was genau seine Aufgaben mitsamt einem spezifischen Aufgabenumfeld sind, kann der Mitarbeiter anfangen, ‚etwas zu tun‘, d.h. er kann ‚gezielt Handlungen vornehmen‘. Im ‚Stattfinden‘ seiner Handlungen und durch die möglichen ‚erfahrbaren Resultaten‘ können die anderen Mitglieder der Projektgruppe ‚wahrnehmen‘, was der neue Mitarbeiter tut und sie können die neuen ‚Wahrnehmungen‘ mit ihrem ‚inneren Bild des Projektes‘ ‚abgleichen‘: passen die Handlungen und Ergebnisse des neuen Mitarbeiters zu ‚ihrem inneren Bild‘ des Prozesses?

Im Lichte dieses Beispiels würde das Konzept einer ‚Interaktion zwischen Menschen und einem Prozess‘ letztlich zurück übersetzt werden müssen zu einer ‚Interaktion zwischen Menschen‘, da ein Prozess niemals als solcher als ein ‚erfahrbares Objekt‘ existiert, sondern immer nur als ‚abstraktes Konzept‘ im ‚Innern von Menschen‘, die über Kommunikation verbunden mit Handlungen und aufzeigbaren Artefakten miteinander interagieren. Kann man solchen Kommunikationen und Interaktionen mit Artefakten ein gewisses ‚Format‘ zuordnen, dann sprechen wir von einem ‚Prozess‘, der durch Akteure — hier Menschen — in einer Abfolge typischer Handlungen ’stattfindet‘.

Def. 2*: Soziotechnisches System

An dieser Stelle des Rekonstruktionsversuchs würde man die Formulierung der Autoren wie folgt ‚um-formulieren‘ können: „… verstehen wir unter einem soziotechnischen System ein komplexes Gefüge bestehend aus Menschen und Hard- und Software, die aufgrund von akzeptierten Zielen so miteinander interagieren können, dass organisationale und soziale Prozesse stattfinden, die zu Änderungen in der bestehenden Umgebung führen können.

Möglicherweise meinen die Autoren auch, dass die Tatsache, dass eine Gruppe von Menschen aufgrund von festgelegten Zielen längere Zeit in einem bestimmten Format miteinander so interagieren, dass andere dieses Vorgehen ‚in ihrem Innern‘ als ein ‚Prozess‘ erkennen, und diese ‚Wahrnehmung und Interpretation‘ für die ‚Beobachter‘ eine irgendwie geartete ‚Wirkung entfaltet, dass solch eine ‚Wirkung im Innern‘ als ‚Teil einer Interaktion‘ der Beobachter mit dem beobachtbaren Prozess verstanden werden kann. Eine solche Ausweitung der Bedeutung von normalen ‚Wahrnehmungsprozessen‘ zu ‚Interaktionsprozessen‘ würde aber für eine Analyse wenig attraktiv erscheinen.

Der Ausdruck ‚Gefüge‚, den die Autoren benutzen, klingt ein wenig ‚altmodisch‘. Nach mehr als 100 Jahren diverse Strukturwissenschaften sollte man das Wort ‚Gefüge‘ doch vielleicht eher durch den Ausdruck ‚Struktur‚ ersetzen. [18] Eine ‚Struktur‘ liegt vor, wenn man verschiedene Komponenten unterscheiden kann, hier z.B. ‚Menschen‘ und ‚Hard- und Software‘, und diese Komponenten können in Form ‚typischer‘ Handlungen miteinander interagieren, also etwa

SOZIOTECHNISCHES SYSTEM (ST) gdw ST = <Menschen, Hard-/Software, …, Interaktionen, …>

Die Elemente ‚Absicht‘, ‚Ziel‘, ‚inneres Bild von…‘ usw. würden dann in einer eigenständigen Sub-Struktur ‚Mensch‘ oder ‚menschlicher Akteur‘ verortet, da ein Mensch als eine ‚eigenständige Struktur‘ aufgefasst werden kann, etwa:

MENSCH(M) gdw M = <Bilder, Ziele, …, Handlungen, …>

Die beiden Strukturen ST und M würden sogar eine kleine ‚Hierarchie‚ bilden: die Struktur M wäre eingebettet in die Struktur ST.

Offen ist dabei noch, in welchen Sinne ‚Hard- und Software‘ überhaupt interagieren können.

Def 3: Prozesse sozialer Interaktion

sind sich dynamisch ändernde Abfolgen sozialer Aktionen zwischen Individuen und/oder Gruppen.

Die Unklarheit, die durch Def. 2 noch darin gegeben war, als ob ‚organisationale und soziale Prozesse‘ quasi ‚gleichberechtigte‘ Faktoren neben Akteuren, Hard- und Software sind, wird durch Def. 3 aufgehoben. In der Formulierung von Def. 3 sind ‚Prozesse sozialer Interaktion‘ ‚Abfolgen sozialer Aktionen‘, die ‚zwischen Individuen und/oder Gruppen‘ stattfinden, und die sich ‚dynamisch ändern‘ können. Diese Lesart entspricht weitgehend dem Formulierungsvorschlag Def 2*.

Def. 4: Hybridität

Unter ihrer Hybridität schließlich verstehen wir, dass an diesen Prozessen inhärent sowohl maschinelle als auch menschliche Akteure wesentlich beteiligt sind.

Anders formuliert sagen die Autoren, dass ‚Prozesse sozialer Interaktion‘ dann hybrid sind, wenn in solchen Prozessen sowohl ‚maschinelle als auch ‚menschliche Akteure‘ beteiligt sind.

Mit Blick auf die Diskussion zum Ausdruck ‚hybrid‘ im Anschluss an Def. 1 beschränkt sich die Formulierung von Def. 4 zunächst darauf, nur zu fordern, dass im Rahmen von ‚Prozessen sozialer Interaktionen‘ neben dem Akteurstyp ‚Mensch‘ auch der Akteurstyp ‚Maschine‘ vorkommt. Wie solch eine Interaktion aussieht, welche Eigenschaften sie auszeichnen, bleibt hier noch offen. In der vorausgehenden Diskussion war ja schon thematisiert worden, dass menschliche Akteure andere nicht-menschliche Mittel — also auch Maschinen (welche Typen von Maschinen?) — ‚unwesentlich‘ benutzen können. Damit war gemeint, dass man zwar eine programmierbare Maschine (Computer) zum ‚Text schreiben‘ benutzen kann, dass der Computer hier aber keine ‚wesentliche‘ Rolle spielt; er macht das Erstellen von Texten vielleicht ‚einfacher‘, wäre aber generell nicht notwendig.

Den folgenden Text kann man grob als eine Serie von ‚Annahmen‘ über die Wirklichkeit bezeichnen, vermischt mit impliziten Folgerungen, in denen die bisherige Einleitung weiter ausdifferenziert wird.

Ziel der Diskussion bleibt es, zu klären, wie sich das Konzept der ‚kollektiven Mensch:Maschine Intelligenz‘ aus dem oksimo Paradigma zum Konzept der ‚Sozialen Maschine‘ verhält.

ANNAHME-Hybridisierung 1

Die Autoren benennen drei Komponenten ‚Webtechnologie‘ — mit dem Attribut ‚mobil‘ ergänzt –, ‚lernende Bots‘ und ‚KI‘, wodurch „Sozialität und Maschine“ zunehmend verschmelzen. Daraus ziehen sie den Schluss: „Die menschlichen und nichtmenschlichen Komponenten der Social Machine sind folglich immer schwerer voneinander zu unterscheiden und zu trennen, was als paradigmatischer Trend zur fortschreitenden Hybridisierung der Social Machine bezeichnet werden kann“.

Der Kern der Schlussfolgerung fokussiert in der Idee, dass der „Trend zur fortschreitenden Hybridisierung“ offensichtlich sei.

Wenn nach Def. 4 von den Autoren festgehalten wird, dass man unter „Hybridität“ verstehen sollte, „dass an diesen Prozessen inhärent sowohl maschinelle als auch menschliche Akteure wesentlich beteiligt sind“, dann fragt man sich, was man sich unter dem ‚Fortschreiten einer Hybridisierung‘ verstehen soll. Die bloße Vermehrung der ‚Anzahl‘ der beteiligten Faktoren ‚Menschen‘ oder ‚Maschinen‘ kann es wohl nicht sein. Zumindest gibt die Def. 4 dies nicht her.

Die Autoren sprechen vor ihrer Schlussfolgerung davon, dass „Sozialität und Maschine zunehmend verschmelzen„. Dies kann man so interpretieren, dass die ‚fortschreitende Hybridisierung‘ zusammenhängt mit einer ‚Verschmelzung‘ von Sozialität und Maschine. Der Ausdruck ‚verschmelzen‘ wurde von den Autoren zuvor nicht eigens definiert. Die eher sprachliche Deutung von ‚Verschmelzung‘ von Worten scheint nicht gemeint zu sein.[19] Der bedeutungsnahe Ausdruck ‚Fusion‘ bietet eine Vielzahl von Varianten. [20] Welche Variante meinen die Autoren. Dass so ungleiche Wirklichkeiten wie ‚Sozialität‘ und ‚Maschinen‘ ‚verschmelzen‘, dafür fehlt jeglicher Ansatzpunkt einer sinnvollen Interpretation.

Um dieses Dilemma aufzulösen könnte der Ausdruck „… sind folglich immer schwerer voneinander zu unterscheiden und zu trennen …“ einen Hinweis liefern. Wenn man das ‚unterscheiden‘ und ‚trennen‘ nicht auf reale Sachverhalte — wie Sozialität und Maschine — bezieht sondern auf die ‚Verarbeitung von Sinneseindrücken im Innern des Menschen‘, dann könnte man sich eine Interpretation vorstellen, in der durch die Art und Weise, wie Sozialität und Maschine in der Umwelt ‚vorkommen‘, im menschlichen Akteur ‚Vorstellungen‘ auslöst, in denen das menschliche Denken eine klare Unterscheidung immer weniger leisten kann. Dann wäre die angenommene Verschmelzung der Autoren ein rein kognitives/ mentales Problem der menschlichen Akteure, die sich in Interaktion mit einer Umwelt befinden, in der mindestens Menschen und Maschinen vorkommen, aber auf eine Weise, die eine klare Unterscheidung kognitiv/ mental schwer macht.

Dies führt zu folgendem Formulierungsvorschlag:

ANNAHME-Hybridisierung 1 *

Meine Formulierung würde dann lauten: „Menschliche und nichtmenschliche Akteure (hier Maschinen) können in einer Weise in der Umwelt vorkommen, dass es für die beteiligten Menschen in ihren mentalen/ kognitiven Bildern von der Welt immer schwerer wird, diese Akteure klar voneinander zu unterscheiden und zu trennen.

Zu beachten ist auch, dass die Autoren zu Beginn des Abschnitts von drei unterschiedlichen Komponenten sprechen (‚Webtechnologie‘ — mit dem Attribut ‚mobil‘ ergänzt –, ‚Bots‘ und ‚KI‘), die im Gefolge dann offensichtlich dem Ausdruck ‚Maschine‘ zugeschlagen werden. Der Ausdruck ‚Maschine‘ wurde aber bislang nicht wirklich definiert. Auch sei der Ausdruck ‚Hard- und Software‘ erinnert, der in Def. 2 von den Autoren benutzt wird. Nach den Kontexten gehört dieser auch in das Bedeutungsfeld ‚Maschine‘, so wie es die Autoren praktizieren. Halten wir an dieser Stelle fest:

Def. 5 Maschine (indirekt abgeleitet):

Für die Autoren repräsentieren die Ausdrücke ‚Hard- und Software‘, ‚Webtechnologie (mit Aspekten der ‚Mobilität‘), ‚lernende Bots‘ und ‚KI‘ Aspekte des Bedeutungsfelds ‚Maschine‘, wie es im Kontext der Begriffe ’soziotechnisches System‘ bzw. ‚Soziale Maschine‘ implizit angenommen wird.

In der ‚realen Welt‘ beschreiben die aufgelisteten Ausdrücke (‚Hard- und Software‘, ‚Webtechnologie (mit Aspekten der ‚Mobilität‘), ‚lernende Bots‘ und ‚KI‘ ) ganz unterschiedliche Sachverhalte, deren Verhältnis zueinander keinesfalls trivial ist. Dies sei hier ganz kurz angedeutet:

Webtechnologie, Mobil, Hard- und Software

Der Begriff ‚Webtechnologie‚ ist in sich eher unklar, was mit dem unklaren Begriff ‚Web‚ zusammenhängt. Die englische Wikipedia listet mögliche Bedeutungsvarianten auf und verweist bei ‚web‘ auch auf das ‚World Wide Web [WWW]‘.[21] Die wichtige Botschaft ist [22], dass das WWW nicht das Internet ist, sondern das Internet als Basistechnologie voraussetzt. Das WWW selbst ist eine reine Softwareangelegenheit, wodurch es möglich ist, mittels eines speziellen Adresssystems (URLs) Signale zwischen diesen Adressen hin und her zu schicken. Die Art und Weise, wie dieser Signalaustausch formal stattfinden soll, regelt ein ‚Protokoll‘ (das ‚Hypertext Transfer Protocol‘ [HTTP]; mit zusätzlicher Sicherheit als HTTPS). Auf Seiten der Anwender benötigt man dazu eine Software, die ‚Browser‚ genannt wird, und innerhalb des Internets benötigt man einen Server, auf dem eine Software läuft, die ‚Webserver‚ genannt wird. Die ‚Mobilität‘ des WWW ist keine direkte Eigenschaft des WWW selbst sondern ergibt sich aus veränderten technischen Bedingungen des vorausgesetzten Internets: mobile Endgeräte, auf denen eine Browser Software installiert ist, erlauben eine Kommunikation innerhalb des WWWs.[23] Während das WWW eine reine Software ist, kann man fragen, was denn dann mit ‚Webtechnologie‘ gemeint sein soll? Wenn mit ‚Webtechnologie‘ auch ‚Software‘ gemeint ist, dann wäre der Begriff ‚Technologie‘ stark ausgeweitet. Das ‚Internet‘ — eine spezielle Kombination aus Hardware und Software — wird als ‚Netzwerk von Netzwerken‘ gesehen, innerhalb dessen ganz unterschiedliche Kommunikationsprotokolle am Werk sind, die ganz unterschiedliche Informationsquellen und Dienste ermöglichen. Das WWW ist eine Komponenten unter vielen.[24] Mit ‚Netzwerk‚ ist in diesem Kontext ein ‚Computernetzwerk‚ gemeint. Es besteht aus unterschiedlichen ‚Computern‚, die über geeignete ‚Verbindungen‘ und ‚Verbindungstechnologien‘ miteinander so verknüpft sind, dass Signalpakete entsprechend vereinbarten Protokollen hin und her gesendet werden können. Computer verstehen sich hier immer als Kombinationen aus Hard- und Software.[25] Als umfassender Begriff für die Vielfalt der Technologien und Anwendungen, die durch das ‚Internet‘ möglich sind, gibt es schon sehr früh — zumindest im Englischen Sprachraum — den Begriff ‚Cyberspace‚.[26]

Lernende Bots

Generell gibt es verschiedene Typen von bots. [27] Im allgemeinen ist ein bot im Internet eine Softwareanwendung, die automatisch bestimmte Aufgaben ausführt.[28] Wikipedia selbst benutzt z.B. über 2500 Wikipedia-typische Bots, um die mehr als 54 Mio. Wikipedia-Seiten zu verwalten.[29] Für die Interaktion mit Menschen gibt es u.a. den Typ des ‚Chatbots‘ [30]: die Software eines Chatbots versucht das Verhalten von Menschen anzunähern. Dies gelingt bislang aber nicht wirklich gut.[30] Ein spezielles, aber schon viele Jahre andauerndes Einsatzfeld von künstlicher Intelligenz Techniken sind Computerspiele, in denen ‚Nicht-Spieler Charaktere‘ (’non-player characters‘ [NPCs) das Spielgeschehen anreichern. Diese erledigen sehr vielfältige Aufgaben und sind keineswegs mit einem ‚menschenähnlichen‘ Spielcharakter zu vergleichen.[31] Insgesamt ist der Begriff ‚lernend‘ im Kontext von ‚Bots‘ generell sehr unscharf: einmal, weil der Ausdruck ‚bot‘ nicht einheitlich definiert ist, und zum anderen, weil der Begriff ‚lernend‘ im Kontext von ‚Künstlicher Intelligenz [KI]‘ bzw. ‚Maschinellem Lernen [ML]‘ keinesfalls klar ist. Das Feld ist zu uneinheitlich. [32]

KI (Künstliche Intelligenz)

Der Ausdruck ‚KI‘ — Abkürzung für ‚Künstliche Intelligenz‘ (heute oft auch einschränkend ‚ML‘ für maschinelles Lernen) — bezeichnet ein Teilgebiet der Informatik, das bislang keine klare Definition bietet, da schon der Begriff der ‚Intelligenz‘ selbst nicht klar definiert ist.[32], [33] Aufgrund der Unklarheit im Zusammenhang mit dem Begriff der ‚Intelligenz‘ bei biologischen Systemen — obgleich es hier einige Definitionen gibt, die für eingeschränkte Bereiche sehr brauchbar sind — versucht die Englischsprachige Informatik das Problem dadurch zu lösen, dass sie den Begriff AI nur für den Bereich nicht-biologischer Systeme — hier speziell für programmierbare Maschinen — definieren will. Programmierbare Maschinen mit KI können sowohl ihre Umwelt partiell wahrnehmen als auch dann — meist unter Zuhilfenahme systeminterner Zustände — wieder auf die Umwelt reagieren. Zusätzlich wird für solche Systeme mit künstlicher Intelligenz postuliert, dass sie ‚Zielen (‚goals‘) folgen können.[34]

Diese scheinbare Erleichterung, sich vom ursprünglichen Phänomenfeld der Intelligenz bei biologischen Systemen abzukoppeln, weil eine befriedigende Definition von Intelligenz hier schwierig ist, hat aber tatsächlich zu keiner befriedigenden Situation geführt. Sowohl der Intelligenzbegriff eingeschränkt auf programmierbare Maschinen ist heute nicht wirklich klar, noch ist es bislang möglich, zwischen dem Verhalten biologischer und nicht-biologischer Systeme dadurch eine brauchbare Verhältnisbestimmung aufzubauen. Dies führt dann z.T. zu der bizarren Situation, dass spezielle Leistungen von programmierbaren Maschinen für Bereich X, wo Maschinen dem Menschen überlegen sind, als generelle Aussage über das Verhältnis von Maschinen und Menschen benutzt werden, ohne dass man jene Bereiche, in denen biologische Systeme den programmierbaren Maschinen haushoch überlegen sind, überhaupt noch thematisiert. Es ist dem ai100-Report zu verdanken, dass er neu darauf aufmerksam macht, dass es durch diese asymmetrische Diskussion bislang unmöglich ist, genauer zu bestimmen, wie maschinelle Intelligenz der menschlichen Intelligenz konstruktiv unterstützen könnte.[32]

FORTSETZUNG folgt…

ANMERKUNGEN

Hinweis: Wenn in den Anmerkungen Quellen aus dem Internet angegeben werden, dann ergibt sich die Zeit des letzten Aufrufs aus dem Datum der Abfassung dieses Beitrags, die im Kopf des Artikels angegeben ist.

[1] Dazu gibt es einige Beiträge in diesem Philosophie-Jetzt- Blog, und in zwei anderen Blogs uffmm.org mit dem Schwerpunkt ‚Theorie‘ und dem Blog oksimo.org mit dem Schwerpunkt ‚Anwendungen‘.

[2] Claude Draude · Christian Gruhl · Gerrit Hornung · Jonathan Kropf · Jörn Lamla · JanMarco Leimeister · Bernhard Sick · Gerd Stumme , 2021, „Social Machines„, Informatik Spektrum, https://doi.org/10.1007/s00287-021-01421-4, Springer

[3] Social Machine, Wikipedia [EN]: https://en.wikipedia.org/wiki/Social_machine

[4] Berners-Lee, Tim; J. Hendler (2009). „From the Semantic Web to social machines: A research challenge for AI on the World WideWeb“ (PDF). Artificial Intelligence. 174 (2): 156–161. doi:10.1016/j.artint.2009.11.010.

[5] Markus Luczak-Roesch, Ramine Tinati, Kieron O’Hara, Nigel Shadbol, (2015), Socio-technical Computation, CSCW’15 Companion, March 14–18, 2015, Vancouver, BC, Canada. ACM 978-1-4503-2946-0/15/03, http://dx.doi.org/10.1145/2685553.2698991

[6] Luczak-Roesch, M.; Tinati, R.; Shadbolt, N. (2015). When Resources Collide: Towards a Theory of Coincidence in Information Spaces (PDF). WWW 2015 Companion. ACM. pp. 1137–1142. doi:10.1145/2740908.2743973. ISBN9781450334730. S2CID17495801.

[7] Cristianini, Nello; Scantamburlo, Teresa; Ladyman, James (4 October 2021). „The social turn of artificial intelligence“ (PDF). AI & Society: 0. doi:10.1007/s00146-021-01289-8.

[8] Der Begriff ‚machine‘ (Maschine) in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Machine

[9] Der Begriff ‚actor‘ in der Wikipedia [EN] für die Rolle des Schauspielers: https://en.wikipedia.org/wiki/Actor

[10] Der Begriff ‚UML (Unified Modeling Language)‘ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Unified_Modeling_Language

[11] Der Begrifff ‚actor‘ in der Wikipedia [EN] im Rahmen des technischen Standards UML: https://en.wikipedia.org/wiki/Actor_(UML)

[12] Nicht alle Maschinen sind programmierbar, können aber meistens — im Prinzip — nach Bedarf mit programmierbaren Maschinen erweitert werden.

[13] Der Begriff ‚algorithm‘ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Algorithm

[14] Wenn man den Begriff ‚Interaktion‘ auf solche Situationen beschränken würde, in denen ein Homo sapiens Akteur mit einem anderen Akteur (biologisch oder nicht-biologisch) handelt, dann würde es auch Handlungen geben, die keine typische Interaktion mit anderen Akteuren repräsentieren, z.B. wenn ich einen Kaffee oder Tee oder … trinke, oder ich esse einen Apfel, ich fahre mit dem Fahrrad, ….

[15] Der Begriff ‚process‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Process

[16] Der Begriff ‚activities‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Action_(philosophy)

[17] Im Systems Engineering wird dieser Sachverhalt als ’semantic gap‘ bezeichnet, siehe z.B.: Doeben-Henisch, G., Wagner, M. [2007] Validation within Safety Critical Systems Engineering from a Computation Semiotics Point of View, Proceedings of the IEEE Africon2007 Conference, ISBN 0-7803-8606-X, Paper-ID 701

[18] Der Begriff ‚structure‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Structure

[19] Der Ausdruck ‚Verschmelzung‚ in der Wikipedia [DE]: https://de.wikipedia.org/wiki/Verschmelzung_(Grammatik)

[20] Der Ausdruck ‚Fusion‚ in der Wikipedia [DE]: https://de.wikipedia.org/wiki/Fusion

[21] Der Ausdruck ‚web‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Web

[22] Der Ausdruck ‚World Wide Web‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/World_Wide_Web

[23] Der Ausdruck ‚mobile‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Mobile

[24] Der Ausdruck ‚Internet‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Internet

[25] Der Ausdruck ‚Computer network‘ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Computer_network

[26] Der Ausdruck ‚cyberspace‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Cyberspace

[27] Der Ausdruck ‚bot‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Bot

[28] Der Ausdruck ‚Internet bot‘ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Internet_bot

[29] Der Ausdruck ‚bots‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Wikipedia:Bots

[30] Der Ausdruck ‚chatbot‚ in der Wikipedia [EN] : https://en.wikipedia.org/wiki/Chatbot

[31] Der Ausdruck ‚Artificial intelligence in video games‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Artificial_intelligence_in_video_games

[32] Michael L. Littman, Ifeoma Ajunwa, Guy Berger, Craig Boutilier, Morgan Currie, Finale Doshi-Velez, Gillian Hadfield, Michael C. Horowitz, Charles Isbell, Hiroaki Kitano, Karen Levy, Terah Lyons, Melanie Mitchell, Julie Shah, Steven Sloman, Shannon Vallor, and Toby Walsh. “Gathering Strength, Gathering Storms: The One Hundred Year Study on Artificial Intelligence (AI100) 2021 Study Panel Report.” Stanford University, Stanford, CA, September
2021. Doc: http://ai100.stanford.edu/2021-report. Report: https://ai100.stanford.edu/sites/g/files/sbiybj18871/files/media/file/AI100Report_MT_10.pdf

[33] Der Ausdruck ‚KI (Künstliche Intelligenz)‚ — auch ‚ML (Maschinelles Lernen)‘ in der Wikipedia [DE] : https://de.wikipedia.org/wiki/K%C3%BCnstliche_Intelligenz

[34] Der Ausdruck ‚Artificial intelligence [AI]‘ in der Wikipedia [EN] : https://en.wikipedia.org/wiki/Artificial_intelligence

Some Soundexperiment from the past …

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

Sag niemals Nie … Rückkehr

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 13.November 2021
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

KONTEXT

Im Beitrag vom 3.Juli 2021 hatte ich bekannt gegeben, dass ich ‚ausgewandert‘ bin — nicht ‚physisch‘, sondern ‚mental‘. Das klingt dort sehr ‚abschließend‘. Nun muss ich feststellen, dass ich wieder ‚zurück bin‘. Wie soll man dies verstehen?

GEGENWART UND ZUKUNFT

Nun ist es so — was in diesem Blog mehrfach reflektiert worden ist –, dass wir in der aktuellen Gegenwart von der möglichen Zukunft (eigentlich ein Plural: Zukünfte!) radikal nichts wissen. Wir leben von Fragmenten aus der Vergangenheit und einigen Fragmenten aus der Gegenwart und basteln und daraus mehr oder weniger gute Vermutungen, was als nächstes kommen wird. [1]

So hatte ich am 23.Juni 2021 gewisse (begründete) Vermutungen, wie sich das oksimo Projekt weiter entwickeln wird und welche Art von Ideen/ Texten dazu hilfreich sein werden. Die Art des philosophischen Denkens, wie sie in diesem Blog praktiziert worden ist, hielt ich mit Erreichen des oksimo Projektes für ‚erledigt‘.

Nach nunmehr 5 Monaten verstärkt sich der Eindruck, dass dieser Schluss mit der ‚Erledigung‘ zu voreilig war. Warum?

OKSIMO UND DIE PHILOSOPHIE

Richtig ist, dass das oksimo Projekt eine eigene Dynamik entwickelt hat, die sich kontinuierlich weiter verstärkt. Und, ja, richtig ist auch, dass die philosophischen Überlegungen aus diesem ‚Philosophie Jetzt‘ Blog vielfach die Grundlagen für das oksimo Paradigma bilden (zusätzlich verstärkt durch den eher technischen uffmm.org Blog). Was ich aber offensichtlich unterschätzt habe, das ist das ‚Eigengewicht‘ der philosophischen Dimension und die unaufhebbare Wechselbeziehung zwischen ’speziellem Denken‘ (wie im oksimo Paradigma) und der allgegenwärtigen philosophischen Dimension, die jedes menschliches Denken wie so eine Art ‚kognitives Hintergrundrauschen‘ begleitet. Niemand ist gezwungen, das kognitive Hintergrundrauschen des philosophischen Denkens zu ‚aktivieren‘, aber überall dort, wo es interessant wird, muss man es eigentlich tun, da man sonst das Interessanteste am Gegenstand nicht in den Blick bekommt.

Was ist dieses ‚Interessante‘ im Kontext des oksimo Paradigma, was nur die Philosophie ’sehen‘ kann?

NACHHALTIGE ENTWICKLUNG, KOLLEKTIVE INTELLGENZ, und OKSIMO

Im oksimo Paradigma vereint sich eine theoretische Perspektive mit einem praktischen Werkzeug. Die theoretische Perspektive verhandelt die Frage, wie sich beliebige Menschen unter ausschließlicher Benutzung ihrer Alltagssprache über beliebige Fragestellungen unter ausdrücklicher Berücksichtigung des prozesshaften Charakters von Wirklichkeit so verständigen können, dass sie gemeinsam Wege aus dem Jetzt in das Morgen beschreiben, simulieren und spielen können. Natürlich unter Einbeziehung aller verfügbaren Formen von sogenannter ‚Künstlicher Intelligenz [KI]‘ (oder schwächer: ‚Maschinellem Lernen [ML]‘). Die praktische Perspektive beschreibt und entwickelt eine konkrete Software, die Menschen dabei unterstützt, genau dies tun zu können.

Bei dieser Art der Aufgabenstellung ist eine starke Komponente die Sicht der Ingenieure und Informatiker. Aber, wie man ahnen kann, diese nicht ganz einfache Aufgabenstellung impliziert so viele tiefgreifende Annahmen zum Menschen, zu Sprache, zu Kognition, zu Kultur — um nur einige Aspekte zu nennen –, dass das kognitive Hintergrundrauschen des philosophischen Denkens schwerlich zu ‚überhören‘ ist.

Es kam also, wie es kommen musste: im Laufe der Ausarbeitung schrammte das Projekt immer mehr an grundlegenden philosophischen Überlegungen vorbei, knallte geradezu in voller Fahrt auf diese, bis ich schließlich — jetzt — feststelle, dass die ‚mentale Auswanderung‘ wohl zu ‚verfrüht‘ war, falls überhaupt machbar. Eigentlich ‚un-machbar‘: man kann sein eigenes Denken — falls man überhaupt denken will –, nicht einfach so ‚abschalten‘.

Erschwerend — oder besser: verstärkend — kommt hinzu, dass die Gespräche im ‚Umfeld des oksimo Projektes‘ immer mehr Fragen aufwerfen, was es denn genau ist, dieses oksimo Projekt? Wie soll man es in die vielen heute gängigen Kontexte (Digitalisierung, KI, Smart xyz, Demokratie, Bürgerbeteiligung, Klimakatastrophe, Nachhaltigkeit, Gamification, Lernen, Forschen, Kommunalplanung, …) einordnen?

Aus diesen vielfältigen Aspekten kondensierten sich in der letzten Zeit dann besonders folgende Perspektiven heraus: einmal (i) die Perspektive der nachhaltigen Entwicklung, wie sie die Vereinten Nationen seit dem Brundtland Report von 1987 über zahlreiche Konferenzen vorangetrieben hat. Dann (ii) die Perspektive der Intelligenz, und zwar als Kollektive Intelligenz [KI+], wie sie die Lebensform des homo sapiens seit ca. 300.000 Jahren immer eindrucksvoller demonstriert. Und schließlich auch (iii) die Perspektive der Digitalisierung, die hier als Teil der Kulturentwicklung gesehen wird, diese wiederum als Teil der biologischen Evolution. Die Digitalisierung enthält eigene Formen von Intelligenz, die meistens als ‚Künstliche Intelligenz [KI]‘ oder ‚Maschinelles Lernen [ML]‘ bezeichnet wird.

Unter Voraussetzung dieser drei Themen ergibt sich weiterführend (iv) die Frage, ob und wie die kollektive Intelligenz eine gewünschte nachhaltige Entwicklung unterstützen kann. Weiterhin (v) stellt sich die Frage, welche Rolle die Digitalisierung als Ganze — besonders fokussiert im Konzept des Cyberspace — und die Maschinelle Intelligenz im Besonderen für die kollektive Intelligenz spielen kann: wird die Kollektive Intelligenz überflüssig — die Vision von den intelligenten Maschinen, die alles ‚übernehmen‘ — oder gewinnt die Kollektive Intelligenz durch neue Formen der Unterstützung durch die maschinelle Intelligenz eine ’neue Kraft‘ als hybride ‚kollektive Mensch:Maschine Intelligenz [KM:MI‘?[2]

Diese fünf Fragen verlangen ein Überschreiten des üblichen innerdisziplinären Diskurses; es ist mehr als ‚bloßes interdisziplinäres‘ Arbeiten. Es geht in Richtung von ‚transdisziplinärer‚ Arbeit. Der Versuch, den Terminus ‚transdisziplinär‘ zu charakterisieren, führt aber unweigerlich in einen ‚Meta-Diskurs‘ ‚über‚ gegebene Disziplinen, der mindestens in den Bereich der Wissenschaftsphilosophie führt, letztlich aber im vollen philosophischen Diskurs landet. Und das erklärt, warum die ‚Rückkehr‘ stattfindet: im Ernst-Nehmen des oksimo Paradigmas führen wichtige Fragen zum Projekt über die transdisziplinären Aspekte zur Wissenschaftsphilosophie, zur Philosophie zurück, und die Zielsetzung des ‚Philosophie Jetzt Blogs‘ [3] trifft damit auf eine neue, interessante Charakterisierung: Der Mensch als ‚kollektives Wesen‘ im Kontext einer dynamischen Entwicklung, versucht sich mittels neuen Technologien zu verstärken, um ein Überleben in einer unbekannten Zukunft zu sichern; vermutlich nicht der homo sapiens alleine sondern zusammen mit großen Teilen der Biosphäre, ohne die der homo sapiens nicht lebensfähig ist.

ANMERKUNGEN

[1] Alles, was in meinem Leben bislang ‚wichtig‘ gworden ist, von dem habe ich vorher nicht einmal gewusst, dass es existiert …

[2] Oder auch ‚Collective Man:Machine Intelligence [CM:MI]‘

[3] „Auf der Suche nach dem neuen Menschenbild“

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design. MMI Analyse. Teil 3

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 22.Februar 2021
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

(Letzte Änderung: 25.März 2021)

KONTEXT

In diesem Beitrag soll das Konzept einer praktischen kollektiven Mensch-Maschine Intelligenz by design weiter entwickelt werden. Der unmittelbar vorhergehende Beitrag findet sich hier. In diesem Text geht es jetzt darum, das Anwendungsszenario explorative Entwicklung unter Einbeziehung einer kontinuierlichen Simulation [ESBD] zu beschreiben.

Bisher zum Thema veröffentlicht:

INFOGRAFIK

Hier wird als Standard das Interaktions-Paradigma N:1 vorausgesetzt:N viele Teilnehmer treffen sich in einem Online Meeting und benutzen gemeinsam eine interaktive Webseite der oksimo-Software auf oksimo.com. Für die weiteren Aktivitäten siehe den Text.

ESBD: ÜBERBLICK

Die explorative simulations-basierte Entwicklung geht davon aus, dass eine Gruppe von Experten sich auf eine Ausgangslage S und auf eine Vision V geeinigt haben. Beide zusammen, also S und V, werden als Aufgabe (S,V) begriffen. Gesucht wird nach einer Menge von Veränderungsregeln X, deren Anwendung eine Folge von Zuständen/ Situationen <S.0, S.1, …, S.n> erzeugt, die letztlich einen Weg bilden, der von S nach V führt. In dieser Folge von Zuständen gilt, dass ein beliebiger Nachfolgezustand S.i aus einem vorhergehenden Zustand S.i-1 dadurch entstanden ist, dass mindestens eine Veränderungsregel X.i aus X auf den vorhergehenden Zustand S.i-1 angewendet worden ist, was dann zur Entstehung von S.i geführt hat. Die Anwendung von Veränderungsregeln X auf einen gegebenen Zustand S können entweder von den Experten selbst ‚per Hand‘ (‚manuell‘) ausgeführt werden oder automatisch durch den eingebauten Simulator ∑. Die Anwendung des Simulators auf die Aufgabe (S,V) mittels der Regeln X wird geschrieben: ∑(S,V,X) = SQ(S,V,X,∑) = <S.0, S.1, …, S.n>. Neben der Folge der Zustände zeigt der Simulator zu jeder neuen Nachfolgesituation auch an, wie viel % der Ausdrücke aus der Vision schon im aktuellen Zustand S.i enthalten sind. Falls verfügbar, kann man zusätzlich zum Simulator noch die algorithmische Intelligenz ⊪ aktivieren, um die wichtigsten guten Lösungen anzuzeigen.

AUSGANGSLAGE S

Die Ausgangslage S wird gebildet durch eine Menge von Ausdrücken E einer Alltagssprache L (z.B. Deutsch, Englisch, Spanisch, …). Ein einzelner Ausdruck E.i hat als solcher keine Bedeutung. Es wird aber vorausgesetzt, das derjenige, der diesen Ausdruck E.i eingibt, aufgrund seines Sprachverständnisses mit diesem Ausdruck E.i eine Bedeutungsvorstellung B(E.i) verknüpft, von der angenommen werden kann, dass diese sich auf eine beobachtbare Eigenschaft B(E.i)* in einer Alltagssituation S* beziehen lässt oder aber sich in andere Ausdrücke E‘ übersetzen lässt, von denen dies gilt. Die Menge der Ausdrücke E in der Zustandsbeschreibung/ Situationsbeschreibung S korrespondiert danach einer Menge von beobachtbaren Eigenschaften in einer Alltagssituation S* zu einem gewählten Zeitpunkt TS, also S*(TS). Unter Voraussetzung dieses Bezuges zu einer Alltagssituation S* kann gesagt werden, dass die Menge der Ausdrücke E in der Beschreibung S = {E.1, E.2, …, , E.n} als empirisch zutreffend zum Zeitpunkt T angenommen werden; eine andere Formulierung wäre, dass diese Ausdrücke von S als wahr bezeichnet werden. Sobald die Menge der Ausdrücke einer Situation S sich zur Situation S‘ ändert, weil mindestens ein Ausdruck in S‘ anders ist als in S (z.B. die Zeitmarke T‘), wird angenommen werden, dass sich auch die korrespondierende Alltagssituation geändert hat.

Im Rahmen einer Aufgabenstellung (S,V) soll die Ausgangslage S eine reale Situation in einem Alltag beschreiben, die alle Beteiligten als real gegeben annehmen. Die Ausgangslage S kann, aber muss nicht, auch explizit solche Eigenschaften E* enthalten, die die Beteiligten als Verbesserungswürdig klassifizieren. In welchem Sinne diese verbesserungswürdigen Zustände E* mit Blick auf eine Zukunft verbessert werden sollen, wird in einem separaten Visionstext V beschrieben.

Ein Startzustand S kann beliebig erweitert werden. Es kann auch parallel verschiedene Startzustände {STs.1, …, STs.n} geben, die thematisch unterschiedliche Aspekte beleuchten oder verschiedenen Raumgebiete betreffen. Verschiedene Startzustände können nach Bedarf ‚per Knopfdruck‘ zu einem einzigen Zustand S zusammen gefasst werden.

VISION V

Ohne die Angabe eines Zustands SF für einen Zeitpunkt TF > TS, der größer ist als der Startzeitpunkt TS, gibt es in der möglichen Entwicklung des Startzustands S keine Entwicklung in eine bestimmte Richtung. Da dieser Zustand SF in der Zukunft liegt, nicht gegenwärtig ist, haben die Bedeutungen B(SF) der Ausdrücke im Zustand SF keine externe, beobachtbare Entsprechung im Alltag. Deshalb wird diese für die Zukunft angenommene Situation SF auch Vision genannt. Allerdings wird unterstellt, dass die Ausdrücke E von SF in der Zukunft ab einem Zeitpunkt TF zutreffen werden, d.h. ab diesem Zeitpunkt wahr sein werden. Es ist dabei nicht ausgeschlossen, dass dieser Fall schon vor dem angezielten Zeitpunkt TF stattfinden kann. Ebenso kann er sich verzögern.

Auch für den Visionstext gilt — wie im Falle des Startzustands S –, dass er beliebig erweitert werden kann oder dass es parallel verschiedene Visionstexte gibt, die nach Bedarf ‚per Knopfdruck‘ zu einem vereinigt werden.

Je mehr Ausdrücke der Visionstext V umfasst, um so differenzierter kann man die Zielsituation beschreiben.

KONSTRUIEREN DER VERÄNDERUNGSREGELN X

Im Kontext einer Folge von beschreibbaren Situationen kann man die Veränderungen in der Form von Veränderungs-Regeln fassen: Man sagt: wenn die Bedingung C in einer aktuellen Situation S erfüllt ist, dann sollen mit der Wahrscheinlichkeit π die Aussagen Eplus der Situation S hinzugefügt werden, um die Nachfolgesituation S‘ zu generieren, und die Aussagen Eminus sollen von S weggenommen werden, um die Nachfolgesituation S‘ zu generieren.

Man kann für jede Ausgangslage S beliebig viele Veränderungsregeln X erstellen. Insofern gilt XS = {XS.1, …, XS.n}. Ist eine bestimmte Situation S.i im Verlauf gegeben, dann kann es mehr als eine Veränderungsregel geben, die aus X zutrifft, also XS.i ⊆ X. In diesem Fall werden alle diese Regel XS.i auf S.i angewendet XS.i(S.i) = S.i+1. Die Reihenfolge der Regeln aus XS.i wird für die Anwendung auf S.i jeweils per Zufall bestimmt.

TESTEN DER VERÄNDERUNGSREGELN X

Da sich die möglichen Auswirkungen der Regeln in ihrer Anwendung auf einen gegeben Zustand S mit zunehmender Zahl und wachsender Komplexität von S (und auch V) immer schwerer ‚im Kopf‘ vorstellen lassen, kann man sich vom eingebauten Simulator ∑ anzeigen lassen, welche Folge von Situationen <S.1, S.2, …> entsteht und wie weit diese schon die angezielte Vision V enthalten.

Durch diese Möglichkeit der jederzeit möglichen Simulation hat die Konstruktion eines Weges von S nach V mittels Veränderungsregeln X einen spielerischen Charakter.

UNTERSTÜTZUNG DURCH ALGORITHMISCHE INTELLIGENZ α

Liegt eine Aufgabe (S,V) vor zusammen mit einer Menge von Veränderungsregeln X dann kann der eingebaute Simulator ∑ daraus eine Sequenz der Art ∑(S,V,X) = SQ.i = <S.1, S.2, …, S.n> erzeugen, wobei jede einzelne Situation S.i in dieser Folge mit einer Bewertung indiziert ist. Der Simulator ∑ funktioniert in diesem Zusammenhang wie eine logische Folgerungsbeziehung ⊢, geschrieben: S,V,X ⊢ SQ.i.

Im allgemeinen Fall kann man mehr als eine Sequenz SQ.i mit Hilfe von ⊢ aus {S,V,X} ableiten. Schreibt man sich einen Algorithmus α der alle möglichen Ableitungen durchführt, die z.B. einen bestimmten minimalen Bewertungsindex haben und die z.B. die kürzesten Sequenzen sind, dann entsteht eine Menge SQ+, die alle diese Sequenzen enthält. Dieser Algorithmus α funktioniert dann auch wie eine Ableitung; diese Form der Ableitung nennen wir hier algorithmische Intelligenz und schreiben ihre Anwendung: S,V,X ⊪α SQ+ [1]

Statt also alle möglichen Simulationen selbst durchführen zu müssen, können die Experten mit Hilfe der algorithmischen Intelligenz α mit Feinjustierung von Parametern gezielt nach der Menge der möglichen Ableitungen suchen, die diese Parameter erfüllen. Dies kann eine Menge Arbeit ersparen und vor allem, es kann helfen relativ schnell, ein tieferes Verständnis des Problemraumes zu bekommen.

QUELLENNACHWEISE und ANMERKUNGEN

[1] Im Englischen gibt es für den Begriff ‚Künstliche Intelligenz [KI]‘ (bzw. ‚Maschinelles Lernen [ML]‘) eine Vielzahl von Begriffen — z.B. ‚Artificial Intelligence [AI]‘, “Machine Learning [ML]‘, ‚Computational Intelligence [CI]‘ , ‚Algorithmic Intelligence [AI]‘, ‚Embodied Intelligence‘, …) — die alle mehr oder weniger nicht wirklich definiert sind. Zusätzlich verwirrend ist die Tatsache, dass wir Menschen den Begriff ‚Intelligenz‘ eigentlich nur aus dem Kontext menschlichen Verhaltens — mittlerweile auch ausgedehnt auf verschiedene Formen tierischen und pflanzlichen Verhaltens — kennen. Hier haben Biologie und Psychologie schon seit Jahrzehnten einigermaßen brauchbare Definitionen von ‚Intelligenz‘ bereit gestellt (die man kritisieren kann, aber sie sind immerhin da und sie funktionieren). Die Vielstimmigkeit der technischen Intelligenzbegriffe bietet dagegen eher eine Dissonanzwolke. Ein zusammenfassendes, alle Aspekte integrierendes Konzept von ‚Intelligenz‘ — auch in den Vergleichen — wäre für uns alle extrem hilfreich. In dieser Situation habe ich mich für den Begriff ‚Algorithmische Intelligenz‘ entschieden, da er der Tatsache Rechnung trägt, dass der Kern aller technischen Intelligenzleistungen in der Software (= Computerprogramm, Algorithmus) lokalisiert ist. Ob man nun einen bestimmten Algorithmus als ‚Intelligent‘ oder ’nicht intelligent‘ bezeichnen will, hängt dann davon ab, welche verhaltensrelevanten Eigenschaften man mit diesem Algorithmus in Zusammenhang bringen kann. Am Beispiel des oksimo-Paradigmas lässt sich sehr genau ein sogenannter Problemraum definieren, der ‚by design‘ als Abfallprodukt menschlichen Verhaltens entsteht, und in diesem Problemraum gibt es Suchprozesse und Bewertungsprozesse, die zusammen die Identifizierung eines — von Menschen definierten — interessanten Teilraumes ermöglichen. Dieser Prozess von Suchen + Bewerten + Auszeichnung einer Teilmenge wird hier mit dem Begriff der algorithmischen Intelligenz verknüpft. Ob und wie sich dieser Begriff von algorithmischer Intelligenz mit den Intelligenbzbegriffen der Biologen und Psychologen vergleichen lässt, soll demnächst diskutiert werden.

FORTFÜHRUNG DIESER GEDANKEN

(Letzte Änderung: 25.März 2021)

Die oben beschriebenen Gedanken finden eine Fortsetzung wie folgt:

  • Im eJournal uffmm.org einmal auf der Seite https://www.uffmm.org/2020/04/02/case-studies/ mit vier Beiträgen
  • im eJournal uffmm.org in der neuen Rubrik Philosophy of Science mit einer ganzen Folge von Beiträgen.
  • im neuen Anwendungsblog oksimo.org der oksimo Software.

Das Thema wird daher in diesem eJournal Philosophie Jetzt. Auf der Suche … nicht mehr weiter behandelt.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design. MMI Analyse. Teil 2

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 18.-19.Februar 2021
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Letzte Änderung: 19.2.2021, 9:52h

KONTEXT

In diesem Beitrag soll das Konzept einer praktischen kollektiven Mensch-Maschine Intelligenz by design weiter entwickelt werden. Der unmittelbar vorhergehende Beitrag findet sich hier. In diesem Text geht es jetzt darum, etwas konkreter zu skizzieren, wie die beiden wichtigsten Anwendungsszenarien aussehen könnten. Es wird unterschieden zwischen einer explorativen Entwicklung unter Einbeziehung einer kontinuierlichen Simulation [ESBD] und einem eingebetteten Testen (bzw. Spielen) unter Voraussetzung einer kontinuierlichen Simulation [ESBT/G].

Bisher zum Thema veröffentlicht:

16.02., 17:17 PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design. MMI Analyse. Teil 1

15.02., 09:21 PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design. Problem und Vision

12.02., 18:14 PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design

INFOGRAFIK

Infografik zum Text. Siehe dort.

ANWENDUNGSSZENARIEN

Während der vorausgehende Beitrag [1] die allgemeinen Anforderungen an die intendierte Anwendung formuliert hat, soll es in diesem Text darum gehen, die typischen intendierten Anwendungssituationen etwas konkreter zu formulieren. Tatsächlich lassen sich zwei grundlegende unterschiedliche Typen von Anwendungsszenarien unterscheiden.

Explorative Entwicklung

Charakteristisch für eine explorative Entwicklung (Explorative Simulation Based Development [ESBD]) ist die Ausgangslage, dass zwar eine Situation S gegeben ist, die aus verschiedenen Gründen als problematisch empfunden wird, und zugleich auch eine erste Vision V verfügbar ist, die von allen Beteiligten als erstrebenswert angesehen wird, dass aber noch unklar ist, wie man von S nach V kommen kann. Anfang und Ende erscheinen klar, aber der Weg zwischen beiden Punkten ist noch unbekannt.

Es liegt nahe eine solche Situation, in der S und V gegeben sind, als eine Aufgabe= (S,V) zu bezeichnen. Wenn man verschiedenen Teams die gleiche Aufgabe (S,V) stellt, dann kann man die Form der explorativen Entwicklung auch in Form eines Wettbewerbs stellen: welches Team löst die Aufgabe in einer vorgegebenen Zeit am Besten.

Im Fall einer Aufgabe (S,V) muss eine Gruppe von Experten also versuchen, gemeinsam einen Weg zu finden, der das Gewünschte leistet. Als Weg wird hier als eine Sequenz von Folgezuständen SQ(S,V) =<S1, S2, …, Sn-1, Sn> angenommen. Der Übergang von einem Zustand S zu einem Folgezustand S‘ wird durch Anwendung einer Veränderungsregel x aus der Menge der Veränderungsregeln X auf den gegebenen Zustand S hergestellt (Details siehe vorausgehenden Beitrag [1]). Die Ausführung einer Anwendung von X auf einen Zustand S wird von einem Simulator [SIM,Σ] geleistet, geschrieben: Σ(S,X)=S‘ oder ΣX(S)=S‘ oder noch kürzer X(S)=S‘. Der Entwicklungsprozess besteht nun darin, dass alle Experten versuchen, nach und nach so viele Veränderungsregeln X zu finden, dass sich eine überzeugende Sequenz SQ(S,V) von S nach V herstellen lässt. Als Unterstützung bei dieser Entwicklung können die Experten auch den eingebauten Simulator [SIM, Σ] benutzen. Mit diesem lässt sich jederzeit anzeigen, (i) welche Wirkungen die bisherigen Regeln X bei einem gewählten Ausgangszustand S haben und (ii) ob und in welchem Ausmaß die gewählte Vision V schon erreicht wird.

PROBLEMRAUM

Die Elemente <S, V, X, Σ> bilden die Basis eines möglichen Problemraumes (Problem Space Basis [PSB]). Gibt man eine bestimmte Ausgangslage S*, eine bestimmte Vision V* sowie eine bestimmte Menge X* von Veränderungsregeln vor, dann kann man mittels dem Simulator Σ die Menge aller möglichen Sequenzen SQ*(S*, V*, X*) berechnen und als echte Teilmenge davon die Menge aller erfolgreichen Sequenzen SQ+(S, V, X*) ⊆ SQ*.

Erweitert man die Basis eines Problemraum um die Vorgaben <S*, V*, X*> sowie <SQ*, SQ+> dann bekommt man die Struktur eines normalen endlichen Problemraums PS= <S*, V*, X*, SQ*, SQ+, Σ>.

Eingebettetes Testen/ Spielen

Liegt mindestens eine Instanz PS* eines Problemraums PS vor, dann kann man diese Instanz PS* eines Problemraums auch dazu benutzen, innerhalb dieses Problemraums die Wirkung dieser Problemraum-Instanz PS* auf potentielle Anwender zu testen. In diesem Fall arbeitet der Simulator Σ in einem interaktiven Modus: anstatt selbst die Anwendung der Veränderungsregeln X auf den gegebenen Zustand S auszurechnen werden alle Testpersonen/ Spieler aus einer Liste gefragt, welche der möglichen Regeln sie jetzt anwenden wollen, und — falls es verschiedene Varianten der Ausführung gibt -, wie. Auf diese Weise können die verschiedenen Testpersonen/ Spieler sozusagen ‚am eigenen Leibe‘ erfahren, wie die angedachte Zukunft (= Vision) sich konkret auf sie auswirkt und wie sie sich dabei fühlen. Aus den tatsächlichen Handlungsentscheidungen kann man auch ablesen, wie stark reale Anwender von dem angenommenen Verhalten abweichen.

Dieser Modus wird hier Eingebettetes Testen/ Spielen genannt (Embedded Simulation Based testing/ Gaming [ESBT/G].

In einer anschließenden Auswertung kann diese Selbsterfahrung der Tester/ Spieler auch dazu führen, dass sie einige der bisherigen Regeln durch eine veränderte Version ersetzen wollen.

KI ERWEITERUNG(EN)

Das, was heute gerne als Künstliche Intelligenz [KI] bezeichnet wird ist ein Computerprogramm — ein Algorithmus, d.h. eine Liste von Befehlen für einen definierten Automaten — das als Referenzsystem einen normalen Problemraum PS besitzt. Dieser Algorithmus kann mit den gegebenen Mengen S*, V* und X* selbständig den Simulator laufen lassen und systematisch Ausprobieren (= Suchen), welche Sequenzen SQ möglich sind (Elemente von SQ*), und welche von den möglichen Sequenzen SQ* solche sind, in denen eine bestimmte Vision V zu 100% erfüllt wird (=Lernen); dies liefert die Menge SQ+. Anstatt dass also menschliche Anwender mühevoll einzelne Simulationen durchprobieren, kann man — falls ein Problemraum PS vorgegeben wird! — einen lernfähigen Algorithmus damit beschäftigen, diese explorative Suche unter Einbeziehung eines definierten Lernens (= Evaluation mit Hilfe von Bewertungen, hier mittels V*) quasi nebenbei vorzunehmen. Zusätzlich könnte man die Erfolgskriterien beliebig verfeinern z.B. in dem Sinne, welche Simulations-Sequenz SQ.i die wenigstens Ressourcen benötigt oder am wenigsten kostet oder den meisten Spaß macht usw.

Wie gesagt, der Einsatz einer zusätzlichen KI macht nur Sinn, wenn menschliche Entwickler einen normalen Problemraum als Ausgangspunkt vorgeben.

Im Fall des eingebetteten Testens/ Spielens könnte man neben den menschlichen Testern/ Spielern auch künstliche Tester/ Spieler einsetzen. In diesem Fall ohne oder mit einer Lernkomponente. Eine mit-spielende KI könnte dann auch versuchen, das Verhalten der menschlichen Mitspieler zu erfassen und zu modellieren. Dies kann konstruktiv dazu genutzt werden, um künstliche Tutoren oder künstliche Assistenten auszubilden. Im Gegensatz zu den anonymisierten KIs auf den globalen Plattformen, die für irgendwelche unbekannten Dritten Daten sammeln, kann man diese KIs lokalisieren und privatisieren. Jemand kann seine eigene KI vereinbaren, die nur einer einzelnen Person gehört und nur mit dieser einen Person lernt.

ROADMAP

Überblick zum Entwicklungszusammenhang und den sich daraus ergebenden Anwendungsszenarien und eine Abfolge in der Realisierung, die der inneren Logik der Elemente folgt.

Im oberen Teil der Grafik wird der allgemeine theoretische Rahmen thematisiert, in dem sich die ganze Entwicklung bewegt. Hervorgehoben ist der Bereich der Mensch-Maschine Analyse [MMI]. Dieser Bereich wird dann — siehe den Gesamttext auf dieser Seite — weiter analysiert und führt zu folgenden grundsätzlichen Anwendungsaspekten:

  1. Die explorative Simulations-basierte Entwicklung [ESBD]
  2. Darauf aufbauend dann das eingebettete Simulations-basierte Testen oder Spielen [ESBT/G]
  3. Darauf aufbauend dann eine eingebettete starke KI für den Bereich ESBD
  4. Darauf aufbauend dann eine eingebettete starke KI für den Bereich ESBT/G
  5. Man kann dann diese beiden Anwendungskontexte für KI noch weiter spezifizieren zu (i) einer radikal personalisierten, vollständig privaten KI für jeden einzelnen, der dies will und (ii) zu einem individuellen Tutor/ Trainer für den Kontext ESBT/G

Jeder dieser Anwendungskontexte korreliert mit einem Meilenstein. Angedacht sind die ersten drei Meilensteine für 12.April 2021, 1.Oktober 2021 und 12.April 2022.

Parallel zu diesen genannten Anwendungskontexten gibt es noch eine andere Anwendungsdimension, die sich auf verschiedene Typen von Interaktionen mit dem Gesamtsystem beziehen:

  1. TYP1, n-1: Im Rahmen einer online-Sitzung mit n-vielen Teilnehmern wird gemeinsam 1 interaktive Webseite benutzt, über die mit dem Programm interagiert wird.
  2. TYP2, n-n-1: Jeder der n-vielen Teilnehmer logged sich einzeln auf der oksimo.com Webseite ein (also n-viele separate Teilnehmer), aber alle n-viele Teilnehmer treffen sich auf der oksimo Plattform in 1 Anwendung und können dort kollaborieren.
  3. TYP3, n-n-n: N-viele Teilnehmer können sich separat einloggen und sie können sowohl simultan in einer Anwendung arbeiten oder jeder an einer anderen.

Jede dieser Anwendungstypen 1-3 korreliert auch mit einem Meilenstein, wobei diese Meilensteinen unabhängig von den anderen sind. Typ1,n-1 ist der Standardfall. Wann Typ2+3 realisiert werden können, ist momentan noch offen.

QUELLENANGABEN und ANMERKUNGEN

[1] Gerd Doeben-Henisch, 16.2.2021, PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design. MMI Analyse. Teil 1, https://www.cognitiveagent.org/2021/02/16/praktische-kollektive-mensch-maschine-intelligenz-by-design-mmi-analyse-teil-1/

FORTSETZUNG

Eine Fortsetzung zu diesem Beitrag findet sich hier.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design. MMI Analyse. Teil 1

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 16.Februar 2021
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Letzte Änerung: 26.2.2021 (Anmerkung zum Begriff ‚Alltagssprache‘ ergänzt)

KONTEXT

In diesem Beitrag soll das Konzept einer praktischen kollektiven Mensch-Maschine Intelligenz by design weiter entwickelt werden. Im unmittelbar vorher gehenden Beitrag wurde die grundlegende Problemstellung sowie die gewählte (Zukunfts-)Vision in einer ersten Annäherung umrissen. In diesem Text geht es jetzt darum, etwas konkreter zu skizzieren, wie diese (Zukunfts-)Vision aussehen könnte bzw. sollte.

Bisher zum Thema veröffentlicht:

MMI ANALYSE – AUSGANGSPUNKT

Der Ausgangspunkt der MMI-Analyse ist gegeben durch die ersten Angaben zur Zukunfts-Vision (Siehe Schlussabschnitt in [1]). Diese Vision umschreibt mit wenigen Worten, welcher Zustand in der Zukunft angezielt wird. Die Vision selbst sagt nichts zur Begründung, nichts zu den Motiven; diese werden vorausgesetzt. Die Vision beschreibt nur, was sein soll.

Beliebige Menschen spielen Zukunft

Zentraler Gedanke ist, dass eine beliebige Gruppe von Menschen auf eine eher spielerische Weise dabei unterstützt werden soll, für eine selbst gewählte Problemstellung und ein selbst gewähltes Ziel schrittweise einen Lösungsweg zu konstruieren.

Ein Drehbuch schreiben

Diese Konstruktion eines Lösungsweges ist vergleichbar mit dem Schreiben eines Drehbuchs in einer Alltagssprache, die alle Beteiligten hinreichend beherrschen.[2] Dies setzt voraus, dass der Prozess der Wirklichkeit — vereinfachend — gedacht wird als eine Folge von Situationen (oder auch Zuständen), in der eine Nachfolgesituation S‘ aus einer vorausgehenden Situation S durch das Stattfinden von mindestens einer beobachtbaren Veränderung hervorgegangen ist. Im Grenzfall ist es nur die Veränderung einer Uhr, deren Zeitanzeigen in der Nachfolgesituation S‘ ‚größer‘ sind als in der Situation S.[3] Im Kontext einer Folge von beschreibbaren Situationen kann man die Veränderungen in der Form von Veränderungs-Regeln fassen: Man sagt: wenn die Bedingung C in einer aktuellen Situation S erfüllt ist, dann sollen mit der Wahrscheinlichkeit π die Aussagen Eplus der Situation S hinzugefügt werden, um die Nachfolgesituation S‘ zu generieren, und die Aussagen Eminus sollen von S weggenommen werden, um die Nachfolgesituation S‘ zu generieren.

Bezug zu einer Situation

Diese Redeweise setzt voraus, dass davon ausgegangen wird, dass der Text des Drehbuchs sich auf eine reale Situation S bezieht, und die einzelnen Ausdrücke des Textes Eigenschaften der realen Situation beschreiben. Die Menge der Ausdrücke in einem Drehbuch, die sich auf eine bestimmte Situation S beziehen, bilden also Repräsentanten von realen Eigenschaften der vorausgesetzten realen Situation. Verändert sich die vorausgesetzte Situation in ihren beobachtbaren Eigenschaften, dann drückt sich dies darin aus, dass sich auch die Ausdrücke im Drehbuch verändern müssen: kommen neue Eigenschaften hinzu, müssen neue Ausdrücke hinzu kommen. Verschwinden Eigenschaften, dann müssen die entsprechenden Ausdrücke verschwinden. Wechselt also z.B. die Verkehrsampel von Rot auf Orange, dann muss z.B. der Ausdruck ‚Die Ampel ist rot‘ ersetzt werden durch die Aussage ‚Die Ampel ist orange‘. Dann wäre die Menge Eminus = {Die Ampel ist rot}, und die Menge Eplus = {Die Ampel ist orange}.

Das Drehbuch hat zwei Teile …

Das Drehbuch für die gemeinsame spielerische Planung einer gewünschten Zukunft besteht also mindestens aus zwei Teilen:

  1. Einer Ausgangssituation S, von der aus man starten will, und
  2. einer Menge von Veränderungsregeln X, die sagen, wann man eine gegebene Situation in welcher Weise abändern darf.

Vergleich mit einem Spiel

Diese Konstellation kann man ohne weiteres mit einem Spiel vergleichen:

  1. Es gibt die Startsituation (z.B. ein bestimmtes Spielbrett oder eine Spielfeld mit Spielobjekten und Spielern)
  2. Es gibt vereinbarte Spielregeln, anhand deren man in einer gegebenen Situation etwas tun darf.

Regeln jederzeit abändern

In dem hier angenommenen Szenario eines Drehbuchs für die gemeinsame spielerische Planung einer gewünschten Zukunft gibt es allerdings zwei Besonderheiten: Die eine besteht darin, dass die Ausgangslage und die Spielregeln von den Spielern selbst aufgestellt werden und jederzeit nach Absprache geändert werden können.

Leitbild Zukunft als Maßstab

Die andere Besonderheit resultiert aus der Tatsache, dass die Teilnehmer hier zu Beginn auch explizit ein Leitbild für die Zukunft formulieren. Dieses kann zwar auch jederzeit nach Absprache wieder abgeändert werden, so lange es aber gilt, dient dieses Leitbild als Maßstab für die Beurteilung, ob und in welchem Umfang der Prozess der fortschreitenden Veränderung ( = der Spielprozess!) das zuvor vereinbarte Leitbild erreicht hat.

In gewisser Weise entspricht die Bewertung einer Situation anhand eines vereinbarten Leitbildes dem Konzept des ‚Gewinnens‘ in normalen Spielen: beim Gewinnen wird in einem Spiel ein Zustand erreicht, der sich anhand zuvor vereinbarter Kriterien als ‚Gewinnsituation‚ für mindestens einen beteiligten Spieler klassifizieren lässt. Man sagt dann, dass dieser Spieler ‚gewonnen‘ hat.

Bei der Verwendung des Konzepts einer Zukunftsvision als Leitbild kann man das Leitbild dazu benutzen, um eine beliebige Situation dahingehend zu klassifizieren, ob und wenn ja in welchem Umfang diese Situation dem Leitbild ‚entspricht‘. Explizite Zukunftsbilder ermöglichen also die ‚Bewertung‘ einer Situation. Ohne solch eine Möglichkeit wäre jede Situation gleichwertig mit jeder anderen Situation. Es wäre dann nicht möglich, eine ‚Richtung‘ für einen Prozess zu definieren.

ALLTAGSSPRACHE

Diejenige Sprache, die jeder Mensch von Kindheit an lernt und benutzt, das ist die Alltagssprache, also die Sprache, die jeder in seinem Alltag spricht und die — normalerweise — auch von den Mitmenschen benutzt wird. [5a] Durch das Voranschreiten einer Globalisierung und der damit einhergehenden Vermischung von Alltagswelten, vermengen sich verschiedene Sprachen, was bei einzelnen zur Mehrsprachigkeit führt, auf der anderen Seite zur Zunahme von Übersetzungen. Übersetzungen durch Menschen können vergleichsweise ‚gut‘ sein (wer kann dies eigentlich überprüfen?), die heute zunehmenden Angebote von computerbasierten Übersetzungen sind aber dennoch auf dem Vormarsch, weil man ihren Einsatz sehr leicht ’skalieren‘ kann: ein Programm kann viele Millionen Menschen gleichzeitig ‚bedienen‘, dazu eher ‚einheitlich‘, und solch ein maschinelles Übersetzungsprogramm kann — wie salopp gesagt wird — ‚lernen‘.[4] Die Gesamtheit dieser maschinellen Verfahren hat aber dennoch keinen Zugang zu den eigentlichen Bedeutungsfunktionen von Alltagssprache, die in den Gehirnen der Sprecher-Hörer verortet sind. [5]

Aufgrund dieser Sachlage soll das neue Verfahren die Vorteile und Nachteile der verschiedenen Möglichkeiten auf neue Weise optimal verknüpfen. Primär soll der Anwender seine Alltagssprache — und zwar jede — voll benutzen können.

Zur Alltagssprache gehören mehrere ‚Mechanismen‘ [6], die es zulassen, dass man sie beliebig erweitern kann, und auch, dass man in der Alltagssprache über die Alltagssprache sprechen kann.[7] Diese Eigenschaften machen die Alltagssprache zu den stärksten Ausdruckssystemen, die wir kennen.[8]

Zu den möglichen — und vorgesehenen — Erweiterungen der Alltagssprache gehören z.B. beliebige Parametermengen mit zugehörigen Operationen auf diesen Parametern. Ein ‚Parameter‘ wird hier verstanden als ein Name, dem irgendein Wert (z.B. ein numerischer Wert) zugeordnet sein kann (z.B. eine Einwohnerzahl, ein finanzieller Betrag, ein Temperaturwert …). Parameter mit numerischen Werten kann man z.B. Addieren, Subtrahieren, Multiplizieren usw.

Zum Sprechen über andere Ausdrücke gehört die Möglichkeit, dass man beliebige Abstraktionen bilden kann. Schon wenn wir über sogenannte normale Gegenstände sprechen wie ‚Stuhl‘, ‚Tasse‘, ‚Tisch‘, ‚Hund‘ usw. benutzen wir sprachliche Ausdrücke, die nicht für ein einzelnes Objekt stehen, sondern für ganze Mengen von konkreten Dingen, die wir alle gelernt haben, als ‚Stuhl‘, ‚Tasse‘, ‚Tisch‘, ‚Hund‘ usw. zu bezeichnen. Auf einem Tisch können bei mehreren Personen beim Frühstück ganz viele Gegenstände stehen, die wir alle als ‚Tasse‘ bezeichnen würden, obwohl sie sich u.a. durch Form, Farbe und Material unterscheiden.[9]

SIMULATION

Normale Formen von Drehbüchern bestimmen das Geschehen auf der Bühne oder in einem Film. Auf der Bühne beginnt man mit einer Eingangsszene, in der unterschiedliche Akteure in einer bestimmten Umgebung (Situation) anfangen, zu handeln, und durch das Handeln werden Veränderungen bewirkt: in den Akteuren (meist nicht so fort direkt sichtbar, aber dann in den Reaktionen), in der räumlichen Anordnung der Dinge, in der Beleuchtung, in Begleitgeräuschen, … Im Film ist es die Abfolge der Bilder und deren Füllungen.

Im Fall von Brettspielen fangen die beteiligten Spieler an, mit Blick auf erlaubte Regeln, den aktuellen Spielstand und die möglichen Gewinnsituationen in der Zukunft zu handeln. Dieses Handeln bewirkt eine schrittweise Änderung der jeweils aktuellen Spielsituation.

In abgewandelter Form passiert in einem Krimi oder in einem Roman nichts anderes: literarisch begabte Menschen benutzen das Mittel der Alltagssprache um Situationen zu beschreiben, die sich schrittweise durch Ereignisse oder das Verhalten von Menschen ändern. Noch eine Variante stellt die Gattung Hörspiel dar: statt eine Geschichte zu lesen hört man beim Hörspiel zu und lässt sich mit hinein nehmen in ein Geschehen, das sich von Situation zu Situation fortbewegt und den Hörer — wenn er sich angesprochen fühlt — geradezu mitreißen kann.

In der vorliegenden Anwendung gibt es alle Zutaten — Gegenwart, Zukunft, mögliche Maßnahmen –, aber wie kommt es hier zu einer Abfolge von Situationen?

Im einfachsten Fall setzten sich die Autoren der Texte zusammen und prüfen durch eigene Lektüre der Texte und Regeln, welche der Regeln aktuell angewendet werden könnten und sie wenden die Regeln an. Auch so würde eine Folge von Texten entstehen, wobei jeder Text eine Situation beschreibt. Erst die Start-Situation, dann die Anwendung von passenden Regeln, die zu einer Veränderung des Textes führt und damit zu einer neuen Situation.

Wir wissen von uns Menschen, dass wir dies im Alltag können (z.B. jeder Heimwerker — oder auch Hobby-Bastler — benutzt eine Bauanleitung, um aus den Einzelteilen des Bausatzes schrittweise ein komplexes Gebilde zusammen zu bauen). Wenn die Texte umfangreicher werden und wenn die Zahl der Regeln deutlich zunimmt, dann kommt man mit dieser händischen (manuellen) Methode bald an praktische Grenzen. In diesem Moment wäre es sehr schön, man könnte sich helfen lassen.

Viele Menschen benutzen heutzutage zum Schreiben von Texten, zum Rechnen, zum Malen, zum Komponieren, den Computer, obwohl es ja eigentlich auch ohne den Computer gehen würde. Aber mit einem Rechenblatt viele Rechnungen miteinander zu verknüpfen und dann ausrechnen zu lassen ist einfach bequemer und — in den komplexen Fällen — sogar die einzige Möglichkeit, die Arbeit überhaupt zu verrichten. Computer müssen nichts verstehen, um Zeichenketten bearbeiten zu können.

Diese formale Fähigkeit eines Computers soll für diese Anwendung genutzt werden: wenn ich die Text-Version einer Situation habe wie z.B. S1 = {Das Feuer ist fast erloschen.} und ich habe eine Veränderungsregel der Art: X1 = {Wenn C1 zutrifft dann füge Eplus1 dazu und nehme Eminus1 weg}, konkret C1 = {Das Feuer ist fast erloschen.}, Eplus1 = {Lege Holz nach.}, Eminus1 = {Leer}, dann ist es für einen Computer ein leichtes festzustellen, dass die Bedingung C1 in der aktuellen Situation S1 erfüllt ist und dass daher die Aussage Lege Holz nach. hinzugefügt werden soll zu S1, was zur neuen Situation S2 führt: S2 = {Das Feuer ist fast erloschen. Lege Holz nach.} Wenn es jetzt noch die Regel geben würde X2 mit C2 = {Lege Holz nach.}, Eplus2 ={Das Feuer brennt.}, Eminus2={Das Feuer ist fast erloschen.}, dann könnte der Computer ‚ohne Nachzudenken‘ die nächste Situation S3 erzeugen mit S3 = {Das Feuer brennt.}

Dieses einfache Beispiel demonstriert das Prinzip einer Simulation: man hat eine Ausgangssituation S0, man hat eine Menge von Veränderungsregeln im oben angedeuteten Format X= Wenn C in S erfüllt ist, dann füge Epluszu S dazu und nimm Eminus von S weg, und man hat einen Akteur, der die Veränderungsregeln auf eine gegebene Situation anwenden kann. Und diese Anwendung von Regeln erfolgt so oft, bis entweder keine Regeln mehr anwendbar sind oder irgendein Stopp-Kriterium erfüllt wird.

Schreibt man für den Ausdruck Die Menge der Veränderungsregeln X wird auf eine Situation S angewendet, was zur Nachfolgesituation S‘ führt verkürzend als: X(S)=S‘, ergibt die wiederholte Anwendung von X eine Serie der Art: X(S)= S‘, X(S‘)= S“, …, X(Sn-1)= Sn. Dies bedeutet, dass die Folge der Text-Zustände <S‘, S“, …, Sn> einen Simulationsverlauf repräsentieren. Man kann dann sehr gut erkennen, was passiert, wenn man bestimmte Regeln immer wieder anwendet.

In der vorliegenden Anwendung sollen solche durch Computer unterstützte Simulationen möglich sein, tatsächlich sogar noch mit einigen weiteren Feinheiten, die später näher beschrieben werden.

SIMULATION MIT BEWERTUNG

Wie zuvor schon im Text beschrieben wurde, kann man eine gegebene Situation S immer dann klassifizieren als erfüllt Eigenschaft K, wenn man über geeignete Kriterien K verfügt. In der vorliegenden Anwendung kann der Anwender eine Vision formulieren, eine Beschreibung, welcher Zustand in der Zukunft eintreten sollte.

Im Rahmen der Simulation soll es daher möglich sein, dass nach jeder Anwendung von Veränderungsregeln X mitgeteilt wird, in welchem Ausmaß die vorgegebene Vision V im aktuellen Zustand S eines Simulationsverlaufs schon enthalten ist. Die Aussagekraft einer solchen Klassifikation, die eine Form von Bewertung darstellt, hängt direkt von der Differenziertheit der Vision ab: je umfangreicher und detaillierter der Text der Vision ist, um so konkreter und spezifischer kann die Bewertung vorgenommen werden.

LERNFÄHIGE ALGORITHMEN (KI)

So, wie im Fall der Simulation der Computer dem Menschen bei ausufernden manuellen Tätigkeiten helfen kann, diese zu übernehmen, so ergibt sich auch für die Frage der Auswertung eines Simulationsverlaufs sehr schnell die Frage: könnte man auch ganz andere Simulationsverläufe bekommen, und welche von den vielen anderen sind eigentlich im Sinne eines vorgegebenen Zielkriteriums besser?

Tatsächlich haben wir es mit dem Ensemble einer Anfangssituation, einer Zukunftsvision und einer Menge von Veränderungsregeln mit einem Problemraum zu tun, der sehr schnell sehr umfangreich sein kann. Eine einzelne Simulation liefert immer nur einen einzigen Simulationsverlauf. Tatsächlich lässt der Problemraum aber viele verschiedene Simulationsverläufe zu. In den meisten Fällen ist eine Erkundung des Problemraumes und das Auffinden von interessanten Simulationsverläufen von großem Interesse. Der Übergang von einem Suchprozess zu einem lernenden Prozess ist fließend.

In der vorliegenden Anwendung soll von der Möglichkeit einer computergestützten lernende Suche Gebrauch gemacht werden.

QUELLENANGABEN und ANMERKUNGEN

[1] Siehe dazu den Schluss des Textes von Gerd Doeben-Henisch, 15.2.2021, PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design. Problem und Vision, https://www.cognitiveagent.org/2021/02/15/praktische-kollektive-mensch-maschine-intelligenz-by-design-problem-und-vision/https://www.cognitiveagent.org/2021/02/15/praktische-kollektive-mensch-maschine-intelligenz-by-design-problem-und-vision/

[2] Denkbar ist natürlich, dass partiell mit Übersetzungen gearbeitet werden muss.

[3] Dieses Modell der Zerlegung der Wirklichkeit in Zeitscheiben entspricht der Arbeitsweise, wie das menschliche Gehirn die jeweils aktuellen sensorischen Signale für ein bestimmtes Zeitintervall ‚zwischen-puffert‘, um die Gesamtheit der Signale aus diesem Zeitintervall dann nach bestimmten Kriterien als eine Form von Gegenwart abzuspeichern und daraus dann Vergangenheit zu machen.

[4] Damit dies möglich ist, landen alle Texte auf einem zentralen Server, der mit statistischen Methoden ganze Texte nach Methoden des sogenannten ‚maschinellen Lernens‘ analysiert, statistische Verwendungskontexte von Ausdrücken erstellt, angereichert durch diverse sekundäre Zusatzinformationen.

[5] Was diese bedingt lernfähigen Algorithmen an Übersetzungsleistungen ermöglichen, ist sehr wohl erstaunlich, aber es ist prinzipiell begrenzt. Eine vertiefte Analyse dieser prinzipiellen Begrenzungen führt in die Entstehungszeit der modernen formalen Logik, der modernen Mathematik sowie in die theoretischen Grundlagen der Informatik, die letztlich ein Abfallprodukt der Meta-logischen Diskussion in der Zeit von ca. 1900 bis 1940 ist. Wenn also die angezielte Anwendung die volle Breite der Alltagssprache nutzen können soll, dann reicht es nicht, die prinzipiell Bedeutungsfernen Verfahren der Informatik wie bisher einzusetzen.

[5a] Das Phänomen ‚Alltagssprache‘ ist bei näherer Betrachtung äußerst komplex. In einem anderen Beitrag habe ich einige der grundlegenden Aspekte versucht, deutlich zu machen: Gerd Doeben-Henisch, 29.Januar 2021, SPRACHSPIEL und SPRACHLOGIK – Skizze. Teil 1, https://www.cognitiveagent.org/2021/01/29/sprachspiel-und-sprachlogik-skizze-teil-1/

[6] … von denen die formale Logik nicht einmal träumen kann.

[7] In der formalen Logik sind Spracherweiterungen im vollen Sinne nicht möglich, da jede echte Erweiterung das System ändern würde. Möglich sind nur definitorische Erweiterungen, die letztlich Abkürzungen für schon Vorhandenes darstellen. Das Sprechen in einer gegebenen Sprache L über Elemente der Sprache L — also meta-sprachliches Sprechen –, ist nicht erlaubt. Aufgrund dieser Einschränkung konnte Goedel seinen berühmten Beweis von der Unmöglichkeit führen, dass ein formales System sowohl Vollständig als auch Widerspruchsfrei ist. Dies ist der Preis, den formale Systeme dafür zahlen, dass ’nichts falsch machen können‘ (abgesehen davon, dass sie von sich aus sowieso über keine Bedeutungsdimension verfügen)).

[8] Während formale Systeme — und Computer, die nach diesen Prinzipien arbeiten — durch diese Elemente inkonsistent und un-berechenbar werden, kann das menschliche Gehirn damit fast mühelos umgehen!

[9] Unser Gehirn arbeitet schon immer mit beliebigen Abstraktionen auf beliebigen Ebenen.

FORTSETZUNG

Eine Fortsetzung findet sich HIER.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design. Problem und Vision

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 13.-15.Februar 2021
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Letzte Korrekturen: 16.Februar 2021, 14:40h

KONTEXT

In diesem Beitrag soll das Konzept einer praktischen kollektiven Mensch-Maschine Intelligenz by design, das im vorausgehenden Beitrag grob vorgestellt worden ist, weiter konkretisiert werden. In diesem Text geht es um eine erste Beschreibung der auslösenden Problemstellung und einem möglichen Zukunftskonzept.

Bisher zum Thema veröffentlicht:

PROBLEMSTELLUNG

Die Problemstellung, die hier beschrieben wird, wird so knapp wie möglich gehalten.

Eine ausführliche Beschreibung könnte sehr schnell viele hundert Seiten umfassen, da es bei dem Problem um nichts weniger als um uns selbst geht, um unsere Situation als Menschen in einem Alltag; hier primär um einen Alltag in der Bundesrepublik Deutschland. Doch da es um das generelle Problem geht, wie beliebige Menschen weltweit — wenn sie denn wollen — gemeinsam ihr Wissen, ihre Erfahrungen, ihre Motive so austauschen, dass dabei ihre Gegenwart mit identifizierten Problemen vorkommt, mögliche Zielvorstellungen, wie es denn besser sein könnte, mögliche Maßnahmen, wie man die Gegenwart schrittweise ändern könnte, geht es nicht nur um Deutschland, nicht nur um Europa, sondern um die ganze Menschheit. Auf diesem Planet Erde zu überleben ist schon jetzt nur noch möglich, wenn alles positiv-konstruktiv zusammenspielt; Nachhaltigkeit ist hier keine ‚Modewort‘ sondern knallharte Realität: entweder wir lösen das Problem gemeinsam oder wir werden gemeinsam untergehen.

Es macht daher Sinn, mit möglichst wenig, möglichst einfach, anzufangen, um die Problembeschreibung dann schrittweise auszuweiten.

DER MENSCH SELBST

Der primäre Ansatzpunkt der Problemstellung ist der Mensch selbst, Wir, die Lebensform des homo sapiens. Die biologische Evolution hat dem homo sapiens mindestens zwei Eigenschaften mitgegeben, die ihm eine besondere Rolle — und damit auch eine besondere Verantwortung ? — zukommen lässt (für weitere Erläuterungen zu den folgenden Gedanken siehe z.B. [1] und [2]):

Außen nach Innen

(i) Ein einzelner homo sapiens ist so gebaut, dass er automatisch die Realität der Außenwelt in die Realität seiner Gehirnzustände verwandelt, und innerhalb dieser realen Gehirnzustände real-virtuelle Signalzustände erzeugt, die speziell und partiell Eigenschaften der realen Welt außerhalb des Gehirns (einschließlich des Gehirns selbst) in real-virtuelle Zustände innerhalb des Gehirns verwandelt. Diese internen virtuellen Zustände sind partiell das, was wir subjektiv als Welt erleben (der größte Teil der neuronalen Zustände ist unbewusst). Zwischen der auslösenden realen Welt und der internen virtuellen Welt kann es große Unterschiede geben.

Ausdruckssysteme

(ii) Zusätzlich verfügt der homo sapiens über die Eigenschaft und Fähigkeit, auch intern, virtuell, ein eigenes Ausdruckssystem zu entwickeln, das über Lernprozesse mit sehr vielen (wie vielen?) Aspekten der internen virtuellen Welt verknüpft werden kann. Durch eine Übersetzung des internen Ausdruckssystem in äußerliche, reale Ereignisse (Laute, Gesten, Schriftzeichen,…) kann das eine Gehirn unter bestimmten Bedingungen mit einem anderen Gehirn eine Interaktion aufbauen, die zu einer Kommunikation führen kann: Laute erzeugt von einem Gehirn A können Bezug nehmen auf interne Zustände des Gehirns A und — unter speziellen Bedingungen — können diese Laute in einem anderen Gehirn B auf seine eigenen internen Zustände bezogen werden. Es fragt sich nur: auf welche? Die Koordinierung der Zuordnung in zwei verschiedenen Gehirnen ist eine spezifische Lernleistung und Teil einer Lebenswelt, einer Kultur. Erfahrungsgemäß ist eine Koordinierung am einfachsten und stabilsten, wenn verschiedene Gehirne sich auf ein Ereignis in der realen Außenwelt beziehen (‚es regnet‘), das bei allen Beteiligten interne Prozesse auslöst. Ähnlich gut, wenngleich nicht ganz so eindeutig, sind Ereignisse im realen Körper, sofern die Körper eine hinreichend ähnliche Struktur untereinander aufweisen (‚Ich sehe dort ein Licht‘, ‚Zahnschmerzen‘, ‚Ellbogen gestoßen‘, …). Schwieriger bis ganz schwierig wird es bei subjektiven Ereignissen und Prozessen wie verschiedene Emotionen, Gefühle, Stimmungen, Ängste, Überlegungen usw. Diese sind einem anderen Gehirn prinzipiell verschlossen, es sei denn …

Als einzige Lebensform auf dem Planet Erde — und vielleicht im gesamten bekannten Universum — verfügt die Lebensform des homo sapiens über diese einzigartige Fähigkeiten.[4] Die Geschichte des homo sapiens zeigt — soweit sie anhand von Artefakten rekonstruierbar ist –, dass der homo sapiens zu Kooperationsleistungen fähig war, die schrittweise zu hochkomplexen Siedlungsformen, Technologien, kulturellen Mustern und Wissensformen geführt haben, wie wir sie heute kennen.

ÜBER-INDIVIDUELLE KOMPLEXITÄT

Kooperation durch Kommunikation verweist aus sich heraus aber auch auf einen Umstand, der für die Lebensform des homo sapiens heute zu einem eigenen Problem geworden zu sein scheint. Kooperation kann reale und gedachte Zusammenhänge hervorbringen, die die Perspektive des einzelnen soweit übersteigen, dass der einzelne sich angesichts der gemeinsam hervorgebrachten Leistung nicht nur stolz über die gemeinsam erbrachte Leistung fühlen kann (‚Ja, zusammen können wir ganz viel.‘), sondern ihn auch überfordert. Ich habe diese Form der Überforderung früher als Negative Komplexität bezeichnet [5a,b]: Wenn die für eine bestimmte Lebensform typischen Signale seiner spezifischen Umwelt [6] zahlenmäßig die Verarbeitungskapazitäten des Gehirns wesentlich übersteigen, dann wird die Menge der Lebensform-typischen Informationen in einer Weise größer, dass diese überschießende Menge nicht mehr positiv zur Lebensführung beiträgt, sondern mehr und mehr unbewältigt ist und die Lebensführung dadurch stark negativ beeinflusst werden kann.

Viele einzelne Menschen können zusammen, im Verbund, Landwirtschaft betreiben, große Häuser bauen, Verkehrssystem ermöglichen, viele Hunderttausend Bücher schreiben, aber der einzelne versteht heute immer weniger von dem Zusammenhang, wie das Ganze genau funktioniert [7], und bei vielen Hunderttausend Büchern ist völlig klar, dass das kumulierte Wissen von einem einzelnen nicht mehr rezipiert werden kann. Durch Computer, Internet, und Datenbanken ist die Ereignismenge weiter angeschwollen und macht jeden Experten zu einem Dummkopf, der nichts mehr versteht, weil das individuelle Gehirn, diese Wunderwerk der Evolution, mit seinen endlichen Möglichkeiten, mit diesen Quantitäten einfach nicht mithalten kann.[3] Ein einzelnes menschliches Gehirn ist ein unfassbarer Hotspot von Freiheit und potentieller Zukunft, aber für eine Kommunikation und Koordination mit vielen Milliarden Menschen, in der es real um Verstehen geht, nicht einfach nur Dabei sein, ist es nicht geschaffen. Die hervorgebrachte Komplexität überfordert aktuell ihre Hervorbringer.

Diese Situation markiert den Kern des Problems, um das es hier gehen soll.

VISION: MÖGLICHE LÖSUNG?

Wenn man in der Gegenwart eine Konstellation von Sachverhalten erkennt, die man als ein Problem klassifiziert, dann ist dies natürlich abhängig vom Wissensstand des Sprechers/ Schreibers. Wissen ist notorisch unvollständig und kann mehr oder weniger falsch sein. Nichts desto Trotz: solange der Sprecher zu diesem Zeitpunkt kein anderes Wissen zur Verfügung hat, wird er — will er denn überhaupt handeln — dieses aktuelle Wissen zum Maßstab für sein Handeln nehmen müssen. Dieses Handeln kann in die Irre führen, es kann Schäden anrichten, aber für den Handelnden ist es vielleicht die einzige Chance, heraus zu finden, dass sein aktuelles Wissen nicht gut ist, dass es falsch ist. ‚Durch Fehler lernen‘ ist eine alte Alltagsweisheit.

Diese grundsätzliche Fehler-Behaftetheit eines aktuellen Wissens resultiert aus der Tatsache, dass uns die Zukunft grundsätzlich nicht bekannt ist.[8] Unser Körper mit seinem Gehirn transformiert zwar kontinuierlich — ohne dass wir dies explizit wollen — aktuelle Gegenwart in stark veränderte innere Zustände, die dann durch verschiedene Speichervorgänge das werden, was wir erinnerbare Gegenwart nennen, unsere Vergangenheit, aber die Zukunft im engeren Sinne, das, was im zeitlichen Anschluss an das Gegenwärtige die neue aktuelle Gegenwart sein wird, diese Zunft kennen wir nicht. Zukunft als solche kommt in unserem Erfahrungsbereich nirgendwo vor; sie ist kein Objekt der Wahrnehmung.

Klassifizieren wir also einige Sachverhalte der Gegenwart als ein Problem, und wir möchten dazu beitragen, dass dieses Problem mindestens abgeschwächt wird, vielleicht sogar ganz gelöst wird, dann müssen wir für uns irgendwie das Bild einer möglichen Zukunft entwickeln, in der die angedachte Lösung (= die Vision), kein bloßer Gedanke ist, sondern die neue Realität, die neue Gegenwart.

Damit stellt sich die grundsätzliche — letztlich philosophische — Frage, in welcher Form wir überhaupt über die Zukunft nachdenken können, wenn wir nur Fragmente einer Gegenwart und unterschiedlich neuronal abgewandelte Fragmente unserer Vergangenheit zur Verfügung haben? Was nützt es mir, zu wissen, dass es gestern in London geregnet hat, in Paris die Sonne schien, und es in Moskau kühl war? Was nützt es mir, zu wissen, dass im 20.Jahrhundert zwei große Kriege stattgefunden haben? Was nützt es mir, zu wissen, dass es in den vergangenen 5000 Jahren viele Großreiche gab, mit hochkomplexen Organisationsformen, die heute aber völlig verschwunden sind? Was nützt es mir, zu wissen, dass sich die heutigen biologischen Lebensformen im Rahmen dessen, was wir biologische Evolution nennen, im Laufe von 3.5 Milliarden Jahren schrittweise heraus gebildet haben? Was nützt es mir, zu wissen, dass das heute bekannte Universum vor ca. 13.7 Milliarden (10^9) entstanden ist? [9]

Von den modernen empirischen Wissenschaften (entwickelt seit ca. 400 Jahren, nimmt man Galilei Galileo als einen groben Bezugspunkt [13])) wissen wir, dass wissenschaftliche Erkenntnis im größeren Stil erst möglich wurde, nachdem man nicht nur das Konzept von standardisierten und reproduzierbaren Messverfahren entwickelt hatte, sondern man auch explizite begriffliche Zusammenhänge (=Theorien) formulieren konnte, so dass es möglich wurde, Beziehungen zwischen den einzelnen Messwerten zu beschreiben. Für sich alleine sind Messwerte (= empirische Daten) zwar individuell, punktuell bedeutungsvoll (‚Die Laborratte im Labyrinth X zum Zeitpunkt T gemessen mit Verfahren V öffnete die weiße Tür und nicht die schwarze.‘), aber man kann daraus zunächst nichts weiter ableiten. Wenn man aber weiß, dass die Forscher ein Verhaltensexperiment durchführen, bei dem eine Laborratte zwischen zwei Türen mit unterschiedlicher Farbe wählen kann und hinter der weißen Tür gelegentlich Futter zu finden ist, nicht aber hinter der schwarzen, und man dann feststellt, dass die Laborrate nach anfänglichem zufälligen Entscheiden ab dem ersten Fund von Futter hinter der weißen Tür die weiße Tür eindeutig bevorzugt, dann kann ein empirisches Datum im Kontext einer zeitlichen Folge von Daten im weiteren Kontext des Experiments von theoretischer Bedeutung sein: man kann einen Zusammenhang formulieren, der besagt, dass die Laborratte (meistens hat man mehrere), wenn sie sich in einer unübersichtlichen Umgebung bewegt, sich Wege in solch einer Umgebung so einprägen kann, dass sie bei Erfolg (Hunger und Futter) aufgrund der Gedächtnisleistung genau jenen Weg finden und wählen kann, der zum Futter geführt hat.(Das klassische Experiment dazu stammt von Tolman [11]).

Im Falle der empirischen Verhaltensforschung (siehe auch [12]) sind Aussagen über das Verhalten von Organismen natürlich in ihrem zeitlichen Horizont sehr begrenzt, da nicht nur die Lebensdauer eines biologischen Organismus sehr begrenzt ist, sondern auch, weil biologische Organismen grundlegend lernende Systeme sind, die ihr Verhalten z.T. dramatisch ändern können. Dennoch lassen sich mit verhaltensbasierten Theorien Voraussagen über ein mögliches Verhalten in der Zukunft ableiten, die begrenzt hilfreich sein können.

Im Falle von nicht-biologischen Systemen wie Planeten, Sonnensystemen, Galaxien usw. kann man aufgrund der Stabilität der Systeme eher belastbare Voraussagen in die Zukunft machen. So kann man mit den heutigen physikalischen Theorien z.B. die Voraussage ableiten, dass der Lebensraum Erde spätestens in 1.4 Milliarden Jahren aufgrund der Ausdehnung der Sonne für die heutigen biologischen Lebensformen unbewohnbar sein wird. Zusätzlich kann man ableiten, dass in spätestens 2.7 Milliarden Jahren von heute aus unsere Milchstraßen Galaxie mit der Andromeda Galaxie kollidieren wird.[10] Im ‚Nahbereich‘ der nächsten Jahrzehnte gibt es Hochrechnungen zur Entwicklung des Erdklimas und der damit zusammenhängenden Lebensbedingungen auf der Erde.

Das Verlassen einer als Problem klassifizierten Situation hin zu einer im Denken als möglich erscheinenden zukünftigen Situation, in der das Problem zumindest minimiert, wenn nicht gar aufgelöst, worden ist, kann nur erfolgen, wenn es (i) mindestens ansatzweise eine Vorstellung von solch einer zukünftigen Situation (= Vision) gibt, und (ii) man sich einen Weg vorstellen kann, wie man von der problematisierten Gegenwart zu einer gewünschten Zukunft als einer neuen Gegenwart kommen kann.

Ein Weg bedeutet hier eine Folge von einzelnen Situationen, in der jede Situation das Ergebnis von vorausgehenden Veränderungen ist. Änderungen werden durch Ereignisse hervorgebracht, die auf unterschiedliche Ursachen zurückgeführt werden können. Zum Teil liegen diese Ursachen in der Eigengesetzlichkeit der jeweiligen Umgebung, zum Teil aber auch im absichtlichen Verhalten von Akteuren, z.B. auch bei uns Menschen.

VISION

Die Herausforderung besteht also darin,

  1. eine Form zu finden,
  2. wie beliebige Menschen
  3. zu beliebigen Problemsituationen
  4. gemeinsam
  5. Wege konstruieren können, auf die man — so wird gehofft — in der Zukunft eine neue Gegenwart erreichen kann,
  6. in der das Problem zumindest minimiert ist.
  7. Für die notwendige Kommunikation zwischen den beteiligten Menschen sollte primär die Alltagssprache genügen,
  8. nach Bedarf erweiterbar um spezielle Ausdruckssysteme.
  9. Die gemeinsamen Denkversuche sollten ferner durch automatisierte Simulationen
  10. und Bewertungen unterstützt werden können.
  11. Sofern verfügbar, sollten auch lernfähige Algorithmen eingesetzt werden können.

QUELLENNACHWEISE

[1] Gerd Doeben-Henisch, 1.Februar 2021, REAL-VIRTUELL. Ein Einschub, https://www.cognitiveagent.org/2021/02/01/real-virtuell-ein-einschub/ (Dieser Text setzt viele andere Texte voraus)

[2] Gerd Doeben-Henisch, 3.Februar 2021, EINE KULTUR DES MINIMALEN IRRTUMS? Ergänzende Notiz, https://www.cognitiveagent.org/2021/02/03/eine-kultur-des-minimalen-irrtums-ergaenzende-notiz/ (Dieser Text setzt viele andere Texte voraus)

[3] Diese Problematik zeigt sich in vielen Bereichen, u.a. auch im wissenschaftlichen Publikationssystem selbst, etwa: Moshe Y.Vardi, Reboot the Computing-Research Publication System, Communications of the ACM, Januar 2021, Vol.64, Nr.1, S.7: https://cacm.acm.org/magazines/2021/1/249441-reboot-the-computing-research-publication-systems/fulltext

[4] In der biologischen Verhaltensforschung hat man mittlerweile bei sehr vielen Lebensformen verschieden vom homo sapiens aufzeigen können, dass diese auch über Ausdruckssysteme verfügen, die zur Kommunikation über Eigenschaften der Außenwelt wie auch über die partielle Eigenschaften der Innenwelt geeignet sind. Es scheint sich also bei der Fähigkeit der Kommunikation mittels eines Ausdruckssystems um eine graduelle Fähigkeit zu handeln: beim homo sapiens ist diese Eigenschaft bislang am stärksten ausgeprägt, aber es gibt ähnliche, wenngleich einfachere Formen, auch bei anderen Lebensformen. Sieh z.B. Stichwort ‚animal language‘ in Wikipedia [EN]: https://en.wikipedia.org/wiki/Animal_language

[5a] Döben-Henisch, G.[2006] Reinforcing the global heartbeat: Introducing the planet earth simulator project In M. Faßler & C. Terkowsky (Eds.), URBAND FICTIONS. Die Zukunft des Städtischen. München, Germany: Wilhelm Fink Verlag, 2006, pp.251-263

[5b] Doeben-Henisch, G.[2006] Reducing Negative Complexity by a Semiotic System In: Gudwin, R., & Queiroz, J., (Eds). Semiotics and Intelligent Systems Development. Hershey et al: Idea Group Publishing, 2006, pp.330-342

[6] Jakob von Uexküll, 1909, Umwelt und Innenwelt der Tiere. Berlin: J. Springer. (Download: https://ia802708.us.archive.org/13/items/umweltundinnenwe00uexk/umweltundinnenwe00uexk.pdf )(Zuletzt: 26.Jan 2021)

[7] Beispiel, eines von vielen: Ein älterer Ingenieur erzählte mir am Beispiel des Abwassersystems einer großen Deutschen Stadt, dass es kaum noch Experten gibt, die das ganze System kennen, und die wenigen, die es gibt, stehen vor dem Berufsende …

[8] Gerd Doeben-Henisch, 25.Januar 2021, Gedanken und Realität. Das Nichts konstruieren. Leben Schmecken. Notiz, https://www.cognitiveagent.org/2021/01/23/gedanken-und-realitaet-das-nichts-konstruieren-leben-schmecken-notiz/

[9] Stichwort ‚age of the universe‘ in der englischen Wikipedia: https://en.wikipedia.org/wiki/Age_of_the_universe

[10] Unter dem Stichwort ‚Formation and Evolution of the Solar System‘ findet sich in der Englischen Wikipedia ein Eintrag: https://en.wikipedia.org/wiki/Formation_and_evolution_of_the_Solar_System#Timeline_of_Solar_System_evolution

[11] Edward Tolman, 1948, COGNITIVE MAPS IN RATS AND MEN, The Psychological Review, 55(4), 189-208, online auch hier: http://psychclassics.yorku.ca/Tolman/Maps/maps

[12] Charles R. Gallistel.The Organization of Learning. MIT Press, 1990.

[13] Stichwort ‚Galileo Galilei‘ in der Englischen Wikipedia: https://en.wikipedia.org/wiki/Galileo_Galilei

FORTSETZUNG

Eine Fortsetzung gibt es HIER.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 11.-12.Februar 2021
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Letzte Änderung: 23.Februar 2021: (i) Querverweis zu meiner philosophischen Position vom 8.Dezember 2008! (ii) Querverweis zum Aspekt der kognitiv verschränkten Personen, die sich im Alltag in verteilten Einzelaktionen manifestieren.

KONTEXT

In diesem Beitrag soll das Konzept einer praktischen kollektiven Mensch-Maschine Intelligenz by design an einem konkreten Beispiel durchgespielt werden. Als Rahmen wird das vorausgesetzt, was in dem vorausgehenden Beitrag INGENIEURE UND DAS GLÜCK. Anmerkung 1 [1] vorgestellt wurde.

RAHMENANNAHMEN – FRAMEWORK

Grafische Darstellung zum angenommenen begrifflichen Rahmen aus dem vorausgehenden Artikel [1]

Im vorausgehenden Beitrag wurde der Gesamtrahmen wie folgt kurz charakterisiert:

Zum Konzept einer integrierten Theorie des Engineerings [2] gehören die folgenden (stark vereinfachten) Wissensdimensionen:

  1. Ein wissenschaftsphilosophischer Rahmen, der die Einbettung der Engineering-Prozesse in die Alltagswelt, in die Gesellschaft, in die umgebende Realität ermöglicht.[1b]
  2. Der Engineering-Prozess selbst, in dem Ingenieure und Manager als Experten einen Prozess starten, organisieren und zu einer nachhaltigen Lösung führen.
  3. Innerhalb des Engineering Prozesses nimmt die Analyse der Mensch-Maschine Interaktion [MMI] (Engl. oft auch Human-Machine Interaction [HMI]) eine fundamentale Rolle ein: hier wird analysiert welche Problem unter Berücksichtigung welcher Kontexte (Rahmenbedingungen, Ziele,…) so umgesetzt werden sollen, dass die intendierten Anwender die neue Lösung optimal nutzen können. Im vorliegenden Fall soll es möglich gemacht werden, dass beliebige Anwender beliebige Problemstellung mit Alltagssprache kommunizieren, modellieren und simulieren können einschließlich diverser Bewertungsverfahren (Ein Teil der Bewertungsverfahren können intelligente Algorithmen (volkstümlich: Künstliche Intelligenz [KI]) beinhalten).[1c]
  4. Im logischen Design, das auf der MMI-Analyse aufbaut, wird im Rahmen einer abstrakten mathematischen Struktur festgelegt, wie die gewünschten Systemleistungen organisiert werden sollen. Die mathematische Struktur muss so sein, dass sie sich formal in eine Menge von Algorithmen abbilden lässt, die sich mit einer verfügbaren Programmiersprache implementieren lassen.
  5. In der Implementierung wird dann die logische Analyse in ein konkretes funktionierendes technisches System umgesetzt. Im konkreten Fall handelt es sich um eine bestimmte Software, die auf Servern läuft, die als Knoten im Internet funktionieren. Der Anwender kann mit dieser Software über interaktive Internetseiten kooperieren.

Im folgenden Text wird der Aspekt der Mensch-Maschine Analyse näher betrachtet.

FOKUS AUF die Analyse der MENSCH-MASCHINE INTERAKTION

Teilaspekt: Analyse der Mensch-Maschine Interaktion [MMI] innerhalb des Gesamtrahmens

Ich hatte einige Jahre eine Vorlesung zu diesem Thema und hatte anlässlich dieser Vorlesung den Versuch unternommen, aktuelle Konzepte der Mensch-Maschine Interaktion [MMI] im Kontext des Systems Engineering [SE] und unter dem Blickwinkel einer formalen Theorie zu rekonstruieren.[3] Zumindest die Grundlinien dieses Konzeptes sind erkennbar.

WELCHE EXPERTEN?

Durch die Erweiterung des Kontextes über das klassische Engineering hinaus hinein in beliebige gesellschaftliche Kontexte mit beliebigen potentiellen Anwendern — also auch Bürger, Büroangestellte, Lokalpolitiker, Jugendliche, Schüler … — und durch Verschiebung des Hauptprozesses weg von ausgewählten Experten hin zum allgemeinen Expertentum, ergab sich eine Form von Generalisierung, innerhalb deren das klassische Systems Engineering nur noch ein Spezialfall ist. Aus den verteilten Akteuren im klassischen Systems Engineering wird jetzt die Population der allgemeinen Experten [PAE], die sich zu jeder Zeit an jedem Ort aus beliebigen Menschen rekrutieren können. Dies versucht der Tatsache Rechnung zu tragen, dass für die Zukunft entscheidend ist, dass wir über eine hinreichend große Vielfalt verfügen, wobei wir selbst nur sehr bedingt fähig sind, in der Gegenwart zu entscheiden, wer jetzt der richtige Experte ist. Am Beispiel der Kommunen ist ganz klar, dass die wenigen Bürger, die als Kommunalpolitiker gewählt werden, in keinster Weise repräsentative sind für das Wissen, die Erfahrungen, die Intelligenz, die Visionen, die sich in einer Kommune in der Gesamtheit der Bürger verkörpern. Diese Diskrepanz ist gravierend. Sie nicht zu überbrücken wäre in höchstem Maße fahrlässig für die Gestaltung unserer Zukunft.

PRAKTISCHE KOLLEKTIVE INTELLIGENZ?

In einer ersten Annäherung — und zugleich Vereinfachung — könnte man die Gesamtheit des Wissens und der Erfahrung, die sich in den Bürgern einer Kommune vorfindet, Kollektive Intelligenz nennen [4]. Hier geht es — wie jeder aus seiner Erfahrung von Kommunen selbst ergänzen kann — aber nicht nur um das Wissen, das Kognitive im engeren Sinne, sondern um solches Wissen, das in Form von Erfahrungen auch handlungsfähig ist, das sich im Handeln herausbildet, das verflochten ist mit einem ganzen Netzwerk von emotionalen Faktoren, Motiven und Werten. Ein solches Wissen im erweiterten Sinne nenne ich hier Praktisches Kollektives Wissen [PKW].

Vor 100 oder mehr Jahren wäre damit alles gesagt. Im Zeitalter der Digitalisierung reicht dies aber nicht mehr.

MENSCH-MASCHINE SYMBIOSE

Mit der zunehmenden Durchdringung unseres Alltags mit Computern, also mit programmierbaren Maschinen, die ansatzweise die biologische Intelligenz nachbilden können, stellen wir fest, dass wir Menschen im Alltag, in unserem menschlichen Handlungsraum, zunehmend mit solchen Computern interagieren. Das Innere dieser Computer ist den meisten weitgehend unbekannt, selbst ihre Oberfläche (das System Interface, die Systemschnittstelle) lässt sich immer öfter nicht mehr direkt erkennen, da die Computer über Sensoren und Aktoren direkt oder vermittelt über andere Objekte und Geräte in unserem Alltag mit uns interagieren. Und hinter dieser kaum wahrnehmbaren Oberfläche tauschen diese Computer mit anderen Computern immer größere Datenmengen aus, die wir als Menschen gar nicht mitbekommen.

Aus Sicht der Mensch-Maschine Interaktion kann und muss man die Frager stellen, welche Rolle wir auf lange Sicht dem Computer einerseits und dem Menschen andererseits zuordnen wollen. Grundsätzlich kann man drei typische Rollen unterscheiden:

  1. Den Computer so weiter entwickeln, dass er letztlich in allen Belangen den Menschen übertrifft und letztlich den Menschen nicht mehr braucht. Kennwort: Super-Human Computing.
  2. Den Computer so unvollständig und dumm lassen, dass er den Menschen grundsätzlich nicht gefährden und beeinträchtigen kann. Kennwort: Inferior-Human Computing.
  3. Den Computer maximal entwickeln, aber in Sandbox-Artigen Problemräumen. Kennwort: Man-Machine Computing.

Die Variante Inferior-Human Computing ist eigentlich schon aus dem Rennen, da der Computer in Teilbereichen den Menschen schon jetzt haushoch übertrifft. Und in dieser Rolle hat der Computer schon jetzt massive Auswirkungen z.B. auf Arbeitsprozesse, Geschäftsmodelle, ganze Marktmodelle, auf die Kriegsführung, auf die gesamte Technologiebranche, auf die Forschung, selbst auf die Kunst und die gesamte Unterhaltungsindustrie. Was wir hier haben ist schon eine Art von mindestens partiellem Super-Human Computing. Dass die Vielzahl der Beispiele in diesem Bereich die Fantasie anregen, ist verständlich.

Beispiele für Super-Computing innerhalb eines Problemraumes, der als Sandbox dient, wobei der Problemraum ausschließlich von Menschen konstituiert wird, sind bislang nicht wirklich bekannt. In einer solchen Umgebung — wie sie die oksimo Software ermöglicht — können Menschen die ganze Fülle ihres Wissens gemeinsam und strukturiert als Problemraum einbringen, der beständig abgeändert und kumulativ — Prinzip Wikipedia — erweitert werden kann. Relativ dazu kann man beliebig viele intelligente Programme zum Einsatz bringen, die diesen Problemraum erkunden, erforschen, erlernen und seine formalen Möglichkeiten entsprechend den verfügbaren Bewertungsprofilen auswerten und selbständig optimieren. In diesem Kontext könnten die programmierbaren Maschinen sogar die Bewertungskriterien fallweise abändern, um weitere alternative Lösungen sichtbar zu machen. Während die Menschen in dieser Konstellation die volle Breite ihres Wissens samt Bewertungsstrukturen für sich selbst und füreinander sichtbar machen können, können die lernfähigen Programme aus den für Menschen schwer erfassbaren kombinatorischen Räumen jene Teilbereiche identifizieren, die im Lichte von bestimmten Kriterien besonders günstig erscheinen. In einem solchen Sandbox-Vermittelten Miteinander können die Menschen ihr Optimum ausleben und dazu programmierbare Maschinen benutzen, die ihrerseits ihr Optimum bis an die Grenzen der Berechenbarkeit ausdehnen. In dieser Mensch-Maschine Symbiose eines Man-Machine Computing könnten die beteiligten Computer beliebig gut werden ohne dem Menschen schaden zu können (in der Regel ist nicht die Maschine sondern der Mensch sich selbst nicht nur der potentiell größte Freund, sondern auch der potentiell größte Feind; Freiheit ist eben real …).

DESIGN EINER KOLLEKTIVEN ZUKUNFTSMASCHINE

Schaubild mit Aktualisierung des Bereichs für die Analyse der Mensch-Maschine Interaktion.

Wie eingangs angedeutet, geht es im Rahmen der Analyse der Mensch-Maschine Interaktion darum, unter Vorlage einer groben Problemstellung [P] mitsamt einer groben Vision [V] (idealerweise in einem Problem-Visions-Dokument festgehalten) im einzelnen zu klären, wie dieses Aufgabenstellung so umgesetzt werden kann, dass die Auftraggeber zufrieden sind.

Im Normalfall sind die Auftraggeber und die späteren Anwender unterschiedliche Akteure. Im konstitutiven Fall werden Anwender zu ihren eigenen Auftraggebern, um etwas zu finden, was dazu beiträgt, ihre aktuelle Situation zu verbessern.

Im Fall der oksimo Software und des damit angezielten Paradigmas einer neuen allgemeinen Zukunftsmaschine liegt eher der konstitutiver Fall vor: allseits kann man heute ein Mangel an solchen Diskursräumen feststellen, in denen beliebige Experten gemeinsam Problemräume [6] aufspannen, innerhalb deren sie Lösungswege sichtbar machen und gemeinsam bewerten. Zusätzlich sollte ein Maximum an lernenden Algorithmen für diese Problemräume verfügbar gemacht werden können.

BY DESIGN

Die Erfahrungen des Alltags zeigen, dass die wenigsten Menschen aus dem Stand heraus in der Lage sind, zusammen mit anderen konstruktiv eine — oder gar mehrere — mögliche Zukunft (Zukünfte) zu denken: weder in den großen Linien, noch in den vielen Details und Querwirkungen. Die Vision der oksimo Software ist es nun, einen kompletten Rahmen für das gemeinsame Entwickeln von möglichen Zukünften ‚by design‘ zur Verfügung zu stellen, und das nur mit den Mitteln der Alltagssprache: miteinander reden; Gegenwart beschreiben; mögliche zukünftigen Szenarien aussprechen; mögliche Aktionen suchen, die von der Gegenwart in die Zukunft führen; sich die bisherigen Überlegungen immer wieder als Prozess vorführen zu lassen, ob es schon funktioniert; Rückmeldungen bekommen, wieweit man schon ist ….

QUELLENANGABEN

[1a] Gerd Doeben-Henisch, 6.Febr.2021, INGENIEURE UND DAS GLÜCK. Anmerkung 1, https://www.cognitiveagent.org/2021/02/06/ingenieure-und-das-glueck-anmerkung-1/

[1b] Gerd Doeben-Henisch, 8.Dez.2012, EIN ABEND MIT DEM SALON SLALOM, https://www.cognitiveagent.org/2012/12/08/ein-abend-mit-dem-salon-slalom-vorlaufig-bilder-und-endredaktion-fehlt-noch/ . Dieser Text beschreibt ziemlich umfassend meine philosophische Position am Ende des Jahres 2008 (dazu ein bisschen ‚Musik-Philosophie‘ mit praktischen Beispielen). Letztlich sind es diese philosophischen Gedanken, die den Hintergrund bilden für die nachfolgenden und auch heutigen Überlegungen.

[1c] Gerd Doeben-Henisch, 5.Dezember 2020, SW. Software? Müssen wir umdenken? Notiz, https://www.cognitiveagent.org/2020/12/05/sw-software-muessen-wir-umdenken-notiz/ //* In der ‚klassischen‘ MMI-Analyse liegt der Fokus eher auf dem unmittelbaren Interaktionsfeld zwischen Anwendern und System-Interface. Dies legt sich nahe, da die konkrete Spezifikation des System-Interfaces nur unter Voraussetzung von möglichst konkreten Interaktionsbeschreibungen gelingen kann. Wie aber der hier zitierte Beitrag deutlich zu machen versucht, ist Alltagshandeln von Menschen durchtränkt von konkreten Aktionen, die im Menschen Teil von kognitiv verankerten Rollen/ Protokollen sind, durch die viele einzelne zu einer verschränkten Person werden, deren Einzelhandeln nicht verstanden werden kann, wenn man nicht diese kognitive Verschränktheit berücksichtigt. Diese Dimension des Anwenderverhaltens ist bislang aber noch nicht wirklich in MMI-Analysen eingebunden.*//

[2] Der Begriff einer ‚Integrierten Theorie des Engineerings‘ [ITE] ist klar abzugrenzen von dem Konzept der ‚Integralen Theorie‚, wie es von Ken Wilbert und vielen anderen vertreten wird, siehe z.B.: https://de.wikipedia.org/wiki/Integrale_Theorie

[3] Gerd Doeben-Henisch, Distributed Actor-Actor Interaction [DAAI], 18.Januar 2020, Version 1 5 . 0 6 . 0 7, https://www.uffmm.org/wp-content/uploads/2019/05/aaicourse-15-06-07.pdf

[4] Stichwort ‚Kollektive Intelligenz‘ in Wikipedia [DE]: https://de.wikipedia.org/wiki/Kollektive_Intelligenz

[5] Stichwort ‚Sandbox‘, Wikipedia [DE]: https://de.wikipedia.org/wiki/Sandbox

[5b] Stichwort ‚Sandbox‘ in Wikipedia [EN]: https://en.wikipedia.org/wiki/Sandbox_(software_development)

[6] Im Sprachspiel von Russel und Norvig wird unter einem ‚Problemraum‘ ein ‚Zustandsraum‘ (Engl.: state space) (S.67) verstanden. Im Prinzip lässt sich der ’state space‘ von Norvig und Russell im hier benutzten Konzept des ‚Problem-Raumes‘ abbilden. Siehe später im Text. Stuart Russell und Peter Norvig, Artificial Intelligence: A Modern Approach, Global Edition (Englisch) Taschenbuch, Herausgeber : Addison Wesley; 3. Edition (18. Mai 2016) Sprache : Englisch, Taschenbuch : 1132 Seiten ISBN-10 : 1292153962 ISBN-13 : 978-1292153964

FORTSETZUNG

Eine Fortsetzung findet sich HIER.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.