Archiv der Kategorie: Text

Homo Sapiens: empirische und nachhaltig-empirische Theorien, Emotionen, und Maschinen. Eine Skizze

5.Aug 2023 – 29.Aug 2023 (10:37h)

Autor: Gerd Doeben-Henisch

Email: gerd@doeben-henisch.de

(Eine Englische Version findet sich hier: https://www.uffmm.org/2023/08/24/homo-sapiens-empirical-and-sustained-empirical-theories-emotions-and-machines-a-sketch/)

Kontext

Dieser Text stellt die Skizze zu einem Vortrag dar, der im Rahmen der Konferenz „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ (25./26.August 2023, TU Darmstadt) gehalten werden soll. [1] Die Englische Version des überarbeiteten Vortrags findet sich schon jetzt HIER: https://www.uffmm.org/2023/10/02/collective-human-machine-intelligence-and-text-generation-a-transdisciplinary-analysis/ . Die Deutsche Version des überarbeiteten Vortrags wird im Verlag Walter de Gruyter bis Ende 2023/ Anfang 2024 erscheinen. Diese Veröffentlichung wird hier dann bekannt gegeben werden.

Sehr geehrtes Auditorium,

In dieser Tagung mit dem Titel „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ geht es zentral um wissenschaftliche Diskurse und den möglichen Einfluss von KI-Textgeneratoren auf diese Diskurse. Der heiße Kern bleibt aber letztlich das Phänomen Text selbst, seine Geltung.

SICHTWEISEN-TRANS-DISZIPLINÄR

In dieser Konferenz werden zu diesem Thema viele verschiedene Sichten vorgetragen, die zu diesem Thema möglich sind.

Mein Beitrag zum Thema versucht die Rolle der sogenannten KI-Textgeneratoren dadurch zu bestimmen, dass aus einer ‚transdisziplinären Sicht‘ heraus die Eigenschaften von ‚KI-Textgeneratoren‘ in eine ’strukturelle Sicht‘ eingebettet werden, mit deren Hilfe die Besonderheiten von wissenschaftlichen Diskursen herausgestellt werden kann. Daraus können sich dann ‚Kriterien für eine erweiterte Einschätzung‘ von KI-Textgeneratoren in ihrer Rolle für wissenschaftliche Diskurse ergeben.

Einen zusätzlichen Aspekt bildet die Frage nach der Struktur der ‚kollektiven Intelligenz‘ am Beispiel des Menschen, und wie sich diese mit einer ‚Künstlichen Intelligenz‘ im Kontext wissenschaftlicher Diskurse möglicherweise vereinen kann.

‚Transdisziplinär‘ bedeutet in diesem Zusammenhang eine ‚Meta-Ebene‘ aufzuspannen, von der aus es möglich sein soll, die heutige ‚Vielfalt von Textproduktionen‘ auf eine Weise zu beschreiben, die ausdrucksstark genug ist, um eine ‚KI-basierte‘ Texterzeugung von einer ‚menschlichen‘ Texterzeugung unterscheiden zu können.

MENSCHLICHE TEXTERZEUGUNG

Die Formulierung ‚wissenschaftlicher Diskurs‘ ist ein Spezialfall des allgemeineren Konzepts ‚menschliche Texterzeugung‘.

Dieser Perspektivenwechsel ist meta-theoretisch notwendig, da es auf den ersten Blick nicht der ‚Text als solcher ‚ ist, der über ‚Geltung und Nicht-Geltung‘ entscheidet, sondern die ‚Akteure‘, die ‚Texte erzeugen und verstehen‘. Und beim Auftreten von ‚verschiedenen Arten von Akteuren‘ — hier ‚Menschen‘, dort ‚Maschinen‘ — wird man nicht umhin kommen, genau jene Unterschiede — falls vorhanden — zu thematisieren, die eine gewichtige Rolle spielen bei der ‚Geltung von Texten‘.

TEXTFÄHIGE MASCHINEN

Bei der Unterscheidung in zwei verschiedenen Arten von Akteuren — hier ‚Menschen‘, dort ‚Maschinen‘ — sticht sofort eine erste ‚grundlegende Asymmetrie‘ ins Auge: sogenannte ‚KI-Textgeneratoren‘ sind Gebilde, die von Menschen ‚erfunden‘ und ‚gebaut‘ wurden, es sind ferner Menschen, die sie ‚benutzen‘, und das wesentliche Material, das von sogenannten KI-Generatoren benutzt wird, sind wiederum ‚Texte‘, die als ‚menschliches Kulturgut‘ gelten.

Im Falle von sogenannten ‚KI-Textgeneratoren‘ soll hier zunächst nur so viel festgehalten werden, dass wir es mit ‚Maschinen‘ zu tun haben, die über ‚Input‘ und ‚Output‘ verfügen, dazu über eine minimale ‚Lernfähigkeit‘, und deren Input und Output ‚textähnliche Objekte‘ verarbeiten kann.

BIOLOGISCH-NICHT-BIOLOGISCH

Auf der Meta-Ebene wird also angenommen, dass wir einerseits über solche Akteure verfügen, die minimal ‚textfähige Maschinen‘ sind — durch und durch menschliche Produkte –, und auf der anderen Seite über Akteure, die wir ‚Menschen‘ nennen. Menschen gehören als ‚Homo-Sapiens Population‘ zur Menge der ‚biologischen Systeme‘, während ‚textfähige Maschinen‘ zu den ’nicht-biologischen Systemen‘ gehören.

LEERSTELLE INTELLIGENZ-BEGRIFF

Die hier vorgenommene Transformation des Begriffs ‚KI-Textgenerator‘ in den Begriff ‚textfähige Maschine‘ soll zusätzlich verdeutlichen, dass die verbreitete Verwendung des Begriffs ‚KI‘ für ‚Künstliche Intelligenz‘ eher irreführend ist. Es gibt bislang in keiner wissenschaftlichen Disziplin einen allgemeinen, über die Einzeldisziplin hinaus anwendbaren und akzeptierten Begriff von ‚Intelligenz‘. Für die heute geradezu inflatorische Verwendung des Begriffs KI gibt es keine wirkliche Begründung außer jener, dass der Begriff so seiner Bedeutung entleert wurde, dass man ihn jederzeit und überall benutzen kann, ohne etwas Falsches zu sagen. Etwas, was keine Bedeutung besitzt, kann weder wahr‘ noch ‚falsch‘ sein.

VORAUSSETZUNGEN FÜR TEXT-GENERIERUNG

Wenn nun die Homo-Sapiens Population als originärer Akteur für ‚Text-Generierung‘ und ‚Text-Verstehen‘ identifiziert wird, soll nun zunächst untersucht werden, welches denn ‚jene besonderen Eigenschaften‘ sind, die eine Homo-Sapiens Population dazu befähigt, Texte zu generieren und zu verstehen und sie ‚im alltäglichen Lebensprozess erfolgreich anzuwenden‘.

GELTUNG

Ein Anknüpfungspunkt für die Untersuchung der besonderen Eigenschaften einer Homo-Sapiens Text-Generierung und eines Text-Verstehens ist der Begriff ‚Geltung‘, der im Tagungsthema vorkommt.

Auf dem primären Schauplatz des biologischen Lebens, in den alltäglichen Prozessen, im Alltag, hat die ‚Geltung‘ eines Textes mit ‚Zutreffen‘ zu tun. Wenn ein Text nicht von vornherein mit einem ‚fiktiven Charakter‘ geplant wird, sondern mit einem ‚Bezug zum Alltagsgeschehen‘, das jeder im Rahmen seiner ‚Weltwahrnehmung‘ ‚überprüfen‘ kann, dann hat ‚Geltung im Alltag‘ damit zu tun, dass das ‚Zutreffen eines Textes überprüft‘ werden kann. Trifft die ‚Aussage eines Textes‘ im Alltag ‚zu‘, dann sagt man auch, dass diese Aussage ‚gilt‘, man räumt ihr ‚Geltung‘ ein, man bezeichnet sie auch als ‚wahr‘. Vor diesem Hintergrund könnte man geneigt sein fortzusetzen und zu sagen: ‚Trifft‘ die Aussage eines Textes ’nicht zu‘, dann kommt ihr ‚keine Geltung‘ zu; vereinfacht zur Formulierung, dass die Aussage ’nicht wahr‘ sei bzw. schlicht ‚falsch‘.

Im ‚realen Alltag‘ ist die Welt allerdings selten ’schwarz‘ und ‚weiß‘: nicht selten kommt es vor, dass wir mit Texten konfrontiert werden, denen wir aufgrund ihrer ‚gelernten Bedeutung‘ geneigt sind ‚eine mögliche Geltung‘ zu zuschreiben, obwohl es möglicherweise gar nicht klar ist, ob es eine Situation im Alltag gibt — bzw. geben wird –, in der die Aussage des Textes tatsächlich zutrifft. In solch einem Fall wäre die Geltung dann ‚unbestimmt‘; die Aussage wäre ‚weder wahr noch falsch‘.

ASYMMETRIE: ZUTREFFEN – NICHT-ZUTREFFEN

Man kann hier eine gewisse Asymmetrie erkennen: Das ‚Zutreffen‘ einer Aussage, ihre tatsächliche Geltung, ist vergleichsweise eindeutig. Das ‚Nicht-Zutreffen‘, also eine ‚bloß mögliche‘ Geltung, ist hingegen schwierig zu entscheiden.

Wir berühren mit diesem Phänomen der ‚aktuellen Nicht-Entscheidbarkeit‘ einer Aussage sowohl das Problem der ‚Bedeutung‘ einer Aussage — wie weit ist überhaupt klar, was gemeint ist? — als auch das Problem der ‚Unabgeschlossenheit unsres Alltags‘, besser bekannt als ‚Zukunft‘: ob eine ‚aktuelle Gegenwart‘ sich als solche fortsetzt, ob genau so, oder ob ganz anders, das hängt davon ab, wie wir ‚Zukunft‘ generell verstehen und einschätzen; was die einen als ’selbstverständlich‘ für eine mögliche Zukunft annehmen, kann für die anderen schlicht ‚Unsinn‘ sein.

BEDEUTUNG

Dieses Spannungsfeld von ‚aktuell entscheidbar‘ und ‚aktuell noch nicht entscheidbar‘ verdeutlicht zusätzlich einen ‚autonomen‘ Aspekt des Phänomens Bedeutung: hat sich ein bestimmtes Wissen im Gehirn gebildet und wurde dieses als ‚Bedeutung‘ für ein ‚Sprachsystem‘ nutzbar gemacht, dann gewinnt diese ‚assoziierte‘ Bedeutung für den Geltungsbereich des Wissens eine eigene ‚Realität‘: es ist nicht die ‚Realität jenseits des Gehirns‘, sondern die ‚Realität des eigenen Denkens‘, wobei diese Realität des Denkens ‚von außen betrachtet‘ etwas ‚Virtuelles‘ hat.

Will man über diese ‚besondere Realität der Bedeutung‘ im Kontext des ‚ganzen Systems‘ sprechen, dann muss man zu weitreichenden Annahmen greifen, um auf der Meta-Ebene einen ‚begrifflichen Rahmen‘ installieren zu können, der in der Lage ist, die Struktur und die Funktion von Bedeutung hinreichend beschreiben zu können. Dafür werden minimal die folgenden Komponenten angenommen (‚Wissen‘, ‚Sprache‘ sowie ‚Bedeutungsbeziehung‘):

  1. WISSEN: Es gibt die Gesamtheit des ‚Wissens‘, das sich im Homo-Sapiens Akteur im Laufe der Zeit im Gehirn ‚aufbaut‘: sowohl aufgrund von kontinuierlichen Interaktionen des ‚Gehirns‘ mit der ‚Umgebung des Körpers‘, als auch aufgrund von Interaktionen ‚mit dem Körper selbst‘, sowie auch aufgrund der Interaktionen ‚des Gehirns mit sich selbst‘.
  2. SPRACHE: Vom Wissen zu unterscheiden ist das dynamische System der ‚potentiellen Ausdrucksmittel‘, hier vereinfachend ‚Sprache‘ genannt, die sich im Laufe der Zeit in Interaktion mit dem ‚Wissen‘ entfalten können.
  3. BEDEUTUNGSBEZIEHUNG: Schließlich gibt es die dynamische ‚Bedeutungsbeziehung‘, ein Interaktionsmechanismus, der beliebige Wissenselemente jederzeit mit beliebigen sprachlichen Ausdrucksmitteln verknüpfen kann.

Jede dieser genannten Komponenten ‚Wissen‘, ‚Sprache‘ wie auch ‚Bedeutungsbeziehung‘ ist extrem komplex; nicht weniger komplex ist auch ihr Zusammenspiel.

ZUKUNFT UND EMOTIONEN

Neben dem Phänomen Bedeutung wurde beim Phänomen des Zutreffens auch sichtbar, dass die Entscheidung des Zutreffens auch von einer ‚verfügbaren Alltagssituation‘ abhängt, in der sich eine aktuelle Entsprechung ‚konkret aufzeigen‘ lässt oder eben nicht.

Verfügen wir zusätzlich zu einer ‚denkbaren Bedeutung‘ im Kopf aktuell über keine Alltagssituation, die dieser Bedeutung im Kopf hinreichend korrespondiert, dann gibt es immer zwei Möglichkeiten: Wir können diesem gedachten Konstrukt trotz fehlendem Realitätsbezug den ‚Status einer möglichen Zukunft‘ verleihen oder nicht.

Würden wir uns dafür entscheiden, einer ‚Bedeutung im Kopf‘ den Status einer möglichen Zukunft zu zusprechen, dann stehen meistens folgende zwei Anforderungen im Raum: (i) Lässt sich im Lichte des verfügbaren Wissens hinreichend plausibel machen, dass sich die ‚gedachte mögliche Situation‘ in ‚absehbarer Zeit‘ ausgehend von der aktuellen realen Situation ‚in eine neue reale Situation transformieren lässt‘? Und (ii) Gibt es ’nachhaltige Gründe‚ warum man diese mögliche Zukunft ‚wollen und bejahen‘ sollte?

Die erste Forderung verlangt nach einer leistungsfähigen ‚Wissenschaft‘, die aufhellt, ob es überhaupt gehen kann. Die zweite Forderung geht darüber hinaus und bringt unter dem Gewand der ‚Nachhaltigkeit‘ den scheinbar ‚irrationalen‘ Aspekt der ‚Emotionalität‘ ins Spiel: es geht nicht nur einfach um ‚Wissen als solches‘, es geht auch nicht nur um ein ’sogenanntes nachhaltiges Wissen‘, das dazu beitragen soll, das Überleben des Lebens auf dem Planet Erde — und auch darüber hinaus — zu unterstützen, es geht vielmehr auch um ein ‚gut finden, etwas bejahen, und es dann auch entscheiden wollen‘. Diese letzten Aspekte werden bislang eher jenseits von ‚Rationalität‘ angesiedelt; sie werden dem diffusen Bereich der ‚Emotionen‘ zugeordnet; was seltsam ist, da ja jedwede Form von ‚üblicher Rationalität‘ genau in diesen ‚Emotionen‘ gründet.[2]

WISSENSCHAFTLICHER DISKURS UND ALLTAGSSITUATIONEN

In diesem soeben angedeuteten Kontext von ‚Rationalität‘ und ‚Emotionalität‘ ist es nicht uninteressant, dass im Tagungsthema der ‚wissenschaftliche Diskurs‘ als Referenzpunkt thematisiert wird, um den Stellenwert textfähiger Maschinen abzuklären.

Es fragt sich, inwieweit ein ‚wissenschaftlicher Diskurs‘ überhaupt als Referenzpunkt für einen erfolgreichen Text dienen kann?

Dazu kann es helfen, sich bewusst zu machen, dass das Leben auf diesem Planet Erde sich in jedem Moment in einer unfassbar großen Menge von ‚Alltagssituationen‘ abspielt, die alle gleichzeitig stattfinden. Jede ‚Alltagssituation‘ repräsentiert für die Akteure eine ‚Gegenwart‘. Und in den Köpfen der Akteure findet sich ein individuell unterschiedliches Wissen darüber, wie sich eine Gegenwart in einer möglichen Zukunft ‚verändern kann‘ bzw. verändern wird.

Dieses ‚Wissen in den Köpfen‘ der beteiligten Akteure kann man generell ‚in Texte transformieren‘, die auf unterschiedliche Weise einige der Aspekte des Alltags ’sprachlich repräsentieren‘.

Der entscheidende Punkt ist, dass es nicht ausreicht, dass jeder ‚für sich‘ alleine, ganz ‚individuell‘, einen Text erzeugt, sondern dass jeder zusammen ‚mit allen anderen‘, die auch von der Alltagssituation betroffen sind, einen ‚gemeinsamen Text‘ erzeugen muss. Eine ‚kollektive‘ Leistung ist gefragt.

Und es geht auch nicht um ‚irgendeinen‘ Text, sondern um einen solchen, der so beschaffen ist, dass er die ‚Generierung möglicher Fortsetzungen in der Zukunft‘ erlaubt, also das, was traditionell von einem ‚wissenschaftlichen Text‘ erwartet wird.

Aus der umfangreichen Diskussion — seit den Zeiten eines Aristoteles — was denn ‚wissenschaftlich‘ bedeuten soll, was eine ‚Theorie‘ ist, was eine ‚empirische Theorie‘ sein soll, skizziere ich das, was ich hier das ‚minimale Konzept einer empirischen Theorie‘ nenne.

  1. Ausgangspunkt ist eine ‚Gruppe von Menschen‘ (die ‚Autoren‘), die einen ‚gemeinsamen Text‘ erstellen wollen.
  2. Dieser Text soll die Eigenschaft besitzen, dass er ‚begründbare Voraussagen‘ für mögliche ‚zukünftige Situationen‘ erlaubt, denen sich dann in der Zukunft ‚irgendwann‘ auch eine ‚Geltung zuordnen lässt‘.
  3. Die Autoren sind in der Lage, sich auf eine ‚Ausgangssituation‘ zu einigen, die sie mittels einer ‚gemeinsamen Sprache‘ in einen ‚Ausgangstext‘ [A] transformieren.
  4. Es gilt als abgemacht, dass dieser Ausgangstext nur ’solche sprachliche Ausdrücke‘ enthalten darf, die sich ‚in der Ausgangssituation‘ als ‚wahr‘ ausweisen lassen.
  5. In einem weiteren Text stellen die Autoren eine Reihe von ‚Veränderungsregeln‘ [V] zusammen, die ‚Formen von Veränderungen‘ an einer gegebenen Situation ins Wort bringen.
  6. Auch in diesem Fall gilt es als abgemacht, dass nur ’solche Veränderungsregeln‘ aufgeschrieben werden dürfen, von denen alle Autoren wissen, dass sie sich in ‚vorausgehenden Alltagssituationen‘ als ‚wahr‘ erwiesen haben.
  7. Der Text mit den Veränderungsregeln V liegt auf einer ‚Meta-Ebene‘ verglichen mit dem Text A über die Ausgangssituation, der relativ zum Text V auf einer ‚Objekt-Ebene‘ liegt.
  8. Das ‚Zusammenspiel‘ zwischen dem Text V mit den Veränderungsregeln und dem Text A mit der Ausgangssituation wird in einem eigenen ‚Anwendungstext‘ [F] beschrieben: Hier wird beschrieben, wann und wie man eine Veränderungsregel (in V) auf einen Ausgangstext A anwenden darf und wie sich dabei der ‚Ausgangstext A‘ zu einem ‚Folgetext A*‘ verändert.
  9. Der Anwendungstext F liegt damit auf einer nächst höheren Meta-Ebene zu den beiden Texten A und V und kann bewirken, dass der Anwendungstext den Ausgangstext A verändert wird.
  1. In dem Moment, wo ein neuer Folgetext A* vorliegt, wird der Folgetext A* zum neuen Anfangstext A.
  2. Falls der neue Ausgangstext A so beschaffen ist, dass sich wieder eine Veränderungsregel aus V anwenden lässt, dann wiederholt sich die Erzeugung eines neuen Folgetextes A*.
  3. Diese ‚Wiederholbarkeit‘ der Anwendung kann zur Generierung von vielen Folgetexten <A*1, …, A*n> führen.
  4. Eine Serie von vielen Folgetexten <A*1, …, A*n> nennt man üblicherweise auch eine ‚Simulation‘.
  5. Abhängig von der Beschaffenheit des Ausgangstextes A und der Art der Veränderungsregeln in V kann es sein, dass mögliche Simulationen ‚ganz unterschiedlich verlaufen können‘. Die Menge der möglichen wissenschaftlichen Simulationen repräsentiert ‚Zukunft‘ damit also nicht als einen einzigen, bestimmten Verlauf, sondern als eine ‚beliebig große Menge möglicher Verläufe‘.
  6. Die Faktoren, von denen unterschiedliche Verläufe abhängen, sind vielfältig. Ein Faktor sind die Autoren selbst. Jeder Autor ist ja mit seiner Körperlichkeit vollständig selbst Teil genau jener empirischen Welt, die in einer wissenschaftlichen Theorie beschrieben werden soll. Und wie bekannt, kann jeder menschliche Akteur seine Meinung jederzeit ändern. Er kann buchstäblich im nächsten Moment genau das Gegenteil von dem tun, was er zuvor gedacht hat. Und damit ist die Welt schon nicht mehr die gleiche, wie zuvor in der wissenschaftlichen Beschreibung angenommen.

Schon dieses einfache Beispiel zeigt, dass die Emotionalität des ‚Gut-Findens, des Wollens, und des Entscheidens‘ der Rationalität wissenschaftlicher Theorien voraus liegt. Dies setzt sich in der sogenannten ‚Nachhaltigkeitsdiskussion‘ fort.

NACHHALTIGE EMPIRISCHE THEORIE

Mit dem soeben eingeführten ‚minimalen Konzepts einer empirischen Theorie (ET)‘ lässt sich direkt auch ein ‚minimales Konzept einer nachhaltigen empirischen Theorie (NET)‘ einführen.

Während eine empirische Theorie einen beliebig großen Raum an begründeten Simulationen aufspannen kann, die den Raum von vielen möglichen Zukünften sichtbar machen, verbleibt den Akteuren des Alltags die Frage, was sie denn von all dem als ‚ihre Zukunft‘ haben wollen? In der Gegenwart erleben wir die Situation, dass die Menschheit den Eindruck erweckt, als ob sie damit einverstanden ist, das Leben jenseits der menschlichen Population mehr und mehr nachhaltig zu zerstören mit dem erwartbaren Effekt der ‚Selbst-Zerstörung‘.

Dieser in Umrissen vorhersehbare Selbst-Zerstörungseffekt ist aber im Raum der möglichen Zukünfte nur eine Variante. Die empirische Wissenschaft kann sie umrisshaft andeuten. Diese Variante vor anderen auszuzeichnen, sie als ‚gut‘ zu akzeptieren, sie ‚zu wollen‘, sich für diese Variante zu ‚entscheiden‘, liegt in jenem bislang kaum erforschten Bereich der Emotionalität als Wurzel aller Rationalität.

Wenn sich Akteure des Alltags für eine bestimmte rational aufgehellte Variante von möglicher Zukunft entschieden haben, dann können sie jederzeit mit einem geeigneten ‚Evaluationsverfahren (EVAL)‘ auswerten, wie viel ‚Prozent (%) der Eigenschaften des Zielzustandes Z‘ bislang erreicht worden sind, vorausgesetzt, der favorisierte Zielzustand wird in einen passenden Text Z transformiert.

Anders formuliert: in dem Moment, wo wir Alltagsszenarien über geeignete Texte in einen rational greifbaren Zustand transformiert haben, nehmen die Dinge eine gewisse Klarheit an und werden dadurch — in gewisser Weise — einfach. Dass wir solche Transformationen vornehmen und auf welche Aspekte eines realen oder möglichen Zustands wir uns dann fokussieren, das ist aber als emotionale Dimension der textbasierten Rationalität vor-gelagert.[2]

MENSCH-MASCHINE

Nach diesen vorbereitenden Überlegungen stellt sich die abschließende Frage, ob und wie die Hauptfrage dieser Tagung „Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ in irgendeiner Weise beantwortet werden kann?

Meine bisherigen Ausführungen haben versucht aufzuzeigen, was es bedeutet, dass Menschen kollektiv Texte erzeugen, die die Kriterien für einen wissenschaftlichen Diskurs erfüllen, der zudem die Anforderungen für empirische oder gar nachhaltig-empirische Theorien erfüllt.

Dabei zeigt sich, dass sowohl bei der Generierung eines kollektiven wissenschaftlichen Textes wie auch bei seiner Anwendung im Alltag ein enger Wechselbezug sowohl mit der gemeinsamen erfahrbaren Welt wie auch mit den dynamischen Wissens- und Bedeutungskomponenten in jedem Akteur eine Rolle spielen.

Der Aspekt der ‚Geltung‘ ist Teil eines dynamischen Weltbezugs, dessen Einschätzung als ‚wahr‘ beständig im Fluss ist; während der eine Akteur vielleicht dazu tendiert zu sagen „Ja, kann stimmen“, tendiert ein anderer Akteur vielleicht gerade zum Gegenteil. Während die einen eher dazu tendieren, eine mögliche Zukunftsvariante X zu favorisieren, wollen die anderen lieber die Zukunftsvariante Y. Rationale Argumente fehlen; die Gefühle sprechen. Während eine Gruppe gerade beschlossen hat, dem Plan Z zu ‚glauben‘ und ihn ‚umzusetzen‘, wenden sich die anderen ab, verwerfen Plan Z, und tun etwas ganz anderes.

Dieser unstete, unsichere Charakter des Zukunft-Deutens und Zukunft-Handelns begleitet die Homo Sapiens Population von Anbeginn. Der unverstandene emotionale Komplex begleitet den Alltag beständig wie ein Schatten.[2]

Wo und wie können ‚textfähige Maschinen‘ in dieser Situation einen konstruktiven Beitrag leisten?

Angenommen es liegt ein Ausgangstext A vor, dazu ein Veränderungstext V sowie eine Anleitung F, dann könnten heutige Algorithmen alle möglichen Simulationen schneller durchrechnen als es Menschen könnten.

Angenommen zusätzlich es läge auch noch ein Zieltext Z vor, dann könnte ein heutiger Algorithmus auch eine Auswertung zum Verhältnis zwischen einer aktuellen Situation als A und dem Zieltext Z berechnen.

Mit anderen Worten: wäre eine empirische oder eine nachhaltig-empirische Theorie mit ihren notwendigen Texten formuliert, dann könnte ein heutiger Algorithmus alle möglichen Simulationen und den Grad der Zielerfüllung automatisch schneller berechnen, als jeder Mensch allein.

Wie steht es aber mit der (i) Ausarbeitung einer Theorie bzw. (ii) mit der vor-rationalen Entscheidung für eine bestimmte empirische oder gar nachhaltig-empirische Theorie ?

Eine klare Antwort auf beide Fragen erscheint mir zum aktuellen Zeitpunkt kaum möglich, verstehen wir Menschen doch noch zu wenig, wie wir selbst im Alltag kollektiv Theorien bilden, auswählen, überprüfen, vergleichen und auch wieder verwerfen.

Meine Arbeitshypothese zum Thema lautet: dass wir sehr wohl lernfähige Maschinen brauchen werden, um in der Zukunft die Aufgabe erfüllen zu können, brauchbare nachhaltig-empirische Theorien für den gemeinsamen Alltag zu entwickeln. Wann dies aber real geschehen wird und in welchem Umfang scheint mir zum jetzigen Zeitpunkt weitgehend unklar.

ANMERKUNGEN

[1] https://zevedi.de/themen/ki-text/

[2] Das Sprechen über ‚Emotionen‘ im Sinne von ‚Faktoren in uns‘, die uns dazu bewegen, aus dem Zustand ‚vor dem Text‘ in den Zustand ‚geschriebener Text‘ überzugehen, der lässt sehr viele Aspekte anklingen. In einem kleinen explorativen Text „STÄNDIGE WIEDERGEBURT – Jetzt. Schweigen hilft nicht …“ ( https://www.cognitiveagent.org/2023/08/28/staendige-wiedergeburt-jetzt-schweigen-hilft-nicht-exploration/ ) hat der Autor versucht, einige dieser Aspekte anzusprechen. Beim Schreiben wird deutlich, dass hier sehr viele ‚individuell subjektive‘ Aspekte eine Rolle spielen, die natürlich nicht ‚isoliert‘ auftreten, sondern immer auch einen Bezug zu konkreten Kontexten aufblitzen lassen, die sich mit dem Thema verknüpfen. Dennoch, es ist nicht der ‚objektive Kontext‘, der die Kernaussage bildet, sondern die ‚individuell subjektive‘ Komponente, die im Vorgang des ‚ins-Wort-Bringens‘ aufscheint. Diese individuell-subjektive Komponenten wird hier versuchsweise als Kriterium für ‚authentische Texte‘ benutzt im Vergleich zu ‚automatisierten Texten‘ wie jene, die von allerlei Bots generiert werden können. Um diesen Unterschied greifbarer zu machen, hat der Autor sich dazu entschieden, mit dem zitierten authentischen Text zugleich auch einen ‚automatisierten Text‘ mit gleicher Themenstellung zu erzeugen. Dazu hat er chatGBT4 von openAI benutzt. Damit beginnt ein philosophisch-literarisches Experiment, um auf diese Weise vielleicht den möglichen Unterschied sichtbarer zu machen. Aus rein theoretischen Gründen ist klar, dass ein von chatGBT4 erzeugter Text im Ursprung niemals ‚authentische Texte‘ erzeugen kann, es sei denn, er benutzt als Vorlage einen authentischen Text, den er abwandeln kann. Dann ist dies aber ein klares ‚fake Dokument‘. Um solch einem Missbrauch vorzubeugen, schreibt der Autor im Rahmen des Experiments den authentischen Text zu erst und beauftragt dann chatGBT4 zur vorgegebenen Themenstellung etwas zu schreiben, ohne dass chatGBT4 den authentischen Text kennt, da er noch nicht über das Internet in die Datenbasis von chatGBT4 Eingang gefunden hat.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

IMPLOSION DES LICHTS – X-METAL – AM ABGRUND DER FREIHEIT. Philosophische Anmerkungen

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
11.März 2018
URL: cognitiveagent.org
Kontakt: info@cognitiveagent.org
Autor: cagent
Email: cagent@cognitiveagent.org

VORBEMERKUNG

Dieses Thema ist eines von jenen, die man nicht plant, die sich durch scheinbar zufällige Konstellationen ergeben.

Dies ist auch kein ‚angenehmes‘ Thema im Sinne, dass man es ‚gerne‘ schreibt, sondern ist eher ‚unangenehm‘, ’sperrig‘, man muss Kraft aufwenden, um sich mit ihm zu beschäftigen.

Bedingt durch eine massive Bronchitis war ich mehr als eine Woche ziemlich lahmgelegt. Zwischendrin, zur Ablenkung, habe ich dann über youtube, wikipedia und andere Seiten nach Irischer Musik, Irish Folk geschaut, bis hin zum Thema keltische Musik. Mir war da vieles nicht klar gewesen. Es zeigte sich eine bunte Landschaft von Bands, Stilen und Texten.

Mehr durch Zufall, über eine Festivalbeschreibung, stieß ich dann auch auf Bands, die eigentlich einem anderen Genre angehörten. Es fanden sich Beschreibungen wie Black-, Death-, Thrash- und Power Metal. Bezeichnungen, die schon von der Wortwahl her andere Gefühle hervorrufen als ‚Folk‘ oder ‚Rock‘.

Ich ging dieser Spur nach und traf auf Bands, deren Auftreten und vor allem deren Texte eine Vorstellungswelt transportieren, die deutlich abweicht von dem, was man in gewohnten Medien findet. Man muss sich schon in spezielle Literaturbereiche begeben, um zumindest Ähnliches zu finden. Von den drei Bands, die ich dann weiterverfolgt habe, sind von einer Band drei Alben wegen ihrer Texte verboten (im Netz kann man diese Texte dennoch finden).

VERBOTENES

Dass im Alltag das Verhalten oder/ und die Texte von Menschen ‚verboten‘ werden, kann man als Bürger eines Staates als ’normal‘ betrachten, weil es Gesetze und Institutionen gibt, die das Aussprechen von Verboten regeln.

Aus philosophischer Sicht gibt es aber zunächst mal kein ’normal‘. Denn wir wissen alle, dass es heute in dieser Welt Länder gibt, in denen Menschen verfolgt, verurteilt und getötet werden, die in unserem Land auf keinen Fall verfolgt, verurteilt und getötet würden. Wir haben also schon in der Gegenwart eine Gleichzeitigkeit von widerstreitenden Werten. Und wir können auch wissen, dass es eine Zeit gab — die Zeit des Nationalsozialismus in Deutschland –, in der der Alltag, die statistische Mehrheit, ‚Werte‘ propagierte, Einstellungen, Texte, die sich mit den Werten Einstellungen und Texten der späteren Bundesrepublik widersprechen. In jener Zeit war ‚legal‘, was heute ‚illegal‘ ist, und umgekehrt.

Sich einfach auf ‚Legalität‘ zu stützen ist für einen Philosophen daher eher nicht erlaubt. Er muss sich die Frage stellen, ob es unabhängig von einer herrschenden Legalität Bezugspunkte gibt, eine Referenz, die vor allen möglichen Formen von Legalität liegt. Für Menschen, die sich nur an Legalität halten sind solche grundlegenden Überlegungen natürlich ‚unwirksam‘, da sie ihr Denken freiwillig vorher abschalten.

TEXTE – SPRACHE

Im Falle der drei Bands, insbesondere jener mit den verbotenen Texten, sind es dann genau diese Texte und deren möglicher Aussagenhorizont, an denen sich die Überlegungen fest machen können.

Nun beginnt schon hier das Problem. Im Fall von Alltagssprache, erst recht, wenn es dann noch Texte sind, die der Art nach in Richtung Lyrik, Poesie tendieren, ist eine Fixierung der möglichen Bedeutung grundsätzlich schwierig (dies zeigt sich auch in der Diskussion in der englischen Wikipedia, die Aussagen der Zensur mit den Aussagen der Autoren gegenüberstellt; diese differieren). Noch schlimmer, es kann sehr wohl sein, dass ein Autor A einen eigenen Text T in einer bestimmten Weise A(T)=B1 interpretiert, dass aber potentielle Leser L den gleichen Text anders interpretieren L(A)=B2. Dies ist nichts Besonderes, sondern hat mit der Art und Weise zu tun, wie Sprache funktioniert. Keinem einzelnen Menschen ‚gehört‘ die Sprache. Jeder ‚benutzt‘ sie, mit seinen eigenen Intentionen, aber man erschafft darin die Sprache nicht gänzlich neu; man assoziiert sie mit eigenen, weitgehend subjektiven Inhalten, und was herauskommt ist ein Text in der Sprache, die allen gehört, subjektiv vernetzt mit Bedeutungsanteilen des Autors, die vielleicht vom ‚üblichen Gebrauch‘ abweichen, die aber vom Empfänger als solche gar nicht erkannt werden können. Der Empfänger kennt nur ’seine‘ eigene subjektiven Bedeutungen und die ‚üblichen Verwendungsweisen‘.

Diese grundsätzlichen Bedeutungsbarrieren kann kein einzelner Autor oder Leser von sich aus einfach so aufheben. Die Sprache ist immer ‚mehr‘, das ‚Größere‘, das ‚Gemeinsame‘, das ‚Verbindende‘, das ‚Band’…. oder wie immer man dies ausdrücken möchte. Und nur weil es dieses Gemeinsame gibt, kann der einzelne seine Besonderheit, seine Subjektivität damit versuchsweise verbinden und hoffen, dass der andere dieses ‚Spielen über die Bande‘ irgendwie bemerkt und versteht.

Mit diesen Vorbemerkungen zum grundsätzlichen Verstehensproblem einer alltagssprachlichen Kommunikation, die sich mit Einbeziehung lyrisch-poetischer Formen eher verstärken, möchte ich dennoch auch Bezug nehmen auf die möglichen Inhalte.

DUNKELHEITEN?

Unter dem Vorbehalt, dass ich diese Texte möglicherweise falsch verstehe, kann ich zumindest festhalten, wie sie auf mich wirken und was dies philosophisch auslöst.

Diese Texte beschreiben die Welt aus Sicht eines Ich, das in einer großen Dunkelheit lebt. Andere Menschen kommen nur schemenhaft vor, als Versatzstücke von eigenen Gefühlen, Trieben, ohne eigene Persönlichkeit, ohne eigene wirkliche Existenz. Das in sich kaum differenzierte Ich ist zentral, alles ausfüllend, erscheint irgendwie leidend und dann doch wieder sich am eigenen Leiden berauschend. Mystische Bilder einer irgendwie dunklen Macht, die alles fordert und der sich alles opfert. Wenn Versatzstücke aus dem Alltag vorkommen, die man zu erkennen meint, werden sie in einer Weise verwendet, die anders ist, verfremdend, darin herausfordernd … schon eine poetische Kraft… aber mit einer schweren Dunkelheit durchtränkt.

Lässt man die Bilder für sich stehen, isoliert, kann man sie schwer einordnen; auf unterschiedliche Menschen werden sie unterschiedliche Gefühle auslösen.

Aus philosophischer Sicht können sich interessante Fragen stellen.

INNERE WIRKLICHKEIT EINES ANDEREN

Wie im Blog schon mehrfach ausgeführt, entsteht das Wirklichkeitsbewusstsein des Menschen in seinem Gehirn, das von allen möglichen Sensoren (externe wie interne) Daten von Ereignissen empfängt und diese dann zu Wahrnehmungen, Vorstellungen zusammenbaut, die uns in unserem ‚Bewusstsein‘ ‚bewusst‘ werden können. Im weitgehend automatischen Wechselspiel mit unserem Gedächtnis entstehen dann für jeden seine Bilder von der Welt, wie er sie sieht. Von der Psychologie — und dies kann jeder auch im Alltag an sich ausprobieren — wissen wir, dass wir Menschen die Signale von der Welt und unserem Körper so weit ‚umbiegen‘ können, dass unser eigenes inneres Bild von der Welt mit der Welt da draußen und unserem realen Körper wenig bis gar nichts mehr zu tun hat.

Erschwerend kommt hinzu, dass der Anteil des Gehirns am gesamten Zellkosmos des Körpers nur ca. 0.15% ausmacht, und das Bewusstsein in diesem Gehirn ist nochmals ein kleinerer Bereich. Es ist also so, dass mehr als 99% unseres Körpers jenseits des Bewusstseins liegen, ganz zu schweigen von der ‚Welt da draußen‘. Psychologie und Psychoanalyse haben viele Hinweise geliefert, wie das Un-Bewusste auf uns einwirken kann, ohne dass wir wissen warum und wozu, oder, noch schwieriger, wir merken erst gar nicht, dass wir von Einflüssen gesteuert werden, die aus dem Unbewussten kommen. Die moderne Mikrobiologie hat weitere Beispiele geliefert, wie die vielen Milliarden Bakterien in unserem Darm über chemische Stoffe über die Blutbahn bis in das Gehirn einwirken, wo diese chemischen Stoffe die Arbeit der Gehirnzellen beeinflussen können.

Die Möglichkeiten, in sich selbst ein Bild vom eigenen Körper und von der Welt mit sich herum zu tragen, das stark verzerrt oder ganz falsch ist, sind also gegeben. Und wie der Alltag zeigt, müssen alle Menschen permanent kämpfen, ihre internen Bilder mit der Realität einigermaßen abzugleichen. Viele psychischen Probleme heute resultieren aus diesen stark verzerrten internen Bildern, die von der Realität abweichen.

Das eigene ‚Ich‘, das ‚Selbst‘, das ‚Selbstbild‘ das sind ‚Konstrukte‘ aus der Gesamtheit unserer Empfindungen und Wahrnehmungen.

Wenn ein kleines Kind beständig für alles bestraft wird, was eigentlich ’normal‘ ist, dann wird ihm über diese Strafen emotional der Boden unter den Füßen buchstäblich weg gezogen. Alles, worauf seine erlebbare Existenz gründet, wird negativ besetzt, emotional vermint, es findet sich dann in seinem Körper, in seinem Bewusstsein wie in einem dunklen Kerker ohne Ausweg, sich selbst, den eigenen Gefühlen hilflos ausgeliefert. Ob, wie lange und wie ein solches Kind, ein solcher junger Mensch dann überhaupt leben kann … da fehlen mir konkrete Erfahrungen. … Die vielen Stellvertreterkriege heute erschaffen solche Kinder zu Tausenden, Zehntausenden …

DAS ANDERE ALS ‚LICHT‘

Philosophisch ist klar, dass nur ein positiver Aufbau von realistischen Bildern des eigenen Körpers, der Außenwelt, der anderen Menschen einen einzelnen in die Lage versetzen kann, sich selbst am und im anderen in einem erweiterten Format von Leben als Teil von etwas Größerem zu erfahren. Das oder der  ‚Andere‘ ist in diesem Fall wie ‚Licht‘, das ‚Leben sichtbar macht‘. Die konkrete Erfahrung selbst ist das ‚Licht‘. Findet der Kontakt mit dem ‚Anderen‘ nicht statt, wird der Aufbau geeigneter realistischer Bilder gestört, versiegt das ‚Licht‘, dann kann es zu einer ‚Implosion des Lichts‘ kommen: das Fehlen des Lichts erzeugt eine eigene Form von ‚Dunkelheit‘. in der Abwesenheit des Anderen wird das eigene Innere zum einzigen Realen, verliert seine Relationen, kann zu einem alles verschlingenden Ungeheuer werden, das nur noch sich selbst hat: das sich selbst auffressen wird dann zum einzig möglichen Lebensakt, der aber genau Leben zerstört. Eine Art ‚psychische Auto-Immunkrankheit‘: das eigene Selbst, das geheilt werden will, findet als einzige (scheinbar!) verbleibende Möglichkeit nur noch, sich selbst aufzufressen.

Mir sind keine ernsthaften Forschungen bekannt, die sich mit diesen Grenzsituationen unseres Menschseins beschäftigen. Durch das ‚Wegsperren‘ von Lebenszeugnissen, die solche Situationen zu thematisieren scheinen, findet auch kein Gespräch darüber statt. Im übrigen dürfte es auch schwer sein, sich über solche Dinge auszutauschen, da Menschen, die an einer Implosion des Lichtes leiden, scheinbar keine Anhaltspunkte mehr haben, sich dagegen zu stemmen.

Dies rührt mindestens an zwei Grundlagenfragen menschlicher Existenz: Freiheit und Erlösung.

FREIHEIT

Wie im Blog schon mehrfach angedacht  durchzieht alles Leben, ja alle physikalische Wirklichkeit das Moment einer grundlegenden ‚Freiheit‘. Nichts im gesamten Universum ist einfach ‚deterministisch‘, absolut nichts. Wo immer wir hinschauen, wir finden immer Möglichkeitsräume, aus denen sich dann bestimmte Varianten ‚heraus schälen‘, die so zwar ‚möglich‘ waren/ sind, aber die in keiner Weise voraussagbar waren. Dies ist sehr bemerkenswert.

Angewendet auf den Menschen bildet alleine schon der menschliche Körper eine einzige Unmöglichkeit, da keine der ca. 140 Billionen Zellen des Körperuniversums aus sich heraus in irgendeiner Weise ‚gezwungen‘ ist, genau dort und genau so zu arbeiten, wie sie es im Verbund unseres Körpers tut. Jede Zelle ist ein autonomes Individuum, die niemand ‚zwingen‘ kann. Und doch arbeiten diese 140 Billionen Zellen im Millisekundenbereich in einer Weise zusammen, die unser aktuelles Verstehen schlichtweg übersteigt.

Wenn es nun innerhalb unseres Körpers auf den hochkomplexen Ebenen des Wahrnehmens, Fühlens, Denkens, Erinnerns usw. nun zu dem Phänomen des sich innerlich Entfernens vom ‚Anderen‘ kommt, wo liegt hier das ‚Handlungszentrum‘, die ‚Verantwortung‘, eine irgendwie geartete ‚Steuerung‘?

Die Juristen gehen davon aus, dass es so etwas wie einen ‚freien Willen‘ gibt, der entscheiden kann (wobei es wissenschaftlich unmöglich ist, so etwas wie einen ‚freien Willen‘ zu definieren), zugleich nehmen die Juristen an, dass dieser freie Wille durch körperinterne Faktoren ‚eingeschränkt‘ werden kann (anerkanntermaßen durch ‚Drogen‘ und starke ‚Emotionen‘, aber auch durch alle möglichen Arten von körperlichen ‚Beeinträchtigungen‘). Alle diese einschränkenden Faktoren sind nur bedingt ‚definierbar‘ und ‚messbar‘. Immerhin ist das juristische Weltbild so ‚realistisch‘, dass es einräumt, dass die Realität unseres Körpers beliebige ‚Störfaktoren‘ bieten kann, um das ‚eigene verantwortliche Verhalten‘ so zu beeinflussen, dass es zu Handlungen kommen kann, die einem unterstellten verantwortungsvollen freien Willen ‚widersprechen‘.

Mir scheint, dass wir uns hier in einer Grauzone des Wissens um uns selbst bewegen. Offene Forschungen zu unserem Menschsein unter solchen Grenzbedingungen wären sehr wünschenswert.

ERLÖSUNG

Kann schon das ’normale Leben‘ mit genügend Elementen angefüllt sein, die es ’schwer‘ erscheinen lassen, die uns ‚real leidend‘ machen, so kann eine fortschreitende Implosion des Lichtes alles noch viel unerträglicher machen. Auf allen Stufen des Leidens (von ‚einfach‘ bis ’schwer‘) entwickeln wir Menschen aber auch Abwehrmechanismen, Erleichterungsstrategien, Ersatzlösungen, um das Leiden zu mildern.

Im Kaleidoskop der vielen Heilsversprechungen gibt es ein Thema, das sich zu allen Zeiten und überall findet: das Hoffen auf eine Erlösung mindestens nach dem aktuellen körperlichen Dasein, am liebsten aber auch schon vorher, jetzt, in diesem ‚Jammertal‘.

In diesem Kontext gab und gibt es immer wieder Menschen — quer zu allen Religionen und auch unabhängig von diesen –, die von besonderen Glückszuständen berichten, von besonders erhebenden Gefühlen, positiven Gefühlen, die alles vergessen lassen, was so schwer erscheint, was leidend macht. Diese Gefühle ergreifen einen, erwecken den Eindruck, man sei in einem größeren Zusammenhang, in einem umfassenden Sinn eingebettet. Lernen erscheint ‚licht voll‘, ’sinnhaft‘.

Diese besonderen, positiven Erlebnisse wurden immer heftig diskutiert, sind umstritten, werden abgestritten (sogar von religiösen Führern, da sie in diesen persönlichen Erfahrungen eine Infragestellung ihrer formalen Autorität erkennen), und führen doch dazu, dass Menschen mit solchen Erfahrungen nicht selten ihr Leben umkrempeln, völlig neu starten, ganze Bewegungen starten indem sie andere Menschen ‚mitreißen‘.

Es wäre eine interessante empirische Frage, ob Menschen mit implodierendem Licht trotzt ihrer Dynamik der fortschreitenden Selbstzerstörung solche besonderen, lebensfördernden Erfahrungen machen könnten, und was es mit ihnen machen würde. Denn diese speziell lebensfördernden Erfahrungen sind nicht körpergeneriert, sind nicht ‚kausal‘ im klassischen Sinne (die Quantenphysik beschreibt die Welt sowieso anders), sondern sie finden offensichtlich trotz und gegen aktuelle Körperzustände statt. Dies setzt voraus, dass die Körper keine abgeschlossenen Einheiten sind, was ja physikalisch der Fall ist. Unsere Körper als Zellgalaxie sind physikalisch offen wie ein Scheunentor für Billionen möglicher Ereignisse. Bisher gibt es dazu aber praktisch noch keine Forschungen.

Theologisch ist die Gottesfrage eher ‚arm‘ und ‚wortlos‘. ‚Empirisch‘ ist die Gottesfrage interessanter denn je, denn, wenn überhaupt, ist das, was als ‚Gott‘ bezeichnet wird, auch etwas ‚extrem Reales‘ …

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

DONALD A.NORMAN, THINGS THAT MAKE US SMART – Teil 6

Diesem Beitrag ging voraus Teil 5.

BISHER
(ohne kritische Anmerkungen)

In den vorausgehenden Teilen wurden bislang zwei Aspekte sichtbar: einmal die ‚Menschenvergessenheit‘ in der Entwicklung und Nutzung von Technologie sowie die Einbeziehung von ‚wissensunterstützenden Dingen‘ sowohl außerhalb des Körpers (physisch) wie auch im Denken selber (kognitiv). Ferner hatte Norman die Vielfalt des Denkens auf zwei ‚Arbeitsweisen‘ reduziert: die ‚erfahrungsorientierte‘ Vorgehensweise, ohne explizite Reflexion (die aber über ‚Training‘ implizit in die Erfahrung eingegangen sein kann), und die ‚reflektierende‘ Vorgehensweise. Er unterschied ferner grob zwischen dem Sammeln (‚accretion‘) von Fakten, einer ‚Abstimmung‘ (‚tuning‘) der verschiedenen Parameter für ein reibungsloses Laufen, Schreiben, Sprechen, usw., und einer Restrukturierung (‚restructuring‘) vorhandener begrifflicher Konzepte. Ferner sieht er in der ‚Motivation‘ einen wichtigen Faktor. Diese Faktoren können ergänzt werden um Artefakte, die Denkprozesse unterstützen. In diesem Zusammenhang führt Norman die Begriffe ‚Repräsentation‘ und ‚Abstraktion‘ ein, ergänzt um ‚Symbol‘ (nicht sauber unterschieden von ‚Zeichen‘) und ‚Interpreter‘. Mit Hilfe von Abstraktionen und Symbolen können Repräsentationen von Objekten realisiert werden, die eine deutliche Verstärkung der kognitiven Fähigkeiten darstellen. Allerdings, und dies ist ein oft übersehener Umstand, durch die Benutzung eines Artefaktes werden nicht die kognitiven Eigenschaften des Benutzers als solchen geändert, sondern – bestenfalls – sein Zugang zum Problem. Wenn in einem solchen Fall zwischen den wahrnehmbaren Eigenschaften eines Artefakts und den korrelierenden ‚Zuständen‘ des Problems ein Zusammenhang nur schwer bis gar nicht erkennbar werden kann, dann führt dies zu Unklarheiten, Belastungen und Fehlern. Norman wiederholt dann die Feststellung, dass die Art wie das menschliche Gehirn ‚denkt‘ und wie Computer oder die mathematische Logik Probleme behandeln, grundlegend verschieden ist. Im Prinzip sind es drei Bereiche, in denen sich das Besondere des Menschen zeigt: (i) der hochkomplexe Körper, (ii) das hochkomplexe Gehirn im Körper, (iii) die Interaktions- und Kooperationsmöglichkeiten, die soziale Strukturen, Kultur und Technologie ermöglichen. Die Komplexität des Gehirns ist so groß, dass im gesamten bekannten Universum nichts Vergleichbares existiert. Mit Bezugnahme auf Mervin Donald (1991) macht Norman darauf aufmerksam dass die auffälligen Eigenschaften des Menschen auch einen entsprechenden evolutionären Entwicklungsprozess voraussetzen, innerhalb dessen sich die heutigen Eigenschaften schrittweise herausgebildet haben. Nach kurzen Bemerkungen zur Leistungsfähigkeit des Menschen schon mit wenig partiellen Informationen aufgrund seines Gedächtnisses Zusammenhänge erkennen zu können, was zugleich ein großes Fehlerrisiko birgt, Norman dann den Fokus auf die erstaunliche Fähigkeit des Menschen, mit großer Leichtigkeit komplexe Geschichten (’stories‘) erzeugen, erinnern, und verstehen zu können. Er erwähnt auch typische Fehler, die Menschen aufgrund ihrer kognitiven Struktur machen: Flüchtigkeitsfehler (’slips‘) und richtige Fehler (‚mistakes‘). Fehler erhöhen sich, wenn man nicht berücksichtigt, dass Menschen sich eher keine Details merken, sondern ‚wesentliche Sachverhalte‘ (’substance and meaning‘); wir können uns in der Regel nur auf eine einzige Sache konzentrieren, und hier nicht so sehr ‚kontinuierlich‘ sondern punktuell mit Blick auf stattfindende ‚Änderungen‘. Dementsprechend merken wir uns eher ‚Neuheiten‘ und weniger Wiederholungen von Bekanntem.(vgl. S.131) Ein anderes typisches Fehlerverhalten ist die Fixierung auf eine bestimmte Hypothese.

VERTEILTES WISSEN IN GETEILTEN SITUATIONEN

1) Am Beispiel von Flugzeugcockpits (Boeing vs. Airbus) und Leitständen großer technischer Anlagen illustriert Norman, wie eine durch die gemeinsam geteilte Situation gestützte Kommunikation alle Mitglieder eines Teams auf indirekte Verweise miteinander verbindet, sie kommunizieren und verstehen lässt. Ohne dass ausdrücklich etwas erklärt werden muss erlebt jeder durch die gemeinsame Situation Vorgänge, Vorgehensweisen, Zustände, kann so indirekt lernen und man kann sich indirekt wechselseitig kontrollieren. Im Allgemeinen sind diese indirekten Formen verteilten Wissens wenig erforscht. (vgl. SS.139-146)
2) Eine solche verteilte Intelligenz in einer realen Situation unter Benutzung realer Objekte hat einen wesentlichen Vorteil gegenüber einer rein simulierten Welt: die Benutzung realer Objekte ist eindeutig, auch wenn die begleitende Kommunikation vieldeutig sein mag.(vgl. S.146 -148)
3) In einer simulierten Situation muss man die impliziten Gesetze der realen Welt explizit programmieren. Das ist nicht nur sehr aufwendig, sondern entsprechend fehleranfällig. Eine Kommunikation wird vieldeutiger und damit schwieriger. (vgl. SS.148-151)

ZU VIEL DETAILS

4) Norman greift dann nochmals das Thema des unangemessenen, falschen Wissens auf mit Blick auf die Art und Weise, wie das menschliche Gedächtnis funktioniert. Am Beispiel der mündlichen Überlieferung die strukturell, typologisch vorging verweist er auf die heutige ‚Überlieferung‘ in Form von immer detaillierteren Texten, immer mehr technisch bedingten Details, die eigentlich unserer menschlichen Art des Erinnerns widersprechen. (vgl. SS.151-153)

ORGANISATION VON WISSEN

5) Auf den SS.155-184 diskutiert Norman anhand von Beispielen das Problem, wie man Wissen so anordnen sollte, dass man dann, wenn man etwas Bestimmtes braucht, dieses auch findet. Es ist ein Wechselspiel zwischen den Anforderungen einer Aufgabe, der Struktur des menschlichen Gedächtnisses sowie der Struktur der Ablage von Wissen.

DIE ZUKUNFT VORAUSSAGEN

6) Das folgende Kapitel (SS.185-219) steht unter der Hauptüberschrift, die Zukunft voraus zu sagen; tatsächlich enthält es auch eine ganze Reihe von anderen Themen, die sich nur sehr lose dem Thema zuordnen lassen.
7) Nach Norman ist es generell schwer bis unmöglich, die Zukunft vorauszusagen; zu viele Optionen stehen zur Verfügung. Andererseits brauchen wir Abschätzungen wahrscheinlicher Szenarien. (vgl. S.185f)
8) Als Begründung für seine skeptische These wählt er vier Beispiele aus der Vergangenheit (Privater Hubschrauber, Atomenergie, Computer, Telephon), anhand deren er das Versagen einer treffenden Prognose illustriert.(vgl.186-192) Der größte Schwachpunkt in allen Voraussagen betrifft den Bereich der sozialen Konsequenzen. Hier liegt überwiegend ein Totalversagen vor. Und er bemerkt, dass man den Ingenieuren zwar nicht vorwerfen kann, dass sie sich mit sozialen Folgen nicht auskennen, aber dass sie ihr Nichtwissen in diesem Bereich nicht ernst nehmen.(vgl. S.186).
9) Der andere Aspekt ist die Umsetzungsdauer von einer Idee bis zu einer verbreiteten alltäglichen Nutzung. Anhand von Beispielen (Fernsehen, Flugzeug, Fax) zeigt er auf, dass es zwischen 40 – 140 Jahren dauern konnte. denn neben der Idee selbst und einem arbeitsfähigen Prototypen muss ja der bestehende Alltag unterschiedlich weit ‚umgebaut‘ werden, evtl. müssen alte bestehende Strukturen (verbunden mit starken Interessen) durch neue ersetzt werden.(vgl. S.192-195)
10) [Anmerkung: Wir erleben z.B. seit den 60iger Jahren des 20.Jahrhunderts die Diskussion zur Frage erneuerbarer Energien, der eine bestehende Struktur von ölbasierten Technologien, Atomkraft, Kohle und Gas entgegen stehen, jeweils verbunden mit sehr starken ökonomischen und politischen Interessen.]
11) Er macht dann selber einige Voraussagen (Verfügbarkeit von digitaler Information, von hohen Bandbreiten, von noch mächtigeren immer kleineren Computern, von 3D-Ansichten unter Einbeziehung der eigenen Position, von elektronischen Publikationen, von mehr computergestütztem Lernen, noch raffiniertere Unterhaltung, von Videogesprächen im privaten Bereich, von mehr kollaborativen Arbeitsplätzen).(vgl. SS.195-201)
12) [Anmerkung: 20 Jahre später kann man sagen, dass alle diese Voraussagen entweder voll umgesetzt wurden oder wir dabei sind, sie umzusetzen.]
13) Norman spielt dann die möglichen sozialen Folgen von diesen neuen Technologien anhand von sehr vielen konkreten Beispielen durch. Ein Trend ist der zunehmende Ersatz des Menschen im Handeln durch künstliche Charaktere, was schließlich dazu führen kann, dass in der Öffentlichkeit dann nur noch die Software handelt, während die ‚realen‘ Menschen mehr und mehr aus der Öffentlichkeit verschwinden. (vgl. SS. 201-210)
14) [Anmerkung: Diese Art von Auswüchsen, wie sie Norman plastisch schildert, werden in immer mehr Science-Fiction Filmen thematisiert. Ein Beispiel war die 10-teilige Folge ‚Real Humans – Echte Menschen‘, eine schwedische Produktion, die von arte im Frühjahr 2013 gezeigt wurde. Darin wurde die Existenz von menschenähnlichen Robotern im alltäglichen Leben sehr konkret durchgespielt. Ein sehr ähnliches Thema hatte auch der Film Surrogates (2009), wenn auch mit einer anderen Rahmengeschichte. Es gibt hierzu zahllose weitere Beispiele.]

NEUROINTERFACE

15) Norman greift auch das Thema ‚Neurointerface‘ auf, eine direkte Verbindung des menschlichen Nervensystems mit einem Computer. (vgl. SS.210-214)

KOLLABORATIVE SOFTWARE

16) Natürlich wird die neue Technologie auch Auswirkungen für die Arbeit von sozialen Gruppen haben. Hier sieht er aber besonders viele Schwierigkeiten, da das Arbeiten in einer Gruppe besonders komplex ist und sensitiv für viele Faktoren. (vgl. SS. 214-217)

TRÄUMEN MACHT MEHR SPASS ALS REALE NUTZUNG

17) Abschließend bemerkt Norman noch, das der Hype um neue Technologien sich häufig an den visionären Szenarien entzündet; wenn es zur tatsächlichen Nutzung kommt, flaut dieser Hype sehr schnell wieder ab. (vgl. SS.217-219)
18) [Anmerkung: Die Themen zersplittern zunehmend. Dennoch stellen Sie allesamt wertvolle Erfahrungen und Einsichten dar. s wird Aufgabe der Schlussreflexion sein, die Vielfalt dieser Aspekte auszuwerten und für eine Gesamttheorie nutzbar zu machen.]

Fortsetzung folgt im Teil Teil 7

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.