PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 11.-12.Februar 2021
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Letzte Änderung: 23.Februar 2021: (i) Querverweis zu meiner philosophischen Position vom 8.Dezember 2008! (ii) Querverweis zum Aspekt der kognitiv verschränkten Personen, die sich im Alltag in verteilten Einzelaktionen manifestieren.

KONTEXT

In diesem Beitrag soll das Konzept einer praktischen kollektiven Mensch-Maschine Intelligenz by design an einem konkreten Beispiel durchgespielt werden. Als Rahmen wird das vorausgesetzt, was in dem vorausgehenden Beitrag INGENIEURE UND DAS GLÜCK. Anmerkung 1 [1] vorgestellt wurde.

RAHMENANNAHMEN – FRAMEWORK

Grafische Darstellung zum angenommenen begrifflichen Rahmen aus dem vorausgehenden Artikel [1]

Im vorausgehenden Beitrag wurde der Gesamtrahmen wie folgt kurz charakterisiert:

Zum Konzept einer integrierten Theorie des Engineerings [2] gehören die folgenden (stark vereinfachten) Wissensdimensionen:

  1. Ein wissenschaftsphilosophischer Rahmen, der die Einbettung der Engineering-Prozesse in die Alltagswelt, in die Gesellschaft, in die umgebende Realität ermöglicht.[1b]
  2. Der Engineering-Prozess selbst, in dem Ingenieure und Manager als Experten einen Prozess starten, organisieren und zu einer nachhaltigen Lösung führen.
  3. Innerhalb des Engineering Prozesses nimmt die Analyse der Mensch-Maschine Interaktion [MMI] (Engl. oft auch Human-Machine Interaction [HMI]) eine fundamentale Rolle ein: hier wird analysiert welche Problem unter Berücksichtigung welcher Kontexte (Rahmenbedingungen, Ziele,…) so umgesetzt werden sollen, dass die intendierten Anwender die neue Lösung optimal nutzen können. Im vorliegenden Fall soll es möglich gemacht werden, dass beliebige Anwender beliebige Problemstellung mit Alltagssprache kommunizieren, modellieren und simulieren können einschließlich diverser Bewertungsverfahren (Ein Teil der Bewertungsverfahren können intelligente Algorithmen (volkstümlich: Künstliche Intelligenz [KI]) beinhalten).[1c]
  4. Im logischen Design, das auf der MMI-Analyse aufbaut, wird im Rahmen einer abstrakten mathematischen Struktur festgelegt, wie die gewünschten Systemleistungen organisiert werden sollen. Die mathematische Struktur muss so sein, dass sie sich formal in eine Menge von Algorithmen abbilden lässt, die sich mit einer verfügbaren Programmiersprache implementieren lassen.
  5. In der Implementierung wird dann die logische Analyse in ein konkretes funktionierendes technisches System umgesetzt. Im konkreten Fall handelt es sich um eine bestimmte Software, die auf Servern läuft, die als Knoten im Internet funktionieren. Der Anwender kann mit dieser Software über interaktive Internetseiten kooperieren.

Im folgenden Text wird der Aspekt der Mensch-Maschine Analyse näher betrachtet.

FOKUS AUF die Analyse der MENSCH-MASCHINE INTERAKTION

Teilaspekt: Analyse der Mensch-Maschine Interaktion [MMI] innerhalb des Gesamtrahmens

Ich hatte einige Jahre eine Vorlesung zu diesem Thema und hatte anlässlich dieser Vorlesung den Versuch unternommen, aktuelle Konzepte der Mensch-Maschine Interaktion [MMI] im Kontext des Systems Engineering [SE] und unter dem Blickwinkel einer formalen Theorie zu rekonstruieren.[3] Zumindest die Grundlinien dieses Konzeptes sind erkennbar.

WELCHE EXPERTEN?

Durch die Erweiterung des Kontextes über das klassische Engineering hinaus hinein in beliebige gesellschaftliche Kontexte mit beliebigen potentiellen Anwendern — also auch Bürger, Büroangestellte, Lokalpolitiker, Jugendliche, Schüler … — und durch Verschiebung des Hauptprozesses weg von ausgewählten Experten hin zum allgemeinen Expertentum, ergab sich eine Form von Generalisierung, innerhalb deren das klassische Systems Engineering nur noch ein Spezialfall ist. Aus den verteilten Akteuren im klassischen Systems Engineering wird jetzt die Population der allgemeinen Experten [PAE], die sich zu jeder Zeit an jedem Ort aus beliebigen Menschen rekrutieren können. Dies versucht der Tatsache Rechnung zu tragen, dass für die Zukunft entscheidend ist, dass wir über eine hinreichend große Vielfalt verfügen, wobei wir selbst nur sehr bedingt fähig sind, in der Gegenwart zu entscheiden, wer jetzt der richtige Experte ist. Am Beispiel der Kommunen ist ganz klar, dass die wenigen Bürger, die als Kommunalpolitiker gewählt werden, in keinster Weise repräsentative sind für das Wissen, die Erfahrungen, die Intelligenz, die Visionen, die sich in einer Kommune in der Gesamtheit der Bürger verkörpern. Diese Diskrepanz ist gravierend. Sie nicht zu überbrücken wäre in höchstem Maße fahrlässig für die Gestaltung unserer Zukunft.

PRAKTISCHE KOLLEKTIVE INTELLIGENZ?

In einer ersten Annäherung — und zugleich Vereinfachung — könnte man die Gesamtheit des Wissens und der Erfahrung, die sich in den Bürgern einer Kommune vorfindet, Kollektive Intelligenz nennen [4]. Hier geht es — wie jeder aus seiner Erfahrung von Kommunen selbst ergänzen kann — aber nicht nur um das Wissen, das Kognitive im engeren Sinne, sondern um solches Wissen, das in Form von Erfahrungen auch handlungsfähig ist, das sich im Handeln herausbildet, das verflochten ist mit einem ganzen Netzwerk von emotionalen Faktoren, Motiven und Werten. Ein solches Wissen im erweiterten Sinne nenne ich hier Praktisches Kollektives Wissen [PKW].

Vor 100 oder mehr Jahren wäre damit alles gesagt. Im Zeitalter der Digitalisierung reicht dies aber nicht mehr.

MENSCH-MASCHINE SYMBIOSE

Mit der zunehmenden Durchdringung unseres Alltags mit Computern, also mit programmierbaren Maschinen, die ansatzweise die biologische Intelligenz nachbilden können, stellen wir fest, dass wir Menschen im Alltag, in unserem menschlichen Handlungsraum, zunehmend mit solchen Computern interagieren. Das Innere dieser Computer ist den meisten weitgehend unbekannt, selbst ihre Oberfläche (das System Interface, die Systemschnittstelle) lässt sich immer öfter nicht mehr direkt erkennen, da die Computer über Sensoren und Aktoren direkt oder vermittelt über andere Objekte und Geräte in unserem Alltag mit uns interagieren. Und hinter dieser kaum wahrnehmbaren Oberfläche tauschen diese Computer mit anderen Computern immer größere Datenmengen aus, die wir als Menschen gar nicht mitbekommen.

Aus Sicht der Mensch-Maschine Interaktion kann und muss man die Frager stellen, welche Rolle wir auf lange Sicht dem Computer einerseits und dem Menschen andererseits zuordnen wollen. Grundsätzlich kann man drei typische Rollen unterscheiden:

  1. Den Computer so weiter entwickeln, dass er letztlich in allen Belangen den Menschen übertrifft und letztlich den Menschen nicht mehr braucht. Kennwort: Super-Human Computing.
  2. Den Computer so unvollständig und dumm lassen, dass er den Menschen grundsätzlich nicht gefährden und beeinträchtigen kann. Kennwort: Inferior-Human Computing.
  3. Den Computer maximal entwickeln, aber in Sandbox-Artigen Problemräumen. Kennwort: Man-Machine Computing.

Die Variante Inferior-Human Computing ist eigentlich schon aus dem Rennen, da der Computer in Teilbereichen den Menschen schon jetzt haushoch übertrifft. Und in dieser Rolle hat der Computer schon jetzt massive Auswirkungen z.B. auf Arbeitsprozesse, Geschäftsmodelle, ganze Marktmodelle, auf die Kriegsführung, auf die gesamte Technologiebranche, auf die Forschung, selbst auf die Kunst und die gesamte Unterhaltungsindustrie. Was wir hier haben ist schon eine Art von mindestens partiellem Super-Human Computing. Dass die Vielzahl der Beispiele in diesem Bereich die Fantasie anregen, ist verständlich.

Beispiele für Super-Computing innerhalb eines Problemraumes, der als Sandbox dient, wobei der Problemraum ausschließlich von Menschen konstituiert wird, sind bislang nicht wirklich bekannt. In einer solchen Umgebung — wie sie die oksimo Software ermöglicht — können Menschen die ganze Fülle ihres Wissens gemeinsam und strukturiert als Problemraum einbringen, der beständig abgeändert und kumulativ — Prinzip Wikipedia — erweitert werden kann. Relativ dazu kann man beliebig viele intelligente Programme zum Einsatz bringen, die diesen Problemraum erkunden, erforschen, erlernen und seine formalen Möglichkeiten entsprechend den verfügbaren Bewertungsprofilen auswerten und selbständig optimieren. In diesem Kontext könnten die programmierbaren Maschinen sogar die Bewertungskriterien fallweise abändern, um weitere alternative Lösungen sichtbar zu machen. Während die Menschen in dieser Konstellation die volle Breite ihres Wissens samt Bewertungsstrukturen für sich selbst und füreinander sichtbar machen können, können die lernfähigen Programme aus den für Menschen schwer erfassbaren kombinatorischen Räumen jene Teilbereiche identifizieren, die im Lichte von bestimmten Kriterien besonders günstig erscheinen. In einem solchen Sandbox-Vermittelten Miteinander können die Menschen ihr Optimum ausleben und dazu programmierbare Maschinen benutzen, die ihrerseits ihr Optimum bis an die Grenzen der Berechenbarkeit ausdehnen. In dieser Mensch-Maschine Symbiose eines Man-Machine Computing könnten die beteiligten Computer beliebig gut werden ohne dem Menschen schaden zu können (in der Regel ist nicht die Maschine sondern der Mensch sich selbst nicht nur der potentiell größte Freund, sondern auch der potentiell größte Feind; Freiheit ist eben real …).

DESIGN EINER KOLLEKTIVEN ZUKUNFTSMASCHINE

Schaubild mit Aktualisierung des Bereichs für die Analyse der Mensch-Maschine Interaktion.

Wie eingangs angedeutet, geht es im Rahmen der Analyse der Mensch-Maschine Interaktion darum, unter Vorlage einer groben Problemstellung [P] mitsamt einer groben Vision [V] (idealerweise in einem Problem-Visions-Dokument festgehalten) im einzelnen zu klären, wie dieses Aufgabenstellung so umgesetzt werden kann, dass die Auftraggeber zufrieden sind.

Im Normalfall sind die Auftraggeber und die späteren Anwender unterschiedliche Akteure. Im konstitutiven Fall werden Anwender zu ihren eigenen Auftraggebern, um etwas zu finden, was dazu beiträgt, ihre aktuelle Situation zu verbessern.

Im Fall der oksimo Software und des damit angezielten Paradigmas einer neuen allgemeinen Zukunftsmaschine liegt eher der konstitutiver Fall vor: allseits kann man heute ein Mangel an solchen Diskursräumen feststellen, in denen beliebige Experten gemeinsam Problemräume [6] aufspannen, innerhalb deren sie Lösungswege sichtbar machen und gemeinsam bewerten. Zusätzlich sollte ein Maximum an lernenden Algorithmen für diese Problemräume verfügbar gemacht werden können.

BY DESIGN

Die Erfahrungen des Alltags zeigen, dass die wenigsten Menschen aus dem Stand heraus in der Lage sind, zusammen mit anderen konstruktiv eine — oder gar mehrere — mögliche Zukunft (Zukünfte) zu denken: weder in den großen Linien, noch in den vielen Details und Querwirkungen. Die Vision der oksimo Software ist es nun, einen kompletten Rahmen für das gemeinsame Entwickeln von möglichen Zukünften ‚by design‘ zur Verfügung zu stellen, und das nur mit den Mitteln der Alltagssprache: miteinander reden; Gegenwart beschreiben; mögliche zukünftigen Szenarien aussprechen; mögliche Aktionen suchen, die von der Gegenwart in die Zukunft führen; sich die bisherigen Überlegungen immer wieder als Prozess vorführen zu lassen, ob es schon funktioniert; Rückmeldungen bekommen, wieweit man schon ist ….

QUELLENANGABEN

[1a] Gerd Doeben-Henisch, 6.Febr.2021, INGENIEURE UND DAS GLÜCK. Anmerkung 1, https://www.cognitiveagent.org/2021/02/06/ingenieure-und-das-glueck-anmerkung-1/

[1b] Gerd Doeben-Henisch, 8.Dez.2012, EIN ABEND MIT DEM SALON SLALOM, https://www.cognitiveagent.org/2012/12/08/ein-abend-mit-dem-salon-slalom-vorlaufig-bilder-und-endredaktion-fehlt-noch/ . Dieser Text beschreibt ziemlich umfassend meine philosophische Position am Ende des Jahres 2008 (dazu ein bisschen ‚Musik-Philosophie‘ mit praktischen Beispielen). Letztlich sind es diese philosophischen Gedanken, die den Hintergrund bilden für die nachfolgenden und auch heutigen Überlegungen.

[1c] Gerd Doeben-Henisch, 5.Dezember 2020, SW. Software? Müssen wir umdenken? Notiz, https://www.cognitiveagent.org/2020/12/05/sw-software-muessen-wir-umdenken-notiz/ //* In der ‚klassischen‘ MMI-Analyse liegt der Fokus eher auf dem unmittelbaren Interaktionsfeld zwischen Anwendern und System-Interface. Dies legt sich nahe, da die konkrete Spezifikation des System-Interfaces nur unter Voraussetzung von möglichst konkreten Interaktionsbeschreibungen gelingen kann. Wie aber der hier zitierte Beitrag deutlich zu machen versucht, ist Alltagshandeln von Menschen durchtränkt von konkreten Aktionen, die im Menschen Teil von kognitiv verankerten Rollen/ Protokollen sind, durch die viele einzelne zu einer verschränkten Person werden, deren Einzelhandeln nicht verstanden werden kann, wenn man nicht diese kognitive Verschränktheit berücksichtigt. Diese Dimension des Anwenderverhaltens ist bislang aber noch nicht wirklich in MMI-Analysen eingebunden.*//

[2] Der Begriff einer ‚Integrierten Theorie des Engineerings‘ [ITE] ist klar abzugrenzen von dem Konzept der ‚Integralen Theorie‚, wie es von Ken Wilbert und vielen anderen vertreten wird, siehe z.B.: https://de.wikipedia.org/wiki/Integrale_Theorie

[3] Gerd Doeben-Henisch, Distributed Actor-Actor Interaction [DAAI], 18.Januar 2020, Version 1 5 . 0 6 . 0 7, https://www.uffmm.org/wp-content/uploads/2019/05/aaicourse-15-06-07.pdf

[4] Stichwort ‚Kollektive Intelligenz‘ in Wikipedia [DE]: https://de.wikipedia.org/wiki/Kollektive_Intelligenz

[5] Stichwort ‚Sandbox‘, Wikipedia [DE]: https://de.wikipedia.org/wiki/Sandbox

[5b] Stichwort ‚Sandbox‘ in Wikipedia [EN]: https://en.wikipedia.org/wiki/Sandbox_(software_development)

[6] Im Sprachspiel von Russel und Norvig wird unter einem ‚Problemraum‘ ein ‚Zustandsraum‘ (Engl.: state space) (S.67) verstanden. Im Prinzip lässt sich der ’state space‘ von Norvig und Russell im hier benutzten Konzept des ‚Problem-Raumes‘ abbilden. Siehe später im Text. Stuart Russell und Peter Norvig, Artificial Intelligence: A Modern Approach, Global Edition (Englisch) Taschenbuch, Herausgeber : Addison Wesley; 3. Edition (18. Mai 2016) Sprache : Englisch, Taschenbuch : 1132 Seiten ISBN-10 : 1292153962 ISBN-13 : 978-1292153964

FORTSETZUNG

Eine Fortsetzung findet sich HIER.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

DONALD A.NORMAN, THINGS THAT MAKE US SMART – Teil 5

Diesem Beitrag ging voraus Teil 4.

BISHER

In den vorausgehenden Teilen wurden bislang zwei Aspekte sichtbar: einmal die ‚Menschenvergessenheit‘ in der Entwicklung und Nutzung von Technologie sowie die Einbeziehung von ‚wissensunterstützenden Dingen‘ sowohl außerhalb des Körpers (physisch) wie auch im Denken selber (kognitiv). Ferner hatte Norman die Vielfalt des Denkens auf zwei ‚Arbeitsweisen‘ reduziert: die ‚erfahrungsorientierte‘ Vorgehensweise, ohne explizite Reflexion (die aber über ‚Training‘ implizit in die Erfahrung eingegangen sein kann), und die ‚reflektierende‘ Vorgehensweise. Er unterschied ferner grob zwischen dem Sammeln (‚accretion‘) von Fakten, einer ‚Abstimmung‘ (‚tuning‘) der verschiedenen Parameter für ein reibungsloses Laufen, Schreiben, Sprechen, usw., und einer Restrukturierung (‚restructuring‘) vorhandener begrifflicher Konzepte. Ferner sieht er in der ‚Motivation‘ einen wichtigen Faktor. Diese Faktoren können ergänzt werden um Artefakte, die Denkprozesse unterstützen. In diesem Zusammenhang führt Norman die Begriffe ‚Repräsentation‘ und ‚Abstraktion‘ ein, ergänzt um ‚Symbol‘ (nicht sauber unterschieden von ‚Zeichen‘) und ‚Interpreter‘. Mit Hilfe von Abstraktionen und Symbolen können Repräsentationen von Objekten realisiert werden, die eine deutliche Verstärkung der kognitiven Fähigkeiten darstellen.

PROBLEMZUGANG DURCH INTERFACE VERBESSERN

1) Auf den S.77-113 widmet sich Norman dem Thema, wie Artefakte die Behandlung einer Aufgabe ändern können. Er geht dabei aus von der fundamentalen Einsicht, dass die Benutzung eines Artefaktes nicht die kognitiven Eigenschaften des Benutzers als solchen ändert, sondern – bestenfalls – den Zugang zum Problem. (vgl. S.77f).
2) [Anmerkung: Wir haben also zwei Situationen Sit1= und Sit2= mit ‚P‘ für ‚Problem=Aufgabe‘, ‚Int‘ für ‚Interface = Artefakt‘ und ‚U‘ für ‚User = Benutzer‘. Während in Situation 1 der Benutzer mit seinen ‚angeborenen kognitiven Strukturen‘ das Problem verarbeiten muss, kann er in Situation 2 auf ein Interface Int zurückgreifen, das idealerweise alle jene Aspekte des Problems, die für ihn wichtig sind, in einer Weise ‚aufbereitet‘, die es ihm ‚leichter‘ macht, mit seinen ‚angeborenen‘ kognitiven Fähigkeiten damit umzugehen. Nehmen wir zusätzlich an, dass der Benutzer U ein lernfähiges System ist mit der minimalen Struktur U= und fu: I x IS —> IS x O, dann würde man annehmen, dass das Interface eine Art Abbildung leistet der Art Int: P —> I und Int: O —> P. Wie ‚gut‘ oder ’schlecht‘ ein Interface ist, könnte man dann einfach daran überprüfen, wieweit der Benutzer U dadurch seine Aufgaben ’schneller‘, ‚leichter‘, ‚mit weniger Fehlern‘, mit ‚mehr Zufriedenheit‘ usw. leisten könnte.]
3) Norman macht dann auf den Umstand aufmerksam, dass zwischen den wahrnehmbaren Eigenschaften eines Artefakts und den korrelierenden ‚Zuständen‘ bei der heutigen stark integrierten Technologie oft kein Zusammenhang mehr erkennbar ist. Dies führt zu Unklarheiten, Belastungen und Fehlern. Er spricht sogar von dem ‚Oberflächen‘- (’surface‘) und dem ‚Internen‘- (‚internal‘) Artefakt. (vgl. S.70-81).
4) [Anmerkung: Die Unterscheidung von ‚Oberfläche‘ und ‚Intern‘ halte ich für problematisch, da natürlich jedes Artefakt, das als Interface einen Benutzerbezug hat letztlich nur über sein äußerlich beobachtbares Verhalten definierbar und kontrollierbar ist. Die jeweiligen internen Strukturen sind eher beliebig. Allerdings macht die Unterscheidung von ‚Oberflächeneigenschaften‘ und ‚Funktionszustand‘ Sinn. Wenn also ein Drehknopf die Lautstärke reguliert, dann wäre der Drehknopf mit seiner ‚Stellung‘ die Oberflächeneigenschaft und die jeweilige Lautstärke wäre ein davon abhängiger ‚Funktionszustand‘ oder einfach ‚Zustand‘. Der Zustand wäre Teil der Aufgabenstellung P. Das, was ein Benutzer U kontrollieren möchte, sind die verschiedenen Zustände {…,p_i.1, …, pi.n,…} von P. Nimm man also an, dass das Interface Int auch eine Menge von Oberflächeneigenschaften {ui_i.1, …, ui_i.m} umfasst, dann würde ein Interface eine Abbildung darstellen der Art Int: {…,ui_i.j, …} —> {…,p_r.s,…}. Nehmen wir an, die Menge P enthält genau die Zustände des Problems P, die ‚wichtig‘ sind, dann wäre es für einen Benutzer U natürlich um so ‚einfacher‘, P zu ‚kontrollieren‘, (i) um so direkter die Menge dom(Int) = {ui_i.1, …, ui_i.m} bestimmten Problemzuständen entsprechen würde und (ii) um so mehr die Menge dom(Int) den kognitiven Fähigkeiten des Benutzers entsprechen würde. ]
5) Auf den SS.82-90 illustriert Norman diesen grundlegenden Sachverhalt mit einer Reihe von Beispielen (Türme von Hanoi, Kaffeetassen).

COMPUTER KEIN MENSCH
FORMALE LOGIK vs. ALLTAGS-LOGIK

6) Norman wiederholt dann die Feststellung, dass die Art wie das menschliche Gehirn ‚denkt‘ und wie Computer oder die mathematische Logik Probleme behandeln, grundlegend verschieden ist. Er unterstreicht auch nochmals, dass die Qualität von psychologischen Zuständen (z.B. im Wahrnehmen, Denken) oft keine direkten Rückschlüsse auf die realen Gegebenheiten zulassen. (vgl. S.90-93)
7) [Anmerkung1: Die Tatsache, dass die ‚formale Logik‘ Logik der Neuzeit nicht der ‚Logik des Gehirns‘ entspricht, wird meines Erachtens bislang zu wenig untersucht. Alle Beweise in der Mathematik und jenen Disziplinen, die es schaffen, mathematische Modelle = Theorien zu ihren empirischen Fakten zu generieren, benutzen als offizielle Methode der Beweisführung die formale Logik. Diese formale Logik arbeitet aber anders als die ‚Logik des Alltags‘, in der wir mit unserem Gehirn Abstrahieren und Schlüsse ziehen. In meiner Ausbildung habe ich erlebt, wie man vom ‚alltäglichen‘ Denken in ein ‚formales‘ Denken quasi umschalten kann; man muss bestimmte Regeln einhalten, dann läuft es quasi ‚wie von selbst‘, aber das Umschalten selbst, die Unterschiede beider Denkweisen, sind meines Wissens bislang noch nie richtig erforscht worden. Hier täte ein geeignetes Artefakt = Interface wirklich Not. Während man im Bereich der formalen Logik genau sagen kann,was ein Beweis ist bzw. ob eine bestimmte Aussage ‚bewiesen‘ worden ist, kann man das im alltäglichen denken nur sehr schwer bis gar nicht. Dennoch können wir mit unserem alltäglichen Denken Denkleistungen erbringen, die sich mit einem formalen Apparat nur schwer bis (zur Zeit) gar nicht erbringen lassen. (Auf den SS.128f ergänzt Norman seine Bemerkungen zum Unterschied von formaler Logik und dem menschlichen Denken.)]
8) [Anmerkung2: Daraus folgt u.a., dass nicht nur die Ausgestaltung von konkreten Artefakten/ Schnittstellen sehr ausführlich getestet werden müssen, sondern auch der Benutzer selbst muss in all diesen Tests in allen wichtigen Bereichen vollständig einbezogen werden.]
9) Auf den SS.93-102 diskutiert Norman diesen allgemeinen Sachverhalt am Beispiel von graphischen Darstellungen, Für und Wider, beliebte Fehlerquellen, gefolgt von einigen weiteren allgemeinen Überlegungen. vgl. S.102-113)
10) Auf den Seiten 115-121 trägt Norman viele Eigenschaften zusammen, die für Menschen (den homo sapiens sapiens) charakteristisch sind und die ihn nicht nur von anderen Lebewesen (einschließlich Affen) unterscheiden, sondern vor allem auch von allen Arten von Maschinen, insbesondere Computer, einschließlich sogenannter ‚intelligenter‘ Maschinen (Roboter). Im Prinzip sind es drei Bereiche, in denen sich das Besondere zeigt: (i) der hochkomplexe Körper, (ii) das hochkomplexe Gehirn im Körper, (iii) die Interaktions- und Kooperationsmöglichkeiten, die soziale Strukturen, Kultur und Technologie ermöglichen. Die Komplexität des Gehirns ist so groß, dass im gesamten bekannten Universum nichts Vergleichbares existiert. Die Aufzählung von charakteristischen Eigenschaften auf S.119 ist beeindruckend und lässt sich sicher noch erweitern.
11) [Anmerkung: Im Bereich Mench-Maschine Interaktion (MMI)/ Human-Machine Interaction (HMI) – und ähnlich lautenden Bezeichnungen – geht es – wie der Name schon sagt – primär um die Beziehungen zwischen möglichen technischen Systemen und den spezifischen Eigenschaften des Menschen. In der Regel wird aber der Mensch ‚als Mensch‘, die besondere Stellung des Menschen nicht so thematisiert, wie es hier Norman tut. Die MMI/ HMI Literatur hat immer den Hauch einer ‚Effizienz-Disziplin‘: nicht die Bedürfnisse des Menschen als Menschen stehen im Mittelpunkt, sondern (unterstelle ich jetzt) ein übergeordneter Produktionsprozess, für dessen Funktionieren und dessen Kosten es wichtig ist, dass die Mensch-Maschine Schnittstellen möglichst wenig Fehler produzieren und dass sie mit möglichst geringem Trainingsaufwand beherrschbar sind. In gewissem Sinne ist diese Effizienzorientierung legitim, da der Mensch ‚als Mensch‘ in sich eine Art ‚unendliches Thema‘ ist, das kaum geeignet ist für konkrete Produktionsprozesse. Wenn ich aber einen konkreten Produktionsprozess verantworten muss, dann bin ich (unter Voraussetzung dieses Prozesses) gezwungen, mich auf das zu beschränken, was notwendig ist, um genau diesen Prozess zum Laufen zu bringen. Allgemeine Fragen nach dem Menschen und seiner ‚Bestimmung‘ können hier nur stören bzw. sind kaum behandelbar. Andererseits, wo ist der Ort, um über die Besonderheiten des Menschen nachzudenken wenn nicht dort, wo Menschen real vorkommen und arbeiten müssen? Philosophie im ‚Reservat des gesellschaftlichen Nirgendwo‘ oder dort, wo das Leben stattfindet?]

EVOLUTIONÄRE HERLEITUNG DES JETZT

12) Mit Bezugnahme auf Mervin Donald (1991) macht Norman darauf aufmerksam dass die auffälligen Eigenschaften des Menschen auch einen entsprechenden evolutionären Entwicklungsprozess voraussetzen, innerhalb dessen sich die heutigen Eigenschaften schrittweise herausgebildet haben. Das Besondere am evolutionären Prozess liegt darin, dass er immer nur ‚weiterbauen‘ kann an dem, was schon erreicht wurde. Während moderne Ingenieure immer wieder auch mal einen kompletten ‚Neuentwurf‘ angehen können (der natürlich niemals radikal ganz neu ist), kann die biologische Evolution immer nur etwas, was gerade da ist, geringfügig modifizieren, also ein System S‘ zum Zeitpunkt t+1 geht hervor aus einem System S zum Zeitpunkt t und irgendwelchen Umgebungseigenschaften (E = environmental properties): S'(t+1) = Evol(S(t),E). Die Details dieses Prozesses, so wie Donald sie herausarbeitet, sind sicher diskutierbar, aber das Grundmodell sicher nicht.(vgl. SS.121-127)
13) [Anmerkung: Obwohl die Wissenschaft heute die Idee einer evolutionären Entwicklung als quasi Standard akzeptiert hat ist doch auffällig, wie wenig diese Erkenntnisse in einer theoretischen Biologie, theoretischen Psychologie und auch nicht in einer Künstlichen Intelligenzforschung wirklich angewendet werden. Eine ‚Anwendung‘ dieser Einsichten würde bedeuten, dass man relativ zu bestimmten phäomenalen Verhaltenseigenschaften nicht nur ein Strukturmodell S'(t) angibt, das diese Leistungen punktuell ‚erklären‘ kann, sondern darüber hinaus auch ein evolutionäres (prozessurales) Modell, aus dem sichtbar wird, wie die aktuelle Struktur S'(t) aus einer Vorgängerstruktur S(t-1) hervorgehen konnte. In der künstlichen Intelligenzforschung gibt es zwar einen Bereich ‚evolutionäre Programmierung‘, aber der hat wenig mit der bewussten theoretischen Rekonstruktion von Strukturentstehungen zu tun. Näher dran ist vielleicht das Paradigma ‚Artificial Life‘. aber da habe ich aktuell noch zu wenig Breitenwissen.]

GESCHICHTEN

14) Nach kurzen Bemerkungen zur Leistungsfähigkeit des Menschen schon mit wenig partiellen Informationen aufgrund seines Gedächtnisses Zusammenhänge erkennen zu können, was zugleich ein großes Fehlerrisiko birgt (vgl. S.127f), verlagert er dann den Fokus auf die erstaunliche Fähigkeit des Menschen, mit großer Leichtigkeit sowohl komplexe Geschichten (’stories‘) erzeugen, erinnern, und verstehen zu können. Er verweist dabei vor allem auf die Forschungen von Roger Schanck.(vgl. 129f)

TYPISCHE MENSCHLICHE FEHLER

15) Norman erwähnt typische Fehler, die Menschen aufgrund ihrer kognitiven Struktur machen: Flüchtigkeitsfehler (’slips‘) und richtige Fehler (‚mistakes‘). Fehler erhöhen sich, wenn man nicht berücksichtigt, dass Menschen sich eher keine Details merken, sondern ‚wesentliche Sachverhalte‘ (’substance and meaning‘); wir können uns in der Regel nur auf eine einzige Sache konzentrieren, und hier nicht so sehr ‚kontinuierlich‘ sondern punktuell mit Blick auf stattfindende ‚Änderungen‘. Dementsprechend merken wir uns eher ‚Neuheiten‘ und weniger Wiederholungen von Bekanntem.(vgl. S.131) Ein anderes typisches Fehlerverhalten ist die Fixierung auf eine bestimmte Hypothese. Es ist eine gewisse Stärke, einen bestimmten Erklärungsansatz durch viele unterschiedliche Situation ‚durchzutragen‘, ihn unter wechselnden Randbedingungen zu ‚bestätigen‘; zugleich ist es aber auch eine der größten Fehlerquellen, nicht genügend Alternativen zu sehen und aktiv zu überprüfen. Man nennt dies den ‚Tunnelblick‘ (‚tunnel vision‘). (vgl. SS.31-138)

Fortsetzung folgt mit Teil 6

LITERATURVERWEISE

Merlin Donald, „Origins of the Modern Mind: Three Stages in the Evolution of Culture and Cognition“, Cambridge (MA): Harvard University Press,1991

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.