DONALD A.NORMAN, THINGS THAT MAKE US SMART – Teil 5

Diesem Beitrag ging voraus Teil 4.

BISHER

In den vorausgehenden Teilen wurden bislang zwei Aspekte sichtbar: einmal die ‚Menschenvergessenheit‘ in der Entwicklung und Nutzung von Technologie sowie die Einbeziehung von ‚wissensunterstützenden Dingen‘ sowohl außerhalb des Körpers (physisch) wie auch im Denken selber (kognitiv). Ferner hatte Norman die Vielfalt des Denkens auf zwei ‚Arbeitsweisen‘ reduziert: die ‚erfahrungsorientierte‘ Vorgehensweise, ohne explizite Reflexion (die aber über ‚Training‘ implizit in die Erfahrung eingegangen sein kann), und die ‚reflektierende‘ Vorgehensweise. Er unterschied ferner grob zwischen dem Sammeln (‚accretion‘) von Fakten, einer ‚Abstimmung‘ (‚tuning‘) der verschiedenen Parameter für ein reibungsloses Laufen, Schreiben, Sprechen, usw., und einer Restrukturierung (‚restructuring‘) vorhandener begrifflicher Konzepte. Ferner sieht er in der ‚Motivation‘ einen wichtigen Faktor. Diese Faktoren können ergänzt werden um Artefakte, die Denkprozesse unterstützen. In diesem Zusammenhang führt Norman die Begriffe ‚Repräsentation‘ und ‚Abstraktion‘ ein, ergänzt um ‚Symbol‘ (nicht sauber unterschieden von ‚Zeichen‘) und ‚Interpreter‘. Mit Hilfe von Abstraktionen und Symbolen können Repräsentationen von Objekten realisiert werden, die eine deutliche Verstärkung der kognitiven Fähigkeiten darstellen.

PROBLEMZUGANG DURCH INTERFACE VERBESSERN

1) Auf den S.77-113 widmet sich Norman dem Thema, wie Artefakte die Behandlung einer Aufgabe ändern können. Er geht dabei aus von der fundamentalen Einsicht, dass die Benutzung eines Artefaktes nicht die kognitiven Eigenschaften des Benutzers als solchen ändert, sondern – bestenfalls – den Zugang zum Problem. (vgl. S.77f).
2) [Anmerkung: Wir haben also zwei Situationen Sit1= und Sit2= mit ‚P‘ für ‚Problem=Aufgabe‘, ‚Int‘ für ‚Interface = Artefakt‘ und ‚U‘ für ‚User = Benutzer‘. Während in Situation 1 der Benutzer mit seinen ‚angeborenen kognitiven Strukturen‘ das Problem verarbeiten muss, kann er in Situation 2 auf ein Interface Int zurückgreifen, das idealerweise alle jene Aspekte des Problems, die für ihn wichtig sind, in einer Weise ‚aufbereitet‘, die es ihm ‚leichter‘ macht, mit seinen ‚angeborenen‘ kognitiven Fähigkeiten damit umzugehen. Nehmen wir zusätzlich an, dass der Benutzer U ein lernfähiges System ist mit der minimalen Struktur U= und fu: I x IS —> IS x O, dann würde man annehmen, dass das Interface eine Art Abbildung leistet der Art Int: P —> I und Int: O —> P. Wie ‚gut‘ oder ’schlecht‘ ein Interface ist, könnte man dann einfach daran überprüfen, wieweit der Benutzer U dadurch seine Aufgaben ’schneller‘, ‚leichter‘, ‚mit weniger Fehlern‘, mit ‚mehr Zufriedenheit‘ usw. leisten könnte.]
3) Norman macht dann auf den Umstand aufmerksam, dass zwischen den wahrnehmbaren Eigenschaften eines Artefakts und den korrelierenden ‚Zuständen‘ bei der heutigen stark integrierten Technologie oft kein Zusammenhang mehr erkennbar ist. Dies führt zu Unklarheiten, Belastungen und Fehlern. Er spricht sogar von dem ‚Oberflächen‘- (’surface‘) und dem ‚Internen‘- (‚internal‘) Artefakt. (vgl. S.70-81).
4) [Anmerkung: Die Unterscheidung von ‚Oberfläche‘ und ‚Intern‘ halte ich für problematisch, da natürlich jedes Artefakt, das als Interface einen Benutzerbezug hat letztlich nur über sein äußerlich beobachtbares Verhalten definierbar und kontrollierbar ist. Die jeweiligen internen Strukturen sind eher beliebig. Allerdings macht die Unterscheidung von ‚Oberflächeneigenschaften‘ und ‚Funktionszustand‘ Sinn. Wenn also ein Drehknopf die Lautstärke reguliert, dann wäre der Drehknopf mit seiner ‚Stellung‘ die Oberflächeneigenschaft und die jeweilige Lautstärke wäre ein davon abhängiger ‚Funktionszustand‘ oder einfach ‚Zustand‘. Der Zustand wäre Teil der Aufgabenstellung P. Das, was ein Benutzer U kontrollieren möchte, sind die verschiedenen Zustände {…,p_i.1, …, pi.n,…} von P. Nimm man also an, dass das Interface Int auch eine Menge von Oberflächeneigenschaften {ui_i.1, …, ui_i.m} umfasst, dann würde ein Interface eine Abbildung darstellen der Art Int: {…,ui_i.j, …} —> {…,p_r.s,…}. Nehmen wir an, die Menge P enthält genau die Zustände des Problems P, die ‚wichtig‘ sind, dann wäre es für einen Benutzer U natürlich um so ‚einfacher‘, P zu ‚kontrollieren‘, (i) um so direkter die Menge dom(Int) = {ui_i.1, …, ui_i.m} bestimmten Problemzuständen entsprechen würde und (ii) um so mehr die Menge dom(Int) den kognitiven Fähigkeiten des Benutzers entsprechen würde. ]
5) Auf den SS.82-90 illustriert Norman diesen grundlegenden Sachverhalt mit einer Reihe von Beispielen (Türme von Hanoi, Kaffeetassen).

COMPUTER KEIN MENSCH
FORMALE LOGIK vs. ALLTAGS-LOGIK

6) Norman wiederholt dann die Feststellung, dass die Art wie das menschliche Gehirn ‚denkt‘ und wie Computer oder die mathematische Logik Probleme behandeln, grundlegend verschieden ist. Er unterstreicht auch nochmals, dass die Qualität von psychologischen Zuständen (z.B. im Wahrnehmen, Denken) oft keine direkten Rückschlüsse auf die realen Gegebenheiten zulassen. (vgl. S.90-93)
7) [Anmerkung1: Die Tatsache, dass die ‚formale Logik‘ Logik der Neuzeit nicht der ‚Logik des Gehirns‘ entspricht, wird meines Erachtens bislang zu wenig untersucht. Alle Beweise in der Mathematik und jenen Disziplinen, die es schaffen, mathematische Modelle = Theorien zu ihren empirischen Fakten zu generieren, benutzen als offizielle Methode der Beweisführung die formale Logik. Diese formale Logik arbeitet aber anders als die ‚Logik des Alltags‘, in der wir mit unserem Gehirn Abstrahieren und Schlüsse ziehen. In meiner Ausbildung habe ich erlebt, wie man vom ‚alltäglichen‘ Denken in ein ‚formales‘ Denken quasi umschalten kann; man muss bestimmte Regeln einhalten, dann läuft es quasi ‚wie von selbst‘, aber das Umschalten selbst, die Unterschiede beider Denkweisen, sind meines Wissens bislang noch nie richtig erforscht worden. Hier täte ein geeignetes Artefakt = Interface wirklich Not. Während man im Bereich der formalen Logik genau sagen kann,was ein Beweis ist bzw. ob eine bestimmte Aussage ‚bewiesen‘ worden ist, kann man das im alltäglichen denken nur sehr schwer bis gar nicht. Dennoch können wir mit unserem alltäglichen Denken Denkleistungen erbringen, die sich mit einem formalen Apparat nur schwer bis (zur Zeit) gar nicht erbringen lassen. (Auf den SS.128f ergänzt Norman seine Bemerkungen zum Unterschied von formaler Logik und dem menschlichen Denken.)]
8) [Anmerkung2: Daraus folgt u.a., dass nicht nur die Ausgestaltung von konkreten Artefakten/ Schnittstellen sehr ausführlich getestet werden müssen, sondern auch der Benutzer selbst muss in all diesen Tests in allen wichtigen Bereichen vollständig einbezogen werden.]
9) Auf den SS.93-102 diskutiert Norman diesen allgemeinen Sachverhalt am Beispiel von graphischen Darstellungen, Für und Wider, beliebte Fehlerquellen, gefolgt von einigen weiteren allgemeinen Überlegungen. vgl. S.102-113)
10) Auf den Seiten 115-121 trägt Norman viele Eigenschaften zusammen, die für Menschen (den homo sapiens sapiens) charakteristisch sind und die ihn nicht nur von anderen Lebewesen (einschließlich Affen) unterscheiden, sondern vor allem auch von allen Arten von Maschinen, insbesondere Computer, einschließlich sogenannter ‚intelligenter‘ Maschinen (Roboter). Im Prinzip sind es drei Bereiche, in denen sich das Besondere zeigt: (i) der hochkomplexe Körper, (ii) das hochkomplexe Gehirn im Körper, (iii) die Interaktions- und Kooperationsmöglichkeiten, die soziale Strukturen, Kultur und Technologie ermöglichen. Die Komplexität des Gehirns ist so groß, dass im gesamten bekannten Universum nichts Vergleichbares existiert. Die Aufzählung von charakteristischen Eigenschaften auf S.119 ist beeindruckend und lässt sich sicher noch erweitern.
11) [Anmerkung: Im Bereich Mench-Maschine Interaktion (MMI)/ Human-Machine Interaction (HMI) – und ähnlich lautenden Bezeichnungen – geht es – wie der Name schon sagt – primär um die Beziehungen zwischen möglichen technischen Systemen und den spezifischen Eigenschaften des Menschen. In der Regel wird aber der Mensch ‚als Mensch‘, die besondere Stellung des Menschen nicht so thematisiert, wie es hier Norman tut. Die MMI/ HMI Literatur hat immer den Hauch einer ‚Effizienz-Disziplin‘: nicht die Bedürfnisse des Menschen als Menschen stehen im Mittelpunkt, sondern (unterstelle ich jetzt) ein übergeordneter Produktionsprozess, für dessen Funktionieren und dessen Kosten es wichtig ist, dass die Mensch-Maschine Schnittstellen möglichst wenig Fehler produzieren und dass sie mit möglichst geringem Trainingsaufwand beherrschbar sind. In gewissem Sinne ist diese Effizienzorientierung legitim, da der Mensch ‚als Mensch‘ in sich eine Art ‚unendliches Thema‘ ist, das kaum geeignet ist für konkrete Produktionsprozesse. Wenn ich aber einen konkreten Produktionsprozess verantworten muss, dann bin ich (unter Voraussetzung dieses Prozesses) gezwungen, mich auf das zu beschränken, was notwendig ist, um genau diesen Prozess zum Laufen zu bringen. Allgemeine Fragen nach dem Menschen und seiner ‚Bestimmung‘ können hier nur stören bzw. sind kaum behandelbar. Andererseits, wo ist der Ort, um über die Besonderheiten des Menschen nachzudenken wenn nicht dort, wo Menschen real vorkommen und arbeiten müssen? Philosophie im ‚Reservat des gesellschaftlichen Nirgendwo‘ oder dort, wo das Leben stattfindet?]

EVOLUTIONÄRE HERLEITUNG DES JETZT

12) Mit Bezugnahme auf Mervin Donald (1991) macht Norman darauf aufmerksam dass die auffälligen Eigenschaften des Menschen auch einen entsprechenden evolutionären Entwicklungsprozess voraussetzen, innerhalb dessen sich die heutigen Eigenschaften schrittweise herausgebildet haben. Das Besondere am evolutionären Prozess liegt darin, dass er immer nur ‚weiterbauen‘ kann an dem, was schon erreicht wurde. Während moderne Ingenieure immer wieder auch mal einen kompletten ‚Neuentwurf‘ angehen können (der natürlich niemals radikal ganz neu ist), kann die biologische Evolution immer nur etwas, was gerade da ist, geringfügig modifizieren, also ein System S‘ zum Zeitpunkt t+1 geht hervor aus einem System S zum Zeitpunkt t und irgendwelchen Umgebungseigenschaften (E = environmental properties): S'(t+1) = Evol(S(t),E). Die Details dieses Prozesses, so wie Donald sie herausarbeitet, sind sicher diskutierbar, aber das Grundmodell sicher nicht.(vgl. SS.121-127)
13) [Anmerkung: Obwohl die Wissenschaft heute die Idee einer evolutionären Entwicklung als quasi Standard akzeptiert hat ist doch auffällig, wie wenig diese Erkenntnisse in einer theoretischen Biologie, theoretischen Psychologie und auch nicht in einer Künstlichen Intelligenzforschung wirklich angewendet werden. Eine ‚Anwendung‘ dieser Einsichten würde bedeuten, dass man relativ zu bestimmten phäomenalen Verhaltenseigenschaften nicht nur ein Strukturmodell S'(t) angibt, das diese Leistungen punktuell ‚erklären‘ kann, sondern darüber hinaus auch ein evolutionäres (prozessurales) Modell, aus dem sichtbar wird, wie die aktuelle Struktur S'(t) aus einer Vorgängerstruktur S(t-1) hervorgehen konnte. In der künstlichen Intelligenzforschung gibt es zwar einen Bereich ‚evolutionäre Programmierung‘, aber der hat wenig mit der bewussten theoretischen Rekonstruktion von Strukturentstehungen zu tun. Näher dran ist vielleicht das Paradigma ‚Artificial Life‘. aber da habe ich aktuell noch zu wenig Breitenwissen.]

GESCHICHTEN

14) Nach kurzen Bemerkungen zur Leistungsfähigkeit des Menschen schon mit wenig partiellen Informationen aufgrund seines Gedächtnisses Zusammenhänge erkennen zu können, was zugleich ein großes Fehlerrisiko birgt (vgl. S.127f), verlagert er dann den Fokus auf die erstaunliche Fähigkeit des Menschen, mit großer Leichtigkeit sowohl komplexe Geschichten (’stories‘) erzeugen, erinnern, und verstehen zu können. Er verweist dabei vor allem auf die Forschungen von Roger Schanck.(vgl. 129f)

TYPISCHE MENSCHLICHE FEHLER

15) Norman erwähnt typische Fehler, die Menschen aufgrund ihrer kognitiven Struktur machen: Flüchtigkeitsfehler (’slips‘) und richtige Fehler (‚mistakes‘). Fehler erhöhen sich, wenn man nicht berücksichtigt, dass Menschen sich eher keine Details merken, sondern ‚wesentliche Sachverhalte‘ (’substance and meaning‘); wir können uns in der Regel nur auf eine einzige Sache konzentrieren, und hier nicht so sehr ‚kontinuierlich‘ sondern punktuell mit Blick auf stattfindende ‚Änderungen‘. Dementsprechend merken wir uns eher ‚Neuheiten‘ und weniger Wiederholungen von Bekanntem.(vgl. S.131) Ein anderes typisches Fehlerverhalten ist die Fixierung auf eine bestimmte Hypothese. Es ist eine gewisse Stärke, einen bestimmten Erklärungsansatz durch viele unterschiedliche Situation ‚durchzutragen‘, ihn unter wechselnden Randbedingungen zu ‚bestätigen‘; zugleich ist es aber auch eine der größten Fehlerquellen, nicht genügend Alternativen zu sehen und aktiv zu überprüfen. Man nennt dies den ‚Tunnelblick‘ (‚tunnel vision‘). (vgl. SS.31-138)

Fortsetzung folgt mit Teil 6

LITERATURVERWEISE

Merlin Donald, „Origins of the Modern Mind: Three Stages in the Evolution of Culture and Cognition“, Cambridge (MA): Harvard University Press,1991

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

Schreibe einen Kommentar