Archiv der Kategorie: Artefakt

VERSCHRÄNKUNG VON REALITÄT UND VIRTUALITÄT – ZUKUNFT ODER ENDE DES MENSCHEN? – Randbemerkungen zu einer Veranstaltung des DAM Frankfurt 2.März 2016

VERSCHRÄNKUNG VON REALITÄT UND VIRTUALITÄT – ZUKUNFT ODER ENDE DES MENSCHEN? – Randbemerkungen zu einer Veranstaltung des DAM Frankfurt 2.März 2016

DIE VERANSTALTUNG

  1. Gestern Abend war ich Besucher einer Veranstaltung im Deutschen Architekturmuseum (DAM) mit dem Titel Konstruierte Realitäten. Verschränkung von virtueller und realer Welt. Nach einer umfangreichen Präsentation des Ateliers Markgraph mit Praxisbeispielen aus vielen Jahren von der künstlerischen Inszenierung der Automarke Mercedes auf der Internationalen Automobile Ausstellung (IAA) in Frankfurt, gab Prof. Lawo von der Universität Bremen einen umfassenden Überblick über die Entwicklung der Interaktion zwischen Menschen und Objekten/ Modellen.

ATELIER MARKGRAPH – INSZENIERUNG EINES OBJEKTES

  1. Die Präsentation des Ateliers Markgraph (mit Raimund Ziemer und Peter Eberhard) berührte viele Aspekte und bot natürlich – wie es sich für eine solche Agentur gehört – viele spannende, ästhetisch ansprechende Bilder. Die zugehörigen Sounds waren nicht dabei oder, wenn sie dabei waren, leider ziemlich schlecht.
  2. Entscheidend waren aber die Botschaften. Von den vielen Aspekten fand ich interessant, wie das zu inszenierende Objekt – hier die Autos der Marke Mercedes – im Laufe der Jahre immer mehr Teil einer medialen Inszenierung wurden, die das physikalische Objekt mehr und mehr zu verschlucken begann; es war und ist immer noch real da, aber im medialen Drumherum gewinnt die virtuelle Welt in Form von Bildern und Sound selbst eine solche Realität, dass die Grenzen zwischen realem Objekt Auto und virtuellem Kontext sich zu einer neuen Art von Virrealität in der Wahrnehmung des Zuschauers verbindet.
  3. Letztlich verschwindet das reale Objekt (der Begierde) in einem größer werdenden Kontext von Botschaften, Themen, die im Sinne des Unternehmens (und eventuell auch der Gesellschaft) vernünftig sind (wie Energiesparen, alternative Energien, autonomes Fahren mit weniger Unfällen, usw.), die aber nicht notwendigerweise die Gefühle und Bedürfnisse der Besucher treffen.
  4. Man kann sich nicht des Eindrucks erwehren, dass mit der zunehmenden ästhetischen Überladung der Kontexte sich nicht nur das Objekt der Begierde vom Benutzer entfernt, sondern dass auch der Benutzer selbst sich irgendwo in diesem ästhetischen Superfeuerwerk irgendwie verloren, sehr klein, und hilflos fühlen kann/ fühlt. Das geliebte Auto wird immer unzugänglicher, immer fremder, ein Überobjekt, dazu noch vernetzt auf eine Weise, die der Benutzer möglicherweise gar nicht will bzw. immer weniger beeinflussen kann.

VORTRAG PROF.LAWO

  1. Im nachfolgenden Vortrag, der mit dem Thema der Inszenierung einer Marke auf der IAA nichts zu tun hatte, konnte man aber ein ähnliches Muster beobachten. Professor Lawo, der  die bisherige Entwicklung vom ersten Computer bis zu den heutigen Systemen selbst noch miterlebt hat und sich im Bereich der Nutzung von Computermodellierung und -simulation spezialisiert hatte, lies die Zuhörer diese Entwicklung mitverfolgen. So konnte jeder vor seinem geistigen Auge nachvollziehen, wie sich die Entwicklung vom ersten Modell im Computer (z.B. erste Hausmodelle im Computer, CAD) bis hin zu immer mehr Interaktion mit solchen Modellen (z.B. Spielekonsolen, technische Simulatoren, Telemedizin, VR-Brillen…) vollzog. Die virtuellen Modelle fühlen sich für den Benutzer immer realistischer an. Heute können wir nicht nur dreidimensional sehen, man bekommt auch die Bewegungen dazu, den Sound, die Widersetzlichkeit von Aktionen, wenn auch noch nicht alles.
  2. Auch hier also der Trend zur Verschmelzung von Realität und Vitualität. Dazu kam noch das Thema der Wearables, der tragbaren Sensorik und Aktorik am Körper, in der Kleidung, im Körper, wodurch sich die Interaktion des Menschen mit seiner Umgebung vielfach erweitern kann.

DISKUSSION

  1. In der anschließenden Diskussion führte diese zunehmende Verschmelzung zu allerlei Fragestellungen. Eine war, ob hier nicht die Technik um der Technik willen immer weiter entwickelt wird und die Frage nach dem Benutzer – trotz aller Lippenbekenntnisse – letztlich sekundär ist. Ist es nicht so, dass sich – wie schon in der Frühzeit des Computers – sich die Technik nicht nach den Bedürfnissen des Menschen richtet, sondern der Mensch muss sich der Technik anpassen?
  2. Letztere Frage kann einen negativen Beigeschmack haben. Andererseits, falls es eine übergeordnete Perspektive gäbe, aus der heraus klar werden könnte, dass diese technischen Veränderungsprozesse samt den begleitenden Anpassungsprozessen einer übergeordneten Entwicklungslogik geschuldet sind, der wir alle unterliegen, dann könne man diese Veränderungen eher positiv als Herausforderungen sehen, die wir natürlich meistern sollten. Aktuell hat man aber eher den Eindruck, dass die einzelnen Technologieführer die Treiber sind, die den Menschen nur als Cash Cow für ihre Spielchen brauchen. Der Mensch selbst ist kein Thema. Professor Lawo formulierte es so „Technik passiert einfach“.
  3. Weitet man den Blick, sieht man, wie die Digitalisierung ja mittlerweile überall stattfindet, in allen Lebensbereichen, und dass selbst internationale Konzerne mittlerweile fast mehr Opfer denn Herren des Digitalisierungsgeschehens sind, denn wirkliche Gestalter, dann muss man die Frage stellen, ob die Formulierung Technik passiert einfach nicht dann doch eine Mehrfachdeutung zulässt. Ja, aus Sicht der einzelnen Akteure (Atelier Markgraph, Professor Lawo) passiert sie in dem Sinne, dass man sie benutzen muss, will man im Spiel bleiben. Aber kein einzelner kann von sich sagen, er entwickle diese globale Welle. Und doch, jeder bastelt ein Stückchen am großen Ganzen, und letztlich reiten dann alle auf dieser Technologie-Monsterwelle durch die Zeit, ohne dass es einen einzigen Autor, ohne dass es einen einzigen umfassenden Manager gibt, der das alles in der Hand hat. Es geschieht allen.
  4. In diesem Blog wurde schon oft die Evolution thematisiert als das übergreifende Geschehen, innerhalb dessen auch wir uns vorfinden. Betrachtet man die sich entwickelnde Komplexität biologischer Systeme auf der Erde mit der unfassbaren Explosion er letzten Jahrzehnte (bei einer Vorgeschichte von mehr als 13 Mrd Jahren), und betrachtet man speziell den Komplexitätssprung vom Fortpflanzungsmechanismus der normalen Zelle hin zum Gehirn des homo sapiens mit seiner zusätzlichen Erweiterung durch Computer, Datenbanken und Netzwerken, dann ist die Technikexplosion der letzten 50-70 Jahre kein Zufall; sie erscheint vielmehr tatsächlich als unausweichliche Entwicklung eines Evolutionsturbos, der sich keiner entziehen kann. Wenn dieser Blick zutrifft, dann stehen wir sogar erst am Anfang einer Entwicklung, von der niemand aktuell sagen kann, wo sie endet. Der homo sapiens von 2016 wird ein anderer sein als der homo sapiens von 2116.
  5. Vielleicht wären wir alle einen Schritt weiter, wenn wir diese Entwicklung samt der übergreifenden evolutionären Perspektive erst einmal gemeinsam sehen könnten; vielleicht nicht unbedingt akzeptieren. Denn nicht alles was geht ist – wie die vielen Milliarden Jahre vorausgehende Entwicklung und die paar tausend Jahre menschliche Kulturgeschichte zeigen – notwendigerweise gut. Es gibt Spielräume, es gibt Präferenzen; allerdings müssen diese gefunden werden; sie sind nicht da. Viele (die meisten?) der alten Werte können wir wohl nicht mitnehmen in die kommende Zeit.

Einen Überblick zu allen Blogeinträgen von Autor cagent nach Titeln findet sich HIER.

DONALD A.NORMAN, THINGS THAT MAKE US SMART – Teil 5

Diesem Beitrag ging voraus Teil 4.

BISHER

In den vorausgehenden Teilen wurden bislang zwei Aspekte sichtbar: einmal die ‚Menschenvergessenheit‘ in der Entwicklung und Nutzung von Technologie sowie die Einbeziehung von ‚wissensunterstützenden Dingen‘ sowohl außerhalb des Körpers (physisch) wie auch im Denken selber (kognitiv). Ferner hatte Norman die Vielfalt des Denkens auf zwei ‚Arbeitsweisen‘ reduziert: die ‚erfahrungsorientierte‘ Vorgehensweise, ohne explizite Reflexion (die aber über ‚Training‘ implizit in die Erfahrung eingegangen sein kann), und die ‚reflektierende‘ Vorgehensweise. Er unterschied ferner grob zwischen dem Sammeln (‚accretion‘) von Fakten, einer ‚Abstimmung‘ (‚tuning‘) der verschiedenen Parameter für ein reibungsloses Laufen, Schreiben, Sprechen, usw., und einer Restrukturierung (‚restructuring‘) vorhandener begrifflicher Konzepte. Ferner sieht er in der ‚Motivation‘ einen wichtigen Faktor. Diese Faktoren können ergänzt werden um Artefakte, die Denkprozesse unterstützen. In diesem Zusammenhang führt Norman die Begriffe ‚Repräsentation‘ und ‚Abstraktion‘ ein, ergänzt um ‚Symbol‘ (nicht sauber unterschieden von ‚Zeichen‘) und ‚Interpreter‘. Mit Hilfe von Abstraktionen und Symbolen können Repräsentationen von Objekten realisiert werden, die eine deutliche Verstärkung der kognitiven Fähigkeiten darstellen.

PROBLEMZUGANG DURCH INTERFACE VERBESSERN

1) Auf den S.77-113 widmet sich Norman dem Thema, wie Artefakte die Behandlung einer Aufgabe ändern können. Er geht dabei aus von der fundamentalen Einsicht, dass die Benutzung eines Artefaktes nicht die kognitiven Eigenschaften des Benutzers als solchen ändert, sondern – bestenfalls – den Zugang zum Problem. (vgl. S.77f).
2) [Anmerkung: Wir haben also zwei Situationen Sit1= und Sit2= mit ‚P‘ für ‚Problem=Aufgabe‘, ‚Int‘ für ‚Interface = Artefakt‘ und ‚U‘ für ‚User = Benutzer‘. Während in Situation 1 der Benutzer mit seinen ‚angeborenen kognitiven Strukturen‘ das Problem verarbeiten muss, kann er in Situation 2 auf ein Interface Int zurückgreifen, das idealerweise alle jene Aspekte des Problems, die für ihn wichtig sind, in einer Weise ‚aufbereitet‘, die es ihm ‚leichter‘ macht, mit seinen ‚angeborenen‘ kognitiven Fähigkeiten damit umzugehen. Nehmen wir zusätzlich an, dass der Benutzer U ein lernfähiges System ist mit der minimalen Struktur U= und fu: I x IS —> IS x O, dann würde man annehmen, dass das Interface eine Art Abbildung leistet der Art Int: P —> I und Int: O —> P. Wie ‚gut‘ oder ’schlecht‘ ein Interface ist, könnte man dann einfach daran überprüfen, wieweit der Benutzer U dadurch seine Aufgaben ’schneller‘, ‚leichter‘, ‚mit weniger Fehlern‘, mit ‚mehr Zufriedenheit‘ usw. leisten könnte.]
3) Norman macht dann auf den Umstand aufmerksam, dass zwischen den wahrnehmbaren Eigenschaften eines Artefakts und den korrelierenden ‚Zuständen‘ bei der heutigen stark integrierten Technologie oft kein Zusammenhang mehr erkennbar ist. Dies führt zu Unklarheiten, Belastungen und Fehlern. Er spricht sogar von dem ‚Oberflächen‘- (’surface‘) und dem ‚Internen‘- (‚internal‘) Artefakt. (vgl. S.70-81).
4) [Anmerkung: Die Unterscheidung von ‚Oberfläche‘ und ‚Intern‘ halte ich für problematisch, da natürlich jedes Artefakt, das als Interface einen Benutzerbezug hat letztlich nur über sein äußerlich beobachtbares Verhalten definierbar und kontrollierbar ist. Die jeweiligen internen Strukturen sind eher beliebig. Allerdings macht die Unterscheidung von ‚Oberflächeneigenschaften‘ und ‚Funktionszustand‘ Sinn. Wenn also ein Drehknopf die Lautstärke reguliert, dann wäre der Drehknopf mit seiner ‚Stellung‘ die Oberflächeneigenschaft und die jeweilige Lautstärke wäre ein davon abhängiger ‚Funktionszustand‘ oder einfach ‚Zustand‘. Der Zustand wäre Teil der Aufgabenstellung P. Das, was ein Benutzer U kontrollieren möchte, sind die verschiedenen Zustände {…,p_i.1, …, pi.n,…} von P. Nimm man also an, dass das Interface Int auch eine Menge von Oberflächeneigenschaften {ui_i.1, …, ui_i.m} umfasst, dann würde ein Interface eine Abbildung darstellen der Art Int: {…,ui_i.j, …} —> {…,p_r.s,…}. Nehmen wir an, die Menge P enthält genau die Zustände des Problems P, die ‚wichtig‘ sind, dann wäre es für einen Benutzer U natürlich um so ‚einfacher‘, P zu ‚kontrollieren‘, (i) um so direkter die Menge dom(Int) = {ui_i.1, …, ui_i.m} bestimmten Problemzuständen entsprechen würde und (ii) um so mehr die Menge dom(Int) den kognitiven Fähigkeiten des Benutzers entsprechen würde. ]
5) Auf den SS.82-90 illustriert Norman diesen grundlegenden Sachverhalt mit einer Reihe von Beispielen (Türme von Hanoi, Kaffeetassen).

COMPUTER KEIN MENSCH
FORMALE LOGIK vs. ALLTAGS-LOGIK

6) Norman wiederholt dann die Feststellung, dass die Art wie das menschliche Gehirn ‚denkt‘ und wie Computer oder die mathematische Logik Probleme behandeln, grundlegend verschieden ist. Er unterstreicht auch nochmals, dass die Qualität von psychologischen Zuständen (z.B. im Wahrnehmen, Denken) oft keine direkten Rückschlüsse auf die realen Gegebenheiten zulassen. (vgl. S.90-93)
7) [Anmerkung1: Die Tatsache, dass die ‚formale Logik‘ Logik der Neuzeit nicht der ‚Logik des Gehirns‘ entspricht, wird meines Erachtens bislang zu wenig untersucht. Alle Beweise in der Mathematik und jenen Disziplinen, die es schaffen, mathematische Modelle = Theorien zu ihren empirischen Fakten zu generieren, benutzen als offizielle Methode der Beweisführung die formale Logik. Diese formale Logik arbeitet aber anders als die ‚Logik des Alltags‘, in der wir mit unserem Gehirn Abstrahieren und Schlüsse ziehen. In meiner Ausbildung habe ich erlebt, wie man vom ‚alltäglichen‘ Denken in ein ‚formales‘ Denken quasi umschalten kann; man muss bestimmte Regeln einhalten, dann läuft es quasi ‚wie von selbst‘, aber das Umschalten selbst, die Unterschiede beider Denkweisen, sind meines Wissens bislang noch nie richtig erforscht worden. Hier täte ein geeignetes Artefakt = Interface wirklich Not. Während man im Bereich der formalen Logik genau sagen kann,was ein Beweis ist bzw. ob eine bestimmte Aussage ‚bewiesen‘ worden ist, kann man das im alltäglichen denken nur sehr schwer bis gar nicht. Dennoch können wir mit unserem alltäglichen Denken Denkleistungen erbringen, die sich mit einem formalen Apparat nur schwer bis (zur Zeit) gar nicht erbringen lassen. (Auf den SS.128f ergänzt Norman seine Bemerkungen zum Unterschied von formaler Logik und dem menschlichen Denken.)]
8) [Anmerkung2: Daraus folgt u.a., dass nicht nur die Ausgestaltung von konkreten Artefakten/ Schnittstellen sehr ausführlich getestet werden müssen, sondern auch der Benutzer selbst muss in all diesen Tests in allen wichtigen Bereichen vollständig einbezogen werden.]
9) Auf den SS.93-102 diskutiert Norman diesen allgemeinen Sachverhalt am Beispiel von graphischen Darstellungen, Für und Wider, beliebte Fehlerquellen, gefolgt von einigen weiteren allgemeinen Überlegungen. vgl. S.102-113)
10) Auf den Seiten 115-121 trägt Norman viele Eigenschaften zusammen, die für Menschen (den homo sapiens sapiens) charakteristisch sind und die ihn nicht nur von anderen Lebewesen (einschließlich Affen) unterscheiden, sondern vor allem auch von allen Arten von Maschinen, insbesondere Computer, einschließlich sogenannter ‚intelligenter‘ Maschinen (Roboter). Im Prinzip sind es drei Bereiche, in denen sich das Besondere zeigt: (i) der hochkomplexe Körper, (ii) das hochkomplexe Gehirn im Körper, (iii) die Interaktions- und Kooperationsmöglichkeiten, die soziale Strukturen, Kultur und Technologie ermöglichen. Die Komplexität des Gehirns ist so groß, dass im gesamten bekannten Universum nichts Vergleichbares existiert. Die Aufzählung von charakteristischen Eigenschaften auf S.119 ist beeindruckend und lässt sich sicher noch erweitern.
11) [Anmerkung: Im Bereich Mench-Maschine Interaktion (MMI)/ Human-Machine Interaction (HMI) – und ähnlich lautenden Bezeichnungen – geht es – wie der Name schon sagt – primär um die Beziehungen zwischen möglichen technischen Systemen und den spezifischen Eigenschaften des Menschen. In der Regel wird aber der Mensch ‚als Mensch‘, die besondere Stellung des Menschen nicht so thematisiert, wie es hier Norman tut. Die MMI/ HMI Literatur hat immer den Hauch einer ‚Effizienz-Disziplin‘: nicht die Bedürfnisse des Menschen als Menschen stehen im Mittelpunkt, sondern (unterstelle ich jetzt) ein übergeordneter Produktionsprozess, für dessen Funktionieren und dessen Kosten es wichtig ist, dass die Mensch-Maschine Schnittstellen möglichst wenig Fehler produzieren und dass sie mit möglichst geringem Trainingsaufwand beherrschbar sind. In gewissem Sinne ist diese Effizienzorientierung legitim, da der Mensch ‚als Mensch‘ in sich eine Art ‚unendliches Thema‘ ist, das kaum geeignet ist für konkrete Produktionsprozesse. Wenn ich aber einen konkreten Produktionsprozess verantworten muss, dann bin ich (unter Voraussetzung dieses Prozesses) gezwungen, mich auf das zu beschränken, was notwendig ist, um genau diesen Prozess zum Laufen zu bringen. Allgemeine Fragen nach dem Menschen und seiner ‚Bestimmung‘ können hier nur stören bzw. sind kaum behandelbar. Andererseits, wo ist der Ort, um über die Besonderheiten des Menschen nachzudenken wenn nicht dort, wo Menschen real vorkommen und arbeiten müssen? Philosophie im ‚Reservat des gesellschaftlichen Nirgendwo‘ oder dort, wo das Leben stattfindet?]

EVOLUTIONÄRE HERLEITUNG DES JETZT

12) Mit Bezugnahme auf Mervin Donald (1991) macht Norman darauf aufmerksam dass die auffälligen Eigenschaften des Menschen auch einen entsprechenden evolutionären Entwicklungsprozess voraussetzen, innerhalb dessen sich die heutigen Eigenschaften schrittweise herausgebildet haben. Das Besondere am evolutionären Prozess liegt darin, dass er immer nur ‚weiterbauen‘ kann an dem, was schon erreicht wurde. Während moderne Ingenieure immer wieder auch mal einen kompletten ‚Neuentwurf‘ angehen können (der natürlich niemals radikal ganz neu ist), kann die biologische Evolution immer nur etwas, was gerade da ist, geringfügig modifizieren, also ein System S‘ zum Zeitpunkt t+1 geht hervor aus einem System S zum Zeitpunkt t und irgendwelchen Umgebungseigenschaften (E = environmental properties): S'(t+1) = Evol(S(t),E). Die Details dieses Prozesses, so wie Donald sie herausarbeitet, sind sicher diskutierbar, aber das Grundmodell sicher nicht.(vgl. SS.121-127)
13) [Anmerkung: Obwohl die Wissenschaft heute die Idee einer evolutionären Entwicklung als quasi Standard akzeptiert hat ist doch auffällig, wie wenig diese Erkenntnisse in einer theoretischen Biologie, theoretischen Psychologie und auch nicht in einer Künstlichen Intelligenzforschung wirklich angewendet werden. Eine ‚Anwendung‘ dieser Einsichten würde bedeuten, dass man relativ zu bestimmten phäomenalen Verhaltenseigenschaften nicht nur ein Strukturmodell S'(t) angibt, das diese Leistungen punktuell ‚erklären‘ kann, sondern darüber hinaus auch ein evolutionäres (prozessurales) Modell, aus dem sichtbar wird, wie die aktuelle Struktur S'(t) aus einer Vorgängerstruktur S(t-1) hervorgehen konnte. In der künstlichen Intelligenzforschung gibt es zwar einen Bereich ‚evolutionäre Programmierung‘, aber der hat wenig mit der bewussten theoretischen Rekonstruktion von Strukturentstehungen zu tun. Näher dran ist vielleicht das Paradigma ‚Artificial Life‘. aber da habe ich aktuell noch zu wenig Breitenwissen.]

GESCHICHTEN

14) Nach kurzen Bemerkungen zur Leistungsfähigkeit des Menschen schon mit wenig partiellen Informationen aufgrund seines Gedächtnisses Zusammenhänge erkennen zu können, was zugleich ein großes Fehlerrisiko birgt (vgl. S.127f), verlagert er dann den Fokus auf die erstaunliche Fähigkeit des Menschen, mit großer Leichtigkeit sowohl komplexe Geschichten (’stories‘) erzeugen, erinnern, und verstehen zu können. Er verweist dabei vor allem auf die Forschungen von Roger Schanck.(vgl. 129f)

TYPISCHE MENSCHLICHE FEHLER

15) Norman erwähnt typische Fehler, die Menschen aufgrund ihrer kognitiven Struktur machen: Flüchtigkeitsfehler (’slips‘) und richtige Fehler (‚mistakes‘). Fehler erhöhen sich, wenn man nicht berücksichtigt, dass Menschen sich eher keine Details merken, sondern ‚wesentliche Sachverhalte‘ (’substance and meaning‘); wir können uns in der Regel nur auf eine einzige Sache konzentrieren, und hier nicht so sehr ‚kontinuierlich‘ sondern punktuell mit Blick auf stattfindende ‚Änderungen‘. Dementsprechend merken wir uns eher ‚Neuheiten‘ und weniger Wiederholungen von Bekanntem.(vgl. S.131) Ein anderes typisches Fehlerverhalten ist die Fixierung auf eine bestimmte Hypothese. Es ist eine gewisse Stärke, einen bestimmten Erklärungsansatz durch viele unterschiedliche Situation ‚durchzutragen‘, ihn unter wechselnden Randbedingungen zu ‚bestätigen‘; zugleich ist es aber auch eine der größten Fehlerquellen, nicht genügend Alternativen zu sehen und aktiv zu überprüfen. Man nennt dies den ‚Tunnelblick‘ (‚tunnel vision‘). (vgl. SS.31-138)

Fortsetzung folgt mit Teil 6

LITERATURVERWEISE

Merlin Donald, „Origins of the Modern Mind: Three Stages in the Evolution of Culture and Cognition“, Cambridge (MA): Harvard University Press,1991

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.