INTELLIGENZ, LERNEN, IMPLIZITE WERTE: ZUR BIOTECHNOLOGISCHEN KREATIVITÄT VERURTEILT

EINFÜHRUNG

1. Momentan kreuzen wieder einmal verschiedene Themen ihre Bahnen und die folgenden Zeilen stellen den Versuch dar, einige Aspekt davon festzuhalten.

2. Ein Thema rührt von dem Vortrag am 19.Mai her, bei dem es darum ging, die scheinbare Einfachheit, Begrenztheit und Langsamkeit von uns Menschen angesichts der aktuell rasant erscheinenden Entwicklungen in einen größeren Kontext einzuordnen, in den Kontext der biologischen Entwicklung, und dabei aufzuzeigen, welch fantastisches ‚Produkt‘ der homo sapiens im Kontext des biologischen Lebens darstellt und dass unsere Gegenwart nicht als ein ‚Endpunkt‘ misszuverstehen ist, sondern als eine hochaktive Transitzone in eine Zukunft, die keiner wirklich kennt.

3. Ein anderes Thema rührt her von den neuen Technologien der Informationstheorie, Informatik, Robotik, die unser Leben immer mehr begleiten, umhüllen, durchtränken in einer Weise, die unheimlich werden kann. In den Science-Fiction Filmen der letzten 40-50 Jahren werden die ‚intelligenten Maschinen‘ mehr und mehr zu den neuen Lichtgestalten während der Mensch verglichen mit diesen Visionen relativ ‚alt‘ aussieht.

4. Während viele – die meisten? – dem Akteur homo sapiens momentan wenig Aufmerksamkeit zu schenken scheinen, auf ihn keine ernsthafte Wetten abschließen wollen, traut man den intelligenten Maschinen scheinbar alles zu.

5. Ich selbst liefere sogar (neue) Argumente (in vorausgehenden Artikeln), warum eine Technologie der künstlichen Intelligenz ‚prinzipiell‘ alles kann, was auch biologische Systeme können.

6. In den Diskussionen rund um dieses Thema bin ich dabei verstärkt auf das Thema der ‚impliziten Werte‘ gestoßen, die innerhalb eines Lernprozesses Voraussetzung dafür sind, dass das Lernen eine ‚Richtung‘ nehmen kann. Dieser Punkt soll hier etwas ausführlicher diskutiert werden.

INTELLIGENZ

7. Eine Diskussion über die Möglichkeit von Intelligenz (bzw. dann sogar vielleicht einer Superintelligenz) müsste klären, wie man überhaupt Intelligenz definieren will. Was ‚Intelligenz an sich‘ sein soll, das weiß bis heute niemand. Die einzigen, die seit ca. 100 Jahren einen empirisch brauchbaren Intelligenzbegriff entwickelt haben, das sind die Psychologen. Sie definieren etwas, was niemand kennt, die ‚Intelligenz‘, ganz pragmatisch über einen Katalog von Aufgaben, die ein Kind in einem bestimmten Alter in einer bestimmten Gesellschaft so lösen kann, dass man dieses Kind in dieser Gesellschaft als ‚intelligent‘ bezeichnen würde. Bei einem Menschen mit einem anderen Alter aus einer anderen Gesellschaft kann dieser Aufgabenkatalog ganz andere Ergebnisse liefern.

8. Interessant ist in diesem Zusammenhang, dass Kinder, denen man aufgrund ihres vermessenen Verhaltens einen hohen Intelligenzwert zugeschrieben hat, bei Langzeituntersuchung auch überdurchschnittlich ‚erfolgreich‘ (eine in sich nicht einfache Kategorie) waren. Daraus hat man die Arbeitshypothese abgeleitet, dass das messbare intelligente Verhalten ein Indikator für bestimmte ‚interne Strukturen im Kind‘ ist, die dafür verantwortlich sind, dass das Kind solch ein Verhalten hervorbringen kann. Und es sind genau diese postulierten Ermöglichungsstrukturen für de Intelligenz, die im Kind wirksam sein sollen, wenn es im Laufe seines Lebens ‚erfolgreich‘ ist.

9. Die Ingenieurwissenschaften und die Informatik benutzen Begriffe wie ’smart‘ und ‚intelligent‘ heute fast inflationär, ohne sich in der Regel die Mühe zu machen, ihre technischen Intelligenzbegriffe mit dem psychologischen Intelligenzbegriff abzugleichen. Dies führt zu großen Begriffsverwirrungen und man kann im Falle der technischen Intelligenz in der Regel nicht sagen, in welchem Sinne ein Interface oder eine Maschine ‚intelligent‘ ist, wenn sie technisch ’smart‘ oder ‚intelligent‘ genannt wird.

10. Der berühmt Turing-Test zur Feststellung, ob eine technische Vorrichtung sich in ihrem textbasierten Dialog mit einem Menschen für den beteiligten Menschen als ununterscheidbar zu einem Menschen darstellen kann, ist nach den Standards der Psychologie wenig brauchbar. Die endlosen Diskussionen um den Turing-Test dokumentieren für mich die immer noch anhaltende methodische Verwirrung, die sich im Umfeld des technischen Intelligenzbegriffs findet. Das hohe Preisgeld für den Turing-Test kann die evidenten inhärenten Schwächen des Tests nicht beheben.

11. Wenn wir also über intelligente (oder gar super intelligente) Maschinen reden wollen, sollten wir uns an bekannte, empirisch nachprüfbare und vergleichbare Standards halten, und dies sind die der empirischen Psychologie. Das gleiche gilt auch für den nächsten zentralen Begriff, dem des ‚Lernens‘.

LERNEN

12. Auch bei dem Begriff ‚Lernen‘ finden wir wieder einen inflationären Sprachgebrauch von ‚Lernen‘ in der Informatik, der in keiner Weise mit dem empirischen Begriff des Lernens in den verhaltensorientierten Wissenschaften abgestimmt ist. Was eine ‚intelligente‘ Maschine der Informatik im Vergleich zu biologischen Systemen darstellen soll, ist im allgemeinen Fall unklar. An konkreten Beispielen wie ’schachspielender Computer, ‚Routenplanung‘ für eine Reise, ‚Quizfragen beantworten‘, ‚Gegenstände erkennen‘, gibt es zwar partielle verhaltensorientierte Beschreibungen von ‚maschineller Intelligenz‘, diese sind aber nicht in eine allgemeine verhaltensorientierte Theorie ‚intelligenter Maschinen‘ integriert.

13. In den verhaltensorientierten Wissenschaften wird ‚Lernen‘ über beobachtbares Verhalten definiert. ‚Anhaltende Verhaltensänderungen‘ in ‚Abhängigkeit von bestimmten Umweltereignissen‘ bilden die Anknüpfungspunkte, um im beobachteten System allgemein Zustände anzunehmen, die sich wahrnehmungsabhängig und erinnerungsabhängig ’nachhaltig ändern‘ können. Was genau sich ändert, weiß ein Psychologe nicht, nur dass es geeignete interne Strukturen geben muss, wenn sich ein bestimmtes Verhalten zeigt.

14. Setzt man den Körper als Ermöglichungsstruktur voraus, dann beschränkt sich Lernen auf interne Veränderungen des gegebenen Körpers. Das wäre das ’normale‘ lokale individuelle Lernen. Man kann aber auch die Strukturen eine Körpers selbst als Ergebnis eines Lernprozesses auffassen, dann bezieht sich das Lernen auf den Wandel der Körperstrukturen und -formen und die dafür verantwortlichen (angenommenen) internen Zustände sind z.T. im Reproduktionsmechanismus zu verorten. Insgesamt erscheint das strukturelle Lernen aber als komplexer mehrstufiger Prozess, der Phylogenese, Ontogenese und Epigenese umfasst.

GERICHTETE KREATIVE ENTWICKLUNG

15. Solange ein System sich in seinem Lernen damit beschäftigt, Ereignisse zu identifizieren, zu klassifizieren, Muster zu erfassen, auftretende Beziehungen zu erfassen, so lange ist das Lernen ‚an sich‘ ‚wertfrei‘. Spannender wird es bei ‚Auswahlprozessen‘: womit soll sich ein System beschäftigen: eher A oder eher Nicht-A? Durch Auswahlprozesse bekommt der individuelle Lernprozess eine ‚Richtung‘, einen selektierten Ereignisraum, der sich dann auch in den Wissensstrukturen des Systems widerspiegeln wird. Jede ‚Lerngeschichte‘ korrespondiert auf diese Weise mit einer entsprechenden ‚Wissensstruktur‘. Wenn jemand Weinanbau gelernt hat, aber es gibt keinen Wein mehr, sondern nur noch Handwerk, ist er ‚arbeitslos‘ oder muss ‚umlernen‘. Wer Betriebswirtschaft gelernt hat, aber zu wenig von Qualitätsprozessen versteht, kann erfolgreiche Firmen in den Ruin steuern. Auswahlprozesse realisieren ‚Präferenzen‘: Eher A als Nicht-A. Präferenzen repräsentieren implizit ‚Werte‘: A ist besser/ wichtiger als Nicht-A.

16. Im Falle der biologischen Evolution werden die Präferenzen sowohl vom biologischen Reproduktionsmechanismus geliefert (bis dahin vorhandene Erbinformationen), wie auch durch die herrschende Umgebung, die von bestimmten Körperformen nicht gemeistert werden konnten, von anderen schon. Die in ihren Nachkommen überlebenden Körperformen repräsentierten dann mit ihren Erbinformationen eine von außen induzierte Präferenz, die ‚gespeicherten Präferenzen der Vergangenheit‘ als eine Form von ‚Erinnerung‘, als ‚Gedächtnis‘. Über die ‚Zukunft‘ weiß die biologische Entwicklung nichts! [Anmerkung: Diese Ideen finden sich u.a. auch schon in den Schriften von Stuart Alan Kauffman. Sie ergeben sich aber auch unmittelbar, wenn man mit genetischen Algorithmen arbeitet und die Lernstruktur dieser Algorithmen heraushebt.].

17. Die biologische Entwicklung lebt vielmehr von der – impliziten! – ‚Hoffnung‘, dass die umgebende Welt sich nicht schneller ändert als die gespeicherten Erbinformationen voraussetzen. Da wir heute wissen, dass sich die Welt beständig verändert hat, teilweise sehr schnell oder gar blitzartig (Vulkanausbruch, Asteroidenbeschuss, Erdbeben,…), kann man sich fragen, wie die biologische Evolution es dann geschafft hat, das Leben quasi im Spiel zu halten, ohne etwas über die Zukunft zu wissen? Die Antwort ist eindeutig: durch eine Kombination von Kreativität und von Masse!

18. Die ‚Kreativität‘ ist implizit; die Reproduktion eines neuen Körpers aus vorhandenen genetischen Informationen verläuft auf sehr vielen Ebenen und in sehr vielen aufeinanderfolgenden Phasen. Fasst man diesen ganzen Prozess als eine ‚Abbildung‘ im mathematischen Sinne auf, dann kann man sagen, dass die Zuordnung von Körpern zu Erbinformationen nicht eindeutig ist; aus der gleichen Erbinformation kann rein mathematisch eine nahezu unendlich große Anzahl von ‚Varianten‘ entstehen, mit einem möglichen ‚Variantenkern‘. In der empirischen Welt ist die Varianz erstaunlich gering und der Variantenkern erstaunlich stabil. Aber offensichtlich hat die verfügbare Varianz ausgereicht, um die sich stark verändernden Umgebungsbedingungen bedienen zu können. Voraus zur Zukunft in einer sich verändernden Welt hat man immer nur ein Teilwissen. Das ‚fehlende Wissen‘ muss man sich teuer erkaufen; es gibt nichts zu Nulltarif. Für jedes Leben, das man in der Zukunft erhalten will, muss man einen – nicht leicht genau zu bestimmenden – hohen Einsatz erbringen, in der Hoffnung, dass die Breite des Ansatzes ausreichend ist.

GEGENWART ALS TRANSIT

19. Verglichen mit den Dramen der Vergangenheit könnten uns die ‚Erfolge‘ der Gegenwart dazu verleiten, anzunehmen, dass wir Menschen ‚über dem Berg‘ sind. Dass wir jetzt so langsam alles ‚im Griff‘ haben. Diese Vorstellung könnte sehr sehr trügerisch sein. Denn das Überleben auf der Erde rechnet in Jahrhunderttausenden, Millionen oder gar hunderten von Millionen Jahren. Eine kurzfristige ‚Boomzeit‘ von ein paar Jahrzehnten besagt nichts, außer dass wir feststellen, dass schon in wenigen Jahrzehnten ungeheuer viele biologische Arten ausgestorben sind, viele weitere vom Aussterben bedroht sind, und allein wir Menschen viele zentrale Probleme der Ernährung, des Wassers und der Energie noch keineswegs gelöst haben. Außerdem haben wir nach heutigem Kenntnisstand nicht noch weitere 4 Milliarden Jahre Zeit, sondern höchstens ca. eine Milliarde Jahre, weil dann laut der Physik die Sonne sich aufgrund ihrer Kernfusionsprozess sich soweit ausgedehnt haben wird, dass ein Leben auf der Erde (nach heutigem Kenntnisstand) nicht mehr möglich sein wird.

20. Letztlich dürften wir weiterhin in dieser Position der anzustrebenden Meisterung von etwas ‚Neuem‘ sein, das wir vorab nur partiell kennen. Nur durch ein hinreichendes Maß an Kreativität und hinreichend vielfältigen Experimenten werden wir die Herausforderung meistern können. Jede Form der Festschreibung der Gegenwart als ‚unveränderlich‘ ist mittel- und langfristig tödlich.

BIOLOGIE UND TECHNIK IN EINEM BOOT

21. Aus den vorausgehenden Überlegungen ergeben sich unmittelbar einige weitreichende Folgerungen.

22. Die heute gern praktizierte Trennung von Biologie einerseits und Technologie andererseits erscheint künstlich und irreführend. Tatsache ist, dass die gesamte Technologie aus der Aktivität des biologischen Lebens – speziell durch den homo sapiens – entstanden ist. Etwas Biologisches (der homo sapiens) hat mit Mitteln der Biologie und der vorfindlichen Natur ‚Gebilde‘ geschaffen, die so vorher zwar nicht existiert haben, aber sie sind auch nicht aus dem ‚Nichts‘ entstanden. Sie sind durch und durch ‚biologisch‘, wenngleich – faktisch – mit der übrigen Natur, mit dem bisherigen Ökosystem nicht immer ‚optimal‘ angepasst. Aber die Natur selbst hat millionenfach Systeme erzeugt, die nicht optimal angepasst waren. Die Natur ist ein dynamisches Geschehen, in dem milliardenfach, billionenfach Strukturen generiert werden, die für eine Zukunft gedacht sind, die keiner explizit kennt. Es ist sozusagen ein allgemeines ‚Herantasten‘ an das ‚werdende Unbekannt‘. Wer hier glaubt, die bekannte Gegenwart als ‚Maßstab schlechthin‘ benutzen zu können, irrt schon im Ansatz.

23. Wenn nun ein Teil dieser Natur, der homo sapiens als Realisierung eines biologischen Systems, es durch seine Aktivitäten geschafft hat, seine unmittelbare Lebensumgebung umfassend und zugleich schnell so umzugestalten, dass er als Hauptakteur nun plötzlich als ‚Flaschenhals‘ erscheint, als ‚Bremsklotz‘, dann ist dies zunächst einmal keine ‚Panne‘, sondern ein riesiger Erfolg.

24. Die körperlichen Strukturen des homo sapiens, ein Wunderwerk von ca. 4 Milliarden Jahren ‚Entwicklungsarbeit‘, besitzen eine Substruktur, das Gehirn, das in der Lage ist, die strukturellen Lernprozesse der biologischen Körper in Gestalt lokaler individueller Lernprozesse dramatisch zu beschleunigen. Komplexe Gedächtnisstrukturen, komplexe Begriffsoperationen, Symbolgebrauch, Logik und Mathematik, Rechenmaschinen, Bücher, Computer, Daten-Netzwerke haben dem individuellen Gehirn eine ‚kognitive Verstärkung‘ verpasst, die die Veränderungsgeschwindigkeit des strukturellen Körperlernens von einer Dimension von etwa (optimistischen) 10^5 Jahren auf etwa (pessimistischen) 10^1 Jahren – oder weniger – verkürzt haben. Dies stellt eine absolute Revolution in der Evolution dar.

25. Hand in Hand mit der dramatischen Verkürzung der Lernzeit ging und geht eine dramatische Steigerung der Kooperationsfähigkeit durch Angleichung der Sprache(n), Angleichung der Datenräume, politisch-juristische Absicherung sozialer Räume, Verbesserung der Infrastrukturen für große Zahlen und vielem mehr.

26. Innerhalb von nur etwa 50-100 Jahren ist die Komplexitätsleistung des homo sapiens geradezu explodiert.

27. Bislang sind die neuen (noch nicht wirklich intelligenten) Technologien eindeutig eine Hilfe für den homo sapiens, sich in dieser Welt zurecht zu finden.

28. Wenn man begreift, dass die scheinbare ‚Schwäche‘ des homo sapiens nur die Kehrseite seiner ungeheuren Leistungsfähigkeit sind, sein gesamtes Umfeld dramatisch zu beschleunigen, dann würde die naheliegende Frage eigentlich sein, ob und wie der homo sapiens die neuen Technologien nutzen kann, um seine aktuellen begrenzten körperlichen Strukturen eben mit Hilfe dieser neuen Technologien soweit umzubauen, dass er selbst mit seinen eigenen Gestaltungserfolgen auf Dauer noch mithalten kann (und es ist ja kein Zufall, dass die gesamte moderne Genetik ohne Computer gar nicht existieren würde).

29. Bislang bremsen ‚veraltete‘ Ethiken in den Köpfen der Politik eine dynamische Erforschung der alternativen Strukturräume noch aus. Dies ist bis zu einem gewissen Grad verständlich, da der homo sapiens als ‚Transitwesen‘ sich nicht selbst ruinieren sollte bevor er neue leistungsfähige Strukturen gefunden hat; aber Verbote als grundsätzliche Haltung sind gemessen an der erfolgreichen Logik des Lebens seit 4 Milliarden Jahre grundlegend unethisch, da lebensfeindlich.

30. Auch die heute so ‚trendige‘ Gegenüberstellung von homo sapiens und ‚intelligenten lernenden Maschinen‘ erscheint nach den vorausgehenden Überlegungen wenig wahrscheinlich.

31. Einmal hätten mögliche intelligente Maschinen das gleiche Entwicklungsproblem wie die biologischen Systeme, die ihre Überlebensfähigkeit seit 4 Milliarden Jahre demonstriert haben. Biologische Systeme haben einen ‚mehrlagigen‘ Lernmechanismus‘ ausgebildet, der ‚Kreativität‘ als wesentlichen Bestandteil enthält. Die bisherigen Konzepte für maschinelle Intelligenz sind verglichen damit höchst primitiv. Maschinelle Intelligenz ‚für sich‘ ist auch völlig ortlos, kontextfrei. Als Moment am biologischen Entwicklungsprozess jedoch,in einer symbiotischen Beziehung zu biologischen Systemen, kann künstliche Intelligenz eine maximal hohe Bedeutung gewinnen und kann von den ‚Wertfindungsmechanismen‘ der biologischen Systeme als Teil einer vorfindlichen Natur profitieren.

32. Die Gegenübersetzung von homo sapiens und (intelligenter) Technologie ist ein Artefakt, ein Denkfehler, ein gefährlicher Denkfehler, da er genau die maximale Dynamik, die in einer biotechnologischen Symbiose bestehen kann, behindert oder gar verhindert. Das wäre lebensfeindlich und darin zutiefst unethisch.

Einen Überblick über alle Blogeinträge von cagent nach Titeln findet sich HIER: cagent.

DONAL A.NORMAN, THINGS THAT MAKE US SMART. Defending Human Attributes In The Age Of The Machine, New York: Basic Books, 1993

(Die folgenden Gedanken sind (etwa ab der Mitte) in gewisser Weise ’salopper‘ als sonst; es geht primär darum, eine Anregung zu ermöglichen für das Thema der ‚Abwesenheit‘ des Menschen in weiten Bereichen des alltäglichen Denkens und Handelns)

BÜCHER LESEN IM ALLGEMEINEN

1) Wenn man Bücher lesen will ist das Hauptproblem immer, herauszufinden, welches der vielen möglichen Bücher soll man als nächstes lesen. Es gibt so viel unglaublich gute, spannende, aufklärende, erhellende Bücher, aber nur eines kann man als nächstes lesen, und da die Zeit knapp ist, bedeutet die Entscheidung für ein bestimmtes Buch, dass man all die anderen wunderbaren Bücher – zumindest vorläufig – nicht lesen wird.
2) Jeder hat da seine eigene Strategie, wie er Bücher auswählt. Im Grenzfall lässt man sich einfach überraschen (Geschenke, was im Regal steht, Werbung, Tipps von Freunden,…) oder aber man hat sich irgendwelche Kriterien zurechtgelegt (Forschungsthemen, bestimmte Hobbies, bestimmte Autoren,…).
3) Bei mir ist es eine Mischung von verschiedenen Faktoren: einerseits habe ich eine Art ‚Leitfrage‘, die sich nahezu durch mein ganzes Leben zieht, die sich in vielen Bereichen auch in diesem Blog widerspiegelt. Dann sind es meine Forschungsthemen, die alle um den Menschen kreisen, sein Erkennen, seine Kognition, seine Entstehung, der Mensch im Wechselspiel mit seiner Umgebung. Darin habe ich natürlich schon viel gelesen, was bedeutet, dass es so eine Art ‚Koordinatensystem‘ von Themen, Begriffen, Theorien, Autoren gibt. Dazu kommt weiter – als eine Art kontinuierlicher Prozess – Recherchen in Datenbanken sowohl zu Artikeln wie auch zu Büchern. Dies bedeutet, mit jedem neuen Namen, neuem Begriff, neuer Frage, neuem Artikel eröffnet sich beständig ein ganzes Feld von weiteren neuen Namen, Begriffen, Themen, Artikeln… Wissen erzeugt Wissen (genauso wie Nicht-Wissen dahin tendiert, Nicht-Wissen zu konservieren).
4) Und dann gibt es da noch einen Faktor, man mag dies ‚mystisch‘ nennen, eine bestimmte Art von ‚Gefühl‘. Wenn ich einen Artikel sehe oder ein Buch, dann sind es nicht nur die konkreten Worte und Sätze, die den Verstand erreichen, es ist auch immer ein ‚Gefühl‘ dabei, das so einen Artikel oder ein Buch zum ‚Leuchten‘ bringt (übrigens auch bei Veranstaltungen, angekündigten Vorträgen, usw.). Allerdings braucht dieses ‚Gefühl‘ einen konkreten ‚Anhaltspunkt‘. Es funktioniert nicht ‚blind‘ (höchstens im Modus der ‚Unruhe‘ die anzeigt, der Zustand ist unbefriedigend…). Letztlich ist es dann so eine Mischung aus Verstehen und ‚Gefühl‘, was den Ausschlag gibt, als nächstes Buch A zu lesen und nicht die anderen.
5) Manchmal ist diese Entscheidung schnell und direkt, manchmal ’stochere‘ ich ein wenig herum, probiere verschiedene Artikel/ Bücher aus, bis ich dann merke, das ist es jetzt.
6) Am schwierigsten ist dies, nachdem ich ein Buch gelesen habe, das einen sehr nachhaltigen Eindruck auf mich gemacht hat (wie z.B. das letzte Buch von Kauffman); dann etwas zu finden, was den Spannungsbogen fortsetzt, erscheint fast unmöglich.
7) Dazu kommt noch ein weiterer Aspekt: bei mir haben sich im Laufe der Jahre viele Bücher angesammelt, alle aus einer bestimmten Suche heraus. Und ich erlebe es immer wieder, dass manche Bücher viele Jahre da liegen, ich weiß, dass sie da sind, aber ‚der Funke springt nicht über‘; irgendwie passt es nicht, sie ‚jetzt‘ zu lesen obgleich klar ist, dass sie einen spannenden, wichtigen Inhalt haben. Und dann kommt ein Moment im eigenen Denken, Fühlen, Ausarbeiten, wo plötzlich klar wird, jetzt könnte dies eine Buch (in der Warteschleife) besonders passen. Und dann passiert es: es ist, als ob das Buch unverhofft ‚zum Leben erwacht‘, und es zu sprechen anfängt, und es entspinnt sich eine Art Dialog über die toten schwarzen Linien des Textes hinweg zu den mitschwingenden Inhalten, zu jenem imaginären Geist des Autors, den man meist nie gesehen hat.

WARUM DAS BUCH VON NORMAN

8) Einer der Faktoren, der ausschlaggebend war, das Buch von Donald A. Norman zu lesen, ist seine Positionierung für den Menschen und die Einordnung von Technologie als etwas, was dem Menschen helfen soll, sein ‚Menschsein‘ zu unterstützen, nicht den Menschen den Maschinen (die letztlich von Menschen geschaffen wurden) zu ‚opfern‘.
9) Dazu kommt, dass ich in einem anderen Zusammenhang zum Thema ‚verteiltes Wissen‘ in einem interessanten Artikel von Hollan et al. (2000) auf dieses Buch von Norman aufmerksam geworden bin.

MENSCHENZENTRIERT (‚Human-Centered‘)

10) Das Buch ist nicht sehr systematisch aufgebaut; es lebt von der umfangreichen praktischen Erfahrung des Autors. Er referiert viele konkrete Beispiele von Technologien, Schnittstellen / Interface dieser Technologien, Wirkungen auf Menschen, Erwartungen, die wir Menschen an Technologien haben, Faktoren, die dafür verantwortlich sind, welche Technologien entstehen, wie sie entstehen, wie sie ‚designed‘ werden.
11) Da ich auch viele Jahre Lehrveranstaltungen zum Thema Mensch-Maschine Interaktionen durchgeführt habe, waren mir die grundsätzlichen Themen bekannt und ich fand zahlreiche Anregungen im Detail.
12) Die Grundthese von Norman lässt sich etwa wie folgt formulieren: in der Vergangenheit wurde bei der Entwicklung von Technologien oft (bis immer) nicht der Mensch mit seinen tatsächlichen Fähigkeiten und Bedürfnissen zum Bezugspunkt gewählt, sondern das ‚rein technisch Mögliche‘ wurde in den Vordergrund gestellt und der Mensch musste sich dann diesen technischen Lösungen mehr oder weniger anpassen. Dank der hohen Anpassungsfähigkeit des Menschen (nicht der Technologien, die meist starr waren) war dies meist möglich, auch wenn sich dazu der Mensch oft sehr verbiegen musste, mit viel Leiden, mit viel gesundheitlichen Gefahren, letztlich un-menschlich.
13) Dass diese Situation einer menschen-unangemessenen Handlungssituation sehr fehleranfällig ist, liegt in der Natur der Sache. Wenn man den Menschen zwingt, etwas zu tun, was er eigentlich nicht gut kann, dann kommt der Mensch an seine Grenzen und macht Fehler bzw. nimmt psychisch und körperlich Schaden.
14) Auf der S.224 präsentiert Norman eine Tabelle, in der er gegenüberstellt, worin die Stärken und Schwächen von Menschen einerseits und Maschinen andererseits bestehen (wobei er davon ausgeht, dass ‚Maschinen‘ nicht ’smart‘ sind im Vergleich zum Menschen). In einer ‚menschenzentrierten‘ (‚human-centered‘) Perspektive hat der Mensch viel wunderbare Eigenschaften, mit denen er Maschinen haushoch überlegen ist. In einer ‚maschinenzentrierten‘ (‚machine centered‘) Perspektive, in der man die Maschine als Maßstab nimmt, nützen dem Menschen seine wunderbaren Fähigkeiten nichts; er ist den Maschinen haushoch unterlegen.

MENSCHENFERNER ALLTAG

15) Das klingt sehr einfach. Schaut man sich den Alltag an, so muss man konstatieren dass erst mit dem Aufkommen der Computer – und speziell hier dann der mobilen Telefone – der Aspekt eines ‚menschenzentrierten‘ Designs überhaupt erst ansatzweise eine wirtschaftlich relevante‘ Bedeutung bekommen hat (Erst stach Microsoft IBM aus, dann Apple Nokia und Microsoft, dann ….)(die Rolle anderer Designbereiche wie Mode, Haushaltsgegenstände, Möbel, Architektur,… wäre eigens zu gewichten).
16) Das dominante Thema ist und bleibt aber überwiegend eine Technologie, die ‚aus sich heraus‘ betrieben und weiter entwickelt wird. Der Blick auf den Menschen fällt den meisten Handelnden in Bereich Technikentwicklung schwer.
17) Dies fängt schon mit der Ausbildung an. In den technischen Ausbildungen (Ingenieure, Informatiker) war es bis vor kurzem völlig unüblich, den Studierenden dazu zu befähigen, den Blick vom Menschen her einzuüben. Und selbst heute ist der Anteil von Mensch-Maschine Interaktionsthemen im Curriculum sehr bescheiden, wenn er überhaupt vorkommt. Und bei den vorhandenen Lehrangeboten ist es dann wiederum nicht unbedingt die Perspektive des Menschen, die methodisch eingeübt wird, sondern es wird sehr oft eine bestimmte Technologie ‚als gegeben vorausgesetzt‘ und es wird nur gefragt, wie man diese ‚vorausgesetzte‘ Technologie (die als solche normalerweise wenig mit Menschen zu tun hat) so ‚herrichtet‘, dass ein Mensch sie bedienen kann, NICHT wie es für die Menschen gut wäre, SONDERN wie es die vorausgesetzte Technologie benötigt.
18) Insofern ist das Buch von Norman aus dem Jahr 1993 keineswegs ‚überholt‘, sondern seine These ist weiterhin provokativ und wegweisend. Der notwendige Blick auf den Menschen fällt allenthalben immer noch sehr schwer.
19) Wenn man sich fragt, woran das liegt, dann wird man schnell feststellen können, dass wir ein gesellschaftliches Geistesproblem haben: die sogenannte ‚humanistische Tradition‘ in Europa ist lokalisiert in den Bereichen Religion, Geisteswissenschaften, Feuilleton, Kulturbetrieb, ‚Sonntagsreden‘ von Verantwortlichen bei speziellen Anlässen, und juristisch partiell in den jeweiligen Gesetzgebungen. Daneben gibt es die Wirtschaft und stark wirtschaftsabhängige Forschung, in der der Mensch als Mensch überhaupt nicht vorkommt! Die Wirtschaft kennt den Menschen entweder nur als dummen, naiven Konsumenten, den man vorwiegend über statistische Parameter betrachtet, oder als Arbeitskraft, die rein unter dem Gesichtspunkt einer (in der Regel nicht menschengemäßen) Arbeitsleistung betrachtet wird mit einer zu leistenden Entlohnung, die sich in der Regel nicht an dem Geld orientiert, das verfügbar wäre, sondern an dem kleinstmöglichen Betrag, den man zahlen kann, ohne Probleme zu bekommen.

KULTURTHEORETISCHES

20) M.a.W. in all den Bereichen, die den Alltag primär bestimmen, existiert der Mensch als Mensch eigentlich nicht. Er ist durch die herrschenden Sprachregelungen und Verhaltensweisen ‚eliminiert‘. In einer solchen Situation hat der Mensch auch wenig Chancen. Es gibt von Seiten der Wirtschaft, der Technologie und den zugeordneten Ausbildungswegen keinerlei Ansatzpunkte, die Perspektive des Menschen sowohl theoretisch wie auch praktisch zu stärken. Der Mensch ist immer nur ein ‚Parameter‘ ‚am Rande‘, der ‚konsumiert‘ oder ‚produziert‘ (Ansätze, die darauf abzielen, die Situation der ‚Angestellten‘ zu verbessern sind meist nur angetrieben von der Notwendigkeit, die benötigte Arbeitskraft für die zu lösende Aufgabe hinreichenden zweckgebunden zu ‚befähigen‘).
21) Alles, was sich in den ‚humanistischen Reservaten‘ (Kulturbetrieb, Feuilletons, Religion…) abspielt, hat nahezu keine Relevanz für das technologische-wirtschaftliche Denken, höchstens als ‚Vergnügungsindustrie‘, ‚Brot und Spiele’…, in der Teilaspekte des Menschen sich gegen bares Geld ‚vermarkten‘ lassen, weil es ‚Spaß‘ macht oder weil es ‚chic‘ ist…).
22) In der literarischen Gattung ‚Science Fiction‘ reflektieren sich die zugrunde liegenden Annahmen über Mensch und Welt hinsichtlich Technologie meist mehr als in anderen literarischen Gattungen. Und hier gilt, dass in nicht wenigen Werken (man denke nur an das berühmte mehrteilige Foundation Werk von Asimov) die Technologie NICHT der dominierende Faktor ist, sondern ein Gesamtsystem, in der sich nicht nur die Technologie weiter entwickelt hat, sondern auch der Mensch selbst und die Technologie ist eine Art ‚Medium‘, in dem sich der ’neue‘ Mensch realisiert. Dies setzt allerdings voraus, dass die Entfremdung zwischen Technologie und Geisteswissenschaften aufgebrochen wird. Doch diese sitzt sehr tief, ist gesellschaftlich durch Institutionen, Rituale, Denkmuster so fest verankert, dass es ohne eine echte ‚Revolution‘ nicht gelingen wird, diese aufzubrechen. Der aktuelle Zustand verschafft seinen Protagonisten aktuell nur Vorteile. Eine Änderung wäre unüberschaubar, wirkt bedrohlich, würde verlangen, dass alle ihr Denken (und Fühlen) einer radikalen Selbstkritik unterziehen würden. Es gibt wenig Anlass zu glauben, dass dies einfach so geschehen wird. Wir bräuchten eine Art von Kulturrevolution (nicht das, was im China Maos darunter verstanden wurde)…
23) Wenn einer sich fragt, ob er generell zu einer Kulturrevolution fähig wäre, muss er sich die Testfrage stellen, ob er u.a. bereit wäre, in der Öffentlichkeit als ‚Verrückter‘ zu erscheinen. Wem diese Vorstellung ‚Unbehagen‘ bereitet, der sollte hier nicht weiter nachdenken.

Für eine Fortsezung siehe Teil 2.

Literaturhinweise:

JAMES HOLLAN, EDWIN HUTCHINS, and DAVID KIRSH, Distributed Cognition: Toward a New Foundation for Human-Computer Interaction Research, in: ACM Transactions on Computer-Human Interaction, Vol. 7, No. 2, June 2000, Pages 174–196.

Einen Überblick über alle Blogeinträge nach Titeln findet sich HIER