Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 1

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll

Kapitel 1

(Letzte Änderung 28.Juli 2015)

Einkapselung und Abschaffung

Start in den Tag

Eine leise Musik ruft mich in den Tag zurück. Der Weckcomputer kennt meine Vorlieben für Musik; er hat meinen Schlaf beobachtet, er misst regelmäßig meine aktuellen Körperdaten, und er schätzt meine mögliche Stimmung ab. Zur rechten Zeit erklingt die Weckmusik. Wenn sie zu leise ist, rufe ich ‚lauter‘; und wenn sie mir nicht passt vielleicht ‚lass das‘. Im Bad starre ich verschlafen in einen Spiegel, der sich um gute Laune bemüht, dumme Sprüche drauf hat, Bilder einblenden kann, andere Musik, oder der auch nur redet. Anhand meines Gesichtsausdrucks und meiner Stimmlage erfasst er ziemlich gut, wie ich drauf bin; besser als viele Menschen. Ich fühle mich verstanden … Unterdessen wird die Küche für ein Frühstück präpariert und das Ankleidungsprogramm erstellt anhand der Termine aus dem Kalender und meiner aktuellen Stimmungslage einen Ankleidungsvorschlag … Während dem ernährungsbewussten Frühstück aus zertifizierten Lebensmitteln höre und schaue ich mir ein paar vorsortierte Nachrichten an (es gibt stündlich mehrere hunderttausend neue Meldungen, aus denen das System die ‚wichtigen‘ herausfiltert). Nach dem Frühstück erscheint auf dem Bildschirm eine Liste der Dinge, die für die Küche nachbestellt werden müssten. Ich bestätige, verneine, oder erweitere die Liste und schicke den Auftrag ab. Sobald ich Anstalten treffe, das Haus zu verlassen, wird der Aufzug schon in die entsprechende Etage gesteuert und ein Transport-eMobil aktiviert. Wenn ich einsteige weiß dieses Transport-eMobil anhand meines Kalenders schon, welches Ziel anzufahren ist. Ich entspanne mich, lasse mir wichtige Dokumente anzeigen oder stelle eine Kommunikationsverbindung zu einem Geschäftspartner her…

Diese Vision mag den einen erschrecken, die andere begeistern; sie ist auf jeden Fall nicht mehr weit weg vom technisch Möglichen. Es sind weniger technische Gründe, die solch ein Szenario bislang noch verhindern, sondern eher Fragen der Abstimmung der technischen Systeme untereinander, Fragen der Investitions- und Betriebskosten, der Wartung, der Sicherheit, der Privatheit, und der Denk- und Lebensgewohnheiten.

Auch ist interessant, was ‚hinter den Kulissen‘ alles passiert bzw. passieren kann.

Hinter allem das Netz

Alle Daten laufen durch Netzwerke, über Server und werden von Programmen verwaltet. Technisch könnte man von jedem Punkt im Netzwerk aus alle Daten beobachten, sammeln, auswerten und darauf Entscheidungen aufbauen. Damit dies nicht ungehindert geschieht, werden die Daten partiell ‚kodiert‘ und/ oder ‚verpackt‘, so dass ein anderer als der intendierte Empfänger, die Daten nicht so ohne weiteres ‚lesen‘ kann. Aber letztlich ist es nur eine Frage des Rechenaufwandes, um alle Varianten abzuprüfen, um die ‚versteckte‘ Botschaft zu identifizieren, sie zu ‚dekodieren‘. (Oder, einfacher, man verschafft sich Zugang zu den Verschlüssungsprogrammen, oder über die Mikroprogramme in der Hardware selbst). Während die einen ein solches unautorisiertes Mitlesen direkt gegen Geld als ‚Cyberkriminelle‘ tun, gibt es die staatlich subventionierten ‚Geheimdienste‘, die ‚für sich legal‘ sind, für alle anderen aber sind sie auch nichts anderes als ‚Cyberkriminelle‘, ‚Staatsterroristen‘. In der Regel müssen sie nichts befürchten, wenn sie die Rechte anderer verletzen. Schließlich gibt es noch die Grauzone der privaten Wirtschaft, die sich auf vielen Wegen formal die Zustimmung der Benutzer erhandeln, ohne dass diese in der Regel überschauen, was alles mit ihren Daten geschieht oder geschehen kann. Dass jede Klickaktion im Web dazu führt, dass man kurz darauf tage- und wochenlang nervige Anzeigen eingeblendet bekommt, ist ärgerlich und störend, jedoch nicht notwendigerweise gefährlich. Dass die eigenen Daten über Wochen, Monate und Jahre systematisch gesammelt werden, für viel Geld an verschiedene Firmen (auch Geheimdienste) verkauft werden, und mittels dieser Daten neue Dienstleistungen, Produkte und Firmen generiert werden, das kann sehr gefährlich sein, kann den einzelnen massiv schädigen und kann ganze Märkte und Volkswirtschaften zerstören.

Datenschmarotzer

Banken und Versicherungen könnten sich auf diese Weise Kunden vorsortieren und entsprechend behandeln. Krankenversicherungen könnten z.B. vorschreiben, was man isst und wie man sich bewegen muss. Personalabteilungen von Firmen könnten (und manche tun dies schon real) die Bewerber nach ihrer Vorgeschichte im verborgenen Netz sortieren. Selbst kleinste Vergehen aus der Vergangenheit, Krankheiten, Ereignisse aus der Freizeit, Unwahre Behauptungen im Netz, sie alle können dazu führen, dass man keinen Job mehr bekommt – oder, ja, man bekommt zwar ein Angebot, aber man wird durch die Blume erpresst: man weiß ja, dass; man könnte vielleicht darüber hinwegsehen, wenn …
Diejenigen, die hinter den Oberflächen Informationen sammeln können, die gewinnen Einblicke in Marktsituationen, in potentielle Märkte und in private Aktivitäten. Sie können Dienstleistungen und Firmen anbieten, bevor jeder andere ahnt, dass dies möglich ist; die Datenmonopolisten können auf diese Weise zu Marktmonopolisten werden, und andere Firmen schleichend ‚erdrücken’… Globale Firmen im Katz und Maus Spiel mit nationalen Regierungen, oder Regierungen mit ihrer Bevölkerung.

(Anmerkung: Das Beispiel der andauernden Geheimverhandlungen zu TTIP (Transatlantic Trade and Investment Partnership) wird von vielen als Beleg genau für diesen Trend gesehen. Bis heute werden diese Verhandlungen an den nationalen Parlamenten der USA und Europas vorbei geführt, selbst nach eindeutigen Interventionen verschiedener Parlamente. Wenige EU-Bürokraten verhandeln unter Ausschluss der Öffentlichkeit mit Vertretern globaler Kapitalvertreter über die Zukunft von ca. 320 Mio US-Amerikanern und ca. 500 Mio Europäern. Die Vermutung, dass hier eine ausgewählte Schar von Firmen versucht, die Einflussmöglichkeiten der nationalen gewählten Parlamente zu ’neutralisieren‘, wurde bisher nicht widerlegt. Im Gegenteil, alle Informationen, die bekannt werden, stützen diese Vermutung und alle wichtigen deutschen Politiker geben bislang nur allgemeine Floskeln zum Besten, warum dies gut sein soll. Was unterscheidet diese Situation noch von einem Staatsstreich, in diesem Fall ein Staatsstreich von oben?)

Vom Verschwinden der Welt

Das Voranschreiten der Digitalisierung bringt es mit sich, dass der einzelne menschliche Akteur immer weniger mit realen Umweltausschnitten zu tun hat, dafür immer mehr mit digitalen Repräsentationen. Realität verwandelt sich in digitale Dateien unterschiedlichster Formate. Das Wetter erscheint als Landkarte mit Piktogrammen. Reale Unternehmen verwandeln sich in Zahlen und Kurven in einem Diagramm. Ressourcen aller Art sind nur noch einfache Zahlen. Reale Produktionsprozesse werden zu mathematischen Funktionen in Rechenblättern oder anderen Computerprogrammen. Die anderen Menschen verschwinden hinter SMS-Texten, standardisierten Bildern, werden als Videoplots formatiert; sie werden zur Stimme aus dem Kopfhörer; man kann sie hinter einem Avatar in einem Computerspiel vermuten; sie sind numerische IDs mit einer Liste von Attributen im ASCII-Format. Nahrungsmittel sind losgelöst von ihren Herstellungsprozessen; sie treten uns vor Augen in bunten Verpackungen, wo wir das sehen, was aufgedruckt ist, nicht das, was wirklich drin ist. So kann ein bestimmtes Siegel der Händlerkette riesige Gewinne bringen, obgleich das reale Produkt dahinter dem Siegel gar nicht entspricht… Die Fabrik wird zu einem Schaltplan; die Produktion erscheint als Zahlenkolonne, als Säulendiagramm. Mit Robotern wird die Produktion zuverlässiger und billiger, und die potentiellen Käufer, die durch Arbeit ihr Geld verdienen, werden abgeschafft, weil sie zu anfällig und zu teuer sind. Wer denkt darüber nach, dass die Arbeitenden mit den potentiellen Käufern korrespondieren? Wer soll noch konsumieren, wenn keiner mehr verdient? Die Umverteilung des verfügbaren Reichtums auf immer weniger Menschen ist aktenkundig. Schaffen sich die Gesellschaften selber ab?

Digitale Sklaverei

Hatte man früher ein Produkt gekauft, ging man in ein Geschäft, zahlte bar, nahm das Produkt in Empfang und ging nach Hause. Zum Händler musste man bestenfalls zurück, wenn es sich um einen Garantiefall handelte, das Produkt Mängel aufwies, die es in der Garantiezeit nicht aufweisen sollte.

Will man heute ein Produkt kaufen, bekommt man dieses vielfach gar nicht mehr direkt und ausschließlich, sondern man erwirbt im Falle von softwarebasierten Produkten eine Art Nutzungsrecht auf Zeit, das an vielerlei Bedingungen geknüpft wird. Man muss seine Adresse preisgeben, seine Kontodaten, man muss seine Nutzung über einen fremden Server registrieren und permanent kontrollieren lassen; man muss zusätzlich oft fremden Programmen erlauben, das Gerät ‚bewohnen‘ und ‚benutzen‘ zu dürfen, ohne dass man dies kontrollieren oder ändern könnte. Über Kameras und sonstige eingebaute Sensoren kann das fremde Programm jederzeit Daten aus der nächsten Umgebung messen und weiter leiten. Während ich an meinem Computer sitze und schreibe können die Bilder meines Gesichts (klar, wen interessiert dies schon; und doch, warum überhaupt?) in Bruchteilen von Sekunden über das Netz irgendwohin in die Welt reisen.

Die Frage ist, ob man noch ein Alternative hat? Könnte ich auf diese Programme verzichten? Im Berufsleben gibt es immer weniger Alternativen; allein, um die normale Arbeit machen zu können, benötige ich heute ein ganzes Bündel von Programmen, und jedes Mal muss ich mich an ein fremdes Programm auf einem fremden Server ‚verkaufen‘. Ich habe keine Alternative (Anmerkung: Ja, es gibt auch freie Programme, ich benutze solche Programme von Anbeginn an. Doch können diese Programme — von glücklichen Ausnahmen abgesehen — mit der Industrie sehr oft nicht Schritt halten, speziell nicht dort, wo Programme spezielle Hardware steuern. Hersteller von Hardware können den Entwicklern von freien Programmen die notwendigen Daten vorenthalten, z.B. weil sie sonst von den Anbietern industrieller Betriebssysteme nicht berücksichtigt würden … )

Tritt man einen Schritt zurück und schaut sich aus einer gewissen Distanz an, was hier geschieht, kann man auffällige strukturelle Ähnlichkeiten entdecken mit dem Jahrtausende alten Phänomen der Sklaverei (siehe dazu den aufschlussreichen Text des Zusatzübereinkommens über die Abschaffung der Sklaverei, des Sklavenhandels und sklavereiähnlicher Einrichtungen und Praktiken abgeschlossen in Genf am 7. September 1956, genehmigt von der Schweizer Bundesversammlung am 17. Juni 1964.

In Artikel 1 dieses Zusatzabkommens wird als ein der Sklaverei zugeordnetes Phänomen die ‚Schuldknechtschaft‘ erwähnt. Eine Schuldknechtschaft entsteht, wenn “… ein Schuldner als Sicherheit für eine Schuld seine persönlichen Dienstleistungen oder diejenigen einer von ihm abhängigen Person verpfändet, wenn der in angemessener Weise festgesetzte Wert dieser Dienstleistungen nicht zur Tilgung der Schuld dient oder wenn diese Dienstleistungen nicht sowohl nach ihrer Dauer wie auch nach ihrer Art begrenzt und bestimmt sind … “.

Im Falle der Softwarenutzung würde ich es bevorzugen, einen Betrag X zu zahlen um diese Programme nutzen zu können, ohne weitere Abhängigkeiten. Einen Betrag X muss ich in der Regel tatsächlich zahlen, dieser Betrag X reicht jedoch nicht aus; ich werde zusätzlich gezwungen, sehr viele Daten von mir ‚abzugeben‘, über die ich auf unbeschränkte Zeit jegliche Kontrolle verliere. Und nicht nur das, meine tatsächliche Nutzung wird fortwährend kontrolliert, protokolliert und könnte jederzeit vom Hersteller beendet werden, mit entsprechend schlimmen Folgen für die Arbeitsprozesse, die mit dem Programm verknüpft sind.

Rein formal versichern Hersteller auf dem Papier, dass sie die Daten ausschließlich zum Zwecke des störungsfreien Betriebes der Programme benutzen, faktisch hat jedoch der Kunde keine Kontrolle über die tatsächliche Verwendung der Daten. Außerdem berührt dies nicht die faktische ‚Schuldknechtschaft‘ der andauernden Abhängigkeit vom Hersteller.

Für diese heute gängige Form der Schuldknechtschaft könnte man den Begriff der digitalen Schuldknechtschaft einführen.

Man kann sich auch fragen, ob die ‚Leibeigenschaft‘ nicht auch noch zutrifft. Im Text heißt es unter Art.1.b “Leibeigenschaft, d. h. die Stellung einer Person, die durch Gesetz, Gewohnheitsrecht oder Vereinbarung verpflichtet ist, auf einem einer anderen Person gehörenden Grundstück zu leben und zu arbeiten und dieser Person bestimmte entgeltliche oder unentgeltliche Dienste zu leisten, ohne seine Stellung selbständig ändern zu können“. Im Fall der Programmebeziehung gibt es zwar keine Grundstücke, aber der Programmebenutzer geht mit dem Kauf eine Beziehung zum Hersteller ein, die ihn in vielfacher Weise über die Nutzung im engeren Sinne bindet: so ist die Übergabe von vielen persönlichen Daten samt der damit einhergehenden anhaltenden kontinuierlichen Kontrolle der Aktivitäten ein ‚Dienst‘ an dem Hersteller, der ‚unentgeltlich‘ geleistet wird, ohne dass man diese Beziehung (‚Stellung‘) verändern kann; würde man dies einseitig tun, bekäme man die Daten, Momente des eigenen Selbst, nicht zurück.

Auch hier bietet es sich an, den Begriff der digitalen Leibeigenschaft einzuführen.

In Art. 7.b heißt es, dass “eine Person in sklavereiähnlicher Stellung“ eine solche Person ist, die sich “in einer Rechtsstellung oder Lage [befindet], die auf einer der in Artikel 1 erwähnten Einrichtungen oder Praktiken beruht;“. Die “in Artikel 1 erwähnten Einrichtungen oder Praktiken“ sind z.B. die Schuldknechtschaft und die Leibeigenschaft.

Da mit diesem Text sowohl die ‚Schuldknechtschaft‘ wie auch ‚Leibeigenschaften‘ als Formen der Sklaverei gewertet werden, könnte man analog von der Existenz einer digitalen Schuldknechtschaft und einer digitalen Leibeigenschaft auf die Existenz digitaler Sklaverei schließen.

Nach Art 6.1 1. soll gelten, dass die „Versklavung einer Person oder die Anstiftung einer Person, sich oder eine von ihr abhängige Person durch Aufgabe der Freiheit in Sklaverei zu geben, oder der Versuch dazu oder die Teilnahme daran oder die Beteiligung an einer Verabredung zur Durchführung solcher Handlungen … eine strafbare Handlung nach den Gesetzen der Vertragsstaaten dieses Übereinkommens sein [soll]; …“.

Zu den vielen Unterzeichnerstaaten gehört auch Deutschland (1959). Bislang haben die neuen digitalen Versionen von Sklaverei die Wahrnehmungsschwelle der deutschen Justiz (auch nicht die Justiz anderer Länder) noch nicht überwunden.

Sind wir mittlerweile so an Unrecht gewöhnt, dass wir die alltägliche Praxis der digitale Versklavung einfach so hinnehmen, oder sind diese Überlegungen ‚überzogen‘?

Mensch als Restproblem

Lässt man die Faszination der Oberfläche der neuen digitalen Welt für einen Moment mal weg, und lässt die verdeckten Aushorch- und Gewaltstrukturen auf sich wirken, die neue Unübersichtlichkeit, die neue schier grenzenlosen Manipulierbarkeit, die ungeheure Ausdehnung von Kontrolle und digitaler Sklaverei, dann kann schon einmal ein Gefühl von Hilfslosigkeit entstehen, von Verratensein, von schwacher Endlichkeit. Während die Geräte immer schneller werden, immer mehr Daten mit höchster Geschwindigkeit hin und her bewegen, immer kompliziertere Rechnungen in Sekundenbruchteilen vollziehen, immer ‚gescheiter‘ daherkommen in Spielen, im Quiz, in der Diagnose, in der Beratung …. hat man das Gefühl, man ist lahm wie eine Ente; vergisst so oft so viel; ist streckenweise von Stimmungen, Gefühlen und Emotionen getrieben, fast paralysiert. Hat einen endlichen langsamen Körper; so unförmig, so wenig glanzvoll … Wie soll das enden? Werden die Maschinen in Zukunft alles machen und wir nichts mehr? Wo und wie soll ich morgen noch arbeiten, wenn Kollege Computer schrittweise alles zu übernehmen scheint?

Für Unternehmer scheint es sich allemal zu rechnen: Roboter können preisgünstiger, zuverlässiger und qualitativ besser produzieren. Sie sind viel schneller, sie meckern nicht, sie streiken nicht, sie brauchen keine krankheitsbedingten Auszeiten ….

Künftig werden sich alle Autos, Busse, Straßenbahnen, Züge, Flugzeuge ohne menschliche Fahrer und Piloten bewegen. Riesige Schiffe werden keine menschliche Besatzung haben.

Kriege werden nicht mehr von Soldaten geführt, sondern von Automaten, von Robotern, von Drohnen. Maschinen kämpfen gegen Maschinen. Computerprogramme gegen Computerprogramme. Mit einem Knopfdruck kann ein General eine ganze Armee gegen seine eigene Regierung in Bewegung setzen. Wird irgendwann dann ein durch ein Programm selbständig ausgelöster Befehl ausreichen, dass sich eine automatisierte Roboterarmee gegen ihren eigenen General wendet?

Wozu brauchen wir weiter Menschen in der digitalisierten Welt? Für die Arbeit? Nein. Für den Konsum? Menschen als Konsumenten sterben mangels Einkommen aus, da sie keine Arbeit mehr haben werden. Als Soldaten, Beamte, Verwalter, Manager wurden sie schrittweise ersetzt. Die Künstler leben schon jetzt nur noch als dreidimensionale Kunstfiguren in animierten Filmen und Computerspielen. Kompositionen und Malerei beherrschen die Software-Programme besser als die Menschen. Architektur findet nur noch im Computer statt. Neue Produkte und Pflanzen konzipiert der Computer. Menschen sind zu langsam, zu unzuverlässig, verbrauchen große Ressourcen, erzeugen Abfall, sie sind aggressiv, emotional labil, … sie kosten und sie stören.

Wird der Mensch in der digitalen Welt aussterben? Haben wir uns schon ergeben? Sind wir nicht schon längst eine willenlose meinungslose Masse, die von Regierungen und globalen Konzernen nach Belieben vor sich hergetrieben wird?

Fortsetzung mit Teil 2.

Einen Überblick über alle Artikel von cagent nach Titeln findet sich HIER.

BLOG GEBIERT BUCH. Bis 28.August 2015 soll die Grundaussage des Blogs als Buch geschrieben werden

Nachbemerkung am 30.Dez.2015: Das Ziel, das  Buch bis 10.November 2015 fertig zu haben, konnte nicht erreicht werden. Dies lag vornehmlich daran, dass sich im Schreiben so viele Baustellen aufgetan haben, dass es dem Autor nicht möglich war, den ‚Sack zu zu machen‘. Dann begann das Semester und die Zeitreserven schmolzen dahin…Dennoch war dieser erste Versuch eines kompakten Buches sehr lehrreich. Wann es wieder zu solch einem Versuch kommen wird, ist momentan offen. Im Rahmen des Emerging Mind Projektes (EMP), das seit November 2015 angelaufen ist, gibt es so viele neue Theorieprojekte (auch verbunden mit Texten), dass es möglicherweise noch lange Zeit bei den kursorischen Blogeinträgen bleiben wird…

… und vor dem 10.November 2015 erscheinen. Aktualisierung: Bis 10.November nur die Onlineversion, dann die anderen Versionen …

Da es bei mehr als 285 Blogeinträgen mit dem Verstehen langsam schwierig wird, habe ich mich entschlossen, in der Zeit bis 28.August die Grundaussage des Blogs von den ca. 1500 Seiten auf 100 Seiten zu ‚verdichten‘. Dabei gehen natürlich viele Details verloren, aber es wird – hoffentlich – die Kernaussage sichtbar, die sich im Blog im Laufe der Jahre herausgeschält hat. Da ich dazu ab November deutlich mehr öffentliche Veranstaltungen machen werde als in der Vergangenheit (das Emerging-Mind Projekt, Vorträge mit Diskussionen und auch das neue Philosophy-in-Concert Format (vermutlich auch weiterhin die Philosophiewerkstatt)) kann es hilfreich sein, die Kernaussage in handlicher Form zur Hand zu haben. Da das Ganze ein dynamischer Prozess ist, werden sich die Inhalte beständig weiter entwickeln. Während dem Schreiben des Buches werde ich die einzelnen Kapitel auch hier im Blog ‚vorab drucken‘. Dies schließt nicht aus, dass der endgültige veröffentlichte Text in Details von dieser Vorabversion abweichen kann (zumal ich erst beim Schreiben so richtig ’sehe‘, was ich tatsächlich schreiben will … :-)).

ZWISCHENREFLEXIONEN BEIM SCHREIBEN

  1. Überlegungen zu einem geeigneten Titel (18.Juli 2015)
  2. Umfang, Stil, Adressaten, Termine (11.Aug.2015)
  3. Verhältnis zum Big-History Paradigma; Aufbruch in die Zukunft (13.Aug.2015)
  4. Zum Verhältnis von Thermodynamik zu biologischen Systemen. Die Physik lässt viele Fragen offene (14.August 2015)
  5. BUCHPROJEKT 2015 – Zwischenreflexion 18.August 2015 – INFORMATION IN DER MOLEKULARBIOLOGIE – Maynard-Smith
  6. BUCHPROJEKT 2015 – Zwischenreflexion 22.August 2015 – SHANNON BOLTZMANN DEACON – Was fehlt (22.Aug.2015)
  7. BUCHPROJEKT 2015 – Zwischenreflexion 23.August 2015 – INFORMATION – Jenseits von Shannon (23.Augut 2015)

AKTUELLER TITEL:

AUFBRUCH INS HERZ DER ZUKUNFT

KAPITELÜBERSICHT
(Letzte Änderungen am: 27.August 2015)

  1. Zuruf an den Leser (Letzte Änderung 28.Juli 2015)
  2. Einkapselung und Abschaffung (Letzte Änderung 14.Juli 2015)
  3. Monster und Engel (Letzte Änderung 21.Juli 2015)
  4. Hinter den Augen … (Letzte Änderung 28.Juli 2015)
  5. Wie alles anfing (Letzte Änderung 2.August 2015)
  6. Was ist Leben? (Letzte Änderung: 27.Aug.2015)

    Zurück auf Start 🙂
    Alle folgenden Kapitel wurden neu konzipiert

Das Gesamtformat des Textes geht in Richtung eines philosophisch-wissenschaftlichen Essays, in dem bekannte Fragen und Erkenntnisse zum Thema in einem eher freien literarischen Format so angeordnet werde, dass ein ’normaler Leser‘, jemand, der kein Experte ist, eine Chance haben sollte, zumindest zu erahnen, was heute gerade passiert, was mit ihm passiert, mit ihm als Mitglied der Population der Menschen.

Einen Überblick über alle bisherigen Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Über Industrie 4.0 und Transhumanismus. Roboter als Volksverdummung? Schaffen wir uns selbst ab?

Vortrag am 19.Mai 2015 im Literaturhaus Frankfurt in der Veranstaltung PR-Slam & Ham 2015

In meiner Präsentation hatte ich eine Reihe von Schaubildern gezeigt, die ich dann mündlich kommentiert habe. Einen geschriebenen Text gab es nicht. Ich habe aber die Erläuterung nochmals ’nachgesprochen‘. Aus den 20 Min sind dann ca. 70 Min geworden. Die Bilder unten bilden das Rückgrat der Geschichte; sie sind nummeriert. Im gesprochenen Text nehme ich auf diese Bilder Bezug.

Das Ganze endet in einem glühenden Plädoyer für die Zukunft des Lebens in Symbiose mit einer angemessenen Technik. Wir sind nicht das ‚Endprodukt‘ der Evolution, sondern nur eine Durchgangsstation hin zu etwas ganz anderem!

 

AUDIODATEI DES KOMMENTARS (70 Minuten! mp3)

Gehirn im Körper mit Bild 1: Bewusstsein - Beobachter

Bild 1: Gehirn im Körper mit Bewusstsein – Beobachter

Bild 2: Gehirn im Körper mit Raum der Phänomene. Empirische und nicht-empirische Phänomene

Bild 2: Gehirn im Körper mit Raum der Phänomene. Empirische und nicht-empirische Phänomene

Bild 3: Korrelation zwischen Gehirn, Bewusstsein und Gedächtnis. Gedächtnis mit Sensorik, Arbeitsgedächtnis und Langzeitgedächtnis

Bild 3: Korrelation zwischen Gehirn, Bewusstsein und Gedächtnis. Gedächtnis mit Sensorik, Arbeitsgedächtnis und Langzeitgedächtnis

Bild 4: Mensch im Alltag, umringt von technischen Schnittstellen die mit digitalisierten weltausschnitten verbinden können: viel. schnell, komplex

Bild 4: Mensch im Alltag, umringt von technischen Schnittstellen die mit digitalisierten weltausschnitten verbinden können: viel. schnell, komplex

Bild 5: Menge von Komplexitätsereignissen bisher; Explosion in der Gegenwart

Bild 5: Menge von Komplexitätsereignissen bisher; Explosion in der Gegenwart

Bild 6: Konkrete Zahlen zum vorhergehenden Schaubild mit den Komplexitätsereignissen

Bild 6: Konkrete Zahlen zum vorhergehenden Schaubild mit den Komplexitätsereignissen

Bild 7: Biologischer Reproduktion als Quelle der Kreativität für neue Strukturen

Bild 7: Biologischer Reproduktion als Quelle der Kreativität für neue Strukturen

Bild 8: Struktur der biologischen Reproduktion in 1-zu-1 Isomorphie zur Struktur eines Automaten (Turingmaschine)

Bild 8: Struktur der biologischen Reproduktion in 1-zu-1 Isomorphie zur Struktur eines Automaten (Turingmaschine)

Die Vision, die in dem Audiobeitrag gegen Ende entwickelt wird, soll in dem Emerging-Mind Projekt konkret umgesetzt werden, als Impuls, als Anstoß, als Provokation, als Community, die sich mit dem Thema philosophisch, wissenschaftlich, künstlerisch und theologisch auseinandersetzt.

Eine Übersicht über alle Einträge von cagent in diesem Blog nach Titeln findet sich HIER.

DONALD A.NORMAN, THINGS THAT MAKE US SMART – Teil 7, Epilog

Diesem Beitrag ging voraus Teil 6.

BISHER
(ohne kritische Anmerkungen)

In den vorausgehenden Teilen wurden bislang zwei Aspekte sichtbar: einmal die ‚Menschenvergessenheit‘ in der Entwicklung und Nutzung von Technologie sowie die Einbeziehung von ‚wissensunterstützenden Dingen‘ sowohl außerhalb des Körpers (physisch) wie auch im Denken selber (kognitiv). Ferner hatte Norman die Vielfalt des Denkens auf zwei ‚Arbeitsweisen‘ reduziert: die ‚erfahrungsorientierte‘ Vorgehensweise, ohne explizite Reflexion (die aber über ‚Training‘ implizit in die Erfahrung eingegangen sein kann), und die ‚reflektierende‘ Vorgehensweise. Er unterschied ferner grob zwischen dem Sammeln (‚accretion‘) von Fakten, einer ‚Abstimmung‘ (‚tuning‘) der verschiedenen Parameter für ein reibungsloses Laufen, Schreiben, Sprechen, usw., und einer Restrukturierung (‚restructuring‘) vorhandener begrifflicher Konzepte. Ferner sieht er in der ‚Motivation‘ einen wichtigen Faktor. Diese Faktoren können ergänzt werden um Artefakte, die Denkprozesse unterstützen. In diesem Zusammenhang führt Norman die Begriffe ‚Repräsentation‘ und ‚Abstraktion‘ ein, ergänzt um ‚Symbol‘ (nicht sauber unterschieden von ‚Zeichen‘) und ‚Interpreter‘. Mit Hilfe von Abstraktionen und Symbolen können Repräsentationen von Objekten realisiert werden, die eine deutliche Verstärkung der kognitiven Fähigkeiten darstellen. Allerdings, und dies ist ein oft übersehener Umstand, durch die Benutzung eines Artefaktes werden nicht die kognitiven Eigenschaften des Benutzers als solchen geändert, sondern – bestenfalls – sein Zugang zum Problem. Wenn in einem solchen Fall zwischen den wahrnehmbaren Eigenschaften eines Artefakts und den korrelierenden ‚Zuständen‘ des Problems ein Zusammenhang nur schwer bis gar nicht erkennbar werden kann, dann führt dies zu Unklarheiten, Belastungen und Fehlern. Norman wiederholt dann die Feststellung, dass die Art wie das menschliche Gehirn ‚denkt‘ und wie Computer oder die mathematische Logik Probleme behandeln, grundlegend verschieden ist. Im Prinzip sind es drei Bereiche, in denen sich das Besondere des Menschen zeigt: (i) der hochkomplexe Körper, (ii) das hochkomplexe Gehirn im Körper, (iii) die Interaktions- und Kooperationsmöglichkeiten, die soziale Strukturen, Kultur und Technologie ermöglichen. Die Komplexität des Gehirns ist so groß, dass im gesamten bekannten Universum nichts Vergleichbares existiert. Mit Bezugnahme auf Mervin Donald (1991) macht Norman darauf aufmerksam dass die auffälligen Eigenschaften des Menschen auch einen entsprechenden evolutionären Entwicklungsprozess voraussetzen, innerhalb dessen sich die heutigen Eigenschaften schrittweise herausgebildet haben. Nach kurzen Bemerkungen zur Leistungsfähigkeit des Menschen, der schon mit wenig partiellen Informationen aufgrund seines Gedächtnisses übergreifende Zusammenhänge erkennen kann (was zugleich ein großes Fehlerrisiko birgt), legt Norman dann den Fokus auf die erstaunliche Fähigkeit des Menschen, mit großer Leichtigkeit komplexe Geschichten (’stories‘) erzeugen, erinnern, und verstehen zu können. Er erwähnt auch typische Fehler, die Menschen aufgrund ihrer kognitiven Struktur machen: Flüchtigkeitsfehler (’slips‘) und richtige Fehler (‚mistakes‘). Fehler erhöhen sich, wenn man nicht berücksichtigt, dass Menschen sich eher keine Details merken, sondern ‚wesentliche Sachverhalte‘ (’substance and meaning‘); wir können uns in der Regel nur auf eine einzige Sache konzentrieren, und hier nicht so sehr ‚kontinuierlich‘ sondern punktuell mit Blick auf stattfindende ‚Änderungen‘. Dementsprechend merken wir uns eher ‚Neuheiten‘ und weniger Wiederholungen von Bekanntem. Ein anderes typisches Fehlerverhalten ist die Fixierung auf eine bestimmte Hypothese. Am Beispiel von Flugzeugcockpits (Boeing vs. Airbus) und Leitständen großer technischer Anlagen illustriert Norman, wie eine durch die gemeinsam geteilte Situation gestützte Kommunikation alle Mitglieder eines Teams auf indirekte Verweise miteinander verbindet, sie kommunizieren und verstehen lässt. In einer simulierten Situation müsste man die impliziten Gesetze der realen Welt explizit programmieren. Das ist nicht nur sehr aufwendig, sondern entsprechend fehleranfällig. Ein anderes großes Thema ist das Problem, wie man Wissen so anordnen sollte, dass man dann, wenn man etwas Bestimmtes braucht, dieses auch findet. Es ist ein Wechselspiel zwischen den Anforderungen einer Aufgabe, der Struktur des menschlichen Gedächtnisses sowie der Struktur der Ablage von Wissen. Nach Norman ist es generell schwer bis unmöglich, die Zukunft vorauszusagen; zu viele Optionen stehen zur Verfügung. Andererseits brauchen wir Abschätzungen wahrscheinlicher Szenarien. Dazu präsentiert er zahlreiche Beispiele aus der Vergangenheit (Privater Hubschrauber, Atomenergie, Computer, Telephon), anhand deren das Versagen von Prognose illustriert wird. Der größte Schwachpunkt in allen Voraussagen ist immer der Bereich der sozialen Konsequenzen. Auffällig in den neuen Entwicklungen ist der Trend, den Menschen im Handeln durch künstliche Charaktere zu ersetzen. Weitere Themen sind ‚Neurointerface‘, kollaborativesArbeiten, Viel ‚Hype‘ um Visionen, wenig Erfolg in der tatsächlichen Realisierung.

WEICHE UND HARTE TECHNOLOGIE

1) Auf den Seiten 221-242 wiederholt Norman Themen, die er auch schon vorher angesprochen hat. Es geht um die Grundeinsicht, dass der Mensch typische Stärken und Schwächen hat, die zu den heute bekannten Fähigkeiten der Maschinen weitgehend komplementär sind (zusammengefasst in einer Tabelle auf S.224).(vgl. SS.221-224) Statt maschinenorientiert zu denken, indem man den Menschen an Maschinen anzupassen versucht und dadurch den Menschen in für Menschen ungünstige Situationen zu pressen (mit entsprechend großem Fehlerpotential), sollte wir eher versuchen, die Maschinen an die Menschen anzupassen. Im Grunde sind beide komplementär und Maschinen könnten den Menschen hervorragend ergänzen.(vgl. SS.224-227)
2) Er stellt dann nochmals gegenüber die Logik, die in den Maschinen zum Tragen kommt, und die Logik des menschlichen Gehirns, die sich vorwiegend in der Art und Weise äußert, wie wir sprechen, wie wir unsere Sprache benutzen.(vgl. SS.227-232). Er illustriert die Gegenüberstellung von ‚maschinenorientierter (harter)‘ zu ‚menschenorientierter (weicher)‘ Technologie an den Beispielen ‚Telephon‘, ‚Briefmarkenautomat‘ sowie einer wissensunterstützenden Software genannt ‚Rabbit‘. (vgl. SS.232-242)

TECHNIK IST NICHT NEUTRAL

3) Auch auf den Schlussseiten SS.243-253 wiederholt Norman nur Thesen, die er zuvor schon mehrfach besprochen hat. Zentral sind ihm die Themen, dass das Medium für ihn im Gegensatz zu Marshall McLuhan nicht die Botschaft ist, wenngleich das Medium durch seine Eigenschaften einen spezifischen Effekt haben kann.(vgl.S.243f)
4) Er verdeutlicht dies (wiederholt) an der Gegenüberstellung von ‚Text lesen‘ und ‚Fernsehen schauen‘. Letzteres ist passiv und lässt in der Regel keine Zeit zur Verarbeitung. Die enorme Fähigkeit des menschlichen Gehirns, Dinge auf unterschiedliche Weise zu verarbeiten und zu gewichten wird durch das Fernsehen neutralisiert und führt nach jahrelanger mehrstündiger Praxis täglich zu deutlich negativen Effekten.(vgl. SS.244-246)
5) Eine Behebung dieses Problems sieht er (wiederholt) in der Einbeziehung des menschlichen Denkens durch eine Einbettung von Fernsehen in einer interaktive Version, bei der die Darbietung jederzeit unterbrochen werden kann.(vgl. S.248f)
6) Seine Schlusszeile lautet: „Menschen schlagen vor, Wissenschaft untersucht, Technologie macht verfügbar (‚conforms‘)“.(S.253)

EPILOG

ZERFLEDDERT

7) Hat man sich durch das ganze Buch durchgekämpft, dann kann man sich nicht des Eindrucks erwehren, dass die Gesamtheit der Themen nicht sehr streng systematisch organisiert worden sind. Viele Themen kommen immer wieder vor, mal mehr, mal weniger durchanalysiert. Dazu kommt, dass die Reflexion über Beispiele nicht konsequent durchgeführt erscheint. Reflexionsansätze werden immer wieder durchbrochen durch eine Vielzahl von Beispielen, die in sich zwar interessant und lehrreich sind, aber letztlich nicht wirklich in einer kohärenten Theorie aufgefangen werden.

GRUNDLEGENDE EINSICHTEN

8) Dieser negative Eindruck wird aber durch zwei positive Aspekte ausgeglichen: (i) die vielen ausführlichen Beispiele (die ich hier nicht im einzelnen beschrieben habe) illustrieren sehr schön den Reichtum seiner praktischen Erfahrungen; (ii) seine Grundthesen erscheinen mir tatsächlich fundamental, grundlegend, auch nach nunmehr 20 Jahren seit dem ersten Erscheinen des Buches.
9) Zwar nimmt in der Wirtschaft das Bewusstsein für bessere Bedienbarkeit von Geräten deutlich zu, aber eher weniger durch theoretische Einsicht sondern vielmehr durch die Realität des Marktes: schlechte Bedienbarkeit führt zu realen wirtschaftlichen Verlusten oder kann bei Zulassungsverfahren zum Ausschlusskriterium werden.
10) Das grundsätzliche Verhältnis von Menschen vs. Maschinen hat sich im Bewusstsein der Mehrheit deswegen nicht unbedingt zugunsten des Menschen verschoben. Die Unterhaltungsindustrie lebt jedenfalls extensiv von der immer wieder neuen Variierung des Themas ‚Intelligente Maschinen bedrohen die Existenz der Menschen‘.
11) Ich finde, dass Norman zurecht die Stärken und Schwächen des Menschen thematisiert und dass er im großen und ganzen die Möglichkeiten einer technischen Intelligenz demgegenüber als potentiell komplementär skizziert. Aus eigener Erfahrung im Hochschulbetrieb weiß ich, dass im Bereich der Informatik und Ingenieurwissenschaften das explizite Bewusstsein vom ‚Faktor Mensch‘ höchstens bei jenen wenigen Professoren gegeben ist, die das Thema ‚Mensch-Maschine-Interaktion‘ explizit betreuen; aber selbst in dieser verschwindend kleinen Gruppe gibt es noch genügend, die das Fach ‚maschinenorientiert‘ verstehen: wie kann ich den Menschen am besten an die Gegebenheiten eines bestimmten technischen Systems anpassen?‘.
12) Seine letztlich tiefgreifenden Einsichten in den Fundamentalzusammenhang zwischen Menschen und Technologie berühren allerdings ein Thema, das weit über die Disziplin Mensch-Maschine Interaktion hinausgeht. Es berührt den grundsätzlichen Wertekanon einer informationstechnologisch geprägten Gesellschaft, berührt die grundsätzlichen Fragen nach dem ‚Selbstbild des Menschen‘, die Frage, wie wir als Menschen uns selbst sehen, begreifen, verstehen angesichts einer immer mehr beschleunigten Komplexität.
13) Und in diesem Bereich der übergreifenden ‚Weltbilder‘ erleben wir neben einer großen Ungleichzeitigkeit zwischen unterschiedlichen Regionen und Kulturen auf der Erde im Bereich der stark wissenschaftlich geprägten Gesellschaften ein gefährliches denkerisches Vakuum: Bis zum Beginn der Entwicklung neuzeitlicher experimenteller und formal-mathematischer Wissenschaften verbanden die Menschen das ‚Lebendige‘, speziell den ‚Menschen‘ – also sich selbst – mit der Kategorie, etwas ‚Besonderes‘ zu sein, und die unterschiedlichen Manifestationen dieser Besonderheiten im Verhalten nannte man – im weitesten Sinne – z.B. ‚intelligent‘, ‚vernunftbegabt‘, ‚geistig‘, bis dahin, dass man einem Menschen einen ‚Geist‘ unterstellte (was immer dies auch im einzelnen war), der einen Menschen genau zu diesem wunderbaren Verhalten befähigt. Dieser unterstellte ‚Geist‘ war eine beliebte Projektionsfläche für sehr vieles, u.a. auch für religiöse Vorstellungen. Mit dem Fortschreiten der experimentellen und formalen Wissenschaften begann aber eine zunehmende ‚Durchleuchtung‘ der empirischen Welt, auch des menschlichen Körpers einschließlich Gehirn, auch des Universums, und überall fand man immer nur noch Kleineres, Zellen, Moleküle, Atome, Quanten, aber eben keinen ‚Geist‘. Diese zunehmende Zerkleinerung mit Verlust der Sicht auf potentielle Zusammenhänge oder Hervorbringungen haben die Aura des ‚Besonderen‘ denkerisch ausgetrocknet. Die ‚Rückbesinnungen‘ auf das typisch, ursprünglich Menschliche, auf immer buntere Formen von Religiosität, wirken in diesem Zusammenhang wie Verzweiflungsaktionen, eher emotional, wenig rational, kaum erhellend, auf keinen Fall kraftvoll genug, um die Stellung des Menschen (und überhaupt des Lebens) im Kosmos nennenswert zu stärken. In einer solchen denkerisch ausgehöhlten, ausgelutschten Situation gibt es keine wirklichen Argumente für den Menschen. Philosophie und Religion sind sprachlos, die Wissenschaft gefangen in ihre einzelwissenschaftlichen Zerkleinerungen eines großen Ganzen, das dem Blick entschwunden ist. Die Lücke füllen Fantasien aller Arten.
14) Das schon mehrfach erwähnte ‚Emerging Mind Project‘ stellt in diesem Zusammenhang einen Versuch dar, den Zusammenhang wieder zurück zu gewinnen und das Phänomen des ‚Lebens‘ (einschließlich des Menschen) in seiner spezifischen Rolle neu sichtbar zu machen. Technologie wird hier dann zu einem genuinen Teil des Lebens, nicht als Gegensatz, sondern als ‚genuiner Teil‘!

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

DONAL A.NORMAN, THINGS THAT MAKE US SMART. Defending Human Attributes In The Age Of The Machine, New York: Basic Books, 1993

(Die folgenden Gedanken sind (etwa ab der Mitte) in gewisser Weise ’salopper‘ als sonst; es geht primär darum, eine Anregung zu ermöglichen für das Thema der ‚Abwesenheit‘ des Menschen in weiten Bereichen des alltäglichen Denkens und Handelns)

BÜCHER LESEN IM ALLGEMEINEN

1) Wenn man Bücher lesen will ist das Hauptproblem immer, herauszufinden, welches der vielen möglichen Bücher soll man als nächstes lesen. Es gibt so viel unglaublich gute, spannende, aufklärende, erhellende Bücher, aber nur eines kann man als nächstes lesen, und da die Zeit knapp ist, bedeutet die Entscheidung für ein bestimmtes Buch, dass man all die anderen wunderbaren Bücher – zumindest vorläufig – nicht lesen wird.
2) Jeder hat da seine eigene Strategie, wie er Bücher auswählt. Im Grenzfall lässt man sich einfach überraschen (Geschenke, was im Regal steht, Werbung, Tipps von Freunden,…) oder aber man hat sich irgendwelche Kriterien zurechtgelegt (Forschungsthemen, bestimmte Hobbies, bestimmte Autoren,…).
3) Bei mir ist es eine Mischung von verschiedenen Faktoren: einerseits habe ich eine Art ‚Leitfrage‘, die sich nahezu durch mein ganzes Leben zieht, die sich in vielen Bereichen auch in diesem Blog widerspiegelt. Dann sind es meine Forschungsthemen, die alle um den Menschen kreisen, sein Erkennen, seine Kognition, seine Entstehung, der Mensch im Wechselspiel mit seiner Umgebung. Darin habe ich natürlich schon viel gelesen, was bedeutet, dass es so eine Art ‚Koordinatensystem‘ von Themen, Begriffen, Theorien, Autoren gibt. Dazu kommt weiter – als eine Art kontinuierlicher Prozess – Recherchen in Datenbanken sowohl zu Artikeln wie auch zu Büchern. Dies bedeutet, mit jedem neuen Namen, neuem Begriff, neuer Frage, neuem Artikel eröffnet sich beständig ein ganzes Feld von weiteren neuen Namen, Begriffen, Themen, Artikeln… Wissen erzeugt Wissen (genauso wie Nicht-Wissen dahin tendiert, Nicht-Wissen zu konservieren).
4) Und dann gibt es da noch einen Faktor, man mag dies ‚mystisch‘ nennen, eine bestimmte Art von ‚Gefühl‘. Wenn ich einen Artikel sehe oder ein Buch, dann sind es nicht nur die konkreten Worte und Sätze, die den Verstand erreichen, es ist auch immer ein ‚Gefühl‘ dabei, das so einen Artikel oder ein Buch zum ‚Leuchten‘ bringt (übrigens auch bei Veranstaltungen, angekündigten Vorträgen, usw.). Allerdings braucht dieses ‚Gefühl‘ einen konkreten ‚Anhaltspunkt‘. Es funktioniert nicht ‚blind‘ (höchstens im Modus der ‚Unruhe‘ die anzeigt, der Zustand ist unbefriedigend…). Letztlich ist es dann so eine Mischung aus Verstehen und ‚Gefühl‘, was den Ausschlag gibt, als nächstes Buch A zu lesen und nicht die anderen.
5) Manchmal ist diese Entscheidung schnell und direkt, manchmal ’stochere‘ ich ein wenig herum, probiere verschiedene Artikel/ Bücher aus, bis ich dann merke, das ist es jetzt.
6) Am schwierigsten ist dies, nachdem ich ein Buch gelesen habe, das einen sehr nachhaltigen Eindruck auf mich gemacht hat (wie z.B. das letzte Buch von Kauffman); dann etwas zu finden, was den Spannungsbogen fortsetzt, erscheint fast unmöglich.
7) Dazu kommt noch ein weiterer Aspekt: bei mir haben sich im Laufe der Jahre viele Bücher angesammelt, alle aus einer bestimmten Suche heraus. Und ich erlebe es immer wieder, dass manche Bücher viele Jahre da liegen, ich weiß, dass sie da sind, aber ‚der Funke springt nicht über‘; irgendwie passt es nicht, sie ‚jetzt‘ zu lesen obgleich klar ist, dass sie einen spannenden, wichtigen Inhalt haben. Und dann kommt ein Moment im eigenen Denken, Fühlen, Ausarbeiten, wo plötzlich klar wird, jetzt könnte dies eine Buch (in der Warteschleife) besonders passen. Und dann passiert es: es ist, als ob das Buch unverhofft ‚zum Leben erwacht‘, und es zu sprechen anfängt, und es entspinnt sich eine Art Dialog über die toten schwarzen Linien des Textes hinweg zu den mitschwingenden Inhalten, zu jenem imaginären Geist des Autors, den man meist nie gesehen hat.

WARUM DAS BUCH VON NORMAN

8) Einer der Faktoren, der ausschlaggebend war, das Buch von Donald A. Norman zu lesen, ist seine Positionierung für den Menschen und die Einordnung von Technologie als etwas, was dem Menschen helfen soll, sein ‚Menschsein‘ zu unterstützen, nicht den Menschen den Maschinen (die letztlich von Menschen geschaffen wurden) zu ‚opfern‘.
9) Dazu kommt, dass ich in einem anderen Zusammenhang zum Thema ‚verteiltes Wissen‘ in einem interessanten Artikel von Hollan et al. (2000) auf dieses Buch von Norman aufmerksam geworden bin.

MENSCHENZENTRIERT (‚Human-Centered‘)

10) Das Buch ist nicht sehr systematisch aufgebaut; es lebt von der umfangreichen praktischen Erfahrung des Autors. Er referiert viele konkrete Beispiele von Technologien, Schnittstellen / Interface dieser Technologien, Wirkungen auf Menschen, Erwartungen, die wir Menschen an Technologien haben, Faktoren, die dafür verantwortlich sind, welche Technologien entstehen, wie sie entstehen, wie sie ‚designed‘ werden.
11) Da ich auch viele Jahre Lehrveranstaltungen zum Thema Mensch-Maschine Interaktionen durchgeführt habe, waren mir die grundsätzlichen Themen bekannt und ich fand zahlreiche Anregungen im Detail.
12) Die Grundthese von Norman lässt sich etwa wie folgt formulieren: in der Vergangenheit wurde bei der Entwicklung von Technologien oft (bis immer) nicht der Mensch mit seinen tatsächlichen Fähigkeiten und Bedürfnissen zum Bezugspunkt gewählt, sondern das ‚rein technisch Mögliche‘ wurde in den Vordergrund gestellt und der Mensch musste sich dann diesen technischen Lösungen mehr oder weniger anpassen. Dank der hohen Anpassungsfähigkeit des Menschen (nicht der Technologien, die meist starr waren) war dies meist möglich, auch wenn sich dazu der Mensch oft sehr verbiegen musste, mit viel Leiden, mit viel gesundheitlichen Gefahren, letztlich un-menschlich.
13) Dass diese Situation einer menschen-unangemessenen Handlungssituation sehr fehleranfällig ist, liegt in der Natur der Sache. Wenn man den Menschen zwingt, etwas zu tun, was er eigentlich nicht gut kann, dann kommt der Mensch an seine Grenzen und macht Fehler bzw. nimmt psychisch und körperlich Schaden.
14) Auf der S.224 präsentiert Norman eine Tabelle, in der er gegenüberstellt, worin die Stärken und Schwächen von Menschen einerseits und Maschinen andererseits bestehen (wobei er davon ausgeht, dass ‚Maschinen‘ nicht ’smart‘ sind im Vergleich zum Menschen). In einer ‚menschenzentrierten‘ (‚human-centered‘) Perspektive hat der Mensch viel wunderbare Eigenschaften, mit denen er Maschinen haushoch überlegen ist. In einer ‚maschinenzentrierten‘ (‚machine centered‘) Perspektive, in der man die Maschine als Maßstab nimmt, nützen dem Menschen seine wunderbaren Fähigkeiten nichts; er ist den Maschinen haushoch unterlegen.

MENSCHENFERNER ALLTAG

15) Das klingt sehr einfach. Schaut man sich den Alltag an, so muss man konstatieren dass erst mit dem Aufkommen der Computer – und speziell hier dann der mobilen Telefone – der Aspekt eines ‚menschenzentrierten‘ Designs überhaupt erst ansatzweise eine wirtschaftlich relevante‘ Bedeutung bekommen hat (Erst stach Microsoft IBM aus, dann Apple Nokia und Microsoft, dann ….)(die Rolle anderer Designbereiche wie Mode, Haushaltsgegenstände, Möbel, Architektur,… wäre eigens zu gewichten).
16) Das dominante Thema ist und bleibt aber überwiegend eine Technologie, die ‚aus sich heraus‘ betrieben und weiter entwickelt wird. Der Blick auf den Menschen fällt den meisten Handelnden in Bereich Technikentwicklung schwer.
17) Dies fängt schon mit der Ausbildung an. In den technischen Ausbildungen (Ingenieure, Informatiker) war es bis vor kurzem völlig unüblich, den Studierenden dazu zu befähigen, den Blick vom Menschen her einzuüben. Und selbst heute ist der Anteil von Mensch-Maschine Interaktionsthemen im Curriculum sehr bescheiden, wenn er überhaupt vorkommt. Und bei den vorhandenen Lehrangeboten ist es dann wiederum nicht unbedingt die Perspektive des Menschen, die methodisch eingeübt wird, sondern es wird sehr oft eine bestimmte Technologie ‚als gegeben vorausgesetzt‘ und es wird nur gefragt, wie man diese ‚vorausgesetzte‘ Technologie (die als solche normalerweise wenig mit Menschen zu tun hat) so ‚herrichtet‘, dass ein Mensch sie bedienen kann, NICHT wie es für die Menschen gut wäre, SONDERN wie es die vorausgesetzte Technologie benötigt.
18) Insofern ist das Buch von Norman aus dem Jahr 1993 keineswegs ‚überholt‘, sondern seine These ist weiterhin provokativ und wegweisend. Der notwendige Blick auf den Menschen fällt allenthalben immer noch sehr schwer.
19) Wenn man sich fragt, woran das liegt, dann wird man schnell feststellen können, dass wir ein gesellschaftliches Geistesproblem haben: die sogenannte ‚humanistische Tradition‘ in Europa ist lokalisiert in den Bereichen Religion, Geisteswissenschaften, Feuilleton, Kulturbetrieb, ‚Sonntagsreden‘ von Verantwortlichen bei speziellen Anlässen, und juristisch partiell in den jeweiligen Gesetzgebungen. Daneben gibt es die Wirtschaft und stark wirtschaftsabhängige Forschung, in der der Mensch als Mensch überhaupt nicht vorkommt! Die Wirtschaft kennt den Menschen entweder nur als dummen, naiven Konsumenten, den man vorwiegend über statistische Parameter betrachtet, oder als Arbeitskraft, die rein unter dem Gesichtspunkt einer (in der Regel nicht menschengemäßen) Arbeitsleistung betrachtet wird mit einer zu leistenden Entlohnung, die sich in der Regel nicht an dem Geld orientiert, das verfügbar wäre, sondern an dem kleinstmöglichen Betrag, den man zahlen kann, ohne Probleme zu bekommen.

KULTURTHEORETISCHES

20) M.a.W. in all den Bereichen, die den Alltag primär bestimmen, existiert der Mensch als Mensch eigentlich nicht. Er ist durch die herrschenden Sprachregelungen und Verhaltensweisen ‚eliminiert‘. In einer solchen Situation hat der Mensch auch wenig Chancen. Es gibt von Seiten der Wirtschaft, der Technologie und den zugeordneten Ausbildungswegen keinerlei Ansatzpunkte, die Perspektive des Menschen sowohl theoretisch wie auch praktisch zu stärken. Der Mensch ist immer nur ein ‚Parameter‘ ‚am Rande‘, der ‚konsumiert‘ oder ‚produziert‘ (Ansätze, die darauf abzielen, die Situation der ‚Angestellten‘ zu verbessern sind meist nur angetrieben von der Notwendigkeit, die benötigte Arbeitskraft für die zu lösende Aufgabe hinreichenden zweckgebunden zu ‚befähigen‘).
21) Alles, was sich in den ‚humanistischen Reservaten‘ (Kulturbetrieb, Feuilletons, Religion…) abspielt, hat nahezu keine Relevanz für das technologische-wirtschaftliche Denken, höchstens als ‚Vergnügungsindustrie‘, ‚Brot und Spiele’…, in der Teilaspekte des Menschen sich gegen bares Geld ‚vermarkten‘ lassen, weil es ‚Spaß‘ macht oder weil es ‚chic‘ ist…).
22) In der literarischen Gattung ‚Science Fiction‘ reflektieren sich die zugrunde liegenden Annahmen über Mensch und Welt hinsichtlich Technologie meist mehr als in anderen literarischen Gattungen. Und hier gilt, dass in nicht wenigen Werken (man denke nur an das berühmte mehrteilige Foundation Werk von Asimov) die Technologie NICHT der dominierende Faktor ist, sondern ein Gesamtsystem, in der sich nicht nur die Technologie weiter entwickelt hat, sondern auch der Mensch selbst und die Technologie ist eine Art ‚Medium‘, in dem sich der ’neue‘ Mensch realisiert. Dies setzt allerdings voraus, dass die Entfremdung zwischen Technologie und Geisteswissenschaften aufgebrochen wird. Doch diese sitzt sehr tief, ist gesellschaftlich durch Institutionen, Rituale, Denkmuster so fest verankert, dass es ohne eine echte ‚Revolution‘ nicht gelingen wird, diese aufzubrechen. Der aktuelle Zustand verschafft seinen Protagonisten aktuell nur Vorteile. Eine Änderung wäre unüberschaubar, wirkt bedrohlich, würde verlangen, dass alle ihr Denken (und Fühlen) einer radikalen Selbstkritik unterziehen würden. Es gibt wenig Anlass zu glauben, dass dies einfach so geschehen wird. Wir bräuchten eine Art von Kulturrevolution (nicht das, was im China Maos darunter verstanden wurde)…
23) Wenn einer sich fragt, ob er generell zu einer Kulturrevolution fähig wäre, muss er sich die Testfrage stellen, ob er u.a. bereit wäre, in der Öffentlichkeit als ‚Verrückter‘ zu erscheinen. Wem diese Vorstellung ‚Unbehagen‘ bereitet, der sollte hier nicht weiter nachdenken.

Für eine Fortsezung siehe Teil 2.

Literaturhinweise:

JAMES HOLLAN, EDWIN HUTCHINS, and DAVID KIRSH, Distributed Cognition: Toward a New Foundation for Human-Computer Interaction Research, in: ACM Transactions on Computer-Human Interaction, Vol. 7, No. 2, June 2000, Pages 174–196.

Einen Überblick über alle Blogeinträge nach Titeln findet sich HIER