Archiv für den Monat: Juni 2013

DER HOBBIT, DAS BÖSE UND WIR


(Unter twitter bei ‚cagentartist‘))

BUCH UND FILM

1) Spätestens seit dem Film ‚Der Hobbit: Eine unerwartete Reise‘ ist vielen die märchenhaft fantastische Geschichte des gleichnamigen Buches ‚Der Hobbit‘ bekannt, das J.R.R. Tolkien erstmalig 1937 in einer ersten Fassung veröffentlicht hatte (für eine Übersicht aller Publikationen von J.R.R.Tolkien siehe die Liste der Publikationen.
2) Das Buch ‚Der Hobbit‘, ursprünglich ein Kinderbuch, erfuhr bei seinem ersten Erscheinen sehr starke, positive Reaktionen, mit vielen Besprechungen, Ehrungen und Preisen. Es ist eine fantastische Geschichte, ein Märchen, mit vielen wunderbaren Gestalten, in ungewöhnlichen Szenarien, mit einer Dramaturgie, voller tiefer Gefühlen, Witz, Humor, aber doch auch hohem Ernst, mit einer Fülle von lebensbedrohenden Gefahren, die letztlich eine zu Beginn unscheinbare Person, einen Hobbit, zu einer listenreichen, fantasievollen, charakterlich starken Persönlichkeit reifen lassen, die Licht und Hoffnung verbreitet. Zugleich verwandeln sich andere Persönlichkeiten aufgrund von Gefahr und Gier in unangenehme Zeitgenossen, zu Verrätern, zu Versagern, die nur mit Mühe zu ihrer Menschlichkeit zurückfinden. Dazwischen und darum herum findet sich eine breite Palette von normalen und wundersamen Gestalten, die – jeder für sich – eine Facette möglichen Lebens erlebbar machen.

DAS BÖSE

3) Viel wurde über dieses Buch schon geschrieben, vieles könnte man sicher noch schreiben. Als ich aber letztens den Film ‚Der Hobbit‘ nochmals sah, mit Freunden, inspirierte mich der Aspekt des ‚Bösen‘, der ‚dunklen Mächte‘, die in diesem Film (und natürlich im Buch) aufscheinen. Das Böse erscheint machtvoll, bedrohlich, und hat in der Regel ein entsprechend ’schreckliches Äußeres‘, durch das man es unzweifelhaft erkennen kann (die Orcs, der Negromant, der Drachen, die tödlichen Spinnen, usw.). Das Thema des Bösen ist nichts Spezifisches für die Geschichte des ‚Hobbit‘; das Böse taucht in jedem Märchen, in nahezu jedem Roman und Film auf, und nicht nur das, die täglichen Nachrichten scheinen das Böse in seinen vielen bedrohlichen Formen wie magisch anzuziehen – zumindest tun die Nachrichtenredaktionen weltweit alles, um ja nichts Bedrohliches zu verpassen (und sind dann doch wieder auch wählerisch, da sie vieles andere Böse, wie man dann gelegentlich erfährt, bewusst ‚auslassen’…).
4) Folgt man nicht dem kommerziell sehr erfolgreichen Trend von Fantasieprodukten, die von der beständigen Produktion von künstlichem Bösen gut leben, sondern fragt man sich, wo denn die möglichen Ursprungsorte von ‚Bosheit‘, von ‚Bedrohlichem‘ liegen, dann wird man feststellen müssen, dass es das ‚Böse‘ nur dort gibt, wo es Menschen gibt. Ohne Menschen gibt es nichts ‚Böses‘! Ohne Menschen gibt es zwar gewaltige Kräfte, die im Universum Sterne und ganze Galaxien entstehen und vergehen lassen, gibt es unterschiedliche Verteilungen von Energie, Verdichtungen und Ausbrüche allerlei Art, die über viele hunderte oder gar tausende von Lichtjahre ihre Wirkungen entfalten können, aber es gibt nichts ‚Böses‘. Es fehlt jeglicher Maßstab, jegliche Kategorie für ‚Böses‘.
5) Sobald aber ‚Leben‘ auf der Erde entstanden ist und nun da ist, kann man mit Bezug auf dieses Leben sagen, dass es Vorgänge gibt, Ereignisse, Kräfte, die für die Existenz und den Fortbestand dieses Lebens eher ‚günstig‘ erscheinen oder eher ‚ungünstig‘, ja ‚bedrohlich‘. Und da es eine Besonderheit des Lebens ist, dass es ’sensitiv‘ für seine Umgebung und sich selbst ist, kann ein Lebendiges seine Umgebung aus der Perspektive seiner individuellen konkreten Existenz punktuell als eher ‚bedrohlich‘ erfahren oder als ‚hilfreich‘. Ein Erdbeben, das ohne Lebensformen eben ’nur‘ ein ’normales Erdbeben‘ war (z.B. weil sich Oberflächenplatten der Erdkruste aneinander reiben, dadurch Spannungen erzeugen, die sich dann gelegentlich in freiwerdenden Schwingungen entladen), wird mit einem Male zu einem ’schlimmen‘ Ereignis für Lebensformen, da diese in ihrer Existenz unmittelbar betroffen sind. Eine Waldbrand, der als solcher halt vorkommt, in gewisser Weise sogar für den Fortbestand der Vegetation gut sein kann, wird plötzlich, weil bestimmte Lebensformen in dem betroffenen Gebiet ‚wohnen‘, zu einem ’schrecklichen‘ Ereignis, weil es Lebensformen ‚töten‘ kann. Völlig ’natürliche‘ Vorgänge können also mit Bezug zu konkreten Lebensformen in bestimmten Situationen ’schrecklich‘ werden, nicht, weil sie ‚in sich‘ schrecklich sind, sondern weil sich Lebensformen in eine Position gebracht haben, so dass es für diese, aus ihrer eigenen Perspektive, ‚lebensbedrohlich‘ erscheint und dann oft auch ist.

MENSCHEN UND BÖSES

6) Wir Menschen als Teil des Lebens auf der Erde haben die Sensitivität für die umgebende Welt und unseren eigenen Zustand sehr weit kultiviert. Wir können nicht nur aktuelle Ereignisse als ‚aktuelle Gefahren‘ ‚identifizieren‘, wir können auch die Ereignisse der Vergangenheit ‚erinnern‘ und damit zurückliegende ‚Bedrohungen‘, ‚Zerstörungen‘, ‚Beschädigungen‘. Außerdem haben wir eine Vorstellungskraft gepaart mit viel ‚Fantasie‘; aufgrund von Erinnerungen und Gegenwart können wir uns auch ‚potentielle Gefahren‘ ausdenken, können versuchen, kommende Szenarien gedanklich vorweg zu nehmen. Sofern wir damit ‚reale‘ Situationen gedanklich vorweg nehmen, die ‚real‘ bedrohen können, ist dies sehr hilfreich. Wenn wir aber gedankliche Szenarien, die es so kaum oder gar nicht gibt, ausdenken und ihnen dann ein ‚Gewicht‘ verleihen, das sie gar nicht verdienen, dann beginnen wir, die Kraft unserer Gedanken gegen uns zu wenden. Dann beginnen wir mit unserer Fantasie unser Verhalten im Vorfeld zur kommenden Realität ‚fehl zu steuern‘, dann beginnen wir unsere ‚reale‘ Zukunft durch ‚irreale‘ Vorstellungen zu torpedieren. In diesem Kontext erscheint die moderne Unterhaltungsindustrie in einem zwielichtigen Licht: wenn man in den Videoregalen sieht, dass es kaum Videos über die reale Welt gibt, dafür aber sehr viele ‚Fantasieprodukte‘ und es diese Fantasieprodukte sind, die viele Menschen überwiegend sehen, dann infiltriert das ‚falsche Denken eines fiktiven Bösen‘ die alltägliche Vorstellungskraft und kann den Eindruck erwecken, es gibt tatsächlich mehr ‚Böses‘ als ‚Gutes‘.
7) Natürlich liegt dies auch daran, dass die menschlichen Belohnungssysteme stärker ausschlagen bei ‚Gefahr‘ als bei ‚Normalität‘. In realer und auch ’simulierter‘ Gefahr versetzt uns unser Gehirn in besondere Spannungszustände und bei Überwindung von diesen gewährt es uns besondere Belohnungen; dies wird als ‚Kick‘ erfahren, und in einem Alltag, der als ‚gefahrenarm‘ erscheint, mag dies genau das sein, was man sich dann wünscht. Wie die berühmten Ratten in dem Experiment, die sich durch Betätigung eines Hebels in ihrer Versuchsanordnung per Elektrode ihr eigenes Lustzentrum reizen konnten, solange, bis sie starben, so können viele Menschen in manchen Ländern dieser Erde sich mit künstlichen Kickzuständen permanent selbst in einen scheinbaren Ausnahmezustand versetzen, der sie berauscht, ohne dass dadurch die reale Welt verändert würde (allerdings werden die Produzenten des Kicks monetär ‚reicher‘) und so, dass sie ihre eigene Lebenszeit und Energie auf Dinge verwenden, die sie selten weiterentwickeln (zugleich gibt es auch Suchtphänomene, die zerstören, psychische Erkrankungen, die die Betreffenden wie ihre Umgebung belasten) und die der Gesamtheit des Lebens entzogen werden.
8) Die Koexistenz von ‚Bosheit‘ und Leben, insbesondere im Falle des Menschen, hat aber auch noch weitere Seiten. In dem Maße, wie der Handlungsraum der Menschen wächst, zunimmt, wo Werkzeuge und Maschinen dem Menschen ‚Kräfte‘ verleihen, die nicht nur einzelne Menschen verletzen oder gar töten können, sondern viele Menschen, ganze Städte oder Landstriche, in dem Maße entstehen ganz neuartige und ’schreckliche‘ ‚Bedrohungsszenarien‘, die es so vorher noch nicht gab. Die große Stärke des Menschen, seine Flexibilität, Vielseitigkeit, Anpassungsfähigkeit, sein spielerisch-experimenteller Charakter, wird damit zu einer potentiellen Quelle nicht nur von konstruktiven Entwicklungen und Maßnahmen, sondern auch eben von ‚Zerstörung‘. gerade weil der Mensch in seinem Verhalten nicht vollständig ‚determiniert‘ ist sondern beständig gezwungen ist, sich in einer wandelnden Welt zurecht zu finden, sein Weltbild immer wieder neu finden, erfinden und wechselseitig bestätigen muss, gerade deswegen ist prinzipiell jede Situation ‚ambivalent‘: wir Menschen können potentiell immer ‚alles‘ tun, was unser Handlungsraum an Möglichkeiten bietet. Und da jeder Mensch als Lebewesen mit einer biologischen Geschichte alle die Standardtriebe und Reflexe in seinem Körper mit sich herumträgt, die alle anderen Lebewesen auch haben, kann es immer wieder passieren (und passiert ständig), dass ein Mensch sich nicht ‚rational‘ verhält im Sinne einer zuvor eingeübten Verhaltensweise, sondern dass die angeborenen Grundtriebe die Oberhand gewinnen und dass er dann Dinge tut, die scheinbar im Widerspruch stehen zu allem, was er in anderen, eher ’sozialen‘ Situationen getan hat. Dies bedeutet, das ‚primär Böse‘ auf dieser Erde ist der Mensch selbst, genauso wie wahr ist, dass das ‚primär Gute‘ auf dieser Erde ebenfalls der Mensch ist. Wenn es eine Verhaltensweise geben soll, die vom deterministisch vorgegebenen Geschehen der Natur ‚abweichen‘ soll, dann kann dies nur eine biologische Lebensform sein, und nach all unserem aktuellen Wissen ist dies in besonderer Weise der Mensch, WIR: wenn etwas irgendetwas ‚Gutes‘ auf dieser Erde geben soll, dann kann dies nur durch uns Menschen kommen, die zugleich auch die primäre Quelle des ‚Bösen‘ sind. Es gibt nichts ‚Böses‘ unabhängig und außerhalb des Menschen, genauso wenig wie es etwas ‚Gutes‘ unabhängig und außerhalb des Menschen, von uns, gibt (siehe Ergänzung weiter unten).
9) Die Geschichte hat uns zudem gelehrt, dass das ‚Böse‘ nicht unbedingt ‚böse aussehen‘ muss. Finanzspekulanten, die ganze Länder in den Ruin getrieben haben, kommen meist ‚alert‘ daher, können gut reden, erwecken Hoffnungen, sind überaus freundlich, haben aber nur ihren eigenen Vorteil im Blick. Der Faschismus der Hitlerzeit beispielsweise hat den Menschen Arbeit verkauft, Ordnung, Ehre, ein neues Selbstbewusstsein, berauschende Massenereignisse, ein neues Belohnungssystem, technische und wirtschaftliche Erfolge, und gleichzeitig wurden Menschen systematisch vernichtet, wurden Kriege systematisch geplant, wurden Menschen flächendeckend bespitzelt und kontrolliert (Phänomene, die sich auch in heutigen Staaten zu großen Teilen wiederfinden!). In vielen (allen?) Ländern dieser Welt beobachten wir das Phänomen, dass Verwaltungen dazu tendieren, unter dem Schein von Legitimität ihre eigenen partikulären Interessen zu verfolgen anstatt den ‚Bürgern‘ des Landes den Dienst zu erweisen, der ihnen zugedacht ist. Diese Beispiele sind endlos.
10) Außerdem passiert es immer wieder, dass ‚Krisen‘, ‚bedrohliche Situationen‘, ‚Verluste‘ usw. zu neuen Situationen, zu neuen Verhaltensweisen führen können, die – im Nachhinein betrachtet – ‚besser‘ erscheinen als das, was man vorher hatte. So schmerzlich und grauenhaft gewisse aufgezwungene Änderungen waren, sie haben Menschen dazu gebracht, etwas Neues zu versuchen, Neues, das man ohne die Bedrohung nicht getan hätte. ‚Böses‘ fordert heraus. ‚Böses‘ definiert sich dadurch, dass es den allgemeinen Lebensprozess ‚behindert‘, ‚gefährdet‘ und ein Handeln unausweichlich macht.

DAS GUTE UND DAS BÖSE

11) Im Buch der Hobbit siegt am Ende das ‚Gute‘ über das ‚Böse‘. Viele lesen dies mit einem guten Gefühl, weil in diesem Fall alle diejenigen etwas davon haben, die den realen Alltag so am Laufen halten, dass möglichst viele darin möglichst gut leben können. Die ‚Bösen‘ erscheinen als die ‚Deserteure vom Alltag‘, die sich gegen die ‚Normalität des Guten‘ auflehnen und glauben, sie könnten auf eigene Rechnung ihr Süppchen kochen, ohne und gegen alle anderen, eine Strategie, ein ‚Spiel‘, wodurch der Blick beschränkt wird auf die wenigen ‚Auserwählten‘, die besonderes clever sind, die es besonders verdient haben, die halt ‚anders‘ sind als alle anderen. Doch diese Art von ‚Cleverness‘ ist jene, die ihren Zusammenhang mit dem Gesamtprojekt Leben aufs Spiel setzt, die eine ‚geborgte Cleverness‘ ist; sie kann nur begrenzt funktionieren; ihr fehlt die ‚breite Basis des gesamten Lebens‘. Ein paar hundert Jahre, selbst ein paar tausend Jahre bedeuten hier gar nichts. Aus Sicht eines begrenzten individuellen Lebens mag dies ‚unwirklich‘ wirken, mag die partikulare Sicht daher Sinn machen, aber letztlich wird nur der Blick aufs Ganze entscheiden, wo wir alle stehen werden, nicht nur heute.
12) Will man das ‚Gute‘ bzw. das ‚Böse‘ genau definieren, dann verschwimmt es, wird unwirklich; die Maßstäbe sind gewöhnlich nicht so klar, so fest, wie man es gerne haben möchte. Manches was als ‚gut‘ daherkommt entpuppt sich plötzlich als ‚böse‘ und umgekehrt. Der Philosoph Kant hat den Begriff der ‚regulativen Idee‘ geprägt, etwa in dem Sinne, dass man für das Verhalten zwar eine Art Leitidee benötigt, aber diese ist immer wieder neu konkret zu bestimmen…
13) Nochmals, wenn ich oben gesagt habe, dass der Mensch die einzige Quelle für ‚Gut‘ und ‚Böse‘ ist, dann muss dies kein Gegensatz zu der allgemeinen Annahme über einen ‚Schöpfergott‘ sein, dann nämlich nicht, wenn man zwischen Schöpfergott und Leben einen Zusammenhang annimmt (was naheliegt, sonst wäre es ja kein Schöpfergott). In den sogenannten ‚heiligen‘ Schriften der großen Offenbarungsreligionen Judentum – Christentum – Islam finden sich viele Texte, aber fast keine Texte, die das innere Verhältnis zwischen Schöpfergott und dem einzelnen Menschen beschreiben. Dies ist kein Zufall.

Einen Überblick über alle Blogbeiträge nach Titeln findet sich HIER.

KULTURELLE AUTOIMMUNREAKTIONEN? oder: KONTROLLWAHN UND DIE ANGST UM SICH SELBST


(Unter twitter bei ‚cagentartist‘))

1) Treffen die Überlegungen im Blogeintrag ‚EMERGING MIND – Mögliche Konsequenzen‘ zu, dann befinden wir uns im Jahr 2013 an einem Punkt der Entwicklung des Geistes auf der Erde, der einen sich andeutenden umfassenden kulturellen Umbruch markiert.
2) In der Geschichte des Lebens auf der Erde gab es viele solcher Umbruchzonen, wobei der Begriff ‚Umbruchzone‘ nicht unproblematisch ist; schließlich ist jeder Abschnitt in der bisherigen Entwicklung letztlich eine Umbruchphase. Es scheint aber so zu sein, dass man Phasen unterscheiden kann, in denen aus Sicht der Beteiligten anscheinend ‚Weniger‘ oder gar ‚Nichts‘ geschieht gegenüber solchen, wo die Umbrüche durch real stattfindenden Veränderungen offensichtlicher zu sein scheinen.
3) Beispiele für global sichtbar werdende Strukturumbrüche waren die zuvor genannten ’neuen Strukturen S‘, die sich zum Vorausgehenden deutlich abhoben (Von der Anfangs-Energie zu den Quanten, von den Quanten zu den Atomen, …., von den einzelnen Zellen zu organisierten Zellverbänden, … die Sesshaftwerdung mit Ackerbau und Stadtbildung, ….. Motorisierung des Verkehrs, …. Gemeinsame Datenräume durch das Internet….).
4) Neben diesen Änderungen, die sich in realen Strukturänderungen widerspiegeln, gab es aber auch Änderungen, die sich in den semiotischen Räumen, in den deutenden ‚Weltbildern‘ abspielten, die nicht minder ‚real‘ und ‚wirksam‘ waren. So führte das Aufkommen experimenteller und formaler Methoden in der Renaissance nicht nur zu neuen Detailansichten, nein, es entstanden neue Zusammenhänge, neue Deutungsmuster, die sich zu einem kognitiven, wissensmäßigen Gegensatz zu den bisherigen Deutungsmustern aufbauten, weltanschauliche Konflikte hervorriefen, die die damals Mächtigen (die katholische Kirche) meinten, mit ‚Gewalt‘ kontrollieren und unterdrücken zu müssen. Galilei als ein Repräsentant dieser neuen Gedankenwelt sollte sich verleugnen, sollte abschwören, doch ca. 100 Jahre später waren diese neuen, gefährlich erscheinenden Gedanken in vielfältiger Weise in die Öffentlichkeit vorgedrungen. Die Erde bewegt sich um die Sonne und das Weltall ist erheblich größer, als sich jeder zuvor vorstellen konnte.
5) Weitere Umbrüche in der Deutung der Welt folgten (geologisch die Erde als Teil eines größeren Veränderungsprozesses, die biologische Evolution, das Gehirn als Organ des Fühlens und Denkens abhängig von physikalisch-chemischen Prozessen, die alltägliche Wirklichkeit als Artefakt unseres Denkens verglichen mit den zugrunde liegenden molekularen, atomaren, quantenhaften Strukturen, usw.). Allerdings scheint es so zu sein, dass die Ausbildungsprozesse mit der Explosion dieses Wissens über die Welt und uns selbst immer weniger Schritt halten können. In der Alltagswelt heute durchdringen zwar immer mehr technische Produkte als Konsequenz des erweiterten Denkens unseren Lebensraum, aber man hat nicht den Eindruck, dass im gemeinsamen öffentlichen Denken dieses Wissen tatsächlich ‚angekommen‘ ist.
6) Während digital gespeichertes Wissen sich – zumindest im Prinzip – beliebig schnell in beliebigen Mengen überall hin kopieren lässt, sich rasant schnell nahezu beliebigen formalen Operationen unterziehen lässt, haben die menschlichen biologischen Gehirne eine ihnen eingeborene eigene Langsamkeit, Trägheit, Begrenztheit, die dem Entstehen und dem Verwandeln von Wissen im einzelnen einen natürlichen Widerstand entgegen setzen. Was immer ein Individuum A in einer Generation G(t) schon alles erkannt und gedacht haben mag, ein Individuum B aus Generation G(t’>t) weiß dies alles nicht, es sei denn, er durchläuft ähnliche mühsame Lernprozesse. Solche Lernprozesse sind aber nicht notwendig, nicht zwingend, verlaufen nicht automatisch, und sind in ihren möglichen Inhalten nicht wirklich voraussagbar: keine Lernumgebung kann sicher stellen, dass die Inhalte, die die Lernorganisatoren intendieren, auch tatsächlich so in einem lernenden Individuum ‚entstehen‘.
7) Es ist von daher nicht erstaunlich, dass in einer Gesellschaft mit immer ‚mehr‘ und immer ‚komplexeren‘ Wissen immer weniger Menschen in der Lage sind, das bereits schon zuvor errungene Wissen für sich selbst erneut ‚wieder zu entdecken‘ und ‚für sich nutzbar‘ zu machen. Historisch bekannt ist der Untergang der griechischen Denkwelt samt ihren Schriften, der in Europa dann gut 1000 Jahre zu einer ‚Verdunklung‘ des Wissens geführt hatte. Erst über den Umweg vom Griechischen zum Arabischen (das damals das Wissen der Welt in sich aufsog) und dann wieder ins Lateinischen kam das ‚Licht der Erkenntnis‘ wieder nach Mitteleuropa. Ein langwieriger Übersetzungs- und Lernprozess, der nur durch den Aufbau eines neuen Ausbildungssystems (Schulen, erste Universitäten, Abschreiben, Kopieren und Übersetzen vieler Schriften…) über viele Jahrhunderte den Wissensstand von vorher ‚rekonstruierte‘ und durch diese aktive Rekonstruktion dann auch weiter entwickelte.
8) Wir leben heute in einer Welt von bizarren Wissensgegensätzen: während wir einerseits über einen Wissensschatz verfügen, der differenzierter und größer ist als jemals zuvor, erleben wir zugleich, dass viele Menschen, die meisten (?), sich in ihrem Wissen fragmentiert erleben, unvollständig oder, noch schlimmer, dass sie heute Weltbilder pflegen und für wahr halten, die 1000, 2000 Jahre alt sind, die mehrfach widerlegt wurden, aber die sie benutzen, als ob es die aktuellen Wahrheiten sind. Dies betrifft nicht nur solche Menschen, die aufgrund ihrer Lebensumstände keine oder fast keine Ausbildung genießen konnten, sondern sogar solche die Abitur haben, die studiert haben, ja sogar solche, die einen Doktortitel erworben haben. Unsere Wissenslandschaft ist mittlerweile so komplex und zerklüftet, dass Menschen mit Doktortiteln auftreten können und den letzten ‚Unsinn‘ erzählen, ohne dass ihnen bewusst ist, dass dem so ist.
9) In dieser Situation macht es keinen Sinn, die einzelnen dafür haftbar zu machen (obgleich natürlich schon jeder bis zu einem gewissen Grad Verantwortung für sein eigenes Denken trägt), sondern man muss den Kontext berücksichtigen, innerhalb dessen jemand heute Denken kann bzw. muss. Aus Sicht einer modernen Lerntheorie scheint es so zu sein, dass die Rahmenbedingungen für ein individuelles Lernen schwieriger denn je sind. Die Vielfalt der Methoden und die ungeheure Fülle an Fakten sind von einem einzelnen biologischen Gehirn nicht mehr bewältigbar. Eine Situation, die ich vor vielen Jahren schon mal als ’negative Komplexität‘ bezeichnet hatte: Komplexität, die da ist, die aber von uns nicht mehr hinreichend verarbeitet werden kann.
10) In einer solchen Situation wird es für alle Entscheidungsträger – insbesondere auch politisch Verantwortliche – immer schwieriger, das ‚Richtige‘ zu tun. Die Angst, dass alles aus dem Ruder läuft, außer Kontrolle gerät, ist real. Die Versuchung, durch immer mehr ‚Kontrollen‘ dieser ‚Unübersichtlichkeit‘ Herr zu werden ist real gegeben, wird immer stärker. Bedenkt man nun, dass diejenigen Menschen, die in höhere Verwaltungs- und Entscheidungspositionen drängen, tendenziell eher egozentriert sind, machthungrig, ’nicht zimperlich‘, es mit der Wahrheit eher nicht so genau nehmen, usw., dann erstaunt es nicht, zu sehen, wie heute weltweit in immer mehr Staaten die führenden Politiker autokratische Züge entwickeln, Meinungsfreiheit mehr und mehr unterdrücken, Technik dazu benutzen, immer mehr Datenströme und Lebenszuckungen der Menschen zu kontrollieren, einfache (in der Regel falsche) Weltbilder favorisieren, sich auch in sogenannten demokratischen Gesellschaften die Mächtigen von ‚den anderen‘ durch immer mehr Pseudoprivilegien abzusondern trachten, sich die alten absolutistischen Klassen von ‚früher‘ neu bilden.
11) Diese Phänomene stehen in seltsamem Kontrast zur tatsächlichen globalen Entwicklung des Lebens. Sie repräsentieren ‚Rückfälle‘, eine Art von ‚Verweigerung der Zukunft‘, sind ‚Reflexe‘ des ‚alten‘ Menschen vor der anrückenden Zukunft, die von jedem einzelnen Menschen und dann von den Gemeinschaften mehr verlangt als jeder einzelne bislang gewohnt ist, zu geben. Ob diese Reflexe stärker sind als das Neue, ob der Prozess des Lebens auf der Erde durch diese Anti-Reflexe zum Scheitern kommt, ist offen. Die ungeheure Wucht des bisherigen Lebens-Prozesses im Universum und auf der Erde kann den Verdacht nähren, dass die immanenten Faktoren dieses Prozesses stärker sind als die Abwehrreflexe eines Stadiums von Leben, das zu überschreiten ist. Wirklich wissen tut es vermutlich niemand, wie auch.
12) Vom individuellen biologischen Körper kennen wir nicht nur das Immunsystem, das auf geradezu fantastische Weise praktisch in jeder Sekunde gewaltige Abwehrschlachten gegen Millionen und Milliarden von Mikroorganismen führt. Wir haben gelernt, dass dieses Immunsystem sich auch irren kann; dann fängt es an, körpereigene Zellen zu bekämpfen, eine sogenannte Autoimmunreaktion. Wenn man sich den Lebensprozess auf der Erde anschaut, wie sich tatsächlich weltweit momentan in fast allen Ländern die politisch Verantwortlichen gegen den Trend stellen, dann drängt sich unwillkürlich das Bild einer globalen kulturellen Autoimmunreaktion auf: die Verantwortlichen, die für das Wohl ihrer jeweiligen Gesellschaften verantwortlich sind, wenden sich gegen ihre eigenen Gesellschaften, indem sie sich selbst zu ernst nehmen und das kreative Potential der jüngeren Generation mehr oder weniger mit Füssen treten (was nicht heißt, dass es auch viele Jüngere gibt, die sich totalitären Weltbildern zugewandt haben, die nicht besser sind; woher sollen sie es auch wissen?).
13) In diesem Kontext spielen die sogenannten ‚Offenbarungsreligionen‘ (die bekanntesten sind das Judentum, das Christentum, und der Islam) eine zwielichtige Rolle. Insofern sie alle einen ‚heißen Kern‘ haben der auf einen allumfassenden Schöpfergott ausgerichtet ist, haben sie prinzipiell einen ‚Anschluss‘ an den Lebensprozess im Universum; insofern sie aber diesen heißen Kern mit allzu viel historischen Zufälligkeiten, allzu zeitgebundenem Menschlichen aus ihren Entstehungszeiten um diesen Kern herum gesponnen haben, ist die immanente Sprengkraft eines universalen Gottesbildes weitgehend ‚abgedunkelt‘ worden durch Dinge, die irreführend oder falsch sind und die in der Vergangenheit allzu oft für persönliche Machtspielchen missbraucht wurden. Die Unwissenheit von Menschen für persönliche Machtinteressen zu instrumentalisieren ist eines der größten Verbrechen, das ein Mensch begehen kann (ein Gedanke, der sich u.a. im Neuen Testament der Christen findet; dort wird es Jesus von Nazareth als Aussage zugeschrieben (viele der heutigen Zeitungen, Radiostationen und Fernsehsender mit ihren Verantwortlichen haben in dieser Hinsicht möglicherweise schlechte Karten….)).

Eine Übersicht über alle bisherigen Blogbeiträge nach titeln findet sich HIER.

EMERGING MIND – Mögliche Konsequenzen

Letzte Änderung: 9.April 2015, 12:10h – Minimale Korrekturen; Lesbarkeit verbessert durch Abstände; Zwischenüberschriften

1) Die ganzen Überlegungen zum ‚Emerging Mind‘ sind noch sehr anfangshaft, spekulativ. Andererseits, angesichts der vielen ungelösten Fragen, ohne diese Arbeitshypothese und die interessanten Zusammenhänge mit dieser Arbeitshypothese ist es eigentlich unmöglich, diese Arbeitshypothese nicht weiter zu denken. Fehler zeigten sich ja im allgemeinen am ehesten dann, wenn man versucht, eine Hypothese konsequent anzuwenden und sie auf diese Weise immer mehr ‚Überprüfungen‘ unterzieht.

EMPIRISCHES UNIVERSUM ALS FOLGE VON STRUKTUREN

2) Bisheriger Ausgangspunkt ist ja die Annahme einer Prozesskette S*(t+n) = f(S(t)) mit ‚t‘ als einem Zeitpunkt, ‚S‘ als einer identifizierbaren Struktur zu diesem Zeitpunkt und ‚f‘ als eines funktionalen Zusammenhanges, der die Struktur ‚S‘ in die Struktur ‚S*‘ überführt.

3) In vorausgehenden Einträgen hatte ich exemplarisch mögliche Strukturen identifiziert beginnend mit dem Energieausbruch E des BigBang, der dann in der nachfolgenden Abkühlung immer mehr Strukturen ‚hervorgebracht‘ (=f?) hat: Quanten [Q], Atome [At], Moleküle [Mol], usw. Man bekommt dann eine Prozesskette der Art EMPIRISCHER-KOSMOS = S_Q(t+n1) = f(S_E(0)), S_At(t+n1+n2) = f(S_Q(t+n1) ), usw. wobei die Energie eine Art ‚Nullstruktur‘ ist verglichen mit den folgenden Strukturausprägungen.

4) Bedenkt man ferner, dass jede Funktion ‚f‘ in der ‚Realität‘ eine ‚reale Abbildung‘ sein muss, d.h. eine ‚Operation‘, die ‚real etwas bewirkt‘, dann bedeutet dies, dass man parallel zu den Strukturen S_i(), die man zu verschiedenen Zeitpunkten unterscheiden kann, für die Veränderungsoperation ‚f‘ (von der noch unklar ist, ob es immer die ‚gleiche‘ ist), einen ‚Träger‘ annehmen muss, ein ‚Medium‘, das diese Ausführung ermöglicht. In der klassischen Makrophysik gibt es neben den unterscheidbaren Makrostrukturen ’nichts Konkretes‘, was als Träger in Frage kommt ausser den ‚beobachtbaren Kräften‘, die wir durch ihre spezifischen ‚Manifestationen‘ ‚indirekt‘ erkennen und die wir hypothetisch in Form von ‚Gesetzen‘ benennen und damit ‚dingfest‘ machen. Im Licht der Quantenphysik (was sich bislang vielleicht eher noch als ein ‚Halbdunkel‘ darstellt, das wir noch kaum verstehen…) muss man annehmen, dass die Wahrscheinlichkeitsfelder ihre Kohärenz immer wieder durch ‚Kräfte‘ verlieren, die dann zu den tatsächlich beobachtbaren Makroereignissen führen. Diese in der Quantenfeld lokalisierten hypothetischen Kräfte bieten sich als Kandidaten für den Operator ‚f‘ an, der die unterschiedlichen Strukturbildungen E → S_Q → S_At → … ermöglicht.

ENERGIE: EINMAL UND IMMER WIEDER

5) Neben vielen interessanten Aspekten ist bemerkenswert, dass diese Prozesskette EMPIRISCHER-KOSMOS bis zur Strukturform der Moleküle durch eine einmalige Energiezufuhr (’statisch‘) diese Strukturen erhält; jenseits der Moleküle S_Mol, ab der Strukturform ‚Zelle‘ S_Cell, benötigen diese komplexe Strukturen kontinuierlich eine beständige Zufuhr von Energie (‚dynamisch‘) in Form von chemisch gebundener Energie, die dann mittels Metabolismus ‚freigesetzt‘ und für verschiedene energieintensive Prozesse genutzt wird. Mit fortschreitender Komplexität der Strukturformen (Pflanzen, Tiere, Hominiden, …) wird der Aufwand immer grösser und die Formen von Energiegewinnung, -transport, -speicherung, -verwertung immer komplexer.

ENTSTEHUNG VON ZEICHEN INNERHALB DER MATERIE

6) Ferner ist bemerkenswert, dass bei fortschreitender Komplexität der Strukturformen sich solche molekular basierte Strukturen bilden können, die dann Repräsentationen auf einer höheren Ebene realisieren können, chemische Ereignisse, die als Zeichen funktionieren, die Bedeutungsbeziehungen realisieren können (= semiotischer Raum, Semiose, Zeichenprozesse). Damit ist es möglich, sich von der Konkretheit molekularer Strukturen in gewisser Weise zu befreien und im semiotischen Raum abstrakte Strukturen aufzubauen, die für beliebige Strukturen stehen können. Nicht nur lassen sich damit die vorfindlichen molekularen Strukturen ‚abbilden‘, ‚modellieren‘, sondern man kann mit ihnen ‚herumspielen‘, sie beliebig ‚variieren‘, ‚kombinieren‘, und damit den realen Augenblick ‚transzendieren‘. Im semiotischen Raum kann die reale Gegenwart durch eine erinnerbare Vergangenheit und eine potentielle Zukunft erweitert werden. Dieser Prozess ist schleichend und gewinnt in den höheren Säugetieren, bei den Hominiden und speziell beim homo sapiens sapiens einen vorläufigen Höhepunkt.

BESCHLEUNIGUNG DER KOMMUNIKATION

7) Seit der Verfügbarkeit des semiotischen Raumes innerhalb eines Systems kann man eine dramatische Beschleunigung in der Kommunikation und Koordinierung zwischen den Teilnehmern beobachten, Explosion an Werkzeug, Verfahren, Regeln, Organisation usw.

FLEXIBILISIERUNG DER ENERGIEZUFUHR

8) Die nächste grosse Revolution findet statt, als es gelingt, die molekül-basierten semiotischen Räume mit Hilfe von atomar-basierten Technologien in den wesentlichen Signal- und Zeicheneigenschaften zu kopieren (= Computer), so dass nun die Bildung von ‚künstlichen (technischen) semiotischen Räumen‘ möglich wurde, in Kombination mit einer globalen Vernetzung (= Computernetzwerke, Internet, WWW). Während molekül-basierte semiotische Räume chemisch gebundene Energie zu ihrem ‚Betrieb‘ benötigen, benötigen die atomar-basierten semiotischen Räume Energie in Form von technisch manipulierbaren Potentialunterschieden (= Elektrizität). Diese Form ist universeller und flexibler.

STEIGERUNG DER KOMPLEXITÄT

9) Seit der Verfügbarkeit von künstlichen — auf elektrischer Energie basierenden — semiotischen Räumen konnte die Komplexitätsentwicklung sowohl in ihrer inhärenten Komplexität wie auch in der Geschwindigkeit ihrer Entwicklungen weiter gesteigert werden.

MODIFIKATIONEN DES VERÄNDERUNGSOPERATORS

10) Interessant ist, dass der Veränderungsoperator ‚f‘ nun deutlich unterschieden werden kann. Während der Übergang von der Struktur ‚vor dem HS (‚homo sapiens‘)‘ – also etwa S_PreHs(t) – zur Struktur S_Hs(t+n) noch mit dem Operator ‚f‘ geschrieben werden kann S_Hs(t+n) = f(S_PreHs(t)) ist der Übergang von der Struktur S_Hs zu der neuen Struktur S_NetComp(t) von S_Hs vorgenommen worden, also S_NetComp(t+n) = f_hs(S_Hs(t+n)). Dies ist möglich, weil die impliziten semiotischen Räume von Hs die Definition von Operatoren ermöglichen, die dann ‚umgesetzt‘ werden können. Allerdings wird man wohl annehmen müssen, dass in diese Umsetzung f_hs wohl auch das allgemeine ‚f‘ mit eingeht, also genauer S_NetComp(t+n) = f_hs u f(S_Hs(t+n)).

11) Aktuell sind die künstlichen technischen Strukturen S_NetComp noch nicht in der Lage, sich selber zu vervielfältigen. Grundsätzlich ist nicht zu sehen, warum dies nicht eines Tages möglich sein sollte.

12) Klar ist allerdings, dass der Veränderungsoperator ‚f‘ nun als zusätzliche Teilkomponente f_NetComp enthält, also S_Future(t+n) = f u f_NetComp(S_Past(t)).

PROJEKTION IN DIE ZUKUNFT

13) So mächtig die Kombination ‚f u f_NetComp‘ wirkt, so fragil ist das Ganze. Würde aus irgendwelchen Gründen mal kein Strom verfügbar sein, dann würde S_NetComp vollständig ausfallen und damit würden schon heute weite Bereiche der ‚Zivilisation‘ weitgehend zusammenbrechen.

14) Ein weiterer Aspekt deutet sich an: aufgrund der heute verfügbaren Daten wissen wir, dass der aktuelle Körper des Menschen nur ein ‚Durchgangsstadium‘ markiert. Viele Millionen Jahre vorher sah dieser Körper anders aus und gehen wir weiter zurück, dann verlieren sich die heute bekannten Strukturen in immer fremdartigeren Formen, die kaum noch etwas mit der heutigen Gestalt zu tun haben. Umgekehrt müssen wir also davon ausgehen, dass sich – auch ohne unser Zutun – die aktuelle Körperform weiter verändern wird.

15) Dazu kommt der Aspekt, dass wir mittels des impliziten semiotischen Raumes wie auch durch die heute extern verfügbaren künstlichen semiotischen Räume samt hochentwickelter Werkzeuge den Umbau der aktuellen Körperformen aktiv betreiben könnten (und möglicherweise auch sollten?).

16a) Andererseits stellt sich aber die Grundsatzfrage, ob die Linie der molekülbasierten Körper überhaupt weiterverfolgt werden sollte. Die künstlichen semiotischen Räume mit der Energieversorgung durch flexiblen Strom bieten u.U. auf Dauer bessere Chancen, sich im Universum zu behaupten. Dies rührt dann aber an der Grundsatzfrage, ob die materielle Hülle einer Struktur (im Falle des HS sein molekülbasierter Körper) tatsächlich wichtig ist.

VERORTUNG DES GEISTES

16b) Wenn die Arbeitshypothese stimmt, dass die entscheidenden Operatoren ‚f‘ letztlich von den realisierten Strukturen unabhängig sind, sondern sich nur unter Verfügbarkeit solcher materieller Strukturen ‚zeigen‘, dann würde es für diese(n) Operator ‚f‘ egal sein, ob das ‚Medium‘ chemische Moleküle sind oder atombasierte Strukturen. Nicht das Medium repräsentiert den Geist, sondern der Geist wird anlässlich verfügbarer Strukturen ’sichtbar‘. Die Annahme wäre also etwa die, dass ‚Geist‘ subset E und ‚f‘ in ‚Geist‘ als dem vorab gegebenem ‚Medium‘ gründet; innerhalb von diesem Geist können Veränderungsoperatoren angewendet werden.

17) Der ‚Geist‘ wäre in diesem Sinne das (für uns) vorweg schon immer Gegebene, das quasi ‚Untötbare‘, und nur in dem Maße, wie es hinreichend geeignete Strukturen (welcher Art auch immer) gibt, kann sich dieser Geist durch seine ‚Wirkungen‘ (= Manifestationen, Ereignisse, Wirkungen, Phänomene) zeigen (für uns, die wir aktuell eine spezifische Struktur haben und mit dieser spezifischen Struktur nur ganz bestimmte Dinge erkennen können!!!).

18) Damit wäre jede bekannte Lebensform eine Form von ‚Geistesmanifestation‘, nur unterschiedlich differenziert. Niemand hätte einem anderen irgendetwas voraus.

19) Bizarre Ethiken, die aus dem darwinischen Evolutionsbegriff irgendwelche ‚Vorteile‘ herauszurechnen versuchten, würden sich – falls diese neue Arbeitshypothese stimmen würde – als sehr kurzsichtig erweisen. In der Evolution geht es nicht um das ‚Recht des Stärkeren‘, sondern um den Aufbau solcher komplexer Strukturen, die immer mehr von dem ‚Geist‘ sichtbar machen, der schon immer da ist und von dem jede partielle individuelle Struktur immer nur ein kleines Zipfelchen sichtbar machen kann. Klar ist in diesem Szenario auch, dass der einzelne als solcher keine grundlegende Bedeutung besitzt, höchstens in dem Sinne, dass er dazu beiträgt, das gemeinsame Ganze voran zu bringen. Der Kult um persönlichen Besitz, persönliche Macht, individuelle Schönheit und ‚Ruhm‘ hat hier keinen Platz. Er wirkt seltsam bizarr, fremdartig, lächerlich. Die Zukunft wird den symbiotischen Gemeinschaften gehören, wo die Fähigkeiten von jedem maximal entwickelt und in ein gemeinsames Ziel eingebunden werden können. Insofern bleibt Individualität wichtig, aber nur als Teil eines gemeinsamen Ganzen.

Siehe auch die neue Emerging Mind Webseite!

Einen Überblick über alle bisherigen Beiträge nach Titeln findet sich HIER.

EMERGING MIND PROJECT – SICHTBARMACHUNG DES GEISTES PROJEKT – Erste Lebenszeichen

VORGESCHICHTE

1) In der Vergangenheit wurde in diesem Blog schon öfters über das Emerging Mind Project gesprochen; zu Beginn noch unter einem anderen Namen. Wobei letztlich – wer diesen Blog intensiv liest, wird es merken bzw. gemerkt haben – der ganze Blog im Grunde auf dieses Projekt hingeführt hat – was sich natürlich erst im Nachhinein so feststellen lässt.
2) Einige Blogeinträge, die einen besonders deutlichen Bezug haben zum Emerging Mind Project sind etwa die folgenden: Erste öffentliche Idee zu einem Projekt; damals noch ‚Reengineering Goethes Faust‘ genannt.; Treffen im Cafe Siesmayer; die Projekt-Idee gewinnt weiter an Fahrt. Überlegungen zu ein paar theoretischen Begriffen; Im Anschluss an die Brasilienvorträge erste Konkretisierungen des ‚Geist‘-Begriffs im Kontext der Evolution; das zog weitere Kreise; die ausführliche Reflexion zu Kauffmans Buch brachte an vielen Punkten wertvolle Anregungen; Beobachtungen im Kontext des Komplexitätsbegriffs und seiner Verdichtung in der globalen Evolution; weitere Präzisierung zur Beschleunigung der Komplexitätsentwicklung.

ROLLE DES BLOGS FÜR EMP

3) Im Blog geht es auf der persönlichen Seite um die Klärung der eigenen Fragen und Gedanken; auf der offiziellen Ebene geht es um eine philosophische Auseinandersetzung mit dem heute verfügbaren Wissen um unsere gemeinsame Welt. Dabei kam es bislang schon zu erstaunlichen Umakzentuierungen. Aus meiner Sicht besonders stimulierend ist die Klärung des Verhältnisses von Philosophie und Wissenschaft (Wissenschaft als Untergebiet der Philosophie), Philosophie und Kunst (Kunst ist der kreative Teil des Denkens), Philosophie und Theologie (Theologie als jener Teil der Philosophie, der sich speziell mit der Frage der möglichen ‚Botschaft in allem‘ beschäftigt und den sich daraus ergebenden spezifischen Anforderungen an den einzelnen (Spiritualität)). Eine Konsequenz vom letzten Punkt scheint zu sein, dass alle bisherigen Religionen damit in einer einzigen Religion münden, in einem Universum, mit einem Sinn für alle (was nicht heißt, dass alle den einen Sinn in gleicher Weise ‚interpretieren‘).

EMERGING MIND PROJECT – INM 11.Juni 2013

4) Am 11.Juni 2013 gab es im Institut für neue Medien (INM)(Frankfurt) eine erste öffentliche Veranstaltung im Rahmen der unplugged heads Reihe, die sich offiziell dem Emerging Mind Projekt widmete. Michael Klein (Mitgründer und Direktor des INMs), Gerd Doeben-Henisch (Professur für ‚Dynamisches Wissen‘ an der FH Frankfurt, Mitgründer und Vorstand des INM), Manfred Faßler (Professor am Institut für Kulturanthropologie und Europäische Ethnologie an der Johann Wolfgang Goethe-Universität in Frankfurt am Main. Seine Forschungs- und Lehrbereiche sind die Medienevolution und medienintegrierte Wissenskulturen. )
5) Dieses Treffen diente dem Zweck, das öffentliche Gespräch zum Projekt zu eröffnen und war – auch entsprechend der offenen Gesprächskultur der unplugged heads Reihe – sehr locker. Im Folgenden folgt keine Beschreibung dieses Gesprächs sondern ein paar Gedanken, die der Autor des Blogs im Anschluss an dieser Veranstaltung hatte.

EXPERIMENTELLE MUSIK

6) Wer rechtzeitig da war, konnte zur Einstimmung ein Stück experimentelle Musik hören mit dem Titel They Appear and Disappear von cagentArtist. Gegen Ende wurde auch noch das Stück Another Pattern-Cloud Exercise, extended aufgeführt, ebenfalls von cagentArtist. Bei dieser Musik handelt es sich nicht um Musik für den Konzertsaal, sondern um ‚Labormusik‘, die nach der ‚Radically Unplugged‘ Methode im Labor erzeugt wird zur Erforschung des Klangraums unter spezifischen Randbedingungen.

IDEENGESCHICHTLICHER WENDEPUNKT?

7) An diesem Abend kamen in sehr intensiven 3 Stunden sehr viele interessante Aspekte zur Sprache. Mir selbst wurde im Laufe des Abends bewusst, dass man die Geschichte der Ideen möglicherweise neu strukturieren könnte bzw. müsste. Der große ‚Umschaltpunkt‘ wäre dann die Zeit des Auftretens der neuen experimentellen und formalen Wissenschaften (ungefähr ab der Renaissance) bis zum Emerging Mind project. Denn bis zum Aufkommen und zur gesellschaftlich relevanten Etablierung der neueren Wissenschaften konnotierten die Menschen das ‚Lebendige‘ im Gegensatz um ‚Nichtlebendigen‘ mit etwas Besonderem, schrieben im besondere Eigenschaften zu, und einer der dabei benutzten Begriffe (mit jeweils anderen Worten in anderen Sprachen) war der Begriff ‚Geist‘, der insbesondere dem Lebewesen Mensch inne zu wohnen schien.

‚GEIST‘ FRÜHER

8) Der Begriff ‚Geist‘ ist aber – wie sich jeder in den Zeugnissen der Geschichte überzeugen kann – alles andere als klar und gebunden an eine Vielzahl von ‚Manifestationen‘, die alle Bereiche überdecken: normales Leben, Rhetorik, Handwerk, Kunst, Philosophie usw. Man kann diesen Begriff wie so eine Art ‚imaginären Fluchtpunkt aller Projektionen‘ ansehen, die man auf den Menschen aufgrund seines erfahrbaren Verhaltens richten konnte. Mit neuzeitlichen Begriffen könnte man mit Kant vielleicht von einer allgemeinen ‚transzendentalen Bedingung‘ sprechen, die man annehmen muss, um die verschiedenen Erscheinungsweisen des Menschen zu verstehen. Noch moderner könnte man von einer ‚Funktion‘ sprechen, die dem ‚Körper‘ des Menschen eben jene charakteristischen Eigenschaften verleiht, die wir als spezifisch ‚Menschlich‘ ansehen gelernt haben.
9) Nebenbei: Es gibt ein starkes Wechselverhältnis zwischen diesen Auffassungen von ‚Geist‘ und der Annahme einer menschlichen ‚Seele‘. Ich habe aber nicht den Eindruck, dass dieses Verhältnis bislang abschließend geklärt wurde. Dies mag darin begründet sein, dass beide Begriffe ‚geist‘ und ‚Seele‘ in sich weitgehend unbestimmt sind; sie leben von ‚Randbedingungen‘, von ‚Konnotationen‘, von ‚Manifestationen‘, von begrifflich-logischen Schlüssen, die wenig Anhaltspunkte in der Realität haben.

AUSTREIBUNG DES BEGRIFFES ‚GEIST‘

10) Für den Gesamtzusammenhang wichtig ist es, dass diese über viele tausend Jahre anhaltende vage Sprechweise von ‚Geist‘ mit der Entwicklung der experimentellen und formalen Wissenschaften immer mehr an Anhaltspunkten verloren hat. Die Erforschung der realen Natur und des Weltalls konnte zunächst nirgends ‚Geist‘ entdecken und trugen damit zum Bilde eines ‚toten, leeren Weltalls‘ bei. Parallel führten die Untersuchungen der Entstehung der Lebensformen und des Körpers dazu, dass man zwar immer mehr Details der Körper und ihres ‚Formenwandels‘ entdeckte, aber auch nirgends ‚Geist‘ dingfest machen konnte. Im Körper fand man über all nur Zellen; auch isolierte Zellen im Gehirn (ca. 100*10^6), und jede Zelle zerfällt in Moleküle, diese in Atome, diese in Quanten, usw. Nirgends traf man auf ‚Geist‘. Damit geriet das Selbstbild des Menschen, seine Besonderheiten immer mehr in einen Erklärungsnotstand. Theologische Interpretationen verlieren weitgehend ihre rationale Basis; sie hängen quasi ‚in der Luft‘.
11) Betrachtet man die verschiedenen einzelwissenschaftlichen Erkenntnisse, dann sind sie alle transparent, nachvollziehbar, wirken sie rational. Allerdings leiden nahezu alle diese Erkenntnisse an der einzelwissenschaftlichen Zersplitterung; keine Disziplin hat mehr die Zusammenhänge im Blick.

RÜCKKEHR DES ‚GEISTES‘ – MENS REDIVIVUS?

12) Die massivste Erschütterung dieses trostlosen Blicks auf unendlich viele Einzelteile, die sich im Dunst der Quanten und primären Anfangsenergie zu verlieren scheinen, kommt nun aber ausgerechnet nicht von den Geisteswissenschaften (dazu sind ihre Elfenbeintürme doch ein bisschen zu hermetisch geworden), auch nicht von der Anatomie und den Neurowissenschaften, sondern von jener Disziplin, die die Entzauberung des alten Weltbildes als erste begonnen hatte: von der Physik.
13) Es sind letztlich Physiker, die auf unterschiedliche Weise die Ungereimtheiten der Strukturbildungen seit dem Energieausbruch des Big Bang bemerken und beim Namen nennen. Schon der Übergang von reiner Energie zu Quanten gibt fundamentale Fragen auf. Während das Gesetz von der Entropie bei Vorliegen von Energieungleichheiten (sprich Strukturen) einen großen Teil von Vorgängen des gerichteten Ausgleichs beschreiben kann, versagt das Entropiegesetz vollständig für den umgekehrten Vorgang, für die Erklärung einer anhaltenden Strukturbildung, und nicht nur einer ‚Strukturbildung einfach so‘, sondern einer Strukturbildung mit einer sich exponentiell beschleunigten Komplexität.
14) Angestoßen von diesen drängenden Fragen der Physiker kann man beginnen, die verschiedenen Evolutionen (chemische, biologische, soziale, usw.) als ‚Hervorbringungen von immer komplexeren Strukturen‘ zu sehen, für die bestimmte ‚Strukturbildungsfunktionen‘ zu unterstellen sind, die weitab vom ‚Zufall‘ operieren.
15) Erste Indizien deuten darauf hin, dass die exponentielle Beschleunigung daraus resultiert, dass die zum Zeitpunkt t entstandenen Strukturen S mitursächlich dafür sind, dass die nächsten noch komplexeren Strukturen S‘ zum Zeitpunkt t+n gebildet werden können. Wir haben also eine Art Zusammenhang S'(t+n) = f(S(t)) mit ‚f‘ als der unbekannten Funktionalität, die dies ermöglicht.
16) Wenn man jetzt weiß, dass Funktionen (man denke nur an einfache Additionen oder Subtraktionen) nicht an den Elementen ablesbar sind (also man hat ‚4‘, ‚2‘, und nach der Addition hat man ‚6‘), sondern als Funktionszusammenhang in einem ‚anderen Medium‘ vorausgesetzt werden müssen, dann ist klar, dass die Analyse der Bestandteile von Körpern oder Zellen oder Atomen usw. niemals das zutage fördern, was eigentlich interessant ist, nämlich deren Funktionalität. Wenn nun also das mit ‚Geist‘ Gemeinte mit solchen zu unterstellenden (da sich in Ereignissen manifestierende) Funktionen konnotieren würde, dann wäre klar, dass die vielen einzelwissenschaftlichen Detailanalysen so gut wie keine interessanten Zusammenhänge enthüllen können; die ‚Unsichtbarkeit‘ von ‚Geist‘ wäre dann nicht der Tatsache geschuldet, dass es so etwas wie ‚Geist‘ nicht gäbe, sondern der Tatsache, dass wir nur ‚falsch hinschauen‘.
17) Hier bleibt einiges zu tun.

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

DONALD A.NORMAN, THINGS THAT MAKE US SMART – Teil 7, Epilog

Diesem Beitrag ging voraus Teil 6.

BISHER
(ohne kritische Anmerkungen)

In den vorausgehenden Teilen wurden bislang zwei Aspekte sichtbar: einmal die ‚Menschenvergessenheit‘ in der Entwicklung und Nutzung von Technologie sowie die Einbeziehung von ‚wissensunterstützenden Dingen‘ sowohl außerhalb des Körpers (physisch) wie auch im Denken selber (kognitiv). Ferner hatte Norman die Vielfalt des Denkens auf zwei ‚Arbeitsweisen‘ reduziert: die ‚erfahrungsorientierte‘ Vorgehensweise, ohne explizite Reflexion (die aber über ‚Training‘ implizit in die Erfahrung eingegangen sein kann), und die ‚reflektierende‘ Vorgehensweise. Er unterschied ferner grob zwischen dem Sammeln (‚accretion‘) von Fakten, einer ‚Abstimmung‘ (‚tuning‘) der verschiedenen Parameter für ein reibungsloses Laufen, Schreiben, Sprechen, usw., und einer Restrukturierung (‚restructuring‘) vorhandener begrifflicher Konzepte. Ferner sieht er in der ‚Motivation‘ einen wichtigen Faktor. Diese Faktoren können ergänzt werden um Artefakte, die Denkprozesse unterstützen. In diesem Zusammenhang führt Norman die Begriffe ‚Repräsentation‘ und ‚Abstraktion‘ ein, ergänzt um ‚Symbol‘ (nicht sauber unterschieden von ‚Zeichen‘) und ‚Interpreter‘. Mit Hilfe von Abstraktionen und Symbolen können Repräsentationen von Objekten realisiert werden, die eine deutliche Verstärkung der kognitiven Fähigkeiten darstellen. Allerdings, und dies ist ein oft übersehener Umstand, durch die Benutzung eines Artefaktes werden nicht die kognitiven Eigenschaften des Benutzers als solchen geändert, sondern – bestenfalls – sein Zugang zum Problem. Wenn in einem solchen Fall zwischen den wahrnehmbaren Eigenschaften eines Artefakts und den korrelierenden ‚Zuständen‘ des Problems ein Zusammenhang nur schwer bis gar nicht erkennbar werden kann, dann führt dies zu Unklarheiten, Belastungen und Fehlern. Norman wiederholt dann die Feststellung, dass die Art wie das menschliche Gehirn ‚denkt‘ und wie Computer oder die mathematische Logik Probleme behandeln, grundlegend verschieden ist. Im Prinzip sind es drei Bereiche, in denen sich das Besondere des Menschen zeigt: (i) der hochkomplexe Körper, (ii) das hochkomplexe Gehirn im Körper, (iii) die Interaktions- und Kooperationsmöglichkeiten, die soziale Strukturen, Kultur und Technologie ermöglichen. Die Komplexität des Gehirns ist so groß, dass im gesamten bekannten Universum nichts Vergleichbares existiert. Mit Bezugnahme auf Mervin Donald (1991) macht Norman darauf aufmerksam dass die auffälligen Eigenschaften des Menschen auch einen entsprechenden evolutionären Entwicklungsprozess voraussetzen, innerhalb dessen sich die heutigen Eigenschaften schrittweise herausgebildet haben. Nach kurzen Bemerkungen zur Leistungsfähigkeit des Menschen, der schon mit wenig partiellen Informationen aufgrund seines Gedächtnisses übergreifende Zusammenhänge erkennen kann (was zugleich ein großes Fehlerrisiko birgt), legt Norman dann den Fokus auf die erstaunliche Fähigkeit des Menschen, mit großer Leichtigkeit komplexe Geschichten (’stories‘) erzeugen, erinnern, und verstehen zu können. Er erwähnt auch typische Fehler, die Menschen aufgrund ihrer kognitiven Struktur machen: Flüchtigkeitsfehler (’slips‘) und richtige Fehler (‚mistakes‘). Fehler erhöhen sich, wenn man nicht berücksichtigt, dass Menschen sich eher keine Details merken, sondern ‚wesentliche Sachverhalte‘ (’substance and meaning‘); wir können uns in der Regel nur auf eine einzige Sache konzentrieren, und hier nicht so sehr ‚kontinuierlich‘ sondern punktuell mit Blick auf stattfindende ‚Änderungen‘. Dementsprechend merken wir uns eher ‚Neuheiten‘ und weniger Wiederholungen von Bekanntem. Ein anderes typisches Fehlerverhalten ist die Fixierung auf eine bestimmte Hypothese. Am Beispiel von Flugzeugcockpits (Boeing vs. Airbus) und Leitständen großer technischer Anlagen illustriert Norman, wie eine durch die gemeinsam geteilte Situation gestützte Kommunikation alle Mitglieder eines Teams auf indirekte Verweise miteinander verbindet, sie kommunizieren und verstehen lässt. In einer simulierten Situation müsste man die impliziten Gesetze der realen Welt explizit programmieren. Das ist nicht nur sehr aufwendig, sondern entsprechend fehleranfällig. Ein anderes großes Thema ist das Problem, wie man Wissen so anordnen sollte, dass man dann, wenn man etwas Bestimmtes braucht, dieses auch findet. Es ist ein Wechselspiel zwischen den Anforderungen einer Aufgabe, der Struktur des menschlichen Gedächtnisses sowie der Struktur der Ablage von Wissen. Nach Norman ist es generell schwer bis unmöglich, die Zukunft vorauszusagen; zu viele Optionen stehen zur Verfügung. Andererseits brauchen wir Abschätzungen wahrscheinlicher Szenarien. Dazu präsentiert er zahlreiche Beispiele aus der Vergangenheit (Privater Hubschrauber, Atomenergie, Computer, Telephon), anhand deren das Versagen von Prognose illustriert wird. Der größte Schwachpunkt in allen Voraussagen ist immer der Bereich der sozialen Konsequenzen. Auffällig in den neuen Entwicklungen ist der Trend, den Menschen im Handeln durch künstliche Charaktere zu ersetzen. Weitere Themen sind ‚Neurointerface‘, kollaborativesArbeiten, Viel ‚Hype‘ um Visionen, wenig Erfolg in der tatsächlichen Realisierung.

WEICHE UND HARTE TECHNOLOGIE

1) Auf den Seiten 221-242 wiederholt Norman Themen, die er auch schon vorher angesprochen hat. Es geht um die Grundeinsicht, dass der Mensch typische Stärken und Schwächen hat, die zu den heute bekannten Fähigkeiten der Maschinen weitgehend komplementär sind (zusammengefasst in einer Tabelle auf S.224).(vgl. SS.221-224) Statt maschinenorientiert zu denken, indem man den Menschen an Maschinen anzupassen versucht und dadurch den Menschen in für Menschen ungünstige Situationen zu pressen (mit entsprechend großem Fehlerpotential), sollte wir eher versuchen, die Maschinen an die Menschen anzupassen. Im Grunde sind beide komplementär und Maschinen könnten den Menschen hervorragend ergänzen.(vgl. SS.224-227)
2) Er stellt dann nochmals gegenüber die Logik, die in den Maschinen zum Tragen kommt, und die Logik des menschlichen Gehirns, die sich vorwiegend in der Art und Weise äußert, wie wir sprechen, wie wir unsere Sprache benutzen.(vgl. SS.227-232). Er illustriert die Gegenüberstellung von ‚maschinenorientierter (harter)‘ zu ‚menschenorientierter (weicher)‘ Technologie an den Beispielen ‚Telephon‘, ‚Briefmarkenautomat‘ sowie einer wissensunterstützenden Software genannt ‚Rabbit‘. (vgl. SS.232-242)

TECHNIK IST NICHT NEUTRAL

3) Auch auf den Schlussseiten SS.243-253 wiederholt Norman nur Thesen, die er zuvor schon mehrfach besprochen hat. Zentral sind ihm die Themen, dass das Medium für ihn im Gegensatz zu Marshall McLuhan nicht die Botschaft ist, wenngleich das Medium durch seine Eigenschaften einen spezifischen Effekt haben kann.(vgl.S.243f)
4) Er verdeutlicht dies (wiederholt) an der Gegenüberstellung von ‚Text lesen‘ und ‚Fernsehen schauen‘. Letzteres ist passiv und lässt in der Regel keine Zeit zur Verarbeitung. Die enorme Fähigkeit des menschlichen Gehirns, Dinge auf unterschiedliche Weise zu verarbeiten und zu gewichten wird durch das Fernsehen neutralisiert und führt nach jahrelanger mehrstündiger Praxis täglich zu deutlich negativen Effekten.(vgl. SS.244-246)
5) Eine Behebung dieses Problems sieht er (wiederholt) in der Einbeziehung des menschlichen Denkens durch eine Einbettung von Fernsehen in einer interaktive Version, bei der die Darbietung jederzeit unterbrochen werden kann.(vgl. S.248f)
6) Seine Schlusszeile lautet: „Menschen schlagen vor, Wissenschaft untersucht, Technologie macht verfügbar (‚conforms‘)“.(S.253)

EPILOG

ZERFLEDDERT

7) Hat man sich durch das ganze Buch durchgekämpft, dann kann man sich nicht des Eindrucks erwehren, dass die Gesamtheit der Themen nicht sehr streng systematisch organisiert worden sind. Viele Themen kommen immer wieder vor, mal mehr, mal weniger durchanalysiert. Dazu kommt, dass die Reflexion über Beispiele nicht konsequent durchgeführt erscheint. Reflexionsansätze werden immer wieder durchbrochen durch eine Vielzahl von Beispielen, die in sich zwar interessant und lehrreich sind, aber letztlich nicht wirklich in einer kohärenten Theorie aufgefangen werden.

GRUNDLEGENDE EINSICHTEN

8) Dieser negative Eindruck wird aber durch zwei positive Aspekte ausgeglichen: (i) die vielen ausführlichen Beispiele (die ich hier nicht im einzelnen beschrieben habe) illustrieren sehr schön den Reichtum seiner praktischen Erfahrungen; (ii) seine Grundthesen erscheinen mir tatsächlich fundamental, grundlegend, auch nach nunmehr 20 Jahren seit dem ersten Erscheinen des Buches.
9) Zwar nimmt in der Wirtschaft das Bewusstsein für bessere Bedienbarkeit von Geräten deutlich zu, aber eher weniger durch theoretische Einsicht sondern vielmehr durch die Realität des Marktes: schlechte Bedienbarkeit führt zu realen wirtschaftlichen Verlusten oder kann bei Zulassungsverfahren zum Ausschlusskriterium werden.
10) Das grundsätzliche Verhältnis von Menschen vs. Maschinen hat sich im Bewusstsein der Mehrheit deswegen nicht unbedingt zugunsten des Menschen verschoben. Die Unterhaltungsindustrie lebt jedenfalls extensiv von der immer wieder neuen Variierung des Themas ‚Intelligente Maschinen bedrohen die Existenz der Menschen‘.
11) Ich finde, dass Norman zurecht die Stärken und Schwächen des Menschen thematisiert und dass er im großen und ganzen die Möglichkeiten einer technischen Intelligenz demgegenüber als potentiell komplementär skizziert. Aus eigener Erfahrung im Hochschulbetrieb weiß ich, dass im Bereich der Informatik und Ingenieurwissenschaften das explizite Bewusstsein vom ‚Faktor Mensch‘ höchstens bei jenen wenigen Professoren gegeben ist, die das Thema ‚Mensch-Maschine-Interaktion‘ explizit betreuen; aber selbst in dieser verschwindend kleinen Gruppe gibt es noch genügend, die das Fach ‚maschinenorientiert‘ verstehen: wie kann ich den Menschen am besten an die Gegebenheiten eines bestimmten technischen Systems anpassen?‘.
12) Seine letztlich tiefgreifenden Einsichten in den Fundamentalzusammenhang zwischen Menschen und Technologie berühren allerdings ein Thema, das weit über die Disziplin Mensch-Maschine Interaktion hinausgeht. Es berührt den grundsätzlichen Wertekanon einer informationstechnologisch geprägten Gesellschaft, berührt die grundsätzlichen Fragen nach dem ‚Selbstbild des Menschen‘, die Frage, wie wir als Menschen uns selbst sehen, begreifen, verstehen angesichts einer immer mehr beschleunigten Komplexität.
13) Und in diesem Bereich der übergreifenden ‚Weltbilder‘ erleben wir neben einer großen Ungleichzeitigkeit zwischen unterschiedlichen Regionen und Kulturen auf der Erde im Bereich der stark wissenschaftlich geprägten Gesellschaften ein gefährliches denkerisches Vakuum: Bis zum Beginn der Entwicklung neuzeitlicher experimenteller und formal-mathematischer Wissenschaften verbanden die Menschen das ‚Lebendige‘, speziell den ‚Menschen‘ – also sich selbst – mit der Kategorie, etwas ‚Besonderes‘ zu sein, und die unterschiedlichen Manifestationen dieser Besonderheiten im Verhalten nannte man – im weitesten Sinne – z.B. ‚intelligent‘, ‚vernunftbegabt‘, ‚geistig‘, bis dahin, dass man einem Menschen einen ‚Geist‘ unterstellte (was immer dies auch im einzelnen war), der einen Menschen genau zu diesem wunderbaren Verhalten befähigt. Dieser unterstellte ‚Geist‘ war eine beliebte Projektionsfläche für sehr vieles, u.a. auch für religiöse Vorstellungen. Mit dem Fortschreiten der experimentellen und formalen Wissenschaften begann aber eine zunehmende ‚Durchleuchtung‘ der empirischen Welt, auch des menschlichen Körpers einschließlich Gehirn, auch des Universums, und überall fand man immer nur noch Kleineres, Zellen, Moleküle, Atome, Quanten, aber eben keinen ‚Geist‘. Diese zunehmende Zerkleinerung mit Verlust der Sicht auf potentielle Zusammenhänge oder Hervorbringungen haben die Aura des ‚Besonderen‘ denkerisch ausgetrocknet. Die ‚Rückbesinnungen‘ auf das typisch, ursprünglich Menschliche, auf immer buntere Formen von Religiosität, wirken in diesem Zusammenhang wie Verzweiflungsaktionen, eher emotional, wenig rational, kaum erhellend, auf keinen Fall kraftvoll genug, um die Stellung des Menschen (und überhaupt des Lebens) im Kosmos nennenswert zu stärken. In einer solchen denkerisch ausgehöhlten, ausgelutschten Situation gibt es keine wirklichen Argumente für den Menschen. Philosophie und Religion sind sprachlos, die Wissenschaft gefangen in ihre einzelwissenschaftlichen Zerkleinerungen eines großen Ganzen, das dem Blick entschwunden ist. Die Lücke füllen Fantasien aller Arten.
14) Das schon mehrfach erwähnte ‚Emerging Mind Project‘ stellt in diesem Zusammenhang einen Versuch dar, den Zusammenhang wieder zurück zu gewinnen und das Phänomen des ‚Lebens‘ (einschließlich des Menschen) in seiner spezifischen Rolle neu sichtbar zu machen. Technologie wird hier dann zu einem genuinen Teil des Lebens, nicht als Gegensatz, sondern als ‚genuiner Teil‘!

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

DONALD A.NORMAN, THINGS THAT MAKE US SMART – Teil 6

Diesem Beitrag ging voraus Teil 5.

BISHER
(ohne kritische Anmerkungen)

In den vorausgehenden Teilen wurden bislang zwei Aspekte sichtbar: einmal die ‚Menschenvergessenheit‘ in der Entwicklung und Nutzung von Technologie sowie die Einbeziehung von ‚wissensunterstützenden Dingen‘ sowohl außerhalb des Körpers (physisch) wie auch im Denken selber (kognitiv). Ferner hatte Norman die Vielfalt des Denkens auf zwei ‚Arbeitsweisen‘ reduziert: die ‚erfahrungsorientierte‘ Vorgehensweise, ohne explizite Reflexion (die aber über ‚Training‘ implizit in die Erfahrung eingegangen sein kann), und die ‚reflektierende‘ Vorgehensweise. Er unterschied ferner grob zwischen dem Sammeln (‚accretion‘) von Fakten, einer ‚Abstimmung‘ (‚tuning‘) der verschiedenen Parameter für ein reibungsloses Laufen, Schreiben, Sprechen, usw., und einer Restrukturierung (‚restructuring‘) vorhandener begrifflicher Konzepte. Ferner sieht er in der ‚Motivation‘ einen wichtigen Faktor. Diese Faktoren können ergänzt werden um Artefakte, die Denkprozesse unterstützen. In diesem Zusammenhang führt Norman die Begriffe ‚Repräsentation‘ und ‚Abstraktion‘ ein, ergänzt um ‚Symbol‘ (nicht sauber unterschieden von ‚Zeichen‘) und ‚Interpreter‘. Mit Hilfe von Abstraktionen und Symbolen können Repräsentationen von Objekten realisiert werden, die eine deutliche Verstärkung der kognitiven Fähigkeiten darstellen. Allerdings, und dies ist ein oft übersehener Umstand, durch die Benutzung eines Artefaktes werden nicht die kognitiven Eigenschaften des Benutzers als solchen geändert, sondern – bestenfalls – sein Zugang zum Problem. Wenn in einem solchen Fall zwischen den wahrnehmbaren Eigenschaften eines Artefakts und den korrelierenden ‚Zuständen‘ des Problems ein Zusammenhang nur schwer bis gar nicht erkennbar werden kann, dann führt dies zu Unklarheiten, Belastungen und Fehlern. Norman wiederholt dann die Feststellung, dass die Art wie das menschliche Gehirn ‚denkt‘ und wie Computer oder die mathematische Logik Probleme behandeln, grundlegend verschieden ist. Im Prinzip sind es drei Bereiche, in denen sich das Besondere des Menschen zeigt: (i) der hochkomplexe Körper, (ii) das hochkomplexe Gehirn im Körper, (iii) die Interaktions- und Kooperationsmöglichkeiten, die soziale Strukturen, Kultur und Technologie ermöglichen. Die Komplexität des Gehirns ist so groß, dass im gesamten bekannten Universum nichts Vergleichbares existiert. Mit Bezugnahme auf Mervin Donald (1991) macht Norman darauf aufmerksam dass die auffälligen Eigenschaften des Menschen auch einen entsprechenden evolutionären Entwicklungsprozess voraussetzen, innerhalb dessen sich die heutigen Eigenschaften schrittweise herausgebildet haben. Nach kurzen Bemerkungen zur Leistungsfähigkeit des Menschen schon mit wenig partiellen Informationen aufgrund seines Gedächtnisses Zusammenhänge erkennen zu können, was zugleich ein großes Fehlerrisiko birgt, Norman dann den Fokus auf die erstaunliche Fähigkeit des Menschen, mit großer Leichtigkeit komplexe Geschichten (’stories‘) erzeugen, erinnern, und verstehen zu können. Er erwähnt auch typische Fehler, die Menschen aufgrund ihrer kognitiven Struktur machen: Flüchtigkeitsfehler (’slips‘) und richtige Fehler (‚mistakes‘). Fehler erhöhen sich, wenn man nicht berücksichtigt, dass Menschen sich eher keine Details merken, sondern ‚wesentliche Sachverhalte‘ (’substance and meaning‘); wir können uns in der Regel nur auf eine einzige Sache konzentrieren, und hier nicht so sehr ‚kontinuierlich‘ sondern punktuell mit Blick auf stattfindende ‚Änderungen‘. Dementsprechend merken wir uns eher ‚Neuheiten‘ und weniger Wiederholungen von Bekanntem.(vgl. S.131) Ein anderes typisches Fehlerverhalten ist die Fixierung auf eine bestimmte Hypothese.

VERTEILTES WISSEN IN GETEILTEN SITUATIONEN

1) Am Beispiel von Flugzeugcockpits (Boeing vs. Airbus) und Leitständen großer technischer Anlagen illustriert Norman, wie eine durch die gemeinsam geteilte Situation gestützte Kommunikation alle Mitglieder eines Teams auf indirekte Verweise miteinander verbindet, sie kommunizieren und verstehen lässt. Ohne dass ausdrücklich etwas erklärt werden muss erlebt jeder durch die gemeinsame Situation Vorgänge, Vorgehensweisen, Zustände, kann so indirekt lernen und man kann sich indirekt wechselseitig kontrollieren. Im Allgemeinen sind diese indirekten Formen verteilten Wissens wenig erforscht. (vgl. SS.139-146)
2) Eine solche verteilte Intelligenz in einer realen Situation unter Benutzung realer Objekte hat einen wesentlichen Vorteil gegenüber einer rein simulierten Welt: die Benutzung realer Objekte ist eindeutig, auch wenn die begleitende Kommunikation vieldeutig sein mag.(vgl. S.146 -148)
3) In einer simulierten Situation muss man die impliziten Gesetze der realen Welt explizit programmieren. Das ist nicht nur sehr aufwendig, sondern entsprechend fehleranfällig. Eine Kommunikation wird vieldeutiger und damit schwieriger. (vgl. SS.148-151)

ZU VIEL DETAILS

4) Norman greift dann nochmals das Thema des unangemessenen, falschen Wissens auf mit Blick auf die Art und Weise, wie das menschliche Gedächtnis funktioniert. Am Beispiel der mündlichen Überlieferung die strukturell, typologisch vorging verweist er auf die heutige ‚Überlieferung‘ in Form von immer detaillierteren Texten, immer mehr technisch bedingten Details, die eigentlich unserer menschlichen Art des Erinnerns widersprechen. (vgl. SS.151-153)

ORGANISATION VON WISSEN

5) Auf den SS.155-184 diskutiert Norman anhand von Beispielen das Problem, wie man Wissen so anordnen sollte, dass man dann, wenn man etwas Bestimmtes braucht, dieses auch findet. Es ist ein Wechselspiel zwischen den Anforderungen einer Aufgabe, der Struktur des menschlichen Gedächtnisses sowie der Struktur der Ablage von Wissen.

DIE ZUKUNFT VORAUSSAGEN

6) Das folgende Kapitel (SS.185-219) steht unter der Hauptüberschrift, die Zukunft voraus zu sagen; tatsächlich enthält es auch eine ganze Reihe von anderen Themen, die sich nur sehr lose dem Thema zuordnen lassen.
7) Nach Norman ist es generell schwer bis unmöglich, die Zukunft vorauszusagen; zu viele Optionen stehen zur Verfügung. Andererseits brauchen wir Abschätzungen wahrscheinlicher Szenarien. (vgl. S.185f)
8) Als Begründung für seine skeptische These wählt er vier Beispiele aus der Vergangenheit (Privater Hubschrauber, Atomenergie, Computer, Telephon), anhand deren er das Versagen einer treffenden Prognose illustriert.(vgl.186-192) Der größte Schwachpunkt in allen Voraussagen betrifft den Bereich der sozialen Konsequenzen. Hier liegt überwiegend ein Totalversagen vor. Und er bemerkt, dass man den Ingenieuren zwar nicht vorwerfen kann, dass sie sich mit sozialen Folgen nicht auskennen, aber dass sie ihr Nichtwissen in diesem Bereich nicht ernst nehmen.(vgl. S.186).
9) Der andere Aspekt ist die Umsetzungsdauer von einer Idee bis zu einer verbreiteten alltäglichen Nutzung. Anhand von Beispielen (Fernsehen, Flugzeug, Fax) zeigt er auf, dass es zwischen 40 – 140 Jahren dauern konnte. denn neben der Idee selbst und einem arbeitsfähigen Prototypen muss ja der bestehende Alltag unterschiedlich weit ‚umgebaut‘ werden, evtl. müssen alte bestehende Strukturen (verbunden mit starken Interessen) durch neue ersetzt werden.(vgl. S.192-195)
10) [Anmerkung: Wir erleben z.B. seit den 60iger Jahren des 20.Jahrhunderts die Diskussion zur Frage erneuerbarer Energien, der eine bestehende Struktur von ölbasierten Technologien, Atomkraft, Kohle und Gas entgegen stehen, jeweils verbunden mit sehr starken ökonomischen und politischen Interessen.]
11) Er macht dann selber einige Voraussagen (Verfügbarkeit von digitaler Information, von hohen Bandbreiten, von noch mächtigeren immer kleineren Computern, von 3D-Ansichten unter Einbeziehung der eigenen Position, von elektronischen Publikationen, von mehr computergestütztem Lernen, noch raffiniertere Unterhaltung, von Videogesprächen im privaten Bereich, von mehr kollaborativen Arbeitsplätzen).(vgl. SS.195-201)
12) [Anmerkung: 20 Jahre später kann man sagen, dass alle diese Voraussagen entweder voll umgesetzt wurden oder wir dabei sind, sie umzusetzen.]
13) Norman spielt dann die möglichen sozialen Folgen von diesen neuen Technologien anhand von sehr vielen konkreten Beispielen durch. Ein Trend ist der zunehmende Ersatz des Menschen im Handeln durch künstliche Charaktere, was schließlich dazu führen kann, dass in der Öffentlichkeit dann nur noch die Software handelt, während die ‚realen‘ Menschen mehr und mehr aus der Öffentlichkeit verschwinden. (vgl. SS. 201-210)
14) [Anmerkung: Diese Art von Auswüchsen, wie sie Norman plastisch schildert, werden in immer mehr Science-Fiction Filmen thematisiert. Ein Beispiel war die 10-teilige Folge ‚Real Humans – Echte Menschen‘, eine schwedische Produktion, die von arte im Frühjahr 2013 gezeigt wurde. Darin wurde die Existenz von menschenähnlichen Robotern im alltäglichen Leben sehr konkret durchgespielt. Ein sehr ähnliches Thema hatte auch der Film Surrogates (2009), wenn auch mit einer anderen Rahmengeschichte. Es gibt hierzu zahllose weitere Beispiele.]

NEUROINTERFACE

15) Norman greift auch das Thema ‚Neurointerface‘ auf, eine direkte Verbindung des menschlichen Nervensystems mit einem Computer. (vgl. SS.210-214)

KOLLABORATIVE SOFTWARE

16) Natürlich wird die neue Technologie auch Auswirkungen für die Arbeit von sozialen Gruppen haben. Hier sieht er aber besonders viele Schwierigkeiten, da das Arbeiten in einer Gruppe besonders komplex ist und sensitiv für viele Faktoren. (vgl. SS. 214-217)

TRÄUMEN MACHT MEHR SPASS ALS REALE NUTZUNG

17) Abschließend bemerkt Norman noch, das der Hype um neue Technologien sich häufig an den visionären Szenarien entzündet; wenn es zur tatsächlichen Nutzung kommt, flaut dieser Hype sehr schnell wieder ab. (vgl. SS.217-219)
18) [Anmerkung: Die Themen zersplittern zunehmend. Dennoch stellen Sie allesamt wertvolle Erfahrungen und Einsichten dar. s wird Aufgabe der Schlussreflexion sein, die Vielfalt dieser Aspekte auszuwerten und für eine Gesamttheorie nutzbar zu machen.]

Fortsetzung folgt im Teil Teil 7

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

DONALD A.NORMAN, THINGS THAT MAKE US SMART – Teil 5

Diesem Beitrag ging voraus Teil 4.

BISHER

In den vorausgehenden Teilen wurden bislang zwei Aspekte sichtbar: einmal die ‚Menschenvergessenheit‘ in der Entwicklung und Nutzung von Technologie sowie die Einbeziehung von ‚wissensunterstützenden Dingen‘ sowohl außerhalb des Körpers (physisch) wie auch im Denken selber (kognitiv). Ferner hatte Norman die Vielfalt des Denkens auf zwei ‚Arbeitsweisen‘ reduziert: die ‚erfahrungsorientierte‘ Vorgehensweise, ohne explizite Reflexion (die aber über ‚Training‘ implizit in die Erfahrung eingegangen sein kann), und die ‚reflektierende‘ Vorgehensweise. Er unterschied ferner grob zwischen dem Sammeln (‚accretion‘) von Fakten, einer ‚Abstimmung‘ (‚tuning‘) der verschiedenen Parameter für ein reibungsloses Laufen, Schreiben, Sprechen, usw., und einer Restrukturierung (‚restructuring‘) vorhandener begrifflicher Konzepte. Ferner sieht er in der ‚Motivation‘ einen wichtigen Faktor. Diese Faktoren können ergänzt werden um Artefakte, die Denkprozesse unterstützen. In diesem Zusammenhang führt Norman die Begriffe ‚Repräsentation‘ und ‚Abstraktion‘ ein, ergänzt um ‚Symbol‘ (nicht sauber unterschieden von ‚Zeichen‘) und ‚Interpreter‘. Mit Hilfe von Abstraktionen und Symbolen können Repräsentationen von Objekten realisiert werden, die eine deutliche Verstärkung der kognitiven Fähigkeiten darstellen.

PROBLEMZUGANG DURCH INTERFACE VERBESSERN

1) Auf den S.77-113 widmet sich Norman dem Thema, wie Artefakte die Behandlung einer Aufgabe ändern können. Er geht dabei aus von der fundamentalen Einsicht, dass die Benutzung eines Artefaktes nicht die kognitiven Eigenschaften des Benutzers als solchen ändert, sondern – bestenfalls – den Zugang zum Problem. (vgl. S.77f).
2) [Anmerkung: Wir haben also zwei Situationen Sit1= und Sit2= mit ‚P‘ für ‚Problem=Aufgabe‘, ‚Int‘ für ‚Interface = Artefakt‘ und ‚U‘ für ‚User = Benutzer‘. Während in Situation 1 der Benutzer mit seinen ‚angeborenen kognitiven Strukturen‘ das Problem verarbeiten muss, kann er in Situation 2 auf ein Interface Int zurückgreifen, das idealerweise alle jene Aspekte des Problems, die für ihn wichtig sind, in einer Weise ‚aufbereitet‘, die es ihm ‚leichter‘ macht, mit seinen ‚angeborenen‘ kognitiven Fähigkeiten damit umzugehen. Nehmen wir zusätzlich an, dass der Benutzer U ein lernfähiges System ist mit der minimalen Struktur U= und fu: I x IS —> IS x O, dann würde man annehmen, dass das Interface eine Art Abbildung leistet der Art Int: P —> I und Int: O —> P. Wie ‚gut‘ oder ’schlecht‘ ein Interface ist, könnte man dann einfach daran überprüfen, wieweit der Benutzer U dadurch seine Aufgaben ’schneller‘, ‚leichter‘, ‚mit weniger Fehlern‘, mit ‚mehr Zufriedenheit‘ usw. leisten könnte.]
3) Norman macht dann auf den Umstand aufmerksam, dass zwischen den wahrnehmbaren Eigenschaften eines Artefakts und den korrelierenden ‚Zuständen‘ bei der heutigen stark integrierten Technologie oft kein Zusammenhang mehr erkennbar ist. Dies führt zu Unklarheiten, Belastungen und Fehlern. Er spricht sogar von dem ‚Oberflächen‘- (’surface‘) und dem ‚Internen‘- (‚internal‘) Artefakt. (vgl. S.70-81).
4) [Anmerkung: Die Unterscheidung von ‚Oberfläche‘ und ‚Intern‘ halte ich für problematisch, da natürlich jedes Artefakt, das als Interface einen Benutzerbezug hat letztlich nur über sein äußerlich beobachtbares Verhalten definierbar und kontrollierbar ist. Die jeweiligen internen Strukturen sind eher beliebig. Allerdings macht die Unterscheidung von ‚Oberflächeneigenschaften‘ und ‚Funktionszustand‘ Sinn. Wenn also ein Drehknopf die Lautstärke reguliert, dann wäre der Drehknopf mit seiner ‚Stellung‘ die Oberflächeneigenschaft und die jeweilige Lautstärke wäre ein davon abhängiger ‚Funktionszustand‘ oder einfach ‚Zustand‘. Der Zustand wäre Teil der Aufgabenstellung P. Das, was ein Benutzer U kontrollieren möchte, sind die verschiedenen Zustände {…,p_i.1, …, pi.n,…} von P. Nimm man also an, dass das Interface Int auch eine Menge von Oberflächeneigenschaften {ui_i.1, …, ui_i.m} umfasst, dann würde ein Interface eine Abbildung darstellen der Art Int: {…,ui_i.j, …} —> {…,p_r.s,…}. Nehmen wir an, die Menge P enthält genau die Zustände des Problems P, die ‚wichtig‘ sind, dann wäre es für einen Benutzer U natürlich um so ‚einfacher‘, P zu ‚kontrollieren‘, (i) um so direkter die Menge dom(Int) = {ui_i.1, …, ui_i.m} bestimmten Problemzuständen entsprechen würde und (ii) um so mehr die Menge dom(Int) den kognitiven Fähigkeiten des Benutzers entsprechen würde. ]
5) Auf den SS.82-90 illustriert Norman diesen grundlegenden Sachverhalt mit einer Reihe von Beispielen (Türme von Hanoi, Kaffeetassen).

COMPUTER KEIN MENSCH
FORMALE LOGIK vs. ALLTAGS-LOGIK

6) Norman wiederholt dann die Feststellung, dass die Art wie das menschliche Gehirn ‚denkt‘ und wie Computer oder die mathematische Logik Probleme behandeln, grundlegend verschieden ist. Er unterstreicht auch nochmals, dass die Qualität von psychologischen Zuständen (z.B. im Wahrnehmen, Denken) oft keine direkten Rückschlüsse auf die realen Gegebenheiten zulassen. (vgl. S.90-93)
7) [Anmerkung1: Die Tatsache, dass die ‚formale Logik‘ Logik der Neuzeit nicht der ‚Logik des Gehirns‘ entspricht, wird meines Erachtens bislang zu wenig untersucht. Alle Beweise in der Mathematik und jenen Disziplinen, die es schaffen, mathematische Modelle = Theorien zu ihren empirischen Fakten zu generieren, benutzen als offizielle Methode der Beweisführung die formale Logik. Diese formale Logik arbeitet aber anders als die ‚Logik des Alltags‘, in der wir mit unserem Gehirn Abstrahieren und Schlüsse ziehen. In meiner Ausbildung habe ich erlebt, wie man vom ‚alltäglichen‘ Denken in ein ‚formales‘ Denken quasi umschalten kann; man muss bestimmte Regeln einhalten, dann läuft es quasi ‚wie von selbst‘, aber das Umschalten selbst, die Unterschiede beider Denkweisen, sind meines Wissens bislang noch nie richtig erforscht worden. Hier täte ein geeignetes Artefakt = Interface wirklich Not. Während man im Bereich der formalen Logik genau sagen kann,was ein Beweis ist bzw. ob eine bestimmte Aussage ‚bewiesen‘ worden ist, kann man das im alltäglichen denken nur sehr schwer bis gar nicht. Dennoch können wir mit unserem alltäglichen Denken Denkleistungen erbringen, die sich mit einem formalen Apparat nur schwer bis (zur Zeit) gar nicht erbringen lassen. (Auf den SS.128f ergänzt Norman seine Bemerkungen zum Unterschied von formaler Logik und dem menschlichen Denken.)]
8) [Anmerkung2: Daraus folgt u.a., dass nicht nur die Ausgestaltung von konkreten Artefakten/ Schnittstellen sehr ausführlich getestet werden müssen, sondern auch der Benutzer selbst muss in all diesen Tests in allen wichtigen Bereichen vollständig einbezogen werden.]
9) Auf den SS.93-102 diskutiert Norman diesen allgemeinen Sachverhalt am Beispiel von graphischen Darstellungen, Für und Wider, beliebte Fehlerquellen, gefolgt von einigen weiteren allgemeinen Überlegungen. vgl. S.102-113)
10) Auf den Seiten 115-121 trägt Norman viele Eigenschaften zusammen, die für Menschen (den homo sapiens sapiens) charakteristisch sind und die ihn nicht nur von anderen Lebewesen (einschließlich Affen) unterscheiden, sondern vor allem auch von allen Arten von Maschinen, insbesondere Computer, einschließlich sogenannter ‚intelligenter‘ Maschinen (Roboter). Im Prinzip sind es drei Bereiche, in denen sich das Besondere zeigt: (i) der hochkomplexe Körper, (ii) das hochkomplexe Gehirn im Körper, (iii) die Interaktions- und Kooperationsmöglichkeiten, die soziale Strukturen, Kultur und Technologie ermöglichen. Die Komplexität des Gehirns ist so groß, dass im gesamten bekannten Universum nichts Vergleichbares existiert. Die Aufzählung von charakteristischen Eigenschaften auf S.119 ist beeindruckend und lässt sich sicher noch erweitern.
11) [Anmerkung: Im Bereich Mench-Maschine Interaktion (MMI)/ Human-Machine Interaction (HMI) – und ähnlich lautenden Bezeichnungen – geht es – wie der Name schon sagt – primär um die Beziehungen zwischen möglichen technischen Systemen und den spezifischen Eigenschaften des Menschen. In der Regel wird aber der Mensch ‚als Mensch‘, die besondere Stellung des Menschen nicht so thematisiert, wie es hier Norman tut. Die MMI/ HMI Literatur hat immer den Hauch einer ‚Effizienz-Disziplin‘: nicht die Bedürfnisse des Menschen als Menschen stehen im Mittelpunkt, sondern (unterstelle ich jetzt) ein übergeordneter Produktionsprozess, für dessen Funktionieren und dessen Kosten es wichtig ist, dass die Mensch-Maschine Schnittstellen möglichst wenig Fehler produzieren und dass sie mit möglichst geringem Trainingsaufwand beherrschbar sind. In gewissem Sinne ist diese Effizienzorientierung legitim, da der Mensch ‚als Mensch‘ in sich eine Art ‚unendliches Thema‘ ist, das kaum geeignet ist für konkrete Produktionsprozesse. Wenn ich aber einen konkreten Produktionsprozess verantworten muss, dann bin ich (unter Voraussetzung dieses Prozesses) gezwungen, mich auf das zu beschränken, was notwendig ist, um genau diesen Prozess zum Laufen zu bringen. Allgemeine Fragen nach dem Menschen und seiner ‚Bestimmung‘ können hier nur stören bzw. sind kaum behandelbar. Andererseits, wo ist der Ort, um über die Besonderheiten des Menschen nachzudenken wenn nicht dort, wo Menschen real vorkommen und arbeiten müssen? Philosophie im ‚Reservat des gesellschaftlichen Nirgendwo‘ oder dort, wo das Leben stattfindet?]

EVOLUTIONÄRE HERLEITUNG DES JETZT

12) Mit Bezugnahme auf Mervin Donald (1991) macht Norman darauf aufmerksam dass die auffälligen Eigenschaften des Menschen auch einen entsprechenden evolutionären Entwicklungsprozess voraussetzen, innerhalb dessen sich die heutigen Eigenschaften schrittweise herausgebildet haben. Das Besondere am evolutionären Prozess liegt darin, dass er immer nur ‚weiterbauen‘ kann an dem, was schon erreicht wurde. Während moderne Ingenieure immer wieder auch mal einen kompletten ‚Neuentwurf‘ angehen können (der natürlich niemals radikal ganz neu ist), kann die biologische Evolution immer nur etwas, was gerade da ist, geringfügig modifizieren, also ein System S‘ zum Zeitpunkt t+1 geht hervor aus einem System S zum Zeitpunkt t und irgendwelchen Umgebungseigenschaften (E = environmental properties): S'(t+1) = Evol(S(t),E). Die Details dieses Prozesses, so wie Donald sie herausarbeitet, sind sicher diskutierbar, aber das Grundmodell sicher nicht.(vgl. SS.121-127)
13) [Anmerkung: Obwohl die Wissenschaft heute die Idee einer evolutionären Entwicklung als quasi Standard akzeptiert hat ist doch auffällig, wie wenig diese Erkenntnisse in einer theoretischen Biologie, theoretischen Psychologie und auch nicht in einer Künstlichen Intelligenzforschung wirklich angewendet werden. Eine ‚Anwendung‘ dieser Einsichten würde bedeuten, dass man relativ zu bestimmten phäomenalen Verhaltenseigenschaften nicht nur ein Strukturmodell S'(t) angibt, das diese Leistungen punktuell ‚erklären‘ kann, sondern darüber hinaus auch ein evolutionäres (prozessurales) Modell, aus dem sichtbar wird, wie die aktuelle Struktur S'(t) aus einer Vorgängerstruktur S(t-1) hervorgehen konnte. In der künstlichen Intelligenzforschung gibt es zwar einen Bereich ‚evolutionäre Programmierung‘, aber der hat wenig mit der bewussten theoretischen Rekonstruktion von Strukturentstehungen zu tun. Näher dran ist vielleicht das Paradigma ‚Artificial Life‘. aber da habe ich aktuell noch zu wenig Breitenwissen.]

GESCHICHTEN

14) Nach kurzen Bemerkungen zur Leistungsfähigkeit des Menschen schon mit wenig partiellen Informationen aufgrund seines Gedächtnisses Zusammenhänge erkennen zu können, was zugleich ein großes Fehlerrisiko birgt (vgl. S.127f), verlagert er dann den Fokus auf die erstaunliche Fähigkeit des Menschen, mit großer Leichtigkeit sowohl komplexe Geschichten (’stories‘) erzeugen, erinnern, und verstehen zu können. Er verweist dabei vor allem auf die Forschungen von Roger Schanck.(vgl. 129f)

TYPISCHE MENSCHLICHE FEHLER

15) Norman erwähnt typische Fehler, die Menschen aufgrund ihrer kognitiven Struktur machen: Flüchtigkeitsfehler (’slips‘) und richtige Fehler (‚mistakes‘). Fehler erhöhen sich, wenn man nicht berücksichtigt, dass Menschen sich eher keine Details merken, sondern ‚wesentliche Sachverhalte‘ (’substance and meaning‘); wir können uns in der Regel nur auf eine einzige Sache konzentrieren, und hier nicht so sehr ‚kontinuierlich‘ sondern punktuell mit Blick auf stattfindende ‚Änderungen‘. Dementsprechend merken wir uns eher ‚Neuheiten‘ und weniger Wiederholungen von Bekanntem.(vgl. S.131) Ein anderes typisches Fehlerverhalten ist die Fixierung auf eine bestimmte Hypothese. Es ist eine gewisse Stärke, einen bestimmten Erklärungsansatz durch viele unterschiedliche Situation ‚durchzutragen‘, ihn unter wechselnden Randbedingungen zu ‚bestätigen‘; zugleich ist es aber auch eine der größten Fehlerquellen, nicht genügend Alternativen zu sehen und aktiv zu überprüfen. Man nennt dies den ‚Tunnelblick‘ (‚tunnel vision‘). (vgl. SS.31-138)

Fortsetzung folgt mit Teil 6

LITERATURVERWEISE

Merlin Donald, „Origins of the Modern Mind: Three Stages in the Evolution of Culture and Cognition“, Cambridge (MA): Harvard University Press,1991

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

DONALD A.NORMAN, THINGS THAT MAKE US SMART – Teil 4

Diesem Beitrag ging voraus Teil 3.

BISHER

In den vorausgehenden Teilen wurden bislang zwei Aspekte sichtbar: einmal die ‚Menschenvergessenheit‘ in der Entwicklung und Nutzung von Technologie sowie die Einbeziehung von ‚wissensunterstützenden Dingen‘ sowohl außerhalb des Körpers (physisch) wie auch im Denken selber (kognitiv). Ferner hatte Norman die Vielfalt des Denkens auf zwei ‚Arbeitsweisen‘ reduziert: die ‚erfahrungsorientierte‘ Vorgehensweise, ohne explizite Reflexion (die aber über ‚Training‘ implizit in die Erfahrung eingegangen sein kann), und die ‚reflektierende‘ Vorgehensweise. Er unterschied ferner grob zwischen dem Sammeln (‚accretion‘) von Fakten, einer ‚Abstimmung‘ (‚tuning‘) der verschiedenen Parameter für ein reibungsloses Laufen, Schreiben, Sprechen, usw., und einer Restrukturierung (‚restructuring‘) vorhandener begrifflicher Konzepte. Ferner sieht er in der ‚Motivation‘ einen wichtigen Faktor.

WEITER

1) Im folgenden Kapitel macht er nochmals deutlich, dass der menschliche Geist ohne externe Hilfsmittel sehr beschränkt, sehr hilflos ist. (vgl. S.43) Die primären erweiternden Technologien sieht er im Lesen (was Texte voraussetzt) und Schreiben (was Schreibmöglichkeiten voraussetzt, Zeichensysteme).(vgl. S.44). In diesem Sinne wiederholt Norman die These, dass es ‚Dinge‘ sind, die uns ‚intelligent machen‘ („It is things that make us smart“ (S.44)).
2) Mit Bezug auf Susan Noakes nimmt Norman an, dass es im Mittelalter unter den ‚Intellektuellen‘ üblich war, Geschriebenes (ergänzt um Gemaltes, Kommentiertes) nicht einfach ‚runter zu lesen‘, sondern mit dem Geschriebenen in einen Dialog zu treten, zu hinterfragen, zu befragen, zu kommentieren. (vgl. S.46)

REPRÄSENTATION

3) Norman wird dann konkreter. Ausgehend von der Kommunikation mittels Zeichen (’symbols‘) führt er die Unterscheidung ein zwischen dem Zeichenmaterial (Klang, Geste, Schriftzeichen,….) und dem, worauf es sich bezieht (‚refers to‘). In einer solchen Zeichenbeziehung kann man sagen, dass das Zeichenmaterial das Bezeichnete ‚repräsentiert‘ (‚represents‘). (vgl. S.47)
4) Zusätzlich zum repräsentierenden Zeichenmaterial und dem Bezeichneten führt Norman noch ein Drittes ein, die ‚Abstraktion‘ (‚abstraction‘). Unser Denken ‚abstrahiert‘ aus dem Wahrgenommenen einen Bündel von Eigenschaften, das dann kognitiv das auslösende Objekt repräsentiert, und auf dieses Abstraktum bezieht sich dann das Zeichenmaterial, also OBJ_real —> ABSTR_cogn —> ZCHN_real.(vgl. S.47) Allerdings können auch reale Objekte genutzt werden, um bestimmte Eigenschaften von anderen realen Objektven zu repräsentieren, also OBJ_real —> ABSTR_real —> ZCHN_real. (vgl. S.48) Wichtig ist, dass die Abstraktionen verschieden sind von den Objekten, die sie repräsentieren und dass sie Vereinfachungen darstellen, Hervorhebung von interessierenden Eigenschaften, die in gewissen Sinne Manipulationen zulassen, um mögliche potentielle Kombinationen dieser Eigenschaften rein gedanklich zu untersuchen.(vgl. S.49)
5) Norman differenziert dann nochmals weiter: er unterscheidet (i) zwischen der Welt, die repräsentiert werden soll (Objekte, Konzepte), (ii) einer Welt von Symbolen (= Zeichenmaterial), und (iii) einem Interpreten (I), der die Beziehung (‚relationships‘) zwischen dem Bezeichneten (O) und dem Bezeichnendem (S) verwaltet. Man müsste also minimal schreiben I: O —> S der Interpreter I bildet Objekte auf Symbole ab und umgekehrt I: S —> O. Wobei das gleiche Objekt o in O verschiedene s_i in S meinen kann und umgekehrt.(vgl. S.49f, S.259f).
6) [Anmerkung: Norman zitiert ja generell fast gar nicht die Quellen, die er benutzt. Hier ist es aber besonders ärgerlich, da er mit dieser Begrifflichkeit den Bereich der Semiotik (Semiotics) betritt, in dem es viele Publikation zum Thema gibt. Die von ihm benutzte Terminologie I,O,S findet sich ziemlich genau bei Peirce wieder, aber auch bei vielen anderen Semiotikern, z.B. Saussure oder Morris.]
7) [Anmerkung: Letztlich bleiben diese Begriffe aber alle etwas vage und unscharf. Das zeigt sich an vielen konkreten Beispielen. Wenn er z.B. eine Skizze als Repräsentation einer realen Szene (=O) als eine Art Modell (Mod(O)) benutzt, die auch in Abwesenheit der realen Szene benutzt werden kann (dann als S), um über die reale Szene zu sprechen. Andererseits kann die Skizze selbst ein Objekt (=O) sein, auf das andere Symbole (S) Bezug nehmen. Nur der jeweilige Interpreter (=I) kann entscheiden, welche Beziehung gerade vorliegt. Ebenso können wir uns von realen Szenen (=O) (oder auch von Skizzen von realen Szenen!) rein abstrakte Konzepte bilden, die diese Objekte repräsentieren (=Abstr(O)). Diese abstrakten Konzepte sind keine Symbole (S). Sie können aber in Abwesenheit von den realen Objekten als Quasi-Objekte für Symbole benutzt werden (z.B. verschiedene reale Objekte, die wir als ‚Stühle‘ bezeichnen erlauben die Bildung eines abstrakten Konzepts von ‚Stuhl_abstr‘. Die Bedeutung des Wortes (= Symbols) ‚Stuhl‘ ist dann kodiert in der Abstraktion ‚Stuhl_abstr‘ mit Bezug auf die auslösenden realen Stuhl-Objekte. Dies alles würde folgende Verallgemeinerung nahelegen: (i) es gibt ‚auslösende Objekte (O)‘, um Abstraktionen auszulösen, die entweder als reale Strukturen realisiert werden Abstr_real(O) oder als rein gedankliche, kognitive Abstraktionen Abstr_cog(O). Bei realen Abstraktionen Abstr_real(O) spricht man oft auch von ‚Modellen‘. Symbole (S) im Sinne von Zeichenmaterial kann sowohl auf reale Objekte direkt Bezug nehmen als I: S —> O oder – was im Falle der Sprache üblicher ist – indirekt durch Bezugnahme auf Abstraktionen I: O —> Abstr_x(O) und I: Abstr_x(O) —> S. In Grenzfällen kann eine reale Abstraktion Abstr_real(O), also ein Modell Abstr-real(O) = Mod(O), auch als Symbol für ein reales Objekt dienen, also I: Abstr_real(O) = S —> O. Hier eröffnen sich sehr viele weitere Fragen, auf die später noch eingegangen werden soll.]
8) [Anmerkung: Warum Norman ein Modell Mod(O) eines realen Objektes (O) nicht nur als ‚Repräsentation‘ des realen Objektes bezeichnet, sondern zugleich auch als ‚Metarepräsentation‘ (‚representation of a representation‘) erschließt sich mir nicht.(vgl. 51) ]
9) Andererseits gibt es natürlich die Möglichkeit, mit Hilfe von realen Abstraktionen (Skizzen, Diagrammen, Formeln,…) Zusammenhänge sichtbar zu machen und zu ’speichern‘, die ohne solche realen Abstraktionen nur schwer oder gar nicht ‚gedacht‘ werden könnten, und diese Abstraktionen können durch Bezugnahmen untereinander immer ‚höhere Ordnungen‘ (‚higher order‘) von Abstraktionen bilden.(vgl. S.51)
10) [Anmerkung: Diese Fähigkeit der Bildung von ‚Abstraktionen höherer Ordnung‘ setzt voraus, dass jede Abstraktion Abstr_x() zu einem ’neuen Objekt‘ wird, also zu einem ‚Objekt höherer Ordnung‘. Also O —> Abstr_x(O) = O1 —> Abstr_x(O1) = O2 … . In der Tat zeigt die Erfahrung, dass solche Abstraktionsketten ohne Hilfsmittel, ohne Artefakte, vom normalen Gehirn nicht bewältigt werden können.]
11) Auf den SS.53-75 beschreibt Norman dann anhand einer Reihe von Beispielen (game of 15, ticktacktoe, airline schedules, medical prescriptions, numbers, diagrams) weitere Aspekte von realen Abstraktionen, die gedacht sind, wichtige Eigenschaften von Objekten (O) als Abstr_real(O) zu repräsentieren. Reale Abstraktionen Abstr_real(O), die die Eigenschaften unserer sensorischen Wahrnehmung gut ausnutzen, können leichter verarbeitet werden, als wenn sie diesen entgegen stehen. Dies gilt aber nur dann, wenn die reale Abstraktion mit ihren konkreten Eigenschaften mit den wichtigen Eigenschaften des abzubildenden Objektes (O) gut übereinstimmen.

Fortsetzung folgt mit Teil 5.

LITERATURVERWEISE

Susan Noakes, Timely Reading: Between Exegesis and Interpretation. Ithaca, N.Y., and London: Cornell University Press, 1988. Pp. xv,

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

MURAKAMI-1Q84-Roman, Kurzbesprechung

Letzte Änderung: 4.Juni 2013

H.MURAKAMI, „1Q84„, Roman, Transl.from the Japanese by J.Rubin and P.Gabriel, New York: Vintage Books. International edition 2012 (Japanisch: 2009-2010)


DAS BUCH

1) Ich lese sehr selten Romane, aber jetzt habe ich mal wieder einen gelesen: „1Q84“ von Haruki Murakami (wie in der englischen Wikipedia nachzulesen ist steht das ‚Q‘ in ‚1Q84‘ im Japanischen oft für die ‚9‘; also heisst der Titel eigentlich ‚1984‘ und ist damit eine Anspielung auf die berühmte gleichnamige Novelle von George Orwell). ‚1Q84‘ spielt auch im Jahr 1984.
2) Da ich kein Japanisch kann, habe ich die englische Übersetzung gelesen. Dies hat natürlich zur Folge, dass ich nichts über die Sprache des Romans sagen kann. Wenn man bedenkt, dass Romane sich sehr stark über die Sprache definieren ist dies natürlich eine gewaltige Einschränkung. Es fehlt irgendwie das ‚Herz‘, die ‚Seele‘ des Romans. Was die englische Übersetzung angeht, so ist auch dies natürlich nicht meine Muttersprache und ich kann nur bemerken, dass sich der englische Text sehr flüssig liest. Ich empfand den Text als angenehm, was aber nicht allzuviel sagt, da meine Englischkenntnisse minimal sind.

STRUKTUREN

3) In meiner englischen Taschenbuchausgabe mit Bd.1-3 erstreckt sich der Roman über 1157 Seiten. Er ist in kleine Kapitel unterteilt, die sich jeweils um eine Person zentrieren. Dies hat zur Folge, dass Ereignisse, die parallel ablaufen, aufrund der unterschiedlichen Perspektiven oft hintereinander angeordnet werden, was zu unnatürlichen ‚Verschiebungen im Kopf‘ führen kann.
4) Es sind etwa neun Personen, die die Haupthandlung im wesentlichen tragen, darunter drei Frauen. Daneben tauchen fallweise einige andere Personen auf, die sehr wohl mehrere Kapitel bevölkern können. Alles spielt im Jahr 1984, hauptsächlich in Tokyo. Doch bleibt sowohl die Zeit als auch die Stadt weitgehend unwirklich, blass. Die einzelnen Personen erscheinen wie kleine ‚Gucklöcher‘ in Zimmern, Bars, Strassen, Häuser, Verkehrsmittel.

ERZÄHLPERSPEKTIVE

5) Durch diese strikte 1-Personen-Perspektive schleppt sich das Geschehen sehr langsam dahin. Ausführliche, detaillierte Beschreibungen der Situationen, Handlungen, subjektiven Zustände dieser Personen wirken wie ‚Zeitlupenaufnahmen‘, die ein beschauliches, abwartendes Lesen verlangen. Aufkeimende wilde Vermutungen können dann leicht störend, quälend wirken.
6) Phänomenologisch nah am Alltag, am unmittelbaren Erleben, streut der Autor viele philosophisch anmutende Reflexionen ein, die die Selbstverständlichkeit des Alltags verunsichern, in Frage stellen.
7) Wenn im Roman von Musik die Rede ist, dann von klassischer Musik; allerdings eher abstrakt. Eine große Rolle spielt ein gesunder Körper und gutes Essen, selber kochen. Die Hauptpersonen sind alle auf irgendeine Weise gesellschaftliche ‚Außenseiter‘ (z.B. durch ihre Kindheit, durch ihre Lebensgeschichte, durch ihre Berufe). Sie sind isolierte einzelne, völlig unpolitisch.

VOM ENDE HER GEFRAGT

8) Also, wozu diese aufwendige Schreibarbeit von 1157 Seiten? Blickt man gleich aufs Ende dann erscheint dies (sieht man von der sprachlichen Hülle einmal ab) wie ein billiges Bollywood-Liebes-Happyend: eine Sie-1 und ein Er-1 finden sich nach gut 20 Jahren als Traumpaar wieder, das seit der Grundschulzeit umeinander wusste, das immer unerfüllt war, und dann, nach und unter turbulenten Umständen zueinander finden konnte. Ein Paar, isoliert, einsam, nur für sich, viel Geld, unter dem Mond, in einer Hotelsuite, ‚glücklich‘. Nichts gegen Verliebtheit; es ist etwas wunderschönes, zauberhaftes, aber als Antwort auf ein fast weltbedrohliches Geschehen, mit Verbrechen, Toten, sinistren Organisationen, ein bisschen enttäuschend.
9) Daran ändert sich nicht viel, wenn man als Rahmenhandlung einbezieht, dass Sie-1 schwanger ist ohne direkte Einwirkung von ihrem Geliebten Er-1 und Er-1 zum Zeitpunkt der Befruchtung an einem anderen Ort sich in einem sexuellen Akt mit einem anderen weiblichen Wesen Sie-2 befand, deren Status bis zum Ende des Romans im Unklaren bleibt. Sie-2 sah aus wie eine junge Frau von 17 Jahren, konnte aber den Samen von Ihm Er-1 auf nicht erklärte Weise in die Vagina von ihr Sie-1 transportieren, ohne das Sie-1 sich in einem sexuellen Akt befand. Die Idee als solche ist originell (so eine Art ‚Fernbefruchtung‘) und mit Blick auf die immer ‚moderneren‘ Befruchtungsmethoden heutzutage nicht ganz so abwegig, aber in dem Roman kommt es ein wenig ‚magisch-mystisch‘ daher (das Thema ‚Empfängnis ohne direkte Einwirkung eines Mannes‘ findet sich in vielen Religionen und Märchen; normalerweise soll es die ‚Besonderheit‘ des Kindes unterstreichen).
10) Diese magische ‚Fernbefruchtung‘ ist eingebettet in eine komplexe Rahmengeschichte, in der eben dieses ‚ontologisch-unklare‘ Sie-2 eine Geschichte erzählt, die vom Er-1 literarisch aufpoliert wird und dann zum Bestseller mutiert. Was für viele nur eine ‚interessante Novelle‘ ist, entpuppt sich dann aber als die Beschreibung von scheinbar realen Vorgängen einer ‚besonderen Art‘ die sich nicht in der normalen Welt des Jahres 1984 abspielen, sondern in einer magischen Parallelwelt 1Q84, in der der Mond eine ‚Tochter‘ in Form eines kleinen grünen Mondes bekommen hat. In welcher der beiden Welten man sich befindet erkennt man an der Sichtbarkeit – oder Unsichtbarkeit – dieser beiden Monde.
11) Die Quelle für diese Novelle ist die Sie-2, ein 17 jähriger Teenager, der die Tochter eines Mannes ist, der nach und nach als der geistliche Führer einer religiösen Vereinigung enthüllt wird, und die mit 10 Jahren aus dieser religiösen Vereinigung geflohen war, zu einem alten Freund des geistlichen Führers.
12) Die Novelle selbst – genannt ‚Air Chrysalis‘ – erzählt die Erlebnisse von Sie-2 mit sonderbaren Wesen (‚kleine Menschen‘, ‚little People‘), die in die Welt treten können, dort Kopien von Menschen erzeugen können, die als ‚Wahrnehmende‘ (‚perceiver‘) für besondere Stimmen dienen, die wiederum speziellen Menschen, den ‚Empfängern‘ etwas sagen, das diese dann umsetzen können. Das Ganze verbunden mit speziellen sexuellen Praktiken, wo die Wahrnehmenden (deren Gestalt denen von kleinen 10-jährigen Mädchen ähnelt) mit den Empfängern (im Roman ein Mann, der geistliche Führer), sexuellen Verkehr gegen den Willen dieses Mannes haben. Bis zum Ende des Romans bleibt offen, wie man das genau zu verstehen hat, welche Art von Erkenntnissen hier vermittelt werden, was davon in der erzählten geistlichen Gemeinschaft tatsächlich passiert; welche Rolle letztlich Sie-2 spielt.
13) Während nun also im Roman der Vater von Sie-2, der geistliche Führer, Teil solcher sexuellen Praktiken ist und ‚Stimmen hören kann‘, was bei ihm zu unendlichen körperlichen Schmerzen führen soll, Soll Sie-1 diesen geistlichen Führer umbringen (auf seinen eigenen Wunsch hin) und wird im selben Augenblick ‚befruchtet‘, als Sie den geistlichen Führer umbringt (‚Tod auf Verlangen‘). Ob Sie-1 damit zu Mutter eines Wesens wird, das dann auch eine ‚Wahrnehmerin‘ ist, bleibt bis zum Ende offen. Ebenso ob Er-1, ihr neuer Lebenspartner, zu einem neuen ‚Empfänger‘ wird. Verschiedene Formulierungen deuten an, dass Sie-1 und Er-1 eher ein Antimittel gegen die ‚kleinen Menschen‘ und die Parallelwelt ‚1Q84‘ sind.
14) Der Roman endet dann auch damit, dass Sie-1 einen Weg findet, die Parallelwelt 1Q84 wieder zu verlassen.

EINSCHÄTZUNGEN

15) Der inhaltliche Kern des Romans wirkt ziemlich obskur, repräsentiert eine dekonstruktive Fiktionalität, d.h. eine solche, die wenig hilft, die Unerschöpflichkeit unserer realen Welt ein Stück weiter zu erhellen. Eher dient der Roman dazu, mögliche Sichten in das wahre Geheimnis unserer Welt zu verstellen mittels vieler Attrappen, verwirrender Traumbildern, Zerrbildern im Gewandte von Realitäten. Gemessen an der unfassbaren Dynamik und Komplexität der realen Welt wirken die Konstruktionen des Romans sehr simpel, sehr bieder, wenig fantasievoll, sehr bürgerlich.
16) Trotz allem, ich habe den Roman vollständig gelesen, bis zum Ende. Die Kraft der Beschreibung hält durchweg ein gewisses Interesse, eine gewisse Spannung wach und das, was sich in der obigen inhaltlichen Rekonstruktion als so wenig attraktiv darstellt, ist im Erzählfluss so gut verpackt, dass man durch das vordergründige Geschehen so mitgenommen ist, dass einem die Fragwürdigkeit des Inhalts nur erst sehr langsam und sehr spät klar wird.

ERWARTUNGEN AN EINEN ROMAN

17) Sind Romane also nur ‚Wortspiele‘, deren Inhalt egal ist? Geht es nur um ‚Effekte‘ und nicht auch um ‚Wahrheit‘? Lässt man die speziellen Rahmenkonstrukte außer Acht wirken die Schilderungen der einzelnen Figuren auf vielen Strecken schon interessant. Es sind einzelne Blitzlichter hinein in das Dunkel einer anderen Kultur. Doch als Nicht-Japaner kann man natürlich nicht beurteilen, ob die geschilderten Personen tatsächlich etwas über Realitäten in Japan verraten oder nur eine fiktive Scheinwelt beschreiben. Wenn ich sehe, wie unendlich schwer es ist, in unserer komplexen Welt ‚brauchbare Wahrheiten‘ zu gewinnen, jene Sichten, die wir zum Leben und Überleben benötigen, dann tendiere ich dazu, die Produktion von ‚Fiktionen‘, die die Verwirrungen nur noch zu vergrößern scheinen, für problematisch zu halten. Aber natürlich, wer will bzw. kann sich hier zu einem ‚Richter‘ aufwerfen?
18) Das einzig wahre Wunder bleibt das Leben selbst, das niemand von uns gewollt und geplant hat, was aber dennoch passiert, mit ungeheurer Wucht, von dem wir ein Teil sind; schlechte Romane werden es letztlich nicht aufhalten….:-)

NACHTRAG: EINZELNER UND KONTEXT
HÖLLE UND PARADIES

19) Nach Abschluss der Kurzbesprechung kam mir am folgenden Tage doch noch ein Gedanke, möglicherweise inspiriert durch ein langes Telefonat mit meinem Freund, dem Physiker M.W.; in diesem Telefonat ging es um Strukturbildungen in der Natur.
20) Betrachtet man die Hauptpersonen im Roman, insbesondere den Vater von ER-1, dann fällt auf, dass die tatsächliche Biographie der Personen ein Ergebnis von mindestens zwei Faktorenkomplexen ist: (i) die individuellen Veranlagungen und (ii) der individuelle ‚Kontext‘. Während die individuelle Veranlagung zum großen Teil genetisch vorgegeben ist, ist der Kontext eine variable Größe die man weiter differenzieren könnte.
21) Kontext besteht aus vielen dynamischen Aspekten: familiäre und freundschaftliche Beziehungen, Ausbildungssituationen, Arbeitssituationen, Freizeitsituationen, Wohnumfeld, übergreifende wirtschaftliche Situation, übergreifende Rechtssituation, übergreifende politische Situation, internationale Situation, usw. Ein einzelner kann diese Kontexte nur bedingt mitgestalten. Dort, wo er die Kontexte nicht mitgestalten kann, erscheinen diese als ’naturgegeben‘, als ‚Schicksal‘.
22) An der Person des Vaters einer der Hauptfiguren, Er-1, wird dies besonders gut illustriert: In seiner Jugend hin und her geworfen durch eine schwierige wirtschaftliche Situation, kaum Arbeitsmöglichkeiten, verschlagen ins Ausland, Krieg, nach Rückkehr durch glücklichen Umstand Gebühreneintreiber für den staatlichen Rundfunk, von seiner Frau verlassen, zurück mit einem Sohn, der möglicherweise gar nicht von ihm selbst ist, er zieht ihn auf mit harten Anforderungen. Der Kontext wirkt ‚mächtig‘, so, als ob er dem einzelnen keine Chance lässt; der einzelne erscheint wie ein ‚Spielball‘ von Kräften, auf die er selbst keinen Einfluss hat. Der Vater gehört zur ‚Kriegsgeneration‘.
23) Die Kinder der Kriegsgeneration (z.B. die Hauptpersonen Er-1, Sie-1) haben mehr Möglichkeiten: bessere Schulen, mehr Arbeitsmöglichkeiten, mehr Rechte, mehr Verkehr, Kommunikation, besseres Einkaufen, usw. aber auch sie haben Kontexte, die nicht beliebig sind: ihre Familien, die Schulen, die Freunde. Familien können ‚hart‘ sein, ‚ideologisch‘ verbrämt, gefühlskalt; Schulen können in der Gemeinschaft der Schüler die Bildung von ‚Außenseitern‘ begünstigen, Mobbing ermöglichen, können junge Menschen in Rollen drängen, die für sie eigentlich nicht passen, die ihnen aber so aufgedrängt werden. Der ‚Mainstream‘ rekrutiert sich auf diese Weise selber. Die hervorgebrachten ‚Außenseiter‘ sind dann entweder die ‚Versager‘, weil sie nicht so sind, wie die meisten, oder werden die ‚Helden‘, die durch ihr Anderssein etwas schaffen, was für alle gut ist, das der Mainstream-Masse lange verborgen blieb. Die Außenseiter als ein Moment des gesellschaftlich Irrationalen, als soziale Kreativität, aus der das Neue wächst.
24) Betrachtet man nur die Personen im Roman mit ihren ausführlichen Schilderungen (aktuellen Wahrnehmungen, Gefühlen, Motiven; Kontexte; Entstehungsprozess…), dann liegt hier ohne Zweifel eine Stärke des Romans, sein ‚Charme‘, seine punktuelle Faszination. Die Menschen kommen gut rüber (was nicht heißt, dass alles geschilderte Verhalten psychologisch plausibel erscheint).
25) Interessant wird es dort, wo das Verhältnis dieser Personen zu ihrem Kontext zum tragen kommt. Keine der Personen erweckt den Eindruck, dass sie sich mit ihrem Kontext gedanklich oder handlungsmäßig auseinandersetzt. Alle ’nehmen‘ den Kontext irgendwie ‚hin‘; der Kontext erscheint wie ’naturgegeben‘, ‚unausweichlich‘. In diesem Punkt wirken alle Personen ‚apathisch‘, ‚gedankenlos‘, ‚unpolitisch‘, ’seinsvergessen‘.
26) In einer Welt, in der die handelnden Einzelnen in einer solch radikalen Weise apathisch-unpolitisch-seinsvergessen leben, in einer solchen Welt kann eine ‚Erlösung‘ nur durch ‚magische Kräfte‘ statt haben. Wenn die Menschen als primär Handelnde den Glauben an ihre Handlungskraft verloren haben, dann bleibt nur der diffuse Glaube an ‚magische Kräfte‘, die die aktuellen Kontexte zumindest punktuell (Beispiel ‚Fernbefruchtung‘) überwinden und damit bestimmten Individuen Erlösungen zuteil werden zu lassen, die ihnen ohne diese Magie unmöglich erschien; man würde ja noch nicht einmal daran denken.
27) Und das ist, was im Roman 1Q84 geschieht: die Menschen, die in ihren Kontexten wie ‚Ausgelieferte‘ geschildert werden, individuell im Alltag Gestrandete, wie Fische, die das Meer ans Ufer gespült hat und die dort nach Luft schnappen, diese Menschen haben keine wirklichen Hoffnungen. Anstatt ihren Verstand, ihre Kommunikation, ihre Beziehungsfähigkeiten für Kontextgestaltungen zu nutzen spielt der Roman mit magischen Elementen, die letztlich das eine Schicksal durch ein anderes Schicksal ersetzen.
28) Obwohl, es gibt ‚Handelnde‘ in dem Roman. Hauptfigur Sie-3, eine reiche Witwe, die geschundenen Frauen hilft, bisweilen auch durch illegale Tötung von Männern, die Frauen durch ihre sadistische Art in den Tod getrieben haben. Hauptfigur Sie-1 hilft ihr dabei. Aber diese Extremform von Handeln passt ins Schema der umfassenden Apathie: nur wenn man den umfassenden Zusammenhang als ‚unüberwindlich‘ ansieht, als ’nicht gestaltbar‘, nur dann macht es Sinn zu solchen Methoden zu greifen.
29) Blickt man geschichtlich zurück, dann waren die Beispiele der Vergangenheit für ‚hoffnungslose‘ Gesellschaften etwa ‚absolutistisch-dogmatische‘ Gesellschaften, in denen wenige Alles durften und die Vielen so gut wie gar nichts; das Ganze festgezurrt in ein Weltbild, in dem alles geregelt war.
30) Japan gilt als ‚demokratische‘ Gesellschaft mit hohem Ausbildungsniveau. Idealerweise sind demokratische Gesellschaften ‚dynamisch‘, ‚durchlässig‘, sensibel für Gestaltungswillen, in einem offenen, transparenten, dynamischen Weltbild.
31) Was wir aber generell in demokratisch-industriell-wissenschaftlichen Gesellschaften beobachten können – nicht nur in Japan –, ist die Tatsache, dass die rasante Zunahme der Komplexität in diesen Gesellschaften dazu führt, dass die Mitglieder dieser Gesellschaften – also letztlich jeder einzelne, wir – an dieser Komplexität zu scheitern drohen. Formal können wir mitgestalten, real reicht das Wissen, reichen die Kräfte nicht aus, diese Mitgestaltungsmöglichkeiten entsprechend zu nutzen; erst recht nicht dann, wenn die ‚Macher‘ die Mitgestaltungsmöglichkeiten ’sabotieren‘. Dann kann eine demokratisch-industrielle-wissenschaftliche Gesellschaft faktisch wie eine absolutistisch-dogmatische Gesellschaft erscheinen.
32) Der Sinnbedarf des einzelnen wird durch solch eine ‚unüberwindlich erscheinende‘ Gesellschaft kaum noch ‚befriedigt‘. Da reale Revolutionen sehr anstrengend sind erscheint das Ausbrechen in Fantasie, Märchen, Magie, Träume, Spiele, und Drogen naheliegend.
33) Wenn der Roman 1Q84 sich so versteht, dass er das Scheitern des Individuums an der zunehmenden Komplexität des Kontextes durch Einführung von irrrationaler Magie als Zustand beschreiben will, könnte ich ihm ein Minimum an Rationalität abgewinnen.
34) Ich zweifele aber, ob das wirklich die Intention des Romans ist. Momentan neige ich eher der Interpretation zu, dass der Roman genau dieses gesamtgesellschaftliche Hilflosigkeitsphänomen mit seinen zunehmenden irrationalen ‚Fluchten‘ widerspiegelt und auf dieser Welle bewusst ‚reitet‘. Weil das ‚chic‘ ist, ‚in‘ ist, wird hier die magische Karte gespielt, weil dies kommerziell lukrativ ist. Die Leser mögen dies, weil sie ja alle in diesem gleichen Boot sitzen und alle an dieser umfassenden Sinnkrankheit leiden.
35) Allerdings, wie würde ein Roman aussehen, der nicht dem allgemeinen Zug der Lemminge folgt, sondern seine sprachliche-epische Kraft der konstruktiven Auseinandersetzung widmen würde? Kann es solch einen Roman geben? Kann es ‚konstruktive Fiktionalität‘ geben? Wie kann ein einzelner Mensch etwas wissen, was so viele nicht wissen? Oder ist es so, dass in jeder Zeit viele Menschen Dinge ‚ahnen‘ können, ohne dass sie in er Lage sind, dies adäquat auszudrücken und dass es dann die eine oder den anderen gibt, die/der die Begabung besitzt, diese ‚Ahnung der Vielen‘ in ein Romanereignis so umzusetzen, dass es allen ein Stückchen weiterhilft?
36) 1Q84 spielt für mich im Vorhof der Hölle, um ein Bild zu benutzen. Wer findet den Eingang zum Paradies?

Eine Übersicht über alle bisherigen Beiträge nach Titeln findet sich HIER.

ANTI-KLASSISCHE MUSIK …

Wie erwähnt wird im Rman 1Q84 Musik erwähnt, aber nur ‚klassische‘ Musik….Nichts gegen klassische Musik, aber wer Musik verstehen will, sollte sich auch mit anderen Formen von Musik, mit Grenzfällen beschäftigen. Ich experimentiere seit Jahren mit Grenzfällen. Hier zwei von über 400 musikalischen Experimenten (bitte unbedingt sehr gute Kopfhörer oder Latsprecher benutzen, sonst sind viele Klänge nicht hörbar):

Dauer: ca. 10 min:
Another Pattern-Cloud Experiment…(++++)(100%RUM). Still I am experimenting with structures. In this case I have recorded several midi-clips as ‚building blocks‘, some pattern, in advance, and then I have recorded several tracks by using these patterns. This generates a dynamic ‚pattern-cloud‘. It is too regular to be called ‚anarchistic‘, but not regular enough to be ’normal‘ music. It’s something in between (but what is ’normal‘ music today?). I am planning to use this piece now as starting point for some further experiments

Dauer: ca. 30 min: Anarchistic Symphony – A lonely Piano surrounded by many weird Sounds.(RUM 100%) While trying another sound library from ableton I compiled more than 14 different sound sources as a context against which I finally have played the keys of a piano. It is another exercise in exloring new sounds, playing a little bit with structures.