VERSCHRÄNKUNG VON REALITÄT UND VIRTUALITÄT – ZUKUNFT ODER ENDE DES MENSCHEN? – Randbemerkungen zu einer Veranstaltung des DAM Frankfurt 2.März 2016

VERSCHRÄNKUNG VON REALITÄT UND VIRTUALITÄT – ZUKUNFT ODER ENDE DES MENSCHEN? – Randbemerkungen zu einer Veranstaltung des DAM Frankfurt 2.März 2016

DIE VERANSTALTUNG

  1. Gestern Abend war ich Besucher einer Veranstaltung im Deutschen Architekturmuseum (DAM) mit dem Titel Konstruierte Realitäten. Verschränkung von virtueller und realer Welt. Nach einer umfangreichen Präsentation des Ateliers Markgraph mit Praxisbeispielen aus vielen Jahren von der künstlerischen Inszenierung der Automarke Mercedes auf der Internationalen Automobile Ausstellung (IAA) in Frankfurt, gab Prof. Lawo von der Universität Bremen einen umfassenden Überblick über die Entwicklung der Interaktion zwischen Menschen und Objekten/ Modellen.

ATELIER MARKGRAPH – INSZENIERUNG EINES OBJEKTES

  1. Die Präsentation des Ateliers Markgraph (mit Raimund Ziemer und Peter Eberhard) berührte viele Aspekte und bot natürlich – wie es sich für eine solche Agentur gehört – viele spannende, ästhetisch ansprechende Bilder. Die zugehörigen Sounds waren nicht dabei oder, wenn sie dabei waren, leider ziemlich schlecht.
  2. Entscheidend waren aber die Botschaften. Von den vielen Aspekten fand ich interessant, wie das zu inszenierende Objekt – hier die Autos der Marke Mercedes – im Laufe der Jahre immer mehr Teil einer medialen Inszenierung wurden, die das physikalische Objekt mehr und mehr zu verschlucken begann; es war und ist immer noch real da, aber im medialen Drumherum gewinnt die virtuelle Welt in Form von Bildern und Sound selbst eine solche Realität, dass die Grenzen zwischen realem Objekt Auto und virtuellem Kontext sich zu einer neuen Art von Virrealität in der Wahrnehmung des Zuschauers verbindet.
  3. Letztlich verschwindet das reale Objekt (der Begierde) in einem größer werdenden Kontext von Botschaften, Themen, die im Sinne des Unternehmens (und eventuell auch der Gesellschaft) vernünftig sind (wie Energiesparen, alternative Energien, autonomes Fahren mit weniger Unfällen, usw.), die aber nicht notwendigerweise die Gefühle und Bedürfnisse der Besucher treffen.
  4. Man kann sich nicht des Eindrucks erwehren, dass mit der zunehmenden ästhetischen Überladung der Kontexte sich nicht nur das Objekt der Begierde vom Benutzer entfernt, sondern dass auch der Benutzer selbst sich irgendwo in diesem ästhetischen Superfeuerwerk irgendwie verloren, sehr klein, und hilflos fühlen kann/ fühlt. Das geliebte Auto wird immer unzugänglicher, immer fremder, ein Überobjekt, dazu noch vernetzt auf eine Weise, die der Benutzer möglicherweise gar nicht will bzw. immer weniger beeinflussen kann.

VORTRAG PROF.LAWO

  1. Im nachfolgenden Vortrag, der mit dem Thema der Inszenierung einer Marke auf der IAA nichts zu tun hatte, konnte man aber ein ähnliches Muster beobachten. Professor Lawo, der  die bisherige Entwicklung vom ersten Computer bis zu den heutigen Systemen selbst noch miterlebt hat und sich im Bereich der Nutzung von Computermodellierung und -simulation spezialisiert hatte, lies die Zuhörer diese Entwicklung mitverfolgen. So konnte jeder vor seinem geistigen Auge nachvollziehen, wie sich die Entwicklung vom ersten Modell im Computer (z.B. erste Hausmodelle im Computer, CAD) bis hin zu immer mehr Interaktion mit solchen Modellen (z.B. Spielekonsolen, technische Simulatoren, Telemedizin, VR-Brillen…) vollzog. Die virtuellen Modelle fühlen sich für den Benutzer immer realistischer an. Heute können wir nicht nur dreidimensional sehen, man bekommt auch die Bewegungen dazu, den Sound, die Widersetzlichkeit von Aktionen, wenn auch noch nicht alles.
  2. Auch hier also der Trend zur Verschmelzung von Realität und Vitualität. Dazu kam noch das Thema der Wearables, der tragbaren Sensorik und Aktorik am Körper, in der Kleidung, im Körper, wodurch sich die Interaktion des Menschen mit seiner Umgebung vielfach erweitern kann.

DISKUSSION

  1. In der anschließenden Diskussion führte diese zunehmende Verschmelzung zu allerlei Fragestellungen. Eine war, ob hier nicht die Technik um der Technik willen immer weiter entwickelt wird und die Frage nach dem Benutzer – trotz aller Lippenbekenntnisse – letztlich sekundär ist. Ist es nicht so, dass sich – wie schon in der Frühzeit des Computers – sich die Technik nicht nach den Bedürfnissen des Menschen richtet, sondern der Mensch muss sich der Technik anpassen?
  2. Letztere Frage kann einen negativen Beigeschmack haben. Andererseits, falls es eine übergeordnete Perspektive gäbe, aus der heraus klar werden könnte, dass diese technischen Veränderungsprozesse samt den begleitenden Anpassungsprozessen einer übergeordneten Entwicklungslogik geschuldet sind, der wir alle unterliegen, dann könne man diese Veränderungen eher positiv als Herausforderungen sehen, die wir natürlich meistern sollten. Aktuell hat man aber eher den Eindruck, dass die einzelnen Technologieführer die Treiber sind, die den Menschen nur als Cash Cow für ihre Spielchen brauchen. Der Mensch selbst ist kein Thema. Professor Lawo formulierte es so „Technik passiert einfach“.
  3. Weitet man den Blick, sieht man, wie die Digitalisierung ja mittlerweile überall stattfindet, in allen Lebensbereichen, und dass selbst internationale Konzerne mittlerweile fast mehr Opfer denn Herren des Digitalisierungsgeschehens sind, denn wirkliche Gestalter, dann muss man die Frage stellen, ob die Formulierung Technik passiert einfach nicht dann doch eine Mehrfachdeutung zulässt. Ja, aus Sicht der einzelnen Akteure (Atelier Markgraph, Professor Lawo) passiert sie in dem Sinne, dass man sie benutzen muss, will man im Spiel bleiben. Aber kein einzelner kann von sich sagen, er entwickle diese globale Welle. Und doch, jeder bastelt ein Stückchen am großen Ganzen, und letztlich reiten dann alle auf dieser Technologie-Monsterwelle durch die Zeit, ohne dass es einen einzigen Autor, ohne dass es einen einzigen umfassenden Manager gibt, der das alles in der Hand hat. Es geschieht allen.
  4. In diesem Blog wurde schon oft die Evolution thematisiert als das übergreifende Geschehen, innerhalb dessen auch wir uns vorfinden. Betrachtet man die sich entwickelnde Komplexität biologischer Systeme auf der Erde mit der unfassbaren Explosion er letzten Jahrzehnte (bei einer Vorgeschichte von mehr als 13 Mrd Jahren), und betrachtet man speziell den Komplexitätssprung vom Fortpflanzungsmechanismus der normalen Zelle hin zum Gehirn des homo sapiens mit seiner zusätzlichen Erweiterung durch Computer, Datenbanken und Netzwerken, dann ist die Technikexplosion der letzten 50-70 Jahre kein Zufall; sie erscheint vielmehr tatsächlich als unausweichliche Entwicklung eines Evolutionsturbos, der sich keiner entziehen kann. Wenn dieser Blick zutrifft, dann stehen wir sogar erst am Anfang einer Entwicklung, von der niemand aktuell sagen kann, wo sie endet. Der homo sapiens von 2016 wird ein anderer sein als der homo sapiens von 2116.
  5. Vielleicht wären wir alle einen Schritt weiter, wenn wir diese Entwicklung samt der übergreifenden evolutionären Perspektive erst einmal gemeinsam sehen könnten; vielleicht nicht unbedingt akzeptieren. Denn nicht alles was geht ist – wie die vielen Milliarden Jahre vorausgehende Entwicklung und die paar tausend Jahre menschliche Kulturgeschichte zeigen – notwendigerweise gut. Es gibt Spielräume, es gibt Präferenzen; allerdings müssen diese gefunden werden; sie sind nicht da. Viele (die meisten?) der alten Werte können wir wohl nicht mitnehmen in die kommende Zeit.

Einen Überblick zu allen Blogeinträgen von Autor cagent nach Titeln findet sich HIER.

WIEDER TRITT FINDEN – Nach einer längeren Pause – WAHRHEIT DEMOKRATIE RELIGIONen

SCHREIBSTILLSTAND

1. Bedingt durch Urlaub und einer vorausgehenden absoluten Stresszeit kam mein Schreiben zum Erliegen – auch gewollt. Ab und zu braucht man Pausen, reale Pausen. Dies bedeutet nicht, dass das Denken aufhört, aber doch zumindest so viel, dass man sich nicht bei jedem Gedanken die Frage stellen muss, ob und wie man dies in einen beschreibbaren Zusammenhang einordnen kann/ sollte.
2. Natürlich rührt dies auch an Grundsätzliches – wie immer – ‚Warum überhaupt schreiben’… das Thema vom allerersten Blogeintrag.

VERSTEHEN WOLLEN

3. Wie auch schon damals entspringt die Antwort nicht aus rein objektiven Gegebenheiten sondern aus der subjektiven Situation, des Verstehen Wollens; die Welt verstehen, sich selbst, die anderen, überhaupt einfach verstehen, und dann vielleicht sogar ein Handeln, das sich davon inspirieren lässt.
4. Und in diesem Prozess des Verstehen Wollens gibt es keinen absoluten Punkt der allerletzten Klarheit, wann etwas vollständig oder wann etwas nur partiell verstanden ist. ‚Verstehen Wollen‘ hat keinen klaren Anfang und kein klares Ende. Es ist ein realer, konkreter Prozess von Lesen, Nachdenken, Reden, Schreiben, Hören, Träumen, Nichtstun, … währenddessen ‚Bilder‘ entstehen, die ‚Zusammenhänge‘ sichtbar machen, von denen man zuvor nichts gewusst hat, die man oft nicht einmal geahnt hat. In gewisser Weise erzeugt erst die ‚gedankliche Bewegung‘ die gedanklichen Zustände des ‚Erkennens‘. Und dies ist das ‚Gefährliche‘ in zweierlei Sinne: ‚gefährlich‘, weil man ‚vor‘ der Bewegung nicht weiß und nicht wissen kann, ob und was man erkennen wird, und gefährlich, weil man sich vorab irgendwelchen Vermutungen, Hoffnungen oder Ängsten hingeben kann, die einen entweder daran hindern, überhaupt das Nachdenken zu beginnen oder einen von vornherein auf eine bestimmte Einschätzung fixieren, die einem im Folgenden mindestens das Nachdenken schwer macht, wenn nicht ganz blockiert.

ERSCHEINT UNÜBERWINDLICH

5. In den letzten Wochen habe ich so viele sehr spannende und provozierenden und anregende Inhalte/ Themen kennen gelernt – ohne dies schreibend zu verarbeiten –, dass dies alles jetzt wie ein riesiger, unüberwindlicher Berg erscheint, der einem jeden Mut nimmt, ihn zu besteigen, sprich: überhaupt wieder zu schreiben; denn, egal wo man anfängt, es hängt da dieses Gefühl im Raum, es ist doch von vornherein vergeblich, sinnlos, unmöglich, diesem Wirrwarr an komplexen Ideen irgendeine Struktur abzugewinnen.

DAS ZUNÄCHST UNWIRKLICH IST DAS EINZIG WIRKLICHE

6. Dies führt zu einem sehr grundsätzlichen Problem, dass mich seit spätestens Frühjahr 2013 immer mehr beschäftigt, und auf das ich noch keine abschließenden Antworten habe: (i) Das, was wir primär als Daten/ Fakten ‚wahrnehmen‘, der Stoff, aus dem unsere ‚Realität‘ gemacht ist, enthält als solches eigentlich nahezu keine Wahrheiten oder Erkenntnisse. Diese (ii) ‚werden erst sichtbar‘, wenn man das sich Ereignende auf der ‚Zeitlinie‘ (mit Hilfe des Gedächtnisses) im zeitlichen (und räumlichen) Kontext sieht, wenn man Häufigkeiten, Wiederholungen, Zusammenhänge ‚bemerken‘ kann, wenn man ‚Einzeldinge‘ als ‚Beispiele‘ (Instanzen) von allgemeinen Mustern (Objekten) erkennen kann, wenn sich aus solchen Zusammenhängen und Mustern weitere allgemeine ‚Strukturen‘ ‚erkennen lassen‘, … kurzum: die einzig ‚wirklichen‘ und ‚wahrheitsfähigen‘ Erkenntnisse finden sich nicht schon in den primären Ereignissen des Alltags, sondern erst und einzig in dem ‚verarbeitenden Denken‘, in den Aktivitäten der individuellen Gehirne, soweit diese in der Lage sind, solche allgemeinen Muster zu erzeugen und damit weiter zu arbeiten.

KLASSISCHE PHILOSOPHIE

7. In der klassischen Philosophie waren dies z.B. Themen der Erkenntnistheorie, der Logik, der Naturbetrachtungen, der Metaphysik/ Ontologie. Hier hat man versucht, das eigene Denken zu ‚belauschen‘ und aus diesen Betrachtungen das ‚Wesentliche‘ vom ‚Unwesentlichen‘ zu unterscheiden. Wirklich ‚große‘ Philosophen wie ein Aristoteles oder ein Avicenna (Ibn Sina) waren sich während ihres Untersuchens der realen Welt immer auch bewusst, dass es in allem Erkennen neben dem sinnlichen Anteil immer auch einen gedanklichen Anteil gibt, und dass es letztlich genau dieser ist, mit dem Erkennen überhaupt beginnt. Unter anderem Kant und Hegel hatten diese Thematik verschärft, aber, anstatt dass wir alle daraus soviel Klarheit ziehen konnten, dass das Denken und das ‚Denken über das Denken‘ immer ‚einfacher‘ würde, ist etwas ganz anderes passiert.

MODERNE LOGIK

8. Mit der Entwicklung der modernen formalen Logik (seit dem Ende des 19.Jahrhunderts) wurde die Logik aus dem allgemeinen Denken herausgelöst und zu einem abstrakten Formalismus weiterentwickelt, dessen Bezug zum konkreten, realen alltäglichen Denken nicht mehr gegeben ist. Zwar führte diese Herauslösung der modernen formalen Logik einerseits zu mehr Freiheiten (z.B. es gibt nicht mehr nur einen Folgerungsbegriff, sondern beliebig viele; es gibt nicht mehr nur ‚wahr’/’falsch‘, sondern unendliche viele Abstufungen von ‚wahr’/’falsch), aber diese Freiheit wurde damit erkauft, dass eine mögliche Beziehung zwischen einem bestimmten Logikkalkül und dem realen Denken in jedem einzelnen Fall erst mühsam hergestellt werden muss und es niemals ganz klar ist, ob und wie dies der Fall ist.

WITTGENSTEIN

9. Leicht zeitversetzt zur Entwicklung der modernen formalen führte Ludwig Wittgenstein im Anschluss an seinen ‚tractatus logico philosophicus‘ mit seinen philosophischen Untersuchungen das gesamte moderne Denken in eine noch größere Freiheit, indem er die scheinbare Unauflöslichkeit von Denken und Sprache als eine quasi kognitive Täuschung entlarvte und mittels zahlloser genialer Beispiele aufzeigte, dass die ‚Bedeutungsinhalte‘, die wir mit unserer Sprache zu transportieren ‚meinen‘, zunächst mal nur die ’subjektiv intendierten‘ Bedeutungsinhalte sind; ob das Gegenüber die ‚gleichen‘ Bedeutungsinhalte aktiviert, wenn wir sprechen, oder ganz andere, das lässt sich immer nur sehr bedingt – wenn überhaupt – feststellen. Auch hier wird die ‚Freiheit‘ damit erkauft, dass der Vollzug eines verstehenden Sprechens an Selbstverständlichkeit – und damit an Leichtigkeit – verliert (was die Feuilletons dieser Welt bislang kaum daran hindert, Wortgewitter über ihre Leser loszulassen, die weniger dem Leser dienen als vielmehr dem Wortruhm des jeweiligen Schreibers).

VEREINSAMTES ALLTAGSDENKEN

10. Diese Neubesinnung auf Logik und die Sprache haben der modernen Wissenschaft zwar entscheidende Voraussetzungen geliefert, um transparent und nachvollziehbar komplexe empirische Theorien zu entwickeln, aber das alltägliche Denken wurde damit quasi sich selbst überlassen. Das Alltagsdenken interessierte plötzlich niemanden mehr …. und wurde damit zum Spielball einer Vielzahl von Interessen, die alle eines gemeinsam haben: Wahrheit spielt nicht nur keine Rolle mehr, sie ist in keiner Weise erwünscht: je weniger klare Regeln umso mehr Freiheit für Manipulation und Verführung.

AUFKLÄRUNG RELIGIONSÜBERGREIFEND

11. In einem sehr bemerkenswerten Leserbrief in der FAZ vom 5.Aug.2014 S.6 macht Heinz Eimer darauf aufmerksam, dass die ‚Aufklärung‘, die zu moderner Wissenschaft und zu demokratischen Staatsbildungen geführt hat, ihre Heimat weder im Christentum noch in irgendeiner anderen Religion hat. Sie ist religionsübergreifend. Angesichts erstarkender fundamentalistischer Tendenzen in den Religionen muss sich ein Staat auf diese seine demokratischen Werte besinnen um sich gegenüber den verschiedenen ‚Vereinnahmungen von Wahrheit‘ konkret und aktiv in Position bringen.
12. Hans Michael Heinig, Professor für öffentliches Recht, Kirchenrecht und Staatskirchenrecht schlägt sich in der FAZ vom 4.Aug.2014 S.6 bei der Frage des Verhältnisses von Aufklärung und Religion zwar nicht auf eine bestimmte Seite, stellt aber fest, dass ‚religiöse Traditionen keinen demokratischen Eigenwert besitzen‘. Nun ja, daraus folgt mindestens, dass die aus der Aufklärung hervorgegangen Demokratien zu ihrer Wesensbestimmung keines Rückgriffs auf eine Religion bedürfen.
13. Und bei Betrachtung der historischen Umstände dürfte die Faktenlage hinreichend stark sein, um zu behaupten, dass Aufklärung und moderne Demokratien nur in schwierigsten Auseinandersetzungen gegen (!) die herrschenden Religionen (organisiert als Kirchen) entstanden sind und sich behaupten konnten. Erst durch sehr klare und massive Abgrenzungen von Religionen gegenüber der allgemeinen Gesellschaft ist Frieden eingekehrt, konnte Wissenschaft sich entfalten, gibt es minimale Menschenrechte.
14. Prof. Heinig diskutiert das Verhältnis von Staat und Religion – im Lichte seiner Profession verständlich – nur aus rechtlicher Sicht und sieht in rechtlicher Sicht in Deutschland die ‚Multikonfessionalität‘ grundsätzlich angelegt. Dass der Islam noch nicht die Gleichbehandlung erfährt wie die traditionellen christlichen Konfessionen führt er im Wesentlichen darauf zurück, dass die islamischen Konfessionen bislang noch nicht so einheitlich organisiert sind wie die christlichen Kirchen. Dies mag stimmen.

JURISTISCHES DENKEN IST ZU WENIG

15. Allerdings zeigt diese rechtliche Betrachtung auch die Grenzen genau solcher rechtlicher Betrachtungen. Juristisch geht es immer nur sehr bedingt um Wahrheit; primär zählt die politisch gesetzte Norm, deren Wirkungskraft zu klären und zu garantieren ist. Ob die politisch gesetzten Normen (Gesetze) ‚wahr‘ sind in einem übergreifenden Sinne, diese Frage kann und will sich das juristische Denken nicht stellen.

RELIGIONEN UND GEWALT

16. Will man aber das ‚Wesen‘ von Religionen und das ‚Wesen‘ moderner demokratischer Gesellschaften verstehen, dann reichen formal-juristische Überlegungen nicht aus; dann muss man sich schon an die ‚Wahrheitsfrage‘ heranwagen. Auf eine sehr spezielle Weise tut dies in einem bemerkenswerten Artikel in der FAZ vom 7.Aug.2014 (S.9) Friedrich Wilhelm Graf unter der Überschrift ‚Mord als Gottesdienst‘. Als emeritierter Professor für Systematische Theologie und Ethik arbeitet er heraus, dass Gewaltbereitschaft und Enthemmung ihren Ursprung genau im Zentrum dessen haben, was die verschiedenen Religionen als ‚Kern ihres Glaubens‘ ansehen.
17. Das Phänomen, dass aus religiösen Gemeinschaften heraus Enthemmungen entstehen können, die zu brutalsten Handlungen führen, ist nach Graf seit den Anfängen der Religionsgeschichte zu beobachten und betrifft alle Religionen ohne Ausnahme: Hinduisten, Buddhisten, Juden, Christen, Muslime, um nur die größten zu nennen.
18. Dort, wo Religionen sich zu Gewalttätigkeiten hinreißen lassen, findet man nach Graf die Aufteilung der Welt in die ’schlechte‘ Gegenwart und die ‚ideale‘ gottgewollte Welt. Aus dieser diagnostizierten Differenz ergibt sich ein religiös motivierter Handlungsdruck, der umso größer ist, als eine solche Differenz von den Gläubigen so behauptet wird. Besteht zusätzlich eine Identifizierung der religiös Handelnden mit der Absolutheit Gottes zustande, wie sie unterschiedlichen Ausmaß immer in Anspruch genommen wurde (bis hin zur Gleichsetzung von menschlichem Akteur und Weisheit und Willen Gottes), dann gewinnt die religiös motivierte Sicht der Welt und das darin gründende Handeln eine Absolutheit, die keinerlei korrigierende Kritik mehr zulässt.
19. Dass religiöse Deutungsmuster, die in Deutschland lange als überwunden galten, in der Gegenwart zu neuer Stärke wiederfinden können (z.B. die vielen sogenannte Glaubenskriege heute) hat – so Graf – auch damit zu tun, dass politische Akteure aller Couleur sich die alten religiösen Symbole, Vorstellungen und Handlungsmuster zu Nutze machen und sie vor ihren eigenen Karren spannen. Direkt zu sagen, dass man persönlich die Macht über Menschen und Regionen in Anspruch nehmen möchte ist weniger erfolgreich, als die Menschen glauben machen, dass es Gottes Wille sei, die anderen zu vertreiben oder zu töten um sich selbst dann in die Position der Macht zu begeben (so diente Religion in der Vergangenheit allerdings immer schon den verschiedenen Herrschern als probates Mittel, um die Loyalität gegenüber der Macht zu fördern).
20. Was allen diesen unterschiedlichen Spielarten religiös motivierter Gewalt gemeinsam ist, das ist nach Graf das völlige Fehlen einer ernsthaften Nachdenklichkeit, von Selbstreflexion, von kritischer Selbstbegrenzung. Stattdessen eine Ganzhingabe unter Inkaufnahme von Tot auf allen Seiten.
21. Abschließend stellt Graf fest, dass wir eigentlich nicht wissen, wie sich solcherart brutalisierte Frömmigkeit zivilisieren lässt.

DIE WAHRHEITSFRAGE BLEIBT NIEMANDEM ERSPART

22. Im Kontext der vorausgehenden Überlegungen legt sich die Frage nahe, inwieweit das neue gesellschaftliche Erstarken von religiösen Bewegungen neben großen sozialen und politischen Spannungen von vielen Regionen unserer Erde nicht auch damit zu tun hat, dass man im Kontext von Religionen (wie Graf auch deutlich feststellt) die ‚Wahrheitsfrage‘ anscheinend ‚tabuisiert‘. Wenn jemand kritische Fragen an eine konkrete Religiosität stellt, wird dies von den religiösen Vertretern überwiegend als Kritik an ‚Gott selbst‘ gedeutet anstatt als Kritik an der Art und Weise, wie bestimmte Menschen mit der Gottesfrage umgehen. Während Aufklärung, moderne Wissenschaft und moderne Demokratien die Möglichkeit eröffnet haben, die Frage nach Gott in ungeahnt neuer Weise, tiefer weitreichender, allgemeiner als je zuvor zu stellen, fürchten die traditionellen Formen von Religion offensichtlich um ihren Einfluss, um ihre Macht und wiegeln jegliche Form von kritischer Reflexion auf die Voraussetzungen von Glauben und Religion einfach ab. Obgleich ‚wahres Denken‘ eine der lautersten Weisen der Annäherung an ‚Gott‘ sein kann, wird ‚wahres Denken‘ im Umfeld von Religionen (ohne Ausnahme!) verbannt, unterbunden, verteufelt. Die europäischen Nationen müssen sich angesichts von islamischen Terrorgruppen zwar an die eigene Nase fassen mit Blick auf die kolonialistischen Greueltaten und konfessionellen Kriegen der Vergangenheit, aber heute, nachdem man mühsam gelernt hat, dass Wahrheit, Gerechtigkeit, Menschlichkeit, Gesellschaft, Gottesglauben auch ganz anders aussehen kann und mit Blick auf eine nachhaltige Zukunft auch ganz anders aussehen muss, heute müssen die aufgeklärten Gesellschaften ihre einseitig zu Materialismus verkümmerte Aufklärung wieder neu beleben, ansonsten werden sie an ihrer eigenen Lüge zugrunde gehen. Jeder Augenblick ist eine Herausforderung für eine mögliche Zukunft; so oder so. Leben ist genau dieses: das ‚Gleichgewicht‘ immer wieder neu herstellen und auf immer höheren ‚Wahrheitsniveaus‘ neu finden; es kann keine dauerhafte Einfachheit geben. Genau das ist die schlimmste Form des Unglaubens.

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

DONALD A.NORMAN, THINGS THAT MAKE US SMART – Teil 6

Diesem Beitrag ging voraus Teil 5.

BISHER
(ohne kritische Anmerkungen)

In den vorausgehenden Teilen wurden bislang zwei Aspekte sichtbar: einmal die ‚Menschenvergessenheit‘ in der Entwicklung und Nutzung von Technologie sowie die Einbeziehung von ‚wissensunterstützenden Dingen‘ sowohl außerhalb des Körpers (physisch) wie auch im Denken selber (kognitiv). Ferner hatte Norman die Vielfalt des Denkens auf zwei ‚Arbeitsweisen‘ reduziert: die ‚erfahrungsorientierte‘ Vorgehensweise, ohne explizite Reflexion (die aber über ‚Training‘ implizit in die Erfahrung eingegangen sein kann), und die ‚reflektierende‘ Vorgehensweise. Er unterschied ferner grob zwischen dem Sammeln (‚accretion‘) von Fakten, einer ‚Abstimmung‘ (‚tuning‘) der verschiedenen Parameter für ein reibungsloses Laufen, Schreiben, Sprechen, usw., und einer Restrukturierung (‚restructuring‘) vorhandener begrifflicher Konzepte. Ferner sieht er in der ‚Motivation‘ einen wichtigen Faktor. Diese Faktoren können ergänzt werden um Artefakte, die Denkprozesse unterstützen. In diesem Zusammenhang führt Norman die Begriffe ‚Repräsentation‘ und ‚Abstraktion‘ ein, ergänzt um ‚Symbol‘ (nicht sauber unterschieden von ‚Zeichen‘) und ‚Interpreter‘. Mit Hilfe von Abstraktionen und Symbolen können Repräsentationen von Objekten realisiert werden, die eine deutliche Verstärkung der kognitiven Fähigkeiten darstellen. Allerdings, und dies ist ein oft übersehener Umstand, durch die Benutzung eines Artefaktes werden nicht die kognitiven Eigenschaften des Benutzers als solchen geändert, sondern – bestenfalls – sein Zugang zum Problem. Wenn in einem solchen Fall zwischen den wahrnehmbaren Eigenschaften eines Artefakts und den korrelierenden ‚Zuständen‘ des Problems ein Zusammenhang nur schwer bis gar nicht erkennbar werden kann, dann führt dies zu Unklarheiten, Belastungen und Fehlern. Norman wiederholt dann die Feststellung, dass die Art wie das menschliche Gehirn ‚denkt‘ und wie Computer oder die mathematische Logik Probleme behandeln, grundlegend verschieden ist. Im Prinzip sind es drei Bereiche, in denen sich das Besondere des Menschen zeigt: (i) der hochkomplexe Körper, (ii) das hochkomplexe Gehirn im Körper, (iii) die Interaktions- und Kooperationsmöglichkeiten, die soziale Strukturen, Kultur und Technologie ermöglichen. Die Komplexität des Gehirns ist so groß, dass im gesamten bekannten Universum nichts Vergleichbares existiert. Mit Bezugnahme auf Mervin Donald (1991) macht Norman darauf aufmerksam dass die auffälligen Eigenschaften des Menschen auch einen entsprechenden evolutionären Entwicklungsprozess voraussetzen, innerhalb dessen sich die heutigen Eigenschaften schrittweise herausgebildet haben. Nach kurzen Bemerkungen zur Leistungsfähigkeit des Menschen schon mit wenig partiellen Informationen aufgrund seines Gedächtnisses Zusammenhänge erkennen zu können, was zugleich ein großes Fehlerrisiko birgt, Norman dann den Fokus auf die erstaunliche Fähigkeit des Menschen, mit großer Leichtigkeit komplexe Geschichten (’stories‘) erzeugen, erinnern, und verstehen zu können. Er erwähnt auch typische Fehler, die Menschen aufgrund ihrer kognitiven Struktur machen: Flüchtigkeitsfehler (’slips‘) und richtige Fehler (‚mistakes‘). Fehler erhöhen sich, wenn man nicht berücksichtigt, dass Menschen sich eher keine Details merken, sondern ‚wesentliche Sachverhalte‘ (’substance and meaning‘); wir können uns in der Regel nur auf eine einzige Sache konzentrieren, und hier nicht so sehr ‚kontinuierlich‘ sondern punktuell mit Blick auf stattfindende ‚Änderungen‘. Dementsprechend merken wir uns eher ‚Neuheiten‘ und weniger Wiederholungen von Bekanntem.(vgl. S.131) Ein anderes typisches Fehlerverhalten ist die Fixierung auf eine bestimmte Hypothese.

VERTEILTES WISSEN IN GETEILTEN SITUATIONEN

1) Am Beispiel von Flugzeugcockpits (Boeing vs. Airbus) und Leitständen großer technischer Anlagen illustriert Norman, wie eine durch die gemeinsam geteilte Situation gestützte Kommunikation alle Mitglieder eines Teams auf indirekte Verweise miteinander verbindet, sie kommunizieren und verstehen lässt. Ohne dass ausdrücklich etwas erklärt werden muss erlebt jeder durch die gemeinsame Situation Vorgänge, Vorgehensweisen, Zustände, kann so indirekt lernen und man kann sich indirekt wechselseitig kontrollieren. Im Allgemeinen sind diese indirekten Formen verteilten Wissens wenig erforscht. (vgl. SS.139-146)
2) Eine solche verteilte Intelligenz in einer realen Situation unter Benutzung realer Objekte hat einen wesentlichen Vorteil gegenüber einer rein simulierten Welt: die Benutzung realer Objekte ist eindeutig, auch wenn die begleitende Kommunikation vieldeutig sein mag.(vgl. S.146 -148)
3) In einer simulierten Situation muss man die impliziten Gesetze der realen Welt explizit programmieren. Das ist nicht nur sehr aufwendig, sondern entsprechend fehleranfällig. Eine Kommunikation wird vieldeutiger und damit schwieriger. (vgl. SS.148-151)

ZU VIEL DETAILS

4) Norman greift dann nochmals das Thema des unangemessenen, falschen Wissens auf mit Blick auf die Art und Weise, wie das menschliche Gedächtnis funktioniert. Am Beispiel der mündlichen Überlieferung die strukturell, typologisch vorging verweist er auf die heutige ‚Überlieferung‘ in Form von immer detaillierteren Texten, immer mehr technisch bedingten Details, die eigentlich unserer menschlichen Art des Erinnerns widersprechen. (vgl. SS.151-153)

ORGANISATION VON WISSEN

5) Auf den SS.155-184 diskutiert Norman anhand von Beispielen das Problem, wie man Wissen so anordnen sollte, dass man dann, wenn man etwas Bestimmtes braucht, dieses auch findet. Es ist ein Wechselspiel zwischen den Anforderungen einer Aufgabe, der Struktur des menschlichen Gedächtnisses sowie der Struktur der Ablage von Wissen.

DIE ZUKUNFT VORAUSSAGEN

6) Das folgende Kapitel (SS.185-219) steht unter der Hauptüberschrift, die Zukunft voraus zu sagen; tatsächlich enthält es auch eine ganze Reihe von anderen Themen, die sich nur sehr lose dem Thema zuordnen lassen.
7) Nach Norman ist es generell schwer bis unmöglich, die Zukunft vorauszusagen; zu viele Optionen stehen zur Verfügung. Andererseits brauchen wir Abschätzungen wahrscheinlicher Szenarien. (vgl. S.185f)
8) Als Begründung für seine skeptische These wählt er vier Beispiele aus der Vergangenheit (Privater Hubschrauber, Atomenergie, Computer, Telephon), anhand deren er das Versagen einer treffenden Prognose illustriert.(vgl.186-192) Der größte Schwachpunkt in allen Voraussagen betrifft den Bereich der sozialen Konsequenzen. Hier liegt überwiegend ein Totalversagen vor. Und er bemerkt, dass man den Ingenieuren zwar nicht vorwerfen kann, dass sie sich mit sozialen Folgen nicht auskennen, aber dass sie ihr Nichtwissen in diesem Bereich nicht ernst nehmen.(vgl. S.186).
9) Der andere Aspekt ist die Umsetzungsdauer von einer Idee bis zu einer verbreiteten alltäglichen Nutzung. Anhand von Beispielen (Fernsehen, Flugzeug, Fax) zeigt er auf, dass es zwischen 40 – 140 Jahren dauern konnte. denn neben der Idee selbst und einem arbeitsfähigen Prototypen muss ja der bestehende Alltag unterschiedlich weit ‚umgebaut‘ werden, evtl. müssen alte bestehende Strukturen (verbunden mit starken Interessen) durch neue ersetzt werden.(vgl. S.192-195)
10) [Anmerkung: Wir erleben z.B. seit den 60iger Jahren des 20.Jahrhunderts die Diskussion zur Frage erneuerbarer Energien, der eine bestehende Struktur von ölbasierten Technologien, Atomkraft, Kohle und Gas entgegen stehen, jeweils verbunden mit sehr starken ökonomischen und politischen Interessen.]
11) Er macht dann selber einige Voraussagen (Verfügbarkeit von digitaler Information, von hohen Bandbreiten, von noch mächtigeren immer kleineren Computern, von 3D-Ansichten unter Einbeziehung der eigenen Position, von elektronischen Publikationen, von mehr computergestütztem Lernen, noch raffiniertere Unterhaltung, von Videogesprächen im privaten Bereich, von mehr kollaborativen Arbeitsplätzen).(vgl. SS.195-201)
12) [Anmerkung: 20 Jahre später kann man sagen, dass alle diese Voraussagen entweder voll umgesetzt wurden oder wir dabei sind, sie umzusetzen.]
13) Norman spielt dann die möglichen sozialen Folgen von diesen neuen Technologien anhand von sehr vielen konkreten Beispielen durch. Ein Trend ist der zunehmende Ersatz des Menschen im Handeln durch künstliche Charaktere, was schließlich dazu führen kann, dass in der Öffentlichkeit dann nur noch die Software handelt, während die ‚realen‘ Menschen mehr und mehr aus der Öffentlichkeit verschwinden. (vgl. SS. 201-210)
14) [Anmerkung: Diese Art von Auswüchsen, wie sie Norman plastisch schildert, werden in immer mehr Science-Fiction Filmen thematisiert. Ein Beispiel war die 10-teilige Folge ‚Real Humans – Echte Menschen‘, eine schwedische Produktion, die von arte im Frühjahr 2013 gezeigt wurde. Darin wurde die Existenz von menschenähnlichen Robotern im alltäglichen Leben sehr konkret durchgespielt. Ein sehr ähnliches Thema hatte auch der Film Surrogates (2009), wenn auch mit einer anderen Rahmengeschichte. Es gibt hierzu zahllose weitere Beispiele.]

NEUROINTERFACE

15) Norman greift auch das Thema ‚Neurointerface‘ auf, eine direkte Verbindung des menschlichen Nervensystems mit einem Computer. (vgl. SS.210-214)

KOLLABORATIVE SOFTWARE

16) Natürlich wird die neue Technologie auch Auswirkungen für die Arbeit von sozialen Gruppen haben. Hier sieht er aber besonders viele Schwierigkeiten, da das Arbeiten in einer Gruppe besonders komplex ist und sensitiv für viele Faktoren. (vgl. SS. 214-217)

TRÄUMEN MACHT MEHR SPASS ALS REALE NUTZUNG

17) Abschließend bemerkt Norman noch, das der Hype um neue Technologien sich häufig an den visionären Szenarien entzündet; wenn es zur tatsächlichen Nutzung kommt, flaut dieser Hype sehr schnell wieder ab. (vgl. SS.217-219)
18) [Anmerkung: Die Themen zersplittern zunehmend. Dennoch stellen Sie allesamt wertvolle Erfahrungen und Einsichten dar. s wird Aufgabe der Schlussreflexion sein, die Vielfalt dieser Aspekte auszuwerten und für eine Gesamttheorie nutzbar zu machen.]

Fortsetzung folgt im Teil Teil 7

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

DONALD A.NORMAN, THINGS THAT MAKE US SMART – Teil 2

Letzte Änderung:21.Mai 2013

Diesem Beitrag ging voraus Teil 1.

1) Im Teil 1 hatte ich bislang nur auf den Aspekt abgehoben, dass Norman auf die ‚Menschenvergessenheit‘ im Design und Gebrauch von Technologie aufmerksam macht mit der anschließenden Reflexion, dass seine mahnenden Worte 20 Jahre später ihre Aktualität leider noch nicht eingebüßt haben.

WISSENSUNTERSTÜTZENDE DINGE

2) Doch gibt es noch einen weiteren Aspekt in seinem Buch, mindestens genau so gewichtig, und das ist der Aspekt der ‚Verteiltheit von Wissen/ Erkennen‘. Der Aufhänger für diesen Aspekt von Wissen/ Erkennen sind all die vielen Dinge im Alltag, die letztlich unser ‚Wissen/ Erkennen‘ (‚cognition‘) irgendwie ‚unterstützen‘ (‚aiding the mind‘). Er nennt diese das-Wissen-unterstützende Dinge ‚kognitive Artefakte‘ (‚cognitive artefacts‘).(vgl. S.4).
3) Er meint damit aber nicht nur ‚physische‘ Dinge wie Notizbücher, in denen man sich etwas notiert, Monitore, über die man Daten lesen kann, Leuchtschriften, die einem etwas mitteilen, sondern sehr wohl auch solche ‚gedankliche‘ Hilfsmittel wie Mathematik, Logik und Sprache. Auch diese gedanklichen Hilfsmittel haben Menschen ‚erfunden‘ und nutzen sie, um ihr Wissen zu organisieren. Also sowohl physische wie auch gedankliche Mittel gibt es, die der Mensch erfunden hat, um ihm in seinem ‚Wissen‘ zu unterstützen. Physische wie gedankliche Hilfsmittel sind ‚künstlich‘ – im Sinne von ‚erfunden‘ und speziell ‚zubereitet‘, ‚konstruiert‘ – und Norman fasst sie unter dem Begriff ‚Artefakte’/ ‚Werkzeuge‘ zusammen, die in ihrer Gesamtheit eine ‚Technologie der Artefakte‘ repräsentieren.(vgl. S.4f)
4) Ein wichtiger Aspekt in dieser ‚Technologie der wissensunterstützenden Werkzeuge‘ ist, dass sie ’nicht geplant‘ waren, sondern sich ‚ergeben‘ haben; irgendwann hat jemand ‚entdeckt‘, dass es eine weitere ‚Möglichkeit‘ gibt, etwas ‚anders‘ zu tun als ‚bisher‘. (vgl. S.7)
5) [Anmerkung: An diesem Punkt sehe ich eine Querbeziehung zu Kauffmans ‚autokatalytischen‘ Modellen (siehe vorausgehende Blogeinträge). Diese modellieren den Aspekt, dass in einer gegebenen Situation einerseits nicht alles möglich ist, da der aktuelle Zustand durch sein Gegebensein vieles ausschließt, andererseits bietet er in seiner Konkretheit eine definierte Menge von Möglichkeiten, aus denen man konkrete Werte auswählen kann. Es liegt aber nicht fest, welche dies sind. Also, einerseits gibt es ein IST, das als ‚Tradition‘ fungiert, das bestimmte ‚Tendenzen‘ ’nahelegt‘, andererseits gibt es einen MÖGLICHKEITSRAUM, der groß genug ist, so dass nicht klar ist, ob und wann eine bestimmte Konstellation ausgewählt werden wird oder nicht. Von daher kann es hunderte, tausende, zehntausende Jahre dauern, bis bestimmte Erfindungen gemacht wurden. Und am ‚Anfang‘, als noch wenig erfunden war, war es am ’schwersten‘, d.h. es dauert besonders lang, bis etwas ‚Interessantes‘ erfunden wurde, da es wenig ‚Hinweise‘ aus der Gegenwart in eine ‚bestimmte Art von Zukunft‘ gab.]
6) Jedes neu erfundenes wissensunterstützendes Werkzeug erhöht die Wissensmöglichkeiten einer Population, und schafft damit einen kleinen Ausgleich zu den ‚Grenzen des menschlichen Wissens‘. Dabei ist jedes solches wissensunterstützendes Werkzeug ambivalent: es schafft neue Möglichkeiten, aber damit auch neue Abhängigkeiten; das Benutzen eines wissensunterstützenden Werkzeugs wird zu einem ‚Teil‘ des aktiven Wissens; ohne dieses ‚Teil‘ gibt es diese Form von wissen nicht; je mehr Menschen es benutzen, verändert es die Art und Weise, wie alle Wissen aktiv leben.(vgl.S.8)
7) [Anmerkung: im Jahr 2013 ist für sehr viele Menschen der Computer, das Smartphone mit dem zugehörigen Netzwerk zu einer Art ‚Dauerbegleiter‘ geworden; ein Arbeiten ohne diese ist für die meisten praktisch nicht mehr möglich. …]

AUTOMATION und REFLEXION

8) Norman führt dann eine Unterscheidung ein im Bereich des aktiven Erkennens bzw. des aktiven Wissens (wobei er im Englischen das Wort ‚cognition‘ benutzt): er spricht von einem ‚Erfahrungsmodus‘ (‚experiential mode‘) und einem ‚Reflexionsmodus‘ (‚reflective mode‘) des Erkennens. Dabei wird der Erfahrungsmodus letztlich definiert über die Abwesenheit von Reflexion: wir nehmen wahr und verstehen und reagieren unmittelbar, ohne Anstrengung, direkt. Während im Reflexionsmodus des Erkennens ein explizites Nachdenken stattfindet, explizit Begriffe benutzt werden, explizite Entscheidungen gefällt werden. Beide Modi hält er für wichtig wenngleich sie ganz unterschiedliche Hilfsmittel verlangen.(vgl. S.15f)
9) [Anmerkung: so intuitiv diese beiden Begriffe ‚Erfahrungsmodus’/ ‚Reflexionsmodus‘ im ersten Moment klingen mögen, bei genauerem Hinsehen und beim Durchführen von Experimenten wird man schnell feststellen, dass diese beiden Begriffe sehr vage und schwer entscheidbar sind. Die Wirklichkeit des Erkennens ist im Vollzug viel komplexer. Für die weiteren Betrachtungen zu den wissensunterstützenden Werkzeugen spielt es keine so zentrale Rolle; erst dann, wenn man die Bedeutung und Wirkungsweise der wissensunterstützenden Werkzeugen genauer gewichten wollte. Und tatsächlich, Norman bemerkt diese Unzulänglichkeit:]
10) Er stellt dann selbst fest, dass die Reduktion menschlichen Erkennens auf nur zwei Aspekte gefährlich sei, da menschliches Erkennen eine multidimensionale Angelegenheit sei. Er behält diese Vereinfachung aber dennoch bei, da er meint, dadurch bestimmte Dinge besser verdeutlichen zu können. Außerdem treten beide Modi nicht notwendigerweise isoliert auf, sondern auch ‚gemischt‘ oder wechseln sich ab.(vgl. S.16) In vielen Fällen wird ein erfahrenes Verhalten verlangt, in dem die betroffenen Personen nicht ständig erst nachdenken müssen, sondern in denen sie sofort, spontan wissen müssen, was zu tun ist. Andererseits sind diese Arbeitsweisen gefährlich, weil dann der (falsche) Eindruck entstehen kann, Wissen bestände aus Handlungen.(vgl. S.17)
11) [Anmerkung 1: 20 Jahre nach dem Erscheinen von Normans Buch gibt es viele hundert verschiedene interaktive Computerspiele mit z.T. Millionen von ‚Fans‘, die spielen. Die Interaktivität dieser Spiele garantiert aber keinesfalls, dass die Benutzer der Spiele ‚echtes Wissen‘ erwerben, da die Inhalte weitgehend ‚Fantasiewelten‘ repräsentieren. Allerdings eröffnet das Spielen in großen Gruppen spezifische Erfahrungen, ob und wie man zusammen mit anderen im Team gemeinsam Aufgaben lösen kann.]
11) [Anmerkung2: Wir wissen, dass ein scheinbar schwereloses spontanes Verhalten (Lesen, Schreiben, Sprechen, Autofahren, ein Instrument Spielen, Turnen, Tanzen, Programmieren, …) in der Regel ein sehr langes, mühevolles Training voraussetzt, in dem viele kleine Schritte bewusst ‚geübt‘ werden müssen, bis sie dann irgendwann scheinbar ‚von selbst‘ ablaufen. Ein solches Trainieren ist ein komplexes Geschehen.]
12) Am Beispiel eines Museumsbesuches macht er darauf aufmerksam, dass der Erfahrungsmodus alleine, in dem man Dinge spontan wahrnimmt, keine neue ‚Erkenntnisse‘ garantiert. Noch so attraktive Exponate als solche erzeugen zwar eine gewisse ‚Anziehung‘, beanspruchen die ‚Aufmerksamkeit‘, sie führen aber nicht notwendigerweise zu ‚Erkenntnissen‘. Dem gegenüber verweist er auf die Arcade Videospiele; in diesen gibt es einen ‚Aufmerksamkeitsmodus‘ , in dem man zunächst etwas spontan erleben kann (Erfahrungsmodus), und dann gibt es einen ‚Interaktionsmodus‘, durch den man mit dem Erfahrenen bewusst interagieren kann; auf diese Weise kann man dann zu expliziten neuen Erkenntnissen gelangen (Reflexionsmodus).(vgl. SS.19-22)
13) Der Vorteil eines eingeübten Erfahrungsmodus ist seine Schnelligkeit und die scheinbare Mühelosigkeit. Allerdings findet im Erfahrungsmodus tendenziell keine Reflexion statt. Die Dinge ändern sich nicht mehr, sie stehen fest. Wer im Erfahrungsmodus verweilt – Norman zählt dazu auch das Fernsehen – der ist zwar sensorisch und erlebnismäßig in eine ‚Realiät‘ eingehüllt‘, aber diese kann unzulänglich oder falsch sein. Eine kritische Bewertung würde den Übergang in den ‚Reflexionsmodus‘ voraussetzen, der hinterfragt, vergleicht, Schlüsse zieht. Der Reflexionsmodus ist viel langsamer, kann aber beliebig an jeder Stelle vertiefen. Und hier sieht Norman auch die größte potentielle Gefahr: die immer mehr um sich greifende reine ‚Unterhaltung‘ über Massenmedien können einen Dauerzustand des sich ‚denkfreien Hingebens‘ an eine Realität begünstigen, die notwendiges kritisches Verstehen ausschaltet. (vgl. SS.22-28)
14) [Anmerkung: im Kalten Krieg war die ‚Gehirnwäsche‘ als Foltermethode und ‚Umprogrammierung‘ eines Menschen berühmt berüchtigt. Wenn über viele TV-Kanäle heute mehr und mehr nur noch quasi Fantasy-Serien oder manipulierte Alltagsserien laufen und Menschen nachgewiesenermaßen diese mehrere Stunden am Tage sehen, dann führt dies unweigerlich zu einer ‚Umprogrammierung‘ ihres Wissens, dem sie sich – auch wenn sie wollten – nicht mehr entziehen können. Das ist nichts anderes als eine gesellschaftlich erlaubte Form von Gehirnwäsche, die hier nicht stattfindet,weil die Fernsehsender primär irgendwie auch politisch ‚indoktrinieren‘ wollen (wenngleich es Sender gibt, die Personen gehören, die ganz klare politische Ziele verfolgen), sondern weil sie schlicht und einfach Geld verdienen wollen: alles, was Menschen dazu bringt, sich vor den Fernsehsender zu setzen, nicht mehr abzuschalten, das wird gemacht. ]

Zur Fortsetzung siehe Teil 3

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.