Archiv der Kategorie: Voraussagen

Wetter & Klima. Anmerkung

(28.Juli 2023 – 9.August 2023)

Gerd Doeben-Henisch

KONTEXT

In der heutigen Alltagsdiskussion werden die Begriffe ‚Klima‘ und ‚Wetter‘ oft auf eine Weise gebraucht, welche die wahre Bedeutung dieser Begriffe ‚verwischt‘, was zu vielen ‚Fehldeutungen‘ führt.

WETTER & KLIMA

Wetter

In einer knappen Formulierung kann man in der deutschen Wikipedia zum Stichwort ‚Wetter‘ folgende Sätze lesen:

Zitat: „Das Wetter charakterisiert den Zustand der Atmosphäre an einem bestimmten Ort und zu einem bestimmten Zeitpunkt. Kennzeichnend sind die meteorologischen Elemente Strahlung, Luftdruck, Lufttemperatur, Luftfeuchtigkeit und Wind, sowie die daraus ableitbaren Elemente Bewölkung, Niederschlag, Sichtweite etc. Das Wetter ist das augenblickliche Bild eines Vorganges (Wettergeschehen), das sich hauptsächlich in der Troposphäre abspielt. Es kann sich – im Gegensatz zur Wetterlage und Witterung – mehrmals täglich ändern.“[2]

Meteorologische Technische Begriffe (Parameter)

Das, was in diesem Zitat ‚Elemente‘ genannt wird (‚Strahlung, Luftdruck, Lufttemperatur‚), das sind ‚technische Begriffe‘ (‚Parameter‘), denen in der Wissenschaft der Meteorologie ‚bestimmte Bedeutungen‘ zukommen. Diese Bedeutungen sind so definiert, dass man ihnen im Einzelfall durch einen ‚Messvorgang‘ quantitative Größen in Verbindung mit einer bestimmten ‚Messeinheit‘ zuordnen kann (z.B. kann ich mit meinem Handy am 28.Juli 2023 um 17:50h in meiner Wohnung im Zusammenhang mit dem Begriff ‚Luftdruck‘ den Wert ‚996,762 hPa‘ messen). Solche isolierte Messwerte haben ‚für sich‘ genommen, nur eine eingeschränkte Bedeutung. Erst dann, wenn man viele verschiedene Messwerte zu einem bestimmten Zeitpunkt in einem bestimmten Raumgebiet gleichzeitig zur Verfügung hat, und man zusätzlich durch viel Probieren herausgefunden hat, welche ‚Menge von gleichzeitigen Messwerten‘ (Muster, Patter, charakteristische Mengen) von ‚mehreren verschiedenen meteorologischen Begriffen (Parametern)‘ ein bestimmtes alltägliches ‚Wetterphänomen‘ ‚repräsentieren‘ (z.B. ‚Regenbogen‘, ‚Kumuluswolke‘, ‚Nebel‘,…), dann kann man beim Vorliegen solcher ’spezifischer Mengen von Messwerten‘ feststellen, dass das dazu vereinbarte ‚Makro-Wetter-Phänomen‘ vorliegt oder umgekehrt, man kann vom Auftreten eines solchen Makro-Wetter-Phänomens darauf schließen, dass deswegen auch eine ’spezifische Menge von Messwerten‘ vorliegen muss.

Meteorologische Voraussagen mit Modellen

Im Alltag wissen wir, dass sich viele Eigenschaften ändern können, insbesondere jene Phänomene, die wir mit dem Wetter in Zusammenhang bringen (z.B. die Lufttemperatur, der Luftdruck, die Luftfeuchtigkeit, die Windrichtung, …). Es genügt also nicht, nur einzelne Zeitpunkte zu betrachten, sondern viele Zeitpunkte. Aus solchen Zeitreihen kann man dann Ansatzpunkte finden, ob und wie man diese Art der ‚Veränderungen in der Zeit‘ auf einer ‚theoretischen Ebene‘ beschreiben kann. Solche ‚Veränderungsregeln‘ für einen bestimmten meteorologischen Parameter werden in der Regel auch nicht isoliert betrachtet, sondern im ‚Zusammenspiel‘ mit vielen anderen Veränderungsregeln. Dies alles zusammen (meteorologische Parameter, Veränderungsregeln, Verbund von Veränderungsregeln) nennt man normalerweise ein ‚Modell‘ oder — im maximalen Fall — eine ‚Theorie‘.

Die wichtigste Eigenschaft einer Theorie besteht darin, dass man bezogen auf eine gegebene aktuelle Situation samt einer Menge von möglichen Veränderungen unter Berücksichtigung spezifischer Abhängigkeiten untereinander eine ‚Folgerung‘ generieren kann (auch ‚Prognose‘ genannt). Solche Folgerungen kann man als ‚Voraussagen‘ dafür benutzen, welche spezifischen Wetterphänomene in einer kommenden Zeitspanne in einem bestimmten Bereich mit einer gewissen Wahrscheinlichkeit eintreten können. Da das ‚Folgern im Rahmen einer Theorie‘ bislang sehr mühsam ist, verwendet man heute meistens vereinfachte ‚Modelle‘ (realisiert als ‚Algorithmen‘), die man auf einem Computer ausführen lassen kann, so dass die Berechnung von möglichen ‚Folgezuständen‘ eines Modells beliebig oft wiederholt werden kann. So nützlich solche Modelle sind, sie haben aber den großen Nachteil, dass sie als Modell niemals ‚wahr‘ oder ‚falsch‘ sein können. Ein Simulationswert von 2 mm/m2 Niederschlag morgen um 14:00h kann man allerdings empirisch überprüfen.

Klima

Im Vergleich zum Wetter wird mit dem Begriff ‚Klima‘ versucht, ‚typische Muster‘ von meteorologischen Parameter über einen definierten Zeitraum als definierte Muster zu vereinbaren. Im Artikel ‚Klima‘ der deutschen Wikipedia findet sich folgenden kurze Charakterisierung:

Zitat: „Klima im engeren Sinne ist normalerweise definiert als das durchschnittliche Wetter, oder genauer als die statistische Beschreibung in Form von Durchschnitt und Variabilität relevanter Größen über eine Zeitspanne im Bereich von Monaten bis zu Tausenden oder Millionen von Jahren. Der klassische Zeitraum zur Mittelung dieser Variablen sind 30 Jahre, wie von der Weltorganisation für Meteorologie definiert. Die relevanten Größen sind zumeist Oberflächenvariablen wie Temperatur, Niederschlag und Wind. Klima im weiteren Sinne ist der Zustand, einschließlich einer statistischen Beschreibung, des Klimasystems.“ [1]

Also unter der Voraussetzung, dass sich ein bestimmtes Bündel von meteorologischen Parametern über einen definierten Zeitraum (standardmäßig mindestens 30 Jahre) ’nicht wesentlich‘ ändert, kann ein Meteorologe von dem Klima-Muster X sprechen, das dann und dort vorherrscht.

Angesichts der Komplexität und der Dynamik der Wetterphänomene auf dem Planeten Erde ist es generell nicht einfach, überhaupt von einem ‚Klima dann und dort‘ zu sprechen. Auch ist es nicht ganz einfach, bei Klimaänderungen immer all jene Parameter zu identifizieren, die möglicherweise eine Rolle spielen, um eine Änderung zu verursachen.

Welche Klimaphänomene man auch betrachten will, die Basis für eine ‚Rede über Klimaphänomene‘ sind die grundlegenden meteorologischen Parameter, die die primären Messwerte darstellen, und dann die unterschiedlichen meteorologischen Modelle, die versuchen, das Zusammenspiel dieser Parameter in der Zeit so zu ‚deuten‘, dass Voraussagen möglich sind. Die Genauigkeit der Voraussagen, mit der heutige Wetter- bzw. Klimamodelle täglich und stündlich benutzt werden, ist — angesichts der Komplexität — sehr bemerkenswert, geradezu beeindruckend.

ANMERKUNGEN

[1] Eine gängige Beschreibung von ‚Klima‘ findet man in der deutschen Wikipedia hier: https://de.wikipedia.org/wiki/Klima.

[2] Eine gängige Beschreibung von ‚Wetter‘ findet sich ebenfalls in der deutschen Wikipedia hier: https://de.wikipedia.org/wiki/Wetter (ähnlich in der englischen Wikipedia als ‚weather‘ hier: https://en.wikipedia.org/wiki/Weather )

[3] Eine weit über Wikipedia hinausgehende Darstellung des Themas findet sich zusammen mit umfassenden Datenreihen beim ‚Deutschen Wetterdienst (DWD)‘ unter https://www.dwd.de/DE/Home/home_node.html;jsessionid=4B3BB17BBF13B6F9A970F3C27A01BAB7.live11041. Unter den vielen Angeboten ist auch das Wetter und -Klima Lexikon sehr hilfreich unter https://www.dwd.de/DE/service/lexikon/lexikon_node.html

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

Das Ende der Evolution, von Matthias Glaubrecht,2021 (2019). Lesenotizen – Teil 2

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 17.September 2022 – 29. September 2022, 07:16h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (cagent@cognitiveagent.org)

Kontext

Diesem Text geht ein erster Teil voraus.[1]

Die Zukunft hat viele Gesichter

Nach dem spektakulären Foto 1968 während der Apollo-8 Mission von der Erde als ‚blue marble‘ (auch als ‚blue button‘ bezeichnet), entstand 1990 ein nicht weniger spektakuläres Foto von der Erde während der Voyager Mission aus einer Entfernung von 6 Milliarden km genannt ‚pale blue button‘. 30 Jahre später wurden die Bilddaten neu überarbeitet: https://www.jpl.nasa.gov/images/pia23645-pale-blue-dot-revisited . Das Bild hier im Blog-Text zeigt einen Ausschnitt davon.

Nach mehr als 800 Seiten prall gefüllt mit Gedanken, Informationen, Fakten, eingebettet in Analysen komplexer Prozesse, unternimmt Glaubrecht das Wagnis, einen Blick in die Zukunft zu wagen. ‚Wagnis‘ deswegen, weil solch ein ‚Blick in die Zukunft‘ nach Glaubrechts eigener Überzeugung „nicht die Sache der Wissenschaft“ sei.(S.864 unten).

Die hier möglichen und notwendigen wissenschaftsphilosophischen Fragen sollen aber für einen Moment hintenan gestellt werden. Zunächst soll geschildert werden, welches Bild einer möglichen Lösung angesichts des nahenden Unheils Glaubrecht ab S.881 skizziert.

Umrisse einer möglichen Lösung für 2062

In seiner Lösungsvision kommen viele der großen Themen vor, die er zuvor im Zusammenhang des nahenden Unheils thematisiert hat: „Biodiversität“ (881), „Lebensstil“ (883), „Überbevölkerung“ (884), „Bildung“, speziell für Frauen (885), das „Knappheits-Narrativ“ (885), ökologische Landbewirtschaftung und „tropische Wälder“ (vgl. 886), nochmals „Biodiversität“ (887), große zusammenhängende Schutzgebiete, „working lands“ sowie neue Rechte für die Natur (vgl. 888-891), „Konsumverhalten“ und „neues Wirtschaften“ (892), „Bildungsreform“, „ökosystemares Denken“ (893), „Ungleichheit weltweit“ und neue „Definition von Wachstum“ (894).

Pale Blue Planet

Auf den SS. 900 – 907 hebt Glaubrecht dann nochmals hervor, dass biologische Evolution kein eindeutig prognostizierbarer Vorgang ist. Dass sich auf der Erde biologisches Leben entwickelt hat heißt keinesfalls, dass dies sich auf einem anderen Planeten mit ähnlichen Voraussetzungen einfach wiederholen würde. Weiterhin gibt er zu bedenken, dass die Suche nach einem alternativen Planeten zur Erde bislang kaum fassbare Ergebnisse gebracht hat. Von den 0.5% möglichen Kandidaten mit habitablen Zonen von 3640 bekannten Exoplaneten im April 2017 zeigte bislang keiner hinreichende Eigenschaften für biologisches Leben. Von diesen ’nicht-wirklich Kandidaten‘ befindet sich der nächst gelegene Kandidat 4 Lichtjahre entfernt. Mit heutiger Technologie bräuchte man nach Schätzungen zwischen 6.000 bis 30.000 Jahren Reisezeit.

Vor diesem Hintergrund wirkt insbesondere die Suche nach einer „anderen Intelligenz“ fast bizarr: ist schon die biologische Evolution selbst ungewöhnlich, so deutet die ‚Entwicklungszeit‘ des Menschen mit ca. 3.5 Milliarden Jahren an, dass es extrem unwahrscheinlich ist, dass es irgendwo anders etwas „wirklich Vergleichbares … zum Menschen“ geben kann.(vgl. S.905)

Visionen und ihre Bedingungen

Dass Glaubrecht nach seinen umfassenden und sehr beeindruckenden Analysen Zukunftsszenarien schildern kann, darunter auch eine ‚positive‘ Variante für das Jahr 2062, zeigt zunächst einmal, dass es überhaupt geht. Das ‚Geschichten erzählen‘ ist eine Eigenschaft des Menschen, die sich mindestens bis in die Vorzeit der Erfindung von Schriften zurück verfolgen lässt. Und wenn wir unseren Alltag betrachten, dann ist dieser randvoll mit ‚Geschichten‘ über mögliche zukünftige Szenarien (Zeitungen, Fernsehen, Videos, in privaten Dialogen,Bücher, …). Zugleich haben wir gelernt, dass es ‚falsche‘ und ‚wahre‘ Geschichten geben kann. ‚Wahre‘ Geschichten über eine mögliche Zukunft ‚bewahrheiten‘ sich, indem die Zustände, von denen man ‚zuvor‘ gesprochen hatte, ‚tatsächlich‘ eintreten. Mit der Feststellung, dass eine Geschichten über eine mögliche Zukunft ‚falsch‘ sei, ist es schwieriger. Nur wenn man einen klaren ‚zukünftigen Zeitpunkt‘ angeben kann, dann kann man entscheiden, dass z.B. das Flugzeug oder der Zug zum prognostizierten Zeitpunkt ’nicht angekommen‘ ist.

Über Zukunft reden

Schon die Alltagsbeispiele zeigen, dass das Reden von einem ‚möglichen Zustand in der Zukunft‘ verschiedene Voraussetzungen erfüllen muss, damit dieses Sprachspiel funktioniert:

  1. Fähigkeit, zwischen einer ‚erinnerbaren Vergangenheit‘, einem ‚aktuellen Gedanken über einen möglichen zukünftigen Zustand‘, und einer ’neuen Gegenwart‘ unterscheiden zu können, so, dass entschieden werden kann, dass eine ’neue Gegenwart‘ mit dem zuvor gefassten ‚Gedanken über einen möglichen zukünftigen Zustand‘ hinreichend viele ‚Ähnlichkeiten‘ aufweist.
  2. Verschiedene Akteure müssen sowohl über Kenntnisse der ‚Ausdrücke‘ einer ‚gleichen Sprache‘ verfügen, und zugleich müssen sie über ‚hinreichend ähnliche Bedeutungen‘ in ihren Gehirnen verfügen, die sie ‚auf hinreichend ähnliche Weise‘ mit den benutzten Ausdrücken ‚verbinden‘.
  3. Für den Bereich der ‚bekannten Bedeutungen‘ im Gehirn muss die Fähigkeit verfügbar sein, diese in ’neuen Anordnungen‘ so zu denken, dass diese neuen Anordnungen als Bedeutungen für ein Reden über ‚mögliche neue Zustände verfügbar‘ sind. Menschen, die so etwas können, nennt man ‚kreativ‘, ‚fantasievoll‘, ‚innovativ‘.

Dieses sind allgemeine und für alle Menschen notwendige Voraussetzungen. Die Kulturgeschichte der Menschheit zeigt aber eindrücklich, dass das ‚Erzählen von möglicher Zukunft‘ bis zum Beginn der modernen empirischen Wissenschaften sich jede Freiheit genommen hate, die sprachlich möglich ist. Dies machte den Umgang mit ‚wahren Prognosen‘ zu einer Art Glücksspiel. Eine Situation, die speziell für jene , die ‚mehr Macht haben‘ sehr günstig war: sie konnten die ‚vage Zukunft‘ sehr freizügig immer zu ihren Gunsten auslegen; keiner konnte klar widersprechen.

Empirische Wissenschaften – Bessere Prognosen

Mit dem Aufkommen der neueren empirischen Wissenschaften (beginnend ab ca. dem 15.Jahrhundert) wendete sich das Blatt ein wenig, da das ‚Reden über einen möglichen zukünftigen Zustand‘ jetzt stärker ’normiert‘ wurde. Von heute aus betrachtet mag diese Normierung einigen (vielen?) vielleicht ‚zu eng‘ erscheinen, aber als ‚Start‘ in ein Phase von ‚Prognosen mit größerer Zuverlässigkeit‘ war diese Normierung faktisch ein großer kultureller Fortschritt. Diese neue ‚Normierung‘ umfasste folgende Elemente:

  1. Als ‚akzeptierte Fakten‘ wurden nur solche ’sprachlichen Ausdrücke‘ anerkannt, die sich mittels eines von jedem ‚wiederholbaren Experiments‘ (klar definierte Handlungsfolgen) auf ‚für alle Beteiligte beobachtbare Phänomene‘ beziehen lassen (z.B. die ‚Länge eines Gegenstandes mit einem vereinbarten Längenmaß‘ feststellen; das ‚Gewicht eines Gegenstandes mit einem vereinbarten Gewichtskörper‘ feststellen; usw.). Ausdrücke, die auf diese Weise gemeinsam benutzt werden, heißen gewöhnlich ‚Messwerte‘, die in ‚Tatsachenbehauptungen‘ eingebettet werden (z.B. ‚Die Tischkante dort ist 2 m lang‘, ‚Gestern bei höchstem Sonnenstand wog dieser Beutel 1.5 kg‘, usw.).
  2. Tatsachenbehauptungen waren von da ab leichter ‚klassifizierbar‘ im Sinne von ‚zutreffend (wahr)‘ oder ’nicht zutreffend (falsch)‘ als ohne diese Normierungen. Mit der Einführung solcher ’normierter Beobachtungen‘ wurden implizit auch ‚Zahlen‘ eingeführt, was zu dem führte, was man heute auch ‚Quantifizieren‘ nennt. Statt alltagssprachlicher Ausdrücke wie ‚lang‘, ‚groß‘, ’schwer‘ usw. zu benutzen, deren Bedeutung im Alltag immer nur ‚fallweise kontextualisiert‘ wird (eigentlich die große Stärke der normalen Sprache), wurde mit der Quantifizierung mittels Zahlen und vereinbarten ‚Standard Größen‘ (heute oft ‚Einheiten‘ genannt) die gewohnte Vagheit der Normalsprache durch eine neue, ungewohnte Konkretheit ersetzt. Die Ersetzung von normalsprachlicher Flexibilität durch vereinbarte Konkretheit erlaubte dann — wie sich immer mehr zeigte — eine ganz neue Qualität in der Beschreibung von ‚messbaren Phänomenen‘ und deren ‚Verhalten in der Zeit‘.[4]
  3. Das Werk ‚Philosophiae Naturalis Principia Mathematica‘ (erstmals 1689, Latein) von Isaac Newton gilt als erste große Demonstration der Leistungsfähigkeit dieses normierten Vorgehens (nach berühmten Vorläufern wie z.B.. Galilei und Kepler). Dazu kommt, dass die quantifizierten Tatsachenbehauptungen in ‚Zusammenhänge‘ eingebracht werden, in denen in Form von ‚Lehrsätzen‘ (oft auch Axiome genannt)‘ so etwas wie ‚Wirkzusammenhänge‘ beschrieben werden, die quantifizierte Ausdrücke benutzen.
  4. Im Zusammenwirken von quantifizierten Beobachtungen mit quantifizierten Wirkzusammenhängen lassen sich dann vergleichsweise genaue ‚Folgerungen‘ ‚ableiten‘, deren ‚Zutreffen‘ sich in der beobachtbaren Welt als ‚quantifizierte Prognosen‘ besser überprüfen lässt als ohne solche Quantifizierungen.
  5. Ein solches quantifizierendes Vorgehen setzt voraus, dass man die Ausdrücke der normalen Sprache um Ausdrücke einer ‚formalen Sprache‘ ‚erweitert‘. Im Fall von Newton waren diese formalen Ausdrücke jene der damaligen Mathematik.
  6. Interessant ist, dass Newton noch nicht über einen ‚formalen Folgerungsbegriff‘ verfügte, wie er dann Ende des 19.Jahrhunderts, Anfang des 20.Jahrhunderts durch die moderne Logik eingeführt wurde, einhergehend mit einer weiteren Formalisierung der Mathematik durch explizite Einbeziehung eines meta-mathematischen Standpunkts.

Der ‚Elefant im Raum‘

Es gibt Gesprächszusammenhänge, von denen sagt man, dass vom ‚Elefant im Raum‘ nicht gesprochen wird; also: es gibt ein Problem, das ist relevant, aber keiner spricht es aus.

Wenn man den Text zur positiven Vision zum Jahr 2062 liest, kann man solch einen ‚Elefanten im Raum‘ bemerken.

Ausgangslage im Alltag

Man muss sich dazu das Folgende vergegenwärtigen: Ausgangslage ist die Welt im Jahr 2021, in der die Menschheit global wirksam Verhaltensweisen zeigt, die u.a. zur Zerstörung der Biodiversität in einem Ausmaß führen, welche u.a. die Atmosphäre so verändern, dass das Klima schrittweise das bisher bekannte Leben dramatisch bedroht. Die u.a. CO2-Abhängigkeit der Klimaveränderung führt zu notwendigen Kurskorrekturen in der Art der Energiegewinnung, was wiederum phasenweise zu einem Energieproblem führt; gleichzeitig gibt es ein Wasserproblem, ein Ernährungsproblem, ein Migrationsproblem, ein …

Das Bündel dieser Probleme und seiner globalen Auswirkungen könnte größer kaum sein.

Von ‚außen‘ betrachtet — eine fiktive Sicht, die sich natürlich vom allgemein herrschenden ‚Zeitgeist‘ nicht wirklich abkoppeln kann — gehen alle diese wahrnehmbaren ‚Wirkungen‘ zurück auf ‚Wirkzusammenhänge‘, die durch das ‚Handeln von Menschen‘ so beeinflusst wurden, dass es genau zu diesen aktuellen globalen Ereignissen gekommen ist.

Das ‚Handeln‘ von Menschen wird aber — das können wir im Jahr 2022 wissen — von ‚inneren Zuständen‘ der handelnden Menschen geleitet, von ihren Bedürfnissen, Emotionen, und von den ‚Bildern der Welt‘, die zum Zeitpunkt des Handelns in ihren Köpfen vorhanden und wirksam sind.

Die ‚Bilder von der Welt‘ — teilweise bewusst, weitgehend unbewusst — repräsentieren das ‚Wissen‘ und die ‚Erfahrungen‘ der Handelnden. Dieses Wissen projiziert ‚Vorstellungen‘ in die umgebende Welt (die Menschen sind Teil dieser Welt!), die ‚zutreffend sein können, dieses aber zumeist nicht sind. Wenn sich ein Mensch entscheidet, seinen Vorstellungen zu folgen, dann hätten wir den Fall eines ‚wissensbasierten (rationalen) Handelns‘, das so gut ist, wie das Wissen zutreffend ist. Tatsächlich aber entscheidet sich jeder Mensch fast ausschließlich — meist unbewusst — nach seinem ‚Gefühl‘! Im Jahr 2022 gehört es zum Alltag, dass Menschen — der Bildungsgrad ist egal (!) — in einer Situation völlig ‚konträre Meinungen‘ haben können trotz gleicher Informationsmöglichkeiten. Unabhängig vom ‚Wissen‘ akzeptiert der eine Mensch die Informationsquellen A und lehnt die Informationsquellen B ab als ‚falsch‘; der andere Mensch macht es genau umgekehrt. Ferner gilt in sehr vielen (allen?) Entscheidungssituationen, dass die Auswahl der nachfolgenden Handlungen nicht von den ‚wissbaren Optionen‘ abhängt, sondern von der emotionalen Ausgangslage der beteiligten Personen, die sehr oft (meistens?) entweder bewusst nicht kommuniziert werden oder aber — da weitgehend unbewusst — nicht explizit kommuniziert werden können.

Dazu kommt, dass globale Wirkungen nur durch ein ‚globales Handeln‘ erreicht werden können, das entsprechend ‚koordiniert‘ sein muss zwischen allen Beteiligten. Koordinierung setzt ‚Kommunikation‘ voraus, und Kommunikation funktioniert nur, wenn die ‚kommunizierten Inhalte (= Wissen)‘ sowohl hinreichend ‚ähnlich‘ sind und zugleich ‚zutreffend‘. Die Wirklichkeit des Jahres 2021 (und nachfolgend) demonstriert allerdings, dass schon alltäglich zwei Menschen Probleme haben können, zu einer ‚gemeinsamen Sicht‘ zu kommen, erst recht dann, wenn ihre ‚individuellen Interessen‘ auseinander laufen. Was nützt es dem einen, zu wissen, dass es in den Alpen wunderbare Wanderwege gibt, wenn der andere absolut nicht wandern will? Was nützt es dem einen, wenn er bauen will und die Gemeinde einfach kein neues Bauland ausweist? Was nützt es betroffenen Bürgern, wenn die Bürgermeisterin partout ein neues Unternehmen ansiedeln will, weil es kurzfristig Geldeinnahmen gibt, und sie die nachfolgenden Probleme gerne übersieht, weil zuvor ihre Amtszeit endet? …

Kurzum, es ist nicht das ‚Wissen alleine‘, was ein bestimmtes zukünftiges Verhalten ermöglicht (wobei Wissen tendenziell sowieso ’nie ganz richtig ist‘), sondern auch — und vor allem — sind es die aktiven Emotionen in den Beteiligten.

Was heißt dies für die positive Zukunftsversion für 2062 im Text von Glaubrecht?

Erste Umrisse des Elefanten

Auf den Seiten 881 – 908 finden wir Formulierungen wie: „es kam zu einem tiefgehenden Bewusstseinswandel“ (881), „Immer mehr Menschen wurde klar“ (882), „Klar war aber auch, dass“, „guter Wille allein reichte da nicht… auch zivilgesellschaftliches Handeln musste erst intensiv erarbeitet werden„, „weil die Industrieländern … zu Vorbildern wurden“ (883), „Erst als die Überbevölkerung endlich zum wichtigsten Thema gemacht wurde, erfolgte der Durchbruch“ (884), „dass der Mensch in der ganz großen Gruppe ein gemeinsames Ziel erreichen kann“ (906), „Das Artensterben bietet allenfalls ein diffuses Ziel“ (908)

Diese ‚Fragmente‘ der Lösungsvision deuten an, dass

  1. ‚Bewusstseinswandel‘ und ‚Klarheit im Verstehen‘ wichtige Komponenten zu sein scheinen
  2. ‚Individuelles Wollen‘ alleine nicht ausreicht, um eine konstruktive globale Lösung zu ermöglichen
  3. ‚Überindividuelles (= zivilgesellschaftliches) Verhalten‘ ist nicht automatisch gegeben, sondern muss ‚gemeinsam erarbeitet werden‘
  4. Es braucht ‚globale Vorbilder‘ zur Orientierung (ob dies wirklich die Industrieländer sein können?)
  5. Die ‚Größe der Weltbevölkerung‘ ist ein wichtiger Faktor
  6. Der Faktor ‚Artensterben (Abnahme der Biodiversität)‘ ist für die meisten noch sehr ‚diffus‘
  7. Aus der Geschichte ist bekannt, dass Menschen gemeinsam große Dinge erreichen können.

Neben dem Wissen selbst — das ein Thema für sich ist — blitzen hier eine Reihe von ‚Randbedingungen‘ auf, die erfüllt sein müssen, damit es zu einer Lösung kommen kann. Ich formuliere diese wie folgt:

  1. Was immer ein einzelner weiß, fühlt, und will: ohne einen handlungswirksamen Zusammenschluss mit genügend vielen anderen Menschen wird es zu keiner spürbaren Veränderung im Verhalten von Menschen kommen.
  2. Das ‚zusammen mit anderen Handeln‘ muss ‚erlernt‘ und ‚trainiert‘ werden!
  3. Damit die vielen möglichen ‚Gruppen‘ in einer Region (auf der Erde) sich ’synchronisieren‘, braucht es ‚Leitbilder‘, die eine Mehrheit akzeptiert.
  4. Für alle Beteiligten muss erkennbar und erfahrbar sein, wie ein ‚Leitbild des gemeinsamen Handelns‘ sich zu den individuellen Bedürfnissen und Emotionen und Zielen verhält.
  5. Eine Zivilgesellschaft muss sich entscheiden, wo sie sich zwischen den beiden Polen ‚voll autokratisch‘ und ‚voll demokratisch‘ — mit vielen ‚Mischformen‘ — ansiedeln will. Die biologische Evolution deutet an, dass auf ‚lange Sicht‘ eine Kombination aus ‚radikaler Diversität‚ verbunden mit einem klaren ‚Leistungsprinzip‚ über lange Zeitstrecken hin leistungsfähig ist.
  6. Im Fall von menschlichen biologischen Systemen spiel ferner eine radikale ‚Transparenz‘ eine wichtige Rolle: Transparenz ’sich selbst‘ gegenüber wie auch ‚Transparenz untereinander‚: ohne Transparenz ist kein ‚effektives Lernen‘ möglich. Effektives Lernen ist die einzige Möglichkeit, das verfügbare Wissen in den Köpfen an die umgebende Realität (mit dem Menschen als Teil der Umgebung) ansatzweise ‚anzupassen‘.
  7. Damit Wissen wirksam sein kann, muss es eine ‚Form‚ haben, die es für alle Menschen möglich macht, (i) ‚jederzeit und überall‘ dieses Wissen zu nutzen und ‚dazu beitragen zu können‘, sowie (ii) erlaubt, ‚Prognosen‘ zu erstellen, die überprüft werden können.

Die wahre Herausforderung

Der ‚Elefant im Raum‘ scheint also der ‚Mensch selbst‘ zu sein. Die heutige Tendenz, immer und überall von ‚Digitalisierung‘ zu sprechen und in den Begriff ‚Künstliche Intelligenz‘ all jene Lösungen hinein zu projizieren, die wir noch nicht haben, ist ein weiteres Indiz dafür, dass der Mensch das ‚Verhältnis zu sich selbst‘ irgendwie nicht im Griff hat. Die kulturelle Erfahrung der letzten Jahrtausende, in vielen Bereichen heute deutlich ‚aufgehellt‘ durch empirische Wissenschaften, könnte uns entscheidend helfen, unser ‚eigenes Funktionieren‘ besser zu verstehen und unser individuelles wie gesellschaftliches Verhalten entsprechend zu organisieren. Das Problem ist weniger das Wissen — auch wenn dieses noch viel weiter entwickelt werden kann und entwickelt werden muss — als vielmehr unsere Scheu, die Motive von Entscheidungen und Verhalten transparent zu machen. Es reicht nicht, sogenannte ’sachliche Argumente‘ anzuführen (wenngleich sehr wichtig), es müssen zugleich auch die realen Interessen (und Ängste) auf den Tisch. Und wenn diese Interessen divergieren — was normal ist –, dann muss eine Lösung gefunden werden, die Interessen und Weltwissen (zusammen mit den bekannten Prognosen!) zu einem Ausgleich führt, der ein Handeln ermöglicht. Möglicherweise ist dies — auf längere Sicht — nur in eher demokratischen Kontexten möglich und nicht in autokratischen. Dies setzt aber in der Mehrheit der Bevölkerung einen bestimmten ‚Bildungsstand‘ voraus (was nicht nur ‚Wissen‘ meint, sondern z.B. auch die Fähigkeit, in diversen Teams transparent Probleme zu lösen).

Epilog

Vielleicht mag jemand nach der Lektüre dieses Textes den Eindruck haben, das Buch von Glaubrecht (hier wurde ja nur — im Teil 1 — die Einleitung und — im Teil 2 — der Schluss diskutiert!) würde hier kritisiert. Nein, das Buch ist großartig und ein wirkliches Muss. Aber gerade weil es großartig ist, lässt es Randbedingungen erkennen, die mindestens so wichtig sind wie das, was Glaubrecht mit dem Hauptthema ‚abnehmende Biodiversität‘ zur Kenntnis bringt.

Diese Randbedingungen — wir selbst mit unserer Art und Weise mit uns selbst und mit den anderen (und mit der übrigen Welt) umzugehen — sind gerade im Lichte der Biodiversität keine ‚Randbedingungen‘, sondern der entscheidende Faktor, warum es zur dramatischen Abnahme von Biodiversität kommt. Bei allen großartigen Errungenschaften ist der heutige Wissenschaftsbetrieb aktuell dabei, sich selbst zu ’neutralisieren‘, und die gesellschaftlichen Prozesse tendieren dazu, das Misstrauen untereinander immer weiter anzuheizen. Was wir brauchen ist möglicherweise eine wirkliche ‚Kulturrevolution‘, die ihren Kern in einer ‚Bildungsrevolution‘ hat. Fragt sich nur, wie diese beiden Revolutionen in Gang kommen können.[5]

KOMMENTARE

[1] Die Url lautet: https://www.cognitiveagent.org/2022/09/08/das-ende-der-evolution-von-matthias-glaubrecht2021-2019-lesenotizen/

[2] Ankündigung der Biodiversitätskonferenz Dezember 2022: https://www.unep.org/events/conference/un-biodiversity-conference-cop-15

[3] Joachim Radkau, 2017, Geschichte der Zukunft. Prognosen, Visionen, Irrungen in Deutschland von 1945 bis heute, Carl Hanser Verlag , eBook

[4] Es sei angemerkt, dass die Benutzung von ‚Zeitmarken‘ keinesfalls trivial ist. Abgesehen von dem ‚periodischen Ereignis‘, das für die Zeitmessung an einem bestimmten Ort benutzt wird, und dessen ‚Zuverlässigkeit‘ eigens geprüft werden muss, ist es eine wichtige Frage, wie sich zwei Zeitmessungen an verschiedenen Orten auf der Erde zueinander verhalten. Eine weltweit praktikable Lösung mit einer hinreichenden Genauigkeit gibt es erst ca. seit den 1990iger Jahren.

[5] Wenn im Epilog von einer notwendigen ‚Kulturrevolution‘ gesprochen wird, deren Kern eine ‚Bildungsrevolution‘ sein sollte, dann gibt es dazu eine Initiative Citizen Science 2.0, die — zumindest von der Intention her — genau auf solch eine neu sich formierende Zukunft abzielt. URL: https://www.oksimo.org/citizen-science-buergerwissenschaft/

Ein Überblick über alle Beiträge des Autors nach Titeln findet sich HIER.

K.G.DENBIGH: AN INVENTIVE UNIVERSE — Relektüre — Teil 3

K.G.Denbigh (1975), „An Inventive Universe“, London: Hutchinson & Co.

BISHER

Im Teil 1 der Relektüre von Kenneth George Denbighs Buch „An Inventive Universe“ hatte ich, sehr stark angeregt durch die Lektüre, zunächst eher mein eigenes Verständnis von dem Konzept ‚Zeit‘ zu Papier gebracht und eigentlich kaum die Position Denbighs referiert. Darin habe ich sehr stark darauf abgehoben, dass die Struktur der menschlichen Wahrnehmung und des Gedächtnisses es uns erlaubt, subjektiv Gegenwart als Jetzt zu erleben im Vergleich zum Erinnerbaren als Vergangen. Allerdings kann unsere Erinnerung stark von der auslösenden Realität abweichen. Im Lichte der Relativitätstheorie ist es zudem unmöglich, den Augenblick/ das Jetzt/ die Gegenwart objektiv zu definieren. Das individuelle Jetzt ist unentrinnbar subjektiv. Die Einbeziehung von ‚Uhren-Zeit’/ technischer Zeit kann zwar helfen, verschiedene Menschen relativ zu den Uhren zu koordinieren, das grundsätzliche Problem des nicht-objektiven Jetzt wird damit nicht aufgelöst.

In der Fortsetzung 1b von Teil 1 habe ich dann versucht, die Darlegung der Position von Kenneth George Denbighs Buch „An Inventive Universe“ nachzuholen. Der interessante Punkt hier ist der Widerspruch innerhalb der Physik selbst: einerseits gibt es physikalische Theorien, die zeitinvariant sind, andere wiederum nicht. Denbigh erklärt diese Situation so, dass er die zeitinvarianten Theorien als idealisierende Theorien darstellt, die von realen Randbedingungen – wie sie tatsächlich überall im Universum herrschen – absehen. Dies kann man daran erkennen, dass es für die Anwendung der einschlägigen Differentialgleichungen notwendig sei, hinreichende Randbedingungen zu definieren, damit die Gleichungen gerechnet werden können. Mit diesen Randbedingungen werden Start- und Zielzustand aber asymmetrisch.

Auch würde ich hier einen Nachtrag zu Teil 1 der Relektüre einfügen: in diesem Beitrag wurde schon auf die zentrale Rolle des Gedächtnisses für die Zeitwahrnehmung hingewiesen. Allerdings könnte man noch präzisieren, dass das Gedächtnis die einzelnen Gedächtnisinhalte nicht als streng aufeinanderfolgend speichert, sondern eben als schon geschehen. Es ist dann eine eigene gedankliche Leistungen, anhand von Eigenschaften der Gedächtnisinhalte eine Ordnung zu konstruieren. Uhren, Kalender, Aufzeichnungen können dabei helfen. Hier sind Irrtümer möglich. Für die generelle Frage, ob die Vorgänge in der Natur gerichtet sind oder nicht hilft das Gedächtnis von daher nur sehr bedingt. Ob A das B verursacht hat oder nicht, bleibt eine Interpretationsfrage, die von zusätzlichem Wissen abhängt.

Im Teil 2 ging es um den Anfang von Kap.2 (Dissipative Prozesse) und den Rest von Kap.3 (Formative Prozesse). Im Kontext der dissipativen (irreversiblen) Prozesse macht Denbigh darauf aufmerksam, dass sich von der Antike her in der modernen Physik eine Denkhaltung gehalten hat, die versucht, die reale Welt zu verdinglichen, sie statisch zu sehen (Zeit ist reversibel). Viele empirische Fakten sprechen aber gegen die Konservierung und Verdinglichung (Zeit ist irreversibel). Um den biologischen Phänomenen gerecht zu werden, führt Denbigh dann das Konzept der ‚Organisation‘ und dem ‚Grad der Organisiertheit‘ ein. Mit Hilfe dieses Konzeptes kann man Komplexitätsstufen unterscheiden, denen man unterschiedliche Makroeigenschaften zuschreiben kann. Tut man dies, dann nimmt mit wachsender Komplexität die ‚Individualität‘ zu, d.h. die allgemeinen physikalischen Gesetze gelten immer weniger. Auch gewinnt der Begriff der Entropie im Kontext von Denbighs Überlegungen eine neue Bedeutung. Im Diskussionsteil halte ich fest: Im Kern gilt, dass maximale Entropie vorliegt, wenn keine Energie-Materie-Mengen verfügbar sind, und minimale Entropie entsprechend, wenn maximal viele Energie-Materie-Mengen verfügbar sind. Vor diesem Hintergrund ergibt sich das Bild, dass Veränderungsprozesse im Universum abseits biologischer Systeme von minimaler zu maximaler Entropie zu führen scheinen (dissipative Prozesse, irreversible Prozesse, …), während die biologischen Systeme als Entropie-Konverter wirken! Sie kehren die Prozessrichtung einfach um. Hier stellen sich eine Fülle von Fragen. Berücksichtigt man die Idee des Organiationskonzepts von Denbigh, dann kann man faktisch beobachten, dass entlang einer Zeitachse eine letztlich kontinuierliche Zunahme der Komplexität biologischer Systeme stattfindet, sowohl als individuelle Systeme wie aber auch und gerade im Zusammenspiel einer Population mit einer organisatorisch aufbereiteten Umgebung (Landwirtschaft, Städtebau, Technik allgemein, Kultur, …). Für alle diese – mittlerweile mehr als 3.8 Milliarden andauernde – Prozesse haben wir bislang keine befriedigenden theoretischen Modelle

KAPITEL 4: DETERMINISMUS UND EMERGENZ (117 – 148)

Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz
Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz

  1. Dieses Kapitel widmet sich dem Thema Determinismus und Emergenz. Ideengeschichtlich gibt es den Hang wieder, sich wiederholende und darin voraussagbare Ereignisse mit einem Deutungsschema zu versehen, das diesen Wiederholungen feste Ursachen zuordnet und darin eine Notwendigkeit, dass dies alles passiert. Newtons Mechanik wird in diesem Kontext als neuzeitliche Inkarnation dieser Überzeugungen verstanden: mit klaren Gesetzen sind alle Bewegungen berechenbar.
  2. Dieses klare Bild korrespondiert gut mit der christlichen theologischen Tradition, nach der ein Schöpfer alles in Bewegung gesetzt hat und nun die Welt nach einem vorgegebenen Muster abläuft, was letztlich nur der Schöpfer selbst (Stichwort Wunder) abändern kann.
  3. Die neuzeitliche Wissenschaft hat aber neben dem Konzept des Gesetzes (‚law‘) auch das Konzept Theorie entwickelt. Gesetze führen innerhalb einer Theorie kein Eigenleben mehr sondern sind Elemente im Rahmen der Theorie. Theorien sind subjektive Konstruktionen von mentalen Modellen, die versuchen, die empirischen Phänomene zu beschreiben. Dies ist ein Näherungsprozess, der – zumindest historisch – keinen eindeutigen Endpunkt kennt, sondern empirisch bislang als eher unendlich erscheint.
  4. Eine moderne Formulierung des deterministischen Standpunktes wird von Denbigh wie folgt vorgeschlagen: Wenn ein Zustand A eines hinreichend isolierten Systems gefolgt wird von einem Zustand B, dann wird der gleiche Zustand A immer von dem Zustand B gefolgt werden, und zwar bis in die letzten Details.(S.122)
  5. Diese Formulierung wird begleitend von den Annahmen, dass dies universell gilt, immer, für alles, mit perfekter Präzision.
  6. Dabei muss man unterscheiden, ob die Erklärung nur auf vergangene Ereignisse angewendet wird (‚ex post facto‘) oder zur Voraussage benutzt wird. Letzteres gilt als die eigentliche Herausforderung.
  7. Wählt man die deterministische Position als Bezugspunkt, dann lassen sich zahlreiche Punkte aufführen, nach denen klar ist, dass das Determinismus-Prinzip unhaltbar ist. Im Folgenden eine kurze Aufzählung.
  8. Die Interaktion aller Teile im Universum ist nirgendwo (nach bisherigem Wissen) einfach Null. Zudem ist die Komplexität der Wechselwirkung grundsätzlich so groß, dass eine absolute Isolierung eines Teilsystems samt exakter Reproduktion als nicht möglich erscheint.
  9. Generell gibt es das Problem der Messfehler, der Messungenauigkeiten und der begrenzten Präzision. Mit der Quantenmechanik wurde klar, dass wir nicht beliebig genau messen können, dass Messen den Gegenstand verändert. Ferner wurde klar, dass Messen einen Energieaufwand bedeutet, der umso größer wird, je genauer man messen will. Ein erschöpfendes – alles umfassende – Messen ist daher niemals möglich.
  10. Im Bereich der Quanten gelten maximal Wahrscheinlichkeiten, keine Notwendigkeiten. Dies schließt nicht notwendigerweise ‚Ursachen/ Kausalitäten‘ aus.
  11. Die logischen Konzepte der mentalen Modelle als solche sind nicht die Wirklichkeit selbst. Die ‚innere Natur der Dinge‘ als solche ist nicht bekannt; wir kennen nur unsere Annäherungen über Messereignisse. Das, was ‚logisch notwendig‘ ist, muss aus sich heraus nicht ontologisch gültig sein.
  12. Neben den Teilchen sind aber auch biologische Systeme nicht voraussagbar. Ihre inneren Freiheitsgrade im Verbund mit ihren Dynamiken lassen keine Voraussage zu.
  13. Aus der Literatur übernimmt Denbigh die Komplexitätshierarchie (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143)
  14. Traditioneller Weise haben sich relativ zu jeder Komplexitätsstufe spezifische wissenschaftliche Disziplinen herausgebildet, die die Frage nach der Einheit der Wissenschaften aufwerfen: die einen sehen in den Eigenschaften höherer Komplexitätsstufen emergente Eigenschaften, die sich nicht auf die einfacheren Subsysteme zurückführen lassen; die Reduktionisten sehen die Wissenschaft vollendet, wenn sich alle komplexeren Eigenschaften auf Eigenschaften der Ebenen mit weniger Komplexität zurückführen lassen. Während diese beiden Positionen widersprüchlich erscheinen, nimmt das Evolutionskonzept eine mittlere Stellung ein: anhand des Modells eines generierenden Mechanismus wird erläutert, wie sich komplexere Eigenschaften aus einfacheren entwickeln können.

DISKUSSION

  1. Fasst man alle Argument zusammen, ergibt sich das Bild von uns Menschen als kognitive Theorientwickler, die mit ihren kognitiven Bildern versuchen, die Strukturen und Dynamiken einer externen Welt (einschließlich sich selbst) nach zu zeichnen, die per se unzugänglich und unerkennbar ist. Eingeschränkte Wahrnehmungen und eingeschränkte Messungen mit prinzipiellen Messgrenzen bilden die eine Begrenzung, die daraus resultierende prinzipielle Unvollständigkeit aller Informationen eine andere, und schließlich die innere Logik der realen Welt verhindert ein einfaches, umfassendes, eindeutiges Zugreifen.
  2. Die mangelnde Selbstreflexion der beteiligten Wissenschaftler erlaubt streckenweise die Ausbildung von Thesen und Hypothesen, die aufgrund der möglichen Methoden eigentlich ausgeschlossen sind.
  3. Die noch immer geltende weitverbreitete Anschauung, dass in der Wissenschaft der Anteil des Subjektes auszuklammern sei, wird durch die vertiefenden Einsichten in die kognitiven Voraussetzungen aller Theorien heute neu in Frage gestellt. Es geht nicht um eine Infragestellung des Empirischen in der Wissenschaft, sondern um ein verstärktes Bewusstheit von den biologischen (beinhaltet auch das Kognitive) Voraussetzungen von empirischen Theorien.
  4. In dem Maße, wie die biologische Bedingtheit von Theoriebildungen in den Blick tritt kann auch die Besonderheit der biologischen Komplexität wieder neu reflektiert werden. Das Biologische als Entropie-Konverter (siehe vorausgehenden Beitrag) und Individualität-Ermöglicher jenseits der bekannten Naturgesetze lässt Eigenschaften der Natur aufblitzen, die das bekannte stark vereinfachte Bild kritisieren, sprengen, revolutionieren.
  5. Die Idee eines evolutionären Mechanismus zwischen plattem Reduktionismus und metaphysischem Emergenz-Denken müsste allerdings erheblich weiter entwickelt werden. Bislang bewegt es sich im Bereich der Komplexitätsebenen (iii) Moleküle und (iv) Zellen.

Fortsetzung mit TEIL 4

QUELLEN

  1. Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

DONALD A.NORMAN, THINGS THAT MAKE US SMART – Teil 6

Diesem Beitrag ging voraus Teil 5.

BISHER
(ohne kritische Anmerkungen)

In den vorausgehenden Teilen wurden bislang zwei Aspekte sichtbar: einmal die ‚Menschenvergessenheit‘ in der Entwicklung und Nutzung von Technologie sowie die Einbeziehung von ‚wissensunterstützenden Dingen‘ sowohl außerhalb des Körpers (physisch) wie auch im Denken selber (kognitiv). Ferner hatte Norman die Vielfalt des Denkens auf zwei ‚Arbeitsweisen‘ reduziert: die ‚erfahrungsorientierte‘ Vorgehensweise, ohne explizite Reflexion (die aber über ‚Training‘ implizit in die Erfahrung eingegangen sein kann), und die ‚reflektierende‘ Vorgehensweise. Er unterschied ferner grob zwischen dem Sammeln (‚accretion‘) von Fakten, einer ‚Abstimmung‘ (‚tuning‘) der verschiedenen Parameter für ein reibungsloses Laufen, Schreiben, Sprechen, usw., und einer Restrukturierung (‚restructuring‘) vorhandener begrifflicher Konzepte. Ferner sieht er in der ‚Motivation‘ einen wichtigen Faktor. Diese Faktoren können ergänzt werden um Artefakte, die Denkprozesse unterstützen. In diesem Zusammenhang führt Norman die Begriffe ‚Repräsentation‘ und ‚Abstraktion‘ ein, ergänzt um ‚Symbol‘ (nicht sauber unterschieden von ‚Zeichen‘) und ‚Interpreter‘. Mit Hilfe von Abstraktionen und Symbolen können Repräsentationen von Objekten realisiert werden, die eine deutliche Verstärkung der kognitiven Fähigkeiten darstellen. Allerdings, und dies ist ein oft übersehener Umstand, durch die Benutzung eines Artefaktes werden nicht die kognitiven Eigenschaften des Benutzers als solchen geändert, sondern – bestenfalls – sein Zugang zum Problem. Wenn in einem solchen Fall zwischen den wahrnehmbaren Eigenschaften eines Artefakts und den korrelierenden ‚Zuständen‘ des Problems ein Zusammenhang nur schwer bis gar nicht erkennbar werden kann, dann führt dies zu Unklarheiten, Belastungen und Fehlern. Norman wiederholt dann die Feststellung, dass die Art wie das menschliche Gehirn ‚denkt‘ und wie Computer oder die mathematische Logik Probleme behandeln, grundlegend verschieden ist. Im Prinzip sind es drei Bereiche, in denen sich das Besondere des Menschen zeigt: (i) der hochkomplexe Körper, (ii) das hochkomplexe Gehirn im Körper, (iii) die Interaktions- und Kooperationsmöglichkeiten, die soziale Strukturen, Kultur und Technologie ermöglichen. Die Komplexität des Gehirns ist so groß, dass im gesamten bekannten Universum nichts Vergleichbares existiert. Mit Bezugnahme auf Mervin Donald (1991) macht Norman darauf aufmerksam dass die auffälligen Eigenschaften des Menschen auch einen entsprechenden evolutionären Entwicklungsprozess voraussetzen, innerhalb dessen sich die heutigen Eigenschaften schrittweise herausgebildet haben. Nach kurzen Bemerkungen zur Leistungsfähigkeit des Menschen schon mit wenig partiellen Informationen aufgrund seines Gedächtnisses Zusammenhänge erkennen zu können, was zugleich ein großes Fehlerrisiko birgt, Norman dann den Fokus auf die erstaunliche Fähigkeit des Menschen, mit großer Leichtigkeit komplexe Geschichten (’stories‘) erzeugen, erinnern, und verstehen zu können. Er erwähnt auch typische Fehler, die Menschen aufgrund ihrer kognitiven Struktur machen: Flüchtigkeitsfehler (’slips‘) und richtige Fehler (‚mistakes‘). Fehler erhöhen sich, wenn man nicht berücksichtigt, dass Menschen sich eher keine Details merken, sondern ‚wesentliche Sachverhalte‘ (’substance and meaning‘); wir können uns in der Regel nur auf eine einzige Sache konzentrieren, und hier nicht so sehr ‚kontinuierlich‘ sondern punktuell mit Blick auf stattfindende ‚Änderungen‘. Dementsprechend merken wir uns eher ‚Neuheiten‘ und weniger Wiederholungen von Bekanntem.(vgl. S.131) Ein anderes typisches Fehlerverhalten ist die Fixierung auf eine bestimmte Hypothese.

VERTEILTES WISSEN IN GETEILTEN SITUATIONEN

1) Am Beispiel von Flugzeugcockpits (Boeing vs. Airbus) und Leitständen großer technischer Anlagen illustriert Norman, wie eine durch die gemeinsam geteilte Situation gestützte Kommunikation alle Mitglieder eines Teams auf indirekte Verweise miteinander verbindet, sie kommunizieren und verstehen lässt. Ohne dass ausdrücklich etwas erklärt werden muss erlebt jeder durch die gemeinsame Situation Vorgänge, Vorgehensweisen, Zustände, kann so indirekt lernen und man kann sich indirekt wechselseitig kontrollieren. Im Allgemeinen sind diese indirekten Formen verteilten Wissens wenig erforscht. (vgl. SS.139-146)
2) Eine solche verteilte Intelligenz in einer realen Situation unter Benutzung realer Objekte hat einen wesentlichen Vorteil gegenüber einer rein simulierten Welt: die Benutzung realer Objekte ist eindeutig, auch wenn die begleitende Kommunikation vieldeutig sein mag.(vgl. S.146 -148)
3) In einer simulierten Situation muss man die impliziten Gesetze der realen Welt explizit programmieren. Das ist nicht nur sehr aufwendig, sondern entsprechend fehleranfällig. Eine Kommunikation wird vieldeutiger und damit schwieriger. (vgl. SS.148-151)

ZU VIEL DETAILS

4) Norman greift dann nochmals das Thema des unangemessenen, falschen Wissens auf mit Blick auf die Art und Weise, wie das menschliche Gedächtnis funktioniert. Am Beispiel der mündlichen Überlieferung die strukturell, typologisch vorging verweist er auf die heutige ‚Überlieferung‘ in Form von immer detaillierteren Texten, immer mehr technisch bedingten Details, die eigentlich unserer menschlichen Art des Erinnerns widersprechen. (vgl. SS.151-153)

ORGANISATION VON WISSEN

5) Auf den SS.155-184 diskutiert Norman anhand von Beispielen das Problem, wie man Wissen so anordnen sollte, dass man dann, wenn man etwas Bestimmtes braucht, dieses auch findet. Es ist ein Wechselspiel zwischen den Anforderungen einer Aufgabe, der Struktur des menschlichen Gedächtnisses sowie der Struktur der Ablage von Wissen.

DIE ZUKUNFT VORAUSSAGEN

6) Das folgende Kapitel (SS.185-219) steht unter der Hauptüberschrift, die Zukunft voraus zu sagen; tatsächlich enthält es auch eine ganze Reihe von anderen Themen, die sich nur sehr lose dem Thema zuordnen lassen.
7) Nach Norman ist es generell schwer bis unmöglich, die Zukunft vorauszusagen; zu viele Optionen stehen zur Verfügung. Andererseits brauchen wir Abschätzungen wahrscheinlicher Szenarien. (vgl. S.185f)
8) Als Begründung für seine skeptische These wählt er vier Beispiele aus der Vergangenheit (Privater Hubschrauber, Atomenergie, Computer, Telephon), anhand deren er das Versagen einer treffenden Prognose illustriert.(vgl.186-192) Der größte Schwachpunkt in allen Voraussagen betrifft den Bereich der sozialen Konsequenzen. Hier liegt überwiegend ein Totalversagen vor. Und er bemerkt, dass man den Ingenieuren zwar nicht vorwerfen kann, dass sie sich mit sozialen Folgen nicht auskennen, aber dass sie ihr Nichtwissen in diesem Bereich nicht ernst nehmen.(vgl. S.186).
9) Der andere Aspekt ist die Umsetzungsdauer von einer Idee bis zu einer verbreiteten alltäglichen Nutzung. Anhand von Beispielen (Fernsehen, Flugzeug, Fax) zeigt er auf, dass es zwischen 40 – 140 Jahren dauern konnte. denn neben der Idee selbst und einem arbeitsfähigen Prototypen muss ja der bestehende Alltag unterschiedlich weit ‚umgebaut‘ werden, evtl. müssen alte bestehende Strukturen (verbunden mit starken Interessen) durch neue ersetzt werden.(vgl. S.192-195)
10) [Anmerkung: Wir erleben z.B. seit den 60iger Jahren des 20.Jahrhunderts die Diskussion zur Frage erneuerbarer Energien, der eine bestehende Struktur von ölbasierten Technologien, Atomkraft, Kohle und Gas entgegen stehen, jeweils verbunden mit sehr starken ökonomischen und politischen Interessen.]
11) Er macht dann selber einige Voraussagen (Verfügbarkeit von digitaler Information, von hohen Bandbreiten, von noch mächtigeren immer kleineren Computern, von 3D-Ansichten unter Einbeziehung der eigenen Position, von elektronischen Publikationen, von mehr computergestütztem Lernen, noch raffiniertere Unterhaltung, von Videogesprächen im privaten Bereich, von mehr kollaborativen Arbeitsplätzen).(vgl. SS.195-201)
12) [Anmerkung: 20 Jahre später kann man sagen, dass alle diese Voraussagen entweder voll umgesetzt wurden oder wir dabei sind, sie umzusetzen.]
13) Norman spielt dann die möglichen sozialen Folgen von diesen neuen Technologien anhand von sehr vielen konkreten Beispielen durch. Ein Trend ist der zunehmende Ersatz des Menschen im Handeln durch künstliche Charaktere, was schließlich dazu führen kann, dass in der Öffentlichkeit dann nur noch die Software handelt, während die ‚realen‘ Menschen mehr und mehr aus der Öffentlichkeit verschwinden. (vgl. SS. 201-210)
14) [Anmerkung: Diese Art von Auswüchsen, wie sie Norman plastisch schildert, werden in immer mehr Science-Fiction Filmen thematisiert. Ein Beispiel war die 10-teilige Folge ‚Real Humans – Echte Menschen‘, eine schwedische Produktion, die von arte im Frühjahr 2013 gezeigt wurde. Darin wurde die Existenz von menschenähnlichen Robotern im alltäglichen Leben sehr konkret durchgespielt. Ein sehr ähnliches Thema hatte auch der Film Surrogates (2009), wenn auch mit einer anderen Rahmengeschichte. Es gibt hierzu zahllose weitere Beispiele.]

NEUROINTERFACE

15) Norman greift auch das Thema ‚Neurointerface‘ auf, eine direkte Verbindung des menschlichen Nervensystems mit einem Computer. (vgl. SS.210-214)

KOLLABORATIVE SOFTWARE

16) Natürlich wird die neue Technologie auch Auswirkungen für die Arbeit von sozialen Gruppen haben. Hier sieht er aber besonders viele Schwierigkeiten, da das Arbeiten in einer Gruppe besonders komplex ist und sensitiv für viele Faktoren. (vgl. SS. 214-217)

TRÄUMEN MACHT MEHR SPASS ALS REALE NUTZUNG

17) Abschließend bemerkt Norman noch, das der Hype um neue Technologien sich häufig an den visionären Szenarien entzündet; wenn es zur tatsächlichen Nutzung kommt, flaut dieser Hype sehr schnell wieder ab. (vgl. SS.217-219)
18) [Anmerkung: Die Themen zersplittern zunehmend. Dennoch stellen Sie allesamt wertvolle Erfahrungen und Einsichten dar. s wird Aufgabe der Schlussreflexion sein, die Vielfalt dieser Aspekte auszuwerten und für eine Gesamttheorie nutzbar zu machen.]

Fortsetzung folgt im Teil Teil 7

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.