Archiv der Kategorie: Simulation

Computerspiele, eSports, Clash of Cultures … geht es dabei möglicherweise um mehr?

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 7.Mai 2019
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Ich hatte gestern Gelegenheit an der Veranstaltung #GAMESPLACES teilzunehmen, die von der Krativabteilung der Wirtschaftsförderung Frankfurt organisiert worden ist. Diese Abteilung unter Leitung von Manuela Schiffner zeichnet für viele ähnliche Veranstaltungen verantwortlich, auf der Akteure der Szene aus allen Lagern (Politik, Wissenschaft, Wirtschaft, Kommunen,…) zusammenkommen und sich wechselseitig informieren und austauschen können. Gestern ging es um die Dimension eSport, vornehmlich illustriert am Beispiel der Praxis und Strategie von Eintracht Frankfurt, der AG sowohl als auch dem Verein. Hier ein paar Gedanken meinerseits zum Ereignis. Diese sind rein privat.

WUCHT DER ZAHLEN

Wenn man den Zahlen des Statistik-Portals Statista.com trauen kann, dann bewegt sich die Zahl der Computerspiele in Deutschland seit 5 Jahren in der Größenordnung von 32 – 34 Mio Spieler. Die Gesamtbevölkerungszahl bewegt sich in der gleichen Zeit etwa zwischen 81 – 83 Mio. Damit liegt der Prozentsatz der Spielenden bei ca. 40%. Da das Computerspielen bislang eher noch auf die Altersgruppen unter 60 beschränkt ist, ist der Prozentsatz der aktiven Spieler eher noch höher anzusetzen. Dies sind mächtige Zahlen. Und wenn man dann vom Frankfurter Wirtschaftsdezernent Frank hört, dass allein die Kreativwirtschaft in Frankfurt 2016 4 Mrd Euro umgesetzt hat, dann schärft sich das Bild weiter, dass der Computerspielbereich eine sehr reale Größe ist. Und es passt ins Bild, dass allein der Mediencampus der Hochschule Darmstadt (Aussage des Dekans Wilhelm Weber) in Dieburg ca. 3000 Studierende zählt, Tendenz wachsend.

eSPORT

Arne Peters als unabhängiger Berater gab auf der Veranstaltung einen knappen, sachlichen Bericht zur Entwicklung und zum Stand des Phänomens eSport. Er stellte heraus, dass in diesem Bereich die Community von besonderer Bedeutung sei: was in der Community keine Anerkennung findet, fällt gnadenlos durch. Und er vertrat die Ansicht, dass die typischen Spieler in diesem Bereich grundlegend sozial orientiert seien, das gemeinsame Erleben stehe im Vordergrund.

Zu negativen Begleiterscheinungen des eSports sagte er nichts, weder bezüglich der möglichen individuellen Auswirkungen, noch auf die marktpolitischen Tendenzen zur Monopolisierung, noch auf die möglichen gesellschaftlichen Wirkungen.

Hier wurde Timm Jäger, der Referent des Vorstands von Eintracht Frankfurt für digitale Technologien und Strategien etwas konkreter. Zunächst überbrückte er den Spagat zwischen eSports als Sport oder nicht dadurch, dass er — wie viele andere aus der Szene (auch Eintracht-Vorstandsmitglied Axel Hellmann) — die Position bezog, dass diese Frage innerhalb der Szene selbst nicht diskutiert würde. Denen, die eSports machen, ist es egal. Sie machen eSport. Und nach Timm Jäger sieht Eintracht Frankfurt eSport als Teil der Arbeit mit Menschen (alle Altersgruppen, für jedes Mitglied), die von der Breite ausgeht, und dazu gezielte Schulungen, Trainings und Beratung durch zertifizierte Trainer anbietet. Mit diesem breiten Ansatz könnte Timm Jäher auch viele kritische Anfragen aus dem Publikum konstruktiv beantworten, da im Kontext von Eintracht Frankfurt Kinder, Jugendliche und Erwachsene nicht nur durch den Bezug zu jeweiligen sozialen Gruppen, sondern auch durch professionelle zertifizierte Schulungsleiter und Trainer nicht nur auf die Möglichkeiten vorbereitet werden, sondern sich auch mit allerlei Formen von Risiken auseinander setzen können. Nicht ganz befriedigen konnte die Frage nach den offiziell eingesetzten Computerspielen, die von globalen Konzernen produziert und gemanagt werden, die eine relativ abgeschottete Politik verfolgen, die sich u.a. darin ausdrückt, dass sie nach Belieben immer wieder die Spielregeln ändern, was Teilnehmer monierten.

Abschließend gab es eine live Demonstration zwischen der eSports Bundesligamannschaft von Mainz 05 und Eintracht Frankfurt. Zu Beginn der Verlängerung stand es 1:1 (ja, ich habe die letzten Minuten nicht mehr gesehen 🙂 Mainz attackierte sehr stark …

CLASH OF CULTURES

Die positive Grundstimmung der Veranstaltung mit vorwiegend am eSport oder zumindest am Computerspiel Interessierten kann nicht darüber hinweg täuschen, dass die Digitalisierung der Gesellschaft, hier in Form von Computerspiel Interessierten, die offiziellen Bereiche der Gesellschaft wie z.B. das gesamte Bildungssystem, den offizielle Kulturbetrieb, oder die offizielle Politik noch nicht erreicht hat.

In diesem Zusammenhang ist ein aktueller Gastbeitrag von Leander Haußmann in der Zeit online (ZEIT Wissen Nr. 3/2019, 16. April 2019) von Interesse. Haußmann, Jahrgang 1959, Theater und Filmregisseur, Schauspieler outet sich in diesem Beitrag als passionierter Gamer. Er schildert eindrücklich seine erlebnisstarken Jugend in der ehemaligen DDR; die Welt der Freunde als Gegenentwurf zur bürgerlichen Staatstheorie und deren Indoktrinationsritualen in Schule und Gesellschaft. Als erlebnisoffener Mensch und Literaturkundiger sieht er in den modernen Computerspielen eine neue Form von Weltbeschreibung, die sehr wohl dem Erlebnishunger, dem Abenteuerstreben, dem individuellen Ausagieren von Bedürfnissen und Emotionen dienen kann, vorbei am Alltagseinerlei und an Pseudomoral, die Gutes zu tun vorgibt aber faktisch Negatives befördert.

Zu diesem Beitrag gab es 348 Kommentare, die ich mir angeschaut habe. Sie sind fast genauso wichtig wie der Beitrag selbst; signalisieren sie doch einen realen Resonanzraum in den Gefühlen und Gedanken von Menschen, der vieles von der Zerrissenheit verrät, in der wir uns alle zur Zeit bewegen.

Da gibt es natürlich die große Gruppe jener, die sich in den Worten von Haußmann positiv wiederfinden; sie fühlen sich verstanden und in ihrer Lust am Spielen gestärkt. Dann gibt es die ebenso große Gruppe, die auf jeden Fall gegen Computerspiele ist; die Argumente sind unterschiedlich. Und dann gibt es eine kleine Gruppe von ‚Geläuterten‘; das sind Menschen, die intensive Computerspieljahre (auch Jahrzehnte) hinter sich haben und dann irgendwann in einen Zustand kamen, dass sie das Gefühl hatten, der Rausch des unmittelbaren Erlebens im Computerspielen ist unterm Strich nicht sehr nachhaltig, oder gar psychisch und sozial zerstörerisch. Der Ersatz des Realen durch das Virtuelle führt irgendwie zur Auflösung der realen Existenz und verhindert all jene Formen des Erlebens, die anders sind, möglicherweise nachhaltiger.

Zwischen diesen drei Positionen scheint es wenig Vermittelndes zu geben: Entweder man spielt, oder man ist dagegen, oder man gehört zum Kreis der ‚Geläuterten‘, die für die anderen einer anderen Sphäre angehören. Und in den offiziellen Bereichen der Gesellschaft, speziell Schulen und Hochschulen (von wenigen Ausnahmen abgesehen wie z.B. dem Mediencampus Hochschule Darmstadt), findet das Thema praktisch nicht statt.

FALSCH PROGRAMMIERT?

Nimmt man einen soziologischen Standpunkt ein und sieht die Computerspielenden als Teilpopulation einer offenen Gesellschaft, deren Zukunft nicht zuletzt auch von den Erlebnis- und Wissensstrukturen ihrer Bürger abhängig ist, dann kann man die Frage stellen, ob die intensive Einwirkung von Computerspielen (es geht nicht nur um Gewalt) letztlich die Wahrnehmung der realen Welt, der politischen und wirtschaftlichen Zusammenhänge, in einer Weise beeinflusst, die die Bürger unfähig macht, ihre Verantwortung als Bürger eines demokratischen Landes in einer technologischen und global-wirtschaftlichen und -politischen Umbruchphase hinreichend wahrnehmen zu können? Diese Frage ist weitgehend rhetorisch, da die deutsche empirische Sozialforschung zu dieser Frage mehr oder weniger ’sprachlos‘ ist. Empirische begründete Aussagen sind nicht verfügbar.

Blickt man auf das offensichtliche Versagen vieler Bundesministerien und staatlicher Behörden in den letzten Jahren und aktuell, denen man — zumindest offiziell — keine intensive Computerspieltätigkeit nachweisen kann (aufgrund der Selbstbeschreibung von Haußmann kann man diese Möglichkeit aber nicht ganz ausschließen :-)), dann scheint es noch ganz andere Faktoren zu geben, die eine ‚Demokratiefähigkeit‘ von Politik gefährden können (Lobbyismus, Dummheit, narzisstische Persönlichkeitsstrukturen, Machthunger, …).

Statt also mangels klarem Wissen in der unappetitlichen Suppe von Verschwörungstheorien zu versinken, stellt sich die grundsätzliche Frage, ob sich die offensichtlich attraktiven Faktoren moderner Computerspiele nicht doch irgendwie mit dem real-weltlich Nützlichem auf neue Weise verknüpfen liesen?

SERIOUS GAME/ APPLIED GAME

Es ist möglicherweise bezeichnend, dass im Deutschen eher die englischen Ausdrücke benutzt werden als deutsche Ausdrücke wie ernsthaftes Spiel, Spiel mit praktischem Nutzen, Lehrspiel, Lernspiel oder so ähnlich. Irgendwie, intuitiv, gefühlsmäßig sträubt man sich im Deutschen, Lernen und Spielen zu verknüpfen.

Dies ist eigentlich verwunderlich, weil spieleähnliche Methoden wie z.B. Simulation, Planspiele, Spieltheorie seit Jahrzehnten in vielen Bereichen wie z.B. Ingenieurswissenschaften, Militär und Wirtschaft gang und gäbe sind. Ohne diese Methoden wären viele wichtigen Erkenntnis-, Verstehens- und Lernprozesse gar nicht möglich.

Das menschliche Gehirn ist trotz vieler phantastischer Eigenschaften nicht in der Lage, Sachverhalte mit vielen verbundenen Größen, die sich zudem in der Zeit unterschiedlich verändern können, umfassend und schnell genug mit hinreichender Präzision zu denken. Ohne Einbeziehung entsprechender Methoden, und das sind heute weitgehend computergestützte Verfahren, kann das menschliche Gehirn daher viele heute benötigten Prozessmodelle gar nicht mehr selber denken, was bedeutet, dass die moderne Wissenschaft und moderne Technologie ohne diese Methoden schlicht undenkbar geworden sind.

Macht man sich dies klar, dann verwundert es vielleicht umso mehr, warum sich Schulen und Hochschulen so schwer tun, simulationsähnliche Methoden als Standardmethoden in Lehre, Lernen und Forschen einzuführen.

Der einzige Unterschied zwischen einer interaktiven Simulation und einen Computerspiel besteht darin, dass neben dem Simulationskontext im Computerspiel bestimmte mögliche Zustände als Gewinnzustände ausgezeichnet sind. Bei geeignetem Verlauf der interaktiven Simulation kann also ein Simulationsteilnehmer bei Erreichen eines Gewinnzustandes als Gewinner bezeichnet werden. Und da ein Simulationsteilnehmer in einer interaktiven Simulation durch sein Verhalten den Gesamtverlauf zumindest Anteilhaft mit beeinflussen kann, kann ein Gewinner sich am Schluss dann den Erfolg anteilsmäßig zurechnen.

Gegenüber einer normalen interaktiven Simulation mag dieser kleine Unterschied mit den ausgezeichneten Gewinnzuständen als unscheinbar erscheinen, aber aus Sicht eines systematischen Engineeringsprozesses wie auch aus Sicht der Motivationslage eines Mitwirkenden ist dieser Unterschied weitreichend:

  1. Angesichts der wertmäßig neutralen möglichen Alternativen in einem Simulationsprozess ist die einzige Möglichkeit, interessante Zustände auszuzeichnen und gezielt zu testen, jene, durch explizite Angabe von Gewinnzuständen sogenannte Präferenzen sichtbar zu machen, an denen die Organisatoren der Simulation interessiert sind.
  2. Durch Vorgabe solcher Präferenzen besteht dann die Möglichkeit, die Auswirkungen dieser Präferenzen auf den Möglichkeitsraum zu testen.
  3. Dadurch dass möglichst viele der möglicherweise Betroffenen (z.B. die Bürger einer Stadt) selbst am Spiel teilnehmen und mit ihren eigenen Sinnen erleben können, was passiert, wenn man Handlungen einer bestimmten Art in dem angenommenen Kontext ausübt, teilen alle ähnliche Erfahrungen, können darüber besser gemeinsam kommunizieren, und müssen nicht zusätzlich überzeugt werden.
  4. In wissenschaftlichen Simulationen sind zudem alle Regeln allen zugänglich und auch jederzeit in gemeinsamer Übereinkunft änderbar. Dies schafft Vertrauen in den Prozess und stärkt die Argumentationskraft der Verläufe.
  5. Die formale Auszeichnung eines Simulationsteilnehmers als Gewinner mag formal-mathematisch unbedeutend sein, für die Motivationslage eines Menschen kann dies aber (empirisch überprüfbar) einen starken Antrieb geben, sich intensiv mit der Materie zu beschäftigen und Schwierigkeiten eher zu trotzen.

In einer Zeit, wo interdisziplinäre Teams komplexe Projekte zu realisieren haben, würde ein konsequenter Spieleansatz die Qualität und die psychologische Temperierung der Teams möglicherweise auch positiv beeinflussen.

Soundtrack, ohne Stimme
… with voice: spheres – Kugelwesen

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.




Populismus – Kultur der Freiheit – Ein Rezept?

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 24.März 2019
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

In einem Beitrag vom 7.Februar 2019 hatte ich mir die Frage gestellt, warum sich das alltägliche Phänomen des Populismus nahezu überall in allen Kulturen, in allen Bildungsschichten — eigentlich auch zu allen Zeiten — mit einer Leichtigkeit und Selbstverständlichkeit findet, die einem Angst und Bange machen kann. Und gerade in der Gegenwart scheinen wir geradezu wieder eine Hochblüte zu erleben. In diesem ersten Beitrag hatte ich einige Faktoren angesprochen, die unser normales menschliches Lern- und Sozialverhalten charakterisieren und die genügend Anhaltspunkte liefern, um eine erste ‚Erklärung‘ dafür zu geben, warum das Auftreten populistischer Tendenzen keine Überraschung ist, sondern eben genau in den Strukturen unserer personalen Strukturen als grundlegende Überlebensstrategie angelegt sind. In einem Folgebeitrag am 11.Februar 2019 habe ich diese Gedanken ein wenig weiter verfolgt. Auf die Frage, wie man der starken Verhaltenstendenz des Populismus gegensteuern könnte, habe ich versucht, anhand der Hauptfaktoren des alltäglichen Lernens und der Gruppenbildungen Ansatzpunkte zu identifizieren, die normalerweise die Bildung populistischer Meinungsbilder begünstigen bzw. deren Modifikation dem möglicherweise entgegen wirken könnte. Durch zahlreiche Gespräche und Veranstaltungen der letzten Wochen haben sich die Themen für mich weiter entwickelt bis dahin, dass auch erste Ideen erkennbar sind, wie man den starken Verhaltenstendenzen in jedem von uns möglicherweise entgegen wirken könnte. Gegen Verhaltenstendenzen zu arbeiten war und ist immer sehr herausfordernd.

POPULISMUS – Eine Nachbemerkung

Bislang wird das Thema ‚Populismus‘ in der Öffentlichkeit tendenziell immer noch wie eine ‚religiöse‘ Frage behandelt, stark versetzt mit ‚moralischen Kategorien‘ von ‚gut‘ und ‚böse‘, mit starken Abgrenzungen untereinander, vielfach fanatisch mit der Bereitschaft, diejenigen mit der ‚anderen Meinung‘ zu bekämpfen bis hin zur ‚Ausrottung‘. Diese Meinungen verknüpfen sich mit Ansprüchen auf politische Macht, oft mit autoritären Führungsstrukturen. Die Frage nach Transparenz und Wahrheit spielt keine zentrale Rolle. Und, falls man zu einer Meinungsgruppe gehört, die ‚anders‘ ist, versteht man selten, warum die einen jetzt so unbedingt von Meinung A überzeugt sind, weil man selbst doch eher B oder C favorisiert. Das verbal aufeinander Einschlagen und das Demonstrieren mit Gegenparolen ändert an den grundlegenden Meinungsunterschieden wenig; es fördert möglicherweise eher die Abgrenzung, verhärtet die Fronten.

Dies alles ist nicht neu; die vielen blutigen Religionskriege in der Vergangenheit sind nur ein Beispiel für das Phänomen gewalttätiger Populismen; viele weitere Beispiele liesen sich anführen.

Die Tatsache, dass wir heute, im Jahr 2019, nach vielen tausend Jahren Geschichte mit einer unfassbaren Blutspur hervorgebracht durch Meinungsunterschiede, verteufelnden Abgrenzungen, Schlechtreden ‚der Anderen‘, immer noch, und zwar weltweit (!), in diese Muster zurückfallen, ist ein sehr starkes Indiz dafür, dass die Ursachen für diese Verhaltensmuster tief in der menschlichen Verhaltensdynamik angelegt sein müssen. Bei aller Freiheit, die jedem biologischen System zukommt und dem Menschen insbesondere, scheint es genügend Faktoren zu geben, die die Weltbilder in den Köpfen der Menschen in einer Weise beeinflussen, dass sie im großen Maßstab Bilder von der Welt — und darin auch von den anderen und sich selbst — in ihren Köpfen mit sich herumtragen, die sie in maschinenhafte Zombies verwandeln, die sie daran hindern, die Differenziertheit der Welt wahr zu nehmen, komplexe dynamische Prozesse zu denken, mit der Vielfalt und der Dynamik von biologischem Leben, ökologischen und technischen Systemen nutzbringend für das Ganze umzugehen.

Viele kluge Leute haben dazu viele dicke Bücher geschrieben und es kann hier nicht alles ausgerollt werden.

Dennoch wäre eine sachliche Analyse des Populismus als einer starken Verhaltenstendenz äußerst wichtig als Referenzpunkt für Strategien, wie sich die Menschen quasi ‚vor sich selbst‘, nämlich vor ihrer eigenen, tief sitzenden Tendenz zum Populismus, schützen könnten.

Eine Antwort kann nur in der Richtung liegen, dass die jeweilige Gesellschaft, innerhalb deren die Menschen ihr Leben organisieren, in einer Weise gestaltet sein muss, dass sie die Tendenzen zur Vereinfachung und zur überdimensionierten Emotionalisierung im Umgang miteinander im alltäglichen Leben gegen steuern. Für eine angemessene Entwicklung der grundlegenden Freiheit, über die jeder Mensch in einer faszinierenden Weise verfügt, müssten maximale Anstrengungen unternommen werden, da die Freiheit die kostbarste Eigenschaft ist, die die Evolution des Lebens als Teil der Evolution des ganzen bekannten Universums bis heute hervorgebracht hat. Ohne die Nutzung dieser Freiheit ist eine konstruktive Gestaltung der Zukunft im Ansatz unmöglich.

KULTUR DER FREIHEIT – Eine Nachbemerkung

In dem erwähnten Beitrag vom 11.Februar 2019 hatte ich erste Gedanken vorgestellt, welche Faktoren sich aus dem Geschehen der biologischen Evolution heraus andeuten, die man berücksichtigen müsste, wollte man das Geschenk der Freiheit gemeinsam weiter zum Nutzen aller gestalten.

Neben der Dimension der Kommunikation, ohne die gar nichts geht, gibt es die fundamentale Dimension der jeweiligen Präferenzen, der ‚Bevorzugung von Zuständen/ Dingen/ Handlungen …, weil man sich von ihnen mehr verspricht als von möglichen Alternativen.

KOMMUNIKATION

Obwohl die Menschen allein in den letzten 100 Jahren viele neue Technologien entwickelt haben, die den Austausch, den Transport von Kommunikationsmaterial hinsichtlich Menge und Geschwindigkeit dramatisch gesteigert haben, ist damit das zugehörige Verstehen in den Menschen selbst nicht schneller und tiefer geworden. Die Biologie des menschlichen Körpers hat sich nicht parallel zu den verfügbaren Technologien mit entwickelt. Auf diese Weise entstehen völlig neue Belastungsphänomene: zwar kann der Mensch noch wahrnehmen, dass es immer schneller immer mehr gibt, aber diese Überflutung führt nur begrenzt zu mehr Verstehen; überwiegend macht sich heute in dieser Situation ein wachsendes Ohnmachtsgefühl breit, eine Hilflosigkeit, in der nicht erkennbar ist, wie man als einzelner damit klar kommen soll. Die gleichzeitige Zunahme von ‚falschen Nachrichten‘, ‚massenhaften Manipulationen‘ und ähnlichen Phänomenen tut ihr Übriges, um in den Menschen das Gefühl zu verstärken, dass ihnen der Boden unter den Füßen gleichsam weggezogen wird. Wenn sich dann selbst in offiziellen demokratischen Gesellschaften Politiker (und Teile der Verwaltung oder Staatstragenden Institutionen) diesem Stil des Verbergens, Mauerns, geheimer Absprachen und dergleichen mehr anzuschließen scheinen, dann gerät das gesellschaftliche Referenzsystem ganz gefährlich ins Schwimmen. Was kann der einzelne dann noch tun?


PRÄFERENZEN (WERTE)

Der andere Faktor neben der aktuell mangelhaften Kommunikation sind die Präferenzen, nach denen Menschen ihr Lernen und Handeln ordnen. Ohne irgendwelche Präferenzen geht gar nichts, steht jedes System auf der Stelle, dreht sich im Kreis.

Ein Teil unserer Präferenzen ist in unserem Verhalten angelegt als unterschiedliche starke Tendenz eher A als B zu tun. Andere Präferenzen werden innerhalb gesellschaftlicher Systeme durch Mehrheiten, privilegierten Gruppen oder irgendwelche andere Mechanismen ausgezeichnet als das, was in der jeweiligen gesellschaftlichen Gruppierung gelten soll (im Freundeskreis, in der Familie, in der Schule, am Arbeitsplatz, im Strafgesetz, in einer religiösen Vereinigung, …). Zwischen den gesellschaftlich induzierten Normen und den individuellen Verhaltenstendenzen gibt es unterschiedlich viele und unterschiedliche starke Konflikte. Ebenso wissen wir durch die Geschichte und die Gegenwart, dass es zwischen den verschiedenen gesellschaftlich induzierten Präferenzsystemen immer mehr oder weniger starke Konflikte gab, die alle Formen von möglichen Auseinandersetzungen befeuert haben: zwischen kriegerischer Totalausrottung und wirtschaftlich-kultureller Vereinnahmung findet sich alles.

Der Sinn von Präferenzen ist schlicht, dass sich Gruppen von Menschen einigen müssen, wie sie ihre Fähigkeiten am besten ordnen, um für alle einen möglichst großen Nutzen in der jeweiligen Lebenswelt zu sichern.

Der eine Bezugspunkt für diese Regeln ist die Lebenswelt selbst, die sogenannte Natur, die heute mehr und mehr von technologischen Entwicklungen zu einer Art Techno-Natur mutiert ist und — das wird gerne übersehen — zu der der Mensch gehört! Der Mensch ist nicht etwas Verschiedenes oder Getrenntes von der Natur, sondern der Mensch ist vollständig Teil der Natur. Im Menschen werden Eigenschaften der Natur sichtbar, die ein besonderes Licht auf das ‚Wesen‘ der Natur werfen können, wenn man es denn überhaupt wissen will. Der andere Bezugspunkt ist die Welt der Bilder in den Köpfen der Beteiligten. Denn was immer man in einer Lebenswelt tun will, es hängt entscheidend davon ab, was jeder der Beteiligte in seinem Kopf als Bild von der Welt, von sich selbst und von den anderen mit sich herum trägt.

An diesem Punkt vermischt sich die Präferenz-/Werte-Frage mit der Wissensfrage. Man kann beide nicht wirklich auseinander dividieren, und doch repräsentieren die Präferenzen und das Weltwissen zwei unterschiedliche Dimensionen in der Innendynamik eines jeden Menschen.

EIN EPOCHALER WENDEPUNKT?

Fasst man die bisherigen ‚Befunde‘ zusammen, dann zeichnet sich ein Bild ab, dem man eine gewisse Dramatik nicht absprechen kann:

  1. In der Kommunikationsdimension hat sich eine Asymmetrie aufgebaut, in der die Technologie die Menge und die Geschwindigkeit des Informationsmaterials in einer Weise intensiviert hat, die die biologischen Strukturen des Menschen vollständig überfordern.
  2. In der Präferenzdimension haben wir eine mehrfache Explosion im Bereich Komplexität der Lebenswelt, Komplexität der Präferenzsysteme, Komplexität der Weltbilder.
  3. Die Anforderungen an mögliche ‚praktische Lösungen‘ steigen ins ‚gefühlt Unermessliche‘, während die Kommunikationsprozesse, die verfügbaren Weltbilder und die verfügbaren Präferenzen sich immer mehr zu einem ‚gefühlten unendlichen Komplexitätsknäuel‘ verdichten
  4. Alle bekannten Wissenstechnologien aus der ‚Vergangenheit (Schulen, Bücher, Bibliotheken, empirische Wissenschaften, …) scheinen nicht mehr auszureichen. Die Defizite sind täglich immer mehr spürbar.

WAS BEDEUTET DIES FÜR EINE MÖGLICHE NEUE STRATEGIE?

Obwohl die soeben aufgelisteten Punkte nur als eine sehr grobe Charakterisierung der Problemlage aufgefasst werden können, bieten sie doch Anhaltspunkte, in welcher Richtung man suchen sollte.

Ich deute die Asymmetrie zwischen der technologisch ermöglichten Turbo-Daten-Welt und dem individuellen Gehirn mit seiner nenschentypischen Arbeitsweise als eine Aufforderung, dass man die Verstehensprozesse auf Seiten des Menschen deutlich verbessern muss. Wenn jemand über ein — bildhaft gesprochen — ‚Schwarz-Weiß‘ Bild der Welt verfügt, wo er doch ein ‚Vielfarbiges‘ Bild benötigen würde, um überhaupt wichtige Dinge erkennen zu können, dann muss man bei den Bildern selbst ansetzen. Wie kommen sie zustande? Was können wir dazu beitragen, dass jeder von uns die Bilder in den Kopf bekommt, die benötigt werden, wollen wir gemeinsame eine komplexe Aufgabe erfolgreich bewältigen? Einzelne Spezialisten reichen nicht. Ein solcher würde als Einzelgänger ‚veröden‘ oder — viel wahrscheinlicher — auf lange Sicht von der Mehrheit der anderen als ‚Verrückter‘ und ‚Unruhestifter‘ ‚ausgestoßen‘ werden.

Vom Ende her gedacht, von der praktisch erwarteten Lösung, muss es möglich sein, dass die jeweilige gesellschaftliche Gruppe in der Lage ist, gemeinsam ein Bild der Welt zu erarbeiten, das die Gruppe in die Lage versetzt, aktuelle Herausforderungen so zu lösen, dass diese Lösung noch in einem überschaubaren Zeitabschnitt (wie viele Jahre? Auch noch für die Enkel?) funktionieren. Dies schließt eine sachliche Funktion genauso ein wie die Übereinstimmung mit jenen Präferenzen, auf sich die Gruppierung zu Beginn geeinigt hat.

Die Ermöglichung hinreichend leistungsfähiger Bilder von der Welt in allen Beteiligten verlangt auf jeden Fall einen Kommunikationsprozess, bei dem alle Beteiligten aktiv mitwirken können. Nun kennen wir in demokratischen Gesellschaften heute die Forderung nach mehr Bürgerbeteiligungen aus vielen politischen Bekundungen und auch von zahllosen realen Initiativen. Die reale Auswirkung auf die Politik wie auch die Qualität dieser Beteiligungen ist bislang — in meiner Wahrnehmung — nicht sehr groß, meistens sehr schlecht, und auch eher folgenlos. Diese Situation kann auch die gefühlte Ohnmacht weiter verstärken.

EINE PARALLELWELT – Bislang ungenutzt

Bei der Frage, was kann man in dieser Situation tun, kann es hilfreich sein, den Blick vom ‚alltäglichen politischen Normalgeschehen‘ mal in jene Bereiche der Gesellschaft zu lenken, in denen es — unbeachtet von der öffentlichen Aufmerksamkeit und den Mainstream-Medien — weltweit eine Gruppe von Menschen gelingt, täglich die kompliziertesten Aufgaben erfolgreich zu lösen. Diese Menschen arbeiten in Gruppen von 10 bis 10.000 (oder gar mehr), sprechen viele verschiedene Sprachen, haben ganz unterschiedliches Wissen, arbeiten parallel in verschiedenen Ländern und gar auf verschiedenen Kontinenten in unterschiedlichen Zeitzonen, und errichten riesige Bauwerke, bauen riesige Flugzeuge, Raketen, ermöglichen die Arbeit von riesigen Fabriken, bauen eine Vielzahl von Autos, bauen tausende von Kraftwerken, immer komplexere Datennetzwerke mit Rechenzentren und Kontrollstrukturen, Roboter, und vieles, vieles mehr …

Was von außen vielleicht wie Magie wirken kann, wie ein Wunder aus einer anderen Welt, entpuppt sich bei näherem Zusehen als ein organisiertes Vorgehen nach transparenten Regeln, nach eingeübten und bewährten Methoden, in denen alle Beteiligten ihr Wissen nach vereinbarten Regeln gemeinsam ‚auf den Tisch‘ legen, es in einer gemeinsamen Sprache tun, die alle verstehen; wo alles ausführlich dokumentiert ist; wo man die Sachverhalte als transparente Modelle aufbaut, die alle sehen können, die alle ausprobieren können, und wo diese Modelle — schon seit vielen Jahren — immer auch Simulierbar sind, testbar und auch ausführlich getestet werden. Das, was am Ende eines solche Prozesses der Öffentlichkeit übergeben wird, funktioniert dann genauso, wie geplant (wenn nicht Manager und Politiker aus sachfremden Motiven heraus, Druck ausüben, wichtige Regel zu verletzten, damit es schneller fertig wird und/ oder billiger wird. Unfälle mit Todesfolgen sind dann nicht auszuschließen).

Normalerweise existiert die Welt des Engineerings und die soziale und politische Alltagswelt eher getrennt nebeneinander her, wenn man sie aber miteinander verknüpft, kann sich Erstaunliches ereignen.

KOMMUNALPLANUNG UND eGAMING

Bei einem Kongress im April 2018 kam es zu einer denkwürdigen Begegnung zwischen Städteplanern und einem Informatiker der UAS Frankfurt. Aus dem Kongress ergab sich eine erste Einsicht in das Planungsproblem von Kommunen, das schon bei ‚kleinen‘ Kommunen mit ca. 15.000 Einwohner eigentlich alle bekannten Planungsmethoden überfordert. Von größeren Gebilden, geschweige denn ‚Mega-Cities‘, gar nicht zu reden.

Mehrere Gespräche, Workshops und Vorträge mit Bürgern aus verschiedenen Kommunen und Planungseinheiten von zwei größeren Städten ermöglichten dann die Formulierung eines umfassenden Projektes, das von Mai – August 2019 einen realen Testlauf dieser Ideen ermöglicht.

Aus nachfolgenden Diskussionen entstand eine erste Vision unter dem Titel Kommunalplanung und eGaming , in der versuchsweise die Methoden der Ingenieure auf das Feld der Kommunalplanung und der Beteiligung der Bürger angedacht wurde. Es entstand eine zwar noch sehr grobe, aber doch vielseitig elektrisierende Vision eines neuen Formates, wie die Weisheit der Ingenieure für die Interessen der Bürger einer Kommune nutzbar gemacht werden könnte.

REALWELT EXPERIMENT SOMMER 2019

Im Rahmen einer alle Fachbereiche übergreifenden Lehrveranstaltung haben Teams von Studierenden die Möglichkeit (i) die ingenieurmäßigen Methoden kennen zu lernen, mit denen man Fragestellungen in einer Kommune ausgehend von den Bürgern (!) analysieren kann; (ii) mit diesen Fragestellungen können dann — immer auch in Absprache mit den Bürgern — Analysemodelle erarbeitet werden, die dann — unter Klärung möglicher Veränderbarkeit — zu (interaktiven) Simulationsmodellen erweitert werden. Diese lassen sich dann (iii) mit allen Beteiligten durchspielen. Dadurch eröffnen sich Möglichkeiten des direkten ‚Erfahrungsaustausches zwischen Studierenden und Bürgern und ein gemeinsames Lernen, was die Wirklichkeit einer Stadt ist und welche Potentiale eine solche Kommune hat. Insbesondere eröffnet solch ein Vorgehen auch Einsichten in vielfältige Wechselwirkungen zwischen allen Faktoren, die ohne diese Methoden völlig unsichtbar blieben. In nachfolgenden Semestern soll noch die wichtige Orakelfunktion hinzugefügt werden.

Parallel zum Vorlesungsgeschehen bereitet ein eigenes Software-Team eine erste Demonstrationssoftware vor, mit der man erste Analysemodelle und Simulationsmodelle erstellen kann, um — auch interaktive — Simulationen vornehmen zu können. Wenn alles klappt, würde diese Juni/ Juli zur Verfügung stehen.

AUSBLICK

Vereinfachend — und vielleicht auch ein wenig überspitzt polemisch — ausgedrückt, kann man sagen, dass in diesem Projekt (vorläufige Abkürzung: KOMeGA) das Verhältnis zwischen Menschen und digitaler Technologie umgekehrt wird: während bislang die Menschen mehr und mehr nur dazu missbraucht werden, anonyme Algorithmen zu füttern, die globalen Interessen dienen, die nicht die des einzelnen Bürgers sind, wird hier die Technik den Interessen der Bürger vollständig untergeordnet. Die Technologie hat einzig die Aufgabe, den Bürgern zu helfen ihr gemeinsames Wissen über die Kommune :

  • zu klären
  • sichtbar zu machen
  • auszuarbeiten
  • durch zuspielen
  • zu verbessern
  • nach Regeln, die die Bürger selbst formulieren
  • für alle transparent
  • jederzeit änderbar
  • rund um die Uhr über das Smartphone abrufbar
The power of the future is your freedom … breaking the chains of the colonization of your mind …

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Relektüre von Edelman 1992: Welche Theorie von was?

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 5.Dez. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

 

DAS PROBLEM

Bei der Relektüre von Edelman (siehe Überblick über alle bisherigen Beiträge HIER) stellt sich die Frage, um welche Theorie es hier überhaupt geht?

Es ist ein großes Verdienst von Edelman, dass er versucht, die Gehirnforschung nicht isoliert zu betrachten, sondern sehr wohl im Kontext von Bewusstsein und Verhalten, sehr wohl auch im Kontext einer Evolution des Lebens bzw. auch im Kontext von ontogenetischen Wachstumsprozessen. Als wäre dies noch nicht genug, stellt er gelegentlich auch explizite philosophische Überlegungen an oder wagt sich vor in den Bereich des Engineering, insofern er konkrete materielle Modelle von Gehirnen baut (mittels künstlicher neuronaler Netze), um die Plausibilität seiner Überlegungen zum Gehirn zu überprüfen. Nimmt man all dies ernst, dann findet man sich unversehens in einer Situation wieder, wo man nicht mehr so richtig weiß, um ‚welche Theorie von was‘ es hier eigentlich geht.

PANORAMA VON PHÄNOMENEN

Vom BigBang zum homo sapiens, reflektiert in einer Vielzahl von Einzelwissenschaften
Vom BigBang zum homo sapiens, reflektiert in einer Vielzahl von Einzelwissenschaften

Versucht man die vielen Aspekte irgendwie zu ‚ordnen‘, die im Buch von Edelman aufscheinen, dann eröffnet sich ein breites Panorama von Phänomenen, die alle ineinander greifen (siehe Schaubild), und die – strenggenommen – auch genauso, in diesem dynamischen Zusammenhang, zu betrachten sind, will man die Eigenart dieser Phänomene ‚voll‘ erfassen.

Eigentlich geht es Edelman um ein besseres Verständnis des ‚Gehirns‘. Doch kommt das Gehirn ja schon im Ansatz nicht alleine, nicht isoliert vor, sondern als Teil eines übergeordneten ‚Körpers‘, der von außen betrachtet (Dritte-Person Perspektive) ein dynamisches ‚Verhalten‘ erkennen lässt. Dieses Verhalten ist – im Fall des homo sapiens, also in unserem Fall als Menschen – nicht isoliert, sondern ist sowohl durch ‚Kommunikation‘ mit anderen Menschen ‚vernetzt‘ als auch durch vielfältige Formen von Interaktionen mit einer Welt der Objekte, von Artefakten, von Maschinen, und heute sogar ‚programmierbaren Maschinen‘, wobei letztere ein Verhalten zeigen können, das zunehmend dem menschliche Verhalten ‚ähnelt‘. Ferner konstatieren wir im Fall des homo sapiens in der Ersten-Person Perspektive noch etwas, das wir ‚Bewusstsein‘ nennen, das sich aber nur schwer in seiner Beschaffenheit kommunizieren lässt.

WISSENSCHAFTLICHE DISZIPLINEN

Im Versuch, die Vielfalt der hier beobachtbaren Phänomene beschreiben zu können, hat sich eine Vielzahl von Disziplinen herausgebildet, die sich — neben der Sonderstellung der Philosophie — als ‚wissenschaftliche Disziplinen‘ bezeichnen. ‚Wissenschaftlich‘ heißt hier in erster Linie, dass man die Phänomene des Gegenstandsbereichs nach zuvor vereinbarten Standards reproduzierbar ‚misst‘ und man nur solche so vermessenen Phänomene als Basis weitergehender Überlegungen akzeptiert. Das Paradoxe an dieser Situation ist – was Edelman auf S.114 auch notiert –, dass sich dieses wissenschaftliche Paradigma nur umsetzen lässt, wenn man Beobachter mit Bewusstsein voraussetzt, dass man aber zugleich im Ergebnis der Messung und der Überlegungen von dem ermöglichenden Bewusstsein (samt Gehirn) abstrahiert.

PHILOSOPHIE FÜR DEN ‚REST‘

Eine Konsequenz dieser ‚Abstraktion von den Voraussetzungen‘ ist, dass ein Wissenschaftler letztlich keine Möglichkeit hat, in ‚offizieller‘ Weise, über sich selbst, über sein  Tun, und speziell auch nicht über die Voraussetzungen seines Tuns, zu sprechen. Ein solches sich selbst reflektierende Denken und Sprechen bleibt damit der Philosophie überlassen, die als solche bei der Entstehung der empirischen Wissenschaften offiziell vom Wissenschaftsbetrieb ausgeschlossen wurde. Als Wissenschaftsphilosophie hat die Philosophie zwar immer wieder versucht, sich dem empirischen Wissenschaftsbetrieb offiziell anzunähern, aber bis heute ist das Verhältnis von empirischen Wissenschaften und (Wissenschafts-)Philosophie aus Sicht der empirischen Wissenschaften ungeklärt. Für die empirischen Wissenschaften wundert dies nicht, da sie sich von ihrem methodischen Selbstverständnis her auf ihre isolierte Betrachtungsweisen verpflichtet haben und von diesem Selbstverständnis her sich jeder Möglichkeit beraubt haben, diese Isolation mit den typischen wissenschaftlichen Bordmitteln aufzubrechen. Allerdings produziert dieses ’selbst isolierende Paradigma‘ immer mehr Einzeldisziplinen ohne erkennbaren Zusammenhang! Es ist nur eine Frage der Zeit, bis wann sich diese Explosion der nicht-integrierten Einzelbilder selbst zerstört.

ANSPRUCH, ALLES ZU ERKLÄREN

Die Wissenschaften selbst, allen voran die Physik, kennen sehr wohl den Anspruch, mit ihrer Arbeit letztlich ‚alles aus einer Hand‘ zu erklären (z.B. formuliert als ‚Theory of Everything (ToE)‘ oder mit dem Begriff der ‚Weltformel‘), doch sowohl die konkrete Realität als auch grundlegende philosophische und meta-theoretische Untersuchungen legen eher den Schluss nahe, dass dies vom Standpunkt einer einzelnen empirischen Wissenschaft aus, nicht möglich ist.

VISION EINES RATIONALEN GESAMT-RAHMENS

Um also die Vielfalt der einzelnen wissenschaftlichen Disziplinen zu bewahren, mehr noch, um sie in ihren inhaltlichen und methodischen Beschränkungen untereinander transparent und verständlich zu machen, wird man die (philosophische) Arbeitshypothese aufstellen müssen, dass die Rationalität der Einzelwissenschaften letztlich nur aufrecht erhalten werden kann, wenn man sowohl für jede Einzelwissenschaft wie auch für ihr Zusammenspiel eine rationale Begründung sichtbar machen kann, die für alle ‚gilt‘. Ein solcher Rationalitätsanspruch ist nicht zu verwechsel mit der alten Idee einer einzelwissenschaftlichen ‚Weltformel‘ oder einer einzelwissenschaftlichen ‚Theory of Everything‘. Eher eignet sich hier das Paradigma einer kritischen Philosophie von Kant, die nach der Voraussetzung für den Wahrheitsanspruch einer Theorie fragt. Während Kant allerdings die Frage nach den Voraussetzungen bei den Grenzen des Bewusstseins mangels verfügbarem Wissens enden lassen musste, können wir heute – auch Dank der Arbeiten von Edelman und anderen – diese Grenzen weiter hinausschieben, indem wir die Voraussetzungen des Bewusstseins einbeziehen. Eine solche bewusste Erweiterung der philosophischen Frage nach den Voraussetzungen des menschlichen Erkennens über die Grenzen des Bewusstseins hinaus führt dann nicht nur zum ermöglichenden Gehirn und dem zugehörigen Körper, sondern geht dann weiter zur umgebenden Welt und ihrer Dynamik, die sich im Evolutionsgeschehen und in der Entstehung des bekannten Universums zeigt.

PHILOSOPHIE UND WISSENSCHAFTEN

Die schon immer nicht leichte Aufgabe des philosophischen Denkens wird mit diesen methodischen Erweiterungen keinesfalls einfacher, sondern erheblich schwieriger. Andererseits muss die Philosophie diese Reflexionsarbeit nicht mehr alleine leisten, sondern sie kann die ganze Fülle der einzelwissenschaftlichen Arbeiten aufgreifen, um sie dann in einem gemeinsamen Rationalitätsrahmen neu anzuordnen.

Beispiele für Integrationsbemühungen gibt es sogar seitens der Einzelwissenschaften, wenngleich meistens methodisch wenig überzeugend. So versuchen Gehirnforscher schon seit vielen Jahren Zusammenhänge zwischen messbaren Aktivitäten des Gehirns und des beobachtbaren Verhaltens (unter dem Label ‚Neuropsychologie‘) oder zwischen messbaren Aktivitäten des Gehirns und Erlebnissen des Bewusstseins (kein wirkliches Label; man würde ‚Neurophänomenologie‘ erwarten) heraus zu finden. Bislang mit begrenztem Erfolg.

Bei aller Problematik im Detail kann es aber nur darum gehen, die ungeheure Vielfalt der Phänomene, wie sie die Einzelwissenschaften bislang zutage gefördert haben, vor-sortiert in einer Vielzahl von Arbeitshypothesen, Modellen und Theoriefragmenten, in einen von allen akzeptierbaren Rationalitätsrahmen einordnen zu können, der eine Gesamt-Theorie reflektiert, die als solche möglicherweise immer unvollendet bleiben wird

WOMIT FANGEN WIR AN?

Damit stellt sich ganz praktisch die Frage, wo und wie soll man anfangen? Das Buch von Edelman kann erste Hinweise liefern.

  1. KEINE WISSENSINSELN: Am Beispiel des homo sapiens wird deutlich, dass ein Verständnis von Bewusstsein, Gehirn, Körper, Verhalten und hier insbesondere die symbolische Kommunikation je für sich nicht gelingen kann. Und Edelman demonstriert eindrücklich, dass man zusätzlich die ontogenetische und evolutive Dimension einbeziehen muss, will man zu einem befriedigenden Verständnis kommen.
  2. INTEGRATION VON EINZELWISSEN: Man muss also Wege finden, wie man diese verschiedenen Aspekte in einem gemeinsamen Rationalitätsrahmen so anordnen kann, dass sowohl die einzelwissenschaftliche Methodik gewahrt bleibt, wie auch eine ‚Integration‘ all dieser Aspekte auf einer ‚gemeinsamen Ebene‘ möglich wird, die dabei von den Einzelwissenschaften nicht ‚isoliert‘ ist.
  3. META-WISSEN ALS LEITFADEN: Das geforderte Vorgehen betrachtet die konkreten einzelwissenschaftlichen Erklärungsansätze als einen ‚Gegenstand sui generis‘, macht also die Einzelwissenschaften zu ‚Untersuchungsgegenständen‘. Dies entspricht dem Paradigma der Wissenschaftsphilosophie.
  4. NEUE WISSENSCHAFTSPHILOSOPHIE: Mit Blick auf die Geschichte der modernen Wissenschaftsphilosophie (etwa seit dem Wiener Kreis) muss man dafür offen sein, dass das Paradigma der Wissenschaftsphilosophie für diese Aufgabenstellung möglicherweise neu zu formatieren ist.
  5. KOMMUNIKATIONSPROZESS ALS RAHMEN: So liegt es nahe, zu sagen, es gehe nicht primär um einen isolierten Theoriebegriff, sondern um einen Kommunikationsprozess, der Kommunikationsinhalte generiert, die im Rahmen des Kommunikationsprozesses ‚verstehbar‘ sein sollen.
  6. SYSTEMS-ENGINEERING ALS BEISPIEL: Ein modernes Beispiel für einen problemorientierten Kommunikationsprozess findet sich im Paradigma des modernen Systems-Engineering. Auslöser des Kommunikationsprozesses ist eine ‚Frage‘ oder eine ‚Problemstellung‘, und der Kommunikationsprozess versucht nun durch Ausnutzung des Wissens und der Erfahrungen von allen Beteiligten einen gemeinsames Bild von möglichen Lösungen zu generieren. Zu Beginn werden alle Kriterien kenntlich gemacht, die für die intendierte Lösung berücksichtigt werden sollen.
  7. EINBEZIEHUNG AUTOMATISIERTEN WISSENS: Insbesondere soll der Kommunikationsprozess so ausgelegt sein, dass er den Einsatz moderner Wissenstechnologien wie z.B.. ‚Interaktive Simulationen‘, ‚Kommunikationstests‘, ‚benutzerzentrierte künstliche Intelligenz‘, sowie automatisierte ‚Simulationsbibliotheken‘ erlaubt.

Dies ist nur eine erste, noch sehr vage Formulierung. Es wird notwendig sein, diese anhand von vielen Beispielen weiter zu konkretisieren und zu verfeinern.

 

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

Ballungsraum 2117 und technische Superintelligenz. Welche Rolle verbleibt uns Menschen?

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
14.April 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch, Frankfurt University of Applied Sciences
Email: doeben@fb2.fra-uas.de
Email: gerd@doeben-henisch.de

PDF

INHALT

I VISION RESILIENZ
II VIELE AKTEURE
III PROBLEMLÖSUNGSSTRATEGIEN
IV MENSCH UND KOMPLEXITÄT
V INGENIEURE ALS VORBILD
VI CLUB OF ROME – NUR GESTERN?
VII DER UMFASSEND DIGITALISIERTE MENSCH ENTSTEHT HEUTE
VIII SIMULATIONEN BEHERZTER NUTZEN?
IX TECHNISCHE SUPERINTELLIGENZ
X WAS KANN EIN COMPUTER?
XI DAS EI DES COLUMBUS
XII EINE NEUE MENSCH-MASCHINE SUPER-INTELLIGENZ FÜR DEN BALLUNGSRAUM?
IX QUELLEN

ÜBERBLICK

Dieser Text wurde ursprünglich als Vorbereitung für das Programmheft der Konferenz ’Der Resiliente Ballungsraum’ des Frankfurter Forschungsinstituts FFin am 13.April 2018 geschrieben. Die aktuelle Version stellt eine leicht überarbeitete Version im Anschluss an die Konferenz dar, ergänzt um Literaturangaben. Ausgehend von der Komplexität heutiger Ballungsräume wird die Frage gestellt, ob und wie wir Menschen die neuen digitalen Technologien, insbesondere auch künstliche Intelligenz, nutzen könnten, um mit dieser Komplexität besser umzugehen. Durch die langsam wachsende Erkenntnis, dass der resiliente Charakter vieler komplexer Systeme zudem ein Denken verlangt, das weit hinter die Oberfläche der Phänomene schaut, wird die Frage nach einer möglichen Unterstützung durch die neuen digitalen Technologien umso dringlicher. Im Text schält sich eine ungewöhnliche mögliche Antwort heraus, die auf eine ganz neue Perspektive in der Planungsdiskussion hinauslaufen könnte.

I. VISION RESILIENZ

Mit der Leitidee der ’Resilienz’ (1) zielt das Denken im Kern ab auf die Dimension der Überlebensfähigkeit von Ballungsräumen, die sich als dynamische Gebilde zeigen, ständigen Veränderungen unterworfen sind, ein dicht  verwobenes Knäuel von Faktoren, die alle gleichzeitig miteinander in Wechselwirkung stehen. Und, ja, natürlich, wer ist nicht daran interessiert, dass diese Gebilde als konkrete Lebensräume für konkrete Menschen möglichst lange funktionsfähig bleiben. Doch, was als sinnvoller Wunsch einer breiten Zustimmung sicher sein kann, kann sehr schnell zur Last, oder gar zum Alptraum werden, wenn man auf die eine oder andere Weise zum ’realen Akteur’ werden muss.(2)

(Anmk: 1: Dieser Artikel benutzt den Resilienzbegriff, wie er in dem grundlegenden Artikel von Holling 1973 [Hol73] vorgestellt worden ist)

(Anmk: 2: Eine Auseinandersetzung mit dem neuen Lieblingswort der ’Resilienz’ im Kontext der Städteplanung findet in einem Folgeartikel in diesem Blog statt. Mit Blick auf den Städtebau siehe auch Jakubowski (2013) [Jak13] )

II. VIELE AKTEURE

Ein polyzentrischer Ballungsraum wie das Rhein-Main Gebiet zählt schon heute an die 5 Mio. Bürger, die in tausenden von unterschiedlichen Rollen Akteure sind, die den Ballungsraum nutzen, ihn auf unterschiedliche Weise gestalten, und die alle ihre Ansprüche haben, die sie befriedigt sehen wollen. (3) Jeder dieser Akteure hat ’sein Bild’ von diesem Ballungsraum. Der eigene Wohnbereich, die täglichen Wege zur und von der Arbeit, Einkäufe, Kinder zum Kindergarten oder zur Schule, vielfältige Freizeit, Großereignisse, Unwetter, Krankheiten . . . irgendwie muss alles irgendwie stimmen, muss es lebbar sein, bezahlbar…. Leiter von Firmen haben weitere spezielle Anforderungen, nicht zuletzt die Verfügbarkeit geeigneter Mitarbeiter, Planungssicherheit, möglichst geringe Kosten, Verkehrs- und Telekommunikationsanbindungen, und vieles mehr . . . Die Ämter und Fachreferate in den Kommunen stehen im Kreuzfeuer vielfältigster politischer Interessen, von Alltagsanforderungen, mangelnder Kommunikation zwischen allen Abteilungen, Bergen von Vorschriften, Mangel an Geld, Personalproblemen, einer Vielzahl von komplexen und disparaten Plänen, ungelösten Altlasten aus der Vergangenheit… Polyzentrisch heißt auch, es gibt nicht nur viele Zentren, sondern auch entsprechend viele Kapitäne, die ihre eigenen Routen haben. Wie soll dies alles koordiniert werden?

(Anmk: 3:   Siehe dazu Peterek/ Bürklin (2014) [PB13], Buerklin/ Peterek (2016) [BP16] )

III. PROBLEMLÖSUNGSSTRATEGIEN

Aus der Nähe betrachtet mutiert die Vision eines resilienten Planungsraumes schnell zum bekannten Muster des ’Lösens eines Problems’: es gibt einen Ausgangspunkt, die jeweilige Gegenwart, es gibt eine Gruppe von Akteuren, die selbst ernannten Problemlöser, und es gibt verschiedene Strategien, wie man versucht, ausgehend von einer – meist nur partiell bekannten – Gegenwart brauchbare Erkenntnisse für eine unbekannte Zukunft zu gewinnen; dazu soll die Lösung – entsprechend der Vision – ’resilient’ sein.

Schaut man sich konkrete Beispiele von Planungstätigkeiten aus den letzten Monaten im Rhein-Main Gebiet an, dann findet man sehr viele unterschiedliche Formen von Problemlösungsverhalten. Zwischen einer rein ’inner-behördlichen’ Vorgehensweisen mit sehr eingeschränkten Ist-Erfassungen und Lösungsfindungen bis hin zu einer sehr umfassenden Einbeziehungen von vielen Bevölkerungsgruppen über viele Kommunikationsstufen hinweg mit unterschiedlichen kreativen Ideen-Findungen. (4)

Diese letzteren, möglichst viele unterschiedliche Akteure einbeziehenden Vorgehensweisen, wirken auf den ersten Blick vertrauenerweckender, da grundsätzlich mehr Perspektiven zu Wort kommen und damit sowohl ein größerer Erfahrungsraum aus der Gegenwart wie auch eine größere Farbigkeit für eine mögliche Zukunft. Wäre solch eine Strategie die Strategie der Stunde?

(Anmk: 4: Dazu war das Referat von Dr.Gwechenberger vom Dezernat Planen und Wohnen der Stadt Frankfurt, sehr aufschlussreich. Neben der in der Sache gründenden Komplexität spielen die vielfältigen rechtlichen Vorgaben eine große Rolle, dazu die unterschiedlichen Mentalitäten aller Beteiligten, insbesondere die vielfältigen individuellen Interessen und Motivlagen. Das ganze eingebettet in unterschiedliche Zeitfenster, wann welche Aktion möglich, sinnvoll oder notwendig ist. Demokratie ist so gesehen auf jeden Fall zeitaufwendig, dann aber– hoffentlich – resilienter und nachhaltiger)

IV. MENSCH UND KOMPLEXITÄT

Schaut man sich an, was der Mensch als Lebensform des Homo sapiens in den vielen tausend Jahren seit seiner Besiedlung aller Erdteile geleistet hat, dann kann man sich eigentlich nur vor Ehrfurcht verneigen. Quasi aus dem Nichts kommend hat er es im Laufe von ca. 70.000 Jahren geschafft, aufgrund seiner Intelligenz und Sprachfähigkeit immer komplexere Tätigkeiten auszubilden, Handwerkszeug, Technologien, Regeln des Zusammenlebens, Großansiedlungen, komplexe Handelsbeziehungen. Er zeigte sich fähig, komplexe Staaten zu bilden, Großreiche, fantastische Architektur, immer komplexere Maschinen, empirische Forschungen bis in die Tiefen des Universums, in die Tiefen der Materie, in die verschlungenen Wege der Mikrobiologie von den Molekülen zu einfachen, dann komplexen Zellen bis hin zu komplexen Lebewesen, vielfältigste Formen von Klängen, Musik, Sounds, Bildwelten.

Schließlich erfand er auch die Computertechnologie, mit der man unvorstellbar viele Daten in unvorstellbar schneller Zeit verarbeiten kann. Würden heute auf einen Schlag alle Computer und Netzwerke weltweit still stehen, die Welt bräche völlig in sich zusammen. Ein beispielloses Chaos und Elend wäre die Folge.

Dies deutet indirekt auf einen Sachverhalt, den wir als Menschen im Alltag gerne übersehen, um nicht zu sagen, den wir geradezu verdrängen. Dies hat zu tun mit den realen Grenzen unserer kognitiven Fähigkeiten.

Trotz eines fantastischen Körpers mit einem fantastischen Gehirn hat jeder Mensch nur eine sehr begrenzte kognitive Aufnahmefähigkeit von ca. 5-9 Informationseinheiten pro Sekunde, was jeder Mensch in einfachen Selbstversuchen an sich überprüfen kann. (5) Und die Verarbeitung dieser Informationseinheiten mit Hilfe des vorher erworbenen Wissens verläuft unbewusst nach weitgehend relativ festen Schemata, die es einem Menschen schwer machen, Neues zu erfassen bzw. in sein bisheriges Bild von der Welt einzubauen. (6) Noch schwerer tut sich jeder Mensch, wenn es darum geht, Zusammenhänge zu erfassen, die vielerlei Faktoren umfassen, Faktoren, die oft zudem ’verdeckt’, auf den ersten Blick ’unsichtbar’ sind. Ganz schwer wird es, wenn sich komplexe Faktorenbündel zusätzlich in der Zeit ändern können, womöglich noch mit Rückkopplungen.

Gilt schon die Voraussage des Verhaltens eines einzelnen Menschen für nur ein Jahr mathematisch als unmöglich, so erscheint die Voraussage des Verhaltens von 5 Mio. Bewohner des Rhein-Main Gebietes entsprechend undurchführbar, zumal die Ab- und Zuwanderung hier sehr hoch ist. (7) Dazu kommen Veränderungen von Bedürfnislagen, Veränderungen von Technologien, Veränderungen von konkurrierenden Wirtschaftsregionen, und vieles mehr. Die bislang bekannten und praktizierten Planungsverfahren wirken angesichts dieser zu bewältigenden Komplexität nicht sehr überzeugend. Sie wirken eher hilflos, uninformiert. Scheitern wir mit unseren begrenzten individuellen kognitiven Fähigkeiten an der heutigen Komplexität?

(Anmk: 5: Die erste bahnbrechende Untersuchung zu der ’magischen Zahl 7+/-2’ stammt von George A.Miller (1956) [Mil56]. Dazu gibt es zahllose weitere Studien, die das Thema weiter auffächern, aber nicht diese grundsätzliche Kapazitätsbegrenzung.)

(Anmk: 6: Bekannte Texte zum Zusammenspiel zwischen Kurz- und Langzeitgedächtnis sind Baddeley/Logie (1999) [BL99], Baddeley (2003) [Bad03], und Repovs/Baddeley (2006) [RB06]. Allerdings ist das Thema Gedächtnis mit diesen Artikeln nicht abgeschlossen sondern wird in vielen hundert weiteren Artikeln weiter untersucht.)

(Anmk: 7: Hinweis von Dr. Gwechenberger zur Migration der Stadt Frankfurt: rein statistisch wird innerhalb von 12 Jahren die gesamte Bevölkerung von Frankfurt einmal komplett ausgetauscht.)

V. INGENIEURE ALS VORBILD

Vergessen wir für einen Moment das Problem des komplexen Ballungsraumes und schauen, was denn die Ingenieure dieser Welt machen, wenn sie seit Jahrzehnten komplexe Systeme entwickeln, bauen und in Betrieb halten, die die kognitiven Fähigkeiten eines einzelnen Ingenieurs um viele Dimensionen übersteigen.

Moderne Ingenieurleistungen verlangen das Zusammenspiel von oft mehr als 10.000 einzelnen Experten aus sehr vielen unterschiedlichen Gebieten, nicht nur über Monate, sondern oft über Jahre hin. Wie kann dies funktionieren?

Ingenieure haben sehr früh gelernt, ihr Vorgehen zu systematisieren. Sie haben komplexe Regelwerke entwickelt, die unter dem Stichwort ’Systems Engineering’ beschreiben, wie man beliebige Probleme von der Aufgabenstellung in eine funktionierende Lösung überführt, einschließlich umfassender Tests in allen Phasen. Und selbst der spätere Einsatz des entwickelten Produktes oder der entwickelten Dienstleistung ist nochmals spezifiziert. Dies führt dazu, dass z.B. Flugzeuge, Atomkraftwerke, landesweite Energienetzwerke, Raumfahrtprojekte, im Vergleich die sichersten Systeme sind, die wir kennen.

Neben ausgeklügelten Dokumentationstechniken spielen im Engineeringprozess mathematische Modelle eine zentrale Rolle und, seit vielen Jahren unverzichtbar, computergestützte Simulationen. Schon seit vielen Jahren gibt es kein einziges anspruchsvolles Produkt mehr, das zuvor nicht vollständig als Computersimulation ausprobiert und getestet wurde. Dazu gehören z.B. auch Computerchips, speziell jene Prozessoren, die das Herz eines Computers bilden. Schon vor 30 Jahren waren diese so komplex, dass deren Entwicklung und die Tests auf ihre Funktionstüchtigkeit ohne Computer nicht möglich war. Anders gesagt, wir können Computer und all die anderen komplexen Produkte schon seit Jahren nur entwickeln, weil wir dazu Computer einsetzen. Kein menschliches Gehirn ist in der Lage, die schon heute benötigten Komplexitäten noch irgendwie praktisch zu meistern, auch viele tausende Gehirne zusammen nicht.

Angesichts dieser Erfolgsgeschichten im Bereich des Engineerings kann man sich fragen, ob man von diesen Erfahrungen für den Bereich der Planung von Ballungsräumen nicht irgend etwas lernen könnte?

VI. CLUB OF ROME – NUR GESTERN?

Manche von Ihnen erinnern sich vielleicht noch an die zu ihrer Zeit provozierende erste Studie ”The Limits to Growth” des Club of Rome von 1972. (8) Dies war der erste Versuch, die Dynamik der Erde unter der Herrschaft der Menschen mit einem umfassenden Computermodell abzubilden und mit Hilfe des Modells mögliche Hinweise zu bekommen, wie sich die Dinge bei Veränderung der bekannten Faktoren in der Zukunft auswirken.

Seit dieser Veröffentlichung sind mehr als 40 Jahre vergangen. (9) Es gab auf der einen Seite heftigste Kritik, aber zugleich auch viele evaluierende Studien, die immer wieder bekräftigten, dass die Kernaussagen dieses Modells – das vergleichsweise einfach war und ist – sich im Laufe der Jahrzehnte für die Variante ’normaler Verlauf’ weitgehend bestätigt hat. (10)

Es ist hier nicht die Stelle, ein abschließendes Urteil über dieses Computermodell zu fällen (ein Student von mir hatte es mal vollständig nach-programmiert). Man kann aber sagen, dass solche Modelle den bislang einzig bekannte Weg markieren, wie wir Menschen mit unserer sehr begrenzten Fähigkeit zum Denken von Komplexität uns behelfen können, diese Grenzen ansatzweise zu überwinden. Man muss sich die Frage stellen, warum wir diese Anstöße nicht in der Gegenwart systematisch aufgreifen und für unsere Zukunft nutzen?

(Anmk: 8: Meadows et.al (1972) [MLRBI72]. Die Studie des Club of Rome war die Weiterentwicklung eines Computermodells, das zurück geht auf ein Systemmodell (und Programm), das Jay W. Forrester im Laufe von 15 Jahren entwickelt hatte. Thema von Forrester war die Erforschung der Dynamik von sozialen Systemen, speziell auch von Ballungsräumen (’urban areas’). Bemerkenswert ist bei Forresters Modellbildung, dass er auch den individuellen Menschen sieht, der mit seinem jeweiligen Weltbild (er nennt es ’mentales Modell’ bzw. dann einfach ’Modell’) die Welt wahrnimmt, interpretiert und danach handelt. Will man das Verhalten ändern, dann muss man das individuelle Weltbild ändern, das in enger Wechselbeziehung zur aktuellen Gesellschaft steht.(siehe Foorester (1971) [For71]))

(Anmk:9: Da der Club of Rome 1968 gegründet wurde, feiert er 2018 sein 50-jähriges Jubiläum … und er ist immer noch aktiv.)

(Anmk: 10: Ein erster Überblick über die verschiedenen Argumente für und gegen die Analysen des Club of Rome finden sich in dem einschlägigen Wikipedia-Artikel https://en.wikipedia.org/wiki/Club of Rome. Im deutschen Wikipedia-Eintrag finden sich keine Hinweise auf kritische Einwände!)

VII. DER UMFASSEND DIGITALISIERTE MENSCH ENTSTEHT HEUTE

Im Jahre 1972 war der Computer noch keine Maschine des Alltags. Dies begann erst ab dem Jahr 1977 mit dem Auftreten von Kleincomputern für den privaten Gebrauch. Die Entwicklung seitdem war und ist explosiv.

Die Situation heute ist so, dass der Mensch mit seinem realen Körper zwar noch weiterhin in einer realen Körperwelt verankert ist, dass er aber über die vielen elektronischen Geräte, speziell durch Smartphones, Wearables, Tabletts, Notebooks, Laptops und PCs mit immer größeren Zeitanteilen seine Tages über Datennetze mit einer globalen Datenwelt verbunden ist, die rund um die Uhr Raum und Zeit vergessen lässt. Definierte sich ein Mensch früher über seine realen Aktivitäten, wird dies zunehmend ergänzt durch digitale Aktivitäten und Ereignisse. Das Selbstbild, der ganze persönliche Erlebnisraum wird zunehmend durch solche nicht-realweltlichen Strukturen ersetzt. Empirische Realität und digitale Realität beginnen im virtuellen Raum des individuellen Bewusstseins zu verschwimmen. Müsste der Mensch nicht noch seine elementaren körperlichen Bedürfnisse befriedigen, er könnte subjektiv ausschließlich im digitalen Raum arbeiten, kommunizieren, soziale Erfüllung finden, Spielen und . . . . die Grenzen dieser neuen digital erweiterten Lebensform sind bislang noch schwer zu fassen.

Während der professionelle Planungsalltag der Kommunen und Regionen Computer noch sehr verhalten einsetzt, zeigen uns die vielen Mio. Computerspieler weltweit, dass die Menschen sehr wohl Gefallen daran finden können, mit den Mitteln der Computersimulation die Gegenwart hinter sich zu lassen. Allein für Online-Computerspiele hat sich der Markt von 2011 bis 2016 von 21 Mrd. auf 31 Mrd. US-Dollar vergrößert. (11) Für das Jahr 2017 notieren die sechs Länder mit dem höchsten Umsatz bei Onlinespielen (China, USA, Japan, Deutschland, England, Südkorea) zusammen 84.7 Mrd.US-Dollar. (12) Dazu kommen nochmals 8 Mrd. US-Dollar für PC- und Spielkonsolenspiele. (13)

Computerspiele sind komplexe Simulationen in denen eine Ausgangslage mit Hilfe von Regeln in beliebig viele Nachfolgesituationen transformiert werden können. Dies geschieht mittlerweile in 3D, berücksichtigt realistische Geländeformationen mit Vegetation, komplexe Gebäude, viele Tausend Mitspieler, erlaubt gemeinsame Aktionen und macht so eine dynamische digitale Welt virtuell erlebbar.

Diese theoretische Beschreibung lässt das gewaltige Potential erahnen, das Computerspiele prinzipiell für Lernprozesse und für gemeinsame Zukunftsforschung haben könnten. In der Realität bleiben diese aber weit hinter ihren Möglichkeiten zurück, da die Betreiber bislang wenig Interesse zeigen, das Lern- und Forschungspotential dieser neuen ’Technologie ernsthaft zu nutzen. Die Computerspiele sind bislang eher Erlebnis-, nicht Wissens- getrieben.

(Anmk: 11: Quelle: https://www.statista.com/statistics/292516/pc-online-game-market-value-worldwide/.)

(Anmk: 12: Quelle: https://www.statista.com/statistics/308454/gaming-revenue-countries/.)

(Anmk: 13: Quelle: https://www.statista.com/statistics/237187/global-pc-console-games-revenue-by-type/. )

VIII. SIMULATIONEN BEHERZTER NUTZEN?

An dieser Stelle kann man sich die Frage stellen, warum man das Komplexitätsproblem am Beispiel von Ballungsräumen nicht mit diesen neuen Simulationstechniken angehen sollte?

Verteilte Simulationen würden beliebigen Bürgern die reale Möglichkeit bieten, sich zu beteiligen. Das unterschiedliche Wissen in den unterschiedlichen Köpfen könnte man schrittweise aufsammeln und als Regelwissen in den Simulationen zur Verfügung stellen. Im Unterschied zu kommerziellen Spielen könnte man diese Regeln offenlegen für alle und sie zum Gegenstand von Fachgesprächen machen. In realen Simulationsabläufen könnte man jeweils austesten, wie sich bestimmte Regeln auswirken: sind sie realistisch? Wo führen sie uns hin? Welche Wechselwirkungen mit anderen Regeln tun sich auf? Dieses Werkzeug könnten den Fachabteilungen in den Behörden genauso offen stehen wie den Schulen und Universitäten; Firmen könnten ihre eigenen Szenarien ausprobieren. Alle könnten sich immer wieder auch zu gemeinsamen Experimenten verabreden; man könnte gar Wettbewerbe starten, eine Art kommunales eGaming. In diesem Fall würde es dann wirklich um etwas gehen, nämlich um die eigene Welt und ihre mögliche Zukunft. Mit einem solchen verteilten dynamischen Planungswerkzeug könnte man den Ballungsraum 2117 schon ziemlich gut erforschen, zumindest soweit es uns heute, im Jahr 2018 überhaupt möglich ist. (14)

(Anmk: 14: Im Rahmen der abschließenden Podiumsdiskussion zur Tagung stieß die Idee des Einsatzes von mehr Computersimulationen im Gewand von Computerspielen für die Stadtplanung auf unterschiedliche Reaktionen. Der meiste Widerstand ging aus von der Vorstellung, dass Computerprogramme abgeschlossene Einheiten sind, die aus sich heraus niemals die Vielfalt und Dynamik der Wirklichkeit abbilden könnten. Dem hielt der Autor entgegen, dass man primär vom Kommunikationsprozess zwischen Menschen her denken müsse, dem Austausch von Weltbildern, verbunden mit einem möglichen ’Um-Lernen’ dieser Weltbilder. Innerhalb dieser Kommunikationsprozesse kann eine Computerspielumgebung sehr wohl helfen, komplexe Sachverhalte besser zu nutzen. Außerdem können die Regeln, nach denen hier die Welt gesteuert wird, von allen Teilnehmern eingesehen und auf Wunsch geändert werden.)

IX. TECHNISCHE SUPERINTELLIGENZ

An dieser Stelle könnte dieser Vortrag unter normalen Umständen enden. Schon jetzt enthält er eine Reihe von Anregungen, die über den aktuellen Status Quo weit hinausgehen. Aber wir leben in einer Zeit, in der die Welt – spätestens seit der Cebit 2016 – zu fast allen passenden und auch unpassenden Gelegenheiten mit dem Begriff ’Künstliche Intelligenz’ beschallt wird. Kaum noch ein Produkt oder eine Dienstleistung, die nicht irgendwie den Anspruch erhebt, entweder schon über ’künstliche Intelligenz’ zu verfügen oder demnächst mit so etwas ausgestattet zu werden. Und neben den Evangelisten der künstlichen Intelligenz treten auch die Propheten des Untergangs der Menschheit auf, für die die aktuelle ’Künstliche Intelligenz’ nur der Vorläufer einer ganz neuen, noch mächtigeren ’Künstlichen Intelligenz’ sei, die als ’Singularity’ alles übertreffen wird, was der Mensch als künstliche Intelligenz kennt und beherrscht. (15) Diese neue Super-Intelligenz soll dem Menschen in Geschwindigkeit, Datenvolumen und Denkfähigkeit so weit voraus und darin überlegen sein, dass diese technische Superintelligenz vom Menschen nicht mehr ernsthaft kontrolliert werden kann. Sie ist gegenüber dem Menschen so überlegen, dass sie den Menschen locker als überflüssiges Etwas abschaffen kann. Wie immer, gehen die Schätzungen, wann dies der Fall sein wird, deutlich auseinander, aber das Jahr 2117 ist ein guter Kandidat, wann es soweit sein könnte. (16) Was soll man von dieser nicht gerade beruhigenden Vision halten?

Dass Menschen alles, was ihnen neu und unbekannt ist, und ihnen Angst macht, in Form von überirdische Fabelwesen packen, ist so alt, wie die Aufzeichnungen der Menschheit reichen. In den vielen Sagen gibt es dann irgendwann einen Menschen, einen besonderen Menschen, einen Helden, der dann irgendwann eine Schwachstelle findet, durch deren Ausnutzung der Held dann das Fabelwesen zur Strecke bringen kann. Im Fall des neuen Mythos von der technischen Superintelligenz muss man allerdings nicht sehr weit suchen, um zu sehen, dass die Dinge vielleicht doch ganz anders liegen, als die Marketingmaschinerien uns glauben lassen wollen. Und ja, doch, es könnte sogar sein, dass sich hinter dem abschreckenden Mythos von der menschenfeindlichen technischen Superintelligenz eine sehr konkrete Technologie verbirgt, die uns Menschen bei unserem Komplexitätsproblem ernsthaft helfen könnte. Gehen wir zurück zu dem Mann, mit dem das seriöse Reden über die Computer-Maschine angefangen hat.

(Anmk: 15: Ein wichtiger Text zu Beginn der Diskussion um die ’technische Singularität’ ist ein Beitrag von Vinge 1993 zu einer Nasa-Konferenz [Vin93]. Ein sehr guter Einstieg in die Thematik der technischen Singularität findet sich in dem Wikipedia-Artikel zur ’Technological Singularity’, URL: https://en.wikipedia.org/wiki/Technological singularity)

(Anmk: 16: Für eine Diskussion, wann man mit welcher Art von ’Super-Human-Level’ maschineller Intelligenz rechnen sollte, finden sich im Kap.1 von Bostrom 2014 [Bos14]:SS.18-21 einige Argumente. Klar ist, dass es nicht ganz klar ist; es gibt zu viele Unbekannte und wichtige Begriffe sind unscharf. So gesehen ist die Zahl ’2117’ (geschrieben im Jahr 2017) eine fast ’satirische’ Schätzung unter Berücksichtigung der Argumente bei Bostrum.)

X. WAS KANN EIN COMPUTER?

Während die modernen Naturwissenschaften ihren Untersuchungsgegenstand, die reale Natur, von vornherein nicht kennen, sondern sich mühsam, über viele kleine Schritte, ein Bild erarbeiten müssen, wie es vielleicht sein könnte, hat die Computerwissenschaft es einfacher. Sie beginnt dort, wo es überhaupt noch keine Computer gab, sondern nur ein mathematisches Konzept über eine ideale Maschine, deren einzige Fähigkeit darin besteht, in völlig transparenter Weise eine endliche Liste von primitiven Befehlen auszuführen. (17) Im Unterschied zu einer normalen Maschine, die keine Befehle ausführt, kann eine Computer-Maschine Befehle ausführen. Dies erscheint noch nicht besonders aufregend. Ein klein wenig aufregender wird es dadurch, dass die Computermaschine mit einem Schreib-Lese-Band verknüpft ist, auf dem beliebige Zeichen stehen können. Man kann die Computer-Maschine so auslegen, dass sie diese Zeichen auf dem Schreib-Lese-Band als ihre neuen Anweisungen interpretiert. Dies klingt auch noch nicht aufregend. Aufregend wird es, wenn man sich klar macht, dass die Computer-Maschine diese Anweisungen auf dem Schreib-Lese-Band in eigener Regie verändern kann. Sie kann sozusagen das Programm, das sie steuert, selber abändern und damit die Kontrolle über ihre eigene Steuerung übernehmen. Damit verfügt die Computer-Maschine über eine wichtige Voraussetzung, um im Prinzip voll lernfähig zu sein.

Der soeben erwähnte Turing (18) war auch einer der ersten, der in drei Artikeln 1948, 1950 sowie 1953 ganz offen die Frage diskutierte, ob Computer-Maschinen, falls es diese irgendwann einmal als reale Maschinen geben würde, auch eine Intelligenz haben könnten, wie wir sie von Menschen kennen. (19) Turing selbst sah die Möglichkeit eher positiv. Er machte allerdings schon damals darauf aufmerksam, dass Computer-Maschinen aus seiner Sicht nur dann eine reelle Chance haben würden, mit dem Menschen im Lernen gleich zu ziehen, wenn sie ähnlich wie Kindern selbständig durch die Welt streifen könnten und – ausgestattet mit Kameras, Mikrophonen und weiteren Sensoren – die Welt wie sie ist wahrnehmen könnten.

Mittlerweile schreiben wir das Jahr 2018, das sind mehr als 65 Jahre nach Turings Spekulationen zu intelligenten, lernfähigen Computern. Wie viele Computer streifen durch die Welt wie Kinder? Nicht all zu viele, muss man feststellen; eigentlich kein einziger. Die bisherigen Roboter, die bekannt sind, haben eine sehr eingeschränkte Bewegungsfähigkeit und keiner von diesen lernt bislang in einer unbeschränkten Weise, wie Kinder es tun.

Der Bereich, in dem über lebenslang frei lernende Roboter geforscht wird, nennt sich ’Developmental Robotics’ oder – noch radikaler – ’Evolutionary Developmental Robotics’. (20) In einer Forschungsübersicht aus dem Jahr 2017 (21) gibt es eine zentrale Einsicht, die uns an dieser Stelle helfen kann. (22) Zwar weiß man eigentlich schon von den Anfängen in der Künstlichen Intelligenzforschung in den 1960iger Jahren, dass jegliche Art von Lernen minimale Formen von Rückmeldung benötigt, aber die Tragweite dieses Momentes wurde vielen Forschern erst in den letzten Jahren, und speziell in der ’Erforschung des offenen‘ Lernens so richtig klar. Wenn eine Computer-Maschinen selbständig offen lernen können soll, dann braucht sie minimale Präferenzen, um im allgemeinen Rauschen der Ereignisse Ansätze möglicher Muster zu finden. Im Fall von biologischen Systemen gibt es eine Mischung von sogenannten angeborenen Präferenzen, die sich letztlich von der Überlebenserfahrung herleiten, und eben das schlichte Überleben selbst. Nur wer überlebt besitzt offenbar brauchbare Informationen. Im Fall von Computer- Maschinen gibt es keine Überlebenserfahrungen. Eine Computer-Maschine beginnt am absoluten Nullpunkt. Bis vor wenigen Jahren haben Ingenieure das Problem dadurch gelöst, dass sie ihre eigenen Präferenzen in die Computer-Maschinen eingebaut haben. Dies hat so lange funktioniert, wie die Computer-Maschinen nur sehr spezielle Aufgaben lösen mussten, z.B. als Industrieroboter. In dem Maße aber, wie Computer-Maschinen beliebige Aufgaben lernen können sollen, funktioniert diese Strategie nicht mehr. Was nun? Woher sollen solche allgemeinen Präferenzen kommen?(23)

Die Frage mit den Präferenzen (andere sprechen von Werten) hat eine zusätzliche pikante Note, da der Homo sapiens das erste Lebewesen auf der Erde ist, das nicht mehr ausschließlich durch die nackte Überlebensnotwendigkeit getrieben ist. Der Homo sapiens, also wir Menschen, haben es durch unsere geistigen und kommunikativen Möglichkeiten geschafft, das nackte Überleben z.T. sehr weit in den Hintergrund zu drängen. Damit stellt sich für die Lebensform des Homo sapiens erstmals seit 4 Milliarden Jahren biologischen Lebens die Frage, welche möglichen Präferenzen es möglicherweise neben oder sogar vor dem nackten Überleben geben könnte. Dummerweise enthält der genetische Code keine direkte Antwort auf die Frage nach zusätzlichen Präferenzen.

(Anmk: 17:  Der Text, in dem diese Art der Beschreibung eines idealen Computers erstmals vorkommt, ist ein Text, in dem Alan Matthew Turing einen metamathematischen Beweis geführt hat, in dem es um eine andere Version des Unentscheidbarkeitsbeweises von Kurt Gödel 1931 ging. Siehe [Tur 7]. Zu Ehren von Turing wurde diese Version der Definition eines Computers ’Turingmaschine’ genannt. )

(Anmk: 18: Eine sehr gute Biographie zu Turing ist Hodges (1983) [Hod83])

(Anmk: 19: Siehe Turing 1948 [M.87], 1950 [Tur50], sowie 1953 [Tur63] 20 Erste gute Überblicke bieten die beiden Wikipediaeinträge zu ’developmental robotics’ https://en.wikipedia.org/wiki/Developmental robotics sowie zu ’evolutionary developmental robotics’ https://en.wikipedia.org/wiki/Evolutionary developmental robotics)

(Anmk: 21: Siehe Merrick (2017) [Mer17])

(Anmk: 22: Ergänzend auch Singh et.al. (2010) [SLBS10] und Ryan/Deci (2000) [RD00] )

(Anmk: 23: Eine der verbreitetsten Lernformen im Bereich Künstliche Intelligenz ist das sogenannte ’Reinforcement Learning (RL)’. Dieses setzt explizit ’Belohnungssignale’ (’reward’) aus der Umgebung voraus. Siehe zur Einführung Russell/ Norvig 2010 [RN10]:Kap.21 und Sutton/Barto 1998 [SB98])

XI. DAS EI DES COLUMBUS

Das Ei des Columbus gilt als Metapher für Probleme, die als unlösbar gelten, für die es dann aber doch eine Lösung gibt.

In unserem Fall ist das Problem die begrenzte kognitive Ausstattung des Menschen für komplexe Situationen sowie die Präferenzfreiheit technischer Systeme. Die bisherigen Lösungsansätze einer cloud-basierten allgemeinen Intelligenz führt letztlich zu einer Entmachtung des einzelnen ohne dass eine cloud-basierte Intelligenz eine wirklich Überlebensfähigkeit besitzt. Sie gleicht eher einem Vampir, der so lange lebt, als viele einzelne sie mit Details aus ihrem Alltag füttern. Ohne diese Details ist solch eine cloud-basierte Intelligenz ziemlich dumm und kann einem einzelnen kein wirklicher persönlicher Assistent sein.

Die Lösung könnte tatsächlich ein reales Ei sein, ein Ei gefüllt mit einer Computer-Maschine, deren Rechenkraft vor Ort genau einem Menschen zur Verfügung steht und genau diesem einem Menschen rund um die Uhr hilft, seine kognitiven Begrenzungen auszugleichen und zu überwinden. Dieses Computer-Maschinen Ei (natürlich könnte es auch jede andere Form haben, z.B. als Ohrring, Halskette, Armband usw.) kann mit dem Internet Verbindung aufnehmen, mit jeder denkbaren Cloud, aber nur dann, wann und wie dieses Ei es selber will, und es würde keinerlei privates Wissen einfach so preisgeben. So, wie die Gehirne der Menschen anatomisch alle ähnlich sind und doch sehr individuelle Persönlichkeiten ermöglichen, so kann ein Computer-Maschinen Ei die individuellen Erfahrungen und das individuelle Wissen eines Menschen passgenau erkennen und fördern. Es entsteht eine Symbiose von Mensch und Maschine, die deutlich mehr sein kann als jede Komponenten für sich alleine.

XII. EINE NEUE MENSCH-MASCHINE SUPER-INTELLIGENZ FÜR DEN BALLUNGSRAUM?

Greift man an dieser Stelle nochmals die Vision einer verteilten, flexiblen Simulationsumgebung für die Bürger in einer Region auf, dann kann eine zusätzliche Ausstattung aller Bürger mit ihren persönlichen intelligenten Assistenten dem ganzen Projekt einen zusätzlichen messbaren Schub geben. Die persönlichen Assistenten können auch dann arbeiten, wenn der einzelne mal müde ist, sich entspannen will oder mal mit familiären Aufgaben beschäftigt ist. Und der persönliche Assistent kann auch viele Tausend oder Millionen Faktoren gleichzeitig in Rechnung stellen und in ihren Auswirkungen verfolgen. Im Zusammenwirken dieser vielen natürlichen und technischen Intelligenzen könnte eine Mensch-Maschine Superintelligenz entstehen, die den einzelnen voll mit nimmt, und als Gesamtphänomen erheblich leistungsfähiger sein wird, als alles, was wir heute kennen.

Allerdings, wir sollten uns nicht der Illusion hingeben, dass damit dann alle Probleme gelöst wären. Das Problem der geeigneten Präferenzen, sprich der Werte, wird bleiben; es wird sich vermutlich eher verschärfen. Auch die Verantwortung für uns Menschen wird weiter wachsen, auch wenn sich diese Verantwortung qualitativ neu immer auf ganz viele verteilen wird.

IX QUELLEN

[Bad03] Alan Baddeley. Working memory and language: an overwiew. Journal of Communication Disorders, 36:236–242190–208, 2003.

[BL99] A. Baddeley and R.H. Logie. Working memory: The multiple-component model. In A. Myake and P. Shah, editors, Models of working memory, chapter 2, pages 28–61. Cambridge University Press, New York, 1999.

[Bos14] Nick Bostrom. Superintelligence. Paths, Dangers, Strategies. Oxford University Press, Oxford (UK), 1 edition, 2014.

[BP16] Thorsten Bürklin and Michael Peterek. Thecycloregion. city-regional development in frankfurt rhine-main – die zykloregion. stadtentwicklung in frankfurtrheinmain. Journal of Comparative ’Cultural Studies in Architecture, 9:41–51, 2016.

[For71] Jay W. Forrester. World Dynamics. Wright-Allen Press, Inc., Cambridge (MA) 02142, 2 edition, 1971.

[Hod83] Andrew Hodges. Alan Turing, Enigma. Springer Verlag, Wien – New York, 1 edition, 1983.

[Hol73] C.S. Holling. Resilience and stability of ecological systems. Annual Review of Ecology and Systematics, 4(1):1–23, 1973.

[Jak13] Peter Jakubowski. Resilienz – eine zusätzliche denkfigur für gute stadtentwicklung. Informationen zur Raumentwicklung, 4:371–378, 2013.

[M.87] Turing Alan M. Intelligente maschinen. In Bernhard Dotzler and Friedrich Kittler, editors, Alan M. Turing. Intelligence Service, pages 81 – 113. Brinkmann & Bose, Berlin, 1987.

[Mer17] Kathryn Merrick. Value systems for developmental cognitive robotics: A survey. Cognitive Systems Research, 41:38 – 55, 2017.

[Mil56] Geroge A. Miller. The magical number seven, plus or minus two: Some limits on our capacity for processing information. Psychological review, 63:81–97, 1956.

[MLRBI72] Donella H. Meadows, Meadows Dennis L., Jørgen Randers, and William W. Behrens III. The Limits to Growth. A Report for the Club of Rome’s Project on the Predicament of Mankind. Universe Books, New York, 1 edition, 1972.

[PB13] Michael Peterek and Thorsten Bürklin. Potentials and challenges of polycentric city-regions: A case-study of frankfurt rhine-main. Technical Transactions Architecture – Czasopismo Techniczne Architektura, 1-A:179–189, 2013.

[RB06] G. Repovs and A. Baddeley. The multi-component model of working memory: Explorations in experimental cognitive psychology. Neuroscience, 139:5–21, 2006.

[RD00] Richard M. Ryan and Edward L. Deci. Intrinsic and extrinsic motivations: Classic definitions and new directions. Contemporary Educational Psychology, 25(1):54 – 67, 2000.

[RN10] Stuart Russel and Peter Norvig. Artificial Intelligence. A Modern Approach. Universe Books, 3 edition, 2010.

[SB98] Richard S. Sutton and Andrew G. Barto. Reinforcement Learning. An Introduction. The MIT Press, Ambridge (MA) – London, 1 edition, 1998.

[SLBS10] S. Singh, R. L. Lewis, A. G. Barto, and J. Sorg. Intrinsically motivated reinforcement learning: An evolutionary perspective. IEEE Transactions on Autonomous Mental Development, 2(2):70–82, June 2010.

[Tur50] Alan Turing. Computing machinery and intelligence. Mind, 59:433–460, 1950.

[Tur63] Alan Matthew Turing. Digital computers applied to games. In B.V. Bowden, editor, Faster Than Thought. Pitman Publishing, London, 1963.

[Tur 7] Alan M. Turing. On computable numbers, with an application to the entscheidungsproblem. Proceedings of the London Mathematical Society, 42(2):230–265, 1936-7.

[Vin93] Vernor Vinge. The coming technological singularity: How to survive in the post-human era. In G.A. Landis, editor, Vision-21: Interdisciplinary Science and Engineering in the Era of Cyberspace, pages 11–22. 1993.

PROJEKTGRÜNDUNG

Im Anschluss an dieses Konferenz kam es zur Gründung eines Projektes, das versucht, den ‚Spirit des Kongresses‘ aufzugreifen und konkret umzusetzen. Siehe dazu HIER.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

WISSENSCHAFTSPHILOSOPHIE IM ALLTAG. Wahrheit im Dauerversuch

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 26.Nov. 2017
URL: cognitiveagent.org
info@cognitiveagent.org

Autor: cagent
Email: cagent@cognitiveagent.org

INHALT

I Wissenschaftsphilosophie und Wahrheit …1
II Interdisziplinär und Unterschiede …2
III Interdisziplinäres Projekt…2
III-A Einzelvorschläge zum Begriff ’Simulation’ . . . . . . . .3
III-B Vernetzung der Einzelvorschläge . ….3
III-C Formalisierungsversuch . . . . . . . . 4
Weiter zur Wahrheit …7
IV Literaturverweise …8

WORUM ES GEHT

‚Wissenschaftsphilosophie‘ klingt für die meisten sehr abstrakt. Wendet man sich aber dem Alltag zu und betrachtet ein – fast beliebiges – Beispiel, dann kann man
schnell entdecken, dass eine wissenschaftsphilosophische
Sehweise sehr konkret – und auch sehr praktisch – werden
kann. Dies wird in diesem Beitrag illustriert.

PDF

I. WISSENSCHAFTSPHILOSOPHIE UND WAHRHEIT

In einem vorausgehenden Beitrag in diesem Blog mit
der Überschrift ”WAHRHEIT ALS UNABDINGBARER
ROHSTOFF EINER KULTUR DER ZUKUNFT”  wurde
besprochen, welche Mechanismen uns Menschen
zur Verfügung stehen, um wahre Aussagen über
die Welt und uns selbst machen zu können. Die
Blickweise, die hinter diesen Überlegungen stand,
war die der Wissenschaftsphilosophie. Aber was ist
’Wissenschaftsphilosophie’? Warum ist diese Blickweise
so wichtig?

’Wissenschaftsphilosophie’ ist, wie der Name schon
andeutet, ein Teil der philosophischen Blickweise auf die
Welt.

Während sich die Einzelwissenschaften aufgrund ihrer
spezifischen Interessen auf ’Teilgebiete der erfahrbaren
Wirklichkeit’ festlegen und diese im Rahmen des Paradigmas der experimentellen Wissenschaften im Detail erforschen, versteht sich eine philosophische
Blickweise als jene, die nicht von vornherein
Ausgrenzungen vornimmt, sondern alle Phänomene
zulässt, die sich dem menschlichen Bewusstsein zur
Erfahrung geben. Ein philosophisches Denken legt sich
auch nicht auf einige wenige Methoden fest, sondern
erlaubt zunächst einmal alles, was geht.
Eine so verstandene philosophische Blickweise hat
Vor- und Nachteile. Die Nachteile liegen auf der Hand:
der Verzicht auf eine wie auch immer geartete Vorweg-
Zensur von Erfahrung konfrontiert einen Philosophen
von vornherein mit einer solchen Fülle von Phänomen
und Methoden, dass es im Allgemeinen schwer ist,
hier auf einfache und schnelle Weise zu strukturierten
Erkenntnissen zu kommen.

Andererseits, schaut man sich die fortschreitende
Zersplitterung der Einzelwissenschaften an, dann
trifft man auch hier auf eine methodisch bedingte
Vielfalt, die bislang nicht systematisch integriert ist.
Zum aktuellen Zeitpunkt ist es nicht einmal abzusehen,
wann und wie diese immensen, sich gegenseitig
ausschließenden Datengebirge und Teildeutungen, sich
irgendwann zu einem einzigen großen integrierten
Ganzen zusammenfügen lassen lassen.

Die philosophische Blickweise als solche trägt im
Prinzip den Keim der Integration in sich, da sie ja
nicht auf Teilaspekte der Wirklichkeit abonniert ist,
sondern im Prinzip für alles offen ist. So kann sie sich
die Ergebnisse der Einzelwissenschaften vornehmen
und versuchsweise, spielerisch die verschiedenen
Erkenntnisse z.B. zum subjektiven Bewusstsein, zum
objektiven Verhalten oder zum objektiven Körper
aufgreifen, miteinander in Beziehung setzen, und
versuchen, die darin verborgenen Zusammenhänge
sichtbar zu machen.

Philosophen können dies irgendwie machen, oder
sie können sich im Jahr 2017 die denkerischen
Vorarbeiten der Wissenschaftsphilosophen aus den
letzten ca. 150 Jahren zu Nutze machen. Diese haben nämlich spezielle Teilaspekte der Wirklichkeit, des Denkens, der Wissenschaften systematisch untersucht.
Dazu gehören Themen wie Messen, Modellbildung,
logische Argumentation, Überprüfung eines Modells,
Simulation, und vieles mehr. Im Endeffekt haben die
Wissenschaftsphilosophen untersucht, wie das Konzept
einer experimentellen Wissenschaften überhaupt
funktioniert, unter welchen Umständen experimentelle
Theorien wahr sind, und unter welchen Bedingungen
man verschiedene Theorien integrieren kann.

Da das Thema Wissenschaftsphilosophie für sich
sehr umfassend ist und in vielen Bereichen nicht gerade
einfach zu erklären ist, sei an dieser Stelle auf eine solche
umfassende Darstellung verzichtet (Vergleiche dazu z.B.: [Sup79], [Sne79],
[Bal82], [BMS87]). Stattdessen sei hier ein einfaches (reales) Beispiel aus dem (realen) Alltag
vorgestellt, wie es jeder erleben kann oder schon erlebt
hat.

II. INTERDISZIPLINÄR UND UNTERSCHIEDE

Das Wort Interdisziplinär ist heute ja ein
richtiges Modewort, um das Zusammenarbeiten
von unterschiedlichen Disziplinen, Experten mit
unterschiedlichem Knowhow, unterschiedlichen
Erfahrungen zu etikettieren.

Während wir in den verschiedenen Gesellschaften
in Europa und weltweit zunehmend eher wieder
Phänomene der Abgrenzung beobachten, der
Ausgrenzung, der Abschottung, der identitätserhaltenden
Gruppenbildung, haben wir immer mehr international
operierende Firmen, in denen die Zusammenarbeit
von Menschen aus vielen Nationen (bis über 100)
Alltag ist und funktioniert. Es spielt nicht wirklich eine
Rolle, aus welchem Land jemand kommt, welche
Religion er hat, wie sie sich kleidet, was jemand isst,
solange alle im Rahmen der gestellten Aufgabe friedlich
zusammenwirken können. Auch in den Wissenschaften
ist dies eigentlich Alltag. Mathematik ist für alle gleich und
die Welt, die es zu erforschen gilt, ist auch für alle gleich.
Ähnlich ist es in den großen internationalen Metropolen
dieser Welt. Dort leben ganz viele verschiedene Kulturen
so lange friedlich zusammen, so lange niemand anfängt,
bewusst Hass und Zwietracht zu streuen.

Andererseits scheint das Phänomen der Abgrenzung
ein tief sitzender Reflex im menschlichen Verhalten
zu sein. Denn überall, wo Menschen leben und
es in der jeweiligen Gemeinschaft unterschiedliche
Gruppen – alleine schon wegen der notwendigen und
fortschreitenden Spezialisierungen – gibt, tendiert jede
Gruppe dazu, sich von den anderen abzugrenzen.
Es ist letztlich eine kognitive Entlastungsstrategie: es
ist immer einfacher, sich nur dem den Eigenschaften
und Regeln der eigenen Gruppe zu beschäftigen, als
zusätzlich auch noch mit den Eigenheiten und Regeln
einer anderen Gruppe. Dies strengt an und belastet.
Zu diesem Zweck gibt es allgemeine Verhaltensregeln,
die einem im Alltag Entscheidungen abnehmen, und
es gibt Klischees, Stereotype, mit denen man andere
Gruppen – und damit auch die einzelnen Mitglieder
der anderen Gruppen – mit einem einzigen Wort
in eine große Kiste von Klischees einsortiert. Dies
fängt schon im Bereich der Familie an, und erstreckt
sich dann über Schulklassen, Schulen, Abteilungen
in Behörden und Betrieben zu ganzen Einrichtungen,
Stadtteilen, Volksgruppen. Im ’Normalbetrieb’ verläuft
dies friedlich, ohne direkte Auseinandersetzungen, ist
fester Bestandteil von Witzen, Volksbelustigungen und
vielen Fernsehsendungen und Filmen.

Im Konfliktfall sind diese Vorurteile aber wie trockenes
Holz, das sich blitzschnell entzünden kann, und mit
einem Mal sind die Nachbarn, die Arbeitskolleginnen,
und die Leute aus dem anderen Stadtteil nicht einfach
nur anders, sondern gefährlich anders, moralisch anders,
überhaupt anders. Aus unverfänglichen Unterschieden
werden plötzlich metaphysische Ungeheuer. Die
gedankliche Bequemlichkeit, die sich im Alltag im
Gebrauch von Klischees ausruht, wird zur gedanklichen
Hilflosigkeit, die im Stress einfach wild um sich schlägt,
und dann natürlich auf das haut, was sie in ihrer
vereinfachten Weltsicht kennt: auf die stereotypen
Unterschiede, die plötzlich die ganze Welt bedeuten.

III. INTERDISZIPLINÄRES PROJEKT

Während interdisziplinäres Zusammenarbeiten in
großen Firmen und Behörden von Metropolen Alltag ist,
tun sich die Bildungseinrichtungen, speziell Hochschulen
in Deutschland, damit noch schwer. Selbst an einer
Hochschule in einer internationalen Metropole, an der
junge Menschen aus mehr als 100 Nationen studieren,
gibt es nur einen verschwindend geringen Anteil von
wirklich interdisziplinären Studienprogrammen. Die
Lehrenden mögen solche Veranstaltungen nicht, da
der normal Lehrende ein Spezialist ist; auch die
Fachbereichsstrukturen an Hochschulen stehen einer
wirklichen Interdisziplinarität massiv im Wege, und die
Hochschulleitungen sind heute von der Realität der
Lehre in ihren eigenen Hochschulen meist so weit
entfernt, dass sie in der Regel gar nicht wirklich wissen,
wie der Alltag der Lehre aussieht.

Das folgende Beispiel stammt aus einer realen
Lehrveranstaltung von einer realen Hochschule mit
Studierenden aus mehr als 100 Nationen, an der es
offiziell genau zwei interdisziplinäre Studienprogramme
gibt. Im Rahmen des einen Programms gibt es ein Modul,
in dem sich Studierende aus verschiedenen Disziplinen
mit dem Begriff der Simulation auseinander setzen sollen.

So gibt es in diesem Modul z.B. Studierende
aus den Disziplinen soziale Arbeit, Pflege, Case
Management, Architektur, Maschinenbau, Elektrotechnik
und Informatik.

A. Einzelvorschläge zum Begriff ’Simulation’

Das Modul ist so angelegt, dass alle Beteiligten
im Rahmen von Kommunikationsprozessen, eigenen
Recherchen und eigenen Experimenten schrittweise
ihr bisheriges Verständnis des Begriffs ’Simulation’
verfeinern und mit den Vorstellungen der jeweils
anderen Disziplinen integrieren, falls möglich. Im
Folgenden Beispiele von Formulierungen, wie der Begriff
Simulation’ zu Beginn von den Teilnehmern umschrieben
wurde.

  • Team A: Unter Simulation versteht man ein realitätsnahes Nachbilden von Situationen.
    • Ein virtueller Raum wird mit Hilfe von Visualisierungsprogrammen realistisch dargestellt .
    • Nach einer Abbildung mit verschiedenen Programmen kann das Modell mit Hilfe von Grundrissen geschaffen werden.
    • Verschiedene Gebäudetypen, zum Beispiel:
      öffentliche, kulturelle oder soziale Einrichtungen,
      können simuliert werden.
    • Der Außenraum bzw. die Umgebung wird beim
      Entwurf mitberücksichtigt und 3D visualisiert.
    • Durch Materialität, Textur, Lichtverhältnissen
      und Schattierungen wird versucht, den Entwurf
      realitätsnah wie möglich darzustellen.
    • Konstruktionen können in Simulationsprogrammen ebenfalls detailliert ausgeführt werden.
  • Team B: Simulation ist eine Methode Situationen abzubilden, z.B. räumliche Wirkungen, Umwelteinflüsse, Szenarien, um effektiv Probleme und
    Lösungen zu analysieren.
  • Team C: Die Analyse von möglichen Problemen
    im Alltag. Die Nachbildung von Anwendungsfällen
    wie zum Beispiel Flugsimulation und Wettersimulation. Die Optimierung von Systemen und Prozessen.
    Komplexe Sachverhalten zu vereinfachen und (visuell) darzustellen. Es ist eine kostengünstigere Variante als die tatsächliche Umsetzung. Es werden in
    einer Simulation Prognosen und Voraussagen erstellt.
  • Team D:
    1. Analyse von Systemen vor der praktischen An-
      wendung
    2. Die Simulation ist ein Bestandteil eines Produktlebenszyklus. Dabei lassen sich die Entwicklungsschritte wie folgt definieren:
      1. Konzeptentwicklung
      2. Simulation
      3. Konstruktiond) Produktherstellung
      4. Integration im System
    3. Optimierung von einem bestehendem Prozess
      mit Ziel die Effizienz und die Fehlerbehebung
      zu verbessern −→ Prozessoptimierung
  • Team E: Unter dem Begriff ”Simulation” ist das
    theoretische bzw. praktische Durchspielen unterschiedlicher Szenarien zu verstehen. Das Durchspielen oder auch Verifizieren der Situation lässt
    die Übertragung von komplexen Aussagen über das
    mögliche Verhalten des gewählten Klientels zu. Das
    Ergebnis kann auf die Realität projiziert werden,
    ohne damit laufende Prozesse negativ zu beeinflussen.
  • Team F : Eine Simulation ist eine modellhafte
    Darstellung einer möglichen oder reellen Situation.
    Die Situation kann sowohl prospektiv als auch retrospektiv sein. Sie dient der Analyse, Übung und Optimierung verschiedener Prozesse beziehungsweise
    einzelner Prozessabläufe.
  • Team G: Simulationen in der sozialen Arbeit bieten die Möglichkeit insbesondere ethisch schwierig
    vertretbare oder praktisch schwierig umsetzbare Situationen experimentell darzustellen und dadurch
    präventiv Kompetenzen zu erwerben, Lerninhalte
    zu erarbeiten, Lösungsansätze zu entwickeln und
    Problem- bzw. Konfliktsituationen zu vermeiden.
  • Team H: Simulation im Beratungskontext meint das
    Herstellen realitätsnaher Szenarien, um das Verhalten von Personen in speziellen Situationen erproben,
    beobachten und evaluieren zu können.
B. Vernetzung der Einzelvorschläge

Diese Textfragmente wirken unterschiedlich und tragen
deutlich Spuren der unterschiedlichen Fachkulturen. So
ist das Team A unschwer als Team aus dem Bereich
Architektur zu erkennen, oder Team C: das klingt sehr
nach einem technischen Hintergrund. Team E klingt
nach sozialer Arbeit oder Case Management. usw.

Was macht man nun damit?

Es gab ein Live-Gespräch, bei dem die einzelnen
Formulierungen nacheinander diskutiert wurden
und einzelne Begriffe, die hervor stachen, wurden
versuchsweise auf ein Whiteboard geschrieben (siehe
Schaubild Nr. 1).

Bild Nr.1: Tafelbild aus einer Live-Diskussion
Bild Nr.1: Tafelbild aus einer Live-Diskussion

Für einen Unbeteiligten wirkt dieses Bild vermutlich
noch ein wenig ’wirr’, aber bei näherem Hinsehen kann
man die Umrisse einer ersten Struktur erkennen.
In einer im Anschluss erstellten Idealisierung des
ersten Tafelbild (siehe Schaubild Nr. 2) kann man die
in diesen Begriffen liegende verborgene Struktur schon
deutlicher erkennen.

Reinzeichnung des Tafelbildes
Reinzeichnung des Tafelbildes

Man erkennt abgrenzbare Bereiche, Komponenten
wie z.B. die reale Welt oder das Ersatzsystem, Modell,
oder auch so etwas wie die Idee von etwas Neuem.
Zwischen diesen Komponenten findet man Beziehungen
wie Nachbilden oder Erfinden oder Modell nutzen.

Offensichtlich passen diese Größen nicht in das
klassische Schema einer Definition, bei dem ein neuer
Begriff (das ’Definiendum’) durch schon bekannte
Begriffe (das ’Definiens’) ’erklärt’ wird (vgl. dazu [Mit95] und [San10]), sondern es ist
eher die Einführung eines neuen Bedeutungsfeldes im
Sinne einer axiomatischen Theorie: man benennt eine
Reihe von Komponenten, von denen man annimmt, dass
sie alle wichtig sind, beschreibt Beziehungen zwischen
diesen Komponenten, die man ebenfalls für wichtig
findet, und nennt dann das Ganze ’Simulation’. Eine
zunächst diffuse Wirklichkeit gewinnt dadurch Konturen,
gewinnt eine Struktur.

Ob diese sich so heraus schälende Struktur wirklich
brauchbar ist, irgendwelche Wahrheitsansprüche
einlösen lässt, das kann man zu diesem Zeitpunkt
noch nicht entscheiden. Dazu ist das Ganze noch
zu vage. Andererseits gibt es an dieser Stelle auch
keine festen Regeln, wie man solche Strukturen
herausarbeitet. Auf der einen Seite sammelt man
Phänomene ein, auf der anderen Seite sucht man
Begriffe, sprachliche Ausdrücke, die passen könnten.
Was einem auffällt, und wie man es dann anordnet,
hängt offensichtlich von aktuellen Interessen, verfügbarer
Erfahrung und verfügbarem Sprachwissen ab. Drei
verschiedene Personen kämen isoliert vermutlich zu drei
unterschiedlichen Ergebnissen.

Man kann jetzt bei dem Schaubild stehen
bleiben, oder man kann das Instrumentarium der
Wissenschaftsphilosophie weiter nutzen indem man
z.B. eine formale Strukturbildung versucht. Unter
Verwendung einer mengentheoretischen Sprache
kann man versuchen, die erkannten Komponenten
und Beziehungen in mathematische Strukturen
umzuschreiben. Falls es gelingt, führt dies zu noch
mehr struktureller Klarheit, ohne dass man irgendwelche
Feinheiten opfern müsste. Man kann im Verlauf eines
solchen Formalisierungsprozesses Details nach Bedarf
beliebig ergänzen.

C. Formalisierungsversuch

Das idealisierte Schaubild lässt erkennen, dass wir
es mit drei Wirklichkeitsbereichen zu tun haben: (i)
die Reale Welt (W) als Ausgangspunkt; (ii) die Welt
der kreativen Ideen (KID) als Quelle möglicher neuer
Gegenstände oder Verhaltensweisen; und verschiedene
Ersatzsysteme, Modelle (M), mittels deren man etwas tun kann.

Unter Voraussetzung dieser genannten Gegenstandsbereiche W, KID, M wurde folgende wichtige Beziehungen genannt, die zwischen diesen
Gegenstandsbereichen angenommen wurden:

  1. Nachbilden, Abbilden (Abb): Bestimmte Aspekte
    der realen Welt W werden in einem Ersatzsystem,
    in einem Modell M so nachgebildet, dass man
    damit etwas tun kann. Außerdem soll das Modell
    u.a. realitätsnah sein, Kosten sparen, und Risiken
    vermindern.
  2. Erfinden (Erf): Aufgrund von kreativen Ideen KID
    wird ein Modell M erstellt, um diese Ideen sichtbar
    zu machen.
  3. Simulieren (Sim): Hat man ein Modell M gebaut,
    dann können Menschen (ME) mit dem Modell
    unterschiedliche Simulationen für unterschiedliche
    Zwecke vornehmen. Aufgrund von Simulationen
    werden die Menschen Erfahrungen (X+) mit dem
    Modell sammeln, die zu einem verbesserten Verhalten (V+) auch in der realen Welt führen können, zugleich kann aufgrund dieser Erfahrungen das
    bisherige Modell oft auch optimiert werden; man
    kommt also zu einem optimierten Modell (M+).
  4. Transfer (Trans): Aufgrund von neuen Erfahrungen
    (X+) und einem möglicherweise optimierten Modell
    (M+) besteht die Möglichkeit, dass man im Ausgangspunkt, in der realen Welt (W), Sachverhalte und Abläufe ändert, um die Verbesserungen im
    Modell und im neuen Verhalten in die reale Welt,
    in den Alltag, einzubringen. Würde man dies tun,
    dann erhielte man eine verbesserte Welt (W+).

Diese Vorstrukturierung kann man nun weiter treiben und tatsächlich eine mathematische Struktur hinschreiben. Diese könnte folgendermaßen aussehen:

— Siehe hierzu das PDF-Dokument —

Der Ausdruck zu Nummer (1) besagt, dass etwas (x) genau nur dann (iff) eine Simulation (SIMU) genannt wird, wenn es die folgenden Komponenten enthält: W, W+ M, M+ , KID, X+ , ME. Zusätzlich werden folgenden Beziehungen zwischen diesen Komponenten angenommen: Abb, Erf, Sim, Trans. Welcher Art diese Beziehungen sind, wird in den folgenden Nummern (2) – (5) erläutert.

In der Abbildungsbeziehung Abb : ME × W−→ M werden Aspekte der realen Welt W von Menschen ME in ein idealisierendes Modell M abgebildet.

In der Erfindungsbeziehung Erf : ME × KID −→ M werden Aspekte aus der Welt der Ideen KID von Menschen ME in ein idealisierendes Modell M abgebildet.

In der Simulationsbeziehung Sim : ME × M −→ M+ × X+ benutzen Menschen ME Modelle M und machen dadurch neue Erfahrungen X+ und können u.a. das Modell verbessern, optimieren M+ .

In der Transferbeziehung  rans : ME × M+ × X+ −→ W+ können Menschen ME optimierte Modelle M+ und/ oder neue Erfahrungen X+ in ihren Alltag, in die reale Welt so einbringen, dass die bisherige Welt zu einer besseren Welt M+ verändert wird.

IV. WEITER ZUR WAHRHEIT

An diesem kleinen Beispiel wird deutlich, wie man
unterschiedliche alltagssprachliche Formulierungen
miteinander vernetzen kann, daraus Strukturen
herausarbeitet, und diese ansatzweise formalisiert.

Um einen möglichen Wahrheitsanspruch dieser
Formalisierung klären zu können, müsste nun weiter
herausgearbeitet werden, was mit den einzelnen
Größen dieser Struktur gemeint ist. Also, wenn man die
Beziehung Abbildung liest ( Abb : ME × W −→ M), müsste klar sein, welche Menschen gemeint sind, die dort eine Abbildungsbeziehung herstellen, und was
müsste man sich konkret darunter vorstellen, dass
Menschen Aspekte der Welt (W) in ein Modell (M)
abbilden?

Wenn ein Kind ein Stück Holz benutzt, als ob es
ein Spielzeugauto ist, mit dem es auf dem Boden
herumfährt und dazu ’BrumBrum’ macht, dann ist für
das Kind das Stück Holz offensichtlich ein Modell für ein
Autor aus der realen Welt, seine Bewegungen simulieren
das Herumfahren, und das ’BrumBrum’ simuliert das
Motorgeräusch (bald nicht mehr, vielleicht).

Wenn Architekten (früher) aus Gips ein Gebäude im
Maßstab angefertigt hatten, es in eine Modelllandschaft
stellten, und dies einer Lichtquelle aussetzten, die
analog der Sonne bewegt wurde, dann war offensichtlich
das Gipshaus in der Landschaft mit der Lichtquelle
ein Modell des Schattenwurfs eines Gebäudes bei
Sonnenlicht.

Wenn Pflegestudierende heute an einem Krankenbett
mit einer künstlichen Puppe üben, wie man verschiedene
Pflegetätigkeiten ausübt, dann ist diese Puppe im Bett
offensichtlich ein Modell des realen Patienten, an dem
man übt.

Wenn Case Managerinnen in Rollenspielen
Beratungsgespräche üben, dann sind diese Rollen,
die sie ausfüllenden Personen, und die stattfindenden
Interaktionen ein Modell der realen Situation.

Wenn Informatikstudierende am Computerbildschirm
Schaltungen zusammenbauen, dann sind diese Software
basierten Bauteile und Schaltungen offensichtlich
Modelle von richtigen Bauteilen und den daraus
konstruierten Schaltungen.

Die Liste der hier möglichen Beispiele ist potentiell
unendlich lang.

Die Abbildung von Aspekten der realen Welt in
Ersatzsysteme, die wie Modelle fungieren, anhand bzw.
mittels deren man üben kann, analysieren usw. ist
offensichtlich sehr grundlegend.

Ob solch ein modellierendes Ersatzsystem und
die damit möglichen Handlungen die abzubildende
Wirklichkeit hinreichend gut abbilden, oder ob sie diese
so verzerren, dass das Modell bezogen auf die reale
Welt falsch ist, dies zu beurteilen ist nicht immer ganz
einfach oder vielleicht sogar unmöglich. Schwierig und
unmöglich ist dies dann, wenn das erarbeitete Modell
etwas zeigt, was in der realen Welt selbst durch die
Verwobenheit mit anderen Faktoren gar nicht sichtbar
ist, wenn also dass Modell überhaupt erst etwas sichtbar
macht, was ansonsten verdeckt, verborgen ist. Damit
würde das Modell selbst zu einer Art Standard, an dem
man die reale Welt misst.

Was im ersten Moment absurd klingt, ist aber genau
die Praxis der Wissenschaften. Das Ur-Meter, das als
Standard für eine Längeneinheit vereinbart wurde, ist
ein Modell für eine bestimmte Länge, die überall in
der räumlichen Welt angetroffen werden kann, aber
ohne das Ur-Meter können wir nicht sagen, welche der
unendlich vielen Stellen nun einem Meter entspricht. Wir
benutzen also ein künstlich erschaffenes Modell einer
bestimmten Länge, um damit die ansonsten amorphe
reale Welt mit Plaketten zu überziehen. Wir projizieren
das Ur-Meter in die reale Welt und sehen dann überall
Längen, die die realer Welt als solche nicht zeigt. Zu
sagen, diese Strecke hier in der realen Welt ist 1 m lang,
ist eine Äußerung, von der wir normalerweise sagen
würden, sie ist wahr. Wahrheit ist hier eine Beziehung
zwischen einer vereinbarten Einheit und einem Aspekt
der realen Welt.

Im allgemeinen Fall haben wir irgendwelche
sprachlichen Ausdrücke (z.B. Abb : ME × W −→ M), wir ordnen diesen sprachlichen Ausdrücke davon unabhängige Bedeutungen zu, und stellen dann fest,
ob es in der realen Welt Sachverhalte gibt, die mit
dieser vereinbarten Bedeutung korrespondieren oder
nicht. Falls Korrespondenz feststellbar ist, sprechen
wir von Wahrheit, sonst nicht. Eine solche Wahrheit ist
aber keine absolute Wahrheit, sondern eine abgeleitete
Wahrheit, die nur festgestellt werden kann, weil zuvor
eine Bedeutung vereinbart wurde, deren Korrespondenz
man dann feststellt (oder nicht). Sprachlich gefasste
Wahrheiten können also immer nur etwas feststellen,
was zuvor vereinbart worden ist (wie beim Ur-Meter), und
man dann sagt, ja, das früher vereinbarte X liegt jetzt
hier auch vor. Und diese grundsätzliche Feststellung,
diese ist fundamental. Sie erlaubt, in den veränderlichen
vielfältigen Bildern der Welt, ansatzweise Ähnlichkeiten,
Wiederholungen und Unterschiede feststellen zu
können, ohne dass damit immer schon irgendwelche
letzten absoluten Sachverhalte dingfest gemacht werden.

Die moderne Wissenschaft hat uns demonstriert, wie
dieses einfachen Mittel in vielen kleinen Schritten über
Jahrzehnte hinweg dann doch zu sehr allgemeingültigen
Sachverhalten hinführen können.

LITERATURHINWEISE

[Bal82] W. Balzer, editor. Empirische Theorien: Modelle, Strukturen,
Beispiele. Friedr.Vieweg & Sohn, Wiesbaden, 1 edition, 1982.

[BMS87] W. Balzer, C. U. Moulines, and J. D. Sneed. An Architectonic
for Science. D.Reidel Publishing Company, Dordrecht (NL),
1 edition, 1987.

[Mit95] Jürgen Mittelstrass, editor. Enzyklopädie Philosophie und
Wissenschaftstheorie Teil: Bd. 1., A – G. Verlag J.B. Metzler,
Stuttgart – Weimar, 1 edition, 1995.

[San10] Hans Jörg Sandkühler, editor. Enzyklopädie Philosophie,
Bd.1-3. Meiner Verlag, Hamburg, 1 edition, 2010.

[Sne79] J. D. Sneed. The Logical Structure of Mathematical Physics.
D.Reidel Publishing Company, Dordrecht – Boston – London,
2 edition, 1979.

[Sup79] F. Suppe, editor. The Structure of Scientific Theories. Uni-
versity of Illinois Press, Urbana, 2 edition, 1979.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

EIN HOMO SAPIENS – VIELE BILDER. Welches ist wahr?

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 28.Okt. 2017
info@cognitiveagent.org
URL: cognitiveagent.org
Autor: cagent
Email: cagent@cognitiveagent.org

Beitrag als PDF

INHALT

I Vielfalt trotz Einheit
II Wahrheit, die ich meine
III Wahrheitsmechanismen
III-A Gegenwart, Gestern, Morgen . . . . . .
III-B Eigener Lebensraum, ganz woanders . .
III-C Interpretierte Wahrnehmung . . . . . . .
III-D Erfahrung liefert Bilder . . . . . . . . . .
III-E Wie das ’Richtige’ Lernen? . . . . . . . .
III-E 1 Mengenbegrenzungen . . . . .
III-E 2 Muster erkennen . . . . . . . .
III-E 3 Spezialisierungen . . . . . . .
III-E 4 Wechselwirkungen aufdecken
III-E 5 Geeignete Wissensformen . .
III-E 6 Verloren im Fragment . . . . .
III-E 7 Fehlende Präferenzen
IV Menschenbilder
V Was Tun?

ÜBERSICHT

In der realen Welt gibt es eine Lebensform, die wir homo sapiens nennen. In der Rede über diesen homo sapiens – also in den Bildern, die wir benutzen –benutzen wir aber viele verschiedene Bilder. Desgleichen in den alltäglichen Lebensformen: es gibt nur einen homo sapiens, aber in den verschiedenen Kulturen dieser Erde gibt es viele geradezu konträre Formen, wie Menschen leben oder leben müssen. Wie ein homo sapiens genau funktioniert, verstehen wir immer noch nicht genau. Die Politik bevorzugt in der Regel plakative Schlagworte, und vermeidet wissenschaftliche Modelle. Warum?

Vielfalt trotz Einheit

Wenn in einem Brettspiel jemand sagt, „ich habe gewonnen“, und ein anderer daraufhin sagt „Nein, ich habe gewonnen“, dann weiß jeder, dass da etwas nicht stimmen kann. Brettspiele sind aufgrund ihrer Regeln eindeutig, wenn nicht, würden sie nicht funktionieren.

Wenn wir uns aber die Realität anschauen, die gemeinsam geteilte empirische Welt, dann ist es mittlerweile fast der Normalfall, dass es zu einzelnen Aspekten, Vorkommnissen, Vorgängen, von verschiedenen Personen oder Personengruppen, ganz unterschiedliche Beschreibungen/ Darstellungen/ Bilder gibt, ohne dass wir dies merkwürdig finden. Wenn Politiker in Talkshows sich äußern sollen, ist es eher die Regel, dass sie konträre Meinungen vertreten. Keiner findet dies merkwürdig. Unrecht haben immer die anderen, die eine andere Meinung haben. Der Frage, warum es zu unterschiedlichen Meinungen zu ein und demselben Thema kommen kann, wird fast nie gestellt. Lieber beschimpft man sich gegenseitig, anstatt die Frage zu stellen, warum es zu unterschiedlichen Meinungen kommen kann.

Wahrheit, die ich meine

Eine klassische Auffassung von Wahrheit geht davon aus, dass das mit ‚Wahrheit‘ Gemeinte in der Übereinstimmung von eigener Auffassung und einem davon zu unterscheidenden Sachverhalt ist. Klassisches Beispiel: Jemand sagt „Es regnet“ und in der Redesituation regnet es tatsächlich oder nicht. Im ersten Fall würde man dem Sprecher zustimmen und sagen, er spricht ‚wahr‘, im anderen Fall nicht.

Schwieriger wird es, wenn der Redner über Sachverhalte spricht, die jenseits der aktuellen Redesituation liegen: räumlich entfernt, oder zeitlich weit zurück in der Vergangenheit oder in einer noch nicht stattgefundenen Zukunft. Welche Mechanismen der Klärung des Wahrheitsgehaltes gibt es dann?

Oder der Redner glaubt Sachverhalte wahrzunehmen, die aber alle anderen nicht wahrnehmen. Wer hat dann Recht? Irrt der eine, hat er eine ‚psychische Störung‘, steht er unter ‚Drogeneinfluss‘, hat er schlicht ein ‚falsches Wissen‘, oder … ? Könnten nicht alle anderen irren und er alleine hätte Recht?

Oder es gibt Sachverhalte, auch gegenwärtige, deren Status von bestimmtem ‚Wissen‘ abhängig ist, wodurch erst die ‚Eigenschaften des Sachverhalts‘ sichtbar werden. Berühmte Beispiele sind die Bewegung der Himmelskörper, das Phänomen von Magnetismus und Elektrizität, die chemischen Reaktionen der verschiedenen chemischen Substanzen, die Entdeckung der Mikroorganismen, die Entdeckung der Vererbung durch Mitwirkung der DNA, die Entdeckung der Gehirnzellen und die Tatsache, dass sie nicht miteinander direkt verbunden sind, usw.

Schon diese kurze Betrachtung zeigt, dass wir in unserem Alltag eher mehr Situationen haben, die eine ‚direkte Wahrheitsentscheidung‘ nicht zulassen als solche, die es tun. ‚Indirekte‘ Wahrheitsentscheidungen verlangen grundsätzlich eine ‚Klärung der Umstände‘ und eine ‚Klärung der Regeln der Interpretation‘.

Wahrheitsmechanismen

Gegenwart, Gestern, Morgen

Halten wir an der Fallunterscheidung fest, dass es Aussagen über Vergangenes, Zukünftiges oder Gegenwärtiges gibt.

Eigener Lebensraum, ganz woanders

In allen drei Fällen kann man nochmals unterscheiden, ob der Sachverhalt (gegenwärtig oder vergangen oder zukünftig) mit den Teilnehmern der Situation verknüpft ist oder nicht. Ob es da regnet, wo man gerade ist, oder woanders, das macht einen großen Unterschied. Oder ob in meiner Firma in der Vergangenheit ein bestimmtes Ereignis stattgefunden haben soll oder nicht, kann ich eher einschätzen, als wenn es in der Vergangenheit irgendwo ganz anders stattgefunden haben soll. Entsprechend in der Zukunft: eine Aussage über einen zukünftigen Sachverhalt in meinem persönlichen Lebensraum fasse ich anders auf als wenn es ‚irgendwo ganz anders‘ stattfinden soll.

Interpretierte Wahrnehmung

Befinden wir uns in der Gegenwart, dann können wir diese und eigene Körperzustände ‚wahrnehmen‘. Wie wir mittlerweile durch vielfältige wissenschaftliche Untersuchungen lernen konnten, nehmen wir aber niemals die Welt (und uns selbst) ‚1-zu-1‘ wahr, sondern vielfältig selektiert, abstrahiert und ‚interpretiert‘ durch die Erfahrungen, die wir vorher schon gemacht haben. Da die visuellen, akustischen, taktilen usw. Wahrnehmungen immer unvollständig sind, muss innerhalb des Wahrnehmungsprozesses kontinuierlich ‚interpretiert‘ werden. Wir sind ‚erfahrungsbasiert‘, und diese Erfahrungen sind sehr stark ’sprachlich durchtränkt‘. Wir sehen nicht einfach nur Farben, Formen; wir riechen nicht einfach nur süßlich, beizend, ätzend, usw.; wir hören nicht einfach nur Geräusche, Klänge; diese werden sofort eingeordnet in vertraute Muster, verknüpft mit bekannten Worten. Ein Geräusch identifizieren wir als ‚knarrende Schranktür‘, ‚vorbeifahrendes Auto‘, das ‚Klackern von Schuhen auf Steinplatten‘, usw., weil wir einfach ‚trainiert‘ wurden, diese Geräusche mit solchen Worten und darüber mit bestimmten Situationen zu verknüpfen. Wie wir wissen, können solche spontanen, von unserem Gehirn aufgrund von vorliegenden Erfahrungen ‚automatisch erzeugte‘ Zuordnungen falsch sein, weil die Erfahrungen falsch sind.

Erfahrung liefert Bilder

Im Alltag liefert unsere Erfahrung also die ‚Bilder‘, mit denen wir unsere Welt anschauen.

Solange jemand noch nichts von einer bestimmten genetischen Erkrankung wusste, war für ihn die Welt in Ordnung. Als er/ sie erfuhr, dass es solch eine spezielle Krankheit gibt und dass er Symptome dafür aufweist, war die Welt plötzlich eine ganz andere.

Solange jemand nicht wusste, wie ein bestimmtes Pflanzenschutzmittel wirkt, hat er es leichthändig eingesetzt. Sobald bekannt wurde, dass es die Böden und Pflanzen nachhaltig vergiftet, ein ganzes Ökosystem zum Kippen bringen kann, sogar über die Nahrung in den menschlichen Körper gelangen kann und dort zu schweren Störungen führt, da war die Welt plötzlich eine andere.

Solange man noch nicht wusste, dass der Nachbar und Freund ein Spitzel für den Staat war, mit dem Ziel andere Meinungen auszuspähen und zu melden, solange war die Welt noch in Ordnung. Aber als man durch Zufall entdeckte, dass da etwas nicht stimmt, wollte man es zunächst nicht glauben, man wehrte sich dagegen, bis es dann irgendwann klar war…

Die Bilder, die wir haben, erklären uns die Welt für uns. Andere können ganz andere Bilder haben.

Wie das ‚Richtige‘ Lernen?

Wenn unsere Erfahrungen einen solchen massiven Einfluss auf unsere Weltsicht haben, stellt sich die Frage, was wir denn tun können, um im Rahmen unseres ‚Erlernens von Welt‘ die ‚richtige‘ Sicht zu bekommen?

Mengenbegrenzungen

Wie wir heute wissen können, ist unsere aktuelle Wahrnehmung von Welt zudem mengenmäßig sehr begrenzt. Wir können im Sekundenbereich nie mehr als ca. 5-7 Wahrnehmungsobjekte (Englisch ‚chunks‘) verarbeiten. Je nach Erfahrungsstand können dies einfache oder sehr komplexe Objekte sein.

Muster erkennen

Ein Schachgroßmeister sieht auf einem Schachbrett nicht einzelne Figuren, sondern er sieht die Figuren als Teil eines ‚Musters‘, das er in ’strategische Zusammenhänge‘ einordnen kann. So genügt ihm ein kurzer Blick und er hat eine Einschätzung des ganzen Spielstandes und weiß sofort, wo es günstig wäre, in dieser Stellung anzusetzen. Ein weniger erfahrene Spieler sieht dies Muster und diese Zusammenhänge nicht auf einen Blick. Daher muss er mühsam alle möglichen Kombinationen ‚durchdenken‘, ‚geistig durchspielen‘, um zu Einschätzungen zu kommen. Der Amateur benötigt dafür viel mehr ‚Bedenkzeit‘. In einem offiziellen Schachturnier würde de Amateur daher normalerweise allein schon durch seinen Verbrauch an Denkzeit verlieren, wenn er nicht schon vorher aufgrund der Stellung verliert.

Das, was hier am Schachspiel verdeutlicht wurde, gilt für alle Situationen: wir können immer nur sehr wenige Aspekte einer Situation tatsächlich wahrnehmen und verarbeiten. Wenn nun die Situation komplex ist, das heißt, ganz viele einzelne Elemente auf vielfältige Weise ineinander greifen, und dadurch bestimmte Zustände erzeugen, dann können wir diese Situation nicht wirklich verstehen, es sei denn, wir würden sehr viel Zeit aufwenden, um sie zu erforschen. Im Alltag haben wir diese Zeit normalerweise nicht.

Spezialisierungen

Andererseits leben wir täglich in einer Welt, die bis zum Rand angefüllt ist mit komplexen Sachverhalten: die Infrastruktur einer Stadt mit Energieversorgung, Wasserversorgung, Abfallwirtschaft, Verkehr, Schulen, …; die Wohnungssituation; die wirtschaftliche Entwicklung einer Region; das Funktionieren großer Konzerne; die jeweiligen Ökosysteme, in denen wir uns bewegen; die demographische Entwicklung und ihre Konsequenzen; usw.

Teilweise helfen wir uns durch Spezialisierungen: es gibt Verkehrsfachleute, Demographen, Betriebswirte, Abfallexperten, Managementberater, Biologen,… doch diese sind einzelne; selten arbeiten sie — wenn überhaupt — alle zusammen, um ein Problem in seinen Wechselwirkungen zu verstehen, Zusammenhänge sichtbar zu machen.

Wechselwirkungen aufdecken

Die eine Frage ist also, ob wir überhaupt genügend brauchbare Daten von den verschiedenen Prozessen unseres Alltags haben bzw. bekommen; die andere Frage ist, wie wir diese Daten so ‚aufbereiten‘, dass die ‚Wechselwirkungen‘ sichtbar werden, d.h. warum der eine Faktor den anderen Faktor beeinflusst und in welchem Ausmaß.

Geeignete Wissensformen

Die Wissenschaftsphilosophie hat erarbeitet, wie solche erklärenden Datenstrukturen aussehen müssten, damit sie Erklärungen liefern könnten. Die verschiedenen computerbasierten Simulationstechniken lassen erkennen, wie man solche komplexen Datenstrukturen so aufbereiten könnte, dass jeder damit arbeiten kann. Im Alltag findet man solche Instrumente aber nicht. Tägliche Entscheidungen müssen ohne solche Hilfen getroffen werden.

Wenn man die Lernformen in den Schulen und Hochschulen anschaut, dann gibt es nahezu nichts, was ein komplexes ‚Lernen von der Welt‘ unterstützen könnte.

Verloren im Fragment

Als Ergebnis dieser schwierigen Situation muss jeder Mensch mit mehr oder weniger kleinen bzw. großen Fragmenten eines großen Ganzen leben, die es nicht zulassen, das große Ganze zu erkennen. Notgedrungen versucht jeder auf seine Weise, ad hoc, unverstandene Reste mit Hilfskonstruktionen ‚verständlich‘ zu machen. Und ja, wenn jetzt ein anderer Mensch mit anderen Fragmenten auftritt, was tut man dann? Freut man sich, aus der Verschiedenheit zu lernen (eine echte Chance) oder fühlt man sich verunsichert, fühlt man sich angegriffen, sieht im anderen einen ‚Gegner‘, einen ‚Feind‘, der die eigene Meinung bedroht?

Wenn Menschen, und dies dürften die meisten sein, im Berufsleben eingespannt sind, dazu Familie, soziale Verpflichtungen, dann ist es sehr häufig so, dass dieses Leben so anfordernd ist, dass Zeit und Muße sich mit der komplexen Welt zu beschäftigen, mit anderen Anschauungen, kaum vorhanden ist. Ganz ’natürlich‘ wird man vieles abblocken, wird man einen ‚Tunnelblick‘ ‚kultivieren‘, wird ‚Seinesgleichen‘ suchen, sich einrichten, sich abschotten, und wenn es zum Schwur kommt, wird man genau nur das wiederholen können, was man bislang kennen gelernt hat. Wer und was kann hier helfen?

Fehlende Präferenzen

Bei der ‚Aneignung von Welt‘, die unter starken quantitativen Begrenzungen stattfinden muss, und die aufgrund von bisherigen Erfahrungen eine starke Beeinflussung aufweist, spielt noch ein weiterer Faktor hinein: Bewertungen, Präferenzen.

Das eine ist, Objekte, Eigenschaften, Beziehungen, Abfolgen zu identifizieren. Schwer genug. Ein einzelner Handelnder braucht aber auch Präferenzen der Art, dass er im Fall von Alternativen bewerten kann, ob nun A oder B für ihn besser sind. Soll er A oder B tun?

Wenn man weiß, dass viele Leistungen ein mehrjähriges gezieltes Training voraus setzen, durch das ein entsprechendes Wissen, eine entsprechende Handlungsfähigkeit schrittweise erarbeitet worden ist, das dann nach vielen Jahren so verfügbar ist, dann setzt dies voraus, dass es solche ’situationsübergreifende Ziele‘ gibt, die das einzelne Verhalten auf dieses Ziel in ‚orientieren‘.

Wenn solche Ziele aber schwer zu erkennen sind, wenn sie schlichtweg fehlen, wie kann dann ein einzelner, eine Gruppe, eine Firma ihre Ressourcen gezielt auf ein Ziel hin optimieren?

Präferenzen hängen stark von verfügbarem Wissen ab, aber sie sind nicht identisch mit Wissen! Aus der Tatsache, dass ich weiß, wie man einen Computer baut, folgt nicht, dass ich weiß, wofür man ihn einsetzen sollte. Aus der Tatsache, dass man Schulen mit Computern ausstatten will, folgt nicht, dass die Schulen, die Lehrer, die Schüler wissen, wofür sie die Computer einsetzen wollen/ sollen/ können.

Es scheint bis heute eher unklar, wo Präferenzen herkommen sollen.

Im Alltag gibt es viele sogenannte ‚praktische Zwänge‘ (Ernährung, Wohnen, Geld verdienen, Gesundheit, Verkehr, …), die zum Handeln zwingen. Dies sind aber weitgehend unhinterfragte Automatismen, die selbst in einen größeren Zusammenhang einzuordnen wären. Übergreifende Ziele, welche?

Menschenbilder

Schaut man sich die verfügbaren Menschenbilder im Bereich der Wissenschaften an, so kann man die wichtigsten Typen wie folgt auflisten:

  • Die biologische Evolution, unterscheidbar nach homo sapiens und Nicht-homo sapiens.
  • Im Bereich des homo sapiens sein Verhalten (Ethologie, Psychologie, Soziologie, Politik, Wirtschaft…)
  • Im Kontext des Verhaltens des homo sapiens gibt es die unterstellten inneren Mechanismen, die dafür verantwortlich sind, wie der homo sapiens auf seine wahrnehmbare Umgebung reagiert, zusammengefasst im Begriff des Verhaltens bzw. der Verhaltensfunktion. Das ‚Sichtbare (Verhalten)‘ erscheint damit als Wirkung des ‚Unsichtbaren (Inneren)‘. Für diese inneren Zustände gibt es keine wirkliche wissenschaftliche Disziplin, da Bewusstseinszustände als solche kein Gegenstand einer empirischen Wissenschaft sein können. Traditionell ist hier die Philosophie zuständig, die eben nicht als empirische Disziplin gilt. Die Neurowissenschaften behandeln die physikalisch-chemische Maschinerie des Gehirns, nicht aber seine subjektiven Erlebnisse im Bewusstseinsraum.
  • Im Bereich des Verhaltens hat der Mensch Technologien hervorgebracht, die ihm helfen können, praktische Probleme des Alltags (dazu gehören auch Konflikte bis hin zu Großkonflikten (Krieg)) zu lösen. Das Ineinander von Mensch und Maschine lässt ständig neue Situationen entstehen, in denen sich der Mensch über ein verändertes Verhalten selbst neu erfahren kann (Ersetzung menschlicher Muskelkraft, Autos, Eisenbahn, Flugzeug, Raumschiff..).
  • Im Rahmen der Technologie nehmen die Digitalen Technologien eine Sonderstellung ein. Sie erlauben es zunehmend, die inneren Mechanismen des Menschen zu imitieren und in immer mehr Bereichen zu übertreffen. Dies stellt eine extrem starke Infragestellung des Menschen dar: ist er auch nur eine Maschine, dazu eine schlechte?
  • Neben dem Biologischen gibt es das Physikalische als allgemeinen Rahmen für alles Biologische, mit unfassbar weiten Räumen und Energien, die sich als Universum präsentieren.
  • Innerhalb des Biologischen sind die inneren Mechanismen des homo sapiens wissenschaftlich noch unaufgeklärt. Dies gibt viel Spielraum für Spekulationen, Esoterik und dem Phänomen des Religiösen. Es ist schwer zu entscheiden,welch ‚harten Kern‘ all diese Interpretationen haben.

Macht man sich diese Vielfalt klar, ihren weitgehenden Fragmentcharakter aufgrund fehlender Wissensintegration, dann wundert man sich nicht, dass Ideologien, Populismen, Fanatismen und Dogmatismen reichlich Nährboden finden können. Die öffentlichen Wissenskulturen sind nicht ausreichend genug kultiviert, um solchen Verzerrungen den Boden zu entziehen. Die Bedeutung einer Wissenskultur wird in fast allen Gesellschaften stark unterschätzt und die jeweiligen Politiker erweisen sich für diese Fragen auch nicht besonders hilfreich.

Was Tun?

Es ist eines, einen Sachverhalt zu diagnostizieren. Es ist eine ganz andere Frage, ob man aus solch einer Diagnose irgendeinen Handlungsvorschlag generieren kann, der eine deutliche Verbesserung mit sich bringen würde.

Angesichts der zentralen Bedeutung des Wissens für das Verhalten des Menschen eingebettet in Präferenz/ Bewertungsstrukturen, die in einem Lernprozess verfügbar sein müssen, bei gleichzeitiger Berücksichtigung der quantitativen Beschränkungen des biologischen Systems bräuchte es neue Lernräume, die solch ein verbessertes Lernen unterstützen. Ganz wichtig wäre es dabei, das Wissen nicht nur ‚jenseits des Individuums‘ zu kumulieren (die Cloud für alle und alles), sondern den einzelnen als einzelnen zu stärken, auch als soziales Wesen. Dazu braucht es eine grundlegende Re-Analyse dessen, wie der Mensch mittels neuer digitaler und Cyber-Technologien sowie Humantechnologie seinen Möglichkeitsraum vergrößern kann.

Dies wiederum setzt voraus, dass es eine Vision von Gesellschaft der Zukunft gibt, in der der homo sapiens überhaupt noch eine Rolle spielt. Dies wird gerade von elitären Machtgruppen immer mehr in Frage gestellt.

Wo gibt es ernsthafte Visionen für humane Gesellschaften für Morgen?

Diese Aufgabenstellung ist nichts für einen allein; hier sind alle, jeder auf seine Weise, gefragt.

Autor cagent arbeitet an konkreten Lösungen einmal über das weltweite Theoriebuch für Ingenieurezum anderen an dem komplementären Projekt eines Softwarelabors für die Entwicklung solcher Lokaler Lernwelten. Ja, man kann sogar sagen, dass das Kunstprojekt Philosophy-in-Concert hier auch hingehört. Aber, wie auch immer, ein einzelner kann die Aufgabe nicht lösen. Es braucht ein ‚Gesamtkunstwerk‘, in dem sich viele miteinander vernetzen und ergänzen.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

MENSCHENBILD – VORGESCHICHTE BIS ZUM HOMO SAPIENS – Ergänzungen

PDF

Übersicht
Im Folgenden einige Ergänzungen zu dem vorausgehenden Blogeintrag ’Menschenbild …’.

I. WARUM ERGÄNZUNGEN ?

In dem vorausgehenden Blogeintrag (siehe: [DH17d])
wurde in einem ersten Durchgang versucht, die großen
Linien der ’Menschwerdung des Menschen’ nachzuzeichnen.
Angesichts des Umfangs und der Komplexität
des Themas konnten viele wichtige Punkte nur grob
beschrieben werden. Hier einige ergänzende Nachträge.

II. ZEITMESSUNG

Für die Rekonstruktion der Entwicklung der
verschiedenen Menschenformen benötigt man eine
Einordnung der ’Formen’ in bestimmte Schemata,
ihre ’geologische’ Fixierung mit jeweiligen Kontexten,
sowie die Einordnung auf einer ’Zeitachse’, die einen
direkten Bezug zu den konkreten Substraten (Knochen,
Werkzeuge, …) aufweist.

Eine Einführung in diese Thematik findet sich in
dem Artikel von Günther A.Wagner [Wag07], der am
Beispiel der Zeitbestimmung des Fundes zum homo
heidelbergensis die allgemeine Problematik einer
Zeitbestimmung abhandelt.

A. Stratigraphie

Es war der Geologe Nicolaus Steno, der 1669
erkannt, dass sich die Veränderungen der Erde in
Sedimentablagerungen manifestierten, wobei die
unteren Schichten die Älteren sind. Es entstand daraus
generell die Stratigraphie die die Fossile registriert
(Biostratigraphie), ferner die Lithostratigraphie mit dem
Fokus auf dem Gestein, die Magnetostratigraphie
mit Fokus auf der Gesteinsmagnetisierung, sowie
die Klimastratigraphie, die nach Indikatoren für das
Klima sucht. In der Summe entstehen auf diese Weise
räumliche und zeitliche Netze, die man zu einer primären
geologischen zeitlichen Einteilung nutzen kann. (Siehe
dazu z.B. die Tabellen bei Wagner [Wag07]:SS.204ff)

B.Tertiär, Quartär

Die Zeit seit -2 Ma Jahren [‚Ma‘ := Millonen Jahre] wurde aufgrund der
Stratigraphie in die Abfolge der Systeme Tertiär bis -1.8
Ma Jahren und Quartär bis zur Gegenwart eingeteilt.

C. Pliozän, Pleistozän

Diese grobe Einteilung wurde anhand stratigraphischer
Kriterien weiter verfeinert in die Abteilungen Pliozän
(-2.0 bis -1.8 Ma), Altpleistozän (-1.8 bis -0.78 Ma),
Mittelpleistozän (-078 bis -0.128 Ma), Jungpleistozän
(-0.128 Ma bis -11.7 Ka) und Holozän (-11.7 Ka bis zur
Gegenwart).[‚Ka‘ := 1000 Jahre].

D. Paläolithikum

Eine andere Einteilung orientierte sich an dem
Merkmal Steinwerkzeuge . Erste Steinwerkzeuge lassen
sich in Afrika ab -2,5 Ma nachweisen, in Europa erst ab
-0.9 Ma (siehe: [WD17a]). Diese Zeit wird Altsteinzeit
(Alt-Paläolithikum) genannt, Dauer bis ca.-300.000/-
200.000. Wichtige Formfelder: Acheulien . Es folgt die
Mittelsteinzeit (Mittel-Paläolithikum) , die etwa um -40 Ka
endet. Wichtige Formfelder sind hier:die Moustérien , ca.
-200.000 bis -40.000; es handelt sich hier um sehr fein
gearbeitete Werkstücke in zahlreichen, auf die Funktion
hin gestalteten Formen. Typisch sind fein ausgebildete
Faustkeile. Micoquien (oder ”Keilmesser-Gruppen”),
ca. -130.000 bis -70.000. Hier findet man Keilmesser
Blattspitzen-Gruppen, die flache und ovale Werkzeuge
(Blattspitzen) nutzten. Ch âtelperronien bis ca. -34.000.
(regional eingeschränkt, Frankreich und Nordspanien).
Es folgt die Jungsteinzeit (Jung-Paläolithikum) die bis
zum Ende der letzten Kaltzeit dauert, die mit dem
Beginn des Holozäns zusammenfällt, etwa 11.7 Ka vor
dem Jahr 2000 (siehe dazu: [WD17d]). Der Beginn der
Jungsteinzeit fällt auch zusammen mit dem Auftauchen
des homo sapiens in Europa. Bei den Steinwerkzeugen
unterscheidet man die Formenwelt Aurignacien, ca.
40.000 bis ca. -28.000; sie markiert den Beginn der jungpaläolithischen
Kleinkunst in Europa, u.a. erste Felsbilder; Gravettien von ca.
-28.000 bis ca. -21.000, Zeithorizont der Venusfigurinen.
Solutréen von ca. -22.000 bis ca. -18.000; Magdalénien
von ca. -18.000 bis ca. -12.000.

E. Holozän

Der Beginn des Holozäns (-9.7 Ka oder ’11.7 Ka
vor dem Jahr 2000’) ist gekennzeichnet durch einen
starken Klimaanstieg, der zu starken Veränderungen
in Fauna und Flora geführt hat (man nennt es auch
’drastische ökologische Restrukturierungen’ (siehe
dazu: [WD17d])). Die Zeit -9.7 Ka bis -6 Ka nennt
man auch Alt-Holozän. Riesige Eismassen schmelzen
und die Erdoberfläche hebt sich um viele Meter. Im
nachfolgenden Mittelholozän (ca. -6 Ka bis -2.5 Ka)
gab es einerseits ein Klimaoptimum, das positive
Lebensräume schuf. In einem Klimapessimus (von
ca. -4.1 Ka bis -2.5 Ka) wurde es deutlich kühler und
trockener; viele Wüsten kehrten wieder zurück. Die
Menschen zogen sich in die Flussgebiete zurück, was
zur Ausbildung komplexer Ansiedlungen führte. Es kam
zu Zusammenbrüchen ganzer Kulturen, zu erzwungenen
Wanderungen sowie Eroberungen. Das anschließende
Jung-Holozän (von ca. -2.5 Ka bis heute) ist u.a.
durch einen Wechsel weiterer Kalt- und Warmzeiten
gekennzeichnet.

Innerhalb des Holozäns werden anhand spezieller
Kriterienbündel weitere Unterteilungen vorgenommen.

Epipaläolithikum, Mesolithikum, Neolithikum

Am Beispiel der Begriffe Epipaläolithikum, Mesolithikum,
Neolithikum wird deutlich, wie sich Kriterien, die im
Rahmen der Stratigraphie zur Anwendung kommen
können, aufgrund von Zeitverschiebungen zwischen
verschiedenen Regionen sowie durch parallele
Kriterienbündel überlappen können.

Die Bezeichnung Mesolithikum (Mittelsteinzeit) trifft
eigentlich nur auf das nacheiszeitliche Europa zu (siehe:
[WD17f]), während der Begriff Epipaläolithikum in er
gleichen Zeit angewendet wird, aber eher auf Regionen
die kaum bis gar nicht von nacheiszeitlichen Eiswechsel
betroffen waren (siehe [WD17c]).

2. Neolithikum

Dagegen bezieht sich der Begriff Neolithikum (Jungsteinzeit)
auf ein Bündel von Faktoren, die zusammen
den Charakter dieser Phase beschreiben: die Domestizierung
von Tieren und Pflanzen, die Sesshaftigkeit der
Bauern (Nomadismus auf Viehhaltung basierender Kulturen),
die Verbreitung geschliffener Steingeräte (Steinbeile,
Dexel), sowie Ausweitung des Gebrauchs von
Gefäßen aus Keramik (siehe [WD17e]). Eine Zuordnung
des Beginns dieser Phase in absoluten Zahlen ist aufgrund
der regionalen Zeitverschiebungen im Auftreten
der Phänomene schwankend, frühestens beginnend mit
ca. -11.5 Ka.

F. Anthropozän

Aufgrund der immer stärker werdenden Einwirkung
des Menschen auf die Lebensbedingungen der Erde,
wird diskutiert, ob man die Zeit ab der Englischen
Industriellen Revolution als Anthropozän bezeichnen
sollte (siehe: [WD17b]). Es gibt sehr viele Indikatoren,
die solch eine neue Gliederung nahe legen, allerdings
konnte man sich noch nicht auf einen Anfangszeitpunkt
einigen; mehrere Szenarien stehen zur Auswahl.

G. Chronometrie

Wie aus den vorausgehenden Abschnitten deutlich
werden kann, lassen sich mittels der Stratigraphie
und gut gewählter Kriterien räumlich und zeitlich
abgrenzbare Phasen/ Perioden herausheben, diese
dann benennen, um auf diese Weise eine erste
geologisch motivierte Struktur zu bekommen, an die
sich weitere archäologische Kriterien anbinden lassen.
Will man nun diese relativen Zuordnungen mit
absoluten Zeitangaben verknüpfen (Chronometrie),
dann benötigt man dazu einen Zeitstrahl, der Uhren
voraussetzt, d.h. Prozesse, die hinreichend regelmäßig
in gleichen Abständen Ereignisse erzeugen, die man
abzählen kann.

Wagner beschreibt eine Reihe von solchen ’Uhren’,
auf die die Archäologie zurückgreifen kann; manche
sind recht neuen Datums (siehe: [Wag07]:SS.207ff).
Anhaltspunkte sind z.B. jahreszeitliche Wechsel,
Klimaänderungen, Baumringe (Dendrologie),
Sedimentablagerungen (Warvenchronologie), Eiskerne,
astronomische gesteuerte Ereignisse (wie jene, die
durch die Milanković-Zyklen hervorgerufen werden), Magnetismus, und Eigenschaften der Radioaktivität.

Da die Energiebilanz auf der Erdoberfläche zu
mehr als 99.9% von der Sonneneinstrahlung gespeist
wird, kommt den Parametern Neigung der Erdachse,
Rotationsgeschwindigkeit sowie Erdumlaufbahn
eine fundamentale Bedeutung zu. Schon geringe
Schwankungen hier können zu weitreichenden
Klimaänderungen führen (Stichwort: Milanković-
Zyklen)(siehe: [Wag07]:S.216 und [WD17g]). Da sich die
astronomischen Verhältnisse ziemlich genau berechnen
lassen, kann man die Annahmen des Milanković-
Zusammenhangs direkt experimentell an messbaren
Energiesignalen in den Ablagerungen überprüfen. Die
Autoren Zöller, Urban und Hambach zeigen auf, wie man
die Klimasignale in Meeressedimenten, Lössschichten
und Eisbohrkernen mit den berechneten astronomischen
Parametern korrelieren kann (siehe: [ZUH07], hier z.B.
die Tabelle auf S.87). Auf der Basis dieser ca. 50
globalen Warm- und Kaltzeiten in der Zeit ab ca. -2.5
Ma kann man dann ein Gerüst aufbauen, das mit
absoluten Zahlen versehen werden kann (siehe aber
auch hier [WD17g]).

Aus Stratigraphie und Chronometrie
kommt man damit zu einer Chronologie (Terminologie
von Wagner [Wag07]:S.207). Zu den Forschungen
zur Chronometrisierung von Eiszeiten siehe auch den
ausführlichen Artikel von Masson et al. [MDSP10].

III. PALÄONTOLOGIE UND PALÄOBIOLOGIE

Während im vorigen Blogbeitrag [DH17d] auf eine
Vielfalt von Disziplinen hingewiesen worden ist, die bei
der Analyse der biologischen Entwicklungsprozesse
involviert sind, soll hier das Augenmerk nur auf die
beiden Disziplinen Paläontologie und Paläobiologie
gelegt werden.

Wie Robert Foley herausarbeitet (siehe: [Fol98]),
brauchen beide Disziplinen einander. Die Paläobiologie
kann mittels molekularbiologischer und genetischer
Methoden die Abhängigkeitsbeziehungen zwischen
verschiedenen Lebensformen immer genauer
bestimmen, so genau, wie es die Paläontologie niemals
kann, aber die Paläobiologie kann dafür nicht die
Kontexte der Gene, die begleitenden geologischen,
sozialen, technologischen und sonstigen Elemente
erfassen; dies kann nur die Paläontologie.

Dieses Zusammenspiel demonstriert Foley am
Beispiel der Diskussion um die Abstammungslinien
der Gattung homo. Während die Vielfalt der
paläontologischen Funde viele mögliche Hypothesen
über Abstammungsverhältnisse ermöglichten, konnten
paläobiologische Untersuchungen aufzeigen, dass es
(i) aufgrund der ersten Auswanderungswelle aus Afrika
(ab ca. -1.6 Ma) viele Besiedlungsprozesse in Europa
und Asien gab, dass aber (ii) diese Lebensformen
keine genetischen Austauschverhältnisse mit dem
homo sapiens eingegangen sind, der in einer zweiten
Auswanderungswelle ab ca. -100 Ka von Afrika aus
über Arabien ca. -70 Ka nach Asien vordrang und erst
ab ca. -40 Ka nach Europa kam. (iii) Speziell zum
Neandertaler, der seit ca. -200 Ka vor allem in Europa
auftrat lässt sich sagen, dass es keine nennenswerten
Genaustausch gab. Außerdem zeigte sich (iv), dass der
Genpool aller neuen Lebensformen außerhalb von Afrika
verglichen mit dem Genpool afrikanischer Lebensformen
sehr eng ist. Daraus wird gefolgert, dass alle bekannten
Lebensformen von einer sehr kleinen homo sapiens
Population in Afrika abstammen müssen.(Vgl. zu allem
[Fol98]).

IV. ABSTAMMUNGSLINIEN

Die von Foley angesprochene Methodenproblematik
der Paläontologie wird von den Autoren Hardt und Henke
in ihrer Untersuchung zur ”Stammesgeschichtlichen
Stellung des Homo heidelbergensis” (siehe: [HH07]) sehr
ausführlich am Beispiel der Klassifizierungsgeschichte
des Fundes homo heidelbergensis in Mauer diskutiert.
Die Paläontologischen Deutungsversuche waren bis
in die Mitte des 20.Jahrhunderts gekennzeichnet von
einer gewissen (unwissenschaftlichen) Beliebigkeit,
die keine wirklichen Prinzipien erkennen ließ.

Das Klassifizierungssystem von Carl von Linné (1707 –
1778) mit Art (species), Gattung (genus), Ordnung
(ordo) und Klasse (classis) ist rein begrifflich-logisch
eine Sache, diese Konzepte aber konsistent mit
empirischen Merkmalen zu assoziieren, eine andere.
Bis in die 60er und 70er Jahre des 20.Jahrhunderts
hielt man z.B. an der Interpretation fest, dass es eine
Abfolge gibt von h.africanus zu h.habilis zu h.erectus
zu h.sapiens (siehe: [HH07]:S.188). Die Vermehrung
der Funde weltweit, die Zunahme von Varianten,
das Feststellen von Ähnlichkeiten und Unterschieden
dort, wo sie nach den bisherigen Interpretationen
nicht hätten vorkommen sollen, die zunehmende
Verbesserungen der Methoden, die Steigerung der
Präzision, die Einbeziehung der Paläobiologie, dies alles (und mehr)
führte zu mehrfachen Erschütterungen der bisherigen
Interpretationsansätze. Eines der Ergebnisse war,
dass homo erectus keine valide europäische Spezies
(Art) war. (siehe: [HH07]:S.192). Auch wurde klar,
dass alle bekannten Arten sich auf einen Ursprung
in Afrika zurückführen lassen, wenngleich in zwei
unterschiedlichen Auswanderungswellen: eine um -1.8
Ma und eine viel spätere um -100 Ka mit dem homo
sapiens. Die Nachfahren der ersten Out-of-Afrika Welle
haben sich mit den Nachfahren der zweiten Out-of-Afrika
Welle genetisch nicht vermischt (siehe: [HH07]:S.192f).

Wie nun die modernen Einordnungsversuche zum
homo heidelbergensis zeigen (siehe den Überblick bei
[HH07]:SS.200ff)), gibt es bislang vier große Szenarien,
zwischen denen eindeutig zu entscheiden, noch nicht
mit letzter Eindeutigkeit möglich ist.

Das Thema der wachsenden Vielfalt (Diversität)
der entdeckten Lebensformen und das Problem ihrer
Einordnung wird bei Foley intensiv diskutiert (siehe
[Fol10]). Angesichts der Zunahme der Funde zum
Stamm der hominini (Pan (Schimpansen) und homo
(Menschen)) thematisiert Foley gezielt das Problem
der Klassifizierung von Funden mit dem Modell der
’Art’ (Spezies), da die Vielfalt der möglichen Kriterien
einerseits und der bisweilen fließende Übergang von
Formen im Rahmen einer evolutiven Entwicklung klare
Grenzziehungen schwer bis unmöglich machen. Foley
plädiert daher dafür, den Art-Begriff nicht absolut
zu sehen sondern als ein analytisches Werkzeug
[Fol10]:S.71.

Eine Grundeinsicht in all der aktuellen Vielfalt ist allerdings
(sowohl im Licht der Paläontologie wie auch der
Paläobiologie), dass nicht nur der Stamm der hominini
auf einen rein afrikanischen Ursprung hindeutet, sondern
auch die überwältigende Mehrheit der Primatengattungen
[Fol10]:S.69.

V. GEHIRNVOLUMEN

Anwachsen der Gehirnvolumen mit Daten vonStorch et.al sowie Foley
Bild 1: Anwachsen der Gehirnvolumen (cm^3) mit Daten von Storch et.al (2013) sowie Foley (2010)

Ein interessantes Detail ist der Zuwachs des Gehirnvolumens
von ca. 320 – 380 cm^3 bis dann ca. 1000 –
1700 cm^3 im Zeitraum von ca. -7.2 Ma bis zu ersten
Funden des homo sapiens (siehe: [SWW13]:S.474). Man
beachte dabei, dass die Gehirnvolumina in der Auflistung
von [SWW13]:S.474 nicht relativ zum Körpergewicht
gewichtet sind. Für die Zeitachse wurden außerdem nicht alle
verfügbaren Daten aufgetragen, sondern anhand der
Liste von Foley [Fol10]:S.70f nur jeweils das zeitlich
erste Auftreten. Die Kurve im Bild 1 zeigt, wie das
Gehirnvolumen immer steiler ansteigt (bisher). Diese Volumenangaben
streuen jedoch sehr stark (bis zu 50% Abweichung vom Mittelwert).

VI. WISSENSCHAFTSPHILOSOPHISCHES

Wie sich in den vorausgehenden Diskussionen andeutet,
repräsentieren die Paradigmen von Paläontologie
und Paläobiologie zwei eigenständige Methodenbündel,
die ihre volle Leistung aber erst in einem gemeinsamen
Rahmen entfalten, in dem ihre individuellen
Daten in einen übergeordneten Zusammenhang – auf
einer Metaebene – zusammengebaut werden. Weder die
Paläontologie für sich noch die Paläobiologie für sich
bieten solch eine Metaebene explizit an. Im Interesse
der Sache wäre es aber gut, wenn das Zusammenspiel
beider Methodenbündel in einem gemeinsamen theoretischen
Rahmen explizit möglich wäre. Wie könnte dies
geschehen?

A. Ein Theorieschema für Paläontologie mit Paläobiologie

Im Rahmen eines Theorieprojektes, bei dem cagent
beteiligt ist (siehe: [DH17b]) wird gezeigt, wie man
im Rahmen der Vorgehensweise des allgemeinen
Systems Engineerings das Verhalten von Menschen in
Aufgabenkontexten theoretisch beschreiben kann. Die
Details finden sich in dem Abschnitt, der üblicherweise
als ’Mensch-Maschine Interaktion’ bezeichnet wird (EN:
’Human-Machine Interaction (HMI)) (siehe: [DH17a]).

Die beiden Grundkonzepte dort sind ’Userstory
(US)’ und ’Usermodel (UM)’. In der Userstory wird das
Verhalten von Akteuren beschrieben (Menschen oder
geeignete Maschinen (Roboter…), die eine Reihe von
Aufgaben in einer definierten Umgebung abarbeiten.
Diese Darstellung ist rein ’beobachtend’, sprich: wird
aus einer ’Dritten-Person-Perspektive’ (EN: ’3rd Person
View’) vorgenommen. Die inneren Zustände der
beteiligten Personen bleiben unbekannt (Akteure als
’black boxes’). Will man innere Zustände dieser Akteure
beschreiben, dann bedeutet dies, dass man Annahmen
(Hypothesen) über die inneren Zustände samt ihren
Wechselwirkungen treffen muss. Dies entspricht der
Konstruktion einer Verhaltensfunktion Φ#, die beschreibt,
wie die angenommenen ’Input-Ereignisse (I)’ des
Akteurs in die angenommenen ’Output-Ereignisse (O)’
des Akteurs abgebildet werden, also # Φ: I O.
Solch eine hypothetische Verhaltensfunktion ist Teil
einer umfassenden Struktur <I, O, Φ>. Diese Struktur
stellt einen minimalen Theoriekern dar, in den die
hypothetische Verhaltensfunktion Φ eingebettet ist. Wie
man diesen Theoriekern mit der Verhaltensfunktion im
einzelnen ausfüllt, ist im allgemeinen Fall beliebig. Die
einzige Anforderung, die erfüllt werden muss, besteht
darin, dass die Abfolge der Input-Output-Ereignisse
{(i1; o1), …} der Theorie mit der vorgegebenen Userstory
übereinstimmen muss. Darin drückt sich aus, dass die
Userstory aus Sicht des Usermodells den vorgegebene
Kontext darstellt, analog zur Erde als vorgegebenem
Kontext zu den biologischen Systemen.

Angewendet auf den Ausgangsfall Paläontologie und
Paläobiologie bedeutet dies, man kann die Paläontologie
aus Sicht einer Metatheorie verstehen als eine Userstory,
in der alle Rahmenbedingungen fixiert werden, die man
empirisch fassen kann; die verschiedenen biologischen
Systeme sind dann die identifizierten Akteure, für
die man jeweils Usermodelle konstruieren könnte,
die das Verhalten dieser Akteure in der definierten
Userstory beschreiben. Hier käme die Paläobiologie
ins Spiel, die durch Annahmen über das Genom
und Annahmen über ursächliche Zusammenhänge
zwischen Genom einerseits und Körperbau und
Verhalten andererseits, Beiträge für eine mögliche
Verhaltensfunktion leisten kann. Dazu kämen auch noch
die Vergleiche zwischen den verschiedenen Genomen
bzw. zwischen den verschiedenen Verhaltensfunktionen,
die auf Abhängigkeitsbeziehungen schließen lassen
würden.

Aufgrund der großen Komplexität sowohl bei der
Erstellung der Userstory wie auch der verschiedenen
Usermodelle werden alle dieser Modelle natürlich nur
Annäherungen sein können. Die heute angewendeten Modelle
sind allerdings auch nur Annäherungen, ihnen fehlen
allerdings nahezu alle formalen Eigenschaften, die sie
zu theoretischen Strukturen im Sinne einer empirischen
Theorie machen würden.

B. Simulationsmodelle für Paläontologie mit Paläobiologie

Sofern man sich auf das obige wissenschaftsphilosophisch
motivierte Theorieparadigma einlassen würde, würde sich
relativ schnell ein rein praktisches
Problem ergeben. Schon das Hinschreiben einfacher
Userstories und insbesondere Usermodelle führt sehr
schnell zu einem großen Schreibaufwand. Dieser
immer größere Schreib- und dann auch Lese- und
Ausführungsaufwand verlangt ziemlich direkt nach
computergestützten Verfahren der Simulation.
Dazu bräuchte man mindestens zwei Computerprogramme:
eines, durch das die Eigenschaften und die
Dynamik der Userstory simuliert würden, ein anderes
für die verschiedenen Usermodelle.
Ganz konkret bieten sich für diese Anforderungen
eine Unzahl möglicher Softwareumgebungen an. Für
den Neustart des ’Emerging Mind Projektes’ des INM
ab September 2017 (siehe: [DH17c]) wird zur Zeit mit
folgender Software und Hardware geplant:

  1. Für schnelle, kleine Modellierung wird sowohl das
    freie Mathematikpaket ’scilab’ benutzt (scilab.org)
    wie auch das freie Kreativprogramm ’processing’
    (processing.org).
  2. Für komplexe Anwendung mit Anspruch auf einen
    realistischen Einsatz auch in der realen Welt mit
    realen Robotern wird das Betriebssystem ’ubuntu’
    (ubuntu.com) benutzt und dazu die Middleware
    ’ROS (:= Robotic Operating System)(ros.org).
  3. Als Hardware kann dazu nahezu alles benutzt werden,
    was es gibt, auch eher ältere Geräte. Dies ist
    für Anwendungen im Bereich Schulen (und auch
    Hochschulen) sehr günstig, da es hier meist an
    Geld mangelt (trotz aller Schönwetterparolen der
    Deutschen Politiker).

REFERENCES

  • [DH17a] Gerd Doeben-Henisch. Approaching Hmi. Pages 1–nn, July 2017. Journal: UFFMM, URL: https://uffmm.org/2017/08/03/approaching-hmi/.
  • [DH17b] Gerd Doeben-Henisch. Bootstrapping main concepts, pages 1–nn, July 2017. Journal: UFFMM , URL: uffmm.org.
  • [DH17c] Gerd Doeben-Henisch. Emerging Mind Projekt, pages 1–nn, Sept 2017. Project: INM-EMP, URL: https://www.emerging-mind.org.
  • [DH17d] Gerd Doeben-Henisch. Menschenbild. Vorgeschichte bis zum homo sapiens. Überlegungen Philosophie Jetzt, ISSN 2365-5062, URL: cognitiveagent.org.
  • [Fol98] Robert Foley. The context of human genetic evolution, (8):339–347, 1998. Journal: Genom Research (GR).
  • [Fol10] Robert Foley. Species diversity in human evolution: challenges and opportunities, (60):62–72, 2010. Journal: Transactions of the Royal Society of South Africa, URL: http://dx.doi.org/10.1080/00359190509520479.
  • [HH07] Thorolf Hardt and Winfried Henke. Zur stammesgeschichtlichen Stellung des Homo heidelbergensis, In Günther A. Wagner, Hermann Rieder, Ludwig Zöller, Erich Mick (Hg.), Homo heidelbergensis. Schlüsselfund der Menschheitsgeschichte, SS. 184–202. Konrad Theiss Verlag, Stuttgart, 2007.
  • [MDSP10] V. Masson-Delmotte, B. Stenni, K. et.al., Pol. Epica dome c record of glacial and interglacial intensities, (29):113–128, 2010. Journal: Quaternary Science Reviews, URL: doi:10.1016/j.quascirev.2009.09.030.
  • [SWW13] Volker Storch, Ulrich Welsch, Michael Wink, (Hg.) Evolutionsbiologie, Springer-Verlag, Berlin – Heidelberg, 3.Aufl., 2013.
  • [Wag07] Günther A. Wagner. Altersbestimmung: Der lange Atem der Menschwerdung, In Günther A. Wagner, Hermann Rieder, Ludwig Zöller, Erich Mick (Hg.), Homo heidelbergensis. Schlüsselfund der Menschheitsgeschichte, SS. 203 -225. Konrad Theiss Verlag, Stuttgart, 2007.
  • [WD17a] Wikipedia-DE. Altpaläolithikum. 2017.
  • [WD17b] Wikipedia-DE. AnthropozÄn. 2017.
  • [WD17c] Wikipedia-DE. Epipaläolithikum. 2017.
  • [WD17d] Wikipedia-DE. HolozÄn. 2017.
  • [WD17e] Wikipedia-DE. Jungsteinzeit. 2017.
  • [WD17f] Wikipedia-DE. Mesolithikum. 2017.
  • [WD17g] Wikipedia-DE. Milanković-Zyklen. 2017.
  • [ZUH07] Ludwig Zöller, Brigitte Urban, Ulrich Hambach. Klima und Umweltveränderungen während des Eiszeitalters, In Günther A. Wagner, Hermann Rieder, Ludwig Zöller, Erich Mick (Hg.), Homo heidelbergensis. Schlüsselfund der Menschheitsgeschichte, SS. 84–112. Konrad Theiss Verlag, Stuttgart, 2007.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

EARTH 2117 – ERDE 2117 – Erste Gedanken – Simupedia für alle?

KONTEXT

  1. Wie man als Leser des Blogs bemerken kann, fokussiert sich der Blog zur Zeit hauptsächlich auf drei Themenfelder: (i) Die Frage nach der technischen Superintelligenz (TSI); (ii) die Frage nach dem, was der Mensch ist bzw. werden kann, mit der speziellen Teilfrage nach der mystischen Erfahrung (gibt es die? Was sagt dies über den Menschen und die Welt?); sowie (iii) die Frage nach dem möglichen Zustand der Erde im Jahr 2117. Die Zahl 2117 ergab sich u.a. aus den aktuellen Prognosen, zu welchem Zeitpunkt Experten das Auftreten einer technischen Superintelligenz für hoch wahrscheinlich halten. Zu diesen drei Themenfeldern kommen dann noch die möglichen Wechselwirkungen zwischen (i), (ii) und (iii). Andere Themen sind grundsätzlich nicht ausgeschlossen, sind aber bis auf weiteres Nebenthemen.

PROGNOSEN GENERELL

  1. Die Frage nach dem möglichen Zustand der Erde setzt voraus, dass wir den Zustand der Erde als veränderlich ansehen, dass es ein Jetzt gibt, und dass es im jeweiligen Jetzt die Möglichkeit gibt, dass sich Eigenschaften der Erde im Jetzt so verändern, dass es zu einem nachfolgenden Jetzt andere Eigenschaften gibt als beim vorausgehenden Jetzt.

DER MENSCH UND DIE ZEIT

  1. Auf Seiten des Menschen ist es die Erinnerungsfähigkeit, die den Menschen in die Lage versetzt, zwischen einem aktuellen Jetzt und einem vorausgehenden Jetzt zu unterscheiden. Auf Seiten des Menschen sind es weitere kognitive Fähigkeiten, die den Menschen in die Lage versetzen, am Wahrgenommenen und Erinnerten kognitive Eigenschaften zu erfassen (durch Abstrahieren, Klassifizieren, Vergleichen usw.) mit denen sich kognitiv Veränderungen identifizieren lassen. Mittels solcher identifizierten kognitiven Konzepten der Veränderung kann der Mensch von angenommenen (kognitiven) Zuständen auf mögliche (kognitive) Zustände mittels der angenommenen Veränderungskonzepte schließen. Der Mensch ist also grundsätzlich in der Lage, aufgrund von Erfahrungen aus der Vergangenheit im Vergleich zur Gegenwart mögliche Veränderungen zu erschließen, die dann wiederum genutzt werden können, mögliche Zukünfte zu denken.
  2. Natürlich hängt die Qualität solche Hochrechnungen entscheidend davon ab, wie wirklichkeitsnah die Erfahrungen aus der Vergangenheit sind, die Art der Erinnerungen, die möglichen Denkoperationen des Selektierens, Abstrahierens, Vergleichens usw. Wie gut mögliche Veränderungen erfasst wurden, einschließlich der möglichen Wechselwirkungen zwischen unterschiedlichen Faktoren.

TECHNISCHE HILFSMITTEL: COMPUTER

  1. Wie der Gang der Wissenschaften und der Technologie uns zeigen kann, können solche möglichen Hochrechnungen deutlich verbessert werden, wenn der Mensch für diese (kognitiven) Denkleistungen als Hilfsmittel formalisierte Sprachen benutzt und Computer, die mittels Algorithmen bestimmte Denkoperationen des Menschen modellhaft nachvollziehen können. Statt also per Hand auf dem Papier umfangreiche Rechnungen viele tausend Male selbst vorzunehmen (wozu in der Realität dann sehr schnell einfach die Zeit und Arbeitskraft fehlt), schreibt man einen Algorithmus (= Programm, Software), der diese Rechnungen für das Arbeiten eines Computers übersetzt und die Maschine dann die Rechnungen automatisch (= maschinell) machen lässt.

BEGRIFF DER ZEIT

  1. Ein nicht unwesentlicher Faktor in diesen Überlegungen zu möglichen Zukünften ist der Begriff der Zeit.
  2. Der Begriff der Zeit ist viel schillernd und je nach Kontext kann er etwas ganz Verschiedenes bedeuten.
  3. Im Kontext des menschlichen Denkens haben wir die grundsätzliche Unterscheidung zwischen dem aktuellen Jetzt und dem vorausgehenden Jetzt in Form von verfügbaren Erinnerungen. Dazu kommen dann mögliche Jetzte aufgrund der Möglichkeit, im (kognitiven) Denken mittels dem (kognitiven) Konzept von Veränderung, aus der Vergangenheit und der Gegenwart denkbare (= mögliche) neue Zustände zu berechnen (zu denken, vorzustellen, …). Im Denken sind diese möglichen Zustände rein gedacht (virtuell), aber, sofern sie genügend nahe an der empirischen Wirklichkeit sind, könnten diese möglichen Zustände real werden, d.h. Zu einem neuen aktuellen Jetzt.

UHREN-MASCHINEN

  1. Um das Reden über diese unterschiedliche Formen von Jetzten zu vereinfachen, wurde sehr früh das Hilfsmittel der Uhr eingeführt: die Uhr ist eine Maschine, die periodisch Uhren-Ereignisse erzeugt, denen man Zahlzeichen zuordnen kann, also z.B. 1, 2, 3, … Es hat sich dann eingebürgert, ein Zeitsystem zu vereinbaren, bei dem man Jahre unterscheidet, darin 12 Monate, darin Wochen, darin 7 Wochentage, darin 24 Stunden pro Tag, darin 60 Minuten pro Stunde, darin 60 Sekunden pro Minute, und noch feinere Unterteilungen.
  2. Nimmt man an, dass eine Uhren-Maschine periodisch Sekunden erzeugt, dann würde jede Sekunde ein Ereignis angezeigt, dem dann nach 60 Sekunden eine Minute entsprechend würde, 60 Minuten dann eine Stunde, usw.
  3. Sofern man dann noch das praktische Problem lösen kann, wie die Uhren-Maschinen überall auf der Erde die gleiche Zeit anzeigen, und man einen gemeinsamen Referenzpunkt für den Beginn der Zeitrechnung hat, dann könnten alle Menschen nach der gleichen Zeitgebung leben.
  4. Unter Voraussetzung solcher einer Technologie der Zeiterzeugung könnte man dann abstrakt immer von definierten Zeitpunkten in diesem vereinbarten Zeitsystem sprechen.

(TECHNISCHE) SIMULATION

  1. Verfügt man über Computer und Zeit-Maschinen, dann kann man den Computer dazu nutzen, im Raum von definierten Zeitpunkten Hochrechnungen vorzunehmen. Man definiert Ausgangssituationen zu bestimmten Zeitpunkten (die Startzeit), man definiert angenommene mögliche Veränderungen in der Zeit, die man dann in Form eines Algorithmus aufschreibt, und dann lässt man den Computer für einen gewünschten Zeitraum ausrechnen, welche Veränderungen sich ergeben.
  2. Will man z.B. errechnen, wie sich die Bevölkerungszahl in einer bestimmten Population im Laufe von 10 Jahren berechnen, und man weiß aufgrund der Vergangenheit, wie hoch die durchschnittlichen Geburten- und Sterberaten für ein Jahr waren, dann kann man die Veränderungen von Jahr 1 zu Jahr 2 berechnen, dann wieder von Jahr 2 zu Jahr 3, usw. bis man das Zieljahr erreicht hat.
  3. Diese Rechnungen sind natürlich nur solange genau, wie sich die Geburten- und Sterberaten in diesem angenommenen Zeitraum nicht verändern. Wie wir aus der Geschichte wissen können, gibt es zahllose Faktoren, die auftreten können (Hunger, Krankheit, Kriege, …), die eine Veränderung mit sich bringen würden.
  4. Ferner sind Populationen immer seltener isoliert. Der Austausch zwischen Populationen nimmt heute immer mehr zu. Eine ganz normale Gemeinde im Kreis Offenbach (Land Hessen, Deutschland) kann z.B. eine Migrationsrate von 15% pro Jahr haben (Menschen die wegziehen oder herziehen), bei einer Geburtenrate von 0,7% und einer Sterberate von 0,8%. Die Größe einer Population hängt dann weniger vom Geborenwerden und Sterben ab, sondern von Standortfaktoren wie Verfügbarkeit von Arbeit, Höhe der Mietpreise, Verkehrsanbindung, Qualität der Schulen, ärztliche Versorgung usw.

DIE ERDE

  1. Will man nun die Erde als ganze betrachten, und hat man sowohl ein vereinbartes Zeitsystem zur Verfügung basierend auf einer gemeinsamen globalen Uhren-Technologie, wie auch Computer, die geeignete Algorithmen ausführen können, dann braucht man ’nur noch‘ (i) hinreichend gute Beschreibungen des Zustands der Erde jetzt, (Daten IST) (ii) von möglichst vielen Zuständen in der Vergangenheit (DATEN VORHER), und (iii) von möglichst allen wichtigen wirkenden Veränderungen zwischen diesen Zuständen (VREGELN). Unter der Annahme, dass alle diese Daten und Veränderungsregeln hinreichend realistisch sind, kann man dann Hochrechnungen für angenommene Zeiträume machen. In unserem Fall von 2017 bis 2117.
  2. Da schon das kleine Beispiel einer winzigen Gemeinde in Deutschland leicht erkennen lässt, wie fragil viele erkannten Veränderungsregeln sind, kann man vermuten, dass dies auf ein so komplexes System wie die ganze Erde sicher auch zutreffen wird.
  3. Betrachten wir ein paar (stark vereinfachte, idealisierte) Beispiele.
  4. Ganz allgemein gehen wir aus von einer globalen Veränderungsregel V_erde für die Erde, die den Zustand der Erde im Jahr 2017 (ERDE_2017) hochrechnen soll auf den Zustand der Erde im Jahr 2117 (ERDE_2117), als Abbildung geschrieben: V_erde : ERDE_2017 —> ERDE_2117.
  5. Der Zustand der Erde im Jahr 2017 (ERDE_2017) setzt sich zusammen aus einer ganzen Menge von Eigenschaften, die den Zustand charakterisieren. Abstrakt könnten wir sagen, die Erde besteht zu jedem Zeitpunkt aus einer Menge charakteristischer Eigenschaften Ei (ERDE_Zeit = <E1, E2, …, En>), und je nachdem, welche Veränderungen zwischen zwei Zeitpunkten stattgefunden haben, verändern sich in dieser Zeitspanne bestimmte Eigenschaften Ei.
  6. Beispiele für solche charakteristischen Eigenschaften Ei könnten sein das Klima (E_Klima), das wiederum selbst in unterscheidbare Eigenschaften zerfällt wie z.B. die durchschnittliche Sonneneinstrahlung, Beschaffenheit der Atmosphäre, Niederschlagsmenge, Wassertemperatur der Ozeane, Verdunstungsgrad des Wassers, usw. Zusammenhängend damit kann von Bedeutung sein die Bodenbeschaffenheit, verfügbare Anbauflächen, Pflanzenwachstum, mögliche Ernten, usw. Dazu wichtig die Verteilung der biologischen Populationen, deren Nahrungsbedarf, die Wechselwirkung zwischen Populationen und Pflanzenwachstum, usw. Hier fällt einem sofort auch die Frage der Lagerung von Nahrungsmitteln auf, deren Verarbeitung und Transport, deren Verteilung und deren Marktpreise.
  7. Schon diese sehr kleine Liste von Eigenschaften und angedeuteten Wechselwirkungen lassen erahnen, wie unterschiedlich mögliche Verläufe der Veränderungen in der Zukunft sein können. Von Heute aus gesehen gibt es also nie nur eine Zukunft, sondern sehr, sehr viele mögliche Zukünfte. Welche der vielen möglichen Zukünfte tatsächlich eintreten wird, hängt von vielen Faktoren ab, nicht zuletzt auch vom Verhalten der Menschen selbst, also von uns, von jedem von uns. (An diesem Punkt lügt die deutsche Sprache! Sie spricht nur von einer Zukunft im Singular (in der Einzahl), in Wahrheit sind es sehr viele und wir können mit bewirken, welche der vielen Zukünfte eintreten wird).

WARUM ÜBER ZUKUNFT SPEKULIEREN?

  1. Angesichts so vieler Unwägbarkeiten hört man oft von Menschen (speziell auch von Politikern!), dass Versuche der Hochrechnungen (= Simulation) auf mögliche Zukünfte sinnlos seien; eine unnötige Verschwendung von Zeit und damit Ressourcen.
  2. Auf den ersten Blick mag dies tatsächlich so erscheinen. Aber nur auf den ersten Blick.
  3. Der Wert von solchen Modellrechnungen über mögliche Zukünfte liegt weniger im Detail der Endergebnisse, sondern im Erkenntniswert, der dadurch entsteht, dass man überhaupt versucht, wirkende Faktoren und deren Wechselwirkungen mit Blick auf mögliche Veränderungen zu erfassen.
  4. Wie oft hört man Klagen von Menschen und Politikern über mögliche gesellschaftliche Missstände (keine Maßnahmen gegen Autoabgase, falsche Finanzsysteme, falsche Verkehrspolitik, falsche Steuerpolitik, falsche Entwicklungspolitik, fragwürdige Arzneimittelmärkte, …). Vom Klagen alleine ändert sich aber nichts. Durch bloßes Klagen entsteht nicht automatisch ein besseres Verständnis der Zusammenhänge, der Wechselwirkungen. Durch bloßes Klagen gelangt man nicht zu verbesserten Modellvorstellungen, wie es denn überhaupt anders aussehen könnte.

SIMUPEDIA FÜR ALLE

  1. Was die Not zumindest ein wenig lindern könnte, das wären systematische (wissenschaftliche) Recherchen über alle Disziplinen hinweg, die in formalen Modellen aufbereitet werden und dann mittels Algorithmen getestet werden: Was wäre, wenn wir die Eigenschaften E1, …, En einfach mal ändern und hier und dort neue Wirkmechanismen (durch Bildung, durch Gesetze, …) ermöglichen würden? Das Ganze natürlich transparent, öffentlich nachvollziehbar, interaktiv für alle. Nicht nur ein ‚Wikipedia‘ der Texte, sondern zusätzlich  eine Art ‚Simupedia‘ der Simulationen für alle.

Interessante  Ergänzung zu diesen ersten Überlegungen finden sich in den folgenden Beiträgen:  EIN HOMO SAPIENS – VIELE BILDER. Welches ist wahr? ,   WAHRHEIT ALS UNABDINGBARER ROHSTOFF EINER KULTUR DER ZUKUNFTWENN PHILOSOPHISCHE SACHVERHALTE POLITISCH RELEVANT WERDEN  sowie ‚Informelle Kosmologie‘; hier der erste Teil mit einer Fortsetzung Teil 2 .

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

DONALD A.NORMAN, THINGS THAT MAKE US SMART – Teil 6

Diesem Beitrag ging voraus Teil 5.

BISHER
(ohne kritische Anmerkungen)

In den vorausgehenden Teilen wurden bislang zwei Aspekte sichtbar: einmal die ‚Menschenvergessenheit‘ in der Entwicklung und Nutzung von Technologie sowie die Einbeziehung von ‚wissensunterstützenden Dingen‘ sowohl außerhalb des Körpers (physisch) wie auch im Denken selber (kognitiv). Ferner hatte Norman die Vielfalt des Denkens auf zwei ‚Arbeitsweisen‘ reduziert: die ‚erfahrungsorientierte‘ Vorgehensweise, ohne explizite Reflexion (die aber über ‚Training‘ implizit in die Erfahrung eingegangen sein kann), und die ‚reflektierende‘ Vorgehensweise. Er unterschied ferner grob zwischen dem Sammeln (‚accretion‘) von Fakten, einer ‚Abstimmung‘ (‚tuning‘) der verschiedenen Parameter für ein reibungsloses Laufen, Schreiben, Sprechen, usw., und einer Restrukturierung (‚restructuring‘) vorhandener begrifflicher Konzepte. Ferner sieht er in der ‚Motivation‘ einen wichtigen Faktor. Diese Faktoren können ergänzt werden um Artefakte, die Denkprozesse unterstützen. In diesem Zusammenhang führt Norman die Begriffe ‚Repräsentation‘ und ‚Abstraktion‘ ein, ergänzt um ‚Symbol‘ (nicht sauber unterschieden von ‚Zeichen‘) und ‚Interpreter‘. Mit Hilfe von Abstraktionen und Symbolen können Repräsentationen von Objekten realisiert werden, die eine deutliche Verstärkung der kognitiven Fähigkeiten darstellen. Allerdings, und dies ist ein oft übersehener Umstand, durch die Benutzung eines Artefaktes werden nicht die kognitiven Eigenschaften des Benutzers als solchen geändert, sondern – bestenfalls – sein Zugang zum Problem. Wenn in einem solchen Fall zwischen den wahrnehmbaren Eigenschaften eines Artefakts und den korrelierenden ‚Zuständen‘ des Problems ein Zusammenhang nur schwer bis gar nicht erkennbar werden kann, dann führt dies zu Unklarheiten, Belastungen und Fehlern. Norman wiederholt dann die Feststellung, dass die Art wie das menschliche Gehirn ‚denkt‘ und wie Computer oder die mathematische Logik Probleme behandeln, grundlegend verschieden ist. Im Prinzip sind es drei Bereiche, in denen sich das Besondere des Menschen zeigt: (i) der hochkomplexe Körper, (ii) das hochkomplexe Gehirn im Körper, (iii) die Interaktions- und Kooperationsmöglichkeiten, die soziale Strukturen, Kultur und Technologie ermöglichen. Die Komplexität des Gehirns ist so groß, dass im gesamten bekannten Universum nichts Vergleichbares existiert. Mit Bezugnahme auf Mervin Donald (1991) macht Norman darauf aufmerksam dass die auffälligen Eigenschaften des Menschen auch einen entsprechenden evolutionären Entwicklungsprozess voraussetzen, innerhalb dessen sich die heutigen Eigenschaften schrittweise herausgebildet haben. Nach kurzen Bemerkungen zur Leistungsfähigkeit des Menschen schon mit wenig partiellen Informationen aufgrund seines Gedächtnisses Zusammenhänge erkennen zu können, was zugleich ein großes Fehlerrisiko birgt, Norman dann den Fokus auf die erstaunliche Fähigkeit des Menschen, mit großer Leichtigkeit komplexe Geschichten (’stories‘) erzeugen, erinnern, und verstehen zu können. Er erwähnt auch typische Fehler, die Menschen aufgrund ihrer kognitiven Struktur machen: Flüchtigkeitsfehler (’slips‘) und richtige Fehler (‚mistakes‘). Fehler erhöhen sich, wenn man nicht berücksichtigt, dass Menschen sich eher keine Details merken, sondern ‚wesentliche Sachverhalte‘ (’substance and meaning‘); wir können uns in der Regel nur auf eine einzige Sache konzentrieren, und hier nicht so sehr ‚kontinuierlich‘ sondern punktuell mit Blick auf stattfindende ‚Änderungen‘. Dementsprechend merken wir uns eher ‚Neuheiten‘ und weniger Wiederholungen von Bekanntem.(vgl. S.131) Ein anderes typisches Fehlerverhalten ist die Fixierung auf eine bestimmte Hypothese.

VERTEILTES WISSEN IN GETEILTEN SITUATIONEN

1) Am Beispiel von Flugzeugcockpits (Boeing vs. Airbus) und Leitständen großer technischer Anlagen illustriert Norman, wie eine durch die gemeinsam geteilte Situation gestützte Kommunikation alle Mitglieder eines Teams auf indirekte Verweise miteinander verbindet, sie kommunizieren und verstehen lässt. Ohne dass ausdrücklich etwas erklärt werden muss erlebt jeder durch die gemeinsame Situation Vorgänge, Vorgehensweisen, Zustände, kann so indirekt lernen und man kann sich indirekt wechselseitig kontrollieren. Im Allgemeinen sind diese indirekten Formen verteilten Wissens wenig erforscht. (vgl. SS.139-146)
2) Eine solche verteilte Intelligenz in einer realen Situation unter Benutzung realer Objekte hat einen wesentlichen Vorteil gegenüber einer rein simulierten Welt: die Benutzung realer Objekte ist eindeutig, auch wenn die begleitende Kommunikation vieldeutig sein mag.(vgl. S.146 -148)
3) In einer simulierten Situation muss man die impliziten Gesetze der realen Welt explizit programmieren. Das ist nicht nur sehr aufwendig, sondern entsprechend fehleranfällig. Eine Kommunikation wird vieldeutiger und damit schwieriger. (vgl. SS.148-151)

ZU VIEL DETAILS

4) Norman greift dann nochmals das Thema des unangemessenen, falschen Wissens auf mit Blick auf die Art und Weise, wie das menschliche Gedächtnis funktioniert. Am Beispiel der mündlichen Überlieferung die strukturell, typologisch vorging verweist er auf die heutige ‚Überlieferung‘ in Form von immer detaillierteren Texten, immer mehr technisch bedingten Details, die eigentlich unserer menschlichen Art des Erinnerns widersprechen. (vgl. SS.151-153)

ORGANISATION VON WISSEN

5) Auf den SS.155-184 diskutiert Norman anhand von Beispielen das Problem, wie man Wissen so anordnen sollte, dass man dann, wenn man etwas Bestimmtes braucht, dieses auch findet. Es ist ein Wechselspiel zwischen den Anforderungen einer Aufgabe, der Struktur des menschlichen Gedächtnisses sowie der Struktur der Ablage von Wissen.

DIE ZUKUNFT VORAUSSAGEN

6) Das folgende Kapitel (SS.185-219) steht unter der Hauptüberschrift, die Zukunft voraus zu sagen; tatsächlich enthält es auch eine ganze Reihe von anderen Themen, die sich nur sehr lose dem Thema zuordnen lassen.
7) Nach Norman ist es generell schwer bis unmöglich, die Zukunft vorauszusagen; zu viele Optionen stehen zur Verfügung. Andererseits brauchen wir Abschätzungen wahrscheinlicher Szenarien. (vgl. S.185f)
8) Als Begründung für seine skeptische These wählt er vier Beispiele aus der Vergangenheit (Privater Hubschrauber, Atomenergie, Computer, Telephon), anhand deren er das Versagen einer treffenden Prognose illustriert.(vgl.186-192) Der größte Schwachpunkt in allen Voraussagen betrifft den Bereich der sozialen Konsequenzen. Hier liegt überwiegend ein Totalversagen vor. Und er bemerkt, dass man den Ingenieuren zwar nicht vorwerfen kann, dass sie sich mit sozialen Folgen nicht auskennen, aber dass sie ihr Nichtwissen in diesem Bereich nicht ernst nehmen.(vgl. S.186).
9) Der andere Aspekt ist die Umsetzungsdauer von einer Idee bis zu einer verbreiteten alltäglichen Nutzung. Anhand von Beispielen (Fernsehen, Flugzeug, Fax) zeigt er auf, dass es zwischen 40 – 140 Jahren dauern konnte. denn neben der Idee selbst und einem arbeitsfähigen Prototypen muss ja der bestehende Alltag unterschiedlich weit ‚umgebaut‘ werden, evtl. müssen alte bestehende Strukturen (verbunden mit starken Interessen) durch neue ersetzt werden.(vgl. S.192-195)
10) [Anmerkung: Wir erleben z.B. seit den 60iger Jahren des 20.Jahrhunderts die Diskussion zur Frage erneuerbarer Energien, der eine bestehende Struktur von ölbasierten Technologien, Atomkraft, Kohle und Gas entgegen stehen, jeweils verbunden mit sehr starken ökonomischen und politischen Interessen.]
11) Er macht dann selber einige Voraussagen (Verfügbarkeit von digitaler Information, von hohen Bandbreiten, von noch mächtigeren immer kleineren Computern, von 3D-Ansichten unter Einbeziehung der eigenen Position, von elektronischen Publikationen, von mehr computergestütztem Lernen, noch raffiniertere Unterhaltung, von Videogesprächen im privaten Bereich, von mehr kollaborativen Arbeitsplätzen).(vgl. SS.195-201)
12) [Anmerkung: 20 Jahre später kann man sagen, dass alle diese Voraussagen entweder voll umgesetzt wurden oder wir dabei sind, sie umzusetzen.]
13) Norman spielt dann die möglichen sozialen Folgen von diesen neuen Technologien anhand von sehr vielen konkreten Beispielen durch. Ein Trend ist der zunehmende Ersatz des Menschen im Handeln durch künstliche Charaktere, was schließlich dazu führen kann, dass in der Öffentlichkeit dann nur noch die Software handelt, während die ‚realen‘ Menschen mehr und mehr aus der Öffentlichkeit verschwinden. (vgl. SS. 201-210)
14) [Anmerkung: Diese Art von Auswüchsen, wie sie Norman plastisch schildert, werden in immer mehr Science-Fiction Filmen thematisiert. Ein Beispiel war die 10-teilige Folge ‚Real Humans – Echte Menschen‘, eine schwedische Produktion, die von arte im Frühjahr 2013 gezeigt wurde. Darin wurde die Existenz von menschenähnlichen Robotern im alltäglichen Leben sehr konkret durchgespielt. Ein sehr ähnliches Thema hatte auch der Film Surrogates (2009), wenn auch mit einer anderen Rahmengeschichte. Es gibt hierzu zahllose weitere Beispiele.]

NEUROINTERFACE

15) Norman greift auch das Thema ‚Neurointerface‘ auf, eine direkte Verbindung des menschlichen Nervensystems mit einem Computer. (vgl. SS.210-214)

KOLLABORATIVE SOFTWARE

16) Natürlich wird die neue Technologie auch Auswirkungen für die Arbeit von sozialen Gruppen haben. Hier sieht er aber besonders viele Schwierigkeiten, da das Arbeiten in einer Gruppe besonders komplex ist und sensitiv für viele Faktoren. (vgl. SS. 214-217)

TRÄUMEN MACHT MEHR SPASS ALS REALE NUTZUNG

17) Abschließend bemerkt Norman noch, das der Hype um neue Technologien sich häufig an den visionären Szenarien entzündet; wenn es zur tatsächlichen Nutzung kommt, flaut dieser Hype sehr schnell wieder ab. (vgl. SS.217-219)
18) [Anmerkung: Die Themen zersplittern zunehmend. Dennoch stellen Sie allesamt wertvolle Erfahrungen und Einsichten dar. s wird Aufgabe der Schlussreflexion sein, die Vielfalt dieser Aspekte auszuwerten und für eine Gesamttheorie nutzbar zu machen.]

Fortsetzung folgt im Teil Teil 7

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

REDUKTIONISMUS, EMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 4

Vorausgehender Teil 3

NICHTVORAUSSAGBARKEIT DER WIRTSCHAFT

1. Im Kapitel ‚The Evolution of the Economy‘ (‚Die Evolution der Wirtschaft‘) (SS.150-176) beschreibt Kauffman, wie sich die bislang aufgefundenen Eigenschaften der Nichtergodizität und der Präadaptation auch im Bereich der Wirtschaft – bei ihm in Anlehnung an die ‚biosphere‘ ‚ecosphere‘ genannt – wiederfinden, mit allerlei Konsequenzen. Z.B. folgt aus der Annahme der Gültigkeit seiner Modellvorstellungen, dass eine Wirtschaft – in der Theorie – am besten gedeihen kann, wenn es eine möglichst große Vielfalt gibt. Denn dann ist die Chance zur Bildung neuer, innovativer – koevolutionärer – Lösungen am höchsten. Das System stimuliert sich dann quasi ’selbst‘, immer mehr. Zugleich folgt aus seinem Modell die prinzipielle Nichtvoraussagbarkeit der diversen Entwicklungen. (vgl.S.150f)
2. Als ein Beispiel für die Schwierigkeit der Voraussagbarkeit des wirtschaftlichen Geschehens und der Nichtreduzierbarkeit dieser Vorgänge auf die Physik führt Kauffman das berühmte Arrow-Debreu Modell des kompetitiven Gleichgewichts an (heute ein Kern der General equilibrium theory). Das Arrow-Debreu Modell wird bisweilen auch Arrow-Debreu-McKenzie Modell genannt, da neben Kenneth Arrow und Gérard Debreu später Lionel W.McKenzie einige Verbesserungen in das Modell eingebracht hatte.
3. Die Nichtreduzierbarkeit auf die Physik sieht Kauffman dadurch gegeben, dass die teilnehmenden Markt-Akteure u.a. auch mit ‚Werten‘ operieren, die sie den verschiedenen handelbaren Gütern zuordnen. Da nach Kauffman physikalische Modelle nur über reale Ereignisse in der realen Welt operieren können, folgt für ihn aus dieser Annahme die Nichtanwendbarkeit der Physik. (vgl. S.155) [Anmerkung: Wie schon früher angemerkt, hängt diese Schlussfolgerung an einer bestimmten Definition von Physik. Wenn man davon ausgeht, dass die Physik sich prinzipiell mit der ‚ganzen‘ Natur beschäftigt, dann würde sich die Physik – mit wachsenden Einsichten in die Besonderheiten der Welt – konzeptuell beständig weiter ausdehnen! Vom Selbstverständnis einer Physik her wären dann auch Akteure mit Werturteilen nicht notwendigerweise aus einer physikalischen Theoriebildung ausgeschlossen. Dann aber wären alle heute bekannten wissenschaftlichen Disziplinen nur ‚Spielarten‘ der einen Disziplin Physik. Das wirkt auch nicht sehr überzeugend. Hier stellt sich die wissenschaftstheoretische Frage nach der Abgrenzbarkeit der verschiedenen Disziplinen voneinander bzw. nach ihrer möglichen inhaltlichen Beziehung. Ich habe nicht den Eindruck, dass diese Frage bislang irgendwo nennenswert diskutiert wird. Aus ökonomischen und politischen Überlebensinteressen heraus erscheint eine erfolgreiche Abgrenzung meist erfolgversprechender als eine diffuse Vereinigung.]
4. Die Nichtanwendbarkeit der ökonomischen Modelle – und damit die Unmöglichkeit einer seriösen Voraussagbarkeit – sieht Kauffman sowohl in der Nichtvoraussagbarkeit der zu einem bestimmten Zeitpunkt tatsächlich vorhandenen Güter gegeben wie auch in der Nichtvoraussagbarkeit der zu einem bestimmten Zeitpunkt neu erfundenen Güter.(vgl. S.155) Der tiefere Grund scheint in der Unmöglichkeit zu liegen, den ökonomischen Entwicklungsprozess selbst zu modellieren.(vgl. S.156).
5. Kauffman erwähnt auch die Theorien game theory (‚Spieltheorie‘) und rational expectations (‚Rationale Erwartungen‘). In beiden Fällen sieht er eine Nichtanwendbarkeit in der Realität, da diese Theorien – wie schon im Falle der zuvor erwähnten Gleichgewichtstheorie – die zugrunde liegenden nicht voraussagbaren Entwicklungsprozesse weder beschreiben noch in Rechnung stellen können. (vgl. SS.156-158)
6. [Anmk: In der grundsätzlichen Kritik würde ich Kauffman zwar folgen, aber die Frage ist, ob man damit diesen verschiedenen Theoriebildungen gerecht wird. Insofern die genannten Theorien einen ‚totalen‘ Erklärungsanspruch erheben, muss man sie sicher kritisieren, da sonst falsche Erwartungen geweckt werden. Aber der Wert dieser Theorien liegt in der Praxis meist darin, dass die beteiligten Wissenschaftler mit Hilfe solcher Theorien (= Modellen) versuchen, ihr Verständnis der wirtschaftlichen Vorgänge zu klären und zu schärfen. Ohne solche Modelle gäbe es nur ein Grau-in-Grau von Datenfluten ohne erkennbare Strukturen. Mit solchen Modellen zeigen sich mögliche interessante Strukturen, die Anlass geben können, weiter zu denken. Und in allen drei Fällen kann man beobachten, wie diese Modellbildungen eine anhaltende Diskussion erzeugt haben und erzeugen, die zu immer weiteren Klärungen voranschreitet, einschließlich massiver Kritik, warum das Modell als Ganzes oder Teile davon nicht anwendbar sind. ]

WIRTSCHAFT UND AUTOKATALYSE

7. Nachdem Kauffman drei sehr prominente Modelle ökonomischen Geschehens in dem Punkt kritisiert hat, dass sie den allem Geschehen zugrunde liegende Prozess der Entwicklung nicht beschreiben, stellt er selbst ein Modell für solch einen Entwicklungsprozess vor. Dazu benutzt er wieder sein schon mehrfach zitiertes ‚autokatalytisches Modell‘. Die Kernidee ist ja, dass es zu einem bestimmten Zeitpunkt eine bestimmte Menge von Gütern und Akteuren gibt. Zu einem Gut gibt es entweder ein ‚komplimentäres‘ Gut (ein Auto benötigt Reifen, eine Innenausstattung, usw.) oder ein ’substituierendes‘ Gut (z.B. statt Dampfantrieb ein Elektroantrieb). Diese komplimentären und ersetzenden Möglichkeiten stehen ferner in Wechselwirkungen mit einem an Akteure gebundenen Bedarf, der seiner Natur nach in keiner Weise umfassend und erschöpfend beschrieben noch vorweg genommen werden. Man kann leicht sehen, wie diese wechselseitigen ‚Stimulationen‘ umso vielfältiger und intensiver sein können, als die aktuelle Menge an verfügbaren Gütern und erwartenden Akteuren größer und vielfältiger ist. Kauffman spricht hier von Ko-Konstruktionen bzw. Ko-Evolution. Und, so wenig dieser gesamte Prozess des sich wechselseitigen Stimulierens und Hervorbringens in irgend einer Weise voraussagbar ist, so wenig ist auch das erfinderische Verhalten der beteiligten Akteure, der Menschen, als solches voraussagbar. (SS.158-163)
8. Auf den Seiten 163-172 stellt Kauffman dann konkrete Simulationen vor, die mit Computerversionen des Modells gerechnet worden sind. Die Details spielen hier keine Rolle. Allerdings zeigt sich in diesen Simulationen, dass verschiedene Phänomene in diesem Modell einem ‚Potenzgesetz‘ (‚power law‘) folgen. Damit stellt er eine Verbindung her zum Modell der ’selbstorganisierenden Kritikalität‘ Self-organized criticality (SOC), das in der Physik entdeckt worden war zur Beschreibung komplexer Phänomene in der Natur. Er selbst konnte in Experimenten nachweisen, wie sich die Verteilung der Lebenszeit von Individuen oder die Verteilung von Aussterbensereignisse mit solch einem Modell beschreiben lassen.(vgl. S.172f) Das Modell der selbsorganisierenden Kritikalität lies sich auch anhand der Daten der Lebenszeit von Firmen nachweisen. (vgl.S.174)

GRENZEN VON COMPUTERMODELLEN ZUR VORAUSSAGE WIRTSCHAFTLICHER PROZESSE

9. Abschliessend zweifelt er daran, dass man mittels Computersimulationen wirtschaftliche Prozesse so simulieren könne, dass man daraus belastbare Vorhersagen für die Zukunft gewinnen könnte.(vgl.S.174) Nochmals zitiert er Gödel mit seinem Unvollständigkeitsbeweis und stellt mit Blick auf die ökonomischen Modelle fest, dass die Ergebnisse von Gödel im Falle der Ökonomie auf jeden Fall auch zutreffen.
10. [Anmk: Eine detaillierte Diskussion der verschiedenen von Kauffman zitierten Modelle und Theorien ist in dem hier gesetzten Rahmen einer ersten Besprechung nicht geeignet. In anderen Kontexten werde ich verschiedene dieser Modelle noch genauer untersuchen und dann bei Gelegenheit im Blog darüber berichten. Die grundsätzliche Stossrichtung der Argumentation erscheint mir aber plausibel und wichtig. In der Tat ist es die innere Logik des Prozesses selbst, die interessant ist und die daraus sich ergebende Nichtvoraussagbarkeit der nächsten Prozesschritte. Dennoch geschieht das Ganze nicht vollständig ‚planlos‘, was sich aus verschiedenen Voraussetzungen ergibt. Hier zeigt sich eine interessante Paradoxie, die weiter zu ergründen ist.]

Zur Fortsetzung siehe Teil 5

Eine Übersicht über alle bisherigen Einträge in den Blog nach Titeln findet sich HIER.