Ballungsraum 2117 und technische Superintelligenz. Welche Rolle verbleibt uns Menschen?

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
14.April 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch, Frankfurt University of Applied Sciences
Email: doeben@fb2.fra-uas.de
Email: gerd@doeben-henisch.de

PDF

INHALT

I VISION RESILIENZ
II VIELE AKTEURE
III PROBLEMLÖSUNGSSTRATEGIEN
IV MENSCH UND KOMPLEXITÄT
V INGENIEURE ALS VORBILD
VI CLUB OF ROME – NUR GESTERN?
VII DER UMFASSEND DIGITALISIERTE MENSCH ENTSTEHT HEUTE
VIII SIMULATIONEN BEHERZTER NUTZEN?
IX TECHNISCHE SUPERINTELLIGENZ
X WAS KANN EIN COMPUTER?
XI DAS EI DES COLUMBUS
XII EINE NEUE MENSCH-MASCHINE SUPER-INTELLIGENZ FÜR DEN BALLUNGSRAUM?
IX QUELLEN

ÜBERBLICK

Dieser Text wurde ursprünglich als Vorbereitung für das Programmheft der Konferenz ’Der Resiliente Ballungsraum’ des Frankfurter Forschungsinstituts FFin am 13.April 2018 geschrieben. Die aktuelle Version stellt eine leicht überarbeitete Version im Anschluss an die Konferenz dar, ergänzt um Literaturangaben. Ausgehend von der Komplexität heutiger Ballungsräume wird die Frage gestellt, ob und wie wir Menschen die neuen digitalen Technologien, insbesondere auch künstliche Intelligenz, nutzen könnten, um mit dieser Komplexität besser umzugehen. Durch die langsam wachsende Erkenntnis, dass der resiliente Charakter vieler komplexer Systeme zudem ein Denken verlangt, das weit hinter die Oberfläche der Phänomene schaut, wird die Frage nach einer möglichen Unterstützung durch die neuen digitalen Technologien umso dringlicher. Im Text schält sich eine ungewöhnliche mögliche Antwort heraus, die auf eine ganz neue Perspektive in der Planungsdiskussion hinauslaufen könnte.

I. VISION RESILIENZ

Mit der Leitidee der ’Resilienz’ (1) zielt das Denken im Kern ab auf die Dimension der Überlebensfähigkeit von Ballungsräumen, die sich als dynamische Gebilde zeigen, ständigen Veränderungen unterworfen sind, ein dicht  verwobenes Knäuel von Faktoren, die alle gleichzeitig miteinander in Wechselwirkung stehen. Und, ja, natürlich, wer ist nicht daran interessiert, dass diese Gebilde als konkrete Lebensräume für konkrete Menschen möglichst lange funktionsfähig bleiben. Doch, was als sinnvoller Wunsch einer breiten Zustimmung sicher sein kann, kann sehr schnell zur Last, oder gar zum Alptraum werden, wenn man auf die eine oder andere Weise zum ’realen Akteur’ werden muss.(2)

(Anmk: 1: Dieser Artikel benutzt den Resilienzbegriff, wie er in dem grundlegenden Artikel von Holling 1973 [Hol73] vorgestellt worden ist)

(Anmk: 2: Eine Auseinandersetzung mit dem neuen Lieblingswort der ’Resilienz’ im Kontext der Städteplanung findet in einem Folgeartikel in diesem Blog statt. Mit Blick auf den Städtebau siehe auch Jakubowski (2013) [Jak13] )

II. VIELE AKTEURE

Ein polyzentrischer Ballungsraum wie das Rhein-Main Gebiet zählt schon heute an die 5 Mio. Bürger, die in tausenden von unterschiedlichen Rollen Akteure sind, die den Ballungsraum nutzen, ihn auf unterschiedliche Weise gestalten, und die alle ihre Ansprüche haben, die sie befriedigt sehen wollen. (3) Jeder dieser Akteure hat ’sein Bild’ von diesem Ballungsraum. Der eigene Wohnbereich, die täglichen Wege zur und von der Arbeit, Einkäufe, Kinder zum Kindergarten oder zur Schule, vielfältige Freizeit, Großereignisse, Unwetter, Krankheiten . . . irgendwie muss alles irgendwie stimmen, muss es lebbar sein, bezahlbar…. Leiter von Firmen haben weitere spezielle Anforderungen, nicht zuletzt die Verfügbarkeit geeigneter Mitarbeiter, Planungssicherheit, möglichst geringe Kosten, Verkehrs- und Telekommunikationsanbindungen, und vieles mehr . . . Die Ämter und Fachreferate in den Kommunen stehen im Kreuzfeuer vielfältigster politischer Interessen, von Alltagsanforderungen, mangelnder Kommunikation zwischen allen Abteilungen, Bergen von Vorschriften, Mangel an Geld, Personalproblemen, einer Vielzahl von komplexen und disparaten Plänen, ungelösten Altlasten aus der Vergangenheit… Polyzentrisch heißt auch, es gibt nicht nur viele Zentren, sondern auch entsprechend viele Kapitäne, die ihre eigenen Routen haben. Wie soll dies alles koordiniert werden?

(Anmk: 3:   Siehe dazu Peterek/ Bürklin (2014) [PB13], Buerklin/ Peterek (2016) [BP16] )

III. PROBLEMLÖSUNGSSTRATEGIEN

Aus der Nähe betrachtet mutiert die Vision eines resilienten Planungsraumes schnell zum bekannten Muster des ’Lösens eines Problems’: es gibt einen Ausgangspunkt, die jeweilige Gegenwart, es gibt eine Gruppe von Akteuren, die selbst ernannten Problemlöser, und es gibt verschiedene Strategien, wie man versucht, ausgehend von einer – meist nur partiell bekannten – Gegenwart brauchbare Erkenntnisse für eine unbekannte Zukunft zu gewinnen; dazu soll die Lösung – entsprechend der Vision – ’resilient’ sein.

Schaut man sich konkrete Beispiele von Planungstätigkeiten aus den letzten Monaten im Rhein-Main Gebiet an, dann findet man sehr viele unterschiedliche Formen von Problemlösungsverhalten. Zwischen einer rein ’inner-behördlichen’ Vorgehensweisen mit sehr eingeschränkten Ist-Erfassungen und Lösungsfindungen bis hin zu einer sehr umfassenden Einbeziehungen von vielen Bevölkerungsgruppen über viele Kommunikationsstufen hinweg mit unterschiedlichen kreativen Ideen-Findungen. (4)

Diese letzteren, möglichst viele unterschiedliche Akteure einbeziehenden Vorgehensweisen, wirken auf den ersten Blick vertrauenerweckender, da grundsätzlich mehr Perspektiven zu Wort kommen und damit sowohl ein größerer Erfahrungsraum aus der Gegenwart wie auch eine größere Farbigkeit für eine mögliche Zukunft. Wäre solch eine Strategie die Strategie der Stunde?

(Anmk: 4: Dazu war das Referat von Dr.Gwechenberger vom Dezernat Planen und Wohnen der Stadt Frankfurt, sehr aufschlussreich. Neben der in der Sache gründenden Komplexität spielen die vielfältigen rechtlichen Vorgaben eine große Rolle, dazu die unterschiedlichen Mentalitäten aller Beteiligten, insbesondere die vielfältigen individuellen Interessen und Motivlagen. Das ganze eingebettet in unterschiedliche Zeitfenster, wann welche Aktion möglich, sinnvoll oder notwendig ist. Demokratie ist so gesehen auf jeden Fall zeitaufwendig, dann aber– hoffentlich – resilienter und nachhaltiger)

IV. MENSCH UND KOMPLEXITÄT

Schaut man sich an, was der Mensch als Lebensform des Homo sapiens in den vielen tausend Jahren seit seiner Besiedlung aller Erdteile geleistet hat, dann kann man sich eigentlich nur vor Ehrfurcht verneigen. Quasi aus dem Nichts kommend hat er es im Laufe von ca. 70.000 Jahren geschafft, aufgrund seiner Intelligenz und Sprachfähigkeit immer komplexere Tätigkeiten auszubilden, Handwerkszeug, Technologien, Regeln des Zusammenlebens, Großansiedlungen, komplexe Handelsbeziehungen. Er zeigte sich fähig, komplexe Staaten zu bilden, Großreiche, fantastische Architektur, immer komplexere Maschinen, empirische Forschungen bis in die Tiefen des Universums, in die Tiefen der Materie, in die verschlungenen Wege der Mikrobiologie von den Molekülen zu einfachen, dann komplexen Zellen bis hin zu komplexen Lebewesen, vielfältigste Formen von Klängen, Musik, Sounds, Bildwelten.

Schließlich erfand er auch die Computertechnologie, mit der man unvorstellbar viele Daten in unvorstellbar schneller Zeit verarbeiten kann. Würden heute auf einen Schlag alle Computer und Netzwerke weltweit still stehen, die Welt bräche völlig in sich zusammen. Ein beispielloses Chaos und Elend wäre die Folge.

Dies deutet indirekt auf einen Sachverhalt, den wir als Menschen im Alltag gerne übersehen, um nicht zu sagen, den wir geradezu verdrängen. Dies hat zu tun mit den realen Grenzen unserer kognitiven Fähigkeiten.

Trotz eines fantastischen Körpers mit einem fantastischen Gehirn hat jeder Mensch nur eine sehr begrenzte kognitive Aufnahmefähigkeit von ca. 5-9 Informationseinheiten pro Sekunde, was jeder Mensch in einfachen Selbstversuchen an sich überprüfen kann. (5) Und die Verarbeitung dieser Informationseinheiten mit Hilfe des vorher erworbenen Wissens verläuft unbewusst nach weitgehend relativ festen Schemata, die es einem Menschen schwer machen, Neues zu erfassen bzw. in sein bisheriges Bild von der Welt einzubauen. (6) Noch schwerer tut sich jeder Mensch, wenn es darum geht, Zusammenhänge zu erfassen, die vielerlei Faktoren umfassen, Faktoren, die oft zudem ’verdeckt’, auf den ersten Blick ’unsichtbar’ sind. Ganz schwer wird es, wenn sich komplexe Faktorenbündel zusätzlich in der Zeit ändern können, womöglich noch mit Rückkopplungen.

Gilt schon die Voraussage des Verhaltens eines einzelnen Menschen für nur ein Jahr mathematisch als unmöglich, so erscheint die Voraussage des Verhaltens von 5 Mio. Bewohner des Rhein-Main Gebietes entsprechend undurchführbar, zumal die Ab- und Zuwanderung hier sehr hoch ist. (7) Dazu kommen Veränderungen von Bedürfnislagen, Veränderungen von Technologien, Veränderungen von konkurrierenden Wirtschaftsregionen, und vieles mehr. Die bislang bekannten und praktizierten Planungsverfahren wirken angesichts dieser zu bewältigenden Komplexität nicht sehr überzeugend. Sie wirken eher hilflos, uninformiert. Scheitern wir mit unseren begrenzten individuellen kognitiven Fähigkeiten an der heutigen Komplexität?

(Anmk: 5: Die erste bahnbrechende Untersuchung zu der ’magischen Zahl 7+/-2’ stammt von George A.Miller (1956) [Mil56]. Dazu gibt es zahllose weitere Studien, die das Thema weiter auffächern, aber nicht diese grundsätzliche Kapazitätsbegrenzung.)

(Anmk: 6: Bekannte Texte zum Zusammenspiel zwischen Kurz- und Langzeitgedächtnis sind Baddeley/Logie (1999) [BL99], Baddeley (2003) [Bad03], und Repovs/Baddeley (2006) [RB06]. Allerdings ist das Thema Gedächtnis mit diesen Artikeln nicht abgeschlossen sondern wird in vielen hundert weiteren Artikeln weiter untersucht.)

(Anmk: 7: Hinweis von Dr. Gwechenberger zur Migration der Stadt Frankfurt: rein statistisch wird innerhalb von 12 Jahren die gesamte Bevölkerung von Frankfurt einmal komplett ausgetauscht.)

V. INGENIEURE ALS VORBILD

Vergessen wir für einen Moment das Problem des komplexen Ballungsraumes und schauen, was denn die Ingenieure dieser Welt machen, wenn sie seit Jahrzehnten komplexe Systeme entwickeln, bauen und in Betrieb halten, die die kognitiven Fähigkeiten eines einzelnen Ingenieurs um viele Dimensionen übersteigen.

Moderne Ingenieurleistungen verlangen das Zusammenspiel von oft mehr als 10.000 einzelnen Experten aus sehr vielen unterschiedlichen Gebieten, nicht nur über Monate, sondern oft über Jahre hin. Wie kann dies funktionieren?

Ingenieure haben sehr früh gelernt, ihr Vorgehen zu systematisieren. Sie haben komplexe Regelwerke entwickelt, die unter dem Stichwort ’Systems Engineering’ beschreiben, wie man beliebige Probleme von der Aufgabenstellung in eine funktionierende Lösung überführt, einschließlich umfassender Tests in allen Phasen. Und selbst der spätere Einsatz des entwickelten Produktes oder der entwickelten Dienstleistung ist nochmals spezifiziert. Dies führt dazu, dass z.B. Flugzeuge, Atomkraftwerke, landesweite Energienetzwerke, Raumfahrtprojekte, im Vergleich die sichersten Systeme sind, die wir kennen.

Neben ausgeklügelten Dokumentationstechniken spielen im Engineeringprozess mathematische Modelle eine zentrale Rolle und, seit vielen Jahren unverzichtbar, computergestützte Simulationen. Schon seit vielen Jahren gibt es kein einziges anspruchsvolles Produkt mehr, das zuvor nicht vollständig als Computersimulation ausprobiert und getestet wurde. Dazu gehören z.B. auch Computerchips, speziell jene Prozessoren, die das Herz eines Computers bilden. Schon vor 30 Jahren waren diese so komplex, dass deren Entwicklung und die Tests auf ihre Funktionstüchtigkeit ohne Computer nicht möglich war. Anders gesagt, wir können Computer und all die anderen komplexen Produkte schon seit Jahren nur entwickeln, weil wir dazu Computer einsetzen. Kein menschliches Gehirn ist in der Lage, die schon heute benötigten Komplexitäten noch irgendwie praktisch zu meistern, auch viele tausende Gehirne zusammen nicht.

Angesichts dieser Erfolgsgeschichten im Bereich des Engineerings kann man sich fragen, ob man von diesen Erfahrungen für den Bereich der Planung von Ballungsräumen nicht irgend etwas lernen könnte?

VI. CLUB OF ROME – NUR GESTERN?

Manche von Ihnen erinnern sich vielleicht noch an die zu ihrer Zeit provozierende erste Studie ”The Limits to Growth” des Club of Rome von 1972. (8) Dies war der erste Versuch, die Dynamik der Erde unter der Herrschaft der Menschen mit einem umfassenden Computermodell abzubilden und mit Hilfe des Modells mögliche Hinweise zu bekommen, wie sich die Dinge bei Veränderung der bekannten Faktoren in der Zukunft auswirken.

Seit dieser Veröffentlichung sind mehr als 40 Jahre vergangen. (9) Es gab auf der einen Seite heftigste Kritik, aber zugleich auch viele evaluierende Studien, die immer wieder bekräftigten, dass die Kernaussagen dieses Modells – das vergleichsweise einfach war und ist – sich im Laufe der Jahrzehnte für die Variante ’normaler Verlauf’ weitgehend bestätigt hat. (10)

Es ist hier nicht die Stelle, ein abschließendes Urteil über dieses Computermodell zu fällen (ein Student von mir hatte es mal vollständig nach-programmiert). Man kann aber sagen, dass solche Modelle den bislang einzig bekannte Weg markieren, wie wir Menschen mit unserer sehr begrenzten Fähigkeit zum Denken von Komplexität uns behelfen können, diese Grenzen ansatzweise zu überwinden. Man muss sich die Frage stellen, warum wir diese Anstöße nicht in der Gegenwart systematisch aufgreifen und für unsere Zukunft nutzen?

(Anmk: 8: Meadows et.al (1972) [MLRBI72]. Die Studie des Club of Rome war die Weiterentwicklung eines Computermodells, das zurück geht auf ein Systemmodell (und Programm), das Jay W. Forrester im Laufe von 15 Jahren entwickelt hatte. Thema von Forrester war die Erforschung der Dynamik von sozialen Systemen, speziell auch von Ballungsräumen (’urban areas’). Bemerkenswert ist bei Forresters Modellbildung, dass er auch den individuellen Menschen sieht, der mit seinem jeweiligen Weltbild (er nennt es ’mentales Modell’ bzw. dann einfach ’Modell’) die Welt wahrnimmt, interpretiert und danach handelt. Will man das Verhalten ändern, dann muss man das individuelle Weltbild ändern, das in enger Wechselbeziehung zur aktuellen Gesellschaft steht.(siehe Foorester (1971) [For71]))

(Anmk:9: Da der Club of Rome 1968 gegründet wurde, feiert er 2018 sein 50-jähriges Jubiläum … und er ist immer noch aktiv.)

(Anmk: 10: Ein erster Überblick über die verschiedenen Argumente für und gegen die Analysen des Club of Rome finden sich in dem einschlägigen Wikipedia-Artikel https://en.wikipedia.org/wiki/Club of Rome. Im deutschen Wikipedia-Eintrag finden sich keine Hinweise auf kritische Einwände!)

VII. DER UMFASSEND DIGITALISIERTE MENSCH ENTSTEHT HEUTE

Im Jahre 1972 war der Computer noch keine Maschine des Alltags. Dies begann erst ab dem Jahr 1977 mit dem Auftreten von Kleincomputern für den privaten Gebrauch. Die Entwicklung seitdem war und ist explosiv.

Die Situation heute ist so, dass der Mensch mit seinem realen Körper zwar noch weiterhin in einer realen Körperwelt verankert ist, dass er aber über die vielen elektronischen Geräte, speziell durch Smartphones, Wearables, Tabletts, Notebooks, Laptops und PCs mit immer größeren Zeitanteilen seine Tages über Datennetze mit einer globalen Datenwelt verbunden ist, die rund um die Uhr Raum und Zeit vergessen lässt. Definierte sich ein Mensch früher über seine realen Aktivitäten, wird dies zunehmend ergänzt durch digitale Aktivitäten und Ereignisse. Das Selbstbild, der ganze persönliche Erlebnisraum wird zunehmend durch solche nicht-realweltlichen Strukturen ersetzt. Empirische Realität und digitale Realität beginnen im virtuellen Raum des individuellen Bewusstseins zu verschwimmen. Müsste der Mensch nicht noch seine elementaren körperlichen Bedürfnisse befriedigen, er könnte subjektiv ausschließlich im digitalen Raum arbeiten, kommunizieren, soziale Erfüllung finden, Spielen und . . . . die Grenzen dieser neuen digital erweiterten Lebensform sind bislang noch schwer zu fassen.

Während der professionelle Planungsalltag der Kommunen und Regionen Computer noch sehr verhalten einsetzt, zeigen uns die vielen Mio. Computerspieler weltweit, dass die Menschen sehr wohl Gefallen daran finden können, mit den Mitteln der Computersimulation die Gegenwart hinter sich zu lassen. Allein für Online-Computerspiele hat sich der Markt von 2011 bis 2016 von 21 Mrd. auf 31 Mrd. US-Dollar vergrößert. (11) Für das Jahr 2017 notieren die sechs Länder mit dem höchsten Umsatz bei Onlinespielen (China, USA, Japan, Deutschland, England, Südkorea) zusammen 84.7 Mrd.US-Dollar. (12) Dazu kommen nochmals 8 Mrd. US-Dollar für PC- und Spielkonsolenspiele. (13)

Computerspiele sind komplexe Simulationen in denen eine Ausgangslage mit Hilfe von Regeln in beliebig viele Nachfolgesituationen transformiert werden können. Dies geschieht mittlerweile in 3D, berücksichtigt realistische Geländeformationen mit Vegetation, komplexe Gebäude, viele Tausend Mitspieler, erlaubt gemeinsame Aktionen und macht so eine dynamische digitale Welt virtuell erlebbar.

Diese theoretische Beschreibung lässt das gewaltige Potential erahnen, das Computerspiele prinzipiell für Lernprozesse und für gemeinsame Zukunftsforschung haben könnten. In der Realität bleiben diese aber weit hinter ihren Möglichkeiten zurück, da die Betreiber bislang wenig Interesse zeigen, das Lern- und Forschungspotential dieser neuen ’Technologie ernsthaft zu nutzen. Die Computerspiele sind bislang eher Erlebnis-, nicht Wissens- getrieben.

(Anmk: 11: Quelle: https://www.statista.com/statistics/292516/pc-online-game-market-value-worldwide/.)

(Anmk: 12: Quelle: https://www.statista.com/statistics/308454/gaming-revenue-countries/.)

(Anmk: 13: Quelle: https://www.statista.com/statistics/237187/global-pc-console-games-revenue-by-type/. )

VIII. SIMULATIONEN BEHERZTER NUTZEN?

An dieser Stelle kann man sich die Frage stellen, warum man das Komplexitätsproblem am Beispiel von Ballungsräumen nicht mit diesen neuen Simulationstechniken angehen sollte?

Verteilte Simulationen würden beliebigen Bürgern die reale Möglichkeit bieten, sich zu beteiligen. Das unterschiedliche Wissen in den unterschiedlichen Köpfen könnte man schrittweise aufsammeln und als Regelwissen in den Simulationen zur Verfügung stellen. Im Unterschied zu kommerziellen Spielen könnte man diese Regeln offenlegen für alle und sie zum Gegenstand von Fachgesprächen machen. In realen Simulationsabläufen könnte man jeweils austesten, wie sich bestimmte Regeln auswirken: sind sie realistisch? Wo führen sie uns hin? Welche Wechselwirkungen mit anderen Regeln tun sich auf? Dieses Werkzeug könnten den Fachabteilungen in den Behörden genauso offen stehen wie den Schulen und Universitäten; Firmen könnten ihre eigenen Szenarien ausprobieren. Alle könnten sich immer wieder auch zu gemeinsamen Experimenten verabreden; man könnte gar Wettbewerbe starten, eine Art kommunales eGaming. In diesem Fall würde es dann wirklich um etwas gehen, nämlich um die eigene Welt und ihre mögliche Zukunft. Mit einem solchen verteilten dynamischen Planungswerkzeug könnte man den Ballungsraum 2117 schon ziemlich gut erforschen, zumindest soweit es uns heute, im Jahr 2018 überhaupt möglich ist. (14)

(Anmk: 14: Im Rahmen der abschließenden Podiumsdiskussion zur Tagung stieß die Idee des Einsatzes von mehr Computersimulationen im Gewand von Computerspielen für die Stadtplanung auf unterschiedliche Reaktionen. Der meiste Widerstand ging aus von der Vorstellung, dass Computerprogramme abgeschlossene Einheiten sind, die aus sich heraus niemals die Vielfalt und Dynamik der Wirklichkeit abbilden könnten. Dem hielt der Autor entgegen, dass man primär vom Kommunikationsprozess zwischen Menschen her denken müsse, dem Austausch von Weltbildern, verbunden mit einem möglichen ’Um-Lernen’ dieser Weltbilder. Innerhalb dieser Kommunikationsprozesse kann eine Computerspielumgebung sehr wohl helfen, komplexe Sachverhalte besser zu nutzen. Außerdem können die Regeln, nach denen hier die Welt gesteuert wird, von allen Teilnehmern eingesehen und auf Wunsch geändert werden.)

IX. TECHNISCHE SUPERINTELLIGENZ

An dieser Stelle könnte dieser Vortrag unter normalen Umständen enden. Schon jetzt enthält er eine Reihe von Anregungen, die über den aktuellen Status Quo weit hinausgehen. Aber wir leben in einer Zeit, in der die Welt – spätestens seit der Cebit 2016 – zu fast allen passenden und auch unpassenden Gelegenheiten mit dem Begriff ’Künstliche Intelligenz’ beschallt wird. Kaum noch ein Produkt oder eine Dienstleistung, die nicht irgendwie den Anspruch erhebt, entweder schon über ’künstliche Intelligenz’ zu verfügen oder demnächst mit so etwas ausgestattet zu werden. Und neben den Evangelisten der künstlichen Intelligenz treten auch die Propheten des Untergangs der Menschheit auf, für die die aktuelle ’Künstliche Intelligenz’ nur der Vorläufer einer ganz neuen, noch mächtigeren ’Künstlichen Intelligenz’ sei, die als ’Singularity’ alles übertreffen wird, was der Mensch als künstliche Intelligenz kennt und beherrscht. (15) Diese neue Super-Intelligenz soll dem Menschen in Geschwindigkeit, Datenvolumen und Denkfähigkeit so weit voraus und darin überlegen sein, dass diese technische Superintelligenz vom Menschen nicht mehr ernsthaft kontrolliert werden kann. Sie ist gegenüber dem Menschen so überlegen, dass sie den Menschen locker als überflüssiges Etwas abschaffen kann. Wie immer, gehen die Schätzungen, wann dies der Fall sein wird, deutlich auseinander, aber das Jahr 2117 ist ein guter Kandidat, wann es soweit sein könnte. (16) Was soll man von dieser nicht gerade beruhigenden Vision halten?

Dass Menschen alles, was ihnen neu und unbekannt ist, und ihnen Angst macht, in Form von überirdische Fabelwesen packen, ist so alt, wie die Aufzeichnungen der Menschheit reichen. In den vielen Sagen gibt es dann irgendwann einen Menschen, einen besonderen Menschen, einen Helden, der dann irgendwann eine Schwachstelle findet, durch deren Ausnutzung der Held dann das Fabelwesen zur Strecke bringen kann. Im Fall des neuen Mythos von der technischen Superintelligenz muss man allerdings nicht sehr weit suchen, um zu sehen, dass die Dinge vielleicht doch ganz anders liegen, als die Marketingmaschinerien uns glauben lassen wollen. Und ja, doch, es könnte sogar sein, dass sich hinter dem abschreckenden Mythos von der menschenfeindlichen technischen Superintelligenz eine sehr konkrete Technologie verbirgt, die uns Menschen bei unserem Komplexitätsproblem ernsthaft helfen könnte. Gehen wir zurück zu dem Mann, mit dem das seriöse Reden über die Computer-Maschine angefangen hat.

(Anmk: 15: Ein wichtiger Text zu Beginn der Diskussion um die ’technische Singularität’ ist ein Beitrag von Vinge 1993 zu einer Nasa-Konferenz [Vin93]. Ein sehr guter Einstieg in die Thematik der technischen Singularität findet sich in dem Wikipedia-Artikel zur ’Technological Singularity’, URL: https://en.wikipedia.org/wiki/Technological singularity)

(Anmk: 16: Für eine Diskussion, wann man mit welcher Art von ’Super-Human-Level’ maschineller Intelligenz rechnen sollte, finden sich im Kap.1 von Bostrom 2014 [Bos14]:SS.18-21 einige Argumente. Klar ist, dass es nicht ganz klar ist; es gibt zu viele Unbekannte und wichtige Begriffe sind unscharf. So gesehen ist die Zahl ’2117’ (geschrieben im Jahr 2017) eine fast ’satirische’ Schätzung unter Berücksichtigung der Argumente bei Bostrum.)

X. WAS KANN EIN COMPUTER?

Während die modernen Naturwissenschaften ihren Untersuchungsgegenstand, die reale Natur, von vornherein nicht kennen, sondern sich mühsam, über viele kleine Schritte, ein Bild erarbeiten müssen, wie es vielleicht sein könnte, hat die Computerwissenschaft es einfacher. Sie beginnt dort, wo es überhaupt noch keine Computer gab, sondern nur ein mathematisches Konzept über eine ideale Maschine, deren einzige Fähigkeit darin besteht, in völlig transparenter Weise eine endliche Liste von primitiven Befehlen auszuführen. (17) Im Unterschied zu einer normalen Maschine, die keine Befehle ausführt, kann eine Computer-Maschine Befehle ausführen. Dies erscheint noch nicht besonders aufregend. Ein klein wenig aufregender wird es dadurch, dass die Computermaschine mit einem Schreib-Lese-Band verknüpft ist, auf dem beliebige Zeichen stehen können. Man kann die Computer-Maschine so auslegen, dass sie diese Zeichen auf dem Schreib-Lese-Band als ihre neuen Anweisungen interpretiert. Dies klingt auch noch nicht aufregend. Aufregend wird es, wenn man sich klar macht, dass die Computer-Maschine diese Anweisungen auf dem Schreib-Lese-Band in eigener Regie verändern kann. Sie kann sozusagen das Programm, das sie steuert, selber abändern und damit die Kontrolle über ihre eigene Steuerung übernehmen. Damit verfügt die Computer-Maschine über eine wichtige Voraussetzung, um im Prinzip voll lernfähig zu sein.

Der soeben erwähnte Turing (18) war auch einer der ersten, der in drei Artikeln 1948, 1950 sowie 1953 ganz offen die Frage diskutierte, ob Computer-Maschinen, falls es diese irgendwann einmal als reale Maschinen geben würde, auch eine Intelligenz haben könnten, wie wir sie von Menschen kennen. (19) Turing selbst sah die Möglichkeit eher positiv. Er machte allerdings schon damals darauf aufmerksam, dass Computer-Maschinen aus seiner Sicht nur dann eine reelle Chance haben würden, mit dem Menschen im Lernen gleich zu ziehen, wenn sie ähnlich wie Kindern selbständig durch die Welt streifen könnten und – ausgestattet mit Kameras, Mikrophonen und weiteren Sensoren – die Welt wie sie ist wahrnehmen könnten.

Mittlerweile schreiben wir das Jahr 2018, das sind mehr als 65 Jahre nach Turings Spekulationen zu intelligenten, lernfähigen Computern. Wie viele Computer streifen durch die Welt wie Kinder? Nicht all zu viele, muss man feststellen; eigentlich kein einziger. Die bisherigen Roboter, die bekannt sind, haben eine sehr eingeschränkte Bewegungsfähigkeit und keiner von diesen lernt bislang in einer unbeschränkten Weise, wie Kinder es tun.

Der Bereich, in dem über lebenslang frei lernende Roboter geforscht wird, nennt sich ’Developmental Robotics’ oder – noch radikaler – ’Evolutionary Developmental Robotics’. (20) In einer Forschungsübersicht aus dem Jahr 2017 (21) gibt es eine zentrale Einsicht, die uns an dieser Stelle helfen kann. (22) Zwar weiß man eigentlich schon von den Anfängen in der Künstlichen Intelligenzforschung in den 1960iger Jahren, dass jegliche Art von Lernen minimale Formen von Rückmeldung benötigt, aber die Tragweite dieses Momentes wurde vielen Forschern erst in den letzten Jahren, und speziell in der ’Erforschung des offenen‘ Lernens so richtig klar. Wenn eine Computer-Maschinen selbständig offen lernen können soll, dann braucht sie minimale Präferenzen, um im allgemeinen Rauschen der Ereignisse Ansätze möglicher Muster zu finden. Im Fall von biologischen Systemen gibt es eine Mischung von sogenannten angeborenen Präferenzen, die sich letztlich von der Überlebenserfahrung herleiten, und eben das schlichte Überleben selbst. Nur wer überlebt besitzt offenbar brauchbare Informationen. Im Fall von Computer- Maschinen gibt es keine Überlebenserfahrungen. Eine Computer-Maschine beginnt am absoluten Nullpunkt. Bis vor wenigen Jahren haben Ingenieure das Problem dadurch gelöst, dass sie ihre eigenen Präferenzen in die Computer-Maschinen eingebaut haben. Dies hat so lange funktioniert, wie die Computer-Maschinen nur sehr spezielle Aufgaben lösen mussten, z.B. als Industrieroboter. In dem Maße aber, wie Computer-Maschinen beliebige Aufgaben lernen können sollen, funktioniert diese Strategie nicht mehr. Was nun? Woher sollen solche allgemeinen Präferenzen kommen?(23)

Die Frage mit den Präferenzen (andere sprechen von Werten) hat eine zusätzliche pikante Note, da der Homo sapiens das erste Lebewesen auf der Erde ist, das nicht mehr ausschließlich durch die nackte Überlebensnotwendigkeit getrieben ist. Der Homo sapiens, also wir Menschen, haben es durch unsere geistigen und kommunikativen Möglichkeiten geschafft, das nackte Überleben z.T. sehr weit in den Hintergrund zu drängen. Damit stellt sich für die Lebensform des Homo sapiens erstmals seit 4 Milliarden Jahren biologischen Lebens die Frage, welche möglichen Präferenzen es möglicherweise neben oder sogar vor dem nackten Überleben geben könnte. Dummerweise enthält der genetische Code keine direkte Antwort auf die Frage nach zusätzlichen Präferenzen.

(Anmk: 17:  Der Text, in dem diese Art der Beschreibung eines idealen Computers erstmals vorkommt, ist ein Text, in dem Alan Matthew Turing einen metamathematischen Beweis geführt hat, in dem es um eine andere Version des Unentscheidbarkeitsbeweises von Kurt Gödel 1931 ging. Siehe [Tur 7]. Zu Ehren von Turing wurde diese Version der Definition eines Computers ’Turingmaschine’ genannt. )

(Anmk: 18: Eine sehr gute Biographie zu Turing ist Hodges (1983) [Hod83])

(Anmk: 19: Siehe Turing 1948 [M.87], 1950 [Tur50], sowie 1953 [Tur63] 20 Erste gute Überblicke bieten die beiden Wikipediaeinträge zu ’developmental robotics’ https://en.wikipedia.org/wiki/Developmental robotics sowie zu ’evolutionary developmental robotics’ https://en.wikipedia.org/wiki/Evolutionary developmental robotics)

(Anmk: 21: Siehe Merrick (2017) [Mer17])

(Anmk: 22: Ergänzend auch Singh et.al. (2010) [SLBS10] und Ryan/Deci (2000) [RD00] )

(Anmk: 23: Eine der verbreitetsten Lernformen im Bereich Künstliche Intelligenz ist das sogenannte ’Reinforcement Learning (RL)’. Dieses setzt explizit ’Belohnungssignale’ (’reward’) aus der Umgebung voraus. Siehe zur Einführung Russell/ Norvig 2010 [RN10]:Kap.21 und Sutton/Barto 1998 [SB98])

XI. DAS EI DES COLUMBUS

Das Ei des Columbus gilt als Metapher für Probleme, die als unlösbar gelten, für die es dann aber doch eine Lösung gibt.

In unserem Fall ist das Problem die begrenzte kognitive Ausstattung des Menschen für komplexe Situationen sowie die Präferenzfreiheit technischer Systeme. Die bisherigen Lösungsansätze einer cloud-basierten allgemeinen Intelligenz führt letztlich zu einer Entmachtung des einzelnen ohne dass eine cloud-basierte Intelligenz eine wirklich Überlebensfähigkeit besitzt. Sie gleicht eher einem Vampir, der so lange lebt, als viele einzelne sie mit Details aus ihrem Alltag füttern. Ohne diese Details ist solch eine cloud-basierte Intelligenz ziemlich dumm und kann einem einzelnen kein wirklicher persönlicher Assistent sein.

Die Lösung könnte tatsächlich ein reales Ei sein, ein Ei gefüllt mit einer Computer-Maschine, deren Rechenkraft vor Ort genau einem Menschen zur Verfügung steht und genau diesem einem Menschen rund um die Uhr hilft, seine kognitiven Begrenzungen auszugleichen und zu überwinden. Dieses Computer-Maschinen Ei (natürlich könnte es auch jede andere Form haben, z.B. als Ohrring, Halskette, Armband usw.) kann mit dem Internet Verbindung aufnehmen, mit jeder denkbaren Cloud, aber nur dann, wann und wie dieses Ei es selber will, und es würde keinerlei privates Wissen einfach so preisgeben. So, wie die Gehirne der Menschen anatomisch alle ähnlich sind und doch sehr individuelle Persönlichkeiten ermöglichen, so kann ein Computer-Maschinen Ei die individuellen Erfahrungen und das individuelle Wissen eines Menschen passgenau erkennen und fördern. Es entsteht eine Symbiose von Mensch und Maschine, die deutlich mehr sein kann als jede Komponenten für sich alleine.

XII. EINE NEUE MENSCH-MASCHINE SUPER-INTELLIGENZ FÜR DEN BALLUNGSRAUM?

Greift man an dieser Stelle nochmals die Vision einer verteilten, flexiblen Simulationsumgebung für die Bürger in einer Region auf, dann kann eine zusätzliche Ausstattung aller Bürger mit ihren persönlichen intelligenten Assistenten dem ganzen Projekt einen zusätzlichen messbaren Schub geben. Die persönlichen Assistenten können auch dann arbeiten, wenn der einzelne mal müde ist, sich entspannen will oder mal mit familiären Aufgaben beschäftigt ist. Und der persönliche Assistent kann auch viele Tausend oder Millionen Faktoren gleichzeitig in Rechnung stellen und in ihren Auswirkungen verfolgen. Im Zusammenwirken dieser vielen natürlichen und technischen Intelligenzen könnte eine Mensch-Maschine Superintelligenz entstehen, die den einzelnen voll mit nimmt, und als Gesamtphänomen erheblich leistungsfähiger sein wird, als alles, was wir heute kennen.

Allerdings, wir sollten uns nicht der Illusion hingeben, dass damit dann alle Probleme gelöst wären. Das Problem der geeigneten Präferenzen, sprich der Werte, wird bleiben; es wird sich vermutlich eher verschärfen. Auch die Verantwortung für uns Menschen wird weiter wachsen, auch wenn sich diese Verantwortung qualitativ neu immer auf ganz viele verteilen wird.

IX QUELLEN

[Bad03] Alan Baddeley. Working memory and language: an overwiew. Journal of Communication Disorders, 36:236–242190–208, 2003.

[BL99] A. Baddeley and R.H. Logie. Working memory: The multiple-component model. In A. Myake and P. Shah, editors, Models of working memory, chapter 2, pages 28–61. Cambridge University Press, New York, 1999.

[Bos14] Nick Bostrom. Superintelligence. Paths, Dangers, Strategies. Oxford University Press, Oxford (UK), 1 edition, 2014.

[BP16] Thorsten Bürklin and Michael Peterek. Thecycloregion. city-regional development in frankfurt rhine-main – die zykloregion. stadtentwicklung in frankfurtrheinmain. Journal of Comparative ’Cultural Studies in Architecture, 9:41–51, 2016.

[For71] Jay W. Forrester. World Dynamics. Wright-Allen Press, Inc., Cambridge (MA) 02142, 2 edition, 1971.

[Hod83] Andrew Hodges. Alan Turing, Enigma. Springer Verlag, Wien – New York, 1 edition, 1983.

[Hol73] C.S. Holling. Resilience and stability of ecological systems. Annual Review of Ecology and Systematics, 4(1):1–23, 1973.

[Jak13] Peter Jakubowski. Resilienz – eine zusätzliche denkfigur für gute stadtentwicklung. Informationen zur Raumentwicklung, 4:371–378, 2013.

[M.87] Turing Alan M. Intelligente maschinen. In Bernhard Dotzler and Friedrich Kittler, editors, Alan M. Turing. Intelligence Service, pages 81 – 113. Brinkmann & Bose, Berlin, 1987.

[Mer17] Kathryn Merrick. Value systems for developmental cognitive robotics: A survey. Cognitive Systems Research, 41:38 – 55, 2017.

[Mil56] Geroge A. Miller. The magical number seven, plus or minus two: Some limits on our capacity for processing information. Psychological review, 63:81–97, 1956.

[MLRBI72] Donella H. Meadows, Meadows Dennis L., Jørgen Randers, and William W. Behrens III. The Limits to Growth. A Report for the Club of Rome’s Project on the Predicament of Mankind. Universe Books, New York, 1 edition, 1972.

[PB13] Michael Peterek and Thorsten Bürklin. Potentials and challenges of polycentric city-regions: A case-study of frankfurt rhine-main. Technical Transactions Architecture – Czasopismo Techniczne Architektura, 1-A:179–189, 2013.

[RB06] G. Repovs and A. Baddeley. The multi-component model of working memory: Explorations in experimental cognitive psychology. Neuroscience, 139:5–21, 2006.

[RD00] Richard M. Ryan and Edward L. Deci. Intrinsic and extrinsic motivations: Classic definitions and new directions. Contemporary Educational Psychology, 25(1):54 – 67, 2000.

[RN10] Stuart Russel and Peter Norvig. Artificial Intelligence. A Modern Approach. Universe Books, 3 edition, 2010.

[SB98] Richard S. Sutton and Andrew G. Barto. Reinforcement Learning. An Introduction. The MIT Press, Ambridge (MA) – London, 1 edition, 1998.

[SLBS10] S. Singh, R. L. Lewis, A. G. Barto, and J. Sorg. Intrinsically motivated reinforcement learning: An evolutionary perspective. IEEE Transactions on Autonomous Mental Development, 2(2):70–82, June 2010.

[Tur50] Alan Turing. Computing machinery and intelligence. Mind, 59:433–460, 1950.

[Tur63] Alan Matthew Turing. Digital computers applied to games. In B.V. Bowden, editor, Faster Than Thought. Pitman Publishing, London, 1963.

[Tur 7] Alan M. Turing. On computable numbers, with an application to the entscheidungsproblem. Proceedings of the London Mathematical Society, 42(2):230–265, 1936-7.

[Vin93] Vernor Vinge. The coming technological singularity: How to survive in the post-human era. In G.A. Landis, editor, Vision-21: Interdisciplinary Science and Engineering in the Era of Cyberspace, pages 11–22. 1993.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

WISSENSCHAFTSPHILOSOPHIE IM ALLTAG. Wahrheit im Dauerversuch

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 26.Nov. 2017
URL: cognitiveagent.org
info@cognitiveagent.org

Autor: cagent
Email: cagent@cognitiveagent.org

INHALT

I Wissenschaftsphilosophie und Wahrheit …1
II Interdisziplinär und Unterschiede …2
III Interdisziplinäres Projekt…2
III-A Einzelvorschläge zum Begriff ’Simulation’ . . . . . . . .3
III-B Vernetzung der Einzelvorschläge . ….3
III-C Formalisierungsversuch . . . . . . . . 4
Weiter zur Wahrheit …7
IV Literaturverweise …8

WORUM ES GEHT

‚Wissenschaftsphilosophie‘ klingt für die meisten sehr abstrakt. Wendet man sich aber dem Alltag zu und betrachtet ein – fast beliebiges – Beispiel, dann kann man
schnell entdecken, dass eine wissenschaftsphilosophische
Sehweise sehr konkret – und auch sehr praktisch – werden
kann. Dies wird in diesem Beitrag illustriert.

PDF

I. WISSENSCHAFTSPHILOSOPHIE UND WAHRHEIT

In einem vorausgehenden Beitrag in diesem Blog mit
der Überschrift ”WAHRHEIT ALS UNABDINGBARER
ROHSTOFF EINER KULTUR DER ZUKUNFT”  wurde
besprochen, welche Mechanismen uns Menschen
zur Verfügung stehen, um wahre Aussagen über
die Welt und uns selbst machen zu können. Die
Blickweise, die hinter diesen Überlegungen stand,
war die der Wissenschaftsphilosophie. Aber was ist
’Wissenschaftsphilosophie’? Warum ist diese Blickweise
so wichtig?

’Wissenschaftsphilosophie’ ist, wie der Name schon
andeutet, ein Teil der philosophischen Blickweise auf die
Welt.

Während sich die Einzelwissenschaften aufgrund ihrer
spezifischen Interessen auf ’Teilgebiete der erfahrbaren
Wirklichkeit’ festlegen und diese im Rahmen des Paradigmas der experimentellen Wissenschaften im Detail erforschen, versteht sich eine philosophische
Blickweise als jene, die nicht von vornherein
Ausgrenzungen vornimmt, sondern alle Phänomene
zulässt, die sich dem menschlichen Bewusstsein zur
Erfahrung geben. Ein philosophisches Denken legt sich
auch nicht auf einige wenige Methoden fest, sondern
erlaubt zunächst einmal alles, was geht.
Eine so verstandene philosophische Blickweise hat
Vor- und Nachteile. Die Nachteile liegen auf der Hand:
der Verzicht auf eine wie auch immer geartete Vorweg-
Zensur von Erfahrung konfrontiert einen Philosophen
von vornherein mit einer solchen Fülle von Phänomen
und Methoden, dass es im Allgemeinen schwer ist,
hier auf einfache und schnelle Weise zu strukturierten
Erkenntnissen zu kommen.

Andererseits, schaut man sich die fortschreitende
Zersplitterung der Einzelwissenschaften an, dann
trifft man auch hier auf eine methodisch bedingte
Vielfalt, die bislang nicht systematisch integriert ist.
Zum aktuellen Zeitpunkt ist es nicht einmal abzusehen,
wann und wie diese immensen, sich gegenseitig
ausschließenden Datengebirge und Teildeutungen, sich
irgendwann zu einem einzigen großen integrierten
Ganzen zusammenfügen lassen lassen.

Die philosophische Blickweise als solche trägt im
Prinzip den Keim der Integration in sich, da sie ja
nicht auf Teilaspekte der Wirklichkeit abonniert ist,
sondern im Prinzip für alles offen ist. So kann sie sich
die Ergebnisse der Einzelwissenschaften vornehmen
und versuchsweise, spielerisch die verschiedenen
Erkenntnisse z.B. zum subjektiven Bewusstsein, zum
objektiven Verhalten oder zum objektiven Körper
aufgreifen, miteinander in Beziehung setzen, und
versuchen, die darin verborgenen Zusammenhänge
sichtbar zu machen.

Philosophen können dies irgendwie machen, oder
sie können sich im Jahr 2017 die denkerischen
Vorarbeiten der Wissenschaftsphilosophen aus den
letzten ca. 150 Jahren zu Nutze machen. Diese haben nämlich spezielle Teilaspekte der Wirklichkeit, des Denkens, der Wissenschaften systematisch untersucht.
Dazu gehören Themen wie Messen, Modellbildung,
logische Argumentation, Überprüfung eines Modells,
Simulation, und vieles mehr. Im Endeffekt haben die
Wissenschaftsphilosophen untersucht, wie das Konzept
einer experimentellen Wissenschaften überhaupt
funktioniert, unter welchen Umständen experimentelle
Theorien wahr sind, und unter welchen Bedingungen
man verschiedene Theorien integrieren kann.

Da das Thema Wissenschaftsphilosophie für sich
sehr umfassend ist und in vielen Bereichen nicht gerade
einfach zu erklären ist, sei an dieser Stelle auf eine solche
umfassende Darstellung verzichtet (Vergleiche dazu z.B.: [Sup79], [Sne79],
[Bal82], [BMS87]). Stattdessen sei hier ein einfaches (reales) Beispiel aus dem (realen) Alltag
vorgestellt, wie es jeder erleben kann oder schon erlebt
hat.

II. INTERDISZIPLINÄR UND UNTERSCHIEDE

Das Wort Interdisziplinär ist heute ja ein
richtiges Modewort, um das Zusammenarbeiten
von unterschiedlichen Disziplinen, Experten mit
unterschiedlichem Knowhow, unterschiedlichen
Erfahrungen zu etikettieren.

Während wir in den verschiedenen Gesellschaften
in Europa und weltweit zunehmend eher wieder
Phänomene der Abgrenzung beobachten, der
Ausgrenzung, der Abschottung, der identitätserhaltenden
Gruppenbildung, haben wir immer mehr international
operierende Firmen, in denen die Zusammenarbeit
von Menschen aus vielen Nationen (bis über 100)
Alltag ist und funktioniert. Es spielt nicht wirklich eine
Rolle, aus welchem Land jemand kommt, welche
Religion er hat, wie sie sich kleidet, was jemand isst,
solange alle im Rahmen der gestellten Aufgabe friedlich
zusammenwirken können. Auch in den Wissenschaften
ist dies eigentlich Alltag. Mathematik ist für alle gleich und
die Welt, die es zu erforschen gilt, ist auch für alle gleich.
Ähnlich ist es in den großen internationalen Metropolen
dieser Welt. Dort leben ganz viele verschiedene Kulturen
so lange friedlich zusammen, so lange niemand anfängt,
bewusst Hass und Zwietracht zu streuen.

Andererseits scheint das Phänomen der Abgrenzung
ein tief sitzender Reflex im menschlichen Verhalten
zu sein. Denn überall, wo Menschen leben und
es in der jeweiligen Gemeinschaft unterschiedliche
Gruppen – alleine schon wegen der notwendigen und
fortschreitenden Spezialisierungen – gibt, tendiert jede
Gruppe dazu, sich von den anderen abzugrenzen.
Es ist letztlich eine kognitive Entlastungsstrategie: es
ist immer einfacher, sich nur dem den Eigenschaften
und Regeln der eigenen Gruppe zu beschäftigen, als
zusätzlich auch noch mit den Eigenheiten und Regeln
einer anderen Gruppe. Dies strengt an und belastet.
Zu diesem Zweck gibt es allgemeine Verhaltensregeln,
die einem im Alltag Entscheidungen abnehmen, und
es gibt Klischees, Stereotype, mit denen man andere
Gruppen – und damit auch die einzelnen Mitglieder
der anderen Gruppen – mit einem einzigen Wort
in eine große Kiste von Klischees einsortiert. Dies
fängt schon im Bereich der Familie an, und erstreckt
sich dann über Schulklassen, Schulen, Abteilungen
in Behörden und Betrieben zu ganzen Einrichtungen,
Stadtteilen, Volksgruppen. Im ’Normalbetrieb’ verläuft
dies friedlich, ohne direkte Auseinandersetzungen, ist
fester Bestandteil von Witzen, Volksbelustigungen und
vielen Fernsehsendungen und Filmen.

Im Konfliktfall sind diese Vorurteile aber wie trockenes
Holz, das sich blitzschnell entzünden kann, und mit
einem Mal sind die Nachbarn, die Arbeitskolleginnen,
und die Leute aus dem anderen Stadtteil nicht einfach
nur anders, sondern gefährlich anders, moralisch anders,
überhaupt anders. Aus unverfänglichen Unterschieden
werden plötzlich metaphysische Ungeheuer. Die
gedankliche Bequemlichkeit, die sich im Alltag im
Gebrauch von Klischees ausruht, wird zur gedanklichen
Hilflosigkeit, die im Stress einfach wild um sich schlägt,
und dann natürlich auf das haut, was sie in ihrer
vereinfachten Weltsicht kennt: auf die stereotypen
Unterschiede, die plötzlich die ganze Welt bedeuten.

III. INTERDISZIPLINÄRES PROJEKT

Während interdisziplinäres Zusammenarbeiten in
großen Firmen und Behörden von Metropolen Alltag ist,
tun sich die Bildungseinrichtungen, speziell Hochschulen
in Deutschland, damit noch schwer. Selbst an einer
Hochschule in einer internationalen Metropole, an der
junge Menschen aus mehr als 100 Nationen studieren,
gibt es nur einen verschwindend geringen Anteil von
wirklich interdisziplinären Studienprogrammen. Die
Lehrenden mögen solche Veranstaltungen nicht, da
der normal Lehrende ein Spezialist ist; auch die
Fachbereichsstrukturen an Hochschulen stehen einer
wirklichen Interdisziplinarität massiv im Wege, und die
Hochschulleitungen sind heute von der Realität der
Lehre in ihren eigenen Hochschulen meist so weit
entfernt, dass sie in der Regel gar nicht wirklich wissen,
wie der Alltag der Lehre aussieht.

Das folgende Beispiel stammt aus einer realen
Lehrveranstaltung von einer realen Hochschule mit
Studierenden aus mehr als 100 Nationen, an der es
offiziell genau zwei interdisziplinäre Studienprogramme
gibt. Im Rahmen des einen Programms gibt es ein Modul,
in dem sich Studierende aus verschiedenen Disziplinen
mit dem Begriff der Simulation auseinander setzen sollen.

So gibt es in diesem Modul z.B. Studierende
aus den Disziplinen soziale Arbeit, Pflege, Case
Management, Architektur, Maschinenbau, Elektrotechnik
und Informatik.

A. Einzelvorschläge zum Begriff ’Simulation’

Das Modul ist so angelegt, dass alle Beteiligten
im Rahmen von Kommunikationsprozessen, eigenen
Recherchen und eigenen Experimenten schrittweise
ihr bisheriges Verständnis des Begriffs ’Simulation’
verfeinern und mit den Vorstellungen der jeweils
anderen Disziplinen integrieren, falls möglich. Im
Folgenden Beispiele von Formulierungen, wie der Begriff
Simulation’ zu Beginn von den Teilnehmern umschrieben
wurde.

  • Team A: Unter Simulation versteht man ein realitätsnahes Nachbilden von Situationen.
    • Ein virtueller Raum wird mit Hilfe von Visualisierungsprogrammen realistisch dargestellt .
    • Nach einer Abbildung mit verschiedenen Programmen kann das Modell mit Hilfe von Grundrissen geschaffen werden.
    • Verschiedene Gebäudetypen, zum Beispiel:
      öffentliche, kulturelle oder soziale Einrichtungen,
      können simuliert werden.
    • Der Außenraum bzw. die Umgebung wird beim
      Entwurf mitberücksichtigt und 3D visualisiert.
    • Durch Materialität, Textur, Lichtverhältnissen
      und Schattierungen wird versucht, den Entwurf
      realitätsnah wie möglich darzustellen.
    • Konstruktionen können in Simulationsprogrammen ebenfalls detailliert ausgeführt werden.
  • Team B: Simulation ist eine Methode Situationen abzubilden, z.B. räumliche Wirkungen, Umwelteinflüsse, Szenarien, um effektiv Probleme und
    Lösungen zu analysieren.
  • Team C: Die Analyse von möglichen Problemen
    im Alltag. Die Nachbildung von Anwendungsfällen
    wie zum Beispiel Flugsimulation und Wettersimulation. Die Optimierung von Systemen und Prozessen.
    Komplexe Sachverhalten zu vereinfachen und (visuell) darzustellen. Es ist eine kostengünstigere Variante als die tatsächliche Umsetzung. Es werden in
    einer Simulation Prognosen und Voraussagen erstellt.
  • Team D:
    1. Analyse von Systemen vor der praktischen An-
      wendung
    2. Die Simulation ist ein Bestandteil eines Produktlebenszyklus. Dabei lassen sich die Entwicklungsschritte wie folgt definieren:
      1. Konzeptentwicklung
      2. Simulation
      3. Konstruktiond) Produktherstellung
      4. Integration im System
    3. Optimierung von einem bestehendem Prozess
      mit Ziel die Effizienz und die Fehlerbehebung
      zu verbessern −→ Prozessoptimierung
  • Team E: Unter dem Begriff ”Simulation” ist das
    theoretische bzw. praktische Durchspielen unterschiedlicher Szenarien zu verstehen. Das Durchspielen oder auch Verifizieren der Situation lässt
    die Übertragung von komplexen Aussagen über das
    mögliche Verhalten des gewählten Klientels zu. Das
    Ergebnis kann auf die Realität projiziert werden,
    ohne damit laufende Prozesse negativ zu beeinflussen.
  • Team F : Eine Simulation ist eine modellhafte
    Darstellung einer möglichen oder reellen Situation.
    Die Situation kann sowohl prospektiv als auch retrospektiv sein. Sie dient der Analyse, Übung und Optimierung verschiedener Prozesse beziehungsweise
    einzelner Prozessabläufe.
  • Team G: Simulationen in der sozialen Arbeit bieten die Möglichkeit insbesondere ethisch schwierig
    vertretbare oder praktisch schwierig umsetzbare Situationen experimentell darzustellen und dadurch
    präventiv Kompetenzen zu erwerben, Lerninhalte
    zu erarbeiten, Lösungsansätze zu entwickeln und
    Problem- bzw. Konfliktsituationen zu vermeiden.
  • Team H: Simulation im Beratungskontext meint das
    Herstellen realitätsnaher Szenarien, um das Verhalten von Personen in speziellen Situationen erproben,
    beobachten und evaluieren zu können.
B. Vernetzung der Einzelvorschläge

Diese Textfragmente wirken unterschiedlich und tragen
deutlich Spuren der unterschiedlichen Fachkulturen. So
ist das Team A unschwer als Team aus dem Bereich
Architektur zu erkennen, oder Team C: das klingt sehr
nach einem technischen Hintergrund. Team E klingt
nach sozialer Arbeit oder Case Management. usw.

Was macht man nun damit?

Es gab ein Live-Gespräch, bei dem die einzelnen
Formulierungen nacheinander diskutiert wurden
und einzelne Begriffe, die hervor stachen, wurden
versuchsweise auf ein Whiteboard geschrieben (siehe
Schaubild Nr. 1).

Bild Nr.1: Tafelbild aus einer Live-Diskussion

Bild Nr.1: Tafelbild aus einer Live-Diskussion

Für einen Unbeteiligten wirkt dieses Bild vermutlich
noch ein wenig ’wirr’, aber bei näherem Hinsehen kann
man die Umrisse einer ersten Struktur erkennen.
In einer im Anschluss erstellten Idealisierung des
ersten Tafelbild (siehe Schaubild Nr. 2) kann man die
in diesen Begriffen liegende verborgene Struktur schon
deutlicher erkennen.

Reinzeichnung des Tafelbildes

Reinzeichnung des Tafelbildes

Man erkennt abgrenzbare Bereiche, Komponenten
wie z.B. die reale Welt oder das Ersatzsystem, Modell,
oder auch so etwas wie die Idee von etwas Neuem.
Zwischen diesen Komponenten findet man Beziehungen
wie Nachbilden oder Erfinden oder Modell nutzen.

Offensichtlich passen diese Größen nicht in das
klassische Schema einer Definition, bei dem ein neuer
Begriff (das ’Definiendum’) durch schon bekannte
Begriffe (das ’Definiens’) ’erklärt’ wird (vgl. dazu [Mit95] und [San10]), sondern es ist
eher die Einführung eines neuen Bedeutungsfeldes im
Sinne einer axiomatischen Theorie: man benennt eine
Reihe von Komponenten, von denen man annimmt, dass
sie alle wichtig sind, beschreibt Beziehungen zwischen
diesen Komponenten, die man ebenfalls für wichtig
findet, und nennt dann das Ganze ’Simulation’. Eine
zunächst diffuse Wirklichkeit gewinnt dadurch Konturen,
gewinnt eine Struktur.

Ob diese sich so heraus schälende Struktur wirklich
brauchbar ist, irgendwelche Wahrheitsansprüche
einlösen lässt, das kann man zu diesem Zeitpunkt
noch nicht entscheiden. Dazu ist das Ganze noch
zu vage. Andererseits gibt es an dieser Stelle auch
keine festen Regeln, wie man solche Strukturen
herausarbeitet. Auf der einen Seite sammelt man
Phänomene ein, auf der anderen Seite sucht man
Begriffe, sprachliche Ausdrücke, die passen könnten.
Was einem auffällt, und wie man es dann anordnet,
hängt offensichtlich von aktuellen Interessen, verfügbarer
Erfahrung und verfügbarem Sprachwissen ab. Drei
verschiedene Personen kämen isoliert vermutlich zu drei
unterschiedlichen Ergebnissen.

Man kann jetzt bei dem Schaubild stehen
bleiben, oder man kann das Instrumentarium der
Wissenschaftsphilosophie weiter nutzen indem man
z.B. eine formale Strukturbildung versucht. Unter
Verwendung einer mengentheoretischen Sprache
kann man versuchen, die erkannten Komponenten
und Beziehungen in mathematische Strukturen
umzuschreiben. Falls es gelingt, führt dies zu noch
mehr struktureller Klarheit, ohne dass man irgendwelche
Feinheiten opfern müsste. Man kann im Verlauf eines
solchen Formalisierungsprozesses Details nach Bedarf
beliebig ergänzen.

C. Formalisierungsversuch

Das idealisierte Schaubild lässt erkennen, dass wir
es mit drei Wirklichkeitsbereichen zu tun haben: (i)
die Reale Welt (W) als Ausgangspunkt; (ii) die Welt
der kreativen Ideen (KID) als Quelle möglicher neuer
Gegenstände oder Verhaltensweisen; und verschiedene
Ersatzsysteme, Modelle (M), mittels deren man etwas tun kann.

Unter Voraussetzung dieser genannten Gegenstandsbereiche W, KID, M wurde folgende wichtige Beziehungen genannt, die zwischen diesen
Gegenstandsbereichen angenommen wurden:

  1. Nachbilden, Abbilden (Abb): Bestimmte Aspekte
    der realen Welt W werden in einem Ersatzsystem,
    in einem Modell M so nachgebildet, dass man
    damit etwas tun kann. Außerdem soll das Modell
    u.a. realitätsnah sein, Kosten sparen, und Risiken
    vermindern.
  2. Erfinden (Erf): Aufgrund von kreativen Ideen KID
    wird ein Modell M erstellt, um diese Ideen sichtbar
    zu machen.
  3. Simulieren (Sim): Hat man ein Modell M gebaut,
    dann können Menschen (ME) mit dem Modell
    unterschiedliche Simulationen für unterschiedliche
    Zwecke vornehmen. Aufgrund von Simulationen
    werden die Menschen Erfahrungen (X+) mit dem
    Modell sammeln, die zu einem verbesserten Verhalten (V+) auch in der realen Welt führen können, zugleich kann aufgrund dieser Erfahrungen das
    bisherige Modell oft auch optimiert werden; man
    kommt also zu einem optimierten Modell (M+).
  4. Transfer (Trans): Aufgrund von neuen Erfahrungen
    (X+) und einem möglicherweise optimierten Modell
    (M+) besteht die Möglichkeit, dass man im Ausgangspunkt, in der realen Welt (W), Sachverhalte und Abläufe ändert, um die Verbesserungen im
    Modell und im neuen Verhalten in die reale Welt,
    in den Alltag, einzubringen. Würde man dies tun,
    dann erhielte man eine verbesserte Welt (W+).

Diese Vorstrukturierung kann man nun weiter treiben und tatsächlich eine mathematische Struktur hinschreiben. Diese könnte folgendermaßen aussehen:

— Siehe hierzu das PDF-Dokument —

Der Ausdruck zu Nummer (1) besagt, dass etwas (x) genau nur dann (iff) eine Simulation (SIMU) genannt wird, wenn es die folgenden Komponenten enthält: W, W+ M, M+ , KID, X+ , ME. Zusätzlich werden folgenden Beziehungen zwischen diesen Komponenten angenommen: Abb, Erf, Sim, Trans. Welcher Art diese Beziehungen sind, wird in den folgenden Nummern (2) – (5) erläutert.

In der Abbildungsbeziehung Abb : ME × W−→ M werden Aspekte der realen Welt W von Menschen ME in ein idealisierendes Modell M abgebildet.

In der Erfindungsbeziehung Erf : ME × KID −→ M werden Aspekte aus der Welt der Ideen KID von Menschen ME in ein idealisierendes Modell M abgebildet.

In der Simulationsbeziehung Sim : ME × M −→ M+ × X+ benutzen Menschen ME Modelle M und machen dadurch neue Erfahrungen X+ und können u.a. das Modell verbessern, optimieren M+ .

In der Transferbeziehung  rans : ME × M+ × X+ −→ W+ können Menschen ME optimierte Modelle M+ und/ oder neue Erfahrungen X+ in ihren Alltag, in die reale Welt so einbringen, dass die bisherige Welt zu einer besseren Welt M+ verändert wird.

IV. WEITER ZUR WAHRHEIT

An diesem kleinen Beispiel wird deutlich, wie man
unterschiedliche alltagssprachliche Formulierungen
miteinander vernetzen kann, daraus Strukturen
herausarbeitet, und diese ansatzweise formalisiert.

Um einen möglichen Wahrheitsanspruch dieser
Formalisierung klären zu können, müsste nun weiter
herausgearbeitet werden, was mit den einzelnen
Größen dieser Struktur gemeint ist. Also, wenn man die
Beziehung Abbildung liest ( Abb : ME × W −→ M), müsste klar sein, welche Menschen gemeint sind, die dort eine Abbildungsbeziehung herstellen, und was
müsste man sich konkret darunter vorstellen, dass
Menschen Aspekte der Welt (W) in ein Modell (M)
abbilden?

Wenn ein Kind ein Stück Holz benutzt, als ob es
ein Spielzeugauto ist, mit dem es auf dem Boden
herumfährt und dazu ’BrumBrum’ macht, dann ist für
das Kind das Stück Holz offensichtlich ein Modell für ein
Autor aus der realen Welt, seine Bewegungen simulieren
das Herumfahren, und das ’BrumBrum’ simuliert das
Motorgeräusch (bald nicht mehr, vielleicht).

Wenn Architekten (früher) aus Gips ein Gebäude im
Maßstab angefertigt hatten, es in eine Modelllandschaft
stellten, und dies einer Lichtquelle aussetzten, die
analog der Sonne bewegt wurde, dann war offensichtlich
das Gipshaus in der Landschaft mit der Lichtquelle
ein Modell des Schattenwurfs eines Gebäudes bei
Sonnenlicht.

Wenn Pflegestudierende heute an einem Krankenbett
mit einer künstlichen Puppe üben, wie man verschiedene
Pflegetätigkeiten ausübt, dann ist diese Puppe im Bett
offensichtlich ein Modell des realen Patienten, an dem
man übt.

Wenn Case Managerinnen in Rollenspielen
Beratungsgespräche üben, dann sind diese Rollen,
die sie ausfüllenden Personen, und die stattfindenden
Interaktionen ein Modell der realen Situation.

Wenn Informatikstudierende am Computerbildschirm
Schaltungen zusammenbauen, dann sind diese Software
basierten Bauteile und Schaltungen offensichtlich
Modelle von richtigen Bauteilen und den daraus
konstruierten Schaltungen.

Die Liste der hier möglichen Beispiele ist potentiell
unendlich lang.

Die Abbildung von Aspekten der realen Welt in
Ersatzsysteme, die wie Modelle fungieren, anhand bzw.
mittels deren man üben kann, analysieren usw. ist
offensichtlich sehr grundlegend.

Ob solch ein modellierendes Ersatzsystem und
die damit möglichen Handlungen die abzubildende
Wirklichkeit hinreichend gut abbilden, oder ob sie diese
so verzerren, dass das Modell bezogen auf die reale
Welt falsch ist, dies zu beurteilen ist nicht immer ganz
einfach oder vielleicht sogar unmöglich. Schwierig und
unmöglich ist dies dann, wenn das erarbeitete Modell
etwas zeigt, was in der realen Welt selbst durch die
Verwobenheit mit anderen Faktoren gar nicht sichtbar
ist, wenn also dass Modell überhaupt erst etwas sichtbar
macht, was ansonsten verdeckt, verborgen ist. Damit
würde das Modell selbst zu einer Art Standard, an dem
man die reale Welt misst.

Was im ersten Moment absurd klingt, ist aber genau
die Praxis der Wissenschaften. Das Ur-Meter, das als
Standard für eine Längeneinheit vereinbart wurde, ist
ein Modell für eine bestimmte Länge, die überall in
der räumlichen Welt angetroffen werden kann, aber
ohne das Ur-Meter können wir nicht sagen, welche der
unendlich vielen Stellen nun einem Meter entspricht. Wir
benutzen also ein künstlich erschaffenes Modell einer
bestimmten Länge, um damit die ansonsten amorphe
reale Welt mit Plaketten zu überziehen. Wir projizieren
das Ur-Meter in die reale Welt und sehen dann überall
Längen, die die realer Welt als solche nicht zeigt. Zu
sagen, diese Strecke hier in der realen Welt ist 1 m lang,
ist eine Äußerung, von der wir normalerweise sagen
würden, sie ist wahr. Wahrheit ist hier eine Beziehung
zwischen einer vereinbarten Einheit und einem Aspekt
der realen Welt.

Im allgemeinen Fall haben wir irgendwelche
sprachlichen Ausdrücke (z.B. Abb : ME × W −→ M), wir ordnen diesen sprachlichen Ausdrücke davon unabhängige Bedeutungen zu, und stellen dann fest,
ob es in der realen Welt Sachverhalte gibt, die mit
dieser vereinbarten Bedeutung korrespondieren oder
nicht. Falls Korrespondenz feststellbar ist, sprechen
wir von Wahrheit, sonst nicht. Eine solche Wahrheit ist
aber keine absolute Wahrheit, sondern eine abgeleitete
Wahrheit, die nur festgestellt werden kann, weil zuvor
eine Bedeutung vereinbart wurde, deren Korrespondenz
man dann feststellt (oder nicht). Sprachlich gefasste
Wahrheiten können also immer nur etwas feststellen,
was zuvor vereinbart worden ist (wie beim Ur-Meter), und
man dann sagt, ja, das früher vereinbarte X liegt jetzt
hier auch vor. Und diese grundsätzliche Feststellung,
diese ist fundamental. Sie erlaubt, in den veränderlichen
vielfältigen Bildern der Welt, ansatzweise Ähnlichkeiten,
Wiederholungen und Unterschiede feststellen zu
können, ohne dass damit immer schon irgendwelche
letzten absoluten Sachverhalte dingfest gemacht werden.

Die moderne Wissenschaft hat uns demonstriert, wie
dieses einfachen Mittel in vielen kleinen Schritten über
Jahrzehnte hinweg dann doch zu sehr allgemeingültigen
Sachverhalten hinführen können.

LITERATURHINWEISE

[Bal82] W. Balzer, editor. Empirische Theorien: Modelle, Strukturen,
Beispiele. Friedr.Vieweg & Sohn, Wiesbaden, 1 edition, 1982.

[BMS87] W. Balzer, C. U. Moulines, and J. D. Sneed. An Architectonic
for Science. D.Reidel Publishing Company, Dordrecht (NL),
1 edition, 1987.

[Mit95] Jürgen Mittelstrass, editor. Enzyklopädie Philosophie und
Wissenschaftstheorie Teil: Bd. 1., A – G. Verlag J.B. Metzler,
Stuttgart – Weimar, 1 edition, 1995.

[San10] Hans Jörg Sandkühler, editor. Enzyklopädie Philosophie,
Bd.1-3. Meiner Verlag, Hamburg, 1 edition, 2010.

[Sne79] J. D. Sneed. The Logical Structure of Mathematical Physics.
D.Reidel Publishing Company, Dordrecht – Boston – London,
2 edition, 1979.

[Sup79] F. Suppe, editor. The Structure of Scientific Theories. Uni-
versity of Illinois Press, Urbana, 2 edition, 1979.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

EIN HOMO SAPIENS – VIELE BILDER. Welches ist wahr?

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 28.Okt. 2017
info@cognitiveagent.org
URL: cognitiveagent.org
Autor: cagent
Email: cagent@cognitiveagent.org

Beitrag als PDF

INHALT

I Vielfalt trotz Einheit
II Wahrheit, die ich meine
III Wahrheitsmechanismen
III-A Gegenwart, Gestern, Morgen . . . . . .
III-B Eigener Lebensraum, ganz woanders . .
III-C Interpretierte Wahrnehmung . . . . . . .
III-D Erfahrung liefert Bilder . . . . . . . . . .
III-E Wie das ’Richtige’ Lernen? . . . . . . . .
III-E 1 Mengenbegrenzungen . . . . .
III-E 2 Muster erkennen . . . . . . . .
III-E 3 Spezialisierungen . . . . . . .
III-E 4 Wechselwirkungen aufdecken
III-E 5 Geeignete Wissensformen . .
III-E 6 Verloren im Fragment . . . . .
III-E 7 Fehlende Präferenzen
IV Menschenbilder
V Was Tun?

ÜBERSICHT

In der realen Welt gibt es eine Lebensform, die wir homo sapiens nennen. In der Rede über diesen homo sapiens – also in den Bildern, die wir benutzen –benutzen wir aber viele verschiedene Bilder. Desgleichen in den alltäglichen Lebensformen: es gibt nur einen homo sapiens, aber in den verschiedenen Kulturen dieser Erde gibt es viele geradezu konträre Formen, wie Menschen leben oder leben müssen. Wie ein homo sapiens genau funktioniert, verstehen wir immer noch nicht genau. Die Politik bevorzugt in der Regel plakative Schlagworte, und vermeidet wissenschaftliche Modelle. Warum?

Vielfalt trotz Einheit

Wenn in einem Brettspiel jemand sagt, „ich habe gewonnen“, und ein anderer daraufhin sagt „Nein, ich habe gewonnen“, dann weiß jeder, dass da etwas nicht stimmen kann. Brettspiele sind aufgrund ihrer Regeln eindeutig, wenn nicht, würden sie nicht funktionieren.

Wenn wir uns aber die Realität anschauen, die gemeinsam geteilte empirische Welt, dann ist es mittlerweile fast der Normalfall, dass es zu einzelnen Aspekten, Vorkommnissen, Vorgängen, von verschiedenen Personen oder Personengruppen, ganz unterschiedliche Beschreibungen/ Darstellungen/ Bilder gibt, ohne dass wir dies merkwürdig finden. Wenn Politiker in Talkshows sich äußern sollen, ist es eher die Regel, dass sie konträre Meinungen vertreten. Keiner findet dies merkwürdig. Unrecht haben immer die anderen, die eine andere Meinung haben. Der Frage, warum es zu unterschiedlichen Meinungen zu ein und demselben Thema kommen kann, wird fast nie gestellt. Lieber beschimpft man sich gegenseitig, anstatt die Frage zu stellen, warum es zu unterschiedlichen Meinungen kommen kann.

Wahrheit, die ich meine

Eine klassische Auffassung von Wahrheit geht davon aus, dass das mit ‚Wahrheit‘ Gemeinte in der Übereinstimmung von eigener Auffassung und einem davon zu unterscheidenden Sachverhalt ist. Klassisches Beispiel: Jemand sagt „Es regnet“ und in der Redesituation regnet es tatsächlich oder nicht. Im ersten Fall würde man dem Sprecher zustimmen und sagen, er spricht ‚wahr‘, im anderen Fall nicht.

Schwieriger wird es, wenn der Redner über Sachverhalte spricht, die jenseits der aktuellen Redesituation liegen: räumlich entfernt, oder zeitlich weit zurück in der Vergangenheit oder in einer noch nicht stattgefundenen Zukunft. Welche Mechanismen der Klärung des Wahrheitsgehaltes gibt es dann?

Oder der Redner glaubt Sachverhalte wahrzunehmen, die aber alle anderen nicht wahrnehmen. Wer hat dann Recht? Irrt der eine, hat er eine ‚psychische Störung‘, steht er unter ‚Drogeneinfluss‘, hat er schlicht ein ‚falsches Wissen‘, oder … ? Könnten nicht alle anderen irren und er alleine hätte Recht?

Oder es gibt Sachverhalte, auch gegenwärtige, deren Status von bestimmtem ‚Wissen‘ abhängig ist, wodurch erst die ‚Eigenschaften des Sachverhalts‘ sichtbar werden. Berühmte Beispiele sind die Bewegung der Himmelskörper, das Phänomen von Magnetismus und Elektrizität, die chemischen Reaktionen der verschiedenen chemischen Substanzen, die Entdeckung der Mikroorganismen, die Entdeckung der Vererbung durch Mitwirkung der DNA, die Entdeckung der Gehirnzellen und die Tatsache, dass sie nicht miteinander direkt verbunden sind, usw.

Schon diese kurze Betrachtung zeigt, dass wir in unserem Alltag eher mehr Situationen haben, die eine ‚direkte Wahrheitsentscheidung‘ nicht zulassen als solche, die es tun. ‚Indirekte‘ Wahrheitsentscheidungen verlangen grundsätzlich eine ‚Klärung der Umstände‘ und eine ‚Klärung der Regeln der Interpretation‘.

Wahrheitsmechanismen

Gegenwart, Gestern, Morgen

Halten wir an der Fallunterscheidung fest, dass es Aussagen über Vergangenes, Zukünftiges oder Gegenwärtiges gibt.

Eigener Lebensraum, ganz woanders

In allen drei Fällen kann man nochmals unterscheiden, ob der Sachverhalt (gegenwärtig oder vergangen oder zukünftig) mit den Teilnehmern der Situation verknüpft ist oder nicht. Ob es da regnet, wo man gerade ist, oder woanders, das macht einen großen Unterschied. Oder ob in meiner Firma in der Vergangenheit ein bestimmtes Ereignis stattgefunden haben soll oder nicht, kann ich eher einschätzen, als wenn es in der Vergangenheit irgendwo ganz anders stattgefunden haben soll. Entsprechend in der Zukunft: eine Aussage über einen zukünftigen Sachverhalt in meinem persönlichen Lebensraum fasse ich anders auf als wenn es ‚irgendwo ganz anders‘ stattfinden soll.

Interpretierte Wahrnehmung

Befinden wir uns in der Gegenwart, dann können wir diese und eigene Körperzustände ‚wahrnehmen‘. Wie wir mittlerweile durch vielfältige wissenschaftliche Untersuchungen lernen konnten, nehmen wir aber niemals die Welt (und uns selbst) ‚1-zu-1‘ wahr, sondern vielfältig selektiert, abstrahiert und ‚interpretiert‘ durch die Erfahrungen, die wir vorher schon gemacht haben. Da die visuellen, akustischen, taktilen usw. Wahrnehmungen immer unvollständig sind, muss innerhalb des Wahrnehmungsprozesses kontinuierlich ‚interpretiert‘ werden. Wir sind ‚erfahrungsbasiert‘, und diese Erfahrungen sind sehr stark ’sprachlich durchtränkt‘. Wir sehen nicht einfach nur Farben, Formen; wir riechen nicht einfach nur süßlich, beizend, ätzend, usw.; wir hören nicht einfach nur Geräusche, Klänge; diese werden sofort eingeordnet in vertraute Muster, verknüpft mit bekannten Worten. Ein Geräusch identifizieren wir als ‚knarrende Schranktür‘, ‚vorbeifahrendes Auto‘, das ‚Klackern von Schuhen auf Steinplatten‘, usw., weil wir einfach ‚trainiert‘ wurden, diese Geräusche mit solchen Worten und darüber mit bestimmten Situationen zu verknüpfen. Wie wir wissen, können solche spontanen, von unserem Gehirn aufgrund von vorliegenden Erfahrungen ‚automatisch erzeugte‘ Zuordnungen falsch sein, weil die Erfahrungen falsch sind.

Erfahrung liefert Bilder

Im Alltag liefert unsere Erfahrung also die ‚Bilder‘, mit denen wir unsere Welt anschauen.

Solange jemand noch nichts von einer bestimmten genetischen Erkrankung wusste, war für ihn die Welt in Ordnung. Als er/ sie erfuhr, dass es solch eine spezielle Krankheit gibt und dass er Symptome dafür aufweist, war die Welt plötzlich eine ganz andere.

Solange jemand nicht wusste, wie ein bestimmtes Pflanzenschutzmittel wirkt, hat er es leichthändig eingesetzt. Sobald bekannt wurde, dass es die Böden und Pflanzen nachhaltig vergiftet, ein ganzes Ökosystem zum Kippen bringen kann, sogar über die Nahrung in den menschlichen Körper gelangen kann und dort zu schweren Störungen führt, da war die Welt plötzlich eine andere.

Solange man noch nicht wusste, dass der Nachbar und Freund ein Spitzel für den Staat war, mit dem Ziel andere Meinungen auszuspähen und zu melden, solange war die Welt noch in Ordnung. Aber als man durch Zufall entdeckte, dass da etwas nicht stimmt, wollte man es zunächst nicht glauben, man wehrte sich dagegen, bis es dann irgendwann klar war…

Die Bilder, die wir haben, erklären uns die Welt für uns. Andere können ganz andere Bilder haben.

Wie das ‚Richtige‘ Lernen?

Wenn unsere Erfahrungen einen solchen massiven Einfluss auf unsere Weltsicht haben, stellt sich die Frage, was wir denn tun können, um im Rahmen unseres ‚Erlernens von Welt‘ die ‚richtige‘ Sicht zu bekommen?

Mengenbegrenzungen

Wie wir heute wissen können, ist unsere aktuelle Wahrnehmung von Welt zudem mengenmäßig sehr begrenzt. Wir können im Sekundenbereich nie mehr als ca. 5-7 Wahrnehmungsobjekte (Englisch ‚chunks‘) verarbeiten. Je nach Erfahrungsstand können dies einfache oder sehr komplexe Objekte sein.

Muster erkennen

Ein Schachgroßmeister sieht auf einem Schachbrett nicht einzelne Figuren, sondern er sieht die Figuren als Teil eines ‚Musters‘, das er in ’strategische Zusammenhänge‘ einordnen kann. So genügt ihm ein kurzer Blick und er hat eine Einschätzung des ganzen Spielstandes und weiß sofort, wo es günstig wäre, in dieser Stellung anzusetzen. Ein weniger erfahrene Spieler sieht dies Muster und diese Zusammenhänge nicht auf einen Blick. Daher muss er mühsam alle möglichen Kombinationen ‚durchdenken‘, ‚geistig durchspielen‘, um zu Einschätzungen zu kommen. Der Amateur benötigt dafür viel mehr ‚Bedenkzeit‘. In einem offiziellen Schachturnier würde de Amateur daher normalerweise allein schon durch seinen Verbrauch an Denkzeit verlieren, wenn er nicht schon vorher aufgrund der Stellung verliert.

Das, was hier am Schachspiel verdeutlicht wurde, gilt für alle Situationen: wir können immer nur sehr wenige Aspekte einer Situation tatsächlich wahrnehmen und verarbeiten. Wenn nun die Situation komplex ist, das heißt, ganz viele einzelne Elemente auf vielfältige Weise ineinander greifen, und dadurch bestimmte Zustände erzeugen, dann können wir diese Situation nicht wirklich verstehen, es sei denn, wir würden sehr viel Zeit aufwenden, um sie zu erforschen. Im Alltag haben wir diese Zeit normalerweise nicht.

Spezialisierungen

Andererseits leben wir täglich in einer Welt, die bis zum Rand angefüllt ist mit komplexen Sachverhalten: die Infrastruktur einer Stadt mit Energieversorgung, Wasserversorgung, Abfallwirtschaft, Verkehr, Schulen, …; die Wohnungssituation; die wirtschaftliche Entwicklung einer Region; das Funktionieren großer Konzerne; die jeweiligen Ökosysteme, in denen wir uns bewegen; die demographische Entwicklung und ihre Konsequenzen; usw.

Teilweise helfen wir uns durch Spezialisierungen: es gibt Verkehrsfachleute, Demographen, Betriebswirte, Abfallexperten, Managementberater, Biologen,… doch diese sind einzelne; selten arbeiten sie — wenn überhaupt — alle zusammen, um ein Problem in seinen Wechselwirkungen zu verstehen, Zusammenhänge sichtbar zu machen.

Wechselwirkungen aufdecken

Die eine Frage ist also, ob wir überhaupt genügend brauchbare Daten von den verschiedenen Prozessen unseres Alltags haben bzw. bekommen; die andere Frage ist, wie wir diese Daten so ‚aufbereiten‘, dass die ‚Wechselwirkungen‘ sichtbar werden, d.h. warum der eine Faktor den anderen Faktor beeinflusst und in welchem Ausmaß.

Geeignete Wissensformen

Die Wissenschaftsphilosophie hat erarbeitet, wie solche erklärenden Datenstrukturen aussehen müssten, damit sie Erklärungen liefern könnten. Die verschiedenen computerbasierten Simulationstechniken lassen erkennen, wie man solche komplexen Datenstrukturen so aufbereiten könnte, dass jeder damit arbeiten kann. Im Alltag findet man solche Instrumente aber nicht. Tägliche Entscheidungen müssen ohne solche Hilfen getroffen werden.

Wenn man die Lernformen in den Schulen und Hochschulen anschaut, dann gibt es nahezu nichts, was ein komplexes ‚Lernen von der Welt‘ unterstützen könnte.

Verloren im Fragment

Als Ergebnis dieser schwierigen Situation muss jeder Mensch mit mehr oder weniger kleinen bzw. großen Fragmenten eines großen Ganzen leben, die es nicht zulassen, das große Ganze zu erkennen. Notgedrungen versucht jeder auf seine Weise, ad hoc, unverstandene Reste mit Hilfskonstruktionen ‚verständlich‘ zu machen. Und ja, wenn jetzt ein anderer Mensch mit anderen Fragmenten auftritt, was tut man dann? Freut man sich, aus der Verschiedenheit zu lernen (eine echte Chance) oder fühlt man sich verunsichert, fühlt man sich angegriffen, sieht im anderen einen ‚Gegner‘, einen ‚Feind‘, der die eigene Meinung bedroht?

Wenn Menschen, und dies dürften die meisten sein, im Berufsleben eingespannt sind, dazu Familie, soziale Verpflichtungen, dann ist es sehr häufig so, dass dieses Leben so anfordernd ist, dass Zeit und Muße sich mit der komplexen Welt zu beschäftigen, mit anderen Anschauungen, kaum vorhanden ist. Ganz ’natürlich‘ wird man vieles abblocken, wird man einen ‚Tunnelblick‘ ‚kultivieren‘, wird ‚Seinesgleichen‘ suchen, sich einrichten, sich abschotten, und wenn es zum Schwur kommt, wird man genau nur das wiederholen können, was man bislang kennen gelernt hat. Wer und was kann hier helfen?

Fehlende Präferenzen

Bei der ‚Aneignung von Welt‘, die unter starken quantitativen Begrenzungen stattfinden muss, und die aufgrund von bisherigen Erfahrungen eine starke Beeinflussung aufweist, spielt noch ein weiterer Faktor hinein: Bewertungen, Präferenzen.

Das eine ist, Objekte, Eigenschaften, Beziehungen, Abfolgen zu identifizieren. Schwer genug. Ein einzelner Handelnder braucht aber auch Präferenzen der Art, dass er im Fall von Alternativen bewerten kann, ob nun A oder B für ihn besser sind. Soll er A oder B tun?

Wenn man weiß, dass viele Leistungen ein mehrjähriges gezieltes Training voraus setzen, durch das ein entsprechendes Wissen, eine entsprechende Handlungsfähigkeit schrittweise erarbeitet worden ist, das dann nach vielen Jahren so verfügbar ist, dann setzt dies voraus, dass es solche ’situationsübergreifende Ziele‘ gibt, die das einzelne Verhalten auf dieses Ziel in ‚orientieren‘.

Wenn solche Ziele aber schwer zu erkennen sind, wenn sie schlichtweg fehlen, wie kann dann ein einzelner, eine Gruppe, eine Firma ihre Ressourcen gezielt auf ein Ziel hin optimieren?

Präferenzen hängen stark von verfügbarem Wissen ab, aber sie sind nicht identisch mit Wissen! Aus der Tatsache, dass ich weiß, wie man einen Computer baut, folgt nicht, dass ich weiß, wofür man ihn einsetzen sollte. Aus der Tatsache, dass man Schulen mit Computern ausstatten will, folgt nicht, dass die Schulen, die Lehrer, die Schüler wissen, wofür sie die Computer einsetzen wollen/ sollen/ können.

Es scheint bis heute eher unklar, wo Präferenzen herkommen sollen.

Im Alltag gibt es viele sogenannte ‚praktische Zwänge‘ (Ernährung, Wohnen, Geld verdienen, Gesundheit, Verkehr, …), die zum Handeln zwingen. Dies sind aber weitgehend unhinterfragte Automatismen, die selbst in einen größeren Zusammenhang einzuordnen wären. Übergreifende Ziele, welche?

Menschenbilder

Schaut man sich die verfügbaren Menschenbilder im Bereich der Wissenschaften an, so kann man die wichtigsten Typen wie folgt auflisten:

  • Die biologische Evolution, unterscheidbar nach homo sapiens und Nicht-homo sapiens.
  • Im Bereich des homo sapiens sein Verhalten (Ethologie, Psychologie, Soziologie, Politik, Wirtschaft…)
  • Im Kontext des Verhaltens des homo sapiens gibt es die unterstellten inneren Mechanismen, die dafür verantwortlich sind, wie der homo sapiens auf seine wahrnehmbare Umgebung reagiert, zusammengefasst im Begriff des Verhaltens bzw. der Verhaltensfunktion. Das ‚Sichtbare (Verhalten)‘ erscheint damit als Wirkung des ‚Unsichtbaren (Inneren)‘. Für diese inneren Zustände gibt es keine wirkliche wissenschaftliche Disziplin, da Bewusstseinszustände als solche kein Gegenstand einer empirischen Wissenschaft sein können. Traditionell ist hier die Philosophie zuständig, die eben nicht als empirische Disziplin gilt. Die Neurowissenschaften behandeln die physikalisch-chemische Maschinerie des Gehirns, nicht aber seine subjektiven Erlebnisse im Bewusstseinsraum.
  • Im Bereich des Verhaltens hat der Mensch Technologien hervorgebracht, die ihm helfen können, praktische Probleme des Alltags (dazu gehören auch Konflikte bis hin zu Großkonflikten (Krieg)) zu lösen. Das Ineinander von Mensch und Maschine lässt ständig neue Situationen entstehen, in denen sich der Mensch über ein verändertes Verhalten selbst neu erfahren kann (Ersetzung menschlicher Muskelkraft, Autos, Eisenbahn, Flugzeug, Raumschiff..).
  • Im Rahmen der Technologie nehmen die Digitalen Technologien eine Sonderstellung ein. Sie erlauben es zunehmend, die inneren Mechanismen des Menschen zu imitieren und in immer mehr Bereichen zu übertreffen. Dies stellt eine extrem starke Infragestellung des Menschen dar: ist er auch nur eine Maschine, dazu eine schlechte?
  • Neben dem Biologischen gibt es das Physikalische als allgemeinen Rahmen für alles Biologische, mit unfassbar weiten Räumen und Energien, die sich als Universum präsentieren.
  • Innerhalb des Biologischen sind die inneren Mechanismen des homo sapiens wissenschaftlich noch unaufgeklärt. Dies gibt viel Spielraum für Spekulationen, Esoterik und dem Phänomen des Religiösen. Es ist schwer zu entscheiden,welch ‚harten Kern‘ all diese Interpretationen haben.

Macht man sich diese Vielfalt klar, ihren weitgehenden Fragmentcharakter aufgrund fehlender Wissensintegration, dann wundert man sich nicht, dass Ideologien, Populismen, Fanatismen und Dogmatismen reichlich Nährboden finden können. Die öffentlichen Wissenskulturen sind nicht ausreichend genug kultiviert, um solchen Verzerrungen den Boden zu entziehen. Die Bedeutung einer Wissenskultur wird in fast allen Gesellschaften stark unterschätzt und die jeweiligen Politiker erweisen sich für diese Fragen auch nicht besonders hilfreich.

Was Tun?

Es ist eines, einen Sachverhalt zu diagnostizieren. Es ist eine ganz andere Frage, ob man aus solch einer Diagnose irgendeinen Handlungsvorschlag generieren kann, der eine deutliche Verbesserung mit sich bringen würde.

Angesichts der zentralen Bedeutung des Wissens für das Verhalten des Menschen eingebettet in Präferenz/ Bewertungsstrukturen, die in einem Lernprozess verfügbar sein müssen, bei gleichzeitiger Berücksichtigung der quantitativen Beschränkungen des biologischen Systems bräuchte es neue Lernräume, die solch ein verbessertes Lernen unterstützen. Ganz wichtig wäre es dabei, das Wissen nicht nur ‚jenseits des Individuums‘ zu kumulieren (die Cloud für alle und alles), sondern den einzelnen als einzelnen zu stärken, auch als soziales Wesen. Dazu braucht es eine grundlegende Re-Analyse dessen, wie der Mensch mittels neuer digitaler und Cyber-Technologien sowie Humantechnologie seinen Möglichkeitsraum vergrößern kann.

Dies wiederum setzt voraus, dass es eine Vision von Gesellschaft der Zukunft gibt, in der der homo sapiens überhaupt noch eine Rolle spielt. Dies wird gerade von elitären Machtgruppen immer mehr in Frage gestellt.

Wo gibt es ernsthafte Visionen für humane Gesellschaften für Morgen?

Diese Aufgabenstellung ist nichts für einen allein; hier sind alle, jeder auf seine Weise, gefragt.

Autor cagent arbeitet an konkreten Lösungen einmal über das weltweite Theoriebuch für Ingenieurezum anderen an dem komplementären Projekt eines Softwarelabors für die Entwicklung solcher Lokaler Lernwelten. Ja, man kann sogar sagen, dass das Kunstprojekt Philosophy-in-Concert hier auch hingehört. Aber, wie auch immer, ein einzelner kann die Aufgabe nicht lösen. Es braucht ein ‚Gesamtkunstwerk‘, in dem sich viele miteinander vernetzen und ergänzen.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

MENSCHENBILD – VORGESCHICHTE BIS ZUM HOMO SAPIENS – Ergänzungen

PDF

Übersicht
Im Folgenden einige Ergänzungen zu dem vorausgehenden Blogeintrag ’Menschenbild …’.

I. WARUM ERGÄNZUNGEN ?

In dem vorausgehenden Blogeintrag (siehe: [DH17d])
wurde in einem ersten Durchgang versucht, die großen
Linien der ’Menschwerdung des Menschen’ nachzuzeichnen.
Angesichts des Umfangs und der Komplexität
des Themas konnten viele wichtige Punkte nur grob
beschrieben werden. Hier einige ergänzende Nachträge.

II. ZEITMESSUNG

Für die Rekonstruktion der Entwicklung der
verschiedenen Menschenformen benötigt man eine
Einordnung der ’Formen’ in bestimmte Schemata,
ihre ’geologische’ Fixierung mit jeweiligen Kontexten,
sowie die Einordnung auf einer ’Zeitachse’, die einen
direkten Bezug zu den konkreten Substraten (Knochen,
Werkzeuge, …) aufweist.

Eine Einführung in diese Thematik findet sich in
dem Artikel von Günther A.Wagner [Wag07], der am
Beispiel der Zeitbestimmung des Fundes zum homo
heidelbergensis die allgemeine Problematik einer
Zeitbestimmung abhandelt.

A. Stratigraphie

Es war der Geologe Nicolaus Steno, der 1669
erkannt, dass sich die Veränderungen der Erde in
Sedimentablagerungen manifestierten, wobei die
unteren Schichten die Älteren sind. Es entstand daraus
generell die Stratigraphie die die Fossile registriert
(Biostratigraphie), ferner die Lithostratigraphie mit dem
Fokus auf dem Gestein, die Magnetostratigraphie
mit Fokus auf der Gesteinsmagnetisierung, sowie
die Klimastratigraphie, die nach Indikatoren für das
Klima sucht. In der Summe entstehen auf diese Weise
räumliche und zeitliche Netze, die man zu einer primären
geologischen zeitlichen Einteilung nutzen kann. (Siehe
dazu z.B. die Tabellen bei Wagner [Wag07]:SS.204ff)

B.Tertiär, Quartär

Die Zeit seit -2 Ma Jahren [‚Ma‘ := Millonen Jahre] wurde aufgrund der
Stratigraphie in die Abfolge der Systeme Tertiär bis -1.8
Ma Jahren und Quartär bis zur Gegenwart eingeteilt.

C. Pliozän, Pleistozän

Diese grobe Einteilung wurde anhand stratigraphischer
Kriterien weiter verfeinert in die Abteilungen Pliozän
(-2.0 bis -1.8 Ma), Altpleistozän (-1.8 bis -0.78 Ma),
Mittelpleistozän (-078 bis -0.128 Ma), Jungpleistozän
(-0.128 Ma bis -11.7 Ka) und Holozän (-11.7 Ka bis zur
Gegenwart).[‚Ka‘ := 1000 Jahre].

D. Paläolithikum

Eine andere Einteilung orientierte sich an dem
Merkmal Steinwerkzeuge . Erste Steinwerkzeuge lassen
sich in Afrika ab -2,5 Ma nachweisen, in Europa erst ab
-0.9 Ma (siehe: [WD17a]). Diese Zeit wird Altsteinzeit
(Alt-Paläolithikum) genannt, Dauer bis ca.-300.000/-
200.000. Wichtige Formfelder: Acheulien . Es folgt die
Mittelsteinzeit (Mittel-Paläolithikum) , die etwa um -40 Ka
endet. Wichtige Formfelder sind hier:die Moustérien , ca.
-200.000 bis -40.000; es handelt sich hier um sehr fein
gearbeitete Werkstücke in zahlreichen, auf die Funktion
hin gestalteten Formen. Typisch sind fein ausgebildete
Faustkeile. Micoquien (oder ”Keilmesser-Gruppen”),
ca. -130.000 bis -70.000. Hier findet man Keilmesser
Blattspitzen-Gruppen, die flache und ovale Werkzeuge
(Blattspitzen) nutzten. Ch âtelperronien bis ca. -34.000.
(regional eingeschränkt, Frankreich und Nordspanien).
Es folgt die Jungsteinzeit (Jung-Paläolithikum) die bis
zum Ende der letzten Kaltzeit dauert, die mit dem
Beginn des Holozäns zusammenfällt, etwa 11.7 Ka vor
dem Jahr 2000 (siehe dazu: [WD17d]). Der Beginn der
Jungsteinzeit fällt auch zusammen mit dem Auftauchen
des homo sapiens in Europa. Bei den Steinwerkzeugen
unterscheidet man die Formenwelt Aurignacien, ca.
40.000 bis ca. -28.000; sie markiert den Beginn der jungpaläolithischen
Kleinkunst in Europa, u.a. erste Felsbilder; Gravettien von ca.
-28.000 bis ca. -21.000, Zeithorizont der Venusfigurinen.
Solutréen von ca. -22.000 bis ca. -18.000; Magdalénien
von ca. -18.000 bis ca. -12.000.

E. Holozän

Der Beginn des Holozäns (-9.7 Ka oder ’11.7 Ka
vor dem Jahr 2000’) ist gekennzeichnet durch einen
starken Klimaanstieg, der zu starken Veränderungen
in Fauna und Flora geführt hat (man nennt es auch
’drastische ökologische Restrukturierungen’ (siehe
dazu: [WD17d])). Die Zeit -9.7 Ka bis -6 Ka nennt
man auch Alt-Holozän. Riesige Eismassen schmelzen
und die Erdoberfläche hebt sich um viele Meter. Im
nachfolgenden Mittelholozän (ca. -6 Ka bis -2.5 Ka)
gab es einerseits ein Klimaoptimum, das positive
Lebensräume schuf. In einem Klimapessimus (von
ca. -4.1 Ka bis -2.5 Ka) wurde es deutlich kühler und
trockener; viele Wüsten kehrten wieder zurück. Die
Menschen zogen sich in die Flussgebiete zurück, was
zur Ausbildung komplexer Ansiedlungen führte. Es kam
zu Zusammenbrüchen ganzer Kulturen, zu erzwungenen
Wanderungen sowie Eroberungen. Das anschließende
Jung-Holozän (von ca. -2.5 Ka bis heute) ist u.a.
durch einen Wechsel weiterer Kalt- und Warmzeiten
gekennzeichnet.

Innerhalb des Holozäns werden anhand spezieller
Kriterienbündel weitere Unterteilungen vorgenommen.

Epipaläolithikum, Mesolithikum, Neolithikum

Am Beispiel der Begriffe Epipaläolithikum, Mesolithikum,
Neolithikum wird deutlich, wie sich Kriterien, die im
Rahmen der Stratigraphie zur Anwendung kommen
können, aufgrund von Zeitverschiebungen zwischen
verschiedenen Regionen sowie durch parallele
Kriterienbündel überlappen können.

Die Bezeichnung Mesolithikum (Mittelsteinzeit) trifft
eigentlich nur auf das nacheiszeitliche Europa zu (siehe:
[WD17f]), während der Begriff Epipaläolithikum in er
gleichen Zeit angewendet wird, aber eher auf Regionen
die kaum bis gar nicht von nacheiszeitlichen Eiswechsel
betroffen waren (siehe [WD17c]).

2. Neolithikum

Dagegen bezieht sich der Begriff Neolithikum (Jungsteinzeit)
auf ein Bündel von Faktoren, die zusammen
den Charakter dieser Phase beschreiben: die Domestizierung
von Tieren und Pflanzen, die Sesshaftigkeit der
Bauern (Nomadismus auf Viehhaltung basierender Kulturen),
die Verbreitung geschliffener Steingeräte (Steinbeile,
Dexel), sowie Ausweitung des Gebrauchs von
Gefäßen aus Keramik (siehe [WD17e]). Eine Zuordnung
des Beginns dieser Phase in absoluten Zahlen ist aufgrund
der regionalen Zeitverschiebungen im Auftreten
der Phänomene schwankend, frühestens beginnend mit
ca. -11.5 Ka.

F. Anthropozän

Aufgrund der immer stärker werdenden Einwirkung
des Menschen auf die Lebensbedingungen der Erde,
wird diskutiert, ob man die Zeit ab der Englischen
Industriellen Revolution als Anthropozän bezeichnen
sollte (siehe: [WD17b]). Es gibt sehr viele Indikatoren,
die solch eine neue Gliederung nahe legen, allerdings
konnte man sich noch nicht auf einen Anfangszeitpunkt
einigen; mehrere Szenarien stehen zur Auswahl.

G. Chronometrie

Wie aus den vorausgehenden Abschnitten deutlich
werden kann, lassen sich mittels der Stratigraphie
und gut gewählter Kriterien räumlich und zeitlich
abgrenzbare Phasen/ Perioden herausheben, diese
dann benennen, um auf diese Weise eine erste
geologisch motivierte Struktur zu bekommen, an die
sich weitere archäologische Kriterien anbinden lassen.
Will man nun diese relativen Zuordnungen mit
absoluten Zeitangaben verknüpfen (Chronometrie),
dann benötigt man dazu einen Zeitstrahl, der Uhren
voraussetzt, d.h. Prozesse, die hinreichend regelmäßig
in gleichen Abständen Ereignisse erzeugen, die man
abzählen kann.

Wagner beschreibt eine Reihe von solchen ’Uhren’,
auf die die Archäologie zurückgreifen kann; manche
sind recht neuen Datums (siehe: [Wag07]:SS.207ff).
Anhaltspunkte sind z.B. jahreszeitliche Wechsel,
Klimaänderungen, Baumringe (Dendrologie),
Sedimentablagerungen (Warvenchronologie), Eiskerne,
astronomische gesteuerte Ereignisse (wie jene, die
durch die Milanković-Zyklen hervorgerufen werden), Magnetismus, und Eigenschaften der Radioaktivität.

Da die Energiebilanz auf der Erdoberfläche zu
mehr als 99.9% von der Sonneneinstrahlung gespeist
wird, kommt den Parametern Neigung der Erdachse,
Rotationsgeschwindigkeit sowie Erdumlaufbahn
eine fundamentale Bedeutung zu. Schon geringe
Schwankungen hier können zu weitreichenden
Klimaänderungen führen (Stichwort: Milanković-
Zyklen)(siehe: [Wag07]:S.216 und [WD17g]). Da sich die
astronomischen Verhältnisse ziemlich genau berechnen
lassen, kann man die Annahmen des Milanković-
Zusammenhangs direkt experimentell an messbaren
Energiesignalen in den Ablagerungen überprüfen. Die
Autoren Zöller, Urban und Hambach zeigen auf, wie man
die Klimasignale in Meeressedimenten, Lössschichten
und Eisbohrkernen mit den berechneten astronomischen
Parametern korrelieren kann (siehe: [ZUH07], hier z.B.
die Tabelle auf S.87). Auf der Basis dieser ca. 50
globalen Warm- und Kaltzeiten in der Zeit ab ca. -2.5
Ma kann man dann ein Gerüst aufbauen, das mit
absoluten Zahlen versehen werden kann (siehe aber
auch hier [WD17g]).

Aus Stratigraphie und Chronometrie
kommt man damit zu einer Chronologie (Terminologie
von Wagner [Wag07]:S.207). Zu den Forschungen
zur Chronometrisierung von Eiszeiten siehe auch den
ausführlichen Artikel von Masson et al. [MDSP10].

III. PALÄONTOLOGIE UND PALÄOBIOLOGIE

Während im vorigen Blogbeitrag [DH17d] auf eine
Vielfalt von Disziplinen hingewiesen worden ist, die bei
der Analyse der biologischen Entwicklungsprozesse
involviert sind, soll hier das Augenmerk nur auf die
beiden Disziplinen Paläontologie und Paläobiologie
gelegt werden.

Wie Robert Foley herausarbeitet (siehe: [Fol98]),
brauchen beide Disziplinen einander. Die Paläobiologie
kann mittels molekularbiologischer und genetischer
Methoden die Abhängigkeitsbeziehungen zwischen
verschiedenen Lebensformen immer genauer
bestimmen, so genau, wie es die Paläontologie niemals
kann, aber die Paläobiologie kann dafür nicht die
Kontexte der Gene, die begleitenden geologischen,
sozialen, technologischen und sonstigen Elemente
erfassen; dies kann nur die Paläontologie.

Dieses Zusammenspiel demonstriert Foley am
Beispiel der Diskussion um die Abstammungslinien
der Gattung homo. Während die Vielfalt der
paläontologischen Funde viele mögliche Hypothesen
über Abstammungsverhältnisse ermöglichten, konnten
paläobiologische Untersuchungen aufzeigen, dass es
(i) aufgrund der ersten Auswanderungswelle aus Afrika
(ab ca. -1.6 Ma) viele Besiedlungsprozesse in Europa
und Asien gab, dass aber (ii) diese Lebensformen
keine genetischen Austauschverhältnisse mit dem
homo sapiens eingegangen sind, der in einer zweiten
Auswanderungswelle ab ca. -100 Ka von Afrika aus
über Arabien ca. -70 Ka nach Asien vordrang und erst
ab ca. -40 Ka nach Europa kam. (iii) Speziell zum
Neandertaler, der seit ca. -200 Ka vor allem in Europa
auftrat lässt sich sagen, dass es keine nennenswerten
Genaustausch gab. Außerdem zeigte sich (iv), dass der
Genpool aller neuen Lebensformen außerhalb von Afrika
verglichen mit dem Genpool afrikanischer Lebensformen
sehr eng ist. Daraus wird gefolgert, dass alle bekannten
Lebensformen von einer sehr kleinen homo sapiens
Population in Afrika abstammen müssen.(Vgl. zu allem
[Fol98]).

IV. ABSTAMMUNGSLINIEN

Die von Foley angesprochene Methodenproblematik
der Paläontologie wird von den Autoren Hardt und Henke
in ihrer Untersuchung zur ”Stammesgeschichtlichen
Stellung des Homo heidelbergensis” (siehe: [HH07]) sehr
ausführlich am Beispiel der Klassifizierungsgeschichte
des Fundes homo heidelbergensis in Mauer diskutiert.
Die Paläontologischen Deutungsversuche waren bis
in die Mitte des 20.Jahrhunderts gekennzeichnet von
einer gewissen (unwissenschaftlichen) Beliebigkeit,
die keine wirklichen Prinzipien erkennen ließ.

Das Klassifizierungssystem von Carl von Linné (1707 –
1778) mit Art (species), Gattung (genus), Ordnung
(ordo) und Klasse (classis) ist rein begrifflich-logisch
eine Sache, diese Konzepte aber konsistent mit
empirischen Merkmalen zu assoziieren, eine andere.
Bis in die 60er und 70er Jahre des 20.Jahrhunderts
hielt man z.B. an der Interpretation fest, dass es eine
Abfolge gibt von h.africanus zu h.habilis zu h.erectus
zu h.sapiens (siehe: [HH07]:S.188). Die Vermehrung
der Funde weltweit, die Zunahme von Varianten,
das Feststellen von Ähnlichkeiten und Unterschieden
dort, wo sie nach den bisherigen Interpretationen
nicht hätten vorkommen sollen, die zunehmende
Verbesserungen der Methoden, die Steigerung der
Präzision, die Einbeziehung der Paläobiologie, dies alles (und mehr)
führte zu mehrfachen Erschütterungen der bisherigen
Interpretationsansätze. Eines der Ergebnisse war,
dass homo erectus keine valide europäische Spezies
(Art) war. (siehe: [HH07]:S.192). Auch wurde klar,
dass alle bekannten Arten sich auf einen Ursprung
in Afrika zurückführen lassen, wenngleich in zwei
unterschiedlichen Auswanderungswellen: eine um -1.8
Ma und eine viel spätere um -100 Ka mit dem homo
sapiens. Die Nachfahren der ersten Out-of-Afrika Welle
haben sich mit den Nachfahren der zweiten Out-of-Afrika
Welle genetisch nicht vermischt (siehe: [HH07]:S.192f).

Wie nun die modernen Einordnungsversuche zum
homo heidelbergensis zeigen (siehe den Überblick bei
[HH07]:SS.200ff)), gibt es bislang vier große Szenarien,
zwischen denen eindeutig zu entscheiden, noch nicht
mit letzter Eindeutigkeit möglich ist.

Das Thema der wachsenden Vielfalt (Diversität)
der entdeckten Lebensformen und das Problem ihrer
Einordnung wird bei Foley intensiv diskutiert (siehe
[Fol10]). Angesichts der Zunahme der Funde zum
Stamm der hominini (Pan (Schimpansen) und homo
(Menschen)) thematisiert Foley gezielt das Problem
der Klassifizierung von Funden mit dem Modell der
’Art’ (Spezies), da die Vielfalt der möglichen Kriterien
einerseits und der bisweilen fließende Übergang von
Formen im Rahmen einer evolutiven Entwicklung klare
Grenzziehungen schwer bis unmöglich machen. Foley
plädiert daher dafür, den Art-Begriff nicht absolut
zu sehen sondern als ein analytisches Werkzeug
[Fol10]:S.71.

Eine Grundeinsicht in all der aktuellen Vielfalt ist allerdings
(sowohl im Licht der Paläontologie wie auch der
Paläobiologie), dass nicht nur der Stamm der hominini
auf einen rein afrikanischen Ursprung hindeutet, sondern
auch die überwältigende Mehrheit der Primatengattungen
[Fol10]:S.69.

V. GEHIRNVOLUMEN

Anwachsen der Gehirnvolumen mit Daten vonStorch et.al sowie Foley

Bild 1: Anwachsen der Gehirnvolumen (cm^3) mit Daten von Storch et.al (2013) sowie Foley (2010)

Ein interessantes Detail ist der Zuwachs des Gehirnvolumens
von ca. 320 – 380 cm^3 bis dann ca. 1000 –
1700 cm^3 im Zeitraum von ca. -7.2 Ma bis zu ersten
Funden des homo sapiens (siehe: [SWW13]:S.474). Man
beachte dabei, dass die Gehirnvolumina in der Auflistung
von [SWW13]:S.474 nicht relativ zum Körpergewicht
gewichtet sind. Für die Zeitachse wurden außerdem nicht alle
verfügbaren Daten aufgetragen, sondern anhand der
Liste von Foley [Fol10]:S.70f nur jeweils das zeitlich
erste Auftreten. Die Kurve im Bild 1 zeigt, wie das
Gehirnvolumen immer steiler ansteigt (bisher). Diese Volumenangaben
streuen jedoch sehr stark (bis zu 50% Abweichung vom Mittelwert).

VI. WISSENSCHAFTSPHILOSOPHISCHES

Wie sich in den vorausgehenden Diskussionen andeutet,
repräsentieren die Paradigmen von Paläontologie
und Paläobiologie zwei eigenständige Methodenbündel,
die ihre volle Leistung aber erst in einem gemeinsamen
Rahmen entfalten, in dem ihre individuellen
Daten in einen übergeordneten Zusammenhang – auf
einer Metaebene – zusammengebaut werden. Weder die
Paläontologie für sich noch die Paläobiologie für sich
bieten solch eine Metaebene explizit an. Im Interesse
der Sache wäre es aber gut, wenn das Zusammenspiel
beider Methodenbündel in einem gemeinsamen theoretischen
Rahmen explizit möglich wäre. Wie könnte dies
geschehen?

A. Ein Theorieschema für Paläontologie mit Paläobiologie

Im Rahmen eines Theorieprojektes, bei dem cagent
beteiligt ist (siehe: [DH17b]) wird gezeigt, wie man
im Rahmen der Vorgehensweise des allgemeinen
Systems Engineerings das Verhalten von Menschen in
Aufgabenkontexten theoretisch beschreiben kann. Die
Details finden sich in dem Abschnitt, der üblicherweise
als ’Mensch-Maschine Interaktion’ bezeichnet wird (EN:
’Human-Machine Interaction (HMI)) (siehe: [DH17a]).

Die beiden Grundkonzepte dort sind ’Userstory
(US)’ und ’Usermodel (UM)’. In der Userstory wird das
Verhalten von Akteuren beschrieben (Menschen oder
geeignete Maschinen (Roboter…), die eine Reihe von
Aufgaben in einer definierten Umgebung abarbeiten.
Diese Darstellung ist rein ’beobachtend’, sprich: wird
aus einer ’Dritten-Person-Perspektive’ (EN: ’3rd Person
View’) vorgenommen. Die inneren Zustände der
beteiligten Personen bleiben unbekannt (Akteure als
’black boxes’). Will man innere Zustände dieser Akteure
beschreiben, dann bedeutet dies, dass man Annahmen
(Hypothesen) über die inneren Zustände samt ihren
Wechselwirkungen treffen muss. Dies entspricht der
Konstruktion einer Verhaltensfunktion Φ#, die beschreibt,
wie die angenommenen ’Input-Ereignisse (I)’ des
Akteurs in die angenommenen ’Output-Ereignisse (O)’
des Akteurs abgebildet werden, also # Φ: I O.
Solch eine hypothetische Verhaltensfunktion ist Teil
einer umfassenden Struktur <I, O, Φ>. Diese Struktur
stellt einen minimalen Theoriekern dar, in den die
hypothetische Verhaltensfunktion Φ eingebettet ist. Wie
man diesen Theoriekern mit der Verhaltensfunktion im
einzelnen ausfüllt, ist im allgemeinen Fall beliebig. Die
einzige Anforderung, die erfüllt werden muss, besteht
darin, dass die Abfolge der Input-Output-Ereignisse
{(i1; o1), …} der Theorie mit der vorgegebenen Userstory
übereinstimmen muss. Darin drückt sich aus, dass die
Userstory aus Sicht des Usermodells den vorgegebene
Kontext darstellt, analog zur Erde als vorgegebenem
Kontext zu den biologischen Systemen.

Angewendet auf den Ausgangsfall Paläontologie und
Paläobiologie bedeutet dies, man kann die Paläontologie
aus Sicht einer Metatheorie verstehen als eine Userstory,
in der alle Rahmenbedingungen fixiert werden, die man
empirisch fassen kann; die verschiedenen biologischen
Systeme sind dann die identifizierten Akteure, für
die man jeweils Usermodelle konstruieren könnte,
die das Verhalten dieser Akteure in der definierten
Userstory beschreiben. Hier käme die Paläobiologie
ins Spiel, die durch Annahmen über das Genom
und Annahmen über ursächliche Zusammenhänge
zwischen Genom einerseits und Körperbau und
Verhalten andererseits, Beiträge für eine mögliche
Verhaltensfunktion leisten kann. Dazu kämen auch noch
die Vergleiche zwischen den verschiedenen Genomen
bzw. zwischen den verschiedenen Verhaltensfunktionen,
die auf Abhängigkeitsbeziehungen schließen lassen
würden.

Aufgrund der großen Komplexität sowohl bei der
Erstellung der Userstory wie auch der verschiedenen
Usermodelle werden alle dieser Modelle natürlich nur
Annäherungen sein können. Die heute angewendeten Modelle
sind allerdings auch nur Annäherungen, ihnen fehlen
allerdings nahezu alle formalen Eigenschaften, die sie
zu theoretischen Strukturen im Sinne einer empirischen
Theorie machen würden.

B. Simulationsmodelle für Paläontologie mit Paläobiologie

Sofern man sich auf das obige wissenschaftsphilosophisch
motivierte Theorieparadigma einlassen würde, würde sich
relativ schnell ein rein praktisches
Problem ergeben. Schon das Hinschreiben einfacher
Userstories und insbesondere Usermodelle führt sehr
schnell zu einem großen Schreibaufwand. Dieser
immer größere Schreib- und dann auch Lese- und
Ausführungsaufwand verlangt ziemlich direkt nach
computergestützten Verfahren der Simulation.
Dazu bräuchte man mindestens zwei Computerprogramme:
eines, durch das die Eigenschaften und die
Dynamik der Userstory simuliert würden, ein anderes
für die verschiedenen Usermodelle.
Ganz konkret bieten sich für diese Anforderungen
eine Unzahl möglicher Softwareumgebungen an. Für
den Neustart des ’Emerging Mind Projektes’ des INM
ab September 2017 (siehe: [DH17c]) wird zur Zeit mit
folgender Software und Hardware geplant:

  1. Für schnelle, kleine Modellierung wird sowohl das
    freie Mathematikpaket ’scilab’ benutzt (scilab.org)
    wie auch das freie Kreativprogramm ’processing’
    (processing.org).
  2. Für komplexe Anwendung mit Anspruch auf einen
    realistischen Einsatz auch in der realen Welt mit
    realen Robotern wird das Betriebssystem ’ubuntu’
    (ubuntu.com) benutzt und dazu die Middleware
    ’ROS (:= Robotic Operating System)(ros.org).
  3. Als Hardware kann dazu nahezu alles benutzt werden,
    was es gibt, auch eher ältere Geräte. Dies ist
    für Anwendungen im Bereich Schulen (und auch
    Hochschulen) sehr günstig, da es hier meist an
    Geld mangelt (trotz aller Schönwetterparolen der
    Deutschen Politiker).

REFERENCES

  • [DH17a] Gerd Doeben-Henisch. Approaching Hmi. Pages 1–nn, July 2017. Journal: UFFMM, URL: https://uffmm.org/2017/08/03/approaching-hmi/.
  • [DH17b] Gerd Doeben-Henisch. Bootstrapping main concepts, pages 1–nn, July 2017. Journal: UFFMM , URL: uffmm.org.
  • [DH17c] Gerd Doeben-Henisch. Emerging Mind Projekt, pages 1–nn, Sept 2017. Project: INM-EMP, URL: https://www.emerging-mind.org.
  • [DH17d] Gerd Doeben-Henisch. Menschenbild. Vorgeschichte bis zum homo sapiens. Überlegungen Philosophie Jetzt, ISSN 2365-5062, URL: cognitiveagent.org.
  • [Fol98] Robert Foley. The context of human genetic evolution, (8):339–347, 1998. Journal: Genom Research (GR).
  • [Fol10] Robert Foley. Species diversity in human evolution: challenges and opportunities, (60):62–72, 2010. Journal: Transactions of the Royal Society of South Africa, URL: http://dx.doi.org/10.1080/00359190509520479.
  • [HH07] Thorolf Hardt and Winfried Henke. Zur stammesgeschichtlichen Stellung des Homo heidelbergensis, In Günther A. Wagner, Hermann Rieder, Ludwig Zöller, Erich Mick (Hg.), Homo heidelbergensis. Schlüsselfund der Menschheitsgeschichte, SS. 184–202. Konrad Theiss Verlag, Stuttgart, 2007.
  • [MDSP10] V. Masson-Delmotte, B. Stenni, K. et.al., Pol. Epica dome c record of glacial and interglacial intensities, (29):113–128, 2010. Journal: Quaternary Science Reviews, URL: doi:10.1016/j.quascirev.2009.09.030.
  • [SWW13] Volker Storch, Ulrich Welsch, Michael Wink, (Hg.) Evolutionsbiologie, Springer-Verlag, Berlin – Heidelberg, 3.Aufl., 2013.
  • [Wag07] Günther A. Wagner. Altersbestimmung: Der lange Atem der Menschwerdung, In Günther A. Wagner, Hermann Rieder, Ludwig Zöller, Erich Mick (Hg.), Homo heidelbergensis. Schlüsselfund der Menschheitsgeschichte, SS. 203 -225. Konrad Theiss Verlag, Stuttgart, 2007.
  • [WD17a] Wikipedia-DE. Altpaläolithikum. 2017.
  • [WD17b] Wikipedia-DE. AnthropozÄn. 2017.
  • [WD17c] Wikipedia-DE. Epipaläolithikum. 2017.
  • [WD17d] Wikipedia-DE. HolozÄn. 2017.
  • [WD17e] Wikipedia-DE. Jungsteinzeit. 2017.
  • [WD17f] Wikipedia-DE. Mesolithikum. 2017.
  • [WD17g] Wikipedia-DE. Milanković-Zyklen. 2017.
  • [ZUH07] Ludwig Zöller, Brigitte Urban, Ulrich Hambach. Klima und Umweltveränderungen während des Eiszeitalters, In Günther A. Wagner, Hermann Rieder, Ludwig Zöller, Erich Mick (Hg.), Homo heidelbergensis. Schlüsselfund der Menschheitsgeschichte, SS. 84–112. Konrad Theiss Verlag, Stuttgart, 2007.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

EARTH 2117 – ERDE 2117 – Erste Gedanken – Simupedia für alle?

KONTEXT

  1. Wie man als Leser des Blogs bemerken kann, fokussiert sich der Blog zur Zeit hauptsächlich auf drei Themenfelder: (i) Die Frage nach der technischen Superintelligenz (TSI); (ii) die Frage nach dem, was der Mensch ist bzw. werden kann, mit der speziellen Teilfrage nach der mystischen Erfahrung (gibt es die? Was sagt dies über den Menschen und die Welt?); sowie (iii) die Frage nach dem möglichen Zustand der Erde im Jahr 2117. Die Zahl 2117 ergab sich u.a. aus den aktuellen Prognosen, zu welchem Zeitpunkt Experten das Auftreten einer technischen Superintelligenz für hoch wahrscheinlich halten. Zu diesen drei Themenfeldern kommen dann noch die möglichen Wechselwirkungen zwischen (i), (ii) und (iii). Andere Themen sind grundsätzlich nicht ausgeschlossen, sind aber bis auf weiteres Nebenthemen.

PROGNOSEN GENERELL

  1. Die Frage nach dem möglichen Zustand der Erde setzt voraus, dass wir den Zustand der Erde als veränderlich ansehen, dass es ein Jetzt gibt, und dass es im jeweiligen Jetzt die Möglichkeit gibt, dass sich Eigenschaften der Erde im Jetzt so verändern, dass es zu einem nachfolgenden Jetzt andere Eigenschaften gibt als beim vorausgehenden Jetzt.

DER MENSCH UND DIE ZEIT

  1. Auf Seiten des Menschen ist es die Erinnerungsfähigkeit, die den Menschen in die Lage versetzt, zwischen einem aktuellen Jetzt und einem vorausgehenden Jetzt zu unterscheiden. Auf Seiten des Menschen sind es weitere kognitive Fähigkeiten, die den Menschen in die Lage versetzen, am Wahrgenommenen und Erinnerten kognitive Eigenschaften zu erfassen (durch Abstrahieren, Klassifizieren, Vergleichen usw.) mit denen sich kognitiv Veränderungen identifizieren lassen. Mittels solcher identifizierten kognitiven Konzepten der Veränderung kann der Mensch von angenommenen (kognitiven) Zuständen auf mögliche (kognitive) Zustände mittels der angenommenen Veränderungskonzepte schließen. Der Mensch ist also grundsätzlich in der Lage, aufgrund von Erfahrungen aus der Vergangenheit im Vergleich zur Gegenwart mögliche Veränderungen zu erschließen, die dann wiederum genutzt werden können, mögliche Zukünfte zu denken.
  2. Natürlich hängt die Qualität solche Hochrechnungen entscheidend davon ab, wie wirklichkeitsnah die Erfahrungen aus der Vergangenheit sind, die Art der Erinnerungen, die möglichen Denkoperationen des Selektierens, Abstrahierens, Vergleichens usw. Wie gut mögliche Veränderungen erfasst wurden, einschließlich der möglichen Wechselwirkungen zwischen unterschiedlichen Faktoren.

TECHNISCHE HILFSMITTEL: COMPUTER

  1. Wie der Gang der Wissenschaften und der Technologie uns zeigen kann, können solche möglichen Hochrechnungen deutlich verbessert werden, wenn der Mensch für diese (kognitiven) Denkleistungen als Hilfsmittel formalisierte Sprachen benutzt und Computer, die mittels Algorithmen bestimmte Denkoperationen des Menschen modellhaft nachvollziehen können. Statt also per Hand auf dem Papier umfangreiche Rechnungen viele tausend Male selbst vorzunehmen (wozu in der Realität dann sehr schnell einfach die Zeit und Arbeitskraft fehlt), schreibt man einen Algorithmus (= Programm, Software), der diese Rechnungen für das Arbeiten eines Computers übersetzt und die Maschine dann die Rechnungen automatisch (= maschinell) machen lässt.

BEGRIFF DER ZEIT

  1. Ein nicht unwesentlicher Faktor in diesen Überlegungen zu möglichen Zukünften ist der Begriff der Zeit.
  2. Der Begriff der Zeit ist viel schillernd und je nach Kontext kann er etwas ganz Verschiedenes bedeuten.
  3. Im Kontext des menschlichen Denkens haben wir die grundsätzliche Unterscheidung zwischen dem aktuellen Jetzt und dem vorausgehenden Jetzt in Form von verfügbaren Erinnerungen. Dazu kommen dann mögliche Jetzte aufgrund der Möglichkeit, im (kognitiven) Denken mittels dem (kognitiven) Konzept von Veränderung, aus der Vergangenheit und der Gegenwart denkbare (= mögliche) neue Zustände zu berechnen (zu denken, vorzustellen, …). Im Denken sind diese möglichen Zustände rein gedacht (virtuell), aber, sofern sie genügend nahe an der empirischen Wirklichkeit sind, könnten diese möglichen Zustände real werden, d.h. Zu einem neuen aktuellen Jetzt.

UHREN-MASCHINEN

  1. Um das Reden über diese unterschiedliche Formen von Jetzten zu vereinfachen, wurde sehr früh das Hilfsmittel der Uhr eingeführt: die Uhr ist eine Maschine, die periodisch Uhren-Ereignisse erzeugt, denen man Zahlzeichen zuordnen kann, also z.B. 1, 2, 3, … Es hat sich dann eingebürgert, ein Zeitsystem zu vereinbaren, bei dem man Jahre unterscheidet, darin 12 Monate, darin Wochen, darin 7 Wochentage, darin 24 Stunden pro Tag, darin 60 Minuten pro Stunde, darin 60 Sekunden pro Minute, und noch feinere Unterteilungen.
  2. Nimmt man an, dass eine Uhren-Maschine periodisch Sekunden erzeugt, dann würde jede Sekunde ein Ereignis angezeigt, dem dann nach 60 Sekunden eine Minute entsprechend würde, 60 Minuten dann eine Stunde, usw.
  3. Sofern man dann noch das praktische Problem lösen kann, wie die Uhren-Maschinen überall auf der Erde die gleiche Zeit anzeigen, und man einen gemeinsamen Referenzpunkt für den Beginn der Zeitrechnung hat, dann könnten alle Menschen nach der gleichen Zeitgebung leben.
  4. Unter Voraussetzung solcher einer Technologie der Zeiterzeugung könnte man dann abstrakt immer von definierten Zeitpunkten in diesem vereinbarten Zeitsystem sprechen.

(TECHNISCHE) SIMULATION

  1. Verfügt man über Computer und Zeit-Maschinen, dann kann man den Computer dazu nutzen, im Raum von definierten Zeitpunkten Hochrechnungen vorzunehmen. Man definiert Ausgangssituationen zu bestimmten Zeitpunkten (die Startzeit), man definiert angenommene mögliche Veränderungen in der Zeit, die man dann in Form eines Algorithmus aufschreibt, und dann lässt man den Computer für einen gewünschten Zeitraum ausrechnen, welche Veränderungen sich ergeben.
  2. Will man z.B. errechnen, wie sich die Bevölkerungszahl in einer bestimmten Population im Laufe von 10 Jahren berechnen, und man weiß aufgrund der Vergangenheit, wie hoch die durchschnittlichen Geburten- und Sterberaten für ein Jahr waren, dann kann man die Veränderungen von Jahr 1 zu Jahr 2 berechnen, dann wieder von Jahr 2 zu Jahr 3, usw. bis man das Zieljahr erreicht hat.
  3. Diese Rechnungen sind natürlich nur solange genau, wie sich die Geburten- und Sterberaten in diesem angenommenen Zeitraum nicht verändern. Wie wir aus der Geschichte wissen können, gibt es zahllose Faktoren, die auftreten können (Hunger, Krankheit, Kriege, …), die eine Veränderung mit sich bringen würden.
  4. Ferner sind Populationen immer seltener isoliert. Der Austausch zwischen Populationen nimmt heute immer mehr zu. Eine ganz normale Gemeinde im Kreis Offenbach (Land Hessen, Deutschland) kann z.B. eine Migrationsrate von 15% pro Jahr haben (Menschen die wegziehen oder herziehen), bei einer Geburtenrate von 0,7% und einer Sterberate von 0,8%. Die Größe einer Population hängt dann weniger vom Geborenwerden und Sterben ab, sondern von Standortfaktoren wie Verfügbarkeit von Arbeit, Höhe der Mietpreise, Verkehrsanbindung, Qualität der Schulen, ärztliche Versorgung usw.

DIE ERDE

  1. Will man nun die Erde als ganze betrachten, und hat man sowohl ein vereinbartes Zeitsystem zur Verfügung basierend auf einer gemeinsamen globalen Uhren-Technologie, wie auch Computer, die geeignete Algorithmen ausführen können, dann braucht man ’nur noch‘ (i) hinreichend gute Beschreibungen des Zustands der Erde jetzt, (Daten IST) (ii) von möglichst vielen Zuständen in der Vergangenheit (DATEN VORHER), und (iii) von möglichst allen wichtigen wirkenden Veränderungen zwischen diesen Zuständen (VREGELN). Unter der Annahme, dass alle diese Daten und Veränderungsregeln hinreichend realistisch sind, kann man dann Hochrechnungen für angenommene Zeiträume machen. In unserem Fall von 2017 bis 2117.
  2. Da schon das kleine Beispiel einer winzigen Gemeinde in Deutschland leicht erkennen lässt, wie fragil viele erkannten Veränderungsregeln sind, kann man vermuten, dass dies auf ein so komplexes System wie die ganze Erde sicher auch zutreffen wird.
  3. Betrachten wir ein paar (stark vereinfachte, idealisierte) Beispiele.
  4. Ganz allgemein gehen wir aus von einer globalen Veränderungsregel V_erde für die Erde, die den Zustand der Erde im Jahr 2017 (ERDE_2017) hochrechnen soll auf den Zustand der Erde im Jahr 2117 (ERDE_2117), als Abbildung geschrieben: V_erde : ERDE_2017 —> ERDE_2117.
  5. Der Zustand der Erde im Jahr 2017 (ERDE_2017) setzt sich zusammen aus einer ganzen Menge von Eigenschaften, die den Zustand charakterisieren. Abstrakt könnten wir sagen, die Erde besteht zu jedem Zeitpunkt aus einer Menge charakteristischer Eigenschaften Ei (ERDE_Zeit = <E1, E2, …, En>), und je nachdem, welche Veränderungen zwischen zwei Zeitpunkten stattgefunden haben, verändern sich in dieser Zeitspanne bestimmte Eigenschaften Ei.
  6. Beispiele für solche charakteristischen Eigenschaften Ei könnten sein das Klima (E_Klima), das wiederum selbst in unterscheidbare Eigenschaften zerfällt wie z.B. die durchschnittliche Sonneneinstrahlung, Beschaffenheit der Atmosphäre, Niederschlagsmenge, Wassertemperatur der Ozeane, Verdunstungsgrad des Wassers, usw. Zusammenhängend damit kann von Bedeutung sein die Bodenbeschaffenheit, verfügbare Anbauflächen, Pflanzenwachstum, mögliche Ernten, usw. Dazu wichtig die Verteilung der biologischen Populationen, deren Nahrungsbedarf, die Wechselwirkung zwischen Populationen und Pflanzenwachstum, usw. Hier fällt einem sofort auch die Frage der Lagerung von Nahrungsmitteln auf, deren Verarbeitung und Transport, deren Verteilung und deren Marktpreise.
  7. Schon diese sehr kleine Liste von Eigenschaften und angedeuteten Wechselwirkungen lassen erahnen, wie unterschiedlich mögliche Verläufe der Veränderungen in der Zukunft sein können. Von Heute aus gesehen gibt es also nie nur eine Zukunft, sondern sehr, sehr viele mögliche Zukünfte. Welche der vielen möglichen Zukünfte tatsächlich eintreten wird, hängt von vielen Faktoren ab, nicht zuletzt auch vom Verhalten der Menschen selbst, also von uns, von jedem von uns. (An diesem Punkt lügt die deutsche Sprache! Sie spricht nur von einer Zukunft im Singular (in der Einzahl), in Wahrheit sind es sehr viele und wir können mit bewirken, welche der vielen Zukünfte eintreten wird).

WARUM ÜBER ZUKUNFT SPEKULIEREN?

  1. Angesichts so vieler Unwägbarkeiten hört man oft von Menschen (speziell auch von Politikern!), dass Versuche der Hochrechnungen (= Simulation) auf mögliche Zukünfte sinnlos seien; eine unnötige Verschwendung von Zeit und damit Ressourcen.
  2. Auf den ersten Blick mag dies tatsächlich so erscheinen. Aber nur auf den ersten Blick.
  3. Der Wert von solchen Modellrechnungen über mögliche Zukünfte liegt weniger im Detail der Endergebnisse, sondern im Erkenntniswert, der dadurch entsteht, dass man überhaupt versucht, wirkende Faktoren und deren Wechselwirkungen mit Blick auf mögliche Veränderungen zu erfassen.
  4. Wie oft hört man Klagen von Menschen und Politikern über mögliche gesellschaftliche Missstände (keine Maßnahmen gegen Autoabgase, falsche Finanzsysteme, falsche Verkehrspolitik, falsche Steuerpolitik, falsche Entwicklungspolitik, fragwürdige Arzneimittelmärkte, …). Vom Klagen alleine ändert sich aber nichts. Durch bloßes Klagen entsteht nicht automatisch ein besseres Verständnis der Zusammenhänge, der Wechselwirkungen. Durch bloßes Klagen gelangt man nicht zu verbesserten Modellvorstellungen, wie es denn überhaupt anders aussehen könnte.

SIMUPEDIA FÜR ALLE

  1. Was die Not zumindest ein wenig lindern könnte, das wären systematische (wissenschaftliche) Recherchen über alle Disziplinen hinweg, die in formalen Modellen aufbereitet werden und dann mittels Algorithmen getestet werden: Was wäre, wenn wir die Eigenschaften E1, …, En einfach mal ändern und hier und dort neue Wirkmechanismen (durch Bildung, durch Gesetze, …) ermöglichen würden? Das Ganze natürlich transparent, öffentlich nachvollziehbar, interaktiv für alle. Nicht nur ein ‚Wikipedia‘ der Texte, sondern zusätzlich  eine Art ‚Simupedia‘ der Simulationen für alle.

Interessante  Ergänzung zu diesen ersten Überlegungen finden sich in den folgenden Beiträgen:  EIN HOMO SAPIENS – VIELE BILDER. Welches ist wahr? ,   WAHRHEIT ALS UNABDINGBARER ROHSTOFF EINER KULTUR DER ZUKUNFTWENN PHILOSOPHISCHE SACHVERHALTE POLITISCH RELEVANT WERDEN  sowie ‚Informelle Kosmologie‘; hier der erste Teil mit einer Fortsetzung Teil 2 .

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

DONALD A.NORMAN, THINGS THAT MAKE US SMART – Teil 6

Diesem Beitrag ging voraus Teil 5.

BISHER
(ohne kritische Anmerkungen)

In den vorausgehenden Teilen wurden bislang zwei Aspekte sichtbar: einmal die ‚Menschenvergessenheit‘ in der Entwicklung und Nutzung von Technologie sowie die Einbeziehung von ‚wissensunterstützenden Dingen‘ sowohl außerhalb des Körpers (physisch) wie auch im Denken selber (kognitiv). Ferner hatte Norman die Vielfalt des Denkens auf zwei ‚Arbeitsweisen‘ reduziert: die ‚erfahrungsorientierte‘ Vorgehensweise, ohne explizite Reflexion (die aber über ‚Training‘ implizit in die Erfahrung eingegangen sein kann), und die ‚reflektierende‘ Vorgehensweise. Er unterschied ferner grob zwischen dem Sammeln (‚accretion‘) von Fakten, einer ‚Abstimmung‘ (‚tuning‘) der verschiedenen Parameter für ein reibungsloses Laufen, Schreiben, Sprechen, usw., und einer Restrukturierung (‚restructuring‘) vorhandener begrifflicher Konzepte. Ferner sieht er in der ‚Motivation‘ einen wichtigen Faktor. Diese Faktoren können ergänzt werden um Artefakte, die Denkprozesse unterstützen. In diesem Zusammenhang führt Norman die Begriffe ‚Repräsentation‘ und ‚Abstraktion‘ ein, ergänzt um ‚Symbol‘ (nicht sauber unterschieden von ‚Zeichen‘) und ‚Interpreter‘. Mit Hilfe von Abstraktionen und Symbolen können Repräsentationen von Objekten realisiert werden, die eine deutliche Verstärkung der kognitiven Fähigkeiten darstellen. Allerdings, und dies ist ein oft übersehener Umstand, durch die Benutzung eines Artefaktes werden nicht die kognitiven Eigenschaften des Benutzers als solchen geändert, sondern – bestenfalls – sein Zugang zum Problem. Wenn in einem solchen Fall zwischen den wahrnehmbaren Eigenschaften eines Artefakts und den korrelierenden ‚Zuständen‘ des Problems ein Zusammenhang nur schwer bis gar nicht erkennbar werden kann, dann führt dies zu Unklarheiten, Belastungen und Fehlern. Norman wiederholt dann die Feststellung, dass die Art wie das menschliche Gehirn ‚denkt‘ und wie Computer oder die mathematische Logik Probleme behandeln, grundlegend verschieden ist. Im Prinzip sind es drei Bereiche, in denen sich das Besondere des Menschen zeigt: (i) der hochkomplexe Körper, (ii) das hochkomplexe Gehirn im Körper, (iii) die Interaktions- und Kooperationsmöglichkeiten, die soziale Strukturen, Kultur und Technologie ermöglichen. Die Komplexität des Gehirns ist so groß, dass im gesamten bekannten Universum nichts Vergleichbares existiert. Mit Bezugnahme auf Mervin Donald (1991) macht Norman darauf aufmerksam dass die auffälligen Eigenschaften des Menschen auch einen entsprechenden evolutionären Entwicklungsprozess voraussetzen, innerhalb dessen sich die heutigen Eigenschaften schrittweise herausgebildet haben. Nach kurzen Bemerkungen zur Leistungsfähigkeit des Menschen schon mit wenig partiellen Informationen aufgrund seines Gedächtnisses Zusammenhänge erkennen zu können, was zugleich ein großes Fehlerrisiko birgt, Norman dann den Fokus auf die erstaunliche Fähigkeit des Menschen, mit großer Leichtigkeit komplexe Geschichten (’stories‘) erzeugen, erinnern, und verstehen zu können. Er erwähnt auch typische Fehler, die Menschen aufgrund ihrer kognitiven Struktur machen: Flüchtigkeitsfehler (’slips‘) und richtige Fehler (‚mistakes‘). Fehler erhöhen sich, wenn man nicht berücksichtigt, dass Menschen sich eher keine Details merken, sondern ‚wesentliche Sachverhalte‘ (’substance and meaning‘); wir können uns in der Regel nur auf eine einzige Sache konzentrieren, und hier nicht so sehr ‚kontinuierlich‘ sondern punktuell mit Blick auf stattfindende ‚Änderungen‘. Dementsprechend merken wir uns eher ‚Neuheiten‘ und weniger Wiederholungen von Bekanntem.(vgl. S.131) Ein anderes typisches Fehlerverhalten ist die Fixierung auf eine bestimmte Hypothese.

VERTEILTES WISSEN IN GETEILTEN SITUATIONEN

1) Am Beispiel von Flugzeugcockpits (Boeing vs. Airbus) und Leitständen großer technischer Anlagen illustriert Norman, wie eine durch die gemeinsam geteilte Situation gestützte Kommunikation alle Mitglieder eines Teams auf indirekte Verweise miteinander verbindet, sie kommunizieren und verstehen lässt. Ohne dass ausdrücklich etwas erklärt werden muss erlebt jeder durch die gemeinsame Situation Vorgänge, Vorgehensweisen, Zustände, kann so indirekt lernen und man kann sich indirekt wechselseitig kontrollieren. Im Allgemeinen sind diese indirekten Formen verteilten Wissens wenig erforscht. (vgl. SS.139-146)
2) Eine solche verteilte Intelligenz in einer realen Situation unter Benutzung realer Objekte hat einen wesentlichen Vorteil gegenüber einer rein simulierten Welt: die Benutzung realer Objekte ist eindeutig, auch wenn die begleitende Kommunikation vieldeutig sein mag.(vgl. S.146 -148)
3) In einer simulierten Situation muss man die impliziten Gesetze der realen Welt explizit programmieren. Das ist nicht nur sehr aufwendig, sondern entsprechend fehleranfällig. Eine Kommunikation wird vieldeutiger und damit schwieriger. (vgl. SS.148-151)

ZU VIEL DETAILS

4) Norman greift dann nochmals das Thema des unangemessenen, falschen Wissens auf mit Blick auf die Art und Weise, wie das menschliche Gedächtnis funktioniert. Am Beispiel der mündlichen Überlieferung die strukturell, typologisch vorging verweist er auf die heutige ‚Überlieferung‘ in Form von immer detaillierteren Texten, immer mehr technisch bedingten Details, die eigentlich unserer menschlichen Art des Erinnerns widersprechen. (vgl. SS.151-153)

ORGANISATION VON WISSEN

5) Auf den SS.155-184 diskutiert Norman anhand von Beispielen das Problem, wie man Wissen so anordnen sollte, dass man dann, wenn man etwas Bestimmtes braucht, dieses auch findet. Es ist ein Wechselspiel zwischen den Anforderungen einer Aufgabe, der Struktur des menschlichen Gedächtnisses sowie der Struktur der Ablage von Wissen.

DIE ZUKUNFT VORAUSSAGEN

6) Das folgende Kapitel (SS.185-219) steht unter der Hauptüberschrift, die Zukunft voraus zu sagen; tatsächlich enthält es auch eine ganze Reihe von anderen Themen, die sich nur sehr lose dem Thema zuordnen lassen.
7) Nach Norman ist es generell schwer bis unmöglich, die Zukunft vorauszusagen; zu viele Optionen stehen zur Verfügung. Andererseits brauchen wir Abschätzungen wahrscheinlicher Szenarien. (vgl. S.185f)
8) Als Begründung für seine skeptische These wählt er vier Beispiele aus der Vergangenheit (Privater Hubschrauber, Atomenergie, Computer, Telephon), anhand deren er das Versagen einer treffenden Prognose illustriert.(vgl.186-192) Der größte Schwachpunkt in allen Voraussagen betrifft den Bereich der sozialen Konsequenzen. Hier liegt überwiegend ein Totalversagen vor. Und er bemerkt, dass man den Ingenieuren zwar nicht vorwerfen kann, dass sie sich mit sozialen Folgen nicht auskennen, aber dass sie ihr Nichtwissen in diesem Bereich nicht ernst nehmen.(vgl. S.186).
9) Der andere Aspekt ist die Umsetzungsdauer von einer Idee bis zu einer verbreiteten alltäglichen Nutzung. Anhand von Beispielen (Fernsehen, Flugzeug, Fax) zeigt er auf, dass es zwischen 40 – 140 Jahren dauern konnte. denn neben der Idee selbst und einem arbeitsfähigen Prototypen muss ja der bestehende Alltag unterschiedlich weit ‚umgebaut‘ werden, evtl. müssen alte bestehende Strukturen (verbunden mit starken Interessen) durch neue ersetzt werden.(vgl. S.192-195)
10) [Anmerkung: Wir erleben z.B. seit den 60iger Jahren des 20.Jahrhunderts die Diskussion zur Frage erneuerbarer Energien, der eine bestehende Struktur von ölbasierten Technologien, Atomkraft, Kohle und Gas entgegen stehen, jeweils verbunden mit sehr starken ökonomischen und politischen Interessen.]
11) Er macht dann selber einige Voraussagen (Verfügbarkeit von digitaler Information, von hohen Bandbreiten, von noch mächtigeren immer kleineren Computern, von 3D-Ansichten unter Einbeziehung der eigenen Position, von elektronischen Publikationen, von mehr computergestütztem Lernen, noch raffiniertere Unterhaltung, von Videogesprächen im privaten Bereich, von mehr kollaborativen Arbeitsplätzen).(vgl. SS.195-201)
12) [Anmerkung: 20 Jahre später kann man sagen, dass alle diese Voraussagen entweder voll umgesetzt wurden oder wir dabei sind, sie umzusetzen.]
13) Norman spielt dann die möglichen sozialen Folgen von diesen neuen Technologien anhand von sehr vielen konkreten Beispielen durch. Ein Trend ist der zunehmende Ersatz des Menschen im Handeln durch künstliche Charaktere, was schließlich dazu führen kann, dass in der Öffentlichkeit dann nur noch die Software handelt, während die ‚realen‘ Menschen mehr und mehr aus der Öffentlichkeit verschwinden. (vgl. SS. 201-210)
14) [Anmerkung: Diese Art von Auswüchsen, wie sie Norman plastisch schildert, werden in immer mehr Science-Fiction Filmen thematisiert. Ein Beispiel war die 10-teilige Folge ‚Real Humans – Echte Menschen‘, eine schwedische Produktion, die von arte im Frühjahr 2013 gezeigt wurde. Darin wurde die Existenz von menschenähnlichen Robotern im alltäglichen Leben sehr konkret durchgespielt. Ein sehr ähnliches Thema hatte auch der Film Surrogates (2009), wenn auch mit einer anderen Rahmengeschichte. Es gibt hierzu zahllose weitere Beispiele.]

NEUROINTERFACE

15) Norman greift auch das Thema ‚Neurointerface‘ auf, eine direkte Verbindung des menschlichen Nervensystems mit einem Computer. (vgl. SS.210-214)

KOLLABORATIVE SOFTWARE

16) Natürlich wird die neue Technologie auch Auswirkungen für die Arbeit von sozialen Gruppen haben. Hier sieht er aber besonders viele Schwierigkeiten, da das Arbeiten in einer Gruppe besonders komplex ist und sensitiv für viele Faktoren. (vgl. SS. 214-217)

TRÄUMEN MACHT MEHR SPASS ALS REALE NUTZUNG

17) Abschließend bemerkt Norman noch, das der Hype um neue Technologien sich häufig an den visionären Szenarien entzündet; wenn es zur tatsächlichen Nutzung kommt, flaut dieser Hype sehr schnell wieder ab. (vgl. SS.217-219)
18) [Anmerkung: Die Themen zersplittern zunehmend. Dennoch stellen Sie allesamt wertvolle Erfahrungen und Einsichten dar. s wird Aufgabe der Schlussreflexion sein, die Vielfalt dieser Aspekte auszuwerten und für eine Gesamttheorie nutzbar zu machen.]

Fortsetzung folgt im Teil Teil 7

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

REDUKTIONISMUS, EMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 4

Vorausgehender Teil 3

NICHTVORAUSSAGBARKEIT DER WIRTSCHAFT

1. Im Kapitel ‚The Evolution of the Economy‘ (‚Die Evolution der Wirtschaft‘) (SS.150-176) beschreibt Kauffman, wie sich die bislang aufgefundenen Eigenschaften der Nichtergodizität und der Präadaptation auch im Bereich der Wirtschaft – bei ihm in Anlehnung an die ‚biosphere‘ ‚ecosphere‘ genannt – wiederfinden, mit allerlei Konsequenzen. Z.B. folgt aus der Annahme der Gültigkeit seiner Modellvorstellungen, dass eine Wirtschaft – in der Theorie – am besten gedeihen kann, wenn es eine möglichst große Vielfalt gibt. Denn dann ist die Chance zur Bildung neuer, innovativer – koevolutionärer – Lösungen am höchsten. Das System stimuliert sich dann quasi ’selbst‘, immer mehr. Zugleich folgt aus seinem Modell die prinzipielle Nichtvoraussagbarkeit der diversen Entwicklungen. (vgl.S.150f)
2. Als ein Beispiel für die Schwierigkeit der Voraussagbarkeit des wirtschaftlichen Geschehens und der Nichtreduzierbarkeit dieser Vorgänge auf die Physik führt Kauffman das berühmte Arrow-Debreu Modell des kompetitiven Gleichgewichts an (heute ein Kern der General equilibrium theory). Das Arrow-Debreu Modell wird bisweilen auch Arrow-Debreu-McKenzie Modell genannt, da neben Kenneth Arrow und Gérard Debreu später Lionel W.McKenzie einige Verbesserungen in das Modell eingebracht hatte.
3. Die Nichtreduzierbarkeit auf die Physik sieht Kauffman dadurch gegeben, dass die teilnehmenden Markt-Akteure u.a. auch mit ‚Werten‘ operieren, die sie den verschiedenen handelbaren Gütern zuordnen. Da nach Kauffman physikalische Modelle nur über reale Ereignisse in der realen Welt operieren können, folgt für ihn aus dieser Annahme die Nichtanwendbarkeit der Physik. (vgl. S.155) [Anmerkung: Wie schon früher angemerkt, hängt diese Schlussfolgerung an einer bestimmten Definition von Physik. Wenn man davon ausgeht, dass die Physik sich prinzipiell mit der ‚ganzen‘ Natur beschäftigt, dann würde sich die Physik – mit wachsenden Einsichten in die Besonderheiten der Welt – konzeptuell beständig weiter ausdehnen! Vom Selbstverständnis einer Physik her wären dann auch Akteure mit Werturteilen nicht notwendigerweise aus einer physikalischen Theoriebildung ausgeschlossen. Dann aber wären alle heute bekannten wissenschaftlichen Disziplinen nur ‚Spielarten‘ der einen Disziplin Physik. Das wirkt auch nicht sehr überzeugend. Hier stellt sich die wissenschaftstheoretische Frage nach der Abgrenzbarkeit der verschiedenen Disziplinen voneinander bzw. nach ihrer möglichen inhaltlichen Beziehung. Ich habe nicht den Eindruck, dass diese Frage bislang irgendwo nennenswert diskutiert wird. Aus ökonomischen und politischen Überlebensinteressen heraus erscheint eine erfolgreiche Abgrenzung meist erfolgversprechender als eine diffuse Vereinigung.]
4. Die Nichtanwendbarkeit der ökonomischen Modelle – und damit die Unmöglichkeit einer seriösen Voraussagbarkeit – sieht Kauffman sowohl in der Nichtvoraussagbarkeit der zu einem bestimmten Zeitpunkt tatsächlich vorhandenen Güter gegeben wie auch in der Nichtvoraussagbarkeit der zu einem bestimmten Zeitpunkt neu erfundenen Güter.(vgl. S.155) Der tiefere Grund scheint in der Unmöglichkeit zu liegen, den ökonomischen Entwicklungsprozess selbst zu modellieren.(vgl. S.156).
5. Kauffman erwähnt auch die Theorien game theory (‚Spieltheorie‘) und rational expectations (‚Rationale Erwartungen‘). In beiden Fällen sieht er eine Nichtanwendbarkeit in der Realität, da diese Theorien – wie schon im Falle der zuvor erwähnten Gleichgewichtstheorie – die zugrunde liegenden nicht voraussagbaren Entwicklungsprozesse weder beschreiben noch in Rechnung stellen können. (vgl. SS.156-158)
6. [Anmk: In der grundsätzlichen Kritik würde ich Kauffman zwar folgen, aber die Frage ist, ob man damit diesen verschiedenen Theoriebildungen gerecht wird. Insofern die genannten Theorien einen ‚totalen‘ Erklärungsanspruch erheben, muss man sie sicher kritisieren, da sonst falsche Erwartungen geweckt werden. Aber der Wert dieser Theorien liegt in der Praxis meist darin, dass die beteiligten Wissenschaftler mit Hilfe solcher Theorien (= Modellen) versuchen, ihr Verständnis der wirtschaftlichen Vorgänge zu klären und zu schärfen. Ohne solche Modelle gäbe es nur ein Grau-in-Grau von Datenfluten ohne erkennbare Strukturen. Mit solchen Modellen zeigen sich mögliche interessante Strukturen, die Anlass geben können, weiter zu denken. Und in allen drei Fällen kann man beobachten, wie diese Modellbildungen eine anhaltende Diskussion erzeugt haben und erzeugen, die zu immer weiteren Klärungen voranschreitet, einschließlich massiver Kritik, warum das Modell als Ganzes oder Teile davon nicht anwendbar sind. ]

WIRTSCHAFT UND AUTOKATALYSE

7. Nachdem Kauffman drei sehr prominente Modelle ökonomischen Geschehens in dem Punkt kritisiert hat, dass sie den allem Geschehen zugrunde liegende Prozess der Entwicklung nicht beschreiben, stellt er selbst ein Modell für solch einen Entwicklungsprozess vor. Dazu benutzt er wieder sein schon mehrfach zitiertes ‚autokatalytisches Modell‘. Die Kernidee ist ja, dass es zu einem bestimmten Zeitpunkt eine bestimmte Menge von Gütern und Akteuren gibt. Zu einem Gut gibt es entweder ein ‚komplimentäres‘ Gut (ein Auto benötigt Reifen, eine Innenausstattung, usw.) oder ein ’substituierendes‘ Gut (z.B. statt Dampfantrieb ein Elektroantrieb). Diese komplimentären und ersetzenden Möglichkeiten stehen ferner in Wechselwirkungen mit einem an Akteure gebundenen Bedarf, der seiner Natur nach in keiner Weise umfassend und erschöpfend beschrieben noch vorweg genommen werden. Man kann leicht sehen, wie diese wechselseitigen ‚Stimulationen‘ umso vielfältiger und intensiver sein können, als die aktuelle Menge an verfügbaren Gütern und erwartenden Akteuren größer und vielfältiger ist. Kauffman spricht hier von Ko-Konstruktionen bzw. Ko-Evolution. Und, so wenig dieser gesamte Prozess des sich wechselseitigen Stimulierens und Hervorbringens in irgend einer Weise voraussagbar ist, so wenig ist auch das erfinderische Verhalten der beteiligten Akteure, der Menschen, als solches voraussagbar. (SS.158-163)
8. Auf den Seiten 163-172 stellt Kauffman dann konkrete Simulationen vor, die mit Computerversionen des Modells gerechnet worden sind. Die Details spielen hier keine Rolle. Allerdings zeigt sich in diesen Simulationen, dass verschiedene Phänomene in diesem Modell einem ‚Potenzgesetz‘ (‚power law‘) folgen. Damit stellt er eine Verbindung her zum Modell der ’selbstorganisierenden Kritikalität‘ Self-organized criticality (SOC), das in der Physik entdeckt worden war zur Beschreibung komplexer Phänomene in der Natur. Er selbst konnte in Experimenten nachweisen, wie sich die Verteilung der Lebenszeit von Individuen oder die Verteilung von Aussterbensereignisse mit solch einem Modell beschreiben lassen.(vgl. S.172f) Das Modell der selbsorganisierenden Kritikalität lies sich auch anhand der Daten der Lebenszeit von Firmen nachweisen. (vgl.S.174)

GRENZEN VON COMPUTERMODELLEN ZUR VORAUSSAGE WIRTSCHAFTLICHER PROZESSE

9. Abschliessend zweifelt er daran, dass man mittels Computersimulationen wirtschaftliche Prozesse so simulieren könne, dass man daraus belastbare Vorhersagen für die Zukunft gewinnen könnte.(vgl.S.174) Nochmals zitiert er Gödel mit seinem Unvollständigkeitsbeweis und stellt mit Blick auf die ökonomischen Modelle fest, dass die Ergebnisse von Gödel im Falle der Ökonomie auf jeden Fall auch zutreffen.
10. [Anmk: Eine detaillierte Diskussion der verschiedenen von Kauffman zitierten Modelle und Theorien ist in dem hier gesetzten Rahmen einer ersten Besprechung nicht geeignet. In anderen Kontexten werde ich verschiedene dieser Modelle noch genauer untersuchen und dann bei Gelegenheit im Blog darüber berichten. Die grundsätzliche Stossrichtung der Argumentation erscheint mir aber plausibel und wichtig. In der Tat ist es die innere Logik des Prozesses selbst, die interessant ist und die daraus sich ergebende Nichtvoraussagbarkeit der nächsten Prozesschritte. Dennoch geschieht das Ganze nicht vollständig ‚planlos‘, was sich aus verschiedenen Voraussetzungen ergibt. Hier zeigt sich eine interessante Paradoxie, die weiter zu ergründen ist.]

Zur Fortsetzung siehe Teil 5

Eine Übersicht über alle bisherigen Einträge in den Blog nach Titeln findet sich HIER.

DIE UNBEGREIFBARKEIT DES MENSCHEN oder DAS GEHIRN ALS SPIEGEL DES UNIVERSUMS (wegen Providerwechsel war dieser Beitrag zeitweise nicht sichtbar)

  1. Wenn man sich aufmacht in die Welt der neuen Erkenntnisse zum Universum und zum Leben, dann ist man sehr bald an einem Punkt, wo die Maschinerie des Alltags ‘bizarr’ wirkt, ‘unwirklich’, wie ein Marionettentheater von ‘Wahnsinnigen’, die sich über Dinge aufregen, die dermaßen lachhaft erscheinen, dass man nicht begreifen kann, wie solch ein Verhalten möglich ist.
  2. Aber, falsche Überheblichkeit ist fehl am Platze. Wo immer wir uns als ‘Beobachter’ wähnen stecken wir zu 100% leibhaftig genau mittendrin in diesem so ‘lächerlich erscheinendem’ Spiel. Was immer wir ‘tief in uns drinnen’ zu fühlen und zu denken meinen, so wahr es uns erscheint, so bedeutsam, gegenüber der ‘Welt da draußen’, der Welt, die wir ‘real’ nennen, so wenig wird das ‘Innere’ ‘wirksam’, ‘gestalterisch mächtig’, ‘verändernd’, solange wir keinen Weg finden, unser ‘Inneres’ mit dem ‘Äußeren’ zu ‘versöhnen’.
  3. Von daher erscheint es oft einfacher, erst gar keine Erkenntnisse zu haben. Man gerät nicht in ‘Spannung’, man spürt keine ‘Differenzen’, man sieht keine Anhaltspunkte, wo man etwas tun sollte….Das Bild von den ‘glücklichen Kühen’… Doch ist auch dies – vermute ich – eine grobe Vereinfachung. Eher scheint es so zu sein, dass alle Lebensformen, selbst die einfachsten, im ‘Medium ihrer inneren Zustände’ Äquivalente von ‘Erleben’ und ‘Leiden’ haben, die wegzudiskutieren bequem ist, aber diesen Zuständen womöglich nicht gerecht wird.
  4. Wenn man aber irgendwelche Erkenntnisse hat – und die haben wir alle, wenngleich unterschiedlich –, dann führen diese unweigerlich zu ‘Spannungen’ zu dem Bisherigen. Wie geht man damit um? Empfindet man sie als ’störend’ und ‘bedrückend’, dann wird man unzufrieden, krank,…. Empfindet man sie als ‘anregend’, ‘belebend’, ‘inspirierend’, dann fühlt man sich gut….
  5. Natürlich macht es einen Unterschied, ob neue Erkenntnisse sich eher in ‘Übereinstimmung’ mit der aktuellen Situation befinden oder eher im ‘Gegensatz’. Im letzteren Fall deuten sich Konflikte an, mögliche Änderungen des Status Quo. Sind die Menschen in der Umgebung aufgeschlossen, neugierig, unternehmungslustig, ist dies kein Problem. Herrscht dagegen ‘Bewahrung’ vor, ‘Festhalten’, Angst vor Veränderung, dann können neue Erkenntnisse zum Problem werden.
  6. Die Geschichte zeigt, dass das Neue, sofern es wirtschaftliche und politische Vorteile zu bringen scheint, eher eine Chance hat, als wenn es liebgewordene Anschauungen in Religion, Politik usw. so in Frage stellt, dass herrschende Vorteilsverhältnisse gefährdet werden (eine Glühbirne, die 100 Jahre hält, will keiner; ein Medikament, das Ursachen beseitigt anstatt Leiden zu mildern, will auch keiner; usw.).
  7. Zurück zu den neuen Erkenntnissen über das Universum und das Leben. Zurück zu unserer Welt, die in ihren konkreten Abläufen so ‘verrückt’ erscheinen kann. Was machen wir dann, wenn wir uns in dieser permanenten Spannung zwischen ‘gedanklich anderer Welt’ und ‘faktisch vorfindlicher So-Welt’ vorfinden? Müssen wir verzweifeln?
  8. Wenn man sich anschaut, wie mühsam dasjenige, was wir von heute aus als ‘Leben’ erkennen können, sich aus dem Raum der Atome und Moleküle der jungen Erde im Laufe von mehr als 3.5 Mrd Jahre herausexperimentiert hat, mit unendlichem Aufwand, unter permanentem Leiden, immer im Totalverlust (Tod) endend, dann erscheint zumindest die aktuelle Situation als ein solch unglaublicher und – vergleichsweise – ‘paradiesischer’ Zustand, dass ein – wie auch immer geartetes – Lamentieren geradezu als ’schäbig’ erscheinen mag .
  9. Andererseits, wir sind – nach allem, was wir wissen – die erste Art von Lebewesen, die ein ‘Gehirn’ besitzen, das uns in die Lage versetzt, nicht nur auf primitive Weise wahrgenommene Reize (Stimuli = S) direkt und ‘festverdrahtet’ (’reaktiv’, ‘Instinktiv’) in fixierte Antworten (Reaktionen = R) zu übersetzen, sondern wir können weit mehr. Unser Gehirn kann z.B. Ereignisse verallgemeinern, in Beziehung zu anderem setzen, kann erinnern, kann relativ zu Körperzuständen ‘bewerten’, kann ‘komplexe Modelle’ von Situationen und deren mögliche Veränderungen ‘denken’…Mit anderen Worten, unser Gehirn versetzt uns in die Lage ‘in’ unserem Körper die Welt ‘da draußen’ ‘nachzubauen’, sie ‘intern zu simulieren’ und in ‘Gedankenexperimenten’ alternative ‘mögliche Welten’ zu ‘denken’. In diesem Kontext können wir auch ein ‘Modell von uns selbst’ und ‘den Anderen’ konstruieren. Es sind diese ’selbstgemachten Bilder’ in unserem Gehirn die wir für ‘real’ halten, nicht die Welt selbst; die kennt unser Gehirn gar nicht.
  10. D.h. – soweit wir wissen — passiert heute, ca. 14,7 Mrd. Jahre nach dem sogenannten ‘Big Bang’, etwas, was innerhalb des bekannten Universums ungeheuerlich ist: im Medium der biologischen Gehirne ’schaut sich das Universum selbst an’ (wobei diese Gehirne ein ‘Produkt’ dieses Universums sind als Teil des Phänomens ‘Leben’!). D.h. das Universum schafft sich gleichsam einen ‘Spiegel’, in dem es sich selbst anschauen kann. Mehr noch, über das ‘Spiegeln’ hinaus ist ein Gehirn (und noch mehr ein ‘Verbund von Gehirnen’) in der Lage, Veränderungen ‘einzuleiten’ auf der Basis der ‘Spiegelungen’. Dies führt zum Paradox, dass das Universum einerseits im Lichte der bekannten physikalischen Gesetze eine ‘bestimmte Entwicklung’ zu nehmen scheint, während es im Medium der Gehirne ’sich selbst in Frage stellen kann’. Welch ein wahnwitziger Gedanke (allerdings bilden wir individuelle Menschen uns bislang eher ein, wir seien die Meister des Universums… eine putzige Vorstellung…).
  11. Aus Sicht des einzelnen Menschen mag dies ‘unwirklich’ erscheinen, ‘artifiziell’, aber im Gesamtkontext des Lebens im Universum ist dies ein absolut herausragendes Ereignis. Während die ‘Materiewerdung’ mit den anschließenden Ausprägungen als stellare Wolken, Sterne, Galaxien sich einigermaßen mit den Gesetzen der Physik beschreiben lassen, entzieht sich die Entstehung des Lebens als Opponentin zur Entropie und durch den ‘inneren Trend’ zur Steigerung der Komplexität bislang allen physikalischen Erklärungsversuchen. Ein Teil der Komplexität ist auch die Zunahme der Kommunikation, die zu einer Koordinierung von Gehirnen, deren ‘gedanklichen Räumen’ führt.
  12. Das Erleben von ‘mehr’ Erkenntnis und einer damit einhergehenden ‘Unruhe’, ‘Spannung’ ist also kein ‘Zufall’, keine ‘Panne’, keine ‘Störung’ sondern gehört wesentlich zum Phänomen des Lebens hinzu. Indem das Leben sich alle frei verfügbare Energien in seiner Umgebung immer mehr ‘einverleibt’ und damit Strukturen schafft, die dies immer besser können, also immer mehr Energie ‘einsammeln’ können, stellt sich die Frage, wozu das Ganze?
  13. Nach gängiger Meinung ist der ‘Big Bang’ dadurch charakterisiert, dass Energie sich in einer Weise in Materie verwandelt hat, dass daraus eben das heute bekannte Universum ‘hervorgehen’ konnte. Sterne und Galaxien sind eine Form der Zusammenballung dieser Materie (durch Gravitation, aber nicht nur (schwarze Materie?)); das uns bekannte ‘Leben’ ist auch eine Zusammenballung von Energie, aber anders. Was verstehen wir noch nicht?
  14. Die klassischen Religionen, so hilfreich sie in er Vergangenheit partiell vielleicht waren, in der heutigen Situation erscheinen sie mir wenig hilfreich, eher hinderlich. Sie verstellen den Blick und können das Herz verdunkeln. Damit will ich nicht sagen, dass auch die Gottesfrage obsolet sei. Wenn es überhaupt so etwas wie ‘Gott’ gibt, so sind wie ihm näher als je zuvor.
  15. Nur sollten wir die ‘Wahrheit’ der Erkenntnis nicht verwechseln mit dem ‘Erkenntniswunsch’. Die Bücher der alten Philosophen (alt kann bis gestern gehen..-:)) sind voll von Pseudorationalismen: man analysiert wie ein Weltmeister um letztlich dann doch nur sein eigenes Vorurteil zu rechtfertigen. Niemand ist davor gefeit; auch ich nicht.
  16. Alle bekannten Positionen muss man immer und immer wieder in Frage stellen, muss sie versuchsweise zerstören. Die ‘wahre Wahrheit’ ist das, was sich nicht zerstören lässt, sie ist das, was vor all unserem individuellen Denken schon immer da war (was nicht heißt, dass sie ‘ewig’ sein muss). Vor der Wahrheit brauchen wir daher keine Angst haben, nur vor uns selbst, vor uns Menschen, die wir unsere individuellen Unwahrheiten schützen und retten wollen, weil wir uns nicht vorstellen können, dass die wahre Wahrheit schlicht und einfach größer ist. Wir klammern uns an das bischen Leben, was wir individuell haben ohne lange zu begreifen, dass dieses ‘Bischen’ nur da ist, weil es ein größeres Ganzes gibt, durch das wir überhaupt geworden sind und in dem alles andere nur weiterlebt.
  17. Was bleibt also: viel Geduld ist notwendig und die Kunst, immer wieder sterben zu können um zu lernen, dass das Leben erst dort anfängt, wo wir oft glauben, dass es zu Ende sei. Freiwillig schaffen dies die wenigsten. Leicht ist es nicht. Transzendenz in Immanenz.
  18. Eigentlich wollte ich über etwas ganz anderes schreiben, aber so kommt es manchmal.

Eine Übersicht über alle bisherige Beiträge findet sich HIER.

SCHAFFEN WIR DEN NÄCHSTEN LEVEL? Oder ÜBERWINDEN WIR DEN STATUS DER MONADEN?

COMPUTERSPIEL

 

(1) In Computerspielen müssen die Spieler in der Regel Aufgaben lösen, für die sie dann irgendwie ‚belohnt‘ werden (Tierdressur funktioniert nach einem ähnlichen Prinzip…). Meist gibt es dann verschiedene ‚Level‘ die man aufgrund der spielerischen Leistungen erreichen kann (Punktezahlen, ein vergleichender Rang mit anderen, mehr Handlungsmöglichkeiten, …). Zugleich werden die Aufgaben ’schwieriger‘, umfassender, ‚bedeutsamer‘. Und wenn es kein expliziter ‚Level‘ ist, dann ist es ein ‚quantifizierbarer‘ Zustand (mehr Einwohner, mehr Waffen, mehr Land, ….). Für die Spieler ist ihre Spielwelt ‚real‘, sind die durch das Spielen ausgelösten Erlebnisse ‚real‘. Wenn ich über die Kopfhörer (oder die HiFi-Anlage) die Geräusche der Spielwelt höre, die Gespräche anderer Spielteilnehmer, ich in 3D eine Situation wahrnehme mit nahezu realistisch anmutenden Pflanzen, Gegenständen, Körpern usw. bei der ich selbst die Perspektive steuern und Aktionen einfließen lassen kann, dann erzeugt dies schon eine sehr realistisch wirkende Situation, der man sich nur mit Mühe entziehen kann (obgleich das Gehirn, wenn es soll/ will, den Unterschied noch erkennen kann).

 

 

SIND WIR EINE SIMULATION?

 

(2) Nicht erst seitdem es Computerspiele gibt haben sich Menschen darüber Gedanken gemacht, ob all das, was wir erleben, ‚wirklich real‘ sei, ob wir nicht einer großen ‚Täuschung‘ unterliegen (z.B. Platons Höhlengleichnis, Descartes Reflexionen über einen unbezweifelbaren Wahrheitsgrund), oder ob wir nicht Teil einer gigantischen ‚Simulation‘ seien (möglicherweise Leibnizens Spekulationen über die Möglichkeit der Welt in seiner später so genannten Schrift ‚Monadologie‘, verschiedene — mittlerweile sehr viele — Science-Fiction Bücher und Filme (z.B. Simulacron 2, 13th Floor, Matrix, um nur einige zu nennen). Ein kürzlicher, vergleichsweise systematischer Versuch unter Berücksichtigung der modernen Physik findet sich bei Witworth (2008). Dazu mein Kommentar an der angegebenen URL).

 

(3) Eines der methodischen Problemen mit solchen Überlegungen ist, dass das Wort ‚Simulation‘ voraussetzt, dass man zwischen mindestens zwei ‚Bereichen‘ unterscheiden kann, dem ‚Simulierten Bereich‘ – nennen wir ihn den ‚S-Raum‘ [SR] – und der ‚hervorbringenden Funktion‘ – nennen wir dies die ‚S-Funktion‘ [f_s] –. Sofern wir als Menschen solche Simulationen organisieren befinden wir uns ‚außerhalb‘ dieser Simulationen, d.h. wir sind im ‚organisierenden Raum‘ [OR], innerhalb dessen der simulierte Raum SR , die simulationserzeugende Funktion f_s, und wir als Simulationsarrangeure [SA] als Bestandteile vorkommen, also irgendwie OR(x) gdw x = <SA, SR, f_s,…>. Auf jeden Fall sind wir nicht selbst direkt Bestandteile unsere eigenen Simulationsräume, höchstens mittels sogenannter ‚Avatare‘ (quasi ‚Platzhalter‘). Dies sind simulierte Objekte im Simulationsraum, die über vereinbarte Interaktionen zwischen SR und SA Eigenschaften des Simulationsarrangeurs in der simulierten Welt repräsentieren können und umgekehrt.

 

(4) Wenn jetzt also spekuliert wird, ob wir nicht selbst Teil einer Simulation seien, d.h. dass unsere ganze Welt eine ’simulierte Welt‘ sei (ein Simulationsraum: Welt = SR_Welt), dann macht diese Rede nur Sinn, wenn wir annehmen, dass es einen ‚übergeordneten‘ organisierenden Raum OR_Welt gibt, innerhalb dessen wir als simulierter Raum vorkommen, dann muss es auch jenseits unserer simulierten Welt SR_Welt eine erzeugenden Simulationsfunktion f_s_Welt geben, also OR_Welt(x) gdw x = <SA_Welt, SR_Welt, f_s_Welt,…>. Weder die Simulationsfunktion f_s_Welt noch die zugehörigen Simulations-Arrangeure und ihre möglichen organisierenden Räume sind uns direkt zugänglich.

 

(5) Die alten Philosophen nannten Spekulationen über die mögliche Wirklichkeit ‚hinter‘ der erfahrbaren Welt hinaus ‚Meta-Physik‘. Dies kann ein sehr seriöses Geschäft sein; bei unsachgemäßer Handhabung wird es aber zu einer ‚Spekulationsblase‘ die mehr verwirrt, als sie klarstellt‘. Und in ’naiven‘ Formen der Spekulationen über ‚das, was die Welt im Inneren zusammenhält‘ finden wir dann die bekannten Formen von ‚Aberglauben‘, ‚Magie‘, ‚Mythen‘, ‚Märchen‘, ‚Propaganda‘, ‚Ideologien‘, usw. Natürlich enthalten alle diese ‚Grenzformen‘ des Wissens meist einen kleinen Teil an ’scheinbarer‘ Wahrheit als ‚Einstiegsdroge‘ in das dann einsetzende größere Verwirrspiel. Aber entscheidend ist der Gesamtzusammenhang, der durch diese Verwirrspiele in der Regel die Bruchstellen mit der Wahrheit verdeckt.

 

(6) Dies scheint mir auch im Fall des Redens über die Welt als ‚Simulation‘ der Fall zu sein. Unser ‚Meta-Wissen‘ über mögliche Zusammenhänge ‚hinter‘ der erfahrbaren Welt beziehen wir aus einem Standpunkt ‚in‘ dieser Welt (laut Simulationshypothese sind wir ‚in‘ dem simulierten Raum SR_Welt). Jede Form von ‚Spekulation‘ über die möglichen Gesetzmäßigkeiten der erfahrbaren Welt sind –aber auch in einer simulierten Welt — letztlich ‚Netzwerke von Begriffen‘ (natürliche Sprachen, Diagramme, mathematische Formeln,…), die im bestmöglichen Fall als ‚empirische Theorien‘ organisiert sind, deren Erfahrungsbezug über nachkontrollierbare Experimente verlaufen und deren ‚Zusammenhang‘ über eine nachvollziehbare ‚Logik‘ organisiert ist (über das dazu notwendige ‚Know-How‘ verfügt die Menschheit erst seit ca. Beginn des 20.Jahrhunderts (mit ersten ‚Spuren‘ eines solchen KnowHows – wie so oft – schon zu früheren Zeiten), wobei es selbst in der offiziellen Wissenschaft bei den meisten Wissenschaftlern sicher noch kein wirkliches explizit abrufbares Wissen darstellt). Fast alle ‚Nicht-Wissenschaftler‘ wissen nichts von alledem (allerdings: selbst Leute mit einem Doktortitel können faktisch – trotz aller akademischen Regeln – noch in einem magisch-mythischen Denken in all jenen Bereichen verhaftet sein, die sie nicht direkt untersucht haben; nicht auszuschließen ist sogar, dass sie selbst in ihrem eigenen Untersuchungsbereich Ansätze zu Magie und Mythos huldigen, da es akademische Bereiche gibt, die ohne explizite Theorien auskommen…!!!).

 

(7) Wenn also – selbst in einer simulierten Welt – die Gesamtheit der Wissenschaften zu einem bestimmten Zeitpunkt – z.B. im Jahr 2008, als der Artikel von Witworth publiziert wurde — eine empirische Theorie T_2008 hatte, in der keine erzeugende Funktion f_s_Welt_2008 vorkommt, dann kann man die Einführung einer solchen Funktion seitens Witworth in die offizielle Theorie zunächst einmal als ‚Spekulation‘ bezeichnen. Spekulationen gehören bis zu einem gewissen Grade zum Alltagsgeschäft der Wissenschaft. Man spielt mal verschiedene ‚Varianten‘ der Begriffsnetze durch um zu prüfen, ob man damit die bekannten Daten eventuell ‚besser‘ erklären kann (wobei es nicht einfach ist, zu definieren, was ‚besser‘ in jedem Fall bedeutet (hier zitiert man gerne Ockhams Rasiermesser und ähnliche ‚vertraute Sprüche’…). Grundsätzlich ist die Hypothese von Witworth – falls sie eine ’seriöse‘ Variante der allgemeinen Welttheorie ist, und das nehmen wir bis zum Beweis des Gegenteils hier an – zunächst einmal nichts anderes als eine andere ‚formale Variante‘ eines Begriffsnetzes, also neben der geltenden Welttheorie T_2008 (die es so natürlich nirgends explizit gibt) nun eben T_2008_Witworth. Damit hat sie die ‚gleiche Aussagekraft‘ (die gleiche ‚Bedeutung‘, den gleichen ‚Beschreibungsumfang‘, den gleichen ‚Wahrheitswert‘,…) wie die offizielle Variante T_2008. Nur die benutzten Worte sind ‚verschieden‘ (so sprechen   z.B. die einen von ‚Grad Celsius‘, die anderen von ‚Fahrenheit‘, die einen von ‚miles per hour‘, die anderen von ‚Kilometer pro Stunde‘. Andere ‚Worte‘ erschaffen nicht notwendigerweise einen neuen ‚Inhalt‘. In der Theorie der Informatik gibt es z.B. neben dem Konzept der Berechenbarkeit repräsentiert im Konzept der Turingmaschine sehr viele andere Konzepte (formale Sprachen, funktionsbasierte Kalküle,…) die völlig verschiedene Begriffe und Regeln benutzen, die aber alle – wie bewiesen wurde – den ‚gleichen‘ Begriff der Berechenbarkeit repräsentieren. Wenn also irgendwer plötzlich anfängt, von der erfahrbaren Welt als von einer ‚Simulation‘ zu sprechen, dann bedeutet dies bezogen auf die erfahrbare Welt nicht notwendigerweise irgendetwas Neues. Der abweichende Wortgebrauch fällt zu Beginn noch auf, dann aber –wie heute –, wenn immer mehr das Wort ‚Simulation‘ benutzen, fällt nicht einmal mehr das  auf. Ich sehe nicht, dass das Reden von Simulation im Falle der Welterklärung irgendeine nennenswerte brauchbare neue Erkenntnis geliefert hat oder liefert.

 

 

WIR SIND MONADEN

 

(8) Eventuell ist die Benutzung des Begriffs ‚Monade‘ hier nicht ganz glücklich, da das Konzept der Monade bei Leibniz (ursprünglich 1714 französisch, dann 1720 deutsch, dann 1721 lateinisch), ein sehr komplexes Begriffsnetz voraussetzt, das mit den populären Verkürzungen (von denen ich hier Gebrauch mache) nur wenig gemein hat. Immerhin hat er Formulierungen, die in Richtung der Vereinfachungen deutbar sind (siehe Beispiele: (Nr.51) … eine geschaffene Monade keinen physischen Einfluss auf das Innere der anderen haben kann… (Nr.56) …..dass jede einfache Substanz..fortwährender lebendiger Spiegel der Welt…(Nr.57) ..dass es wegen der unendlichen Menge der einfachen Substanzen gleichsam ebenso viele verschiedene Welten gibt, die gleichwohl nichts anderes sind als die perspektivischen Ansichten des einzigen Universums, je nach den verschiedenen Gesichtspunkten jeder einzelnen Monade….(Nr.60) … es ist also nicht der Gegenstand, sondern die Abstufung der Erkenntnis des Gegenstandes, worin die Monaden beschränkt sind…(Nr.61) … Aber eine Seele kann in sich selbst nur das deutlich Vorgestellte lesen; sie kann nicht auf einen Schlag auseinanderlegen, was in ihr zusammengefaltet ist, denn diese Fältelung geht ins Unendliche…(alles nach der Übersetzung von Glockner))(Vielleicht schaffe ich mal demnächst eine ausführliche Diskussion des ganzen Textes der sogenannten Monadologie)..

 

(9) Die vereinfachende Grundidee ist die einer Monade als eines Systems, das zwar mit der umgebenden Wirklichkeit in einem gewissen Austausch steht, aber bzgl. jener internen Zustände, die seine Geistigkeit charakterisieren, gibt es keinen direkten Austausch, sondern nur einen hochgradig ‚vermittelten‘.

 

(10) Dies entspricht dem heutigen Erkenntnisstand von dem Gehirn im Körper, das nur sehr begrenzt Informationen von der ‚Welt jenseits des Körpers‘ empfangen kann und das auf seine Weise immer komplexere ‚Modelle‘ einer ‚möglichen Außenwelt‘ entwirft, die wir als ‚Bewusstsein‘ eines solchen Gehirns mit Körper so benutzen, als ob die Modelle die Welt selbst seien. D.h. schon an der Wurzel unserer Erkenntnis basiert unser Weltzugang auf einer ‚Simulation einer möglichen Welt‘, die allerdings so gut ist, dass wir damit nicht nur viele praktische Aufgaben befriedigend lösen können, sondern darüber hinaus fällt es uns Menschen im Alltagsbetrieb fast nie auf, dass ‚unsere‘ Welt gar nicht die Welt ist, innerhalb deren diese simulierten Welten auftreten (natürlich kann man den Unterschied zwischen der simulierten Welt genannt ‚Bewusstsein‘ und ‚Außenwelt‘ feststellen, aber nur bei expliziter Reflexion und sehr oft nur durch Einbeziehung expliziter experimenteller Arrangements).

 

 

MONADEN ALS OFFENE SYSTEME

 

(11) Entscheidend scheint aber zu sein, dass unsere Monadenstruktur eben nicht vollständig ist; wir sind keine völlig abgeschlossenen Systeme, weder auf der körperlichen Ebene noch auf der geistigen.

 

(12) Wie wir heute wissen sind unsere körperlichen Strukturen Teil eines evolutionären Geschehens, innerhalb dessen sich alle Körper (‚Phänotypen‘ von zugrunde liegenden ‚Genotypen‘, aus denen die Phänotypen mittels Wachstum hervorgehen) in direkter Wechselwirkung mit der umgebenden ‚Welt‘ so herausgebildet haben, dass die ‚äußeren‘ Bedingungen nahezu vollständig alles bestimmt haben, was sich dann faktisch ‚entwickelt‘ hat. Nichts an den Phänotypen des biologischen Lebens (Bakterien, Pflanzen, Tiere, homo sapiens sapiens,….) ist ‚einfach so‘ entstanden; alles, radikal alles ist eine ‚Antwort‘ auf die Vielzahl der ‚Randbedingungen‘, die die umgebende Welt repräsentiert (wäre das Leben auf einem anderen Planeten, in einem anderen Sonnensystem entstanden (was wir grundsätzlich nicht ausschließen können, dass dies auch geschehen ist), dann würde die evolutionäre Entwicklung unausweichlich andere konkrete Strukturen favorisiert haben als jene, die wir kennen. Allerdings nicht beliebig andere, sondern nur ’solche andere‘, die die ‚Anreicherung von freier Energie in sich selbst organisierenden Strukturen‘ ermöglichen.

 

(13) Von daher sind die inneren Zustände der empirischen Monaden nicht völlig unbestimmt, sondern gebunden an Phänotypen, die hochgradige Ähnlichkeiten aufweisen (Leibniz spricht – wenngleich auch mit einer etwas anderen Konnotation – von der sogenannten ‚prästabilisierten Harmonie‘, ein Gedanke, den die moderne Physik und Biologie letztlich vollständig bestätigen) und die auch wechselseitig über kontinuierliche Kausalketten miteinander verknüpft sind. Es gibt innerhalb des Universums keinen radikal ‚isolierten‘ Ort, eher einen beständigen ‚Austausch‘).

 

(14) Zusätzlich benutzen die Lebewesen auf jeder Komplexitätsebene die materiellen Interaktionsmechanismen, um mittels dieser ‚direkten‘ Interaktionsereignisse ‚indirekte‘ (kodierte) Ereignisse zu ‚übertragen‘ und dann zusätzlich zu ‚interpretieren‘, ‚deuten‘, ‚verstehen‘, indem materielle Ereignisse zu ‚Zeichen‘ werden, mittels deren sich ‚Bedeutungen‘ kodieren lassen. Aufgrund der hochgradigen Ähnlichkeiten der materiellen, körperlichen Strukturen lassen sich solche semiotischen Kodierungsprozesse bis zu einem gewissen Grade erfolgreich durchführen. Sofern solche semiotischen Kodierungen gelingen lassen sich ‚abstrakte‘ (und ‚virtuelle‘!) Modelle entwickeln, die ‚mögliche Weltzustände‘ repräsentieren, die zur Orientierung für komplexe Handlungsabläufe werden können, die ohne diese semiotische Kodierungen unmöglich wären. Trotz der Abgeschlossenheit der ‚inneren‘ Zustände einer Monade von der Außenwelt ist also ein kontinuierlicher ‚Strom‘ von semiotischen Ereignissen möglich, der zu einem daran ‚gekoppelten‘ kontinuierlichen ‚Verarbeitungsprozess‘ ‚im Innern‘ einer Monade führen kann. In diesem Sinne sind wir als ‚Monaden‘ ‚offene Systeme‘, die sich bis zu einem gewissen Grad mit den Zuständen anderer Monaden ‚koordinieren‘ können.

 

STUFEN DER INTERAKTION

 

(15) Wie die Kulturgeschichte der Menschheit als Teil der übergreifenden biologischen Evolution (diese wiederum als Teil der übergreifenden kosmischen Entwicklung!) zeigt, haben sowohl die materiellen Interaktionsmöglichkeiten wie auch die semiotischen sowohl an Quantität wie auch an Komplexität zugenommen. Im Falle des homo sapiens sapiens kann man geradezu von einer Explosion sprechen, die sich in unvorstellbar kurzer Zeit entwickelt hat und die zugleich eine Beschleunigung andeutet, die – gemessen an der geringen Veränderungsgeschwindigkeit der körperlichen Trägerstrukturen — auf den ersten Blick bedrohlich wirken können (verglichen mit den hier stattfinden Problemkomplexen wirken die Angstreflexe an den Börsen angesichts von Kursverfällen geradezu lächerlich, was nicht heißt, dass diese Kursverläufe konkrete Existenzen im aktuellen gesellschaftlichen Gefüge ‚finanziell‘ zerstören können…).

 

(16) Im Laufe von mindestens 3.5 Mrd Jahren hat das Leben auf der Erde viele sehr dramatische Veränderungen erlebt (beständige Klimawechsel mit großen Eiszeiten, gewaltige Vulkanausbrüche, Einsturz von Kometen mit der Vernichtung von bis zu 90% aller Arten, usw.), aber der homo sapiens sapiens stellt eine so ‚hochentwickelte‘ Lebensform dar, dass er viele solcher Änderungen, wie sie in der Vergangenheit schon stattgefunden haben, heute eher gar nicht überleben würde. Dazu kommen vom homo sapiens sapiens selbst verursachte Veränderungen (z.B. durch erhöhten Verbrauch endlicher Ressourcen für Energie, Ernährung, Trinkwasser, …), die absehen lassen, wann die endlichen Kreislaufsysteme, die bislang über natürliche Rückkoppelungsprozesse eine gewisse Regulierung erfahren hatten, ins Ungleichgewicht kommen.

 

(17) Andererseits hat man den Eindruck, dass die gesamte Entwicklung – von der der homo sapiens sapiens ja nicht isoliert gesehen werden darf – genau auf den Punkt zuläuft, wo nach der kosmologischen, dann der chemischen und schließlich der biologischen Evolution nun eine Art ‚kognitive‘ (man könnte auch ‚geistige‘ sagen) Evolution stattfinden muss, in der die bislang vorwiegend randomisiert-kombinatorischen Suchprozesse im Umfeld des Planeten Erde zusätzlich durch technologisch gestützte modellbasierte Suchprozesse ergänzt werden müssen, um den nächsten ‚Entwicklungsschritt‘ (den nächsten ‚Level‘) zu schaffen. Dieser muss mindestens so ‚kontextsensitiv‘ sein wie die vorausgehenden Entwicklungsprozesse, da die komplexen Prozesse der umgebenden Natur bislang noch in keiner Weise vom homo sapiens sapiens alleine gesteuert werden können. Sicher wird – sofern der homo sapiens sapiens es nicht ‚vermasselt‘ — der Punkt kommen, wo der homo sapiens sapiens nicht nur vor der Notwendigkeit steht, seine Koexistenz mit den vorhanden Systemen dramatisch zu verbessern, er wird es auch können. Alles ist in gewisser Weise daraufhin ‚angelegt‘ (zumindest deutet die gesamte bisherige Entwicklung in genau diese Richtung).

 

 

KOMPLEXITÄTSPROBLEME UND FALSCHE ETHIK

 

(18) Momentan erleben wir – erstmalig für das Leben auf dieser Erde – dass die Handlungsmöglichkeiten des Lebens in Gestalt des homo sapiens sapiens eine immer größere Veränderungsgeschwindigkeit erzeugen, dass aber die Basis dieser Veränderungen, die körperliche Struktur (der Phänotyp) des homo sapiens sapiens sich nicht mit gleicher Geschwindigkeit mitverändert. Zwar wissen wir alle, dass der heutige Phänotyp des Menschen ein ‚Zwischenprodukt‘ ist, etwas ‚Gewordenes‘, auf keinen Fall etwas ‚Endgültiges‘, und in seiner konkreten Ausgestaltung auch nur gerechtfertigt durch die konkreten Lebensnotwendigtkeiten, die vor ca. 200.000 bis einige Millionen Jahre vor unserer Gegenwart (BP := Before Present) bestanden hatten, dennoch leisten wir uns den Luxus einer sogenannten Ethik, nach der wir das menschliche Genom nicht verändern dürfen. Wenn man weiß, dass wir nur deshalb heute leben, weil dieses Genom in den vorausgehenden 3.5 (oder mehr) Milliarden Jahren beständig und kontinuierlich verändert worden ist, dann wirkt es geradezu makaber, dass unter dem Vorwand, Leben zu erhalten, genau das verboten wird, was überhaupt unser Leben ermöglicht hat. Im übrigen ist kein einzelner Mensch ‚Herr‘ über das biologische Leben. Klassisch würde man dies als ‚Hybris‘ bezeichnen. Wenn wir dem Leben ‚dienen‘ wollen dann sicher nur dort und darin, wo wir die Mechanismen, die Leben ‚möglich‘ machen, immer weiter identifizieren und weiter unterstützen. Auf jeden Fall müssen wir das psychische Inventar des homo sapiens sapiens dramatisch verbessern (wobei wir niemanden haben, den wir fragen können! Wir sitzen alle im gleichen Boot des Suchens….).

 

 

OPEN END

 

(19) Ich höre an dieser Stelle mal auf. Natürlich wurde – wie immer – vieles Wichtiges nicht gesagt. Vieles ist zudem kryptisch, verlangt ausführlichere Erklärungen. Aber das genau ist Teil unseres Problems: wir müssen sehr große, komplexe Probleme mit Hilfe eines – trotz allem Fantastischen – sehr endlichen Gehirn mit sehr primitiven Kommunikationsmöglichkeiten in vergleichbar kurzer Zeit lösen. Dazu kommt ein Arsenal von Emotionen und Gefühlen, die für diese Aufgabe wenig geeignet sind (siehe vorausgehende Blog-Einträge). Nichtsdestotrotz, je mehr ich über diese Dinge nachdenke, um so mehr verfestigt sich in mir das Gefühl, dass es in allem viel, viel mehr ‚Ordnung‘ gibt als ‚Chaos‘. Denn, in welcher ‚dunklen‘ Ecke man auch immer anfängt herum zu gucken, über kurz oder lang findet man ‚Spuren‘ von Ordnung. Dies hängt natürlich auch damit zusammen, dass wir selbst als homo sapiens sapiens durch und durch ein hochintegriertes Ordnungssystem darstellen, aus dem wir nicht aussteigen können (weswegen auch der französische Strukturalismus als Antistrukturalismus bestenfalls amüsant war; was soll schon herauskommen, wenn man sein eigenes Gehirn zu leugnen versucht…). Aber genau ist dann auch wichtig: sollte um uns herum tatsächlich nur Chaos herrschen, dann könnte sich auch in keiner Weise irgendeine Ordnungsstruktur daraus entwickeln. Die Tatsache, dass dies aber der Fall war, zeigt, dass es ein sehr hohes Mass an vorgegebener Ordnung gegeben haben muss (und gibt). Zudem bestätigen alle bekannten wissenschaftlichen Ergebnisse genau dieses. Methodisch ist es natürlich allemal besser, man arbeitet mit der ‚Null-Hpothese‘ (in diesem Fall: nur Chaos). Wenn man dann allerdings immer nur und immer mehr ‚Ordnung‘ findet, sollte man sich gelegentlich auch mal den ‚Luxus‘ erlauben, über das Gefundene konstruktiv nachzudenken. Vielleicht scheuen die meisten davor zurück, weil dies z.B. bedeuten würde, wir müssten uns einer neuen Ethik stellen, die vieles von den liebgewordenen Normen in Frage stellt. Noch schlimmer: dem homo sapiens sapiens käme eine Verantwortung zu, nicht für alles und jedes, aber doch für die Lebenden eine ‚totale’…für jeden…wer mag das schon…

 

Drei Jahre später gibt es einen neuen Eintrag, in dem die Worte ‚Computerspiel‘ und ‚Level‘ vorkommen, aber dort konkreter in Richtung von Stufen des phlosophischen Bewusstseins.

 

QUELLENNACHWEISE

 

G. Doeben-Henisch, URL: Skript (ältere Version), dort der Abschnitt ‚Physical World as Virtual Reality?

 

Whitworth, B., The physical world as a virtual reality, CDMTCS Research Report, CDMTCS-316, 2007, http://arxiv.org/abs/0801.0337 1-17, rev. 2008

 

G. W. Leibniz: Monadologie (Deutsch). Übersetzt , eingeleitet und erläutert von Helmut Glockner Stuttgart: Reclam, 1954

 

G. W. Leibniz: Monadologie (Französisch/Deutsch). Übersetzt und herausgegeben von Hartmut Hecht, Stuttgart: Reclam, 1998. ISBN 3-15-007853-9 (eine online Version der ersten deutschen Übersetzung von Köhler 1720 findet sich hier: http://gutenberg.spiegel.de/buch/2790/1)

 

 

 

Eine Übersicht über alle bisherigen Themen von Autor cagent findet sich hier.