Ballungsraum 2117 und technische Superintelligenz. Welche Rolle verbleibt uns Menschen?

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
14.April 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch, Frankfurt University of Applied Sciences
Email: doeben@fb2.fra-uas.de
Email: gerd@doeben-henisch.de

PDF

INHALT

I VISION RESILIENZ
II VIELE AKTEURE
III PROBLEMLÖSUNGSSTRATEGIEN
IV MENSCH UND KOMPLEXITÄT
V INGENIEURE ALS VORBILD
VI CLUB OF ROME – NUR GESTERN?
VII DER UMFASSEND DIGITALISIERTE MENSCH ENTSTEHT HEUTE
VIII SIMULATIONEN BEHERZTER NUTZEN?
IX TECHNISCHE SUPERINTELLIGENZ
X WAS KANN EIN COMPUTER?
XI DAS EI DES COLUMBUS
XII EINE NEUE MENSCH-MASCHINE SUPER-INTELLIGENZ FÜR DEN BALLUNGSRAUM?
IX QUELLEN

ÜBERBLICK

Dieser Text wurde ursprünglich als Vorbereitung für das Programmheft der Konferenz ’Der Resiliente Ballungsraum’ des Frankfurter Forschungsinstituts FFin am 13.April 2018 geschrieben. Die aktuelle Version stellt eine leicht überarbeitete Version im Anschluss an die Konferenz dar, ergänzt um Literaturangaben. Ausgehend von der Komplexität heutiger Ballungsräume wird die Frage gestellt, ob und wie wir Menschen die neuen digitalen Technologien, insbesondere auch künstliche Intelligenz, nutzen könnten, um mit dieser Komplexität besser umzugehen. Durch die langsam wachsende Erkenntnis, dass der resiliente Charakter vieler komplexer Systeme zudem ein Denken verlangt, das weit hinter die Oberfläche der Phänomene schaut, wird die Frage nach einer möglichen Unterstützung durch die neuen digitalen Technologien umso dringlicher. Im Text schält sich eine ungewöhnliche mögliche Antwort heraus, die auf eine ganz neue Perspektive in der Planungsdiskussion hinauslaufen könnte.

I. VISION RESILIENZ

Mit der Leitidee der ’Resilienz’ (1) zielt das Denken im Kern ab auf die Dimension der Überlebensfähigkeit von Ballungsräumen, die sich als dynamische Gebilde zeigen, ständigen Veränderungen unterworfen sind, ein dicht  verwobenes Knäuel von Faktoren, die alle gleichzeitig miteinander in Wechselwirkung stehen. Und, ja, natürlich, wer ist nicht daran interessiert, dass diese Gebilde als konkrete Lebensräume für konkrete Menschen möglichst lange funktionsfähig bleiben. Doch, was als sinnvoller Wunsch einer breiten Zustimmung sicher sein kann, kann sehr schnell zur Last, oder gar zum Alptraum werden, wenn man auf die eine oder andere Weise zum ’realen Akteur’ werden muss.(2)

(Anmk: 1: Dieser Artikel benutzt den Resilienzbegriff, wie er in dem grundlegenden Artikel von Holling 1973 [Hol73] vorgestellt worden ist)

(Anmk: 2: Eine Auseinandersetzung mit dem neuen Lieblingswort der ’Resilienz’ im Kontext der Städteplanung findet in einem Folgeartikel in diesem Blog statt. Mit Blick auf den Städtebau siehe auch Jakubowski (2013) [Jak13] )

II. VIELE AKTEURE

Ein polyzentrischer Ballungsraum wie das Rhein-Main Gebiet zählt schon heute an die 5 Mio. Bürger, die in tausenden von unterschiedlichen Rollen Akteure sind, die den Ballungsraum nutzen, ihn auf unterschiedliche Weise gestalten, und die alle ihre Ansprüche haben, die sie befriedigt sehen wollen. (3) Jeder dieser Akteure hat ’sein Bild’ von diesem Ballungsraum. Der eigene Wohnbereich, die täglichen Wege zur und von der Arbeit, Einkäufe, Kinder zum Kindergarten oder zur Schule, vielfältige Freizeit, Großereignisse, Unwetter, Krankheiten . . . irgendwie muss alles irgendwie stimmen, muss es lebbar sein, bezahlbar…. Leiter von Firmen haben weitere spezielle Anforderungen, nicht zuletzt die Verfügbarkeit geeigneter Mitarbeiter, Planungssicherheit, möglichst geringe Kosten, Verkehrs- und Telekommunikationsanbindungen, und vieles mehr . . . Die Ämter und Fachreferate in den Kommunen stehen im Kreuzfeuer vielfältigster politischer Interessen, von Alltagsanforderungen, mangelnder Kommunikation zwischen allen Abteilungen, Bergen von Vorschriften, Mangel an Geld, Personalproblemen, einer Vielzahl von komplexen und disparaten Plänen, ungelösten Altlasten aus der Vergangenheit… Polyzentrisch heißt auch, es gibt nicht nur viele Zentren, sondern auch entsprechend viele Kapitäne, die ihre eigenen Routen haben. Wie soll dies alles koordiniert werden?

(Anmk: 3:   Siehe dazu Peterek/ Bürklin (2014) [PB13], Buerklin/ Peterek (2016) [BP16] )

III. PROBLEMLÖSUNGSSTRATEGIEN

Aus der Nähe betrachtet mutiert die Vision eines resilienten Planungsraumes schnell zum bekannten Muster des ’Lösens eines Problems’: es gibt einen Ausgangspunkt, die jeweilige Gegenwart, es gibt eine Gruppe von Akteuren, die selbst ernannten Problemlöser, und es gibt verschiedene Strategien, wie man versucht, ausgehend von einer – meist nur partiell bekannten – Gegenwart brauchbare Erkenntnisse für eine unbekannte Zukunft zu gewinnen; dazu soll die Lösung – entsprechend der Vision – ’resilient’ sein.

Schaut man sich konkrete Beispiele von Planungstätigkeiten aus den letzten Monaten im Rhein-Main Gebiet an, dann findet man sehr viele unterschiedliche Formen von Problemlösungsverhalten. Zwischen einer rein ’inner-behördlichen’ Vorgehensweisen mit sehr eingeschränkten Ist-Erfassungen und Lösungsfindungen bis hin zu einer sehr umfassenden Einbeziehungen von vielen Bevölkerungsgruppen über viele Kommunikationsstufen hinweg mit unterschiedlichen kreativen Ideen-Findungen. (4)

Diese letzteren, möglichst viele unterschiedliche Akteure einbeziehenden Vorgehensweisen, wirken auf den ersten Blick vertrauenerweckender, da grundsätzlich mehr Perspektiven zu Wort kommen und damit sowohl ein größerer Erfahrungsraum aus der Gegenwart wie auch eine größere Farbigkeit für eine mögliche Zukunft. Wäre solch eine Strategie die Strategie der Stunde?

(Anmk: 4: Dazu war das Referat von Dr.Gwechenberger vom Dezernat Planen und Wohnen der Stadt Frankfurt, sehr aufschlussreich. Neben der in der Sache gründenden Komplexität spielen die vielfältigen rechtlichen Vorgaben eine große Rolle, dazu die unterschiedlichen Mentalitäten aller Beteiligten, insbesondere die vielfältigen individuellen Interessen und Motivlagen. Das ganze eingebettet in unterschiedliche Zeitfenster, wann welche Aktion möglich, sinnvoll oder notwendig ist. Demokratie ist so gesehen auf jeden Fall zeitaufwendig, dann aber– hoffentlich – resilienter und nachhaltiger)

IV. MENSCH UND KOMPLEXITÄT

Schaut man sich an, was der Mensch als Lebensform des Homo sapiens in den vielen tausend Jahren seit seiner Besiedlung aller Erdteile geleistet hat, dann kann man sich eigentlich nur vor Ehrfurcht verneigen. Quasi aus dem Nichts kommend hat er es im Laufe von ca. 70.000 Jahren geschafft, aufgrund seiner Intelligenz und Sprachfähigkeit immer komplexere Tätigkeiten auszubilden, Handwerkszeug, Technologien, Regeln des Zusammenlebens, Großansiedlungen, komplexe Handelsbeziehungen. Er zeigte sich fähig, komplexe Staaten zu bilden, Großreiche, fantastische Architektur, immer komplexere Maschinen, empirische Forschungen bis in die Tiefen des Universums, in die Tiefen der Materie, in die verschlungenen Wege der Mikrobiologie von den Molekülen zu einfachen, dann komplexen Zellen bis hin zu komplexen Lebewesen, vielfältigste Formen von Klängen, Musik, Sounds, Bildwelten.

Schließlich erfand er auch die Computertechnologie, mit der man unvorstellbar viele Daten in unvorstellbar schneller Zeit verarbeiten kann. Würden heute auf einen Schlag alle Computer und Netzwerke weltweit still stehen, die Welt bräche völlig in sich zusammen. Ein beispielloses Chaos und Elend wäre die Folge.

Dies deutet indirekt auf einen Sachverhalt, den wir als Menschen im Alltag gerne übersehen, um nicht zu sagen, den wir geradezu verdrängen. Dies hat zu tun mit den realen Grenzen unserer kognitiven Fähigkeiten.

Trotz eines fantastischen Körpers mit einem fantastischen Gehirn hat jeder Mensch nur eine sehr begrenzte kognitive Aufnahmefähigkeit von ca. 5-9 Informationseinheiten pro Sekunde, was jeder Mensch in einfachen Selbstversuchen an sich überprüfen kann. (5) Und die Verarbeitung dieser Informationseinheiten mit Hilfe des vorher erworbenen Wissens verläuft unbewusst nach weitgehend relativ festen Schemata, die es einem Menschen schwer machen, Neues zu erfassen bzw. in sein bisheriges Bild von der Welt einzubauen. (6) Noch schwerer tut sich jeder Mensch, wenn es darum geht, Zusammenhänge zu erfassen, die vielerlei Faktoren umfassen, Faktoren, die oft zudem ’verdeckt’, auf den ersten Blick ’unsichtbar’ sind. Ganz schwer wird es, wenn sich komplexe Faktorenbündel zusätzlich in der Zeit ändern können, womöglich noch mit Rückkopplungen.

Gilt schon die Voraussage des Verhaltens eines einzelnen Menschen für nur ein Jahr mathematisch als unmöglich, so erscheint die Voraussage des Verhaltens von 5 Mio. Bewohner des Rhein-Main Gebietes entsprechend undurchführbar, zumal die Ab- und Zuwanderung hier sehr hoch ist. (7) Dazu kommen Veränderungen von Bedürfnislagen, Veränderungen von Technologien, Veränderungen von konkurrierenden Wirtschaftsregionen, und vieles mehr. Die bislang bekannten und praktizierten Planungsverfahren wirken angesichts dieser zu bewältigenden Komplexität nicht sehr überzeugend. Sie wirken eher hilflos, uninformiert. Scheitern wir mit unseren begrenzten individuellen kognitiven Fähigkeiten an der heutigen Komplexität?

(Anmk: 5: Die erste bahnbrechende Untersuchung zu der ’magischen Zahl 7+/-2’ stammt von George A.Miller (1956) [Mil56]. Dazu gibt es zahllose weitere Studien, die das Thema weiter auffächern, aber nicht diese grundsätzliche Kapazitätsbegrenzung.)

(Anmk: 6: Bekannte Texte zum Zusammenspiel zwischen Kurz- und Langzeitgedächtnis sind Baddeley/Logie (1999) [BL99], Baddeley (2003) [Bad03], und Repovs/Baddeley (2006) [RB06]. Allerdings ist das Thema Gedächtnis mit diesen Artikeln nicht abgeschlossen sondern wird in vielen hundert weiteren Artikeln weiter untersucht.)

(Anmk: 7: Hinweis von Dr. Gwechenberger zur Migration der Stadt Frankfurt: rein statistisch wird innerhalb von 12 Jahren die gesamte Bevölkerung von Frankfurt einmal komplett ausgetauscht.)

V. INGENIEURE ALS VORBILD

Vergessen wir für einen Moment das Problem des komplexen Ballungsraumes und schauen, was denn die Ingenieure dieser Welt machen, wenn sie seit Jahrzehnten komplexe Systeme entwickeln, bauen und in Betrieb halten, die die kognitiven Fähigkeiten eines einzelnen Ingenieurs um viele Dimensionen übersteigen.

Moderne Ingenieurleistungen verlangen das Zusammenspiel von oft mehr als 10.000 einzelnen Experten aus sehr vielen unterschiedlichen Gebieten, nicht nur über Monate, sondern oft über Jahre hin. Wie kann dies funktionieren?

Ingenieure haben sehr früh gelernt, ihr Vorgehen zu systematisieren. Sie haben komplexe Regelwerke entwickelt, die unter dem Stichwort ’Systems Engineering’ beschreiben, wie man beliebige Probleme von der Aufgabenstellung in eine funktionierende Lösung überführt, einschließlich umfassender Tests in allen Phasen. Und selbst der spätere Einsatz des entwickelten Produktes oder der entwickelten Dienstleistung ist nochmals spezifiziert. Dies führt dazu, dass z.B. Flugzeuge, Atomkraftwerke, landesweite Energienetzwerke, Raumfahrtprojekte, im Vergleich die sichersten Systeme sind, die wir kennen.

Neben ausgeklügelten Dokumentationstechniken spielen im Engineeringprozess mathematische Modelle eine zentrale Rolle und, seit vielen Jahren unverzichtbar, computergestützte Simulationen. Schon seit vielen Jahren gibt es kein einziges anspruchsvolles Produkt mehr, das zuvor nicht vollständig als Computersimulation ausprobiert und getestet wurde. Dazu gehören z.B. auch Computerchips, speziell jene Prozessoren, die das Herz eines Computers bilden. Schon vor 30 Jahren waren diese so komplex, dass deren Entwicklung und die Tests auf ihre Funktionstüchtigkeit ohne Computer nicht möglich war. Anders gesagt, wir können Computer und all die anderen komplexen Produkte schon seit Jahren nur entwickeln, weil wir dazu Computer einsetzen. Kein menschliches Gehirn ist in der Lage, die schon heute benötigten Komplexitäten noch irgendwie praktisch zu meistern, auch viele tausende Gehirne zusammen nicht.

Angesichts dieser Erfolgsgeschichten im Bereich des Engineerings kann man sich fragen, ob man von diesen Erfahrungen für den Bereich der Planung von Ballungsräumen nicht irgend etwas lernen könnte?

VI. CLUB OF ROME – NUR GESTERN?

Manche von Ihnen erinnern sich vielleicht noch an die zu ihrer Zeit provozierende erste Studie ”The Limits to Growth” des Club of Rome von 1972. (8) Dies war der erste Versuch, die Dynamik der Erde unter der Herrschaft der Menschen mit einem umfassenden Computermodell abzubilden und mit Hilfe des Modells mögliche Hinweise zu bekommen, wie sich die Dinge bei Veränderung der bekannten Faktoren in der Zukunft auswirken.

Seit dieser Veröffentlichung sind mehr als 40 Jahre vergangen. (9) Es gab auf der einen Seite heftigste Kritik, aber zugleich auch viele evaluierende Studien, die immer wieder bekräftigten, dass die Kernaussagen dieses Modells – das vergleichsweise einfach war und ist – sich im Laufe der Jahrzehnte für die Variante ’normaler Verlauf’ weitgehend bestätigt hat. (10)

Es ist hier nicht die Stelle, ein abschließendes Urteil über dieses Computermodell zu fällen (ein Student von mir hatte es mal vollständig nach-programmiert). Man kann aber sagen, dass solche Modelle den bislang einzig bekannte Weg markieren, wie wir Menschen mit unserer sehr begrenzten Fähigkeit zum Denken von Komplexität uns behelfen können, diese Grenzen ansatzweise zu überwinden. Man muss sich die Frage stellen, warum wir diese Anstöße nicht in der Gegenwart systematisch aufgreifen und für unsere Zukunft nutzen?

(Anmk: 8: Meadows et.al (1972) [MLRBI72]. Die Studie des Club of Rome war die Weiterentwicklung eines Computermodells, das zurück geht auf ein Systemmodell (und Programm), das Jay W. Forrester im Laufe von 15 Jahren entwickelt hatte. Thema von Forrester war die Erforschung der Dynamik von sozialen Systemen, speziell auch von Ballungsräumen (’urban areas’). Bemerkenswert ist bei Forresters Modellbildung, dass er auch den individuellen Menschen sieht, der mit seinem jeweiligen Weltbild (er nennt es ’mentales Modell’ bzw. dann einfach ’Modell’) die Welt wahrnimmt, interpretiert und danach handelt. Will man das Verhalten ändern, dann muss man das individuelle Weltbild ändern, das in enger Wechselbeziehung zur aktuellen Gesellschaft steht.(siehe Foorester (1971) [For71]))

(Anmk:9: Da der Club of Rome 1968 gegründet wurde, feiert er 2018 sein 50-jähriges Jubiläum … und er ist immer noch aktiv.)

(Anmk: 10: Ein erster Überblick über die verschiedenen Argumente für und gegen die Analysen des Club of Rome finden sich in dem einschlägigen Wikipedia-Artikel https://en.wikipedia.org/wiki/Club of Rome. Im deutschen Wikipedia-Eintrag finden sich keine Hinweise auf kritische Einwände!)

VII. DER UMFASSEND DIGITALISIERTE MENSCH ENTSTEHT HEUTE

Im Jahre 1972 war der Computer noch keine Maschine des Alltags. Dies begann erst ab dem Jahr 1977 mit dem Auftreten von Kleincomputern für den privaten Gebrauch. Die Entwicklung seitdem war und ist explosiv.

Die Situation heute ist so, dass der Mensch mit seinem realen Körper zwar noch weiterhin in einer realen Körperwelt verankert ist, dass er aber über die vielen elektronischen Geräte, speziell durch Smartphones, Wearables, Tabletts, Notebooks, Laptops und PCs mit immer größeren Zeitanteilen seine Tages über Datennetze mit einer globalen Datenwelt verbunden ist, die rund um die Uhr Raum und Zeit vergessen lässt. Definierte sich ein Mensch früher über seine realen Aktivitäten, wird dies zunehmend ergänzt durch digitale Aktivitäten und Ereignisse. Das Selbstbild, der ganze persönliche Erlebnisraum wird zunehmend durch solche nicht-realweltlichen Strukturen ersetzt. Empirische Realität und digitale Realität beginnen im virtuellen Raum des individuellen Bewusstseins zu verschwimmen. Müsste der Mensch nicht noch seine elementaren körperlichen Bedürfnisse befriedigen, er könnte subjektiv ausschließlich im digitalen Raum arbeiten, kommunizieren, soziale Erfüllung finden, Spielen und . . . . die Grenzen dieser neuen digital erweiterten Lebensform sind bislang noch schwer zu fassen.

Während der professionelle Planungsalltag der Kommunen und Regionen Computer noch sehr verhalten einsetzt, zeigen uns die vielen Mio. Computerspieler weltweit, dass die Menschen sehr wohl Gefallen daran finden können, mit den Mitteln der Computersimulation die Gegenwart hinter sich zu lassen. Allein für Online-Computerspiele hat sich der Markt von 2011 bis 2016 von 21 Mrd. auf 31 Mrd. US-Dollar vergrößert. (11) Für das Jahr 2017 notieren die sechs Länder mit dem höchsten Umsatz bei Onlinespielen (China, USA, Japan, Deutschland, England, Südkorea) zusammen 84.7 Mrd.US-Dollar. (12) Dazu kommen nochmals 8 Mrd. US-Dollar für PC- und Spielkonsolenspiele. (13)

Computerspiele sind komplexe Simulationen in denen eine Ausgangslage mit Hilfe von Regeln in beliebig viele Nachfolgesituationen transformiert werden können. Dies geschieht mittlerweile in 3D, berücksichtigt realistische Geländeformationen mit Vegetation, komplexe Gebäude, viele Tausend Mitspieler, erlaubt gemeinsame Aktionen und macht so eine dynamische digitale Welt virtuell erlebbar.

Diese theoretische Beschreibung lässt das gewaltige Potential erahnen, das Computerspiele prinzipiell für Lernprozesse und für gemeinsame Zukunftsforschung haben könnten. In der Realität bleiben diese aber weit hinter ihren Möglichkeiten zurück, da die Betreiber bislang wenig Interesse zeigen, das Lern- und Forschungspotential dieser neuen ’Technologie ernsthaft zu nutzen. Die Computerspiele sind bislang eher Erlebnis-, nicht Wissens- getrieben.

(Anmk: 11: Quelle: https://www.statista.com/statistics/292516/pc-online-game-market-value-worldwide/.)

(Anmk: 12: Quelle: https://www.statista.com/statistics/308454/gaming-revenue-countries/.)

(Anmk: 13: Quelle: https://www.statista.com/statistics/237187/global-pc-console-games-revenue-by-type/. )

VIII. SIMULATIONEN BEHERZTER NUTZEN?

An dieser Stelle kann man sich die Frage stellen, warum man das Komplexitätsproblem am Beispiel von Ballungsräumen nicht mit diesen neuen Simulationstechniken angehen sollte?

Verteilte Simulationen würden beliebigen Bürgern die reale Möglichkeit bieten, sich zu beteiligen. Das unterschiedliche Wissen in den unterschiedlichen Köpfen könnte man schrittweise aufsammeln und als Regelwissen in den Simulationen zur Verfügung stellen. Im Unterschied zu kommerziellen Spielen könnte man diese Regeln offenlegen für alle und sie zum Gegenstand von Fachgesprächen machen. In realen Simulationsabläufen könnte man jeweils austesten, wie sich bestimmte Regeln auswirken: sind sie realistisch? Wo führen sie uns hin? Welche Wechselwirkungen mit anderen Regeln tun sich auf? Dieses Werkzeug könnten den Fachabteilungen in den Behörden genauso offen stehen wie den Schulen und Universitäten; Firmen könnten ihre eigenen Szenarien ausprobieren. Alle könnten sich immer wieder auch zu gemeinsamen Experimenten verabreden; man könnte gar Wettbewerbe starten, eine Art kommunales eGaming. In diesem Fall würde es dann wirklich um etwas gehen, nämlich um die eigene Welt und ihre mögliche Zukunft. Mit einem solchen verteilten dynamischen Planungswerkzeug könnte man den Ballungsraum 2117 schon ziemlich gut erforschen, zumindest soweit es uns heute, im Jahr 2018 überhaupt möglich ist. (14)

(Anmk: 14: Im Rahmen der abschließenden Podiumsdiskussion zur Tagung stieß die Idee des Einsatzes von mehr Computersimulationen im Gewand von Computerspielen für die Stadtplanung auf unterschiedliche Reaktionen. Der meiste Widerstand ging aus von der Vorstellung, dass Computerprogramme abgeschlossene Einheiten sind, die aus sich heraus niemals die Vielfalt und Dynamik der Wirklichkeit abbilden könnten. Dem hielt der Autor entgegen, dass man primär vom Kommunikationsprozess zwischen Menschen her denken müsse, dem Austausch von Weltbildern, verbunden mit einem möglichen ’Um-Lernen’ dieser Weltbilder. Innerhalb dieser Kommunikationsprozesse kann eine Computerspielumgebung sehr wohl helfen, komplexe Sachverhalte besser zu nutzen. Außerdem können die Regeln, nach denen hier die Welt gesteuert wird, von allen Teilnehmern eingesehen und auf Wunsch geändert werden.)

IX. TECHNISCHE SUPERINTELLIGENZ

An dieser Stelle könnte dieser Vortrag unter normalen Umständen enden. Schon jetzt enthält er eine Reihe von Anregungen, die über den aktuellen Status Quo weit hinausgehen. Aber wir leben in einer Zeit, in der die Welt – spätestens seit der Cebit 2016 – zu fast allen passenden und auch unpassenden Gelegenheiten mit dem Begriff ’Künstliche Intelligenz’ beschallt wird. Kaum noch ein Produkt oder eine Dienstleistung, die nicht irgendwie den Anspruch erhebt, entweder schon über ’künstliche Intelligenz’ zu verfügen oder demnächst mit so etwas ausgestattet zu werden. Und neben den Evangelisten der künstlichen Intelligenz treten auch die Propheten des Untergangs der Menschheit auf, für die die aktuelle ’Künstliche Intelligenz’ nur der Vorläufer einer ganz neuen, noch mächtigeren ’Künstlichen Intelligenz’ sei, die als ’Singularity’ alles übertreffen wird, was der Mensch als künstliche Intelligenz kennt und beherrscht. (15) Diese neue Super-Intelligenz soll dem Menschen in Geschwindigkeit, Datenvolumen und Denkfähigkeit so weit voraus und darin überlegen sein, dass diese technische Superintelligenz vom Menschen nicht mehr ernsthaft kontrolliert werden kann. Sie ist gegenüber dem Menschen so überlegen, dass sie den Menschen locker als überflüssiges Etwas abschaffen kann. Wie immer, gehen die Schätzungen, wann dies der Fall sein wird, deutlich auseinander, aber das Jahr 2117 ist ein guter Kandidat, wann es soweit sein könnte. (16) Was soll man von dieser nicht gerade beruhigenden Vision halten?

Dass Menschen alles, was ihnen neu und unbekannt ist, und ihnen Angst macht, in Form von überirdische Fabelwesen packen, ist so alt, wie die Aufzeichnungen der Menschheit reichen. In den vielen Sagen gibt es dann irgendwann einen Menschen, einen besonderen Menschen, einen Helden, der dann irgendwann eine Schwachstelle findet, durch deren Ausnutzung der Held dann das Fabelwesen zur Strecke bringen kann. Im Fall des neuen Mythos von der technischen Superintelligenz muss man allerdings nicht sehr weit suchen, um zu sehen, dass die Dinge vielleicht doch ganz anders liegen, als die Marketingmaschinerien uns glauben lassen wollen. Und ja, doch, es könnte sogar sein, dass sich hinter dem abschreckenden Mythos von der menschenfeindlichen technischen Superintelligenz eine sehr konkrete Technologie verbirgt, die uns Menschen bei unserem Komplexitätsproblem ernsthaft helfen könnte. Gehen wir zurück zu dem Mann, mit dem das seriöse Reden über die Computer-Maschine angefangen hat.

(Anmk: 15: Ein wichtiger Text zu Beginn der Diskussion um die ’technische Singularität’ ist ein Beitrag von Vinge 1993 zu einer Nasa-Konferenz [Vin93]. Ein sehr guter Einstieg in die Thematik der technischen Singularität findet sich in dem Wikipedia-Artikel zur ’Technological Singularity’, URL: https://en.wikipedia.org/wiki/Technological singularity)

(Anmk: 16: Für eine Diskussion, wann man mit welcher Art von ’Super-Human-Level’ maschineller Intelligenz rechnen sollte, finden sich im Kap.1 von Bostrom 2014 [Bos14]:SS.18-21 einige Argumente. Klar ist, dass es nicht ganz klar ist; es gibt zu viele Unbekannte und wichtige Begriffe sind unscharf. So gesehen ist die Zahl ’2117’ (geschrieben im Jahr 2017) eine fast ’satirische’ Schätzung unter Berücksichtigung der Argumente bei Bostrum.)

X. WAS KANN EIN COMPUTER?

Während die modernen Naturwissenschaften ihren Untersuchungsgegenstand, die reale Natur, von vornherein nicht kennen, sondern sich mühsam, über viele kleine Schritte, ein Bild erarbeiten müssen, wie es vielleicht sein könnte, hat die Computerwissenschaft es einfacher. Sie beginnt dort, wo es überhaupt noch keine Computer gab, sondern nur ein mathematisches Konzept über eine ideale Maschine, deren einzige Fähigkeit darin besteht, in völlig transparenter Weise eine endliche Liste von primitiven Befehlen auszuführen. (17) Im Unterschied zu einer normalen Maschine, die keine Befehle ausführt, kann eine Computer-Maschine Befehle ausführen. Dies erscheint noch nicht besonders aufregend. Ein klein wenig aufregender wird es dadurch, dass die Computermaschine mit einem Schreib-Lese-Band verknüpft ist, auf dem beliebige Zeichen stehen können. Man kann die Computer-Maschine so auslegen, dass sie diese Zeichen auf dem Schreib-Lese-Band als ihre neuen Anweisungen interpretiert. Dies klingt auch noch nicht aufregend. Aufregend wird es, wenn man sich klar macht, dass die Computer-Maschine diese Anweisungen auf dem Schreib-Lese-Band in eigener Regie verändern kann. Sie kann sozusagen das Programm, das sie steuert, selber abändern und damit die Kontrolle über ihre eigene Steuerung übernehmen. Damit verfügt die Computer-Maschine über eine wichtige Voraussetzung, um im Prinzip voll lernfähig zu sein.

Der soeben erwähnte Turing (18) war auch einer der ersten, der in drei Artikeln 1948, 1950 sowie 1953 ganz offen die Frage diskutierte, ob Computer-Maschinen, falls es diese irgendwann einmal als reale Maschinen geben würde, auch eine Intelligenz haben könnten, wie wir sie von Menschen kennen. (19) Turing selbst sah die Möglichkeit eher positiv. Er machte allerdings schon damals darauf aufmerksam, dass Computer-Maschinen aus seiner Sicht nur dann eine reelle Chance haben würden, mit dem Menschen im Lernen gleich zu ziehen, wenn sie ähnlich wie Kindern selbständig durch die Welt streifen könnten und – ausgestattet mit Kameras, Mikrophonen und weiteren Sensoren – die Welt wie sie ist wahrnehmen könnten.

Mittlerweile schreiben wir das Jahr 2018, das sind mehr als 65 Jahre nach Turings Spekulationen zu intelligenten, lernfähigen Computern. Wie viele Computer streifen durch die Welt wie Kinder? Nicht all zu viele, muss man feststellen; eigentlich kein einziger. Die bisherigen Roboter, die bekannt sind, haben eine sehr eingeschränkte Bewegungsfähigkeit und keiner von diesen lernt bislang in einer unbeschränkten Weise, wie Kinder es tun.

Der Bereich, in dem über lebenslang frei lernende Roboter geforscht wird, nennt sich ’Developmental Robotics’ oder – noch radikaler – ’Evolutionary Developmental Robotics’. (20) In einer Forschungsübersicht aus dem Jahr 2017 (21) gibt es eine zentrale Einsicht, die uns an dieser Stelle helfen kann. (22) Zwar weiß man eigentlich schon von den Anfängen in der Künstlichen Intelligenzforschung in den 1960iger Jahren, dass jegliche Art von Lernen minimale Formen von Rückmeldung benötigt, aber die Tragweite dieses Momentes wurde vielen Forschern erst in den letzten Jahren, und speziell in der ’Erforschung des offenen‘ Lernens so richtig klar. Wenn eine Computer-Maschinen selbständig offen lernen können soll, dann braucht sie minimale Präferenzen, um im allgemeinen Rauschen der Ereignisse Ansätze möglicher Muster zu finden. Im Fall von biologischen Systemen gibt es eine Mischung von sogenannten angeborenen Präferenzen, die sich letztlich von der Überlebenserfahrung herleiten, und eben das schlichte Überleben selbst. Nur wer überlebt besitzt offenbar brauchbare Informationen. Im Fall von Computer- Maschinen gibt es keine Überlebenserfahrungen. Eine Computer-Maschine beginnt am absoluten Nullpunkt. Bis vor wenigen Jahren haben Ingenieure das Problem dadurch gelöst, dass sie ihre eigenen Präferenzen in die Computer-Maschinen eingebaut haben. Dies hat so lange funktioniert, wie die Computer-Maschinen nur sehr spezielle Aufgaben lösen mussten, z.B. als Industrieroboter. In dem Maße aber, wie Computer-Maschinen beliebige Aufgaben lernen können sollen, funktioniert diese Strategie nicht mehr. Was nun? Woher sollen solche allgemeinen Präferenzen kommen?(23)

Die Frage mit den Präferenzen (andere sprechen von Werten) hat eine zusätzliche pikante Note, da der Homo sapiens das erste Lebewesen auf der Erde ist, das nicht mehr ausschließlich durch die nackte Überlebensnotwendigkeit getrieben ist. Der Homo sapiens, also wir Menschen, haben es durch unsere geistigen und kommunikativen Möglichkeiten geschafft, das nackte Überleben z.T. sehr weit in den Hintergrund zu drängen. Damit stellt sich für die Lebensform des Homo sapiens erstmals seit 4 Milliarden Jahren biologischen Lebens die Frage, welche möglichen Präferenzen es möglicherweise neben oder sogar vor dem nackten Überleben geben könnte. Dummerweise enthält der genetische Code keine direkte Antwort auf die Frage nach zusätzlichen Präferenzen.

(Anmk: 17:  Der Text, in dem diese Art der Beschreibung eines idealen Computers erstmals vorkommt, ist ein Text, in dem Alan Matthew Turing einen metamathematischen Beweis geführt hat, in dem es um eine andere Version des Unentscheidbarkeitsbeweises von Kurt Gödel 1931 ging. Siehe [Tur 7]. Zu Ehren von Turing wurde diese Version der Definition eines Computers ’Turingmaschine’ genannt. )

(Anmk: 18: Eine sehr gute Biographie zu Turing ist Hodges (1983) [Hod83])

(Anmk: 19: Siehe Turing 1948 [M.87], 1950 [Tur50], sowie 1953 [Tur63] 20 Erste gute Überblicke bieten die beiden Wikipediaeinträge zu ’developmental robotics’ https://en.wikipedia.org/wiki/Developmental robotics sowie zu ’evolutionary developmental robotics’ https://en.wikipedia.org/wiki/Evolutionary developmental robotics)

(Anmk: 21: Siehe Merrick (2017) [Mer17])

(Anmk: 22: Ergänzend auch Singh et.al. (2010) [SLBS10] und Ryan/Deci (2000) [RD00] )

(Anmk: 23: Eine der verbreitetsten Lernformen im Bereich Künstliche Intelligenz ist das sogenannte ’Reinforcement Learning (RL)’. Dieses setzt explizit ’Belohnungssignale’ (’reward’) aus der Umgebung voraus. Siehe zur Einführung Russell/ Norvig 2010 [RN10]:Kap.21 und Sutton/Barto 1998 [SB98])

XI. DAS EI DES COLUMBUS

Das Ei des Columbus gilt als Metapher für Probleme, die als unlösbar gelten, für die es dann aber doch eine Lösung gibt.

In unserem Fall ist das Problem die begrenzte kognitive Ausstattung des Menschen für komplexe Situationen sowie die Präferenzfreiheit technischer Systeme. Die bisherigen Lösungsansätze einer cloud-basierten allgemeinen Intelligenz führt letztlich zu einer Entmachtung des einzelnen ohne dass eine cloud-basierte Intelligenz eine wirklich Überlebensfähigkeit besitzt. Sie gleicht eher einem Vampir, der so lange lebt, als viele einzelne sie mit Details aus ihrem Alltag füttern. Ohne diese Details ist solch eine cloud-basierte Intelligenz ziemlich dumm und kann einem einzelnen kein wirklicher persönlicher Assistent sein.

Die Lösung könnte tatsächlich ein reales Ei sein, ein Ei gefüllt mit einer Computer-Maschine, deren Rechenkraft vor Ort genau einem Menschen zur Verfügung steht und genau diesem einem Menschen rund um die Uhr hilft, seine kognitiven Begrenzungen auszugleichen und zu überwinden. Dieses Computer-Maschinen Ei (natürlich könnte es auch jede andere Form haben, z.B. als Ohrring, Halskette, Armband usw.) kann mit dem Internet Verbindung aufnehmen, mit jeder denkbaren Cloud, aber nur dann, wann und wie dieses Ei es selber will, und es würde keinerlei privates Wissen einfach so preisgeben. So, wie die Gehirne der Menschen anatomisch alle ähnlich sind und doch sehr individuelle Persönlichkeiten ermöglichen, so kann ein Computer-Maschinen Ei die individuellen Erfahrungen und das individuelle Wissen eines Menschen passgenau erkennen und fördern. Es entsteht eine Symbiose von Mensch und Maschine, die deutlich mehr sein kann als jede Komponenten für sich alleine.

XII. EINE NEUE MENSCH-MASCHINE SUPER-INTELLIGENZ FÜR DEN BALLUNGSRAUM?

Greift man an dieser Stelle nochmals die Vision einer verteilten, flexiblen Simulationsumgebung für die Bürger in einer Region auf, dann kann eine zusätzliche Ausstattung aller Bürger mit ihren persönlichen intelligenten Assistenten dem ganzen Projekt einen zusätzlichen messbaren Schub geben. Die persönlichen Assistenten können auch dann arbeiten, wenn der einzelne mal müde ist, sich entspannen will oder mal mit familiären Aufgaben beschäftigt ist. Und der persönliche Assistent kann auch viele Tausend oder Millionen Faktoren gleichzeitig in Rechnung stellen und in ihren Auswirkungen verfolgen. Im Zusammenwirken dieser vielen natürlichen und technischen Intelligenzen könnte eine Mensch-Maschine Superintelligenz entstehen, die den einzelnen voll mit nimmt, und als Gesamtphänomen erheblich leistungsfähiger sein wird, als alles, was wir heute kennen.

Allerdings, wir sollten uns nicht der Illusion hingeben, dass damit dann alle Probleme gelöst wären. Das Problem der geeigneten Präferenzen, sprich der Werte, wird bleiben; es wird sich vermutlich eher verschärfen. Auch die Verantwortung für uns Menschen wird weiter wachsen, auch wenn sich diese Verantwortung qualitativ neu immer auf ganz viele verteilen wird.

IX QUELLEN

[Bad03] Alan Baddeley. Working memory and language: an overwiew. Journal of Communication Disorders, 36:236–242190–208, 2003.

[BL99] A. Baddeley and R.H. Logie. Working memory: The multiple-component model. In A. Myake and P. Shah, editors, Models of working memory, chapter 2, pages 28–61. Cambridge University Press, New York, 1999.

[Bos14] Nick Bostrom. Superintelligence. Paths, Dangers, Strategies. Oxford University Press, Oxford (UK), 1 edition, 2014.

[BP16] Thorsten Bürklin and Michael Peterek. Thecycloregion. city-regional development in frankfurt rhine-main – die zykloregion. stadtentwicklung in frankfurtrheinmain. Journal of Comparative ’Cultural Studies in Architecture, 9:41–51, 2016.

[For71] Jay W. Forrester. World Dynamics. Wright-Allen Press, Inc., Cambridge (MA) 02142, 2 edition, 1971.

[Hod83] Andrew Hodges. Alan Turing, Enigma. Springer Verlag, Wien – New York, 1 edition, 1983.

[Hol73] C.S. Holling. Resilience and stability of ecological systems. Annual Review of Ecology and Systematics, 4(1):1–23, 1973.

[Jak13] Peter Jakubowski. Resilienz – eine zusätzliche denkfigur für gute stadtentwicklung. Informationen zur Raumentwicklung, 4:371–378, 2013.

[M.87] Turing Alan M. Intelligente maschinen. In Bernhard Dotzler and Friedrich Kittler, editors, Alan M. Turing. Intelligence Service, pages 81 – 113. Brinkmann & Bose, Berlin, 1987.

[Mer17] Kathryn Merrick. Value systems for developmental cognitive robotics: A survey. Cognitive Systems Research, 41:38 – 55, 2017.

[Mil56] Geroge A. Miller. The magical number seven, plus or minus two: Some limits on our capacity for processing information. Psychological review, 63:81–97, 1956.

[MLRBI72] Donella H. Meadows, Meadows Dennis L., Jørgen Randers, and William W. Behrens III. The Limits to Growth. A Report for the Club of Rome’s Project on the Predicament of Mankind. Universe Books, New York, 1 edition, 1972.

[PB13] Michael Peterek and Thorsten Bürklin. Potentials and challenges of polycentric city-regions: A case-study of frankfurt rhine-main. Technical Transactions Architecture – Czasopismo Techniczne Architektura, 1-A:179–189, 2013.

[RB06] G. Repovs and A. Baddeley. The multi-component model of working memory: Explorations in experimental cognitive psychology. Neuroscience, 139:5–21, 2006.

[RD00] Richard M. Ryan and Edward L. Deci. Intrinsic and extrinsic motivations: Classic definitions and new directions. Contemporary Educational Psychology, 25(1):54 – 67, 2000.

[RN10] Stuart Russel and Peter Norvig. Artificial Intelligence. A Modern Approach. Universe Books, 3 edition, 2010.

[SB98] Richard S. Sutton and Andrew G. Barto. Reinforcement Learning. An Introduction. The MIT Press, Ambridge (MA) – London, 1 edition, 1998.

[SLBS10] S. Singh, R. L. Lewis, A. G. Barto, and J. Sorg. Intrinsically motivated reinforcement learning: An evolutionary perspective. IEEE Transactions on Autonomous Mental Development, 2(2):70–82, June 2010.

[Tur50] Alan Turing. Computing machinery and intelligence. Mind, 59:433–460, 1950.

[Tur63] Alan Matthew Turing. Digital computers applied to games. In B.V. Bowden, editor, Faster Than Thought. Pitman Publishing, London, 1963.

[Tur 7] Alan M. Turing. On computable numbers, with an application to the entscheidungsproblem. Proceedings of the London Mathematical Society, 42(2):230–265, 1936-7.

[Vin93] Vernor Vinge. The coming technological singularity: How to survive in the post-human era. In G.A. Landis, editor, Vision-21: Interdisciplinary Science and Engineering in the Era of Cyberspace, pages 11–22. 1993.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

DAS NEUE ALS PROBLEM DER WAHRHEIT. Memo zur Philosophiewerkstatt vom 16.Juli 2017

PDF

ÜBERBLICK

Ausgehend von dem Thema der Einladung zur Philosophiewerkstatt werden in der Einleitung dann wichtige Elemente einer subjektiven Wahrheit aufgelistet. Im nachfolgenden Diskurs (nach der Möglichkeit einer Meditation) wurde dann speziell versucht zu klären, worin denn das ‚Neue‘ besteht. Es kam zu interessanten Einsichten.

I. THEMA

In der Einladung zur Philosophiewerkstatt am 16.Juli 2017  war auf das Phänomen des Neuen in seiner Beziehung zu der aktuellen Wahrheit hingewiesen worden. Dabei wurde die aktuelle Wahrheit als das verstanden, was der einzelne gerade in seinem Kopf als Wissen über die Welt mit sich herumträgt; ein Wissen, mit dem die aktuelle Wahrnehmung interpretiert und das eigene Handeln entschieden wird. Verglichen mit dieser aktuellen Wahrheit ist jede Art von Neuem problematisch. Gemessen an der eigenen, aktuellen Anschauung ist alles, was da kommt, zunächst einmal eine Abweichung. Es stellt sich dann die Frage, was man damit macht. Die Vielfalt der Antworten ist das, was wir jeden Tag im privaten Umfeld, in der Wirtschaft, in der Politik, in den Massenmedien erleben. Je nach Interessenlage (und Wissen) wird das ‚Abweichende‘ z.B. zum Bösen schlechthin instrumentalisiert oder wandelt sich zur neuen Verheißung.

Es schlossen sich an diese Beobachtung die Fragen an, wie wir zum Neuen stehen? Gibt es Verhaltensgewohnheiten, Regeln, Strategien im Umgang mit dem ‚Neuen‘? Gibt es so etwas wie eine  Kultur des Neuen in allen Bereichen unseres Lebens oder ist es eine Dauerbaustelle jeder Gesellschaft, wie sie mit Neuem umgeht?

Oder die eher grundsätzlichen Fragen, warum es überhaupt ‚Neues‘ geben kann? Wenn unsere privaten Ansichten über die Welt wahr sind, warum kann die Welt dann so — unerlaubterweise 🙂 — anders sein? Verdrängen wir nicht ständig, dass wir uns selbst vom Embryo über das Baby über das Kind zum Teenager, zum jungen Erwachsenen, Leistungsträger, Senior beständig verändern, wir uns selbst gegenüber — sozusagen — etwas Neues sind? Sind wir mit dieser unserer eigenen Art der beständigen Neuheit nicht selbst ‚unheimlich‘? Machen wir uns selbst Angst?

II ELEMENTE DER SUBJEKTIVEN WAHRHEIT

Philosophiewerkstatt 16.Juli 2017 - Gedankenbild - Einführung

Philosophiewerkstatt 16.Juli 2017 – Gedankenbild – Einführung

In der Einführung zur Diskussion wurden skizzenhaft (siehe Schaubild ‚Einführung‘) wichtige Elemente der subjektiven Wahrheit vorgestellt.

Zentraler Angelpunkt ist bei jedem einzelnen sein persönliches Bewusstsein, angefüllt mit diversen Inhalten an Wahrnehmungseindrücken, Erinnerungen, Bedürfnissen, Gefühlen, Wissensfragmenten und Fähigkeiten, die sich im Tun zeigen.

Dieses Bewusstsein ist, wie wir heute wissen können, weitgehend eine Funktion unseres Gehirns, das wiederum Teil unseres Körpers ist. Dieser Körper hat eine Außenseite, die durchsetzt ist mit tausenden von  Sensoren für  Außenwelt-Reize (z.B. visuell, akustisch, Wärme, Berührung,…), wie auch Sensoren im Körper für körperspezifische Reize (z.B. Durst, Hunger, Gelenkstellungen, …).

Die Reize werden kontinuierlich zum Gehirn geleitet und sowohl auf dem Weg dahin wie auch dann im Gehirn selbst auf vielfache Weise bearbeitet. Wichtig ist hierbei, dass diese Reize in sogenannten sensorischen Puffern für eine kurze Zeitdauer (ca. 50 – 200 Millisekunden) zwischengespeichert werden, bevor sie von den nächsten Reizen überschrieben werden. Diese ‚Pufferung‘ führt dazu, dass die Ereignisse außerhalb des Gehirns in Zeitscheiben zerlegt werden (‚frames‘), die dann als diese Zeitscheiben weiter verarbeitet werden.

Im Rahmen der Bearbeitung und Verarbeitung der sensorischen Reize kommt es auf vielfache Weise zu Strukturbildungen, die wir auch als Abstraktionen verstehen können: eine Menge von einzelnen Erregungspunkten werden dann z.B. übersetzt in ‚Kanten‘, ‚Ecken‘, ‚Frequenzen‘ usw., die dann im weiteren Verlauf zu noch komplexeren Strukturen zusammengebaut werden. Letztlich werden hier die grundlegenden Eigenschaften von Objekten zusammengebaut, die wir dann anschließend in unserer bewussten Wahrnehmung als solche Strukturelemente bewusst wahrnehmen. Voraus und/ oder parallel zu dieser bewussten Wahrnehmung interagieren diese perzeptuellen Strukturen mit dem Gedächtnis (einer komplexen Gehirnleistung), in der sich bislang gelernte Strukturen, Beziehungen, Veränderungen usw. finden. Diese aktuell vorhandenen Erfahrungs-/Wissenselemente bilden automatisch einen Kontext zu den aktuellen Perzeptionen, so dass die aktuelle sensorische Wahrnehmung damit automatisch interpretiert wird.

Das  Gedächtnis hat vielfältige Funktionen. Neben den Abstraktionsleistungen und der Anordnung von Elementen in unterschiedlichen Beziehungen ist wohl die grundlegendste Leistung jene, durch die  aktuelle Wahrnehmungen mit  schon gespeicherten Inhalten verglichen werden können. Dadurch entsteht die Möglichkeit, das aktuelle Jetzt durch Rückgriff auf ein  erinnertes Jetzt in mögliche  Abfolgen aufzulösen und damit zu einem  fundamentalen Zeitbegriff zu kommen. Die Anordnung von Ereignissen in einer Abfolge induziert indirekt das, was wir  Veränderung nennen, darauf aufbauend Zeit. Zeit ist damit grundlegend eine Kategorie des Erkennens, der Erkenntnisleistung, ermöglicht durch die Leistung des Gehirns.

Mit der Verfügbarkeit von zeichenbasierten Sprachen verfügt das menschliche Gehirn und Bewusstsein über eine zusätzliche sehr starke Struktur: beliebige Inhalte des Bewusstseins lassen sich mit Ausdruckselementen zu bedeutungsvollen Ausdrücken verbinden, so dass durch den Austausch von physikalischen Zeichenträgern verschiedene Gehirne sich Botschaften über ihre internen Zustände übermitteln können. Diese akustischen (gesprochene Sprache) oder visuellen (Schriftzeichen, Texte) Signale können unterschiedlich komplex und elaboriert sein.

Aus der Kulturgeschichte wissen wir, dass Menschen seit Jahrtausenden in einer Vielzahl von Geschichten, Märchen, Mythen, Sagen, historischen Berichten, Theaterstücken, Ritualen, Gedichten, symbolischen (= mathematischen) Modellen usw. gelernt haben, Eigenschaften der Außenwelt wie auch der Innenwelt zu kommunizieren. Je nach Art des Textes ist der Bezug zur realen Welt oder zur möglichen Zukunft eher konkret, klar, nachvollziehbar, oder aber vage, nur angedeutet, nur vermutet, reine Fantasie.

Mit dem Aufkommen der empirischen Wissenschaften seit dem 16.Jahrhundert haben die Menschen gelernt, im Bereich der subjektiven Wahrnehmungen jene Teilmenge von Phänomenen gesondert zu behandeln, die sich mit Messvorgängen in der Außenwelt (= objektiv) verbinden lassen. Messvorgänge und deren Ergebnisse sind zwar weiterhin  subjektive Phänomene, aber eben nicht nur; ihnen korrespondiert etwas in der  gemeinsamen (= intersubjektiven = objektiven) Außenwelt.

Die Verknüpfung von empirischen Messwerten mit zeichenbasierten Ausdrücken einer formalen (meist mathematischen) Struktur zu einer  empirischen Theorie bleibt zwar weiterhin verankert in einem individuellen Bewusstsein, in einem individuellen Gedächtnis, aber die Verständigung zwischen den verschiedenen Gehirnen verschiedener Wissenschaftler kann über den Bezug zu objektiven Sachverhalten eher  synchronisiert werden als ohne diesen Bezug. Mit dem Voranschreiten der  Theoriebildung zu immer komplexeren Strukturen erweist sich allerdings die Absicherung solcher Theorien durch empirische Messwerte als immer schwieriger. Dazu kommt, dass moderne Messgeräte selbst schon komplexe Theorien repräsentieren, die man voraussetzen muss, um überhaupt solche Messwerte zu bekommen.

Als Nebeneffekt der neueren komplexen zeichenbasierten Theorien konnte man unter anderem auch die  Vorstellung von der Zeit auf unterschiedliche Weise präzisieren und neu formulieren.

III. ZEIT ZUM FÜHLEN – MEDITATION

Die Zeit zum individuellen Fühlen (andere nennen es Meditation) wurde von den einzelnen unterschiedlich genutzt. Historisch ist er Begriff vielfältig belegt, meist durch religiös-kirchliche Kontexte. Heute ist es im Westen ein Trendthema, vielfach unabhängig von Kirchen und Religionen, dem sich die Wirtschaft auf unterschiedliche Weise bemächtigt hat. Philosophisch ist es eine grundlegende Form der Selbstvergewisserung im eigenen Fühlen. Man kann sich war in vielfältigen Formen (speziell auch Bewegung, Sport, Spaziergang, usw.) ‚fühlen‘, das ruhige Dasitzen hat aber offensichtlich eine besondere Qualität. Allerdings gilt: tiefere Wirkungen stellen sich auch hier erst mit vielen Wiederholungen über einen längeren Zeitraum ein. Generell gilt, dass man mit dem Meditieren als ’sich fühlen‘ in eine ‚offene Zone des Erlebens‘ eintritt, deren ‚Ränder‘ und deren möglichen ‚Inhalte‘ im Vorhinein nicht abgegrenzt und nicht völlig definierbar sind. Im ‚Sich Fühlen‘ kann man sehr viel Neues entdecken, Unangenehmes wie Angenehmes.

IV. DISKURS

Philosophiewerkstatt 16.Juli 2017 - Gedankenbild - Diskurs

Philosophiewerkstatt 16.Juli 2017 – Gedankenbild – Diskurs

Nach der Einstimmung nahm das Gespräch Fahrt auf (siehe dazu das Schaubild ‚Diskurs‘). Zentraler Dreh- und Angelpunkt war der Begriff des Neuen.\\

Die erste Schwierigkeit bestand darin, wie man den Begriff des ‚Neuen‘ klarer fassen kann.

Grundlegend sollte gelten, dass wir das ‚Neue‘ immer im Kontext einer  bestimmten Person betrachten und hier mit Bezug auf die Gesamtheit des Wissens und der Erfahrung dieser Person. Diese Gesamtheit wurde auch gleichgesetzt mit der subjektiven Wahrheit dieser Person [Anmerkung: Zu den Elemente einer subjektiven Wahrheit siehe den vorausgehenden Abschnitt].  Als ’neu‘ sollte dann alles gelten, was relativ zu dieser vorausgesetzten  aktuellen subjektiven Wahrheit neu ist, weil es nicht zu dem bislang Bekanntem ‚passt‘.

Unterstellt man, dass die subjektive Wahrheit eine  dynamische Größe ist, die sich beständig ändern kann (z.B. durch Lernen), dann ist auch das ‚Neue‘ relativ: was eben noch ’neu‘ war ist beim nächsten Mal schon nicht mehr neu. Ein  aktuell Neues führt zu Veränderungen in der  aktuellen Wahrheit, wodurch das Neue zum schon Bekannten wird.

Wichtig ist auch, dass die wissensmäßigen und handlungsmäßigen Anteil der Erfahrung zusätzlich auf vielfältige Weise mit Erfahrungen von Bedürfnissen, Emotionen, Stimmungen, Gefühlen usw. verknüpft sind. Ist etwas Erinnerbares mit  negativen Emotionen verknüpft, kann es dazu führen, dass wir etwas ablehnen, ihm auszuweichen versuchen; verknüpft es sich mit positiven Emotionen, kann es umgekehrt anregen, dies anzustreben. Ist es  neutral, dann ist offen, was wir damit wollen.

Ohne Vorerfahrungen sind wir in gewisser Weise blind: wenn jemand eine Situation als  Gefahrensituation einstufen kann, dann kann — abhängig von der verfügbaren Erfahrung — eine ganze Skala von Reaktionen ablaufen. Entweder, man hat ein-trainierte Verhaltensmuster, die man abrufen kann, oder, wenn nicht, können angeborene Reflexe einsetzen, die einen zum Kampf oder zur Flucht oder z.B. zm Tot-stellen drängen. Hat man die Erfahrung nicht, dann können Menschen ’nichtsahnend‘ in Gefahrensituationen hineingehen, ohne sich entsprechend zu verhalten.

V. NACHTRAG

Was in den Gesprächen klar wurde, ist die  vollständige Abhängigkeit des einzelnen von seiner (subjektiven) Wahrheit. Was immer ein einzelner tun will, er wird geleitet werden von seiner aktuellen Wahrheit. Sollte diese seine Wahrheit durch seine Umgebung (Erziehung, Erfahrungen, andere Menschen…) einseitig sein, die ‚wahre Welt‘ nur ‚verzerrt‘ repräsentieren, dann könnte der einzelne selbst bei bester Absicht nicht optimal wahr handeln, da er nur seine eigene aktuelle Wahrheit hat.

Jeder einzelne Mensch stellt hier eine lebende Geschichte dar. Als Beispiel kann der Bericht über einen türkischen Lungenfacharzt Gergerlioglu dienen [Anmerkung: Siehe Frankfurter Allgemeine Sonntagszeitung, 16.Juli 2017, Nr.28, S.3.]  Als überzeugter Muslim hat er früher gemeinsam mit der AKP (Adalet ve Kalkınma Partisi = Partei für Gerechtigkeit und Entwicklung) für die Rechte von Muslimen, speziell für die Rechte der Frauen, gekämpft. Über dieses Engagement entdeckte er die Sicht der allgemeinen Menschenrechte. Von da war es für Ihn dann kein weiter Weg, zu entdecken, dass es ja noch andere religiöse Gruppen gab, die in der Türkei unterdrückt wurden: Aleviten, Christen, Kurden, Armenier, Atheisten, und die Misshandlung von Frauen. Er trat einer Menschenrechtsgruppe bei, wurde bald zum Vorsitzenden und dann deren Präsident in der ganzen Türkei. Damals arbeitete er noch eng mit der AKP zusammen, da sie zu dieser Zeit sich noch für die Rechte von Minderheiten einsetze und einen Aussöhnungsprozess mit den Kurden aktiv betrieb. Nach dem Verlust der absoluten Mehrheit für die AKP änderte sich plötzlich alles.

Unter Erdogan begann jetzt ein nationalistisches Vorgehen, in dessen Zusammenhang der Friedensprozess mit den Kurden gestoppt wurde; Hetze gegen Kurden und Minderheiten war plötzlich Realität. Als Gergerlioglu versuchte den Wahnsinn deutlich zu machen, indem er im Internet die Bilder von zwei Särgen veröffentlichte, einer mit einer türkischen, einer mit einer PKK-Flagge; daneben jeweils eine Mutter die weinte. Gergerlioglu stellte die Frage, warum verzehren wir uns gegenseitig, warum können die beiden nicht gleichberechtigt nebeneinander, Schulter an Schulter leben?

Diese Aktion machten Gergerlioglu innerhalb von 48 Std zum Terrorverdächtigen. Er wurde vom Dienst suspendiert, sein Pass wurde als ungültig erklärt, dann wurde er offiziell aus dem Staatsdienst entlassen. In der Justiz gab es angeblich kein Personal, um den Staatsanwalt auf ordentliche Weise einzuschalten. An der Schule seine Sohnes wurde er gebeten, nicht mehr für den Elternverein zu kandidieren. Aus dem Moscheeverein seines Viertels wurde er verdrängt. Seine schon eingereichten medizinischen Aufsätze wurden nicht mehr gedruckt. Später wurde auch seine Krankenversicherung gekündigt. Wie sich herausstellte, wurden mittlerweile alle Bürger in zwei Codegruppen eingeteilt: die mit einer 1 am Anfang sind unerwünscht, die mit einer 0 sind OK. Dies kommt einer gesellschaftlichen Auslöschung gleich.

Dieses Beispiel zeigt, dass die subjektive Wahrheit sich bei Herrn Gergerlioglu nicht geändert hat, wohl aber die Wahrheit der politisch einflussreichen Partei und deren Anhänger und Unterstützer. Menschenrechte und eine bestimmte Auffassung von Demokratie besitzen gesellschaftlich keine Mehrheiten mehr. Dies führt zu willkürlichen Ausgrenzungen von mittlerweile geschätzten 175.000 Bürgern. Offene Prozesse, transparente Nachweise fehlen bislang. Äußerungen des türkischen Wirtschaftsministers über potentielle Gegner der Regierung lassen das Allerschlimmste befürchten.

Interessant ist die Reaktion von Herrn Gergerlioglu auf diese Ereignisse. Für ihn sind die geänderten Kontexte neu. Die realen Begleiterscheinungen sind bedrohlich, schmerzlich, lebensverneinend, ohne große Perspektive (er hat u.a. eine schwerkranke Frau, deren Medikamente er bald nicht mehr bezahlen kann). Was ihm bislang Kraft gibt, diese Differenz zwischen seiner subjektiven Wahrheit und die des Kontextes auszuhalten, das ist sein Glaube. Was ist das, dieser  Glaube?

KONTEXTE

Einen Überblick über alle Einträge zur \textit{Philosophiewerkstatt nach Titeln} findet sich HIER.

Einen Überblick über alle \textit{Themenbereiche des Blogs} finden sich HIER.

Das aktuelle \textit{Publikationsinteresse des Blogs} findet sich HIER.

DIE ZUKUNFT WARTET NICHT – 2117 – PHILOSOPHISCHE WELTFORMEL – FAKE-NEWS ALS TODESENGEL

NACHTRAG: Mo, 13.März 2017

Wichtiger Nachtrag zum Komplexitätsbegriff, seinen Grenzen, und erweiterte  Diskussion zur ersten Periodisierung genannt ‚Emergent Life‘ (hauptsächlich ab Nr.25)

KONTEXT

  1. Der aktuelle Blogeintrag ist keine direkte Fortsetzung des letzten Eintrags, sondern schließt gedanklich eher an den vorletzten Beitrag an und ist von daher eher als eine Einleitung zu dem Blogeintrag über das Bewusstsein zu verstehen.
  2. Welche Themen jeweils in die Feder fließen hängt von vielerlei Faktoren ab. Generell natürlich schon von den übergreifenden Perspektiven des Blogs, dann aber auch von alltäglichen Ereignissen und Diskussionen. Dass es heute nun zu diesem sehr grundsätzlichen Beitrag gekommen ist, ist u.a. den intensiven Diskussionen mit Manfred Fassler geschuldet, der aufgrund seines Hintergrundes in Soziologie und Anthropologie die gesellschaftliche Dimension stark in die Überlegungen einbringt, während ich mich meist auf systemische Perspektiven fokussieren. Als ich versucht habe (während ich durch meine Grippe weitgehend ausgeschaltet war (und immer noch bin)), seine Aspekte mit meinen Überlegungen zusammen zu bringen, entstand schrittweise eine Struktur, ein Modell, das sich darstellt wie der Beginn einer philosophischen Weltformel, mit deren Hilfe man mit einem Male viele komplexe Einzelphänomene in die Logik eines übergeordneten Zusammenhangs einordnen kann (siehe Schaubild).

    Periodisierung der Evolution des Lebens mit dem Versuch eines systematischen Kriteriums

    Periodisierung der Evolution des Lebens mit dem Versuch eines systematischen Kriteriums

WELTFORMEL

  1. Den Begriff Weltformel kennen wir ja meist nur im Kontext der modernen Physik, die mit ihren Erklärungsmodellen zu immer umfassenderen Aussagen über das Universum kommen konnte, so umfassend, dass man tatsächlich geneigt ist, von einer Weltformel zu sprechen. Nun wissen wir aber, dass diese sogenannten Weltformeln der Physik bislang noch nicht wirklich alles erklären, geschweige denn nicht all jene Phänomene, die wir dem Bereich des biologischen Lebens zuordnen und den damit verbundenen immer komplexeren Phänomenen von Verhalten und menschlichen Gesellschaften. Es besteht auch wenig Aussicht, dass die physikalischen Weltformeln jemals zu einer völlig erschöpfenden Weltformeln werden könnte, weil schon rein mathematisch eine Theorie der Welt ohne jene, die die Theorie hervorbringen, seit Gödel 1931 entweder als grundsätzlich unvollständig oder unentscheidbar gilt.
  2. Ein anderes Hindernis besteht darin, dass die Physik als empirische Wissenschaft – wie alle anderen empirischen Disziplinen auch – schon vom Start weg nur einen kleinen Teil der möglichen Phänomene dieser Welt als Ausgangspunkt zulässt. Diese vorwissenschaftlich getroffene methodische Beschränkung auf die sogenannten intersubjektiven Phänomene, die sich mittels vereinbarter Messverfahren messen lassen, und zwar invariant mit Bezug auf den, der misst, hat sich zwar im großen und ganzen als sehr leistungsfähig erwiesen, aber anzunehmen, dass sich mit dieser methodisch eingeschränkten Phänomenmenge auf lange Sicht alles erklären lassen wird, auch das, was sich hinter den ausgeschlossenen Phänomenen verbirgt, dies ist eine vor-wissenschaftliche Annahme, für die es keinerlei Belege gibt. Die Zukunft wird zeigen, wie es sich mit diesem Ausschluss verhält.
  3. Ob es also die Physik sein wird, die uns die endgültige Weltformel liefern wird, oder doch eher die Philosophie, wird uns die Zukunft zeigen. Die Philosophie hat gegenüber der Physik (und auch gegenüber allen anderen empirischen Disziplinen), den methodisch großen Vorteil, dass die Philosophie alle anderen Disziplinen voraussetzen und einbeziehen kann. So kann ein Philosoph alle Fragmente und Entwürfe von Weltformeln der Physik nehmen und dann dazu ergänzend, erweiternd, begründend seine Weltformel formulieren. Alles, was in der Physik gilt, wird dann hier auch gelten, aber eventuell noch mehr.
  4. Die Überlegungen des Autors zu den Umrissen einer philosophischen Weltformel begannen nun aber gerade nicht so, dass er sich vor den Computer gesetzt hat und sich sagte, so, jetzt wird eine philosophische Weltformel geschrieben. Nein, so würde es auch nie funktionieren. Formeln, selbst die einfachsten, sind immer Ergebnisse von Denkprozessen, mehr oder weniger bewusst, mehr oder weniger schnell. Und eine Weltformel ist, wie man vermuten kann, wenn überhaupt, das Ergebnis von vielen Jahren Arbeit mit ganz vielen Inhalten. Und wie wir wissen, Zeit und Aufwand alleine garantieren auch keine Ergebnisse; sie können die Wahrscheinlichkeit erhöhen, etwas Interessantes zu finden, aber garantieren kann man es nicht.
  5. Das Ganze fing eher unscheinbar an. Unter dem Eindruck eines Telefonats mit Manfred Fassler begann der Autor zunächst für sich, eine Skizze jener Themen zu malen, die in diesem Blog seit 2007 aufgeschlagen sind (380 Beiträge von cagent und 52 Beiträge von cagent im Kontext der Werkstattgespräche). Er überlegte sich, ob man die Themen nach bestimmten inhaltlichen Kriterien und zeitlich ‚clustern‘ könnte. Was dabei herauskam das waren diese merkwürdigen Zylinderfiguren auf der linken Seite des Bildes.

ZEITLICHE EINTEILUNGEN

 

  1. Von oben – beginnend mit dem Big Bang – bis nach unten, zur Gegenwart, haben wir eine zeitliche Erstreckung von ca. 13.8 Mrd Jahren. Eine Einteilung hängt von vorausgehenden Kriterien ab, von einem Muster, Modell, von dem man annimmt, dass es die Menge der Ereignisse sinnvoll strukturiert.
  2. Wie man aus der Skizze ersehen kann, wurde solch eine Unterteilung vorgenommen.
  3. Im ersten Anlauf wurde versucht, mit einem Begriff der Komplexität zu arbeiten. Dahinter steht die Intuition, dass es sich bei den zu beschreibenden Ereignissen um Strukturen handelt, sich sich im Laufe der Zeit bildeten und die immer dichter wurden. Die aktuelle Unterteilung markiert solche Phasen, in denen hervorstechende Komplexitätssprünge zu verzeichnen sind.
  4. Bevor auf die Details dieser Betrachtung eingegangen wird, soll aber zunächst der benutzte Komplexitätsbegriff näher erläutert werden. Dabei sei schon hier angemerkt, dass sich im weiteren Verlauf herausgestellt hat, dass der gewählte Komplexitätsbegriff viel zu schwach ist, um jene Eigenschaften zu repräsentieren, von denen die heutige Biologie, Ethologie und Anthropologie (und möglicherweise viele weitere Disziplinen) sagen würden, dass sie als ‚wichtig‘ für das Phänomen angesehen werden.

KOMPLEXITÄT

 

  1. Vorab, es gibt in der Literatur keinen einheitlichen Komplexitätsbegriff. Im Laufe der Jahre habe ich einen eigenen Begriff von Komplexität entwickelt, den ich hier kurz vorstelle. Man kann ihn dann kritisieren oder übernehmen. Im Falle von Kritik wäre ich an Argumenten interessiert, um weiter lernen zu können, ihn vielleicht weiter zu entwickeln oder letztlich doch wieder zu verwerfen.
  2. Die Frage ist immer, mit welcher mentalen Brille man die Wirklichkeit sieht. Der berühmte Pessimist sieht überall die halbleeren Gläser, der Optimist die halbvollen. Der Tierschützer sieht überall, wie die Tiere leiden, der Chemiker sieht überall chemische Verbindungen am Werke, der Immobilienmakler potentielle Kaufobjekte, und so fort.
  3. Für die Frage der Komplexität besteht eine Möglichkeit darin, sich die mentale Brille der Systeme aufzusetzen. Mit der System-Brille besteht die Welt nur noch aus Systemen. Ein System ist Etwas, das sich von seiner Umgebung unterscheiden lässt. Diese Annahme impliziert, dass es rein abstrakt zwischen diesem unterscheidbaren Etwas und seiner Umgebung Wechselwirkungen geben kann. Sofern es um Einwirkungen auf das System geht sprechen wir einfach vom Input (I) des Systems und im umgekehrten Fall, wenn das System auf die Umgebung einwirkt, vom Output (O) des Systems. Rein abstrakt, auf der begrifflichen Ebene, hat ein System demgemäß immer einen Input und Output in Wechselwirkung mit seiner Umgebung; im konkreten, empirischen Fall, kann diese Wechselwirkung so schwach sein, dass sie sich nicht messen lässt. Dann ist die Wechselwirkung leer, oder 0 = I = O.
  4. Nimmt man ein bestimmtes System S als Bezugspunkt, dann kann man sagen, dass sich das System S auf Ebene/ Level 0 befindet. Alle Systeme, die sich mit Bezug auf das System S in seiner Umgebung befinden, wären dann auf der Ebene/ dem Level +1. Alle Systeme, die sich im System S befinden, finden sich auf Ebene/ Level -1. Sollte ein System S‘ sich auf Level -1 von System S befinden, also LEVEL(S‘,S,-1), und sollte das System S‘ selbst weiter Systeme S“ enthalten, dann lägen diese auf Level -2 von System S (und auf Level -1 zu System S‘).
  5. Beispiel: Vom menschlichen Körper wissen wir, dass er sich so betrachten lässt, dass er aus einer endlichen Anzahl von Körperorganen besteht (Level -1), die wiederum aus vielen Zellen bestehen (Level -2). Hier kann man entweder weitere Subeinheiten annehmen oder betrachtet diese Zellen als nächsten Bezugspunkt, von denen wir wissen, dass jeder Körperzelle wiederum aus einer Vielzahl von Systemen besteht (Level -3). Diese Betrachtung könnte man weiter fortsetzen bis zu den Molekülen, dann Atomen, dann subatomaren Teilchen, usw. Nimmt man die Umgebung menschlicher Körper, dann haben wir auf Level +1 andere menschliche Körper, Tiere, Pflanzen, Gebäude, Autos, Computer usw. Jedes dieser Systeme in der Umgebung ist selbst ein System mit inneren Systemen.
  6. Was bislang noch nicht gesagt wurde, ist, dass man anhand der Inputs und Outputs eines Systems sein Verhalten definiert. Die Abfolge von Inputs und Outputs konstituiert eine Folge von (I,O)-Paaren, die in ihrer Gesamtheit eine empirische Verhaltensfunktion f_io definieren, also f_io ={(i,o), …, (i,o)}, wobei man mit Hilfe einer Uhr (eine Maschine zur Erzeugung von gleichmäßigen Intervallen mit einem Zähler) jedem Input- und Outputereignis eine Zeitmarke zuordnen könnte.
  7. Während empirisch immer nur endlich viele konkrete Ereignisse beobachtet werden können, kann man abstrakt unendlich viele Ereignisse denken. Man kann also abstrakt eine theoretische Verhaltensfunktion f_th über alle möglichen denkbaren Input- und Outputereignisse definieren als f_th = I —> O. Eine empirische Verhaltensfunktion wäre dann nur eine Teilmenge der theoretischen Verhaltensfunktion: f_io c f_th. Dies hat Vorteile und Nachteile. Die Nachteile sind ganz klar: theoretisch spricht die Verhaltensfunktion über mehr Ereignisse, als man jemals beobachten kann, also auch über solche, die vielleicht nie stattfinden werden. Dies kann zu einer falschen Beschreibung der empirischen Welt führen. Demgegenüber hat man aber den Vorteil, dass man theoretisch über Ereignisse sprechen kann, die bislang noch nicht beobachtet wurden und die daher für Prognosezwecke genutzt werden können. Wenn die Theorie also sagen würde, dass es ein bestimmtes subatomares Teilchen mit der Beschaffenheit X geben müsste, was aber bislang noch nicht beobachtet werden konnte, dann könnte man aufgrund dieser Prognose gezielt suchen (was in der Vergangenheit auch schon zu vielen Entdeckungen geführt hat).
  8. Rein abstrakt kann man ein System SYS damit als eine mathematische Struktur betrachten, die über mindestens zwei Mengen Input (I) und Output (O) definiert ist zusammen mit einer Verhaltensfunktion f, geschrieben: SYS(x) genau dann wenn x = <I,O,f> mit f: I → O.
  9. Rein abstrakt gilt also, dass jedes System SYS auch weitere Systeme als interne Elemente besitzen kann, d.h. Jedes System kann Umgebung für weitere Systeme sein. Nennen wir die Gesamtheit solcher möglicher interner Systeme IS, dann müsste man die Strukturformel eines Systems erweitern zu SYS(x) gdw x = <I,O,IS,f> mit f: I x IS —> IS x O. Dies besagt, dass ein System mit weiteren internen Systemen IS in seinem Verhalten nicht nur abhängig ist vom jeweiligen Input I, sondern auch vom Output der jeweiligen internen Systeme. Aus beiden Inputs wir dann nicht nur der Systemoutput O ermittelt, sondern zugleich bekommen auch die internen Systeme einen Input (der diese internen Systeme u.U. So verändern kann, dass sie beim nächsten Mal ganz anders reagieren als vorher).
  10. In welchem Sinn könnte man nun sagen, dass ein System S komplexer ist als ein System S‘ (geschrieben S >~> S‘)?
  11. Es gibt jetzt verschiedene Möglichkeiten. Einmal (i) könnte die Anzahl der inneren Ebenen (-N) ein Ansatzpunkt sein. Ferner (ii) bietet sich die Anzahl der Systeme pro Ebene (|-n| mit n in N), ihre ‚Dichte‘, an. Schließlich (iii) macht es auch einen Unterschied, wie groß die Anzahl der möglichen verschiedenen Inputs-Outputs ist, die in ihrer Gesamtheit einen Raum möglicher Verhaltenszustände bilden (|I| x |O| = |f_io|). Rein mathematisch könnte man auch noch (iv) den Aspekt der Mächtigkeit der Menge aller Systeme einer Art SYS, also |SYS|, definieren und diese Menge – die in der Biologie Population genannt wird – als eine Art ‚Hüllensystem‘ S_pop definieren. Ein Hüllensystem wäre dann ein System, das ausschließlich Elemente einer bestimmten Art enthält. Ein Hüllensystem S_pop_a könnte zahlreicher sein als ein Hüllensystem S_pop_b, |S_pop_a| > |S_pop_b|, es könnte aber auch sein, dass sich die Mächtigkeit einer Population im Laufe der Zeit ändert. Eine Population mit einer Mächtigkeit |S_pop_x| = 0 wäre ausgestorben. Die Veränderungen selbst können Wachstumsraten und Sterberaten anzeigen.
  12. Im Folgenden nehmen wir hier an, dass ein System S komplexer ist als ein System S‘ (S >~> S‘), wenn S ein System im Sinne der Definition ist und entweder (i) mehr innere Ebenen enthält oder (ii) pro innere Ebene eine höhere Dichte aufweist oder aber (iii) der Raum möglicher Verhaltenszustände der beteiligten Systeme größer ist. Bei Gleichheit der Größen (i) – (iii) könnte man zusätzlich die Größe (iv) berücksichtigen.
  13. Beispiel: Die Milchstraße, unsere Heimatgalaxie, umfasst zwischen 150 und 400 Mrd. Sterne (Sonnen) und hat einen Durchmesser von ca. 100.000 bis 180.000 Lichtjahre. In einem einführenden Buch über die Mikrobiologie präsentiert Kegel als neueste Schätzungen, dass der menschliche Körper etwa 37 Billionen (10^12) Körperzellen umfasst, dazu 100 Billionen (10^12) Bakterien im Körper und 224 Mrd. (10^9) Bakterien auf der Haut. Dies bedeutet, dass ein einziger menschlicher Körper mit seinen Körperzellen rein quantitativ etwa 150 Galaxien im Format der Milchstraße entspricht (1 Zelle = 1 Stern) und die Bakterien darin nochmals etwa 400 Galaxien. Dies alles zudem nicht verteilt in einem Raum von ca. 550 x 100.000 – 180.000 Lichtjahren, sondern eben in diesem unserem unfassbar winzigen Körper. Dazu kommt, dass die Körperzellen (und auch die Bakterien) in intensiven Austauschprozessen stehen, so dass eine einzelne Zelle mit vielen Tausend, wenn nicht gar zigtausenden anderen Körperzellen kommuniziert (Hormone im Blut können können viele Milliarden Zellen adressieren). Diese wenigen Zahlen können ahnen lassen, mit welchen Komplexitäten wir im Bereich des Biologischen zu tun haben. Dabei ist noch nicht berücksichtigt, dass ja die Zellen im Körper meist noch in funktionellen Einheiten organisiert sind mit weiteren Untereinheiten, so dass sich hier viele Ebenen finden lassen.

KOMPLEXITÄTSEREIGNISSE

 

  1. Unter Voraussetzung des bisherigen Komplexitätsbegriffs kann man nun die Ereignisse der biologischen Evolution mit diesem Begriff beschreiben und schauen, ob es irgendwann einen hervorstechenden Komplexitätssprung gibt, der möglicherweise den Beginn einer neuen Phase markiert.
  2. An dieser Stelle wird schon deutlich, dass die Wahl eines Komplexitätsbegriffs basierend auf Systemen möglicherweise noch zu schwach ist, um den zu beschreibenden Phänomenen gerecht zu werden. Den Begriff ‚Komplexitätssprung‘ kann man zwar formal definieren (es gibt immer viele Möglichkeiten), ob nun solch ein Konzept dann in der empirischen Realität aber genau das beschreibt, was wirklich dem Phänomen optimal entspricht, das kann sich letztlich nur am empirischen Ereignis selbst anschaulich entscheiden (im positiven Fall). Ein einfacher Ansatz wäre, einen Komplexitätssprung über den Begriff des minimalen Abstands zwischen zwei Komplexitäten S und S‘ zu definieren, und unter Einbeziehung ‚einer empirisch sinnvollen Konstante‘. Dann würde immer dann, wenn ein solcher Abstand gemessen werden kann, ein Komplexitätssprung vorliegt. Was wäre aber ein ‚empirisch sinnvoller Abstand‘ in biologischer Sicht?

PERIODISIERUNG

  1. Betrachtet man nach diesen Vorbemerkungen das Schaubild, dann kann man als ersten Abschnitt ‚Emergent Life‘ erkennen. Dies identifiziert die Zeit ab dem ersten nachgewiesenen Auftreten von biologischen Zellen, vor ca. 3.5 Mrd Jahren (nach neuesten Funden evtl. sogar schon ab 3.77 Mrd Jahren). Der Übergang von Molekülen zu sich selbst reproduzierenden Zellen markiert einen gewaltigen Komplexitätssprung.
  2. Man kann versuchen, den formalen Komplexitätsbegriff darauf anzuwenden. Nimmt man beispielsweise eine eukaryotische Zelle als System S, dann kann man typische Umgebungen ermitteln, interne Organisationslevel, die Dichte auf den Leveln sowie den Raum möglicher Verhaltenszustände von jedem beteiligten System. Nimmt man als Vergleich die strukturell einfacheren prokaryotischen Zellen (die als evolutionär älter gelten), dann kann man zu unterschiedlichen Werten kommen, die im Falle der prokaryotischen Zellen kleiner ausfallen. Im Unterschied zu einer Ansammlung von irgendwelchen Molekülen wird man noch größere Unterschiede feststellen. Will man diese strukturellen Unterschiede für eine Klassifikation nutzen, dann muss man sie gewichten. Ohne hier auf die Details einer solchen Gewichtung eingehen zu können (das wäre ein eigener riesiger Artikel) stellen wir hier einfach mal fest, dass gilt: S_eukaryot >~> S_prokaryot >~> S_molecule, wobei der ‚Abstand‘ zwischen den beiden Zelltypen deutlich kleiner ist als zwischen dem einfachen Zelltyp und einem einfachen Molekül, also Distance(S_eukaryot, S_prokaryot) < Distance(S_prokaryot, S_molecule).
  3. Unterstellen wir mal, alle Details vorausgehender Klassifikationen wären erfüllt. Was wäre damit erreicht? Wir wüssten schematisch, dass wir es mit drei verschiedenen Typen von Systemen zu tun hätte mit unterschiedlichen Levels, Input-Output-Räumen, unterschiedlichen Dichten … hätten wir damit aber irgendetwas von dem erfasst, was die evolutionäre Biologie, Molekularbiologie, Zellbiologie usw. bislang als charakteristisch für die biologische Zelle erkannt zu haben meint?
  4. Einige der wichtigen Eigenschaften werden informell so beschrieben: (i) Zellen haben eine erkennbare Struktur mit Wechselwirkungen zur Umgebung (insofern sind sie Systeme); (ii) sie sind in der Lage, Energie aus der Umgebung aufzunehmen und damit unterschiedliche chemische Prozesse zu moderieren; (iii) sie sind in der Lage, die Strukturen und Funktionen dieser Struktur in Form eines speziellen Moleküls zu kodieren (Bauplan, ‚Gedächtnis‘); (iv) sie können sich mit Hilfe des Bauplans reproduzieren, wobei die Reproduktion Abweichungen zulässt.
  5. Mindestens in diesen vier genannten Eigenschaften unterscheiden sich biologische Zellen von Molekülen. Der zuvor eingeführte Komplexitätsbegriff kann hier zwar eine höhere Komplexität herausrechnen, aber tut sich schwer, die vier Leiteigenschaften angemessen zu repräsentieren. Woran liegt das?
  6. Das ist einmal der Begriff der Energie. Dieser wurde von der Physik in vielen Jahrhunderten schrittweise erarbeitet und ist eine Eigenschaft, die generisch die gesamte empirische Welt durchzieht. Letztlich liegt er allem zugrunde als Äquivalent zur bewegten Massen. Wenn man nur Strukturen von Systemen betrachtet, kommt Energie nicht wirklich vor. Wenn es nun aber eine zentrale neue Eigenschaft eines Systems ist, freie Energie für eigene Zwecke ‚verarbeiten‘ zu können, dann müsste dies in die Systemstruktur aufgenommen werden (spezielle Funktionen…). Allerdings verarbeiten sogar Moleküle in gewisser Weise Energie, allerdings nicht so komplex und produktiv wie Zellen.
  7. Dann sind dort die metabolischen Prozesse (Stoffwechselprozesse) der Zellen. Diese sind extrem vielfältig und komplex miteinander verwoben. Der abstrakte Komplexitätsbegriff kann dies zwar anzeigen, aber nur ‚äußerlich‘; die Besonderheiten dieser Prozesse werden damit nicht sichtbar.
  8. Schließlich das Phänomen des Zellkerns mit Molekülen, die einen Bauplan kodieren; man könnte dies auch als eine Form von Gedächtnis beschreiben. Zum kodierten Bauplan gibt es auch eine komplexe Dekodierungsmaschinerie. Eine rein formale Repräsentation im Komplexitätsbegriff macht die Besonderheit nicht sichtbar. Wenn man weiß, worauf es ankommt, könnte man eine entsprechende Systemstruktur zusammen mit den notwendigen Operationen definieren.
  9. Was sich hier andeutet, ist, dass die abstrakte Seite der formalen Repräsentation als solche zwar nahezu alles zulässt an Formalisierung, aber welche Struktur letztlich etwas Sinnvolles in der empirischen Welt kodiert, folgt aus der abstrakten Struktur alleine nicht. Dies muss man (mühsam) aus den empirischen Phänomenen selbst herauslesen durch eine Art induktive Modellbildung/ Theoriebildung, also das, was die empirischen Wissenschaften seit Jahrhunderten versuchen.
  10. Der Versuch, ‚auf die Schnelle‘ die sich hier andeutenden Komplexitäten zu systematisieren, wird also nur gelingen, wenn die Verallgemeinerungen die entscheidenden empirischen Inhalte dabei ’nicht verlieren‘.
  11. Ohne diese Problematik an dieser Stelle jetzt weiter zu vertiefen (darauf ist später nochmals zurück zu kommen), soll hier nur ein Gedanke festgehalten werden, der sich mit Blick auf die nachfolgende Phase anbietet: mit Blick aufs Ganze und den weiteren Fortgang könnte man in der ersten Phase von Emerging Life als grundlegendes Ereignis die Ausbildung der Fähigkeit sehen, eine Art strukturelles Gedächtnis bilden zu können, das sich bei der Weitergabe strukturell variieren lässt. Damit ist grundlegend der Ausgangspunkt für die Kumulation von Wissen unter Überwindung der reinen Gegenwart möglich geworden, die Kumulierung von ersten Wirkzusammenhängen. Diese Urform eines Gedächtnisses bildet einen ersten grundlegenden Meta-Level für ein erstes Ur-Wissen von der Welt jenseits des Systems. Der Emerging Mind aus der nächsten Phase wäre dann der Schritt über das strukturelle Gedächtnis hin zu einem lokal-dynamischen Gedächtnis.
  12. Dann stellt sich die Frage, welche der nachfolgenden Ereignisse in der Evolution eine weitere Steigerung der Komplexität manifestieren? Kandidaten kann man viele finden. Zellen haben gelernt, sich in immer komplexeren Verbänden zu organisieren, sie haben immer komplexere Strukturen innerhalb der Verbände ausgebildet, sie konnten in immer unterschiedlicheren Umgebungen leben, sie konnten innerhalb von Populationen immer besser kooperieren, konnten sich auch immer besser auf die Besonderheiten anderer Populationen einstellen (als potentielle Beute oder als potentielle Feinde), und konnten immer mehr Eigenschaften der Umgebungen nutzen, um nur einige der vielfältigen Aspekte zu nennen. Manche bildeten komplexe Sozialstrukturen aus, um in zahlenmäßig großen Populationen gemeinsam handeln zu können (Schwärme, ‚Staaten‘, Verbünde, ….). Nach vielen Milliarden Jahren, von heute aus erst kürzlich, vor einigen Millionen Jahren, gab es aber Populationen, deren zentrale Informationsverarbeitungssysteme (Nervensysteme, Gehirne), das individuelle System in die Lage versetzen können, Vergangenes nicht nur zu konservieren (Gedächtnis), sondern in dem Erinnerbaren Abstraktionen, Beziehungen, Unterschiede und Veränderungen erkennen zu können. Zugleich waren diese Systeme in der Lage Gegenwärtiges, Gedachtes und neue Kombinationen von all dem (Gedachtes, Geplantes) symbolisch zu benennen, auszusprechen, es untereinander auszutauschen, und sich auf diese Weise ganz neu zu orientieren und zu koordinieren. Dies führte zu einer revolutionären Befreiung aus der Gegenwart, aus dem Jetzt und aus dem ‚für sich sein‘. Damit war mit einem Mal alles möglich: das schrittweise Verstehen der gesamten Welt, die schrittweise Koordinierung allen Tuns, das Speichern von Wissen über den Moment hinaus, das Durchspielen von Zusammenhängen über das individuelle Denken hinaus.
  13. Als nächster Komplexitätssprung wird daher das Auftreten von Lebewesen mit komplexen Nervensystemen gesehen, die ein Bewusstsein ausbilden konnten, das sie in die Lage versetzt, miteinander ihre internen Zustände symbolisch austauschen zu können, so dass sie einen Siegeszug der Erkenntnis und des Aufbaus komplexer Gesellschaften beginnen konnten. Dieses Aufkommen des Geistes (‚Emerging Mind‘) definiert sich damit nicht nur über die direkt messbaren Strukturen (Nervensystem, Struktur, Umfang,..), sondern auch über den Umfang der möglichen Zustände des Verhaltens, das direkt abhängig ist sowohl von den möglichen Zuständen des Gehirns, des zugehörigen Körpers, aber auch über die Gegebenheiten der Umwelt. Anders ausgedrückt, das neue Potential dieser Lebensform erkennt man nicht direkt und alleine an ihren materiellen Strukturen, sondern an der Dynamik ihrer potentiellen inneren Zustände in Wechselwirkung mit verfügbaren Umwelten. Es ist nicht nur entscheidend, dass diese Systeme symbolisch kommunizieren konnten, sondern auch WAS, nicht entscheidend alleine dass sie Werkzeuge bilden konnten, sondern auch WIE und WOZU, usw.
  14. Es ist nicht einfach, dieses neue Potential angemessen theoretisch zu beschreiben, da eben die rein strukturellen Elemente nicht genügend aussagestark sind. Rein funktionelle Aspekte auch nicht. Es kommen hier völlig neue Aspekte ins Spiel.

Die Fortsezung gibt es HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

DIE ZUKUNFT STIRBT ZUERST IN DEN KÖPFEN …

LETZTER BLOGEINTRAG

  1. Angeregt durch die Lektüre von Matt Ridleys Buch sind im vorausgehenden Blogeintrag einige sehr grundlegende Prinzipien herausgearbeitet worden, die allgemein wirken, denen jedes einzelne individuelle System unterworfen ist, auch jeder einzelne Mensch.

DIE BESONDERHEIT DES MENSCHEN IM BIOLOGISCHEN

  1. Unter anderem wurde auf die Besonderheiten der Menschen (der homo sapiens sapiens als Vertreter der hss-Population) hingewiesen, durch die sich die Menschen tatsächlich von der allgemeinen biologischen Umgebung abheben. Nicht in dem Sinne abheben, dass der Mensch jetzt plötzlich etwas anderes wäre als das allgemein Biologische, sondern so, dass der Mensch innerhalb des Biologischen neue, markante Eigenschaften an seinem Körper zeigt, die – verglichen mit allem anderen Biologischen – ihn in die Lage versetzen, seine eigene Struktur, seine eigene Entwicklung, sein Wechselspiel mit der jeweiligen Umgebung und mit der gesamten Umwelt anschauen und bewerten zu können, ja, er kann bis zu einem gewissen Grad mit diesen neuen Verstehensmöglichkeiten sich selbst und die ganze Welt probeweise spielerisch verändern, und sein Verhalten danach neu orientieren.

MENSCH ALS GEWOHNHEITSTIER

  1. Wenn wir den konkreten Alltag von Menschen anschauen, heute und in der Vergangenheit, sofern diese uns noch zugänglich ist, könnten wir den Eindruck gewinnen, dass der Mensch eher ein ‚Gewohnheitstier‘ ist, da er im Zweifelsfall eher das vorzieht, was er schon kennt, was ihm vertraut ist, von dem er glaubt, dass er es zu seinen Gunsten beeinflussen kann, von dem er glaubt, dass es ihm die meisten Vorteile bringt.

GEWOHNHEIT ALS ZUKUNFTSVERHINDERUNG

  1. So kann man im Bereich der Wirtschaft mit schöner Regelmäßigkeit beobachten, wie erfolgreiche Konzepte dazu führen, dass Firmen, ganze Wirtschaftsbereiche, sich in ihren Erfolgen einrichten, sie gegen Konkurrenten und Neuerungen abzusichern versuchen, sich von der Politik alle mögliche Unterstützungen sichern (das berühmte Lobbytum, das aus demokratisch gewählten Volksvertretern verkappte Interessenvertreter solcher zukunftsfeindlichen Industriepolitik macht), und dass diese Firmen dann sehr häufig übersehen, dass es alternative, bessere Ideen, Technologien und Vermarktungsmöglichkeiten gibt, die dann ‚über Nacht‘ auftreten und ganze Industriebereiche – bildlich gesprochen – in Schutt und Asche legen. Neben den vielen Beispielen aus der Vergangenheit erleben wir gerade, wie moderne, flexible, kundennahe Bezahldienst den angestammten Finanzdienstleister die Kunden Millionenweise abspenstig machen, oder wie eine selbst-verliebte Automobilindustrie feststellen muss, dass wichtige Schlüsseltechnologien für die Zukunft schon längst von anderen entwickelt und besetzt wurden.
  2. Sind diese Entwicklungen für die jeweiligen Industrie selbst verheerend, so sind sie natürlich auch für die jeweiligen Standorte, Regionen und Volkswirtschaften verheerend. Ganze Regionen können veröden (Stichworte Stahlindustrie in der Vergangenheit, Textilindustrie, Automatisierung, Schiffbau, Agrarindustrie, usw.). Leider ist es so, dass die lokalen und regionalen kommunalen Vertreter sich in allen Fällen blindlings den aktuellen Erfolgen verschrieben haben, anstatt im aktuellen Erfolg den Blick auch auf mögliche Alternativen zu richten, erweiternde Szenarien, so dass eine Region eben nicht nur von einer einzigen Technologie abhängig ist. Statt dass die Politik das kritische Korrektiv zu herrschenden Industrien bildet, diese zu Erneuerungen, Weiterentwicklungen, Alternativen anregt, haben sie ihr eigenes Denken weitgehend ausgeschaltet und spielen das Spiel der Selbstverliebtheit einfach mit. Der unausweichliche Technologie-Crash wird damit auch zu einem gesellschaftlichen Crash, den man hätte verhindern können, aber nicht verhindert hat (aktuell in Deutschland z.B. die Automobilstandorte, die Braunkohle, die Kohle, … ).

PRINZIP DER EVOLUTION WIRKT

  1. Betrachtet man die vielen Aufstiege und Abstürze verschiedener Technologien und gesellschaftlicher Systeme weltweit und im historischen Maßstab, dann kann man das Prinzip der Evolution am Wirken sehen, das Alternativen, wenn sie möglich sind, auch zum Tragen kommen; nicht immer sofort oder schnell, aber irgendwann dann doch, weil Effizienz sich letztlich durchsetzt. … oder weil das Leid und die Unzufriedenheit von großen Teilen einer Bevölkerung sich gegen ein herrschendes System aufgelehnt hat: einseitige Verteilung von Reichtum, einseitige Verteilung von Macht, unwürdige Lebensverhältnisse für Viele,  haben in der Vergangenheit oft zu  umstürzende Veränderungen geführt. Nicht immer war es danach besser.

NADELÖHR MENSCH

  1. Sofern der Mensch bei diesen Entwicklungen beteiligt ist, können  wir zwei gegensätzliche Tendenzen beobachten.
  2. Einerseits verfügt der Mensch über ein großes Potential im Erkunden neuer Möglichkeiten und deren technologischer und gesellschaftlicher Nutzung. Andererseits ist der Mensch durch sein biologisches Erbe als Individuum vielfach begrenzt und stark bedürfnis- und triebgesteuert; seine kognitiven Fähigkeiten sind einerseits außerordentlich, wenn es darum geht, sich mit seinem Körper in einer realen Umgebung zurecht zu finden, er hat aber Probleme, komplexe Zusammenhänge zu erfassen, und seine Kommunikationsfähigkeit ist primär für den Nahbereich ausgelegt, für einfache, alltägliche Sachverhalte. Zwar haben Erfindungen wie Schrift, Rechtssysteme, Handwerk, Technologie, Landwirtschaft, Städtebau usw. die Fähigkeit erhöht, dass Menschen im Zusammenwirken mit anderen auch komplexere Aufgaben lösen können, aber der einzelne individuelle Mensch hat sich bislang biologisch nicht wesentlich verändert. Der endliche, triebgesteuerte, am Nahbereich orientierte einzelne Mensch findet sich in immer komplexeren gesellschaftlichen und technologischen Zusammenhängen vor, die seine individuellen Fähigkeiten real übersteigen. Diese Differenz ist schwer erträglich und ist ein großer Motor für Entlastungsstrategien vielfältigster Art. Die einen erleben sich als krank; andere blenden ganze Bereiche der Wirklichkeit einfach aus; andere propagieren vereinfachte Modelle von der Wirklichkeit, die schön klingen und ein gutes Gefühl vermitteln, aber letztlich zu kurz greifen; usw. Religiöser Fanatismus, nationalistische Tendenzen, Abbau von Demokratie durch scheinbar starke Männer, Korruption, Lobbyismus, Zunahme von Kontrolle und Überwachung, dies sind Symptome von großen Ängsten, Tendenzen zur Vereinfachung, die in der Regel nur wenigen nutzen und vielen schaden.

WISSEN NICHT ANGEBOREN

WELT ALS MODELL IM KOPF

  1. Damit kommen wir zu einem zentralen Punkt. Sofern ein Mensch als Akteur an einem Prozess beteiligt ist, kann er neben den an sich ‚blinden‘ Bedürfnissen, Trieben und dem Bauchgefühl auch sein aktuell verfügbares Wissen zu Rate ziehen. Das Wissen ist nicht angeboren, sondern muss in lang andauernden Prozessen der Interaktion mit der Umgebung erworben, gelernt werden. Dieses Wissen ist etwas ‚in seinem Kopf‘, ‚in seinem Gehirn‘. Es ist das menschliche Gehirn, das aufgrund seiner Bau- und Funktionsweise in der Lage ist, die Vielzahl der sensorischen Eindrücke von der Umgebung zugleich mit der eigenen Körperwahrnehmung zu einem komplexen Puzzle zusammen zu setzen, das ‚im Kopf‘, ‚im Gehirn‘ als eine Art ‚virtuelle Welt‚ existiert, ein vom Gehirn konstruiertes Modell der Welt, das nicht die Welt selbst ist. Für jeden einzelnen aber, der solch ein Modell der Welt im Kopf hat, erscheint dieses Modell der Welt als die Welt selbst!
  2. Je nachdem, wie gut dieses Modell im Kopf ist, kann es im Alltag helfen, sich schnell zu orientieren. Man weiß in etwa, wo man sich befindet, wer die Person ist, die mit einem im Raum ist, wie die vielen Gegenstände benannt werden, welche Verhaltensweisen man von den Dingen und Menschen erwarten darf (meistens), usw. Und solange die Welt im Kopf mit der realen Situation harmoniert, solange erscheint die Welt im Kopf ganz natürlich als die Welt selbst. Wenn ich aber mein Fahrrad holen will und feststelle, es ist nicht mehr da; oder ich sehe ein Handy, das aussieht wie ein anderes, aber dieses Handy dann doch anders funktioniert, wie ich es gewohnt bin; oder die Landwirte in den USA in weiten Gebieten plötzlich Wildpflanzen nicht mehr bekämpfen können, weil das die Wildpflanzen gelernt haben, sich gegenüber den Umweltgiften der Landwirte zu erwehren; … dann fällt einem auf, dass das Modell im Kopf nicht die reale Welt ist. Wenn ganze Volkswirtschaften nur noch Arbeitslosigkeit und Schulden produzieren, dann fällt auf, dass unser Modell einer Volkswirtschaft in den Köpfen der Akteure vielleicht falsch ist; oder Menschen in meiner Umgebung verhalten sich plötzlich anders, als ich es jahrelang gewohnt war – was war das für ein Modell, das ich im Kopf von diesen Menschen hatte?
  3. Kurzum, den wenigstens Menschen ist bewusst, dass die Welt, die sie täglich voraussetzen, nicht einfach die Welt ist, wie sie ist, sondern auch die Welt, wie sie sich die Welt in ihrem Kopf vorstellen. Die klassische (Griechische) Philosophie konnte das Lebendige nicht erklären, erfand aber ein Wort (Pneuma von pneuein, atmen), um es zumindest zu benennen. Viele Jahrhunderte (eigentlich mehr als 2000 Jahre) war es der Fantasie der Menschen überlassen, sich vorzustellen, was dieses Pneuma, dieses Lebensprinzip, sein konnte. Erst seit ca. 100 Jahre konnte die Wissenschaft genügend Wissen erarbeiten, um ein mögliches empirisch motiviertes Modell dieses Pneuma-Lebensprinzips zu gewinnen. Und selbst heute ist vieles noch offen.
  4. Das Modell im Kopf, die Welt als explizite Hypothese, fällt nicht vom Himmel; das Modell muss mühsam von vielen 100.000enden jeden Tag neu erarbeitet, überprüft, modifiziert werden. Es ist ein unfassbarer Schatz an Wissen ohne den wir weitgehend blind sind und Spielbälle von an sich blinden Bedürfnissen, Trieben und Bauchgefühlen jeglicher Art. Dieser globale Prozess wissenschaftlicher Erkenntnis ist eingebettet in ein gesellschaftliches Umfeld, das in der Regel kaum an wirklichem Wissen interessiert ist. In der Gesellschaft geht es wie eh und je primär um Macht, Reichtum, Kontrolle, Befriedigung der primären Bedürfnisse, und die Wissenschaft, die Wissenschaftler, sind davon nicht abgeschottet: selten dürfen sie einfach forschen, was man erforschen könnte, sondern können nur forschen, wofür sie Geld bekommen oder was ‚politisch gewollt‘ ist. Die Kurzsichtigkeit der Politik ist aber ein aktuelles Problem. Es gäbe Wissenschaften, die uns allen helfen könnten, aktuelle Tendenzen besser zu bewerten, aber für solche Wissenschaften gibt es kein Geld; sie würden ja die Politik in ihrer Kurzsichtigkeit kritisieren. Davor scheut man zurück.

ZUKUNFT IST KEIN NORMALES OBJEKT

  1. Und hier sei nochmals an den fundamentalen Gedanken aus einem vorausgehenden Blogeintrag erinnert , dass die Zukunft ja nicht als ein Objekt existiert wie irgend ein anderes Objekt in unserer Umgebung. In der Wahrnehmung haben wir streng genommen nur ein Jetzt, das wir nur insoweit überwinden, übersteigen können, als die Fähigkeit unseres Gedächtnisses uns durch die Erinnerung von vergangenen Jetzt-Momenten und verschiedenen Abstraktions- und Vergleichsprozessen überhaupt Anhaltspunkte für Veränderungen in der realen Welt liefert, Ansatzpunkte für Beziehungen, Regelhaftigkeiten, anhand deren wir dann in die Lage versetzt werden, Ideen von möglichen Zuständen in der Zukunft zu denken, als Hypothesen, als Vermutungen. Zukunft ist von daher immer ein Konstrukt im Bereich der virtuellen Welt unseres Gehirns. Wer nicht nachdenkt, hat keine gedachte mögliche Zukunft. Wer nachdenkt, kann Hypothesen entwickeln, die die eine oder andere mögliche Entwicklung vorweg nehmen können, aber insgesamt sind dies Variationen von Themen der Vergangenheit. Die echte Zukunft lässt sich nur sehr angenähert denken.

DIE ZUKUNFT STIRB IM KOPF

  1. Ist das Denken, das Wissen also schon grundsätzlich für unser Verhalten, für unser alltägliches Leben, für Politik und Wirtschaft wichtig, so ist es fundamental für eine mögliche Zukunft. In einer wissensfeindlichen Gesellschaft wird also nicht nur ein Alltag in der Gegenwart schwer, sondern die Keime einer möglichen für alle guten Zukunft werden schon im Ansatz erstickt. Die Zukunft stirbt dann schon im Kopf bevor eine mögliche Zukunft überhaupt stattfinden konnte. Real wird die Welt dann zwar trotzdem voranschreiten, es werden sich Dinge ereignen, ob die Menschen wollen oder nicht, aber diese Dinge können verheerend sein, zerstörerisch, viele Menschen mit Leid versorgen, Leid, das man möglicherweise hätte verhindern können. Die Demagogen der Gegenwart werden dann aber nicht mehr da sein oder, sollten sie es erleben, haben die Demagogen selbst selten die Schuld auf sich genommen. Es waren dann ihre dummen Anhänger, die ihre wunderbare (Schrott)Ideen nicht gut genug verstanden haben. Lieben die Menschen die Unwahrheit tatsächlich mehr als die Wahrheit? Falls Ja, was könnte ein Mensch dagegen tun, sich davor zu schützen?

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

K.G.DENBIGH: AN INVENTIVE UNIVERSE — Relektüre — Teil 3

K.G.Denbigh (1975), „An Inventive Universe“, London: Hutchinson & Co.

BISHER

Im Teil 1 der Relektüre von Kenneth George Denbighs Buch „An Inventive Universe“ hatte ich, sehr stark angeregt durch die Lektüre, zunächst eher mein eigenes Verständnis von dem Konzept ‚Zeit‘ zu Papier gebracht und eigentlich kaum die Position Denbighs referiert. Darin habe ich sehr stark darauf abgehoben, dass die Struktur der menschlichen Wahrnehmung und des Gedächtnisses es uns erlaubt, subjektiv Gegenwart als Jetzt zu erleben im Vergleich zum Erinnerbaren als Vergangen. Allerdings kann unsere Erinnerung stark von der auslösenden Realität abweichen. Im Lichte der Relativitätstheorie ist es zudem unmöglich, den Augenblick/ das Jetzt/ die Gegenwart objektiv zu definieren. Das individuelle Jetzt ist unentrinnbar subjektiv. Die Einbeziehung von ‚Uhren-Zeit’/ technischer Zeit kann zwar helfen, verschiedene Menschen relativ zu den Uhren zu koordinieren, das grundsätzliche Problem des nicht-objektiven Jetzt wird damit nicht aufgelöst.

In der Fortsetzung 1b von Teil 1 habe ich dann versucht, die Darlegung der Position von Kenneth George Denbighs Buch „An Inventive Universe“ nachzuholen. Der interessante Punkt hier ist der Widerspruch innerhalb der Physik selbst: einerseits gibt es physikalische Theorien, die zeitinvariant sind, andere wiederum nicht. Denbigh erklärt diese Situation so, dass er die zeitinvarianten Theorien als idealisierende Theorien darstellt, die von realen Randbedingungen – wie sie tatsächlich überall im Universum herrschen – absehen. Dies kann man daran erkennen, dass es für die Anwendung der einschlägigen Differentialgleichungen notwendig sei, hinreichende Randbedingungen zu definieren, damit die Gleichungen gerechnet werden können. Mit diesen Randbedingungen werden Start- und Zielzustand aber asymmetrisch.

Auch würde ich hier einen Nachtrag zu Teil 1 der Relektüre einfügen: in diesem Beitrag wurde schon auf die zentrale Rolle des Gedächtnisses für die Zeitwahrnehmung hingewiesen. Allerdings könnte man noch präzisieren, dass das Gedächtnis die einzelnen Gedächtnisinhalte nicht als streng aufeinanderfolgend speichert, sondern eben als schon geschehen. Es ist dann eine eigene gedankliche Leistungen, anhand von Eigenschaften der Gedächtnisinhalte eine Ordnung zu konstruieren. Uhren, Kalender, Aufzeichnungen können dabei helfen. Hier sind Irrtümer möglich. Für die generelle Frage, ob die Vorgänge in der Natur gerichtet sind oder nicht hilft das Gedächtnis von daher nur sehr bedingt. Ob A das B verursacht hat oder nicht, bleibt eine Interpretationsfrage, die von zusätzlichem Wissen abhängt.

Im Teil 2 ging es um den Anfang von Kap.2 (Dissipative Prozesse) und den Rest von Kap.3 (Formative Prozesse). Im Kontext der dissipativen (irreversiblen) Prozesse macht Denbigh darauf aufmerksam, dass sich von der Antike her in der modernen Physik eine Denkhaltung gehalten hat, die versucht, die reale Welt zu verdinglichen, sie statisch zu sehen (Zeit ist reversibel). Viele empirische Fakten sprechen aber gegen die Konservierung und Verdinglichung (Zeit ist irreversibel). Um den biologischen Phänomenen gerecht zu werden, führt Denbigh dann das Konzept der ‚Organisation‘ und dem ‚Grad der Organisiertheit‘ ein. Mit Hilfe dieses Konzeptes kann man Komplexitätsstufen unterscheiden, denen man unterschiedliche Makroeigenschaften zuschreiben kann. Tut man dies, dann nimmt mit wachsender Komplexität die ‚Individualität‘ zu, d.h. die allgemeinen physikalischen Gesetze gelten immer weniger. Auch gewinnt der Begriff der Entropie im Kontext von Denbighs Überlegungen eine neue Bedeutung. Im Diskussionsteil halte ich fest: Im Kern gilt, dass maximale Entropie vorliegt, wenn keine Energie-Materie-Mengen verfügbar sind, und minimale Entropie entsprechend, wenn maximal viele Energie-Materie-Mengen verfügbar sind. Vor diesem Hintergrund ergibt sich das Bild, dass Veränderungsprozesse im Universum abseits biologischer Systeme von minimaler zu maximaler Entropie zu führen scheinen (dissipative Prozesse, irreversible Prozesse, …), während die biologischen Systeme als Entropie-Konverter wirken! Sie kehren die Prozessrichtung einfach um. Hier stellen sich eine Fülle von Fragen. Berücksichtigt man die Idee des Organiationskonzepts von Denbigh, dann kann man faktisch beobachten, dass entlang einer Zeitachse eine letztlich kontinuierliche Zunahme der Komplexität biologischer Systeme stattfindet, sowohl als individuelle Systeme wie aber auch und gerade im Zusammenspiel einer Population mit einer organisatorisch aufbereiteten Umgebung (Landwirtschaft, Städtebau, Technik allgemein, Kultur, …). Für alle diese – mittlerweile mehr als 3.8 Milliarden andauernde – Prozesse haben wir bislang keine befriedigenden theoretischen Modelle

KAPITEL 4: DETERMINISMUS UND EMERGENZ (117 – 148)

Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz

Begriffsnetz zu Denbigh Kap.4: Determinismus und Emergenz

  1. Dieses Kapitel widmet sich dem Thema Determinismus und Emergenz. Ideengeschichtlich gibt es den Hang wieder, sich wiederholende und darin voraussagbare Ereignisse mit einem Deutungsschema zu versehen, das diesen Wiederholungen feste Ursachen zuordnet und darin eine Notwendigkeit, dass dies alles passiert. Newtons Mechanik wird in diesem Kontext als neuzeitliche Inkarnation dieser Überzeugungen verstanden: mit klaren Gesetzen sind alle Bewegungen berechenbar.
  2. Dieses klare Bild korrespondiert gut mit der christlichen theologischen Tradition, nach der ein Schöpfer alles in Bewegung gesetzt hat und nun die Welt nach einem vorgegebenen Muster abläuft, was letztlich nur der Schöpfer selbst (Stichwort Wunder) abändern kann.
  3. Die neuzeitliche Wissenschaft hat aber neben dem Konzept des Gesetzes (‚law‘) auch das Konzept Theorie entwickelt. Gesetze führen innerhalb einer Theorie kein Eigenleben mehr sondern sind Elemente im Rahmen der Theorie. Theorien sind subjektive Konstruktionen von mentalen Modellen, die versuchen, die empirischen Phänomene zu beschreiben. Dies ist ein Näherungsprozess, der – zumindest historisch – keinen eindeutigen Endpunkt kennt, sondern empirisch bislang als eher unendlich erscheint.
  4. Eine moderne Formulierung des deterministischen Standpunktes wird von Denbigh wie folgt vorgeschlagen: Wenn ein Zustand A eines hinreichend isolierten Systems gefolgt wird von einem Zustand B, dann wird der gleiche Zustand A immer von dem Zustand B gefolgt werden, und zwar bis in die letzten Details.(S.122)
  5. Diese Formulierung wird begleitend von den Annahmen, dass dies universell gilt, immer, für alles, mit perfekter Präzision.
  6. Dabei muss man unterscheiden, ob die Erklärung nur auf vergangene Ereignisse angewendet wird (‚ex post facto‘) oder zur Voraussage benutzt wird. Letzteres gilt als die eigentliche Herausforderung.
  7. Wählt man die deterministische Position als Bezugspunkt, dann lassen sich zahlreiche Punkte aufführen, nach denen klar ist, dass das Determinismus-Prinzip unhaltbar ist. Im Folgenden eine kurze Aufzählung.
  8. Die Interaktion aller Teile im Universum ist nirgendwo (nach bisherigem Wissen) einfach Null. Zudem ist die Komplexität der Wechselwirkung grundsätzlich so groß, dass eine absolute Isolierung eines Teilsystems samt exakter Reproduktion als nicht möglich erscheint.
  9. Generell gibt es das Problem der Messfehler, der Messungenauigkeiten und der begrenzten Präzision. Mit der Quantenmechanik wurde klar, dass wir nicht beliebig genau messen können, dass Messen den Gegenstand verändert. Ferner wurde klar, dass Messen einen Energieaufwand bedeutet, der umso größer wird, je genauer man messen will. Ein erschöpfendes – alles umfassende – Messen ist daher niemals möglich.
  10. Im Bereich der Quanten gelten maximal Wahrscheinlichkeiten, keine Notwendigkeiten. Dies schließt nicht notwendigerweise ‚Ursachen/ Kausalitäten‘ aus.
  11. Die logischen Konzepte der mentalen Modelle als solche sind nicht die Wirklichkeit selbst. Die ‚innere Natur der Dinge‘ als solche ist nicht bekannt; wir kennen nur unsere Annäherungen über Messereignisse. Das, was ‚logisch notwendig‘ ist, muss aus sich heraus nicht ontologisch gültig sein.
  12. Neben den Teilchen sind aber auch biologische Systeme nicht voraussagbar. Ihre inneren Freiheitsgrade im Verbund mit ihren Dynamiken lassen keine Voraussage zu.
  13. Aus der Literatur übernimmt Denbigh die Komplexitätshierarchie (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143)
  14. Traditioneller Weise haben sich relativ zu jeder Komplexitätsstufe spezifische wissenschaftliche Disziplinen herausgebildet, die die Frage nach der Einheit der Wissenschaften aufwerfen: die einen sehen in den Eigenschaften höherer Komplexitätsstufen emergente Eigenschaften, die sich nicht auf die einfacheren Subsysteme zurückführen lassen; die Reduktionisten sehen die Wissenschaft vollendet, wenn sich alle komplexeren Eigenschaften auf Eigenschaften der Ebenen mit weniger Komplexität zurückführen lassen. Während diese beiden Positionen widersprüchlich erscheinen, nimmt das Evolutionskonzept eine mittlere Stellung ein: anhand des Modells eines generierenden Mechanismus wird erläutert, wie sich komplexere Eigenschaften aus einfacheren entwickeln können.

DISKUSSION

  1. Fasst man alle Argument zusammen, ergibt sich das Bild von uns Menschen als kognitive Theorientwickler, die mit ihren kognitiven Bildern versuchen, die Strukturen und Dynamiken einer externen Welt (einschließlich sich selbst) nach zu zeichnen, die per se unzugänglich und unerkennbar ist. Eingeschränkte Wahrnehmungen und eingeschränkte Messungen mit prinzipiellen Messgrenzen bilden die eine Begrenzung, die daraus resultierende prinzipielle Unvollständigkeit aller Informationen eine andere, und schließlich die innere Logik der realen Welt verhindert ein einfaches, umfassendes, eindeutiges Zugreifen.
  2. Die mangelnde Selbstreflexion der beteiligten Wissenschaftler erlaubt streckenweise die Ausbildung von Thesen und Hypothesen, die aufgrund der möglichen Methoden eigentlich ausgeschlossen sind.
  3. Die noch immer geltende weitverbreitete Anschauung, dass in der Wissenschaft der Anteil des Subjektes auszuklammern sei, wird durch die vertiefenden Einsichten in die kognitiven Voraussetzungen aller Theorien heute neu in Frage gestellt. Es geht nicht um eine Infragestellung des Empirischen in der Wissenschaft, sondern um ein verstärktes Bewusstheit von den biologischen (beinhaltet auch das Kognitive) Voraussetzungen von empirischen Theorien.
  4. In dem Maße, wie die biologische Bedingtheit von Theoriebildungen in den Blick tritt kann auch die Besonderheit der biologischen Komplexität wieder neu reflektiert werden. Das Biologische als Entropie-Konverter (siehe vorausgehenden Beitrag) und Individualität-Ermöglicher jenseits der bekannten Naturgesetze lässt Eigenschaften der Natur aufblitzen, die das bekannte stark vereinfachte Bild kritisieren, sprengen, revolutionieren.
  5. Die Idee eines evolutionären Mechanismus zwischen plattem Reduktionismus und metaphysischem Emergenz-Denken müsste allerdings erheblich weiter entwickelt werden. Bislang bewegt es sich im Bereich der Komplexitätsebenen (iii) Moleküle und (iv) Zellen.

Fortsetzung mit TEIL 4

QUELLEN

  1. Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

AKTIVES PHILOSOPHIEREN UND ENGELHARDTs THE UNITED STATES OF FEAR – Teil 1

Engelhardt, T.; ‚The United States of Fear‘, Chicago: Haymarket Books, 2011

1. Für die letzte Philosophiewerkstatt vor der Sommerpause habe ich als unterschwellige Frage die Formulierung ins Spiel gebracht, ob aktives Philosophieren eine notwendige Bedingung für das nachhaltiges Überleben aller Menschen ist/ sein kann?

2. Diese Formulierung kann im ersten Moment sehr abstrakt wirken, fern vom Alltag.

3. In der Einleitung zu seinem Buch ‚The United States of Fear‘ (2011) beschreibt Tom Engelhardt in einer biographischen Perspektive wie er als kleiner jüdischer Junge im Nachkriegs New York der 50iger und 60iger Jahre durch Nicht-US-Filme mit Lebenssichten konfrontiert worden ist, die sein damaliges Weltbild mehr und mehr erudiert haben. Zwar ’nur Filme‘ konnte er jedoch ansatzweise die Welt aus den Augen ‚der Anderen‘ sehen, der Franzosen, der Russen und der Deutschen. Er begann zu begreifen, dass auch jenseits der Grenzen reale Menschen leben mit realen Gefühlen, Hoffnungen und Idealen, Menschen, die großes Leid erlebt haben und erleben, dass hinter den Hochglanzformeln US-amerikanisches Politik (eine Form von nationaler Propaganda) Wirklichkeiten standen und stehen, die für die Anderen alles andere als schön waren.

4. Diese Eindrücke seiner Kindheit/ Jugend haben ihn zumindest soweit verändert, dass er künftig die US-amerikanische Politik nicht mehr nur mit den typischen ‚inneramerikanischen‘ Augen zu sehen begann, sondern – zumindest ansatzweise – auch mit den Augen ‚der Anderen‘.

5. Wer Deutschland als ‚Ost‘ und ‚West‘ real erlebt hat, wer in Europa lebt, einer einmaligen historischen Vielfalt, wer real in multikulturellen Gruppierungen nicht nur funktioniert hat, sondern ansatzweise wenigstens die einzelnen Menschen mit ihren kulturbedingten Mustern direkt wahrnehmen kann, dem geschieht Ähnliches; einfache Muster vom Menschen und der Welt gelingen nicht ohne weiteres (obgleich die Existenz von fundamentalistischen Gruppierungen unterschiedlichster Färbung zeigt, dass die Wahrnehmung von ‚Vielfalt‘ nicht zwangsläufig zu entsprechend vielfältigen, differenzierten Denkmustern führen muss). Wer den Anderen in solch einer Vielfalt ernsthaft wahrnimmt, der kann danach nicht mehr nur Schwarz oder Weiß denken.

System A hat eine andere Interprettion der gemeinsamen Welt wie System B

System A hat eine andere Interprettion der gemeinsamen Welt wie System B

6. In einer starken Vereinfachung kann man sagen (siehe Diagramm), dass jeder Mensch die Welt ‚um sich herum‘ mit Hilfe seines Gehirns zu unterschiedlichen Bildern ‚verarbeitet‘. Nennt man solche ‚internen Verarbeitungen‘ vereinfachend mal ‚Kognition‘ (oder einfach ‚Denken‘), dann sind es solche kognitiven Prozesse, die im einzelnen ablaufen und die individuelle ‚kognitive Bilder‘ – auch ‚mentale Modelle‘ genannt – erzeugen. Wie man schon bei kleinen Kindern feststellen kann, wenn sie von einem gemeinsamen Erlebnis erzählen oder malen sollen, kann der einzelne die ‚gleiche Sache‘ ganz unterschiedlich ‚wahrnehmen‘ und ‚interpretieren‘.

7. Solange in solch einer Situation ein System A seine eigenen Bilder für ‚die Welt schlechthin‘ nimmt, während eine anderes System B die Welt mit anderen Bildern verknüpft hat, solange werden A und B nicht zusammen kommen. Wichtig ist hier, dass es nicht ‚die Welt an sich‘ ist, die die beiden A und B auseinander treibt, sondern die Art und Weise, wie A und B jeweils individuell die gemeinsam geteilte Welt ‚interpretieren‘. Obwohl sie ganz offensichtlich in der gleichen Welt leben, haben sie ‚in ihrem Kopf‘ unterschiedliche Welten, weil sie mit ihrem individuellen Denken die Welt ‚verändern‘ und ein ‚mentales Bild‘ erzeugen, was die gleiche Welt als ‚zwei verschiedene Welten‘ konstruiert.

8. Schaut man sich in seinem Alltag um, und beschönigt nichts, dann wird man feststellen, dass diese ‚unterschiedlichen Bilder‘ von der Welt der Normalfall sind. Dies ist unangenehm, kann Angst machen. Von daher versuchen Menschen, die sich neu begegnen, in der Regel erst mal heraus zu finden, ob sie irgendwelche gemeinsamen Anknüpfungspunkte haben, von denen her sie ein ‚gemeinsames Verstehen‘ aufbauen können. Viele Gruppierungen bilden sich nur, um solch eine kleine Menge von Gemeinsamkeiten zu finden, um die herum eine Art ‚Wir-Gefühl‘ ausgebildet wird, an dem man sich festhalten kann; dies ergibt eine gewisse ‚Sicherheit‘ im ansonsten unheimlichen Alltag. Dieses Bedürfnis nach einem ‚Wir-Gefühl‘ kann stärker sein als der Wunsch nach Wahrheit.

9. Im übrigen ist der Aufbau eines ‚Wir-Gefühls‘ anhand von Gemeinsamkeiten per se nichts Schlechtes; bis zu einem gewissen Grad ist es sogar notwendig und unvermeidlich. Schwierig wird es nur, wenn man nach dem ‚ersten Abtasten‘ bei einem ‚mentalen Modell‘ verharrt, das offensichtlich vereinfachend, unvollständig ist, und das jetzt weiter zu entwickeln wäre. Dieses ‚weiter Entwickeln‘ bedeutet aber dann in der Regel harte, mühsame Arbeit. Man muss individuelle Unterschiede benennen und sich daran gemeinsam abarbeiten; dann haben A und B eine Chance möglicherweise zu verstehen, warum sie in bestimmten Punkten zu unterschiedlichen Interpretationen gekommen sind und welche Variante möglicherweise ‚korrigiert‘ werden sollte (oder man ‚versteht‘ dann, warum es zwei Varianten geben kann).

10. Im Alltag passiert aber oft das Folgende: der jeweils ‚Stärkere‘ tendiert dazu, die ‚Schwächeren‘ zu ‚vereinnahmen‘. Der rollenmäßig ‚Schwächere‘ kann ‚wahrer‘ sein als der rollenmäßig Stärkere; aber seine Einsichten werden ‚weggeredet‘, ‚totgeschwiegen‘, ‚diskriminiert‘ usw. (es gibt hier viele Spielarten). Es gibt hier keine ‚Königswege‘, keine ‚immer funktionierende Verfahren‘, da die ‚Wahrheit‘ dasjenige ist, was zwar ‚vorgegeben‘ ist, aber die kognitiven Interpretationen des Vorgegebenen sind ‚in sich‘ nicht transparent und die ‚Wahrheit‘ existiert nicht ‚explizit gegeben‘, sondern ‚implizit anwesend‘. Wer in seiner kognitiven Interpretation bestimmte Aspekte einfach nicht sehen will — oder aufgrund von Vorurteilen sich selbst inhaltlich ‚verstellt‘ hat – wird sie auch nicht sehen.

11. Daraus folgt, dass ein erforschendes Ausgreifen des menschlichen Denkens ohne eine fundamentale ‚Demut der Sache gegenüber‘, ohne eine radikale ‚Methodentreue‘ permanent gefährdet ist, an der Sache ‚vorbei zu laufen‘, obwohl sie ‚da ist‘ (je ‚mächtiger‘ und ‚großartiger‘ sich jemand wähnt, umso größer ist die Wahrscheinlichkeit, dass er sich selbst von der Wahrheit aussperrt).

Fortsetzung folgt…

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

PHILOSOPHIE – ÜBER SICH NACHDENKEN – PROGRAMMIEREN – DIE KALTE MASCHINE – DER GEIST IM STROMKREIS

Letzte Änderung: 29.Mai 2014, 19:20h (Musikstück hinzugefügt)

SOUNDEREIGNIS

Zur Einstimmung der folgenden Reflexionen über das Programmieren aus philosophischer Sicht hier eine Sound-Komposition vollständig erstellt mit mathematischen Algorithmen: Sinfonia made completely by MAX Demos. Das Stück besteht aus 6 Klangspuren, wobei jede Spur einen Klang repräsentiert, der durch Softwareinstrumente erzeugt worden ist. Für alle die, die nur ‚Mainstream-Musik‘ kennen (Klassik gehört auch zum ‚Mainstream :-)) ist vom Hören abzuraten. Dies ist ein Sound für jene, die sich vom Mainstream gelöst haben und einfach Spass haben, unbekannte Klangräume zu durchwandern. Konkret habe ich mit Demoinstrumenten aus den Tutorials der Software MAX 6.1.7 sowie ableton live 9.1 und Max4Live herumgespielt.

ZWEI JUNGE MÄNNER TRETEN AUF

1. Am 22.Mai 2014 abends, nach einem sehr anstrengenden Tag, war ich Zeuge eines besonderen Schauspiels. Zwei junge Männer, beide langjährige Programmierer im Kontext innovativer multimedialer Anwendungen, Erfinder einer dafür eigens geschaffenen Programmiersprache – nennen wir sie Lx – dachten in zwei aufeinanderfolgenden Vorträgen laut nach, über das, was sie tun, wenn sie programmieren.

2. Dies ist ungewöhnlich, da diejenigen, die programmieren, es normalerweise einfach tun; sie schreiben ‚Kode‘, wie es so schön heißt. Verschachteln if’s und ‚while’s‘ und zahllose Schlüsselwörter der vielen ‚Bibliotheken‘ der fertigen Softwaremodulen, die heutzutage Programmiersprachen begleiten.

3. In der ‚reinen Lehre‘ ist s zwar anders, da gibt es Entwurfsmodelle, abstrakte Spezifikationen, seitenlange Anforderungen, die einem Programmierer sagen sollen, was er ‚eigentlich‘ zu tun hat; doch aus der Sicht eines Programmierers verschwimmen diese ganzen Texte und Diagramme sehr schnell zu einem Nezwerk von Kodierungsanweisungen, zu Seiten voller kryptischer Befehlsausdrücken, zu einem Programmtext seiner Sprache Lx. Was immer abstrakt vorher gedacht worden ist, er, der Programmierer verwandelt sich in einen ‚Kodierer‘.

4. Nicht so an diesem Abend. Die beiden Programmierer versuchten über ihr Kodieren nachzudenken.

ZUR GESCHICHTE DER KODIERUNG

5. Im ersten Vortrag ging es mehr um die historische Dimension, wie es von ersten rechnenden Maschinen (mit schönen Videoausschnitten über Konrad Zuse und seinen pionierhaften Experimenten mit seinen ersten Rechnern) mit direkter bitweiser Kodierung zu immer abstrakteren Programmiersprachen (Bits, Hexcode, mnemonischer Assemblercode, einfache Programmiersprachen wie Fortran und C, höhere objektorientierte Sprachen, und dann visuelle Kodierung). Da endete der historische Aufriss, da die Sprache Lx der beiden Programmierer solch eine visuelle Sprache war.

6. An dieser Stelle ruckelte es schon ein bisschen. Erstens gibt es ja heute schon viele verschiedene visuelle Programmiersprachen, und zum anderen war der Überblick unvollständig. Die Programmiersprachen selbst sind nur ein Teil der Geschichte; parallel mit den Programmiersprachen hat sich unter dem Oberthema ‚Softwareengineering‘ ein Denkmuster entwickelte, das die Programmiersprache nur noch als ein – wenngleich ein wichtiges – Moment sieht im Kontext von – stark vereinfachend – Problemstellung P, Anforderungsanalyse A, logisches Entwurfsmodell M und implementiertes System S. Kodierung ist Teil des implementierten Systems S bzw. steht in gewisser Beziehung zum logischen Entwurfsmodell. Der ‚Denkraum‘ des Softwareeinsatzes hat sich also erheblich ausgeweitet, und eine Geschichte der Programmierung, die diesen Denkkontext des Programmierens nicht berücksichtigt, wirkt mindestens unvollständig.

DIAGRAMMATISCHE REFLEXE ZTUM EIGENEN KODIEREN

7. Der zweite Vortrag wurde in gewisser Weise ‚persönliches‘ bis ’sehr persönlich‘. Hier sprach der Programmierende – nennen wir ihn B – in der Tat über seine Gedanken, wenn er programmiert bzw. über seine Gedankenwelt, vorher, während und nachher, und er sprach als jemand, der eine Programmiersprache entwickelt hat, sie benutzt, sie ‚warten‘ muss und sie weiter entwickelt.

8. Er benutze dazu Folien die angefüllt waren mit Handzeichnungen, Wortskizzen, Wort und Bildskizzen – fantastisch anzuschauen, eher Kunstwerken gleich, anregend, faszinierend. Seine begleitende Rede war auch keine normale Rede, keine geschliffenen Sätze, kein zusammenhängender Text; nein, es war eine Mischung aus Stammeln, Brummeln, meist mit dem Rücken zu den Zuhörer, eine Art Zwiegespräch mit den kunstvollen Linien in dem projizierten Bild; meist kryptisch, die Zuhörer/ Zuschauer meist in Lauerstellung in Erwartung, was denn jetzt kommen würde.

9. Es klingt komisch, aber ich habe es genossen, das war Denken unplugged, das war Kreativität des sich selbst reflektierenden Kodierens ‚live‘. Es dürfte nicht allzu viele ‚Programmierer‘ geben, die dies so tun würden. Als ich den Vortragenden anschließend darauf hin ansprach, wie oft er das so schon gemacht habe, sagte er auch, dass er dies so zum ersten Mal gemacht habe. Also eine Uraufführung; wunderbar.

PHILOSOPHISCHE REFLEXION

10. Schaltet man jetzt die philosophische Reflexion ein, dann ist als erstes zu bemerken, dass es offensichtlich nicht ganz selbstverständlich, keinesfalls einfach ist, etwas, was man tut, – hier das Programmieren, das Kodieren in einer Sprache Lx – in einer anderen Sprache Lxx auszudrücken. So beeindruckend und faszinierend die bildhaften und textuellen Fragmente waren, die B in seinen Folien präsentierte (für mich wahre ‚Kunstwerke‘), so wenig ließen diese vielen Fragmente einen größeren Zusammenhang klar erkennen. Dieser Eindruck verstärkte sich auch in dem anschließenden Gespräch mit den Zuhörern. Während die meisten ‚Anwender‘ waren, die die Sprache Lx (bzw. der Vorläuferversion) selbst zum Kodieren benutzten, und der Vortragende B aber gedanklich im Netzwerk seiner Konzepte ?herumirrte?, gab es auch Fragen zum ‚Denkraum‘, innerhalb dessen man Programmiersprachen entwickelt. Fragen und Antworten fanden nicht wo wirklich zueinander.

11. Während im ersten Vortrag noch ein wenig die Idee anklang, dass das Aufkommen von visuellen Sprachen eine ‚Verbesserung‘ für den programmierenden Menschen darstellt, blieb dieser reformerische, am Menschen orientierte, Ansatz immer mehr im Dunkeln. Im Zweikampf mit seinen eigenen Gedanken wurde nicht klar, ob und wie denn eine visuelle Programmiersprache Lx (zu der es, wie gesagt, viele Parallelen gibt) dem ‚menschlichen Denken‘ besonders entgegen kommt.

12. Während die Missionare des objektorientierten Programmierens zumindest versucht haben, Formen des alltäglichen Denkens mit einer ojektorientierten Sprache Lo in Verbindung zu bringen (was beim späteren sogenannten ‚modellbasierten‘ Programmieren schon nicht mehr so gelang), wurden solche Gedanken an diesem Abend nicht vorgetragen. Der Mensch in seinem Denken – hier der programmierende Mensch – blieb weitgehend außen vor. Schade. In diesem den Menschen und vorhandenen Programmieralternativen ausklammernden Denken blieben die Gedanken des suchenden Programmierers weitgehend ‚alleine mit sich selbst‘.

SOFTWAREENGINEERING IST NICHT GANZ NEU

13. Bemerkenswert an diesem Schauspiel ist die Tatsache, dass Software engineering (nicht ganz so gut: Softwaretechnik) nun ja keine wirklich ganz neue Disziplin mehr ist. An allen Universitäten/ Hochschulen, in denen Informatik gelehrt wird, gibt es seit mindestens 20 Jahren auch Softwareengineering. Und dennoch ist diese Art eines ‚zusammenhängenden Denkens‘ in den Köpfen der ‚aktiven Programmierenden‘ offensichtlich nicht präsent (als Vergleich: die Ideen eines Galilei haben ca. 100 Jahre gebraucht, bis sie zum Allgemeingut geworden sind).

14. Dennoch kamen man auch bei jenen, die Softwareengineering im größeren Zusammenhang denken, wissenschaftstheoretische bzw. philosophische Ansätze kaum bis gar nicht vorkommen, obgleich ein solches Denken hier eine Menge zu tun hätte.

15. Halten wir kurz fest: der Aspekt des menschlichen Denkens – nennen wir es hier das ‚kognitive Interface‘, die ‚Schnittstelle zum Denken‘; andere sprechen auch von ‚mentalen Modellen‘ – kam bei den beiden Vortragenden des Abends so gut wie nicht vor.

16. Der Einsatz einer Programmiersprache hat aber noch eine weitere Dimension, die nicht minder bedeutsam ist. Egal welche Programmiersprache Lx man benutzt, ein Programm in solch einer Sprache Lx – nennen wir es P(Lx) – muss irgendwann von einem realen Computer C ‚ausgeführt‘ werden. Dies bedeutet, was immer sich ein menschlicher Programmierer im Rahmen seines kognitiven Interfaces ‚gedacht‘ haben mag, als er P(Lx) erstellt hat, das, was ‚tatsächlich passiert‘, das entscheidet sich bei der realen Ausführung auf einem Computer C. Dies bedeutet, dass die Menge dieser Ausführungen von P(Lx) auf dem Computer C – nennen wir sie C(P(Lx)) – die ‚finale Bedeutung‘ von Lx darstellt. Man spricht auch von der ‚Semantik‘ (Bedeutung) der Sprache Lx mit Bezug auf C. Beispiel: mit den Ausdrücken von Lx will Programmierer B zwei ‚parallele Prozesse‘ a und b darstellen, gefolgt von Prozess c. Damit dieser Gedanke Sinn macht, muss sichergestellt sein, dass bei der Ausführung von a,b und dann c diese logische Struktur auch real umgesetzt wird, erst recht, wenn möglicherweise das Ergebnis von c z.B. dann wieder dem Prozess b als ein Teil seiner Eingangswerte zur Verfügung gestellt werden soll. Solche ‚Korrespondenzen‘ zwischen ‚intendierter‘ Bedeutung und ‚realisierter‘ Bedeutung herzustellen und zu ‚gewährleisten‘ ist generell nicht einfach und in genügend vielen Fällen unmöglich. Über diese ’semantischen Aspekte‘ der Programmiersprache Lx wurde gar nicht gesprochen. Auf Nachfrage kam eine Aussage, die so klang, also ob man darüber ’noch nicht nachgedacht habe‘.

17. Mir kommt es so vor, als ob das Thema ‚Semantik einer Programmiersprache‘ für viele Programmierenden das ist, was Tiefenpsychologen das ‚individuelle Unbewusste‘ nennen. Irgendwo wissen sie zwar, dass ihr Kode letztlich von einer Maschine abgearbeitet wird mit den daraus resultierenden Einschränkungen, aber tatsächlich berauschen sie sich lieber an ihren aktuellen Ideen und Fantasien und tun so, als ob das alles ja genau so auch umgesetzt wird. Wird es nicht. Hier gibt es viele zu klärende Fragen, also philosophisches Potential.

WITTGENSTEIN LÄSST GRÜSSEN

18. Vielen Programmierenden – den meisten? – ist nicht bewusst, dass der Denkweg von Ludwig Wittgenstein von seinem ‚Tractatus Logico Philosophicus‘ hin zu seinen ‚Philosophischen Untersuchungen‘ ein wunderbares Muster abgibt, innerhalb dessen man auch die Thematik der Bedeutung von Programmiersprachen reflektieren kann. Natürlich müsste man die Diktionen von Wittgenstein dem heutigen Sprach- und Denkgebrauch des Softwareengineerings etwas anpassen, aber die Grundideen (und die sich darin verbergenden kritischen Potentiale) sind weiterhin anwendbar.

19. Eine zentrale Idee Wittgensteins ist die Aufdeckung der Tatsache, dass die Ausdrücke einer Sprache L – und das gilt dann auch für Lx – ihre ‚Bedeutung‘ nur im Kontext sogenannter ‚Sprachspiele‘ haben. Im Fall der visuellen Programmiersprache Lx wäre ein solcher Kontext gegeben durch (i) die Programmierer, (ii) die Ausdrücke von Lx, (iii) die ausführenden Computer C (meistens mindestens mit Hardware und Betriebssystem) sowie (iv) die ‚Aktionen‘, die der programmierte Computer – z.B. als Roboter oder als Smartphone – beobachtbar ‚ausführt‘, sehr oft in ‚Interaktion mit einem (v) Benutzer‘, der ’seine‘ ‚Vorstellungen‘ (:= mentale Modelle) des Geschehens hat.

20. Das Softwareengineering versucht – im idealen Fall – die potentiellen Sprachspiele ‚vorweg‘ zu analysieren, zu modellieren, und entsprechend zu implementieren. Die Grenzen liegen bei der ‚Vorwegnahme‘ des potentiellen Benutzers.

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.