Archiv der Kategorie: Resilienz

Das Ende der Evolution, von Matthias Glaubrecht,2021 (2019). Lesenotizen

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 8.September 2022 – 10. September 2022, 10:12h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Kontext

In dem Parallelblock uffmm.org entwickelt der Autor das Konzept einer nachhaltigen empirischen Theorie (siehe z.B. „COMMON SCIENCE as Sustainable Applied Empirical Theory, besides ENGINEERING, in a SOCIETY“, ein Beitrag, der hervorgegangen ist aus den Überlegungen zu „From SYSTEMS Engineering to THEORY Engineering“), in der die Menschheit eine zentrale Rolle spielt, nicht losgelöst von der Biosphäre, nicht losgelöst vom gesamten Universum, sondern als eine ‚Handlungsmacht‘, die in diesen empirischen Substrat genannt ‚empirische Wirklichkeit‘ eingebettet ist.

Vor diesem Hintergrund erscheint das Buch von Glaubrecht zum Ende der Evolution auf den ersten Blick wie eine willkommene Ergänzung, eine Geschichte aus der Sicht der biologischen Evolution, wie ein ‚missing link‘, in dem das aktuelle wissenschaftliche Chaos und die zerstörerischen Kräfte einer entfesselten menschlichen Population ihren Erzähler finden.

Doch, lässt man sich auf die ruhig und sachlich wirkende ‚Erzählungen‘ dieses Buches ein, dann begegnet man im geradezu epischen Prolog Gedankenmuster, die wie ‚Disharmonien‘ wirken, wie ‚falsche Töne‘ in einer ansonsten berauschenden Sinfonie von Klängen.

Ein Prolog wie eine Ouvertüre

Ausschnitt aus dem berühmten ‚blue marbel‘ Bild von William Anders Anders während der Appollo-8 Mission 1968 (siehe: https://de.wikipedia.org/wiki/Datei:NASA-Apollo8-Dec24-Earthrise.jpg)

Glaubrecht lässt seine Erzählung beginnen mit dem einem Foto von William Alison Anders, einem Astronauten der Apollo-8 Mission 1968, das um die Welt ging, und mittlerweile einen ‚Kultstatus‘ hat: die blaue Kugel im Schwarz des umgebenden interstellaren Raumes, wundersam, so unwirklich, ein Bild ‚wie im Traum‘. Und doch, es ist kein Traum. Es ist der Ort von etwas, was wir gelernt haben, ‚biologisches Leben‘ zu nennen. Ein multidimensionales Phänomen, das nach heutigem Kenntnistand einzigartig im gesamten bekannten Universum ist. Diesen ‚Gedanken der Einzigartigkeit‘ greift Glaubrecht auf und pointiert ihn sehr stark, indem er die neuesten Forschungen zu einem ‚möglichen extra-terrestrischen Leben‘ auswertet und diese Option eines ‚anderen Lebens irgendwo dort draußen‘ quasi ad absurdum führt. (vgl. SS.21-24)

Nach diesem argumentativen ‚knock down‘ für die Option eines Lebens außerhalb der Erde wendet er sich dann dem Phänomen des Lebens auf der blauen Erde zu, und rafft die ca. 3.5 Milliarden Jahre Entstehung des Lebens auf der Erde mit Akzentuierung des Homo sapiens in 14 Zeilen auf S.24 zusammen. Die 14 Zeilen schließen mit der Bemerkung „obgleich wir … im kosmischen Maßstab kaum mehr sind als eine Eintagsfliege der irdischen Evolution“.

Fast könnte man das Buch an dieser Stelle zuklappen, es beiseite legen, und vergessen, dass es dieses Buch gibt.

Was immer der Autor Glaubrecht an wunderbaren Dingen in seinem Kopf haben mag, weiß, denkt, fühlt, mit dieser Aussage am Ende seiner 14 Zeilen Evolution auf S.24 deutet er an, dass er den Menschen in seiner biologischen Erscheinungsweise sehr ‚klassisch biologisch‘ sieht, Produkt einer ‚biologischen Hervorbringung‘, von der viele Biologen zu glauben wissen, was biologisches Leben ist. Dieser sich hier nurmehr ‚andeutende Akzent‘, dieser ‚gedankliche Tonfall‘, wird die ganze ‚Sinfonie der Gedanken‘ im weiteren Gang begleiten, verfolgen, und zu Disharmonien führen, die das ganze Werk in einen Abgrund zu reißen drohen, aus dem es kein gedankliches Entkommen zu geben scheint. ‚Schwarze Löcher‘ sind nicht nur ein Problem der heutigen theoretischen Physik.

Nachdem Glaubrecht (SS.24-28) die großen Phänomene einer tiefgreifenden Störung der Biosphäre und ihrer planetarischen Umgebung ins Bewusstsein gerufen hat (Bevölkerungsentwicklung, Ressourcenverbrauch, dramatisches Artensterben, Klimaextreme), deutet er auf das widersprüchliche Phänomen hin, dass es gesellschaftlich zwar schon — auch seit längerem — eine gewisse Wahrnehmung dieser Phänomene gibt (vgl. z.B. S.27), dass diese partiellen gesellschaftlichen Wahrnehmungen aber noch zu keiner wirklich wirksamen gesellschaftlichen Verhaltensänderung geführt zu haben scheinen.

Wer sollte diese ‚Gegenbewegung‘ zu einer wahrnehmbaren globalen zerstörerischen Dynamik auslösen? Woher sollte sie kommen?

Auf den Seiten 28-30 bekennt sich Glaubrecht klar zum Faktor ‚Wissen‘: „Der Schlüssel zu allem ist Wissen; ohne Kenntnis der Fakten und Hintergründe, der Daten und Quellen ist ein sicherer Umgang mit den komplexen Szenarien unserer Gegenwart nicht möglich, geschweige denn, dass sich die Herausforderungen der Zukunft meistern lassen.“(S.28) Allerdings, diese Bemerkung ist wichtig, Wissenschaft kann wirklich verlässlich „nur Vergangenes und bereits Geschehenes deuten“.(S.29) Dies klingt eher resignativ und wäre möglicherweise kaum ein Hilfe, gäbe es nicht doch auch — so Glaubrecht — die Möglichkeit, aus der Vergangenheit zu „lernen“ und „mithin Vorhersagen erleichtern“.(vgl. S.29)

Glaubrecht sagt nicht viel — eigentlich gar nichts — zur Frage, wie denn überhaupt Prognosen möglich sein können, was ihre Randbedingungen sind. Und irgendwie scheint ihm diese Option der ‚Prognose‘ ein wenig suspekt zu sein, beginnt er doch dann den Abschnitt darüber, wie er in seinem Buch arbeiten will, mit einem verstärkten Zweifel an der Möglichkeit von Prognosen (sein Zitat von Niels Bohr, S.30, Zeilen 1-2) und stellt fest „Tatsächlich ist Wissenschaft immer nur im Rückblick wirklich gut“.(S.30)

Damit mehren sich die Fragen, was Glaubrecht denn genau unter ‚Wissenschaft‘ versteht? Prognosen bezweifelt er, und der ‚Rückblick‘ soll es richten? Und er betont, dass es hier nicht nur um sein eigenes „Bauchgefühl“ — das eines einzelnen Wissenschaftlers — geht, der „sein Bauchgefühl zur Wissensautorität erhebt“ (S.28), sondern darum „Evidenzen“ zu sichern.(vgl. S.28f) Er verweist dann auf die Wissenschaftstheorie, die betone, dass das Gute an Wissenschaft sei, „dass wir ein Verfahren haben, den Gegenständen unserer Forschung gerecht zu werden, und unsere Ansichten, Befunde und Meinungen methodisch zu testen gelernt haben, statt uns im Vagen und Wunschdenken zu verlieren.“(S.29)

Eine Formulierung wie „den Gegenständen unserer Forschung gerecht zu werden“ ist natürlich ‚vage‘, und der Hinweis „unsere Ansichten, Befunde und Meinungen methodisch zu testen gelernt haben“ soll vielleicht weiter beruhigend wirken, aber diese Formulierung ist auch vage. Eine Kernbedeutung von ‚Testen‘ ist normalerweise jene, dass ich aus ‚Annahmen‘, die ich als Wissenschaftler — warum auch immer — mache, eine ‚Folgerung‘ (eine ‚Prognose‘) ableite, die ich dann ‚teste‘. Dieses Konzept der Generierung von ‚Prognosen‘ setzt einen ‚Mechanismus‘ (ein ‚Verfahren‘) voraus, wie ich aus Annahmen eine Prognose ‚ableiten‘ kann. Wie zirka 2.500 Jahre Philosophie und etwa 150 Jahre Wissenschaftsphilosophie zeigen, ist dies alles andere als ein ‚trivialer Sachverhalt‘. Glaubrecht schweigt dazu. Was sagt dies über seine Wissenschaftlichkeit … und jene der Evolutionsbiologie und Biodiversitätsforschung? Fakten ja, aber keine Prognosen?

Und es gibt noch einen Punkt, der bedenklich stimmen kann, ja sollte. Nach seiner wissenschaftsphilosophischen Verortung, die sich in vagen Andeutungen erschöpft, kommt er zu folgender Feststellung: „Just beim Blick in die biohistorischen Vergangenheit ist die Evolutionsforschung in ihrem Metier. Ausgerüstet mit dem Blick des Evolutionsbiologen und dem Wissen des Biodiversitätsforschers zur Artenvielfalt ebenso wie Artenschwund soll es hier um den Menschen, seine Wurzeln in der Natur und die Entwicklung seiner Kultur sowie um unseren Umgang mit der Natur gehen; schließlich auch darum, wohin uns das zukünftig führt“.(S.30)

Dass „Evolutionsbiologen und … Biodiversitätsforscher“ besonders geschult sind, um ‚evolutionäre biologische Prozesse‘ sowie die ‚Entwicklung von biologischen Arten‘ zu identifizieren und zu beschreiben, das mag man zunächst noch glauben; den nächsten Schritt, nämlich solche ‚auf Beobachtung beruhenden Evidenzen‘ dann sogar in ‚geeignete voraussagefähige Modelle‘ einzuordnen, muss man nicht unbedingt glauben. Noch weniger sollte man so ohne weiteres glauben, dass ‚Evolutionsbiologen und Biodiversitätsforscher‘ einfach so auch befähigt sind, komplexe Phänomene wie ‚Kultur‘ bzw. überhaupt ‚menschliche Gesellschaften‘ zu beschreiben. Ein Schreiner mag zwar an einem Haus Aspekte erkennen, die mit seiner Profession als Schreiner Überschneidungen aufweisen, aber er wird damit nicht zum ‚Multi-Handwerker‘, keinesfalls automatisch zum ‚Architekt‘ oder ‚Bauingenieur‘.

Mit dieser Selbstüberschätzung einzelner Disziplinen steht Glaubrecht nicht alleine. Er reproduziert damit nur ein Muster, was sich heute — leider — in nahezu allen wissenschaftlichen Einzeldisziplinen findet: jeder kultiviert seine eigene ‚Wissenschaftssprache‘, seine eigenen ‚wissenschaftlichen Methoden‘, aber die Fähigkeit zum ‚transdisziplinären‘ Denken und zu einer ‚gemeinsamen allgemeinen Theorie‘ existiert bislang eher nur in Absichtserklärungen. Eine der Folgen von dieser ’spendid isolation‘ der moderner Einzelwissenschaften ist genau das, was Glaubrecht — zu Recht — konstatiert: es gibt viele, verstreute Wahrnehmungen von ‚bedenklichen Entwicklungen‘ auf diesem Planeten, aber eine ‚Zusammenschau‘, die sich über ein ‚gemeinsames Wissen‘ organisieren müsste, findet nicht statt, weil wir als Menschen uns den Luxus leisten, in den Köpfen der überwältigenden Mehrheit ‚Weltbilder‘ zu hegen, die mit der realen Welt und ihrer Dynamik wenig zu tun haben. Für populistische und autokratische Gesellschaften eine ideale Umgebung.

Diese eher kritischen Bemerkungen zum wissenschaftlichen Setting des Buches sollten aber nicht davon ablenken, dass die Fülle der Fakten und Einsichten zu jenen Veränderungsprozessen planetarischen Ausmaßes, die Glaubrecht darbietet, wichtig sind. Diese Fülle ist atemberaubend. Doch diese wunderbare Seite des Buches darf nicht darüber hinweg täuschen, dass das schwierige wissenschaftlichen Setting des Buches sich voraussichtlich dort bemerkbar machen wird, wo es um eine Einschätzung der möglichen Zukunft gehen wird, ob und wie wir diese werden bewerkstelligen können. Auf dem Weg dahin wird es natürlich vielfach Sachverhalte geben, deren Einschätzung aufgrund seines Vorverständnisses vorzüglich in die Richtung seines Vorwissens laufen werden. Dies ist unausweichlich.

Auf den Seiten 30-35 lässt Glaubrecht umrisshaft erkennen, wie er sein Buch in drei Teilen organisieren will. Vor dem Blick in die Zukunft (Prognose!) ein langer Blick zurück in die Vergangenheit: Befunde, Fakten, Zusammenhänge. (vgl. S.30)

Im Rückblick auf den bisherigen Weg des Menschen zeichnet er das Bild eines „Pfadfinders“, der neugierig umherzieht, der sich überall aus einer scheinbar kostenlosen, unerschöpflichen Natur bedient, und der sich dabei rein zahlenmäßig dermaßen vermehrt, dass er nach und nach die gesamte planetarische Oberfläche in Besitz genommen und dabei so verändert hat, dass der Lebensraum nicht nur für erschreckend viele andere Arten genommen und zerstört wurde, sondern mittlerweile auch für sich selbst. Diese Auswirkungen des Menschen auf den Planeten sind so massiv, dass Geowissenschaftler eine neue erdgeschichtliche Epoche mit Namen „Anthropozän“ vorschlagen. (vgl.S.33) Alle Indizien deuten auf ein neues, sechstes, planetarisches Artensterben hin.(vgl. S.33) Dass es für uns Menschen scheinbar immer noch funktioniert trotz der aufweisbaren massiven Schäden überall lässt erahnen, wie komplex und redundant das gesamte biologische Ökosystem aufgebaut ist; in Milliarden von Jahren hat es sich in einer Weise ‚organisiert‘, die von einer großen ‚Resilienz‘ [1],[1.1], [1.2] zeugt. Doch diese ist nicht ‚unendlich‘; wenn die zerstörerischen Belastungen bestimmte Punkte — die berühmten ‚tipping points‘ — überschreiten, dann bricht das System so zusammen, dass eine Regenerierung — wenn überhaupt — möglicherweise nur über viele Millionen Jahre möglich sein wird und dann … (vgl. S.34f)

Wie dieser aktuell dramatische Prozess letztlich ausgehen wird: Glaubrecht lässt diese Frage bewusst unbeantwortet. Er plant zwar, einen ‚worst case‘ und ein mögliches ‚happy end‘ zu schildern (vgl.S36), aber welcher dieser beiden Fälle — oder womöglich noch ein dritter — letztlich eintreten wird, hängt vom Verhalten von uns Menschen in den nächsten Jahren ab. Wiederholt weist er darauf hin, dass der ‚Klimawandel‘, der heute in alle Munde ist, letztlich ja nur eine Nebenwirkung des eigentlichen Hauptproblems, der Verwüstung des Ökosystems ist. Eine Konzentration auf das Klima bei Vernachlässigung des ökologischen Problems kann daher kontraproduktiv sein.(vgl. S.36f)

Womit sich die Frage stellt, ob uns Menschen letztlich — biologisch und kulturell — die Mittel fehlen, mit dieser Problematik angemessen umzugehen? „Ist der Mensch letztlich ein vernunftloses Tier?“ (S.36)

(Paläo-)Anthropologie, Soziologie, Geschichte, Religion …

Gefühlt könnte der Prolog auf S.37 enden. Glaubrecht bringt aber noch Gedanken ins Spiel, die mit Evolutionsbiologie und Biodiversität eigentlich nichts mehr zu tun haben. Sein methodologisches wissenschaftliches Programm von S.30 wird damit deutlich gesprengt. Es folgt eine Skizze des Homo sapiens in den letzten 12.000 Jahren in denen die „überschaubaren Jäger und Sammler Horden“ (S.37) sich in Bauern verwandelten, in immer komplexere Gesellschaften leben mit all den Phänomenen, die frühe komplexe Gesellschaften so mit sich brachten (Ungleichheit, Gewalt, Unterdrückung, Krankheiten, Soziales als Stress, ..). Diese Darstellung ist durchsät mit ‚Bewertungen‘, die all dies Neue eher ’negativ‘ erscheinen lassen gegenüber der vorausgehenden ‚positiven‘ Zeit der wenigen, frei umherziehenden Horden.(vgl. S.37f)

Mit Evolutionsbiologie und Biodiversität hat dies nicht mehr viel zu tun. Glaubrecht bezieht sich an dieser Stelle direkt und ausführlich auf Schalk und Michel (EN 2016, DE 2017), die das Buch der Bibel aus anthropologischer Sicht interpretieren. Dazu führen sie eine dreifache Typologie der menschlichen ‚Natur‘ ein: (i) ‚Biologisch‘, (ii) ‚Kultur‘, (iii) ‚Vernunft‘. Abgesehen davon, dass die für die Klassifikation benutzten Begriffe in ihrem Verwendungskontext und ihrem Bedeutungsfeld mehr als vage sind, erscheint die Zuschreibung dieser Begriffe zur biologischen Lebensform des homo sapiens philosophisch und wissenschaftsphilosophisch zunächst sehr willkürlich (wenngleich diese Art der Typisierung sehr populär ist). Die in der Anthropologie (und auch den Geisteswissenschaften) sehr beliebte Gegenübersetzung von ‚Biologisch‘ und ‚Kultur‘ und dann auch noch zur ‚Vernunft‘ sitzt tief in den Köpfen der Vertreter dieser Disziplinen, aber dies sind ‚Denkprodukte‘ einer Epoche, ‚Artefakte‘ eines Denkens, das viele Jahrhunderte, ja viele Jahrtausende, nichts anderes gekannt hat. Wenn man aber im 20.Jahrhundert, und jetzt sogar im 21.Jahrhundert, lebt, darf man sich über diese denkerische Naivität schon wundern.

Fast schon extrem ist in diesem Zusammenhang die Zurichtung des Blicks auf das Phänomen der jüdisch-christlichen Religion mit der ‚Bibel‘ als Referenzpunkt. Bedenkt man, wie umfassend und reichhaltig die verschiedenen Gesellschaften und Kulturen der Menschheit in allen Erdteilen schon ab -5000 waren (man denke z.B. an Indien, China, Ägypten,) dann erscheint diese Blickverengung nicht nur extrem, sondern auch willkürlich.

Die Interpretation der Bibel, die Schaik und Michel präsentieren (und die Glaubrecht durch sein ausführliches Zitieren mindestens wohlwollend zur Kenntnis nimmt)(vgl. SS.38ff), ist zwar bei vielen immer noch populär, ist aber wissenschaftlich in keiner Weise zu rechtfertigen. Wie die verdienstvolle Arbeit der kritischen Bibelwissenschaften (ab dem 18.Jahrhundert)[2],[3] zeigt, muss man den Text des Alten Testaments als das Produkt eines Entstehungsprozesses sehen, der inhaltlich bis in die Zeit vor -900 (oder sogar weiter) zurückverweist. Er dokumentiert das vielstimmige Ringen von Menschen aus vielen verschiedenen Regionen und Zeiten, um eine Antwort auf letzten und doch auch sehr konkrete Fragen des Verhaltens im Alltag zu finden. In diesen Texten wird deutlich, dass diese Sichten keinesfalls ‚monoton‘ waren, sondern vielstimmig, teilweise geradezu konträr.[4] Und sowohl am Beispiel der jüdisch-christlichen Tradition wie auch an den Beispielen der verschiedenen anderen Religionen ist unübersehbar, dass es letztlich nicht die sogenannten ‚religiösen Inhalte‘ waren, die ganze Völker ‚befriedet‘ haben, sondern massive Machtinteressen (eng gekoppelt an finanziellen Interessen), die sich die religiösen Erzählungen für ihre Zwecke nutzbar machten um damit viele Völker äußerst blutig zu unterwerfen bzw. die Unterworfenen dogmatisch-autokratisch zu regieren. Dass sich modernes Denken, moderne Wissenschaft trotz dieser gedanklichen Unterdrückung überhaupt entwickeln konnten, ist dann fast schon ein Wunder. Die destruktive Kraft der religiösen Traditionen erlebt heute in vielen populistisch-fundamentalistischen Strömungen immer noch eine globale Wirkung, die ein modernes, dem Leben zugewandtes kritisches Denken eher verhindert und freie Gesellschaften gefährdet.[6]

Die massive Unterdrückung von anderem Fühlen und Denken, die von der jüdisch-christlichen Tradition mindestens ausging (und das war nicht die einzige Religion, die sich so verhielt) basiert im Kern auf bestimmten Überzeugungen, was ‚der Mensch‘ und was ‚Geschichte‘ ist. Während die Bibel selbst — und hier insbesondere das alte Testament — noch vielstimmig und gar konträr daherkommt, entstanden in den Zeiten nach der ‚Kanonisierung‘ [7] der verschiedenen Schriften immer mehr ‚verfestigte‘ Interpretationen, die zwar geeignet waren, Machtansprüche der herrschenden Institutionen durchzusetzen, sie verkleisterten aber das ursprüngliche Bild, machten seine menschlichen Verwurzelungen eher unsichtbar, und leisteten damit einer starren Dogmatisierung Vorschub. ‚Anderes‘ Denken war erst einmal ‚fremd‘, ‚gefährlich‘, ‚falsch‘. Dass die ‚Intelligenz der mittelalterlichen Mönche‘ es über mehrere Jahrhunderte hin schaffte, das ‚Denken der Griechischen Philosophie, vor allem das Denken des Aristoteles‘, in einen konstruktiven Dialog mit dem christlichen Dogma zu bringen, grenzt schon fast an ein Wunder. Allerdings schafften diese großartigen Denker es nicht, das christliche Lehramt in zentralen Positionen zu erneuern. Die aufkommenden neuen empirischen Wissenschaften (bis hin zur Evolutionsbiologie) wurden ebenfalls zunächst verteufelt, verfolgt, gar auf dem Scheiterhaufen verbrannt. Die christliche Begleitung der europäischen Unterwerfung der Völker anderer Kontinente ermöglichte zwar neue Einsichten und Verhaltensweisen speziell des Jesuitenordens, der sich überall auf die Seiten der ursprünglichen Bewohner schlug (Nord- und Südamerika, Asien), indem sie diese Sprachen lernten, Wörterbücher herausgaben, deren Kleidung und religiösen Praktiken teilweise übernahmen, oder sie (in Südamerika) aktiv gegen die portugiesisch-spanischen Ausbeuter zu schützen versuchten, doch wurden sie dafür von der Institution gnadenlos abgestraft: ohne Vorankündigung wurden sie über Nacht überall verfolgt, eingekerkert, gefoltert, umgebracht. Die später aufkeimende kritischen Bibelwissenschaften hatten genug Erkenntnisse, um die naiven Grundanschauungen des christlichen Dogmas zu erschüttern und als haltlos zu erweisen. Aber auch diese wurden lange unterdrückt und innerhalb der Institution dann soweit ‚abgeschwächt‘, dass notwendige Korrekturen am Gesamtbild von ‚Mensch‘, ‚Geschichte‘, ‚Institution‘ dann doch wieder unterblieben.

Wenn die Autoren Schaik und Michels — mit Billigung von Glaubrecht — diese ‚finstere Maschine‘ einer dogmatischen christlichen Religion (mit vielen ihrer späteren Ablegern) letztlich ‚glorifizierend‘ preisen als einen ‚menschheitsverbindenden Verhaltenskodex‘, den man irgendwie zurück haben möchte (S.41), dann erscheint dies vor dem Hintergrund der massiven Fakten als ‚extrem naiv‘; mit Wissenschaft hat dies nicht das Geringste zu tun.

Typisierung: Natur – Kultur – Vernunft

Ich möchte hier nochmals auf die für Schaik und Michels grundlegende Typisierung der menschlichen ‚Natur‘ als (i) ‚Biologisch‘, (ii) ‚Kulturell‘, (iii) ‚Vernunft‘ (vgl. S.39f) zurück kommen, die sich prozesshaft in einem komplexen Phänomen von „kumulativer kultureller Evolution“ (S.40) niederschlägt.

Wenn ich ein technisches System wie einen Computer nehme, dann besteht dieser aus (i) Hardware, die festlegt, welche technischen Systemzustände im Prinzip möglich sind (Hardware, die mittlerweile partiell ‚adaptiv‘ sein kann), aus (ii) Software, die aus dem Raum der möglichen Systemzustände eine charakteristische Teilmenge von Zuständen auswählt, und — für den menschlichen Benutzer bedeutsam — (iii) das beobachtbare Input-Output-Verhalten des Systems, das mit dem menschlichen Verhalten eine ‚Symbiose‘ eingeht. Ein Mensch im Jahr 2022, der ein sogenanntes ‚Smartphone‘ benutzt, der denkt während der Nutzung weder über die Hardware noch über die Software nach; er erlebt das technische System direkt und unmittelbar als ‚Teil seines eigenen Handlungsraumes‘. Letztlich ‚verschwindet‘ in der Wahrnehmung das technische System als etwas ‚Anderes‘; es gehört zum Menschen so wie sein Arm, seine Hand, seine Beine.

Die Dreifach-Typologie von Schaik und Michel (literarisch approbiert von Glaubrecht) liese sich auf die Menge der Smartphones anwenden: (i) der menschliche Körper als Manifestation des ‚Biologischen‘ entspricht der Hardware als Manifestation des Technischen. (ii) Die ‚Kultur‘ entspricht der Software, deren Regelmengen die Menge der Systemzustände festlegen. (iii) die ‚Vernunft‘ entspricht jenen typischen ‚Reaktionen‘ des technischen Systems auf die Anforderungen seitens des menschlichen Benutzers, in denen das System ‚antwortet‘, ‚erinnert‘, ‚Konsequenzen sichtbar macht‘, ‚Assoziationen herstellt‘, usw.

Wer jetzt einwenden möchte, dass diese ‚Auslegung der Begriffe‘ in diesem Beispiel doch etwas ‚willkürlich‘ sei, der sollte sich fragen, wie denn Schaik und Michel die Verwendung ihrer Begriffe rechtfertigen. Ihre Verwendung der Begriffe ist absolut beliebig.

Im Smartphone-Beispiel wird allerdings klar, dass die unterschiedlichen ‚Erscheinungsweisen‘ dieses technischen Systems (Hardware, Software, Input-Output-Verhalten) zwar sprachlich unterschiedlich gehandhabt werden können, dass aber jede ‚Ontologisierung‘ dieser drei Erscheinungsweisen in Richtung eigenständiger ‚Naturen‘ die tatsächliche Funktionalität des Systems stark verzerren würde. Jeder Informatiker weiß, dass das beobachtbare Input-Output-Verhalten des Smartphones (so ‚klug‘ es auch erscheinen mag), letztlich nur eine spezielle Abbildung der inneren Systemzustände ist, die von der aktiven Software aus der Menge der möglichen technischen Systemzustände ausgewählt wird. Das eine kann man nicht ohne das andere verstehen. Das technische System bildet als solches ein einziges ‚funktionales Ganzes‘. Und in dem Maße wie Computersysteme über ‚Sensoren‘ verfügen (das Smartphone hat sehr viele), die ‚Signale der Außenwelt‘ messen können, und/ oder auch über ‚Aktoren‘ (hat ein Smartphone auch), auf die Außenwelt physikalisch einwirken kann, dann kann ein Smartphone ‚Zustände der Außenwelt‘ in seine ‚internen Systemzustände‘ ‚abbilden‘, und es kann — falls die Software so ausgelegt wurde — auch Eigenschaften der Außenwelt (und auch über sich selbst) ‚lernen‘. Nicht rein zufällig sprechen ja heute fast alle vom ‚Smart‘-Phone, also von einem ‚klugen‘ Phone, von einem klugen technischen System. Selbstfahrende Autos und ‚autonome Roboter‘ gehören auch in diese Rubrik der ‚klugen‘, ‚vernünftigen‘ Maschine.

Wenn jetzt wieder jemand (vorzugsweise Anthropologen und Geisteswissenschaftler) einwenden würden, dass man diese Begriffe ‚klug‘ und ‚vernünftig‘ hier nicht anwenden darf, da sie ‚unpassend‘ seien, dann kann man gerne zurückfragen, wie Sie denn diese Begriffe definieren? Die Verwendungen dieser Begriffe in der Literatur ist dermaßen vielfältig und vage, dass es schwer fallen dürfte, eine ’scharfe‘ Definition zu geben, die eine gewisse Mehrheit findet. Nichts anderes machen die Informatiker. Weitgehend ohne Kenntnis der philosophischen Literatur benutzen sie diese Begriffe in ihrem Kontext. Sie haben allerdings den Vorteil, dass ihre technischen Systeme schärfere Definitionen zulassen. Von einer ‚klugen‘ Maschine in einem Atemzug mit einem ‚klugen‘ Menschen zu sprechen, erhöht zwar den kulturellen Verwirrtheitsgrad, bislang scheint dies aber niemanden ernsthaft zu stören.

Um es klar zu sagen: das von mir konstruierte Beispiel ist genau das, ein Beispiel; es ersetzt keine umfassende ‚Theorie‘ über den Menschen als Moment der biologischen Evolution auf diesem blauen Planeten. Von einer solchen Theorie sind wir aktuell auch noch — so scheint es — gefühlte Lichtjahre entfernt. Auf jeden Fall dann, wenn Biologen und Anthropologen kein Problem damit zu haben scheinen, solch ein finsteres Phänomen wie die jüdisch-christliche Religion in ihrer historischen Manifestation (sind andere besser?) als positives Beispiel einer Bewältigung des Lebens auf diesem Planeten zu qualifizieren. Vielleicht wäre es hilfreich, wenn Biologen und Anthropologen sich mehr damit beschäftigen würden, wie denn alle diese — scheinbar widersprüchlichen Phänomene ‚biologische Systeme‘, ‚Kultur‘ und ‚Vernunft‘ tatsächlich zusammenhängen. Die — geradezu naive — Verherrlichung der frühen Phase des ‚vorgesellschaftlichen‘ homo sapiens und die — ebenso naiven — Kassandra-Rufen-ähnliche Klassifizierungen von zunehmend komplexen Gesellschaftsbildungen zerstört das Phänomen, was es wissenschaftlich zu erklären gilt, bevor man es überhaupt richtig zur Kenntnis genommen hat. Hier bleibt erheblich ‚Luft nach oben‘.[8]

KOMMENTARE

wkp := Wikipedia, [de, en, …]

[1] Resilienz: Dieser Begriff wird von verschiedenen Disziplinen in Anspruch genommen. Nach meinen Recherchen taucht er als erstes in der Ökologie auf [1.1], wo er sich als wichtiger theoretischer Begriff etabliert hat.[1.2]

[1.1] C.S. Holling. Resilience and stability of ecological systems. Annual Review of Ecology and Systematics, 4(1):1–23, 1973. Online: https://www.jstor.org/stable/2096802

[1.2] Brand, F. S., and K. Jax. 2007. Focusing the meaning(s) of resilience: resilience as a descriptive concept and a boundary object. Ecology and Society 12(1): 23. [online] URL: http://www.ecologyandsociety.org/vol12/iss1/art23/

[1.3] Peter Jakubowski. Resilienz – eine zusätzliche denkfigur für gute stadtentwicklung. Informationen zur Raumentwicklung, 4:371–378, 2013.

[2] Biblische Exegese in wkp-de: https://de.wikipedia.org/wiki/Biblische_Exegese

[3] Historisch-kritische Methode in wkp-de: https://de.wikipedia.org/wiki/Historisch-kritische_Methode_(Theologie)

[4] Ein sehr prominentes Beispiel sind die beiden verschiedenen Versionen der sogenannten ‚Schöpfungsgeschichten‘ zu Beginn des heutigen biblischen Textes, die aus ganz verschiedenen Zeiten stammen, eine ganz verschiedene Sprache benutzen (im hebräischen Text direkt sichtbar), und die ganz unterschiedliche Bilder von Gott, Mensch und Schöpfung propagieren.

[5] Carel van Schaik und Kai Michel, „Das Tagebuch der Menschheit: Was die Bibel über unsere Evolution verrät“, Rowohlt Taschenbuch; 8. Edition (17. November 2017)(Original: The Good Book of Human Nature. An Evolutionary Reading of the Bible, 2016)

[6] Sehr aufschlussreich ist der Umgang der christlichen Tradition mit der sogenannten ‚Spiritualität‘ und ‚Mystik‘: nahezu alle großen geistlichen Lebensgemeinschaften (oft ‚Orden‘ genannt) durften nur existieren, wenn sie sich vollständig der Kontrolle der Institution unterwarfen. Falls nicht, wurden sie verfolgt oder getötet. ‚Subjektivität‘, ‚individuelle Erfahrung‘, nichtautoritäre Praxis, andere Gesellschaftsformen, wurden kompromisslos unterdrückt, ebenso jede Art von abweichender Weltsicht (man denke z.B. nur an Galilei und Co.).

[7] Die ‚Kanonisierung‘ der Bibel meint den historischen Prozess, in dem festgelegt wurde, welche Schriften zum Alten und Neuen Testament gezählt werden sollten und welche nicht. Wie man sich vorstellen kann, war dieser Prozess in keiner Weise ‚trivial‘.(Siehe auch: wkp-de, https://de.wikipedia.org/wiki/Kanon_(Bibel))

[8] Eine sehr interessante alternative Sicht im Bereich (Kultur-)Antropologie und Soziologie zum Verständnis des Phänomens Mensch bietet das interessante Buch von Pierre Lévy  “Collective Intelligence. mankind’s emerging world in cyberspace” (translated by Robert Bonono),1997 (French: 1994), Perseus Books, 11 Cambridge Center Cambridge, MA, United States. Allerdings scheint auch dieses Buch — trotz seiner neuen Akzente — noch eher im ‚alten Denken‘ verhaftet zu sein als in einem ’neuen Denken‘.

[8.1] Eine Folge von Kommentaren zu Pierre Lévy’s Buch findet sich hier: Gerd Doeben-Henisch, 2022, „Pierre Lévy : Collective Intelligence – Chapter 1 – Introduction“, https://www.uffmm.org/2022/03/17/pierre-levy-collective-intelligence-preview/ (mit Fortsetzungs-Links)

Ein Überblick über alle Beiträge des Autors nach Titeln findet sich HIER.

Ballungsraum 2117 und technische Superintelligenz. Welche Rolle verbleibt uns Menschen?

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
14.April 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch, Frankfurt University of Applied Sciences
Email: doeben@fb2.fra-uas.de
Email: gerd@doeben-henisch.de

PDF

INHALT

I VISION RESILIENZ
II VIELE AKTEURE
III PROBLEMLÖSUNGSSTRATEGIEN
IV MENSCH UND KOMPLEXITÄT
V INGENIEURE ALS VORBILD
VI CLUB OF ROME – NUR GESTERN?
VII DER UMFASSEND DIGITALISIERTE MENSCH ENTSTEHT HEUTE
VIII SIMULATIONEN BEHERZTER NUTZEN?
IX TECHNISCHE SUPERINTELLIGENZ
X WAS KANN EIN COMPUTER?
XI DAS EI DES COLUMBUS
XII EINE NEUE MENSCH-MASCHINE SUPER-INTELLIGENZ FÜR DEN BALLUNGSRAUM?
IX QUELLEN

ÜBERBLICK

Dieser Text wurde ursprünglich als Vorbereitung für das Programmheft der Konferenz ’Der Resiliente Ballungsraum’ des Frankfurter Forschungsinstituts FFin am 13.April 2018 geschrieben. Die aktuelle Version stellt eine leicht überarbeitete Version im Anschluss an die Konferenz dar, ergänzt um Literaturangaben. Ausgehend von der Komplexität heutiger Ballungsräume wird die Frage gestellt, ob und wie wir Menschen die neuen digitalen Technologien, insbesondere auch künstliche Intelligenz, nutzen könnten, um mit dieser Komplexität besser umzugehen. Durch die langsam wachsende Erkenntnis, dass der resiliente Charakter vieler komplexer Systeme zudem ein Denken verlangt, das weit hinter die Oberfläche der Phänomene schaut, wird die Frage nach einer möglichen Unterstützung durch die neuen digitalen Technologien umso dringlicher. Im Text schält sich eine ungewöhnliche mögliche Antwort heraus, die auf eine ganz neue Perspektive in der Planungsdiskussion hinauslaufen könnte.

I. VISION RESILIENZ

Mit der Leitidee der ’Resilienz’ (1) zielt das Denken im Kern ab auf die Dimension der Überlebensfähigkeit von Ballungsräumen, die sich als dynamische Gebilde zeigen, ständigen Veränderungen unterworfen sind, ein dicht  verwobenes Knäuel von Faktoren, die alle gleichzeitig miteinander in Wechselwirkung stehen. Und, ja, natürlich, wer ist nicht daran interessiert, dass diese Gebilde als konkrete Lebensräume für konkrete Menschen möglichst lange funktionsfähig bleiben. Doch, was als sinnvoller Wunsch einer breiten Zustimmung sicher sein kann, kann sehr schnell zur Last, oder gar zum Alptraum werden, wenn man auf die eine oder andere Weise zum ’realen Akteur’ werden muss.(2)

(Anmk: 1: Dieser Artikel benutzt den Resilienzbegriff, wie er in dem grundlegenden Artikel von Holling 1973 [Hol73] vorgestellt worden ist)

(Anmk: 2: Eine Auseinandersetzung mit dem neuen Lieblingswort der ’Resilienz’ im Kontext der Städteplanung findet in einem Folgeartikel in diesem Blog statt. Mit Blick auf den Städtebau siehe auch Jakubowski (2013) [Jak13] )

II. VIELE AKTEURE

Ein polyzentrischer Ballungsraum wie das Rhein-Main Gebiet zählt schon heute an die 5 Mio. Bürger, die in tausenden von unterschiedlichen Rollen Akteure sind, die den Ballungsraum nutzen, ihn auf unterschiedliche Weise gestalten, und die alle ihre Ansprüche haben, die sie befriedigt sehen wollen. (3) Jeder dieser Akteure hat ’sein Bild’ von diesem Ballungsraum. Der eigene Wohnbereich, die täglichen Wege zur und von der Arbeit, Einkäufe, Kinder zum Kindergarten oder zur Schule, vielfältige Freizeit, Großereignisse, Unwetter, Krankheiten . . . irgendwie muss alles irgendwie stimmen, muss es lebbar sein, bezahlbar…. Leiter von Firmen haben weitere spezielle Anforderungen, nicht zuletzt die Verfügbarkeit geeigneter Mitarbeiter, Planungssicherheit, möglichst geringe Kosten, Verkehrs- und Telekommunikationsanbindungen, und vieles mehr . . . Die Ämter und Fachreferate in den Kommunen stehen im Kreuzfeuer vielfältigster politischer Interessen, von Alltagsanforderungen, mangelnder Kommunikation zwischen allen Abteilungen, Bergen von Vorschriften, Mangel an Geld, Personalproblemen, einer Vielzahl von komplexen und disparaten Plänen, ungelösten Altlasten aus der Vergangenheit… Polyzentrisch heißt auch, es gibt nicht nur viele Zentren, sondern auch entsprechend viele Kapitäne, die ihre eigenen Routen haben. Wie soll dies alles koordiniert werden?

(Anmk: 3:   Siehe dazu Peterek/ Bürklin (2014) [PB13], Buerklin/ Peterek (2016) [BP16] )

III. PROBLEMLÖSUNGSSTRATEGIEN

Aus der Nähe betrachtet mutiert die Vision eines resilienten Planungsraumes schnell zum bekannten Muster des ’Lösens eines Problems’: es gibt einen Ausgangspunkt, die jeweilige Gegenwart, es gibt eine Gruppe von Akteuren, die selbst ernannten Problemlöser, und es gibt verschiedene Strategien, wie man versucht, ausgehend von einer – meist nur partiell bekannten – Gegenwart brauchbare Erkenntnisse für eine unbekannte Zukunft zu gewinnen; dazu soll die Lösung – entsprechend der Vision – ’resilient’ sein.

Schaut man sich konkrete Beispiele von Planungstätigkeiten aus den letzten Monaten im Rhein-Main Gebiet an, dann findet man sehr viele unterschiedliche Formen von Problemlösungsverhalten. Zwischen einer rein ’inner-behördlichen’ Vorgehensweisen mit sehr eingeschränkten Ist-Erfassungen und Lösungsfindungen bis hin zu einer sehr umfassenden Einbeziehungen von vielen Bevölkerungsgruppen über viele Kommunikationsstufen hinweg mit unterschiedlichen kreativen Ideen-Findungen. (4)

Diese letzteren, möglichst viele unterschiedliche Akteure einbeziehenden Vorgehensweisen, wirken auf den ersten Blick vertrauenerweckender, da grundsätzlich mehr Perspektiven zu Wort kommen und damit sowohl ein größerer Erfahrungsraum aus der Gegenwart wie auch eine größere Farbigkeit für eine mögliche Zukunft. Wäre solch eine Strategie die Strategie der Stunde?

(Anmk: 4: Dazu war das Referat von Dr.Gwechenberger vom Dezernat Planen und Wohnen der Stadt Frankfurt, sehr aufschlussreich. Neben der in der Sache gründenden Komplexität spielen die vielfältigen rechtlichen Vorgaben eine große Rolle, dazu die unterschiedlichen Mentalitäten aller Beteiligten, insbesondere die vielfältigen individuellen Interessen und Motivlagen. Das ganze eingebettet in unterschiedliche Zeitfenster, wann welche Aktion möglich, sinnvoll oder notwendig ist. Demokratie ist so gesehen auf jeden Fall zeitaufwendig, dann aber– hoffentlich – resilienter und nachhaltiger)

IV. MENSCH UND KOMPLEXITÄT

Schaut man sich an, was der Mensch als Lebensform des Homo sapiens in den vielen tausend Jahren seit seiner Besiedlung aller Erdteile geleistet hat, dann kann man sich eigentlich nur vor Ehrfurcht verneigen. Quasi aus dem Nichts kommend hat er es im Laufe von ca. 70.000 Jahren geschafft, aufgrund seiner Intelligenz und Sprachfähigkeit immer komplexere Tätigkeiten auszubilden, Handwerkszeug, Technologien, Regeln des Zusammenlebens, Großansiedlungen, komplexe Handelsbeziehungen. Er zeigte sich fähig, komplexe Staaten zu bilden, Großreiche, fantastische Architektur, immer komplexere Maschinen, empirische Forschungen bis in die Tiefen des Universums, in die Tiefen der Materie, in die verschlungenen Wege der Mikrobiologie von den Molekülen zu einfachen, dann komplexen Zellen bis hin zu komplexen Lebewesen, vielfältigste Formen von Klängen, Musik, Sounds, Bildwelten.

Schließlich erfand er auch die Computertechnologie, mit der man unvorstellbar viele Daten in unvorstellbar schneller Zeit verarbeiten kann. Würden heute auf einen Schlag alle Computer und Netzwerke weltweit still stehen, die Welt bräche völlig in sich zusammen. Ein beispielloses Chaos und Elend wäre die Folge.

Dies deutet indirekt auf einen Sachverhalt, den wir als Menschen im Alltag gerne übersehen, um nicht zu sagen, den wir geradezu verdrängen. Dies hat zu tun mit den realen Grenzen unserer kognitiven Fähigkeiten.

Trotz eines fantastischen Körpers mit einem fantastischen Gehirn hat jeder Mensch nur eine sehr begrenzte kognitive Aufnahmefähigkeit von ca. 5-9 Informationseinheiten pro Sekunde, was jeder Mensch in einfachen Selbstversuchen an sich überprüfen kann. (5) Und die Verarbeitung dieser Informationseinheiten mit Hilfe des vorher erworbenen Wissens verläuft unbewusst nach weitgehend relativ festen Schemata, die es einem Menschen schwer machen, Neues zu erfassen bzw. in sein bisheriges Bild von der Welt einzubauen. (6) Noch schwerer tut sich jeder Mensch, wenn es darum geht, Zusammenhänge zu erfassen, die vielerlei Faktoren umfassen, Faktoren, die oft zudem ’verdeckt’, auf den ersten Blick ’unsichtbar’ sind. Ganz schwer wird es, wenn sich komplexe Faktorenbündel zusätzlich in der Zeit ändern können, womöglich noch mit Rückkopplungen.

Gilt schon die Voraussage des Verhaltens eines einzelnen Menschen für nur ein Jahr mathematisch als unmöglich, so erscheint die Voraussage des Verhaltens von 5 Mio. Bewohner des Rhein-Main Gebietes entsprechend undurchführbar, zumal die Ab- und Zuwanderung hier sehr hoch ist. (7) Dazu kommen Veränderungen von Bedürfnislagen, Veränderungen von Technologien, Veränderungen von konkurrierenden Wirtschaftsregionen, und vieles mehr. Die bislang bekannten und praktizierten Planungsverfahren wirken angesichts dieser zu bewältigenden Komplexität nicht sehr überzeugend. Sie wirken eher hilflos, uninformiert. Scheitern wir mit unseren begrenzten individuellen kognitiven Fähigkeiten an der heutigen Komplexität?

(Anmk: 5: Die erste bahnbrechende Untersuchung zu der ’magischen Zahl 7+/-2’ stammt von George A.Miller (1956) [Mil56]. Dazu gibt es zahllose weitere Studien, die das Thema weiter auffächern, aber nicht diese grundsätzliche Kapazitätsbegrenzung.)

(Anmk: 6: Bekannte Texte zum Zusammenspiel zwischen Kurz- und Langzeitgedächtnis sind Baddeley/Logie (1999) [BL99], Baddeley (2003) [Bad03], und Repovs/Baddeley (2006) [RB06]. Allerdings ist das Thema Gedächtnis mit diesen Artikeln nicht abgeschlossen sondern wird in vielen hundert weiteren Artikeln weiter untersucht.)

(Anmk: 7: Hinweis von Dr. Gwechenberger zur Migration der Stadt Frankfurt: rein statistisch wird innerhalb von 12 Jahren die gesamte Bevölkerung von Frankfurt einmal komplett ausgetauscht.)

V. INGENIEURE ALS VORBILD

Vergessen wir für einen Moment das Problem des komplexen Ballungsraumes und schauen, was denn die Ingenieure dieser Welt machen, wenn sie seit Jahrzehnten komplexe Systeme entwickeln, bauen und in Betrieb halten, die die kognitiven Fähigkeiten eines einzelnen Ingenieurs um viele Dimensionen übersteigen.

Moderne Ingenieurleistungen verlangen das Zusammenspiel von oft mehr als 10.000 einzelnen Experten aus sehr vielen unterschiedlichen Gebieten, nicht nur über Monate, sondern oft über Jahre hin. Wie kann dies funktionieren?

Ingenieure haben sehr früh gelernt, ihr Vorgehen zu systematisieren. Sie haben komplexe Regelwerke entwickelt, die unter dem Stichwort ’Systems Engineering’ beschreiben, wie man beliebige Probleme von der Aufgabenstellung in eine funktionierende Lösung überführt, einschließlich umfassender Tests in allen Phasen. Und selbst der spätere Einsatz des entwickelten Produktes oder der entwickelten Dienstleistung ist nochmals spezifiziert. Dies führt dazu, dass z.B. Flugzeuge, Atomkraftwerke, landesweite Energienetzwerke, Raumfahrtprojekte, im Vergleich die sichersten Systeme sind, die wir kennen.

Neben ausgeklügelten Dokumentationstechniken spielen im Engineeringprozess mathematische Modelle eine zentrale Rolle und, seit vielen Jahren unverzichtbar, computergestützte Simulationen. Schon seit vielen Jahren gibt es kein einziges anspruchsvolles Produkt mehr, das zuvor nicht vollständig als Computersimulation ausprobiert und getestet wurde. Dazu gehören z.B. auch Computerchips, speziell jene Prozessoren, die das Herz eines Computers bilden. Schon vor 30 Jahren waren diese so komplex, dass deren Entwicklung und die Tests auf ihre Funktionstüchtigkeit ohne Computer nicht möglich war. Anders gesagt, wir können Computer und all die anderen komplexen Produkte schon seit Jahren nur entwickeln, weil wir dazu Computer einsetzen. Kein menschliches Gehirn ist in der Lage, die schon heute benötigten Komplexitäten noch irgendwie praktisch zu meistern, auch viele tausende Gehirne zusammen nicht.

Angesichts dieser Erfolgsgeschichten im Bereich des Engineerings kann man sich fragen, ob man von diesen Erfahrungen für den Bereich der Planung von Ballungsräumen nicht irgend etwas lernen könnte?

VI. CLUB OF ROME – NUR GESTERN?

Manche von Ihnen erinnern sich vielleicht noch an die zu ihrer Zeit provozierende erste Studie ”The Limits to Growth” des Club of Rome von 1972. (8) Dies war der erste Versuch, die Dynamik der Erde unter der Herrschaft der Menschen mit einem umfassenden Computermodell abzubilden und mit Hilfe des Modells mögliche Hinweise zu bekommen, wie sich die Dinge bei Veränderung der bekannten Faktoren in der Zukunft auswirken.

Seit dieser Veröffentlichung sind mehr als 40 Jahre vergangen. (9) Es gab auf der einen Seite heftigste Kritik, aber zugleich auch viele evaluierende Studien, die immer wieder bekräftigten, dass die Kernaussagen dieses Modells – das vergleichsweise einfach war und ist – sich im Laufe der Jahrzehnte für die Variante ’normaler Verlauf’ weitgehend bestätigt hat. (10)

Es ist hier nicht die Stelle, ein abschließendes Urteil über dieses Computermodell zu fällen (ein Student von mir hatte es mal vollständig nach-programmiert). Man kann aber sagen, dass solche Modelle den bislang einzig bekannte Weg markieren, wie wir Menschen mit unserer sehr begrenzten Fähigkeit zum Denken von Komplexität uns behelfen können, diese Grenzen ansatzweise zu überwinden. Man muss sich die Frage stellen, warum wir diese Anstöße nicht in der Gegenwart systematisch aufgreifen und für unsere Zukunft nutzen?

(Anmk: 8: Meadows et.al (1972) [MLRBI72]. Die Studie des Club of Rome war die Weiterentwicklung eines Computermodells, das zurück geht auf ein Systemmodell (und Programm), das Jay W. Forrester im Laufe von 15 Jahren entwickelt hatte. Thema von Forrester war die Erforschung der Dynamik von sozialen Systemen, speziell auch von Ballungsräumen (’urban areas’). Bemerkenswert ist bei Forresters Modellbildung, dass er auch den individuellen Menschen sieht, der mit seinem jeweiligen Weltbild (er nennt es ’mentales Modell’ bzw. dann einfach ’Modell’) die Welt wahrnimmt, interpretiert und danach handelt. Will man das Verhalten ändern, dann muss man das individuelle Weltbild ändern, das in enger Wechselbeziehung zur aktuellen Gesellschaft steht.(siehe Foorester (1971) [For71]))

(Anmk:9: Da der Club of Rome 1968 gegründet wurde, feiert er 2018 sein 50-jähriges Jubiläum … und er ist immer noch aktiv.)

(Anmk: 10: Ein erster Überblick über die verschiedenen Argumente für und gegen die Analysen des Club of Rome finden sich in dem einschlägigen Wikipedia-Artikel https://en.wikipedia.org/wiki/Club of Rome. Im deutschen Wikipedia-Eintrag finden sich keine Hinweise auf kritische Einwände!)

VII. DER UMFASSEND DIGITALISIERTE MENSCH ENTSTEHT HEUTE

Im Jahre 1972 war der Computer noch keine Maschine des Alltags. Dies begann erst ab dem Jahr 1977 mit dem Auftreten von Kleincomputern für den privaten Gebrauch. Die Entwicklung seitdem war und ist explosiv.

Die Situation heute ist so, dass der Mensch mit seinem realen Körper zwar noch weiterhin in einer realen Körperwelt verankert ist, dass er aber über die vielen elektronischen Geräte, speziell durch Smartphones, Wearables, Tabletts, Notebooks, Laptops und PCs mit immer größeren Zeitanteilen seine Tages über Datennetze mit einer globalen Datenwelt verbunden ist, die rund um die Uhr Raum und Zeit vergessen lässt. Definierte sich ein Mensch früher über seine realen Aktivitäten, wird dies zunehmend ergänzt durch digitale Aktivitäten und Ereignisse. Das Selbstbild, der ganze persönliche Erlebnisraum wird zunehmend durch solche nicht-realweltlichen Strukturen ersetzt. Empirische Realität und digitale Realität beginnen im virtuellen Raum des individuellen Bewusstseins zu verschwimmen. Müsste der Mensch nicht noch seine elementaren körperlichen Bedürfnisse befriedigen, er könnte subjektiv ausschließlich im digitalen Raum arbeiten, kommunizieren, soziale Erfüllung finden, Spielen und . . . . die Grenzen dieser neuen digital erweiterten Lebensform sind bislang noch schwer zu fassen.

Während der professionelle Planungsalltag der Kommunen und Regionen Computer noch sehr verhalten einsetzt, zeigen uns die vielen Mio. Computerspieler weltweit, dass die Menschen sehr wohl Gefallen daran finden können, mit den Mitteln der Computersimulation die Gegenwart hinter sich zu lassen. Allein für Online-Computerspiele hat sich der Markt von 2011 bis 2016 von 21 Mrd. auf 31 Mrd. US-Dollar vergrößert. (11) Für das Jahr 2017 notieren die sechs Länder mit dem höchsten Umsatz bei Onlinespielen (China, USA, Japan, Deutschland, England, Südkorea) zusammen 84.7 Mrd.US-Dollar. (12) Dazu kommen nochmals 8 Mrd. US-Dollar für PC- und Spielkonsolenspiele. (13)

Computerspiele sind komplexe Simulationen in denen eine Ausgangslage mit Hilfe von Regeln in beliebig viele Nachfolgesituationen transformiert werden können. Dies geschieht mittlerweile in 3D, berücksichtigt realistische Geländeformationen mit Vegetation, komplexe Gebäude, viele Tausend Mitspieler, erlaubt gemeinsame Aktionen und macht so eine dynamische digitale Welt virtuell erlebbar.

Diese theoretische Beschreibung lässt das gewaltige Potential erahnen, das Computerspiele prinzipiell für Lernprozesse und für gemeinsame Zukunftsforschung haben könnten. In der Realität bleiben diese aber weit hinter ihren Möglichkeiten zurück, da die Betreiber bislang wenig Interesse zeigen, das Lern- und Forschungspotential dieser neuen ’Technologie ernsthaft zu nutzen. Die Computerspiele sind bislang eher Erlebnis-, nicht Wissens- getrieben.

(Anmk: 11: Quelle: https://www.statista.com/statistics/292516/pc-online-game-market-value-worldwide/.)

(Anmk: 12: Quelle: https://www.statista.com/statistics/308454/gaming-revenue-countries/.)

(Anmk: 13: Quelle: https://www.statista.com/statistics/237187/global-pc-console-games-revenue-by-type/. )

VIII. SIMULATIONEN BEHERZTER NUTZEN?

An dieser Stelle kann man sich die Frage stellen, warum man das Komplexitätsproblem am Beispiel von Ballungsräumen nicht mit diesen neuen Simulationstechniken angehen sollte?

Verteilte Simulationen würden beliebigen Bürgern die reale Möglichkeit bieten, sich zu beteiligen. Das unterschiedliche Wissen in den unterschiedlichen Köpfen könnte man schrittweise aufsammeln und als Regelwissen in den Simulationen zur Verfügung stellen. Im Unterschied zu kommerziellen Spielen könnte man diese Regeln offenlegen für alle und sie zum Gegenstand von Fachgesprächen machen. In realen Simulationsabläufen könnte man jeweils austesten, wie sich bestimmte Regeln auswirken: sind sie realistisch? Wo führen sie uns hin? Welche Wechselwirkungen mit anderen Regeln tun sich auf? Dieses Werkzeug könnten den Fachabteilungen in den Behörden genauso offen stehen wie den Schulen und Universitäten; Firmen könnten ihre eigenen Szenarien ausprobieren. Alle könnten sich immer wieder auch zu gemeinsamen Experimenten verabreden; man könnte gar Wettbewerbe starten, eine Art kommunales eGaming. In diesem Fall würde es dann wirklich um etwas gehen, nämlich um die eigene Welt und ihre mögliche Zukunft. Mit einem solchen verteilten dynamischen Planungswerkzeug könnte man den Ballungsraum 2117 schon ziemlich gut erforschen, zumindest soweit es uns heute, im Jahr 2018 überhaupt möglich ist. (14)

(Anmk: 14: Im Rahmen der abschließenden Podiumsdiskussion zur Tagung stieß die Idee des Einsatzes von mehr Computersimulationen im Gewand von Computerspielen für die Stadtplanung auf unterschiedliche Reaktionen. Der meiste Widerstand ging aus von der Vorstellung, dass Computerprogramme abgeschlossene Einheiten sind, die aus sich heraus niemals die Vielfalt und Dynamik der Wirklichkeit abbilden könnten. Dem hielt der Autor entgegen, dass man primär vom Kommunikationsprozess zwischen Menschen her denken müsse, dem Austausch von Weltbildern, verbunden mit einem möglichen ’Um-Lernen’ dieser Weltbilder. Innerhalb dieser Kommunikationsprozesse kann eine Computerspielumgebung sehr wohl helfen, komplexe Sachverhalte besser zu nutzen. Außerdem können die Regeln, nach denen hier die Welt gesteuert wird, von allen Teilnehmern eingesehen und auf Wunsch geändert werden.)

IX. TECHNISCHE SUPERINTELLIGENZ

An dieser Stelle könnte dieser Vortrag unter normalen Umständen enden. Schon jetzt enthält er eine Reihe von Anregungen, die über den aktuellen Status Quo weit hinausgehen. Aber wir leben in einer Zeit, in der die Welt – spätestens seit der Cebit 2016 – zu fast allen passenden und auch unpassenden Gelegenheiten mit dem Begriff ’Künstliche Intelligenz’ beschallt wird. Kaum noch ein Produkt oder eine Dienstleistung, die nicht irgendwie den Anspruch erhebt, entweder schon über ’künstliche Intelligenz’ zu verfügen oder demnächst mit so etwas ausgestattet zu werden. Und neben den Evangelisten der künstlichen Intelligenz treten auch die Propheten des Untergangs der Menschheit auf, für die die aktuelle ’Künstliche Intelligenz’ nur der Vorläufer einer ganz neuen, noch mächtigeren ’Künstlichen Intelligenz’ sei, die als ’Singularity’ alles übertreffen wird, was der Mensch als künstliche Intelligenz kennt und beherrscht. (15) Diese neue Super-Intelligenz soll dem Menschen in Geschwindigkeit, Datenvolumen und Denkfähigkeit so weit voraus und darin überlegen sein, dass diese technische Superintelligenz vom Menschen nicht mehr ernsthaft kontrolliert werden kann. Sie ist gegenüber dem Menschen so überlegen, dass sie den Menschen locker als überflüssiges Etwas abschaffen kann. Wie immer, gehen die Schätzungen, wann dies der Fall sein wird, deutlich auseinander, aber das Jahr 2117 ist ein guter Kandidat, wann es soweit sein könnte. (16) Was soll man von dieser nicht gerade beruhigenden Vision halten?

Dass Menschen alles, was ihnen neu und unbekannt ist, und ihnen Angst macht, in Form von überirdische Fabelwesen packen, ist so alt, wie die Aufzeichnungen der Menschheit reichen. In den vielen Sagen gibt es dann irgendwann einen Menschen, einen besonderen Menschen, einen Helden, der dann irgendwann eine Schwachstelle findet, durch deren Ausnutzung der Held dann das Fabelwesen zur Strecke bringen kann. Im Fall des neuen Mythos von der technischen Superintelligenz muss man allerdings nicht sehr weit suchen, um zu sehen, dass die Dinge vielleicht doch ganz anders liegen, als die Marketingmaschinerien uns glauben lassen wollen. Und ja, doch, es könnte sogar sein, dass sich hinter dem abschreckenden Mythos von der menschenfeindlichen technischen Superintelligenz eine sehr konkrete Technologie verbirgt, die uns Menschen bei unserem Komplexitätsproblem ernsthaft helfen könnte. Gehen wir zurück zu dem Mann, mit dem das seriöse Reden über die Computer-Maschine angefangen hat.

(Anmk: 15: Ein wichtiger Text zu Beginn der Diskussion um die ’technische Singularität’ ist ein Beitrag von Vinge 1993 zu einer Nasa-Konferenz [Vin93]. Ein sehr guter Einstieg in die Thematik der technischen Singularität findet sich in dem Wikipedia-Artikel zur ’Technological Singularity’, URL: https://en.wikipedia.org/wiki/Technological singularity)

(Anmk: 16: Für eine Diskussion, wann man mit welcher Art von ’Super-Human-Level’ maschineller Intelligenz rechnen sollte, finden sich im Kap.1 von Bostrom 2014 [Bos14]:SS.18-21 einige Argumente. Klar ist, dass es nicht ganz klar ist; es gibt zu viele Unbekannte und wichtige Begriffe sind unscharf. So gesehen ist die Zahl ’2117’ (geschrieben im Jahr 2017) eine fast ’satirische’ Schätzung unter Berücksichtigung der Argumente bei Bostrum.)

X. WAS KANN EIN COMPUTER?

Während die modernen Naturwissenschaften ihren Untersuchungsgegenstand, die reale Natur, von vornherein nicht kennen, sondern sich mühsam, über viele kleine Schritte, ein Bild erarbeiten müssen, wie es vielleicht sein könnte, hat die Computerwissenschaft es einfacher. Sie beginnt dort, wo es überhaupt noch keine Computer gab, sondern nur ein mathematisches Konzept über eine ideale Maschine, deren einzige Fähigkeit darin besteht, in völlig transparenter Weise eine endliche Liste von primitiven Befehlen auszuführen. (17) Im Unterschied zu einer normalen Maschine, die keine Befehle ausführt, kann eine Computer-Maschine Befehle ausführen. Dies erscheint noch nicht besonders aufregend. Ein klein wenig aufregender wird es dadurch, dass die Computermaschine mit einem Schreib-Lese-Band verknüpft ist, auf dem beliebige Zeichen stehen können. Man kann die Computer-Maschine so auslegen, dass sie diese Zeichen auf dem Schreib-Lese-Band als ihre neuen Anweisungen interpretiert. Dies klingt auch noch nicht aufregend. Aufregend wird es, wenn man sich klar macht, dass die Computer-Maschine diese Anweisungen auf dem Schreib-Lese-Band in eigener Regie verändern kann. Sie kann sozusagen das Programm, das sie steuert, selber abändern und damit die Kontrolle über ihre eigene Steuerung übernehmen. Damit verfügt die Computer-Maschine über eine wichtige Voraussetzung, um im Prinzip voll lernfähig zu sein.

Der soeben erwähnte Turing (18) war auch einer der ersten, der in drei Artikeln 1948, 1950 sowie 1953 ganz offen die Frage diskutierte, ob Computer-Maschinen, falls es diese irgendwann einmal als reale Maschinen geben würde, auch eine Intelligenz haben könnten, wie wir sie von Menschen kennen. (19) Turing selbst sah die Möglichkeit eher positiv. Er machte allerdings schon damals darauf aufmerksam, dass Computer-Maschinen aus seiner Sicht nur dann eine reelle Chance haben würden, mit dem Menschen im Lernen gleich zu ziehen, wenn sie ähnlich wie Kindern selbständig durch die Welt streifen könnten und – ausgestattet mit Kameras, Mikrophonen und weiteren Sensoren – die Welt wie sie ist wahrnehmen könnten.

Mittlerweile schreiben wir das Jahr 2018, das sind mehr als 65 Jahre nach Turings Spekulationen zu intelligenten, lernfähigen Computern. Wie viele Computer streifen durch die Welt wie Kinder? Nicht all zu viele, muss man feststellen; eigentlich kein einziger. Die bisherigen Roboter, die bekannt sind, haben eine sehr eingeschränkte Bewegungsfähigkeit und keiner von diesen lernt bislang in einer unbeschränkten Weise, wie Kinder es tun.

Der Bereich, in dem über lebenslang frei lernende Roboter geforscht wird, nennt sich ’Developmental Robotics’ oder – noch radikaler – ’Evolutionary Developmental Robotics’. (20) In einer Forschungsübersicht aus dem Jahr 2017 (21) gibt es eine zentrale Einsicht, die uns an dieser Stelle helfen kann. (22) Zwar weiß man eigentlich schon von den Anfängen in der Künstlichen Intelligenzforschung in den 1960iger Jahren, dass jegliche Art von Lernen minimale Formen von Rückmeldung benötigt, aber die Tragweite dieses Momentes wurde vielen Forschern erst in den letzten Jahren, und speziell in der ’Erforschung des offenen‘ Lernens so richtig klar. Wenn eine Computer-Maschinen selbständig offen lernen können soll, dann braucht sie minimale Präferenzen, um im allgemeinen Rauschen der Ereignisse Ansätze möglicher Muster zu finden. Im Fall von biologischen Systemen gibt es eine Mischung von sogenannten angeborenen Präferenzen, die sich letztlich von der Überlebenserfahrung herleiten, und eben das schlichte Überleben selbst. Nur wer überlebt besitzt offenbar brauchbare Informationen. Im Fall von Computer- Maschinen gibt es keine Überlebenserfahrungen. Eine Computer-Maschine beginnt am absoluten Nullpunkt. Bis vor wenigen Jahren haben Ingenieure das Problem dadurch gelöst, dass sie ihre eigenen Präferenzen in die Computer-Maschinen eingebaut haben. Dies hat so lange funktioniert, wie die Computer-Maschinen nur sehr spezielle Aufgaben lösen mussten, z.B. als Industrieroboter. In dem Maße aber, wie Computer-Maschinen beliebige Aufgaben lernen können sollen, funktioniert diese Strategie nicht mehr. Was nun? Woher sollen solche allgemeinen Präferenzen kommen?(23)

Die Frage mit den Präferenzen (andere sprechen von Werten) hat eine zusätzliche pikante Note, da der Homo sapiens das erste Lebewesen auf der Erde ist, das nicht mehr ausschließlich durch die nackte Überlebensnotwendigkeit getrieben ist. Der Homo sapiens, also wir Menschen, haben es durch unsere geistigen und kommunikativen Möglichkeiten geschafft, das nackte Überleben z.T. sehr weit in den Hintergrund zu drängen. Damit stellt sich für die Lebensform des Homo sapiens erstmals seit 4 Milliarden Jahren biologischen Lebens die Frage, welche möglichen Präferenzen es möglicherweise neben oder sogar vor dem nackten Überleben geben könnte. Dummerweise enthält der genetische Code keine direkte Antwort auf die Frage nach zusätzlichen Präferenzen.

(Anmk: 17:  Der Text, in dem diese Art der Beschreibung eines idealen Computers erstmals vorkommt, ist ein Text, in dem Alan Matthew Turing einen metamathematischen Beweis geführt hat, in dem es um eine andere Version des Unentscheidbarkeitsbeweises von Kurt Gödel 1931 ging. Siehe [Tur 7]. Zu Ehren von Turing wurde diese Version der Definition eines Computers ’Turingmaschine’ genannt. )

(Anmk: 18: Eine sehr gute Biographie zu Turing ist Hodges (1983) [Hod83])

(Anmk: 19: Siehe Turing 1948 [M.87], 1950 [Tur50], sowie 1953 [Tur63] 20 Erste gute Überblicke bieten die beiden Wikipediaeinträge zu ’developmental robotics’ https://en.wikipedia.org/wiki/Developmental robotics sowie zu ’evolutionary developmental robotics’ https://en.wikipedia.org/wiki/Evolutionary developmental robotics)

(Anmk: 21: Siehe Merrick (2017) [Mer17])

(Anmk: 22: Ergänzend auch Singh et.al. (2010) [SLBS10] und Ryan/Deci (2000) [RD00] )

(Anmk: 23: Eine der verbreitetsten Lernformen im Bereich Künstliche Intelligenz ist das sogenannte ’Reinforcement Learning (RL)’. Dieses setzt explizit ’Belohnungssignale’ (’reward’) aus der Umgebung voraus. Siehe zur Einführung Russell/ Norvig 2010 [RN10]:Kap.21 und Sutton/Barto 1998 [SB98])

XI. DAS EI DES COLUMBUS

Das Ei des Columbus gilt als Metapher für Probleme, die als unlösbar gelten, für die es dann aber doch eine Lösung gibt.

In unserem Fall ist das Problem die begrenzte kognitive Ausstattung des Menschen für komplexe Situationen sowie die Präferenzfreiheit technischer Systeme. Die bisherigen Lösungsansätze einer cloud-basierten allgemeinen Intelligenz führt letztlich zu einer Entmachtung des einzelnen ohne dass eine cloud-basierte Intelligenz eine wirklich Überlebensfähigkeit besitzt. Sie gleicht eher einem Vampir, der so lange lebt, als viele einzelne sie mit Details aus ihrem Alltag füttern. Ohne diese Details ist solch eine cloud-basierte Intelligenz ziemlich dumm und kann einem einzelnen kein wirklicher persönlicher Assistent sein.

Die Lösung könnte tatsächlich ein reales Ei sein, ein Ei gefüllt mit einer Computer-Maschine, deren Rechenkraft vor Ort genau einem Menschen zur Verfügung steht und genau diesem einem Menschen rund um die Uhr hilft, seine kognitiven Begrenzungen auszugleichen und zu überwinden. Dieses Computer-Maschinen Ei (natürlich könnte es auch jede andere Form haben, z.B. als Ohrring, Halskette, Armband usw.) kann mit dem Internet Verbindung aufnehmen, mit jeder denkbaren Cloud, aber nur dann, wann und wie dieses Ei es selber will, und es würde keinerlei privates Wissen einfach so preisgeben. So, wie die Gehirne der Menschen anatomisch alle ähnlich sind und doch sehr individuelle Persönlichkeiten ermöglichen, so kann ein Computer-Maschinen Ei die individuellen Erfahrungen und das individuelle Wissen eines Menschen passgenau erkennen und fördern. Es entsteht eine Symbiose von Mensch und Maschine, die deutlich mehr sein kann als jede Komponenten für sich alleine.

XII. EINE NEUE MENSCH-MASCHINE SUPER-INTELLIGENZ FÜR DEN BALLUNGSRAUM?

Greift man an dieser Stelle nochmals die Vision einer verteilten, flexiblen Simulationsumgebung für die Bürger in einer Region auf, dann kann eine zusätzliche Ausstattung aller Bürger mit ihren persönlichen intelligenten Assistenten dem ganzen Projekt einen zusätzlichen messbaren Schub geben. Die persönlichen Assistenten können auch dann arbeiten, wenn der einzelne mal müde ist, sich entspannen will oder mal mit familiären Aufgaben beschäftigt ist. Und der persönliche Assistent kann auch viele Tausend oder Millionen Faktoren gleichzeitig in Rechnung stellen und in ihren Auswirkungen verfolgen. Im Zusammenwirken dieser vielen natürlichen und technischen Intelligenzen könnte eine Mensch-Maschine Superintelligenz entstehen, die den einzelnen voll mit nimmt, und als Gesamtphänomen erheblich leistungsfähiger sein wird, als alles, was wir heute kennen.

Allerdings, wir sollten uns nicht der Illusion hingeben, dass damit dann alle Probleme gelöst wären. Das Problem der geeigneten Präferenzen, sprich der Werte, wird bleiben; es wird sich vermutlich eher verschärfen. Auch die Verantwortung für uns Menschen wird weiter wachsen, auch wenn sich diese Verantwortung qualitativ neu immer auf ganz viele verteilen wird.

IX QUELLEN

[Bad03] Alan Baddeley. Working memory and language: an overwiew. Journal of Communication Disorders, 36:236–242190–208, 2003.

[BL99] A. Baddeley and R.H. Logie. Working memory: The multiple-component model. In A. Myake and P. Shah, editors, Models of working memory, chapter 2, pages 28–61. Cambridge University Press, New York, 1999.

[Bos14] Nick Bostrom. Superintelligence. Paths, Dangers, Strategies. Oxford University Press, Oxford (UK), 1 edition, 2014.

[BP16] Thorsten Bürklin and Michael Peterek. Thecycloregion. city-regional development in frankfurt rhine-main – die zykloregion. stadtentwicklung in frankfurtrheinmain. Journal of Comparative ’Cultural Studies in Architecture, 9:41–51, 2016.

[For71] Jay W. Forrester. World Dynamics. Wright-Allen Press, Inc., Cambridge (MA) 02142, 2 edition, 1971.

[Hod83] Andrew Hodges. Alan Turing, Enigma. Springer Verlag, Wien – New York, 1 edition, 1983.

[Hol73] C.S. Holling. Resilience and stability of ecological systems. Annual Review of Ecology and Systematics, 4(1):1–23, 1973.

[Jak13] Peter Jakubowski. Resilienz – eine zusätzliche denkfigur für gute stadtentwicklung. Informationen zur Raumentwicklung, 4:371–378, 2013.

[M.87] Turing Alan M. Intelligente maschinen. In Bernhard Dotzler and Friedrich Kittler, editors, Alan M. Turing. Intelligence Service, pages 81 – 113. Brinkmann & Bose, Berlin, 1987.

[Mer17] Kathryn Merrick. Value systems for developmental cognitive robotics: A survey. Cognitive Systems Research, 41:38 – 55, 2017.

[Mil56] Geroge A. Miller. The magical number seven, plus or minus two: Some limits on our capacity for processing information. Psychological review, 63:81–97, 1956.

[MLRBI72] Donella H. Meadows, Meadows Dennis L., Jørgen Randers, and William W. Behrens III. The Limits to Growth. A Report for the Club of Rome’s Project on the Predicament of Mankind. Universe Books, New York, 1 edition, 1972.

[PB13] Michael Peterek and Thorsten Bürklin. Potentials and challenges of polycentric city-regions: A case-study of frankfurt rhine-main. Technical Transactions Architecture – Czasopismo Techniczne Architektura, 1-A:179–189, 2013.

[RB06] G. Repovs and A. Baddeley. The multi-component model of working memory: Explorations in experimental cognitive psychology. Neuroscience, 139:5–21, 2006.

[RD00] Richard M. Ryan and Edward L. Deci. Intrinsic and extrinsic motivations: Classic definitions and new directions. Contemporary Educational Psychology, 25(1):54 – 67, 2000.

[RN10] Stuart Russel and Peter Norvig. Artificial Intelligence. A Modern Approach. Universe Books, 3 edition, 2010.

[SB98] Richard S. Sutton and Andrew G. Barto. Reinforcement Learning. An Introduction. The MIT Press, Ambridge (MA) – London, 1 edition, 1998.

[SLBS10] S. Singh, R. L. Lewis, A. G. Barto, and J. Sorg. Intrinsically motivated reinforcement learning: An evolutionary perspective. IEEE Transactions on Autonomous Mental Development, 2(2):70–82, June 2010.

[Tur50] Alan Turing. Computing machinery and intelligence. Mind, 59:433–460, 1950.

[Tur63] Alan Matthew Turing. Digital computers applied to games. In B.V. Bowden, editor, Faster Than Thought. Pitman Publishing, London, 1963.

[Tur 7] Alan M. Turing. On computable numbers, with an application to the entscheidungsproblem. Proceedings of the London Mathematical Society, 42(2):230–265, 1936-7.

[Vin93] Vernor Vinge. The coming technological singularity: How to survive in the post-human era. In G.A. Landis, editor, Vision-21: Interdisciplinary Science and Engineering in the Era of Cyberspace, pages 11–22. 1993.

PROJEKTGRÜNDUNG

Im Anschluss an dieses Konferenz kam es zur Gründung eines Projektes, das versucht, den ‚Spirit des Kongresses‘ aufzugreifen und konkret umzusetzen. Siehe dazu HIER.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER