KI UND BIOLOGIE. Blitzbericht zu einem Vortrag am 28.Nov.2018

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
29.Nov. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE AKTUALISIERUNG: 1.Dez.2018, Anmerkung 1

KONTEXT

Im Rahmen einer öffentlichen Veranstaltung des Fachbereichs 2 ‚Informatik & Ingenieurwissenschaften‘ der Frankfurt University of Applied Sciences am 28.November 2018 mit dem Rahmenthema „Künstliche Intelligenz – Arbeit für Alle?“ hielt Gerd Doeben-Henisch einen kurzen Vortrag zum Thema „Verändert KI die Welt?“ Voraus ging ein Vortrag von Herrn Helmut Geyer „Arbeitsmarkt der Zukunft. (Flyer zur Veranstaltung: FRA-UAS_Fb2_Karte_KI-Arbeit fuer alle_Webversion )

EINSTIEG INS KI-THEMA

Im Kontext der Überlegungen zur Arbeitswelt angesichts des technologischen Wandels gerät die Frage nach der Rolle der Technologie, speziell der digitalen Technologie — und hier noch spezieller der digitalen Technologie mit KI-Anteilen – sehr schnell zwischen die beiden Pole ‚Vernichter von Arbeit‘, ‚Gefährdung der Zukunft‘ einerseits und ‚Neue Potentiale‘, ‚Neue Arbeit‘, ‚Bessere Zukunft‘, wobei es dann auch einen dritten Pol gibt, den von den ‚übermächtigen Maschinen‘, die die Menschen sehr bald überrunden und beherrschen werden.

Solche Positionen, eine Mischungen aus quasi-Fakten, viel Emotionen und vielen unabgeklärten Klischees, im Gespräch sachlich zu begegnen ist schwer bis unmöglich, erst Recht, wenn wenig Zeit zur Verfügung steht.

Doeben-Henisch entschloss sich daher, das Augenmerk zentral auf den Begriff ‚Künstliche Intelligenz‘ zu lenken und die bislang uneinheitliche und technikintrovertierte Begrifflichkeit in einen größeren Kontext zu stellen, der das begrifflich ungeklärte Nebeneinander von Menschen und Maschinen schon im Ansatz zu überwinden sucht.

ANDERE DISZIPLINEN

Viele Probleme im Kontext der Terminologie der KI im technischen Bereich erscheinen hausgemacht, wenn man den Blick auf andere Disziplinen ausweitet. Solche andere Disziplinen sind die Biologe, die Mikrobiologie sowie die Psychologie. In diesen Disziplinen beschäftigt man sich seit z.T. deutlich mehr als 100 Jahren mit komplexen Systemen und deren Verhalten, und natürlich ist die Frage nach der ‚Leistungsfähigkeit‘ solcher Systeme im Bereich Lernen und Intelligenz dort seit langem auf der Tagesordnung.

Die zunehmenden Einsichten in die unfassbare Komplexität biologischer Systeme (siehe dazu Beiträge in diesem Blog, dort auch weitere Links), lassen umso eindrücklicher die Frage laut werden, wie sich solche unfassbar komplexen Systeme überhaupt entwickeln konnten. Für die Beantwortung dieser Frage wies Doeben-Henisch auf zwei spannende Szenarien hin.

KOMMUNIKATIONSFREIE EVOLUTION

Entwicklungslogik vor der Verfügbarkeit von Gehirnen

Entwicklungslogik vor der Verfügbarkeit von Gehirnen

In der Zeit von der ersten Zelle (ca. -3.8 Mrd Jahren) bis zur Verfügbarkeit hinreichend leistungsfähiger Nervensysteme mit Gehirnen (ab ca. -300.000, vielleicht noch etwas früher) wurde die Entwicklung der Lebensformen auf der Erde durch zwei Faktoren gesteuert: (a) die Erde als ‚Filter‘, was letztlich zu einer bestimmten Zeit geht; (b) die Biomasse mit ihrer Reproduktionsfähigkeit, die neben der angenäherten Reproduktion der bislang erfolgreichen Baupläne (DNA-Informationen) in großem Umfang mehr oder weniger starke ‚Varianten‘ erzeugte, die ‚zufallsbedingt‘ waren. Bezogen auf die Erfolge der Vergangenheit konnten die zufälligen Varianten als ’sinnlos‘ erscheinen, als ’nicht zielführend‘, tatsächlich aber waren es sehr oft diese zunächst ’sinnlos erscheinenden‘ Varianten, die bei einsetzenden Änderungen der Lebensverhältnisse ein Überleben ermöglichten. Vereinfachend könnte man also für die Phase die Formel prägen ‚(Auf der dynamischen Erde:) Frühere Erfolge + Zufällige Veränderungen = Leben‘. Da zum Zeitpunkt der Entscheidung die Zukunft niemals hinreichend bekannt ist, ist die Variantenbildung die einzig mögliche Strategie. Die Geschwindigkeit der ‚Veränderung von Lebensformen‘ war in dieser Zeit auf die Generationsfolgen beschränkt.

MIT KOMMUNIKATION ANGEREICHERTE EVOLUTION

Nach einer gewissen ‚Übergangszeit‘ von einer Kommunikationsfreien zu einer mit Kommunikation angereicherte Evolution gab es in der nachfolgenden Zeit die Verfügbarkeit von hinreichend leistungsfähigen Gehirnen (spätestens mit dem Aufkommen des homo sapiens ab ca. -300.000)[1], mittels deren die Lebensformen die Umgebung und sich selbst ‚modellieren‘ und ‚abändern‘ konnten. Es war möglich, gedanklich Alternativen auszuprobieren, sich durch symbolische Kommunikation zu ‚koordinieren‘ und im Laufe der letzten ca. 10.000 Jahren konnten auf diese Weise komplexe kulturelle und technologische Strukturen hervorgebracht werden, die zuvor undenkbar waren. Zu diesen Technologien gehörten dann auch ab ca. 1940 programmierbare Maschinen, bekannt als Computer. Der Vorteil der Beschleunigung in der Veränderung der Umwelt – und zunehmend auch der Veränderung des eigenen Körpers — lies ein neues Problem sichtbar werden, das Problem der Präferenzen (Ziele, Bewertungskriterien…). Während bislang einzig die aktuelle Erde über ‚Lebensfähig‘ ‚oder nicht Lebensfähig‘ entschied, und dies das einzige Kriterium war, konnten die  Lebewesen mit den neuen Gehirnen  jetzt eine Vielzahl von Aspekten ausbilden, ‚partielle Ziele‘, nach denen sie sich verhielten, von denen oft erst in vielen Jahren oder gar Jahrzehnten oder gar noch länger sichtbar wurde, welche nachhaltigen Effekte sie haben.

Anmerkung 1: Nach Edelman (1992) gab es einfache Formen von Bewusstsein mit den zugehörigen neuronalen Strukturen ab ca. -300 Mio Jahren.(S.123) Danach hätte es  also ca. 300 Mio Jahre gedauert, bis   Gehirne, ausgehend von einem ersten einfachen Bewusstsein, zu komplexen Denkleistungen und sprachlicher Kommunikation in der Lage waren.

LERNEN und PRÄFERENZEN

Am Beispiel von biologischen Systemen kann man fundamentale Eigenschaften wie z.B. das ‚Lernen‘ und die ‚Intelligenz‘ sehr allgemein definieren.

Systematisierung von Verhalten nach Lernen und Nicht-Lernen

Systematisierung von Verhalten nach Lernen und Nicht-Lernen

In biologischer Sicht haben wir generell Input-Output-Systeme in einer unfassbar großen Zahl an Varianten bezüglich des Körperbaus und der internen Strukturen und Abläufe. Wie solch ein Input-Output-System intern im Details funktioniert spielt für das konkrete Leben nur insoweit eine Rolle, als die inneren Zustände ein äußerlich beobachtbares Verhalten ermöglichen, das wiederum das Überleben in der verfügbaren Umgebung ermöglicht und bezüglich spezieller ‚Ziele‘ ‚erfolgreich‘ ist. Für das Überleben reicht es also zunächst, einfach dieses beobachtbare Verhalten zu beschreiben.

In idealisierter Form kann man das Verhalten betrachten als Reiz-Reaktions-Paare (S = Stimulus, R = Response, (S,R)) und die Gesamtheit des beobachtbaren Verhaltens damit als eine Sequenz von solchen (S,R)-Paaren, die mathematisch eine endliche Menge bilden.

Ein so beschriebenes Verhalten kann man dann als ‚deterministisch‘ bezeichnen, wenn die beobachtbaren (S,R)-Paare ’stabil‘ bleiben, also auf einen bestimmten Reiz S immer die gleiche Antwort R erfolgt.

Ein dazu komplementäres Verhalten, also ein ’nicht-deterministisches‘ Verhalten, wäre dadurch charakterisiert, dass entweder (i) der Umfang der Menge gleich bleibt, aber manche (S,R)-Paare sich verändern oder (ii) der Umfang der Menge kann sich ändern. Dann gibt es die beiden interessanten Unterfälle (ii.1) es kommen nach und nach neue (S,R)-Paare dazu, die ‚hinreichend lang‘ ’stabil‘ bleiben, aber ab einem bestimmten Zeitpunkt ‚t‘ sich nicht mehr vermehren (die Menge der stabilen Elemente wird ‚eingefroren‘, ‚fixiert‘, ‚gezähmt‘, …), oder (ii.2) die Menge der stabilen (S,R)-Paare expandiert ohne Endpunkt.

Bezeichnet man diese Expansion (zeitlich ‚befristet‘ oder ‚unbefristet‘) als ‚Lernen‘, dann wird sichtbar, dass die ‚Inhalte des Lernens‘ (die korrespondierenden Repräsentationen der (S,R)-Paare in den internen Zuständen des Systems) einmal davon abhängen, was die Umgebung der Systeme ‚erlaubt‘, zum anderen, was die ‚inneren Zustände‘ des Systems an ‚Verarbeitung ermöglichen‘, sowie – sehr indirekt – über welche welche ‚internen Selektionskriterien‘ ein System verfügt.

Die ‚internen Selektionskriterien‘ werden hier kurz ‚Präferenzen‘ genannt, also Strategien, ob eher ein A oder ein B ’selektiert‘ werden soll. Wonach sich solche Kriterien richten, bleibt dabei zunächst offen. Generell kann man sagen, dass solche Kriterien primär ‚endogen‘ begründet sein müssen, dass sie aber nachgeordnet auch von außen (‚exogen‘) übernommen werden können, wenn die inneren Kriterien eine solche Favorisierung des exogenen Inputs ‚befürworten‘ (Beispiel sind die vielen Imitationen im Lernen bzw. die Vielzahl der offiziellen Bildungsprozesse, durch die Menschen auf bestimmte Verhaltens- und Wissensmuster trainiert (programmiert) werden). Offen ist auch, ob die endogenen Präferenzen stabil sind oder sich im Laufe der Zeit ändern können; desgleichen bei den exogenen Präferenzen.

Am Beispiel der menschlichen Kulturen kann man den Eindruck gewinnen, dass das Finden und gemeinsame Befolgen von Präferenzen ein bislang offenes Problem ist. Und auch die neuere Forschung zu Robotern, die ohne Terminierung lernen sollen (‚developmental robotics‘), hat zur Zeit das Problem, dass nicht ersichtlich ist, mit welchen Werten man ein nicht-terminiertes Lernen realisieren soll. (Siehe: Merrick, 2017)) Das Problem mit der Präferenz-Findung ist bislang wenig bekannt, da die sogenannten intelligenten Programme in der Industrie immer nur für klar definierte Verhaltensprofile trainiert werden, die sie dann später beim realen Einsatz unbedingt einhalten müssen.  Im technischen Bereich spricht man hier oft von einer ’schwachen KI‘. (Siehe: VDI, 2018) Mit der hier eingeführten Terminologie  wären dies nicht-deterministische Systeme, die in ihrem Lernen ‚terminieren‘.

INTELLIGENZ

Bei der Analyse des Begriffs ‚Lernen‘ wird sichtbar, dass das, was gelernt wird, bei der Beobachtung des Verhaltens nicht direkt ’sichtbar‘ ist. Vielmehr gibt es eine allgemeine ‚Hypothese‘, dass dem äußerlich beobachtbaren Verhalten ‚interne Zustände‘ korrespondieren, die dafür verantwortlich sind, ob ein ’nicht-lernendes‘ oder ein ‚lernendes‘ Verhalten zu beobachten ist. Im Fall eines ‚lernenden‘ Verhaltens mit dem Auftreten von inkrementell sich mehrenden stabilen (S,R)-Paaren wird angenommen, das den (S,R)-Verhaltensformen ‚intern‘ entsprechende ‚interne Repräsentationen‘ existieren, anhand deren das System ‚entscheiden‘ kann, wann es wie antworten soll. Ob man diese abstrakten Repräsentationen ‚Wissen‘ nennt oder ‚Fähigkeiten‘ oder ‚Erfahrung‘ oder ‚Intelligenz‘ ist für die theoretische Betrachtung unwesentlich.

Die Psychologie hat um die Wende zum 20.Jahrhundert mit der Erfindung des Intelligenztests durch Binet und Simon (1905) sowie in Weiterführung durch W.Stern (1912) einen Ansatz gefunden, die direkt nicht messbaren internen Repräsentanten eines beobachtbaren Lernprozesses indirekt dadurch zu messen, dass sie das beobachtbare Verhalten mit einem zuvor vereinbarten Standard verglichen haben. Der vereinbarte Standard waren solche Verhaltensleistungen, die man Kindern in bestimmten Altersstufen als typisch zuordnete. Ein Standard war als ein Test formuliert, den ein Kind nach möglichst objektiven Kriterien zu durchlaufen hatte. In der Regel gab es eine ganze Liste (Katalog, Batterie) von solchen Tests. Dieses Vorgehensweisen waren sehr flexibel, universell anwendbar, zeigten allerdings schon im Ansatz, dass die Testlisten kulturabhängig stark variieren konnten. Immerhin konnte man ein beobachtbares Verhalten von einem System auf diese Weise relativ zu vorgegebenen Testlisten vergleichen und damit messen. Auf diese Weise konnte man die nicht messbaren hypothetisch unterstellten internen Repräsentationen indirekt qualitativ (Art des Tests) und quantitativ (Anteil an einer Erfüllung des Tests) indizieren.

Im vorliegenden Kontext wird ‚Intelligenz‘ daher als ein Sammelbegriff für die hypothetisch unterstellte Menge der korrespondierenden internen Repräsentanten zu den beobachtbaren (S,R)-Paaren angesehen, und mittels Tests kann man diese unterstellte Intelligenz qualitativ und quantitativ indirekt charakterisieren. Wie unterschiedlich solche Charakterisierung innerhalb der Psychologie modelliert werden können, kann man in der Übersicht von Rost (2013) nachlesen.

Wichtig ist hier zudem, dass in diesem Text die Intelligenz eine Funktion des Lernens ist, das wiederum von der Systemstruktur abhängig ist, von der Beschaffenheit der Umwelt sowie der Verfügbarkeit von Präferenzen.

Mehrdimensionaler Raum der Intelligenzrpräsentanen

Mehrdimensionaler Raum der Intelligenzrpräsentanen

Aus Sicht einer solchen allgemeinen Lerntheorie kann man statt biologischen Systemen auch programmierbare Maschinen betrachten. Verglichen mit biologischen Systemen kann man den programmierbaren Maschinen ein Äquivalent zum Körper und zur Umwelt spendieren. Grundlagentheoretisch wissen wir ferner schon seit Turing (1936/7), dass programmierbare Maschinen ihr eigenes Programm abändern können und sie prinzipiell lernfähig sind. Was allerdings (siehe zuvor das Thema Präferenz) bislang unklar ist, wo sie jeweils die Präferenzen herbekommen sollen, die sie für eine ’nachhaltige Entwicklung‘ benötigen.

ZUKUNFT VON MENSCH UND MASCHINE

Im Licht der Evolution erscheint die  sich beschleunigende Zunahme von Komplexität im Bereich der biologischen Systeme und deren Populationen darauf hinzudeuten, dass mit der Verfügbarkeit von programmierbaren Maschinen diese sicher nicht als ‚Gegensatz‘ zum Projekt des biologischen Lebens zu sehen sind, sondern als eine willkommene Unterstützung in einer Phase, wo die Verfügbarkeit der Gehirne eine rapide Beschleunigung bewirkt hat. Noch bauen die biologischen Systeme ihre eigenen Baupläne  nicht selbst um, aber der Umbau in Richtung von Cyborgs hat begonnen und schon heute ist der Einsatz von programmierbaren Maschinen existentiell: die real existierenden biologischen Kapazitätsgrenzen erzwingen den Einsatz von Computern zum Erhalt und für die weitere Entwicklung. Offen ist die Frage, ob die Computer den Menschen ersetzen sollen. Der Autor dieser Zeilen sieht die schwer deutbare Zukunft eher so, dass der Mensch den Weg der Symbiose intensivieren wird und versuchen sollte, den Computer dort zu nutzen, wo er Stärken hat und zugleich sich bewusst sein, dass das Präferenzproblem nicht von der Maschine, sondern von ihm selbst gelöst werden muss. Alles ‚Böse‘ kam in der Vergangenheit und kommt in der Gegenwart vom Menschen selbst, nicht von der Technik. Letztlich ist es der Mensch, der darüber entscheidet, wie er die Technik nutzt. Ingenieure machen sie möglich, die Gesellschaft muss entscheiden, was sie damit machen will.

BEISPIEL EINER NEUEN SYMBIOSE

Der Autor dieser Zeilen hat zusammen mit anderen KollegenInnen in diesem Sommer ein Projekt gestartet, das darauf abzielt, dass alle 11.000 Kommunen in Deutschland ihre Chancen haben sollten, ihre Kommunikation und Planungsfähigkeit untereinander dramatisch zu verbessern, indem sie die modernen programmierbaren Maschinen in neuer ‚intelligenter‘ Weise für ihre Zwecke nutzen.

QUELLEN

  • Kathryn Merrick, Value systems for developmental cognitive robotics: A survey, Cognitive Systems Research, 41:38 – 55, 2017
  • VDI, Statusreport Künstliche Intelligenz, Oktober 2018, URL: https://www.vdi.de/vdi-statusbericht-kuenstliche-intelligenz/ (zuletzt: 28.November 2018)
  • Detlef H.Rost, Handbuch der Intelligenz, 2013: Weinheim – Basel, Beltz Verlag
  • Joachim Funke (2006), Kap.2: Alfred Binet (1857 – 1911) und der erste Intelligenztest der Welt, in: Georg Lamberti (Hg.), Intelligenz auf dem Prüfstand. 100 Jahre Psychometrie, Vandenhoek & Ruprecht
  • Alfred Binet, Théodore Simon: Methodes nouvelles pour le diagnostiqc du niveau intellectuel des anormaux. In: L’Année Psychologique. Vol. 11, 1904, S. 191–244 (URL: https://www.persee.fr/doc/psy_0003-5033_1904_num_11_1_3675 )
  • William Stern, Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkinder, 19121: Leipzig, J.A.Barth
  • Alan M. Turing, On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, 42(2):230–265, 1936-7
  • Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Kumulierte Zusammenfassung der Diskussion

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 13.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Letzte Änderungen: 3.Dez.2018, Hervorhebungen hinzugefügt

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

BISHER

Bislang sind folgende Teile erschienen:

Teil 1

Teil 2

Teil 3

Teil 4

Teil 5

Teil 6

Teil 7

Einschub: Fitness

Teil 8

Teil 9

Teil 10

Teil 11

Welche Theorie von was?

Teil 13: Fokussierung und Unbewusstes – Teil1

 

POSITION VON EDELMAN

Edelman benutzt die Arbeitshypothese, dass das, was wir ‚Geist‘ nennen, sich nur ab bestimmten Zeitpunkten während der allgemeinen Evolution ‚gezeigt‘ (‚emerged‘) hat, und zwar sehr spät.(vgl. S.41) Und dies setzt die Annahme voraus, dass die fundamentale Basis für alles Verhalten und für die ‚Sichtbarwerdung‘ (‚emergence‘) des Geistes die Anatomie und Morphologie der biologischen Strukturen ist sowie deren Funktionen.(vgl. S.41)

POSITION DES AUTORS ALS DISKUSSIONSPUNKTE

Im Kontext seiner Argumentation kritisiert Edelman viele bekannte Positionen im Bereich Philosophie und Psychologie aus der eingeschränkten Perspektive ihres Bezuges zu den materiellen Strukturen heraus, die von ihm – letztlich wie bei Kant, nur mit anderem Akzent, mehr oder weniger – als ‚Ermöglichung des Geistes‘ gesehen werden. Diese Kritik in dieser speziellen Perspektive ist zum Teil berechtigt, aber auch nur zu einem sehr eingeschränkten Teil, da die kritisierten Personen und Positionen von den neuen Erkenntnissen noch gar nichts wissen konnten. Über diese enge Perspektive des expliziten Bezugs zu materiellen Strukturen hinaus repräsentieren die kritisierten Positionen aber auch Perspektiven, die ‚in sich eine methodische Rechtfertigung‘ besitzen, die Edelman schlicht nicht erkennt. Hier verkürzt zur Erinnerung einige seiner ‚methodischen blinden Flecken‘:

  1. Alternativen sind berechtigt:… zugleich die Arbeitshypothese aufzustellen, dass damit Analyse- und Erklärungsansätze von vornherein zu verurteilen sind, die Verhaltensdaten (Psychologie) bzw. auch introspektive Daten (Philosophie) als solche als Basis nehmen ohne direkt einen Bezug zu den materiellen (anatomischen) Daten herzustellen, ist mindestens problematisch wenn nicht wissenschaftsphilosophisch unhaltbar…
  2. Primär die Funktionen:… denn, wie immer die anatomischen Grundlagen beschaffen sein mögen, wenn ich deren ‚Verhaltensdynamik‘ erforschen will, interessieren mich die Details dieser Anatomie nicht, sondern nur ihre Funktion. Und diese lässt sich nicht durch Rekurs auf Bestandteile beschreiben sondern nur durch Beobachtung des Systemverhaltens …
  3. Daten als solche sind ‚blind‘:… aus materiellen Strukturen als solchen folgt in keiner Weise irgend etwas ‚Geistiges‘ es sei denn, ich habe vorab zur Untersuchung einen Kriterienkatalog G, den ich als Maßstab anlegen kann, um dann bei der Analyse der Beobachtungsdaten konstatieren zu können, das der Eigenschaftskomplex G vorliegt. Habe ich solch einen Kriterienkatalog G nicht, kann ich noch so viele empirische Daten zu irgendwelchen materiellen Strukturen vorweisen; ‚aus sich heraus‘ lassen diese Daten eine solche Eigenschaftszuschreibung nicht zu! …
  4. Konkretisierung und Quantenraum:… ohne die ‚Anhaltspunkte‘ im ‚beobachtbaren Verhalten‘ wäre es praktisch unmöglich, jene bedingenden materiellen Struktureigenschaften zu identifizieren, da die zugrundeliegenden neuronalen und damit letztlich biochemischen Grundlagen rein mathematisch nahezu unbegrenzt viele Funktionen erlauben. Letztlich deuten diese materiellen Strukturen auf einen quantenmechanischen Möglichkeitsraum hin, deren Konkretisierung von Faktoren abhängt, die sich aus den Strukturen selbst nicht so einfach ableiten lassen. …
  5. Phänomene zuerst: Philosophen arbeiten traditionell mit dem subjektiven Erlebnisraum direkt, ohne zugleich die Frage nach den materiellen Bedingungen der so erlebbaren ‚Phänomene‘ zu stellen. In gewisser Weise handelt es sich bei diesen subjektiven (= bewussten) Phänomenen auch um eine Systemfunktion eigener Art mit einer spezifischen Besonderheit, der man nicht gerecht werden würde, würde man sie durch Rekurs auf die bedingenden materiellen Strukturen (Gehirn, Körper, Welt, …) ‚ersetzen‘ wollen. …
  6. Empirie ist abgeleitet:… muss man sich klar machen, dass alle sogenannten ‚empirischen Daten‘ ja nicht ‚außerhalb‘ des ‚bewusstseinsbedingten Phänomenraums‘ vorkommen, sondern auch nur ‚bewusstseinsbedingte Phänomene‘ sind, allerdings eine spezielle Teilmenge, die man mit unterstellten Vorgängen in der Außenwelt in Verbindung bringt. Insofern bildet der subjektive Phänomenraum die Basis für jegliche Denkfigur, auch für die empirischen Wissenschaften. …
  7. Bezugspunkte für die Phänomene des Geistigen: Die Frage, was denn dann die primären Kriterien für das ‚Psychische-Geistige‘ sind, wird durch diese multidisziplinäre Kooperationen nicht einfacher: da die materiellen Strukturen als solche keinerlei Anhaltspunkte für ‚Geistiges‘ liefern, bleibt letztlich als Ausgangspunkt doch nur das ‚Geistige‘, wie biologische Systeme ’sich selbst‘ sehen, weil sie sich so ‚erleben‘. Das ‚Geistige‘ erscheint hier als ‚Dynamik‘ von Systemen, die sich anhand des Auftretens dieser Systeme ‚zeigt‘, ‚manifestiert‘. Aus den einzelnen materiellen Bestandteilen kann man diese Eigenschaften nicht ableiten, nur aus der Gesamtheit in spezifischen Wechselwirkungen. …
  8. wenn ein homo sapiens ’nichts tut‘, dann ist die Dynamik ‚unsichtbar‘ und die durch solch eine Dynamik sichtbar werdenden Eigenschaften sind nicht greifbar. Weiter: wenn ein homo sapiens eine Dynamik erkennen lässt, dann bedarf es einer spezifischen ‚Erkenntnisweise‘, um die spezifischen Eigenschaften von ‚Geist‘ erkennen zu können. …
  9. Das System-Ganze: … Erst durch die Dynamik des Gesamtsystems werden – oft als ‚emergent‘ klassifizierte – Phänomene sichtbar, die von den einzelnen Bestandteilen des materiellen Systems als solchen nicht ableitbar sind, nur eben durch das Verhalten, die Dynamik des Gesamtsystems. …
  10. Begriffliches Mehr: … Es ist weder auszuschließen, dass es zwischen dem empirischen Phänomen der ‚Gravitation‘ und dem empirischen Phänomen ‚Geist‘ einen ‚tieferen‘ Zusammenhang gibt (da ‚Geist‘ als empirisches Phänomen ‚Gravitation‘ voraussetzt‘), noch dass es weit komplexere empirische Phänomene geben kann als den ‚individuell in Populationen‘ sich manifestierenden ‚empirischen Geist‘.
  11. Neues‘ und sein Ursprung:… Da jene geistige Eigenschaften, die den homo sapiens von anderen Lebensformen unterscheiden, erst mit diesem auftreten, kann eine ‚Geschichte der Entwicklung jener Formen, die den homo sapiens auszeichnen‘, nur indirekte Hinweise darauf liefern, wie sich jene ’späten‘ komplexen materiellen Strukturen aus ‚einfacheren, früheren‘ Strukturen entwickelt haben. Damit entsteht dann die interessante Frage, wie sich solche Komplexität aus ’scheinbar einfacheren‘ Strukturen entwickeln konnte? In der logischen Beweistheorie gilt allgemein, dass ich nur etwas ‚ableiten’/ ‚beweisen‘ kann, wenn ich das zu Beweisende letztlich schon in meinen ‚Voraussetzungen’/ ‚Annahmen‘ angenommen habe. Das ’spätere komplexere Neue‘ wäre in dem Sinne dann nicht wirklich ’neu‘, sondern nur eine ‚andere Zustandsform‘ eines Ausgangspunktes, der schon alles hat‘. Dies wäre nicht sehr überraschend, da wir in der Big-Bang-Theorie allgemein von ‚Energie (E)‘ ausgehen, die in Folge von Abkühlungsprozessen unendlich viele konkrete Zustandsformen angenommen hat, von denen wir mit E=mc^2 wissen, dass sie alle ineinander überführbar sind, wie speziell sie auch immer sein mögen.
  12. Rückschlüsse vom Phänotyp auf den Genotyp: …Die komplexen Abbildungsprozesse zwischen Genotypen und Phänotypen als Teil von Populationen in Umgebungen machen eine Zuordnung von im Verhalten fundierten Eigenschaftszuschreibungen von ‚Geist‘ zu vorliegenden materiellen Strukturen schwer bis unmöglich. … Das Entscheidende am Phänomen des Geistes ist ja, dass er nach vielen Milliarden Jahren Entwicklung in einem aktuell hochkomplexen und dynamischen System sich zeigt, und zwar nicht ‚aus sich heraus‘ sondern nur dann, wenn ein anderes System, das ebenfalls ‚Geist‘ hat, diesen Phänomenen ‚ausgesetzt‚ ist. Ein System, das selbst ‚keinen Geist hat‘, kann die beobachtbaren Phänomene nicht als ‚geistige‘ klassifizieren! Dies schließt nicht aus, dass heutige Algorithmen quasi automatisch irgendwelche ‚Muster‘ im beobachtbaren Verhalten identifizieren können, allerdings sind dies Muster wie unendlich viele andere Muster, deren ‚Bewertung‘ in irgendeine Zustandsdimension völlig beliebig ist.
  13. Der ‚Theoriemacher‘ kommt selbst als Gegenstand der Theorie nicht vor: …Von Interesse ist auch, wie sich der Zustandsraum der materiellen Strukturen (die Gesamtheit des aktuellen empirischen Wissens über das Universum und seiner möglichen Zukünfte) und der Zustandsraum von Systemen mit Geist (die Gesamtheit des geistigen Vorstellungsraumes samt seiner möglichen geistigen Zukünfte) unterscheidet. Die Sache wird dadurch kompliziert, dass ja die Systeme mit empirischem Geist letztlich auch zum genuinen Gegenstandsbereich der sogenannten ‚Natur‘-Wissenschaften gehören. Wenn das Empirisch-Geistige Teil der Natur ist, reichen die bisherigen empirischen naturwissenschaftlichen Theorien nicht mehr. Sie müssten entsprechend geändert werden. Der Beobachter muss wesentlicher Bestandteil der Theorie selbst werden. Für diese Konstellation haben wir bislang aber keinen geeigneten empirischen Theoriebegriff.
  14. Die ‚Interpretationsfunktion‘ als Fundament allen biologischen Lebens ungeklärt: Die fundamentale Tatsache, dass es Moleküle gibt, die andere Moleküle als ‚Kode‘ benutzen können, um Transformationsprozesse zwischen einer Sorte von Molekülen (DNA, RNA) in eine andere Sorte von Molekülen (Polypeptide, Proteine) steuern zu können, nimmt Edelman als Faktum hin, thematisiert es selbst aber nicht weiter. Er benennt diese ‚interpretierenden Moleküle‘ auch nicht weiter; sein Begriff ‚cellular device‘ ist eher nichtssagend. Dennoch ist es gerade diese Fähigkeit des ‚Übersetzens’/ ‚Interpretierens‘, die fundamental ist für den ganzen Transformationsprozess von einem Genom in einen Phänotyp bzw. in eine ganze Kette von hierarchisch aufeinander aufbauenden Phänotypen. Setzt man diese Übersetzungsfähigkeit voraus, ist das ganze folgende Transformationsgeschehen – so komplex es im Detail erscheinen mag – irgendwie ‚trivial‘. Wenn ich in mathematischer Sicht irgendwelche Mengen habe (z.B. verschiedene Arten von Moleküle), habe aber keine Beziehungen definiert (Relationen, Funktionen), dann habe ich quasi ‚Nichts‘. Habe ich aber z.B. eine Funktion definiert, die eine ‚Abbildung‘ zwischen unterschiedlichen Mengen beschreibt, dann ist es eine reine Fleißaufgabe, die Abbildung durchzuführen (z.B. die Übersetzung von DNA über RNA in Aminosäuren, dann Polypeptide, dann Proteine). Dass die Biochemie und Mikrobiologie samt Genetik so viele Jahre benötigt hat, die Details dieser Prozesse erkennen zu können, ändert nichts daran, dass diese Transformationsprozesse als solche ‚trivial‘ sind, wenn ich die grundlegende Transformationsfunktion definiert habe. Wo aber kommt diese grundlegende Abbildungsfunktion her? Wie kann es sein, dass ein ordinäres chemisches Molekül ein anderes ordinäres chemisches Molekül als ‚Kode‘ interpretiert, und zwar genau dann so, wie es geschieht? Betrachtet man ’normale‘ Moleküle mit ihren chemischen Eigenschaften isoliert, dann gibt es keinerlei Ansatzpunkt, um diese grundlegende Frage zu beantworten. Offensichtlich geht dies nur, wenn man alle Moleküle als eine Gesamtheit betrachtet, diese Gesamtheit zudem nicht im unbestimmten Molekül-Vorkommens-Raum, sondern in Verbindung mit den jeweils möglichen ‚realen Kontextbedingungen‘, und dann unter Berücksichtigung des potentiellen Interaktionsraumes all dieser Moleküle und Kontexte. Aber selbst dieser Molekül-Vorkommens-Raum repräsentiert im mathematischen Sinne nur Mengen, die alles und nichts sein können. Dass man in diesem Molekül-Vorkommens-Raum eine Funktion implantieren sollte, die dem Dekodieren des genetischen Kodes entspricht, dafür gibt es im gesamten Molekül-Vorkommens-Raum keinerlei Ansatzpunkt, es sei denn, man setzt solch eine Funktion als ‚Eigenschaft des Molekül-Vorkommens-Raumes‘ voraus, so wie die Physiker die ‚Gravitation‘ als Eigenschaft des physikalischen Raumes voraussetzen, ohne irgendeinen Ansatzpunkt im Raum selbst zu haben, als die beobachtbare Wirkung der Gravitation. Die Biologen können feststellen, dass es tatsächlich einen Transformationsprozess gibt, der solch eine Abbildungsbeziehung voraussetzt, sie haben aber keine Chance, das Auftreten dieser Abbildungsbeziehung aus den beobachtbaren materiellen Strukturen abzuleiten!!!
  15. Biologisches Leben als ‚Super-Algorithmus‘, der seine eigenen Realisierungsbedingungen mit organisiert: In der Beschreibung von Edelmans Position habe ich schon angemerkt, dass seine Wortwahl ‚Topobiologie‘ möglicherweise unglücklich ist, da es letztlich nicht der dreidimensionale Raum als solcher ist, der entscheidend ist (wenngleich indirekt die Drei-Dimensionalität eine Rolle spielt) sondern der ‚Kontext in Form von interaktiven Nachbarschaften‘: welche andere Zellen stehen in Interaktion mit einer Zelle; welche Signale werden empfangen. Indirekt spielt dann auch der ‚vorausgehende Prozess‘ eine Rolle, durch den eben Kontexte erzeugt worden sind, die nur in bestimmten Phasen des Prozesses vorliegen. Man hat also eher einen ‚Phasenraum‘, eine Folge typischer Zustände, die auseinander hervorgehen, so, dass der bisherige Prozess die nächste Prozessphase hochgradig determiniert. Dies ähnelt einer ‚algorithmischen‘ Struktur, in der eine Folge von Anweisungen schrittweise abgearbeitet wird, wobei jeder Folgeschritt auf den Ergebnissen der vorausgehenden Abarbeitungen aufbaut und in Abhängigkeit von verfügbaren ‚Parameterwerten‘ den nächsten Schritt auswählt. Im Unterschied zu einem klassischen Computer (der eine endliche Instanz eines an sich unendlichen theoretischen Konzeptes von Computer darstellt!), bei dem die Ausführungsumgebung (normalerweise) festliegt, haben wir es hier mit einem algorithmischen Programm zu tun, das die jeweilige Ausführungsumgebung simultan zur Ausführung ‚mit erschafft‘! Wenn Computermetapher, dann eben so: ein Programm (Algorithmus), das seine Ausführungsumgebung (die Hardware) mit jedem Schritt selbst ‚erschafft‘, ‚generiert‘, und damit seine Ausführungsmöglichkeiten schrittweise ausbaut, erweitert. Dies setzt allerdings voraus, dass das genetische Programm dies alles schon ‚vorsieht‘, ‚vorwegnimmt‘. Die interessante Frage ist dann hier, wie ist dies möglich? Wie kann sich ein genetisches Programm ‚aus dem Nichts‘ entwickeln, das all diese ungeheuer komplexen Informationen bezüglich Ausführung und Ausführungsumgebung zugleich ‚aufgesammelt‘, ’strukturiert‘, ‚verpackt‘ hat, wo die Gesamtheit der modernen Wissenschaft bislang nur Fragmente versteht?
  16. Ein technischer Super-Algorithmus scheint prinzipiell möglich; unklar ist seine ‚inhaltliche Ausgestaltung‘: Während Neurowissenschaftler (Edelman eingeschlossen) oft mit unsinnigen Computervergleichen versuchen, die Besonderheit des menschlichen Gehirns herauszustellen, kann man ja auch mal umgekehrt denken: wenn die Entwicklung des Gehirns (und des gesamten Organismus) Ähnlichkeiten aufweist mit einem Algorithmus, der seine eigene Ausführungsumgebung während der Ausführung (!!!) mit generiert, ob sich solch ein Prozess auch ‚rein technisch‘ denken ließe in dem Sinne, dass wir Maschinen bauen, die aus einer ‚kleinen Anfangsmenge von Materie‘ heraus ausgestattet mit einem geeigneten ‚Kode‘ und einem geeigneten ‚Interpretierer‘ sich analog selbst sowohl materiell als auch kodemäßig entwickeln? Da die biologischen Systeme zeigen, dass es grundsätzlich geht, kann man solch einen technischen Prozess nicht grundsätzlich ausschließen. Ein solches Gedankenexperiment macht aber sichtbar, worauf es wirklich ankommt: eine solche sich selbst mit-bauende Maschine benötigt auch einen geeigneten Kode und Interpretationsmechanismus, eine grundlegende Funktion. Ohne diese Funktion, geht gar nichts. Die Herkunft dieser Funktion ist aber gerade diejenige grundlegende Frage, die die gesamte empirische Wissenschaft bislang nicht gelöst hat. Es gibt zwar neuere Arbeiten zur Entstehung von ersten Zellen aus Molekülen unter bestimmten realistischen Kontexten, aber auch diese Forschungen beschreiben nur Prozesse, die man ‚vorfindet‘, die sich ‚zeigen‘, nicht aber warum und wieso es überhaupt zu diesen Prozessen kommen kann. Alle beteiligten materiellen Faktoren in diesen Prozessen als solchen geben keinerlei Ansatzpunkte für eine Antwort. Das einzige, was wir bislang wissen, ist, dass es möglich ist, weil wir es ‚beobachten können‘. Die ‚empirischen Phänomene‘ sind immer noch die härteste Währung für Wahrheit.
  17. Wissenschaftliche Theorie:… es ist überhaupt das erste Mal, dass Edelman in diesem Buch explizit über eine ‚wissenschaftliche Theorie‘ spricht… Seine Charakterisierung einer ‚wissenschaftlichen Theorie‘ ist … generell sehr fragmentarisch; sie ist ferner in ihrer Ernsthaftigkeit fragwürdig, da er die Forderung der Falsifizierbarkeit mit dem Argument begründt, dass ansonsten Darwins Theorie in ihrer Anfangszeit niemals hätte Erfolg haben können; und sie ist geradezu mystisch, da er eine radikal neue Rolle des Beobachters mit all seinen mentalen Eigenschaften innerhalb der Theoriebildung einfordert, ohne aber irgendwelche Hinweise zu liefern, wie das praktiziert werden soll. … Man stellt sich die Frage, welchen ‚Begriff von Theorie‘ Edelman eigentlich benutzt? In der Geschichte der empirischen Wissenschaften gab es viele verschiedene Begrifflichkeiten, die nicht ohne weiteres kompatibel sind, und seit ca. 100 Jahren gibt es eine eigene Metawissenschaft zu den Wissenschaften mit Namen wie ‚Wissenschaftsphilosophie‘, ‚Wissenschaftstheorie‘, ‚Wissenschaftslogik‘, deren Gegenstandsbereich gerade die empirischen Wissenschaften und ihr Theoriebegriff ist…. Aufgrund seiner bisherigen Ausführungen scheint Edelman nichts vom Gebiet der Wissenschaftsphilosophie zu kennen.
  18. Überprüfbarkeit, Verifizierbarkeit, Theorie: Die Überprüfbarkeit einer Theorie ist in der Tat ein wesentliches Merkmal der modernen empirischen Wissenschaften. Ohne diese Überprüfbarkeit gäbe es keine empirische Wissenschaft. Die Frage ist nur, was mit ‚Überprüfbarkeit‘ gemeint ist bzw. gemeint sein kann. … Wenn Edelman fordert dass für eine Theorie gelten soll, dass nicht (vi) ‚jeder Teil von der Theorie direkt falsifizierbar‘ sein muss, dann geht er offensichtlich davon aus, dass eine Theorie T aus ‚Teilen‘ besteht, also etwa T(T1, T2, …, Tn) und dass im ‚Idealfall‘ jeder Teil ‚direkt falsifizierbar‘ sein müsste. Diese Vorstellung ist sehr befremdlich und hat weder mit der Realität existierender physikalischer Theorien irgend etwas zu tun noch entspricht dies den modernen Auffassungen von Theorie. Moderne Theorien T sind mathematische (letztlich algebraische) Strukturen, die als solche überhaupt nicht interpretierbar sind, geschweige denn einzelne Teile davon. Ferner liegt die Erklärungsfähigkeit von Theorien nicht in ihren Teilen, sondern in den ‚Beziehungen‘, die mittels dieser Teile formulierbar und behauptbar werden. Und ob man irgendetwas aus solch einer Theorie ‚voraussagen‘ kann hängt minimal davon ab, ob die mathematische Struktur der Theorie die Anwendung eines ‚logischen Folgerungsbegriffs‘ erlaubt, mittels dem sich ‚Aussagen‘ ‚ableiten‘ lassen, die sich dann – möglicherweise – ‚verifizieren‘ lassen. Diese Verifizierbarkeit impliziert sowohl eine ‚Interpretierbarkeit‘ der gefolgerten Aussagen wie auch geeignete ‚Messverfahren‘, um feststellen zu können, ob die ‚in den interpretierten Aussagen involvierten entscheidbaren Eigenschaften‘ per Messung verifiziert werden können oder nicht. Der zentrale Begriff ist hier ‚Verifikation‘. Der Begriff der ‚Falsifikation‘ ist relativ zu Verifikation als komplementärer Begriff definiert. Begrifflich erscheint dies klar: wenn ich nicht verifizieren kann, dann habe ich automatisch falsifiziert. In der Praxis stellt sich aber oft das Problem, entscheiden zu können, ob der ganz Prozess des Verifizierens ‚korrekt genug‘ war: sind die Umgebungsbedingungen angemessen? Hat das Messgerät richtig funktioniert? Haben die Beobachter sich eventuell geirrt? Usw. Als ‚theoretischer Begriff‘ ist Falsifikation elegant, in der Praxis aber nur schwer anzuwenden. Letztlich gilt dies dann auch für den Verifikationsbegriff: selbst wenn der Messvorgang jene Werte liefert, die man aufgrund einer abgeleiteten und interpretierten Aussage erwartet, heißt dies nicht mit absoluter Sicherheit, dass richtig gemessen wurde oder dass die Aussage möglicherweise falsch interpretiert oder falsch abgeleitet worden ist.
  19. Rolle des Theoriemachers und Beobachters fundamental: All diese Schwierigkeiten verweisen auf den ausführenden Beobachter, der im Idealfall auch der Theoriemacher ist. In der Tat ist es bislang ein menschliches Wesen, das mit seinen konkreten mentalen Eigenschaften (basierend auf einer bestimmten materiellen Struktur Gehirn im Körper in einer Welt) sowohl Phänomene und Messwerte in hypothetische mathematische Strukturen transformiert, und diese dann wiederum über Folgerungen und Interpretationen auf Phänomene und Messwerte anwendet. Dies in der Regel nicht isoliert, sondern als Teil eines sozialen Netzwerkes, das sich über Interaktionen, besonders über Kommunikation, konstituiert und am Leben erhält. … Edelman hat Recht, wenn er auf die bisherige unbefriedigende Praxis der Wissenschaften hinweist, in der die Rolle des Theoriemachers als Teil der Theoriebildung kaum bis gar nicht thematisiert wird, erst recht geht diese Rolle nicht in die eigentliche Theorie mit ein. Edelman selbst hat aber offensichtlich keinerlei Vorstellung, wie eine Verbesserung erreicht werden könnte, hat er ja noch nicht einmal einen rudimentären Theoriebegriff.
  20. Theorie einer Population von Theoriemachern: Aus dem bisher Gesagten lässt sich zumindest erahnen, dass ein verbessertes Konzept einer Theorie darin bestehen müsste, dass es eine explizite ‚Theorie einer Population von Theoriemachern (TPTM)‘ gibt, die beschreibt, wie solch eine Population überhaupt eine Theorie gemeinsam entwickeln und anwenden kann und innerhalb dieser Theorie einer Population von Theoriemachern würden die bisherigen klassischen Theoriekonzepte dann als mögliche Theoriemodelle eingebettet. Die TPTM wäre dann quasi ein ‚Betriebssystem für Theorien‘. Alle Fragen, die Edelman angeschnitten hat, könnte man dann in einem solchen erweiterten begrifflichen Rahmen bequem diskutieren, bis hinab in winzigste Details, auch unter Einbeziehung der zugrunde liegenden materiellen Strukturen.
  21. Darwin und Theorie: Anmerkung: Darwin hatte nichts was einem modernen Begriff von Theorie entsprechen würde. Insofern ist auch das Reden von einer ‚Evolutionstheorie‘ im Kontext von Darwin unangemessen. Damit wird aber der epochalen Leistung von Darwin kein Abbruch getan! Eher wirkt sein Werk dadurch noch gewaltiger, denn die Transformation von Gedanken, Phänomenen, Fakten usw. in die Form einer modernen Theorie setzt nicht nur voraus, dass man über die notwendigen Formalisierungsfähigkeiten verfügt … sondern man kann erst dann ’sinnvoll formalisieren‘, wenn man überhaupt irgendetwas ‚Interessantes‘ hat, was formalisiert werden soll. Die großen Naturforscher (wie z.B. Darwin) hatten den Genius, die Kreativität, den Mut, die Zähigkeit, das bohrende, systematisierende Denken, was den Stoff für interessante Erkenntnisse liefert. Dazu braucht man keine formale Theorie. Die Transformation in eine formale Theorie ist irgendwo Fleißarbeit, allerdings, wie die Geschichte der Physik zeigt, braucht man auch hier gelegentlich die ‚Genies‘, die das Formale so beherrschen, dass sie bisherige ‚umständliche‘ oder ‚unpassende‘ Strukturen in ‚einfachere‘, ‚elegantere‘, ‚besser passende‘ formale Strukturen umschreiben.
  22. Inkompatible Daten: 1.Person – 3.Person: Schon die erste Überlegung von Edelman, die Theorie des Bewusstseins als Teil einer Theorie des Gehirns zu konzipieren, wirft methodische Fragen auf. Diese resultieren daher, dass ja eine Theorie – was er im nächsten Abschnitt ja auch ausdrücklich feststellt – , im Kern darin besteht, ‚Zusammenhänge‘ einzuführen, durch die die einzelnen, isolierten Fakten kausale, erklärende, prognostische Eigenschaften bekommen können. Nun ist nach bisherigem Kenntnisstand klar, dass jene Fakten, durch die sich für einen menschlichen Beobachter und Theoriemacher das Bewusstsein ‚zeigt‘, und jene Fakten, mittels denen eine Neurobiologie arbeitet, nicht nur einfach ‚unterschiedlich‘ sind, sondern im ersten Anlauf prinzipiell ‚ausschließend‘. Die dritte Person Perspektive im Fall neurobiologischer Theoriebildung und die erste Person Perspektive im Fall von Bewusstseinstheorien sind im ersten Schritt nicht kompatibel miteinander. Jede Form von Beziehungsentwicklung über diesen unterschiedlichen Datenengen – nennen wir sie DAT_NN und DAT_BW – wird vollständig unabhängig voneinander stattfinden müssen. Bei dieser Sachlage zu sagen, dass eine Theorie des Bewusstseins als Teil einer Theorie des Gehirns entwickelt werden soll, klingt spannend, lässt aber jegliche Einsicht in ein mögliches Wie vermissen. Der umgekehrte Fall, eine Theorie des Gehirns als Teil einer Theorie des Bewusstseins hingegen wäre methodisch möglich, da alle empirische Daten abgeleitete Bewusstseinsdaten sind (also: DAT_NN C DAT_BW).
  23. Denken als kreativer Akt – Kein Automatismus: Im übrigen sollte man im Hinterkopf behalten, dass das ‚Einführen von Beziehungen‘ über Datenpunkten in keiner Weise von den Daten selbst her ‚ableitbar‘ ist. Es handelt sich bei solchen Einführungen um ‚kreative Denkakte‘, die aus einem vorgegebenen begrifflichen Denkraum einen möglichen Teilraum aktivieren und diesen ‚an den Daten ausprobieren‘. Insofern handelt es sich bei der Theoriebildung um ein ‚Erkenntnissystem‘ im Sinne von Edelman, das ‚gedachte Varianten von Beziehungen‘ bilden kann, und jene Fakten (ein vom Denken unabhängiger Bereich), die zu irgendwelchen Beziehungsvarianten ‚passen‘, die werden ‚ausgewählt‘ als solche Fakten, die sich im Sinne der ausgewählten Beziehungen ‚erklären‘ lassen. Im Sinne von Edelman könnte man hier von einem ‚bewusstseinsbasierten selektiven System (bsS)‘ sprechen. Es ist an die Lebensdauer des Bewusstseins gebunden, es verfügt über ein ‚Gedächtnis‘, es kann dadurch ‚adaptiv‘ sein, es kann aufgrund von zusätzlichen Kommunikationsprozessen Beziehungsvarianten auf andere Bewusstseine übertragen und durch Übertragung auf bewusstseinsexterne Medien sogar über die Lebensdauer eines individuellen Bewusstseins hinaus gespeichert werden.
  24. Damit deutet sich eine interessante Hierarchie von ‚Erkennungssystemen‘ an: (i) ‚evolutionäre selektive Systeme (esS)‘, (ii) ’somatische selektive Systeme (ssS)‘, (iii) ’neuronale selektive Systeme (nsS)‘, sowie (iv) ‚bewusstseinsbasierte selektive Systeme (bsS)‘.
  25. Kategoriefehler? Während die Hypothese von Edelman, dass die ‚materielle Basis des Geistes‘ in den materiellen Schichten des Gehirns zu suchen sei, möglicherweise Sinn macht, ist seine andere Hypothese, dass eine wissenschaftliche Theorie des Bewusstseins als Teil einer Theorie des Gehirns zu entwickeln sei, aus fundamentalen Gründen nicht nachvollziehbar.
  26. Integrierte Theoriebildung: Greift man Punkt (1) der Diskussion auf, dann könne eine Lösung der Paradoxie von Edelman darin bestehen, dass die Verschränkung der Daten aus der 1ten-Person Perspektive DAT_1Person und die Daten aus der 3ten-Person Perspektive als DAT_3Person C DAT_1Person die Basis für eine mögliche ‚integrierte (philosophische) Theorie des Bewusstseins‘ bilden, die empirische Theorien als Teiltheorien enthält, unter anderem eine Theorie des Gehirns. Wollte man ferner das von Edelman in den ersten Kapiteln mehrfach angesprochene ungelöste Problem der ‚mangelnden Integration des Beobachters‘ in die zugehörige Theorie aufgreifen, dann wäre dies in einer ‚integrierten philosophischen Theorie des Bewusstseins (IPTB)‘ im Prinzip möglich. Folgendes Theorienetzwerk deutet sich damit an:
  27. In einem ersten Schritt (i) könnte man eine ‚Theorie des Bewusstseins‘ T1CS auf Basis der DAT_1Person formulieren; im Rahmen dieser Theorie kann man unter anderem (ii) die empirischen Daten DAT_3Person als eine genuine Teilmenge der Daten DAT_1Person ausweisen. Damit erhält man den Ausgangspunkt dafür, diverse Theorien T3X auf Basis der dritten Person Daten DAT_3Person zu formulieren. Hier gibt es verschiedene Optionen. Eine mögliche wäre die folgende:
  28. In einem ersten Schritt (iii) wird eine ‚Theorie der Evolution der Körper‘ T3EV formuliert. Von hier aus gibt es zwei Fortsetzungen:
  29. Die Interaktion verschiedener Körper einer Population kann in einer (iv) ‚Theorie der Akteure‘ T3A formuliert werden (diese sind u.a. potentielle Beobachter). Diese Theorie T3A beschreibt, welche Verhaltensweisen an Akteuren beobachtbar sind und wie diese sich miteinander verschränken können (z.B. bekannt aus Psychologie und Soziologie).
  30. Eine ‚Theorie der Körper‘ T3BD beschreibt (v) die innere Struktur jener Körper, die den Akteuren zugrunde liegt. Dazu kann es Teil-Theorien geben (vi) wie eine ‚Theorie des Gehirns‘ T3BR (mit all seinen Schichten ) oder (vii) eine ‚Theorie des Immunsystems‘ T3IM.
  31. Brückentheorien: Es ist dann eine eigene theoretische Leistung diese verschiedenen Teil-Theorien und Theorien miteinander in Beziehung zu setzen. Dies ist keinesfalls trivial. Während die Theorie der Evolution eine Zeitkomponente umfasst, in der sich Strukturen komplett ändern können, sind Strukturtheorien des Körpers, des Gehirns und des Immunsystems tendenziell an ’statischen‘ Strukturen orientiert. Dies ist aber unrealistisch: Körper, Gehirn und Bewusstsein sind dynamische Systeme, die sowohl durch ‚Wachstum‘ wie auch durch ‚Lernen‘ kontinuierlich ihre Strukturen ändern. Ferner ist die Interaktion der verschiedenen Theorien ein eigenständiges Problem: Gehirn und Immunsystem sind ja nur zwei Komponenten von vielen anderen, die zusammen einen Körper ausmachen. Wenn man die neuen Erkenntnisse zur Komponente ‚Darm‘ ernst nimmt, dann kann diese Komponenten das gesamte Rest-System vollständig dominieren und steuern (auch das Gehirn). Die genauen Details dieser Interaktion sind noch weitgehend unerforscht. Schließlich ist auch die Rückkopplung der diversen empirischen Theorien T3X zur primären Theorie des Bewusstseins T1CS zu lösen. Dies wäre eine ‚Brückentheorie‘ T1CS3BD mit Anbindung sowohl an die Theorie der Evolution T3EV als auch an die diversen Teiltheorien wie T3BR und T3IM. Bislang ist weltweit kein einziger Kandidat für solch eine Brückentheorie T1CS3BD bekannt, zumal es bislang auch keine ernsthafte Theorie des Bewusstseins T1CS gibt (wohl aber sehr viele Texte, die inhaltlich zum Begriff ‚Bewusstsein‘ etwas schreiben).
  32. Beginn Kap.8: Zu Beginn des Kap. 8 wiederholt Edelman seine These, dass er die ‚Sache des Geistes‘ (‚matter of mind‘) aus einem ‚biologischen Blickwinkel‘ heraus angehen will. Wie schon oben angemerkt, stellen sich hier grundlegende methodische Probleme, die hier jetzt nicht wiederholt werden sollen. Er stellt dann die sachlich unausweichliche Frage, wie man denn dann einen Zusammenhang zwischen ‚Geist‘ und ‚Materie‘ – hier Materie fokussiert auf ‚Gehirn‘ – herstellen kann.
  33. Populationsdenken und Erkennungssystem: Ohne weitere Begründung führt er dann den Begriff ‚Populationsdenken‘ ein, den er sodann überführt in den Begriff ‚Erkennungssystem‘ (‚recogntion system‘). Anschließend bringt er mit der ‚Evolution‘, ‚mit dem Immunsystem‘ und dann mit dem ‚Gehirn‘ drei Beispiele von Erkennungssystemen in seinem Sinne.
  34. Begriff ‚Geist‘ methodisch unbestimmt: Dieses ganze begriffliche Manöver von Edelmann leidet von Anbeginn an dem Umstand, dass er bislang weder genau erklärt hat, was er unter dem Begriff ‚Geist‘ versteht noch mit welchen Methoden man diesen ‚Geist‘ erforschen kann. Der Begriff ‚Geist‘ bildet also bislang nur eine ‚abstrakte Wortmarke ohne definierte Bedeutung‘ und ohne jeglichen Theorie- und Methodenbezug. Zugleich wird ‚Geist‘ streckenweise mit dem Begriff ‚Bewusstsein‘ gleichgesetzt, für den die gleichen Unwägbarkeiten gelten wie für den Begriff ‚Geist‘. Unter diesen Umständen die These aufzustellen, dass sich eine Theorie des Bewusstseins als Teil einer Theorie des Gehirns formulieren lässt ist mindestens kühn (siehe die vorausgehende Diskussion). Für die soeben von Edelman aufgeworfene Frage nach einem möglichen Zusammenhang zwischen dem mit ‚Geist‘ Gemeinten und dem mit ‚Materie‘ – sprich: Gehirn – Gemeinten ist damit alles offen, da die Begriffe ‚Geist‘ und ‚Bewusstsein‘ letztlich auch ‚offen‘ sind, da sie nicht definiert sind. Es bleibt dann nur, abzuwarten und zu schauen, ob sich aus den von Edelman eingeführten Begriffen ‚Populationsdenken‘ bzw. ‚Erkennungssystem‘ etwas ableiten lässt, was die Grundsatzfrage nach dem Verhältnis zwischen ‚Geist‘ und ‚Materie‘ etwas erhellt.
  35. Das Populationsdenken basiert auf Mengen von Individuen, die sich ‚verändern‘ können; man kann diese veränderte Individuen als ‚Varianten‘ auffassen‘, die damit eine ‚Vielfalt‘ in einer Population repräsentieren. Wichtig ist hier, sich klar zu machen, dass in der Perspektive eines einzelnen Individuums dieses weder ‚weiß‘, was vorher war noch was kommen wird noch aus sich heraus abschätzen kann, ob das, was es repräsentiert bzw. das, was es tut, in irgendeiner Weise ’sinnvoll‘ ist! Das einzelne Individuum ‚lebt sich aus‘ unter den Bedingungen, die die Umgebung ‚vorgibt‘ Zu sagen, dass ein einzelnes Individuum ‚erfolgreich‘ ist (‚fit‘), setzt voraus, dass man auf das Gesamtsystem schauen kann und man ein Meta-Kriterium hat, das definiert, wann ein Individuum in einer Population ‚erfolgreich‘ ist oder nicht. Unter Evolutionsbiologen hat sich eingebürgert, als ein Erfolgskriterium die ‚Zahl der Nachkommen‘ zu nehmen. Individuen mit den meisten Nachkommen gelten als erfolgreich. Dieser ‚äußerliche‘ Befund, der sich nur mit Blick auf mehrere Generationen definieren lässt und im Vergleich zu allen anderen Individuen, wird dann zusätzlich verknüpft mit der Hypothese, dass die äußerlich beobachtbare Gestalt, der Phänotyp, letztlich auf eine ‚tiefer liegende Struktur‘ verweis, auf den Genotyp. Der äußerlich beobachtbare Erfolg eines bestimmten Phänotyps wird dann auf die angenommene tiefer liegende Struktur des Genotyps übertragen. In dieser komplexen metatheoretischen Betrachtungsweise verantworten also Genotypen die Phänotypen, die dann in einer bestimmten Umgebung über die Zeit die meisten Nachkommen ermöglichen.
  36. In diesem Kontext von ‚Selektion‘, ‚Auswahl‘ zu sprechen ist ziemlich problematisch, da kein eigentlicher Akteur erkennbar ist, der hier ’selektiert‘. Das einzelne Individuum für sich selektiert sicher nicht, da es nichts hat zum Selektieren. Die Population als solche selektiert auch nicht, da die Population keine handelnde Einheit bildet. ‚Population‘ ist ein ‚Meta-Begriff‘, der einen externen Beobachter voraussetzt, der die Gesamtheit der Individuen beobachten und darüber sprechen kann. Eine Population als ‚existierende‘ ist nur eine Ansammlung von Individuen, von denen jedes einzelne ‚vor sich hin agiert‘. Nur bei externer Beobachtung über die Zeit lässt sich erkennen, dass sich Varianten von Phänotypen bilden von denen einige größere Anzahlen bilden als andere oder einige sogar aussterben. Weder das einzelne Individuum noch die Gesamtheit der Individuen ’selektieren‘ hier irgend etwas. Wohl findet zwischen Individuen ein ‚Genmix‘ (oft als ‚crossover‘ bezeichnet) statt, der neue Genotypen ermöglicht, z.T. Ergänzt durch zufällige Änderungen (Mutationen) des Genotyps, mit nachfolgend neuen Phänotypen.
  37. Beobachter mit Theorie: Wenn man dennoch am Begriff ‚Selektion‘ festhalten will, dann nur dann, wenn man tatsächlich einen ‚externen Beobachter‘ voraussetzt, der alle diese variierenden Phänotypen in ihren jeweiligen Umgebungen in der Zeit ‚beobachten‘ kann und der eine ‚Theorie‘ formuliert (also eine systematische Beschreibung von den Beobachtungsdaten), in der die Veränderung der Phänotypen samt ihren ‚Anzahlen‘ in Beziehung gesetzt werden zu den verschiedenen Umgebungen. Wenn bestimmte Phänotypen in einer bestimmten Umgebung E aussterben während andere Phänotypen bei der gleichen Umgebung nicht aussterben, sich vielleicht sogar vermehren, dann könne man in dieser Theorie den Begriff ‚Selektion‘ so definieren, dass die ‚zahlenmäßig erfolgreichen‘ Phänotypen zur Umgebung E ‚besser passen‘ als die anderen. Es sind dann die ‚Umstände der Umgebung‘, die ‚Eigenschaften der Umgebung‘, die darüber entscheiden, welcher Phänotyp ‚bleibt‘ und welcher ’nicht bleibt‘. Die Umgebung wäre dann das ‚harte Kriterium‘, an dem die Leistungsfähigkeit eines Phänotyps (und indirekt damit des ermöglichenden Genotyps), ‚gemessen‘ werden kann. ‚Messen‘ heißt ‚Vergleichen‘: passt ein Phänotyp in eine bestehende Umgebung oder nicht.
  38. Erfolgskriterium nicht absolut: Da die Umgebung ‚Erde‘ nach heutigem Wissensstand sich beständig verändert hat, ist das Erfolgskriterium ‚Passen‘ sehr relativ. Was heute ‚gut passt‘ kann morgen ‚unpassend‘ sein.
  39. Akteure als Teil der Umgebung: Ferner ist in Rechnung zu stellen, dass Phänotypen (i) sowohl mit der Umgebung wechselwirken können und dadurch diese so stark verändern können, dass sie damit ihre eigenen Lebensgrundlagen zerstören (etwas ‚Passendes‘ wird ‚unpassend‘ gemacht), als auch (ii) dass die Vielzahl von Phänotypen untereinander ‚zur Umgebung wird‘ (z.B. in Räuber-Beute Beziehungen). Dann besteht die Umgebung nicht nur aus der Erde wie sie ist (sehr veränderlich), sondern andere Phänotypen einer anderen ‚Art‘ müssen entweder als Feinde abgewehrt werden oder als potentielle Beute gefangen oder es muss mit ‚Artgenossen‘ kooperiert werden. Das erfolgreiche Überleben wird damit zu einer Gleichung mit sehr vielen dynamischen Variablen. Das theoretische Kriterium der ‚Selektion‘ erscheint daher als ein sehr abstraktes Kriterium in der Beschreibung von Erfolg, hat sich aber historisch als Minimalanforderung durchgesetzt.
  40. Fähigkeit zur Variationsbildung im Dunkeln: Interessant ist der Punkt – auf den auch Edelman zentral abhebt – dass die Genotypen überhaupt in der Lage sind, immer komplexere Phänotypen zu bilden, ohne dass erkennbar ist, dass ihnen von der Umgebung aus irgendwelche Vorab-Informationen übermittelt würden. Dies scheitert allein auch schon daran, dass die Erde – und das Sonnensystem, und die Milchstraße, und … — als ‚Umgebung‘ keinen geschlossenen Akteur mit eigener ‚Absicht‘ darstellt. Vielmehr handelt es sich – nach heutigem Kenntnisstand – um ein System, das ‚aus sich heraus‘ Ereignisse erzeugt, die als Ereignisse dieses System manifestieren. Biologische Systeme können diese Ereignismengen nur ‚aufnehmen‘, ’sortieren‘, auf unterschiedliche Weise ‚erinnern‘, und auf der Basis dieser ‚Erfahrungen‘ Strukturen ausbilden, die dieser Ereignismenge möglichst ‚optimal‘ gerecht werden. Und da im Moment der ‚reproduktiven‘ Strukturbildung zwar einige Erfolge aus der Vergangenheit ‚bekannt‘ sind, aber ’nichts aus der Zukunft‘, bleibt den biologischen Systemen nichts anderes übrig, als , im Rahmen ihrer genetischen und phänotypischen Variationsbildung möglichst viele Variationen ‚ins Blaue hinein‘ zu bilden. Nach 3.8 Milliarden Jahren kann man konstatieren, es hat bislang irgendwie funktioniert. Daraus kann man aber leider nicht zweifelsfrei ableiten, dass dies auch in der Zukunft so sein wird.
  41. Selektion als sekundärer Effekt: Also, ‚Selektion‘ ist keine Eigenleistung eines Individuums oder einer Population, sondern Selektion ist der Effekt, der entsteht, wenn Populationen mit Umgebungen wechselwirken müssen und die Umgebung festlegt, unter welchen Bedingungen etwas zu ‚passen‘ hat. Erst ’nach‘ der Reproduktion und ’nach einiger Zeit‘ zeigt sich für ein Individuum, ob ein bestimmter Genotyp einen ‚erfolgreichen‘ Phänotyp hervorgebracht hat. Zu dem Zeitpunkt, wo ein Individuum diese Information bekommt, hat es aber keine Gestaltungsmacht mehr: einmal weil seine Reproduktionsaktivität dann schon vorbei ist und zum anderen, weil es bei Erfolg ‚alt‘ ist oder gar schon ‚gestorben‘.
  42. Begriff ‚Erkennen‘ unglücklich: Dass Edelman diese Populationsdynamik als ‚Erkennungssystem‘ (‚recognition system‘) verstanden wissen will, ist nicht ganz nachvollziehbar, da, wie schon angemerkt, kein eigentlicher Akteur erkennbar ist, der dies alles ’steuert‘. Dass im Fall der Evolution die Gesamtheit der Genotypen zu einem bestimmten Zeitpunkt einen gewissen ‚Informationsbestand‘, einen gewissen ‚Erfahrungsbestand‘ repräsentieren, der sich aus den vorausgehenden Reproduktions- und aufgezwungenen Selektionsereignissen ‚angesammelt‘ hat, lässt sich theoretisch fassen. Dass aber hier ein identifizierbarer Akteur etwas ‚erkennt‘ ist wohl eine starke Überdehnung des Begriffs ‚Erkennen‘. Das gleiche gilt für das Beispiel mit dem Immunsystem. Das ‚Herausfiltern‘ von bestimmten ‚passenden Eigenschaften‘ aus einer zuvor produzierten Menge von Eigenschaften ist rein mathematisch eine Abbildung, die so zuvor nicht existierte. Aber es gibt keinen bestimmten Akteur, der für die Konstruktion dieser Abbildung verantwortlich gemacht werden kann.
  43. Netzwerke lernen ohne eigentlichen Akteur: Dennoch arbeitet Edelman hier einen Sachverhalt heraus, der als solcher interessant ist. Vielleicht sollte man ihn einfach anders benennen. Interessant ist doch, dass wir im Bereich der biologischen Systeme beobachten können, dass eine Menge von unterscheidbaren Individuen, von denen jedes für sich genommen keinerlei ‚Bewusstsein‘ oder ‚Plan‘ hat, als Gesamtheit ‚Ereignismengen‘ so ’speichern‘, dass ‚metatheoretisch‘ eine ‚Abbildung‘ realisiert wird, die es so vorher nicht gab und die Zusammenhänge sichtbar macht, die eine gewisse ‚Optimierung‘ und auch eine gewisse ‚Logik‘ erkennen lassen. Nennen wir diese Herausbildung einer Populationsübergreifenden Abbildung ’strukturelles Lernen‘ was zu einer ’strukturellen Erkenntnis‘ führt, dann habe wir dadurch zwar noch keinen eigentlichen ‚Akteur‘, aber wir haben ein interessantes Phänomen, was die Entwicklung von großen Mengen von biologischen Systemen charakterisiert. Das
    ‚Biologische‘ erscheint als ein Netzwerk von vielen Systemen, Teilsystemen, bei dem die einzelnen Komponenten keinen ‚Plan des Ganzen‘ haben, aber durch ihre individuelle Manifestationen indirekt an einem ‚größeren Ganzen‘ mitwirken.
  44. Homo sapiens: Erst mit dem Aufkommen des Homo sapiens, seiner Denk- und Kommunikationsfähigkeit, seinen Technologien, ist es möglich, diese impliziten Strukturen, die alle einzelnen Systeme bestimmen, dirigieren, filtern, usw. auf neue Weise zu ‚erfassen‘, zu ‚ordnen‘, zu ‚verstehen‘ und auf diese Weise mit einem angenäherten ‚Wissen um das Ganze‘ anders handeln zu können als ohne dieses Wissen.

ZWISCHENREFLEXION FITNESS VORGEGEBEN

  1. Außer dem bislang Gesagten (siehe oben Punkte 1-44) ist es vielleicht hilfreich, sich klar zu machen, wie genau das Zusammenspiel zwischen der Fitness biologischer Systeme und den jeweiligen Umgebungen beschaffen ist.
  2. Ein grundlegender Tatbestand ist jener, dass die Umgebung der biologischen Systeme auf der Erde von Anfang an eben die Erde war und ist bzw. das Sonnensystem bzw. unsere Milchstraße bzw. das gesamte bekannte Universum. Diese Vorgabe ist für alle biologische Systeme bislang nicht verhandelbar. Wenn ein biologisches System sich behaupten will, dann in diesem konkreten Ausschnitt des Universums und nirgendwo sonst.
  3. Zugleich wissen wir, dass die Erde seit ihrer Entstehung samt Sonnensystem und dem ganzen Kontext zu allen Zeiten ein hochdynamisches System war und ist, das im Laufe von Milliarden Jahren viele dramatische Änderungen erlebt hat. Sich in dieser Umgebung zu behaupten stellt eine schier unfassbare Leistung dar.
  4. Ob sich im Laufe der Zeit eine bestimmte Lebensform L auf der Erde ‚behaupten‚ oder gar ‚vermehren‚ konnte, hing einzig davon ab, ob diese Lebensform L im Laufe der Generationen in der Lage war, hinreichend viele Nachkommen unter den konkreten Bedingungen der Umgebung zu erzeugen und am Leben zu erhalten. Die Anzahl der Nachkommen einer Generation der Lebensform L kann von daher als Bezugspunkt zur Definition eines ‚Fitness-Wertes‚ bzw. dann der ‚Fitness‚ einer Lebensform genommen werden. Eine häufige Schematisierung dieser Sachverhalte ist die folgende:
  5. POP(t+1) = o(POP(t)), t>0 := Die Population ‚POP‘ zum Zeitpunkt t ist das Ergebnis der Anwendung der Populationsgenerierungsfunktion ‚o‘ auf die Population zum Zeitpunkt ‚t‘, wobei ‚t‘ größer als 0 sein muss. Die Funktion ‚o‘ kann man dann weiter analysieren:
  6. o=e x c := Die Populationsgenerierungsfunktion ‚o‘ ist das Ergebnis der Hintereinanderausführung der beiden Teilfunktionen ‚e‘ (‚earth-function‘) und ‚c‘ (‚change-funtion‘). Diese kann man weiter analysieren:
  7. e : 2^(POP^2) x 2^POP x EARTH —–> POP := Die earth-function e nimmt Paare von Individuen (potentielle Eltern) der Population, zusätzlich kann es beliebig andere Individuen der Population geben (Jäger, Beute, Artgenossen…), und dann die Erde selbst mit ihren Eigenschaften, und transformiert daraus nachfolgende Individuen, Abkömmlinge. Es ist schwer zu sagen, ‚wer‘ hier über Leben und Tod entscheidet: einerseits legen die konkreten Bedingungen der Erde und die Art der Zeitgenossen fest, unter welchen Bedingungen eine Lebensform überleben kann, andererseits hängt ein Überleben auch davon ab, welche ‚Eigenschaften‘ eine Lebensform besitzt; ob diese leistungsfähig genug sind, unter den gegebenen Bedingungen ‚leben‘ zu können. Nimmt man die Population der Lebensformen als ‚Generator‘ neuer Formen (siehe nächsten Abschnitt), dann wirkt die konkrete Erde wie eine Art ‚Filter‘, das nur jene ‚durchlässt‘, die ‚passen‘. ‚Selektion‘ wäre dann ein ‚emergentes‘ Phänomen im radikalen Sinne, da dieses Phänomen nur im Zusammenspiel der beiden Faktoren ‚Erde‘ und ‚Population‘ ’sichtbar‘ wird. Ohne dieses Zusammenspiel gibt es kein Kriterium für ‚Überlebensfähigkeit‘. Ferner wird hier deutlich, dass das Kriterium ‚Fitness‘ bzw. ‚Überlebensfähigkeit‘ kein absolutes Kriterium ist, sondern sich zunächst nur auf den Lebensraum ‚Erde‘ beschränkt. In anderen Bereichen des Universums könnten ganz andere Kriterien gelten und dort müsste die Lebensformen u.U. Einen ganz anderen Zuschnitt haben.
  8. Ferner  wird hier sichtbar, dass der ‚Erfolg‚ einer bestimmten Lebensform als Teil des gesamten Biologischen letztlich sehr ‚partiell‚ ist, weil bei Änderungen der Zustände auf der Erde bislang erfolgreiche Lebensformen (berühmtes Beispiel die Dinosaurier) vollstänig verschwinden können; andere Lebensformen als Teil des Biologischen können dann aber plötzlich neu in den Vordergrund treten. (berühmtes Beispiel die Säugetiere).  Offen ist die Frage, ob es spezielle Lebensformen — wie z.B. den homo sapiens — gibt, die aufgrund ihrer hervorstechenden Komplexität im Kontext des Biologischen eine irgendwie geartete ‚besondere Bedeutung‘ besitzen. Aktuell erwecken die Wissenschaften den Eindruck, als ob es hier keine feste Meinung gibt: die einen sehen im homo sapiens etwas Besonderes, das auf eine spezielle Zukunft verweist, andere sehen im homo sapiens eine von vielen möglichen speziellen Lebensformen, die bald wieder verschwinden wird, weil sie sich der eigenen Lebensgrundlagen beraubt.
  9. c : cross x mut := die ‚change-function‘ c besteht auch aus zwei Teilfunktionen, die hintereinander ausgeführt werden: die erste Teilfunktion ist eine Art Überkreuzung genannt ‚crossover‘ (‚cross‘), die zweite ist eine Art Mutation genannt ‚mutation‘ (‚mut‘).
  10. cross : POP x POP —–> POP := In der Überkreuzfunktion ‚cross‘ werden die Genotypen von zwei verschiedenen Individuen ‚gemischt‘ zu einem neuen Genotyp, aus dem ein entsprechend neuer Phänotyp hervorgehen kann.
  11. mut : POP —–> POP := In der Mutationsfunktion kann eine zufällige Änderung im Genotyp eines Individuums auftreten, die unter Umständen auch zu Änderungen im Phänotyp führt.
  12. Idealerweise kann man die change-function c isoliert von der Umgebung sehen. Realistischerweise kann es aber Wechselwirkungen mit der Umgebung geben, die auf die change-function ‚durchschlagen‘.

  13. Fasst man alle Faktoren dieser – stark vereinfachten – Populationsgenerierungsfunktion ‚o‘ zusammen, dann wird auf jeden Fall deutlich, dass beide Systemedie Erde und das Biologische – einerseits unabhängig voneinander sind, dass sie aber faktisch durch die Gegenwart des Biologischen auf der Erde (und im Sonnensystem, in der Milchstraße, …) in einer kontinuierlichen Wechselwirkung stehen, die sich dahingehend auswirkt, dass das Biologische eine Form annimmt, die zur Erde passt. Grundsätzlich könnte das Biologische aber auch andere Formen annehmen, würde es in einer anderen Umgebung leben.
  14. Um die Populationsgenerierungsfunktion noch zu vervollständigen, braucht man noch eine ‚Bootstrapping Funktion‘ ‚boot-life()‘, mittels der überhaupt das Biologische auf der Erde ‚eingeführt‘ wird:
  15. boot-life : EARTH —–> EARTH x POP (auch geschrieben: POP(t=1) = boot-life(POP(t=0)) ):= wie die allerneuesten Forschungen nahelegen, konnten sich unter bestimmten Bedingungen (z.B. unterseeische Gesteinsformationen, vulkanisches Wasser, …) verschiedene Molekülverbände zu komplexen Molekülverbänden so zusammen schließen, dass irgendwann ‚lebensfähige‘ – sprich: reproduktionsfähige – Zellen entstanden sind, die eine Anfangspopulation gebildet haben. Auf diese Anfangspopulation kann dann die Populationsgenerierungsfunktion ‚o‘ angewendet werden.

DISKUSSION FORTSETZUNG: HIER KAP.9

  1. Die Verwendung des Ausdrucks ‚Erkennung/ Erkennen‘ (‚recogniton‘) in Nr. 2 erscheint mir sehr gewagt, da die übliche Verwendungsweise des Ausdrucks ‚Erkennung‘ ein menschliches Subjekt voraussetzt, das im Rahmen seines Bewusstseins und dem zugehörigen – weitgehend unbewussten – ‚Kognitiven System‘ die wahrgenommenen – äußerliche (Sinnesorgane) wie innerliche (Körpersensoren) – Ereignisse ‚interpretiert‘ auf der Basis der ‚bisherigen Erfahrungen‘ und im Rahmen der spezifischen Prozeduren des ‚kognitiven Systems‘. Das von Edelman unterstellte ’selektive System‘ bezieht sich primär auf Strukturen, die sich ‚evolutiv‘ ausbilden oder aber ’somatisch‘ auf die Arbeitsweise des Gehirns, wie es sich im ‚laufenden Betrieb‘ organisiert. Das somatische System ist aber Teil des weitgehend ‚unbewussten kognitiven Systems‘, das in der alltäglichen Verwendung des Begriffs ‚Erkennung‘ ohne jegliche Bezugnahme auf die Details der Maschinerie einfach voraussetzt wird. Im Alltag liegt hier die Aufspaltung der Wirklichkeit in den bewussten Teil und den unbewussten vor, dessen wir uns – normalerweise – im alltäglichen ‚Vollzug‘ nicht bewusst sind (daher ja ‚unbewusst‘). Wenn Edelman also hier einen Ausdruck wie ‚Erkennung‘ aus dem ‚bewussten Verwendungszusammenhang‘ einfach so, ohne Kommentar, für einen ‚unbewussten Verwendungszusammenhang‘ benutzt, dann kann dies nachfolgend zu nachhaltigen Verwirrungen führen.

  2. Der Punkt (3) von Edelman ist absolut fundamental. An ihm hängt alles andere.

  3. Der Punkt (4) spiegelt ein anderes fundamentales Verhältnis wieder, das Edelman immer und immer wieder thematisiert: das Verhältnis von Psychologie (die Wissenschaft vom Verhalten) und Physiologie (die Wissenschaft vom Körper, speziell vom Gehirn). Alle Eigenschaftszuschreibungen, die die Psychologie vornimmt (wie z.B. mit dem Ausdruck ‚Intelligenz‘, ‚Intelligenzquotient‘, ‚Reflex‘, usw.), basieren auf empirischen Beobachtungen von realem Verhalten von realen Menschen, die dann im Rahmen expliziter (formaler = mathematischer) Modelle/ Theorien in Beziehungen eingebracht werden. Die Psychologie schaut nicht (!) in das ‚Innere‘ des Systems. Das tut die Physiologie. Die Physiologie untersucht die Struktur und die Dynamik des Körpers; dazu gehört auch das Gehirn. Und auch die Physiologie sammelt empirische Daten von den Körperprozessen (z.B. wie ein Neuron zusammengesetzt ist, wie es physikalisch, chemisch, mikrobiologisch usw. funktioniert) und versucht diese empirische Daten in explizite Modelle/ Theorien einzubauen. Im Idealfall haben wir dann eine psychologische Theorie T_psych über beobachtbares Verhalten mit theoretisch unterstellten möglichen Faktoren ‚hinter‘ dem Verhalten, und parallel eine physiologische Theorie T_phys über körperinterne Prozesse, die die verschiedenen Einzelbeobachtungen in einen ‚Zusammenhang‘ bringen. Was wir aber NICHT haben, das ist eine Erklärung des Zusammenhangs ZWISCHEN beiden Theorien! Die Gegenstandsbereiche ‚beobachtbares Verhalten‘ und ‚beobachtbare Körperprozesse‘ sind zunächst voneinander völlig abgeschottet. Spontan vermutet man natürlich, dass es zwischen Gehirnprozessen, hormonellen Prozessen, Atmung usw. und dem beobachtbaren Verhalten einen Zusammenhang gibt, aber diesen Zusammenhang EXPLIZIT zu machen, das ist eine eigenständige Leistung mit einer ‚Brückentheorie‘ T_physpsych(T_phys, T_psych), in der dieser Zusammenhang ausdrücklich gemacht wird. Es gibt dazu sogar Ausdrücke wie ‚Psychosomatik‘, ‚Neuropsychologie‘, aber die dazu gehörigen Texte kommen bislang nicht als explizite ‚Brückentheorie‘ daher. Und wenn Edelman hier ausdrücklich die Ausdrücke ‚Wahrnehmung, ‚Gedächtnis‘, ‚Bewusstseins‘, ‚Sprache‘ nennt, dann handelt es sich ausnahmslos um hochkomplexe Sachverhalte, zu denen es bislang keine hinreichende psychologische Theorien gibt, wenngleich beeindruckende Forschungen und Forschungsansätze. Festzustellen, dass eine physiologische Theorie des Gehirns Erklärungsansätze liefern müsse, wie diese psychologischen Phänomene zu ‚erklären‘ seien ist folgerichtig, aber aktuell schwierig, da die Psychologie diese Phänomene noch keineswegs zweifelsfrei abklären konnte. Am weitesten fortgeschritten sind  möglicherweise die psychologischen Forschungen zur ‚Wahrnehmung‘, zum ‚Gedächtnis‘, und irgendwie zu ‚Sprache‘, kaum zu ‚Bewusstsein‘ und dem Verhältnis zum ‚Unbewussten‘.

  4. Die beiden in (5) aufgeführten metatheoretischen (= wissenschaftsphilosophischen) Postulate sind so, wie sie Edelman formuliert, mindestens missverständlich und darum Quelle möglicher gravierender Fehler. Die Verortung von wissenschaftlichen Aussagen in der ‚physikalischen‘ Welt und von speziell psychologischen Aussagen in den ‚physiologischen Prozessen des Körpers‘ sind als solche sicher kompatibel mit dem bisherigen Verständnis von empirischer Wissenschaft generell. Allerdings, wie gerade im vorausgehenden Punkt (C) dargelegt, gibt es empirische Datenbereiche (hier: Verhaltensdaten, Körperprozesse), die direkt zunächst nichts miteinander zu tun haben. Die auf diesen unterschiedlichen Datenbereichen beruhenden Modell-/ Theoriebildungen sind von daher zunächst UNABHÄNGIG voneinander und haben ihre wissenschaftliche Daseinsberechtigung. Zu wünschen und zu fordern, dass zwei zunächst methodisch unabhängige Modelle/ Theorien T_psych und T_phys miteinander in Beziehung gesetzt werden, das liegt ‚in der Natur des wissenschaftlichen Verstehenwollens‘, aber dies wäre eine zusätzliche Theoriedimension, die die beiden anderen Teiltheorien VORAUSSETZT. Dieser methodisch-logische Zusammenhang wird in der Formulierung von Edelmann nicht sichtbar und kann dazu führen, dass man eine wichtige Voraussetzung der gewünschten Erklärungsleistung übersieht, übergeht, und damit das Ziel schon im Ansatz verfehlt.

  5. Dass – wie in (6) behauptet – die ‚Theorie der neuronalen Gruppen Selektion (TNGS)‘ jene Erklärung liefere, die die psychologischen Theorien ‚erklärt‘ ist von daher methodisch auf jeden Fall falsch. Allerdings kann man die Position von Edelman dahingehend verstehen, dass die TNGS ein physiologisches Modell liefere (was die große Schwäche besitzt, dass weder der übrige Körper, von dem das Gehirn nur ein verschwindend kleiner Teil ist, noch die jeweilige Umgebung einbezogen sind), das im Rahmen einer T_physpsych-Brückentheorie entscheidende Beiträge für solche einen Zusammenhang liefern könnte. Letzteres scheint mir in der Tat nicht ganz ausgeschlossen.

  6. In den Punkten (7) – (12) beschreibt Edelman drei Phasen der Strukturbildung, wie es zu jenen physiologischen Strukturen kommen kann, die dann – unterstellt – dem beobachtbaren Verhalten ‚zugrunde‘ liegen. Allerdings, für das aktuell beobachtbare Verhalten spielen die verschiedenen Entstehungsphasen keine Rolle, sondern nur der ‚Endzustand‘ der Struktur, die dann das aktuelle Verhalten – unterstellt – ‚ermöglicht. Der Endzustand ist das Gehirn mit seinen neuronalen Verschaltungen, seinen Versorgungsstrukturen und seiner anhaltenden ‚Plastizität‘, die auf Ereignismengen reagiert. Aus den Punkten (7) – (12) geht nicht hervor, wo und wie diese Strukturen das ‚Bewusstsein erklären‘ können.

  7. Wenn Edelman in (13) meint, dass seine neuronalen Karten mit den reziproken Verbindungen eine Grundlage für das psychologische Konzept des Gedächtnisses liefern können, dann ist dies sicher eine interessante Arbeitshypothese für eine mögliche Brückentheorie, aber die müsste man erst einmal formulieren, was wiederum eine psychologische Theorie des Gedächtnisses voraussetzt; eine solche gibt es bislang aber nicht.

  8. Der Punkt (14) adressiert mögliche Details seiner Modellvorstellung von neuronalen Karten mit reziproken Verbindungen.

  9. Der Punkt (15) greift das Thema von Punkt (13) nochmals auf. Die ‚Kategorisierung von Wahrnehmungsereignissen‘ ist letztlich nicht von dem Thema ‚Gedächtnis isolierbar. Er zitiert im Postskript auch viele namhafte PsychologenInnen, die dazu geforscht haben. Die Kerneinsicht dieser empirischen Forschungen geht dahin, dass sich solche Strukturen, die wir ‚Kategorien‘ nennen, ‚dynamisch‘ herausbilden, getriggert von konkreten Wahrnehmungsereignissen, die bei jedem individuell verschieden sind. Natürlich liegt hier die Vermutung nahe, dass entsprechend dynamische Strukturen im Körper, im Gehirn, vorhanden sein müssen, die dies ermöglichen. Dass hier Psychologie und Physiologie Hand-in-Hand arbeiten können, liegt auch auf der Hand. Aber dies stellt erhebliche methodische Herausforderungen, die Edelman kaum bis gar nicht adressiert.

  10. In Punkt (16 – 18) beschreibt Edelman auf informelle Weise, wie er sich das Zusammenspiel von psychologischen Eigenschaften (die eine explizite psychologische Theorie T_psych voraussetzen) und seinem neuronalen Modell (für das er eine physiologische Theorie T_phys beansprucht) vorstellt. Auf dieser informellen Ebene wirkt seine Argumentation zunächst mal ‚plausibel‘.

  11. Ab Punkt (19) berührt Edelman jetzt einen weiteren Fundamentalpunkt, der bis heute generell ungeklärt erscheint. Es geht um die Frage der ‚Werte‘, die ein Verhalten in einem gegeben Möglichkeitsraum in eine bestimmte ‚Richtung‘ anregen/ drängen …. (es gibt dafür eigentlich kein richtiges Wort!), so dass das System einem neuen Zustandsraum erreicht, der für es ‚günstiger‘ ist als ein anderer, auf jeden Fall ‚das Leben ermöglicht‘. Die Evolutionstheorie hat über das Phänomen der hinreichenden ‚Nachkommen‘ ein ‚operationales Kriterium‘ gefunden, mit dem sich der Ausdruck ‚Fitness‘ mit Bedeutung aufladen lässt. Über das ‚Überleben‘ bzw. ‚Nicht-Überleben‘ wirkt sich dies indirekt auf den Genotyp aus: die ‚günstigen‘ Genotypen überleben und die ’nicht günstigen‘ sterben aus. Ein ‚überlebender‘ Genotyp – einen, den man ‚fit‘ nennt – triggert dann den embryonalen Prozess und den darin gründenden ‚Entwicklungsprozess‘, der in einer ’nicht-deterministischen‘ Weise Körper- und damit Gehirnstrukturen entstehen lässt, die auf individueller Ebene immer verschieden sind. Jene Gehirnstrukturen, die für lebenserhaltende Systeme wichtig sind (letztlich die gesamte Körperarchitektur und das Zusammenspiel aller Komponenten untereinander) werden aber – trotz des nicht-deterministischen Charakters – offensichtlich dennoch herausgebildet. In all diesem lässt sich kein ‚geheimnisvoller Faktor‘ erkennen und er erscheint auch nicht notwendig. Das System ‚als Ganzes‘ repräsentiert ein ‚Erfolgsmodell‘. Hier jetzt – wie Edelman es versucht – im konkreten Details nach ‚Orten von Präferenzen‘ zu suchen erscheint unplausibel und seine Argumentation ist auch nicht schlüssig. Wenn Edelman ‚interne Kriterien für werthaftes Verhalten‘ postuliert, die genetisch bedingt sein sollen, dann postuliert er hier Eigenschaften, die sich nicht aus der Biochemie der Prozesse herauslesen lassen. Was er hier postuliert ist so eine Art   ‚genetischer Homunculus‘. Damit widerspricht er letztlich seinen eigenen wissenschaftlichen Überzeugungen. Letztlich ist es nur ein ‚Genotyp als ganzer‘, der ein ‚bislang erfolgreichen Phänotyp‘ repräsentiert. Scheiter er irgendwann – was auf lange Sicht der Normalfall ist, da die Erde sich ändert –, dann verschwindet der Genotyp einfach; jener, der ‚überlebt‘, verkörpert als ‚Ganzer‘ ein Erfolgsmodell, nicht ein einzelner, isolierter Aspekt. Mit dieser empirisch-wissenschaftlichen Sicht verschwinden die ‚Werte‘ zwar ‚aus dem System‘, aber das übergeordnete ’system-transzendente‘ Verhältnis zwischen System und Umwelt bleibt weiter erhalten und es ist dieses Verhältnis, das alleine darüber entscheidet, ob etwas ‚Leben-Ermöglichendes‘ ist oder nicht. Damit erweitert sich die Fragestellung nach der ‚Verortung möglicher Präferenzen‘ deutlich, wenn man das empirisch neue Phänomen des Bewusstseins einbezieht (das nur in Kombination mit einem Unbewussten auftritt!). Während die Umwelt-System-Beziehung primär über das Überleben entscheidet, ermöglicht das Bewusstsein in Kombination mit dem Unbewussten (z.B. dem Gedächtnis) eine ‚Extraktion‘ von Eigenschaften, Beziehungen, Dynamiken und mit kombinatorischen Varianten von dieser Umwelt-System-Beziehung, so dass eine kommunizierende Gruppe von Homo sapiens Exemplaren von nun an mögliche Zukünfte schon in der Gegenwart bis zu einem gewissen Graf ‚voraus anschauen‘ und auf ‚Lebensfähigkeit‘ ‚testen‘ kann. Insofern stellt das Bewusstsein und die Kommunikation eine radikale Erweiterung der Überlebensfähigkeit dar, nicht nur für den Homo sapiens selbst, sondern auch für die Gesamtheit des biologischen Lebens auf der Erde! Mit dem Ereignis Homo sapiens tritt das biologische Leben auf der Erde (und damit im ganzen Universum!?) in eine radikal neue Phase. Edelmans Versuch, ‚Werte‘ in einzelnen genetischen Strukturen und dann in einzelnen Strukturen des Gehirns zu finden wirken von daher unlogisch und abwegig. Edelmans Beispiele in den Punkten (20) – (23) können nicht klarmachen, wie diese interne Präferenzsystem funktionieren soll (ich werde diesen Punkt an konkreten Systemen nochmals selbst durchspielen).

  12. Zusammenfassend würde ich für mich den Text von Edelman so interpretieren, dass (i) seine Skizze der neuronalen Maschinerie mit den reziproken Verbindungen und den unterschiedlichen Verschaltungen ganzer Karten ein interessanter Ansatzpunkt ist, für ein neuronales Modell, das in einer psychologisch-physiologischen Brückentheorie getestet werden könnte und sollte, sein Versuch aber (ii), die Wertefrage in biochemische Prozesse verorten zu wollen, ist in mehrfachem Sinne unplausibel, methodisch unklar und führt vom Problem eher weg.

DISKUSSION FORTSETZUNG: KAP.10

  1. Aus wissenschaftsphilosophischer Sicht ist das Kapitel 10 sehr aufschlussreich. Der in den vorausgehenden Kapiteln immer wieder angedeutete Brückenschlag zwischen Physiologie (mit Gehirnforschung) und Psychologie (verhaltensorientiert) wird in diesem Kapitel ein wenig ‚anfassbarer‘. Allerdings nicht in dem Sinne, dass der Brückenschlag nun explizit erklärt wird, aber so, dass einerseits die Begrifflichkeit auf psychologischer Seite und andererseits die Begrifflichkeit auf physiologischer Seite etwas ausdifferenziert wird. Die Beschreibung der Beziehung zwischen beiden Begrifflichkeiten verbleibt im Bereich informeller Andeutungen bzw. in Form von Postulaten, dass die zuvor geschilderte physiologische Maschinerie in der Lage sei, die angedeuteten psychologischen Strukturen in ihrer Dynamik zu ‚erklären‘.

  2. Am Ende des Kapitels 10, mehr nur in Form einer kurzen Andeutung, in einer Art Fußnote, bringt Edelman noch die Begriffe ‚Intentionalität‘ und ‚Bewusstsein‘ ins Spiel, allerdings ohne jedwede Motivation, ohne jedwede Erklärung. Diese Begriffe entstammen einen ganz anderen Sprachspiel als dem zuvor besprochenen physiologischen oder psychologischem Sprachspiel; sie gehören zum philosophischen Sprachspiel, und die Behauptung Edelmans, dass man auch diese Wortmarken aus dem philosophischen Sprachspiel in ein Erklärungsmuster einbeziehen könnte, das seine Grundlage in dem physiologischen Modell Begriffe_NN habe, ist an dieser Stelle ein reines Postulat ohne jeglichen Begründungsansatz.

  3. Wissenschaftsphilosophisch kann man hier festhalten, dass man drei Sprachspiele unterscheiden muss:

    1. Ein psychologisches Sprachspiel, das von Verhaltensdaten DAT_B ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_B einführt (Modelle, Theorien), um die Verhaltensdaten zu erklären.

    2. Ein physiologisches Sprachspiel, das von physiologischen Daten DAT_NN ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_NN einführt (Modelle, Theorien), um die Prozesse der physiologischen Strukturen (Gehirn) zu erklären.

    3. Ein phänomenologisches Sprachspiel (Teilbereich der Philosophie), das von phänomenologischen Daten DAT_PH ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_PH einführt (Modelle, Theorien), um die Prozesse der phänomenologischen Strukturen (Bewusstsein) zu erklären.

  4. Diese Sprachspiele kann man isoliert, jedes für sich betreiben. Man kann aber auch versuchen, zwischen den verschiedenen Sprachspielen ‚Brücken‘ zu bauen in Form von ‚Interpretationsfunktionen‘, also:

    1. Zwischen Psychologie und Physiologie: Interpretationsfunktion Interpretation_B_NN : Begriffe_B <—> Begriffe_NN

    2. Zwischen Psychologie und Phänomenologie: Interpretationsfunktion Interpretation_B_PH : Begriffe_B <—> Begriffe_PH

    3. Zwischen Phänomenologie und Physiologie: Interpretationsfunktion Interpretation_PH_NN : Begriffe_PH <—> Begriffe_NN

  5. Man muss festhalten, dass es bis heute (2018) solche Interpretationsfunktionen als explizite Theorien noch nicht gibt; genauso wenig gibt es die einzelnen Theorien Begriffe_X (X=B, PH, NN) als explizite Theorien, obgleich es unfassbare viele Daten und partielle (meist informelle) Beschreibungen gibt.

Fortsetzung folgt

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

ZUR ENTDECKUNG DER VERGANGENHEIT UND ZUKUNFT IN DER GEGENWART. Zwischenbemerkung

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 10.Dez. 2017
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: cagent
Email: cagent@cognitiveagent.org

PDF

IDEE

Wenn man gedanklich in komplexen Strukturen unterwegs ist, kann es bisweilen helfen, sich zwischen drin bewusst zu machen, wo man gerade steht,
worum es eigentlich geht. Dies ist so ein Moment.

I. BILDERFLUT AUS MÖGLICHKEIT

Wir leben in einer Zeit, wo die Technik die
Möglichkeit eröffnet hat, Bilder zu erschaffen, die
mehr oder weniger alles zum Gegenstand haben, auch
Unsinniges, Idiotisches, reinste Fantasien, explizite
Lügen, Verleumdungen, … und für einen normalen homo
sapiens, der – bei intaktem Sehvermögen – primär ein
visuell orientiertes Lebewesen ist, führt diese Bilderflut
dazu, dass die wahre Realität sich immer mehr auflöst
in dieser Bildersuppe. Selbst wenn die Bilder noch als
Science Fiction, Fantasy, Crime, … gelabelt werden, im
Gehirn entsteht eine Bildersuppe, wo sich wahres Reales
mit Irrealem zu einem Gebräu mischt, das den Besitzer
dieses Gehirns in einen Dauerzustand der zunehmenden
Desorientierung versetzt. Der einzelne Bildproduzent
mag vielleicht sogar redliche Absichten haben, aber die
Masse der irrealen Bilder folgt ihren eigenen Gesetzen.
Das einzelne Gehirn verliert Orientierungsmarken.
Die Bereitschaft und Neigung von Menschen aller
Bildungsschichten selbst mit Doktortiteln (!), beliebig
wirre populistische, fundamentalistische oder esoterische
Anschauungen über die Welt als ’wahr’ zu übernehmen,
ist manifest und erschreckend. Wenn die grundlegenden
Wahrheitsfähigkeit von Menschen versagt, weil das
Gehirn über zu wenig verlässlich Ankerpunkte in der
Realität verfügt, dann ist alles möglich. Ein alter Lehrsatz
aus der Logik besagt: Aus Falschem folgt alles.

More than Noise – But What?

II. RÜCKERINNERUNG AN DIE WAHRHEIT

In einem vorausgehenden – eher grundlegenden –
Blogeintrag sind jene elementaren Grundstrukturen angesprochen worden, durch die jeder homo sapiens eine elementare Wahrheitsfähigkeit besitzt, auch in
Kommunikation und Kooperation mit anderen.
Aus diesem Text geht hervor, dass es grundsätzlich
möglich ist, dass dies aber kein Selbstgänger ist,
keinen Automatismus darstellt. Das Gelingen von
Wahrheit erfordert höchste Konzentration, erfordert
kontinuierliche Anstrengung, und vor allem auch das
Zusammenspiel vieler Faktoren. Moderne Demokratien
mit einer funktionierenden Öffentlichkeit, mit einem
ausgebauten Bildungs- und Forschungssystem kommen
diesen wissenschaftsphilosophischen Anforderungen
bislang am nächsten.

Wer die Bedeutung dieser Mechanismen zur
Voraussetzung von Wahrheit kennt und sich die
reale Welt anschaut, der kann weltweit eine
starke Rückentwicklung dieser Strukturen und
Prozesse beobachten, eine weltweite Regression
von Wahrheitsprozessen. Die Folgen sind schon jetzt
katastrophal und werden sich eher verstärken. Den Preis
werden letztlich alle zahlen. Wer glaubt, man könne sich
in einem Teilprozess isolieren, der täuscht sich.
Allerdings, im Fall der Wahrheit gelten andere Regel
als rein physikalische: Wahrheit selbst ist ein nicht-
physikalisch beschreibbares Phänomen. Es entstand
gegen alle Physik, es entstand auf eine Weise, die wir
bislang noch nicht richtig verstehen, und es macht im
Ansatz alle zu Verlierern, die sich außerhalb stellen.
Genauso irrational, wie sich weltweit eine Regression
von Wahrheit ereignen kann – und aktuell ereignet –,
genauso bizarr ist zugleich, warum so viele Mächtige
solch eine ungeheure Angst vor Wahrheit haben
(schon immer). Warum eigentlich? Warum gibt es
diesen ungeheuren Drang dazu, andere Menschen
zu kontrollieren, Ihnen Meinungen und Verhalten
vorzuschreiben, Algorithmen zu entwickeln, die die
Menschen in Richtungen leiten sollen, die schon falsch
sind, als sie ausgedacht wurden?

Solange es nur einen einzigen Menschen auf dem
Planet Erde gibt, so lange gibt es die Chance für
Wahrheit. Und so lange es die Chance für Wahrheit gibt,
muss jeder, der Wahrheit verrät, unterdrückt, verleugnet
sich als Verräter sehen, als Feind des Lebens.

More Beyond Noise – How Far away? Which kind of Distance?

III. UNIVERSUM – ERDE – LEBEN

Wenn man zu ahnen beginnt, wie kostbar Wahrheit
ist, wie schwierig sie zu gewinnen ist, und wenn man
weiß, wie viele Milliarden Jahre das Leben auf der
Erde gebraucht hat, um wahrheitsfähig zu werden, auch
noch in den späten Phase der Lebensform homo bzw.
dann des homo sapiens, dann kann man umgekehrt
zu einer geradezu andächtigen Haltung finden, wenn
man sich anschaut, was die modernen experimentellen
Wissenschaften im Laufe der letzten Jahrhundert, sogar
erst in den letzten Jahrzehnten (!!!) alles offenlegen
konnten.

Man bedenke, was wir primär wahrnehmen, das
ist Gegenwart, und die unfassbaren Blicke zurück in
die Vergangenheit der Evolution des Lebens und des
Universums (und möglicher weiterer Universen) liegen
nicht auf der Straße! Die Gegenwart ist Gegenwart und
ihr, der Gegenwart, Hinweise auf eine Zeit davor zu
entlocken, das war – und ist – eine der größten geistigen
Leistungen des homo sapiens.

Die Vergangenheit kann sich ja niemals direkt zeigen,
sondern immer nur dann, wenn eine bestimmte Zeit
mit ihren Strukturen und Prozessen Artefakte erzeugt
hat, die im Fluss der Zeit dann später als Spuren,
Hinweise, vorkommen, die ein Lebewesen dieser neuen
Gegenwart dann auch als Hinweise auf eine andere Zeit
erkennt.

So hat die Geologie irgendwann bemerkt, dass die
verschiedenen Gesteinsschichten möglicherweise
Ablagerungen aus vorausgehenden Zeiten sind.
Entsprechend haben die Biologen aus Versteinerungen
auf biologische Lebensformen schließen können,
die ’früher einmal’ gelebt hatten, heute aber nicht
mehr oder, heute auch, aber eventuell verändert. Die
Physik entdeckte, dass aufgrund der unterschiedlichen
Leuchtkraft gleicher Sternphänomene große Entfernungen im Universum anzunehmen sind, und mit der Fixierung der Geschwindigkeit des Lichts konnte
man auch auf Zeiten schließen, aus denen dieses Licht
gekommen sein muss: man war plötzlich bei vielen
Milliarden Jahren vor der Gegenwart.
Diese wenigen und vereinfachten Beispiele können
andeuten, dass und wie in der Gegenwart Zeichen einer
Vergangenheit aufleuchten können, die unsere inneren
Augen des Verstehens in die Lage versetzen, die scheinbare Absolutheit der Gegenwart zu überwinden und langsam zu begreifen, dass die Gegenwart nur
ein Moment in einer langen, sehr langen Kette von
Momenten ist, und dass es Muster zu geben scheint,
Regeln, Gesetze, Dynamiken, die man beschreiben
kann, die ansatzweise verstehbar machen, warum dies
alles heute ist, wie es ist.

Es versteht sich von selbst, dass diese unfassbaren
Erkenntnisleistungen der letzten Jahrzehnte nicht nur
möglich wurden, weil der Mensch qua Mensch über
eine grundlegende Wahrheitsfähigkeit verfügt, sondern
weil der Mensch im Laufe der letzten Jahrtausende
vielerlei Techniken, Abläufe ausgebildet hat, die ihm
bei diesen Erkenntnisprozessen unterstützen. Man
findet sie im technischen Bereich (Messgeräte, Computer,
Datenbanken, Produktionsprozesse, Materialtechniken, …..), im institutionellen Training
(langwierige Bildungsprozesse mit immer feineren
Spezialisierungen), in staatlichen Förderbereichen, aber
auch – und vielleicht vor allem! – in einer Verbesserung
der Denktechniken, und hier am wichtigsten die
Ausbildung leistungsfähiger formaler Sprachen in vielen
Bereichen, zentral die Entwicklung der modernen
Mathematik. Ohne die moderne Mathematik und formale
Logik wäre fast nichts von all dem möglich geworden,
was moderne Wissenschaft ausmacht.

Wenn man um die zentrale Rolle der modernen
Mathematik weiß und dann sieht, welche geringe Wertschätzung Mathematik sowohl im
Ausbildungssystem wie in der gesamten Kultur einer
Gesellschaft (auch in Deutschland) genießt, dann kann
man auch hier sehr wohl von einem Teilaspekt der
allgemeinen Regression von Wahrheit sprechen.(Anmerkung: Es wäre mal eine interessante empirische Untersuchung, wie viel
Prozent einer Bevölkerung überhaupt weiß, was Mathematik ist. Leider
muss man feststellen, dass das, was in den Schulen als Mathematik
verkauft wird, oft nicht viel mit Mathematik zu tun hat, sondern mit
irgendwelchen Rechenvorschriften, wie man Zeichen manipuliert, die
man Zahlen nennt. Immerhin, mehr als Nichts.)

Im Zusammenspiel von grundlegender Wahrheitsfähigkeit, eingebettet in komplexe institutionelle Lernprozesse, angereichert mit wissensdienlichen
Technologien, haben die modernen experimentellen
Wissenschaften es also geschafft, durch immer
komplexere Beschreibungen der Phänomene und ihrer
Dynamiken in Form von Modellen bzw. Theorien, den
Gang der Vergangenheit bis zum Heute ansatzweise
plausibel zu machen, sondern auf der Basis dieser
Modelle/ Theorien wurde es auch möglich, ansatzweise
wissenschaftlich begründete Vermutungen über die
Zukunft anzustellen.

In einfachen Fällen, bei wenigen beteiligten Faktoren
mit wenigen internen Freiheitsgraden und für einen
begrenzten Zeithorizont kann man solche Vermutungen ü̈ber die Zukunft (kühn auch Prognosen genannt), einigermaßen überprüfen. Je größer die Zahl der
beteiligten Faktoren, je mehr innere Freiheitsgrade, je
weitreichender der Zeitrahmen, um so schwieriger wir
solch eine Prognose. So erscheint die Berechnung des
Zeitpunktes, ab wann die Aufblähung unserer Sonne
aufgrund von Fusionsprozessen ein biologisches Leben
auf der Erde unmöglich machen wird, relativ sicher
voraussagbar, das Verhalten eines einfachen Tieres in
einer Umgebung über mehr als 24 Stunden dagegen ist
schon fast unmöglich.

Dies kann uns daran erinnern, dass wir es in der
Gegenwart mit sehr unterschiedlichen Systemen zu
tun haben. Das Universum (oder vielleicht sogar die
Universen) mag komplex sein, aber es erweist sich
bislang als grundsätzlich verstehbar, ebenfalls z.B. die
geologischen Prozesse auf unserem Heimatplaneten
Erde; das, was die Biologen Leben nennen, also
biologisches Leben, entzieht sich aber den bekannten
physikalischen Kategorien. Wir haben es hier mit
Dynamiken zu tun, die irgendwie anders sind, ohne dass
es bislang gelingt, diese spezifische Andersheit adäquat
zu erklären.

Life is Energy…

IV. KOGNITIVER BLINDER FLECK

Eine Besonderheit des Gegenstandsbereiches
biologisches Leben ist, dass diejenigen, die es
untersuchen, selbst Teil des Gegenstandes sind.
Die biologischen Forscher, die Biologen – wie überhaupt
alle Forscher dieser Welt – sind selbst ja auch Teil
des Biologischen. Als Exemplare der Lebensform
homo sapiens sind sie ganz klar einer Lebensform
zugeordnet, die ihre eigene typische Geschichte hat,
die sich als homo sapiens ca. 200.000 Jahre entwickelt
hat mit einer Inkubationszeit von ca. 100.000 Jahren, in
denen sich verschiedene ältere Menschenformen verteilt
über ganz Afrika partiell miteinander vermischt haben.
Nach neuesten Erkenntnissen hat dann jener Teil, der
dann vor ca. 60.000/ 70.000 Jahren aus Ostafrika
ausgewandert ist, einige tausend Jahre mit den damals
schon aussterbenden Neandertalern im Gebiet des
heutigen Israel friedlich zusammen gelebt, was durch
Vermischungen dann einige Prozent Neandertaler-Gene
im Genom des homo sapiens hinterließ, und zwar bei
allen Menschen auf der heutigen Welt, die gemessen
wurden.

Die Tatsache, dass die erforschenden Biologen selbst
Teil dessen sind, was sie erforschen, muss nicht per
se ein Problem sein. Es kann aber zu einem Problem
werden, wenn die Biologen Methoden zur Untersuchung
des Phänomens biologisches Leben anwenden, die
für Gegenstandsbereiche entwickelt wurden, die keine
biologischen Gegenstände sind.

In der modernen Biologie wurden bislang sehr
viele grundlegende Methoden angewendet, die
unterschiedlichste Teilbereiche zu erklären scheinen: In
Kooperation mit der Geologie konnte man verschiedenen
Phasen der Erde identifizieren, Bodenbeschaffenheiten,
Klima, Magnetfeld, und vieles mehr. In Kooperation
mit Physik, Chemie und Genetik konnten die
Feinstrukturen von Zellen erfasst werden, ihre
Dynamiken, ihre Wechselwirkungen mit den jeweiligen
Umgebungen, Vererbungsprozesse, Generierung neuer
genetischer Strukturen und vieles mehr. Der immer
komplexere Körperbau konnte von seinen physikalisch-
mechanischen wie auch chemischen Besonderheiten her
immer mehr entschlüsselt werden. Die Physiologie half,
die sich entwickelnden Nervensysteme zu analysieren,
sie in ihrer Wechselwirkung mit dem Organismus
ansatzweise zu verstehen. und vieles mehr.

Die sehr entwickelten Lebensformen, speziell dann
der homo sapiens, zeigen aber dann Dynamiken, die
sich den bisher bekannten und genutzten Methoden
entziehen. Die grundlegende Wahrheitsfähigkeit des
homo sapiens, eingebunden in grundlegende Fähigkeit
zur symbolischen Sprache, zu komplexen Kooperation,
zu komplexen Weltbildern, dies konstituiert Phänomene
einer neuen Qualität. Der biologische Gegenstand homo
sapiens ist ein Gegenstand, der sich selbst erklären
kann, und in dem Maße, wie er sich selbst erklärt,
fängt er an, sich auf eine neue, bis dahin biologisch
unbekannte Weise, zu verändern.

Traditioneller Weise gab es in den letzten
Jahrtausenden spezielle Erklärungsmodelle zum
Phänomen der Geistigkeit des homo sapiens, die
man – vereinfachend – unter dem Begriff klassisch-
philosophische Erklärung zusammen fassen kann.
Dieses Erklärungsmodell beginnt im Subjektiven und
hat immer versucht, die gesamte Wirklichkeit aus der
Perspektive des Subjektiven zu erklären.

Die Werke der großen Philosophen – beginnend
mit den Griechen – sind denkerische Großtaten,
die bis heute beeindrucken können. Sie leiden
allerdings alle an der Tatsache, dass man aus der
Perspektive des Subjektiven heraus von vornherein
auf wichtige grundlegende Erkenntnisse verzichtet
hatte (in einer Art methodischen Selbstbeschränkung,
analog der methodischen Selbstbeschränkung der
modernen experimentellen Wissenschaften). Das,
was diese subjekt-basierte und subjekt-orientierte
Philosophie im Laufe der Jahrtausende bislang erkannt
hat, wird dadurch nicht falsch, aber es leidet daran,
dass es nur einen Ausschnitt beschreibt ohne seine
Fundierungsprozesse.

Eigentlich ist das Subjektive (oder das ’Geistige’,
wie die philosophische Tradition gerne sagt) das
schwierigste Phänomen für die moderne Wissenschaft, das provozierendste, aber durch die frühzeitige Selbstbeschränkung der Biologie auf die bisherigen
Methoden und zugleich durch die Selbstbeschränkung
der klassischen Philosophie auf das Subjektive wird
das Phänomen des Lebens seiner Radikalität beraubt.
Es wird sozusagen schon in einer Vor-Verabredung der
Wissenschaften entmündigt.

In einem Folgeartikel sollte dieser blinde Fleck der
Wissenschaften in Verabredung mit der Philosophie
nochmals direkt adressiert werden, etwa: Das Subjektive
im Universum: Maximaler Störfall oder Sichtbarwerdung
von etwas radikal Neuem?

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

Die Wiederentdeckung Gottes auf dem Planeten Erde für alle denkbaren Universen. Essay. Teil 2

Wahrheit ist nicht Alles

  1. Im vorausgehenden Teil  ist anhand einfacher Sprachbeispiele aus dem Alltag verdeutlicht worden, was alles zu einer ‚wahren‘ Äußerung gehört, und wie schwierig es ist, dass zwei Menschen die Voraussetzungen zu einer wahren Aussage erfüllen.
  2. In diesem Abschnitt wird aufgezeigt, wie das sprachliche Geschehen eingebettet ist in einen Kontext von Bewusstsein, Gehirn, Körper vielstufiger (hypothetisch angenommener) Außenwelt, die durch vielfältige soziale Strukturen zusätzlich angereichert sein kann und meistens ist. Alle diese Strukturen sind zugleich wirksam und spielen auf je spezifische Weise ineinander. Je mehr man dieses komplexen Netzwerke von Interaktionen versteht, um so mehr erscheint es einerseits fast unmöglich, dass überhaupt sogenannte ‚wahre‘ Aussagen zwischen Menschen zustande kommen können, auf der anderen Seite grenzt es an ein Wunder, wenn sie denn zustande kommen.
  3. Die folgenden Überlegungen erheben nicht (!) den Anspruch auf eine vollständige Erläuterungen aller Details (das müssen standardmäßig die Einzelwissenschaften leisten), sondern bilden den Versuch, die übergreifenden Zusammenhänge sichtbar zu machen, die man verstehen sollte (dazu als Hilfe das Schaubild Nr.1).
    Wissen und das Andere des Wissens

    Bild Nr.1 Wissen und das Andere des Wissens

     

    Wissen

  4. Die Sprachbeispiele aus dem vorausgehenden Abschnitt hatten schon gezeigt, dass man unterscheiden muss zwischen den sprachlichen Ausdrücken E als solchen und dem Sachverhalt Xe in der unterstellten Außenwelt. Dabei wurde ferner deutlich, dass es neben dem eigentlichen Sachverhalt, der in der Außenwelt vorliegen kann oder nicht, eine subjektive Bedeutung Y zum Ausdrucks E geben muss, die der einzelne Sprecher/Hörer für sich gelernt hat. Nur unter Voraussetzung dieser subjektiven Bedeutung Y kann ein Sprecher/ Hörer entscheiden, ob ein wahrgenommener Sachverhalt Xe mit der Bedeutung Y korrespondiert oder nicht. Und da diese Operationen sich nur im Gehirn abspielen können, wird die subjektive Bedeutung Y nicht direkt mit der Außenwelt verglichen, sondern mit der subjektiven Wahrnehmung Xs des unterstellten Sachverhalts Xe. Dass einer subjektive Wahrnehmung Xs tatsächlich ein Xe in der Außenwelt entspricht wird durch die Reaktion anderer Sprecher/ Hörer bestätigt, wenn diese den unterstellten Sachverhalt Xe auch wahrnehmen können.
  5. Diese Überlegungen führten zur Annahme der Menge der Phänomene PH, die jeder Sprecher/ Hörer in seinem Gehirn hat; sie werden entweder von sensorischen Ereignissen gespeist oder von internen Vorgängen im Gehirn (z.B. erinnern). Diese Phänomene sind subjektiv bewusst und konstituieren im Kern das, was man gewöhnlich Bewusstsein nennt. Phänomene können ‚konkret‘ sein, oder verallgemeinerte, abstrahierte ‚Strukturen‘ darstellen oder gar komplexe ‚Modelle‘ sein, innerhalb deren vielerlei Elemente in Beziehung gesetzt werden.
  6. Sofern die Strukturen des Bewusstseins gegenständlich sind, objekthaft, dazu noch verknüpft mit sprachlichen Strukturen, handelt es sich um Strukturen, die Wissen repräsentieren. Man kann z.B. Gegenstände und Eigenschaften benennen, Beziehungen zwischen Objekten, Muster, Abläufe; man kann alternative Szenarien denken oder aktuelle Zustände im Hinblick auf die vorausgehenden Zustände rekonstruieren. Dies alles ergibt aber keinerlei Präferenzen für irgend eine Bevorzugung, für irgend eine Wahl, welche Aspekte des wißbaren Möglichkeitsraumes man ‚bevorzugen‘ sollte. Wissen als solches kann aufzeigen was war oder was möglich ist, es reicht aber nicht aus, eine ‚Richtung‘ für den zukünftigen Prozess anzugeben.
  7. Dazu kommt noch ein limitierender Faktor im Zugriff auf das Wissen. Im Bewusstsein finden sich aktuelle Phänomene, die in diesem Augenblick bewusst sind. Am Beispiel des Phänomens ‚Erinnern‘ wissen wir aber, dass wir aktuell immer nur einen kleinen Bruchteil von all dem bewusst haben, was wir potentiell bewusst haben könnten. Ob wir tatsächlich etwas erinnern können, wissen wir erst, wenn wir wirklich etwas erinnern. Wie groß das tatsächlich abrufbare potentielle Wissen eines Menschen letztlich ist, wissen wir nicht wirklich. Man kann nur Schätzungen berechnen.

    Das Andere zum Wissen

  8. Im Phänomenraum haben wir neben dem ‚Wissen‘ noch andere Phänomene, die hier global als das ‚Andere zum Wissen‚ bezeichnet werden. Es ist eine Vielzahl unterschiedlicher Phänomene, die alle die Eigenschaft haben, dass sie unsere grundlegende Befindlichkeit konstituieren.
  9. Wir können uns eher ‚positiv‘, ‚hoffnungsvoll‘, ‚glücklich‘, ‚freudig‘ usw. erleben oder aber ’negativ‘, hoffnungslos‘, ‚unglücklich‘, ‚freudlos‘ usw.
  10. Zum Teil haben wir den Eindruck, dass das aktuelle Wissen um die Situation und um uns selbst ein Auslöser für die positiven oder negativen Stimmungen sein kann. Dies kann uns zusätzlich anfeuern, inspirieren, unternehmungslustig machen, neugierig, usw. bzw. umgekehrt uns ‚runter ziehen‘, uns ‚lähmen‘, ‚demotivieren‘, usw.
  11. In anderen Fällen sind es körperliche Zustände (‚Schmerzen‘) oder körperliche Vorgänge (‚Hunger‘, ‚Durst‘, ‚Müdigkeit‘, ..), die uns beeinflussen.
  12. In wieder anderen Fällen ist uns möglicherweise nicht direkt klar, was eine bestimmte Stimmungslage in uns auslöst. Der Körper bietet eine Vielzahl von Prozessen, die sich auf unsere Stimmungslage auswirken können, ohne das wir sie unmittelbar in dieser Funktion erkennen könne.
  13. Generell kann man beobachten, dass diese internen Stimmungslagen (mit ihrer riesigen Bandbreite an Varianten) sich grundsätzlich dahingehend auswirken können, ob man überhaupt Wissen entwickelt bzw. was man innerhalb des verfügbaren Wissensraumes präferiert. Diese Einwirkung auf den Wissensraum kann dem Betreffenden weitgehend bewusst sein, oder aber eher nicht, fast unbewusst; die berühmten ‚Bauchentscheidungen‘. Ob eine Entscheidung eher ‚mit Bewusstsein‘ erfolgt oder eher ‚kaum bewusst‘ muss nichts über die Qualität der Entscheidung aussagen.
  14. Dies hat damit zu tun, dass die Einwirkung des bewussten Wissens von Welt und Selbst auch auf die vielfältigen Stimmungsformen einwirken kann und in einer Art ‚emotionalen Speicher‘ abgelegt werden. Wenn es dann um bestimmte bewusste Vorstellungen geht, was man tun sollte, und ähnliche Situationen im emotionalen Speicher vorhanden sind, dann kann sich jemand daran erinnern und auf dieser Basis eine Präferenz entwickeln, die nicht sehr bewusst sein muss, aber verfügbar und wirksam ist.
  15. Die Schwierigkeit bei solchen eher ‚unklaren emotionalen Einwirkungen‘ ist, dass jegliche Form von Wissen automatisch gespeichert wird, also ohne bewusste Entscheidungen. Dies schließt mit ein, dass auch eher zufällige Konstellation abgespeichert werden, obgleich sie vielleicht ’sinnlos‘ oder gar ‚irreführend‘ sind. Wenn man sich dann ‚kritiklos‘, d.h. eher ’spontan‘ auf solche diffusen emotionalen Erinnerungen einlässt, ist die Wahrscheinlichkeit hoch, dass man Präferenzen zulässt, die wenig konstruktiv sind.
  16. Auf der anderen Seite spielt natürlich die Qualität des verfügbaren Wissens eine Rolle. Wenn jemand nur wenig Wissen zur Verfügung hat, das zudem noch sehr einfach, wenig differenziert ist, dann kann diese Person die Welt in ihrer Vielfalt, in ihren tiefen Verflechtungen, kaum oder gar nicht wahrnehmen; kann nicht angemessen verstehen. Dies kann zu groben Vereinfachungen, Entstellungen, Falschurteilen führen, die im eigenen Fühlen sehr schlechte, negative, zerstörerische Stimmungen erzeugen können, die dann das Ganze noch weiter verstärken. Es kann aber auch sein, dass die ‚einfache‘ Sicht einer komplizierten Situation auch positiv wirkt, weil der/ die Betreffende viele Bedrohungen und Gefahren erst gar nicht wahrnimmt.
  17. Interessant ist noch die Variante, dass sich ein schwaches, einfaches Wissen durch zugleich positive Gefühle dennoch in eine gute Richtung entwickeln könnte. Setzt aber voraus, dass die ‚positiven Stimmung‘ im verfügbaren Wissensraum jene Bereiche und Richtungen favorisieren, die grundsätzlich für den/ die Betreffende(n) vorteilhaft sind.
  18. Damit stellt sich die grundlegende Frage, woher unsere Stimmungen kommen? Beim Wissen haben wir gelernt, dass neben körperlich bedingten Besonderheiten, eigene, aktive Lernprozesse den Erwerb und den Aufbau von Wissen ermöglichen. Dies ist kein einliniger Prozess, da er von einer Vielzahl von Faktoren (und ‚Zufällen‘) bestimmt sein kann.
  19. Bei den Stimmungen, Emotionen ist dies weniger klar. Einiges (Bedürfnisse, Triebe) ist durch Körperprozesse gesteuert; anderes hängt von bio-chemischen Prozessen im Gehirn ab; anderes sind angeborene Instinktmuster, die zu Angst, Lachen, Aggression, Wut, Freue usw. führen. Doch lässt sich nicht immer für alle bekannten Stimmungsphänomene eines der bekannten Erklärungsmuster haftbar machen. Im übrigen wäre es natürlich fatal, wenn der Mensch trotz seines elaborierten Wissens über solche angeborenen Muster hinaus keine weiteren Möglichkeiten besitzen würde, wie im Falle des Wissens auch emotional-stimmungsmäßig im echten Sinne ‚lernen‘ zu können. Bei dem engen Wechselspiel von Wissen und Stimmungen im Gesamt des Handelns wäre es eher merkwürdig, wenn dem offenen Wissensprozess nicht auch irgendwo eine ‚Offenheit im Fühlen‘ entsprechen würde. Bislang gibt es in diese Richtung allerdings noch keinerlei Forschung.

    Gehirn im Körper

  20. Was immer wir über das Bewusstsein und den Raum der Phänomene sagen können, gegenüber den Philosophen der vorausgehenden Jahrhunderte und Jahrtausende wissen wir heute, dass das Bewusstsein eine Leistung des Gehirns ist und dieses Gehirn wiederum ist eingebettet in einen komplexen Körper, der wiederum Teil einer (unterstellten) intersubjektiven Außenwelt ist.
  21. Die modernen Forschungen zum Gehirn und zum Körper haben in diesem Feld auch immer mehr Funktionalitäten am Gehirn aufgedeckt und das Zusammenspiel von Bewusstsein und Gehirn sowie Gehirn und Körper in ersten Ansätzen sichtbar gemacht. Durch die prinzipielle Nicht-Messbarkeit von Bewusstseinsphänomenen ist eine Forschung zum Zusammenhang von Bewusstsein einerseits und Gehirn/ Körper andererseits (Neuropsychologie, Neurophänomenologie) zwar notorisch schwierig, aber immerhin mehren sich Hinweise auf allerlei Wechselwirkungen.
  22. Die wichtigste Einsicht ist wohl jene, dass die bewussten Bilder von der Welt, die wir haben, nicht die Welt selbst sind, sondern jene Bilder/ Modelle, die das Gehirn aufgrund der vielen sensorischen und propriozeptiven (sensorische Daten aus dem Körper) Daten eigenständig interpretiert und zusammenbaut. Dass der einzelne im Alltag weitgehend mit der Illusion leben kann, dass er die ‚reale‘ Welt sieht und nicht nur ein virtuelles Gehirn-Modell der Welt demonstriert, wie gut die Gehirne im Laufe von vielen Millionen Jahren sich entwickelt haben.
  23. Für das praktische Überleben in dieser Welt ist diese Fähigkeit des Gehirns von einer kaum zu überschätzenden positiven Bedeutung. Der Nachteil an dieser Funktionsweise ist, dass all das Wissen, das Menschen sich aufbauen, sich ebenfalls an den virtuellen Bildern des Bewusstseins orientiert und eine Diskrepanz mit der realen Welt nicht so ohne weiteres auffallen muss.
  24. Dass Menschen sich ganz eigenwillige Modelle der Welt in ihrem Kopf zurecht legen, die sie für ‚wahr‘ halten, können wir in allen Jahrhunderten und heute in der ganzen Welt beobachten. Diese Weltbilder können ziemlich verschroben sein, aber Menschen schaffen es, mit solchen verschrobenen Bildern ihre Welt zu sehen, danach zu handeln, und andere Menschen nach diesen falschen Bildern zu be- oder dann auch zu verurteilen.

    Evolution Total

  25. So viel schon ein einzelner Körper, ein einzelner Organismus über die Welt erzählen kann, so richtig spannend wird es erst, wenn man die Dimension der Zeit hinzu nimmt.
  26. Als die Geologen entdeckten, dass die verschiedenen Ablagerungsschichten des Erdreichs aus unterschiedlichen Zeiträumen stammen, dass diese nicht nur ein paar tausend, sondern viele Millionen oder gar Milliarden Jahre auseinander lagen, da eröffnete sich für die Wissenschaft eine grandiose neue Perspektive.
  27. Mit dem immer besseren Verstehen der Erdentwicklung, der Plattenverschiebungen, der unterschiedlichen Erdteile, der z.B. rabiaten Klimaschwankungen zwischen Eiszeiten (bis zu vielen Millionen Jahren) und Warmzeiten, Meerespiegel Abfällen und Aufstiegen, Erdbeben, Vulkanismus eröffnete sich auch für die Wissenschaften vom Leben (Biologie, …) neue Ansatzpunkte, auch die Entwicklung des Lebens selbst in den verschiedenen Phasen besser untersuchen zu können.
  28. Parallel deckte auch die Physik auf, dass das ganze Universum zu sehen ist als ein gigantischer Prozess mit einem messbaren Anfang genannt ‚Big Bang‘, der dann über die Entstehung der Atome und Moleküle zu Staubwolken führte, Sternentstehungen, Planeten, Galaxien, die sich voneinander immer mehr entfernen. Außerdem lernte man, dass der Prozess der Sternentstehung und des Sternesterbens nach bestimmten Regeln abläuft, die bis heute wirksam sind. So wird unsere Heimatsonne in ca. 0.9 Mrd Jahren ab heute die kritische Temperaturgrenze für höhere Lebewesen von +30o erreichen, was ein Leben auf der Erde schwer bis unmöglich machen wird (Siehe: Wikipedia-DE, Sonne, 2017).
  29. Eine wichtige Botschaft aus all diesen neuen Erkenntnissen ist, dass das biologische Leben zu einer Steigerung der Komplexität auf der Erde geführt hat, die nahezu unvorstellbar ist. Die Komplexität eines einzelnen menschlichen Körpers entspricht in etwa 120 Galaxien im Format der Milchstraße. In jeder Sekunde redet eine Zelle im Gehirn mit bis zu 100.000 anderen Zellen im Gehirn bei einer geschätzen Gesamtzahl von ca. 80 – 100 Milliarden Gehirnzellen. Gleichzeitig kommuniziert eine einzelne Körperzelle (geschätzte Anzahl ca. 34 Billionen (= 34 x 1012) mit bis zu mehreren Millarden anderen Zellen über chemische Botenstoffe. Ein vollständiges Verständnis all dieser Vorgänge entzieht sich bislang dem wissenschaftlichen Verständnis.
  30. Innerhalb dieser allgemeinen Komplexitätszunahme gibt es ferner das Phänomen des sprachlichen Denkens bei homo sapiens. Diese extrem späte Lebensform kann die ‚Gegenwart im Wahrnehmen und Denken‘ dadurch überwinden, dass er mittels eines ‚Gedächtnisses‘ aktuelle Gegenwarte abspeichern und diese dann mit der jeweils neuen Gegenwart vergleichen kann. Dadurch lassen sich Veränderungen erfassen, Muster, Strukturen, Beziehungen, Regeln und vieles mehr. Auf diese Weise kann der homo sapiens die biologische Veränderungsgeschwindigkeit durch Vererbung über Generationen extrem beschleunigen. Im Prinzip kann er sofort Änderungen bewirken.
  31. Zugleich hat homo sapiens neue Technologien entwickelt, die Prinzipien biologischer Strukturen in Form von künstlichen Maschinen in neuer Form verfügbar macht. Dazu gehören Computer, Datenspeicher und Datennetzwerke. Damit konnte er die Veränderungsgeschwindigkeit nochmals erheblich steigern, so stark, dass er selber jetzt ein Bewältigungsproblem hat. Im Wissen des homo sapiens kann sich quasi das ganze Universum wie in einem Spiegel selbst anschauen und bei vollem Bewusstsein sich selbst umbauen. Fragt sich, wohin dies führen wird.

Für eine Fortsetzung siehe HIER.

Pausenmusik 🙂

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

Die Wiederentdeckung Gottes auf dem Planeten Erde für alle denkbaren Universen. Essay.Teil 1

PDF

Wahrheit

  1. Eine Benutzung des Wortes ‚Wahrheit‘ setzt voraus, dass es etwas gibt, was meinem eigenen Denken und Fühlen vorgelagert ist, von meinem eigenen Wollen unabhängig; egal was ich mir wünsche, vorstelle, phantasiere, denke; es ist etwas — ein X, das Andere –, das vorkommt, weil es ‚aus sich heraus‘ vorkommt.
  2. Im Alltag ist es ein Gegenstand, über den ich im Dunklen stolpere, weil ich an dieser Stelle keinen Gegenstand vermutet habe; die Sonne, die mich blendet, weil sie so tief steht; der Kaffee, den ich trinke; der Stuhl, auf dem ich sitze; mein Gegenüber, das auf mich einredet; der Regen, der mit Macht hernieder prasselt …
  3. Diese Selbstverständlichkeit kann schnell ins Wanken geraten, wenn man anfängt, darüber nachzudenken.
  4. Wir wissen, dass wir Menschen phantasieren können, träumen, wir können Halluzinationen haben, Wahnvorstellungen, … oder denken gerade nach. Diesen Beispielen ist gemeinsam, dass derjenige der phantasiert, träumt usw. ‚für sich‘, ’subjektiv‘, etwas erlebt, empfindet, denkt, was ihm in diesem Moment ‚wie wirklich‘ erscheint, obgleich andere Menschen in der Umgebung einer solchen Person zum Schluss kommen könnten, dass die aktuellen Phantasiebilder, Träume usw. nichts mit der aktuellen äußeren Situation dieser Person zu tun haben.
  5. So stellt sich die Person vor, sie sei eine Königin, obwohl sie nach offiziellen Daten nur eine Büroangestellte ist; oder jemand träumt im Schlaf, schreit, schlägt um sich, und wenn dann der Bettnachbar ihn aufweckt, berichtet der Träumer von irgendwelchen Ungeheuern, vor denen er geflohen sei. Jemand anderes hat Drogen genommen und sieht den aktuellen Raum plötzlich ganz anders, umarmt Anwesende oder beschimpft sie, obwohl es keinen äußerlich bekannten Grund dafür gibt. Andere fühlen sich verfolgt, haben panische Ängste, verstecken sich, schließen sich ein, kaufen Waffen, aber es gibt niemand, der ihnen nachstellt. Und dann der Denker: er sitzt scheinbar tatenlos auf einem Stuhl, stiert vor sich hin auf ein Spielbrett, und in seinem Kopf denkt er intensiv über verschiedene Möglichkeiten nach, welche Züge er im Spiel machen könnte, Züge, die nur in seinem Denken existieren, nicht auf dem Spielbrett.
  6. Das innere Erleben eines Menschen kann offensichtlich für den Betreffenden so ‚wirklich‘ erscheinen, wie das, was sich von der ‚Außenwelt‘ in seiner ‚Wahrnehmung‘ niederschlagen kann. Und offensichtlich gibt es hier Zustände, in denen der Betreffende in seinem Erleben nicht mehr so richtig (oder gar nicht?) entscheiden kann, ob das Erlebte nun ’nur innerlich, subjektiv‘ vorkommt, oder auch ‚zugleich äußerlich, objektiv, intersubjektiv‘, so, dass andere diese Sachverhalte von sich aus bestätigen könnten.
  7. Die Dinge werden noch schwieriger, wenn man die Sprache einbezieht.
  8. Die Sprache — gesprochen wie geschrieben (oder noch anders) — hat die Besonderheit, dass sich sprachliche Äußerungen normalerweise in kleinere Einheiten unterteilen lassen, die teilweise als diese kleineren Einheiten eine ‚Bedeutung‘ haben; im Zusammenhang der Äußerung können diese unterscheidbaren kleineren Einheiten eine ‚über die einzelne Einheit hinausgehende‘ Bedeutung besitzen. Zugleich spielt die Situation eine Rolle: die gleiche sprachliche Äußerung kann je nach der Deutung der Situation eine ganz unterschiedliche Bedeutung besitzen.
  9. Eine Äußerung wie ‚Ich bitte Dich, mir zu helfen, das Haus zu verkaufen‘, enthält kleinere Einheiten, die wir gewöhnlich ‚Worte‘ nennen. Einzelne Worte wie z.B. ‚Haus‘ haben eine Bedeutung durch Bezug auf gedachte und dann möglicherweise objektive Gegenstände mit bestimmten Eigenschaften. Andere Worte wie ‚zu‘ und ‚das‘ haben keinen direkten Gegenstandbezug. Für jemand, der die deutsche Sprache kennt, deutet sich in dieser sprachlichen Äußerung an, dass eine Person A (die mit dem ‚Ich‘) eine andere Person B (die mit dem ‚Dich‘) ‚bittet‘ bei einem Hausverkauf zu helfen. Wenn die beiden Personen A und B voneinander gesellschaftlich unabhängig sind, die Person B dem A in keiner Weise verpflichtet ist, dann ist die ausgesprochene Bitte typisch und der Ausgang offen. Wenn aber B dem A irgendwie verpflichtet ist, von A vielleicht sogar sehr direkt abhängt, dann kann diese Bitte eher als ein Befehl verstanden werden, den B dann aus gesellschaftlichen Gründen nicht wirklich ablehnen kann. Dies setzt voraus, dass man die sprachliche Äußerung als Teil eines größeren sozialen Zusammenhangs erkennt, dessen Eigenschaften die Bedeutung beeinflussen können.
  10. Es gibt aber noch weitere Unwägbarkeiten. Wenn in der Äußerung davon gesprochen wird, ‚das Haus‘ zu verkaufen, dann unterstellt A, dass B ‚weiß‘, welches Haus ‚gemeint‘ ist. Wenn die sprachliche Äußerung aber in ‚Abwesenheit des Hause‘ getätigt wird, dann existiert ‚das Haus‘ nur im ‚Wissen‘ der beiden beteiligten Personen A und B. Zumindest unterstellt A, dass B ‚weiß‘, welches Haus A ‚meint‘. Dies funktioniert, wenn es in der Vergangenheit eine Situation gab, durch die eindeutig genug ein ganz bestimmtes Haus identifiziert worden ist, also ‚das Haus‘ von dieser erinnerbaren Situation. Dies kann funktionieren. Wenn diese erinnerbare Situation aber nicht eindeutig war, wenn schon in dieser Situation zwar von ‚dem Haus‘ geredet wurde, aber schon in der damaligen Situation A an ein anderes Haus gedacht hat als B und beide diesen Unterschied nicht bemerkt haben, dann wird B möglicherweise zustimmen und für sich an ein anderes Haus H1 denken als A, der an das Haus H2 denkt. Irgendwann werden beide vielleicht merken, dass sie mit ‚das Haus‘ zwei verschiedene Objekte meinen, spätestens dann, wenn sie zu dem Haus hinfahren würden. Solange sie dies nicht tun leben Sie mit ihren privaten, subjektiven Vorstellungen von einem Hausobjekt H1 bzw. H2, benutzen die gleichen Worte, und merken nicht, dass sie beide etwas ‚Verschiedenes meinen‘.
  11. Ein Bezug zur Außenwelt unter Zuhilfenahme einer Sprache kann also unterschiedlich missverständlich sein. Die Worte können im Kopf, im ‚Innern‘, im Denken eines Sprecher-Hörers, einen Sachverhalt induzieren, hervorrufen, aktivieren, der für ‚wirklich‘ angenommen wird, obgleich sich diese Vorstellungen in den Köpfen verschiedener Sprecher-Hörer unterscheiden können, trotz gleicher Worte.
  12. Bei sogenannten ‚abstrakten Bedeutungen‘, wie sie sich bei Worten finden wie ‚Freiheit‘, ‚Demokratie‘, ‚Bewusstsein‘, ‚das Dasein‘, ‚Existenz‘, ‚Glauben‘, ‚Gott‘, ‚Paradies‘, ‚Mathematik‘ usw. kann man in der Regel nicht von vornherein von einer allen gleichermaßen bekannten ‚Bedeutung‘ ausgehen. Worte mit solchen Bedeutungen haben einen solch vielschichtigen Verwendungszusammenhang, dass man bei ihrem Gebrauch grundsätzlich vorher mit allen Beteiligten klären sollte, welche Verwendungszusammenhänge sie jeweils voraussetzen.
  13. Sprechen wir im Alltag von ‚Wahrheit‘ dann unterstellen wir einen Zusammenhang zwischen Sprecher und Umwelt derart, dass eine Aussage wie ‚Es regnet‘ sich auf einen realen, objektiven Vorgang in der Umwelt bezieht, der von anderen auch so wahrgenommen wird (oder werden kann), der jetzt stattfindet. Bei der Aussage, ‚Ich war gestern in Frankfurt‘ wird es schwieriger. Ob die Aussage als ‚wahr‘ bezeichnet wird, hängt davon ab, ob sich nachweisen lässt, dass der Sprecher einen Tag früher tatsächlich in der Stadt mit Namen Frankfurt war, und dass der Sprecher mit der Aussage ‚Ich war gestern in Frankfurt‘ diesen Sachverhalt meint. Wenn der Sprecher während der Aussage für sich gedacht hat, dass er sich nur vorgestellt hat, dass er in Frankfurt gewesen sei, dann wäre die Aussage nach üblichem Sprachverständnis ‚falsch‘, da man bei solch einer Aussage unterstellt, dass der Sprecher tatsächlich in Frankfurt war. Wenn eine Sprecherin sagen würde ‚Ich werde morgen nach Frankfurt fahren‘, dann wäre der Wahrheitsgehalt noch offen. Sie kündigt ein Ereignis an, das in der Zukunft stattfinden soll. Ob es tatsächlich stattfinden wird, muss man erst mal ’sehen‘. Es ist eher eine ‚Absichtserklärung‘, allerdings eine mit potentiellem Wahrheitsanspruch. Falls die Sprecherin während der Aussage denkt, dass Sie nicht wirklich nach Frankfurt fahren will, wäre ihr Aussage nach normalem Verständnis eine ‚Lüge‘ oder eine ‚Täuschung‘. Allerdings, wenn die Sprechsituation locker ist, man gerade ‚herum spinnt‘, man Möglichkeiten überlegt, es nicht so ganz ernst zugeht, dann wäre die Aussage eine Meinungsäußerung ohne klaren Wahrheitsstatus.
    Fassen wir zusammen: Das Reden von ‚Wahrheit‘ setzt voraus:

    1. Es gibt mindestens einen Sprecher A und mindestens einen Hörer B
    2. Beide benutzen die gleiche Sprache L in einer gemeinsam geteilten Situation S
    3. A und B können zwischen Innen (subjektiv) und Außen (objektiv) unterscheiden.
    4. Für A und B haben die hörbaren und/ oder lesbaren Ausdrücke E der Sprache L eine subjektive Bedeutung Y, die mit Sachverhalten X in der Umgebung korrespondieren können.
    5. Wenn A einen Ausdruck E mit der subjektiven Bedeutung YA(E) — aus der Sicht von A — äußert, und dieser Äußerung von E ein Sachverhalt X korrespondiert, den B auch wahrnehmen kann, so dass durch den Ausdruck E und dem Sachverhalt X bei B die subjektive Bedeutung YB(E) aktiviert wird, dann würde aus Sicht von B eine ‚wahre Aussage E‘ vorliegen, wenn der Sachverhalt X mit seiner Bedeutung YB(E) ‚korrespondiert‘.
    6. Da die subjektive Bedeutung Y eines Ausdrucks E mit einem Sachverhalt X korrespondieren soll, muss der Sachverhalt X auch als eine wahrnehmbare Größe XSprecher-Hoerer so vorliegen, dass die subjektive Bedeutung YSprecher-Hoerer sich direkt mit dem Sachverhalt vergleichen lässt. Dies bedeutet, es bedarf einer subjektiven Vergleichsoperation XSprecher-Hoerer = YSprecher-Hoerer ?. Dies bedeutet, sowohl die subjektive Bedeutung Y wie auch der wahrgenommene Sachverhalt X stellen subjektive Größen dar; sie unterscheiden sich nur durch die Art der Hervorbringung: YSprecher-Hoerer wird durch subjektive Aktivitäten generiert und XSprecher-Hoerer wird durch Sinnesorgane des Körpers über das Gehirn generiert. Die Menge der subjektiven Gegebenheiten soll hier technisch als ‚Phänomenraum (PH)‘ bezeichnet werden. Es würde dann gelten dass alle Arten von aktuell wahrgenommenen Sachverhalten X eine Teilmenge des Phänomenraums PH sind und ebenso alle aktuell generierten subjektiven Bedeutungen Y, als XNOW ⊆ PH und YNOW ⊆ PH.Ferner würde gelten YNOW ∩ XNOW = 0
    7. Dabei muss man sich klar machen, dass es zwischen der jeweiligen subjektiven Bedeutung YSprecher-Hoerer und einem sprachlichen Ausdruck E auch eine hinreichend klare und stabile Korrespondenz geben muss. Dies setzt wiederum voraus, dass der hörbare oder sichtbare sprachliche Ausdruck E eine interne Repräsentation ESprecher-Hoerer haben muss, die mit der subjektiven Bedeutungsrepräsentation YSprecher-Hoerer assoziiert ist. Dabei ist zu beachten, dass es eine sprachliche Bedeutung im engeren Sinne gibt, nur bezogen auf den Ausdruck, und eine Bedeutung im weiteren Sinne, insofern der situative Kontext C(Sprecher,Hoerer) zu berücksichtigen ist. Es muss also eine Beziehung folgender Art geben: Meaning : CSprecher-Hoerer x ESprecher-Hoerer —> YSprecher-Hoerer. Dies führt zu den Erweiterungen: CNOW ⊆ PH sowie YNOW ∩ XNOW ∩ CNOW = 0.
  14. Schon diese stark vereinfachende Rekonstruktion lässt erkennen, wie schwierig es ist, zu wirklich wahren Aussagen im Kontext einer Kommunikation zu kommen. Haben zwei Personen eine unterschiedliche Wahrnehmung, dann kann dies schon zu Missverständnissen führen. Haben Sie bei der Zuordnung zwischen wahrgenommenem Sachverhalt X und Bedeutungskonzept Y Unterschiede, funktioniert es auch nicht. Ferner muss die Situationszuordnung passen, und, am allerwichtigsten, die Zuordnung von Ausdruck und Bedeutung muss gleich sein. Alle diese Bedingungen herzustellen und zu überprüfen, erfordert viel Aufmerksamkeit und vielen guten Willen.
  15. Die vielen Kommunikationsprobleme im Alltag zeigen, dass es in der Tat schwierig ist; dazu kommen die vielfältigen systematischen Manipulationen von Sprache aus unterschiedlichsten Gründen (Lügen, Werbung, Propaganda, Indoktrination, Fälschung, Unterhaltung, Fiktion,…).

Eine  Fortsetzung findet sich HIER.

Pausenmusik 🙂

PS: Eine Ergänzung zu diesen Überlegungen könnte das Memo zur Philosophiewerkstatt vom 8.Oktober sein.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

MENSCHENBILD – VORGESCHICHTE BIS ZUM HOMO SAPIENS – Überlegungen

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 27.August 2017
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Letzte Altualisierung: 27.Aug.2017 - 17:37h
Es gibt eine Weiterentwicklung dieses Beitrags in einem Folgebeitrag!

PDF

Überblick

Eingeleitet durch wissenschaftsphilosophische
Überlegungen wird versucht, die Entwicklung der
Säugetiere bis hin zum homo sapiens anhand der aktuellen
Forschungsdaten abzubilden. Das Hauptaugenmerk liegt
auf der allgemeinen Struktur. Für die vielen Details sei auf
die Literatur verwiesen, die angegeben wird.

I. KONTEXT

Eine der Leitfragen dieses Blogs ist die Frage nach
dem neuen Menschenbild, speziell auch im Kontext
der Diskussion um die Zukunft von Menschen und
intelligenten Maschine.

Wer nach der Zukunft des Menschen fragt,
braucht ein gutes Bild vom aktuellen Menschen und
seiner Entstehungsgeschichte, um auf dieser Basis
Überlegungen zu einer möglichen Zukunft anstellen zu
können.

Während zur biologischen Evolution allgemein schon
einige Blogbeiträge geschrieben wurden, fehlt es im Blog
an konkreten Daten zur Entwicklung unmittelbar vor dem
Auftreten des homo sapiens, etwa in dem Zeitfenster -10
Mio Jahren bis ca. -30.000 Jahren vor dem Jahr 0. Dies
soll hier in einem ersten Beitrag nachgeholt werden.

II. WISSENSCHAFTLICHE SICHTWEISEN

Bei der Frage nach der Entwicklung des homo
sapiens spielen mehrere wissenschaftliche Disziplinen
ineinander. Einmal ist es die Geologie (Siehe: [WD17g]),
die den Kontext Erde untersucht; dann die Klimatologie
(Siehe: [WD17n]), die sich mit den klimatischen
Verhältnissen im Kontext Erde beschäftigt. Für das
Phänomen des Lebens selbst ist die Biologie zuständig,
speziell die Evolutionsbiologie (Siehe: [SWW13],
[WD17e]). Als Teil der Evolutionsbiologie sind noch
zu nennen die Molekularbiologie (Siehe: [WD17s]) mit
der Genetik (Siehe: [WD17f]). Ferner könnte man als
Teil der Evolutionsbiologie auch noch die Paläontologie
(Siehe: [WD17u], [Par15]) nennen und auch die
Archäologie (Siehe: [WD17a]). Wobei das Wechselspiel
von Evolutionsbiologie und Archäologie nicht ganz
so klar erscheint. Viele weitere wissenschaftliche
Disziplinen tauchen innerhalb der genannten Disziplinen
in unterschiedlichsten Kontexten auf.

Diese Vielfalt spiegelt ein wenig die Komplexität der
Phänomene wieder, um die es hier geht. Der Autor
cagent selbst betrachtet die hier zu verhandelnden
empirischen Phänomene aus Sicht der Philosophie
mit den Schwerpunkten Erkenntnisphilosophie, die
Überschneidungen hat mit Phänomenen wie z.B.
‚Lernen’ und ’Intelligenz’. Dies sind Themen, die
feste Orte auch in der Psychologie haben, heute
oft parallelisiert mit der Gehirnforschung (letztere
methodisch gesehen ein Teil der Biologie).

Angesichts dieser Komplexität ist es praktisch
unmöglich, ein völlig konsistentes, einheitliches Bild der
Phänomene zu zeichnen. An dieser Stelle ist es das
Anliegen von cagent, einen ’hinreichenden’ Überblick
über die ’unmittelbare’ Vorgeschichte des homo sapiens
zu bekommen.

Der homo sapiens ist jene biologische Art (Spezies),
die zur Gattung homo gerechnet wird, die sich aus
dem biologischen Formenstrom über Jahrmillionen
herausgeschält hat. Es zeigt sich, dass die zeitliche
Abgrenzung, wann genau ’das Menschliche’ anfängt,
und wann das ’Tierische’ aufhört, irgendwie beliebig
erscheint. Der homo sapiens ab ca. -30.000 besitzt
natürlich Eigenschaften, die wir beschreiben können
wie Körperbau, genetisch bestimmte Erbanlagen,
typische Verhaltensweisen, aber diese Eigenschaften
tauchen nicht abrupt in der Geschichte auf, sind nicht
irgendwann einfach so da, sondern man findet in
der vorausgehenden Zeit eine große Formenvielfalt
in den Artefakten, mit unterschiedlichen genetischen
Distanzen zum heutigen homo sapiens. Daraus muss
man schließen, dass es einen viele Millionen dauernden
Prozess des Formenwandels gab, innerlich genetisch
und äußerlich durch die jeweiligen geologischen und
klimatologischen Verhältnisse beeinflusst, die sich
zudem noch verknüpfen mit der jeweiligen Pflanzen- und
Tierwelt. Alle diese genannten Faktoren waren selbst
einem kontinuierlichen Wandel unterworfen.

Wenn die Grenzziehung zwischen dem ’Tierischen’
und dem ’Menschlichen’ von daher nicht ganz scharf
gezogen werden kann, ist auch eine Zeitangabe dazu,
wie weit zurück in der Zeit man gehen soll, um die
Vorgeschichte’ zu beschreiben, relativ, d.h. abhängig
von den Kriterien, die man bei der Analyse anlegen
will.

In diesem Beitrag wurde der Startpunkt für die
Beschreibung bei den Lebensformen gewählt, die die
Biologen ’Primaten’ nennen, und zwar spezieller den
Punkt der Aufspaltung in die Strepsirrhini und Haplorhini
(Siehe: [WE17l] und [WD17r]), die sich um etwa -80
Mio Jahren ereignet haben soll. Aus Sicht der heutigen
menschlichen Geschichte, wo 100 Jahre oder gar 1000
Jahre eine lange Zeit sind, wirken diese 80 Millionen
Jahre sehr, sehr lang. Innerhalb der Geschichte des
Lebens mit ca. 3.5 Milliarden Jahre fallen die 0.08 Mrd
Jahre seit dieser Aufspaltung nahezu kaum ins Gewicht,
es sind gerade mal 2.2% der gesamten Entwicklungszeit
des biologischen Lebens. Betrachtet man dagegen nur
die Zeit seit dem Auftreten der Lebensform homo, die
dem heute bekannten Menschlichem schon nahe kommt
(etwa ab -2.5 Mio), dann schrumpft der Zeitanteil auf
0.071 % der Entwicklungszeit des biologischen Lebens
zusammen. Umgerechnet auf das 12-Stunden Ziffernblatt
einer Uhr mit 720 Minuten würde die Entstehung der
Lebensform homo die letzte halbe Minute auf dem
Ziffernblatt ausmachen. Die Lebensform homo sapiens,
zu der wir uns zählen, tauchte frühestens um -190.000 in
Afrika auf. Das wären auf dem Ziffernblatt dann (bei ca.
81.000 Jahren pro Sekunde) die letzten 2.3 Sekunden.

Im Spiel des Lebens erscheint dies nicht viel. Betrachtet
man aber, was sich allein in den letzten ca. 10.000
Jahren ereignet hat, und hier speziell nochmals in den
letzten 100 Jahren, dann legt sich der Schluss nahe,
dass die Lebensform homo sapiens offensichtlich über
Fähigkeiten verfügt, die gegenüber der Vorgeschichte
von ca. 3.5 Mrd Jahren etwas qualitativ ganz Neues
sichtbar macht. Autor cagent ist sich nicht sicher,
ob der homo sapiens selbst bislang wirklich begreift,
was hier passiert, welche Rolle er in diesem Prozess
spielt. Auf der einen Seite zeichnet sich eine immer
größere Zerstörungskraft ab (die auch stattfindet), auf
der anderen Seite deuten sich konstruktive Potentiale
an, die alles übersteigen, was bislang vorstellbar war.

III. DEUTUNGEN: MATERIAL, MUSTER, FUNKTION, KONTEXTE

Die Tätigkeit der eingangs erwähnten Wissenschaft
kann man verstehen als eine Deutung, ausgeführt in
einem Deutungsprozess. Diese Deutung beginnt bei der
Bestimmung der Substanzen/ Materialien, die Forscher
vorfinden. Ist das eine Gesteinsart, sind das Knochen,
sind das pflanzliche Bestandteile …. ? Ein anderer
Aspekt ist die Frage nach ’Formen’ und ’Mustern’:
kann man an dem Material auffällige Formen oder
Muster erkennen, dann auch im Vergleich zu anderen
Materialien? Schließlich auch die Frage nach möglichen funktionalen Zusammenhängen’: wenn es ein Knochen
ist, in welchem Zusammenhang eines Knochengerüsts
kommt er vor? Wenn etwas ein Zahn sein soll, wie sah
das zugehörige Gebiss aus? Oder ist dieser Knochen Teil
eines Werkzeugs, einer zu unterstellenden Handlung,
die das Stück benutzt hat? Schließlich, in welchem
Kontext kommt ein Material vor? Ist es zufälliger Kontext,
ein Kontext durch einen geologischen Prozess, ein
Kontext erzeugt durch Verhalten von Lebewesen?
Schon bei diesen Fragen bieten sich eine Vielzahl von
Deutungsmöglichkeiten, bestehen viele Ungewissheiten.

IV. DEUTUNGEN 2: ZEITLICHE ABFOLGE

Was Forscher zur Evolutionsbiologie besonders
interessiert, ist das Erfassen von zeitlichen Abfolgen:
unter Voraussetzung eines bestimmten Zeitmaßes
möchte die Evolutionsbiologie wissen, ob ein
Gegenstand/ Artefakt A im Sinne des Zeitmaßes ‚vor’ oder ’nach’ einem anderen Gegenstand/ Artefakt B ‚anzuordnen’ ist.
Diese Frage macht nur Sinn, wenn man neben
einem definierten Zeitmaß auch annehmen darf
(muss), dass sich die Erde als Generalumgebung aller
vorfindbaren Materialien/ Artefakte grundsätzlich in
einem Veränderungsmodus befindet, dass also die
Erde zu zwei verschiedenen Zeitpunkten grundsätzlich
verschieden sein kann.

Dass sich am Kontext Erde Veränderungen feststellen
lassen, dies haben Menschen schon sehr früh erleben
können: Temperatur, Regen oder nicht Regen, Tag und
Nacht, Wachstum der Pflanzen, Geboren werden und
Sterben, usw. Es passierte aber erst im 17.Jahrhundert,
dass die Fragestellung nach dem Vorher und Nachher in
der Entwicklung der Gesteine mit Nils Stensen (nicolaus
steno) eine systematische Form fand, aus der sich nach
und nach die moderne Geologie entwickelte (Siehe:
[WD17h]).

Erst durch die wissenschaftliche Geologie wissen
wir zunehmend, dass die Erde selbst ein dynamisches
System ist, das sich beständig verändert, wo sich
ganze Kontinente bilden, verschieben, verformen; wo
Vulkanismus stattfindet, Erosion, Klimaänderungen, und
vieles mehr. Erst durch die geologische Sehweise konnte
man nicht nur verschiedene Zustände der Erde entlang
einem definierten Zeitmaß identifizieren, sondern damit
dann auch Veränderungen in der Zeit’ sichtbar machen.

Dieses geologische Wissen vorausgesetzt,  besteht
plötzlich die Möglichkeit, ein Material/ Artefakt einer
erdgeschichtlichen Phase, einem Zeitpunkt in einem
Veränderungsprozess, zuzuordnen. Die Geologie hat – mittlerweile unterstützt durch viele Spezialgebiete, wie z.B. auch die Klimatologie (Siehe:
[WD17n]) – unter anderem eine zeitliche Abfolge von
Vulkanausbrüchen in den verschiedenen Regionen
der Erde identifizieren können und auch das sich
verändernde Klima.

So spricht man in der Klimatologie von sogenannten
Eiszeitaltern’ (Siehe: [WD17d]). In der schwachen
Version einer Definition von Eiszeitalter geht man davon
aus, dass mindestens eine Polkappe vereist ist. Die
letzte Eiszeit dieser Art fand statt um -33.5 Mio Jahren.
In der starken Version geht man davon aus, dass beide
Polkappen vereist sind. Die letzte Eiszeit dieser Art
begann um ca. -2.7 Mio Jahren und hält bis heute
an. In dieser Zeit gab es unterschiedliche Kalt- und
Warm-Phasen. Seit ca. -1 Mio Jahren haben sich 6
mal Kaltzeiten wiederholt: ca. -0.9 Mio, -0.77 Mio, -0.6
Mio, -0.48 Mio, -0.35 Mio, -12.000 (siehe: [WD17o],
[Rot00]:SS.173ff ).

Ein anderer starker Faktor, der das Klima
beeinflussen kann, sind Supervulkanausbrüche
(Siehe: [WD17w]). Hier eine Zusammenstellung
von Eiszeitaltern mit Kaltphasen in Kombination mit
den Supervulkanausbrüchen sofern sie das frühe
Ausbreitungsgebiet von homo und homo sapiens berührt
haben (wobei auch andere große Ausbrüche sich
weltweit auswirken konnten)(man beachte, dass die
Zeitangaben mit großen Unschärfen versehen sind):

  • Eiszeit: ab ca. -2.7 Mio Jahren
  • Vulkan:-1 Mio Äthiopien
  • Vulkan: -788.000 Indonesien
  • Kaltzeit: ca. -0.77 Mio Jahren
  • Kaltzeit: ca. -0.6 Mio Jahren
  • Vulkan: -500.000 (+/- 60.000) Äthiopien
  • Kaltzeit: ca. -0.48 Mio Jahren
  • Vulkan: -374.000 Italien
  • Kaltzeit: ca. -0.35 Mio Jahren
  • Vulkan:-161.000 Griechenland
  • Vulkan: -74.000 Indonesien
  • Vulkan:-50.000 Italien
  • Vulkan:-39.000 Italien
  • Kaltzeit: ca. -12.000

Bei der Entstehung von Eiszeiten spielen eine Vielzahl
von Faktoren eine Rolle, die ineinandergreifen. Sofern
es sich um periodische Faktoren handelt, kann sich dies
auf den Periodencharakter von Kalt- und Warmzeiten
auswirken (siehe: [WD17o], [Rot00]:SS.173ff ). Die globale Erwärmung, die
aktuell beklagt wird, ist ein Ereignis innerhalb eines noch
existierenden Eiszeitalters. Insofern ist die Erwärmung
eigentlich keine Anomalie, sondern eher die Rückkehr
zum ’Normalzustand’ ohne Eiszeitalter. Wobei sich
natürlich die Frage stellt, welcher Zustand der Erde ist
eigentlich ’normal’? Kosmologisch betrachtet – und darin
eingebettet die Wissenschaften von der Erde – wird
die Erde in einem Zustand enden, der nach heutigem
Wissen absolut lebensfeindlich sein wird (siehe: [WD17p],
[WE17b], [WE17c]). Für die Erde ist dieser Zustand
normal’, weil es dem physikalischen Gang der Dinge
entspricht, aus Sicht der biologischen Lebensformen
ist dies natürlich überhaupt nicht ’normal’, es ist ganz
und gar ’fatal’.

Insofern wird hier schon deutlich, dass
die innere Logik des Phänomens ‚biologisches Leben‘
nicht automatisch kongruent ist mit einem aktuellen
Lebensraum. Das Phänomen des biologischen Lebens
manifestiert einen Anspruch auf Geltung, für den
es im Licht der physikalischen Kosmologie keinen
natürlichen’ Ort gibt. Das biologische Leben erscheint
von daher als eine Art ’Widerspruch’ zum bekannten
physikalischen Universum, obgleich es das physikalische
Universum ist, das das biologische Leben mit ermöglicht.

V. DEUTUNGEN 3: ENTWICKLUNG VON KOMPLEXITÄT

Wenn man so weit vorgestoßen ist, dass man
Materialien/ Artefakte auf einer Zeitachse anordnen kann,
dann kann man auch der Frage nachgehen, welche
möglichen Veränderungen sich entlang solch einer
Zeitachse beobachten lassen: Bleibt alles Gleich? Gibt
es Änderungen? Wie lassen sich diese Veränderungen
klassifizieren: werden die beobachtbaren Phänomene
einfacher’ oder ’komplexer’?

Um solche eine Klassifikation in ’einfach’ oder
komplex’ vorzunehmen, braucht man klare Kriterien für
diese Begriffe. Aktuell gibt es aber keine einheitliche, in
allen Disziplinen akzeptierte Definition von ’Komplexität’.

In der Informatik wird ein Phänomen relativ zu
einem vorausgesetzten Begriff eines ’Automaten’ als
komplex’ charakterisiert: je nachdem wie viel Zeit
solch ein Automat zur Berechnung eines Phänomens
benötigt oder wie viel Speicherplatz, wird ein Phänomen
als mehr oder weniger ’komplex’ eingestuft (Siehe
dazu: [GJ79]). Dieser vorausgesetzte Automat ist eine
sogenannte ’Turingmaschine’. Dieses Konzept entstand
in der Grundlagendiskussion der modernen Mathematik
um die Wende vom 19. zum 20.Jahrhundert, als sich
die Mathematiker (und Logiker) darüber stritten, unter
welchen Bedingungen ein mathematischer Beweis
für einen Menschen (!) als ’nachvollziehbar’ gelten
kann. Nach gut 30 Jahren heftigster Diskussionen fand
man mehrere mathematische Konzepte, die sich als
äquivalent erwiesen. Eines davon ist das Konzept der
Turingmaschine, und dieses gilt als das ’einfachste’
Konzept von allen, das sich seit 1936/7 bisher in
allen Widerlegungsversuchen als stabil erwiesen hat.
Dies ist zwar selbst kein unwiderleglicher logischer
Beweis, aber ein empirisches Faktum, was alle Experten
bislang glauben lässt, dass mit diesem Konzept eine
zentrale Eigenschaft des menschlichen Denkens
eine konzeptuelle Entsprechung gefunden hat, die
sich formal und empirische experimentell überprüfen
lässt. So, wie die Physiker zum Messen Standards
entwickelt haben wie das ’Kilogramm’, das ’Meter’
oder die ’Sekunde’, so haben die Informatiker zum
Messen der ’Komplexität’ eines Phänomens relativ zur
(menschlichen) Erkenntnisfähigkeit die ’Turingmaschine’
(samt all ihren äquivalenten Konzepten) gefunden. Der
Vorteil dieser Definition von Komplexität ist, dass man
über das zu klassifizierende Phänomen vorab nahezu
nichts wissen muss. Darüber hinaus macht es Sinn, das
menschliche Erkennen als Bezugspunkt zu wählen, da
die Frage der Komplexität jenseits des menschlichen
Erkennens keinen wirklichen Ort hat.

Zurück zum Ausgangspunkt, ob sich im ’Gang der
Dinge’ auf der Erde Phänomene erkennen lassen,
die ’im Lauf der Zeit’ an Komplexität zunehmen,
deutet sich Folgendes an: es scheint unbestritten,
dass die Beschreibung einer biologischen ’Zelle’
(siehe: [AJL+15]) einen erheblich größeren Aufwand
bedeutet als die Beschreibung eines einzelnen Moleküls.
Zellen bestehen aus Milliarden von Molekülen, die
in vielfältigsten funktionellen Zusammenhängen
miteinander wechselwirken. Der Übergang von einzelnen
Molekülen zu biologischen Zellen erscheint von daher
gewaltig, und es ist sicher kein Zufall, dass es bis heute
kein allgemein akzeptiertes Modell gibt, das diesen
Übergang vollständig und befriedigend beschreiben
kann.

Für den weiteren Verlauf der biologischen Evolution
gibt es zahllose Phänomene, bei denen eine Vielzahl
von Faktoren darauf hindeuten, dass es sich um eine
Zunahme von Komplexität’ im Vergleich zu einer
einzelnen Zelle handelt, wenngleich manche dieser
Komplexitäts-Zunahmen’ Milliarden oder hunderte von
Millionen Jahre gebraucht haben. Im Fall der Entwicklung
zum homo sapiens ab ca. -80 Millionen Jahre gibt es
auch solche Phänomene, die sich aber immer weniger
nur alleine im Substrat selbst, also im Körperbau
und im Gehirnbau, festmachen lassen, sondern wo
das ’Verhalten’ der Lebewesen ein Indikator ist für
immer komplexere Wechselwirkungen zwischen den
Lebewesen und ihrer Umwelt.

Der Körper des homo sapiens selbst umfasst ca.
37 Billionen (10^12) Körperzellen, dazu im Innern des
Körpers geschätzte ca. 100 Billionen Bakterien, und
zusätzlich auf der Körperoberfläche ca. 224 Milliarden
Bakterien (siehe dazu [Keg15]). Diese ca. 137 Billionen
Zellen entsprechen etwa 437 Galaxien im Format
der Milchstraße. Während Menschen beim Anblick
des Sternenhimmels zum Staunen neigen, bis hin
zu einer gewissen Ergriffenheit über die Größe (und
Schönheit) dieses Phänomens, nehmen wir einen
anderen menschlichen Körper kaum noch wahr (falls
er sich nicht irgendwie auffällig ’inszeniert’). Dabei
ist der menschliche Körper nicht nur 437 mal größer in seiner Komplexität
als die Milchstraße, sondern jede einzelne Zelle ist
ein autonomes Individuum, das mit den anderen auf
vielfältigste Weise interagiert und kommuniziert. So kann
eine einzelne Gehirnzelle bis zu 100.000 Verbindungen
zu anderen Zellen haben. Körperzellen können über
elektrische oder chemische Signale mit vielen Milliarden
anderer Zellen kommunizieren und sie beeinflussen.
Bakterien im Darm können über chemische Prozesse
Teile des Gehirns beeinflussen, das wiederum aufgrund dieser Signale Teile des
Körpers beeinflusst. Und vieles mehr. Obgleich
die Erfolge der modernen Wissenschaften in den letzten
20 Jahren geradezu atemberaubend waren, stehen wir
in der Erkenntnis der Komplexität des menschlichen
Körpers noch weitgehend am Anfang. Niemand hat
bislang eine umfassende, zusammenhängende Theorie.

Dazu kommen noch die vielen immer komplexer
werden Muster, die sich aus dem Verhalten von
Menschen (und der Natur) ergeben. Zusätzlich wird das Ganze
stark beeinflusst von modernen Technologi wie z.B. der
Digitalisierung.

VI. DEUTUNGEN4: SELBSTREFERENZ: CHANCE UND
RISIKO

Ist man also zur Erkenntnis einer Zunahme an
Komplexität vorgestoßen, gerät das Erkennen vermehrt
in einen gefährlichen Zustand. Das Erkennen von
Zunahmen an Komplexität setzt – nach heutigem
Wissensstand – symbolisch repräsentierte ’Modelle’
voraus, ’Theorien’, mittels deren das menschliche
(und auch das maschinelle) Denken Eigenschaften
und deren Anordnung samt möglichen Veränderungen
repräsentieren’. Sobald ein solches Modell vorliegt, kann
man damit die beobachteten Phänomene ’klassifizieren’
und in ’Abfolgen’ einordnen. Die ’Übereinstimmung’
von Modell und Phänomen erzeugt psychologisch ein
befriedigendes’ Gefühl. Und praktisch ergibt sich daraus
meist die Möglichkeit, zu ’planen’ und Zustände ’voraus
zu sagen’.

Je komplexer solche Modelle werden, um so größer
ist aber auch die Gefahr, dass man nicht mehr so leicht
erkennen kann, wann diese Modelle ’falsch’ sind. Solche
Modelle stellen Zusammenhänge (im Kopf oder in der
Maschine) her, die dann vom Kopf in die Wirklichkeit
außerhalb des Körpers ’hinein gesehen’ werden, und
mögliche Alternativen oder kleine Abweichungen können
nicht mehr so ohne weiteres wahrgenommen werden.
Dann hat sich in den Köpfen der Menschen ein bestimmtes
Bild der Wirklichkeit ’festgesetzt’, das auf Dauer
fatale Folgen haben kann. In der Geschichte der empirischen
Wissenschaften kann man diese Prozesse mit
zahlreichen Beispielen nachvollziehen (siehe den Klassiker:
[Kuh62]). Dies bedeutet, je umfassender Modelle
des Erkennens werden, um so schwieriger wird es auf
Dauer – zumindest für das aktuelle menschliche Gehirn
das ’Zutreffen’ oder ’Nicht-Zutreffen’ dieser Modelle
zu kontrollieren.

Nachdem mit dem Gödelschen ’Unentscheidbarkeitstheorem’
schon Grenzen des mathematischen Beweisens sichtbar wurden (Siehe: [WD17q]),
was dann mit der Heisenbergschen ’Unschärferelation’
(Siehe: [WD17j]) auf das empirischen Messen erweitert
wurde, kann es sein, dass das aktuelle menschliche
Gehirn eine natürliche Schranke für die Komplexität
möglicher Erklärungsmodelle bereit hält, die unserem
aktuellen Erkennen Grenzen setzt (Grenzen des Erkennens
werden im Alltag in der Regel schon weit vorher
durch psychologische und andere Besonderheiten des
Menschen geschaffen).

VII. PERIODISIERUNGEN: BIS HOMO SAPIENS

Wie schon angedeutet, ist das Vornehmen einer
Periodisierung ein Stück willkürlich. Autor cagent hat
den Zeitpunkt der Aufspaltung der Primaten um etwa
-80 Mio Jahren vor dem Jahr 0 gewählt. Dabei gilt
generell, dass solche Zeitangaben nur Näherungen sind,
da die zugehörigen Wandlungsprozesse sich immer als
Prozess über viele Millionen Jahre erstrecken (später
dann allerdings immer schneller).

Bei der Datierung von Artefakten (primär
Knochenfunden, dazu dann alle weiteren Faktoren,
die helfen können, den zeitlichen Kontext zu fixieren),
gibt es einmal den Ansatzpunkt über die äußere und
materielle Beschaffenheit der Artefakte, dann aber
auch – im Falle biologischer Lebensformen – den
Ansatzpunkt über die genetischen Strukturen und
deren Umformungslogik. Über die Genetik kann man
Ähnlichkeiten (Distanzen in einem Merkmalsraum)
zwischen Erbanlagen feststellen sowie eine ungefähre
Zeit berechnen, wie lange es gebraucht hat, um von
einer Erbanlage über genetische Umformungen zu
einer anderen Erbanlage zu kommen. Diese genetisch
basierten Modellrechnungen zu angenommenen Zeiten
sind noch nicht sehr genau, können aber helfen,
die Materie- und Formen-basierten Zeitangaben zu
ergänzen.

  • Ordnung: Primates (Siehe: [SWW13]:Kap.5.2)
    (Aufteilung ab ca. -80 Mio) –->Strepsirrhini (Lorisi-,
    Chiromyi-, Lemuriformes) und Haplorhini (Tarsier,
    Neu- und Altweltaffen (einschließlich Menschen))
    (Siehe: [SWW13]:S.428,S.432, S.435 [WE17l],
    [WD17r])
  • Unterordnung: Haplorrhini (Aufteilung ab ca. -60
    Mio) (Siehe: [WE17l]) –->Tarsiiformes und Simiiformes
    Nebenordnung: Simiiformes (Aufteilung ab ca. –
    42.6 Mio) -–>Platyrrhini (Neuwelt- oder Breitnasenaffen)
    und Catarrhini (Altwelt- oder Schmalnasenaffen)
    (Siehe: Siehe: [SWW13]:S.428, [WE17l])
  • Teilordnung: Catarrhini (Altwelt- oder Schmalnasenaffen)
    (Aufteilung ab ca. -29/-25 Mio) -–>Cercopithecoidea
    (Geschwänzte Altweltaffen) und Hominoidea
    (Menschenartige) (Siehe: Siehe: [WE17l] und
    [WD17r])

    • Überfamilie: Hominoidea (Menschenartige)
      (Aufteilung ab ca. -20 Mio/ -15 Mio) –>Hylobatidae
      (Gibbons)und Hominidae (Große Menschenaffen
      und Menschen) (Siehe: [WD17r])
    • Aufspaltung der Menschenaffen (Hominidae) in die
      asiatische und afrikanische Linie (ca. -11 Mio)
      (Siehe: [WD17r])

      • Familie: Hominidae (Menschenaffen)(Aufteilung ab
        ca. -15Mio/-13 Mio in Afrika) –>Ponginae (Orang-
        Utans) und Homininae (Siehe: [WD17r])

        • Unterfamilie: Homininae
          Aufteilung der Homininae (ab ca. -9 Mio/ -8 Mio) –>
          Tribus: Gorillini und Hominini (Siehe: [WE17d])

          • Gattung: Graecopithecus (Süden von Griechenland)
          • Spezies/ Art: Graecopithecus freybergi (Siehe: [WD17i]) (ca. -7.2 Mio)
          • Gattung: Sahelanthropus (ab ca. -7.0/ -6.0 Mio)
          • Spezies/ Art: Sahelanthropus tchadensis
            (Siehe: [WD17v] [WE17k]) (im Tschad)
        • Tribus (Stamm/ Tribe): Hominini
        • Aufteilung der Hominini (ab ca. -6.6/-4.2 Mio)
          (Siehe: [SWW13]:S.435, [WE17d]) -–>Pan
          (Schimpansen) und Homo (Die Lebensform
          Panina bildet einen Unterstamm zum
          Stamm ’homini’. Für die Trennung zwischen
          Schimpansen (Pan) und Menschen (Homo) wird
          ein komplexer Trennungsprozess angenommen,
          der viele Millionen Jahre gedauert hat. Aktuelle
          Schätzungen variieren zwischen ca. -12 Mio und
          -6-8 Mio Jahren (Siehe: [WE17a])

          • Gattung: Orrorin tugenensis (ab ca. -6.2 bis
            ca. -5.65 Mio) (Siehe: [WD17t])
          • Gattung: Ardipithecus (ab ca. -5.7 Mio bis ca.
            -4.4 Mio) (Siehe: [WD17b])
          • Gattung: Australopithecus anamensis (ab
            ca. -4.2 Mio bis ca. -3.9 Mio) (Siehe:
            [SWW13]:S.475f)
          • Gattung: Australopithecus (ab ca. -4 Mio bis
            ca. -2/-1.4 Mio) (Siehe: [SWW13]:S.475f)
          • Gattung: Australopithecus afarensis (ab
            ca. -3.5 Mio bis ca. -3 Mio) (Siehe:
            [SWW13]:S.476)
          • Gattung: Kenyanthropus platyops (ab ca. –
            3.5/ -3.3 Mio) (Siehe: [WD17m]) Kann
            möglicherweise auch dem Australopithecus
            zugerechnet werden (Siehe: [SWW13]:S.475,
            479).
          • Gattung: Australopithecus africanus (ab
            ca. -3.2 Mio bis ca. -2.5 Mio) (Siehe:
            [SWW13]:S.477)
          • Gattung: Australopithecus ghari (um ca.- 2.5
            Mio) (Siehe: [SWW13]:S.477)
          • Gattung: Paranthropus (Australopithecus)
            (ab ca. -2.7 Mio) (Siehe: [WE17j]).
            Kann möglicherweise auch dem
            Australopithecus zugerechnet werden (Siehe:
            [SWW13]:S.475).

            • Spezies/ Art: Paranthropus (Australopithecus)
              aethiopicus (ab ca. -2.6 Mio bis ca. -2.3
              Mio) (Siehe: [SWW13]:S.478)
            • Spezies/ Art: Paranthropus (Australopithecus)
              boisei (ab ca. -2.3 Mio bis ca. -1.4 Mio)
              (Siehe: [SWW13]:S.478). Mit dem Australopithecus
              boisei starb der Australopithecus
              vermutlich aus.
            • Spezies/ Art: Paranthropus (Australopithecus)
              robustus (ab ca. -1.8 Mio bis ca. -1.5
              Mio) (Siehe: [SWW13]:S.478)
          • Gattung: Homo (ab ca. -2.5/ -2.0 Mio).
            Im allgemeinen ist es schwierig, sehr klare
            Einteilungen bei den vielfältigen Funden
            vorzunehmen. Deswegen gibt es bei der
            Zuordnung der Funde zu bestimmten Mustern
            unterschiedliche Hypothesen verschiedener
            Forscher. Drei dieser Hypothesen seien hier
            explizit genannt:

            1. Kontinuitäts-Hypothese: In dieser Hypothese
              wird angenommen, dass es vom
              homo ergaster aus viele unterschiedliche
              Entwicklungszweige gegeben hat, die
              aber letztlich alle zum homo sapiens
              geführt haben. Die Vielfalt der Formen
              in den Funden reflektiert also so eine
              genetische Variabilität.
            2. Multiregionen-Hypothese: In dieser Hypothese
              wird angenommen, dass sich –
              ausgehend vom homo ergaster – regional
              ganz unterschiedliche Formen ausgebildet
              haben, die dann – bis auf den homo sapiens
              mit der Zeit ausgestorben sind
            3. Out-of-Africa Hypothese: Neben
              früheren Auswanderungen aus Afrika
              geht es in dieser Hypothese darum, dass
              sich nach allen neuesten Untersuchungen
              sagen lässt, dass alle heute lebenden
              Menschen genetisch zurückgehen auf
              den homo sapiens, der ca. um -100.000
              Jahren von Afrika aus kommend nach und
              nach alle Erdteile besiedelt hat (Siehe:
              [SWW13]:S.488ff, 499).

            Natürlich ist auch eine Kombination der ersten
            beiden Hypothesen möglich (und wahrscheinlich),
            da es zwischen den verschiedenen Formen
            immer wieder Vermischungen geben
            konnte.

          • Spezies/ Art: Homo rudolfensis (von
            ca. -2.4 bis ca. -1.8 Mio) (Siehe:
            [SWW13]:S.481)
          • Spezies/ Art: Homo habilis (von ca. -2.4 Mio bis ca. 1.65 Mio). Erste Art der Gattung Homo. Benutzte Steinwerkzeuge (Oldowan Kultur). Diese Artefakte sind
            nachweisbar für -2.5 bis -700.000 (Siehe: [SWW13]:S.480)
          • Gattung: Australopithecus sediba (um ca.
            -2 Mio) (Siehe: [SWW13]:S.477)
          • Spezies/ Art: Homo gautengensis (von ca.
            -1.9 Mio bis ca. -0.6 Mio)(Südafrika) (Siehe:
            [WE17h])
          • Spezies/ Art: Homo ergaster (von ca. -1.9
            Mio bis ca. -1.0 Mio) Werkzeuggebrauch
            wahrscheinlich, ebenso die Nutzung von
            Feuer (Lagerplätze mit Hinweisen um ca.
            -1.6 Mio). Stellung zu homo erectus unklar.
            (Siehe: [SWW13]:S.482f) Funde in
            Nordafrika (ca. -1.8 Mio), Südspanien (ca. –
            1.7-1.6 Mio und -1 Mio), Italien (ca. -1 Mio),
            Israel (ca. -2 Mio), Georgien (ca. -1.8 bis –
            1.7 Mio) und China (ca. -1.0 Mio) zeigen,
            dass homo ergaster sich schon sehr früh
            aus Afrika heraus bewegt hat.
          • Spezies/ Art: Homo erectus (Siehe:
            [WE17f]) (ab ca. -1.9 Mio bis ca. -85.000/
            -56.000); entwickelte sich vor allem in
            Asien (China, Java…), möglicherweise
            hervorgegangen aus dem homo ergaster.
            Ist fas zeitgleich zu homo ergaster in Afrika
            nachweisbar. Würde voraussetzen, dass
            homo ergaster in ca. 15.000 Jahren den
            Weg von Afrika nach Asien gefunden hat.
            (Siehe: [SWW13]:S.484-487)
          • Spezies/ Art: Homo antecessor (Siehe:
            [WE17e]) (von ca. -1.2 Mio bis –
            800.000). Hauptsächlich Funde in
            Nordafrika und Südspanien. Wird zur
            ersten Auswanderungswelle ’Out of Africa’
            gerechnet, die nach Europa und Asien kam.
            Letzte Klarheit fehlt noch. Es scheint viele
            Wechselwirkungen zwischen h.ergaster,
            h.erectus, h.antecessor, h.heidelbergensis,
            h.rhodesiensis, h.neanderthalensis sowie
            h.sapiens gegeben zu haben. (Siehe:
            [SWW13]:S.489)
          • Spezies/ Art ?: Homo cepranensis
            (Datierung zwischen ca. -880.000 bis
            ca.-440.000); (Siehe: [WD17k]) noch keine
            klare Einordnung (siehe Anmerkungen zu
            h.antecessor.)
          • Spezies/ Art: Homo heidelbergensis
            (Siehe: [WD17l]) (von ca. -600.000 bis
            -200.000). Überwiegend in Europa; es
            gibt viele Ähnlichkeiten mit Funden
            außerhalb von Europa in Afrika, Indien,
            China und Indonesien, z.B. Ähnlichkeiten
            zu homo rhodesiensis. Steinwerkzeuge,
            weit entwickelte Speere, Rundbauten,
            Feuerstellen, evtl. auch Kultstätten. (Siehe:
            [SWW13]:SS.490-493).
          • Spezies/ Art: Homo rhodesiensis (Siehe:
            [WE17i]) (von ca.-300.000 bis ca. –
            125.000)(Ost- und Nord-Afrika, speziell
            Zambia)
          • Spezies/ Art: Homo neanderthalensis
            (ab ca. -250.000 bis ca. -33.000). Frühe
            Formen und späte Formen. Genetische
            Eigenentwicklung seit ca. -350.000/ -400.000. Schwerpunkt Europa, aber Ausdehnung von Portugal, Spanien, bis
            Wales, Frankreich, England, Deutschland,
            Kroatien, schwarzes Meer, Nordirak,
            Zentralasien, Syrien, Israel . Meist nie
            mehr als insgesamt einige 10.000 in ganz
            Europa. In der Schlussphase parallel
            mit homo sapiens für ca. 50.000 Jahre.
            Es kam zu geringfügigen genetischen
            Beeinflussungen. Eine eigenständige
            hohe Werkzeugkultur, die aus der
            Steinwerkzeugkultur der Acheul´een ca.
            -200.000 hervorging und bis -40.000
            nachweisbar ist. Neben Steinwerkzeugen
            auch Schmuck. Sie pflegten Kranke,
            bestatteten ihre Toten. Die differenzierte
            Sozialstruktur, das gemeinsames Jagen,die
            Werkzeugkultur, das großes Gehirn
            sowie die Genbeschaffenheit lassen es
            wahrscheinlich erscheinen, dass der
            Neandertalerüber Sprache verfügte. Ein
            besonders kalter Klimaschub um -50.000
            verursachte einen starken Rückzug aus
            West- und Mitteleuropa, der dann wieder
            mit Einwanderer aus dem Osten gefüllt
            wurde. Im Bereich Israels/ Palästina gab
            es zwischen ca. -120.000 und -50.000
            eine Koexistenz von Neandertaler und
            homo sapiens. Was auch darauf hindeutet,
            dass eine erste Auswanderungswelle von
            h.sapiens schon um ca. -120.000/ -100.000
            stattgefunden hatte, aber nur bis Israel
            gekommen ist. Warum die Neandertaler
            ausstarben ist unbekannt. homo sapiens
            hat seine Population in Europa im Zeitraum
            -55.000 und -35.000 etwa verzehnfacht.
            (Siehe: [SWW13]:SS.493-498)
          • Spezies/ Art: Homo sapiens (ab ca. -190.000 bis heute); Wanderungsbewegungen aus Afrika heraus ab ca. -125.000
            erster Vorstoß bis Arabien. Parallel gab
            es eine kleine Auswanderung um -120.000
            über das Niltal bis Palästina/Israel, die
            aber keine weitere Expansion zeigte. Um
            -70.000 von Arabien aus in den Süden des mittleren Ostens, um ca. -60.000/ -50.000 nach Neuguinea und
            Australien. Vor ca. -50.000 bis -45.000 über
            Kleinasien nach Südost-, Süd- und Westeuropa.
            Um ca. -40.000 über Zentralasien
            bis Nordchina. Von Asien aus um -19.000/ -15.000 Einwanderung in Nordamerika über
            die Beringstraße, bis nach Südamerika um
            ca. -13.000. Es gibt aber auch die Hypothese,
            dass Südamerika schon früher
            (ca. -35.000 ?)über den Pazifik besiedelt
            wurde. Die Gene der Indianer in Nord- und
            Südamerika stimmen mit Menschen aus
            Sibirien, Nordasien und Südasien überein.
            Ab der Zeit -60.000/ -40.000 wird ein deutlicher
            kultureller Entwicklungssprung beim
            homo sapiens diagnostiziert, dessen Entwicklung
            seitdem anhält und sich heute
            noch erheblich beschleunigt. Felszeichnungen
            ab ca. -40.000, Werkzeuge, Wohnungen,
            Kleidung, Sprache.
          • Spezies/ Art: Homo floresiensis
            (Siehe: [WE17g])(ca. um -38.000 bis -12.000)(Insel Flores, Indonesien). Benutze Steinwerkzeuge, beherrschte das Feuer, Kleinwüchsig, entwickeltes Gehirn. Insel
            war seit mindestens -800.000 besiedelt.
            Vorfahren könnten seit -1 Mio dort gewesen
            sein. (Siehe: [SWW13]:S.487f)
          • Spezies/ Art: Denisovaner (noch kein
            wissenschaftlicher Name vereinbart)(um
            -40.000) (Siehe: [WD17c]), Funde im
            Altai Gebirge (Süd-Sibierien); es gibt
            Funde auf den Pilippinen, in Indonesien,
            Neuguinea, Australien, auf einigen Inseln
            des südlichen Pazifik, mit den Genen der
            Denisovaner. Herkunft möglicherweise von
            h.heidelbergensis. Es gab genetischen
            Austausch mit h.sapiens. (Siehe:
            [SWW13]:S.498)

VIII. WAS FOLGT AUS ALLEDEM?

Jeder, der diesen Text bis hierher gelesen haben
sollte, wird sich unwillkürlich fragen: Ja und, was heißt
das jetzt? Was folgt aus Alledem?

In der Tat ist dieser Text noch nicht abgeschlossen.

Der Text stellt allerdings eine notwendige
Vorüberlegung dar zu der – hoffentlich – weiter führenden
Frage nach der Besonderheit des homo sapiens als
Erfinder und Nutzer von intelligenten Maschinen.

Während die abschließende Definition von potentiell
intelligenten Maschinen mit dem mathematischen
Konzept der Turingmaschine im Prinzip vollständig
vorliegt, erscheint die Frage, wer oder was denn der
homo sapiens ist, je länger umso weniger klar. Mit
jedem Jahr empirischer Forschung (in allen Bereichen)
enthüllt sich scheibchenweise eine immer unfassbarere
Komplexität vor unseren Augen, die ein Verständnis
des homo sapiens samt seinem gesamten biologischen
Kontext eher in immer weitere Ferne zu rücken scheint.

Konnten die großen Offenbarungsreligionen über
viele Jahrhunderte irgendwie glauben, dass sie
eigentlich wissen, wer der Mensch ist (obwohl sie
nahezu nichts wussten), ist uns dies heute – wenn wir
die Wissenschaften ernst nehmen – immer weniger
möglich. Wenn im jüdisch-christlichen Glauben der
Mensch bildhaft als ’Ebenbild Gottes’ bezeichnet werden
konnte und damit – zumindest indirekt – angesichts
dieser unfassbaren Erhabenheit eine Art Schauer über
den Rücken jagen konnte (ohne dass zu dieser Zeit
verstehbar war, worin denn die Besonderheit genau
besteht), so werden wir in den letzten Jahren durch
immer tiefere Einblicke in die Abgründe der Komplexität
von Leben und Lebensprozessen in einem scheinbar
lebensfremden physikalischen Universum provoziert,
herausgefordert, und Gelegenheit zum Staunen gäbe es
allerdings genug.

In diesem anwachsenden Wissen um
unser Nichtwissen begegnen wir einer schwer fassbaren
Größe, die wir salopp ’biologisches Leben’ nennen, die
aber alles übersteigt, dessen wir denkerisch fähig sind.

Eine der vielen Paradoxien des Universums ist
genau dieses Faktum: in einem scheinbar ’leblosen’
physikalischen Universum ’zeigen sich’ materielle
Strukturen, die Eigenschaften besitzen, die es strikt
physikalisch eigentlich nicht geben dürfte, und die sich
in einer Weise verhalten, die das ganze Universum
prinzipiell zu einem ’Un-Ort’ machen: das bekannte
physikalische Universum ist lebensfeindlich, das
biologische Leben will aber genau das Gegenteil:
es will leben. Wie kann das zusammen gehen? Warum
kann ein scheinbar lebloses physikalisches Universum
Überhaupt der Ort sein, wo Leben entsteht, Leben
stattfinden will, Leben sich schrittweise dem inneren
Code des ganzen Universums bemächtigt?

In weiteren Beiträgen wird es darum gehen, dieses
Phänomen ’biologisches Leben’ weiter zu erhellen,
und zu zeigen, wie das biologische Leben sich mit
Hilfe intelligenter Maschinen nicht nur generell weiter
entwickeln wird, sondern diesen Prozess noch erheblich
beschleunigen kann. Es gilt hier die Arbeitshypothese,
dass die intelligenten Maschinen ein konsequentes
Produkt der biologischen Evolution sind und dass es
gerade dieser Kontext ist, der dieser Technologie ihre
eigentliche Zukunftsfähigkeit verleiht.

Die heutigen Tendenzen, die Technologie vom biologischen Leben
zu isolieren, sie in dieser Isolation zugleich in geradezu
religiöser Manier zu Überhöhen, wird die evolutionär
induzierte Entwicklung dieser Technologie eher
behindern, und damit auch das vitale Element der
biologischen Evolution, den homo sapiens.

Der homo sapiens ist kein Individuum, er wird
repräsentiert durch eine Population, die wiederum nur
Teil einer umfassenderen Population von Lebensformen
ist, die sich gegenseitig am und im Leben halten. Es wird
wichtig sein, dass der homo sapiens diese Arbeitsteilung
versteht, bevor er mit seiner wachsenden Aufbau- und
Zerstörungskraft das biologische Universum zu stark
beschädigt hat.

Zum aktuellen Zeitpunkt kann niemand mit Gewissheit
sagen, ob das alles irgendeinen ’Sinn’ besitzt, d.h. ob es
in all den Abläufen in der Zukunft eine Menge möglicher
Zielzustände gibt, die in irgendeinem Sinne als ’gut’/
’schön’/ ’erfüllend’ oder dergleichen bezeichnet werden
können. Genauso wenig kann aber irgend jemand zum
aktuellen Zeitpunkt mit Gewissheit einen solchen Sinn
ausschließen. Rein empirisch kann man schon heute
eine solche Menge an atemberaubenden Strukturen und
Zusammenhänge erfassen, die ’aus sich heraus’ ein
Exemplar der Gattung homo sapiens in ’Erstaunen’ und
’Begeisterung’ versetzen können; aber weder gibt es für
solch ein Erstaunen einen Zwang, eine Regel, ein Muss,
noch ist all dies ’zwingend’. Noch immer können wir
nicht ausschließen, dass dies alles nur ein Spiel ist,
eine gigantische kosmologische Gaukelei, oder – wie
es die physikalischen kosmologischen Theorien nahelegen
– in einem gigantischen Kollaps endet, aus der
möglicherweise wieder ein Universum entsteht, aber ein
anderes.

REFERENCES

  • [AJL+15] B. Alberts, A. Johnson, J. Lewis, D. Morgan, M. Raff,
    K. Roberts, and P. Walter.Molecular Biology of the Cell.
    Garland Science, Taylor & Francis Group, LLC, Abington
    (UK) – New York, 6 edition, 2015.
  • [GJ79] Michael R. Garey and David S. Johnson.Computers and
    Intractibility. A Guide to the Theory of NP.Completeness.
    W.H. Freeman an Company, San Francisco (US), 1 edition,
    1979.
  • [Keg15] Bernhard Kegel.Die Herrscher der Welt. DuMont, Köln (DE),
    1 edition, 2015.
  • [Kuh62] Thonas S. Kuhn.The Structure of Scientific Revolutions.
    University of Chicago Press, Chicago (US), 1 edition, 1962.
  • [Par15] Hermann Parzinger.DIE KINDER DES PROMETHEUS.
    Geschichte der Menschheit vor der Erfindung der Schrift.
    Wissenschaftliche Buchgesellschaft, Darmstadt (DE), 2 edition,
    2015.
  • [Rot00] Peter Rothe.Erdgeschichte. Spurensuche im Gestein. Wissenschaftliche
    Buchgesellschaft, Darmstaadt (DE), 1 edition, 2000.
  • [SWW13] Volker Storch, Ulrich Welsch, and Michael Wink, editors.
    Evolutionsbiologie. Springer-Verlag, Berlin – Heidelberg, 3 edition, 2013.
  • [WD17a] Wikipedia-DE. Archäologie. 2017.
  • [WD17b] Wikipedia-DE. Ardipithecus. 2017.
  • [WD17c] Wikipedia-DE. Denisova-mensch. 2017.
  • [WD17d] Wikipedia-DE. Eiszeitalter. 2017.
  • [WD17e] Wikipedia-DE. Evolutionsbiologie. 2017.
  • [WD17f] Wikipedia-DE. Genetik. 2017.
  • [WD17g] Wikipedia-DE. Geologie. 2017.
  • [WD17h] Wikipedia-DE. Geschichte der geologie. 2017.
  • [WD17i] Wikipedia-DE. Graecopithecus freybergi. 2017.
  • [WD17j] Wikipedia-DE. Heisenbergsche unschärferelation. 2017.
  • [WD17k] Wikipedia-DE. Homo cepranensis. 2017.
  • [WD17l] Wikipedia-DE. Homo heidelbergensis. 2017.
  • [WD17m] Wikipedia-DE. Kenyanthropus platyops. 2017.
  • [WD17n] Wikipedia-DE. Klimatologie. 2017.
  • [WD17o] Wikipedia-DE. Känozoisches eiszeitalter. 2017.
  • [WD17p] Wikipedia-DE. Kosmologie. 2017.
  • [WD17q] Wikipedia-DE. Kurt gödel. 2017.
  • [WD17r] Wikipedia-DE. Menschenaffen. 2017.
  • [WD17s] Wikipedia-DE. Molekularbiologie. 2017.
  • [WD17t] Wikipedia-DE. Orrorin tugenensis. 2017.
  • [WD17u] Wikipedia-DE. Paläontologie. 2017.
  • [WD17v] Wikipedia-DE. Sahelanthropus tchadensis. 2017.
  • [WD17w] Wikipedia-DE. Supervulkan. 2017.
  • [WE17a] Wikipedia-EN. chimpanzee–human last common ancestor
    (chlca). 2017.
  • [WE17b] Wikipedia-EN. Cosmology. 2017.
  • [WE17c] Wikipedia-EN. Earth science. 2017.
  • [WE17d] Wikipedia-EN. Homininae. 2017.
  • [WE17e] Wikipedia-EN. Homo antecessor. 2017.
  • [WE17f] Wikipedia-EN. Homo erectus. 2017.
  • [WE17g] Wikipedia-EN. Homo floresiensis. 2017.
  • [WE17h] Wikipedia-EN. Homo gautengensis. 2017.
  • [WE17i] Wikipedia-EN. Homo rhodesiensis. 2017.
  • [WE17j] Wikipedia-EN. Paranthropus. 2017.
  • [WE17k] Wikipedia-EN. Sahelanthropus tchadensis. 2017.
  • [WE17l] Wikipedia-EN. Simian. 2017.

Eine FORTSETZUNG findet sich HIER.

VIII. KONTEXTE

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

Offenbarung – Der blinde Fleck der Menschheit

PDF

Als Nachhall zur Diskussion des Artikels von Fink hier ein paar Überlegungen, dass der durch die Religionen vereinnahmte Begriff der ‚Offenbarung‘ ein Grundbegriff ist, der wesentlich zum Menschen generell gehört, bevor irgendeine Religion darauf einen Anspruch anmelden kann.

I. KONTEXT

Diesen Beitrag könnte man unter ‚Nachwehen‘ einordnen, Nachwehen zu dem letzten Beitrag. In diesem Beitrag hatte ich versucht, deutlich zu machen, dass die üblichen Vorgehensweisen, in die neuen Erkenntnisse zur Entstehung, Struktur und Dynamik des physikalischen Universums, den Glauben an ein sehr bestimmtes, klassisches Gottesbild zu ‚interpolieren‘, heute nicht mehr überzeugen können, ja, abgelehnt werden müssen als eher wegführend vom wahren Sachverhalt.

Zu dieser kritisch-ablehnenden Sicht tragen viele Argumente bei (siehe einige in dem genannten Artikel). Besonders erwähnen möchte ich hier nochmals das Buch ‚Mysticism and Philosophy‘ von Stace (1960) [ siehe Teil 3 einer Besprechung dieses Buches ]. Stace konzentriert sich bei seinen Analysen an der Struktur der menschlichen Erfahrung, wie sie über Jahrtausende in vielen Kulturen dieser Welt berichtet wird. Während diese Analysen darauf hindeuten, dass der Kern der menschlichen Erfahrungen eher gleich erscheint, erklärt sich die Vielfalt aus der Tatsache, dass — nach Stace — jede Erfahrung unausweichlich Elemente einer ‚Interpretation‘ umfasst, die aus den bisherigen Erfahrungen stammen. Selbst wenn Menschen das Gleiche erleben würden, je nach Zeit, Kultur, Sprache können sie das Gleiche unterschiedlich einordnen und benennen, so dass es über den Prozess des Erkennens etwas ‚anderes‘ wird; es erscheint nicht mehr gleich!

In einem sehr kenntnisreichen Artikel The Myth of the Framework von Karl Popper, veröffentlicht im Jahr 1994 als Kapitel 2 des Buches The Myth of the Framework: In Defence of Science and Rationality [Anmerkung: Der Herausgeber M.A.Notturno weist im Epilog zum Buch darauf hin, dass die Beiträge zum Buch schon in den 1970iger Jahren vorlagen!] hatte sich Popper mit diesem Phänomen auch auseinandergesetzt, allerdings nicht von der ‚Entstehung‘ her (wie kommt es zu diesen Weltbildern), sondern vom ‚Ergebnis‘ her, sie sind jetzt da, sie sind verschieden, was machen wir damit? [Siehe eine Diskussion des Artikels von Popper als Teil des Beitrags].

Angeregt von diesen Fragen und vielen weiteren Ideen aus den vorausgehenden Einträgen in diesem Blog ergeben sich die folgenden Notizen.

II. DER ‚BIG BANG‘ HÖRT NIE AUF …

Die Geschichte beginnt im Alltag. Wenn man in die Gegenwart seines Alltags eingetaucht ist, eingelullt wird von einem Strom von scheinbar selbstverständlichen Ereignissen, dann kann man leicht vergessen, dass die Physik uns darüber belehren kann, dass dieser unser Alltag eine Vorgeschichte hat, die viele Milliarden Jahre zurück reicht zur Entstehung unserer Erde und noch viel mehr Milliarden Jahre bis zum physikalischen Beginn unseres heute bekannten Universums. Obgleich dieses gewaltige Ereignis mitsamt seinen gigantischen Nachwirkungen mehr als 13 Milliarden Jahre zurück liegt und damit — auf einer Zeitachse — längst vorbei ist, passé, gone, … haben wir Menschen erst seit ca.50 – 60 Jahren begonnen, zu begreifen, dass das Universum in einer Art ‚Urknall‘ ins physikalische Dasein getreten ist. Was immer also vor mehr als 13 Milliarden Jahren geschehen ist, wir selbst, wir Menschen als Exemplare der Lebensform homo sapiens, haben erst vor wenigen Jahrzehnten ‚gelernt‘, dass unsere aktuelle Gegenwart bis zu solch einem Ereignis zurück reicht. Das reale physikalische Ereignis ‚Big Bang‘ fand also erst viele Milliarden Jahre später in den Gehirnen und damit im Bewusstsein von uns Menschen (zunächst nur wenige Menschen von vielen Milliarden) statt. Erst im schrittweisen Erkennen durch die vielen tausend Jahre menschlicher Kultur entstand im Bewusstsein von uns Menschen ein virtuelles Wissen von etwas vermutet Realem. Das reale Ereignis war vorbei, das virtuelle Erkennen lies es viel später in einem realen Erkenntnisprozess virtuell wieder entstehen. Vorher gab es dieses Ereignis für uns Menschen nicht. So gesehen war das Ereignis indirekt ‚gespeichert‘ im physikalischen Universum, bis diese Erkenntnisprozesse einsetzten. Welch gigantische Verzögerung!

III. OFFENBARUNG

Der Begriff ‚Offenbarung‘ ist durch seine Verwendung in der zurückliegenden Geschichte sehr belastet. Vor allem die großen Religionen wie Judentum, Christentum und Islam haben durch ihre Verwendung des Begriffs ‚Offenbarung‘ den Eindruck erweckt, dass Offenbarung etwas sehr Besonderes sei, die Eröffnung von einem Wissen, das wir Menschen nicht aus uns selbst gewinnen können, sondern nur direkt von einem etwas, das mit der Wortmarke ‚Gott‘ [die in jeder Sprache anders lautet] gemeint sei. Nur weil sich dieses etwas ‚Gott‘ bestimmten, konkreten Menschen direkt zugewandt habe, konnten diese ein spezielles Wissen erlangen, das diese dann wiederum ‚wortwörtlich‘ in Texten festgehalten haben, die seitdem als ‚heilige‘ Texte gelten.

Im Fall der sogenannten heiligen Schriften des Judentums und des Christentums hat intensive wissenschaftliche Forschung seit mehr als 100 Jahren gezeigt, dass dies natürlich nicht so einfach ist. Die Schriften sind alle zu unterschiedlichen Zeiten entstanden, bisweilen Jahrhunderte auseinander, wurden mehrfach überarbeitet, und was auch immer ein bestimmter Mensch irgendwann einmal tatsächlich gesagt hat, das wurde eingewoben in vielfältige Interpretationen und Überarbeitungen. Im Nachhinein — von heute aus gesehen also nach 2000 und mehr Jahren — zu entscheiden, was ein bestimmter Satz in hebräischer oder griechischer Sprache geschrieben, tatsächlich meint, ist nur noch annäherungsweise möglich. Dazu kommt, dass die christliche Kirche über tausend Jahre lang nicht mit den Originaltexten gearbeitet hat, sondern mit lateinischen Übersetzungen der hebräischen und griechischen Texte. Jeder, der mal Übersetzungen vorgenommen hat, weiß, was dies bedeutet. Es wundert daher auch nicht, dass die letzten 2000 Jahre sehr unterschiedliche Interpretationen des christlichen Glaubens hervorgebracht haben.

Im Fall der islamischen Texte ist die Lage bis heute schwierig, da die bisher gefundenen alten Manuskripte offiziell nicht wissenschaftlich untersucht werden dürfen [Anmerkung: Siehe dazu das Buch von Pohlmann (2015) zur Entstehung des Korans; eine Besprechung dazu findet sich  hier: ]. Die bisherigen Forschungen deuten genau in die gleiche Richtung wie die Ergebnisse der Forschung im Fall der jüdisch-christlichen Tradition.

Die Befunde zu den Überlieferungen der sogenannten ‚heiligen‘ Schriften bilden natürlich nicht wirklich eine Überraschung. Dies liegt eben an uns selbst, an uns Menschen, an der Art und Weise, wie wir als Menschen erkennen, wie wir erkennen können. Das Beispiel der empirischen Wissenschaften, und hier die oben erwähnte Physik des Universums, zeigt, dass alles Wissen, über das wir verfügen, im Durchgang durch unseren Körper (Sinnesorgane, Körperzustände, Wechselwirkung des Körpers mit der umgebenden Welt, dann Verarbeitung Gehirn, dann Teile davon im Bewusstsein) zu virtuellen Strukturen in unserem Gehirn werden, die partiell bewusst sind, und die uns Teile der unterstellten realen Welt genau so zeigen, wie sie im bewussten Gehirn gedacht werden, und zwar nur so. Die Tatsache, dass es drei große Offenbarungsreligionen gibt, die sich alle auf das gleiche Etwas ‚Gott‘ berufen, diesem Gott dann aber ganz unterschiedliche Aussagen in den Mund legen [Anmerkung: seit wann schreiben Menschen vor, was Gott sagen soll?], widerspricht entweder dem Glauben an den einen Gott, der direkt spricht, oder diese Vielfalt hat schlicht damit zu tun, dass man übersieht, dass jeder Mensch ‚Gefangener seines Erkenntnisprozesses‘ ist, der nun einmal ist, wie er ist, und der nur ein Erkennen von X möglich macht im Lichte der bislang bekannten Erfahrungen/ Erkenntnisse Y. Wenn jüdische Menschen im Jahr -800 ein X erfahren mit Wissen Y1, christliche Menschen in der Zeit +100 mit Wissen Y2 und muslimische Menschen um +700 mit Wissen Y3, dann ist das Ausgangswissen jeweils völlig verschieden; was immer sie an X erfahren, es ist ein Y1(X), ein Y2(X) und ein Y3(X). Dazu die ganz anderen Sprachen. Akzeptiert man die historische Vielfalt, dann könnte man — bei gutem Willen aller Beteiligten — möglicherweise entdecken, dass man irgendwie das ‚Gleiche X‘ meint; vielleicht. Solange man die Vielfalt aber jeweils isoliert und verabsolutiert, so lange entstehen Bilder, die mit Blick auf den realen Menschen und seine Geschichte im realen Universum kaum bis gar nicht zu verstehen sind.

Schaut man sich den Menschen und sein Erkennen an, dann geschieht im menschlichen Erkennen, bei jedem Menschen, in jedem Augenblick fundamental ‚Offenbarung‘.

Das menschliche Erkennen hat die Besonderheit, dass es sich bis zu einem gewissen Grad aus der Gefangenschaft der Gegenwart befreien kann. Dies gründet in der Fähigkeit, die aktuelle Gegenwart in begrenzter Weise erinnern zu können, das Jetzt und das Vorher zu vergleichen, von Konkretem zu abstrahieren, Beziehungen in das Erkannte ‚hinein zu denken‘ (!), die als solche nicht direkt als Objekte vorkommen, und vieles mehr. Nur durch dieses Denken werden Beziehungen, Strukturen, Dynamiken sichtbar (im virtuellen Denken!), die sich so in der konkreten Gegenwart nicht zeigen; in der Gegenwart ist dies alles unsichtbar.

In dieser grundlegenden Fähigkeit zu erkennen erlebt der Mensch kontinuierlich etwas Anderes, das er weder selbst geschaffen hat noch zu Beginn versteht. Er selbst mit seinem Körper, seinem Erkennen, gehört genauso dazu: wir wurden geboren, ohne dass wir es wollten; wir erleben uns in Körpern, die wir so nicht gemacht haben. Alles, was wir auf diese Weise erleben ist ’neu‘, kommt von ‚außen auf uns zu‘, können wir ‚aus uns selbst heraus‘ nicht ansatzweise denken. Wenn irgendetwas den Namen ‚Offenbarung‘ verdient, dann dieser fundamentale Prozess des Sichtbarwerdens von Etwas (zu dem wir selbst gehören), das wir vollständig nicht gemacht haben, das uns zu Beginn vollständig unbekannt ist.

Die Geschichte des menschlichen Erkennens zeigt, dass die Menschen erst nur sehr langsam, aber dann immer schneller immer mehr von der umgebenden Welt und dann auch seit kurzem über sich selbst erkennen. Nach mehr als 13 Milliarden Jahren erkennen zu können, dass tatsächlich vor mehr als 13 Milliarden Jahren etwas stattgefunden hat, das ist keine Trivialität, das ist beeindruckend. Genauso ist es beeindruckend, dass unsere Gehirne mit dem Bewusstsein überhaupt in der Lage sind, virtuelle Modelle im Kopf zu generieren, die Ereignisse in der umgebenden Welt beschreiben und erklären können. Bis heute hat weder die Philosophie noch haben die empirischen Wissenschaften dieses Phänomen vollständig erklären können (obgleich wir heute viel mehr über unser Erkennen wissen als noch vor 100 Jahren).

Zu den wichtigen Erkenntnissen aus der Geschichte des Erkennens gehört auch, dass das Wissen ‚kumulierend‘ ist, d.h. es gibt tiefere Einsichten, die nur möglich sind, wenn man zuvor andere, einfachere Einsichten gemacht hat. Bei der Erkenntnis des großen Ganzen gibt es keine ‚Abkürzungen‘. In der Geschichte war es immer eine Versuchung, fehlendes Wissen durch vereinfachende Geschichten (Mythen) zu ersetzen. Dies macht zwar oft ein ‚gutes Gefühl‘, aber es geht an der Realität vorbei. Sowohl das kumulierende Wissen selbst wie auch die davon abhängigen alltäglichen Abläufe, die Technologien, die komplexen institutionellen Regelungen, die Bildungsprozesse usw. sie alle sind kumulierend.

Aus diesem kumulierenden Charakter von Wissen entsteht immer auch ein Problem der individuellen Verarbeitung: während dokumentiertes und technisch realisiertes Wissen als Objekt durch die Zeiten existieren kann, sind Menschen biologische Systeme, die bei Geburt nur mit einer — wenngleich sehr komplexen — Grundausstattung ihren Lebensweg beginnen. Was immer die Generationen vorher gedacht und erarbeitet haben, der jeweils neue individuelle Mensch muss schrittweise lernen, was bislang gedacht wurde, um irgendwann in der Lage zu sein, das bisher Erreichte überhaupt verstehen zu können. Menschen, die an solchen Bildungsprozessen nicht teilhaben können, sind ‚Fremde‘ in der Gegenwart; im Kopf leben sie in einer Welt, die anders ist als die umgebende reale Welt. Es sind wissensmäßig Zombies, ‚Unwissende‘ in einem Meer von geronnenem Wissen.

Sollte also das mit der Wortmarke ‚Gott‘ Gemeinte eine Realität besitzen, dann ist der Prozess der natürlichen Offenbarung, die jeden Tag, in jedem Augenblick ein wenig mehr die Erkenntnis Y über das uns vorgegebene Andere ermöglicht, die beste Voraussetzung, sich diesem Etwas ‚X = Gott‘ zu nähern. Jede Zeit hat ihr Y, mit dem sie das Ganze betrachtet. Und so sollte es uns nicht wundern, dass die Geschichte uns viele Y(X) als Deutungen des Etwas ‚X = Gott‘ anbietet.

Empirisches Wissen, Philosophisches Wissen, religiöses Wissen kreisen letztlich um ein und dieselbe Wirklichkeit; sie alle benutzen die gleichen Voraussetzungen, nämlich unsere menschlicher Existenzweise mit den vorgegebenen Erkenntnisstrukturen. Niemand hat hier einen wesentlichen Vorteil. Unterschiede ergeben sich nur dadurch, dass verschiedenen Kulturen unterschiedlich geschickt darin sind, wie sie Wissen kumulieren und wie sie dafür Sorge tragen, dass alle Menschen geeignete Bildungsprozesse durchlaufen.

IV. VEREINIGTE MENSCHHEIT

Schaut man sich an, wie die Menschen sich auch nach den beiden furchtbaren Weltkriegen und der kurzen Blüte der Idee einer Völkergemeinschaft, die Ungerechtigkeit verhindern sollte, immer wieder — und man hat den Eindruck, wieder mehr — in gegenseitige Abgrenzungen und Verteufelungen verfallen, vor grausamen lokalen Kriegen nicht zurück schrecken, die Kultur eines wirklichkeitsbewussten Wissens mutwillig schwächen oder gar zerstören, dann kann man schon mutlos werden oder gar verzweifeln.

Andererseits, schaut man die bisherige Geschichte des Universums an, die Geschichte des Lebens auf der Erde, die Geschichte des homo sapiens, die letzten 10.000 Jahre, dann kommt man nicht umhin, festzustellen, dass es eine dynamische Bewegung hin zu mehr Erkenntnis und mehr Komplexität gegeben hat und noch immer gibt. Und wenn man sieht, wie wir alle gleich gestrickt und auf intensive Kooperation angewiesen sind — und vermutlich immer mehr –, dann erscheinen die Menschen eher wie eine Schicksalsgemeinschaft, wie ‚earth children‘, wie eine ‚Gemeinschaft von Heiligen kraft Geburt‘!

Das Wort ‚Heilige‘ mag alle irritieren, die mit Religion nichts verbinden, aber die ‚Heiligen‘ sind in den Religionen alle jene Menschen, die sich der Wahrheit des Ganzen stellen und die versuchen, aus dieser Wahrheit heraus — ohne Kompromisse — zu leben. Die Wahrheit des Ganzen ist für uns Menschen primär diese Grundsituation, dass wir alle mit unseren Körpern, mit unserem Erkennen, Teil eines Offenbarungsprozesses sind, der für alle gleich ist, der alle betrifft, und aus dem wir nicht aussteigen können. Wir sind aufeinander angewiesen. Anstatt uns gegenseitig zu bekriegen und abzuschlachten, also die ‚Bösen‘ zu spielen, wäre es näherliegender und konstruktiver, uns als ‚Heilige‘ zu verhalten, die bereit sind zum Erkennen, die bereit sind aus der Erkenntnis heraus zu handeln. Das alles ist — wie wir wissen können — nicht ganz einfach, aber es hat ja auch niemand gesagt, dass es einfach sei. Das Leben auf der Erde gleicht eher einem Expeditionschor, das im Universum an einer bestimmten Stelle gelandet ist, und jetzt den Weg zum Ziel finden muss. Wir brauchen keine TV-Reality-Shows, wir selbst sind die radikalste Reality-Show, die man sich denken kann. Und sie tritt gerade in eine sehr heiße Phase ein [Anmerkung: … nicht nur wegen des Klimas 🙂 ].

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

EARTH 2117 – ERDE 2117 – Erste Gedanken – Simupedia für alle?

KONTEXT

  1. Wie man als Leser des Blogs bemerken kann, fokussiert sich der Blog zur Zeit hauptsächlich auf drei Themenfelder: (i) Die Frage nach der technischen Superintelligenz (TSI); (ii) die Frage nach dem, was der Mensch ist bzw. werden kann, mit der speziellen Teilfrage nach der mystischen Erfahrung (gibt es die? Was sagt dies über den Menschen und die Welt?); sowie (iii) die Frage nach dem möglichen Zustand der Erde im Jahr 2117. Die Zahl 2117 ergab sich u.a. aus den aktuellen Prognosen, zu welchem Zeitpunkt Experten das Auftreten einer technischen Superintelligenz für hoch wahrscheinlich halten. Zu diesen drei Themenfeldern kommen dann noch die möglichen Wechselwirkungen zwischen (i), (ii) und (iii). Andere Themen sind grundsätzlich nicht ausgeschlossen, sind aber bis auf weiteres Nebenthemen.

PROGNOSEN GENERELL

  1. Die Frage nach dem möglichen Zustand der Erde setzt voraus, dass wir den Zustand der Erde als veränderlich ansehen, dass es ein Jetzt gibt, und dass es im jeweiligen Jetzt die Möglichkeit gibt, dass sich Eigenschaften der Erde im Jetzt so verändern, dass es zu einem nachfolgenden Jetzt andere Eigenschaften gibt als beim vorausgehenden Jetzt.

DER MENSCH UND DIE ZEIT

  1. Auf Seiten des Menschen ist es die Erinnerungsfähigkeit, die den Menschen in die Lage versetzt, zwischen einem aktuellen Jetzt und einem vorausgehenden Jetzt zu unterscheiden. Auf Seiten des Menschen sind es weitere kognitive Fähigkeiten, die den Menschen in die Lage versetzen, am Wahrgenommenen und Erinnerten kognitive Eigenschaften zu erfassen (durch Abstrahieren, Klassifizieren, Vergleichen usw.) mit denen sich kognitiv Veränderungen identifizieren lassen. Mittels solcher identifizierten kognitiven Konzepten der Veränderung kann der Mensch von angenommenen (kognitiven) Zuständen auf mögliche (kognitive) Zustände mittels der angenommenen Veränderungskonzepte schließen. Der Mensch ist also grundsätzlich in der Lage, aufgrund von Erfahrungen aus der Vergangenheit im Vergleich zur Gegenwart mögliche Veränderungen zu erschließen, die dann wiederum genutzt werden können, mögliche Zukünfte zu denken.
  2. Natürlich hängt die Qualität solche Hochrechnungen entscheidend davon ab, wie wirklichkeitsnah die Erfahrungen aus der Vergangenheit sind, die Art der Erinnerungen, die möglichen Denkoperationen des Selektierens, Abstrahierens, Vergleichens usw. Wie gut mögliche Veränderungen erfasst wurden, einschließlich der möglichen Wechselwirkungen zwischen unterschiedlichen Faktoren.

TECHNISCHE HILFSMITTEL: COMPUTER

  1. Wie der Gang der Wissenschaften und der Technologie uns zeigen kann, können solche möglichen Hochrechnungen deutlich verbessert werden, wenn der Mensch für diese (kognitiven) Denkleistungen als Hilfsmittel formalisierte Sprachen benutzt und Computer, die mittels Algorithmen bestimmte Denkoperationen des Menschen modellhaft nachvollziehen können. Statt also per Hand auf dem Papier umfangreiche Rechnungen viele tausend Male selbst vorzunehmen (wozu in der Realität dann sehr schnell einfach die Zeit und Arbeitskraft fehlt), schreibt man einen Algorithmus (= Programm, Software), der diese Rechnungen für das Arbeiten eines Computers übersetzt und die Maschine dann die Rechnungen automatisch (= maschinell) machen lässt.

BEGRIFF DER ZEIT

  1. Ein nicht unwesentlicher Faktor in diesen Überlegungen zu möglichen Zukünften ist der Begriff der Zeit.
  2. Der Begriff der Zeit ist viel schillernd und je nach Kontext kann er etwas ganz Verschiedenes bedeuten.
  3. Im Kontext des menschlichen Denkens haben wir die grundsätzliche Unterscheidung zwischen dem aktuellen Jetzt und dem vorausgehenden Jetzt in Form von verfügbaren Erinnerungen. Dazu kommen dann mögliche Jetzte aufgrund der Möglichkeit, im (kognitiven) Denken mittels dem (kognitiven) Konzept von Veränderung, aus der Vergangenheit und der Gegenwart denkbare (= mögliche) neue Zustände zu berechnen (zu denken, vorzustellen, …). Im Denken sind diese möglichen Zustände rein gedacht (virtuell), aber, sofern sie genügend nahe an der empirischen Wirklichkeit sind, könnten diese möglichen Zustände real werden, d.h. Zu einem neuen aktuellen Jetzt.

UHREN-MASCHINEN

  1. Um das Reden über diese unterschiedliche Formen von Jetzten zu vereinfachen, wurde sehr früh das Hilfsmittel der Uhr eingeführt: die Uhr ist eine Maschine, die periodisch Uhren-Ereignisse erzeugt, denen man Zahlzeichen zuordnen kann, also z.B. 1, 2, 3, … Es hat sich dann eingebürgert, ein Zeitsystem zu vereinbaren, bei dem man Jahre unterscheidet, darin 12 Monate, darin Wochen, darin 7 Wochentage, darin 24 Stunden pro Tag, darin 60 Minuten pro Stunde, darin 60 Sekunden pro Minute, und noch feinere Unterteilungen.
  2. Nimmt man an, dass eine Uhren-Maschine periodisch Sekunden erzeugt, dann würde jede Sekunde ein Ereignis angezeigt, dem dann nach 60 Sekunden eine Minute entsprechend würde, 60 Minuten dann eine Stunde, usw.
  3. Sofern man dann noch das praktische Problem lösen kann, wie die Uhren-Maschinen überall auf der Erde die gleiche Zeit anzeigen, und man einen gemeinsamen Referenzpunkt für den Beginn der Zeitrechnung hat, dann könnten alle Menschen nach der gleichen Zeitgebung leben.
  4. Unter Voraussetzung solcher einer Technologie der Zeiterzeugung könnte man dann abstrakt immer von definierten Zeitpunkten in diesem vereinbarten Zeitsystem sprechen.

(TECHNISCHE) SIMULATION

  1. Verfügt man über Computer und Zeit-Maschinen, dann kann man den Computer dazu nutzen, im Raum von definierten Zeitpunkten Hochrechnungen vorzunehmen. Man definiert Ausgangssituationen zu bestimmten Zeitpunkten (die Startzeit), man definiert angenommene mögliche Veränderungen in der Zeit, die man dann in Form eines Algorithmus aufschreibt, und dann lässt man den Computer für einen gewünschten Zeitraum ausrechnen, welche Veränderungen sich ergeben.
  2. Will man z.B. errechnen, wie sich die Bevölkerungszahl in einer bestimmten Population im Laufe von 10 Jahren berechnen, und man weiß aufgrund der Vergangenheit, wie hoch die durchschnittlichen Geburten- und Sterberaten für ein Jahr waren, dann kann man die Veränderungen von Jahr 1 zu Jahr 2 berechnen, dann wieder von Jahr 2 zu Jahr 3, usw. bis man das Zieljahr erreicht hat.
  3. Diese Rechnungen sind natürlich nur solange genau, wie sich die Geburten- und Sterberaten in diesem angenommenen Zeitraum nicht verändern. Wie wir aus der Geschichte wissen können, gibt es zahllose Faktoren, die auftreten können (Hunger, Krankheit, Kriege, …), die eine Veränderung mit sich bringen würden.
  4. Ferner sind Populationen immer seltener isoliert. Der Austausch zwischen Populationen nimmt heute immer mehr zu. Eine ganz normale Gemeinde im Kreis Offenbach (Land Hessen, Deutschland) kann z.B. eine Migrationsrate von 15% pro Jahr haben (Menschen die wegziehen oder herziehen), bei einer Geburtenrate von 0,7% und einer Sterberate von 0,8%. Die Größe einer Population hängt dann weniger vom Geborenwerden und Sterben ab, sondern von Standortfaktoren wie Verfügbarkeit von Arbeit, Höhe der Mietpreise, Verkehrsanbindung, Qualität der Schulen, ärztliche Versorgung usw.

DIE ERDE

  1. Will man nun die Erde als ganze betrachten, und hat man sowohl ein vereinbartes Zeitsystem zur Verfügung basierend auf einer gemeinsamen globalen Uhren-Technologie, wie auch Computer, die geeignete Algorithmen ausführen können, dann braucht man ’nur noch‘ (i) hinreichend gute Beschreibungen des Zustands der Erde jetzt, (Daten IST) (ii) von möglichst vielen Zuständen in der Vergangenheit (DATEN VORHER), und (iii) von möglichst allen wichtigen wirkenden Veränderungen zwischen diesen Zuständen (VREGELN). Unter der Annahme, dass alle diese Daten und Veränderungsregeln hinreichend realistisch sind, kann man dann Hochrechnungen für angenommene Zeiträume machen. In unserem Fall von 2017 bis 2117.
  2. Da schon das kleine Beispiel einer winzigen Gemeinde in Deutschland leicht erkennen lässt, wie fragil viele erkannten Veränderungsregeln sind, kann man vermuten, dass dies auf ein so komplexes System wie die ganze Erde sicher auch zutreffen wird.
  3. Betrachten wir ein paar (stark vereinfachte, idealisierte) Beispiele.
  4. Ganz allgemein gehen wir aus von einer globalen Veränderungsregel V_erde für die Erde, die den Zustand der Erde im Jahr 2017 (ERDE_2017) hochrechnen soll auf den Zustand der Erde im Jahr 2117 (ERDE_2117), als Abbildung geschrieben: V_erde : ERDE_2017 —> ERDE_2117.
  5. Der Zustand der Erde im Jahr 2017 (ERDE_2017) setzt sich zusammen aus einer ganzen Menge von Eigenschaften, die den Zustand charakterisieren. Abstrakt könnten wir sagen, die Erde besteht zu jedem Zeitpunkt aus einer Menge charakteristischer Eigenschaften Ei (ERDE_Zeit = <E1, E2, …, En>), und je nachdem, welche Veränderungen zwischen zwei Zeitpunkten stattgefunden haben, verändern sich in dieser Zeitspanne bestimmte Eigenschaften Ei.
  6. Beispiele für solche charakteristischen Eigenschaften Ei könnten sein das Klima (E_Klima), das wiederum selbst in unterscheidbare Eigenschaften zerfällt wie z.B. die durchschnittliche Sonneneinstrahlung, Beschaffenheit der Atmosphäre, Niederschlagsmenge, Wassertemperatur der Ozeane, Verdunstungsgrad des Wassers, usw. Zusammenhängend damit kann von Bedeutung sein die Bodenbeschaffenheit, verfügbare Anbauflächen, Pflanzenwachstum, mögliche Ernten, usw. Dazu wichtig die Verteilung der biologischen Populationen, deren Nahrungsbedarf, die Wechselwirkung zwischen Populationen und Pflanzenwachstum, usw. Hier fällt einem sofort auch die Frage der Lagerung von Nahrungsmitteln auf, deren Verarbeitung und Transport, deren Verteilung und deren Marktpreise.
  7. Schon diese sehr kleine Liste von Eigenschaften und angedeuteten Wechselwirkungen lassen erahnen, wie unterschiedlich mögliche Verläufe der Veränderungen in der Zukunft sein können. Von Heute aus gesehen gibt es also nie nur eine Zukunft, sondern sehr, sehr viele mögliche Zukünfte. Welche der vielen möglichen Zukünfte tatsächlich eintreten wird, hängt von vielen Faktoren ab, nicht zuletzt auch vom Verhalten der Menschen selbst, also von uns, von jedem von uns. (An diesem Punkt lügt die deutsche Sprache! Sie spricht nur von einer Zukunft im Singular (in der Einzahl), in Wahrheit sind es sehr viele und wir können mit bewirken, welche der vielen Zukünfte eintreten wird).

WARUM ÜBER ZUKUNFT SPEKULIEREN?

  1. Angesichts so vieler Unwägbarkeiten hört man oft von Menschen (speziell auch von Politikern!), dass Versuche der Hochrechnungen (= Simulation) auf mögliche Zukünfte sinnlos seien; eine unnötige Verschwendung von Zeit und damit Ressourcen.
  2. Auf den ersten Blick mag dies tatsächlich so erscheinen. Aber nur auf den ersten Blick.
  3. Der Wert von solchen Modellrechnungen über mögliche Zukünfte liegt weniger im Detail der Endergebnisse, sondern im Erkenntniswert, der dadurch entsteht, dass man überhaupt versucht, wirkende Faktoren und deren Wechselwirkungen mit Blick auf mögliche Veränderungen zu erfassen.
  4. Wie oft hört man Klagen von Menschen und Politikern über mögliche gesellschaftliche Missstände (keine Maßnahmen gegen Autoabgase, falsche Finanzsysteme, falsche Verkehrspolitik, falsche Steuerpolitik, falsche Entwicklungspolitik, fragwürdige Arzneimittelmärkte, …). Vom Klagen alleine ändert sich aber nichts. Durch bloßes Klagen entsteht nicht automatisch ein besseres Verständnis der Zusammenhänge, der Wechselwirkungen. Durch bloßes Klagen gelangt man nicht zu verbesserten Modellvorstellungen, wie es denn überhaupt anders aussehen könnte.

SIMUPEDIA FÜR ALLE

  1. Was die Not zumindest ein wenig lindern könnte, das wären systematische (wissenschaftliche) Recherchen über alle Disziplinen hinweg, die in formalen Modellen aufbereitet werden und dann mittels Algorithmen getestet werden: Was wäre, wenn wir die Eigenschaften E1, …, En einfach mal ändern und hier und dort neue Wirkmechanismen (durch Bildung, durch Gesetze, …) ermöglichen würden? Das Ganze natürlich transparent, öffentlich nachvollziehbar, interaktiv für alle. Nicht nur ein ‚Wikipedia‘ der Texte, sondern zusätzlich  eine Art ‚Simupedia‘ der Simulationen für alle.

Interessante  Ergänzung zu diesen ersten Überlegungen finden sich in den folgenden Beiträgen:  EIN HOMO SAPIENS – VIELE BILDER. Welches ist wahr? ,   WAHRHEIT ALS UNABDINGBARER ROHSTOFF EINER KULTUR DER ZUKUNFTWENN PHILOSOPHISCHE SACHVERHALTE POLITISCH RELEVANT WERDEN  sowie ‚Informelle Kosmologie‘; hier der erste Teil mit einer Fortsetzung Teil 2 .

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

DIE ZUKUNFT WARTET NICHT – 2047 – 2077 – 2107

FAHRGÄSTE

  1. Noch sind wir Fluggäste auf der Erde, die mit durchschnittlich 30 km/s ihrer Bahn um die Sonne nachjagt. In 365 ¼ Tagen hat sie es einmal um die Sonne geschafft. Im Äquatorbereich dreht sie sich mit 464 m/s an der Oberfläche um die eigene Achse. Wow, wir merken nahezu nichts davon; ein bisschen hell-dunkel, ein bisschen warm-kalt, aber von einer rasanten Geschwindigkeit ist nichts zu spüren. … und in wenigen Stunden vom Jetzt entfernt sagt uns unser mechanisches Zeit- und Kalendersystem, dass wir die Stunde Null des Jahres 2017 erreichen werden…

ÜBLICHE PARTIES

  1. Es wird die üblichen Jahresabschlussparties geben, viele Böller und Raketen, Jahresrückblicke, … aber – man kann staunen – keine Zukunftsbetrachtungen!
  2. Das Stöhnen über das letzte Jahr hat Tradition, die witzigstes, besondersten, grandiosesten, teuersten, unglaublichsten … Ereignisse werden aufgezählt, … eine wirkliche Moral von der Geschichte gibt es aber nicht, nicht mal im Ansatz.

TOTALAUSFALL ZUKUNFT

  1. Gibt es keine Zukunft? Ist das Denken über die Zukunft verboten? Haben wir Angst vor der Zukunft? Warum wollen wir nicht wissen, wie es vielleicht weitergeht? Haben wir nicht Wünsche für das Leben? Gibt es nicht drängende Aufgaben, die wir lösen müssten, gemeinsam?
  2. Ja, es ist sehr merkwürdig, wie wir öffentlich mit Zukunft umgehen.

HERAUSFORDERUNGEN GIBT ES

  1. Jede Firma, die auf sich hält, muss – schon um ihres eigenen Überlebens willen – einen Blick in die Zukunft werfen: wie wird sich der Markt entwickeln? Was werden die Kunden wollen? Welche Kunden wird es überhaupt geben? Was ist mit potentiellen Mitbewerben? Wie sieht es mit der Materialbeschaffung aus, dem Einkauf? Wie steht es um die Finanzierungsmöglichkeiten? Wie entwickeln sich Umtauschraten und Zinsen? Was tut die Gesetzgebung: muss man mit erschwerenden Auflagen in der Zukunft rechnen (z.B. durch den Verbraucherschutz, den Umweltschutz?) Wie steht es mit den Mitarbeitern: sind sie gut genug ausgebildet? Hat man genügend viele? Sind sie gut genug motiviert? Wie steht es mit der Lohnentwicklung – ist man noch konkurrenzfähig? Was wird mit der Logistik sein – Aufwand an Zeit und Geld, Zuverlässigkeit? Wie steht es um die Qualität der Produkte und Dienstleistungen? Muss man hier nachlegen? Wie aufwendig ist dies? Was ist mit neuen, innovativen Produkten: hat man die? Wie bekommt man diese? Wie aufwendig ist dies? ….
  2. In den kommunalen Verwaltungen der Dörfer und Städte ist dies nicht anders. Wie steht es mit der Bevölkerungsentwicklung: Ab- oder Zunahme? Vergreisung oder Verjüngung? Gibt es genügend bezahlbaren Wohnraum? Kindergärten, Schulen, Krankenhäuser, Feuerwehr, …? Funktioniert der Verkehr, das Abwassersystem, die Wasserversorgung, die Elektrizität… ? Stimmen die Finanzen – Wo gibt es Risiken? Wo potentielle Einnahmen? Wo kommende Kosten? Was ist mit Handel und Industrie: hat man genug davon? Wie viele Arbeitsplätze bedeutet dies? Welche Umweltbelastungen, welche Verkehrsflüsse? Wie wird die gesamte Energieentwicklung sein? Was ist bei Katastrophen (welchen?): was muss vorgehalten werden? Wie dafür üben? Wie steht es mit der Versorgung für Nahrungsmittel? Welche Bodennutzungen müssen gewahrt werden, welche sind notwendig (Freiflächen, Grünflächen, Plätze, Gartenbau, Ackerbau, Weiden…)? …
  3. In der Landes- und Bundespolitik kommt das ganze Bildungssystem dazu: wer soll wofür und wie ausgebildet werden? Wo kommen die guten Ausbilder her? Öffentliche Ordnung und Sicherheit: was braucht man? Wer tut dies? Wie? Wieweit hilft das Rechtssystem, das gesellschaftliche Leben zu ermöglichen, zu stabilisieren? Wer befindet über das Recht? Wer macht es? Wie viel Recht brauchen wir? Wie schnelllebig darf es sein? Welche Ziele haben wir, für die wir das Recht brauchen? Was ist mit potentiellen Feinden von außen? Gibt es die? Können sie sich entwickeln? Woran erkennt man potentielle Feinde? Wie gewinnt man Freunde? Wie neutralisiert man Krisen? Was ist mit internationalem Handel? Wann kann wer wie Handel treiben? Was ist mit dem internationalen Informationsfluss? Flugwesen, Schiffswesen, Rohstoffgewinnung, Vermüllung der Meere, Verschrottung im Weltraum, Klimaänderungen, …..
  4. Brauchen wir immer noch Religionen? Was tun sie eigentlich? Sind sie Quelle von Intoleranz und Hass oder die Kraftfelder für Hoffnung, Toleranz, Weltverbesserung? Wie gehen sie miteinander um? Sollten sie nicht eine bessere Zukunft vorleben? Miteinander? Für andere? Eine universale Weltreligion der positiven Menschen?

LEIDER NICHT

  1. Zur Jahreswende, Sylvester, werden wir nichts von alledem hören und sehen. Und wenn der Jahreswechsel vorbei ist, wird das Schweigen zur Zukunft weiter gehen. Jeder scheint mit sich selbst beschäftigt zu sein, jeder scheint an seinem eigenen Stuhl zu sägen, fast verbissen. Nur nicht rechts oder links schauen, nur nicht aufblicken, man könnte ja der Wirklichkeit begegnen, den anderen Menschen, den anderen Kommunen, den anderen Ländern, der Erde, wie sie ihre Energien auslebt in Kontinentalverschiebungen, Erdbeben, Vulkanausbrüchen, dazu die anderen Asteroiden, Planeten, Sonnen,Galaxien, die ihren Lauf nehmen, und auch sterben, neu geboren werden, sich verschmelzen in Zeiträumen, die sich unserer beschränkten Wahrnehmung entziehen.

DAS KLEINE GALLISCHE DORF DER KREATIVITÄT

  1. Die verbreitete Paralyse des Denkens über unsere möglichen Zukünfte ist aber nicht vollständig … so wie bei Asterix und Obelisk eine kleine Enklave der Gallier existierte, die dem römischen Weltreich widerstand (in der realen Geschichte waren es die Alemannen und Franken, die den Römern im Norden Paroli boten), so finden sich in der nichtoffiziellen Welt der Filme und Computerspiele, in den Science-Fiction Romanen und Comics, eine überbordende Bilder- und Gedankenwelt zu möglichen Zukünften, die zeigt, dass der menschlicher Geist nicht nur ein bürokratisch verkümmertes Dasein fristen kann. Während die öffentlich-rechtliche Medienwelt sich in Bravheit und Langeweile gefällt, der offizielle Kulturbetrieb sich vorwiegend an der Vergangenheit berauscht, kämpfen in der inoffiziellen Kulturwelt mittlerweile ganze Legionen von Helden und Superheldinnen mit Supertechnologien in den wildesten Katastrophen, die sich ein menschliches Gehirn so auszudenken vermag. Hier mischen sich religiöse, wissenschaftliche, philosophische, technische, kulturelle und esoterische Gedanken zu einem Gedankentrunk, der aufreizt, mitreißt, benommen macht, begeistert, erschreckt, wundern lässt, nachdenklich macht. Hier, leider nur hier, lebt menschliche Kreativität und Innovation im Vollrausch, und Verbesserungen sind überall noch möglich.

QUO VADIS HOME SAPIENS?

  1. Was also tun homo sapiens?
  2. Die Zukunft wartet nicht.
  3. Das Jahr 2047 wird kommen und es wäre nicht schlecht, wenn wir als Menschen wüssten, was wir im Jahr 2047 wollen: wollen wir tatsächlich alle zusammen leben oder werden einige versuchen, sich auf Kosten aller anderen einen Platz an der vermeintlichen Sonne des Lebens zu sichern? Wenn wir ein Leben für alle wollen, was müssten wir unternehmen, um dahin zu kommen: Wissen, Bildung, stabile Austauschbeziehungen würden unerlässlich sein, dazu vieles mehr. Werden wir es anpacken oder warten wir einfach ab? Lassen wir unsere Enkel und deren Kinder alleine? Sollen sie doch sehen, wie sie zurecht kommen? Könnte ein Netanjahu, ein Trump, ein Putin, ein Erdogan (und viele andere) die Zukunft der ganzen Erde einfach so an die Wand fahren, nur weil sie – so scheint es – sich selbst lieber mögen als alles andere?
  4. Nach dem Jahr 2047 wird unausweichlich das Jahr 2077 kommen. Für die Älteren von uns schon jenseits ihrer normalen Lebenserwartung. Es wird die große Zeit der Enkel der 2.Generation unserer heutigen Enkel sein. Werden sie überhaupt noch leben? Wie? Wird es dann die USA, Russland, China, Europa noch geben? Werden nicht das Klima, der Wassermangel, der Ressourcenmangel, die Verschmutzung der Meere und des Weltraums ein Leben stark erschwert haben? Welche Krankheiten wird es geben? Körperliche Schwächen, psychische Ausfälle, neue Bakterien und Viren, das Werteproblem …. Werden tatsächlich die Maschinen übernommen haben oder wird es schon hybride Mensch-Maschine-Systeme geben, die deutlich anders sind als wir?
  5. Und dann das Jahr 2107 … von heute aus die 5.Generation der Enkel… Was werden die über uns denken, in denen wir Sylvesterparties gefeiert haben ohne jeden Gedanken über das, was kommen wird, über das, was kommen sollte, über das, was kommen könnte… wir leiden an uns selbst … warum ändern wir uns nicht? Warum provozieren wir Feindschaft statt Freundschaften zu schließen? Warum sind immer die anderen die Bösen? Was ist mit uns? Warum verbieten wir uns, über die Zukunft nachzudenken? Wollen wir nicht leben? Sind wir nicht Teil eines unfassbaren Wunders, das sich Leben im Universum nennt? Warum lässt uns dies kalt?

Fortsetzung: Ja, es gibt eine Fortsetzung zum Thema dieses Blogeintrags am 5.Februar 2017 unter dem Titel:

DIE ZUKUNFT WARTET NICHT – 2117 – GEHEN WIR LOS…

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

PHILOSOPHISCHES DENKEN HEUTE – Zurück auf Start?

TREND ZU INSTITUTIONALISIEREN

  1. Es scheint eine allgemeine Tendenz menschlichen Handelns zu sein, aufregende Ideen und erfolgreiche Konzepte – allerdings nicht immer – zu institutionalisieren: aus einzelnen Menschen die überzeugen, aus einzelnen kleinen Unternehmungen, die Erfolg haben, werden Institutionen, große Firmen, Staatsgebilde.
  2. Wenn sie denn da sind, die Institutionen (Kirchen, Parteien, Gewerkschaften, Universitäten, politische Formen, Rechtssysteme, …), dann verselbständigen sich viele Mechanismen. Die treibende Idee kann verblassen, die Selbsterhaltungskräfte einer Institution gewinnen die Oberhand (im Falle von Geheimdiensten wenig Demokratie förderlich …).

WAS BEWEGT?

  1. Bei der Frage, was das Handeln von Menschen leitet, kann man angesichts der Realität von Institutionen verleitet sein, auf die soziale Realität dieser Institutionen zu starren und zu glauben, gegen diese sei nicht anzukommen, als einzelner.
  2. Die Geschichte – und die unruhige Gegenwart – kann uns aber darüber belehren, dass alle Institutionen nur so lange funktionieren, als die sie tragenden Menschen mit ihren subjektiven-inneren Leitbildern diese Institutionen stützen. Wenn sich die subjektiven-inneren Anschauungen ändern, zerfallen Institutionen.
  3. Dafür gibt es zahllose Beispiele. Der immer stärker werdende Lobbyismus unter Politikern, die fast schon dreiste Voranstellung persönlicher kurzfristiger Erfolgskriterien vor jeder gesellschaftlich tragenden Perspektive, die zunehmende Propaganda und Zensur in vielen Ländern dieser Erde, vereinfachende schwarz-weiß Modelle von Gesellschaft und Zukunft, sind einige der wirksamen Mittel, eine friedliche, kooperierende, zukunftsfähige Gesellschaft zu zerstören.

GEMEINSAMES WISSEN

  1. In solch einer Situation – die es in den letzten Jahrtausenden immer gab, immer wieder – stellt sich die Frage, wie kann das Wissen eines Menschen so mit anderen geteilt werden, dass aus diesem gemeinsamen Wissen auch ein gemeinsames Handeln erwachsen kann?

GRÜNDUNGSIDEEN

  1. Demokratische Parteien, die noch jung sind, die noch ein wenig das Gründungsfieber, die neue Vision in sich tragen, sind gute Lehrbeispiele dafür, wie Ideen sich im Alltag mühsam ihren Weg in die Köpfe möglicher Anhänger suchen müssen und dann, im Laufe der Jahre, sich behaupten müssen. Am Gründungstag weiß niemand, wer in der Zukunft dazukommen wird und was die nachfolgenden Generationen daraus machen werden.
  2. Ähnliches kann man bei Religionsgründern und bei Ordensgründungen beobachten: eine elektrisierende Anfangsidee bringt Menschen dazu, ihr Leben nachhaltig zu ändern und damit jeweils auch ein Stück Welt.
  3. Auch Firmengründungen laufen ähnlich ab: zu einem bestimmten Zeitpunkt hatte eine Idee einen wirtschaftliche Erfolg, und dieser führt zu einem Wachstum, der vorher nicht absehbar und nicht planbar war. Irgendwann gibt es ein Konglomerat aus Kapital und Macht, wo die Gründungsidee sich verdunstet hat, wo die Firma sich selbst fremd geworden ist. Manager sind angeheuerte Mietkräfte, die im System ihren persönlichen Vorteil suchen oder es gibt Anteilseigner, die wie kleine Monarchen ihrem Absolutismus zu frönen scheinen.
  4. Und so weiter, und so weiter…

ZEITLICHKEIT

  1. Die übergreifende Wahrheit ist, dass alle diese Gebilde Zeit behaftet sind: mit der Sterblichkeit ihrer Leitfiguren, mit der Veränderung der Gesellschaft und Technik und der Welt drum herum verändern sich Systeme und ihre Kontexte unaufhaltsam. Die Versuchung der totalen Kontrolle durch kleine Machtzirkel ist immer gegeben und ist immer auf Scheitern programmiert, ein Scheitern, dass vieles zerstört, viele in den Tod reist, … Jahrzehnte spielen keine Rolle; Jahrhunderte sind das minimale Zeitmaß für grundlegende Ideen und Änderungen. Die Geschichte ist hier ein unerbittliches Protokoll der Wahrheiten (was solche kurzfristigen Machtinszenierungen gerne verschweigen und fälschen).

WAHRE VISIONEN

  1. Parallel gab es immer auch die Vision einer Menschheit die lernt, die es schafft, gemeinsam Egoismus und Wahnsinn zu verhindern, Humanität allgegenwärtig zu machen, eine Vision der Zukunft zu entwickeln, in der alle vorkommen.
  2. Die historische Realität erzählt uns aber, dass bislang alle Visionen zu schwach waren. Reich – Arm, Gebildet – Ungebildet, Mächtig – machtlos sind Koordinaten eines Raumes, in dem die Wirklichkeit bis heute ungleich verteilt ist.
  3. Wahr ist aber auch, dass der Prozess des Lebens auf der Erde, wie immer er laufen wird, nur dann eine Richtung in eine gemeinsame, nachhaltige, friedliche Zukunft für alle nehmen kann, wenn es genügend Menschen gibt, die über eine Vision, über den Ansatz eines Bildes von solch einer gemeinsamen lebensfähigen Zukunft besitzen, die ihr Handeln gemeinsam leitet, eine Vision die ‚wahr‘ ist im Sinne, dass sie eine Welt beschreibt und schafft, die tatsächlich für alle das gibt, was sie suchen und brauchen.

GENEINSAME LERNPROZESSE

  1. Die Geschichte Europas vom antiken Griechenland bis in die Gegenwart ist ein Beispiel, an dem man studieren kann, wie eine ganze Epoche (das lateinische Mittelalter) durch ein gemeinsames Nachbuchstabieren vorausgehender Gedanken zu sich selbst und dann zu etwas ganz Neuem gefunden hat. In der Gegenwart kann man das Gefühl haben, dass das Neue wieder zu zerfallen droht, weil man immer mehr nur auf einzelne Teile schaut und nicht auf das Ganze.
  2. Ein Beispiel ist das wundersame Werk Wikipedia: eine solche Enzyklopädie (bei allen realen Schwächen) gab es noch nie zuvor in der Geschichte der Menschheit. Aber diese Enzyklopädie liefert nur unverbundene Einzelteile. Wo sind die Modelle, die die Zusammenhänge sichtbar machen? Wo sind die gemeinsam geteilten Modelle, die alle nachvollziehen können? Welche transparenten Mechanismen der Bewertung bräuchte man?
  3. Die Physiker, Chemiker, Biologen liefern ansatzweise Modelle für Teilbereiche. Das ist gut. Aber es sind nur sehr partielle Modelle und solche, die nur die Forscher selbst verstehen. Der Rest der Welt versteht nichts, ist außen vor, und trotz hochentwickelten Teilmodellen blühen Aberglauben, vereinfachende religiöse Überzeugungen, Esoterik und Ähnliches in einem Ausmaß, was (erschreckend) staunen lässt. … Und die Politik schafft wichtige Wissenschaften sogar wieder ab, weil die Politiker gar nicht verstehen, was die Forscher da machen (im Bereich Cyber- und Drohnenkrieg leider genau umgekehrt…).
  4. Die geistige Welt scheint also zu zerfallen, weil wir immer höhere Datengebirge erzeugen, und immer weniger interpretierende Modelle, die alle verstehen. (BigData liefert ‚Oberflächenmodelle‘ unter Voraussetzung, dessen, was ist, aber geht nicht tiefer, erklärt nichts, und vor allem, ist blind, wenn die Daten schon Schrott sind).
  5. Die Frage ist also, wie kann eine ganze Epoche aus der Zersplitterung in alte, schlechte, unverständliche Modelle der Welt zu etwas mehr gemeinsamer nachhaltiger Modellbildung kommen?

DAS GUTE UND WAHRE SIND EIN SELBSTZWECK

  1. Der einzige Grund für das ‚Gute‘ und ‚Wahre‘ ist das ‚Gute‘ und ‚Wahre‘ selbst. Die Alternativen erkennt man an ihren zerstörerischen Wirkungen (allerdings nicht immer sofort; Jahrzehnte sind die Sekunden von Kulturgeschichte, Generationen ihre Minuten, Jahrhunderte ihre Stunden ….).
  2. Der je größere Zusammenhang ist bei empirischer Betrachtung objektiv gegeben. Wieweit sind wir aber in der Lage, diese übergreifenden objektiven Zusammenhänge subjektiv zu fassen, so zu verinnerlichen, dass wir damit ‚im Einklang mit allem‘ positiv leben können?
  3. Die Geschichte sagt ganz klar, dass es nur gemeinsam geht. Wie wird aus vielen einzelnen eine geistige (rational begründete) und emotionale Gemeinschaft, die heute das tut, was auch morgen Sinn macht?
  4. Man kann ja mal die Frage stellen, warum (um einen winzigen Aspekt zu nennen), Schulen und Hochschulen es nicht als eine ihrer Hauptaufgaben ansehen, die Wikipedia der Fakten (Wikipedia Level 0) mit zu pflegen, um gleichzeitig damit zu beginnen, eine Wikipedia der Modelle (Wikipedia Level 1) aufzubauen?
  5. Philosophische Überlegungen, die ernsthaft anlässlich der realen Welt über diese reale Welt und ihre impliziten kognitiven Räume nachdenken wollen, könnten dann Level 0 + 1 als natürliche Referenzpunkte benutzen, um die kritische Reflexion über das Weltwissen weiter voran zu treiben.
  6. Ja gewiss, dies alles ist nur ein Fragment. Aber als einzelne sind wir alle fragmentiert. Leben ist die Kunst der Überwindung der Fragmente in höheren, lebensfähigen Einheiten ….

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.