Archiv der Kategorie: Leben

Über die Welt reden

Dieser Text ist Teil des Textes „Neustart der Menschlichkeit (Rebooting humanity)“

(Die Englische Version findet sich HIER)

Autor Nr. 1 (Gerd Doeben-Henisch)

Kontakt: cagent@cognitiveagent.org

(Start: 5.Juni 2024, Letzte Änderung: 7.Juni 2024)

Ausgangspunkt

Es soll also ein ‚Text‘ geschrieben werden, der über die Welt spricht, einschließlich aller Lebewesen, und die Autoren sind im ersten Anlauf ‚Menschen‘. Bisher kennen wir keine Fälle, in denen Tiere oder Pflanzen selbst Texte schreiben: ihre Sicht des Lebens. Wir kennen nur Menschen die aus ‚ihrer menschlichen Sicht‘ über das Leben, über Tiere und Pflanzen schreiben. An dieser Vorgehensweise kann man viel kritisieren. Bei einem weiteren Nachdenken kann man dann vielleicht sogar feststellen, dass auch das ‚Schreiben von Menschen über andere Menschen und sich selbst‘ nicht ganz so trivial ist. Schon das Schreiben von Menschen ‚über sich selbst‘ ist fehleranfällig, kann völlig ‚daneben‘ laufen, kann vollständig ‚falsch‘ sein, was allerdings die Frager aufwirft, was denn ‚wahr‘ bzw. ‚falsch‘ ist. Man sollte also ein paar Gedanken darauf verwenden, wie wir Menschen so über die Welt und uns selbst reden können, dass wir gemeinsam eine Chance haben, nicht nur zu ‚fantasieren‘, sondern etwas zu erfassen, was ‚real‘ ist, was etwas von dem beschreibt, was uns als Menschen, als Lebewesen, als Bewohner dieses Planeten ‚real‘ auszeichnet. … aber dann poppt schon wieder die Frage auf, was denn ‚real‘ ist? Drehen wir uns im Kreis von Fragen mit Antworten, wo die Antworten selbst schon wieder Fragen sind, bei näherem Hinschauen?

Erste Schritte

Leben auf Planet Erde

Beim Start des Schreibens gehen wir davon aus, dass es den ‚Planet Erde‘ gibt und auf diesem Planeten gibt es etwas, das wir ‚Leben‘ nennen, und wir Menschen — zur Lebensform des Homo sapiens gehörend — sind Teil davon.

Sprache

Wir gehen auch davon aus, dass wir Menschen über die Fähigkeit verfügen, mittels Lauten miteinander zu kommunizieren. Diese Laute, die wir für die Kommunikation benutzen, nennen wir hier ‚Sprachlaute‘, um anzudeuten, dass die Gesamtheit der Laute für die Kommunikation ein ‚System‘ bilden, das wir letztlich ‚Sprache‘ nennen.

Bedeutung

Da wir Menschen auf diesem Planeten in der gleichen Situation für die ‚gleichen Objekte‘ ganz unterschiedliche Laute benutzen können, deutet sich an, dass die ‚Bedeutung‘ von Sprachlauten nicht fest an die Sprachlaute geknüpft ist, sondern irgendwie etwas mit dem zu tun hat, was ‚in unserem Kopf‘ stattfindet. Leider können wir nicht ‚in unseren Kopf‘ hineinschauen. Da scheint viel zu passieren, aber dieses Geschehen im Kopf ist ‚unsichtbar‘.[1] Trotzdem erleben wir im ‚Alltag‘, dass wir uns mit anderen ‚einigen‘ können, ob es gerade ‚regnet‘ oder ob es irgendwie ’stinkt‘ oder da auf dem Gehweg eine Mülltonne steht, die den Weg versperrt oder …. Also irgendwie scheint das ‚Geschehen im Kopf‘ bei unterschiedlichen Menschen gewisse ‚Übereinstimmungen‘ aufzuweisen, so dass nicht nur ich etwas Bestimmtes sehe, sondern der andere auch, und wir können sogar die gleichen Sprachlaute dafür benutzen. Und da ein Programm wie chatGPT meine Deutschen Sprachlaute z.B. in Englische Sprachlaute übersetzen kann, kann ich feststellen, dass ein anderer Mensch, der kein Deutsch spricht, statt meines Wortes ‚Mülltonne‘ z.B. das Wort ‚trash bin‘ benutzt und dann auch zustimmend nickt: ‚Yes, there is a trash bin‘. Wäre das ein Fall für eine ‚wahre Aussage‘?

Veränderungen und Erinnerungen

Da wir täglich erleben, wie der Alltag sich ständig ‚verändert‘, wissen wir, dass etwas, was gerade mal Zustimmung fand, im nächsten Moment keine Zustimmung mehr findet, weil die Mülltonne nicht mehr da steht. Diese Änderungen können wir aber nur bemerken, weil wir etwas haben, was wir ‚Erinnerung‘ nennen: wir können uns daran erinnern, dass eben an einer bestimmte Stelle eine Mülltonne stand, jetzt aber nicht mehr. Oder ist diese Erinnerung nur eine Einbildung? Kann ich meiner Erinnerung trauen? Wenn jetzt alle anderen sagen, da war doch keine Mülltonne, ich mich aber meine zu erinnern, was heißt dies?

Konkreter Körper

Ja, und dann mein Körper: immer wieder muss ich was trinken, etwas essen, bin nicht beliebig schnell, brauche etwas Platz, …. mein Körper ist etwas sehr Konkretes, mit allerlei ‚Empfindungen‘, ‚Bedürfnissen‘, einer bestimmten ‚Form‘, …. der sich im Laufe der Zeit sogar ändert: er wächst, er altert, er kann krank werden, …. ist er wie eine ‚Maschine‘?

Galaxien von Zellen

Wir wissen heute, dass unser menschlicher Körper weniger einer ‚Maschine‘ gleicht als vielmehr einer ‚Galaxie von Zellen‘. Unser Körper hat etwa 37 Billionen (10¹2) Körperzellen mit weiteren 100 Billionen Zellen im Darm, die für unser Verdauungssystem lebenswichtig sind, und diese Zellen zusammen bilden das ‚System Körper‘.[2] Das bislang eigentlich Unfassbare ist, dass diese ca. 140 Billionen Zellen ja jeweils komplett autonome Lebewesen sind, mit allem, was es zum Leben braucht. Und wenn man weiß, wie schwer wir uns als Menschen tun, schon zwischen fünf Menschen auf Dauer eine Kooperation aufzubauen und aufrecht zu halten, dann kann man zumindest ansatzweise ein wenig ahnen, was es heißt, dass 140 Billionen Lebewesen es in jeder Sekunde — und über viele Jahre, ja Jahrzehnte hinweg — schaffen, miteinander so zu kommunizieren und koordiniert zu handeln, dass das Gesamtkunstwerk ‚menschlicher Körper‘ existiert und funktioniert.

Entstehung als Frage

Und da es keinen ‚Befehlshaber‘ gibt, der allen Zellen ständig sagt, was sie tun sollen, erweitert sich dieses ‚Wunder des Systems Mensch‘ weiter um die Dimension, woher das Konzept kommt, das diese ‚Super-Galaxie der Zellen‘ dazu befähigt, so zu sein, wie sie sind. Wie funktioniert dies? Wie ist es entstanden?[3]

Hinter die Phänomene schauen

Im weiteren Verlauf wird es darauf ankommen, ausgehend vom Alltag nach und nach die ‚Oberfläche der Alltagsphänomene‘ zu durchdringen, um jene Strukturen sichtbar zu machen, die ‚hinter den Phänomenen‘ am Werke sind, jene Strukturen, die alles zusammenhalten und gleichzeitig alles beständig bewegen, verändern.

Grunddimension Zeit

Dies alles impliziert das Phänomen ‚Zeit‘ als Grundkategorie aller Wirklichkeit. Ohne Zeit gibt es auch keine ‚Wahrheit‘ …

[1] Spezialisten für Gehirnforschung werden natürlich gleich ihre Hand erheben und werden sagen wollen, dass sie mittlerweile sehr wohl ‚in den Kopf schauen‘ können, aber warten wir ab, was es mit diesem ‚in den Kopf hineinschauen‘ auf sich hat.

[2] Wenn wir für die Anzahl der Sterne in unserer Heimatgalaxie der Milchstraße mit geschätzten 100 – 400 Milliarden Sterne mal annehmen, dass es 200 Milliarden sind, dann würde unser Körpersystem dem Umfang von 700 Galaxien im Format der Milchstraße entsprechen, eine Zelle für einen Stern.

[3] Verschiedene Disziplinen der Naturwissenschaften, besonders sicher die Evolutionsbiologie, haben in den letzten ca. 150 Jahren viele Aspekte dieses Mega-Wunders partiell ausgeleuchtet. Man kann über die physikalische Sicht unsres Universum staunen, aber verglichen mit den Super-Galaxien des Lebens auf dem Planet Erde erscheint das physikalische Universum geradezu ‚langweilig‘ … Keine Angst: letztlich hängt beides untereinander zusammen: das eine erklärt das andere …

Geschichten erzählen

Fragmente des Alltags – ohne Kontext

Wir reden ständig über irgend etwas: das Essen, das Wetter, der Verkehr, die Preise beim Einkaufen, Tagesnachrichten, die Politik, den Chef, die Kollegen, Sportereignisse, Musik, …. meistens sind es ‚Fragmente‘ aus dem größeren Ganzen, das wir ‚Alltag‘ nennen. Menschen in einem der vielen Krisengebiete auf diesem Planeten, speziell jene in Unwetterkatastrophen oder gar im Krieg …, leben konkret in einer ganz anderen Welt, in einer Welt von Überleben und Tod.

Diese Fragmente mitten im Leben sind konkret, betreffen uns, aber sie erzählen aus sich heraus keine Geschichte, wo sie herkommen (Bomben, Regen, Hitze,…), warum sich dies ereignet, wie sie mit anderen Fragmenten zusammen hängen. Der Regen, der herunter prasselt, ist ein einzelnes Ereignis an einem bestimmten Ort zu einer bestimmten Zeit. Die Brücke, die gesperrt werden muss, weil sie überaltert ist, lässt aus sich heraus auch nicht erkennen, warum gerade diese Brücke, warum gerade jetzt, warum konnte man dies nicht ‚voraus sehen‘? Die Menschen, die ‚zu viel‘ sind in einem Land oder auch ‚zu wenig‘: Warum ist das so? Konnte man dies voraus sehen? Was können wir tun? Was sollten wir tun?

Der Strom der einzelnen Ereignisse trifft auf uns, mehr oder weniger wuchtig, vielleicht auch einfach als ‚Rauschen‘: wir sind so daran gewöhnt, dass wir bestimmte Ereignisse schon gar nicht mehr wahrnehmen. Aber diese Ereignisse als solche erzählen keine ‚Geschichte über sich selbst‘; sie finden einfach statt, scheinbar unwiderstehlich; manche sagen ‚Das ist Schicksal‘.

Bedürfnis nach Sinn

Auffällig ist, dass wir Menschen aber doch versuchen, dem Ganzen einen ‚Sinn‘ zu geben, eine ‚Erklärung‘ zu suchen, warum dies so ist. Und der Alltag zeigt, dass wir viel ‚Fantasie‘ haben, was mögliche ‚Zusammenhänge‘ oder ‚Ursachen‘ betrifft. Im Blick zurück in die Vergangenheit lächeln wir gerne über verschiedene Erklärungsversuche von unseren Vorfahren: solange man über die Details unseres Körpers und überhaupt über das Leben nichts wusste, war jede Geschichte möglich. [1] In unserer Zeit mit einer seit ca. 150 Jahren etablierter Wissenschaft gibt es aber immer noch viele Millionen von Menschen (möglicherweise Milliarden?), die von Wissenschaft nichts wissen und bereit sind, nahezu jede Geschichte zu glauben, nur weil ein anderer Mensch diese Geschichte überzeugend erzählt.

Befreiung vom Augenblick durch Worte

Aufgrund dieser Fähigkeit, mit der ‚Kraft der Fantasie‘ Dinge, die man erlebt, in eine ‚Geschichte‘ zu packen, die ‚mögliche Zusammenhänge‘ andeuten, durch die Ereignisse einen ‚gedanklichen Sinn‘ bekommen, kann der Mensch versuchen, sich aus der scheinbaren ‚Absolutheit des Augenblicks‘ in gewisser Weise zu ‚befreien‘: ein Ereignis, das sich in einen ‚Zusammenhang einordnen‘ lässt, verliert seine ‚Absolutheit‘. Allein schon durch diese Art von Erzählung gewinnt der erlebende Mensch ein Stück ‚Macht‘: im Erzählen eines Zusammenhangs kann er Erzähler das Erlebnis ‚zur Sache‘ machen, über die er ’nach eigenem Gutdünken‘ verfügen kann. Diese ‚Macht durch das Wort‘ kann ‚Angst‘ lindern, die ein Ereignis auslösen kann. Dies durchzieht die Geschichte der Menschheit von den Anfängen an, soweit es die archäologischen Zeugnisse hergeben.

Vielleicht ist es nicht verkehrt, den Menschen nicht als erstes als ‚Jäger und Sammler‘ oder als ‚Ackerbauer‘ oder so einzuordnen, sondern als ‚den, der Geschichten erzählt‘.

[1] Ein solches Zauberwort war in der griechischen Philosophie der Begriff ‚Atem‘ (griechisch „pneuma“). Der Atem kennzeichnete nicht nur das individuell Lebendige, sondern wurde auch verallgemeinert zum Lebensprinzip von allem, das sowohl Körper, Seele und Geist verband wie auch das ganze Universum durchwirkte. Im Lichte des heutigen Wissens könnte man diese ‚Erklärung‘ nicht mehr erzählen, aber vor ca. 2300 Jahren war diese Überzeugung unter allen Intellektuellen ein gewisser ‚intellektueller Standard‘, das herrschende ‚Weltbild‘; man ‚glaubte‘ es. Wer etwas anderes befand sich außerhalb dieses ‚Sprachspiels‘.

Organisation einer Ordnung

Denken erschafft Beziehungen

Sobald man mittels ‚Sprache‘ einzelne Ereignisse, Sachen, Vorgänge, Eigenschaften von Sachen und mehr ‚benennen‘ kann, verfügen Menschen offensichtlich über die Fähigkeit, mittels Sprache eben nicht nur zu ‚benennen‘, sondern ‚Benanntes‘ durch ‚Anordnung von Worten im sprachlichen Ausdruck‘ in ‚gedachte Beziehungen‘ einzubetten, wodurch das einzeln Benannte nicht mehr ‚isoliert‘ vorkommt sondern ‚gedanklich verbunden‘ mit anderem. Diese grundlegende Fähigkeit eines Menschen, ‚in seinem Kopf‘ ‚Beziehungen zu denken‘, die man ‚gar nicht sehen‘, wohl aber ‚denken‘ kann [1], ist natürlich nicht auf einzelne Ereignisse und nicht auf eine einzige Beziehung beschränkt. Letztlich können wir Menschen ‚alles‘ zum Thema machen und wir können ‚jedmögliche Beziehung‘ in unserm Kopf ‚denken‘; hier gibt es keine grundsätzliche Beschränkung.

Geschichten als Naturgewalt

Nicht nur die Geschichte ist voll von Beispielen, auch unsere Gegenwart. Dass heute trotz der unfassbaren Erfolge der modernen Wissenschaft in unserem Alltag weltweit nahezu über alle Kanäle die wildesten Geschichten mit ‚rein gedachten Beziehungen‘ erzählt und auch sofort geglaubt werden, das sollte uns zu denken geben. Unsere grundlegende Eigenschaft, dass wir Geschichten erzählen können, um die Absolutheit des Augenblicks zu durchbrechen, hat offensichtlich den Charakter einer ‚Naturgewalt‘, die so tief in uns verortet ist, dass wir sie nicht ‚ausrotten‘ können; wir können sie vielleicht ‚zähmen‘, sie vielleicht ‚kultivieren‘, aber wir können sie nicht stoppen. Es ist eine ‚elementare Eigenschaft‘ unseres Denkens, sprich: unseres Gehirns im Körper.

Gedacht und Überprüft

Die Erfahrung, dass wir, die wir diejenigen sind, die Geschichten erzählen, damit Ereignisse benennen und in Beziehungen einordnen können — und zwar letztlich unbegrenzt — kann zwar real zum Chaos führen, wenn das erzählte Beziehungsgeflecht letztlich ‚rein gedacht‘ ist, ohne echten Bezug zur ‚realen Welt um uns herum‘, aber es ist zugleich auch unser größtes Kapital, da wir Menschen uns damit nicht nur grundsätzlich von der scheinbaren Absolutheit der Gegenwart befreien können, sondern wir können mit dem Erzählen von Geschichten Ausgangspunkte schaffen, ‚zunächst bloß gedachte Beziehungen‘, die wir dann aber konkret in unserem Alltag ‚überprüfen‘ können.

Ein Ordnungssystem

Wenn jemand zufällig einen anderen Menschen sieht, der irgendwie ganz anders aussieht als er es gewohnt ist, dann bilden sich in jedem Menschen automatisch alle möglichen ‚Vermutungen‘, was das da für ein Mensch ist. Belässt man es bei diesen Vermutungen, dann können diese wilden Vermutungen den ‚Kopf bevölkern‘ und die ‚Welt im Kopf‘ wird mit ‚potentiell bösen Menschen‘ bevölkert; irgendwann sind sie dann vielleicht schlicht ‚böse‘. Nimmt man aber Kontakt zu dem anderen auf, könnte man vielleicht feststellen, dass er eigentlich nett ist, interessant, lustig oder dergleichen. Die ‚Vermutungen im Kopf‘ verwandeln sich dann in ‚konkrete Erfahrungen‘, die anders sind als zunächst gedacht. ‚Vermutungen‘ in Kombination mit ‚Überprüfung‘ können so zur Bildung von ‚wirklichkeitsnahen Vorstellungen von Beziehungen‘ führen. Damit hat ein Mensch die Chance, sein ’spontanes Geflecht an gedachten Beziehungen‘, die falsch sein können — und meistens auch sind — in ein ‚überprüftes Geflecht von Beziehungen‘ zu verwandeln. Da letztlich die gedachten Beziehungen als Geflecht für uns ein ‚Ordnungssystem‘ aufspannen, in dem die Dinge des Alltags einbettet sind, erscheint es erstrebenswert, mit möglichst ‚überprüften gedachten Beziehungen‘ zu arbeiten.

[1] Der Atem des Menschen mir gegenüber, der bei den Griechen mein Gegenüber mit der Lebenskraft des Universums verbindet, die wiederum auch mit dem Geist un d der Seele zusammenhängt …

Hypothesen und Wissenschaft

Herausforderung: Methodisch geordnetes Vermuten

Die Fähigkeit zum Denken von möglichen Beziehungen, dann auch mittels Sprache, ist angeboren [1], aber die ‚Nutzung‘ dieser Fähigkeit im Alltag, z.B. so, dass wir gedachte Beziehungen mit der Wirklichkeit des Alltags abgleichen, dieses ‚Abgleichen’/ ‚Überprüfen‘ ist nicht angeboren. Wir können es tun, müssen es aber nicht tun. Es ist von daher interessant, sich zu vergegenwärtigen, dass seit dem ersten Auftreten des Homo sapiens auf diesem Planeten [2] 99,95% der Zeit vergangen sind, bis es zur Etablierung einer organisierten modernen Wissenschaft vor ca. 150 Jahren gekommen ist. Man kann dies als Hinweis deuten, dass der Übergang vom ‚freien Vermuten‘ bis zu einem ‚methodisch geordneten systematischen Vermuten‘ alles andere als einfach gewesen sein muss. Und wenn heute immer noch ein Großteil der Menschen — trotz Schule und sogar Studium –[3] eher dem ‚freien Vermuten‘ zuneigen und sich mit geordneter Überprüfung schwer tun, dann scheint es hier tatsächlich eine nicht leichte Schwelle zu geben, die ein Mensch überwinden muss — und immer wieder neu muss — , um vom ‚freien‘ zum ‚methodisch geordneten‘ Vermuten überzugehen.[4]

Ausgangspunkt für Wissenschaft

‚Der Übergang vom alltäglichen Denken zum ‚wissenschaftlichen Denken‘ ist fließend. Das Erzeugen von ‚gedachten Beziehungen‘ in Verbindung mit Sprache aufgrund auch unserer Fähigkeit der Kreativität/ der Fantasie ist letztlich auch der Ausgangspunkt von Wissenschaft. Während wir im alltäglichen Denken eher spontan und pragmatisch ’spontan gedachte Beziehungen‘ ‚überprüfen‘, versucht die ‚Wissenschaft‘ solche Überprüfungen ’systematisch‘ zu organisieren, um dann solche ‚positiv überprüften Vermutungen‘ als ‚empirisch überprüfte Vermutungen‘ bis zum Beweis des Gegenteils als ‚bedingt wahr‘ anzunehmen. Statt von ‚Vermutungen‘ spricht die Wissenschaft gerne von ‚Hypothesen‘ oder ‚Arbeitshypothesen‘, aber es bleiben ‚Vermutungen‘ durch die Kraft unsres Denkens und durch die Kraft unserer Fantasie.[5]

[1] Dies bedeutet, die genetische Information, die der Entwicklung unseres Körpers zugrunde liegt, ist so beschaffen, dass unser Körper mit seinem Gehirn während der Wachstumsphase so aufgebaut wird, dass wir genau über diese Fähigkeit zum ‚Denken von Beziehungen‘ verfügen. Interessant hier wieder die Frage, wie es möglich ist, dass sich aus einer einzigen Zelle ca. 13 Billionen Körperzellen (die ca. 100 Billionen Bakterien im Darm kommen ‚von außen‘ dazu) so entwickeln können, dass sie als ‚Gesamteindruck‘ das ‚Bild des Menschen‘ erzeugen, das wir kennen

[2] Nach heutigem Kenntnisstand vor ca. 300.000 Jahren in Ostafrika und in Nordafrika, von wo der Homo sapiens dann die gesamte Welt erwandert und erobert hat (es gab noch Reste von anderen Menschenformen, die schon länger da waren).

[3] Repräsentative empirische Studien dazu, wie viele Menschen einer Bevölkerung dazu neigen, sind mir nicht bekannt.

[4] Berücksichtigt man, dass wir Menschen als Lebensform Homo sapiens erst nach ca. 3.8 Milliarden Jahren auf diesem Planeten erschienen sind, dann machen die 300.000 Jahre Homo sapiens grob 0,008% der gesamten Zeit aus, seitdem es Leben auf dem Planeten Erde gibt. Wir sind also nicht nur als Homo sapiens ein sehr spätes ‚Produkt‘ des Lebensprozesses, sondern innerhalb unseres Homo sapiens Lebensprozesses taucht die Fähigkeit zum ’systematischen Überprüfen von Hypothesen‘ auch erst ‚ganz spät‘ auf. Aufs ganze Leben bezogen scheint daher diese Fähigkeit extrem wertvoll zu sein, was ja auch stimmt, betrachtet man die unfassbaren Erkenntnisse, die wir als Homo sapiens mit dieser Form zu denken gewinnen konnten. fragt sich nur, wie wir mit diesem Wissen umgehen. Auch diese Verhaltensweise, systematisch überprüftes Wissen dann zu nutzen, ist nicht angeboren.

[5] Die Fähigkeit der ‚Fantasie‘ ist kein Gegensatz zum ‚Wissen‘, sondern ist etwas ganz anderes. ‚Fantasie‘ ist eine Eigenschaft, die sich in dem Moment ‚zeigt‘, wo wir anfangen zu denken, vielleicht sogar schon darin, ‚dass‘ wir überhaupt denken. Da wir im Prinzip über ‚alles‘ Nachdenken können, was unsrem Denken ‚erreichbar‘ ist, ist die Fantasie ein Faktor, der hilft, ‚Auszuwählen‘, was wir denken. Fantasie ist insoweit dem Denken vor-gelagert.

OPERATION ‚AM OFFENEN HERZEN‘?

(7.Juli 2023 – 7.Juli 2023)

KONTEXT

Anschließend an die grundlegenden Überlegungen zur Möglichkeit/ Unmöglichkeit einer allgemein gültigen Moral in dieser endlich-dynamischen Welt soll hier, ausgehend vom aktuell populäre Begriff der ‚Nachhaltigkeit‘, soll hier ein kleiner Blick auf das ‚Phänomen des Lebens‘, angeregt werden.

NACHHALTIGKEIT

Im Jahr 2023 ist der Begriff der ‚Nachhaltigkeit‘ in — fast — aller Munde; nicht nur positiv (Das ist es; das müssen wir tun, …) sondern sehr wohl auch negativ, ablehnend (Welch ein Quatsch; brauchen wir nicht, …). Dazu die vielen Milliarden Menschen, die von Nachhaltigkeit noch nie etwas gehört haben … Die Vereinten Nationen versuchen seit dem grundlegenden ‚Brundtland-Bericht‘ von 1987 [1] in immer neuen Konferenzen mit immer neuen Akzentsetzungen und möglichen Umsetzungsempfehlungen das Thema der ‚Nachhaltigkeit‘ in das Bewusstsein aller Regierungen zu heben. Wie weit dies bislang erfolgreich ist mag jeder selbst beurteilen, der sich den Gang des Weltgeschehens anschaut.

An dieser Stelle soll der Blick auf einen bestimmten Aspekt des Themas ‚Nachhaltigkeit‘ gelenkt werden, ein Aspekt, der bis heute irgendwie ‚unsichtbar‘ zu sein scheint, obwohl er zum Verständnis und zum Gelingen des Projekts ‚Nachhaltigkeit‘ fundamental ist. Ohne diesen Aspekt wird es keine wirksame Nachhaltigkeit geben.

Einfaches Beispiel: An einem bestimmten Ort auf dem Planet Erde gibt es einen Brunnen, aus dem man bislang täglich ungefähr 180 Liter Wasser schöpfen kann. Für sich gesehen ist es weder viel noch wenig. Wenn von diesem Wasser aber Pflanzen, Tiere oder Menschen leben müssen, dann kann dieses Wasser ganz schnell ‚zu wenig‘ sein. Dazu kommt die ‚Umgebungstemperatur‘: haben wir 10 °C, 20°C, …, 50 °C …? Auch ist es nicht unwichtig, ‚woher‘ der Brunnen sein Wasser bekommt: stammt es aus (i) oberflächennahem Wasser aus einem nahen Bach? oder aus (ii) tiefer gelegenem erneuerbaren Grundwasser (iii) oder aus …

Wenn sich dieser Brunnen in einem Dorf mit 20 Familien befindet, dann wird das Wasser angesichts des ‚Bedarfs‘ zu einer ‚knappen Ressource‘. Für den täglichen Bedarf der Familien, der Pflanzen und möglicherweise für Tiere wird dieses Wasser nicht reichen. Was immer jetzt in diesem Dorf mit dieser knappen Ressource geschieht/ geschehen wird, hängt von dem ‚Wissen‘/ der ‚Erfahrung‘ ab, die in den Köpfen seiner Einwohner verfügbar ist; dazu kommt die Art von ‚Emotionen‘, die in den gleichen Köpfen ‚wirksam‘ sind, und irgendwie — mehr oder weniger bewusst/ unbewusst — bestimmte ‚Werte‘ (was man in eine bestimmten Situation tun sollte). Ein ‚Grenzfall‘ wäre, (i) dass die Menschen eine große ‚Angst‘ haben zu sterben, dass sie deswegen vor dem ‚Töten‘ der anderen nicht zurückschrecken würden, falls sie “nicht wissen‘, dass es keine Alternativen gibt…; ein anderer Fall (ii) wäre, dass sie neben der Emotion ‚Angst‘ auch noch eine ‚Emotion‘ ‚Verbundenheit mit den anderen‘ haben, ergänzt um eine Wertvorstellung ‚Verwandte/ Freunde tötet man nicht‘. Deswegen dann vielleicht eher der Versuch, gemeinsam dem ‚Tod durch Verdursten‘ in die Augen schauen. Ein noch anderer Fall (iii) könnte sein, dass mindestens ein Mitglied des Dorfes ‚weiß‘, wann und wie es eine Lösung des Problems geben könnte (unterschiedlich sicher), das die Mehrheit des Dorfes ihm ‚vertraut‘, und dass ‚konkrete Verhaltensweisen verfügbar ‚ sind, die Lösung umzusetzen.

Wenn im Fall (iii) zwar ‚prinzipiell‘ eine Lösung bekannt ist, aber nicht bekannt ist, mit welchen ‚Maßnahmen‘ diese Lösung erreicht werden kann, trifft wieder Fall (i) oder (ii) zu. Wenn im Fall (iii) die Mehrheit der einen Person ’nicht vertraut‘, die sagt, über ‚Wissen/ Erfahrungen‘ zu verfügen, eine Lösung zu finden, dann kann sich ‚Niedergeschlagenheit‘ /’Verzweiflung‘ breit machen. Ganz schlecht wäre es auf jeden Fall, wenn niemand im Dorf ansatzweise über Wissen verfügen würde, aus dem sich ein brauchbare Handlung ableiten ließe. Oder, nicht weniger schlimm, einzelne ‚glauben‘, dass sie über ein Wissen verfügen, das Abhilfe verspricht, aber diese ‚geglaubte Lösung‘ erweist sich als ‚Irrtum‘.

Was dieses einfache Beispiel verdeutlichen kann, ist, dass eine ‚Ressource‘ als solche weder gut noch schlecht ist, weder wenig noch viel. Entscheidend ist das Vorhandensein eines ‚Bedarfs‘, und ein Bedarf ist letztlich immer gekoppelt an das ‚Vorhandensein von biologischen Lebensformen‘! ‚Biologische Lebensformen‘ — also ‚Leben‘ — repräsentieren jenes Phänomen auf dem Planeten Erde, zu dessen grundlegenden Eigenschaften es gehört einen ‚Bedarf‘ zu haben an Ressourcen, die notwendig sind, damit Leben ’sich realisieren kann‘, dass ‚Leben leben‘ kann.

Bezieht man sich auf die 17 Entwicklungsziele der Vereinten Nationen, gültig ab Januar 2016, adressiert an Nationalstaaten [2], dann kann man viele Teilziele erkennen, die zur Förderung des ‚Lebens des Lebens‘ hilfreich erscheinen, man wird aber die klare Einordnung der menschlichen Population als Teilpopulation in das Gesamtphänomen ‚Leben‘ vermissen. Allem ‚Nicht-Menschlichem‘ Leben wird im Dunstkreis der 17 Entwicklungsziele nur eine Bedeutung zugestanden, insofern es für das ‚Leben der menschlichen Teilpopulation‘ hilfreich erscheint.

Was fehlt ist eine grundsätzliche Bestimmung dessen, was das Phänomen des Lebens auf dem Planet Erde als Teil des gesamten Universums repräsentiert: ist es ein zufälliges Phänomen, das es aktuell gibt, dem aber keine weitere Bedeutung beizumessen ist; es kann auch wieder verschwinden. Oder muss das Phänomen des Lebens als Teil des Universums als ein ‚außerordentliches Phänomen‘ eingestuft werden, das grundlegende Eigenschaften des Universums anzeigt, die weit über alles hinaus weisen, was wir bisher als Wirklichkeit, als mögliche Zukunft, zu denken gewohnt sind?

Wenn wir das ‚Phänomen des Lebens‘ als ein ‚außerordentliches Phänomen von globaler Bedeutung‘ einstufen — und zwar das ‚ganze Leben‘ !!! —, dann muss die Frage des ‚Erhalts‘ dieses ganzen Lebens samt seiner vielfältigen Wechselwirkungen im Zentrum der Betrachtungen stehen und man muss ‚wissend-lernend-fragend‘ in einem entsprechenden Alltag den Fragen nachgehen, was dies bedeutet; zugleich muss man ‚handelnd‘ an einer dauerhaften Gestaltung der ‚Bedingungen für ein globales Leben‘ arbeiten.

Vor diesem Hintergrund erscheint eine Kultur, die ‚Unwichtiges‘ auf Top 1 setzt und zugleich grundlegend Lebenswichtiges an den Rand drängt als das perfekte Rezept für einen schnellen gemeinsamen Tod. Dieser gemeinsame Tod, zersplittert in viele Millionen einzelne Tode, ist nicht einfach ‚ein Tod‘; er vernichtet das ‚Herz des Universums‘ selbst.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

ANMERKUNGEN

[1] Brundtland-Bericht von 1987: https://de.wikipedia.org/wiki/Brundtland-Bericht

[2] Die 17 Ziele für nachhaltige Entwicklung siehe: https://de.wikipedia.org/wiki/Ziele_f%C3%BCr_nachhaltige_Entwicklung

WISSENSCHAFT IM ALLTAG. Popper 1991/1994 (1999)

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 21.Februar 2022
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Kontext

Bei diesem Beitrag handelt es sich um eine Fortsetzung der Besprechung der beiden Artikel von Popper „A World of Propensities“ (1988, 1990) sowie „Towards an Evolutionary Theory of Knowledge“ (1989,1990).[1] Der vorliegende Beitrag „All Life is Problem Solving“ (1991, 1994/1999)[2] stammt aus einem späteren Buch.

Vorbemerkung

In den beiden vorausgehenden Besprechungen wurden grobe Linien eines umfassenden Theoriebegriffs von Popper deutlich, in dem es weniger um ‚technische Details‘ eines begrifflichen Theoriebegriffs geht als vielmehr um eine philosophische Gesamtsicht von ‚Wissen‘ als konstitutiver Teil von jedem ‚biologischen Organismus‘. Damit werden alle ‚pragmatischen Konstituenten‘ eines Theoriebegriffs deutlich — einschließlich der möglichen Akteure –, aber die endgültige begriffliche Ausformulierung fehlt noch.

In dem vorliegenden Text „All Life is Problem Solving“ folgt Popper wieder eher seiner bisherigen ‚Gesamtphilosophischen Sicht‘ und weniger technischen Details.

Leben ist Problem Lösen

Von den beiden vorausgehenden Texten her kommend ist klar, dass das biologische Leben, so, wie Popper es rekonstruiert, in nichts anderem besteht als ‚Probleme zu lösen‘. Das zentrale Problem ist das ‚Überleben schlechthin‘, das sich dann in vielfältigen Formen realisieren kann. Bei den komplexeren Lebensformen finden wir unfassbare Netzwerk von vielen Faktoren vor, die alle ineinander greifen, die sich auf unterschiedlichen ‚Realisierungsebenen‘ organisiert haben, die unterschiedlichen Zeithorizonten folgen, so dass es immer schwerer wird, in dieser Vielfalt das allem innewohnende Ziel noch zweifelsfrei erkennen zu können.

Gleichzeitig mit dem Ansteigen der Komplexität der ‚inneren‘ Strukturen sind biologische Lebensformen als Akteure in einer Umwelt auch in der Lage, immer komplexere ‚Handlungsformate‘ hervor zu bringen, die die unterschiedlichsten ‚Ereignisse‘ in der umgebenden ‚Ereigniswelt‘ auslösen können. Über diese ‚erzeugten Ereignisse‘ können auch verschiedene Akteure ‚miteinander interagieren‘ um damit ‚Kommunikation‘ zu realisieren, oder ‚Koordination des Verhaltens‘ zu ermöglichen oder auch zur ‚Veränderung von Umgebungseigenschaften‘ in Richtung Werkzeuge, Bauten, Maschinen, usw. ‚Gesellschaft‘, ‚Technologie‘ und ‚Kultur‘ erscheinen in dieser Perspektive als ‚Auswirkungen menschlichen Verhaltens‘ auf die Ereigniswelt ohne die Menschen aber auch auf die Menschen selbst.

Gesellschaft – Kultur – Technologie

Für Popper scheint ‚Gesellschaft‘ der primäre Begriff zu sein. Abgeleitet scheint die ‚Kultur‘ als ein Teilphänomen innerhalb der Gesellschaft zu sein, und als weiteres spezielles Phänomen innerhalb von Kultur nennt Popper ‚Technologie‘. Genauere begriffliche Abgrenzungen nimmt er nicht vor.

Das unterstellte ‚innere Wechselverhältnis zwischen Kultur und Technologie‘ illustriert Popper dadurch, dass er eine Reihe von ‚technologischen Erfindungen‘ aufzählt, die im Laufe der Geschichte die Kultur ‚verändert‘ haben. In seinen Beispielen charakterisiert Popper ‚Technologie‘ ansatzweise als spezielle Verfahrensweisen/ Maschinen, die Menschen in ihrem Alltag benutzen können, und wie durch diese Nutzung sich vieles in den bekannten Abläufen ändert. Abläufe sind für gewöhnlich konstituiert durch Akteure, die bestimmte Rollenanforderungen erfüllen müssen, die implizit von ‚Werten‘ (und möglichen ‚Sanktionen‘) gesteuert werden, und durch die Verschiedenes ‚bewirkt‘ werden kann. Einerseits kosten diese Abläufe Ressourcen (Zeit, Kraft, Energie, Material, …), andererseits erlangt man dadurch ‚Ergebnisse‘ und ‚Anerkennungen‘, die gesellschaftlich ‚honoriert‘ werden.

Konstituieren also diverse ‚Abläufe‘ mit bestimmten ‚Rollen‘, ‚Regelwerken‘ und ‚Werten‘ den ‚Stoff, aus dem Kultur besteht‘, dann kommt ‚Technologie‘ in diesen Abläufen vor als ’nicht-menschliche Faktoren‘, die die Art und Weise der Abläufe verändern können (weniger Zeitbedarf, weniger Materialbedarf, weniger menschliche Anstrengung, weniger Kosten, …, größere Ergebnisse, mehr ‚Erfolg‘, …). Technik erscheint in dieser Sicht als ein ‚Medium‘, durch das sich eine aktuelle Kultur ‚fließend verändern‘ kann. Es wird kaum diskutiert, es wird einfach gehandelt, und das veränderte Handeln verändert das Erleben, das Miteinander, verändert bisherige ‚Skripte‘ und bisherige ‚Rollen‘, verändert letztlich unmerklich das ganze Denken und Verstehen.

Zeitsprung

Als Popper seinen Vortrag in Bad Homburg 1991 hielt, da war das später so einflussreiche World Wide Web [3] zwar im Prinzip schon ‚erfunden‘, aber es war noch nicht das öffentliche, später und heute dann globale Phänomen, das mittlerweile in nahezu jeden Lebensbereich eingedrungen ist, das immer mehr ‚überall‘ benutzt wird, und das durch diese umfassende Nutzung de facto das gesamte gesellschaftliche Leben der meisten Länder auf dieser Erde real und — wie es aussieht — nachhaltig verändert hat. Mit dieser umfassenden realen Veränderung des alltäglichen Lebens hat sich auch das ‚Denken‘ in diesem täglichen Ereignisstrom real verändert. Ein Bereich, in dem man diese deutlich ablesen kann, ist der Sozialisierungsprozess der heutigen Kinder verglichen mit Kindern von z.B. 1950 – 1955. Natürlich spielen hier viele andere Faktoren auch eine Rolle, aber der Faktor World Wide Web ist gut greifbar und in seinen Wirkungen (1950 – 1955 nicht vorhanden), heute gut abgrenzbar.

Klar ist hier, dass Technologie von Kultur nicht abgrenzbar ist. Technologie ist das Medium, in dem wir unsere Kultur leben.

Eine der interessanten Fragen in diesem Zusammenhang ist, ob und wie sich die Fähigkeit des Menschen zum Problemlösen dadurch möglicherweise verändert hat:

  1. Welche Probleme erkennen wir überhaupt als solche, die wir lösen müssten, um überleben zu können?
  2. Welche dieser Problemen können wir durch die neue WWW-Technologie besser lösen?
  3. Welche dieser Problemen können wir durch die neue WWW-Technologie jetzt schlechter oder gar nicht mehr lösen?

Für die Beantwortung dieser Fragen arbeiten wir am oksimo Projekt.

Anmerkung

[1] Karl Popper, „A World of Propensities“,(1988) sowie „Towards an Evolutionary Theory of Knowledge“, (1989) in: Karl Popper, „A World of Propensities“, Thoemmes Press, Bristol, (1990, repr. 1995)

[2] Karl Popper, „All Life is Problem Solving“, Artikel, ursprünglich ein Vortrag 1991 auf Deutsch, erstmalig publiziert in dem Buch (auf Deutsch) „Alles Leben ist Problemlösen“ (1994), dann in dem Buch (auf Englisch) „All Life is Problem Solving“, 1999, Routledge, Taylor & Francis Group, London – New York

[3] World Wide Web in wkp-de: https://de.wikipedia.org/wiki/World_Wide_Web

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

VERANTWORTUNGSBEWUSSTE DIGITALISIERUNG: Fortsezung 1

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

So 16.Februar 2020

KONTEXT DEMOKRATIE

In einem vorausgehenden Beitrag hatte ich am Beispiel der Demokratie aufgezeigt, welche zentrale Rolle eine gemeinsame funktionierende Öffentlichkeit spielt. Ohne eine solche ist Demokratie nicht möglich. Entspechend der Komplexität einer Gesellschaft muss die große Mehrheit der Bürger daher über ein hinreichendes Wissen verfügen, um sich qualifiziert am Diskurs beteiligen und auf dieser Basis am Geschehen verantwortungsvoll partizipieren zu können. Eine solche Öffentlichkeit samt notwendigem Bildungsstand scheint in den noch existierenden Demokratien stark gefährdet zu sein. Nicht ausdrücklich erwähnt wurde in diesem Beitrag die Notwendigkeit von solchen Emotionen und Motivationen, die für das Erkennen, Kommunizieren und Handeln gebraucht werden; ohne diese nützt das beste Wissen nichts.

KONTEXT DIGITALISIERUNG

In einem Folgebeitrag hatte ich das Phänomen der Digitalisierung aus der Sicht des Benutzers skizziert, wie eine neue Technologie immer mehr eine Symbiose mit dem Leben der Gesellschaft eingeht, einer Symbiose, der man sich kaum oder gar nicht mehr entziehen kann. Wo wird dies hinführen? Löst sich unsere demokratische Gesellschaft als Demokratie schleichend auf? Haben wir überhaupt noch eine funktionierende Demokratie?

PARTIZIPATION OHNE DEMOKRATIE?

Mitten in den Diskussionen zu diesen Fragen erreichte mich das neue Buch von Manfred Faßler Partizipation ohne Demokratie (2020), Fink Verlag, Paderborn (DE). Bislang konnte ich Kap.1 lesen. In großer Intensität, mit einem in Jahrzehnten erarbeiteten Verständnis des Phänomens Digitalisierung und Demokratie, entwirft Manfred Faßler in diesem Kapitel eine packende Analyse der Auswirkungen des Phänomens Digitalisierung auf die Gesellschaft, speziell auch auf eine demokratische Gesellschaft. Als Grundidee entnehme ich diesem Kapitel, dass der Benutzer (User) in Interaktion mit den neuen digitalen Räumen subjektiv zwar viele Aspekte seiner realweltlichen sozialen Interaktionen wiederfindet, aber tatsächlich ist dies eine gefährliche Illusion: während jeder User im realweltlichen Leben als Bürger in einer realen demokratischen Gesellschaft lebt, wo es der Intention der Verfassung nach klare Rechte gibt, Verantwortlichkeiten, Transparenz, Kontrolle von Macht, ist der Bürger in den aktuellen digitalen Räumen kein Bürger, sondern ein User, der nahezu keine Rechte hat. Als User glaubt man zwar, dass man weiter ein Bürger ist, aber die individuellen Interaktionen mit dem digitalen Raum bewegen sich in einem weitgehend rechtlosen und demokratiefreiem Raum. Die allgemeinen Geschäftsbedingungen kaschieren diesen Zustand durch unendliche lange Texte, die kaum einer versteht; sprechen dem User nahezu alle Rechte ab, und lassen sich kaum bis gar nicht einklagen, jedenfalls nicht in einem Format, das der User praktisch einlösen könnte. Dazu kommt, dass der digitale Raum des Users ein geliehener Raum ist; die realen Maschinen und Verfügungsgewalten liegen bei Eignern, die jenseits der gewohnten politischen Strukturen angesiedelt sind, die sich eher keiner demokratischen Ordnung verpflichtet fühlen, und die diese Verfügungsgewalt — so zeigt es die jüngste Geschichte — skrupellos an jeden verkaufen, der dafür Geld bezahlt, egal, was er damit macht.

Das bisherige politische System scheint die Urgewalt dieser Prozesse noch kaum realisiert zu haben. Es denkt noch immer in den klassischen Kategorien von Gesellschaft und Demokratie und merkt nicht, wie Grundpfeiler der Demokratie täglich immer mehr erodieren. Kapitel 1 von Faßlers Buch ist hier schonungslos konkret und klar.

LAGEPLAN DEMOKRATISCHE DIGITALISIERUNG

Möglicher Lageplan zur Auseinandersetzung zwischen nicht-demokratischer und demokratischer Digitalisierung

Erschreckend ist, wie einfach die Strategie funktioniert, den einzelnen bei seinen individuellen privaten Bedürfnissen abzuholen, ihm vorzugaukeln, er lebe in den aktuellen digitalen Räumen so wie er auch sonst als Bürger lebe, nur schneller, leichter, sogar freier von üblichen analogen Zwängen, obwohl er im Netz vieler wichtiger realer Recht beraubt wird, bis hin zu Sachverhalten und Aktionen, die nicht nur nicht demokratisch sind, sondern sogar in ihrer Wirkung eine reale Demokratie auflösen können; alles ohne Kanonendonner.

Es mag daher hilfreich sein, sich mindestens die folgenden Sachverhalte zu vergegenwärtigen:

  • Verankerung in der realen Welt
  • Zukunft gibt es nicht einfach so
  • Gesellschaft als emergentes Phänomen
  • Freie Kommunikation als Lebensader

REALE KÖRPERWELT

Fasziniert von den neuen digitalen Räumen kann man schnell vergessen, dass diese digitalen Räume als physikalische Zustände von realen Maschinen existieren, die reale Energie verbrauchen, reale Ressourcen, und die darin nicht nur unseren realen Lebensraum beschneiden, sondern auch verändern.

Diese physikalische Dimension interagiert nicht nur mit der übrigen Natur sehr real, sie unterliegt auch den bisherigen alten politischen Strukturen mit den jeweiligen nationalen und internationalen Gesetzen. Wenn die physikalischen Eigentümer nach alter Gesetzgebung in realen Ländern lokalisiert sind, die sich von den Nutzern in demokratischen Gesellschaften unterscheiden, und diese Eigentümer nicht-demokratische Ziele verfolgen, dann sind die neuen digitalen Räume nicht einfach nur neutral, nein sie sind hochpolitisch. Diese Sachverhalte scheinen in der europäischen Politik bislang kaum ernsthaft beachtet zu werden; eher erwecken viele Indizien den Eindruck, dass viele politische Akteure so handeln, als ob sie Angestellte jener Eigner sind, die sich keiner Demokratie verpflichtet fühlen (Ein Beispiel von vielen: die neue Datenschutz-Verordnung DSGVO versucht erste zaghafte Schritte zu unternehmen, um der Rechtlosigkeit der Bürger als User entgegen zu wirken, gleichzeitig wird diese DSGVO von einem Bundesministerium beständig schlecht geredet …).

ZUKUNFT IST KEIN GEGENSTAND

Wie ich in diesem Blog schon mehrfach diskutiert habe, ist Zukunft kein übliches Objekt. Weil wir über ein Gedächtnis verfügen, können wir Aspekte der jeweiligen Gegenwart speichern, wieder erinnern, unsere Wahrnehmung interpretieren, und durch unsere Denkfähigkeit Muster, Regelhaftigkeiten identifizieren, denken, und neue mögliche Kombinationen ausmalen. Diese neuen Möglichkeiten sind aber nicht die Zukunft, sondern Zustände unseres Gehirns, die auf der Basis der Vergangenheit Spekulationen über eine mögliche Zukunft bilden. Die Physik und die Biologie samt den vielen Begleitdisziplinen haben eindrucksvoll gezeigt, was ein systematischer Blick zurück zu den Anfängen des Universums (BigBang) und den Anfängen des Lebens (Entstehung von Zellen aus Molekülen) an Erkenntnissen hervor bringen kann. Sie zeigen aber auch, dass die Erde selbst wie das gesamt biologische Leben ein hochkomplexes System ist, das sich nur sehr begrenzt voraus sagen lässt. Spekulationen über mögliche zukünftige Zustände sind daher nur sehr begrenzt möglich.

Ferner ist zu berücksichtigen, dass das Denken selbst kein Automatismus ist. Neben den vielen gesellschaftlichen Faktoren und Umweltfaktoren, die auf unser Denken einwirken, hängt unser Denken in seiner Ausrichtung entscheidend auch von unseren Bedürfnissen, Emotionen, Motiven und Zielvorstellungen ab. Wirkliche Innovationen, wirkliche Durchbrüche sind keine Automatismen. Sie brauchen Menschen, die resistent sind gegen jeweilige ‚Mainstreams‘, die mutig sind, sich mit Unbekanntem und Riskantem auseinander zu setzen, und vieles mehr. Solche Menschen sind keine ‚Massenware’…

GESELLSCHAFT ALS EMERGENTES PHÄNOMEN

Das Wort ‚Emergenz‘ hat vielfach eine unscharfe Bedeutung. In einer Diskussion des Buches von Miller und Page (2007) Complex Adaptive Systems. An Introduction to Computational Models of Social Life habe ich für meinen Theoriezusammenhang eine Definition vorgeschlagen, die die Position von Miller und Page berücksichtigt, aber auch die Position von Warren Weaver (1958), A quarter century in then natural sciences. Rockefeller Foundation. Annual Report,1958, pages 7–15, der von Miller und Page zitiert wird.

Die Grundidee ist die, dass ein System, das wiederum aus vielen einzelnen Systemen besteht, dann als ein organisiertes System verstanden wird, wenn das Wegnehmen eines einzelnen Systems das Gesamtverhalten des Systems verändert. Andererseits soll man aber durch die Analyse eines einzelnen Mitgliedssystems auch nicht in der Lage sein, auf das Gesamtverhalten schließen zu können. Unter diesen Voraussetzungen soll das Gesamtverhalten als emergent bezeichnet werden: es existiert nur, wenn alle einzelnen Mitgliedssysteme zusammenwirken und es ist nicht aus dem Verhalten einzelner Systeme alleine ableitbar. Wenn einige der Mitgliedssysteme zudem zufällige oder lernfähige Systeme sind, dann ist das Gesamtverhalten zusätzlich begründbar nicht voraussagbar.

Das Verhalten sozialer Systeme ist nach dieser Definition grundsätzlich emergent und wird noch dadurch verschärft, dass seine Mitgliedssysteme — individuelle Personen wie alle möglichen Arten von Vereinigungen von Personen — grundsätzlich lernende Systeme sind (was nicht impliziert, dass sie ihre Lernfähigkeit ’sinnvoll‘ nutzen). Jeder Versuch, die Zukunft sozialer Systeme voraus zu sagen, ist von daher grundsätzlich unmöglich (auch wenn wir uns alle gerne der Illusion hingeben, wir könnten es). Die einzige Möglichkeit, in einer freien Gesellschaft, Zukunft ansatzweise zu erarbeiten, wären Systeme einer umfassenden Partizipation und Rückkopplung aller Akteure. Diese Systeme gibt es bislang nicht, wären aber mit den neuen digitalen Technologien eher möglich.

FREIE KOMMUNIKATION UND BILDUNG

Die kulturellen Errungenschaften der Menschheit — ich zähle Technologie, Bildungssysteme, Wirtschaft usw. dazu — waren in der Vergangenheit möglich, weil die Menschen gelernt hatten, ihre kognitiven Fähigkeiten zusammen mit ihrer Sprache immer mehr so zu nutzen, dass sie zu Kooperationen zusammen gefunden haben: Die Verbindung von vielen Fähigkeiten und Ressourcen, auch über längere Zeiträume. Alle diese Kooperationen waren entweder möglich durch schiere Gewalt (autoritäre Gesellschaften) oder durch Einsicht in die Sachverhalte, durch Vertrauen, dass man das Ziel zusammen schon irgendwie erreichen würde, und durch konkrete Vorteile für das eigene Leben oder für das Leben der anderen, in der Gegenwart oder in der möglichen Zukunft.

Bei aller Dringlichkeit dieser Prozesse hingen sie zentral von der möglichen Kommunikation ab, vom Austausch von Gedanken und Zielen. Ohne diesen Austausch würde nichts passieren, wäre nichts möglich. Nicht umsonst diagnostizieren viele Historiker und Sozialwissenschaftler den Übergang von der alten zur neuen empirischen Wissenschaft in der Veränderung der Kommunikation, erst Recht im Übergang von vor-demokratischen Gesellschaften zu demokratischen Gesellschaften.

Was aber oft zu kurz kommt, das ist die mangelnde Einsicht in den engen Zusammenhang zwischen einer verantwortlichen Kommunikation in einer funktionierenden Demokratie und dem dazu notwendigen Wissen! Wenn ich eine freie Kommunikation in einer noch funktionierenden Demokratie haben würde, und innerhalb dieser Diskussion würden nur schwachsinnige Inhalte transportiert, dann nützt solch eine Kommunikation natürlich nichts. Eine funktionierende freie Kommunikation ist eine notwendige Voraussetzung für eine funktionierende Demokratie, aber die Verfügbarkeit von angemessenen Weltbildern, qualitativ hochwertigem Wissen bei der Mehrheit der Bürger (nicht nur bei gesellschaftlichen Teilgruppen, die sich selbst als ‚Eliten‘ verstehen) ist genauso wichtig. Beides gehört zusammen. Bei der aktuellen Zersplitterung aller Wissenschaften, der ungeheuren Menge an neuem Wissen, bei den immer schneller werdenden Innovationszyklen und bei der zunehmenden ‚Fragmementierung der Öffentlichkeit‘ verbunden mit einem wachsenden Misstrauen untereinander, ist das bisherige Wissenssystem mehr und mehr nicht nur im Stress, sondern möglicherweise kurz vor einem Kollaps. Ob es mit den neuen digitalen Technologien hierfür eine spürbare Unterstützung geben könnte, ist aktuell völlig unklar, da das Problem als solches — so scheint mir — noch nicht genügend gesellschaftlich erkannt ist und diskutiert wird. Außerdem, ein Problem erkennen ist eines, eine brauchbare Lösung zu finden etwas anderes. In der Regel sind die eingefahrenen Institutionen wenig geeignet, radikal neue Ansätzen zu denken und umzusetzen. Alte Denkgewohnheiten und das berühmte ‚Besitzstanddenken‘ sind wirkungsvolle Faktoren der Verhinderung.

AUSBLICK

Die vorangehenden Gedanken mögen auf manche Leser vielleicht negativ wirken, beunruhigend, oder gar deprimierend. Bis zum gewissen Grad wäre dies eine natürliche Reaktion und vielleicht ist dies auch notwendig, damit wir alle zusammen uns wechselseitig mehr helfen, diese Herausforderungen in den Blick zu nehmen. Der Verfasser dieses Textes ist trotz all dieser Schwierigkeiten, die sich andeuten, grundlegend optimistisch, dass es Lösungen geben kann, und dass es auch — wie immer in der bisherigen Geschichte des Lebens auf der Erde — genügend Menschen geben wird, die die richtigen Ideen haben werden, und es Menschen gibt, die sie umsetzen. Diese Fähigkeit zum Finden von neuen Lösungen ist eine grundlegende Eigenschaft des biologischen Lebens. Dennoch haben Kulturen immer die starke Tendenzen, Ängste und Kontrollen auszubilden statt Vertrauen und Experimentierfreude zu kultivieren.

Wer sich das Geschehen nüchtern betrachtet, der kann auf Anhieb eine Vielzahl von interessanten Optionen erkennen, sich eine Vielzahl von möglichen Prozessen vorstellen, die uns weiter führen könnten. Vielleicht kann dies Gegenstand von weiteren Beiträgen sein.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

IN ZWEI WELTEN LEBEN …

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 23.Juli 2019
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Nach einer längeren Schreibpause, hier ein kurzes Blitzlicht …

SCHWEIGEN IST VIELDEUTIG

Es ist ja ein beliebter Topos, über das Schweigen zu sinnieren. Korrespondiert es mit einem ‚Nichts‘ oder ist es nur ein Artefakt vielschichtiger, sich wechselseitig in Bann haltender Aktivitäten, die sich ’nach Außen quasi ‚aufheben’…

Dies ist ein Bild. Für mein Schweigen trifft weder das eine noch das andere zu. Tatsächlich ist bei mir die letzte Zeit extrem dicht angefüllt mit Aktivitäten, Denken, Schreiben, ja auch mit Programmieren, eine moderne Form des Schreibens. Letzteres leider in unserer Kultur von schöngeistigen Menschen wenig geachtet, tatsächlich aber der Stoff, aus dem das Meiste ist, was wir heute für unser Leben benutzen.

DENKEN – VIELFÄLTIG – IM DENKEN DENKEN

Die vielfältigen Formen des Denkens zu katalogisieren und zu bewerten, dann eventuell noch hierarchisch zu gewichten, ist sicher reizvoll. Bis zu einem gewissen Grade und in gewissen Situationen mag dies sogar notwendig sein (Gesetzestexte, Rezepten, Bauanleitungen, Sportberichte, Finanzberichte ….), aber man verliert die Wahrheit aus dem Blick wenn man übersieht, dass alle diese verschiedenen Spezialformen Ausdrucksformen einer einzigen Sache sind, nämlich der Bemühung des menschlichen Geistes — realisiert in den vielen einzelnen Menschen — sich im Hier und Jetzt zurecht zu finden; zu verstehen, wie denn das alles zusammenhängt. Warum das alles so ist, wie es ist. Gibt es irgendwie ein Ziel für die Zukunft? Mehrere? Welches ist am günstigsten? Für wen? Aus welchem Grund?

Für mich war das Schreiben in diesem Block seit ca. 10 Jahren mein Versuch, mich selbst in ein Gespräch zu verwickeln, das mich zwang, Eindrücken, Fragen nachzugehen, die ich ohne dies Schreiben eher achtlos beiseite gelassen hätte. Natürlich, neben viel Spaß, Lust an der Sache, Neugierde, Entdeckerfreuden usw. war es auch weite Strecken mühsam, quälend, mit der ständigen Frage: Muss das so sein? Bringt das was? Im Rückblick, nach ca. 9000 Seiten Text, würde ich sagen, es hat — zumindest für mich — sehr viel gebracht. Ich habe begonnen, Dinge zu verstehen, von denen ich vorher nicht wusste, dass es sie gibt, Zusammenhänge, die mir verborgen waren, überraschende neue Ausblicke, Glücksgefühle, noch mehr Neugierde, viel Hoffnung, ein wachsendes Vertrauen in dieses unfassbare Wunder genannt Leben. Ich bin jetzt soweit, dass ich zumindest ahnen kann, dass das Leben viel größer, tiefer, komplexer, reicher, gewaltiger ist, als alles, was uns die bekannten alten Traditionen — vor allem die alten Religionen, aber auch Einzelbereiche der Wissenschaften — bisher erzählt haben oder heute noch erzählen.

Insofern habe ich aus dem bisherigen Schreib- und Reflexionsprozess viel Kraft gezogen, viel Hoffnung, viel neues Vertrauen, Unternehmenslust, mit dabei zu sein, wenn es geht, die Unfassbarkeit unseres Lebens weiter zu gestalten.

MITGESTALTEN …

Je mehr man diesen Wunsch hegt, nicht nur passiv aufzunehmen, nicht nur zu verstehen, um so schwieriger wird dann die Frage, wo steigt man ein? Was kann man als einzelner mit seinen jeweiligen Möglichkeiten konkret tun?

Leute, die mit markigen Sprüchen durch die Welt laufen, die vielfarbige Slogans verteilen, die einfache schwarz-weiß Bilder austeilen, gibt es genug. Alles ist sehr einfach…

Aber, das Wunder des Lebens ist — nicht wirklich einfach. Wir selbst sind zwar zunächst als ‚Hineingeworfene‘ auf den ersten Blick einfach, weil wir etwas sehr Komplexes sind, das Komplexeste, was es im ganzen Universum gibt, aber wir haben keinen Finger dafür krumm gemacht, wir finden das alles einfach so vor, wir können sofort loslegen, ohne große umständliche Prozesse zu durchlaufen (OK, es gibt mittlerweile in den meisten Kulturen komplexe selbst definierte Lernprozesse in Kindergärten, Schulen, Betrieben, Hochschulen usw.), aber wir müssen nicht verstehen, wie wir funktionieren, um zu funktionieren. Unser Körper, das Äquivalent von ca. 450 Galaxien im Format der Milchstraße, funktioniert für uns, ohne dass wir verstehen müssen (und auch tatsächlich nicht verstehen können, bislang) wie er funktioniert. Wir sind ein Wunderwerk des Universums und können ‚funktionieren‘, obwohl wir uns praktisch nicht verstehen.

Da beginnt meine zweite Story: auf Ganze gesehen weiß ich so gut wie nichts, nah besehen weiß ich aber mittlerweile zu viel, als dass ich einfach so tun könnte, nichts zu wissen 🙂

EINZELTEILE ZUSAMMEN SUCHEN

Im Rahmen meiner unterschiedlichen Lehr- und Forschungstätigkeiten, zwischendrin auch ’normale‘ berufliche Arbeiten, habe ich schrittweise viele wissenschaftliche Bereiche kennen lernen dürfen und dabei entdeckt, dass wir aktuell ein ‚Zusammenhangs-Problem‘ haben, will sagen, wir haben immer mehr einzelne Disziplinen,die je für sich hoch spezialisiert sind, aber die Zusammenhänge mit anderen Bereichen, ein Gesamtverständnis von Wissenschaft, gar doch noch mit dem ganzen Engineering, dies geht uns zusehends ab. Dies bedeutet u.a. dass ein neuer Beitrag oft gar nicht mehr richtig gewürdigt werden kann, da die Umrisse des Ganzen, für das etwas entdeckt oder entwickelt wurde, kaum noch greifbar sind. Dies ist das Fake-News-Problem der Wissenschaften.

Ob geplant oder spontan oder zufällig, ich kann es nicht genau sagen, jedenfalls habe ich vor einigen Jahren damit begonnen, zu versuchen, die Disziplinen, in denen ich tätig sein konnte, langsam, schrittweise, häppchenweise, zu systematisieren, zu formalisieren, und sie auf die mögliche Wechselwirkungen mit den anderen Bereichen hin abzuklopfen.

Zu Beginn sah dies alles sehr bruchstückhaft, eher harmlos aus.

Doch im Laufe der Jahre entwickelten sich Umrisse, entstanden immer deutlicher Querbezüge, bis dann so langsam klar wurde, ja, es gibt hier mögliche begriffliche Rahmenkonzepte, die sehr prominente und doch bislang getrennte Disziplinen auf eine Weise zusammen führen können, die so bislang nicht sichtbar waren.

MENSCH – MASCHINE – UND MEHR …

Mein Fixpunkt war das Thema Mensch-Maschine Interaktion (MMI) (Englisch: Human-Machine Interaction, HMI), von mir dann weiter entwickelt zum allgemeinen Actor-Actor Interaction (AAI) Paradigma. Mehr zufällig bedingt, genau genommen durch einen wunderbaren Freund, einem Südafrikaner, ein begnadeter Systems Engineer, habe ich auch sehr früh begonnen, das Thema Mensch-Maschine Interaktion immer auch im Kontext des allgemeineren Systems Engineerings zu denken (im englischsprachigen Raum ist das Paradigma des Systems Engineering sehr geläufig, im deutschsprachigen Bereiche gibt es viele Sonderkonzepte). Irgendwann haben wir angefangen, das Systems Engineering zu formalisieren, und im Gefolge davon habe ich dies ausgedehnt auf das Mensch-Maschine Paradigma als Teil des Systems Engineerings. Dies führte zu aufregenden Verallgemeinerungen, Verfeinerungen und letztlich auch Optimierungen. Es war dann nur eine Frage der Zeit, bis das ganze Thema Künstliche Intelligenz (KI) integriert werden würde. KI steht bislang theoretisch ein wenig verloren im Raum der vielen Disziplinen, kaum verortet im Gesamt der Wissenschaften, des Engineering, der allgemeine Kognitions-, Lern- und Intelligenztheorien der biologischen Disziplinen. Im Rahmen des AAI Paradigmas ist KI eine Subdisziplin, die eine spezielle Teilmenge von Akteuren in ihrem Verhalten beschreiben, modellieren und simulieren kann, aber eben nicht isoliert, sondern eingeordnet in den Gesamtrahmen von Engineering und Wissenschaft. Dies eröffnet viele aufregende Perspektiven und Anwendungsmöglichkeiten.

Und so wird es auch niemanden verwunden, dass mein Engagement für ein integriertes begriffliches System für Systems Engineering, MMI und KI zugleich auch ein starkes Engagement für die philosophische Dimension wurde.

Ein Leser dieses Blocks wird nicht verwundert sein, wenn ich feststelle, dass es gerade die intensive Beschäftigung mit dem Engineering und seiner Meta-Probleme waren, die mich zur Philosophie zurück geführt hatten. Nach meiner völligen Frustration mit der klassischen Philosophie während des ersten Anlaufs einer Promotion in Philosophie an der LMU München (ca. 1980 – 1983) — ein Roman für sich — fand ich viele wertvolle Erkenntnisse im intensiven Studium der Wissenschaftsphilosophie und einiger konkreter Wissenschaften. Das Engineering (mit Schwerpunkt Informatik) war dann noch bereichernder. Aber gerade hier, im Systems Engineering, bei dem Thema Mensch-Maschine, und ausgerechnet mitten in den Lerntheorien der KI, bin ich auf so viele grundlegende philosophische Fragen gestoßen, dass ich von da ab — fast notwendigerweise — wieder angefangen habe philosophisch zu denken. Eines der Hauptmotive für diesen Block.

Natürlich, das merkt man wohl auch schon beim Lesen, führt die Breite und Fülle dieser Aspekte dazu, dass man nicht schnell, und nicht immer konzise arbeiten kann. Man muss viele Fragen mehrfach bedenken, oft von verschiedenen Seiten aus, muss immer wieder von vorne anfangen, und wenn man dann meint, jetzt habe man man den Bogen doch gut hinbekommen, entdeckt man von einer anderen Seite so viele anderen Aspekte, Löcher, Unzulänglichkeiten, dass man gerade nochmals von vorne anfangen kann.

Wie schwierig es auch sein mag, die Umrisse eines Ganzen deuten sich doch mittlerweile immer stärker an, so stark, dass ich das Gefühl habe, dass dieser andere Block — uffmm.org–, mein Blog für das Engineering, ab jetzt mehr — oder gar die ganze — Aufmerksamkeit verlangt.

Denn, eine Folge von Zusammenhangs-Sichten ist, dass man — fast unaufhaltsam — immer weitere Zusammenhänge entdeckt. So ist natürlich eng verknüpft mit dem Mensch-Maschine Paradigma der gesamte Komplex der biologischen und psychologischen Verhaltenswissenschaften, dazu gehörig auch das, was man Kognitionswissenschaft nennt, und damit ganz viele weitere spezielle Disziplinen, die irgendwie den Menschen und sein Verhalten thematisieren (Semiotik, Linguistik, Soziologie, …).

Während das Lesen und Studieren einzelner Werke und Artikel aus diesen Bereichen ohne übergreifenden Zusammenhang oft so beliebig, und damit frustrierend, wirkt, gewinnen diese Werke bei einem expliziten begrifflichen Zusammenhang eine ganz andere Farbigkeit, leuchten auf, werden interessant. So ist mir dies z.B. in den letzten Monaten mit Büchern von Edelman, Gallistel und Gärdenfors gegangen (um einige Beispiele zu nennen).

Während es also einerseits darum geht, immer mehr prominente Beispiele aus den genannten Disziplinen in den neuen begrifflichen Rahmen einzuordnen, ist mir auch klar geworden, dass dies alles — so wunderbar das für sich genommen schon ist (obgleich noch im Prozess) — heute nicht mehr ausreichend ist, ohne eine hinreichende Softwareunterstützung, ohne Software-Modellierung und vielerlei Simulationsversionen. Schon ein rein empirisches verhaltenswissenschaftliches Buch wie das grundlegende Werk von Gallistel zur Organisation des biologischen Lernens bleibt ohne zugehörige Softewaremodelle irgendwie ein Torso, entsprechend auch die Werke von Gärdenfors zu Begriffs-Räumen (Conceptual Spaces). Ein positives Beispiel für Theorie und Computersimulation liefert Edelman in vielen Büchern, Artikeln und Programmen. Und ich weiß aus eigener Vorlesungserfahrung, dass die Vorlesungen zum dynamischen Lernen erste mit der zugehörigen Softwaremodellierung jene Farbe und Tiefe bekommen haben, die es heute braucht.

Für mich ergibt sich daraus, dass ich parallel zur Text-Version der Theorie — natürlich mit hinreichenden Formalisierungen — eine vollständige Softwareabdeckung brauche. Ohne diese wird das alles nur Stückwerk bleiben.

Damit entsteht ein ziemliches Aufgabenpaket: Systems Engineering mit Actor-Actor Paradigma, dazu KI integriert, bei AAI Kognitionswissenschaften integriert, und zu allem die notwendige Software.

Allerdings eine wichtige Dimension fehlt bei dieser Aufzählung noch: die allgemeine Philosophie und die Wissenschaftsphilosophie. Die allgemeine Philosophie und die Wissenschaftsphilosophie können zwar die Einzelwissenschaften nicht ersetzen, aber die Einzelwissenschaften ohne eine explizite allgemeine Philosophie und Wissenschaftsphilosophie gleichen einem Haufen gackernder Hühner, deren Einzelbeiträge schnell in Kakophonie umschlagen kann, wenn sie nicht integriert werden.

Also, im Prinzip ist sehr klar, wie es gehen soll, es konkret zu tun ist scheinbar unmöglich. Aber genau das ist es, worum es geht: das Leben als solches in diesem Universum ist die maximale Unmöglichkeit, aber dennoch ist es da, dennoch entwickelt es sich. Dieses Mysterium einer ungeheuren Kraft, das Unmögliche möglich zu machen, das ist das, was jeden Menschen, insbesondere jeden Wissenschaftler, antreiben sollte, ansonsten sind wir tatsächlich — möglicherweise — schlechter als alle denkbaren Roboter der Zukunft.

AUF DIE BAUSTELLE

Wie schon angedeutet, hat meine Theoriebaustelle einen Namen: uffmm.org . ‚uffmm‘ ist die Abkürzung eines ganzen Satzes. Ich verrate jetzt nicht, wie dieser Satz heißt. Schön wäre es, wenn er einmal wahr werden würde.

Wer will, kann die Ereignisse auf dem uffmm-Blog verfolgen, allerdings ist dort alles auf Englisch. Es ist nicht meine Sprache, ich fühle mich damit sprachlich amputiert, aber es ist die zur Zeit beste Arbeitssprache für den internationalen Raum.

Ich habe auch keine Ahnung, wie weit ich kommen werde.

Parallel betreibe ich noch ein Anwendungsprojekt mit Überschrift ‚Kommunalplanung als eGaming‚. Damit zielen wir auf alle ca. 11.000 Kommunen in Deutschland, mit einem neuen Ansatz für mehr Demokratie in einer digitalisierten Welt. Dieser Ansatz ist ein direkter Ausfluss der zuvor angedeuteten Theoriearbeit (plus Software).

Der Philosophie-Jetzt Block war der entscheidende Inkubator für diese Weiterentwicklung. Ob und wie sich dieser Blog weiter entwickelt, wird man sehen. Er war ganz und gar ungeplant, und so wird auch die weitere Zukunft sich ereignen 🙂

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

DAS LEBEN ALS PROJEKT DER FREIHEIT

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 11.Dez. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KURZFASSUNG

Die grundlegende Idee einer Freiheit, die das Leben, insbesondere den Menschen, auszeichnet, die die großen wissenschaftlichen, politischen und auch wirtschaftlichen Umbrüche der Neuzeit hervorgebracht hat, scheint  unter zunehmender Atemnot zu leiden. Ein kurzer Blick auf die materielle Basis des Lebens unterstützt dies nicht. Leben ist gerade wissenschaftlich ein einziges Freiheitsprojekt …. Freiheit war aber noch nie ‚bequem‘ …

KONTEXT: REDE VON FREIHEIT

In einem aktuellen Beitrag in der Frankfurter Rundschau mit Titel ‚Der sanfte Umbruch‚ wird das Phänomen der Digitalisierung in seinen weitreichenden gesellschaftlichen und individuellen Wirkungen schlaglichtartig sichtbar gemacht, und zugleich als ein Leitmotiv auf den Menschen als Wesen der Freiheit hingewiesen. Dies ist bemerkenswert, da der Faktor Mensch heute weder in den Wissenschaften noch in vielen Gesellschaften als jener ausgezeichnete Ort von verdichteter Freiheit angesehen wird, der er – bei entsprechender Betrachtung – ist. Und damit sind wir am Kern des Problems: was nützen die spannendsten Sachverhalte, wenn der potentielle Betrachter eine mentale Brille auf hat, die ihn daran hindert, das zu sehen, was ‚ist‘.

IN GUTER GESELLSCHAFT: ZERSPLITTERUNG

Mit dem Aufhaben einer falschen mentalen Brille ist man allerdings in einer guten Gesellschaft. Wie der Überblick über die Vielzahl von Einzelwissenschaften im Rahmen der Relektüre von Edelmans Buch von 1992 gezeigt hat, zersplittert sich die Wissenschaft aufgrund ihres wissenschaftsphilosophischen Selbstverständnisses in immer mehr Einzelwissenschaften, die immer mehr Details zeigen, und immer weniger Zusammenhänge (die im Schaubild dieses Beitrags genannten Einzelwissenschaften sind nur die Spitze des Eisbergs). Selbst wenn es interessante komplexe Sachverhalte geben würde, die über den Wahrnehmungshorizont einer Einzelwissenschaft hinausreichen würden, solche Sachverhalte würden unerkannt bleiben, weil es keinen organisierten ‚integrierenden Blick‘ auf das ‚Ganze im Lichte des Einzelnen‘ gibt. Die verschiedenen Integrationsfantasien der Physik, die Vision einer Weltformel , haben sich weder erfüllt noch sind sie – aufgrund vieler kritischer Argumente – prinzipiell so möglich, wie sie die Physik gerne hätte.

KRANK IM KOPF?

Wer meint, „diese Probleme der Wissenschaft gehen ihn direkt nichts an, man selbst in seinem Alltag wisse ja doch schon, irgendwie, ‚wo es lang geht‘, was soll das also“, einem solchen ist natürlich zunächst wenig zu helfen. Wer so redet hat seine eigene mentale Brille, die offensichtlich darauf optimiert ist, alles auszublenden, was stört bzw. vielleicht stören könnte.

Dass mentale Brillen im Kopf selbst große Wissenschaftler beeinflussen können, ist nichts Neues. Die Geschichte ist voll davon. Edelman selbst, dessen Buch von 1992 ich einer Re-Lektüre mit Diskussion unterziehe (siehe den Überblick über alle bisherigen Beiträge), ist jemand, der eigentlich deutlich über die Grenzen seiner eigenen Wissenschaft hinaus schaut und hier auf interessante Fehlentwicklungen hinweist. Aber in seinem eigenen, angestammten Gebiet der Gehirnforschung, wird er dennoch Opfer seiner eigenen wissenschaftsphilosophischen Setzungen. In seiner Analyse und Diskussion des Phänomens ‚Bewusstsein‘  beginnt er mit sehr klaren, fast rabiaten Worten, in denen er den besonderen Charakter des Phänomens ‚Bewusstsein‘ herausstellt („Bewusstsein ist fremd, mysteriös, das ‚letzte Geheimnis‘.“ (S.137f)). Und er beschreibt auch die methodische Unmöglichkeit, das Phänomen als das, was es ist, ein erste-Person-Phänomen, wissenschaftlich angemessen beschreiben zu können. Dann aber – trotz eines eigenen Abschnitts über das, was genau die Eigenschaften einer wissenschaftlichen Theorie seien – beschreibt er wissenschaftliche Praktiken, die im Kern methodisch nicht das leisten, was sie leisten sollen, die aber dann in ihrem Ergebnis so gehandelt werden, ‚als ob‘ sie das Phänomen Bewusstsein behandelt hätten (dies erinnert ein wenig an die Praktiken der Finanzindustrie, die schrottige Finanzen (also eigentlich nicht vorhandenes Geld) so geschickt ‚mehrfach verpackt‘ haben, dass der Käufer  den Eindruck haben konnte, er kaufe ein funktionierendes Wertpapier)). Nun wird man Edelman sicher nicht jene kriminelle Energie unterstellen, die die Finanzkontrukteure angetrieben hat, aber irgendeine Form von ‚Energie‘ muss es dennoch sein, etwas mit einer Methode A erklären zu wollen, wofür die Methode A aber nicht ausgelegt ist.

Dieses Beispiel – wie gesagt, eines von vielen Hunderten wenn nicht Tausenden – zeigt, dass das Problem der mentalen Brille, die A zeigt, obgleich wir ein Nicht-A haben, jeden, selbst den größten Wissenschaftler, treffen kann. Und es ist die Gehirntheorie von Edelman selbst, die viele der Argumente liefert, warum wir ‚von Natur aus‘ das Problem der ‚mentalen Brille‘ haben; letztlich ist es eigentlich kein ‚Problem‘, sondern eine grandiose Errungenschaft des Lebens, das allerdings, bei ‚falschem Gebrauch‘, das Gegenteil von dem bewirkt, wofür es eigentlich ausgelegt ist.

BEWUSSTWERDUNG …

In den Kapiteln 11 und 12 beschreibt Edelman das Phänomen des Bewusstseins, wie es sich aus Sicht der Gehirnforschung und der Biologie darstellt.

Stark vereinfachend kann man seine Position vielleicht dahingehend zusammen fassen, dass er einmal zwischen einem ‚primären Bewusstsein‘ und einem ‚Höheren Bewusstsein‘ unterscheidet.

Das primäre Bewusstsein ist den aktuellen sinnlichen Wahrnehmungen der Außen- und Innenwelt verhaftet, kennt nur eine Gegenwart, das Jetzt, ist aber dennoch – auf unbewusste Weise – mit einer Gedächtnismaschinerie verbunden, die automatisiert die primären Erlebnisse ‚kategorisiert‘ und ‚bewertet‘. Schon hier beginnt also eine ‚Interpretation‘ von ‚Welt‘ sowohl in ihren ‚wissbaren Strukturen‘ wie auch in ihren ‚individuellen Bewertungen‘, und zwar ‚unbewusst‘. (Den Begriff ‚unbewusst‘  erläutert Edelman erst im Kap.13).

Vom primären, in der Gegenwart verhafteten Bewusstsein unterscheidet er das ‚höhere Bewusstsein‘, das in der Lage ist, die Gegenwart zu übersteigen durch Abstraktionsbildungen, welche die Gegenart und Vergangenheit explizit vergleichen können. Ein wichtiges Mittel ist hier ferner die symbolische Sprache, mit deren Hilfe nicht nur Momente des wahrgenommenen und erinnerten Wissens ‚fixiert‘, ‚bewusst erinnert‘, und ’neu konfiguriert (gedacht)‘ werden können, sondern das individuelle Gehirn kann mittels der Sprache mit einem anderen Gehirn in begrenztem Umfang ‚kommunizieren‘.

Die Wirkung dieser neuen inneren Organisationsstrukturen des Körpers zeigen sich in der Geschichte der Evolution unübersehbar und massiv: seit dem Auftreten des Homo  sapiens ist die Komplexität des Lebens auf der Erde in atemberaubend kurzer Zeit explodiert; dies ist eine extreme Form von exponentieller Beschleunigung.

Wichtig ist aber jene Unterscheidung von Edelman, dass die Entwicklung der Sprache der Entwicklung der komplexen Begriffsbildung sowie der Entwicklung des physiologischen Sprechapparates nachfolgt. Ohne komplexe Begriffsbildung und ohne Sprechapparat keine Sprache. Dies ist insofern wichtig als die Ausbildung bestimmter symbolischer Ausdrucksmittel und deren Assoziierung mit bestimmten ‚Inhalten‘ ein sekundärer Prozess ist.

KEIN DETERMINISMUS

Ebenso wichtig ist, sich bewusst zu machen, dass sowohl bei der ontogenetischen Entwicklung des Gehirns in einem einzelnen Organismus sowie in der kontinuierlichen Arbeit eines individuellen Gehirns in keiner Phase ein ‚Determinismus‘ vorliegt. Sowohl das individuelle Gehirnwachstum wie auch die kontinuierliche Arbeit des Gehirns ist sowohl von vielen zufälligen Faktoren geprägt wie auch von beständigen Selektionsprozessen: aus einer Fülle von Optionen müssen ständig einige wenige ausgewählt werden, um den Lebensprozess nicht zum Stillstand zu bringen. Und hier treffen wir auf die Wurzel aller mentalen Brillen!

Um zu überleben, muss der individuelle Organismus aufgrund begrenzter Ressourcen ständig auswählen und damit Entscheidungen fällen. Diese Entscheidungen sind primär ‚automatisch‘, ‚unbewusst‘, eine Mischung aus genetischen induzierten ‚Tendenzen‘ sowie durch bisherige ‚Erfahrungen mit ihren impliziten Bewertungen‘. Dieser Mechanismus kann ‚deterministisch‘ wirken. Allerdings erlauben die höheren Gehirnleistungen – insbesondere auch die Sprache – diese weitgehend unbewussten Prozesse partiell ’sichtbar‘ und damit zu ‚explizitem Wissen‘ zu machen, das dann in komplexere Beziehungen und Modelle eingebaut werden kann, mittels deren Tendenzen sichtbar werden, implizite Voraussetzungen, mögliche Zukünfte. Ein solches explizit reflektierendes Verhalten ist mühsam, bietet aber prinzipiell die Möglichkeit, aus dem dumpfen Automatismus einer genialen Maschinerie partiell und schrittweise zu entkommen. Allerdings auch nur, wenn man sowohl den Wahrnehmungsprozess wie auch den Denkprozess beständig mit Alternativen, mit anderen Mustern konfrontiert. Die eigene Erfahrung ist sich selbst gegenüber weitgehend ‚blind‘. Die verfügbare Erfahrung als solche ist weder ‚wahr‘ noch ‚falsch‘, sie wirkt sich aus auf den kognitiven Verarbeitungsprozess, und diese Auswirkungen sind primär unbewusst. Es erfordert explizit Anstrengung, sich diesen bewusst zu machen.

Die Erfindung der neuzeitlichen experimentellen Wissenschaften war in diesem Kontext ‚revolutionär‘, da man versucht hat, die automatisierten, unbewussten Abläufe der individuellen Denkprozesse zu ‚externalisieren‘, sie an ‚externe‘ Objekte und Verfahren zu knüpfen, sie wiederholbar und transparent zu machen, unabhängig von den Besonderheiten eines individuellen Beobachters. Bis zu einem gewissen Grad hat diese Strategie bis heute große Wirkungen erzielt.

Allerdings haben diese Erfolge aus den Blick geraten lassen, dass die individuellen Gehirne der Forscher immer noch im Spiel bleiben, und dass diese individuellen Gehirne ihr eigenes ‚Betriebsprotokoll‘ haben, ihre ‚Policy‘, wie sie mit erlebbaren Ereignissen umgehen. Das Gehirn aus sich heraus ermöglicht zwar eine ‚kritische Theoriebildung‘, wenn aber der ‚Steuermann des Verhaltens‘ (Wer ist das genau?) die Mechanismen einer kritischen Überprüfung, eines kritischen Lernens nicht aktiviert, nicht nutzt, dann kann das Gehirn – wie viele Jahrtausende Kulturgeschichte zeigen – sich in Modellbildungen verrennen, die ‚an sich‘ schön aussehen, aber von nur geringem Erklärungswert sind, die Leben behindern statt zu fördern.

FREIHEIT ODER UNFREIHEIT

So wie im berühmten Beispiel mit dem halb vollen Glas, das der ‚Optimist‘ anders sieht als der ‚Pessimist‘, ist es auch hier ein wenig eine Frage der Einschätzung, ob man das biologische Wunderwerk Homo sapiens nun als einen gewissen ‚Höhepunkt‘ (aber nicht Endpunkt!) der bisherigen Evolution ansieht, oder aber als das nächste ‚Auslaufmodell‘.

Wer sich den mühevollen Weg der biologischen Evolution vergegenwärtigt, am besten noch erweitert um die Evolution des Universums, der kann eigentlich nicht umhin ins Staunen zu geraten, welche unfassbare Komplexitäten sich hier ‚aus sich heraus‘ organisiert haben. Dass wir heute vielfach an Überlastungen, an Versagen dieser Komplexität leiden, die Schwierigkeiten erleben, die eine Umsetzung der implizit gegebenen Möglichkeiten mit sich bringen, ist aus Sicht des Beteiligtseins nachvollziehbar. Dennoch waren Schwierigkeiten der Umsetzung eigentlich noch nie ein Beweis der Unmöglichkeit. Gemessen an den Problemen, die das biologische Leben in den vergangenen ca. 3.8 Mrd Jahren erleben und meistern musste, ist das, was wir heute erleben, eigentlich ein ‚Luxusproblem‘. Allerdings, die grundsätzliche Einsicht in das ‚Wunder des Lebens‘ ist noch nicht automatisch die ‚Umsetzung eines lebbaren Weges‘.

Andererseits, alle diese Probleme gibt es nur, weil das Leben von Grunde auf ein Projekt der Freiheit ist und es diese Offenheit für eine je größere und andere Zukunft ist, die permanent ‚Stress‘ erzeugt. Alles in der Vergangenheit erworbene Wissen, umgesetzte Verfahren und Strukturen haben eine eingebaute ‚Verfallszeit‘, weil der umgebenden universale Weltprozess dynamisch ist, sich beständig verändert, und alles, was bis zu einem gewissen Zeitpunkt erreicht wurde, kann nur erhalten werden, wenn es ‚angemessen‘ (nachhaltig, resilient) verändert wird. Wäre unser menschliches und gesellschaftliches Denken weniger an ‚Statik‘ ausgerichtet, weniger an ‚Bewahrung‘, weniger an ‚politischer Korrektheit‘, sondern stattdessen eher an ‚kontinuierlicher Veränderung‘, an ‚kreativer Forschung‘, an ‚experimentellen Entwürfen‘, an ‚unkonventionellen Typen‘, dann wären wir wahrscheinlich grundlegend besser aufgestellt.

 

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

 

 

 

 

 

 

DER SPÄTE FREUD UND DAS KONZEPT DER PSYCHOANALYSE. Anmerkung 2

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 18.Sept. 2018

Korrekuren: 18.Sept.2018, 13:20h
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Nachdem ich im vorausgehenden Beitrag den letzten Text von Freud (auf Deutsch) mit dem Englischen Titel (bei Deutschem Text) ‚Some Elementary Lessons in Psycho-Analysis‘ (GW XVII, 1938-40) in der Rekonstruktion von Jürgen Hardt (1996) diskutiert hatte, hier einige weitere Überlegungen, dieses Mal mit direkter Bezugnahme auf den Text von Freud.

DISKUSSION

Modellvorschlag zu Freuds letztem Text zur Psychoanalyse
BILD: Modellvorschlag zu Freuds letztem Text zur Psychoanalyse

 

MODELL PSYCHOANALYSE

  1. Nach den bisherigen Überlegungen zu Freuds Position bietet es sich an, versuchsweise ein – noch sehr allgemeines – MODELL zu formulieren, das die wichtigen Begriffe von Freud in Beziehung setzt
  2. Im Kern geht es um den Begriff des SEELISCHEN, den Freud in die Komponenten BEWUSSTSEIN (BW) und UNBEWUSSTES (-BW) aufspaltet. In gewisser Weise kann man das Unbewusste als ‚Komplement‘ zum Bewusstsein sehen, da das Bewusstsein der einzige Referenzpunkt für das System homo sapiens darstellt, relativ zu dem alles andere unbewusst ist. Präziser wäre wohl der Ausdruck ’nicht bewusst‘ oder NICHT-BEWUSSTSEIN.
  3. Sowohl das Bewusstsein wie das Nicht-Bewusstsein gehören zum System homo sapiens, der sich in seinem KÖRPER manifestiert.
  4. Generell kann man davon ausgehen, dass das System homo sapiens INPUT-EREIGNISSE realisieren kann, die durch verschiedene STIMULI Ereignisse von außerhalb des Körpers ausgelöst werden können.
  5. Ebenso ist es so, dass bestimmte interne Körperereignisse – hier MOTORISCHE Ereignisse oder OUTPUT Ereignisse genannt – über die Körperoberfläche sich als VERÄNDERUNGEN der Körperoberfläche manifestieren können, die meistens als AKTIONEN klassifiziert werden oder gar als SPEZIFIZIERTE ANTWORTEN, RESPONSES.
  6. Interessant ist die Annahme von Freud, dass sich nur Teile des Nicht-Bewusstseins an das Bewusstsein mitteilen können (im Bild durch einen Pfeil angedeutet). Der Rest des Nicht-Bewusstseins teilt sich nicht dem Bewusstsein mit.
  7. Jetzt wird es spannend: Man könnte jetzt im Modell die weiteren Annahmen machen, dass es zwischen jenem Teil des Nicht-Bewusstseins, das sich dem Bewusstsein mitteilen kann – nennen wir es -BW+ – und jenem Teilen des Nicht-Bewusstseins, das sich nicht mitteilt – nennen wir diesen Teil -BW- –, dennoch eine Wechselwirkung gibt. Dies würde es erklären, warum Anteile des Nicht-Bewusstseins sich indirekt auf das Gesamtsystem auswirken können, ohne zunächst im Bewusstsein aufzutreten, dann aber – z.B. im Verlaufe der Therapie – plötzlich im Bewusstsein ‚greifbar‘ werden.
  8. Dieser Sachverhalt kann durch die weitere Annahme differenziert werden, dass möglicher Input von außen sich simultan beiden Komponenten des Nicht-Bewusstseins (-BW+, -BW-) mitteilen kann, wie auch umgekehrt beide Komponenten ein äußerliches Verhalten verursachen können (z.B. das Fehlverhalten, die Hypnoseexperimente, Arten des Redens und Verhaltens (Stimmfärbung, Form der Bewegung, …)), das als SIGNAL des NICHT-BEWUSSTSEINS fungieren kann. Dies würde z.B. erklären, warum Menschen in der Gegenwart anderer Menschen in ganz unterschiedliche ‚Stimmungen‘ geraten können, obgleich die ausgetauschten Worte keinerlei Hinweise für diese Gestimmtheit liefern. Vom Nicht-Bewusstsein verursachte Signale können im Nicht-Bewusstsein des Anderen innere Prozesse, Zustände verursachen, die sich dann in Form bestimmter Gefühle, Stimmungen, Emotionen äußern. Dies sind – zumindest berichten dies die Psychotherapeuten – sehr oft, fast immer ? – , dann der entscheidende Hinweis auf ‚verdeckt wirkende‘ Faktoren. Ohne das Nicht-Bewusstsein bleiben die objektiven ‚Signale‘ ‚unerkannt‘, sind dann eben keine ‚Signale‘ mit Referenz.
  9. So einfach dieses Modell ist, so weitreichend sind seine möglichen Konsequenzen.
  10. Da dieses Modell eine Arbeitshypothese ist, mit der man empirische Phänomene ‚deuten können soll‘, kann man es überprüfen und bekräftigen oder abschwächen bzw. dann ablehnen.

HIERARCHIE DER GEGENSTANDSBEREICHE

Das Schaubild deutet auch an, dass wir es mit einer impliziten Hierarchie von Gegenstandsbereichen zu tun haben. Der Homo sapiens ist Teil eines umfassenden Phänomens von biologischem Leben, das mit seiner Geschichte (der Evolution) ein Teilprozess auf dem Planet Erde ist, der sich als Teil des Sonnensystems herausgebildet hatte, das wiederum innerhalb der Galaxie Milchstraße entstanden ist, die sich wiederum im Prozess des bekannten Universums herausgebildet hat. Bedenkt man, dass die Anzahl der Galaxien irgendwo im Bereich von 200 Milliarden (2×1011) bis 2 Billionen (2×1012) liegt und eine einzelne Galaxie wiederum zwischen einige hundert Millionen (108) oder gar 100 Billionen (1014) Sterne haben kann (mit noch viel mehr Exoplaneten!), dann ist der Ausschnitt an körperlicher Wirklichkeit, die unser Sonnensystem mit der Erde bietet, atemberaubend ‚klein‘, man möchte sagen ‚winzig‘, so winzig, dass uns dafür die geeigneten Worte fehlen, da unser Alltag für solche Relationen keine direkten Beispiele bietet. Nur unser Denken und die Mathematik kann uns helfen, zumindest ansatzweise eine Vorstellung dazu auszubilden.

Allerdings, diese körperliche Kleinheit kann über etwas anderes hinweg täuschen, das möglicherweise ein noch größeres Wunder sein kann.

Wie die Wissenschaft erst seit wenigen Jahren weiß, besteht ein menschlicher Körper aus ca. 36 Billionen (10^12) Körperzellen, ca. 110 Billionen Bakterien im Darm und ca. 200 Milliarden Bakterien auf der Haut, d.h. ein menschlicher Körper besitzt an Zellen die Komplexität von ca. 700 Galaxien mit jeweils 200 Milliarden Sternen! Noch dramatischer wird der Kontrast, wenn man das Volumen eines menschlichen Körpers zu dem Volumen von 700 Galaxien in Beziehung setzt. Man kommt auf ein Verhältnis von ca. 1 : 10^64 !!! Anders gewendet, das Phänomen des Biologischen stellt eine unfassbare Verdichtung von Komplexität dar, deren Bedeutung und Konsequenz für das Verständnis von ‚Natur‘ bislang kaum so richtig (wenn überhaupt) gewürdigt wird.

Diese mit Worten gar nicht beschreibbare Verdichtung von Komplexität im Phänomen des Biologischen hat auch damit zu tun, dass wir es im Übergang von den ‚vor-biologischen‘ Strukturen zu den biologischen Strukturen mit einem grundlegenden Paradigmenwechsel zu tun haben. Während wir im Bereich physikalischer Strukturen Materieverdichtungen nur durch das bislang wenig verstandene Phänomen der ‚Gravitation‘ feststellen können (die nach sehr einfachen Regeln ablaufen), präsentiert das ‚Biologische‘ neuartige Prozesse und Strukturen, mit einer konstant zunehmenden ‚Verdichtung‘, die nach völlig neuartigen Regeln ablaufen. Mit Gravitation lässt sich hier nichts mehr erklären. Diese neue Qualität materieller Strukturen und Prozesse auf die einfacheren Gesetze der bekannten Physik zu ‚reduzieren‘, wie es oft gefordert wurde, ist nicht nur grober Unfug, sondern vernichtet gerade die Besonderheit des Biologischen. Der Übergang von Physik zur Astrobiologie und dann zur Biologie ist daher ein qualitativer: im Biologischen finden wir völlig neue Phänomene, die sich an der beobachtbaren Funktionalität manifestieren. ‚Emergenz‘ würde hier bedeuten, dass wir es hier mit qualitativ neuen Phänomenen zu tun haben, die sich nicht auf die Gesetze ihrer Bestandteile reduzieren lassen.

Aufgrund der schier unfassbaren Vielfalt und Komplexität des Biologischen, das in seiner körperlichen Winzigkeit eine universale Komplexität realisiert, die die bekannten astronomischen Größen letztlich sprengt, ist es sicher nicht verwunderlich, dass sich zum Phänomen des Biologischen viele verschiedene Wissenschaften ausgebildet haben, die versuchen, Teilaspekte irgendwie zu verstehen. Da der ‚Kuchen der Komplexität‘ so unfassbar groß ist, findet jeder etwas interessantes. Allerdings sollte man sich bewusst sein, dass diese vielen Disziplinen in ihrer heutigen Zersplitterung etwas auseinanderreißen und zerstückeln, das letztlich zusammen gehört.

So ist auch die Psychologie mit ihrer Spezialdisziplin Psychoanalyse letztlich kein Sonderbereich, wenngleich die hier anfallenden Phänomene tierischer und menschlicher Systeme anscheinend nochmals eine Steigerung an neuen funktionalen Phänomenen bieten.

HIERARCHIE DER WISSENSCHAFTEN

Es wäre die Aufgabe einer modernen Philosophie und Wissenschaftsphilosophie die Einheit der Phänomene und Wissenschaften wieder herzustellen. Sicher ist dies nichts, was eine einzelne Person schaffen kann noch kann dies in wenigen Jahren stattfinden. Vermutlich muss die ganze Wissenschaft neu organisiert werden, sodass letztlich alle kontinuierlich an dem Gesamtbild mitwirken.

Das, was für die Physik vielleicht die dunkle Materie und die dunkle Energie ist, die bislang ein wirkliches Gesamtbild entscheidend verhindert, dies ist für die Wissenschaft überhaupt das Problem, dass die Wissenschaftler und Philosophen, die sich um eine rationale Erklärung der Welt bemühen, letztlich selbst auch Bestandteil eben jener Wirklichkeit sind, die sie erklären wollen. Solange die empirischen Wissenschaften diesen fundamentalen Faktor aus ihrer Theoriebildung ausklammern, solange werden sie sich nur an der Oberfläche von Phänomenen bewegen und die wirklich interessanten Phänomene, die über Biologie, Psychologie und Philosophie ins Blickfeld geraten, werden bis auf weiteres außen vor bleiben.

QUELLEN

Hardt, Jürgen (1996), Bemerkungen zur letzten psychoanalytischen Arbeit Freuds: ‚Some Elementary Lessons in Psycho-Analysis‘, 65-85, in: Jahrbuch der Psychoanalyse, Bd.35, Frommann-holzboog

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Reflexion auf den Begriff ‚Fitness‘

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 13.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE ÄNDERUNG: 1.Dez.2018, Wiederholung der vorausgehenden Diskussion gestrichen. Kumulierte Zusammenfassungen sind HIER.

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

 

Im Anschluß an Kap.8 von Edelman sei hier hochmals explizit der Aspekt der ‚Fitness‘ herausgegriffen. Da die Mechanismen hinter diesem Begriff in seinem Text etwas unklar bleiben.

ZWISCHENREFLEXION: BEGRIFF ‚FITNESS‘

  1. Außer dem bislang Gesagten (siehe oben Punkte 1-44) ist es vielleicht hilfreich, sich klar zu machen, wie genau das Zusammenspiel zwischen der Fitness biologischer Systeme und den jeweiligen Umgebungen beschaffen ist.
  2. Ein grundlegender Tatbestand ist jener, dass die Umgebung der biologischen Systeme auf der Erde von Anfang an eben die Erde war und ist bzw. das Sonnensystem bzw. unsere Milchstraße bzw. das gesamte bekannte Universum. Diese Vorgabe ist für alle biologische Systeme bislang nicht verhandelbar. Wenn ein biologisches System sich behaupten will, dann in diesem konkreten Ausschnitt des Universums und nirgendwo sonst.
  3. Zugleich wissen wir, dass die Erde seit ihrer Entstehung samt Sonnensystem und dem ganzen Kontext zu allen Zeiten ein hochdynamisches System war und ist, das im Laufe von Milliarden Jahren viele dramatische Änderungen erlebt hat. Sich in dieser Umgebung zu behaupten stellt eine schier unfassbare Leistung dar.
  4. Ob sich im Laufe der Zeit eine bestimmte Lebensform L auf der Erde ‚behaupten‘ oder gar ‚vermehren‘ konnte, hing einzig davon ab, ob diese Lebensform L im Laufe der Generationen in der Lage war, hinreichend viele Nachkommen unter den konkreten Bedingungen der Umgebung zu erzeugen und am Leben zu erhalten. Die Anzahl der Nachkommen einer Generation der Lebensform L kann von daher als Bezugspunkt zur Definition eines ‚Fitness-Wertes‚ bzw. dann der ‚Fitness‘ einer Lebensform genommen werden. Eine häufige Schematisierung dieser Sachverhalte ist die folgende:
  5. POP(t+1) = o(POP(t)), t>0 := Die Population ‚POP‘ zum Zeitpunkt t+1 ist das Ergebnis der Anwendung der Populationsgenerierungsfunktion ‚o‘ auf die Population zum Zeitpunkt ‚t‘, wobei ‚t‘ größer als 0 sein muss. Die Funktion ‚o‘ kann man dann weiter analysieren:
  6. o=e x c := Die Populationsgenerierungsfunktion ‚o‘ ist das Ergebnis der Hintereinanderausführung der beiden Teilfunktionen ‚e‘ (‚earth-function‘) und ‚c‘ (‚change-funtion‘). Diese kann man weiter analysieren:
  7. e : 2^(POP^2) x 2^POP x EARTH —–> POP := Die earth-function e nimmt Paare von Individuen (potentielle Eltern) der Population, zusätzlich kann es beliebig andere Individuen der Population geben (Jäger, Beute, Artgenossen…), und dann die Erde selbst mit ihren Eigenschaften, und transformiert daraus nachfolgende Individuen, Abkömmlinge. Es ist schwer zu sagen, ‚wer‘ hier über Leben und Tod entscheidet: einerseits legen die konkreten Bedingungen der Erde und die Art der Zeitgenossen fest, unter welchen Bedingungen eine Lebensform überleben kann, andererseits hängt ein Überleben auch davon ab, welche ‚Eigenschaften‘ eine Lebensform besitzt; ob diese leistungsfähig genug sind, unter den gegebenen Bedingungen ‚leben‘ zu können. Nimmt man die Population der Lebensformen als ‚Generator‘ neuer Formen (siehe nächsten Abschnitt), dann wirkt die konkrete Erde wie eine Art ‚Filter‘, das nur jene ‚durchlässt‘, die ‚passen‘. ‚Selektion‘ wäre dann ein ‚emergentes‘ Phänomen im radikalen Sinne, da dieses Phänomen nur im Zusammenspiel der beiden Faktoren ‚Erde‘ und ‚Population‘ ’sichtbar‘ wird. Ohne dieses Zusammenspiel gibt es kein Kriterium für ‚Überlebensfähigkeit‘. Ferner wird hier deutlich, dass das Kriterium ‚Fitness‘ bzw. ‚Überlebensfähigkeit‘ kein absolutes Kriterium ist, sondern sich zunächst nur auf den Lebensraum ‚Erde‘ beschränkt. In anderen Bereichen des Universums könnten ganz andere Kriterien gelten und dort müsste die Lebensformen u.U. Einen ganz anderen Zuschnitt haben.
  8. Ferner  wird hier sichtbar, dass der ‚Erfolg‚ einer bestimmten Lebensform als Teil des gesamten Biologischen letztlich sehr ‚partiell‚ ist, weil bei Änderungen der Zustände auf der Erde bislang erfolgreiche Lebensformen (berühmtes Beispiel die Dinosaurier) vollstänig verschwinden können; andere Lebensformen als Teil des Biologischen können dann aber plötzlich neu in den Vordergrund treten. (berühmtes Beispiel die Säugetiere).  Offen ist die Frage, ob es spezielle Lebensformen — wie z.B. den homo sapiens — gibt, die aufgrund ihrer hervorstechenden Komplexität im Kontext des Biologischen eine irgendwie geartete ‚besondere Bedeutung‘ besitzen. Aktuell erwecken die Wissenschaften den Eindruck, als ob es hier keine feste Meinung gibt: die einen sehen im homo sapiens etwas Besonderes, das auf eine spezielle Zukunft verweist, andere sehen im homo sapiens eine von vielen möglichen speziellen Lebensformen, die bald wieder verschwinden wird, weil sie sich der eigenen Lebensgrundlagen beraubt.
  9. c : cross x mut := die ‚change-function‘ c besteht auch aus zwei Teilfunktionen, die hintereinander ausgeführt werden: die erste Teilfunktion ist eine Art Überkreuzung genannt ‚crossover‘ (‚cross‘), die zweite ist eine Art Mutation genannt ‚mutation‘ (‚mut‘).
  10. cross : POP x POP —–> POP := In der Überkreuzfunktion ‚cross‘ werden die Genotypen von zwei verschiedenen Individuen ‚gemischt‘ zu einem neuen Genotyp, aus dem ein entsprechend neuer Phänotyp hervorgehen kann.
  11. mut : POP —–> POP := In der Mutationsfunktion kann eine zufällige Änderung im Genotyp eines Individuums auftreten, die unter Umständen auch zu Änderungen im Phänotyp führt.
  12. Idealerweise kann man die change-function c isoliert von der Umgebung sehen. Realistischerweise kann es aber Wechselwirkungen mit der Umgebung geben, die auf die change-function ‚durchschlagen‘.

  13. Fasst man alle Faktoren dieser – stark vereinfachten – Populationsgenerierungsfunktion ‚o‘ zusammen, dann wird auf jeden Fall deutlich, dass beide Systemedie Erde und das Biologische – einerseits unabhängig voneinander sind, dass sie aber faktisch durch die Gegenwart des Biologischen auf der Erde (und im Sonnensystem, in der Milchstraße, …) in einer kontinuierlichen Wechselwirkung stehen, die sich dahingehend auswirkt, dass das Biologische eine Form annimmt, die zur Erde passt. Grundsätzlich könnte das Biologische aber auch andere Formen annehmen, würde es in einer anderen Umgebung leben.
  14. Um die Populationsgenerierungsfunktion noch zu vervollständigen, braucht man noch eine ‚Bootstrapping Funktion‘ ‚boot-life()‘, mittels der überhaupt das Biologische auf der Erde ‚eingeführt‘ wird:
  15. boot-life : EARTH —–> EARTH x POP (auch geschrieben: POP(t=1) = boot-life(POP(t=0)) ):= wie die allerneuesten Forschungen nahelegen, konnten sich unter bestimmten Bedingungen (z.B. unterseeische Gesteinsformationen, vulkanisches Wasser, …) verschiedene Molekülverbände zu komplexen Molekülverbänden so zusammen schließen, dass irgendwann ‚lebensfähige‘ – sprich: reproduktionsfähige – Zellen entstanden sind, die eine Anfangspopulation gebildet haben. Auf diese Anfangspopulation kann dann die Populationsgenerierungsfunktion ‚o‘ angewendet werden.

Fortsetzung folgt HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Kumulierte Zusammenfassung der Diskussion

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 13.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Letzte Änderungen: 3.Dez.2018, Hervorhebungen hinzugefügt

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

BISHER

Bislang sind folgende Teile erschienen:

Teil 1

Teil 2

Teil 3

Teil 4

Teil 5

Teil 6

Teil 7

Einschub: Fitness

Teil 8

Teil 9

Teil 10

Teil 11

Welche Theorie von was?

Teil 13: Fokussierung und Unbewusstes – Teil1

 

POSITION VON EDELMAN

Edelman benutzt die Arbeitshypothese, dass das, was wir ‚Geist‘ nennen, sich nur ab bestimmten Zeitpunkten während der allgemeinen Evolution ‚gezeigt‘ (‚emerged‘) hat, und zwar sehr spät.(vgl. S.41) Und dies setzt die Annahme voraus, dass die fundamentale Basis für alles Verhalten und für die ‚Sichtbarwerdung‘ (‚emergence‘) des Geistes die Anatomie und Morphologie der biologischen Strukturen ist sowie deren Funktionen.(vgl. S.41)

POSITION DES AUTORS ALS DISKUSSIONSPUNKTE

Im Kontext seiner Argumentation kritisiert Edelman viele bekannte Positionen im Bereich Philosophie und Psychologie aus der eingeschränkten Perspektive ihres Bezuges zu den materiellen Strukturen heraus, die von ihm – letztlich wie bei Kant, nur mit anderem Akzent, mehr oder weniger – als ‚Ermöglichung des Geistes‘ gesehen werden. Diese Kritik in dieser speziellen Perspektive ist zum Teil berechtigt, aber auch nur zu einem sehr eingeschränkten Teil, da die kritisierten Personen und Positionen von den neuen Erkenntnissen noch gar nichts wissen konnten. Über diese enge Perspektive des expliziten Bezugs zu materiellen Strukturen hinaus repräsentieren die kritisierten Positionen aber auch Perspektiven, die ‚in sich eine methodische Rechtfertigung‘ besitzen, die Edelman schlicht nicht erkennt. Hier verkürzt zur Erinnerung einige seiner ‚methodischen blinden Flecken‘:

  1. Alternativen sind berechtigt:… zugleich die Arbeitshypothese aufzustellen, dass damit Analyse- und Erklärungsansätze von vornherein zu verurteilen sind, die Verhaltensdaten (Psychologie) bzw. auch introspektive Daten (Philosophie) als solche als Basis nehmen ohne direkt einen Bezug zu den materiellen (anatomischen) Daten herzustellen, ist mindestens problematisch wenn nicht wissenschaftsphilosophisch unhaltbar…
  2. Primär die Funktionen:… denn, wie immer die anatomischen Grundlagen beschaffen sein mögen, wenn ich deren ‚Verhaltensdynamik‘ erforschen will, interessieren mich die Details dieser Anatomie nicht, sondern nur ihre Funktion. Und diese lässt sich nicht durch Rekurs auf Bestandteile beschreiben sondern nur durch Beobachtung des Systemverhaltens …
  3. Daten als solche sind ‚blind‘:… aus materiellen Strukturen als solchen folgt in keiner Weise irgend etwas ‚Geistiges‘ es sei denn, ich habe vorab zur Untersuchung einen Kriterienkatalog G, den ich als Maßstab anlegen kann, um dann bei der Analyse der Beobachtungsdaten konstatieren zu können, das der Eigenschaftskomplex G vorliegt. Habe ich solch einen Kriterienkatalog G nicht, kann ich noch so viele empirische Daten zu irgendwelchen materiellen Strukturen vorweisen; ‚aus sich heraus‘ lassen diese Daten eine solche Eigenschaftszuschreibung nicht zu! …
  4. Konkretisierung und Quantenraum:… ohne die ‚Anhaltspunkte‘ im ‚beobachtbaren Verhalten‘ wäre es praktisch unmöglich, jene bedingenden materiellen Struktureigenschaften zu identifizieren, da die zugrundeliegenden neuronalen und damit letztlich biochemischen Grundlagen rein mathematisch nahezu unbegrenzt viele Funktionen erlauben. Letztlich deuten diese materiellen Strukturen auf einen quantenmechanischen Möglichkeitsraum hin, deren Konkretisierung von Faktoren abhängt, die sich aus den Strukturen selbst nicht so einfach ableiten lassen. …
  5. Phänomene zuerst: Philosophen arbeiten traditionell mit dem subjektiven Erlebnisraum direkt, ohne zugleich die Frage nach den materiellen Bedingungen der so erlebbaren ‚Phänomene‘ zu stellen. In gewisser Weise handelt es sich bei diesen subjektiven (= bewussten) Phänomenen auch um eine Systemfunktion eigener Art mit einer spezifischen Besonderheit, der man nicht gerecht werden würde, würde man sie durch Rekurs auf die bedingenden materiellen Strukturen (Gehirn, Körper, Welt, …) ‚ersetzen‘ wollen. …
  6. Empirie ist abgeleitet:… muss man sich klar machen, dass alle sogenannten ‚empirischen Daten‘ ja nicht ‚außerhalb‘ des ‚bewusstseinsbedingten Phänomenraums‘ vorkommen, sondern auch nur ‚bewusstseinsbedingte Phänomene‘ sind, allerdings eine spezielle Teilmenge, die man mit unterstellten Vorgängen in der Außenwelt in Verbindung bringt. Insofern bildet der subjektive Phänomenraum die Basis für jegliche Denkfigur, auch für die empirischen Wissenschaften. …
  7. Bezugspunkte für die Phänomene des Geistigen: Die Frage, was denn dann die primären Kriterien für das ‚Psychische-Geistige‘ sind, wird durch diese multidisziplinäre Kooperationen nicht einfacher: da die materiellen Strukturen als solche keinerlei Anhaltspunkte für ‚Geistiges‘ liefern, bleibt letztlich als Ausgangspunkt doch nur das ‚Geistige‘, wie biologische Systeme ’sich selbst‘ sehen, weil sie sich so ‚erleben‘. Das ‚Geistige‘ erscheint hier als ‚Dynamik‘ von Systemen, die sich anhand des Auftretens dieser Systeme ‚zeigt‘, ‚manifestiert‘. Aus den einzelnen materiellen Bestandteilen kann man diese Eigenschaften nicht ableiten, nur aus der Gesamtheit in spezifischen Wechselwirkungen. …
  8. wenn ein homo sapiens ’nichts tut‘, dann ist die Dynamik ‚unsichtbar‘ und die durch solch eine Dynamik sichtbar werdenden Eigenschaften sind nicht greifbar. Weiter: wenn ein homo sapiens eine Dynamik erkennen lässt, dann bedarf es einer spezifischen ‚Erkenntnisweise‘, um die spezifischen Eigenschaften von ‚Geist‘ erkennen zu können. …
  9. Das System-Ganze: … Erst durch die Dynamik des Gesamtsystems werden – oft als ‚emergent‘ klassifizierte – Phänomene sichtbar, die von den einzelnen Bestandteilen des materiellen Systems als solchen nicht ableitbar sind, nur eben durch das Verhalten, die Dynamik des Gesamtsystems. …
  10. Begriffliches Mehr: … Es ist weder auszuschließen, dass es zwischen dem empirischen Phänomen der ‚Gravitation‘ und dem empirischen Phänomen ‚Geist‘ einen ‚tieferen‘ Zusammenhang gibt (da ‚Geist‘ als empirisches Phänomen ‚Gravitation‘ voraussetzt‘), noch dass es weit komplexere empirische Phänomene geben kann als den ‚individuell in Populationen‘ sich manifestierenden ‚empirischen Geist‘.
  11. Neues‘ und sein Ursprung:… Da jene geistige Eigenschaften, die den homo sapiens von anderen Lebensformen unterscheiden, erst mit diesem auftreten, kann eine ‚Geschichte der Entwicklung jener Formen, die den homo sapiens auszeichnen‘, nur indirekte Hinweise darauf liefern, wie sich jene ’späten‘ komplexen materiellen Strukturen aus ‚einfacheren, früheren‘ Strukturen entwickelt haben. Damit entsteht dann die interessante Frage, wie sich solche Komplexität aus ’scheinbar einfacheren‘ Strukturen entwickeln konnte? In der logischen Beweistheorie gilt allgemein, dass ich nur etwas ‚ableiten’/ ‚beweisen‘ kann, wenn ich das zu Beweisende letztlich schon in meinen ‚Voraussetzungen’/ ‚Annahmen‘ angenommen habe. Das ’spätere komplexere Neue‘ wäre in dem Sinne dann nicht wirklich ’neu‘, sondern nur eine ‚andere Zustandsform‘ eines Ausgangspunktes, der schon alles hat‘. Dies wäre nicht sehr überraschend, da wir in der Big-Bang-Theorie allgemein von ‚Energie (E)‘ ausgehen, die in Folge von Abkühlungsprozessen unendlich viele konkrete Zustandsformen angenommen hat, von denen wir mit E=mc^2 wissen, dass sie alle ineinander überführbar sind, wie speziell sie auch immer sein mögen.
  12. Rückschlüsse vom Phänotyp auf den Genotyp: …Die komplexen Abbildungsprozesse zwischen Genotypen und Phänotypen als Teil von Populationen in Umgebungen machen eine Zuordnung von im Verhalten fundierten Eigenschaftszuschreibungen von ‚Geist‘ zu vorliegenden materiellen Strukturen schwer bis unmöglich. … Das Entscheidende am Phänomen des Geistes ist ja, dass er nach vielen Milliarden Jahren Entwicklung in einem aktuell hochkomplexen und dynamischen System sich zeigt, und zwar nicht ‚aus sich heraus‘ sondern nur dann, wenn ein anderes System, das ebenfalls ‚Geist‘ hat, diesen Phänomenen ‚ausgesetzt‚ ist. Ein System, das selbst ‚keinen Geist hat‘, kann die beobachtbaren Phänomene nicht als ‚geistige‘ klassifizieren! Dies schließt nicht aus, dass heutige Algorithmen quasi automatisch irgendwelche ‚Muster‘ im beobachtbaren Verhalten identifizieren können, allerdings sind dies Muster wie unendlich viele andere Muster, deren ‚Bewertung‘ in irgendeine Zustandsdimension völlig beliebig ist.
  13. Der ‚Theoriemacher‘ kommt selbst als Gegenstand der Theorie nicht vor: …Von Interesse ist auch, wie sich der Zustandsraum der materiellen Strukturen (die Gesamtheit des aktuellen empirischen Wissens über das Universum und seiner möglichen Zukünfte) und der Zustandsraum von Systemen mit Geist (die Gesamtheit des geistigen Vorstellungsraumes samt seiner möglichen geistigen Zukünfte) unterscheidet. Die Sache wird dadurch kompliziert, dass ja die Systeme mit empirischem Geist letztlich auch zum genuinen Gegenstandsbereich der sogenannten ‚Natur‘-Wissenschaften gehören. Wenn das Empirisch-Geistige Teil der Natur ist, reichen die bisherigen empirischen naturwissenschaftlichen Theorien nicht mehr. Sie müssten entsprechend geändert werden. Der Beobachter muss wesentlicher Bestandteil der Theorie selbst werden. Für diese Konstellation haben wir bislang aber keinen geeigneten empirischen Theoriebegriff.
  14. Die ‚Interpretationsfunktion‘ als Fundament allen biologischen Lebens ungeklärt: Die fundamentale Tatsache, dass es Moleküle gibt, die andere Moleküle als ‚Kode‘ benutzen können, um Transformationsprozesse zwischen einer Sorte von Molekülen (DNA, RNA) in eine andere Sorte von Molekülen (Polypeptide, Proteine) steuern zu können, nimmt Edelman als Faktum hin, thematisiert es selbst aber nicht weiter. Er benennt diese ‚interpretierenden Moleküle‘ auch nicht weiter; sein Begriff ‚cellular device‘ ist eher nichtssagend. Dennoch ist es gerade diese Fähigkeit des ‚Übersetzens’/ ‚Interpretierens‘, die fundamental ist für den ganzen Transformationsprozess von einem Genom in einen Phänotyp bzw. in eine ganze Kette von hierarchisch aufeinander aufbauenden Phänotypen. Setzt man diese Übersetzungsfähigkeit voraus, ist das ganze folgende Transformationsgeschehen – so komplex es im Detail erscheinen mag – irgendwie ‚trivial‘. Wenn ich in mathematischer Sicht irgendwelche Mengen habe (z.B. verschiedene Arten von Moleküle), habe aber keine Beziehungen definiert (Relationen, Funktionen), dann habe ich quasi ‚Nichts‘. Habe ich aber z.B. eine Funktion definiert, die eine ‚Abbildung‘ zwischen unterschiedlichen Mengen beschreibt, dann ist es eine reine Fleißaufgabe, die Abbildung durchzuführen (z.B. die Übersetzung von DNA über RNA in Aminosäuren, dann Polypeptide, dann Proteine). Dass die Biochemie und Mikrobiologie samt Genetik so viele Jahre benötigt hat, die Details dieser Prozesse erkennen zu können, ändert nichts daran, dass diese Transformationsprozesse als solche ‚trivial‘ sind, wenn ich die grundlegende Transformationsfunktion definiert habe. Wo aber kommt diese grundlegende Abbildungsfunktion her? Wie kann es sein, dass ein ordinäres chemisches Molekül ein anderes ordinäres chemisches Molekül als ‚Kode‘ interpretiert, und zwar genau dann so, wie es geschieht? Betrachtet man ’normale‘ Moleküle mit ihren chemischen Eigenschaften isoliert, dann gibt es keinerlei Ansatzpunkt, um diese grundlegende Frage zu beantworten. Offensichtlich geht dies nur, wenn man alle Moleküle als eine Gesamtheit betrachtet, diese Gesamtheit zudem nicht im unbestimmten Molekül-Vorkommens-Raum, sondern in Verbindung mit den jeweils möglichen ‚realen Kontextbedingungen‘, und dann unter Berücksichtigung des potentiellen Interaktionsraumes all dieser Moleküle und Kontexte. Aber selbst dieser Molekül-Vorkommens-Raum repräsentiert im mathematischen Sinne nur Mengen, die alles und nichts sein können. Dass man in diesem Molekül-Vorkommens-Raum eine Funktion implantieren sollte, die dem Dekodieren des genetischen Kodes entspricht, dafür gibt es im gesamten Molekül-Vorkommens-Raum keinerlei Ansatzpunkt, es sei denn, man setzt solch eine Funktion als ‚Eigenschaft des Molekül-Vorkommens-Raumes‘ voraus, so wie die Physiker die ‚Gravitation‘ als Eigenschaft des physikalischen Raumes voraussetzen, ohne irgendeinen Ansatzpunkt im Raum selbst zu haben, als die beobachtbare Wirkung der Gravitation. Die Biologen können feststellen, dass es tatsächlich einen Transformationsprozess gibt, der solch eine Abbildungsbeziehung voraussetzt, sie haben aber keine Chance, das Auftreten dieser Abbildungsbeziehung aus den beobachtbaren materiellen Strukturen abzuleiten!!!
  15. Biologisches Leben als ‚Super-Algorithmus‘, der seine eigenen Realisierungsbedingungen mit organisiert: In der Beschreibung von Edelmans Position habe ich schon angemerkt, dass seine Wortwahl ‚Topobiologie‘ möglicherweise unglücklich ist, da es letztlich nicht der dreidimensionale Raum als solcher ist, der entscheidend ist (wenngleich indirekt die Drei-Dimensionalität eine Rolle spielt) sondern der ‚Kontext in Form von interaktiven Nachbarschaften‘: welche andere Zellen stehen in Interaktion mit einer Zelle; welche Signale werden empfangen. Indirekt spielt dann auch der ‚vorausgehende Prozess‘ eine Rolle, durch den eben Kontexte erzeugt worden sind, die nur in bestimmten Phasen des Prozesses vorliegen. Man hat also eher einen ‚Phasenraum‘, eine Folge typischer Zustände, die auseinander hervorgehen, so, dass der bisherige Prozess die nächste Prozessphase hochgradig determiniert. Dies ähnelt einer ‚algorithmischen‘ Struktur, in der eine Folge von Anweisungen schrittweise abgearbeitet wird, wobei jeder Folgeschritt auf den Ergebnissen der vorausgehenden Abarbeitungen aufbaut und in Abhängigkeit von verfügbaren ‚Parameterwerten‘ den nächsten Schritt auswählt. Im Unterschied zu einem klassischen Computer (der eine endliche Instanz eines an sich unendlichen theoretischen Konzeptes von Computer darstellt!), bei dem die Ausführungsumgebung (normalerweise) festliegt, haben wir es hier mit einem algorithmischen Programm zu tun, das die jeweilige Ausführungsumgebung simultan zur Ausführung ‚mit erschafft‘! Wenn Computermetapher, dann eben so: ein Programm (Algorithmus), das seine Ausführungsumgebung (die Hardware) mit jedem Schritt selbst ‚erschafft‘, ‚generiert‘, und damit seine Ausführungsmöglichkeiten schrittweise ausbaut, erweitert. Dies setzt allerdings voraus, dass das genetische Programm dies alles schon ‚vorsieht‘, ‚vorwegnimmt‘. Die interessante Frage ist dann hier, wie ist dies möglich? Wie kann sich ein genetisches Programm ‚aus dem Nichts‘ entwickeln, das all diese ungeheuer komplexen Informationen bezüglich Ausführung und Ausführungsumgebung zugleich ‚aufgesammelt‘, ’strukturiert‘, ‚verpackt‘ hat, wo die Gesamtheit der modernen Wissenschaft bislang nur Fragmente versteht?
  16. Ein technischer Super-Algorithmus scheint prinzipiell möglich; unklar ist seine ‚inhaltliche Ausgestaltung‘: Während Neurowissenschaftler (Edelman eingeschlossen) oft mit unsinnigen Computervergleichen versuchen, die Besonderheit des menschlichen Gehirns herauszustellen, kann man ja auch mal umgekehrt denken: wenn die Entwicklung des Gehirns (und des gesamten Organismus) Ähnlichkeiten aufweist mit einem Algorithmus, der seine eigene Ausführungsumgebung während der Ausführung (!!!) mit generiert, ob sich solch ein Prozess auch ‚rein technisch‘ denken ließe in dem Sinne, dass wir Maschinen bauen, die aus einer ‚kleinen Anfangsmenge von Materie‘ heraus ausgestattet mit einem geeigneten ‚Kode‘ und einem geeigneten ‚Interpretierer‘ sich analog selbst sowohl materiell als auch kodemäßig entwickeln? Da die biologischen Systeme zeigen, dass es grundsätzlich geht, kann man solch einen technischen Prozess nicht grundsätzlich ausschließen. Ein solches Gedankenexperiment macht aber sichtbar, worauf es wirklich ankommt: eine solche sich selbst mit-bauende Maschine benötigt auch einen geeigneten Kode und Interpretationsmechanismus, eine grundlegende Funktion. Ohne diese Funktion, geht gar nichts. Die Herkunft dieser Funktion ist aber gerade diejenige grundlegende Frage, die die gesamte empirische Wissenschaft bislang nicht gelöst hat. Es gibt zwar neuere Arbeiten zur Entstehung von ersten Zellen aus Molekülen unter bestimmten realistischen Kontexten, aber auch diese Forschungen beschreiben nur Prozesse, die man ‚vorfindet‘, die sich ‚zeigen‘, nicht aber warum und wieso es überhaupt zu diesen Prozessen kommen kann. Alle beteiligten materiellen Faktoren in diesen Prozessen als solchen geben keinerlei Ansatzpunkte für eine Antwort. Das einzige, was wir bislang wissen, ist, dass es möglich ist, weil wir es ‚beobachten können‘. Die ‚empirischen Phänomene‘ sind immer noch die härteste Währung für Wahrheit.
  17. Wissenschaftliche Theorie:… es ist überhaupt das erste Mal, dass Edelman in diesem Buch explizit über eine ‚wissenschaftliche Theorie‘ spricht… Seine Charakterisierung einer ‚wissenschaftlichen Theorie‘ ist … generell sehr fragmentarisch; sie ist ferner in ihrer Ernsthaftigkeit fragwürdig, da er die Forderung der Falsifizierbarkeit mit dem Argument begründt, dass ansonsten Darwins Theorie in ihrer Anfangszeit niemals hätte Erfolg haben können; und sie ist geradezu mystisch, da er eine radikal neue Rolle des Beobachters mit all seinen mentalen Eigenschaften innerhalb der Theoriebildung einfordert, ohne aber irgendwelche Hinweise zu liefern, wie das praktiziert werden soll. … Man stellt sich die Frage, welchen ‚Begriff von Theorie‘ Edelman eigentlich benutzt? In der Geschichte der empirischen Wissenschaften gab es viele verschiedene Begrifflichkeiten, die nicht ohne weiteres kompatibel sind, und seit ca. 100 Jahren gibt es eine eigene Metawissenschaft zu den Wissenschaften mit Namen wie ‚Wissenschaftsphilosophie‘, ‚Wissenschaftstheorie‘, ‚Wissenschaftslogik‘, deren Gegenstandsbereich gerade die empirischen Wissenschaften und ihr Theoriebegriff ist…. Aufgrund seiner bisherigen Ausführungen scheint Edelman nichts vom Gebiet der Wissenschaftsphilosophie zu kennen.
  18. Überprüfbarkeit, Verifizierbarkeit, Theorie: Die Überprüfbarkeit einer Theorie ist in der Tat ein wesentliches Merkmal der modernen empirischen Wissenschaften. Ohne diese Überprüfbarkeit gäbe es keine empirische Wissenschaft. Die Frage ist nur, was mit ‚Überprüfbarkeit‘ gemeint ist bzw. gemeint sein kann. … Wenn Edelman fordert dass für eine Theorie gelten soll, dass nicht (vi) ‚jeder Teil von der Theorie direkt falsifizierbar‘ sein muss, dann geht er offensichtlich davon aus, dass eine Theorie T aus ‚Teilen‘ besteht, also etwa T(T1, T2, …, Tn) und dass im ‚Idealfall‘ jeder Teil ‚direkt falsifizierbar‘ sein müsste. Diese Vorstellung ist sehr befremdlich und hat weder mit der Realität existierender physikalischer Theorien irgend etwas zu tun noch entspricht dies den modernen Auffassungen von Theorie. Moderne Theorien T sind mathematische (letztlich algebraische) Strukturen, die als solche überhaupt nicht interpretierbar sind, geschweige denn einzelne Teile davon. Ferner liegt die Erklärungsfähigkeit von Theorien nicht in ihren Teilen, sondern in den ‚Beziehungen‘, die mittels dieser Teile formulierbar und behauptbar werden. Und ob man irgendetwas aus solch einer Theorie ‚voraussagen‘ kann hängt minimal davon ab, ob die mathematische Struktur der Theorie die Anwendung eines ‚logischen Folgerungsbegriffs‘ erlaubt, mittels dem sich ‚Aussagen‘ ‚ableiten‘ lassen, die sich dann – möglicherweise – ‚verifizieren‘ lassen. Diese Verifizierbarkeit impliziert sowohl eine ‚Interpretierbarkeit‘ der gefolgerten Aussagen wie auch geeignete ‚Messverfahren‘, um feststellen zu können, ob die ‚in den interpretierten Aussagen involvierten entscheidbaren Eigenschaften‘ per Messung verifiziert werden können oder nicht. Der zentrale Begriff ist hier ‚Verifikation‘. Der Begriff der ‚Falsifikation‘ ist relativ zu Verifikation als komplementärer Begriff definiert. Begrifflich erscheint dies klar: wenn ich nicht verifizieren kann, dann habe ich automatisch falsifiziert. In der Praxis stellt sich aber oft das Problem, entscheiden zu können, ob der ganz Prozess des Verifizierens ‚korrekt genug‘ war: sind die Umgebungsbedingungen angemessen? Hat das Messgerät richtig funktioniert? Haben die Beobachter sich eventuell geirrt? Usw. Als ‚theoretischer Begriff‘ ist Falsifikation elegant, in der Praxis aber nur schwer anzuwenden. Letztlich gilt dies dann auch für den Verifikationsbegriff: selbst wenn der Messvorgang jene Werte liefert, die man aufgrund einer abgeleiteten und interpretierten Aussage erwartet, heißt dies nicht mit absoluter Sicherheit, dass richtig gemessen wurde oder dass die Aussage möglicherweise falsch interpretiert oder falsch abgeleitet worden ist.
  19. Rolle des Theoriemachers und Beobachters fundamental: All diese Schwierigkeiten verweisen auf den ausführenden Beobachter, der im Idealfall auch der Theoriemacher ist. In der Tat ist es bislang ein menschliches Wesen, das mit seinen konkreten mentalen Eigenschaften (basierend auf einer bestimmten materiellen Struktur Gehirn im Körper in einer Welt) sowohl Phänomene und Messwerte in hypothetische mathematische Strukturen transformiert, und diese dann wiederum über Folgerungen und Interpretationen auf Phänomene und Messwerte anwendet. Dies in der Regel nicht isoliert, sondern als Teil eines sozialen Netzwerkes, das sich über Interaktionen, besonders über Kommunikation, konstituiert und am Leben erhält. … Edelman hat Recht, wenn er auf die bisherige unbefriedigende Praxis der Wissenschaften hinweist, in der die Rolle des Theoriemachers als Teil der Theoriebildung kaum bis gar nicht thematisiert wird, erst recht geht diese Rolle nicht in die eigentliche Theorie mit ein. Edelman selbst hat aber offensichtlich keinerlei Vorstellung, wie eine Verbesserung erreicht werden könnte, hat er ja noch nicht einmal einen rudimentären Theoriebegriff.
  20. Theorie einer Population von Theoriemachern: Aus dem bisher Gesagten lässt sich zumindest erahnen, dass ein verbessertes Konzept einer Theorie darin bestehen müsste, dass es eine explizite ‚Theorie einer Population von Theoriemachern (TPTM)‘ gibt, die beschreibt, wie solch eine Population überhaupt eine Theorie gemeinsam entwickeln und anwenden kann und innerhalb dieser Theorie einer Population von Theoriemachern würden die bisherigen klassischen Theoriekonzepte dann als mögliche Theoriemodelle eingebettet. Die TPTM wäre dann quasi ein ‚Betriebssystem für Theorien‘. Alle Fragen, die Edelman angeschnitten hat, könnte man dann in einem solchen erweiterten begrifflichen Rahmen bequem diskutieren, bis hinab in winzigste Details, auch unter Einbeziehung der zugrunde liegenden materiellen Strukturen.
  21. Darwin und Theorie: Anmerkung: Darwin hatte nichts was einem modernen Begriff von Theorie entsprechen würde. Insofern ist auch das Reden von einer ‚Evolutionstheorie‘ im Kontext von Darwin unangemessen. Damit wird aber der epochalen Leistung von Darwin kein Abbruch getan! Eher wirkt sein Werk dadurch noch gewaltiger, denn die Transformation von Gedanken, Phänomenen, Fakten usw. in die Form einer modernen Theorie setzt nicht nur voraus, dass man über die notwendigen Formalisierungsfähigkeiten verfügt … sondern man kann erst dann ’sinnvoll formalisieren‘, wenn man überhaupt irgendetwas ‚Interessantes‘ hat, was formalisiert werden soll. Die großen Naturforscher (wie z.B. Darwin) hatten den Genius, die Kreativität, den Mut, die Zähigkeit, das bohrende, systematisierende Denken, was den Stoff für interessante Erkenntnisse liefert. Dazu braucht man keine formale Theorie. Die Transformation in eine formale Theorie ist irgendwo Fleißarbeit, allerdings, wie die Geschichte der Physik zeigt, braucht man auch hier gelegentlich die ‚Genies‘, die das Formale so beherrschen, dass sie bisherige ‚umständliche‘ oder ‚unpassende‘ Strukturen in ‚einfachere‘, ‚elegantere‘, ‚besser passende‘ formale Strukturen umschreiben.
  22. Inkompatible Daten: 1.Person – 3.Person: Schon die erste Überlegung von Edelman, die Theorie des Bewusstseins als Teil einer Theorie des Gehirns zu konzipieren, wirft methodische Fragen auf. Diese resultieren daher, dass ja eine Theorie – was er im nächsten Abschnitt ja auch ausdrücklich feststellt – , im Kern darin besteht, ‚Zusammenhänge‘ einzuführen, durch die die einzelnen, isolierten Fakten kausale, erklärende, prognostische Eigenschaften bekommen können. Nun ist nach bisherigem Kenntnisstand klar, dass jene Fakten, durch die sich für einen menschlichen Beobachter und Theoriemacher das Bewusstsein ‚zeigt‘, und jene Fakten, mittels denen eine Neurobiologie arbeitet, nicht nur einfach ‚unterschiedlich‘ sind, sondern im ersten Anlauf prinzipiell ‚ausschließend‘. Die dritte Person Perspektive im Fall neurobiologischer Theoriebildung und die erste Person Perspektive im Fall von Bewusstseinstheorien sind im ersten Schritt nicht kompatibel miteinander. Jede Form von Beziehungsentwicklung über diesen unterschiedlichen Datenengen – nennen wir sie DAT_NN und DAT_BW – wird vollständig unabhängig voneinander stattfinden müssen. Bei dieser Sachlage zu sagen, dass eine Theorie des Bewusstseins als Teil einer Theorie des Gehirns entwickelt werden soll, klingt spannend, lässt aber jegliche Einsicht in ein mögliches Wie vermissen. Der umgekehrte Fall, eine Theorie des Gehirns als Teil einer Theorie des Bewusstseins hingegen wäre methodisch möglich, da alle empirische Daten abgeleitete Bewusstseinsdaten sind (also: DAT_NN C DAT_BW).
  23. Denken als kreativer Akt – Kein Automatismus: Im übrigen sollte man im Hinterkopf behalten, dass das ‚Einführen von Beziehungen‘ über Datenpunkten in keiner Weise von den Daten selbst her ‚ableitbar‘ ist. Es handelt sich bei solchen Einführungen um ‚kreative Denkakte‘, die aus einem vorgegebenen begrifflichen Denkraum einen möglichen Teilraum aktivieren und diesen ‚an den Daten ausprobieren‘. Insofern handelt es sich bei der Theoriebildung um ein ‚Erkenntnissystem‘ im Sinne von Edelman, das ‚gedachte Varianten von Beziehungen‘ bilden kann, und jene Fakten (ein vom Denken unabhängiger Bereich), die zu irgendwelchen Beziehungsvarianten ‚passen‘, die werden ‚ausgewählt‘ als solche Fakten, die sich im Sinne der ausgewählten Beziehungen ‚erklären‘ lassen. Im Sinne von Edelman könnte man hier von einem ‚bewusstseinsbasierten selektiven System (bsS)‘ sprechen. Es ist an die Lebensdauer des Bewusstseins gebunden, es verfügt über ein ‚Gedächtnis‘, es kann dadurch ‚adaptiv‘ sein, es kann aufgrund von zusätzlichen Kommunikationsprozessen Beziehungsvarianten auf andere Bewusstseine übertragen und durch Übertragung auf bewusstseinsexterne Medien sogar über die Lebensdauer eines individuellen Bewusstseins hinaus gespeichert werden.
  24. Damit deutet sich eine interessante Hierarchie von ‚Erkennungssystemen‘ an: (i) ‚evolutionäre selektive Systeme (esS)‘, (ii) ’somatische selektive Systeme (ssS)‘, (iii) ’neuronale selektive Systeme (nsS)‘, sowie (iv) ‚bewusstseinsbasierte selektive Systeme (bsS)‘.
  25. Kategoriefehler? Während die Hypothese von Edelman, dass die ‚materielle Basis des Geistes‘ in den materiellen Schichten des Gehirns zu suchen sei, möglicherweise Sinn macht, ist seine andere Hypothese, dass eine wissenschaftliche Theorie des Bewusstseins als Teil einer Theorie des Gehirns zu entwickeln sei, aus fundamentalen Gründen nicht nachvollziehbar.
  26. Integrierte Theoriebildung: Greift man Punkt (1) der Diskussion auf, dann könne eine Lösung der Paradoxie von Edelman darin bestehen, dass die Verschränkung der Daten aus der 1ten-Person Perspektive DAT_1Person und die Daten aus der 3ten-Person Perspektive als DAT_3Person C DAT_1Person die Basis für eine mögliche ‚integrierte (philosophische) Theorie des Bewusstseins‘ bilden, die empirische Theorien als Teiltheorien enthält, unter anderem eine Theorie des Gehirns. Wollte man ferner das von Edelman in den ersten Kapiteln mehrfach angesprochene ungelöste Problem der ‚mangelnden Integration des Beobachters‘ in die zugehörige Theorie aufgreifen, dann wäre dies in einer ‚integrierten philosophischen Theorie des Bewusstseins (IPTB)‘ im Prinzip möglich. Folgendes Theorienetzwerk deutet sich damit an:
  27. In einem ersten Schritt (i) könnte man eine ‚Theorie des Bewusstseins‘ T1CS auf Basis der DAT_1Person formulieren; im Rahmen dieser Theorie kann man unter anderem (ii) die empirischen Daten DAT_3Person als eine genuine Teilmenge der Daten DAT_1Person ausweisen. Damit erhält man den Ausgangspunkt dafür, diverse Theorien T3X auf Basis der dritten Person Daten DAT_3Person zu formulieren. Hier gibt es verschiedene Optionen. Eine mögliche wäre die folgende:
  28. In einem ersten Schritt (iii) wird eine ‚Theorie der Evolution der Körper‘ T3EV formuliert. Von hier aus gibt es zwei Fortsetzungen:
  29. Die Interaktion verschiedener Körper einer Population kann in einer (iv) ‚Theorie der Akteure‘ T3A formuliert werden (diese sind u.a. potentielle Beobachter). Diese Theorie T3A beschreibt, welche Verhaltensweisen an Akteuren beobachtbar sind und wie diese sich miteinander verschränken können (z.B. bekannt aus Psychologie und Soziologie).
  30. Eine ‚Theorie der Körper‘ T3BD beschreibt (v) die innere Struktur jener Körper, die den Akteuren zugrunde liegt. Dazu kann es Teil-Theorien geben (vi) wie eine ‚Theorie des Gehirns‘ T3BR (mit all seinen Schichten ) oder (vii) eine ‚Theorie des Immunsystems‘ T3IM.
  31. Brückentheorien: Es ist dann eine eigene theoretische Leistung diese verschiedenen Teil-Theorien und Theorien miteinander in Beziehung zu setzen. Dies ist keinesfalls trivial. Während die Theorie der Evolution eine Zeitkomponente umfasst, in der sich Strukturen komplett ändern können, sind Strukturtheorien des Körpers, des Gehirns und des Immunsystems tendenziell an ’statischen‘ Strukturen orientiert. Dies ist aber unrealistisch: Körper, Gehirn und Bewusstsein sind dynamische Systeme, die sowohl durch ‚Wachstum‘ wie auch durch ‚Lernen‘ kontinuierlich ihre Strukturen ändern. Ferner ist die Interaktion der verschiedenen Theorien ein eigenständiges Problem: Gehirn und Immunsystem sind ja nur zwei Komponenten von vielen anderen, die zusammen einen Körper ausmachen. Wenn man die neuen Erkenntnisse zur Komponente ‚Darm‘ ernst nimmt, dann kann diese Komponenten das gesamte Rest-System vollständig dominieren und steuern (auch das Gehirn). Die genauen Details dieser Interaktion sind noch weitgehend unerforscht. Schließlich ist auch die Rückkopplung der diversen empirischen Theorien T3X zur primären Theorie des Bewusstseins T1CS zu lösen. Dies wäre eine ‚Brückentheorie‘ T1CS3BD mit Anbindung sowohl an die Theorie der Evolution T3EV als auch an die diversen Teiltheorien wie T3BR und T3IM. Bislang ist weltweit kein einziger Kandidat für solch eine Brückentheorie T1CS3BD bekannt, zumal es bislang auch keine ernsthafte Theorie des Bewusstseins T1CS gibt (wohl aber sehr viele Texte, die inhaltlich zum Begriff ‚Bewusstsein‘ etwas schreiben).
  32. Beginn Kap.8: Zu Beginn des Kap. 8 wiederholt Edelman seine These, dass er die ‚Sache des Geistes‘ (‚matter of mind‘) aus einem ‚biologischen Blickwinkel‘ heraus angehen will. Wie schon oben angemerkt, stellen sich hier grundlegende methodische Probleme, die hier jetzt nicht wiederholt werden sollen. Er stellt dann die sachlich unausweichliche Frage, wie man denn dann einen Zusammenhang zwischen ‚Geist‘ und ‚Materie‘ – hier Materie fokussiert auf ‚Gehirn‘ – herstellen kann.
  33. Populationsdenken und Erkennungssystem: Ohne weitere Begründung führt er dann den Begriff ‚Populationsdenken‘ ein, den er sodann überführt in den Begriff ‚Erkennungssystem‘ (‚recogntion system‘). Anschließend bringt er mit der ‚Evolution‘, ‚mit dem Immunsystem‘ und dann mit dem ‚Gehirn‘ drei Beispiele von Erkennungssystemen in seinem Sinne.
  34. Begriff ‚Geist‘ methodisch unbestimmt: Dieses ganze begriffliche Manöver von Edelmann leidet von Anbeginn an dem Umstand, dass er bislang weder genau erklärt hat, was er unter dem Begriff ‚Geist‘ versteht noch mit welchen Methoden man diesen ‚Geist‘ erforschen kann. Der Begriff ‚Geist‘ bildet also bislang nur eine ‚abstrakte Wortmarke ohne definierte Bedeutung‘ und ohne jeglichen Theorie- und Methodenbezug. Zugleich wird ‚Geist‘ streckenweise mit dem Begriff ‚Bewusstsein‘ gleichgesetzt, für den die gleichen Unwägbarkeiten gelten wie für den Begriff ‚Geist‘. Unter diesen Umständen die These aufzustellen, dass sich eine Theorie des Bewusstseins als Teil einer Theorie des Gehirns formulieren lässt ist mindestens kühn (siehe die vorausgehende Diskussion). Für die soeben von Edelman aufgeworfene Frage nach einem möglichen Zusammenhang zwischen dem mit ‚Geist‘ Gemeinten und dem mit ‚Materie‘ – sprich: Gehirn – Gemeinten ist damit alles offen, da die Begriffe ‚Geist‘ und ‚Bewusstsein‘ letztlich auch ‚offen‘ sind, da sie nicht definiert sind. Es bleibt dann nur, abzuwarten und zu schauen, ob sich aus den von Edelman eingeführten Begriffen ‚Populationsdenken‘ bzw. ‚Erkennungssystem‘ etwas ableiten lässt, was die Grundsatzfrage nach dem Verhältnis zwischen ‚Geist‘ und ‚Materie‘ etwas erhellt.
  35. Das Populationsdenken basiert auf Mengen von Individuen, die sich ‚verändern‘ können; man kann diese veränderte Individuen als ‚Varianten‘ auffassen‘, die damit eine ‚Vielfalt‘ in einer Population repräsentieren. Wichtig ist hier, sich klar zu machen, dass in der Perspektive eines einzelnen Individuums dieses weder ‚weiß‘, was vorher war noch was kommen wird noch aus sich heraus abschätzen kann, ob das, was es repräsentiert bzw. das, was es tut, in irgendeiner Weise ’sinnvoll‘ ist! Das einzelne Individuum ‚lebt sich aus‘ unter den Bedingungen, die die Umgebung ‚vorgibt‘ Zu sagen, dass ein einzelnes Individuum ‚erfolgreich‘ ist (‚fit‘), setzt voraus, dass man auf das Gesamtsystem schauen kann und man ein Meta-Kriterium hat, das definiert, wann ein Individuum in einer Population ‚erfolgreich‘ ist oder nicht. Unter Evolutionsbiologen hat sich eingebürgert, als ein Erfolgskriterium die ‚Zahl der Nachkommen‘ zu nehmen. Individuen mit den meisten Nachkommen gelten als erfolgreich. Dieser ‚äußerliche‘ Befund, der sich nur mit Blick auf mehrere Generationen definieren lässt und im Vergleich zu allen anderen Individuen, wird dann zusätzlich verknüpft mit der Hypothese, dass die äußerlich beobachtbare Gestalt, der Phänotyp, letztlich auf eine ‚tiefer liegende Struktur‘ verweis, auf den Genotyp. Der äußerlich beobachtbare Erfolg eines bestimmten Phänotyps wird dann auf die angenommene tiefer liegende Struktur des Genotyps übertragen. In dieser komplexen metatheoretischen Betrachtungsweise verantworten also Genotypen die Phänotypen, die dann in einer bestimmten Umgebung über die Zeit die meisten Nachkommen ermöglichen.
  36. In diesem Kontext von ‚Selektion‘, ‚Auswahl‘ zu sprechen ist ziemlich problematisch, da kein eigentlicher Akteur erkennbar ist, der hier ’selektiert‘. Das einzelne Individuum für sich selektiert sicher nicht, da es nichts hat zum Selektieren. Die Population als solche selektiert auch nicht, da die Population keine handelnde Einheit bildet. ‚Population‘ ist ein ‚Meta-Begriff‘, der einen externen Beobachter voraussetzt, der die Gesamtheit der Individuen beobachten und darüber sprechen kann. Eine Population als ‚existierende‘ ist nur eine Ansammlung von Individuen, von denen jedes einzelne ‚vor sich hin agiert‘. Nur bei externer Beobachtung über die Zeit lässt sich erkennen, dass sich Varianten von Phänotypen bilden von denen einige größere Anzahlen bilden als andere oder einige sogar aussterben. Weder das einzelne Individuum noch die Gesamtheit der Individuen ’selektieren‘ hier irgend etwas. Wohl findet zwischen Individuen ein ‚Genmix‘ (oft als ‚crossover‘ bezeichnet) statt, der neue Genotypen ermöglicht, z.T. Ergänzt durch zufällige Änderungen (Mutationen) des Genotyps, mit nachfolgend neuen Phänotypen.
  37. Beobachter mit Theorie: Wenn man dennoch am Begriff ‚Selektion‘ festhalten will, dann nur dann, wenn man tatsächlich einen ‚externen Beobachter‘ voraussetzt, der alle diese variierenden Phänotypen in ihren jeweiligen Umgebungen in der Zeit ‚beobachten‘ kann und der eine ‚Theorie‘ formuliert (also eine systematische Beschreibung von den Beobachtungsdaten), in der die Veränderung der Phänotypen samt ihren ‚Anzahlen‘ in Beziehung gesetzt werden zu den verschiedenen Umgebungen. Wenn bestimmte Phänotypen in einer bestimmten Umgebung E aussterben während andere Phänotypen bei der gleichen Umgebung nicht aussterben, sich vielleicht sogar vermehren, dann könne man in dieser Theorie den Begriff ‚Selektion‘ so definieren, dass die ‚zahlenmäßig erfolgreichen‘ Phänotypen zur Umgebung E ‚besser passen‘ als die anderen. Es sind dann die ‚Umstände der Umgebung‘, die ‚Eigenschaften der Umgebung‘, die darüber entscheiden, welcher Phänotyp ‚bleibt‘ und welcher ’nicht bleibt‘. Die Umgebung wäre dann das ‚harte Kriterium‘, an dem die Leistungsfähigkeit eines Phänotyps (und indirekt damit des ermöglichenden Genotyps), ‚gemessen‘ werden kann. ‚Messen‘ heißt ‚Vergleichen‘: passt ein Phänotyp in eine bestehende Umgebung oder nicht.
  38. Erfolgskriterium nicht absolut: Da die Umgebung ‚Erde‘ nach heutigem Wissensstand sich beständig verändert hat, ist das Erfolgskriterium ‚Passen‘ sehr relativ. Was heute ‚gut passt‘ kann morgen ‚unpassend‘ sein.
  39. Akteure als Teil der Umgebung: Ferner ist in Rechnung zu stellen, dass Phänotypen (i) sowohl mit der Umgebung wechselwirken können und dadurch diese so stark verändern können, dass sie damit ihre eigenen Lebensgrundlagen zerstören (etwas ‚Passendes‘ wird ‚unpassend‘ gemacht), als auch (ii) dass die Vielzahl von Phänotypen untereinander ‚zur Umgebung wird‘ (z.B. in Räuber-Beute Beziehungen). Dann besteht die Umgebung nicht nur aus der Erde wie sie ist (sehr veränderlich), sondern andere Phänotypen einer anderen ‚Art‘ müssen entweder als Feinde abgewehrt werden oder als potentielle Beute gefangen oder es muss mit ‚Artgenossen‘ kooperiert werden. Das erfolgreiche Überleben wird damit zu einer Gleichung mit sehr vielen dynamischen Variablen. Das theoretische Kriterium der ‚Selektion‘ erscheint daher als ein sehr abstraktes Kriterium in der Beschreibung von Erfolg, hat sich aber historisch als Minimalanforderung durchgesetzt.
  40. Fähigkeit zur Variationsbildung im Dunkeln: Interessant ist der Punkt – auf den auch Edelman zentral abhebt – dass die Genotypen überhaupt in der Lage sind, immer komplexere Phänotypen zu bilden, ohne dass erkennbar ist, dass ihnen von der Umgebung aus irgendwelche Vorab-Informationen übermittelt würden. Dies scheitert allein auch schon daran, dass die Erde – und das Sonnensystem, und die Milchstraße, und … — als ‚Umgebung‘ keinen geschlossenen Akteur mit eigener ‚Absicht‘ darstellt. Vielmehr handelt es sich – nach heutigem Kenntnisstand – um ein System, das ‚aus sich heraus‘ Ereignisse erzeugt, die als Ereignisse dieses System manifestieren. Biologische Systeme können diese Ereignismengen nur ‚aufnehmen‘, ’sortieren‘, auf unterschiedliche Weise ‚erinnern‘, und auf der Basis dieser ‚Erfahrungen‘ Strukturen ausbilden, die dieser Ereignismenge möglichst ‚optimal‘ gerecht werden. Und da im Moment der ‚reproduktiven‘ Strukturbildung zwar einige Erfolge aus der Vergangenheit ‚bekannt‘ sind, aber ’nichts aus der Zukunft‘, bleibt den biologischen Systemen nichts anderes übrig, als , im Rahmen ihrer genetischen und phänotypischen Variationsbildung möglichst viele Variationen ‚ins Blaue hinein‘ zu bilden. Nach 3.8 Milliarden Jahren kann man konstatieren, es hat bislang irgendwie funktioniert. Daraus kann man aber leider nicht zweifelsfrei ableiten, dass dies auch in der Zukunft so sein wird.
  41. Selektion als sekundärer Effekt: Also, ‚Selektion‘ ist keine Eigenleistung eines Individuums oder einer Population, sondern Selektion ist der Effekt, der entsteht, wenn Populationen mit Umgebungen wechselwirken müssen und die Umgebung festlegt, unter welchen Bedingungen etwas zu ‚passen‘ hat. Erst ’nach‘ der Reproduktion und ’nach einiger Zeit‘ zeigt sich für ein Individuum, ob ein bestimmter Genotyp einen ‚erfolgreichen‘ Phänotyp hervorgebracht hat. Zu dem Zeitpunkt, wo ein Individuum diese Information bekommt, hat es aber keine Gestaltungsmacht mehr: einmal weil seine Reproduktionsaktivität dann schon vorbei ist und zum anderen, weil es bei Erfolg ‚alt‘ ist oder gar schon ‚gestorben‘.
  42. Begriff ‚Erkennen‘ unglücklich: Dass Edelman diese Populationsdynamik als ‚Erkennungssystem‘ (‚recognition system‘) verstanden wissen will, ist nicht ganz nachvollziehbar, da, wie schon angemerkt, kein eigentlicher Akteur erkennbar ist, der dies alles ’steuert‘. Dass im Fall der Evolution die Gesamtheit der Genotypen zu einem bestimmten Zeitpunkt einen gewissen ‚Informationsbestand‘, einen gewissen ‚Erfahrungsbestand‘ repräsentieren, der sich aus den vorausgehenden Reproduktions- und aufgezwungenen Selektionsereignissen ‚angesammelt‘ hat, lässt sich theoretisch fassen. Dass aber hier ein identifizierbarer Akteur etwas ‚erkennt‘ ist wohl eine starke Überdehnung des Begriffs ‚Erkennen‘. Das gleiche gilt für das Beispiel mit dem Immunsystem. Das ‚Herausfiltern‘ von bestimmten ‚passenden Eigenschaften‘ aus einer zuvor produzierten Menge von Eigenschaften ist rein mathematisch eine Abbildung, die so zuvor nicht existierte. Aber es gibt keinen bestimmten Akteur, der für die Konstruktion dieser Abbildung verantwortlich gemacht werden kann.
  43. Netzwerke lernen ohne eigentlichen Akteur: Dennoch arbeitet Edelman hier einen Sachverhalt heraus, der als solcher interessant ist. Vielleicht sollte man ihn einfach anders benennen. Interessant ist doch, dass wir im Bereich der biologischen Systeme beobachten können, dass eine Menge von unterscheidbaren Individuen, von denen jedes für sich genommen keinerlei ‚Bewusstsein‘ oder ‚Plan‘ hat, als Gesamtheit ‚Ereignismengen‘ so ’speichern‘, dass ‚metatheoretisch‘ eine ‚Abbildung‘ realisiert wird, die es so vorher nicht gab und die Zusammenhänge sichtbar macht, die eine gewisse ‚Optimierung‘ und auch eine gewisse ‚Logik‘ erkennen lassen. Nennen wir diese Herausbildung einer Populationsübergreifenden Abbildung ’strukturelles Lernen‘ was zu einer ’strukturellen Erkenntnis‘ führt, dann habe wir dadurch zwar noch keinen eigentlichen ‚Akteur‘, aber wir haben ein interessantes Phänomen, was die Entwicklung von großen Mengen von biologischen Systemen charakterisiert. Das
    ‚Biologische‘ erscheint als ein Netzwerk von vielen Systemen, Teilsystemen, bei dem die einzelnen Komponenten keinen ‚Plan des Ganzen‘ haben, aber durch ihre individuelle Manifestationen indirekt an einem ‚größeren Ganzen‘ mitwirken.
  44. Homo sapiens: Erst mit dem Aufkommen des Homo sapiens, seiner Denk- und Kommunikationsfähigkeit, seinen Technologien, ist es möglich, diese impliziten Strukturen, die alle einzelnen Systeme bestimmen, dirigieren, filtern, usw. auf neue Weise zu ‚erfassen‘, zu ‚ordnen‘, zu ‚verstehen‘ und auf diese Weise mit einem angenäherten ‚Wissen um das Ganze‘ anders handeln zu können als ohne dieses Wissen.

ZWISCHENREFLEXION FITNESS VORGEGEBEN

  1. Außer dem bislang Gesagten (siehe oben Punkte 1-44) ist es vielleicht hilfreich, sich klar zu machen, wie genau das Zusammenspiel zwischen der Fitness biologischer Systeme und den jeweiligen Umgebungen beschaffen ist.
  2. Ein grundlegender Tatbestand ist jener, dass die Umgebung der biologischen Systeme auf der Erde von Anfang an eben die Erde war und ist bzw. das Sonnensystem bzw. unsere Milchstraße bzw. das gesamte bekannte Universum. Diese Vorgabe ist für alle biologische Systeme bislang nicht verhandelbar. Wenn ein biologisches System sich behaupten will, dann in diesem konkreten Ausschnitt des Universums und nirgendwo sonst.
  3. Zugleich wissen wir, dass die Erde seit ihrer Entstehung samt Sonnensystem und dem ganzen Kontext zu allen Zeiten ein hochdynamisches System war und ist, das im Laufe von Milliarden Jahren viele dramatische Änderungen erlebt hat. Sich in dieser Umgebung zu behaupten stellt eine schier unfassbare Leistung dar.
  4. Ob sich im Laufe der Zeit eine bestimmte Lebensform L auf der Erde ‚behaupten‚ oder gar ‚vermehren‚ konnte, hing einzig davon ab, ob diese Lebensform L im Laufe der Generationen in der Lage war, hinreichend viele Nachkommen unter den konkreten Bedingungen der Umgebung zu erzeugen und am Leben zu erhalten. Die Anzahl der Nachkommen einer Generation der Lebensform L kann von daher als Bezugspunkt zur Definition eines ‚Fitness-Wertes‚ bzw. dann der ‚Fitness‚ einer Lebensform genommen werden. Eine häufige Schematisierung dieser Sachverhalte ist die folgende:
  5. POP(t+1) = o(POP(t)), t>0 := Die Population ‚POP‘ zum Zeitpunkt t ist das Ergebnis der Anwendung der Populationsgenerierungsfunktion ‚o‘ auf die Population zum Zeitpunkt ‚t‘, wobei ‚t‘ größer als 0 sein muss. Die Funktion ‚o‘ kann man dann weiter analysieren:
  6. o=e x c := Die Populationsgenerierungsfunktion ‚o‘ ist das Ergebnis der Hintereinanderausführung der beiden Teilfunktionen ‚e‘ (‚earth-function‘) und ‚c‘ (‚change-funtion‘). Diese kann man weiter analysieren:
  7. e : 2^(POP^2) x 2^POP x EARTH —–> POP := Die earth-function e nimmt Paare von Individuen (potentielle Eltern) der Population, zusätzlich kann es beliebig andere Individuen der Population geben (Jäger, Beute, Artgenossen…), und dann die Erde selbst mit ihren Eigenschaften, und transformiert daraus nachfolgende Individuen, Abkömmlinge. Es ist schwer zu sagen, ‚wer‘ hier über Leben und Tod entscheidet: einerseits legen die konkreten Bedingungen der Erde und die Art der Zeitgenossen fest, unter welchen Bedingungen eine Lebensform überleben kann, andererseits hängt ein Überleben auch davon ab, welche ‚Eigenschaften‘ eine Lebensform besitzt; ob diese leistungsfähig genug sind, unter den gegebenen Bedingungen ‚leben‘ zu können. Nimmt man die Population der Lebensformen als ‚Generator‘ neuer Formen (siehe nächsten Abschnitt), dann wirkt die konkrete Erde wie eine Art ‚Filter‘, das nur jene ‚durchlässt‘, die ‚passen‘. ‚Selektion‘ wäre dann ein ‚emergentes‘ Phänomen im radikalen Sinne, da dieses Phänomen nur im Zusammenspiel der beiden Faktoren ‚Erde‘ und ‚Population‘ ’sichtbar‘ wird. Ohne dieses Zusammenspiel gibt es kein Kriterium für ‚Überlebensfähigkeit‘. Ferner wird hier deutlich, dass das Kriterium ‚Fitness‘ bzw. ‚Überlebensfähigkeit‘ kein absolutes Kriterium ist, sondern sich zunächst nur auf den Lebensraum ‚Erde‘ beschränkt. In anderen Bereichen des Universums könnten ganz andere Kriterien gelten und dort müsste die Lebensformen u.U. Einen ganz anderen Zuschnitt haben.
  8. Ferner  wird hier sichtbar, dass der ‚Erfolg‚ einer bestimmten Lebensform als Teil des gesamten Biologischen letztlich sehr ‚partiell‚ ist, weil bei Änderungen der Zustände auf der Erde bislang erfolgreiche Lebensformen (berühmtes Beispiel die Dinosaurier) vollstänig verschwinden können; andere Lebensformen als Teil des Biologischen können dann aber plötzlich neu in den Vordergrund treten. (berühmtes Beispiel die Säugetiere).  Offen ist die Frage, ob es spezielle Lebensformen — wie z.B. den homo sapiens — gibt, die aufgrund ihrer hervorstechenden Komplexität im Kontext des Biologischen eine irgendwie geartete ‚besondere Bedeutung‘ besitzen. Aktuell erwecken die Wissenschaften den Eindruck, als ob es hier keine feste Meinung gibt: die einen sehen im homo sapiens etwas Besonderes, das auf eine spezielle Zukunft verweist, andere sehen im homo sapiens eine von vielen möglichen speziellen Lebensformen, die bald wieder verschwinden wird, weil sie sich der eigenen Lebensgrundlagen beraubt.
  9. c : cross x mut := die ‚change-function‘ c besteht auch aus zwei Teilfunktionen, die hintereinander ausgeführt werden: die erste Teilfunktion ist eine Art Überkreuzung genannt ‚crossover‘ (‚cross‘), die zweite ist eine Art Mutation genannt ‚mutation‘ (‚mut‘).
  10. cross : POP x POP —–> POP := In der Überkreuzfunktion ‚cross‘ werden die Genotypen von zwei verschiedenen Individuen ‚gemischt‘ zu einem neuen Genotyp, aus dem ein entsprechend neuer Phänotyp hervorgehen kann.
  11. mut : POP —–> POP := In der Mutationsfunktion kann eine zufällige Änderung im Genotyp eines Individuums auftreten, die unter Umständen auch zu Änderungen im Phänotyp führt.
  12. Idealerweise kann man die change-function c isoliert von der Umgebung sehen. Realistischerweise kann es aber Wechselwirkungen mit der Umgebung geben, die auf die change-function ‚durchschlagen‘.

  13. Fasst man alle Faktoren dieser – stark vereinfachten – Populationsgenerierungsfunktion ‚o‘ zusammen, dann wird auf jeden Fall deutlich, dass beide Systemedie Erde und das Biologische – einerseits unabhängig voneinander sind, dass sie aber faktisch durch die Gegenwart des Biologischen auf der Erde (und im Sonnensystem, in der Milchstraße, …) in einer kontinuierlichen Wechselwirkung stehen, die sich dahingehend auswirkt, dass das Biologische eine Form annimmt, die zur Erde passt. Grundsätzlich könnte das Biologische aber auch andere Formen annehmen, würde es in einer anderen Umgebung leben.
  14. Um die Populationsgenerierungsfunktion noch zu vervollständigen, braucht man noch eine ‚Bootstrapping Funktion‘ ‚boot-life()‘, mittels der überhaupt das Biologische auf der Erde ‚eingeführt‘ wird:
  15. boot-life : EARTH —–> EARTH x POP (auch geschrieben: POP(t=1) = boot-life(POP(t=0)) ):= wie die allerneuesten Forschungen nahelegen, konnten sich unter bestimmten Bedingungen (z.B. unterseeische Gesteinsformationen, vulkanisches Wasser, …) verschiedene Molekülverbände zu komplexen Molekülverbänden so zusammen schließen, dass irgendwann ‚lebensfähige‘ – sprich: reproduktionsfähige – Zellen entstanden sind, die eine Anfangspopulation gebildet haben. Auf diese Anfangspopulation kann dann die Populationsgenerierungsfunktion ‚o‘ angewendet werden.

DISKUSSION FORTSETZUNG: HIER KAP.9

  1. Die Verwendung des Ausdrucks ‚Erkennung/ Erkennen‘ (‚recogniton‘) in Nr. 2 erscheint mir sehr gewagt, da die übliche Verwendungsweise des Ausdrucks ‚Erkennung‘ ein menschliches Subjekt voraussetzt, das im Rahmen seines Bewusstseins und dem zugehörigen – weitgehend unbewussten – ‚Kognitiven System‘ die wahrgenommenen – äußerliche (Sinnesorgane) wie innerliche (Körpersensoren) – Ereignisse ‚interpretiert‘ auf der Basis der ‚bisherigen Erfahrungen‘ und im Rahmen der spezifischen Prozeduren des ‚kognitiven Systems‘. Das von Edelman unterstellte ’selektive System‘ bezieht sich primär auf Strukturen, die sich ‚evolutiv‘ ausbilden oder aber ’somatisch‘ auf die Arbeitsweise des Gehirns, wie es sich im ‚laufenden Betrieb‘ organisiert. Das somatische System ist aber Teil des weitgehend ‚unbewussten kognitiven Systems‘, das in der alltäglichen Verwendung des Begriffs ‚Erkennung‘ ohne jegliche Bezugnahme auf die Details der Maschinerie einfach voraussetzt wird. Im Alltag liegt hier die Aufspaltung der Wirklichkeit in den bewussten Teil und den unbewussten vor, dessen wir uns – normalerweise – im alltäglichen ‚Vollzug‘ nicht bewusst sind (daher ja ‚unbewusst‘). Wenn Edelman also hier einen Ausdruck wie ‚Erkennung‘ aus dem ‚bewussten Verwendungszusammenhang‘ einfach so, ohne Kommentar, für einen ‚unbewussten Verwendungszusammenhang‘ benutzt, dann kann dies nachfolgend zu nachhaltigen Verwirrungen führen.

  2. Der Punkt (3) von Edelman ist absolut fundamental. An ihm hängt alles andere.

  3. Der Punkt (4) spiegelt ein anderes fundamentales Verhältnis wieder, das Edelman immer und immer wieder thematisiert: das Verhältnis von Psychologie (die Wissenschaft vom Verhalten) und Physiologie (die Wissenschaft vom Körper, speziell vom Gehirn). Alle Eigenschaftszuschreibungen, die die Psychologie vornimmt (wie z.B. mit dem Ausdruck ‚Intelligenz‘, ‚Intelligenzquotient‘, ‚Reflex‘, usw.), basieren auf empirischen Beobachtungen von realem Verhalten von realen Menschen, die dann im Rahmen expliziter (formaler = mathematischer) Modelle/ Theorien in Beziehungen eingebracht werden. Die Psychologie schaut nicht (!) in das ‚Innere‘ des Systems. Das tut die Physiologie. Die Physiologie untersucht die Struktur und die Dynamik des Körpers; dazu gehört auch das Gehirn. Und auch die Physiologie sammelt empirische Daten von den Körperprozessen (z.B. wie ein Neuron zusammengesetzt ist, wie es physikalisch, chemisch, mikrobiologisch usw. funktioniert) und versucht diese empirische Daten in explizite Modelle/ Theorien einzubauen. Im Idealfall haben wir dann eine psychologische Theorie T_psych über beobachtbares Verhalten mit theoretisch unterstellten möglichen Faktoren ‚hinter‘ dem Verhalten, und parallel eine physiologische Theorie T_phys über körperinterne Prozesse, die die verschiedenen Einzelbeobachtungen in einen ‚Zusammenhang‘ bringen. Was wir aber NICHT haben, das ist eine Erklärung des Zusammenhangs ZWISCHEN beiden Theorien! Die Gegenstandsbereiche ‚beobachtbares Verhalten‘ und ‚beobachtbare Körperprozesse‘ sind zunächst voneinander völlig abgeschottet. Spontan vermutet man natürlich, dass es zwischen Gehirnprozessen, hormonellen Prozessen, Atmung usw. und dem beobachtbaren Verhalten einen Zusammenhang gibt, aber diesen Zusammenhang EXPLIZIT zu machen, das ist eine eigenständige Leistung mit einer ‚Brückentheorie‘ T_physpsych(T_phys, T_psych), in der dieser Zusammenhang ausdrücklich gemacht wird. Es gibt dazu sogar Ausdrücke wie ‚Psychosomatik‘, ‚Neuropsychologie‘, aber die dazu gehörigen Texte kommen bislang nicht als explizite ‚Brückentheorie‘ daher. Und wenn Edelman hier ausdrücklich die Ausdrücke ‚Wahrnehmung, ‚Gedächtnis‘, ‚Bewusstseins‘, ‚Sprache‘ nennt, dann handelt es sich ausnahmslos um hochkomplexe Sachverhalte, zu denen es bislang keine hinreichende psychologische Theorien gibt, wenngleich beeindruckende Forschungen und Forschungsansätze. Festzustellen, dass eine physiologische Theorie des Gehirns Erklärungsansätze liefern müsse, wie diese psychologischen Phänomene zu ‚erklären‘ seien ist folgerichtig, aber aktuell schwierig, da die Psychologie diese Phänomene noch keineswegs zweifelsfrei abklären konnte. Am weitesten fortgeschritten sind  möglicherweise die psychologischen Forschungen zur ‚Wahrnehmung‘, zum ‚Gedächtnis‘, und irgendwie zu ‚Sprache‘, kaum zu ‚Bewusstsein‘ und dem Verhältnis zum ‚Unbewussten‘.

  4. Die beiden in (5) aufgeführten metatheoretischen (= wissenschaftsphilosophischen) Postulate sind so, wie sie Edelman formuliert, mindestens missverständlich und darum Quelle möglicher gravierender Fehler. Die Verortung von wissenschaftlichen Aussagen in der ‚physikalischen‘ Welt und von speziell psychologischen Aussagen in den ‚physiologischen Prozessen des Körpers‘ sind als solche sicher kompatibel mit dem bisherigen Verständnis von empirischer Wissenschaft generell. Allerdings, wie gerade im vorausgehenden Punkt (C) dargelegt, gibt es empirische Datenbereiche (hier: Verhaltensdaten, Körperprozesse), die direkt zunächst nichts miteinander zu tun haben. Die auf diesen unterschiedlichen Datenbereichen beruhenden Modell-/ Theoriebildungen sind von daher zunächst UNABHÄNGIG voneinander und haben ihre wissenschaftliche Daseinsberechtigung. Zu wünschen und zu fordern, dass zwei zunächst methodisch unabhängige Modelle/ Theorien T_psych und T_phys miteinander in Beziehung gesetzt werden, das liegt ‚in der Natur des wissenschaftlichen Verstehenwollens‘, aber dies wäre eine zusätzliche Theoriedimension, die die beiden anderen Teiltheorien VORAUSSETZT. Dieser methodisch-logische Zusammenhang wird in der Formulierung von Edelmann nicht sichtbar und kann dazu führen, dass man eine wichtige Voraussetzung der gewünschten Erklärungsleistung übersieht, übergeht, und damit das Ziel schon im Ansatz verfehlt.

  5. Dass – wie in (6) behauptet – die ‚Theorie der neuronalen Gruppen Selektion (TNGS)‘ jene Erklärung liefere, die die psychologischen Theorien ‚erklärt‘ ist von daher methodisch auf jeden Fall falsch. Allerdings kann man die Position von Edelman dahingehend verstehen, dass die TNGS ein physiologisches Modell liefere (was die große Schwäche besitzt, dass weder der übrige Körper, von dem das Gehirn nur ein verschwindend kleiner Teil ist, noch die jeweilige Umgebung einbezogen sind), das im Rahmen einer T_physpsych-Brückentheorie entscheidende Beiträge für solche einen Zusammenhang liefern könnte. Letzteres scheint mir in der Tat nicht ganz ausgeschlossen.

  6. In den Punkten (7) – (12) beschreibt Edelman drei Phasen der Strukturbildung, wie es zu jenen physiologischen Strukturen kommen kann, die dann – unterstellt – dem beobachtbaren Verhalten ‚zugrunde‘ liegen. Allerdings, für das aktuell beobachtbare Verhalten spielen die verschiedenen Entstehungsphasen keine Rolle, sondern nur der ‚Endzustand‘ der Struktur, die dann das aktuelle Verhalten – unterstellt – ‚ermöglicht. Der Endzustand ist das Gehirn mit seinen neuronalen Verschaltungen, seinen Versorgungsstrukturen und seiner anhaltenden ‚Plastizität‘, die auf Ereignismengen reagiert. Aus den Punkten (7) – (12) geht nicht hervor, wo und wie diese Strukturen das ‚Bewusstsein erklären‘ können.

  7. Wenn Edelman in (13) meint, dass seine neuronalen Karten mit den reziproken Verbindungen eine Grundlage für das psychologische Konzept des Gedächtnisses liefern können, dann ist dies sicher eine interessante Arbeitshypothese für eine mögliche Brückentheorie, aber die müsste man erst einmal formulieren, was wiederum eine psychologische Theorie des Gedächtnisses voraussetzt; eine solche gibt es bislang aber nicht.

  8. Der Punkt (14) adressiert mögliche Details seiner Modellvorstellung von neuronalen Karten mit reziproken Verbindungen.

  9. Der Punkt (15) greift das Thema von Punkt (13) nochmals auf. Die ‚Kategorisierung von Wahrnehmungsereignissen‘ ist letztlich nicht von dem Thema ‚Gedächtnis isolierbar. Er zitiert im Postskript auch viele namhafte PsychologenInnen, die dazu geforscht haben. Die Kerneinsicht dieser empirischen Forschungen geht dahin, dass sich solche Strukturen, die wir ‚Kategorien‘ nennen, ‚dynamisch‘ herausbilden, getriggert von konkreten Wahrnehmungsereignissen, die bei jedem individuell verschieden sind. Natürlich liegt hier die Vermutung nahe, dass entsprechend dynamische Strukturen im Körper, im Gehirn, vorhanden sein müssen, die dies ermöglichen. Dass hier Psychologie und Physiologie Hand-in-Hand arbeiten können, liegt auch auf der Hand. Aber dies stellt erhebliche methodische Herausforderungen, die Edelman kaum bis gar nicht adressiert.

  10. In Punkt (16 – 18) beschreibt Edelman auf informelle Weise, wie er sich das Zusammenspiel von psychologischen Eigenschaften (die eine explizite psychologische Theorie T_psych voraussetzen) und seinem neuronalen Modell (für das er eine physiologische Theorie T_phys beansprucht) vorstellt. Auf dieser informellen Ebene wirkt seine Argumentation zunächst mal ‚plausibel‘.

  11. Ab Punkt (19) berührt Edelman jetzt einen weiteren Fundamentalpunkt, der bis heute generell ungeklärt erscheint. Es geht um die Frage der ‚Werte‘, die ein Verhalten in einem gegeben Möglichkeitsraum in eine bestimmte ‚Richtung‘ anregen/ drängen …. (es gibt dafür eigentlich kein richtiges Wort!), so dass das System einem neuen Zustandsraum erreicht, der für es ‚günstiger‘ ist als ein anderer, auf jeden Fall ‚das Leben ermöglicht‘. Die Evolutionstheorie hat über das Phänomen der hinreichenden ‚Nachkommen‘ ein ‚operationales Kriterium‘ gefunden, mit dem sich der Ausdruck ‚Fitness‘ mit Bedeutung aufladen lässt. Über das ‚Überleben‘ bzw. ‚Nicht-Überleben‘ wirkt sich dies indirekt auf den Genotyp aus: die ‚günstigen‘ Genotypen überleben und die ’nicht günstigen‘ sterben aus. Ein ‚überlebender‘ Genotyp – einen, den man ‚fit‘ nennt – triggert dann den embryonalen Prozess und den darin gründenden ‚Entwicklungsprozess‘, der in einer ’nicht-deterministischen‘ Weise Körper- und damit Gehirnstrukturen entstehen lässt, die auf individueller Ebene immer verschieden sind. Jene Gehirnstrukturen, die für lebenserhaltende Systeme wichtig sind (letztlich die gesamte Körperarchitektur und das Zusammenspiel aller Komponenten untereinander) werden aber – trotz des nicht-deterministischen Charakters – offensichtlich dennoch herausgebildet. In all diesem lässt sich kein ‚geheimnisvoller Faktor‘ erkennen und er erscheint auch nicht notwendig. Das System ‚als Ganzes‘ repräsentiert ein ‚Erfolgsmodell‘. Hier jetzt – wie Edelman es versucht – im konkreten Details nach ‚Orten von Präferenzen‘ zu suchen erscheint unplausibel und seine Argumentation ist auch nicht schlüssig. Wenn Edelman ‚interne Kriterien für werthaftes Verhalten‘ postuliert, die genetisch bedingt sein sollen, dann postuliert er hier Eigenschaften, die sich nicht aus der Biochemie der Prozesse herauslesen lassen. Was er hier postuliert ist so eine Art   ‚genetischer Homunculus‘. Damit widerspricht er letztlich seinen eigenen wissenschaftlichen Überzeugungen. Letztlich ist es nur ein ‚Genotyp als ganzer‘, der ein ‚bislang erfolgreichen Phänotyp‘ repräsentiert. Scheiter er irgendwann – was auf lange Sicht der Normalfall ist, da die Erde sich ändert –, dann verschwindet der Genotyp einfach; jener, der ‚überlebt‘, verkörpert als ‚Ganzer‘ ein Erfolgsmodell, nicht ein einzelner, isolierter Aspekt. Mit dieser empirisch-wissenschaftlichen Sicht verschwinden die ‚Werte‘ zwar ‚aus dem System‘, aber das übergeordnete ’system-transzendente‘ Verhältnis zwischen System und Umwelt bleibt weiter erhalten und es ist dieses Verhältnis, das alleine darüber entscheidet, ob etwas ‚Leben-Ermöglichendes‘ ist oder nicht. Damit erweitert sich die Fragestellung nach der ‚Verortung möglicher Präferenzen‘ deutlich, wenn man das empirisch neue Phänomen des Bewusstseins einbezieht (das nur in Kombination mit einem Unbewussten auftritt!). Während die Umwelt-System-Beziehung primär über das Überleben entscheidet, ermöglicht das Bewusstsein in Kombination mit dem Unbewussten (z.B. dem Gedächtnis) eine ‚Extraktion‘ von Eigenschaften, Beziehungen, Dynamiken und mit kombinatorischen Varianten von dieser Umwelt-System-Beziehung, so dass eine kommunizierende Gruppe von Homo sapiens Exemplaren von nun an mögliche Zukünfte schon in der Gegenwart bis zu einem gewissen Graf ‚voraus anschauen‘ und auf ‚Lebensfähigkeit‘ ‚testen‘ kann. Insofern stellt das Bewusstsein und die Kommunikation eine radikale Erweiterung der Überlebensfähigkeit dar, nicht nur für den Homo sapiens selbst, sondern auch für die Gesamtheit des biologischen Lebens auf der Erde! Mit dem Ereignis Homo sapiens tritt das biologische Leben auf der Erde (und damit im ganzen Universum!?) in eine radikal neue Phase. Edelmans Versuch, ‚Werte‘ in einzelnen genetischen Strukturen und dann in einzelnen Strukturen des Gehirns zu finden wirken von daher unlogisch und abwegig. Edelmans Beispiele in den Punkten (20) – (23) können nicht klarmachen, wie diese interne Präferenzsystem funktionieren soll (ich werde diesen Punkt an konkreten Systemen nochmals selbst durchspielen).

  12. Zusammenfassend würde ich für mich den Text von Edelman so interpretieren, dass (i) seine Skizze der neuronalen Maschinerie mit den reziproken Verbindungen und den unterschiedlichen Verschaltungen ganzer Karten ein interessanter Ansatzpunkt ist, für ein neuronales Modell, das in einer psychologisch-physiologischen Brückentheorie getestet werden könnte und sollte, sein Versuch aber (ii), die Wertefrage in biochemische Prozesse verorten zu wollen, ist in mehrfachem Sinne unplausibel, methodisch unklar und führt vom Problem eher weg.

DISKUSSION FORTSETZUNG: KAP.10

  1. Aus wissenschaftsphilosophischer Sicht ist das Kapitel 10 sehr aufschlussreich. Der in den vorausgehenden Kapiteln immer wieder angedeutete Brückenschlag zwischen Physiologie (mit Gehirnforschung) und Psychologie (verhaltensorientiert) wird in diesem Kapitel ein wenig ‚anfassbarer‘. Allerdings nicht in dem Sinne, dass der Brückenschlag nun explizit erklärt wird, aber so, dass einerseits die Begrifflichkeit auf psychologischer Seite und andererseits die Begrifflichkeit auf physiologischer Seite etwas ausdifferenziert wird. Die Beschreibung der Beziehung zwischen beiden Begrifflichkeiten verbleibt im Bereich informeller Andeutungen bzw. in Form von Postulaten, dass die zuvor geschilderte physiologische Maschinerie in der Lage sei, die angedeuteten psychologischen Strukturen in ihrer Dynamik zu ‚erklären‘.

  2. Am Ende des Kapitels 10, mehr nur in Form einer kurzen Andeutung, in einer Art Fußnote, bringt Edelman noch die Begriffe ‚Intentionalität‘ und ‚Bewusstsein‘ ins Spiel, allerdings ohne jedwede Motivation, ohne jedwede Erklärung. Diese Begriffe entstammen einen ganz anderen Sprachspiel als dem zuvor besprochenen physiologischen oder psychologischem Sprachspiel; sie gehören zum philosophischen Sprachspiel, und die Behauptung Edelmans, dass man auch diese Wortmarken aus dem philosophischen Sprachspiel in ein Erklärungsmuster einbeziehen könnte, das seine Grundlage in dem physiologischen Modell Begriffe_NN habe, ist an dieser Stelle ein reines Postulat ohne jeglichen Begründungsansatz.

  3. Wissenschaftsphilosophisch kann man hier festhalten, dass man drei Sprachspiele unterscheiden muss:

    1. Ein psychologisches Sprachspiel, das von Verhaltensdaten DAT_B ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_B einführt (Modelle, Theorien), um die Verhaltensdaten zu erklären.

    2. Ein physiologisches Sprachspiel, das von physiologischen Daten DAT_NN ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_NN einführt (Modelle, Theorien), um die Prozesse der physiologischen Strukturen (Gehirn) zu erklären.

    3. Ein phänomenologisches Sprachspiel (Teilbereich der Philosophie), das von phänomenologischen Daten DAT_PH ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_PH einführt (Modelle, Theorien), um die Prozesse der phänomenologischen Strukturen (Bewusstsein) zu erklären.

  4. Diese Sprachspiele kann man isoliert, jedes für sich betreiben. Man kann aber auch versuchen, zwischen den verschiedenen Sprachspielen ‚Brücken‘ zu bauen in Form von ‚Interpretationsfunktionen‘, also:

    1. Zwischen Psychologie und Physiologie: Interpretationsfunktion Interpretation_B_NN : Begriffe_B <—> Begriffe_NN

    2. Zwischen Psychologie und Phänomenologie: Interpretationsfunktion Interpretation_B_PH : Begriffe_B <—> Begriffe_PH

    3. Zwischen Phänomenologie und Physiologie: Interpretationsfunktion Interpretation_PH_NN : Begriffe_PH <—> Begriffe_NN

  5. Man muss festhalten, dass es bis heute (2018) solche Interpretationsfunktionen als explizite Theorien noch nicht gibt; genauso wenig gibt es die einzelnen Theorien Begriffe_X (X=B, PH, NN) als explizite Theorien, obgleich es unfassbare viele Daten und partielle (meist informelle) Beschreibungen gibt.

Fortsetzung folgt

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

DAS WAS MENSCHSEIN AUSMACHT. Eine Notiz

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 8.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

  1. Während der Auseinandersetzung mit dem Buch von Edelman gab es unterschiedliche Wechselwirkungen mit anderen gedanklichen Prozessen. Ein Thema hier ist eine mögliche grundlegende Typologie von ‚Intelligenz‘.

  2. Vorab müsste man das Verhältnis des Begriffs ‚Intelligenz‘ zu Begriffen wie ‚Lernen‘, ‚Bewusstsein‘, ‚Geist‘ und ‚Gehirn‘ klären. Hier nur soviel, dass alle diese Begriffe ein ‚Gehirn‘ – oder eine vergleichbare materielle Struktur – zum Funktionieren voraussetzen. Allerdings kann das bloße Vorhandensein solcher materieller Strukturen nicht garantieren, dass es dann auch so etwas wie ‚Geist‘, ‚Bewusstsein‘, ‚Lernen‘ und ‚Intelligenz‘ gibt.

  3. Der Begriff ‚Geist‘ wird im Englischen als ‚mind‘ gerne und oft benutzt, um Besonderheiten im Verhalten des Homo sapiens zu ‚markieren‘. Allerdings ist dieser Begriff sehr diffus und bislang in keiner Theorie hinreichend erklärt.

  4. Meistens werden die Begriffe ‚Bewusstsein‘ und ‚Geist‘ sehr ähnlich benutzt, ohne dass deren Beziehung zueinander – wegen einer fehlenden Theorie – letztlich klar ist. Da unser ‚Zugang‘ zum Phänomen ‚Geist‘ irgendwie über das beobachtbare Verhalten und das ‚Bewusstsein‘ läuft, ist der Begriff ‚Geist‘ eher ein theoretischer Begriff innerhalb einer Theorie, die man auf der Basis von Bewusstseinsdaten formulieren würde. Mit dem Begriff ‚Bewusstsein‘ wäre dies ähnlich: würden wir alle erreichbaren Daten aus der 1.Person und 3.Person Perspektive sammeln, könnten wir eine Theorie bauen, die den theoretischen Term ‚Bewusstsein‘ enthält und damit indirekt ‚erklärt‘. Paradox würde es, weil der Begriff ‚Bewusstsein‘ dann nicht nur eine theoretische Beschreibung ‚von etwas‘ wäre, also einen ‚Gegenstand‘ der Beschreibung bilden würde, sondern zugleich auch den ‚Autor‘ der ‚Beschreibung‘ repräsentieren würde, allerdings nur indirekt. Der so theoretisch beschriebene ‚Gegenstand Bewusstsein‘ würde wesentliche Eigenschaften nicht enthalten. Für diesen Fall eines ‚Gegenstandes‘ der zugleich ‚Autor‘ ist gibt es bislang keinen akzeptierten Theoriebegriff.

  5. Der ‚wissenschaftliche Intelligenzbegriff‘ orientiert sich am beobachtbaren Verhalten und definierten Referenzpunkten. Dieses Verfahren wurde seit gut 100 Jahren auf den Homo sapiens angewendet und dann auf viele andere biologische Systeme verschieden vom Homo sapiens. Man könnte grob von ‚Menschlicher Intelligenz‘ sprechen und von ‚Tierischer Intelligenz‘ mit vielen Überschneidungen.

  6. Daneben gibt es heute eine ‚Maschinelle Intelligenz‘, die bislang aber in keiner allgemein akzeptierten Form beschrieben und untersucht wird. Die Beziehung zur ‚menschlichen‘ und ‚tierischen‘ Intelligenz wurde bislang nicht systematisch untersucht.

  7. Im Alltag, in den Medien, in der Kunst gib es eine ‚fiktive Intelligenz‘, der man nahezu alles zutraut, ohne dass klar ist, ob dies wirklich möglich ist. Die ‚fiktive Intelligenz‘ ist gleichsam eine Art ‚Sammelpunkt‘ aller Projektionen von dem, was Menschen sich unter ‚Intelligenz‘ vorstellen können.

  8. Durch die Koexistenz von Menschen und neuer Informations-Technologie kann es zu einer neuen ‚hybriden Intelligenz‘ kommen, in der menschliche und maschinelle Intelligenz auf neue Weise symbiotisch zusammen wirken. Dazu gibt es bislang kaum Forschungen; stattdessen versucht man, die maschinelle Intelligenz möglichst unabhängig vom Menschen und oft in Konkurrenz und im Gegensatz zu ihm zu entwickeln. Zugleich verbleibt die Forschung zur menschlichen Intelligenz auf niedrigem Niveau; viele – die meisten? – wichtigen Eigenschaften sind weiterhin unerforscht. Beides zusammen blockiert die Entwicklung von wirklich starken, neuen Intelligenzformen.

  9. Durch die ungelöste Paradoxie von zugleich ‚Gegenstand‘ und ‚Autor‘ bleiben viele wichtige, vielleicht die wichtigsten, Eigenschaften menschlicher Intelligenz im Verborgenen. Es gibt hier einen Erkenntnismäßigen ‚blinden Fleck‘ der nur sehr schwer aufzulösen ist.

  10. Wenn man sieht, wie in vielen Ländern dieser Erde, auch in jenen, in denen man glaubte, viele ‚primitive‘ Sichten zur Welt, zum Leben, zum Menschen überwunden zu haben, große Teile der Bevölkerung und der politischen Leitinstitutionen wieder in solche ‚primitiveren‘ Sichten und Verhaltensweisen zurückfallen und darin zunehmend Anhänger finden, dann kann man dies als Indikator dafür nehmen, dass differenziertere, komplexere Sichten des Lebens und die dazu gehörigen Verhaltenskomplexe keine Automatismen darstellen. Nur weil jemand, eine Gruppe, eine Population zu einer bestimmten Zeit einmal eine ‚Einsicht‘ hatte, ein aus dieser Einsicht resultierendes ‚praktisches Lebenskonzept umgesetzt hat‘, folgt nicht automatisch, dass diese Einsicht in den Individuen der Population ‚am Leben bleibt‘. Die Struktur und Dynamik eines einzelnen Homo-sapiens-Exemplars ist von solch einer Komplexität, dass nur maximale Anstrengungen dieses Potential an Freiheit zu einer ‚konstruktiven Lebensweise‘ motivieren können. Dabei ist das Wort ‚motivieren‘ wichtig. Im Homo sapiens kulminiert die ‚Freiheit‘, die sich in der Materie und Struktur des gesamten Universums samt den biologischen Strukturen grundlegend findet, zu einem vorläufigen ‚Optimum‘, das sich jeder vollständigen ‚Verrechnung‘ in fixierte Strukturen widersetzt. Man kann einen Homo sapiens einsperren, töten, mit Drogen willenlos machen, durch Entzug von materiellen Möglichkeiten seiner Realisierungsbasis berauben, durch falsche Informationen und Bildungen fehlleiten, man kann aber seine grundlegende Freiheit, etwas ‚Anderes‘, etwas ‚Neues‘ zu tun, dadurch nicht grundlegend aufheben. In der Freiheit jedes einzelnen Homo sapiens lebt potentiell die mögliche Zukunft des gesamten Universums weiter. Ein unfassbarer Reichtum. Die größte Lüge und das größte Verbrehen an der Menschlichkeit und am Leben überhaupt ist daher genau diese grundlegende Eigenschaft des Homo sapiens zu verleugnen und zu verhindern.

  11. Natürlich hat der Homo sapiens noch weitere grundlegende Eigenschaften über die zu sprechen gut tun würde.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.