WENN ZUKUNFT ANDERS IST ALS DU WILLST, DASS SIE IST. Notiz

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Sa 21.Dezember 2019 (Leichte Korrekturen: 13:50h)

KONTEXT: Zukunft wo?

In diesem Blog gab es schon viele Beiträge, die sich mit der Frage beschäftigt haben, ob und wie wir überhaupt so etwas wie ‚Zukunft‘ erkennen können. Grundsätzlich können wir Zukunft überhaupt nicht erkennen, da Zukunft — anders als Gegenwart und Vergangenheit — nicht als etwas Reales vorkommt. Zukunft existiert nicht als ein reales Objekt; man kann nicht auf sie zeigen, man kann sie nicht ‚riechen‘, ’nicht schmecken‘ …. Zukunft fristet ein verborgenes Dasein in unserem Denken, das da irgendwo in unserem Gehirn stattfindet, das wiederum in unserem Körper eingebettet ist, verborgen von der Außenwelt, damit geschützt. Der Körper bildet ein Ökosystem für das Gehirn. Ohne diesen Körper wäre es nicht lebensfähig. Und darin irgendwie, irgendwo findet das statt, was wir Bewusstsein nennen. Ein schwieriger Begriff. Bis heute weder von Philosophen noch Psychologen noch Neurowissenschaftlern ausreichend definiert, beschrieben, vermessen. Hier, im Bewusstsein, dem schwer Fassbaren, zeigt sich ein Fragment unserer körperlichen Wirklichkeit, zeigen sich die Fragmente unseres Wissens von der Körperwelt.

LEUCHTSPUR DES LEBENS

Wie schon mehrfach im Blog beschrieben, war Kant einer der ersten Philosophen, der das Eingebettet sein des Bewusstseins in übergreifende Strukturen deutlich thematisiert hat (andere Texte, wie z.B. Platons Höhlengleichnis, kann man irgendwie auch so interpretieren, aber doch eher sehr metaphorisch), und es waren Konrad Lorenz und dann viele andere moderne Erkenntnistheoretiker, die den Zusammenhang von Bewusstsein – Gehirn – Körper weiter gedacht haben bis dahin, dass man das Phänomen homo sapiens = Mensch eingereiht hat in den Gestaltenwandel aller Lebensformen, vom vermessbaren Anfangspunkt vor ca. 3.5 Mrd. Jahren bis heute.

BASTELWERKSTATT GEHIRN

Einerseits ist das Gehirn trotz einer Wissenschaft vom Gehirn (meist ‚Neurowissenschaft‘ genannt) weiterhin mehr unbekannt als bekannt. Aus den mittlerweile sicher mehr als viele tausend Artikeln und Büchern zum Gehirn und Bewusstsein gibt es ein paar Themen, die sich durchhalten, ohne dass man sagen kann, sie erklären die Phänomene vollständig. Dazu gehört die Fähigkeit, die Wahrnehmungen der jeweiligen Gegenwart auf spezifische Weise zu ’speichern‘, sie mit späteren Wahrnehmungen ‚zu verrechnen‘, und im Raum dieser Wahrnehmungen und ‚Erinnerungen‘ Muster, Regelmäßigkeiten entdecken zu können. Mittels dieser entdeckten Muster kann unser ‚Denken‘ — das wir bis heute kaum verstehen — dann diese Muster in mögliche andere gedachte ‚Muster‘ verwandeln, in viel komplexere ‚Modelle‘ zusammenbauen, die wir dann als ‚gedachte Suchmuster‘ in die erkennbare Gegenwart zurück ‚projizieren‘ können. Diese ‚gedachten Modelle‘ stellen relativ zur gegebenen Realität der Körper ‚mögliche alternative Zustände‘ dar, die — falls die gedachten Modelle die Wirklichkeit repräsentieren — das repräsentieren, was wir Zukunft nennen.

Die Geschichte des Denkens und dann der späteren modernen empirischen Wissenschaften zeigt, dass praktisch niemand, nicht einmal die empirischen Wissenschaften, bislang in der Lage war und ist, die tatsächlich sich ereignende Realität auch nur annähernd voraus zu sagen. Selbst die physikalische Zukunft des Universums ist gedanklich nicht völlig geklärt.

ENTDECKEN DURCH HERUMPROBIEREN

Bei der Rekonstruktion der Lebensspur aus dem Dunkel der Vergangenheit konzentrieren sich die beteiligten empirischen Wissenschaften verständlicherweise zunächst mal auf das Greifbare, Messbare. Aus einer Unsumme an Einzelaspekten versuchen sie dann, ein Gesamtbild zusammen zu setzen, das ‚für uns‘ einen gewissen ‚Sinn‘ ergibt. Durch die Aufsplittung in viele einzelne wissenschaftliche Perspektiven kommt eine Vielzahl von Aspekten ans Licht, die nicht notwendigerweise harmonieren oder gar von vornherein eine alles übergreifende Linie erkennen lassen. Dies ist in gewisser Weise unvermeidbar und notwendig. Im wissenschaftlichen Rekonstruktionsprozess sollte man nicht zu schnell im Vornherein festlegen, was ‚erkannt werden soll‘, sondern erst einmal darauf einlassen, ‚was sich zeigt‘ (ein Grundsatz auch der phänomenologischen Philosophie bzw. letztlich aller wahren Philosophie). Andererseits können wir aber nur ‚erkennen‘, wenn wir die vielen Details in mögliche Beziehungen einordnen. Das Denken kann nur durch ‚Gedankenspiele‘ im ‚Raum möglicher Beziehungen‘ jene ‚Teilmengen‘ entdecken, die nicht nur ‚denkbar‘ sind, sondern darüber hinaus auch mit der Eigengesetzlichkeit der Körperwelt ‚harmonieren‘, sie ‚widerspiegeln‘, die Eigengesetzlichkeit der Welt repräsentieren, zumindest minimal, soweit, dass man damit ansatzweise Prognosen erstellen kann, Voraussagen über die möglichen Ereignisse in der Körperwelt.

EVOLUTIONÄRE LOGIK

Wie schon öfters in diesem Blog beschrieben, ist diese innere Logik unseres menschlichen Denkens in dieser spezifischen Ausprägung zwar neu, aber nicht ganz neu. Das Leben auf dieser Erde, das BIOM, wie ich es nenne, arbeitet seit 3.5 Mrd. Jahren nach diesem Muster. Seitdem die ersten Zellen auf diesem Planeten existieren — Milliardenfach, Billionenfach –, repräsentieren sie mehrere Prinzipien gleichzeitig, das, was wir evolutionäre Logik nennen können: (i) grundsätzlich können sie sich reproduzieren; (ii) durch die Fähigkeit Moleküle zu bauen, die andere Moleküle als Handlungsanweisung interpretieren können, können sie partiell bisher erfolgreiche Strukturen in die Reproduktion einfließen lassen; (iii) durch die Tatsache, dass die Reproduktion nicht 1:1 stattfindet, sondern sich auf vielfache Weise verändert, erscheint der Fortgang des Prozesses als ein innovativer, kreativer Prozess. In diesem nicht-deterministischem Charakter der Reproduktion werden in jeder Generation von neuen Zellen Teilräume aus dem Gesamtraum der möglichen Zustände aktiviert, deren Überlebenswert im Moment der Auswahl unklar ist, unbekannt. Die nachträgliche Rekonstruktion des Lebens im Rahmen der Evolutionsbiologie und vieler kooperierender Disziplinen enthüllt uns, dass es genau diese Fähigkeit zur Innovation unter Unwissenheit war — und ist? — die das Leben mitten in einer hochdynamischen Umgebung des Planeten Erde mit immer wieder absolut lebensfeindlichen, chaotischen Zuständen im Spiel gehalten hat. Es gibt aber noch zwei weitere Eigenschaften, die fundamental sind: (iv) die Fähigkeit, zu kommunizieren, und (v) die Fähigkeit, zu kooperieren bis hin zur Fähigkeit einer Integration vieler selbständiger Elemente zu einer neuen, symbiotischen Funktionseinheit, die ’nach außen‘ als ein System auftritt, nach innen aber geradezu galaktische Dimension an beteiligten autonomen Akteuren aufweist.

Alle fünf Eigenschaften sind fundamental, aber die vierte und fünfte erweisen sich als jene Faktoren, die zu einer geradezu unfassbaren Komplexitätssteigerung auf dem Planeten Erde geführt haben. Zur Erinnerung: ein menschlicher Körper repräsentiert etwa 120 Galaxien im Format der Milchstraße an Zellen. Zugleich legen Schätzungen nahe, dass es auf der Erde um ein Vielfaches mehr einzellige Lebewesen gibt als Sterne im bekannten Universum. Dies bedeutet, die Erde als scheinbares Nichts in den unendlichen Weiten des Universums ist dennoch der Ort, an dem sich eine Komplexität gebildet hat, die um ein Vielfaches größer ist als das umgebende Universum.

Kennen Sie irgendeinen Menschen in ihrer Umgebung, dem dies bewusst ist?

Kennen Sie irgendeine Publikation, in der diese Sachverhalte ernsthaft diskutiert werden?

Irgendwie haben wir Menschen eine Art ‚blinden Fleck‘, was die Besonderheit von uns selbst betrifft. Zwar hatten die Menschen Jahrtausende ein Gefühl der Besonderheit des Menschen, aber diese Besonderheit hat den Menschen vom Rest der Welt, der Wirklichkeit ‚abgesondert‘ und damit eine wahre, tiefere Erkenntnis verhindert. Als Teil des ganzen BIOMs kommt den Menschen eine besondere Rolle zu, nicht aber als abgesondertes Monster.

… ANDERS ALS WIR DENKEN

Betrachtet man die Kulturgeschichte der letzten ca. 10.000 Jahre, dann ist kaum zu übersehen, dass die Menschen nicht nur dazu tendieren, sich zu vermehren, sondern zugleich auch ihre Lebensweise zu verdichten. Immer wieder brechen sogenannte Großreiche, weil sie es nicht schaffen, die Anforderungen der selbst geschaffenen Komplexität konstant und ausreichend zu bedienen, oder weil die umgebenden Natur durch außergewöhnliche Ereignisse (Vulkanausbruch, Asteroidenabsturz, …) oder durch das Klima die Lebensbedingungen dramatisch verändert bzw. verschlechtert hat. Ganze Reiche, damals ‚Weltreiche‘, sind plötzlich in sich zusammen gebrochen, implodiert; andere haben ihre Stelle eingenommen. Zu keiner Zeit hatten die jeweils Verantwortlichen vorausgesehen, was kommen würde.

Heute erleben wir mehrere Megatrends parallel. (i) Die Vermehrung des homo sapiens schreitet voran und beansprucht den gesamten Planeten; (ii) Die Versuche einer globalen politischen Versöhnung im Konstrukt der Vereinten Nationen wird mehr denn je wieder von separatistischen, nationalistischen Strömungen konterkariert; (iii) die wirtschaftlich getriebene Globalisierung macht die Starken stärker und die Schwachen schwächer; außerdem erodiert sie nationale politische Strukturen; die Faktoren (i) – (iii) zusammen verursachen einen mehr und mehr selbstzerstörerischen Resourcenverbrauch, der begleitet wird von einer globalen Zerstörung des Leben-ermöglichenden BIOMS; zugleich wird die Natur selbst, insbesondere das komplexe und sensible Klimasystem, nachweisbar so gestört, dass die Veränderungen das gewohnte Leben schon jetzt dramatisch bedrohen, und das sind nur die Vorboten von viel dramatischeren Wirkungen. Anschauliche Beispiele gibt es dazu aus der Vergangenheit zur Genüge. Diese kommenden Klimaereignisse werden nicht nur — wie die UN schon vorgerechnet hat — Migrationswellen von 25 und mehr Prozent der Weltbevölkerung annehmen, es wird uns alle betreffen, egal wo, und es wird um das nackte Überleben gehen. Darauf ist niemand vorbereitet.

ZWITTER DIGITALISIERUNG

Was wir erleben ist, dass die Digitalisierung schon jetzt alle Lebensbereiche durchdrungen hat und durch unser alltägliches Handeln über unsere Wahrnehmung schon lange in unser Bewusstsein, in unser Denken eingewandert ist. Die junge Generation kennt schon gar nichts anderes mehr. Sie kann gar nicht anders als zu fühlen und zu denken, dass die Welt so ist, wie sie sich ihr darbietet.

Darüber kann man viel diskutieren, lamentieren, beschwören oder — was die Industrie und Politik zur Zeit bevorzugen — zu Lobpreisen, Hoffnungen zu schüren, goldene Zukünfte zu versprechen. Beides führt uns nicht weiter. Für das Überleben auf diesem Planeten brauchen wir radikale Wahrheiten und — ja, tatsächlich — globale Lösungen.

In diesem Zusammenhang gibt es einen potentiellen Verbündeten für die Zukunft, den so bislang — scheint mir — niemand auf der Rechnung hat.

Der enorme Druck, der wirtschaftlich — und auch politische — ausgeübt wird, immer mehr zu vernetzen, zeigt mittlerweile ein Phänomen, das bislang keiner so recht will: aus rein technischen Gründen ist kein einziges technisches System, das in ein Netzwerk eingebunden ist, wirklich ’sicher‘. Auch ohne Quantencomputer können alle heute benutzen Codes schon mit normalen Rechner in einer praktikablen Zeit entschlüsselt werden und dies wird auch in der Zukunft so sein, da jedes Verschlüsselungsverfahren, das technisch möglich ist, mit der gleichen Technologie auch entschlüsselt werden kann … und dabei ist die Verschlüsselung ja nur ein Moment der Abschottung, die durch viele andere Faktoren verletzt werden kann.

Aus diesem Sachverhalt folgt die Einsicht, dass die Technologie der Zukunft eine Technologie sein muss, die von allen gemeinsam genutzt wird. Separatismus, Nationalismus sind altertümliche Konzepte, die in der Zukunft nicht mehr funktionieren werden. Damit zeigt sich in der technologischen Entwicklung — die Teil der Evolution ist! –, das, was das BIOM schon längst vorlebt: lebensfähig sind nur jene Systeme, die sich in einem trans-galaktischen Maßstab vernetzen können und darin als eine Einheit auftreten.

Die Aufblähung der Sonne ist zwar für unsere menschliche Zeiterfahrung noch ein bisschen weit in der Zukunft (wobei aber auch andere Ereignisse eintreten können, die das Leben auf der Erde kurzerhand auslöschen würden), aber klar ist, dass das Leben auf der Erde nicht dazu gedacht ist, die Eitelkeiten von narzisstischen Machtpolitikern oder die abstrusen Weltbilder von Fundamentalisten zu bedienen, sondern das Leben als ganzes, eben als BIOM, muss seinen Ort im Universum neu bestimmen. Auch wenn wir uns heute das überhaupt nicht vorzustellen vermögen, die gesamte Evolutionslogik hat nur eine Botschaft: das gesamte BIOM mit dem homo sapiens als zentralem Akteur muss als Einheit sich im Universum neu positionieren. Die sogenannten regenerierbaren Energien sind mit Blick auf die Beeinflussung des CO2-Faktors in unserer planetarischen Klimamaschine zwar bis zu einem gewissen Grade sinnvoll, aber nur bis zu einem gewissen Grade. Sobald der Klimawandel anfängt, in seine kritische Phase überzugehen — was faktisch passieren wird — werden Wasser und Luft nicht mehr funktionieren, Sonne unter Vorbehalt. Die Bedingungen auf der Oberfläche des Planeten Erde werden so ungemütlich werden, dass viele heute vertraute Versorgungsstrukturen einfach nicht mehr funktionieren können.

WAHRHEIT IST MEHR ALS MAINSTREAM

Ich bin mir bewusst, dass solche Gedanken aktuell nichts bewirken werden. Der nationale Egoismus der aktuellen Staaten ist zu groß, als dass ein wirklich nachhaltiges Denken und Handeln stattfinden wird. Wir sind für ein Denken über die Zukunft nicht wirklich geschaffen, obwohl der homo sapiens bislang die einzige Lebensform ist, die grundsätzlich über diese Fähigkeit verfügt. Aus meiner Sicht haben wir deswegen für das gesamte BIOM eine Verantwortung… narzisstische Machtpolitiker (und viele Kapitaleigner) wissen aber nicht, was das ist. Sie sehen nur sich selbst …

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

MEDITATION UND MYSTIK. Boxenstop im May 2019

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 13.Juni 2019
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Anlässlich einer Lehrveranstaltung (5.Auflage des Moduls ‚Meditation als kulturelle Praxis‘ (zusammen mit anderen KollegenInnen)) habe ich aus verschiedenen Beiträgen dieses Blogs einen leicht synthetisierenden Text geschrieben, der einige der vielen Aspekte aufgreift, die in diesen Beiträgen thematisiert wurden. Dieser Text bleibt aber auch nur eine Momentaufnahme. Für den Vortrag auf dem nächsten Kongress im Oktober versuche ich, eine weitere Klärung und Synthetisierung. Den Kern des Erlebens – Interpretierens im einzelnen Individuum betrachte ich dort im Rahmen von drei verschiedenen Phasen der Aufklärung. Die dritte Phase der Aufklärung ist jene, in der wir uns gerade befinden und die bislang noch nicht so recht thematisiert wurde.

TEXT ALS PDF

Da der Text für einen Blogeintrag zu lang ist verlinke ich hier auf die PDF-Version: MEDITATION IM BLICKFELD VON PHILOSOPHIE UND WISSENSCHAFT. Version 1.2, 15.Mai 2019. Die Struktur des Textes ist wie folgt:

Vorwort ……………………………………………………7
1 Einführung ……………………………………………9
2 Selbsterfahrung und Gehirn …………………….11
3 Technische Superintelligenz, menschliche
Kognition, Meditation und Mystik …………………13
4 Außen, Innen, Gehirn, Sprache, Meditation ..17
5 Unbewusstes und Freiheit ………………………21
6 Radikales Selbstexperiment ……………………25
7 Verstehensfragen …………………………………27
8 ANHANG: Titelsuche ……………………………31
Bibliographie …………………………………………33
Index …………………………………………………..35

EPILOG

Wenn man davon ausgeht, dass individuelle menschliche Kognition ein fortlaufender Prozess des Wahrnehmens, Interpretierens, Arrangierens ist, durchsetzt von einer Vielzahl von Einflussgrößen, das dann nochmals eingebettet ist in ein gesellschaftliches Netzwerk, das seinen eigenen Einflüssen und Regeln folgt, dann kann man ahnen, dass aktuelle kognitive Zustände nur eine bedingte Geltung haben können. Dennoch brauchen wir Anhaltspunkte, an denen wir unser Verhalten orientieren. Die neuen digitalen Technologien können helfen und sie helfen auch schon massiv, sie alleine aber reichen nicht … trotz aller anders lautender Visionen von der allmächtigen künstlichen Intelligenz … ohne sie wird es nicht gehen, aber nicht so einfach, wie dies zur Zeit vermarktet wird.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

SEITENSPRUNG: Demographie und Philosophie?

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 7.-9.April 2019
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

In den letzten Beiträgen dieses Blogs ging es oft um das Thema Freiheit und die Werte = Präferenzen, die man benötigt, um mit seiner Freiheit eine Richtung einzuschlagen, die dann — vielleicht — Zustände ermöglicht/ erreicht, die im Sinne der Präferenzen gut sind. Zugleich ging es auch um Rahmenbedingungen, die eine Umsetzung der Freiheit ermöglichen oder behindern. Dies mag auf den ersten Blick abstrakt klingen. Hier eines von vielen Beispielen, wie diese Überlegungen sehr schnell sehr konkret werden können. In den letzten Tagen hatte ich zu Übungszwecken (ganz anderer Zusammenhang) ein kleines Computerprogramm geschrieben, das sich auf den ersten Blick mit etwas völlig Unbedeutendem beschäftigt, was sich mit nur drei Zahlen beschreiben lässt. Während ich das tat, merkte ich, dass diese drei Zahlen alles andere als unbedeutend sind, ja, dass sie sogar geradezu eine ‚philosophische Aura‘ besitzen, die viele der Grundfragen, die in diesem Blog schon diskutiert wurden, in einem anderen Licht erscheinen lassen. Diese Eindrücke führten zu diesem Blogeintrag.

PYTHON – Nur Python

Die Programmiersprache des kleinen Computerprogramms war python und das Übungsproblem war die Bevölkerungsentwicklung, allerdings fokussiert auf den minimalen Kern, der nur drei Größen (letztlich Zahlen) berücksichtigte: die aktuelle Bevölkerungsanzahl (p), die jährliche Geburtenrate (br, birthrate) umgelegt auf die Gesamtbevölkerung, und die jährliche Sterberate (dr, deathrate). Diese drei Größen wurden verbunden durch den einfachen Zusammenhang p’=p+(p*br)-(p*dr). (Für die Beschreibung des Programms sowie den Quellkode des Programms selbst siehe die Seite hier mit den ersten fünf Einträgen).(Anmerkung: es geht natürlich noch einfacher, nur die aktuelle Bevölkerungszahl p sowie die gemittelte Wachstumszahl g).

WELTBEZUG?

Was in der Computersprache nur drei verschiedene Zeichenketten sind {‚p‘, ‚br‘, ‚dr‘}, die als Namen für Speicherbereiche dienen, in die man irgendwelche Werte hineinschreiben kann, kann man in Beziehung setzen zur Ausschnitten der realen Welt (RW). Durch diese In-Beziehung-Setzung gibt man den neutralen Zeichenketten eine Interpretation. Im vorliegenden Fall wurde die Zeichenkette ‚p‘ betrachtet als Ausdruck, der die Anzahl der aktuell auf der Welt lebenden Menschen repräsentieren soll. Entsprechend die Zeichenkette ‚br‘ die jährliche Geburtenrate und die Zeichenkette ‚dr‘ die jährliche Sterberate.

Wenn man die entsprechenden Zahlen hat, ist einen Rechnen damit einfach. Wenn man im Computerprogramm — ein ganz normaler Text — den Zusammenhang p’=p+(p*br)-(p*dr) notiert hat, dann kann der Computer mit diesen Zeichenketten ganz einfach rechnen. Sei P=1000, br=1.9 und dr=0.77, dann liefert der Zusammenhang p‘ = 1000 + (1000 * 0.019) – (1000 * 0.0077) = 1000 + 19 – 7.7 = 1011.3, und da es keine Drittel-Menschen gibt wird man abrunden auf 1011. Dies bedeutet, im nachfolgenden Jahr wächst die Bevölkerungszahl um 11 Mitglieder von 1000 auf 1011.

DATENGEWINNUNG

Eine Institution, die seit 1948 begonnen hat, systematisch die demographischen Daten der Weltbevölkerung zu erheben, sind die Vereinigten Nationen (UN). Eine wichtige Seite zur Bevölkerungsentwicklung findet sich hier: http://data.un.org/Default.aspx Für jedes Jahr gibt es dann eine Aktualisierung mit einer Vielzahl von Tabellen, die sehr viele wichtige Parameter beleuchten: https://population.un.org/wpp/Download/Standard/Population/

Beschränkt man sich auf die drei Größen {p, br, dr}, dann kann man anhand dieser Tabellen z.B. folgenden Ausgangsgrößen für die absoluten Bevölkerungszahlen p der Welt von 2010 bis 2015 bekommen:

201020112012201320142015
6 958 169 7 043 009 7 128 177 7 213 426 7 298 4537.383.009

Dazu gibt es als allgemeine Geburtsrate (BR) und Sterberate (DR) für die Zeit 2010 – 2015: BR = 1.9% und BR = 0.77%.

Vertieft man sich in diese Tabellen und die vielen Anmerkungen und Kommentare, wird sehr schnell klar, dass es bis heute ein großes Problem ist, überhaupt verlässliche Zahlen zu bekommen und dass das endgültige Zahlenmaterial daher mit Unwägbarkeiten behaftet ist und nicht ohne diverse Schätzungen auskommt.

DATEN HOCH RECHNEN

Tut man aber für einen Moment mal so, als ob diese Zahlen die Weltwirklichkeit einigermaßen widerspiegeln, dann würde unser kleines Computerprogramm (Version: pop0e.py) folgende Zahlenreihen durch schlichtes Rechnen generieren:

  • Population number ? 6958169

  • Birthrate in % ? 1.9

  • Deathrate in % ? 0.77

  • How many cycles ? 15

  • What is your Base Year ? 2010

  • Year 2010 = Citizens. 6958169

  • Year 2011 = Citizens. 7036796

  • Year 2012 = Citizens. 7116312

  • Year 2013 = Citizens. 7196726

  • Year 2014 = Citizens. 7278049

  • Year 2015 = Citizens. 7360291

  • Year 2016 = Citizens. 7443462

  • Year 2017 = Citizens. 7527573

  • Year 2018 = Citizens. 7612635

  • Year 2019 = Citizens. 7698658

  • Year 2020 = Citizens. 7785653

  • Year 2021 = Citizens. 7873630

  • Year 2022 = Citizens. 7962602

  • Year 2023 = Citizens. 8052580

  • Year 2024 = Citizens. 8143574

  • Year 2025 = Citizens. 8235596

Bild 1: Einfacher Plot der Bevölkerungszahlen von Jahr 1 = 2010 bis Jahr 16 = 2025 (man könnte natürlich die Beschriftung der Achsen erheblich verbessern; zur Übung empfohlen :-))

MÖGLICHE FRAGEN

An dieser Stelle sind viele Fragen denkbar. Mit Blick auf das Freiheitsthema bietet es sich an, den Begriff der Geburtenrate näher zu betrachten.

Geburtenrate und Frauen

Die Geburtenrate hängt (aktuell) von jenen Frauen ab, die Kinder gebären können und dies — unter den unterschiedlichsten Umständen — auch tun. Wie aber die Zahlen aus der Vergangenheit zeigen und wie man aufgrund seiner eigenen Lebenserfahrung weiß, schwanken die Zahlen der Geburten von Gegend zu Gegend, innerhalb des Zeitverlaufs. Es gibt vielfältige Faktoren, die die Anzahl der Geburten beeinflussen.

Dynamik der Evolution

Der grundlegende Faktor ist sicher, dass die biologische Evolution im Laufe von 3.8 Mrd. Jahren bis vor kurzem noch keine andere Lösung für die menschliche Fortpflanzung gefunden hatte als eben die heute bekannte: Befruchtung der Frau und Austragen des befruchteten Eis durch eben die Frau.

Biologisch induzierte gesellschaftliche Rollen

In der Vergangenheit bedeutete dies, dass die weiblichen Exemplare des Homo sapiens generell eine besondere gesellschaftliche Funktion innehatten, da ihre Gebärfähigkeit unabdingbar für das Überleben der jeweiligen Population war. Von daher ist es nicht verwunderlich, dass diese überlebenswichtige Funktion gesellschaftlich mit einer Fülle von gesellschaftlichen Normen und Verhaltensmustern abgesichert wurde. Letztlich waren die Frauen dadurch Gefangene der jeweiligen gesellschaftlichen Verhältnisse und der hohe Anteil an frauenunterdrückenden Elementen in allen Kulturen dieser Welt ist von daher kein Zufall. Dass die Religionen in allen Zeiten und in allen Kulturen dazu instrumentalisiert wurden, die gesellschaftliche Reglementierung der Frauen zu unterstützen, spricht nicht für diese sogenannten Religionen.

Evolutionäres Befreiungspotential

Seit den letzten Jahrzehnten hat die Evolution einen Punkt erreicht, an dem partiell neue Techniken existieren bzw. sich immer mehr als mögliche neue Techniken andeuten, durch die die Fortpflanzung von den Frauen immer mehr losgelöst werden kann, so dass die anhaltende Gefangenschaft der Frauen durch das Gebärprivileg sich lockern oder ganz auflösen könnte. Durch moderne demokratische, säkularisierte und industrialisierte Gesellschaftsformen hat die Befreiung der Frauen aus den klassischen engen Lebensmustern zwar schon begonnen, aber durch die nach hinkende Gebärtechnologie ist die moderne Frau einerseits noch eingebunden in die Gebärverantwortung, andererseits in ein modernes Berufsleben, und die gesellschaftliche Unterstützung für diese Doppelbelastung ist noch vielfach unzureichend.

Veraltete Ethiken

Bislang sind es fragwürdige alte Ethiken, die sich der evolutionären Entwicklung entgegen stellen. Bilder einer statischen Welt werden zum Maßstab genommen für eine Welt, die es so weder jemals gab noch jemals geben wird. Die Welt ist grundlegend anders als die bekannten Ethiken es uns einreden wollen. Neue allgemein akzeptierte Ethiken sind aber aktuell nirgends in Sicht. Die alten Weltbilder haben sich tief in die Gehirne eingenistet. Wo sollen die neuen Sichten herkommen?

Solange die Loslösung der menschlichen Fortpflanzung noch nicht von den Frauen gelöst werden kann, werden sehr viele konkrete Umstände das Entscheiden und Verhalten von Frauen beeinflussen. Je freier eine Gesellschaft wird, je selbstbestimmter eine Frau in solch einer Gesellschaft leben kann, und je mehr einer Frau auch reale materielle Ressourcen zur Verfügung stehen, um so eher wird sie mit entscheiden, ob sie Kinder haben will, wie viele, welche Erziehung, und vieles mehr.

Verunmöglichung von Freiheit

Dass heute Kinder in Situationen geboren werden, wo Armut, Krankheit, Arbeitslosigkeit und vieles mehr unausweichliche Folgen eines unkontrollierten Geborenwerdens sind, ist wohl kaum ethisch zu verantworten. Andererseits verbietet der grundlegende Respekt vor dem Leben, dass Dritte das Leben von anderen ohne deren Zustimmung wegnehmen.

Es obliegt der Gesellschaft als Ganzer, dafür zu sorgen, dass jeder einzelne in die Lage versetzt wird, die richtigen Entscheidungen fällen zu können. Ohne entsprechenden materiellen Aufwand ist eine verantwortlich gelebte Freiheit nicht möglich.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Relektüre von Edelman 1992: Welche Theorie von was?

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 5.Dez. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

 

DAS PROBLEM

Bei der Relektüre von Edelman (siehe Überblick über alle bisherigen Beiträge HIER) stellt sich die Frage, um welche Theorie es hier überhaupt geht?

Es ist ein großes Verdienst von Edelman, dass er versucht, die Gehirnforschung nicht isoliert zu betrachten, sondern sehr wohl im Kontext von Bewusstsein und Verhalten, sehr wohl auch im Kontext einer Evolution des Lebens bzw. auch im Kontext von ontogenetischen Wachstumsprozessen. Als wäre dies noch nicht genug, stellt er gelegentlich auch explizite philosophische Überlegungen an oder wagt sich vor in den Bereich des Engineering, insofern er konkrete materielle Modelle von Gehirnen baut (mittels künstlicher neuronaler Netze), um die Plausibilität seiner Überlegungen zum Gehirn zu überprüfen. Nimmt man all dies ernst, dann findet man sich unversehens in einer Situation wieder, wo man nicht mehr so richtig weiß, um ‚welche Theorie von was‘ es hier eigentlich geht.

PANORAMA VON PHÄNOMENEN

Vom BigBang zum homo sapiens, reflektiert in einer Vielzahl von Einzelwissenschaften

Vom BigBang zum homo sapiens, reflektiert in einer Vielzahl von Einzelwissenschaften

Versucht man die vielen Aspekte irgendwie zu ‚ordnen‘, die im Buch von Edelman aufscheinen, dann eröffnet sich ein breites Panorama von Phänomenen, die alle ineinander greifen (siehe Schaubild), und die – strenggenommen – auch genauso, in diesem dynamischen Zusammenhang, zu betrachten sind, will man die Eigenart dieser Phänomene ‚voll‘ erfassen.

Eigentlich geht es Edelman um ein besseres Verständnis des ‚Gehirns‘. Doch kommt das Gehirn ja schon im Ansatz nicht alleine, nicht isoliert vor, sondern als Teil eines übergeordneten ‚Körpers‘, der von außen betrachtet (Dritte-Person Perspektive) ein dynamisches ‚Verhalten‘ erkennen lässt. Dieses Verhalten ist – im Fall des homo sapiens, also in unserem Fall als Menschen – nicht isoliert, sondern ist sowohl durch ‚Kommunikation‘ mit anderen Menschen ‚vernetzt‘ als auch durch vielfältige Formen von Interaktionen mit einer Welt der Objekte, von Artefakten, von Maschinen, und heute sogar ‚programmierbaren Maschinen‘, wobei letztere ein Verhalten zeigen können, das zunehmend dem menschliche Verhalten ‚ähnelt‘. Ferner konstatieren wir im Fall des homo sapiens in der Ersten-Person Perspektive noch etwas, das wir ‚Bewusstsein‘ nennen, das sich aber nur schwer in seiner Beschaffenheit kommunizieren lässt.

WISSENSCHAFTLICHE DISZIPLINEN

Im Versuch, die Vielfalt der hier beobachtbaren Phänomene beschreiben zu können, hat sich eine Vielzahl von Disziplinen herausgebildet, die sich — neben der Sonderstellung der Philosophie — als ‚wissenschaftliche Disziplinen‘ bezeichnen. ‚Wissenschaftlich‘ heißt hier in erster Linie, dass man die Phänomene des Gegenstandsbereichs nach zuvor vereinbarten Standards reproduzierbar ‚misst‘ und man nur solche so vermessenen Phänomene als Basis weitergehender Überlegungen akzeptiert. Das Paradoxe an dieser Situation ist – was Edelman auf S.114 auch notiert –, dass sich dieses wissenschaftliche Paradigma nur umsetzen lässt, wenn man Beobachter mit Bewusstsein voraussetzt, dass man aber zugleich im Ergebnis der Messung und der Überlegungen von dem ermöglichenden Bewusstsein (samt Gehirn) abstrahiert.

PHILOSOPHIE FÜR DEN ‚REST‘

Eine Konsequenz dieser ‚Abstraktion von den Voraussetzungen‘ ist, dass ein Wissenschaftler letztlich keine Möglichkeit hat, in ‚offizieller‘ Weise, über sich selbst, über sein  Tun, und speziell auch nicht über die Voraussetzungen seines Tuns, zu sprechen. Ein solches sich selbst reflektierende Denken und Sprechen bleibt damit der Philosophie überlassen, die als solche bei der Entstehung der empirischen Wissenschaften offiziell vom Wissenschaftsbetrieb ausgeschlossen wurde. Als Wissenschaftsphilosophie hat die Philosophie zwar immer wieder versucht, sich dem empirischen Wissenschaftsbetrieb offiziell anzunähern, aber bis heute ist das Verhältnis von empirischen Wissenschaften und (Wissenschafts-)Philosophie aus Sicht der empirischen Wissenschaften ungeklärt. Für die empirischen Wissenschaften wundert dies nicht, da sie sich von ihrem methodischen Selbstverständnis her auf ihre isolierte Betrachtungsweisen verpflichtet haben und von diesem Selbstverständnis her sich jeder Möglichkeit beraubt haben, diese Isolation mit den typischen wissenschaftlichen Bordmitteln aufzubrechen. Allerdings produziert dieses ’selbst isolierende Paradigma‘ immer mehr Einzeldisziplinen ohne erkennbaren Zusammenhang! Es ist nur eine Frage der Zeit, bis wann sich diese Explosion der nicht-integrierten Einzelbilder selbst zerstört.

ANSPRUCH, ALLES ZU ERKLÄREN

Die Wissenschaften selbst, allen voran die Physik, kennen sehr wohl den Anspruch, mit ihrer Arbeit letztlich ‚alles aus einer Hand‘ zu erklären (z.B. formuliert als ‚Theory of Everything (ToE)‘ oder mit dem Begriff der ‚Weltformel‘), doch sowohl die konkrete Realität als auch grundlegende philosophische und meta-theoretische Untersuchungen legen eher den Schluss nahe, dass dies vom Standpunkt einer einzelnen empirischen Wissenschaft aus, nicht möglich ist.

VISION EINES RATIONALEN GESAMT-RAHMENS

Um also die Vielfalt der einzelnen wissenschaftlichen Disziplinen zu bewahren, mehr noch, um sie in ihren inhaltlichen und methodischen Beschränkungen untereinander transparent und verständlich zu machen, wird man die (philosophische) Arbeitshypothese aufstellen müssen, dass die Rationalität der Einzelwissenschaften letztlich nur aufrecht erhalten werden kann, wenn man sowohl für jede Einzelwissenschaft wie auch für ihr Zusammenspiel eine rationale Begründung sichtbar machen kann, die für alle ‚gilt‘. Ein solcher Rationalitätsanspruch ist nicht zu verwechsel mit der alten Idee einer einzelwissenschaftlichen ‚Weltformel‘ oder einer einzelwissenschaftlichen ‚Theory of Everything‘. Eher eignet sich hier das Paradigma einer kritischen Philosophie von Kant, die nach der Voraussetzung für den Wahrheitsanspruch einer Theorie fragt. Während Kant allerdings die Frage nach den Voraussetzungen bei den Grenzen des Bewusstseins mangels verfügbarem Wissens enden lassen musste, können wir heute – auch Dank der Arbeiten von Edelman und anderen – diese Grenzen weiter hinausschieben, indem wir die Voraussetzungen des Bewusstseins einbeziehen. Eine solche bewusste Erweiterung der philosophischen Frage nach den Voraussetzungen des menschlichen Erkennens über die Grenzen des Bewusstseins hinaus führt dann nicht nur zum ermöglichenden Gehirn und dem zugehörigen Körper, sondern geht dann weiter zur umgebenden Welt und ihrer Dynamik, die sich im Evolutionsgeschehen und in der Entstehung des bekannten Universums zeigt.

PHILOSOPHIE UND WISSENSCHAFTEN

Die schon immer nicht leichte Aufgabe des philosophischen Denkens wird mit diesen methodischen Erweiterungen keinesfalls einfacher, sondern erheblich schwieriger. Andererseits muss die Philosophie diese Reflexionsarbeit nicht mehr alleine leisten, sondern sie kann die ganze Fülle der einzelwissenschaftlichen Arbeiten aufgreifen, um sie dann in einem gemeinsamen Rationalitätsrahmen neu anzuordnen.

Beispiele für Integrationsbemühungen gibt es sogar seitens der Einzelwissenschaften, wenngleich meistens methodisch wenig überzeugend. So versuchen Gehirnforscher schon seit vielen Jahren Zusammenhänge zwischen messbaren Aktivitäten des Gehirns und des beobachtbaren Verhaltens (unter dem Label ‚Neuropsychologie‘) oder zwischen messbaren Aktivitäten des Gehirns und Erlebnissen des Bewusstseins (kein wirkliches Label; man würde ‚Neurophänomenologie‘ erwarten) heraus zu finden. Bislang mit begrenztem Erfolg.

Bei aller Problematik im Detail kann es aber nur darum gehen, die ungeheure Vielfalt der Phänomene, wie sie die Einzelwissenschaften bislang zutage gefördert haben, vor-sortiert in einer Vielzahl von Arbeitshypothesen, Modellen und Theoriefragmenten, in einen von allen akzeptierbaren Rationalitätsrahmen einordnen zu können, der eine Gesamt-Theorie reflektiert, die als solche möglicherweise immer unvollendet bleiben wird

WOMIT FANGEN WIR AN?

Damit stellt sich ganz praktisch die Frage, wo und wie soll man anfangen? Das Buch von Edelman kann erste Hinweise liefern.

  1. KEINE WISSENSINSELN: Am Beispiel des homo sapiens wird deutlich, dass ein Verständnis von Bewusstsein, Gehirn, Körper, Verhalten und hier insbesondere die symbolische Kommunikation je für sich nicht gelingen kann. Und Edelman demonstriert eindrücklich, dass man zusätzlich die ontogenetische und evolutive Dimension einbeziehen muss, will man zu einem befriedigenden Verständnis kommen.
  2. INTEGRATION VON EINZELWISSEN: Man muss also Wege finden, wie man diese verschiedenen Aspekte in einem gemeinsamen Rationalitätsrahmen so anordnen kann, dass sowohl die einzelwissenschaftliche Methodik gewahrt bleibt, wie auch eine ‚Integration‘ all dieser Aspekte auf einer ‚gemeinsamen Ebene‘ möglich wird, die dabei von den Einzelwissenschaften nicht ‚isoliert‘ ist.
  3. META-WISSEN ALS LEITFADEN: Das geforderte Vorgehen betrachtet die konkreten einzelwissenschaftlichen Erklärungsansätze als einen ‚Gegenstand sui generis‘, macht also die Einzelwissenschaften zu ‚Untersuchungsgegenständen‘. Dies entspricht dem Paradigma der Wissenschaftsphilosophie.
  4. NEUE WISSENSCHAFTSPHILOSOPHIE: Mit Blick auf die Geschichte der modernen Wissenschaftsphilosophie (etwa seit dem Wiener Kreis) muss man dafür offen sein, dass das Paradigma der Wissenschaftsphilosophie für diese Aufgabenstellung möglicherweise neu zu formatieren ist.
  5. KOMMUNIKATIONSPROZESS ALS RAHMEN: So liegt es nahe, zu sagen, es gehe nicht primär um einen isolierten Theoriebegriff, sondern um einen Kommunikationsprozess, der Kommunikationsinhalte generiert, die im Rahmen des Kommunikationsprozesses ‚verstehbar‘ sein sollen.
  6. SYSTEMS-ENGINEERING ALS BEISPIEL: Ein modernes Beispiel für einen problemorientierten Kommunikationsprozess findet sich im Paradigma des modernen Systems-Engineering. Auslöser des Kommunikationsprozesses ist eine ‚Frage‘ oder eine ‚Problemstellung‘, und der Kommunikationsprozess versucht nun durch Ausnutzung des Wissens und der Erfahrungen von allen Beteiligten einen gemeinsames Bild von möglichen Lösungen zu generieren. Zu Beginn werden alle Kriterien kenntlich gemacht, die für die intendierte Lösung berücksichtigt werden sollen.
  7. EINBEZIEHUNG AUTOMATISIERTEN WISSENS: Insbesondere soll der Kommunikationsprozess so ausgelegt sein, dass er den Einsatz moderner Wissenstechnologien wie z.B.. ‚Interaktive Simulationen‘, ‚Kommunikationstests‘, ‚benutzerzentrierte künstliche Intelligenz‘, sowie automatisierte ‚Simulationsbibliotheken‘ erlaubt.

Dies ist nur eine erste, noch sehr vage Formulierung. Es wird notwendig sein, diese anhand von vielen Beispielen weiter zu konkretisieren und zu verfeinern.

 

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 11 – Sprache und Höheres Bewusstsein

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 4.Dez. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

BISHER

Für die bisherige Diskussion siehe die kumulierte Zusammenfassung HIER.

KURZFASSUNG

In direkter Fortsetzung zum vorausgehenden Kapitel über das ‚primäre Bewusstsein‘ führt Edelman in diesem Kapitel jene Bewusstseinsformen ein, die ‚höher‘ sind, da ‚komplexer‘, und die auf dem primären Bewusstsein aufbauen. Zugleich deutet er an, wie sich die Entstehung dieser komplexen Bewusstseinsformen im Rahmen seiner Gehirntheorie erklären lässt (Rückverweis auf Kap.6).

KAP.12 Sprache und Höheres Bewusstsein

  1. Im vorausgehenden Kapitel wurde das ‚primäre Bewusstsein‘ beschrieben, das in der ‚unmittelbaren (sinnlichen) Wahrnehmung‘ fundiert ist, angereichert mit ‚Kommentaren‘ aus dem ‚Inneren‘ des Systems bestehend aus ‚Bedürfnissen‘ einerseits und ‚Erinnerungen‘ andererseits. (vgl. S.124)

  2. Obgleich wir Menschen über ein solches primäres Bewusstsein verfügen, ist festzustellen, dass wir Menschen gleichzeitig über ‚mehr‘ verfügen: wir sind nicht nur fundiert in einer primären kommentierten Wahrnehmung des ‚Jetzt‘, der ‚Gegenwart‘, wir verfügen zugleich auch über die Möglichkeit, die ‚Gegenwart‘ explizit in Beziehung zu setzen zur ‚Erinnerung vorausgehender Gegenwarten‘. Diese Erinnerungen sind aber nicht nur strukturiert durch ‚perzeptuelle Kategorien (angereichert mit ‚Werten‘)‘, sondern auch durch ‚konzeptuelle Kategorien‘, die das ‚höhere Bewusstsein‘ mit Blick ‚auf das primäre Bewusstsein und seinen Kontext‘ ausbilden kann. Neben den schon erwähnten Vergleichen von aktueller Gegenwart und erinnerter (kommentierter) Gegenwart können die Qualia als solche adressiert werden, ihre Eigenschaften, ihre zeitlichen-räumlichen Beziehungen, wie auch eine Kodierung von Qualia mit sprachlichen Elementen (auch Qualia) in Form eines ’symbolischen Gedächtnisses‘: sprachliche Zeichen werden assoziiert mit ihrer ‚Bedeutung‘ in Gestalt von Strukturen von Qualia. Ferner sind diese ‚höheren‘ mentalen Leistungen neuronal über Schleifen mit den primären Schaltkreisen so verknüpft, dass damit die primären Prozesse durch die höheren Prozesse ‚kommentiert‘ werden können. Das primäre Bewusstsein ist dadurch ‚eingebettet‘ in das höhere Bewusstsein, ist damit genuiner Teil von ihm. (vgl. S.124f)

  3. Edelman merkt fragend an, ob es der Versuch der Befreiung von all diesen ‚Kommentierungen‘ vielleicht   ist, was manche ‚Mystiker‘ gemeint haben, wenn sie – auf unterschiedliche Weise – von einem ‚reinen Bewusstsein‘ sprechen. (vgl. S.124)

  4. Während also das ‚primäre‘ Bewusstsein in seiner Prozesshaftigkeit leicht ‚diktatorisch‘ wirken kann, eine einfach stattfindende Maschinerie des primären Klassifizierens von dem, was ’stattfindet‘, ist es aber gerade die Einbettung in das ‚höhere‘ Bewusstsein mit der Möglichkeit der sprachlichen Kodierung, einem Prozess-Determinismus ansatzweise zu entkommen, indem aus dem Strom der Ereignisse unterschiedliche Aspekte (Qualia und deren Beziehungen) ’selektiert‘ und ’sprachlich kodiert‘ werden können. Damit entstehen sekundäre (semantische) Strukturen, die ansatzweise eine ‚eigene‘ Sicht des Systems ermöglichen. Die Unterscheidung zwischen ’sich‘ (’self‘) und ’nicht-sich‘ (’non-self‘) wird möglich. Im Unterschied zu ‚dem Anderen‘ (dem ‚Nicht-Selbst‘) wird ‚das Eigene‘, ein ‚Selbst‘ möglich, das sich über die vielen unterscheidenden Eigenschaften ‚definiert“. (vgl. S.125)

  5. Edelman merkt an, dass die Schimpansen im Vergleich zum homo sapiens zwar offensichtlich auch über das Phänomen eines ‚Selbstbewusstseins‘ verfügen, nicht aber über die flexible Sprachfähigkeit. Damit bleiben sie ‚mental eingesperrt‘ in die vordefinierte Phänomenwelt ihres primären und leicht sekundären Bewusstseins. Sie sind aber nicht in der Lage, die stattfindenden Erlebnisstrukturen zu überwinden. (vgl. S.125)

GESPROCHENE SPRACHE: EPIGENETISCH

  1. Im Folgenden konzentriert sich Edelman auf zwei Aspekte: (i) die Entwicklung jener physiologischen Strukturen, die ein ‚Sprechen‘ wie beim homo sapiens erlauben samt den dazu gehörigen Gehirnstrukturen, (ii) die davon unabhängige Entwicklung von ‚konzeptuellen Strukturen (Kategorien)‘, in denen sich Aspekte des Wahrnehmens, Erinnerns und Bewertens zu Strukturen verdichten können, die dann als ‚Bausteine einer mentalen Welt‘ genutzt werden können. (vgl. S.125f)

  2. Mit Blick auf die  Diskussionen im Umfeld von Chomskys Überlegungen zum Spracherwerb deutet Edelman an, dass es nicht ein einzelner Mechanismus gewesen sein kann, der aus sich heraus die ganze Sprachfähigkeit ermöglicht hat, sondern das ‚Ausdrucksmittel‘ Sprache musste mit seinem ganzen symbolischen Apparat im Körper und im Gehirn ‚eingebettet‘ werden, um in direkter ‚Nachbarschaft‘ zu den informationellen Prozessen des primären und des sekundären Bewusstseins an jene ‚Bedeutungsstrukturen‘ andocken zu können, die dann im symbolischen Gedächtnis so kodiert werden, dass ein Gehirn mit seinen sprachlichen Ausdrücken auf solche Bedeutungsstrukturen Bezug nehmen kann. Im Englischen wird diese ‚Einbettung der Sprache in den Körper‘ ‚embodiment‘ genannt. Im Deutschen gibt es kein direktes begriffliches Äquivalent. ‚Einkörperung‘ der Sprache klingt etwas schräg. (vgl. S.126)

  3. Edelman geht davon aus, dass die grundlegende Fähigkeit zu konzeptueller Kategorienbildung der Ausbildung der Sprachfähigkeit voraus ging, da die Sprachfähigkeit selbst genau diese neuronalen Mechanismen benutzt, um Phoneme (Qualia!) bilden zu können, deren Assoziierung zu komplexen Ausdrücken, und dann deren weitere In-Beziehung-Setzung (oder ‚Assoziierung‘) zu nicht-sprachlichen Einheiten.(vgl. S.126)

  4. [Anmerkung: aufgrund dieses Sachverhalts läge es nahe, die Begriffe ‚primäres‚ und ‚höheres‚ Bewusstsein um einen dritten Begriff zu ergänzen: ‚sekundäres‚ Bewusstsein. Das ‚sekundäre‚ Bewusstsein geht über das primäre Bewusstsein durch seine Fähigkeit zur Bildung von komplexen konzeptuellen Kategorien hinaus. Insofern sich auf der Basis des sekundären Bewusstseins dann z.B. die Fähigkeit zur freien symbolischen Kodierung (vergleichbar der Bildung von DNA-Strukturen in Zellen) im Gehirn herausgebildet hat, erweitert sich das sekundäre Bewusstsein zum ‚höheren (= sprachlichen)‘ Bewusstsein.]

  5. ‚Sprache‘ war und ist primär ‚gesprochene Sprache‘ (’speech‘). Damit dies möglich wurde, mussten erhebliche anatomische Änderungen am Körperbau stattfinden, die zudem im Vollzug im Millisekundenbereich (!) aufeinander abgestimmt sein müssen: die Lungen zur Erzeugung eines hinreichenden Luftstroms in Abstimmung mit der Speiseröhre, die Stimmbänder, der Mund- und Rachenraum als Resonatoren und Filter, dazu die Zunge, die Zähne und die Lippen als Modifikatoren des Klangs; dies alles muss zusammenwirken, um das hervor bringen zu können, was wir die Ausdrucksseite der (gesprochenen) Sprache nennen. Entsprechend muss es Zentren im Gehirn geben, die das ‚Hören von Sprache, das ‚Artikulieren‘ von Sprache sowie ihre ’semantische Kodierung‘ ermöglichen, wobei die semantische Kodierung in den Kontext eines umfassenden komplexen kognitiven Prozesses eingebettet sein muss. (vgl. S.126f)

  6. Bei der Ausbildung der ‚Synchronisierung‘ von sprachlichen Ausdrücken mit den diversen Bedeutungsanteilen vermutet Edelman, dass am Anfang die Parallelisierung von ‚Objekten‘ und ‚Gegenstandswörtern‘ (’nouns‘) stand. Danach die Parallelisierung von ‚Veränderungen, Handlungen‘ mit ‚Verben‘. Dann folgten weitere Verfeinerungen der ‚Syntax‘ parallel zu entsprechenden Situationen. (vgl. S.127)

  7. Generell nimmt Edelman also an, dass die primären Mechanismen der Konzeptualisierungen und der zugehörigen anatomischen Ausprägungen ‚genetisch‘ induziert sind, dass aber die Ausbildung von bestimmten symbolischen Strukturen und deren Zuordnung zu möglichen Bedeutungsmustern ‚epigenetisch“ zustande kommt.(vgl. SS.127-131)

  8. Aufgrund der durchgängig rekursiven Struktur der neuronalen Strukturen können alle phonologischen und semantischen Konzepte und deren mögliche Assoziationen wiederum zum Gegenstand von Kategorisierungen einer höheren Ebene werden, so dass es eben Phoneme, Phonemsequenzen, Wörter, Satzstrukturen und beliebig weitere komplexe Ausdrucksstrukturen geben kann, denen entsprechend semantische Strukturen unterschiedlicher Komplexität zugeordnet werden können. Aufgrund einer sich beständig ändernden Welt würde es keinen Sinn machen, diese Kodierungen genetisch zu fixieren. Ihr praktischer Nutzen liegt gerade in ihrer Anpassungsfähigkeit an beliebige Ereignisräume. Ferner ist zu beobachten, dass solche Sequenzen und Kodierungen, die sich mal herausgebildet haben und die häufiger Verwendung finden, ‚automatisiert‘ werden können. (vgl. S.130)

  9. Nochmals weist Edelman auf die Schimpansen hin, die zwar ein primäres und sekundäres Bewusstsein zu haben scheinen (inklusive einem ‚Selbst‘-Konzept), aber eben kein Sprachsystem, das flexible komplexe Kategorisierungen mit einer entsprechenden Syntax erlaubt.(vgl. S.130)

  10. Auch ist es offensichtlich, dass das Erlernen von Sprache bei Kindern aufgrund der parallelen Gehirnentwicklung anders, einfacher, nachhaltiger verläuft als bei Erwachsenen, deren Gehirne weitgehend ‚gefestigt‘ sind. (vgl. S.130f)

  11. Während die gesprochene Sprache evolutionär (und heute noch ontogenetisch) die primäre Form der Sprachlichkeit war, können bei Vorliegen einer grundlegenden Sprachfähigkeit die auch andere Ausdrucksmittel (Gesten, Schrift, Bilder, …) benutzt werden. (vgl. S.130)

HÖHERES BEWUSSTSEIN

  1. Nach all diesen Vorüberlegungen soll die Frage beantwortet werden, wie es möglich ist, dass uns  ‚bewusst‘ ist, dass wir ‚Bewusstsein haben‘?(vgl. S.131)

  2. Generell sieht Edelman die Antwort gegeben in dem Fakt, dass wir die erlebbare ‚Gegenwart‘ (the ‚immediate present‘) in Beziehung setzen können zu ‚Erinnerungen (von vorausgehenden Gegenwarten)‘, eingebettet in eine Vielzahl von komplexen Wahrnehmungen als Konzeptualisierungen auf unterschiedlichen ‚Reflexionsstufen‘, vielfach assoziiert mit sprachlichen Ausdrücken. Das ‚Selbst‘ erscheint in diesem Kontext als ein identifizierbares Konstrukt in Relation zu Anderem, dadurch ein ’soziales Selbst‘. (vgl. S.131)

  3. Ein Teil dieser Konzeptualisierungen hat auch zu tun mit der Assoziierung mit sowohl ‚innersystemischen‘ ‚Kommentaren‘ in Form von Emotionen, Stimmungen, Bedürfnisbefriedigungen usw. generalisiert unter dem Begriff ‚innere Werte‚, ein Teil hat zu tun mit der Assoziierung von Interaktionen mit seiner Umgebung, speziell Personen, von denen auch ‚externe Werte‚ resultieren können.(vgl. S.131f)

  4. Alle diese Konzeptualisierungen inklusive deren ‚Konnotation mit Werten‘ benötigen eine ‚Langzeit-Speicherung‘ (‚long-term storage‘), um ihre nachhaltige Wirkung entfalten zu können. (vgl. S.132)

  5. Ein zentrales Element in diesem höheren Bewusstsein ist die Fähigkeit zur Unterscheidung zwischen der aktuell stattfindenden perzeptuellen Wahrnehmung (‚Gegenwart‘) und der konzeptuell vermittelten ‚Erinnerung‘, die es erlaubt, über die ‚Gegenwart‘, die ‚Vergangenheit‘ und eine ‚mögliche Zukunft‘ ’nachzudenken‘. (vgl. S.133)

  6. Die Konkretheit der aktuellen perzeptuellen Wahrnehmung wird durch die konzeptuell aufbereitete erinnerbare Vergangenheit quasi ‚kommentiert‚, in mögliche Beziehungen eingebettet, die als solche dadurch weitgehend ‚bewertet‚ sind.(vgl. S.133)

  7. Aufgrund der stattfindenden komplexen Prozesse, die dem Gehirn ‚bewusst‘ sind, gibt es so etwas wie ein ‚inneres Leben‚, das aufgrund der unterschiedlichen Erfahrungskontexte, der unterschiedlichen Lerngeschichten hochgradig ‚individuell‚ ist.(vgl. S.133)

  8. Paläontologische Untersuchungen legen den Schluss nahe, dass die Entwicklung zu solch einem höheren Bewusstsein, wie es sich beim homo sapiens findet, in extrem kurzer Zeit stattgefunden haben müssen. Man geht davon aus, dass die Entstehung eines höheren Bewusstseins zusammenfällt mit der Entstehung des homo sapiens. (vgl. S.133)

  9. Edelman verweist auf sein Kap.6 um zu sagen, dass die bislang verstandenen Mechanismen des Gehirnwachstums es plausibel erscheinen lassen, dass sich diese Strukturen ausbilden konnten. (vgl. S.133)

  10. Edelman stellt dann wieder die Frage nach dem evolutionären ‚Nutzen/ Vorteil‘ der Ausbildung von solchen Bewusstseinsphänomenen.(vgl. S.133)

  11. Für den Fall des primären Bewusstseins sieht er den Vorteil darin, dass schon auf dieser Stufe die Möglichkeit besteht, aus der Vielfalt der Phänomene (realisiert als Qualia) durch die parallel stattfindende ‚Kommentierung‘ der Erlebnisse durch das ‚innere System‘ (sowohl durch die automatisch stattfindende ‚Speicherung‘ wie auch die automatisch stattfindende ‚Erinnerung‘) es möglich ist, jene Aspekte zu ’selektieren/ präferieren‘, die für das System ‚günstiger erscheinen‘. Dies verschafft eine mögliche Verbesserung im Überleben. (vgl. S.133)

  12. Für den Fall des höheren Bewusstseins erweitern sich die Möglichkeiten der ‚In-Beziehung-Setzung‘ zu einer sehr großen Anzahl von unterschiedlichen Aspekten, einschließlich komplexer Modellbildungen, Prognosen, Tests, und die Einbeziehung sozialer Beziehungen und deren ‚Wertsetzungen‘ in die Bewertung und Entscheidung. Ein kurzer Blick in den Gang der Evolution, insbesondere in die Geschichte der Menschheit, zeigt, wie die Komplexität dieser Geschichte in den letzten Jahrzehntausenden gleichsam explodiert ist, [Anmerkung: mit einer exponentiellen Beschleunigung!]. (vgl. S.133-135)

  13. Speziell weist Edelman auch nochmals hin auf das Zusammenspiel von Qualia und Sprache. Während Qualia als solche schon Abstraktionen von perzeptuellen Konkretheiten darstellen sollen, kann ein System im Wechselspiel von Qualia und Sprache ‚Verfeinerungen‘ sowohl in der Wahrnehmung‘ als auch in er ‚Verwendung‘ von Qualia ermöglichen. Gewissermaßen zeigt sich hier die Sprache als eine Art ‚Echoprinzip‘, das Qualia ‚fixiert‘, sie dadurch speziell erinnerbar macht, und einer Verfeinerung ermöglicht, die ohne die sprachliche Kodierung entweder gar nicht erst stattfindet oder aber als ‚flüchtiges Phänomen‘ wieder untergeht. (vgl. S.136)

  14. In den inneren Prozessen des höheren Bewusstseins zeigt sich eine Fähigkeit zum Vorstellen, zum Denken, die durch die impliziten Kategorisierungen und Verallgemeinerungen weit über das ‚Konkrete‘ des primären Bewusstseins hinaus reichen kann. Hierin liegt eine verändernde, kreative Kraft, Fantasie und Mystik. Ob diese zur ‚Verbesserung‘ des Lebens führt oder ‚in die Irre‘, dies lässt sich nicht ‚im Moment‘ erkennen, nur im Nacheinander und in der praktischen ‚Bewährung‘. (vgl. S.136)

DISKUSSION

Zusammenfassend für Kap. 11+12 im nachfolgenden Blogeintrag.

QUELLEN

  • Keine Besonderen

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 10 – Primäres Bewusstsein

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 3.Dez. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

BISHER

Für die bisherige Diskussion siehe die kumulierte Zusammenfassung HIER.

KURZFASSUNG

Edelman stellt zunächst die wichtigsten Anforderungen an die wissenschaftliche Beschreibung des Bewusstseins ganz allgemein zusammen, dann aber auch speziell für das ‚Primäre Bewusstsein‘. Dann gibt er einen Überblick über ein mögliches neuronales Modell, das alle diese Anforderungen erfüllen soll.

KAP.11 Bewussstsein (Consciousness)

THEORIE DES BEWUSSTSEINS: ALLGEMEINE ANNAHMEN

  1. In diesem Kapitel geht es um den Test, ob Edelman mit den bisherigen Überlegungen in der Lage ist, das bekannte Postulat von Descartes über eine ‚denkende Substanz‘ (‚thinking subtance‘) zu überwinden, welche sich dem Zugriff der Wissenschaft entzieht. (vgl. p.111)

  2. Allerdings gibt es die Schwierigkeit, dass das mit ‚Bewusstsein‘ Gemeinte sich bei anderen nur im beobachtbaren Verhalten zeigt, und bei einem selbst ‚ist‘ es ‚einfach da‘, schwer zu erklären.(vgl. p.111)

  3. Nach Zitation von wesentlichen Eigenschaften des Bewusstseins, wie William James sie in seinen ‚Principles of Psychology‚ (1890, Kap.10) anführt, macht Edelman eine Unterscheidung zwischen einem ‚primären Bewusstsein‘ und einem ‚Bewusstsein höherer Ordnung‘.(vgl. p.111f)

  4. Das primäre Bewusstsein bezieht sich ausschließlich auf eine perzeptuell vermittelte Gegenwart von Dingen in der Welt, ohne Vergangenheit und Zukunft. Das Bewusstsein höherer Ordnung übersteigt die perzeptuelle Gegenwart, ist eingebettet in eine Vergangenheit, eine mögliche Zukunft, und ‚weiß von sich selbst‘.(vgl. p.112)

  5. Jedwede ‚Erklärung‘ des Phänomens Bewusstsein muss nach Edelman verträglich sein mit der ‚Evolution‘; sie muss erklären, wie Bewusstsein im Laufe der Evolution ‚entstehen‘ kann, und natürlich auch, wie das Bewusstsein sich zu den anderen ‚mentalen Phänomenen‘ verhält wie z.B. zu ‚Begriffsentwicklung‘, ‚Gedächtnis und Sprache‘.(vgl. p.112f) Natürlich sollen auch die Erkenntnisse der modernen Physik gelten, allerdings ist die Physik aktuell nach Edelman nicht völlig ausreichend, und mögliche ‚Quanteneffekte‘ will er für seinen Erklärungsansatz ausschließen. (vgl. p.113)

  6. Die Annahme, dass das Phänomen ‚Bewusstsein‘ irgendwann in der Evolution sichtbar wird, schließt aus, dass Bewusstsein nur ein ‚Epiphänomen‘ ist. (vgl. p.113)

  7. Im Zustand der ‚Achtsamkeit‘ (?) (‚awareness‘) werden die phänomenalen Zustände von subjektiven Erfahrungen (‚experiences‘), Gefühlen (‚feelings‘) und Empfindungen (’sensations‘) begleitet, die Edelman kollektiv als ‚Qualia‚ bezeichnet. Das ist das, ‚wie es uns erscheint‘ (‚how things seem to us‘). Qualia sind die unterscheidbaren ‚Teile‘ einer ‚mentalen Szene‘, die sich als solche als ‚eine‘ darstellt. Die Qualia können unterschiedlich ‚intensiv‘ und unterschiedlich ‚präzise‘ sein, abhängig von der aktuellen Wahrnehmung (‚perception‘). Im normalen Wachzustand sind die Qualia außerdem begleitet von einer zeitlich-räumlichen Kontinuität, beeinflusst sowohl von einer unmittelbaren Erfahrung wie auch von der individuellen persönlichen Geschichte. Zusätzlich können die Qualia begleitet sein von Gefühlen und Emotionen. (vgl. S.114)

  8. Diese subjektive Natur der Qualia stellt für eine wissenschaftliche Theorie, die eine gemeinsame, objektive, reproduzierbare Datenbasis voraus setzt, ein großes methodisches Problem dar. (vgl. S.114) Es manifestiert sich sogar als ein ‚eindrucksvolles (‚poignant‘) Paradox‚: Jeder Physiker muss in seiner Arbeit sein Bewusstsein, seine subjektiven Wahrnehmungen, seine subjektiven Qualia einsetzen, aber im Reden über die physikalischen Sachverhalte, muss er diese subjektiven Bedingungen ausklammern. (vgl. S.114) Wie lässt sich dieser Befund, dass die phänomenale Erfahrung eine Erste-Person Angelegenheit ist, wissenschaftlich meistern? vgl. S.114f)

  9. Nach Edelman kann man dieses methodische Problem nicht dadurch lösen, dass man von der Fiktion eines qualia-freien Beobachters ausgeht, und er deutet in einem Nebensatz schon an, dass das Problem der sprachlichen Bedeutung nur durch die Einbeziehung des ‚Embodyments‘ von Sprache im Körper verstanden werden kann. (vgl. S.115) Er wird dann sogar noch deutlicher: die Lösung liegt in der hervorstechenden Fähigkeit des Menschen, dass er über ein ‚Selbstbewusstsein‘  gepaart mit einer ‚Sprache‘ verfügt, das ihn in die Lage versetzt, über die pure Gegenwart hinaus Phänomene zu benennen, und Beziehungen herzustellen zwischen den subjektiven Phänomenen und den Erkenntnissen der Physik und Biologie. (vgl. S.115)

  10. Benutzt man die Hypothese, dass Qualia in allen menschlichen Wesen bei ähnlichem Körper und Gehirn verfügbar sind, dann kann man versuchen, auf der Basis der hier vorfindlichen Korrelationen zu einer Theorie der Qualia bzw. des Bewusstseins in Menschen zu kommen. (vgl. S.115)

  11. Allerdings, so Edelman, lässt sich solch eine Theorie des Bewusstseins nur bauen, wenn es neben dem in der Gegenwart verhafteten primären Bewusstsein ein höher-stufiges Bewusstsein gibt, das über die reine Gegenwart hinaus Wahrnehmen und Denken kann und über Sprache verfügt. (vgl. S.115f) Allerdings gilt auch, dass eine ‚qualia-freie Theorie‘ nicht möglich ist. Qualia können von keiner Theorie als ‚Erfahrung‘ einfach so abgeleitet werden; man muss sie als Gegeben annehmen und mit dieser Annahme in kommunikativer Rückkopplung die Theorie des Bewusstseins bauen.(vgl. S.116)

  12. Im Vorblick auf die kommende Darstellung eines höher-stufigen Bewusstseinsmodells merkt Edelman an, dass man Qualia auch verstehen kann als ‚höher-stufige Kategorisierungen‘, die kommunizierbar sind für das ‚Selbst‘, und – etwas schwieriger – für Andere mit ähnlicher mentalen Ausstattung.(vgl. S.116)

THEORIE DES BEWUSSTSEINS: NEURONALES MODELL

Graphische Interprettion von Teilen des Kap.11 von Edelman durch G.Doeben-Henisch

Graphische Interpretation von Teilen des Kap.11 von Edelman durch G.Doeben-Henisch

  1. Nach diesen Überlegungen gibt Edelman nun die erste Version eines neuronalen Modells an, das die von ihm aufgestellten Forderungen an ein primäres Bewusstsein erfüllen soll. (vgl. SS.117-123)

  2. Die Darstellung ist allerdings zu grob, als dass man daraus zu viele Schlüsse ziehen könnte. Klar wird nur, dass er zwei große Pole sieht: (i) die physikalische Außenwelt zum Körper, die über sensorische Signale dem Cortex mit seinen Subsystemen zugeführt wird, parallel, simultan mit vielen primären Kategorisierungen, und dann (ii) das physikalische Innenleben des Organismus, dessen vielfältige Bedürfnislage über das limbische System und über den Thalamus mit den Außenweltereignissen im Rahmen einer weiteren Kategorisierung und zeitlich-räumlichen Aufbereitung als zusammenhängende ‚Szene‘ aufbereitet und ‚bewertet‘ werden kann. Diese Wert-Kategorie-Paare können dann in einem entsprechenden Gedächtnis gespeichert und wieder abgerufen werden. Das Speichern selbst samt der Bewertung gehört aber nicht mehr zum ‚primären Bewusstsein‘; es geschieht außerhalb des Bewusstseins (vgl. S.121, und Schaubild)

  3. In diesem Bild wird das ‚Lernen‘ als ein adaptiver Prozess gesehen, in den die ‚Präferenzen‘ des internen (Selbst-)Systems mit einfließen. (Vgl. S.118)

  4. Das Besondere an der ‚Szene‘ des primären Bewusstseins ist ferner, dass sich hier nicht nur kausale Verknüpfungen finden, sondern auch solche, die durch das Bewertungssystem ‚kommentiert‘ sind. Sie enthalten mögliche Hinweise auf ‚Gefahren‘ oder ‚Belohnung‘. (vgl. S.118, 121)

  5. Evolutionär gilt das ‚innere System‘ (das ‚Selbst-System‘) als älter; es umfasst die primären Erhaltungsfunktionen.(vgl. S.118f)

  6. Generell schätzt Edelman, dass es ein primäres Bewusstsein mit den zugehörigen neuronalen Strukturen ab ca. 300 Mio gibt. (vgl. S.123)

DISKUSSION

Die Diskussion zum Kapitel über das primäre Bewusstsein wird im Anschluss an die Besprechung von Kap.12 zum ‚höherstufigen Bewusstsein‘ geführt, da beide Themen eng zusammen hängen.

QUELLEN

  • James, W. (1890). The Principles of Psychology, in two volumes. New York: Henry Holt and Company.
  • James, W. (1950). The Principles of Psychology, 2 volumes in 1. New York: Dover Publications.
  • James, W. (1983). The Principles of Psychology, Volumes I and II. Cambridge, MA: Harvard University Press (with introduction by George A. Miller).
  • URL: http://psychclassics.yorku.ca/James/Principles/index.htm

 

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

KI UND BIOLOGIE. Blitzbericht zu einem Vortrag am 28.Nov.2018

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
29.Nov. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE AKTUALISIERUNG: 1.Dez.2018, Anmerkung 1

KONTEXT

Im Rahmen einer öffentlichen Veranstaltung des Fachbereichs 2 ‚Informatik & Ingenieurwissenschaften‘ der Frankfurt University of Applied Sciences am 28.November 2018 mit dem Rahmenthema „Künstliche Intelligenz – Arbeit für Alle?“ hielt Gerd Doeben-Henisch einen kurzen Vortrag zum Thema „Verändert KI die Welt?“ Voraus ging ein Vortrag von Herrn Helmut Geyer „Arbeitsmarkt der Zukunft. (Flyer zur Veranstaltung: FRA-UAS_Fb2_Karte_KI-Arbeit fuer alle_Webversion )

EINSTIEG INS KI-THEMA

Im Kontext der Überlegungen zur Arbeitswelt angesichts des technologischen Wandels gerät die Frage nach der Rolle der Technologie, speziell der digitalen Technologie — und hier noch spezieller der digitalen Technologie mit KI-Anteilen – sehr schnell zwischen die beiden Pole ‚Vernichter von Arbeit‘, ‚Gefährdung der Zukunft‘ einerseits und ‚Neue Potentiale‘, ‚Neue Arbeit‘, ‚Bessere Zukunft‘, wobei es dann auch einen dritten Pol gibt, den von den ‚übermächtigen Maschinen‘, die die Menschen sehr bald überrunden und beherrschen werden.

Solche Positionen, eine Mischungen aus quasi-Fakten, viel Emotionen und vielen unabgeklärten Klischees, im Gespräch sachlich zu begegnen ist schwer bis unmöglich, erst Recht, wenn wenig Zeit zur Verfügung steht.

Doeben-Henisch entschloss sich daher, das Augenmerk zentral auf den Begriff ‚Künstliche Intelligenz‘ zu lenken und die bislang uneinheitliche und technikintrovertierte Begrifflichkeit in einen größeren Kontext zu stellen, der das begrifflich ungeklärte Nebeneinander von Menschen und Maschinen schon im Ansatz zu überwinden sucht.

ANDERE DISZIPLINEN

Viele Probleme im Kontext der Terminologie der KI im technischen Bereich erscheinen hausgemacht, wenn man den Blick auf andere Disziplinen ausweitet. Solche andere Disziplinen sind die Biologe, die Mikrobiologie sowie die Psychologie. In diesen Disziplinen beschäftigt man sich seit z.T. deutlich mehr als 100 Jahren mit komplexen Systemen und deren Verhalten, und natürlich ist die Frage nach der ‚Leistungsfähigkeit‘ solcher Systeme im Bereich Lernen und Intelligenz dort seit langem auf der Tagesordnung.

Die zunehmenden Einsichten in die unfassbare Komplexität biologischer Systeme (siehe dazu Beiträge in diesem Blog, dort auch weitere Links), lassen umso eindrücklicher die Frage laut werden, wie sich solche unfassbar komplexen Systeme überhaupt entwickeln konnten. Für die Beantwortung dieser Frage wies Doeben-Henisch auf zwei spannende Szenarien hin.

KOMMUNIKATIONSFREIE EVOLUTION

Entwicklungslogik vor der Verfügbarkeit von Gehirnen

Entwicklungslogik vor der Verfügbarkeit von Gehirnen

In der Zeit von der ersten Zelle (ca. -3.8 Mrd Jahren) bis zur Verfügbarkeit hinreichend leistungsfähiger Nervensysteme mit Gehirnen (ab ca. -300.000, vielleicht noch etwas früher) wurde die Entwicklung der Lebensformen auf der Erde durch zwei Faktoren gesteuert: (a) die Erde als ‚Filter‘, was letztlich zu einer bestimmten Zeit geht; (b) die Biomasse mit ihrer Reproduktionsfähigkeit, die neben der angenäherten Reproduktion der bislang erfolgreichen Baupläne (DNA-Informationen) in großem Umfang mehr oder weniger starke ‚Varianten‘ erzeugte, die ‚zufallsbedingt‘ waren. Bezogen auf die Erfolge der Vergangenheit konnten die zufälligen Varianten als ’sinnlos‘ erscheinen, als ’nicht zielführend‘, tatsächlich aber waren es sehr oft diese zunächst ’sinnlos erscheinenden‘ Varianten, die bei einsetzenden Änderungen der Lebensverhältnisse ein Überleben ermöglichten. Vereinfachend könnte man also für die Phase die Formel prägen ‚(Auf der dynamischen Erde:) Frühere Erfolge + Zufällige Veränderungen = Leben‘. Da zum Zeitpunkt der Entscheidung die Zukunft niemals hinreichend bekannt ist, ist die Variantenbildung die einzig mögliche Strategie. Die Geschwindigkeit der ‚Veränderung von Lebensformen‘ war in dieser Zeit auf die Generationsfolgen beschränkt.

MIT KOMMUNIKATION ANGEREICHERTE EVOLUTION

Nach einer gewissen ‚Übergangszeit‘ von einer Kommunikationsfreien zu einer mit Kommunikation angereicherte Evolution gab es in der nachfolgenden Zeit die Verfügbarkeit von hinreichend leistungsfähigen Gehirnen (spätestens mit dem Aufkommen des homo sapiens ab ca. -300.000)[1], mittels deren die Lebensformen die Umgebung und sich selbst ‚modellieren‘ und ‚abändern‘ konnten. Es war möglich, gedanklich Alternativen auszuprobieren, sich durch symbolische Kommunikation zu ‚koordinieren‘ und im Laufe der letzten ca. 10.000 Jahren konnten auf diese Weise komplexe kulturelle und technologische Strukturen hervorgebracht werden, die zuvor undenkbar waren. Zu diesen Technologien gehörten dann auch ab ca. 1940 programmierbare Maschinen, bekannt als Computer. Der Vorteil der Beschleunigung in der Veränderung der Umwelt – und zunehmend auch der Veränderung des eigenen Körpers — lies ein neues Problem sichtbar werden, das Problem der Präferenzen (Ziele, Bewertungskriterien…). Während bislang einzig die aktuelle Erde über ‚Lebensfähig‘ ‚oder nicht Lebensfähig‘ entschied, und dies das einzige Kriterium war, konnten die  Lebewesen mit den neuen Gehirnen  jetzt eine Vielzahl von Aspekten ausbilden, ‚partielle Ziele‘, nach denen sie sich verhielten, von denen oft erst in vielen Jahren oder gar Jahrzehnten oder gar noch länger sichtbar wurde, welche nachhaltigen Effekte sie haben.

Anmerkung 1: Nach Edelman (1992) gab es einfache Formen von Bewusstsein mit den zugehörigen neuronalen Strukturen ab ca. -300 Mio Jahren.(S.123) Danach hätte es  also ca. 300 Mio Jahre gedauert, bis   Gehirne, ausgehend von einem ersten einfachen Bewusstsein, zu komplexen Denkleistungen und sprachlicher Kommunikation in der Lage waren.

LERNEN und PRÄFERENZEN

Am Beispiel von biologischen Systemen kann man fundamentale Eigenschaften wie z.B. das ‚Lernen‘ und die ‚Intelligenz‘ sehr allgemein definieren.

Systematisierung von Verhalten nach Lernen und Nicht-Lernen

Systematisierung von Verhalten nach Lernen und Nicht-Lernen

In biologischer Sicht haben wir generell Input-Output-Systeme in einer unfassbar großen Zahl an Varianten bezüglich des Körperbaus und der internen Strukturen und Abläufe. Wie solch ein Input-Output-System intern im Details funktioniert spielt für das konkrete Leben nur insoweit eine Rolle, als die inneren Zustände ein äußerlich beobachtbares Verhalten ermöglichen, das wiederum das Überleben in der verfügbaren Umgebung ermöglicht und bezüglich spezieller ‚Ziele‘ ‚erfolgreich‘ ist. Für das Überleben reicht es also zunächst, einfach dieses beobachtbare Verhalten zu beschreiben.

In idealisierter Form kann man das Verhalten betrachten als Reiz-Reaktions-Paare (S = Stimulus, R = Response, (S,R)) und die Gesamtheit des beobachtbaren Verhaltens damit als eine Sequenz von solchen (S,R)-Paaren, die mathematisch eine endliche Menge bilden.

Ein so beschriebenes Verhalten kann man dann als ‚deterministisch‘ bezeichnen, wenn die beobachtbaren (S,R)-Paare ’stabil‘ bleiben, also auf einen bestimmten Reiz S immer die gleiche Antwort R erfolgt.

Ein dazu komplementäres Verhalten, also ein ’nicht-deterministisches‘ Verhalten, wäre dadurch charakterisiert, dass entweder (i) der Umfang der Menge gleich bleibt, aber manche (S,R)-Paare sich verändern oder (ii) der Umfang der Menge kann sich ändern. Dann gibt es die beiden interessanten Unterfälle (ii.1) es kommen nach und nach neue (S,R)-Paare dazu, die ‚hinreichend lang‘ ’stabil‘ bleiben, aber ab einem bestimmten Zeitpunkt ‚t‘ sich nicht mehr vermehren (die Menge der stabilen Elemente wird ‚eingefroren‘, ‚fixiert‘, ‚gezähmt‘, …), oder (ii.2) die Menge der stabilen (S,R)-Paare expandiert ohne Endpunkt.

Bezeichnet man diese Expansion (zeitlich ‚befristet‘ oder ‚unbefristet‘) als ‚Lernen‘, dann wird sichtbar, dass die ‚Inhalte des Lernens‘ (die korrespondierenden Repräsentationen der (S,R)-Paare in den internen Zuständen des Systems) einmal davon abhängen, was die Umgebung der Systeme ‚erlaubt‘, zum anderen, was die ‚inneren Zustände‘ des Systems an ‚Verarbeitung ermöglichen‘, sowie – sehr indirekt – über welche welche ‚internen Selektionskriterien‘ ein System verfügt.

Die ‚internen Selektionskriterien‘ werden hier kurz ‚Präferenzen‘ genannt, also Strategien, ob eher ein A oder ein B ’selektiert‘ werden soll. Wonach sich solche Kriterien richten, bleibt dabei zunächst offen. Generell kann man sagen, dass solche Kriterien primär ‚endogen‘ begründet sein müssen, dass sie aber nachgeordnet auch von außen (‚exogen‘) übernommen werden können, wenn die inneren Kriterien eine solche Favorisierung des exogenen Inputs ‚befürworten‘ (Beispiel sind die vielen Imitationen im Lernen bzw. die Vielzahl der offiziellen Bildungsprozesse, durch die Menschen auf bestimmte Verhaltens- und Wissensmuster trainiert (programmiert) werden). Offen ist auch, ob die endogenen Präferenzen stabil sind oder sich im Laufe der Zeit ändern können; desgleichen bei den exogenen Präferenzen.

Am Beispiel der menschlichen Kulturen kann man den Eindruck gewinnen, dass das Finden und gemeinsame Befolgen von Präferenzen ein bislang offenes Problem ist. Und auch die neuere Forschung zu Robotern, die ohne Terminierung lernen sollen (‚developmental robotics‘), hat zur Zeit das Problem, dass nicht ersichtlich ist, mit welchen Werten man ein nicht-terminiertes Lernen realisieren soll. (Siehe: Merrick, 2017)) Das Problem mit der Präferenz-Findung ist bislang wenig bekannt, da die sogenannten intelligenten Programme in der Industrie immer nur für klar definierte Verhaltensprofile trainiert werden, die sie dann später beim realen Einsatz unbedingt einhalten müssen.  Im technischen Bereich spricht man hier oft von einer ’schwachen KI‘. (Siehe: VDI, 2018) Mit der hier eingeführten Terminologie  wären dies nicht-deterministische Systeme, die in ihrem Lernen ‚terminieren‘.

INTELLIGENZ

Bei der Analyse des Begriffs ‚Lernen‘ wird sichtbar, dass das, was gelernt wird, bei der Beobachtung des Verhaltens nicht direkt ’sichtbar‘ ist. Vielmehr gibt es eine allgemeine ‚Hypothese‘, dass dem äußerlich beobachtbaren Verhalten ‚interne Zustände‘ korrespondieren, die dafür verantwortlich sind, ob ein ’nicht-lernendes‘ oder ein ‚lernendes‘ Verhalten zu beobachten ist. Im Fall eines ‚lernenden‘ Verhaltens mit dem Auftreten von inkrementell sich mehrenden stabilen (S,R)-Paaren wird angenommen, das den (S,R)-Verhaltensformen ‚intern‘ entsprechende ‚interne Repräsentationen‘ existieren, anhand deren das System ‚entscheiden‘ kann, wann es wie antworten soll. Ob man diese abstrakten Repräsentationen ‚Wissen‘ nennt oder ‚Fähigkeiten‘ oder ‚Erfahrung‘ oder ‚Intelligenz‘ ist für die theoretische Betrachtung unwesentlich.

Die Psychologie hat um die Wende zum 20.Jahrhundert mit der Erfindung des Intelligenztests durch Binet und Simon (1905) sowie in Weiterführung durch W.Stern (1912) einen Ansatz gefunden, die direkt nicht messbaren internen Repräsentanten eines beobachtbaren Lernprozesses indirekt dadurch zu messen, dass sie das beobachtbare Verhalten mit einem zuvor vereinbarten Standard verglichen haben. Der vereinbarte Standard waren solche Verhaltensleistungen, die man Kindern in bestimmten Altersstufen als typisch zuordnete. Ein Standard war als ein Test formuliert, den ein Kind nach möglichst objektiven Kriterien zu durchlaufen hatte. In der Regel gab es eine ganze Liste (Katalog, Batterie) von solchen Tests. Dieses Vorgehensweisen waren sehr flexibel, universell anwendbar, zeigten allerdings schon im Ansatz, dass die Testlisten kulturabhängig stark variieren konnten. Immerhin konnte man ein beobachtbares Verhalten von einem System auf diese Weise relativ zu vorgegebenen Testlisten vergleichen und damit messen. Auf diese Weise konnte man die nicht messbaren hypothetisch unterstellten internen Repräsentationen indirekt qualitativ (Art des Tests) und quantitativ (Anteil an einer Erfüllung des Tests) indizieren.

Im vorliegenden Kontext wird ‚Intelligenz‘ daher als ein Sammelbegriff für die hypothetisch unterstellte Menge der korrespondierenden internen Repräsentanten zu den beobachtbaren (S,R)-Paaren angesehen, und mittels Tests kann man diese unterstellte Intelligenz qualitativ und quantitativ indirekt charakterisieren. Wie unterschiedlich solche Charakterisierung innerhalb der Psychologie modelliert werden können, kann man in der Übersicht von Rost (2013) nachlesen.

Wichtig ist hier zudem, dass in diesem Text die Intelligenz eine Funktion des Lernens ist, das wiederum von der Systemstruktur abhängig ist, von der Beschaffenheit der Umwelt sowie der Verfügbarkeit von Präferenzen.

Mehrdimensionaler Raum der Intelligenzrpräsentanen

Mehrdimensionaler Raum der Intelligenzrpräsentanen

Aus Sicht einer solchen allgemeinen Lerntheorie kann man statt biologischen Systemen auch programmierbare Maschinen betrachten. Verglichen mit biologischen Systemen kann man den programmierbaren Maschinen ein Äquivalent zum Körper und zur Umwelt spendieren. Grundlagentheoretisch wissen wir ferner schon seit Turing (1936/7), dass programmierbare Maschinen ihr eigenes Programm abändern können und sie prinzipiell lernfähig sind. Was allerdings (siehe zuvor das Thema Präferenz) bislang unklar ist, wo sie jeweils die Präferenzen herbekommen sollen, die sie für eine ’nachhaltige Entwicklung‘ benötigen.

ZUKUNFT VON MENSCH UND MASCHINE

Im Licht der Evolution erscheint die  sich beschleunigende Zunahme von Komplexität im Bereich der biologischen Systeme und deren Populationen darauf hinzudeuten, dass mit der Verfügbarkeit von programmierbaren Maschinen diese sicher nicht als ‚Gegensatz‘ zum Projekt des biologischen Lebens zu sehen sind, sondern als eine willkommene Unterstützung in einer Phase, wo die Verfügbarkeit der Gehirne eine rapide Beschleunigung bewirkt hat. Noch bauen die biologischen Systeme ihre eigenen Baupläne  nicht selbst um, aber der Umbau in Richtung von Cyborgs hat begonnen und schon heute ist der Einsatz von programmierbaren Maschinen existentiell: die real existierenden biologischen Kapazitätsgrenzen erzwingen den Einsatz von Computern zum Erhalt und für die weitere Entwicklung. Offen ist die Frage, ob die Computer den Menschen ersetzen sollen. Der Autor dieser Zeilen sieht die schwer deutbare Zukunft eher so, dass der Mensch den Weg der Symbiose intensivieren wird und versuchen sollte, den Computer dort zu nutzen, wo er Stärken hat und zugleich sich bewusst sein, dass das Präferenzproblem nicht von der Maschine, sondern von ihm selbst gelöst werden muss. Alles ‚Böse‘ kam in der Vergangenheit und kommt in der Gegenwart vom Menschen selbst, nicht von der Technik. Letztlich ist es der Mensch, der darüber entscheidet, wie er die Technik nutzt. Ingenieure machen sie möglich, die Gesellschaft muss entscheiden, was sie damit machen will.

BEISPIEL EINER NEUEN SYMBIOSE

Der Autor dieser Zeilen hat zusammen mit anderen KollegenInnen in diesem Sommer ein Projekt gestartet, das darauf abzielt, dass alle 11.000 Kommunen in Deutschland ihre Chancen haben sollten, ihre Kommunikation und Planungsfähigkeit untereinander dramatisch zu verbessern, indem sie die modernen programmierbaren Maschinen in neuer ‚intelligenter‘ Weise für ihre Zwecke nutzen.

QUELLEN

  • Kathryn Merrick, Value systems for developmental cognitive robotics: A survey, Cognitive Systems Research, 41:38 – 55, 2017
  • VDI, Statusreport Künstliche Intelligenz, Oktober 2018, URL: https://www.vdi.de/vdi-statusbericht-kuenstliche-intelligenz/ (zuletzt: 28.November 2018)
  • Detlef H.Rost, Handbuch der Intelligenz, 2013: Weinheim – Basel, Beltz Verlag
  • Joachim Funke (2006), Kap.2: Alfred Binet (1857 – 1911) und der erste Intelligenztest der Welt, in: Georg Lamberti (Hg.), Intelligenz auf dem Prüfstand. 100 Jahre Psychometrie, Vandenhoek & Ruprecht
  • Alfred Binet, Théodore Simon: Methodes nouvelles pour le diagnostiqc du niveau intellectuel des anormaux. In: L’Année Psychologique. Vol. 11, 1904, S. 191–244 (URL: https://www.persee.fr/doc/psy_0003-5033_1904_num_11_1_3675 )
  • William Stern, Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkinder, 19121: Leipzig, J.A.Barth
  • Alan M. Turing, On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, 42(2):230–265, 1936-7
  • Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

EPISTEMISCHE SCHOCKWELLEN. Die letzten 3500 Jahre

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 20.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Die Diskussion im Kontext des letzten Textes von Freud zur Psychoanalyse lässt erkennen, wie sich das Bild von uns Menschen über uns selbst dadurch in gewisser Weise ändern kann und letztlich dann ändert, wenn wir uns auf diese Gedanken einlassen. Die Einbeziehung des ‚Unbewussten‘ in das Gesamtbild des Systems homo sapiens verschiebt so manche Beziehungen im Gefüge des menschlichen Selbstbildes, und nicht nur das, es wirkt sich auch aus auf das Gesamtbild der empirischen Wissenschaften, auf ihr Gesamtgefüge. Dies hatte sich ja auch schon angedeutet in der vorausgehenden Diskussion des Buches von Edelman, die noch nicht abgeschlossen ist.

Dies hat mich angeregt, über Freud und Edelman hinausgehenden einige der epistemischen Schockwellen zusammen zu stellen, denen das menschliche Selbstverständnis in den letzten ca. 3500 Jahren ausgesetzt war. Dabei muss man sich darüber im Klaren sein, dass es natürlich immer nur eine Minderheit war, die überhaupt an den übergreifenden Erkenntnissen teilhaben konnte, und selbst diese Minderheit zerfällt in unterschiedliche Subgruppen ohne ein kohärentes Gesamtbild.

EPISTEMISCHE SCHOCKWELLEN

Unter ‚Schockwellen‘ werden hier energetische Ereignisse verstanden, die nur gelegentlich auftreten, und die geeignet sind, bestehende Strukturen zumindest zum Schwingen, zum Erbeben zu bringen, wenn nicht gar zu ihrer Zerstörung führen. ‚Epistemisch‘ bezieht sich auf die Dimension des Erkennens, des Verstehens, zu dem Exemplare des Homo sapiens fähig sind. ‚Epistemische Schockwellen‘ sind also Ereignisse, durch die das Selbstverständnis, die Weltbilder der Menschen in Schwingungen versetzt wurden bzw. sich neu aufbauen mussten.

Die folgende Zusammenschau solcher epistemischer Schockwellen ist in keiner Weise vollständig, weitgehend nicht differenziert genug, rechtfertigt sich aber dadurch, dass es darum geht in einer überschaubaren Weise einen Grundeindruck von der Dynamik des Geistes zu vermitteln, die dem Geschehen des biologisch fundierten Lebens innewohnt.

CLUSTER RELIGION

 

Stichworte zu 'Epistemische Schockwellen', Teil 1. ca. -1500 bis ca. 1500

Stichworte zu ‚Epistemische Schockwellen‘, Teil 1. ca. -1500 bis ca. 1500

Zwischen ca. -1500 bis etwa 650 gab mindestens 8 große das Weltverstehen prägende Ereignisse – daneben viele andere, weitere –, die wir im Nachgang als ‚Religionen‘ bezeichnen. Religionen zeichnen sich aus durch ‚Gründer‘, durch ‚Botschaften‘, durch ‚Erfahrungen‘ und dann meistens nachfolgend durch ‚Regeln‘ und Bildung von ‚Organisationsformen‘. Sie erheben einen Anspruch auf ‚Deutung der Welt‘ mit ‚Sinn‘, ‚Werten‘ und ‚Spielregeln‘. Sie versprechen auch den Kontakt zu eine Letzten, Größten, Umfassenden, Endgültigen, dem alles andere unter zu ordnen ist. Vielfach gehen diese Versprechungen auch einher mit speziellen ‚außergewöhnlichen Erlebnissen‘, die im einzelnen stattfinden.

In Vorderasien und Europa waren dies vor allem das Duo Judentum-Christentum und der Islam. Während diese sich explizit auf einen ‚Schöpfer‘ bezogen, kam der indische Subkontinent neben der vielfältigen Götterwelt des Hinduismus in seinem Grundtenor — realisiert im Buddhismus — ohne einen expliziten Schöpfer aus, allerdings nicht ohne eine tiefgreifende Existenzerfahrung des einzelnen Menschen, der sich durch einen geeigneten Lebensstil und Meditation möglichst weitgehend von einem normalen Alltag und seinen vielfältigen Spannungen isolierte.

So verschieden Jugentum-Christentum, Islam auf der einen Seite und Indischer Existentialismus auf der anderen Seite auf den ersten Blick wirken können, kann man aber dennoch auffällige strukturelle Parallelen erkennen.

Die sprachliche Seite der genannten Religionen tendiert dazu, nicht die Weite und Vielfalt der Welt zu kommunizieren, keine weiterreichende Erkenntnisse, sondern die Sprache hat einzig den Zweck, eine bestimmte, abgegrenzte Idee zu kommunizieren, diese abzugrenzen von allem anderen, bis dahin, dass alle Abweichungen diskreditiert werden. Jene Menschen, die sich sprachlich von der ‚Norm‘ entfernen sind Abweichler, Dissidenten, Ungläubige, Verräter, Feinde. Die Sprache wird also nicht gesehen als ein offener, lebendiger, dynamischer Raum von ‚Wahrheit‘, die sich weiter entwickeln kann, sondern als eine symbolische Fessel, eine symbolische Mauer, die einige wenige Ideen abgrenzen sollen. Auch der Buddhismus, der eigentlich sein Fundament in einer schwer beschreibbaren individuellen Existenzerfahrung sieht, praktiziert Sprache überwiegend als Gefängnis.

Betrachtet man sich die Geschichte dieser Religionen bis heute, dann ist diese Starrheit unübersehbar. Alle modernen Erkenntnisse und Entwicklungen prallen an der Sprache dieser Religionen ab.

Neben der sprachlichen Dimension haben alle diese Religionen auch eine ‚Erlebnisdimension‘, oft auch ‚Spiritualität‘ oder ‚Mystik‘ genannt. Einzelne, Gruppierungen, Bewegungen erzähltem davon, schrieben es auf, dass sie ‚besondere, tiefgreifende Erlebnisse‘ hatten, die ihnen ‚klar gemacht haben‘, was wirklich ‚wichtig‘ ist, ‚worin der Sinn des Lebens‘ liegt, Erlebnisse, die ihnen ‚Frieden‘ geschenkt haben, ‚Erfüllung‘, ‚Wahrheit‘. Und diese Erlebnisse waren immer so stark, dass sie diese Menschen aus allen Schichten dazu bewegt haben, ihr Lebens radikal zu ändern und von da an eben ‚erleuchtet‘ zu leben. Diese Menschen gab es nicht nur im Umfeld des Buddhismus, sondern auch zu Tausenden, Zehntausenden im Umfeld des Judentum-Christentums.

Solange diese religiösen Bewegungen sich im Umfeld der etablierten religiösen Überzeugungen und Praktiken bewegen wollten, mussten sie sich – wie immer auch ihre individuellen Erlebnisse waren – diesem Umfeld anpassen. In vielen Fällen führte dies auch zu Absetzbewegungen, zur Entwicklung neuer religiöser Bewegungen. Das Problem dieser erlebnisbasierten Bewegungen war, dass sie entweder nicht die Sprache benutzen durften, die sie zur Beschreibung ihrer Erlebnisse brauchten (da nicht erlaubt), oder aber, sie benutzten eine neue Sprache, und dies führte zum Konflikt mit den etablierten Sprachspielen.

Unter den vielen hunderten Bewegungen allein im Bereich Judentum-Christentum, die z.T. viele tausend, ja zehntausend  Mitglieder hatten und dabei oft auch materiell sehr wohlhabend bis reich wurden, möchte ich zwei kurz erwähnen: die Reformation angefeuert von Martin Luther und den Jesuitenorden, angefeuert von Ignatius von Loyola. Im historischen Klischee werden beide Bewegungen oft als direkte Gegner skizziert, da der Jesuitenorden kurz nach Beginn der Reformationsbewegung gegründet wurde und der katholische Papst gerade diesen Orden auch zur ‚Bekämpfung der Reformation‘ einsetzte. Dieses Bild verdeckt aber die wirklich interessanten Sachverhalte.

Der Jesuitenorden entstand aus den spirituellen Erfahrungen eines baskischen Adligen, deren innere Logik, Beschreibung und Praxis, im Lichte der Erkenntnisse der modernen Psychologie (und Psychoanalyse) stand halten würde. Außerdem war der Orden aufgrund dieser Spiritualität extrem weltoffen, wissenschaftsaffin, und revolutionierte die damals beginnende christliche Missionierung der Welt, indem jeweils die Kultur der verschiedenen Erdteile studiert und übernommen und sogar gegen zerstörerische Praktiken der europäischen Kolonisatoren geschützt wurden. Genau dieses wahre Gesicht des Ordens mit einer radikal individuell-erlebnisbasierten Spiritualität und daraus resultierenden Weltoffenheit und Menschlichkeit führte dann zum Verbot und Aufhebung des Ordens weltweit, verbunden mit Einkerkerungen, Folter und Tod ohne Vorankündigung. Das korrupte Papsttum ließ sich damals von dem portugiesischen und spanischen Hof erpressen, die ihre menschenverachtende Geschäfte in den Kolonien, speziell Südamerika, bedroht sahen. Dies war nicht die einzige Aufhebung und Misshandlung, die der Orden seitens des Papstums erfuhr. Während Luther sich gegen das Papsttum erhob und es auf einen Konflikt ankommen ließ, blieben die Jesuiten dem Papst treu und wurden vernichtet.

Diese Minigeschichte ließe sich aber zu einem großen Thema erweitern, da eben die sprachlich fixierten Religionen generell ein Problem mit Wahrheit und damit mit jeglicher Art von Erfahrung haben. Die Akzeptanz individueller Erfahrung als möglicher Quell von ‚Wahrheit‘, möglicherweise einer weiter reichenden alternativen Wahrheit zu der sprachlich fixierten (und damit eingesperrten) Wahrheit der Religionen, eine solche Akzeptanz würde das Wahrheitsmonopol dieser Religionen aufheben. Bislang hat keine der genannten Religionen es geschafft, von sich aus ihr problematisches Wahrheitsmonopol in Frage zu stellen.

JUDENTUM – CHRISTENTUM – PHILOSOPHIE

In der Zeit vor den modernen empirischen Wissenschaften existierte wissenschaftliches Denken entweder gar nicht oder in enger Verbindung mit dem philosophischen Denken bzw. der Medizin.

In der alten und klassischen Griechischen Philosopie (ca. -800 bis -200) wurde das Weltverstehen in vielen Bereichen erstmalig sehr grundlegend reflektiert, unabhängig von bestimmten religiösen Überzeugungen, obgleich natürlich auch diese Denker nicht im luftleeren Raum lebten sondern in konkreten Kulturen mit einer damals üblichen Moral, Ethik, Spielregeln, Sprachspielen.

Unter den vielen bedeutenden Konzepten war das größte systematische Konzept wohl jenes von Aristoteles, Schüler Platons, und den an ihn anschließenden Schulen. Während dieses griechische Denken nach der Eroberung Griechenlands durch die Römer in Mittel- und Westeuropa bis zum Jahr 1000 mehr oder weniger unbekannt war (Kriege, radikal anti-wissenschaftliche Einstellung der katholischen Kirche) war der damalige Islam sehr offen für Wissen. Das griechische Denken war im Islam weitgehend bekannt, lag entsprechend in arabischen Übersetzungen vor, und durch eine Vielzahl von Schulen, Bildungsstätten und großen Bibliotheken (z.T. mehrere hundert Tausend Bücher!) wurde dieses Wissen gepflegt und weiter entwickelt (welcher Kontrast zum heutigen Islam!). Und nur über diese Umweg über den hochgebildeten Islam mit Übersetzungsschulen in Spanien kam das Wissen der Griechen ab ca. 1000 wieder in das christliche Mittel- und West-Europa.

Mit dem Entstehen eines aufgeschlosseneren Bildungssystem in Europa wanderten die griechischen Gedanken über Bücher und Gelehrte wieder in europäische Bildungsstätten ein. Es gab eine Zeit der intensiven Auseinandersetzung zwischen bisheriger christlicher Theologie und Aristoteles. Auf dem Höhepunkt der begrifflichen Integration von christlichem Glauben und Aristotelischer Weltsicht gab es aber ‚Abspaltungstendenzen‘ in mehreren Bereichen.

POLITIK – WISSENSCHAFT – SPIRITUALITÄT

Das zunehmend freie und kritische Denken begann mit der Infragestellung der bis dahin waltenden absolutistischen Machtstrukturen.

Das methodisch geschulte universitäre Denken begann, über die aristotelischen Konzepte hinaus zu denken. Anknüpfungspunkte gab es genügend.

Das individuelle Erleben der Menschen, ihre Frömmigkeit, ihre Spiritualität suchte nach neuen Wegen, benutzte eine neue Sprache, um sich besser ausdrücken zu können.

Das neue politische Denken führte später zur französischen Revolution und vielen ähnlichen politischen Erneuerungsbewegungen.

Das neue philosophische Denken führt alsbald zum Bildung der neuen empirischen Wissenschaften mit neuer Logik und Mathematik.

Die neue Spiritualität lies viele neue religiöse Bewegungen entstehen, die quer zu allen etablierten Glaubensformen lagen, u.a. auch zur Reformation.

PHILOSOPHIE – WISSENSCHAFT

Stichworte zu 'Epistemische Schockwellen', Teil2. ca. ca. 1550 bis ca.2018

Stichworte zu ‚Epistemische Schockwellen‘, Teil2. ca. ca. 1550 bis ca.2018

Aus der Vielzahl der philosophischen Denker bieten sich vier besonders an: Descartes, Kant, Wittgenstein und Carnap.

Von heute aus betrachtet markieren diese Vier entscheidende Umbrüche des philosophischen Denkens, das von den Entwicklungen in der Logik, Mathematik,Physik, Geowissenschaften, Biologie und Psychologie zusätzlich profitiert hat und noch immer profitiert.

Descartes versuchte zu klären, inwieweit sich die Wahrheitsfrage nur durch Rekurs auf das eigene Denken lösen ließe. Sein Fixpunkt in der Gewissheit des eigenen Denkens (cogito ergo sum) wurde aber erkauft durch einen fortbestehenden Dualismus zwischen Körper (res extensa) und Denken/ Geist (res cogitans), den er mit einem irrationalen Gedanken zu einer Zirbeldrüse zu kitten versuchte.

Kant führte dieses Forschungsprogramm von Descartes letztlich weiter. Sein Vermittlungsversuch zwischen fehlbarer konkreter empirischer Erfahrung und den allgemeinen Prinzipien der Mathematik und des Denkens (des Geistes) ging über Descartes insoweit hinaus, dass er auf eine Zirbeldrüsen-ähnliche Lösung verzichtete und stattdessen davon ausging, dass der Mensch in seinem Denken von vornherein in abstrakten Kategorien wahrnimmt und denkt. Unsere menschliche Konstitution ist so, dass wir so wahrnehmen und Denken. Er konstatierte damit ein Faktum, das wir heute mit all unseren Erkenntnissen nur bestätigen können. Es blieb bei ihm offen, warum dies so ist. Es zeichnet seine intellektuelle Redlichkeit aus, dass er die offenen Enden seiner erkenntnistheoretischen (epistemischen) Analysen nicht krampfhaft mit irgendwelchen Pseudo-Lösungen versucht hat zu vertuschen.

Wittgenstein war der erste, der sich mit dem Funktionieren der Sprache und ihrer Wechselwirkung mit unserem Denken ernsthaft, ja radikal beschäftigte. Während er in seinem Frühwerk noch der Statik der damaligen modernen Logik huldigte, begann er dann später alle diese statischen formalen Konstruktionen in der Luft zu zerreißen, durchlief weh-tuende detaillierte Analysen der Alltagssprache, machte vor nichts Halt, und hinterließ mit seinem frechen und angstfreien Denken einen Trümmerhaufen, dessen Verdienst es ist, den Raum frei gemacht zu haben für einen echten Neuanfang.

Carnap wirkt in diesem Zusammenhang auf den ersten Blick wie ein Antipode zu Wittgenstein, und in der Tat hat er ja das vor-wittgensteinsche Sprachverständnis in seinen Studien zu den formalen Sprachen, zur Logik, zur logischen Semantik weiter angewendet. Allerdings hat er dies dann auch im Kontext der empirischen Wissenschaften getan. Und in diesem Kontext hat sein formal-scholastisches Denken immerhin dazu beigetragen, die Grundstrukturen moderner empirische Theorien mit einem formalen Kern frei zu legen und ihre Eigenschaften zu untersuchen.

Alle diese genannten Ansätze (Kant, Wittgenstein, Carnap) wurden später mehrfach kritisiert, abgewandelt, weiter entwickelt, aber es waren diese Ansätze, die die nachfolgenden Richtungen entscheidend beeinflusst haben.

Ein interessanter Grenzfall ist Freud (s.u.). Irgendwie könnte man ihn auch zur Philosophie rechnen.

LOGIK – MATHEMATIK

Aus heutiger Sicht kann man sich gar nicht mehr vorstellen, dass es eine Zeit gegeben hat, in der die moderne Logik und Mathematik nicht verfügbar war. Nahezu alles, was unseren Alltag ausmacht setzt sehr viel Mathematik als beschreibende Sprache, als Berechnung, als Simulation voraus. Dass mathematisches Denken in den Schulen so wenig – und immer weniger – behandelt wird, ist sehr irritierend.

Logik und Mathematik sind einen weiten Weg gegangen.

Ein Meilenstein ist der Übergang von der klassischen aristotelischen Logik (eng an der Alltagssprache, Einbeziehung inhaltlichen Alltagsdenkens) zur modernen formalen Logik seit Frege (formale Sprache, formaler Folgerungsbegriff).

Eng verknüpft mit der Entwicklung der neuen formalen Logik ist auch die Entwicklung der modernen Mathematik, die entscheidend mit der Erfindung der Mengenlehre durch Cantor ihren Durchbruch fand, und dann mit Russel-Whitehead und Hilbert die Neuzeit erreichte. Keine der modernen Arbeiten in Gebieten wie z.B. Algebra, Topologie, Geometrie sind ohne diese Arbeiten denkbar, ganz zu schweigen von der modernen theoretischen Physik.

EMPIRISCHE WISSENSCHAFTEN

Erste Ausläufer empirischer Wissenschaft gab es schon vor Galilei (man denke z.B. nur an die bahnbrechenden Forschungen zur Medizin von dem islamischen Gelehrten (und Philosophen, Logiker, Theologen!) Avicenna). Doch an der Person Galileis kristallisiert sich der Konflikt zwischen neuem, offenen wissenschaftlichen Denken und dem alten, geschlossenen christlichen Denken. Zudem hat Galilei eben konsequent sowohl eine experimentelle Messmethode angewendet wie auch eine beginnende mathematische Beschreibung. Mit Newton gelang dann eine Fassung von Experiment und Theorie, die atemberaubend war: die Bewegung der Himmelskörper ließ sich nicht nur mit einfachen mathematischen Formeln beschreiben, sondern auch noch mit bis dahin unbekannter Präzision voraus sagen. Es sollte dann zwar noch fast 300 Jahre dauern, bis die moderne Physik eine erste Theorie zur Entstehung des ganzen Weltalls formulieren konnte samt ersten experimentellen Bestätigungen, aber die Befreiung des Denkens von dogmatischen Sprachbarrieren war geschafft. Die Wissenschaft insgesamt hatte sich freigeschwommen.

Schon im 17.Jahrhundert hatte Niels Stensen entdeckt, dass die unterschiedlichen Ablagerungsschichten der Erde in zeitlicher Abfolge zu interpretieren sind und man daher auf geologische Prozesse schließen kann, die die Erde durchlaufen haben muss.

Zwei Jahrhunderte später, schon im 19.Jahrhundert, wurde diese historische Sicht der Erde ergänzt durch Charles Darwin, der am Beispiel der Pflanzen- und Tierwelt auch Hinweise auf eine Entwicklung der Lebensformen fand. Sowohl die Erde als auch die biologischen Lebensformen haben eine Entwicklung durchlaufen, zudem in enger Wechselwirkung.

Fast parallel zu Darwin machte Freud darauf aufmerksam, dass unser ‚Bewusstsein‘ nicht die volle Geschichte ist. Der viel größere Anteil unseres menschlichen Systems ist ’nicht bewusst‘, also ‚unbewusst‘. Das Bewusstsein ‚erzählt‘ uns nur ‚Bruchstücke‘ jener Geschichten, die weitgehend im ‚Nicht-Bewusstein‘ oder ‚Unbewussten‘ ablaufen.

Die weitere Entwicklung der Biologie lieferte viele Argumente, die das Bild von Freud stützen.

Der Versuch von Watson, 1913, die Psychologie als empirische Verhaltenswissenschaft zu begründen, wurde und wird oft als Gegensatz zu Psychoanalyse gesehen. Das muss aber nicht der Fall sein. Mit der Verhaltensorientierung gelang der Psychologie seither viele beeindruckende theoretische Modelle und Erklärungsleistungen.

Von heute aus gesehen, müsste man ein Biologie – Psychologie – Psychoanalyse Cluster befürworten, das sich gegenseitig die Bälle zuspielt.

Durch die Einbeziehung der Mikro- und Molekularbiologie in die Evolutionsbiologie konnten die molekularen Mechanismen der Evolution entschlüsselt werden.Mittlerweile steht ein fast komplettes Modell der biologischen Entwicklung zur Verfügung. Dies erlaubt es sowohl, Kants (als auch Descartes) Überlegungen von den biologischen Voraussetzungen her aufzuklären (z.B. Edelman!), wie auch die Psychologie samt der Psychoanalyse.

COMPUTER

Als Gödel 1931 die Unentscheidbarkeit anspruchsvoller mathematischer Theorien (das fängt bei der Arithmetik an!) beweisen konnte, wirkte dies auf den ersten Blick negativ. Um seinen Beweis führen zu können, benötigte Gödel aber sogenannte ‚endliche Mittel‘. Die moderne Logik hatte dazu ein eigenes Forschungsprogramm entwickelt, was denn ‚endliche Beweismethoden‘ sein könnten. Als Turing 1936/7 den Beweis von Gödel mit dem mathematischen Konzept eines Büroangestellten wiederholte, entpuppte sich dieses mathematische Konzept später als ein Standardfall für ‚endliche Mittel‘. Turings ‚mathematisches Konzept eines Büroangestellten‘ begründete dann die spätere moderne Automatentheorie samt Theorie der formalen Sprachen, die das Rückgrat der modernen Informatik bildet. Das ‚mathematische Konzept eines Büroangestellten‘ von Turing wurde ihm zu Ehren später ‚Turingmaschine‘ genannt und bildet bis heute den Standardfall für das, was mathematisch ein möglicher Computer berechnen kann bzw. nicht kann.

Im weiteren Verlauf zeigte sich, dass gerade das Konzept des Computers ein extrem hilfreiches Werkzeug für das menschliche Denken sein kann, um die Grenzen des menschlichen Wahrnehmens, Erinnerns und Denkens auszugleichen, auszuweiten.

Schon heute 2018 ist der Computer zu einem unverzichtbaren Bestandteil der Gesellschaft geworden. Das Wort von der ‚Digitalen Gesellschaft‘ ist keine Fiktion mehr.

ZEITGEIST

Der extrem kurze Rückblick in die Geschichte zeigt, wie schwer sich die Ausbildung und Verbreitung von Ideen immer getan hat. Und wenn wir uns die gesellschaftliche Realität heute anschauen, dann müssen wir konstatieren, dass selbst in den hochtechnisierten Ländern die gesamte Ausbildung stark schwächelt. Dazu kommt das eigentümliche Phänomen, dass das Alltagsdenken trotz Wissenschaft wieder vermehrt irrationale, gar abergläubische Züge annimmt, selbst bei sogenannten ‚Akademikern‘. Die Herrschaft von Dogmatismen ist wieder auf dem Vormarsch. Die jungen Generationen in vielen Ländern werden über mobile Endgeräte mit Bildern der Welt ‚programmiert‘, die wenig bis gar nicht zu wirklichen Erkenntnissen führen. Wissen als solches, ist ‚wehrlos‘; wenn es nicht Menschen gibt, die mit viel Motivation, Interesse und Ausdauer und entsprechenden Umgebungen zum Wissen befähigt werden, dann entstehen immer mehr ‚Wissens-Zombies‘, die nichts verstehen und von daher leicht ‚lenkbar‘ sind…

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

DER SPÄTE FREUD UND DAS KONZEPT DER PSYCHOANALYSE. Anmerkung 2

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 18.Sept. 2018

Korrekuren: 18.Sept.2018, 13:20h
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Nachdem ich im vorausgehenden Beitrag den letzten Text von Freud (auf Deutsch) mit dem Englischen Titel (bei Deutschem Text) ‚Some Elementary Lessons in Psycho-Analysis‘ (GW XVII, 1938-40) in der Rekonstruktion von Jürgen Hardt (1996) diskutiert hatte, hier einige weitere Überlegungen, dieses Mal mit direkter Bezugnahme auf den Text von Freud.

DISKUSSION

Modellvorschlag zu Freuds letztem Text zur Psychoanalyse

BILD: Modellvorschlag zu Freuds letztem Text zur Psychoanalyse

 

MODELL PSYCHOANALYSE

  1. Nach den bisherigen Überlegungen zu Freuds Position bietet es sich an, versuchsweise ein – noch sehr allgemeines – MODELL zu formulieren, das die wichtigen Begriffe von Freud in Beziehung setzt
  2. Im Kern geht es um den Begriff des SEELISCHEN, den Freud in die Komponenten BEWUSSTSEIN (BW) und UNBEWUSSTES (-BW) aufspaltet. In gewisser Weise kann man das Unbewusste als ‚Komplement‘ zum Bewusstsein sehen, da das Bewusstsein der einzige Referenzpunkt für das System homo sapiens darstellt, relativ zu dem alles andere unbewusst ist. Präziser wäre wohl der Ausdruck ’nicht bewusst‘ oder NICHT-BEWUSSTSEIN.
  3. Sowohl das Bewusstsein wie das Nicht-Bewusstsein gehören zum System homo sapiens, der sich in seinem KÖRPER manifestiert.
  4. Generell kann man davon ausgehen, dass das System homo sapiens INPUT-EREIGNISSE realisieren kann, die durch verschiedene STIMULI Ereignisse von außerhalb des Körpers ausgelöst werden können.
  5. Ebenso ist es so, dass bestimmte interne Körperereignisse – hier MOTORISCHE Ereignisse oder OUTPUT Ereignisse genannt – über die Körperoberfläche sich als VERÄNDERUNGEN der Körperoberfläche manifestieren können, die meistens als AKTIONEN klassifiziert werden oder gar als SPEZIFIZIERTE ANTWORTEN, RESPONSES.
  6. Interessant ist die Annahme von Freud, dass sich nur Teile des Nicht-Bewusstseins an das Bewusstsein mitteilen können (im Bild durch einen Pfeil angedeutet). Der Rest des Nicht-Bewusstseins teilt sich nicht dem Bewusstsein mit.
  7. Jetzt wird es spannend: Man könnte jetzt im Modell die weiteren Annahmen machen, dass es zwischen jenem Teil des Nicht-Bewusstseins, das sich dem Bewusstsein mitteilen kann – nennen wir es -BW+ – und jenem Teilen des Nicht-Bewusstseins, das sich nicht mitteilt – nennen wir diesen Teil -BW- –, dennoch eine Wechselwirkung gibt. Dies würde es erklären, warum Anteile des Nicht-Bewusstseins sich indirekt auf das Gesamtsystem auswirken können, ohne zunächst im Bewusstsein aufzutreten, dann aber – z.B. im Verlaufe der Therapie – plötzlich im Bewusstsein ‚greifbar‘ werden.
  8. Dieser Sachverhalt kann durch die weitere Annahme differenziert werden, dass möglicher Input von außen sich simultan beiden Komponenten des Nicht-Bewusstseins (-BW+, -BW-) mitteilen kann, wie auch umgekehrt beide Komponenten ein äußerliches Verhalten verursachen können (z.B. das Fehlverhalten, die Hypnoseexperimente, Arten des Redens und Verhaltens (Stimmfärbung, Form der Bewegung, …)), das als SIGNAL des NICHT-BEWUSSTSEINS fungieren kann. Dies würde z.B. erklären, warum Menschen in der Gegenwart anderer Menschen in ganz unterschiedliche ‚Stimmungen‘ geraten können, obgleich die ausgetauschten Worte keinerlei Hinweise für diese Gestimmtheit liefern. Vom Nicht-Bewusstsein verursachte Signale können im Nicht-Bewusstsein des Anderen innere Prozesse, Zustände verursachen, die sich dann in Form bestimmter Gefühle, Stimmungen, Emotionen äußern. Dies sind – zumindest berichten dies die Psychotherapeuten – sehr oft, fast immer ? – , dann der entscheidende Hinweis auf ‚verdeckt wirkende‘ Faktoren. Ohne das Nicht-Bewusstsein bleiben die objektiven ‚Signale‘ ‚unerkannt‘, sind dann eben keine ‚Signale‘ mit Referenz.
  9. So einfach dieses Modell ist, so weitreichend sind seine möglichen Konsequenzen.
  10. Da dieses Modell eine Arbeitshypothese ist, mit der man empirische Phänomene ‚deuten können soll‘, kann man es überprüfen und bekräftigen oder abschwächen bzw. dann ablehnen.

HIERARCHIE DER GEGENSTANDSBEREICHE

Das Schaubild deutet auch an, dass wir es mit einer impliziten Hierarchie von Gegenstandsbereichen zu tun haben. Der Homo sapiens ist Teil eines umfassenden Phänomens von biologischem Leben, das mit seiner Geschichte (der Evolution) ein Teilprozess auf dem Planet Erde ist, der sich als Teil des Sonnensystems herausgebildet hatte, das wiederum innerhalb der Galaxie Milchstraße entstanden ist, die sich wiederum im Prozess des bekannten Universums herausgebildet hat. Bedenkt man, dass die Anzahl der Galaxien irgendwo im Bereich von 200 Milliarden (2×1011) bis 2 Billionen (2×1012) liegt und eine einzelne Galaxie wiederum zwischen einige hundert Millionen (108) oder gar 100 Billionen (1014) Sterne haben kann (mit noch viel mehr Exoplaneten!), dann ist der Ausschnitt an körperlicher Wirklichkeit, die unser Sonnensystem mit der Erde bietet, atemberaubend ‚klein‘, man möchte sagen ‚winzig‘, so winzig, dass uns dafür die geeigneten Worte fehlen, da unser Alltag für solche Relationen keine direkten Beispiele bietet. Nur unser Denken und die Mathematik kann uns helfen, zumindest ansatzweise eine Vorstellung dazu auszubilden.

Allerdings, diese körperliche Kleinheit kann über etwas anderes hinweg täuschen, das möglicherweise ein noch größeres Wunder sein kann.

Wie die Wissenschaft erst seit wenigen Jahren weiß, besteht ein menschlicher Körper aus ca. 36 Billionen (10^12) Körperzellen, ca. 110 Billionen Bakterien im Darm und ca. 200 Milliarden Bakterien auf der Haut, d.h. ein menschlicher Körper besitzt an Zellen die Komplexität von ca. 700 Galaxien mit jeweils 200 Milliarden Sternen! Noch dramatischer wird der Kontrast, wenn man das Volumen eines menschlichen Körpers zu dem Volumen von 700 Galaxien in Beziehung setzt. Man kommt auf ein Verhältnis von ca. 1 : 10^64 !!! Anders gewendet, das Phänomen des Biologischen stellt eine unfassbare Verdichtung von Komplexität dar, deren Bedeutung und Konsequenz für das Verständnis von ‚Natur‘ bislang kaum so richtig (wenn überhaupt) gewürdigt wird.

Diese mit Worten gar nicht beschreibbare Verdichtung von Komplexität im Phänomen des Biologischen hat auch damit zu tun, dass wir es im Übergang von den ‚vor-biologischen‘ Strukturen zu den biologischen Strukturen mit einem grundlegenden Paradigmenwechsel zu tun haben. Während wir im Bereich physikalischer Strukturen Materieverdichtungen nur durch das bislang wenig verstandene Phänomen der ‚Gravitation‘ feststellen können (die nach sehr einfachen Regeln ablaufen), präsentiert das ‚Biologische‘ neuartige Prozesse und Strukturen, mit einer konstant zunehmenden ‚Verdichtung‘, die nach völlig neuartigen Regeln ablaufen. Mit Gravitation lässt sich hier nichts mehr erklären. Diese neue Qualität materieller Strukturen und Prozesse auf die einfacheren Gesetze der bekannten Physik zu ‚reduzieren‘, wie es oft gefordert wurde, ist nicht nur grober Unfug, sondern vernichtet gerade die Besonderheit des Biologischen. Der Übergang von Physik zur Astrobiologie und dann zur Biologie ist daher ein qualitativer: im Biologischen finden wir völlig neue Phänomene, die sich an der beobachtbaren Funktionalität manifestieren. ‚Emergenz‘ würde hier bedeuten, dass wir es hier mit qualitativ neuen Phänomenen zu tun haben, die sich nicht auf die Gesetze ihrer Bestandteile reduzieren lassen.

Aufgrund der schier unfassbaren Vielfalt und Komplexität des Biologischen, das in seiner körperlichen Winzigkeit eine universale Komplexität realisiert, die die bekannten astronomischen Größen letztlich sprengt, ist es sicher nicht verwunderlich, dass sich zum Phänomen des Biologischen viele verschiedene Wissenschaften ausgebildet haben, die versuchen, Teilaspekte irgendwie zu verstehen. Da der ‚Kuchen der Komplexität‘ so unfassbar groß ist, findet jeder etwas interessantes. Allerdings sollte man sich bewusst sein, dass diese vielen Disziplinen in ihrer heutigen Zersplitterung etwas auseinanderreißen und zerstückeln, das letztlich zusammen gehört.

So ist auch die Psychologie mit ihrer Spezialdisziplin Psychoanalyse letztlich kein Sonderbereich, wenngleich die hier anfallenden Phänomene tierischer und menschlicher Systeme anscheinend nochmals eine Steigerung an neuen funktionalen Phänomenen bieten.

HIERARCHIE DER WISSENSCHAFTEN

Es wäre die Aufgabe einer modernen Philosophie und Wissenschaftsphilosophie die Einheit der Phänomene und Wissenschaften wieder herzustellen. Sicher ist dies nichts, was eine einzelne Person schaffen kann noch kann dies in wenigen Jahren stattfinden. Vermutlich muss die ganze Wissenschaft neu organisiert werden, sodass letztlich alle kontinuierlich an dem Gesamtbild mitwirken.

Das, was für die Physik vielleicht die dunkle Materie und die dunkle Energie ist, die bislang ein wirkliches Gesamtbild entscheidend verhindert, dies ist für die Wissenschaft überhaupt das Problem, dass die Wissenschaftler und Philosophen, die sich um eine rationale Erklärung der Welt bemühen, letztlich selbst auch Bestandteil eben jener Wirklichkeit sind, die sie erklären wollen. Solange die empirischen Wissenschaften diesen fundamentalen Faktor aus ihrer Theoriebildung ausklammern, solange werden sie sich nur an der Oberfläche von Phänomenen bewegen und die wirklich interessanten Phänomene, die über Biologie, Psychologie und Philosophie ins Blickfeld geraten, werden bis auf weiteres außen vor bleiben.

QUELLEN

Hardt, Jürgen (1996), Bemerkungen zur letzten psychoanalytischen Arbeit Freuds: ‚Some Elementary Lessons in Psycho-Analysis‘, 65-85, in: Jahrbuch der Psychoanalyse, Bd.35, Frommann-holzboog

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Reflexion auf den Begriff ‚Fitness‘

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 13.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE ÄNDERUNG: 1.Dez.2018, Wiederholung der vorausgehenden Diskussion gestrichen. Kumulierte Zusammenfassungen sind HIER.

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

 

Im Anschluß an Kap.8 von Edelman sei hier hochmals explizit der Aspekt der ‚Fitness‘ herausgegriffen. Da die Mechanismen hinter diesem Begriff in seinem Text etwas unklar bleiben.

ZWISCHENREFLEXION: BEGRIFF ‚FITNESS‘

  1. Außer dem bislang Gesagten (siehe oben Punkte 1-44) ist es vielleicht hilfreich, sich klar zu machen, wie genau das Zusammenspiel zwischen der Fitness biologischer Systeme und den jeweiligen Umgebungen beschaffen ist.
  2. Ein grundlegender Tatbestand ist jener, dass die Umgebung der biologischen Systeme auf der Erde von Anfang an eben die Erde war und ist bzw. das Sonnensystem bzw. unsere Milchstraße bzw. das gesamte bekannte Universum. Diese Vorgabe ist für alle biologische Systeme bislang nicht verhandelbar. Wenn ein biologisches System sich behaupten will, dann in diesem konkreten Ausschnitt des Universums und nirgendwo sonst.
  3. Zugleich wissen wir, dass die Erde seit ihrer Entstehung samt Sonnensystem und dem ganzen Kontext zu allen Zeiten ein hochdynamisches System war und ist, das im Laufe von Milliarden Jahren viele dramatische Änderungen erlebt hat. Sich in dieser Umgebung zu behaupten stellt eine schier unfassbare Leistung dar.
  4. Ob sich im Laufe der Zeit eine bestimmte Lebensform L auf der Erde ‚behaupten‘ oder gar ‚vermehren‘ konnte, hing einzig davon ab, ob diese Lebensform L im Laufe der Generationen in der Lage war, hinreichend viele Nachkommen unter den konkreten Bedingungen der Umgebung zu erzeugen und am Leben zu erhalten. Die Anzahl der Nachkommen einer Generation der Lebensform L kann von daher als Bezugspunkt zur Definition eines ‚Fitness-Wertes‚ bzw. dann der ‚Fitness‘ einer Lebensform genommen werden. Eine häufige Schematisierung dieser Sachverhalte ist die folgende:
  5. POP(t+1) = o(POP(t)), t>0 := Die Population ‚POP‘ zum Zeitpunkt t+1 ist das Ergebnis der Anwendung der Populationsgenerierungsfunktion ‚o‘ auf die Population zum Zeitpunkt ‚t‘, wobei ‚t‘ größer als 0 sein muss. Die Funktion ‚o‘ kann man dann weiter analysieren:
  6. o=e x c := Die Populationsgenerierungsfunktion ‚o‘ ist das Ergebnis der Hintereinanderausführung der beiden Teilfunktionen ‚e‘ (‚earth-function‘) und ‚c‘ (‚change-funtion‘). Diese kann man weiter analysieren:
  7. e : 2^(POP^2) x 2^POP x EARTH —–> POP := Die earth-function e nimmt Paare von Individuen (potentielle Eltern) der Population, zusätzlich kann es beliebig andere Individuen der Population geben (Jäger, Beute, Artgenossen…), und dann die Erde selbst mit ihren Eigenschaften, und transformiert daraus nachfolgende Individuen, Abkömmlinge. Es ist schwer zu sagen, ‚wer‘ hier über Leben und Tod entscheidet: einerseits legen die konkreten Bedingungen der Erde und die Art der Zeitgenossen fest, unter welchen Bedingungen eine Lebensform überleben kann, andererseits hängt ein Überleben auch davon ab, welche ‚Eigenschaften‘ eine Lebensform besitzt; ob diese leistungsfähig genug sind, unter den gegebenen Bedingungen ‚leben‘ zu können. Nimmt man die Population der Lebensformen als ‚Generator‘ neuer Formen (siehe nächsten Abschnitt), dann wirkt die konkrete Erde wie eine Art ‚Filter‘, das nur jene ‚durchlässt‘, die ‚passen‘. ‚Selektion‘ wäre dann ein ‚emergentes‘ Phänomen im radikalen Sinne, da dieses Phänomen nur im Zusammenspiel der beiden Faktoren ‚Erde‘ und ‚Population‘ ’sichtbar‘ wird. Ohne dieses Zusammenspiel gibt es kein Kriterium für ‚Überlebensfähigkeit‘. Ferner wird hier deutlich, dass das Kriterium ‚Fitness‘ bzw. ‚Überlebensfähigkeit‘ kein absolutes Kriterium ist, sondern sich zunächst nur auf den Lebensraum ‚Erde‘ beschränkt. In anderen Bereichen des Universums könnten ganz andere Kriterien gelten und dort müsste die Lebensformen u.U. Einen ganz anderen Zuschnitt haben.
  8. Ferner  wird hier sichtbar, dass der ‚Erfolg‚ einer bestimmten Lebensform als Teil des gesamten Biologischen letztlich sehr ‚partiell‚ ist, weil bei Änderungen der Zustände auf der Erde bislang erfolgreiche Lebensformen (berühmtes Beispiel die Dinosaurier) vollstänig verschwinden können; andere Lebensformen als Teil des Biologischen können dann aber plötzlich neu in den Vordergrund treten. (berühmtes Beispiel die Säugetiere).  Offen ist die Frage, ob es spezielle Lebensformen — wie z.B. den homo sapiens — gibt, die aufgrund ihrer hervorstechenden Komplexität im Kontext des Biologischen eine irgendwie geartete ‚besondere Bedeutung‘ besitzen. Aktuell erwecken die Wissenschaften den Eindruck, als ob es hier keine feste Meinung gibt: die einen sehen im homo sapiens etwas Besonderes, das auf eine spezielle Zukunft verweist, andere sehen im homo sapiens eine von vielen möglichen speziellen Lebensformen, die bald wieder verschwinden wird, weil sie sich der eigenen Lebensgrundlagen beraubt.
  9. c : cross x mut := die ‚change-function‘ c besteht auch aus zwei Teilfunktionen, die hintereinander ausgeführt werden: die erste Teilfunktion ist eine Art Überkreuzung genannt ‚crossover‘ (‚cross‘), die zweite ist eine Art Mutation genannt ‚mutation‘ (‚mut‘).
  10. cross : POP x POP —–> POP := In der Überkreuzfunktion ‚cross‘ werden die Genotypen von zwei verschiedenen Individuen ‚gemischt‘ zu einem neuen Genotyp, aus dem ein entsprechend neuer Phänotyp hervorgehen kann.
  11. mut : POP —–> POP := In der Mutationsfunktion kann eine zufällige Änderung im Genotyp eines Individuums auftreten, die unter Umständen auch zu Änderungen im Phänotyp führt.
  12. Idealerweise kann man die change-function c isoliert von der Umgebung sehen. Realistischerweise kann es aber Wechselwirkungen mit der Umgebung geben, die auf die change-function ‚durchschlagen‘.

  13. Fasst man alle Faktoren dieser – stark vereinfachten – Populationsgenerierungsfunktion ‚o‘ zusammen, dann wird auf jeden Fall deutlich, dass beide Systemedie Erde und das Biologische – einerseits unabhängig voneinander sind, dass sie aber faktisch durch die Gegenwart des Biologischen auf der Erde (und im Sonnensystem, in der Milchstraße, …) in einer kontinuierlichen Wechselwirkung stehen, die sich dahingehend auswirkt, dass das Biologische eine Form annimmt, die zur Erde passt. Grundsätzlich könnte das Biologische aber auch andere Formen annehmen, würde es in einer anderen Umgebung leben.
  14. Um die Populationsgenerierungsfunktion noch zu vervollständigen, braucht man noch eine ‚Bootstrapping Funktion‘ ‚boot-life()‘, mittels der überhaupt das Biologische auf der Erde ‚eingeführt‘ wird:
  15. boot-life : EARTH —–> EARTH x POP (auch geschrieben: POP(t=1) = boot-life(POP(t=0)) ):= wie die allerneuesten Forschungen nahelegen, konnten sich unter bestimmten Bedingungen (z.B. unterseeische Gesteinsformationen, vulkanisches Wasser, …) verschiedene Molekülverbände zu komplexen Molekülverbänden so zusammen schließen, dass irgendwann ‚lebensfähige‘ – sprich: reproduktionsfähige – Zellen entstanden sind, die eine Anfangspopulation gebildet haben. Auf diese Anfangspopulation kann dann die Populationsgenerierungsfunktion ‚o‘ angewendet werden.

Fortsetzung folgt HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.