Archiv der Kategorie: Gehirn ermöglicht Bewusstsein

REAL-VIRTUELL. Ein Einschub

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 1.Februar 2021 (Zuletzt 1.2.2021, 13:45h)
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

KONTEXT

Den wenigsten Menschen ist bewusst, dass das Bild von der Welt, das sie haben, nicht tatsächlich die Welt ist, wie sie unabhängig vom Gehirn (=real) ist, sondern die Welt, die das Gehirn von der Welt da draußen aus all den sensorischen und bislang gespeicherten Daten (Gedächtnis) zusammen rechnet (=virtuell). Dies erklärt, warum die gleiche Welt (da draußen) von verschiedenen Menschen so total verschieden wahrgenommen werden kann.

AUSSEN – INNEN

Übersichtsbild zu Außen-Innen. Zur Erläuterung siehe Text.

Der Begriff Außen ist letztlich nur sinnvoll im Gegensatz zu einem aufzeigbaren Innen. Beispiel für solch ein aufzeigbares Innen ist das menschliche Bewusstsein, das wiederum verweist auf kognitive Zustände unseres Gehirns, das sich in unserem Körper befindet.

Für uns als Menschen ist zunächst das subjektive Erleben unserer Bewusstseinsinhalte wie das Erleben selbst (einschließlich Denken, Vorstellen, Erinnern usw.) primär real. Im Laufe des Lebens kann man aber erkennen, dass diese primäre Realität eindeutig nicht die Welt selbst ist, da sie an unser Bewusstsein gebunden ist, das über das Gehirn in unserem Körper verankert ist. Die subjektive Realität ist eine abgeleitete Realität; unser Gehirn produziert eine virtuelle Realität, die sich für uns als subjektives Erlebende wie eine Realität darstellt!

KONVERSION: REALITÄT ZU VIRTUALITÄT

Hat man diesen Erkenntnispunkt erreicht, dass die subjektive Realität eine abgeleitete Realität ist, ein Rechenergebnis des Gehirns, das sensorische Fragmente einer Welt da draußen (=real) in neuronale Strukturen und Prozesse übersetzt/ konvertiert, die als neuronale Prozesse zwar real sind, aber in den erzeugten internen Informationsstrukturen innerhalb der neuronalen Prozesse als Repräsentanten der mit-verursachenden externen Realität ein Abbildungsprodukt, sind, erzeugt durch Abbildungsprozesse, und so gesehen nur als bildhaft, als virtuell bezeichnete werden können, dann kann man begreifen, dass ein biologischer Organismus wie der des homo sapiens — neben vielen anderen Funktionen — eine Funktion ganz speziell erkennen lässt: der gesamte Organismus ist ein Konverter von Realität in Virtualität!

Der Aufwand, der getrieben werden muss (musste), um dies zu ermöglichen ist extrem hoch und man fragt sich unwillkürlich, wofür das gut sein soll?

Bevor man eine Antwort zu geben versucht, sollte man sich noch eine weitere bemerkenswerten Funktion von homo sapiens Organismen vor Augen führen.

AUSTAUSCH: INNEN ZU INNEN

Von Bakterien und Viren ist bekannt, dass sie als Gesamtheiten schon immer einen intensiven Informationsaustausch pflegen (was mich dazu inspiriert hatte von diesen Gesamtheiten als BIOM zu sprechen und das gesamte BIOM als biologischen Super-Computer zu sehen, der die unfassbaren Formenproduktionen der Evolution in Interaktion mit den jeweiligen Umgebungen ermöglicht hat).

Durch die biologische Ermöglichung einer Konversion von Realität in neuronal ermöglichte Virtualität eröffnete sich nicht nur die Möglichkeit, im Bereich der Virtualität verschiedene kreative Prozesse zu gestalten, die abgeleitete Formen von Realität generieren können, für die es aktuell so noch keine Vorgaben in der umgebenden Realität gibt. Dies neuen Formen können indirekt zu Änderungen in der realen Welt führen, die ohne diese kreativen virtuellen Prozesse entweder gar nicht oder erst sehr viel später möglich gewesen wären. Da Änderungen nicht per se von irgendeinem Vorteil sein müssen — sie können schädlich bis zerstörerisch sein –, ist diese neuartige Befähigung zu inneren kreativen Prozessen somit zwar eine neue Chance, zugleich aber auch ein neues Risiko.

Um nun sowohl die Chance — als auch das Risiko — zu erhöhen, gibt es noch eine weitere speziell Funktion von biologischen Lebensformen — am extremsten ausgeprägt beim homo sapiens –: die zusätzliche Abbildung von kognitiven Strukturen auf andere kognitive Strukturen, bei denen die kognitiven Strukturen auf der einen Seite der Abbildung in Form eines Ausdruckssystems [E] organisiert sind. Betrachtet man kognitive Strukturen generell als kognitive Objekte [KOGOBJ], dann kann man diejenigen kognitiven Objekte, die zusätzlich speziell als kognitive Objekte innerhalb eines Ausdruckssystems E organisiert sind, als KOGOBJ-E abkürzen. Die Abbildungsbeziehung zwischen der speziellen Menge von kognitiven Objekten, die als Ausdrücke KOGOBJ-E fungieren, und allen anderen kognitiven Objekten KOGOBJ (mit KOGOBJ-E als Teilmenge!) wird normalerweise Bedeutungsbeziehung [Π] genannt, geschrieben: Π: KOGOBJ <—–> KOGOBJ-E.

Warum wieder dieser enorme zusätzliche Aufwand?

Wie wir am Verhalten des homo sapiens — Wir — sehen können, kann aufgrund der Bedeutungsbeziehung ein biologischer Organismus A die Ausdruckselemente benutzen, um auf bestimmte virtuelle Aspekte in sich Bezug zu nehmen, und diese internen Ausdruckselemente können dann in Form von Sprachlauten — oder später in der kulturellen Entwicklung auch durch Schriftzeichen — dazu genutzt werden, auf einen anderen Organismus B einzuwirken, so dass dieser — falls man die gleichen Ausdruckselemente mit der gleichen Bedeutungsbeziehung gemeinsam gelernt hat — ‚in sich selbst‘ möglicherweise ähnliche kognitiven Objekte aktiviert wie der andere biologische Organismus A möglicherweise intendiert hat.

Dieser hochkomplexe Vorgang einer zwischen-biologischen Kommunikation ermöglicht es — wie wir aus unserem Alltag wissen können — dass sich auf diese Weise — bis zu einem gewissen Grad — nicht nur das Verhalten generell koordinieren lässt, sondern dass dabei auch — wiederum nur bis zu einem gewissen Grad — inhaltliche Informationen über die Welt ausgetauscht werden können, die eine kognitive erweiterte Koordination möglich machen.

WELTBILDER: WISSENSCHAFT ODER MYTHEN?

Diese ineinander verschränkten Abbildungen von Realität in Virtualität einerseits bzw. Virtualität 1 nach Virtualität 2 andererseits stellen im Kontext der biologischen Evolution mehr als eine Revolution dar. Dies soll jetzt hier gar nicht weiter diskutiert werden. Wohl aber sei der Hinweis gestattet auf das Alltagsphänomen, dass ganze Populationen von Menschen ein virtuelles Bild von der Welt erzeugen, pflegen und danach handeln können, das teilweise oder gar überwiegend falsch ist, mit den entsprechend verheerenden Folgern für alle.

Vor diesem Hintergrund der Massen-Verirrungen — in allen Zeiten der Menschheit gegeben, auch im Jahr 2021 — stellt sich die kritische Frage, was kann eine Gesellschaft als Ganze tun, um durch ihre Kultur Massen-Verirrungen zu verhindern.

Wie Blicke zurück in die Geschichte und hinweg über alle nationale Grenzen heute andeuten, ist ein gemeinsamer Schutz vor Verirrungen alles andere als einfach. Intelligenz alleine ist offensichtlich kein ausreichender Schutz…

So zeigt ein Blick in die Geschichte der Wissenschaften, dass es selbst in der Wissenschaft trotz all der vereinbarten Qualitätssicherungen immer wieder zu strittigen Meinungen kommen kann, die ganze Schulen ausbilden, um die anderen Meinungen ‚zu bekämpfen‘ statt aus den Unterschieden konstruktiv zu lernen.

Die Aufgabe der Gestaltung einer gemeinsamen Kultur der minimalen Verirrungen ist für uns alle real, sie ist hart, sie ist schwierig, und die scheinbar einfachen und griffigen Lösungen sollten eigentlich routinemäßig schon mal eine besondere Aufmerksamkeit erregen, ob das überhaupt so stimmen kann …

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

POPULISMUS IST ANGEBOREN… Aber bei mir doch nicht…

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 7.Februar 2019
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Letzte Änderungen: 9.Febr.2019 (Zusätzliche Zwischenüberschriften; Schlagworte hinzugefügt; einen Satz verschoben)

KONTEXT

Der Kontext für diesen Beitrag ist eigentlich der ganz normale Alltag, wie jeder ihn erlebt. Allerdings war mir schon im Juni 2018 anlässlich einer Veranstaltung zum Populismus in Europa aufgefallen, dass die berühmten ‚Echokammern‘, die man in vielen sozialen Netzen entdeckt zu haben glaubte, irgendwie nicht auf bestimmte Gruppen beschränkt sind. Bei näherer Betrachtung kann man das vage Konzept der Echokammern nahezu auf jede soziale Gruppierung anwenden. Infiziert von diesem Gedanken sah ich viele Alltagsphänomene plötzlich ganz anders …

JEDER IST SEINE EIGENE ECHOKAMMER …

Wenn man sich in seinem eigenen Alltag umschaut wird an nicht umhin kommen, festzustellen, dass jeder einzelne ein ‚individuelles Weltbild‘ mit sich herum trägt, das aus sich heraus unsichtbar ist, so lange jemand nichts sagt und tut. Sobald aber dieser Jemand anfängt, etwas zu tun oder zu sagen, zeigen sich Fragmente des individuellen Weltbildes. Wenn man irgendwann genug viele Fragmente von jemandem gesammelt hat — oder sehr schnell in eine intensive Debatte mit dem anderen eingetreten ist –, zeigt sich dann, dass jeder seine liebgewordene Glaubenssätze über die Welt hat, an denen er nicht rüttelt, und von denen aus er seine Schlüsse zieht. So umgänglich jemand auf den ersten Blick scheinen mag, sobald es ‚zur Sache geht‘ hört bei den meisten die ‚Umgänglichkeit‘ auf. Und dies hat überhaupt nichts mit Intelligenz zu tun. Wie viele akademisch trainierte Menschen — einschließlich Doktortitel oder mehr — reagieren genauso so, sitzen in ihrem geistigen Käfig, und lassen sich — kennt man mal ihre ‚Lieblingsüberzeugungen‘ — fast beliebig mit diesen Lieblingsüberzeugungen aufwecken, in Wallung bringen, ärgern, oder — wenn man sie manipulieren will — genau damit Ködern, eine gute Stimmung verbreiten, den Eindruck erwecken, man denke und fühle doch das Gleiche, usw.

Es ist daher nicht zufällig, dass sich Menschen in neuen, fremden Umgebungen — und sei es auf einer Party mit vielen ‚Unbekannten‘ — erst einmal nach solchen Gesprächspartnern suchen, die ‚Ähnliches reden wie man selbst‘ (manche bleiben vorzugsweise den ganzen Abend alleine sitzen, um sich unbequeme Überraschungen zu ersparen). Hat man ‚ähnlich erscheinende‘ Personen gefunden, tendieren viele dazu, sich mit diesen ‚zusammen zu rotten‘ in einer ‚Zone der Vertrautheit‘. Das waren früher die berühmt berüchtigten Stammtische, das sind die ganzen Freundeskreise, die Vereine, ‚Netzwerke‘, Burschenschaften, und neuerdings — vom Alltag in die Netze projiziert — die Gruppierungen in den sozialen Netzwerken. Echokammern sind kein Produkt der Technologie; Echokammern spiegeln die Tendenz der Menschen wieder, ihre eigenen endlichen Weltbilder im sozialen Kontext zu bestätigen, zu stärken, um so das Gefühl der Vertrautheit, der Sicherheit, der Planbarkeit und ähnliches mehr, zu verstärken. Jenseits des ‚Vertrauten‘ und ‚Bekannten‘ lauert das Dunkel, die Unwissenheit, das Unwägbare, möglicherweise etwas, was die Vertrautheit bedroht…

Weil wir im Alltag von Grund auf in unseren aktuellen Weltbildern gefangen sind und offensichtlich viele Tendenzen in uns wirksam sind, die aktuellen Bildern zu wahren, zu schützen, zu konservieren, ist die Entstehung von sogenannten ‚populistischen Strömungen‘ nichts Ungewöhnliches. Wenn eine hinreichend große Gruppe die gleichen Grundüberzeugungen teilt — was offensichtlich weltweit leicht der Fall sein kann –, dann genügen wenige Organisatoren, um eine entsprechend ‚Bewegung‘ sichtbar zu machen, die dann wieder selbstverstärkend alle Mitglieder weiter bestätigt.

WARUM IST DAS SO?

Man kann sich fragen, warum ist das so? Ist es ein unentrinnbares Schicksal, dass wir Menschen trotz all unserer wunderbaren Fähigkeiten offensichtlich einen ‚inneren Drang‘ dahingehend verspüren, dass wir unsere aktuellen Weltbilder — welche es auch gerade sind — so intensiv, so vehement, gegen mögliches ‚Neues‘, ‚Anderes‘ … verteidigen?

Die Selbstabschottungs-Tendenzen individueller Weltbilder ist ganz offensichtlich sehr stark, was auf Mechanismen im Unbewussten hinweist, die wiederum im Gehirn und letztlich in den Genen verankert sind.

Die empirischen Wissenschaften haben uns in den letzten 100 Jahren eine Menge neuer Einsichten darüber vermittelt, wie unsere Körper und unsere Gehirne entstanden sind, wie individuell ein Körper und ein Gehirn sich aus einer Eizelle entwickeln können, wie das Gehirn und viele Systeme im Körper sensibel für die Umgebung lernen und sich anpassen können; wie in unserem Gehirn ‚Wissen‘ entsteht, ‚Erfahrung‘, ‚Fähigkeiten‘ sich ansammeln können; wie unsere Bedürfnisse und Emotionen uns beeinflussen können; dass unser ‚Bewusstsein‘ nur ein verschwindend kleiner Teil (weniger als 1%) von dem ist, was sich in jedem Moment in unserem Körper unbewusst abspielt; und vieles mehr.

Vor diesem Hintergrund können wir wissen, dass das ‚Wissen‘, was sich in unserem Gehirn anreichert (weitgehend unbewusst), einerseits zwar hilft, die jeweilige Umgebung ‚wieder zu erkennen‘ als ’schon mal gesehen‘, und uns damit erspart, alles nochmals von vorne vorne Lernen zu müssen, dass aber genau dieser Mechanismus des automatischen Lernens und Interpretierens es dann auf Dauer auch ist, der uns davor abhält, weiter zu lernen. Obgleich das Gehirn von sich aus auf ein andauerndes Lernen ausgelegt ist, erreicht jeder Mensch irgendwann einen Zustand, in dem das ’schon Gelernte‘ ausreicht, um mit dem ’normalen Alltag‘ klar zu kommen, ohne wirklich weiter zu lernen. Während man bei Kindern — im Normalfall — eine natürliche Neugierde feststellen kann, die sich permanent zu Erkundungen und Experimenten mit sich selbst und der Umgebung antreibt (viele Eltern finden das ’nervig‘ und versuchen ihre Kindern ’still zu stellen‘; dies ist für sie bequemer), kann man schon bei Jugendlichen ab 14 – 16 deutliche Tendenzen beobachten, dass echte Neugierde und echtes Experimentieren (= Lernen) dramatisch zurückgeht bis dahin, das junge Erwachsene ab 18 – 22 neben Kindern schon wie Greise wirken, die sich nur noch in eng definierten Mustern bewegen. Für die umgebende Gesellschaft ist dies eher angenehm. Je schneller sich junge Menschen an das ‚Übliche‘ anpassen, um so weniger hat man mit ungeliebten Überraschungen zu rechnen. Belohnt wird, wer sich anpasst und damit bekundet, dass er das Experiment ‚das Leben zu Lernen‘ aufgegeben hat. Hallo, seht her, von mir geht keine Gefahr aus; ich bin so wie ihr. Alles ist gut. Nur keine Überraschungen, nur nichts Neues, nur keine Experimente.

Von daher sollte es uns nicht wundern, dass sich gerade in Demokratien ‚Vereinfachungen‘ über die Politik ‚verstärken‘ können, da die Politiker irgendwann und irgendwie ja wieder gewählt werden wollen. Je mehr sich ein einfaches Weltbild in der Gesellschaft ausbreitet, umso eher wird die Politik genau dieses aufgreifen, verstärken, und damit die Perspektiven für Innovationen, Forschung, notwendige Bildungsprozesse abschwächen. Eine Begleiterscheinung sind zunehmende Kontrolle und Planung, um das Unvorhergesehene möglichst zu minimieren. Hochschulen, die eigentlich Orte der innovativen Forschung sein sollten, degenerieren mittlerweile immer mehr zu durch-kontrollierten, durch-geplanten Institutionen, in denen Anpassung mehr zählt als eigenständige, kreative mutige Forschung. Dies wird zusätzlich abgesichert durch systematischen Geldentzug auf der einen Seite, und Vergabe von Geld nach Gefälligkeit und politisch genehmen Themen…

WAS KÖNNEN WIR TUN?

Die Eindrücke des Alltags können übermächtig wirken. Die Verzweiflung der Menschen an der Politik ist nicht gespielt; desgleichen die Ohnmacht in den etablierten Religionen, in staatlichen Institutionen, in großen Konzernen … die meisten Kommunalpolitiker kennen die ewigen Pattsituationen bei Abstimmungen, nur weil man unterschiedlichen politischen Gruppierungen angehört … Argumente scheinen wirkungslos zu sein …

Dann gibt es immer wieder ‚Hoffnungsträger‘, ‚Lichtgestalten‘, die aufpoppen, die den Eindruck erwecken, plötzlich über jenen berühmten Zaubertrunk zu verfügen, der alle diese alltäglichen Hindernisse scheinbar mühelos aufhebt, beseitigt, überwindet, und eine Massenhysterie durchweht das Land, das globale Netz … aber tatsächlich kann kein einzelner Mensch alle die alltäglichen Hindernisse, die in den Köpfen der Menschen wurzeln, einfach so auslöschen … allerdings für eine kurze Zeit ‚vergessen machen‘; man schaltet alle seine bisherigen Ängste gerade mal ab und ist bereit, alles zu glauben, weil es ja so schön ist ….

Wenn wir die Absicht haben sollten, dieser ‚Falle des Populismus in uns selbst‘ zu entkommen, dann müssen wir uns neu darüber Klarheit verschaffen, wie denn die ‚Freiheit‘, die wir real haben — und die alle unsere Gesetze, vor allem das Grundgesetz, unterstellen — ‚im Innern‘ funktioniert.

WIE FREIHEIT FUNKTIONIERT

In einem interessanten Gespräch im November 2018 kam zum Vorschein, dass die Realität der Freiheit zwar grundsätzlich immer eine Wahlmöglichkeit bietet, dass aber das, was und zwischen dem wir wählen können, etwas Reales sein muss, über das wir verfügen können. Wenn jemand nicht wirklich etwas ‚weiß‘ und nicht wirklich über gewissen ‚Fähigkeiten‘ ‚verfügt‘, dann kann er auch nicht zwischen verschiedenen Optionen wählen, trotz seiner Freiheit. Und, ähnlich, wenn jemand in seinem Alltag nicht über reale Wahlmöglichkeiten verfügt (Wohnung, Nahrung, Arbeit, Verkehr, Partner, Freunde, …), dann kann er auch hier nicht oder nur sehr eingeschränkt wählen. Von der Freiheit zu reden, sie zu beschwören, ist eine Sache. Sie in eine entsprechende Praxis zu überführen setzt eine ‚hinreichende verfügbare Materialität im Alltag und im Kopf‘ voraus.

Dazu kommt, dass wir, selbst wenn wir neben der Freiheit sogar über reale Wahlmöglichkeiten verfügen würden, bekanntermaßen von einer Vielzahl von Bedürfnissen, Emotionen, Gefühlen und Stimmungslagen beeinflusst werden können (im Normalfall, zusätzlich kann es allerlei Krankheiten geben). Selbst wenn man also ‚frei entscheiden‘ könnte und man sogar ‚materielle Möglichkeiten‘ hätte (einschließlich Wissen, Fähigkeiten,…), dann könnte die Vielzahl der emotionalen Faktoren uns blockieren oder uns in eine Richtung lenken, die letztlich ’nicht gut‘ ist.

Die Aufzählung dieser ‚Risikofaktoren‘ für das Misslingen von Freiheit und einer anhaltenden Gefangenschaft im Modus des ‚individuellen Populismus‘ liefert indirekt allerdings auch entscheidende Hinweise, auf welche Faktoren man achten müsste, wollte man einem individuellen Populismus entkommen. Dabei würde ein ‚Entkommen‘ nicht bedeuten, dass man einen Zustand erreichen würde, in dem man auf einen Schlag ein für allemal von einem individuellen Populismus ‚befreit‘ wäre; nein. Wenn man sehr gut wäre, dann würde man lernen, wie man mit seinem aktuellen Wissen (und Erfahrungen und …) im Alltag so umgehen muss, dass die aktuellen Begrenzungen zwar unausweichlich da sind, dass man sich aber Verhaltensweisen angeeignet hat, die einem (und den anderen) helfen, sich der aktuellen Grenzen bewusst zu bleiben und das aktuelle Wissen immer wieder zu überprüfen‘ bzw. es kontinuierlich ‚weiter zu entwickeln‘. Daraus folgt, dass eine wirklich nachhaltige Überwindung des individuellen (und dann auch gemeinschaftlichen) Populismus nur gelingen kann, wenn man in einem gesellschaftlichen Netzwerk lebt, in dem die Mehrheit sich der Problematik bewusst ist und man mehrheitlich eine ‚Kultur des ständigen wechselseitigen Lernens‘ ausgebildet hat, in der ‚Neues‘ kein Schimpfwort ist sondern als ein notwendiger Bestandteil von Wahrheit und Zukunftssicherung angesehen wird. Vertrauen in Menschen ist wichtiger als Kontrolle; Beförderung von Kreativität und Fantasie ist notwendiger Bestandteil einer freien Gesellschaft.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

SELBSTBESCHREIBUNG UND MEDITATION

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 12.Nov 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Letzte Korrekturen: 14.Nov.2018 {Nr.6, Nr.10, Nr.13 }

KONTEXT

Der folgende Text steht thematisch im Zusammenhang mit den beiden vorausgehenden Beiträgen zum Thema ‚Wissenschaft und Meditation‘ sowie ‚Meditation im Alltag‘. Während der erste Beitrag ‚Wissenschaft …‘  sich die Frage stellte, ob man das kulturelle Phänomen ‚Meditation‘ in einen irgendwie sinnvollen Zusammenhang mit ‚empirischer Wissenschaft‘ sehen kann, ging es im zweiten Beitrag ‚… im Alltag‘  um das konkrete Tun beim Meditieren, zumindest bei jener Form des Meditierens, bei der man sich in eine ‚Ruhestellung‘ begibt, in der man sich selbst zum Gegenstand macht.

SELBSTBEOBACHTUNG ALS THEMA

Das Thema ‚Selbstbeobachtung‘ ist so alt, wie es philosophisches Denken gibt und hat selbst in den empirischen Wissenschaften nicht an Bedeutung verloren. Das Thema voll darzustellen würde allerdings mindestens ein ‚dickes‘ Buch verlangen, eher mehr. Von all den philosophischen Varianten und wissenschaftlichen Diskussionen soll hier aber abgesehen werden, um in einer überschaubaren Weise eine (‚die‘?) grundlegende Perspektive formulieren zu können, die sich heute unter Berücksichtigung von Philosophie und modernen Wissenschaften als Arbeitshypothese formulieren lässt. Arbeitshypothesen bringen es mit sich, dass man sie kritisieren und weiter verbessern kann.

SELBSTBEOBACHTUNG UND MEDITATION

Die neuerliche Auseinandersetzung mit dem Thema ‚Selbstbeobachtung‘ in diesem Blog (bislang nicht unter dem Stichwort ‚Selbstbeobachtung‘ sondern eher in Verbindung mit Stichworten wie ‚Phänomene‘, ‚Phänomenologie‘, usw.) wurde stimuliert durch die aktive Auseinandersetzung mit dem Phänomen ‚Meditation‘, innerhalb deren es neben der theoretischen Auseinandersetzung auch die konkrete Praxis, das konkrete Meditieren gibt. Diese konkrete Praxis eröffnet dem Meditierenden einen an sich unendlichen Raum an möglichen Ereignissen, konkret gefüllt mit einem bunten Strauß an Ereignissen und Veränderungen, die im Wahrnehmen Deutungen erlauben. Was aber ist eine ‚richtige‘, ‚angemessene‘ Deutung?

PHILOSOPHISCHER DEUTUNGSKONTEXT

In einer Kooperation von moderner (Wissenschafts-)Philosophie und modernen wissenschaftlichen Disziplinen lässt sich folgender ‚Rahmen‘ für mögliche Wahrnehmungen und Deutungen formulieren, der allgemein gilt, nicht nur für das Meditieren.

Ausgehend von dem Abschnitt ‚BEOBACHTUNG: SUBJEKTIVITÄT – OBJEKTIVITÄT‘ in dem schon oben erwähnten Beitrag ‚Wissenschaft …‘ werden hier folgende Annahmen gemacht (siehe Schaubild):

Unterschiedliche Datenquellen zusätzlich zur Introspektion
Unterschiedliche Datenquellen zusätzlich zur Introspektion

  1. Die verhaltensorientierten Wissenschaften, allen voran die Psychologie, benutzen vorwiegend Daten aus Verhaltensbeobachtungen. Diese Daten werden hier D_SR genannt (‚S‘ für Stimulus und ‚R‘ für Response). Damit kann die experimentelle Psychologie zwar nicht direkt in das ‚Innere‘ eines biologischen Systems schauen (Tiere, Menschen, …), wohl aber ist es möglich, auf der Basis solcher Daten explizite ‚Verhaltens-Theorien‘ (T_SR) zu formulieren, die mit ‚hypothetischen Annahmen‘ über ‚innere Zustände‘ arbeiten, mit deren Hilfe sich das äußerlich beobachtbare Verhalten ‚erklären‘ lässt. Berühmte Beispiele hierfür sind einmal das Konstrukt des ‚Unbewussten‘ in der Psychoanalyse oder das Konstrukt des ‚Gedächtnisses‘.
  2. Mit der Weiterentwicklung der allgemeinen Physiologie — hier insbesondere mit dem Spezialgebiet ‚Gehirn‘ – konnte die Wissenschaft den Bereich der objektivierbaren Daten weiter ausdehnen auf das ‚Innere des Körpers‘, die verschiedenen Organe, ihre Funktionsweisen und Interaktionen. Diese Daten werden hier D_PHYS genannt. Fasst man die Vielzahl der inneren Strukturen als ‚Input-Output-Systeme‘ auf, dann kann man auf der Basis der Beobachtungsdaten eine Vielzahl von Hypothesen über die Verhaltensfunktion solcher Input-Output-Systeme in Form von physiologischen Theorien (T_PHYS) formulieren.
  3. Sowohl die Daten wie auch die möglichen Theorien zum äußerlich beobachtbaren Verhalten wie auch zu den inneren Strukturen sind zunächst ‚unabhängig‘ voneinander. Man kann von der Theorie des Verhaltens T_SR nicht direkt auf Eigenschaften der inneren Strukturen T_PHYS schließen und auch nicht umgekehrt. Andererseits spricht alles dafür, dass die inneren Strukturen – beschrieben in einer möglichen Theorie T_PHYS – verantwortlich sind für das äußerlich beobachtbare Verhalten D_SR, das in einer möglichen Theorie T_SR beschrieben wird. Es wäre also naheliegend, eine Art ‚Brückentheorie‚ zu bauen (‚Psychophysiologie‘ oder ‚Physiopsychologie‘), in der die beiden Theorien T_SR und T_PHYS explizit als T_SR_PHYS miteinander in Beziehung gesetzt werden (als ‚Neuropsychologie‘ ist diese Idee schon länger bekannt, aber diese stellt eine Engführung des eigentlichen Themas dar und die wissenschaftsphilosophische Konzeption der bisherigen Arbeiten erscheint bislang nicht ganz überzeugend).
  4. Die soeben skizzierten Typen von Daten D_SR und D_PHYS sind relativ weit verbreitet. Was nicht so verbreitet ist, das ist die Inbeziehung-Setzung dieser Daten zum Bewusstsein. Entsprechend der großen Tradition der empirischen Wissenschaften, die den Zugriff auf die Wirklichkeit an die Verfügbarkeit von externen Messprozessen geknüpft hatten, um sich von den vielen falschen Ansprüchen einer damals noch unkritischen Philosophie abzugrenzen, ist die mögliche Bedeutung und Rolle der bewusstseinsbasierten Daten – hier D_PH genannt – etwas aus dem Blick geraten, soweit, dass lange nicht mehr klar war, wie man überhaupt empirische Daten (D_SR und D_PHYS) mit Bewusstseinsdaten (D_PH) in Beziehung setzen kann.
  5. Erst ganz langsam setzt sich mit den neueren Erkenntnissen von Biologie, Physiologie und Psychologie wieder die Einsicht durch, dass das Gehirn als ‚Ermöglichung von Bewusstheit‘ selbst ja gar keinen direkten Bezug zur empirischen Außenwelt besitzt. Über komplexe Signalprozesse werden dem Gehirn Außenweltereignisse mehrfach übersetzt zur weiteren Bearbeitung übermittelt, ebenso Ereignisse aus dem Körper wie auch aus dem Gehirn selbst. Aus all dem konstruiert das Gehirn ein dynamisches Modell der Gesamtsituation, die dann in einem biologischen System das spezifische Gesamtphänomen ‚Bewusstsein‘ ermöglicht, innerhalb dessen das System den ‚Eindruck‘ hat, dass ‚es selbst‘ unterschiedliche ‚Phänomene (PH) erlebt‘. Diese Phänomene repräsentieren nach heutigem Wissensstand nur einen winzigen Teil aller Ereignisse im Körper. Man nimmt daher – spätestens seit Freud — neben der Bewusstheit des Bewusstseins auch ein ‚Unbewusstes‘ an. Verschiedene weitere Annahmen über ein ‚Vor-Bewusstes‘ (so Freud) oder ein ‚temporäres Bewusstsein‘ spielen hier keine wesentliche Rolle, da die Phänomene des Bewusstseins allesamt aus dem Un-Bewussten herrühren und somit das Unbewusste punktuell und temporär ’sichtbar‘ machen.
  6. Mit dieser neueren Einsicht in die Gesamtarchitektur des biologischen Erkennens kann man die Beziehung zwischen empirischen Verhaltens- und Körperdaten einerseits (D_SR, D_PHYS) und Bewusstseinsdaten (D_PH) andererseits neu gewichten: auch das, was wir empirische Daten nennen sind letztlich auch Bewusstseinsdaten (!), allerdings mit der Besonderheit, dass man diese Bewusstseinsdaten mit externen Messprozeduren korrelieren kann, die parallel zu den Bewusstseinsdaten realisiert werden und die selbst sowie ihre Messergebnisse D_SR und D_PHYS zugleich auch Daten des Bewusstseins D_PH_SR und D_PH_PHYS sind. Nur weil sie auch bewusst sein können, wissen wir von ihrer Existenz, und nur wenn diese Daten uns bewusst sind, können wir mit ihnen bewusst umgehen und mit ihnen bewusst arbeiten.
  7. Die sogenannte ‚Kluft‘ zwischen Philosophie und den empirischen Wissenschaften ist daher eher ein ‚Artefakt des Denkens‘. Damit wird die besondere Stellung der empirischen Wissenschaften weder in Frage gestellt noch geschmälert, sondern es wird deutlich, wie die empirischen Wissenschaften letztlich als ein ‚Philosophieren mit anderen Mitteln‘ betrachtet werden können. Das ‚empirische Messen‘ ist von daher eine spezielle Methode, durch die die Philosophie in bestimmten Teilbereichen deutlich ‚mehr‘ erkennen kann als ohne diese Methoden.
  8. Was damit allerdings auch klar wird: statt dass sich die Philosophie – wie so oft in der Vergangenheit – mit ‚Abscheu‘ von den empirischen Wissenschaften abwendet, hat sie eine ganz besondere Verantwortung, diesen extrem wichtigen Teil einer ‚empirischen Philosophie‘ besonders zu pflegen. Die methodischen Herausforderungen, die sich hier stellen, sind enorm und übersteigen alles, was die Philosophie zuvor getan hat.
  9. In diesem Kontext sei auch besonders hingewiesen auf die vollautomatischen (= unbewussten) Prozesse der ‚induktiven Kategorienbildung‘ im Rahmen von Wahrnehmung und Gedächtnis. Was immer an Wahrnehmungsereignisse das ‚Gedächtnis‘ erreicht (ein Teilsystem des Gehirns), es wird automatisch als ein prototypisches Muster ‚angelegt‘, das sich nach impliziten Ähnlichkeitskriterien kontinuierlich ‚anreichern‘ kann. Nur deshalb sind wir in der Lage, einen zuvor schon mal wahrgenommenen ‚Gegenstand‘ der Art ‚A‘ im Fall eines neuerlichen Vorkommens wieder als ‚A‘ oder ‚dem A ähnlich‘ wiedererkennen zu können.
  10. Nur weil es diese ‚automatische induktive Kategorienbildung‘ gibt können wir Sprachsysteme einführen und benutzen, deren Symbole sich auf solche Kategorien als ihren ’natürlichen Gegenständen‘ beziehen. Worte wie ‚Tisch‘, ‚Baum‘,  ‚Hund‘ usw. können sich  auf einen konkreten Gegenstand X beziehen, weil der konkrete Gegenstand X  hinreichend viele ‚Ähnlichkeiten‘ mit der jeweiligen  induktiv entstandenen natürlichen Kategorie ‚Tisch‘, ‚Baum‘,  ‚Hund‘ usw aufweist. Die potentielle Menge von konkreten Objekten X in der realen Welt, die sich auf solch eine Weise einer ‚induktiven Gegenstandskategorie‘ zuordnen lassen,  sind daher implizit ‚offen‘, nicht wirklich ‚begrenzbar‘. Zudem  muss man  davon ausgehen, dass die konkrete Füllung dieser Gegenstandskategorien im Kontext einer natürlichen Sprache bei den einzelnen Menschen stark variieren kann, je nach individueller Erfahrung.
  11. Im Kontext der empirischen Wissenschaft sind solche ‚prinzipiell offenen Bedeutungskategorien‘ unerwünscht. Will man ‚Vieldeutigkeiten‘ vermeiden gibt es bislang zwei Strategien, um diese zu minimieren:
    1. Einführung von Fachsprachen innerhalb der normalen Alltagssprache: man versucht die benutzten Begriffe durch entsprechende Regeln zu ’normieren‘;
    2. Einführung von formalen Kunstsprachen, deren Bedeutungszuordnung durch explizite Bedeutungsregeln sichergestellt werden sollen.
  12. Beide Strategien haben sich als nicht vollständig umsetzbar erwiesen. Am erfolgreichsten erscheint bislang die Strategie der formalen Fachsprachen mit expliziten Bedeutungsregeln, und hier insbesondere die Sprache der modernen Mathematik, bekannt als ‚mengentheoretische Sprache‘ und diverse Formen von ‚Strukturbildungen mit Interpretationsbegriff‘.
  13. Grundsätzlich ist es möglich, dass man mittels einer formalen Kunstsprache ‚künstliche formale Kategorien‘ einführt, die über ‚spezielle Bedeutungszuordnungen‘ nur eine endliche Menge von klar definierten Eigenschaften umfassen oder, zumindest auf rein formaler Ebene, überabzählbar viele  Mengen von Eigenschaften unterschiedlicher Strukturen. Diese Möglichkeit von ‚künstlichen formalen Kategorien‘ hat sich in der empirischen Forschung – z.B. in der Physik – als extrem wichtig erwiesen, da die Eigenschaften der empirischen Welt oft so ganz anders zu sein scheinen als es die gewohnte induktive Kategorienbildung des menschlichen Gehirns nahelegt.
  14. Unter Einbeziehung des Aspekts ‚Sprache‚ lässt sich das Verhältnis von moderner Philosophie und moderner empirischen Wissenschaft nochmals präziser fassen: mittels definierter empirischer Messprozeduren (MSE) und daraus resultierenden empirischen Messergebnissen (D_EMP) ergeben sich im Rahmen des Bewusstseins (CONSC) spezifische Phänomene (D_PH_EMP), denen eben extern diese Messprozeduren korrespondieren. Als wahrgenommene Phänomene D_PH_EMP unterliegen sie allerdings den automatisch erzeugten induktiven Kategorienbildungen, auf die symbolische Ausdrücke einer Sprache bezogen werden können.
  15. Dabei ist zu beachten, dass die Ausdrücke einer Sprache auch sowohl als empirische Ereignisse (D_EMP_L) vorkommen wie auch als Phänomene (D_PH_EMP_L). Die Beziehung zwischen sprachlichen Ausdrücken und zugeordneten Bedeutungskorrelaten geschieht als unbewusster Prozess innerhalb des Gedächtnisses als Teil des Gehirns.
  16. Im Rahmen von Denkprozessen (teils unbewusst, teils bewusst), lassen sich beliebig viele formale Ausdrücke mit zugehörigen formalen Kategorien bilden. Im Falle von empirischen Wissenschaften müssen diese jeweils mit empirischen Phänomenen in Beziehung gesetzt werden können, um ihren Außenweltbezug herstellen zu können. Im Falle von vor-wissenschaftlichen Theorien wie einer unkritischen Metaphysik wurden zwar auch rein abstrakte, bisweilen sogar formale, Strukturen im Denken entwickelt, aber deren Geltung wurde gewöhnlich nicht nach festen Regeln auf empirische Außenweltereignisse zurückgebunden. Die negativen Auswirkungen eines solchen Vorgehens lassen sich im Rückblick untersuchen. Von heute aus gesehen liegt es daher nahe, die modernen empirischen Theorien als die genuinen Nachfolger der klassischen ‚metaphysischen‘ (= jenseits der Natur) Theorien zu betrachten, mit der Innovation, dass heute die potentiellen abstrakten (und formalisierten) Strukturen nach klar vereinbarten Verfahren an empirische Messprozesse zurückgebunden werden.
  17. Nach diesen vorbereitenden Überlegungen wird vielleicht verständlich, dass die ‚Phänomene‘ eines Bewusstseins für alle Disziplinen die ersten ’nicht weiter hintergehbaren‘ Daten darstellen. Die Einführung von empirischen Messverfahren hebt die Priorität von Phänomenen des Bewusstseins daher nicht auf, sondern ergänzt diese nur um zusätzliche Momente, die ‚berücksichtigt‘ werden sollten, will man über eine ‚Wirklichkeit‘ sprechen, die nicht nur im eigenen Bewusstsein zu verankern ist, sondern zugleich auch im ‚Zwischenbereich der Körper‘, den wir ‚empirische Welt‘ nennen.
  18. Damit stellt sich die Frage, was ist mit jenen ‚Phänomenen‘, die sich nicht mit empirischen Messverfahren korrelieren lassen; nennen wir diese abkürzend D_PH*, bestimmt durch die Gleichung D_PH* = D_PH – D_PH_EMP.
  19. Diese nicht-empirischen Phänomene D_PH* sind ja nicht weniger ‚wirklich‘ wie die empirischen Phänomene D_PH_EMP, nur fehlt ihnen ein definiertes Korrelat in der Zwischen-Körper-Welt. Alle diese nicht-empirischen Phänomene D_PH* entstammen letztlich dem Unbewussten (NON-CONSC).
  20. Aus dem Alltag wissen wir, dass alle Menschen aufgrund sehr ähnlicher Körper und Gehirnstrukturen vielerlei Phänomene kennen, über die sich eine gewisse ‚Einigkeit‘ herstellen lässt, weil sie die meisten Menschen ’sehr ähnlich‘ erleben, wie z.B. ‚Müdigkeit‘ nach längerem ’nicht Schlafen‘, ‚Hunger‘ nach längerem ’nicht Essen‘ usw .Man könnte also sagen, dass der ‚menschliche Körper‘ auch eine Art ‚Messgerät‘ ist, das bei entsprechendem ‚Verhalten‘ bestimmte ‚Zustände als Quasi-Messergebnisse‚ erzeugt, über die sich zwischen allen Beteiligten eine ‚praktisch hinreichende Einigkeit‚ erzielen lässt, wenngleich diese Einigkeit in der Regel nicht die ‚Präzision‘ hat, wie die technisch vereinbarten empirischen Messverfahren der Wissenschaften.
  21. Schwieriger wird es allerdings dann, wenn jemand ‚Phänomene‘ zu erleben meint, für die sich nicht sofort eine klare Ursache im Körper zuordnen lässt, die sich von anderen in ‚hinreichend ähnlicher Form‘ ’nachvollziehen‘ lässt. So kann es unterschiedliche Formen von ‚Schmerzen‘, ‚Emotionen‘, ‚Gefühlen‘, und ‚Stimmungen‘ geben, die sich nicht sofort ( auch nicht über längere Zeit) bestimmten körperlichen Prozessen zuordnen lassen. Dann wird eine zwischenmenschliche Verständigung schwierig. Der Angesprochene weiß dann nicht, mit welchen seiner ‚Erfahrungen‘ er die Äußerungen des anderen ‚in Verbindung bringen soll‘.
  22. Aus der schwierigen Kommunizierbarkeit von Phänomenen folgt allerdings nicht, dass diese ‚unwichtig‘, ‚unbedeutend‘ sind. Im Gegenteil, es können sehr wichtige Phänomene sein, die bislang – aus welchen Gründen auch immer – einfach von niemandem beachtet werden. So wie generell die Wissenschaft immer wieder neu um die Angemessenheit ihrer bisherigen ‚Terminologie‘ ringen muss, so müssen wir Menschen – insbesondere, wenn wir uns als Philosophen verstehen – unsere bisherigen Sprechweisen immer wieder neu an unseren Phänomenen ‚überprüfen‘.
  23. In diesem Kontext erscheint das ‚Meditieren‘ als eine der radikalsten Formen ‚eines sich seiner eigenen Erfahrung zensurfreien Aussetzens‘. Hier können sich viele Phänomene ereignen, die quer liegen zu den bisherigen Sprechweisen und die von daher neue Ausdrucksweisen erfordern.
  24. Aktuell ist dem Autor keine systematische philosophische Analyse der Phänomene des alltäglichen Erlebens inklusive speziell auch der Phänomene im Kontext von Meditation und Spiritualität bekannt. Zwar gibt es zahllose Artikel und Bücher zu diesem Thema, diese unterscheiden sich jedoch bezüglich Erfahrungskontexten, gewählten Sprachen und Methoden so stark, dass eine verallgemeinerte Aussage über diese Analysen aktuell nicht möglich erscheint; möglicherweise brauchen wir hier ein völlig neues Forschungsprogramm.
  25. Das Thema einer Super-Brückentheorie zwischen äußeren Verhaltensdaten, Körperdaten und Bewusstseinsdaten soll hier nur erwähnt werden. Eine solche Theorie wäre das ferne Ziel, das zu adressieren wäre.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 9

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 12.Okt. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

BISHER

Für die bisherige Diskussion siehe die kumulierte Zusammenfassung HIER.

KURFASSUNG

Aus wissenschaftsphilosophischer Sicht ist das Kapitel 10 sehr aufschlussreich. Der in den vorausgehenden Kapiteln immer wieder angedeutete Brückenschlag zwischen Physiologie (mit Gehirnforschung) und Psychologie (verhaltensorientiert) wird in diesem Kapitel ein wenig ‚anfassbarer‘. Allerdings nicht in dem Sinne, dass der Brückenschlag nun explizit erklärt wird, aber so, dass einerseits die Begrifflichkeit auf psychologischer Seite und andererseits die Begrifflichkeit auf physiologischer Seite etwas ausdifferenziert wird. Die Beschreibung der Beziehung zwischen beiden Begrifflichkeiten verbleibt im Bereich informeller Andeutungen bzw. in Form von Postulaten, dass die zuvor geschilderte physiologische Maschinerie in der Lage sei, die angedeuteten psychologischen Strukturen in ihrer Dynamik zu ‚erklären‘.

KAP.10 Gedächtnis und Konzepte (‚Memory and Concepts‘): Errichtung einer Brücke zum Bewusstsein (‚Building a Bridge to Consciousness‘)

  1. Nach den vorbereitenden Kapiteln 1-9 versucht Edelman mit den soweit formulierten Grundlagen nun ‚höhere‘ Hirnleistungen und ‚psychologische (=verhaltensbasierte)‘ Eigenschaften durch Rückgriff auf die evolutionären und neuronalen Mechanismen zu ‚erklären‘.

  2. Der Ausgangspunkt der Überlegungen in Kap.10 bilden die Annahmen der vorausgehenden Kapitel, dass die ‚Welt‘ ‚außerhalb‘ eines Organismus ein überwältigendes Ereignisfeld ist, das vom wahrnehmenden Organismus erst einmal ’strukturiert‘ werden muss, damit der Organismus mit diesen Ereignisfeldern konstruktiv umgehen kann. Es stellen sich in diesem Kontext folgende Fragen: (i) welche Strukturierungen nimmt ein Organismus vor, und (ii) wie konnten sich jene Mechanismen ausbilden, die solche Strukturierungen ermöglichen? Zusätzlich ist zu bedenken, dass sich die außer-organismischen Ereignisfelder – kontinuierlich wie auch disruptiv – ändern. Es reicht also nicht, die Fähigkeit der Herausbildung solcher strukturierenden Mechanismen einmalig anzunehmen, sondern (iii) es muss auch geklärt werden, wie es zu ‚dynamischen Anpassungen‘ der strukturierenden Mechanismen angesichts einer sich ändernden Umwelt kommen kann? Die bisherige Antwort auf die Fragen (i) – (iii) war der Verweis auf (a) evolutionäre Strukturbildung, auf (b) embryonale Entwicklung, sowie auf die (c) flexible Verschaltung von neuronalen Karten sowohl durch (c.1) Rückkopplungen wie auch durch (c.2) Hierarchiebildungen. Mit diesen Annahmen zu einer komplexen dynamischen Maschinerie verbindet Edelman die Überzeugung, dass sich damit alle bekannten komplexen Funktionsleistungen des Gehirns (wie z.B. ‚Gedächtnis‘ (‚memory‘) wie auch beobachtbare psychologische Eigenschaften ‚erklären‘ lassen. (vgl. S.99f)

  3. Für das, was nach Edelman ‚erklärt‘ werden soll, benutzt er die Worte ‚Bewusstsein‘, ‚Intentionalität‘, ‚Kategorisierung der Wahrnehmung‘ (‚perceptual categorization‘), ‚Gedächtnis‘ und ‚Lernen‘. Und er spricht im Zusammenhang dieser Wortmarken von ‚höheren Gehirnfunktionen‘ (‚higher brain functions‘). Damit verknüpft Edelman in dieser kurzen Beschreibung zwei methodisch unterschiedliche Betrachtungsweisen: die Begriffe ‚Bewusstsein‘, ‚Intentionalität‘, ‚Kategorisierung der Wahrnehmung‘, ‚Gedächtnis‘ und ‚Lernen‘ gehören normalerweise in den Bereich der verhaltensbasierten Psychologie; der Begriff ‚höhere Gehirnfunktionen‘ dagegen verweist auf den Bereich der Biologie mit den Spezialbereichen Physiologie und darin noch spezieller der Gehirnforschung. Damit findet sich hier die Stelle, wo er die beiden Pole Psychologie und Gehirnforschung verknüpfen möchte. Bemerkenswert ist seine ausdrückliche Feststellung, dass diese 5 mentalen Leistungen, obwohl sie oft ‚getrennt/ isoliert‘ (’separated‘) behandelt werden, doch ‚untrennbare Aspekte einer gemeinsamen mentalen Leistung‘ (‚inseparable aspects of a common mental performance‘) darstellen. Diese Feststellung geht weit über die benannten einzelnen Wortmarken hinaus. Aus dieser Feststellung folgt, dass wir es hier mit 5 unterscheidbaren mentalen ‚Leistungen‘ zu tun haben, die man als ‚Funktionen‘ {f1, …,f5} auffassen kann und sie in einer wissenschaftlichen Sicht auch so auffassen muss; dazu postuliert Edelman eine Superfunktion f*, die sich aus diesen genannten 5 Funktionen ‚zusammensetzt‘ als etwa f* = f1 u … u f5. Sind schon die einzelnen Funktionen – jede für sich – sehr ‚komplex‘ (und bis heute in der Psychologie nur unvollständig erklärt), so führt die postulierte Superfunktion f* in einen Denkbereich, der nur schwer zu fassen ist, und der bislang eigentlich von niemandem theoretisch irgendwie modelliert worden ist. (vgl. S.100) //* Falls es doch irgendwo solch eine Ausarbeitung gibt, wäre ich als Autor für einen Hinweis sehr dankbar! *//

  4. Edelman sagt ganz klar, dass es der Bereich des ‚Verhaltens‘ (‚behavior‘, ‚B‘ ) ist, an dem die Bedeutung der drei ‚fundamentalen Funktionen‘ (‚fundamental functions‘) f1 ‚Kategorisierung der Wahrnehmung‘, f2 ‚Gedächtnis‘ und f3 ‚Lernen‘ zu ‚testen‘ sind. Und er sieht auch eine funktionale Abhängigkeit zwischen diesen fundamentalen Funktionen der Art, dass f2 (Gedächtnis) die Funktion f1 (Kategoriale Wahrnehmung) voraussetzt und die Funktion f3 (Lernen) setzt sowohl f1 als auch f2 voraus. Alle drei ‚beeinflussen‘ (‚affect‘) das Verhalten ‚B‘, weil sie sich untereinander beeinflussen. Angenähert könnte man dann formulieren B = (f1,f2,f3). Nach Edelmann versorgen Wahrnehmen und Gedächtnis das System mit grundlegenden Datenstrukturen, und Lernen kann daraus neue, weiterreichende Strukturen ableiten. Dann stellt Edelman plötzlich fest, dass die beiden Funktionen f1 und f2 für das Lernen f3 zwar notwendige Voraussetzungen bilden (also: f3 = (f1,f2), aber sie alleine noch nicht ausreichend wären; es bedarf noch einer weiteren Funktionalität fx, also f3=(f1,f2,fx). Diese weitere Funktion fx verweist nach Edelman auf ein ‚Wertesystem‘ (‚value system‘), das von den Kategorisierungsleistungen des Wahrnehmens und Erinnerns unabhängig ist. Wir bekommen damit folgende Zusammenhänge: B = f*() mit f* = (f3,f4,f5) und f3 = (f1,f2,fx). (vgl. S.100)

  5. Das ‚Wertesystem‘ fx hat – aus Sicht des Verhaltens B – mehrere Eigenschaften: (i) es basiert auf unterschiedlichen Wertelieferanten fx = (fx1, …, fxn), die (ii) unterschiedliche ‚Erwartungen‘ (‚expectancy‘) als ‚Referenzpunkte‘ (’set points‘) ausbilden können. Diese Erwartungen können als Fitnesswerte in dem Sinne genutzt werden, dass ein Systemverhalten solche Referenzpunkte entweder ‚befriedigt‘ (und damit wieder ‚zurück setzt‘) oder ’nicht befriedigt‘ (und damit ’nicht zurücksetzt‘). Ein Lernen f3 ist ‚erfolgreich‘ (‚is achhieved‘), wenn das System seine ‚Systemzustände‘ (‚IS‘) so arrangieren kann, dass ‚in der Zukunft‘ das Verhalten des Systems bei Auftreten von werthaften Referenzpunkten direkt die ‚richtige Verhaltensantwort‘ findet. Dies impliziert als eine weitere Komponente eine ‚Dauer‘, eine zeitliche Erstreckung zwischen zwei ‚Zeitpunkten‘ (t,t‘) mit t‘ als ’später‘ zu t. Nur unter Voraussetzung einer ‚hinreichend langen‘ Zeitdauer (t,t‘) kann Lernen sich realisieren, also f3(f1,f2,fx,(t,t‘)) = (Success_1, …, Success_n) mit der Bedeutung, dass Lernen innerhalb einer Zeitspanne (t,t‘) dazu führt, dass werthafte Referenzpunkte von fx() mit Hilfe von Wahrnehmung, Wahrnehmungskategorien und Gedächtnis in ‚möglichst kurzer Zeit‘ so bedient werden können, dass sie auf einen ’neutralen Wert‘ zurück gehen. Das exakte Zusammenspiel zwischen einem solchen Lernen f3() und den übrigen Größen f4, f5 und Verhalten ‚B‘ bleibt zunächst offen. (vgl. S.101)

  6. Den Zusammenhang zwischen diesen verhaltensbasierten Begriffen – nennen wir sie hier ‚Begriffe_B‘ – und jenen Begriffen, die auf der Theorie der neuronalen Gruppen basiert – nennen wir sie hier ‚Begriffe_NN‘ – sieht Edelman grundsätzlich darin, dass die Begriffe_NN letztlich ein materielles System S_NN beschreiben, das als ein ‚Modell‘ dienen kann, über dem man die Begriffe_B ‚interpretieren‘ kann. Anders ausgedrückt postulirt Edelman hier eine Abbildung der Art: Interpretation_B_NN : Begriffe_B <—> Begriffe_NN. Edelman beschreibt diese Abbildung an dieser Stelle aber nicht wirklich; er unterstellt sie einfach; er nimmt sie an und illustriert sie anhand sehr vager Beispiele. (vgl. S.101)

  7. Edelman führt an dieser Stelle noch einen weiteren Prozess (eine Funktion) ‚fc‘ ein, dem er die Fähigkeit zuschreibt, dass dieser auf der Basis von Wahrnehmung (f1) und von Gedächtnis (f2) im Kontext des Lernens (f3) und möglicherweise auch — das sagt er nicht explizit – unter Berücksichtigung des Wertesystems (fx) in der Lage ist, ‚allgemeine Beziehungen‘ (‚general relational properties‘) hervorzubringen (‚to yield‘). Unter Voraussetzung dieser fünf Funktionen {f1, f2, f3, fx, fc} will er dann später zeigen, wie man damit das ‚Auftreten eines Bewusstseins‘ (‚the emergence of consciousness‘) erklären kann. //* Es sei hier darauf hingewiesen, dass die Kozeptualisierungsleistung fc im Rahmen psychologischer Modelle des Gedächtnisses oft als eine Eigenschaft des Gedächtnisses angesehen wird bzw. — was Edelman ja zuvor selbst feststellt – z.T. auch schon als eine Leistung der Wahrnehmung f1. *//

  8. Den Rest des Kapitels widmet Edelman zwei Wortmarken: ‚Gedächtnis‘ (‚memory‘) und ‚Konzepte‘ (‚concepts‘).

  9. Seine allgemeinste Bedeutungszuschreibung zur Wortmarke ‚Gedächtnis‘ geschieht in der verhaltensbasierten Perspektive der Psychologie, indem er die Wortmarke ‚Gedächtnis‘ verbindet mit der ‚Fähigkeit, ein Verhalten zu wiederholen‘ (f2) (‚ability to repeat a performance‘). Diese Fähigkeit beinhaltet die andere, kurz zuvor eingeführte, Fähigkeit zur Konzeptualisierung fc, die im Rahmen des Gedächtnisses die zu einem bestimmten Zeitpunkt t vorhandenen konzeptuellen Strukturen ISc(t) ‚erweitert‘ (‚enhancement‘), so dass zu einem späteren Zeitpunkt T‘ eine erweiterte konzeptuelle Struktur ISc(t‘) vorliegt.(vgl. S.102)

  10. Parallel und zwischen diesen vorausgehenden psychologischen Erklärungen streut Edelman immer wieder auf informelle Weise Bemerkungen ein, wie sich die so beschriebenen psychologischen Strukturen und Funktionalitäten durch seine neuronale Maschinerie S_NN erklären lassen würden. Eine wirkliche Erklärung der hier notwendigen Interpretationsleistung der Art: Interpretation_B_NN : Begriffe_B <—> Begriffe_NN mit Begriffe_NN = S_NN leistet Edelman hier aber nicht. (vgl. S.102)

  11. Edelman verweist ferner auf das sich im Verhalten manifestierende Phänomen, dass Konzeptualisierungen, die wir als ‚Kategorien‘ auffassen und nutzen, nicht statisch sondern ‚dynamisch‘ sind, d.h. der Prozess des Anordnens läuft kontinuierlich und neue Ereignisse können bisherige Anordnungen ‚überschreiben‘, ‚ergänzen‘. (vgl. S.102)

  12. Wie schon zuvor bemerkt, ist die Einführung der eigenständigen Kategorisierungsleistung (Konzeptbildung) fc im Rahmen des Gedächtnisses in ihrer Beziehung zu der vorausgehenden Kategorisierungsleistung f1 in der Wahrnehmung nicht klar beschrieben. Und auf S.104 charakterisiert er die Kategorisierungsleistung der Wahrnehmung f1 als ‚zufallsgesteuert‘ (‚probabilistic‘) und als die ‚initiale Basis‘ (‚initial basis‘) des Gedächtnisses f2 und — das muss man hier unterstellen – der weiteren Kategorisierungsleistung fc des Gedächtnisses. Allgemeine, sich im Verhalten manifestierende psychologisch begründete Begriffe wie ‚Assoziation‘, ‚Ungenauigkeit‘ (‚inexactness‘), sowie ‚Generalisierung‘, sieht Edelman als Ergebnis dieser vorausgesetzten f1, f2 und fc Leistungen.(vgl. S.104)

  13. Edelman betont ausdrücklich, dass das ‚Gedächtnis‘ f2 über die Fähigkeit verfügt, die ‚zeitliche Abfolge von Ereignissen‘ zu ’notieren‘ (‚to account of‘).(vgl. S.104)

  14. Nachdem Edelman eine Reihe von psychologisch motivierte Wortmarken – wie z.B. {f1, f2, f3, fx, fc} – eingeführt hatte, die das verhaltenspsychologische Begriffsfeld Begriffe_B bilden, führt er nun weitere, neue Wortmarken aus dem Bereich des Gehirns ein, die alle zum physiologisch motivierten Begriffsfeld Begriffe_NN gehören. Sein Motiv für diese begrifflichen Erweiterungen ist, dadurch mehr begriffliche Möglichkeiten zu bekommen, um die Interpretationsfunktion Interpretation_B_NN : Begriffe_B <—> Begriffe_NN zu differenzieren.

  15. Er beginnt mit der Einführung der Begriffe ‚Cortex‘ (Cx), ‚Cerebellum‘ (Cm), ‚Hippocampus‘ (Hp), und ‚Basal Ganglia‘ (Bg), wobei Cm, Hp und Bg den Prozess des Cortex im Bereich des ‚räumlichen und zeitlichen Ordnens‘ unterstützen, was Edelman in Verbindung sieht mit den psychologisch beschriebenen Leistungen des Gedächtnisses. (vgl. S.104) Auf der nächsten Seite erwähnt er auch noch den ‚Motor Cortex‘ (Cxm), der als Teil des Cortex eng mit den zuvor genannten Strukturen kooperiert. (vgl. S.105)

  16. Bemerkenswert ist, dass Edelman bei der Charakterisierung der Leistungen der genannten Gehirnstrukturen auf psychologische Begriffe zurückgreift, z.B. wenn er vom Cerebellum Cm sagt, dass es eine wichtige Rolle spiele bei der ‚zeitlichen Ordnung‘ und einem ‚möglichst kontinuierlichen Verlauf‘ von Bewegungen (‚timing and smoothing of successions of movements‘). Letztlich kennen wir primär nur ein beobachtbares Verhalten und dessen Eigenschaften. Und es ist natürlich ein solches beobachtbares Verhalten (Gegenstand der Psychologie) als eine Art ‚Referenzpunkt‘ zu nehmen, um zu schauen, welche physiologischen Prozesse und welche zugehörigen physiologische Strukturen – wie z.B. das Cerebellum – im Kontext eines solchen beobachtbaren Verhaltens auftreten. Sofern es gelingt (was methodisch und messtechnisch extrem schwierig ist), eine irgendwie statistisch signifikante Korrelation zwischen physiologischen Messwerten und psychologischen Beobachtungswerten zu erfassen, kann man feststellen, dass z.B. das Cerebellumg Cm ‚eine wichtige Rolle spiele bei‘. Ohne ein explizites psychologisches Referenzmodell Begriffe_B wäre eine solche Korrelation ’spielt eine Rolle bei‘ nicht möglich. Dabei reicht es auch nicht aus, irgendwelche isolierte physiologische Messwerte zu haben, sondern man benötigt ein komplettes physiologisches Referenzmodell Begriffe_NN, das von den physiologischen Messwerten motiviert wird, das man mit dem psychologischen Referenzmodell Begriffe_NN in Beziehung setzt. Man müsste dann verfeinert sagen: (i) aufgrund von psychologischen Verhaltensdaten DAT_B generieren Psychologen ein psychologisches Referenzmodell Begriffe_B; (ii) aufgrund von physiologischen Messwerten DAT_NN generieren Physiologen (Gehirnforscher) ein physiologisches Referenzmodell Begriffe_NN; (iii) In einem interdisziplinären Team wird eine Interpretationsfunktion Interpretation_B_NN : Begriffe_B <—> Begriffe_NN konstruiert, die einen Zusammenhang herstellt zwischen psychologischen Verhaltensdaten und physiologischen Messwerten.(vgl. S.104f)

  17. Auf der Verhaltensebene unterscheidet Edelman zwischen der ‚einzelnen Handlung‘ mit deren zeitlicher und kontinuierlicher Ausführung einerseits und ‚zeitlich sich erstreckenden Handlungsfolgen‘. Diese längeren, komplexeren – psychologisch charakterisierten — ‚Handlungsfolgen‘ bringt er in Verbindung mit der physiologischen Struktur genannt ‚Basal Ganglia‘ Bg. Eine solche komplexe Funktion wie ‚Handlungsplanung‘ (fd) interagiert mit sehr vielen unterschiedlichen anderen Funktionen, u.a. auch mit dem Wertesystem fx.(vgl. S.105f)

  18. Für die Charakterisierung der nächsten physiologischen Struktur Hippocampus (Hp) benötigt Edelman weitere psychologische Begriffe, die er bislang noch nicht eingeführt hatte: er unterscheidet bei der psychologischen Funktion des Gedächtnisses (f2) zwischen eine ‚Kurzzeit-Gedächtnis‘ (’short-term memory‘) (Mst) und einem ‚Langzeit-Gedächtnis‘ (‚long-term memory‘) (Mlt). Zwischen diesen beiden psychologischen Formen des Gedächtnisses gib es spezifische Interaktionsmuster. Eines hat damit zu tun, dass Elemente des Kurzzeitgedächtnisses in das Langzeitgedächtnis ‚übernommen‘ werden. Und mit Bezug auf dieses psychologische Referenzmodell sieht Edelman den Hippocampus mit beteiligt. Der Hippocampus empfängt von allen Teilen des Cortex Signale, auch vom Wertesystem fx, und schickt seine Prozesswerte auch wieder zu den sendenden Stellen zurück.(vgl. S.106f)

  19. Abschließend zu den genannten Strukturen ‚Cortex‘ (Cx), mit ‚Motor-Cortex (Cxm), ‚Cerebellum‘ (Cm), ‚Hippocampus‘ (Hp), und ‚Basal Ganglia‘ (Bg) meint Edelman, dass die Differenziertheit und Flexibilität dieser Strukturen – kondensiert in einem physiologischen begrifflichen Modell Begriffe_NN – ausreicht, um das zuvor erstellte psychologische Referenzmodell des Verhaltens zu erklären.(vgl. S.107f)

  20. An dieser Stelle kommt Edelman nochmals zurück auf die Wortmarke ‚Konzepte‘ (‚concepts‘) und grenzt seine Verwendung dieser Wortmarke ab von jener, in der ‚Konzepte‘ in einem rein linguistischen Kontext gesehen wird. Für Edelman sind ‚Konzepte‘ Ordnungsstrukturen (Kategorien), durch die der Strom der Wahrnehmungen und der Gedächtnisinhalte, immer wieder neu geordnet werden können, vorab zu jeder Sprache, als Voraussetzung für Sprache. Das System gewinnt dadurch die Möglichkeit, sein Verhalten mit Bezug auf diese Strukturen neu zu kontrollieren. (vgl. S.108)

  21. Das Besondere an der Konzeptualisierungsfähigkeit ist, dass sie auch unabhängig von aktuellen Stimuli stattfinden kann, dass sie sich auf ‚alles‘ anwenden kann, was im Wahrnehmen, Erinnern und Denken vorkommen kann. Dies bedeutet, die Konzeptualisierungsfähigkeit kann ihre eigenen Ergebnisse, so abstrakt sie auch sein mögen, zum Gegenstand einer späteren Aktivität machen. //* Mathematiker nennen solch eine Struktur ‚rekursiv‘ *// Solche ‚abstrakteren‘ Strukturen (Konzepte) benötigen auch keine ‚topographischen‘ Strukturen, wie man sie im Bereich der sensorischen Wahrnehmung findet. Dies hat zur Folge, dass auch nicht-topographische Ereignisse wie z.B. systemrelevante ‚Werte‘ (über Bedürfnisse wie Hunger, Durst,…) in die Strukturierung einbezogen und damit verhaltensrelevant werden können. (vgl. S.108-110)

  22. Erstaunlich ist, dass Edelman an dieser Stelle nun eine Wortmarke einführt, die weder dem physiologischen Sprachspiel zugehört, noch dem psychologischen, sondern dem philosophischen Sprachspiel sofern es auf den Raum subjektiver Phänomene fokussiert ist: ‚Intentionalität‚, indem er sagt, dass die konzeptuellen Strukturbildungen ‚intentional‚ (‚intentional‘) sind. Und Edelman geht noch weiter; er sieht hier einen ‚Übergang‘, eine ‚Brücke‘ (‚the bridging elements‘) von der Physiologie zum ‚Bewusstsein‚ (‚consciousness‘) und er stellt ausdrücklich fest, dass für diesen Brückenschlag ‚keine neuen theoretischen Annahmen‘ (’no new theoretical assumptions‘) gemacht werden müssen. Diese letzte Bemerkung trifft zu, wenn man sie auf die vorausgesetzte physiologische Maschinerie bezieht: das physiologische Modell Begriffe_NN wird nicht verändert. Mit der Einführung der Wortmarken ‚Intentional‘ und ‚Bewusstsein‘ aktiviert er aber ein neues (philosophisches) Sprachspiel, das er bislang nicht benutzt hat, und das er bislang in keiner Weise erklärt hat. Man müsste hierfür auch einen eigenen Begriff Begriffe_PH einführen vergleichbar zu Begriffe_B und Begriffe_NN und man müsste natürlich auch hier explizite Interpretationsfunktionen einführen wie Interpretation_B_PH : Begriffe_B <—> Begriffe_PH sowie Interpretation_NN_PH : Begriffe_NN <—> Begriffe_PH.

DISKUSSION FORTSETZUNG: KAP.10

  1. Aus wissenschaftsphilosophischer Sicht ist das Kapitel 10 sehr aufschlussreich. Der in den vorausgehenden Kapiteln immer wieder angedeutete Brückenschlag zwischen Physiologie (mit Gehirnforschung) und Psychologie (verhaltensorientiert) wird in diesem Kapitel ein wenig ‚anfassbarer‘. Allerdings nicht in dem Sinne, dass der Brückenschlag nun explizit erklärt wird, aber so, dass einerseits die Begrifflichkeit auf psychologischer Seite und andererseits die Begrifflichkeit auf physiologischer Seite etwas ausdifferenziert wird. Die Beschreibung der Beziehung zwischen beiden Begrifflichkeiten verbleibt im Bereich informeller Andeutungen bzw. in Form von Postulaten, dass die zuvor geschilderte physiologische Maschinerie in der Lage sei, die angedeuteten psychologischen Strukturen in ihrer Dynamik zu ‚erklären‘.

  2. Am Ende des Kapitels 10, mehr nur in Form einer kurzen Andeutung, in einer Art Fußbote, bringt Edelman noch die Begriffe ‚Intentionalität‘ und ‚Bewusstsein‘ ins Spiel, allerdings ohne jedwede Motivation, ohne jedwede Erklärung. Diese Begriffe entstammen einen ganz anderen Sprachspiel als dem zuvor besprochenen physiologischen oder psychologischem Sprachspiel; sie gehören zum philosophischen Sprachspiel, und die Behauptung Edelmans, dass man auch diese Wortmarken aus dem philosophischen Sprachspiel in ein Erklärungsmuster einbeziehen könnte, das seine Grundlage in dem physiologischen Modell Begriffe_NN habe, ist an dieser Stelle ein reines Postulat ohne jeglichen Begründungsansatz.

  3. Wissenschaftsphilosophisch kann man hier festhalten, dass man drei Sprachspiele unterscheiden muss:

    1. Ein psychologisches Sprachspiel, das von Verhaltensdaten DAT_B ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_B einführt (Modelle, Theorien), um die Verhaltensdaten zu erklären.

    2. Ein physiologisches Sprachspiel, das von physiologischen Daten DAT_NN ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_NN einführt (Modelle, Theorien), um die Prozesse der physiologischen Strukturen (Gehirn) zu erklären.

    3. Ein phänomenologisches Sprachspiel (Teilbereich der Philosophie), das von phänomenologischen Daten DAT_PH ausgeht, und relativ zu diesen Begriffsnetzwerke Begriffe_PH einführt (Modelle, Theorien), um die Prozesse der phänomenologischen Strukturen (Bewusstsein) zu erklären.

  4. Diese Sprachspiele kann man isoliert, jedes für sich betreiben. Man kann aber auch versuchen, zwischen den verschiedenen Sprachspielen ‚Brücken‘ zu bauen in Form von ‚Interpretationsfunktionen‘, also:

    1. Zwischen Psychologie und Physiologie: Interpretationsfunktion Interpretation_B_NN : Begriffe_B <—> Begriffe_NN

    2. Zwischen Psychologie und Phänomenologie: Interpretationsfunktion Interpretation_B_PH : Begriffe_B <—> Begriffe_PH

    3. Zwischen Phänomenologie und Physiologie: Interpretationsfunktion Interpretation_PH_NN : Begriffe_PH <—> Begriffe_NN

  5. Man muss festhalten, dass es bis heute (2018) solche Interpretationsfunktionen als explizite Theorien noch nicht gibt; genauso wenig gibt es die einzelnen Theorien Begriffe_X (X=B, PH, NN) als explizite Theorien, obgleich es unfassbare viele Daten und partielle (meist informelle) Beschreibungen gibt.

ANHANG: BILD VON ANGESTRICHENEN BUCHSEITEN

 

Beispiel, wie die Buchseiten aussehen, nachdem ich sie 'gelesen' habe ...
Beispiel, wie die Buchseiten aussehen, nachdem ich sie ‚gelesen‘ habe …

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 5

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 28.August 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE ÄNDERUNG: 1.Dez.2018, Wiederholung der vorausgehenden Diskussion gestrichen. Kumulierte Zusammenfassungen sind HIER.

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

KAP.6 TOPOBIOLOGIE: WAS MAN VOM EMBRYO LERNEN KANN

  1. Der Ausgangspunkt ist weiterhin die Frage, welche materiellen Prozesse zu jenen materiellen Strukturen geführt haben, die für uns den homo sapiens repräsentieren. Diese materiellen Strukturen des homo sapiens zeigen eine Fülle von Verhaltenseigenschaften (Dynamiken), die wir als Hinweise auf ‚Geist‘ klassifizieren. Bisher wurden diese vorausgehenden formierenden Prozesse schon begrenzt auf die beiden Pole ‚Genotyp‘ und ‚Phänotyp‘ mit der Arbeitshypothese, dass die Eigenschaften des Genotyps weitgehend (wie weitgehend eigentlich? Kann man das quantifizieren?) die Eigenschaften des Phänotyps festlegen. Edelman selbst konkretisiert diese beiden Pole noch weitergehender mit der Frage, wie ein ‚ein-dimensionaler genetischer Kode‘ letztlich ein ‚drei-dimensionales Lebewesen‘ definieren kann.(vgl. S.63)
  2. Die Redeweise vom ‚genetischen Kode‘ setzt voraus, dass es eine Instanz gibt, die die Eigenschaften des Moleküls, das als ‚genetischer Kode‘ angesehen wird, als ‚Kode‘ ‚interpretieren‘ kann, d.h. diese Kode-erkennende-und-interpretierende Instanz (letztlich wieder ein Molekül) ist in der Lage, zwischen den materiellen Eigenschaften des Gen-Repräsentierenden Moleküls (normalerweise als DNA-Molekül vorliegend) und einer möglichen Proteinstruktur eine ‚Abbildung‘ vorzunehmen, die aus dem Bereich des ‚abstrakten Kodes‘ hinaustritt in den Bereich realer, 3-dimensionaler materieller Strukturen und Prozesse.
  3. Edelman beschreibt die konkreten Details des Gen-repräsentierenden-Moleküls M_gen (als DNA-Molekül; spezielle Abschnitte eines DNA-Moleküls repräsentieren ‚Gene‘), beschreibt die einzelnen Kode-Elemente (genannt ‚Kodons‘, ‚codons‘), die den späteren Transformationsprozess in materielle Strukturen steuern. Dieser Transformationsprozess geschieht aber nicht direkt, sondern über einen Zwischenschritt, in dem das Gen-repräsentierenden-Molekül M_gen in ein spiegel-identisches Gen-repräsentierendes-Molekül M_gen* (als RNA-Moleküle) übersetzt wird, das den Zellkern einer Zelle verlässt und dort dann von einer Kode-erkennende-und-interpretierende Instanz (‚cellular device‘) schrittweise in Aminosäuren übersetzt wird, die aneinander gekettet lange Moleküle (Polypeptide) bilden, die sich weiter als drei-dimensionale Strukturen ausformen, die schließlich Proteine repräsentieren. Aufgrund ihrer drei-dimensionalen Struktur kommen den Proteinen ‚Formen‘ (’shapes‘) zu, mit denen sich charakteristische ‚Eigenschaften‘, ‚Funktionen‘ verbinden. Schon diese Proteinformen kann man als Zwischenstufen zu einem Phänotyp ansehen. Unter anderem können sich Proteine zu komplexen ‚Zellen‘ zusammen finden (einem weiteren, komplexen Phänotyp), die ihren eigenen Zellkern haben mit einem spezifischen Genotyp. Verschiedene Proteine können ganz verschiedene Zellen bilden! (vgl. SS.52-57)
  4. Schon dieser Transformationsprozess von einem Gen-repräsentierenden-Molekül M_gen zu einer Zelle deutet in den einzelnen Phasen vielfältige Möglichkeiten der Variation, der Veränderung an. Doch, eine einzelne Zelle macht noch kein Lebewesen. Eine Lebensform wie der homo sapiens besteht – wie wir heute wissen – aus vielen Billionen (10^12) einzelnen Zellen, allein das Gehirn aus ca. 90 Milliarden neuronalen Zellen (ohne Glia-Zellen). Wie muss man sich diesen Weg von einer (!) befruchteten Zelle zu vielen Billionen Zellen in Form eines Lebewesens vorstellen?
  5. Dieser Transformationsprozess von einer befruchteten Eizelle ‚Zygote‘ genannt (‚zygote‘) zum ausgewachsenen Lebewesen wird von der Teilwissenschaft der ‚Embryologie‘ (‚embryology‘) behandelt. Die befruchtete Zelle (eine Vereinigung einer ‚Samenzelle‘ (’sperm cell‘) und einer ‚Eizelle‘ (‚egg cell‘) unterläuft eine lange Serie von Teilungen. Zellen können aber noch mehr als sich nur teilen: sie können ‚migrieren‘ (‚migrate‘), ‚absterben‘, ‚anhaften aneinander‘, und sich ‚differenzieren‘ (‚differentiate‘), d.h. abhängig von bestimmten chemischen Signalen in ihrer Umgebung werden unterschiedliche Gene aktiviert, um ganz spezifische Proteine zu erzeugen. Dadurch können Zellen (das Phänotyp) ganz unterschiedliche Dynamiken, unterschiedliche Verhaltensweisen zeigen. Differentiation von Zellen ist somit kontextabhängig, d.h. setzt die Nähe zu bestimmten anderen Molekülen (die als Signale fungieren) voraus, wobei die Signale Sender voraussetzen, die in Form von Zellen auftreten.(vgl. S.57f)
  6. Aufgrund dieser grundlegenden Fähigkeit der Differentiation (also eines signalabhängigen Verhaltens (Edelman spricht hier von ‚Ortsabhängigkeit‘; mit dem griechischen Wort ‚topos‘ für Ort spricht er dann auch von ‚Topobiologie‘; diese Wortwahl ist aber gefährlich, da sie primär Raumstrukturen nahelegt, obgleich der Prozess selbst nur Signale kennt (natürlich in einem Raum)) können Zellen, selbst wenn sie sich im Verlaufe des Transformationsprozesses zu unterschiedlichen ‚Schichten‘ (‚layer‘) anordnen, über Entfernungen hinweg ‚Signale senden‘, die kontextbedingt ausgelöst werden. Die schrittweise ‚Gestaltwerdung‘ von immer komplexeren Strukturen wird damit ‚aus sich selbst‘ gesteuert. Je nach aktueller Anordnung bestehen spezifische Kontexte, die spezifische neue Signale auslösen, die die ’nächsten Schritte‘ einleiten. Dabei spielen offensichtlich zwei Faktoren ineinander: (i) das in den Genen hinterlegte ‚Programm‘ konstituiert ein allgemeines ‚Schema‘, ein ‚Template‘, das einen grundlegenden Bauplan, eine grundlegende Architektur skizziert, und (ii) die jeweils konkreten individuellen Zellen, die assoziiert mit unterschiedlichen Kontexten durch den Raum wandern, bilden ein konkretes ‚Bedingungsgefüge‘, eine aktuelle ‚Selektionsmatrix‘, die darüber entscheidet, wann und wie Teile des generellen Bauplans konkretisiert werden. Der Möglichkeitsraum des genetischen Programms wird über die Konkretheit der selektierenden Zellen eingeschränkt, auf konkrete Punkte ‚herunter spezifiziert‘. Dieser Vorgang bietet zahlreiche Variationsmöglichkeiten. Mittlerweile hat man entdeckt, dass der Signalprozess stark hierarchisch sein kann insofern es ‚homöotische‘ (‚homeotic‘) Gene gibt, die die Proteinproduktion bestimmter Gene kontrollieren. (vgl. SS.58-63)
  7. Edelman benutzt den Begriff ‚Epigenetik‘ in den geschilderten Kontexten als jene Faktoren, Ereignisse, Prozesse, die zusätzlich zu den Genen selbst für die Umsetzung der Transformation von Genen in Proteinen, in Zellen, in Zellverbände verantwortlich sind.(vgl. S.62)
  8. Nach diesem embryologischen Einblick in die Entwicklungsdynamik eines Organismus kann Edelman skizzieren, wie die charakteristischen Strukturen des Gehirns eines homo sapiens sich gebildet haben können und warum diese Strukturen artspezifisch sind, d.h. diese Strukturen sind typisch für den homo sapiens; alle Exemplare der Lebensform ‚homo sapiens‘ haben die gleiche Struktur. Zugleich gilt aber auch, dass selbst eineiige Zwillinge sich im Detail dieser Strukturen unterscheiden können und tatsächlich unterscheiden. Das Zusammenspiel von allgemeinem genetischen Programm und den ‚konkreten individuellen Zellen‘ in ihren jeweils ’spezifischen Kontexten‘ bietet solch ungeheure Variationsmöglichkeiten, dass das gleiche artspezifische genetische Programm sich im Detail immer unterscheiden wird. Diese in der Art des Transformationsprozesses angelegte Variabilität ist aber eben nur die eine Seite. Die andere Seite ist die arttypische Struktur, die einen Organismus, ein Gehirn spezifiziert, wodurch eine ‚Architektur‘ definiert wird, die unterschiedlichste Funktionen an unterschiedliche ‚Komponenten‘ bindet, die zudem typische ‚Interaktionsmuster‘ zeigen. Exemplare des homo sapiens haben daher alle eine typische Weise des ‚Wahrnehmens‘, des ‚Erinnerns‘, des ‚Denkens‘, des ‚Fühlens‘, usw.(vgl. S.63f)

DISKUSSION FORTSETZUNG

  1. Die fundamentale Tatsache, dass es Moleküle gibt, die andere Moleküle als ‚Kode‘ benutzen können, um Transformationsprozesse zwischen einer Sorte von Molekülen (DNA, RNA) in eine andere Sorte von Molekülen (Polypeptide, Proteine) steuern zu können, nimmt Edelman als Faktum hin, thematisiert es selbst aber nicht weiter. Er benennt diese ‚interpretierenden Moleküle‘ auch nicht weiter; sein Begriff ‚cellular device‘ ist eher nichtssagend. Dennoch ist es gerade diese Fähigkeit des ‚Übersetzens’/ ‚Interpretierens‘, die fundamental ist für den ganzen Transformationsprozess von einem Genom in einen Phänotyp bzw. in eine ganze Kette von hierarchisch aufeinander aufbauenden Phänotypen. Setzt man diese Übersetzungsfähigkeit voraus, ist das ganze folgende Transformationsgeschehen – so komplex es im Detail erscheinen mag – irgendwie ‚trivial‘. Wenn ich in mathematischer Sicht irgendwelche Mengen habe (z.B. verschiedene Arten von Moleküle), habe aber keine Beziehungen definiert (Relationen, Funktionen), dann habe ich quasi ‚Nichts‘. Habe ich aber z.B. eine Funktion definiert, die eine ‚Abbildung‘ zwischen unterschiedlichen Mengen beschreibt, dann ist es eine reine Fleißaufgabe, die Abbildung durchzuführen (z.B. die Übersetzung von DNA über RNA in Aminosäuren, dann Polypeptide, dann Proteine). Das die Biochemie und Mikrobiologie samt Genetik so viele Jahre benötigt hat, die Details dieser Prozesse erkennen zu können, ändert nichts daran, dass diese Transformationsprozesse als solche ‚trivial‘ sind, wenn ich die grundlegende Transformationsfunktion definiert habe. Wo aber kommt diese grundlegende Abbildungsfunktion her? Wie kann es sein, dass ein ordinäres chemisches Molekül ein anderes ordinäres chemisches Molekül als ‚Kode‘ interpretiert, und zwar genau dann so, wie es geschieht? Betrachtet man ’normale‘ Moleküle mit ihren chemischen Eigenschaften isoliert, dann gibt es keinerlei Ansatzpunkt, um diese grundlegende Frage zu beantworten. Offensichtlich geht dies nur, wenn man alle Moleküle als eine Gesamtheit betrachtet, diese Gesamtheit zudem nicht im unbestimmten Raum, sondern in Verbindung mit den jeweils möglichen ‚realen Kontextbedingungen‘, und dann unter Berücksichtigung des potentiellen Interaktionsraumes all dieser Moleküle und Kontexte. Aber selbst diese Raum repräsentiert im mathematischen Sinne nur Mengen, die alles und nichts sein können. Dass man in diesem Raum eine Funktion implantieren sollte, die dem Dekodieren des genetischen Kodes entspricht, dafür gibt es im gesamten Raum keinerlei Ansatzpunkt, es sei denn, man setzt solche eine Funktion als ‚Eigenschaft des Raumes‘ voraus, so wie die Physiker die ‚Gravitation‘ als Eigenschaft des Raumes voraussetzen, ohne irgendeinen Ansatzpunkt im Raum selbst zu haben, als die beobachtbare Wirkung der Gravitation. Die Biologen können feststellen, dass es tatsächlich einen Transformationsprozess gibt, der solch eine Abbildungsbeziehung voraussetzt, sie haben aber keine Chance, das Auftreten dieser Abbildungsbeziehung aus den beobachtbaren materiellen Strukturen abzuleiten!!!
  2. In der Beschreibung von Edelmans Position habe ich schon angemerkt, dass seine Wortwahl ‚Topobiologie‘ möglicherweise unglücklich ist, da es letztlich nicht der dreidimensionale Raum als solcher ist, der entscheidend ist (wenngleich indirekt die Drei-Dimensionalität eine Rolle spielt) sondern der ‚Kontext in Form von interaktiven Nachbarschaften‘: welche andere Zellen stehen in Interaktion mit einer Zelle; welche Signale werden empfangen. Indirekt spielt dann auch der ‚vorausgehende Prozess‘ eine Rolle, durch den eben Kontexte erzeugt worden sind, die nur in bestimmten Phasen des Prozesses vorliegen. Man hat also eher einen ‚Phasenraum‘, eine Folge typischer Zustände, die auseinander hervorgehen, so, dass der bisherige Prozess die nächste Prozessphase hochgradig determiniert. Dies ähnelt einer ‚algorithmischen‘ Struktur, in der eine Folge von Anweisungen schrittweise abgearbeitet wird, wobei jeder Folgeschritt auf den Ergebnissen der vorausgehenden Abarbeitungen aufbaut und in Abhängigkeit von verfügbaren ‚Parameterwerten‘ den nächsten Schritt auswählt. Im Unterschied zu einem klassischen Computer, bei dem die Ausführungsumgebung (normalerweise) festliegt, haben wir es hier mit einem algorithmischen Programm zu tun, das die jeweilige Ausführungsumgebung simultan zur Ausführung ‚mit erschafft‘! Wenn Computermetapher, dann eben so: ein Programm (Algorithmus), das seine Ausführungsumgebung (die Hardware) mit jedem Schritt selbst ‚erschafft‘, ‚generiert‘, und damit seine Ausführungsmöglichkeiten schrittweise ausbaut, erweitert. Dies setzt allerdings voraus, dass das genetische Programm dies alles schon ‚vorsieht‘, ‚vorwegnimmt‘. Die interessante Frage ist dann hier, wie ist dies möglich? Wie kann sich ein genetisches Programm ‚aus dem Nichts‘ entwickeln, das all diese ungeheuer komplexen Informationen bezüglich Ausführung und Ausführungsumgebung zugleich ‚aufgesammelt‘, ’strukturiert‘, ‚verpackt‘ hat, wo die Gesamtheit der modernen Wissenschaft bislang nur Fragmente versteht?
  3. Während Neurowissenschaftler (Edelman eingeschlossen) oft mit unsinnigen Computervergleichen versuchen, die Besonderheit des menschlichen Gehirns herauszustellen, kann man ja auch mal umgekehrt denken: wenn die Entwicklung des Gehirns (und des gesamten Organismus) Ähnlichkeiten aufweist mit einem Algorithmus, der seine eigene Ausführungsumgebung während der Ausführung (!!!) mit generiert, ob sich solch ein Prozess auch ‚rein technisch‘ denken ließe in dem Sinne, dass wir Maschinen bauen, die aus einer ‚kleinen Anfangsmenge von Materie‘ heraus ausgestattet mit einem geeigneten ‚Kode‘ und einem geeigneten ‚Interpretierer‘ sich analog selbst sowohl materiell als auch kodemäßig entwickeln? Da die biologischen Systeme zeigen, dass es grundsätzlich geht, kann man solch einen technischen Prozess nicht grundsätzlich ausschließen. Ein solches Gedankenexperiment macht aber sichtbar, worauf es wirklich ankommt: eine solche sich selbst mit-bauende Maschine benötigt auch einen geeigneten Kode und Interpretationsmechanismus, eine grundlegende Funktion. Ohne diese Funktion, geht gar nichts. Die Herkunft dieser Funktion ist aber gerade diejenige grundlegende Frage, die die gesamte empirische Wissenschaft bislang nicht gelöst hat. Es gibt zwar neuere Arbeiten zur Entstehung von ersten Zellen aus Molekülen unter bestimmten realistischen Kontexten, aber auch diese Forschungen beschreiben nur Prozesse, die man ‚vorfindet‘, die sich ‚zeigen‘, nicht aber warum und wieso es überhaupt zu diesen Prozessen kommen kann. Alle beteiligten materiellen Faktoren in diesen Prozessen als solchen geben keinerlei Ansatzpunkte für eine Antwort. Das einzige, was wir bislang wissen, ist, dass es möglich ist, weil wir es ‚beobachten können‘. Die ‚empirischen Phänomene‘ sind immer noch die härteste Währung für Wahrheit.

Fortsetzung folgt HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.