DONALD A.NORMAN, THINGS THAT MAKE US SMART – Teil 3

Diesem Beitrag ging voraus Teil 2.

1) In den vorausgehenden Teilen wurden bislang zwei Aspekte sichtbar: einmal die ‚Menschenvergessenheit‘ in der Entwicklung und Nutzung von Technologie sowie die Einbeziehung von ‚wissensunterstützenden Dingen‘ sowohl außerhalb des Körpers (physisch) wie auch im Denken selber (kognitiv). Ferner hatte Norman die Vielfalt des Denkens auf zwei ‚Arbeitsweisen‘ reduziert: die ‚erfahrungsorientierte‘ Vorgehensweise, ohne explizite Reflexion (die aber über ‚Training‘ implizit in die Erfahrung eingegangen sein kann), und die ‚reflektierende‘ Vorgehensweise.

DREI LERNMETHODEN, MOTIVATION, FLOW

2) Ohne Bezug auf die umfangreiche Literatur zum ‚Lernen‘ unterteilt Norman dann das ‚Lernen‘ in drei Formen ein: (i) Sammeln (‚accretion‘) von Fakten; (ii) eine – meistens – lang andauernde ‚Abstimmung‘ (‚tuning‘) der verschiedenen Parameter für ein reibungsloses Laufen, Schreiben, Sprechen, usw.; (iii) Restrukturierung (‚restructuring‘) vorhandener begrifflicher Konzepte. Während er (i) und (ii) dem ‚Erfahrunfstyp‘ zurechnet bringt er (iii) in Zusammenhang mit der Reflexion. (vgl.SS.28-30)
3) [Anmerkung: von den vielen anderen Autoren und Strömungen, die Überschneidungen mit diesen Überlegungen aufweisen fällr mir insbesondere die Position von Jean Piaget (1896 – 1980) auf, der in beeindruckender Weise Theorieansätze zur Lernentwicklung erarbeitet hatte. Dass Norman mindestens ihn hier nicht erwähnt liegt vielleicht daran, dass der Gesamtrahmen bei Piaget die ‚Entwicklung‘ des Lernens war, während es Norman weniger um die Entwicklung als solcher ging sondern – meine persönliche Spekulation – um Verhaltenstypen von schon ‚entwickelten‘ Personen unter der Annahme, dass es im wesentlichen nur das ’spontane‘ oder das ‚reflektierte‘ Verhalten gibt. Allerdings, eine weitere Analyse von ’spontanem‘ und ‚reflektiertem‘ Verhalten würde unweigerlich zu den Strukturen führen, mit denen sich u.a. Piaget auseinandergesetzt hat (siehe weiter unten). ]
4) Zusätzlich erwähnt er noch den Aspekt der ‚Motivation‘. Anhand eigener Lernexperimente meint er aufzeigen zu können, dass das Vorliegen von Motivation unter sonst gleichen Voraussetzungen zu besseren Lernergebnissen führt als wenn wenn nur ‚Desinteresse‘ vorliegt. (vgl.S.30f)
5) [Anmerkung: Wenn man weiß, wie schwierig die theoretische Formulierung und die empirische Überprüfung von Begriffen wie ‚Motivation‘ ist, dann stellen sich bei diesen Schilderungen von Norman sehr viele Fragen. ]
6) Er stellt dann an mehreren Beispielen Formen von hochmotiviertem Lernen vor, denen gemeinsam ist, dass die Teilnehmer hochmotiviert und konzentriert sind, dies über viele Stunden oder gar Tage, letztlich wiederholbar, dies in Gruppen tun können, sich die Ziele und die Lerngeschwindigkeit bis zu einem gewissen Grad selber setzen können, in denen es direkte persönliche Rückmeldungen (Feedbacks) gibt, keine Ablenkung, mit einem deutlichen Spaßfaktor. (vgl. S.31-41) Diese Art von einem stark benutzerorientiertem und benutzergetriebenem Lernen sieht er im Kontrast zu den meisten Lernprozessen in Schulen und Universitäten.
7) [Anmerkung: Die Darlegungen von Norman zu diesen Punkten sind nicht sehr präzise, lassen aber einen groben Eindruck entstehen über mögliche wirksame Faktoren. Das Hauptproblem in der Theoriebildung sehe ich darin, dass sich hier beobachtbare Verhaltensaspekte mit ‚Deutungsmodellen‘ über lernerinterne Strukturen und Prozesse mischen. Niemand kann in einen Menschen hineinschauen. Alle Annahmen über mögliche interne Faktoren und Prozesse sind theoretische Annahmen, die Hypothesen bilden, die durch experimentelle Daten zu bestätigen oder zu widerlegen wären. Dies würde explizite Annahmen über Wahrnehmungs- und Gedächtnisprozesse voraussetzen, darin als Teilstrukturen explizite Annahmen über Konzept- und Begriffsbildung, usw. Dazu gibt es eine sehr umfangreiche Literatur. All dies findet man in der Darstellung von Norman nicht. ]

Fortsetzung folgt HIER: Teil 4.

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

ERKENNTNISSCHICHTEN – Das volle Programm…

 

  1. Wir beginnen mit einem Erkenntnisbegriff, der im subjektiven Erleben ansetzt. Alles, was sich subjektiv als ‚Gegeben‘ ansehen kann, ist ein ‚primärer‘ ‚Erkenntnisinhalt‘ (oft auch ‚Phänomen‘ [PH] genannt).

  2. Gleichzeitig mit den primären Erkenntnisinhalten haben wir ein ‚Wissen‘ um ’sekundäre‘ Eigenschaften von Erkenntnisinhalten wie ‚wahrgenommen‘, ‚erinnert‘, ‚gleichzeitig‘, ‚vorher – nachher‘, ‚Instanz einer Klasse‘, ‚innen – außen‘, und mehr.

  3. Auf der Basis der primären und sekundären Erkenntnisse lassen sich schrittweise komplexe Strukturen aufbauen, die das subjektive Erkennen aus der ‚Innensicht‘ beschreiben (‚phänomenologisch‘, [TH_ph]), aber darin auch eine systematische Verortung von ‚empirischem Wissen‘ erlaubt.

  4. Mit der Bestimmung des ‚empirischen‘ Wissens lassen sich dann Strukturen der ‚intersubjektiven Körperwelt‘ beschreiben, die weit über das ’subjektive/ phänomenologische‘ Wissen hinausreichen [TH_emp], obgleich sie als ‚Erlebtes‘ nicht aus dem Bereich der Phänomene hinausführen.

  5. Unter Einbeziehung des empirischen Wissens lassen sich Hypothesen über Strukturen bilden, innerhalb deren das subjektive Wissen ‚eingebettet‘ erscheint.

  6. Der Ausgangspunkt bildet die Verortung des subjektiven Wissens im ‚Gehirn‘ [NN], das wiederum zu einem ‚Körper‘ [BD] gehört.

  7. Ein Körper stellt sich dar als ein hochkomplexes Gebilde aus einer Vielzahl von Organen oder organähnlichen Strukturen, die miteinander in vielfältigen Austauschbeziehungen (‚Kommunikation‘) stehen und wo jedes Organ spezifische Funktionen erfüllt, deren Zusammenwirken eine ‚Gesamtleistung‘ [f_bd] des Input-Output-Systems Körpers ergibt. Jedes Organ besteht aus einer Vielzahl von ‚Zellen‘ [CL], die nach bestimmten Zeitintervallen ‚absterben‘ und ‚erneuert‘ werden.

  8. Zellen, Organe und Körper entstehen nicht aus dem ‚Nichts‘ sondern beruhen auf ‚biologischen Bauplänen‘ (kodiert in speziellen ‚Molekülen‘) [GEN], die Informationen vorgeben, auf welche Weise Wachstumsprozesse (auch ‚Ontogenese‘ genannt) organisiert werden sollen, deren Ergebnis dann einzelne Zellen, Zellverbände, Organe und ganze Körper sind (auch ‚Phänotyp‘ genannt). Diese Wachstumsprozesse sind ’sensibel‘ für Umgebungsbedingungen (man kann dies auch ‚interaktiv‘ nennen). Insofern sind sie nicht vollständig ‚deterministisch‘. Das ‚Ergebnis‘ eines solchen Wachstumsprozesses kann bei gleicher Ausgangsinformation anders aussehen. Dazu gehört auch, dass die biologischen Baupläne selbst verändert werden können, sodass sich die Mitglieder einer Population [POP] im Laufe der Zeit schrittweise verändern können (man spricht hier auch von ‚Phylogenese‘).

  9. Nimmt man diese Hinweise auf Strukturen und deren ‚Schichtungen‘ auf, dann kann man u.a. zu dem Bild kommen, was ich zuvor schon mal unter dem Titel ‚Emergenz des Geistes?‘ beschrieben hatte. In dem damaligen Beitrag hatte ich speziell abgehoben auf mögliche funktionale Unterschiede der beobachtbaren Komplexitätsbildung.

  10. In der aktuellen Reflexion liegt das Augenmerk mehr auf dem Faktum der Komplexitätsebene allgemein. So spannen z.B. die Menge der bekannten ‚Atome‘ [ATOM] einen bestimmten Möglichkeitsraum für theoretisch denkbare ‚Kombinationen von Atomen‘ [MOL] auf. Die tatsächlich feststellbaren Moleküle [MOL‘] bilden gegenüber MOL nur eine Teilmenge MOL‘ MOL. Die Zusammenführung einzelner Atome {a_1, a_2, …, a_n} ATOM zu einem Atomverband in Form eines Moleküls [m in MOL‘] führt zu einem Zustand, in dem das einzelne Atom a_i mit seinen individuellen Eigenschaften nicht mehr erkennbar ist; die neue größere Einheit, das Molekül zeigt neue Eigenschaften, die dem ganzen Gebilde Molekül m_j zukommen, also {a_1, a_2, …, a_n} m_i (mit {a_1, a_2, …, a_n} als ‚Bestandteilen‘ des Moleküls m_i).

  11. Wie wir heute wissen, ist aber auch schon das Atom eine Größe, die in sich weiter zerlegt werden kann in ‚atomare Bestandteile‘ (‚Quanten‘, ‚Teilchen‘, ‚Partikel‘, …[QUANT]), denen individuelle Eigenschaften zugeordnet werden können, die auf der ‚Ebene‘ des Atoms verschwinden, also auch hier wenn {q_1, q_2, …, q_n} QUANT und {q_1, q_2, …, q_n} die Bestandteile eines Atoms a_i sind, dann gilt {q_1, q_2, …, q_n} a_i.

  12. Wie weit sich unterhalb der Quanten weitere Komplexitätsebenen befinden, ist momentan unklar. Sicher ist nur, dass alle diese unterscheidbaren Komplexitätsebenen im Bereich ‚materieller‘ Strukturen aufgrund von Einsteins Formel E=mc^2 letztlich ein Pendant haben als reine ‚Energie‘. Letztlich handelt es sich also bei all diesen Unterschieden um ‚Zustandsformen‘ von ‚Energie‘.

  13. Entsprechend kann man die Komplexitätsbetrachtungen ausgehend von den Atomen über Moleküle, Molekülverbände, Zellen usw. immer weiter ausdehnen.

  14. Generell haben wir eine ‚Grundmenge‘ [M], die minimale Eigenschaften [PROP] besitzt, die in einer gegebenen Umgebung [ENV] dazu führen können, dass sich eine Teilmenge [M‘] von M mit {m_1, m_2, …, m_n} M‘ zu einer neuen Einheit p={q_1, q_2, …, q_n} mit p M‘ bildet (hier wird oft die Bezeichnung ‚Emergenz‘ benutzt). Angenommen, die Anzahl der Menge M beträgt 3 Elemente |M|=3, dann könnte man daraus im einfachen Fall die Kombinationen {(1,2), (1,3), (2,3), (1,2,3)} bilden, wenn keine Doubletten zulässig wären. Mit Doubletten könnte man unendliche viele Kombinationen bilden {(1,1), (1,1,1), (1,1,….,1), (1,2), (1,1,2), (1,1,2,2,…),…}. Wie wir von empirischen Molekülen wissen, sind Doubletten sehr wohl erlaubt. Nennen wir M* die Menge aller Kombinationen aus M‘ (einschließlich von beliebigen Doubletten), dann wird rein mathematisch die Menge der möglichen Kombinationen M* gegenüber der Grundmenge M‘ vergrößert, wenngleich die Grundmenge M‘ als ‚endlich‘ angenommen werden muss und von daher die Menge M* eine ‚innere Begrenzung‘ erfährt (Falls M’={1,2}, dann könnte ich zwar M* theoretisch beliebig groß denken {(1,1), (1,1,1…), (1,2), (1,2,2), …}, doch ‚real‘ hätte ich nur M*={(1,2)}. Von daher sollte man vielleicht immer M*(M‘) schreiben, um die Erinnerung an diese implizite Beschränkung wach zu halten.

  15. Ein anderer Aspekt ist der Übergang [emer] von einer ’niedrigerem‘ Komplexitätsniveau CL_i-1 zu einem höheren Komplexitätsniveau CL_i, also emer: CL_i-1 —> CL_i. In den meisten Fällen sind die genauen ‚Gesetze‘, nach denen solch ein Übergang stattfindet, zu Beginn nicht bekannt. In diesem Fall kann man aber einfach ‚zählen‘ und nach ‚Wahrscheinlichkeiten‘ Ausschau halten. Allerdings gibt es zwischen einer ‚reinen‘ Wahrscheinlich (absolute Gleichverteilung) und einer ‚100%-Regel‘ (Immer dann wenn_X_dann geschieht_Y_) ein Kontinuum von Wahrscheinlichkeiten (‚Wahrscheinlichkeitsverteilungen‘ bzw. unterschiedlich ‚festen‘ Regeln, in denen man Z%-Regeln benutzt mit 0 < Z < 100 (bekannt sind z.B. sogenannte ‚Fuzzy-Regeln‘).

  16. Im Falle des Verhaltens von biologischen Systemen, insbesondere von Menschen, wissen wir, dass das System ‚endogene Pläne‘ entwickeln kann, wie es sich verhalten soll/ will. Betrachtet man allerdings ‚große Zahlen‘ solcher biologischer Systeme, dann fällt auf, dass diese sich entlang bestimmter Wahrscheinlichkeitsverteilungen trotzdem einheitlich verhalten. Im Falle von Sterbensraten [DEATH] einer Population mag man dies dadurch zu erklären suchen, dass das Sterben weitgehend durch die allgemeinen biologischen Parameter des Körpers abhängig ist und der persönliche ‚Wille‘ wenig Einfluß nimmt. Doch gibt es offensichtlich Umgebungsparameter [P_env_i], die Einfluss nehmen können (Klima, giftige Stoffe, Krankheitserreger,…) oder indirekt vermittelt über das individuelle ‚Verhalten‘ [SR_i], das das Sterben ‚begünstigt‘ oder ‚verzögert‘. Im Falle von Geburtenraten [BIRTH] kann man weitere Faktoren identifizieren, die die Geburtenraten zwischen verschiedenen Ländern deutlich differieren lässt, zu verschiedenen Zeiten, in verschiedenen sozialen Gruppen, usw. obgleich die Entscheidung für Geburten mehr als beim Sterben individuell vermittelt ist. Bei allem Verhalten kann man mehr oder weniger starke Einflüsse von Umgebungsparametern messen. Dies zeigt, dass die individuelle ‚Selbstbestimmung‘ des Verhaltens nicht unabhängig ist von Umgebungsparametern, die dazu führen, dass das tatsächliche Verhalten Millionen von Individuen sehr starke ‚Ähnlichkeiten‘ aufweist. Es sind diese ‚gleichförmigen Wechselwirkungen‘ die die Ausbildung von ‚Verteilungsmustern‘ ermöglichen. Die immer wieder anzutreffenden Stilisierungen von Wahrscheinlichkeitsverteilungen zu quasi ‚ontologischen Größen‘ erscheint vor diesem Hintergrund eher irreführend und verführt dazu, die Forschung dort einzustellen, wo sie eigentlich beginnen sollte.

  17. Wie schon die einfachen Beispiele zu Beginn gezeigt haben, eröffnet die nächst höhere Komplexitätstufe zunächst einmal den Möglichkeitsraum dramatisch, und zwar mit qualitativ neuen Zuständen. Betrachtet man diese ‚Komplexitätsschichtungen‘ nicht nur ‚eindimensional‘ (also z.B. in eine Richtung… CL_i-1, CL_i, CL_i+1 …) sondern ‚multidimensional‘ (d.h. eine Komplexitätsstufe CL_i kann eine Vielzahl von Elementen umfassen, die eine Komplexitätstufe j<i repräsentieren, und diese können wechselseitig interagieren (‚kommunizieren‘)), dann führt dies zu einer ‚Verdichtung‘ von Komplexität, die immer schwerer zu beschreiben ist. Eine einzige biologische Zelle funktioniert nach so einem multidimensionalen Komplexitätsmuster. Einzelne Organe können mehrere Milliarden solcher multidimensionaler Einheiten umfassen. Jeder Körper hat viele solcher Organe die miteinander wechselwirken. Die Koordinierung aller dieser Elemente zu einer prägnanten Gesamtleistung übersteigt unsere Vorstellungskraft bei weitem. Dennoch funktioniert dies in jeder Sekunde in jedem Körper Billionenfach, ohne dass das ‚Bewusstsein‘ eines biologischen Systems dies ‚mitbekommt‘.

  18. Was haben all diese Komplexitätstufen mit ‚Erkenntnis‘ zu tun? Nimmt man unser bewusstes Erleben mit den damit verknüpften ‚Erkenntnissen‘ zum Ausgangspunkt und erklärt diese Form von Erkenntnis zur ‚Norm‘ für das, was Erkenntnis ist, dann haben all diese Komplexitätsstufen zunächst nichts mit Erkenntnis zu tun. Allerdings ist es dieses unser ’subjektives‘ ‚phänomenologisches‘ ‚Denken‘, das all die erwähnten ‚Komplexitäten‘ im Denken ’sichtbar‘ macht. Ob es noch andere Formen von Komplexität gibt, das wissen wir nicht, da wir nicht wissen, welche Form von Erkenntnis unsere subjektive Erkenntnisform von vornherein ‚ausblendet‘ bzw. aufgrund ihrer Beschaffenheit in keiner Weise ‚erkennt‘. Dies klingt paradox, aber in der Tat hat unser subjektives Denken die Eigenschaft, dass es durch Verbindung mit einem Körper einen indirekt vermittelten Bezug zur ‚Körperwelt jenseits des Bewusstseins‘ herstellen kann, der so ist, dass wir die ‚Innewohnung‘ unseres subjektiven Erkennens in einem bestimmten Körper mit dem Organ ‚Gehirn‘ als Arbeitshypothese formulieren können. Darauf aufbauend können wir mit diesem Körper, seinem Gehirn und den möglichen ‚Umwelten‘ dann gezielt Experimente durchführen, um Aufklärung darüber zu bekommen, was denn so ein Gehirn im Körper und damit korrelierend eine bestimmte Subjektivität überhaupt erkennen kann. Auf diese Weise konnten wir eine Menge über Erkenntnisgrenzen lernen, die rein aufgrund der direkten subjektiven Erkenntnis nicht zugänglich sind.

  19. Diese neuen Erkenntnisse aufgrund der Kooperation von Biologie, Psychologie, Physiologie, Gehirnwissenschaft sowie Philosophie legen nahe, dass wir das subjektive Phänomen der Erkenntnis nicht isoliert betrachten, sondern als ein Phänomen innerhalb einer multidimensionalen Komplexitätskugel, in der die Komplexitätsstrukturen, die zeitlich vor einem bewussten Erkennen vorhanden waren, letztlich die ‚Voraussetzungen‘ für das Phänomen des subjektiven Erkennens bilden.

  20. Gilt im bekannten Universum generell, dass sich die Systeme gegenseitig beeinflussen können, so kommt bei den biologischen Systemen mit ‚Bewusstsein‘ eine qualitativ neue Komponente hinzu: diese Systeme können sich aktiv ein ‚Bild‘ (‚Modell‘) ihrer Umgebung, von sich selbst sowie von der stattfindenden ‚Dynamik‘ machen und sie können zusätzlich ihr Verhalten mit Hilfe des konstruierten Bildes ’steuern‘. In dem Masse, wie die so konstruierten Bilder (‚Erkenntnisse‘, ‚Theorien‘,…) die tatsächlichen Eigenschaften der umgebenden Welt ‚treffen‘ und die biologischen Systeme ‚technologische Wege‘ finden, die ‚herrschenden Gesetze‘ hinreichend zu ‚kontrollieren‘, in dem Masse können sie im Prinzip nach und nach das gesamte Universum (mit all seinen ungeheuren Energien) unter eine weitreichende Kontrolle bringen.

  21. Das einzig wirkliche Problem für dieses Unterfangen liegt in der unglaublichen Komplexität des vorfindlichen Universums auf der einen Seite und den extrem beschränkten geistigen Fähigkeiten des einzelnen Gehirns. Das Zusammenwirken vieler Gehirne ist absolut notwendig, sehr wahrscheinlich ergänzt um leistungsfähige künstliche Strukturen sowie evtl. ergänzt um gezielte genetische Weiterentwicklungen. Das Problem wird kodiert durch das Wort ‚gezielt‘: Hier wird ein Wissen vorausgesetzt das wir so eindeutig noch nicht haben Es besteht ferner der Eindruck, dass die bisherige Forschung und Forschungsförderung diese zentralen Bereiche weltweit kum fördert. Es fehlt an brauchbaren Konzepten.

Eine Übersicht über alle bisherigen Beiträge findet sich hier

PHILOSOPHIE IM KONTEXT oder: BEGRIFFSNETZE oder: THEORIENETZWERKE

Achtung: Es hat sich gezeigt, dass diese Version einen grundlegenden Fehler enthält! Siehe am Ende des Textes den Link auf eine verbesserte Version.

 

(1) In dem Vortrag in Bremerhaven ist die Verzahnung von Philosophie und Wissenschaft hevorgehoben worden. Ansatzweise wurde skizziert, wie eine bewusstseinsbasierte Philosophie als das primäre Denken innerhalb seines Denkraumes einen ‚Unterraum‘ spezifizieren kann, der sich über die spezielle Teilmenge der ‚empirischen Phänomene‘ [PH_Emp] definiert bzw. umgekehrt, wie man ausgehend von den empirischen Disziplinen über die Frage nach den notwendigen Voraussetzungen zu einem größeren Zusammenhang kommen kann, der letztlich mit dem philosophischen Denken zusammenfällt. Versucht man, die begrifflichen Verhältnisse zwischen den verschiedenen hier einschlägigen Disziplinen zu klären, dann wird man alsbald feststellen, dass diese bei den meisten nicht ganz klar sind; dies betrifft die ganze ‚Community‘. Im Folgenden ein weiterer Versuch, die hier geltenden grundsätzlichen Verhältnisse transparent zu machen.

 

(2) Die grundsätzliche Idee (die ich seit mehr als 20 Jahren immer wieder mal auf unterschiedliche Weise versucht habe, — in erster Lnie mir selbst — zu verdeutlichen) ist im Schaubild Nr.1 angedeutet.

 

 

Gesamtrahmen Philosophie und Wissenschaften

 

 

(3) Nimmt man seinen Ausgangspunkt von existierenden empirischen Disziplinen wie Physik [Phys], Chemie [Chem], Biologie [Biol] usw. dann sind diese dadurch gekennzeichnet, dass sie aufgrund spezifischer Fragestellungen und spezifischer Messverfahren entsprechend verschiedene ‚Messwerte‘ gewinnen.

 

(4) Hierbei ist aber zu beachten, dass die empirischen Messwerte zwar – idealerweise – unabhängig von einem bestimmten Körper oder Bewusstsein ‚gewonnen‘ werden, dass sie aber nur in dem Maße in eine wissenschaftliche Theoriebildung eingehen können, als die Messwerte von Menschen auch ‚wahrgenommen‘ werden können, d.h. nur insoweit, als die handlungs- und technikbasierten Messwerte zu ‚bewussten Ereignissen‘ werden, zu ‚Phänomenen‘ [PH]. Als ‚Phänomen‘ ist ein Messwert und ein Zahnschmerz nicht unterscheidbar, allerdings haben sie verschiedene ‚Ursachen der Entstehung‘, die sich in einer ‚Reflexion‘ erschließen lassen. In dem Masse, wie man diese Unterscheidung durchführen kann, kann man dann innerhalb der ‚allgemeinen‘ Menge der Phänomene PH eine spezielle Teilmenge der ’speziellen‘ Phänomene ausgrenzen, also PH_Emp PH.

 

 

(5) In diesem Sinne kann man sagen, dass die Menge der empirischen Phänomene sich bezüglich ihrer ’speziellen Herkunft‘ von allen anderen Phänomenen unterscheiden und dass die verschiedenen empirischen Disziplinen sich diese spezielle Teilmenge auf unterschiedliche Weise ‚aufteilen‘. Idealerweise würde man sich die Menge der empirischen Phänomene PH_Emp zerlegt denken in endliche viele disjunkte Untermengen. Ob die tatsächlichen Messverfahren mitsamt den daraus resultierenden Messwerten real vollständig disjunkt sind, ist aktuell offen; spielt für die weiteren Überlegungen zunächst auch keine wesentliche Rolle. Wichtig ist nur, dass in diesem Zusammenhang nur dann von empirischen Daten wie z.B. ‚psychologischen Daten‘ DATA_SR gesprochen werden soll, wenn es reale Messwerte von realen Messvorgängen gibt, die von einem Menschen wahrgenommen werden können und dieser diese Phänomene als entsprechende empirische Phänomene PH_Emp_x interpretiert (das ‚x‘ steht hierbei für die jeweilige Disziplin).

 

(6) Wie in vorausgehenden Blogeinträgen schon mehrfach festgestellt, bilden empirische Daten DATA_x als solche noch keine wirkliche Erkenntnis ab. Diese beginnt erst dort, wo Verallgemeinerungen vorgenommen werden können, Beziehungen erkennbar sind, regelhafte Veränderungen, usw. Die Gesamtheit solcher struktureller Eigenschaften im Zusammenhang mit Daten nennt man normalerweise eine ‚Theorie‘ [TH]. Ob und inwieweit alle heutigen empirischen Disziplinen wirklich systematisches Wissen in Form von expliziten Theorien TH_x entwickeln, steht hier nicht zur Diskussion (es gibt sicher viel weniger explizite Theoriebildung als man sich wünschen würde. Die einzige Disziplin, von der man den Eindruck hat, dass sie überwiegend durch formale Konstrukte begleitet wird, die den Anspruch von Theorien erfüllen, ist die moderne Physik. Alle anderen Disziplinen fallen hinter das Ideal mehr oder weniger weit zurück.).

 

(7) Solange man sich nun innerhalb einer ganz bestimmten Disziplin bewegt, ist die Welt — in gewissem Sinne – ‚in Ordnung‘: man weiß wie man misst und man hat elementare Techniken, wie man Daten strukturiert. Fängt man an, Fragen nach den ‚Voraussetzungen‘ dieser fachspezifischen Theoriebildung zu stellen, nach der Angemessenheit der verwendeten Methoden, wird es schwierig, da für solche Fragen strenggenommen kein Instrumentarium verfügbar ist (Warum und wieso sollte ein Chemiker sich Fragen nach den Grundlagen der Erkenntnis stellen, aufgrund deren er überhaupt etwas erkennt, oder nach dem Problem der sprachlichen Bedeutung, wenn er über chemische Sachverhalte spricht, über die Angemessenheit seiner Begrifflichkeit für den zu untersuchenden Gegenstand, usw.). Noch schwieriger wird es, wenn es um mögliche Wechselwirkungen zwischen verschiedenen Theorieansätzen geht: ob und wie verhalten sich die Daten und theoretischen Modelle zwischen z.B. beobachtetem Verhalten in der Psychologie TH_SR mit zeitgleichen Messungen im Körper TH_Bd oder spezieller im Nervensystem TH_NN? Wann darf ich denn überhaupt von einer Theorie sprechen? In welchem Sinne kann ich Theorien TH_x und TH_y vergleichen? Diese – und viele andere – Fragen gehen weit über die fachspezifischen Fragestellungen hinaus, verweisen auf allgemeine fachübergreifende Zusammenhänge.

 

(8) Im deutschen Sprachraum gab es in der Zeit von ungefähr 1970 bis 1990 eine Phase, in der man verstärkt von ‚Wissenschaftstheorie‘ sprach als jener ‚Metadisziplin‘, die die allgemeinen Eigenschaften und Randbedingungen von ‚Theorien‘ untersucht und klärt. Im englischen Sprachraum nannte man dies ‚Philosophy of Science‘ (allerdings mit einer nicht ganz deckungsgleichen Bedeutung). Alle diese Strömungen haben – so scheint es – bis heute keinen nachhaltigen Einfluss auf den ’normalen Wissenschaftsbetrieb‘ nehmen können; eher ist das Thema sogar wieder rückläufig. Zwar bräuchte man es aus methodischen Gründen dringen, aber keiner will dafür Geld ausgeben.

 

(9) Die deutschsprachige Wissenschaftstheorie hatte den Nachteil, dass sie zwar versuchte, disziplinenübergreifend strukturelle Eigenschaften von Theorien zu klären, sich aber letztlich weigerte, sämtliche Voraussetzungen (einschließlich ihrer eigenen) zu reflektieren, d.h. die Wissenschaftstheorie nahm zwar einerseits gegenüber den Fachdisziplinen allgemeine Eigenschaften von Denken, Folgern, Sprechen, Messen usw. in Anspruch, die über die engen Fachdisziplinen hinausgehen, weigerte sich aber, diesen Anspruch in letzter Konsequenz zu reflektieren und auszuweisen (auch nicht die Erlanger Schule und die sogenannten Konstruktivisten). Eine solche grundlegende Reflexion war und blieb die Domäne der klassischen Philosophie, von der sich die Wissenschaftstheorie panisch abzugrenzen versuchte.

 

(10) So sehr eine gesunde Kritik an der klassischen Philosophie nottat, eine vollständige Verdrängung der philosophischen Aufgabenstellung und Denkweise wirkte aber wie eine ‚Überreaktion‘; diese hatte zur Folge, dass sich die Wissenschaftstheorie von ihren eigenen Voraussetzungen mittels einer klassischen ‚Verdrängung‘ zu befreien suchte, sich dadurch aber entscheidende Aspekte vergab.

 

 

(11) Wie das Schaubild zeigt, gehe ich davon aus, dass die im Erleben wurzelnde Reflexion der primäre Ausgangspunkt für jede Art von spezialisierendem Denken ist. Selbst eine empirische Disziplin ist im Raum der bewussten Erlebnisse, im Raum der Phänomene, verankert, und was immer ein empirischer Wissenschaftler denkt, er denkt im Rahmen der Denkmöglichkeiten, die ihm über das Bewusstsein und die ‚an das Bewusstsein gekoppelten Subsysteme‘ verfügbar sind. Andere hat er gar nicht. Ein Wissenschaftstheoretiker, der über das theoretische Denken von Fachdisziplinen forschen will, ist auch nicht besser dran. Auch er ist an den Phänomenraum als primärem Bezugssystem gebunden und auch er nutzt jene allgemeinen Reflexionsmöglichkeiten, die im Bewusstseinsraum generell verfügbar sind. D.h. jeder Versuch, eine irgendwie geartetes geordnetes Denken — sei es fachwissenschaftlich oder wissenschaftstheoretisch – als solches auf seine Voraussetzungen und Wechselwirkungen hin zu befragen, muss auf dieses ‚primäre Denken‘ zurückgehen und es für die Erkenntnis nutzen. Dieses primäre Denken aber ist genau das philosophische Denken, das auf der einen Seite mit dem alltäglichen Denken verschwimmt, und auf der anderen Seite in Wissenschaftstheorie oder gar Fachwissenschaft übergeht.

 

(12) Von der Intention her hat sich ‚Philosophie‘ immer als solch ein ‚erstes Denken‘ verstanden, das alles andere Denken umfassen sollte. In der konkreten Ausformung eines solchen ersten Denkens gab es aber immer vielfältige und starke Unterschiede. Generell kann man die Tendenz beobachten, dass das philosophische Denken sich entweder vom alltäglichen und wissenschaftlichen Denken ‚zu weit entfernt‘ hat oder aber umgekehrt diesem ‚zu nah‘ kam. Im letzteren Fall büßte Philosophie ihre kritisch-klärende Funktion ein.

 

(13) Will Philosophie beides zugleich realisieren, kritische Distanz wie auch kenntnisreiche Nähe, muss das philosophische Denken sowohl die ‚Form‘ eines wissenschaftlichen Denkens hinreichend klären wie auch die eigenen Erkenntnis — sofern überhaupt strukturierbar – entsprechend explizieren. Das philosophische Denken als ‚erstes Denken‘ wird zwar niemals seinen eigenen Anteil zugleich vollständig und korrekt explizieren können (das liegt primär an der Struktur des Denkens selbst sowie an der Verwendung von Sprache), aber es kann den Zusammenhang der einzelwissenschaftlichen Theorieansätze sowie deren allgemeinen erkenntnistheoretischen Voraussetzungen soweit explizieren, dass klar wird, (i) was ist überhaupt eine Theorie TH_x, (ii) welche erkenntnistheoretischen Voraussetzungen müssen für eine bestimmte Theorie TH_x berücksichtigt werden, (iii) wie kann man das Verhältnis von Theorien beschreiben XREL(TH_x, TH_y), (iv) wie können Objektbeschreibungen aus unterschiedlichen Theorien (z.B. Eigenschaften von Neuronen beschrieben in einer neurowissenschaftlichen Theorie TH_nn, und Eigenschaften eines beobachtbaren Verhaltens in einer psychologischen Theorie TH_sr) aufeinander bezogen werden, usw.

 

(14) Fordern muss man aber auch, dass das philosophische Denken seine Inhalte, soweit sie explizierbar sind, auch in Form von Daten DATA_ph kenntlich macht, und, darauf aufbauend, verdeutlicht, welche Strukturen TH_ph das philosophische Denken vermeintlich besitzt bzw. benutzt, um die Möglichkeit und das ‚Funktionieren‘ der Einzeltheorien zu ‚erklären‘. In gewisser Weise muss die Philosophie genauso ein ‚Modell‘ ihres Gegenstandes bauen wie dies die anderen Wissenschaften auch tun. Im Fall der Philosophie geht es um den Menschen selbst, speziell um den Menschen, insofern er ‚erkennt‘, ‚Wissen‘ entwickelt‘, er ’spricht‘, und vieles mehr. Und natürlich könnte (bzw. sie müsste es!) die Philosophie — wie alle anderen Disziplinen auch – Computermodelle benutzen, um ihr theoretisches Modell vom erkenntnisfähigen und ethisch handelndem Menschen zu explizieren. ‚Computergestützte Philosophische Theorie‘ (etwa ‚computational philosophy‘) ist nicht nur kein Gegensatz sondern ein absolutes Muss! Ohne solche Modelle hat eine moderne Philosophie kaum eine Chance, die zu behandelnde Komplexität angemessen beschreiben zu können.

 

 

Eine korrigierte Version dieses Beitrags findet sich hier.

 

 

Einen Überblick über alle bisherigen Beiträge findet man hier.

 

 

(15) Weitere Details in Fortsetzungen bzw. im Rahmen meiner online-Skripte zur allgemeinen Lerntheorie.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

RÜCKKEHR DER METAPHYSIK? Natur als Offenbarung? Universale Ethik?

Einbettung von Metaphysik in moderne Wissenschaft

 

 

 

 

(1) Im Zwiegespräch mit dem Text ‚Metaphysik der Erkenntnis‘ (erstmalig 1921) von Nicolai Hartmann trifft man auf zahlreiche Aporien (siehe die anderen Blogeintragungen). Hartmann nimmt seinen Ausgangspunkt bei der — für ihn grundlegenden – Beziehung zwischen einem ‚erkennenden Subjekt‘ und einem ‚erkannten Objekt‘. Dies in einer primär ‚phänomenologischen‘ Einstellung, die ihren Ausgangspunkt bei dem ‚Gegebenem‘ nimmt im Versuch, ’sichtbar zu machen‘, was sich vorfindet.

 

(2) Tatsächlich ist das, was wir im Bewusstseinserlebnis als aufscheinendes ‚Phänomen‘ vorfinden, das erste und einzige, was wir vorfinden. Nach Hartmann ist dieses aufscheinend Gegebene aber eingebettet in eine begleitend vorhandene ‚Reflexion‘, mittels der sich Eigenschaften fokussieren, abstrahieren und in Beziehung setzen lassen; nicht zuletzt lassen sich ‚Begriffe‘ bilden. Die Reflexion als solche ist nicht mehr ’neutral‘; sie kann das vorfindlich Gegebene verändern, modifizieren und damit in gewisser Weise interpretieren.

 

(3) Die ‚Abfallprodukte‘ der Reflexion bilden nicht automatisch eine ‚Theorie‘ verstanden als ein systematisches Begriffsnetzwerk, in dem alle Begriffe vollständig aufeinander bezogen sind entweder als ‚Grundterme‘ oder als ‚axiomatische Terme‘, eingebunden in Relationen und Axiome, repräsentiert in einer eigenen ‚Theoriesprache‘. Eine Theorie auf der Basis der primären Reflexion bildet eine ‚Metaebene‘ und stellt eine Konstruktion dar, die aus einer Vielzahl von Möglichkeiten eine Variante herausgreift. Zugleich ist jede Theorie eine bestimmte Interpretation. Eine interessante Frage ist, ob und wie sowohl die Begriffe der primären Reflexion wie auch die Strukturen einer Theorie in einem bestimmbaren Sinn ‚wahr‘ oder ‚falsch‘ sein können.

 

(4) Hartmann diskutiert die Frage der ‚Wahrheit‘ im Umfeld seiner Subjekt-Objekt-Relation mit einem sehr unspezifischen Begriff von ‚Erkenntnis‘. Er geht von der Annahme aus – die er nicht weiter begründet –, dass Wahrheit mit Übereinstimmung zu tun haben muss, nämlich der Übereinstimmung (oder Nicht-Übereinstimmung) von dem erkennbaren Objekt für das Subjekt mit einem Objekt an sich, das dem erkennenden Subjekt per definitionem nicht zugänglich ist; daher spricht er hier auch von einem ‚transzendentem Objekt‘ bzw. vom ‚Transobjektivem‘, das das erkennende Subjekt ‚objiziert‘ mithilfe von ‚Bestimmtheiten‘, die ein ‚Bild‘ des ursprünglichen Objektes darstellen, nicht das transzendente Objekt selbst. Die vom Transobjektivem objizierten Bestimmtheiten, die vom verursachenden Objekt verschieden sind, will er auch eine ‚Repräsentation‘ des Transobjektiven nennen.

 

 

(5) Das ‚Transobjektive‘, das vom erkennenden Subjekt nicht erreicht werden kann, ist damit auch nicht intelligibel, ist im vollen Sinne ‚irrational‘. Dennoch assoziiert Hartmann genau mit diesem Transobjektiven das eigentliche ‚Sein‘, ‚volle Wirklichkeit‘, ‚Realität‘. Hier verortete er die ontologische Dimension, den Fluchtpunkt jeder Metaphysik. In einer Metaphysik ist Erkenntnis nur ein Durchgang, ein Medium zur Erfassung und Beschreibung von ‚Wahrheit‘ als letztlich im ‚Sein‘ gründend.

 

 

(7) Der von ihm zuerst favorisierte Wahrheitsbegriff als Übereinstimmungsoperation wahr: OBJ x OBJ* —> {wahr, falsch} mit ‚OBJ‘ für das Transobjektive (verursachende) Sein und ‚OBJ*‘ als der Repräsentation des Transobjektiven für das erkennende Subjekt setzt die Verfügbarkeit des Transobjektiven in dieser Übereinstimmung voraus, ohne aber in der Lage zu sein, zu erklären, wie das erkennende Subjekt dies nutzen soll, da das Transobjektive ja per definitionem vom Erkennen eines Transobjektiven ausgeschlossen wurde. Die sich hier auftuende logische Antinomie verwirbelt Hartmann in bis zu vier unterschiedliche Aporien, die allesamt letztlich nur diese eine zentrale Antinomie umschreiben.

 

(8) Aktuell weiss ich noch nicht, wie es ab S.88 in seinem Buch weiter gehen wird. Bezogen auf seine bisherigen Ausführungen kann man nur sagen, dass er sich mit seinem bisherigen Begriffsapparat in einer Sackgasse befindet. Auch wenn er noch weitere Aporien durch Einführung neuer begrifflicher Gebilde generieren mag, sein Grundproblem wird er nicht lösen, solange er seine bisherigen Voraussetzungen nicht einer kritischen Re-Analyse unterzieht.

 

(9) Ob mein Lösungsansatz tatsächlich ein Lösungsansatz ist, muss sich in den weiteren Diskussionen und Experimenten noch zeigen, aber auf jeden Fall sehe ich einen gedanklichen Weg, der ohne die antinomischen Konstruktionen Hartmanns auskommt, der mit den großen Themen der Philosophie kompatibel ist, und der nicht zuletzt auch mit den tiefgreifenden Erkenntnissen der modernen Naturwissenschaften harmoniert (soweit wir heute meinen zu verstehen, was wir verstehen).

 

(10) Wie schon im Bremerhaven-Vortrag skizziert nehme ich auch den Ausgangspunkt im Raum der Phänomene (es gibt keine Alternative), allerdings mit der Differenzierung, dass sich im Gesamtbereich der Phänomene Ph eine spezielle Teilmenge der empirischen Phänomene Ph_emp identifizieren lässt. Dies sind solche Phänomene, die durch Verwendung von definierten Messprozeduren meas() generiert werden, etwa meas: Ph —> Ph_emp. Empirische Phänomene sind zwar auch Phänomene, aber eben solche, die auf eine spezielle Weise hervorgebracht werden, die unabhängig vom Körper eines Menschen ist. Nur das Produkt eines Messvorganges muss wahrnehmbar sein, der Messvorgang selber ist unabhängig von einem menschlichen Körper (und Gehirn, und Bewusstsein).

 

(11) Auf den ersten Blick wirkt dieser Hinweis auf die Teilmenge der empirischen Phänomene möglicherweise unscheinbar. Aber bei längerer Betrachtung zeigt sich, dass hier die Lösung für nahezu alle Aporien liegen kann, mit denen sich Hartmann herumschlägt.

 

(12) Natürlich gilt im Falle der empirischen Phänomene Ph_emp auch – wie im Falle aller Phänomene –, dass die empirischen Phänomene nicht ‚isoliert‘ dastehen, sondern auch eingebettet sind in die allgemeine ‚Reflexion‘, die alles Erleben begleitet und durchdringt; und es gilt auch, dass sich im Medium dieser Reflexion Unterscheidungen treffen lassen, Zusammenfassungen bilden lassen, Begriffe einführen lassen, Beziehungen aufzeigen lassen, usw. bis hin dazu, dass sich explizite Theorien formulieren lassen. Diese Reflexion, Begriffsbildungen, Theoriebildung unterscheidet sich im Allgemeinen in Nichts von der alltäglichen oder philosophischen Reflexion, wohl aber im Speziellen. Auf der Basis von empirischen Daten lassen sich nämlich eindeutiger und klarer als durch die rein körperbasierten Phänomene Ph\Ph_emp Begriffe mit einer ‚operationalisierten‘ Bedeutung einführen, darauf aufbauend Abstraktionen, Relationen und Gesetzmäßigkeiten unter kontrollierten Bedingungen und in mathematischer Form. Natürlich ist auch diese Form von Erkenntnisbildung nicht frei von Problemen (dazu gibt es weit mehr als 1000 wissenschaftliche Publikationen!), doch trotz all dieser Probleme hat die Praxis gezeigt, dass diese Erkenntnisstrategie trotz aller Spezialisierung Erkenntnisse (und Technologien) hervorgebracht hat, die noch vor 100 – 150 Jahren unvorstellbar waren.

 

(13) Mittels der Reflexion (und darauf aufbauenden Theorien oder theorieähnlichen begrifflichen Strukturen) lassen sich im Strom der Phänomene Objekte, Beziehungen, und Aktionen identifizieren, die das Bild eines ‚Außenraums‘ um den Körper herum entstehen lassen, der eine eigene Dynamik hat, die man heute ansatzweise in seiner evolutionären Dimension fassen kann. Ferner kann man im Bereich der identifizierbaren Objekte solche unterscheiden, die man durch spezifische Eigenschaften als ‚biologisch‘ qualifizieren kann, als ‚Körper‘ mit einer Innenstruktur, zu der u.a. ein Nervensystem (Gehirn) gehört. Durch Korrelation der empirischen Daten mit den Erlebnisdaten läßt sich die starke Hypothese formulieren, dass die uns primär zugänglichen Phänomene Ph im Raum des Bewusstseins Eigenschaften eines Nervensystems sind, das sich empirisch nur ‚von außen‘ messen und beschreiben läßt. D.h. man kann nicht die bewussten Erlebnisse selbst ‚messen‘, sondern nur physikalisch-chemische Eigenschaften des Nervensystems DAT_nn, die zeitlich mit bestimmten Erlebnissen Ph korrelieren.

 

(14) Abseits vieler ungelöster Detailfragen lässt sich eine generelle Schlussfolgerung auf jeden Fall ziehen: die Phänomene unseres Bewusstseins sind als solche keine Objekte der umgebenden Außenwelt! Vielmehr scheint es so zu sein, dass die ‚Zustände der Außenwelt‘ auf einen ‚Körper‘ einwirken können, der diese physikalisch-chemischen Einwirkungen mittels einer Vielzahl sogenannter ‚Sensoren‘ in ’neuronale Signale‘ ‚übersetzt‘, also etwa sens: ENV x IS —> IS x NN, d.h. die Menge aller Sensoren realisieren eine Abbildung von Umweltereignissen ENV – eventuell modifiziert durch aktuelle interne Zustände IS des Körpers – in eine Menge von neuronalen Signalen NN, eventuell begleitet von zusätzlichen internen Zuständen IS des Körpers.

 

(15) Wie wir heute schon wissen werden diese sensorisch induzierten neuronalen Signale NN_sens über ein komplexes Schaltwerk von Neuronen auf verschiedenen ‚Ebenen‘ und durch verschiedene ‚Querschaltungen‘ und ‚Rückkopplungen‘ zu abstrakteren Konzepten und Beziehungen ‚weiterverarbeitet‘. D.h. das, was uns irgendwann ‚bewusst‘ wird als Phänomen Ph ist in der Regel sowohl ein ’spätes Verarbeitungsprodukt‘ und zugleich eine ‚Auswahl‘ aller stattfindender neuronaler Zustände, also etwa nn: NN_sens x NN —> NN x Ph. Hierbei gilt die weitreichende Annahme, dass die Menge der Phänomene Ph aus Sicht des Gehirns letztlich eine Teilmenge, und zwar eine echte Teilmenge, der Menge aller neuronalen Zustände ist. Sei NN_ph jene Menge von Neuronalen Signalen, die mit den erlebten Phänomenen Ph korrelieren, und NN_nph die Menge der neuronalen Signale, die nicht mit Ph korrelieren, dann gilt, dass die Menge der neuronalen Signale NN = NN_ph u NN_nph, mit der Annahme, dass die Menge der neuronalen Signale NN_ph, die mit den erlebten Phänomenen Ph korrelieren, eine echte Teilmenge aller neuronalen Signale sind NN_ph  rsubset NN. Denn gerade in diesem Umstand der echten Teilmenge wurzelt der evolutionäre Gewinn des ‚Bwusstseins‘: durch die Möglichkeit einer ‚Abstraktion‘ von der beliebig großen Komplexität des begleitenden Körpers und eines kontinuierlich wachsenden Gehirns kann man aktuelles Entscheiden und Kommunizieren in einem überschaubaren Bereich halten.

 

(16) Zu sagen, dass die bewussten Phänomene Ph aus ‚Sicht des Gehirns‘ auch nur neuronale Zustände sind ist kein (logischer) Widerspruch zur Annahme, dass die Phänomene unseres Bewusstseins aus Sicht unseres Erlebens etwas Besonderes sind, das sich nicht auf neuronale Signale reduzieren lässt. Dies hat mit dem begrifflichen Rahmen zu tun, in dem man sich bewegt. Im phänomenologischen Kontext bewege ich mich im Raum meines Erlebens. Meine ‚Daten‘ DAT_ph sind die erlebbaren Phänomene meines Bewusstseins. Aufbauend auf diesen primären Daten kann ich Begriffsnetze entwickeln, ja sogar Theorien reflexion: DAT_ph —> Th_ph. Beschränke ich mich auf die Teilmenge der empirischen Phänomene Ph_emp habe ich zwar immer noch Phänomene, im Fall der empirischen Untersuchungen zum Körper und Gehirn benutze ich aber zusätzlich zum ’normalen‘ Erkennen empirische Messverfahren meas(), mit denen ich Eigenschaften des Körpers bzw. des Nervensystems untersuche, also meas: BODY x BRAIN —> DAT_bd x DAT_nn. Insofern ich diese Messwerte als Messwerte wahrnehmen kann, sind diese natürlich auch Phänomene Ph_emp_bd und Ph_emp_nn, aber das Besondere dieser Phänomene liegt nicht in dem, was ich als Messergebnis wahrnehme, sondern in der Art, wie ich dieses Phänomen erzeugt habe, eben durch einen zusätzlichen Messvorgang. Wenn ich also bei dem Drücken einer bestimmten Taste auf einem Klavier einen bestimmten Ton höre DAT_ph_ton_i, und die Neuropsychologen zeitlich gleichzeitig durch eine geeignete Messvorrichtung in bestimmten Bereichen meines Gehirns bestimmte Erregungsmuster DAT_nn_ton_i messen können, dann kann man in der Regel nicht direkt von DAT_nn_ton_i auf DAT_ph_ton_i schliessen oder umgekehrt, aber eine Versuchsperson Vpn, die einen Ton hört (DAT_ph_ton_i)Person_abc, und die zugleich das Messergebnis (DAT_nn_ton_i)Person_abc wahrnehmen kann, kann kontrollieren, ob es zwischen den empirischen Messwerten und ihren subjektiven Wahrnehmungen eine signifikante Korrelation gibt (wobei wir unterstellen, dass die ausgewählte Gehirnregion ‚relevant‘ ist). Insofern also solch eine Versuchsperson in dieser speziellen Konstellation eine signifikante Korrelation feststellen könnte, könnte man begründet vermuten, dass das erlebte Phänomen und die gemessenen neuronalen Zustände ‚identisch‘ sind in dem Sinne, dass Erlebnisse als indirekt messbare neuronale Zustände ‚auftreten‘. Davon zu unterscheiden ist die Frage, wie man das Phänomen des subjektiven Erlebens im Rahmen einer empirischen Theorie des Gehirns ‚erklärt‘. Offensichtlich handelt es sich um eine Art ‚Innensicht‘ des Gehirns, bei der ausgewählte Bereiche der Gehirnzustände dazu dienen, wichtige Steuerungsparameter des Gehirns auf einer hohen Abstraktionsebene so zu organisieren, dass sie sich u.a. auch mit symbolischer Sprache verknüpfen lassen.

 

(17) Zusammenfassend gilt, dass die jeweiligen Konstruktionen des Gehirns auf Basis der sensorischen und körpereigenen Signale DAT_nn_sens und DAT_bd vollständige Eigenleistungen des Gehirns sind. Letztlich baut das Gehirn mit seinen ‚Bordmitteln‘ eine ‚Theorie der umgebenden Welt‘ TH_nn_env mit sich selbst als ‚agierendem Objekt‘ Th_nn_ego subset Th_nn_env.

 

(18) In diesem Kontext stellt sich die ‚Wahrheitsfrage‘ – will man diesen klassischen Term beibehalten – auf mindestens zweifache Weise: (i) systemintern und (ii) in Relation zur umgebenden Außenwelt.

 

(19) Systemintern (hier ‚Wahrheit_1‘ genannt) stellt sich primär die Frage, ob die emergierenden Theorien Th_nn als hypothetische Deutungen der in den Daten DAT_nn implizit mitgegebenen Dynamiken mit den Daten hinreichend ‚kongruent‘ sind? D.h. gilt es, dass die Daten DAT_nn vollständig in der ‚Bildmenge‘ der Theorie(n) Th_nn vorkommen? Bzw. gilt, dass  DAT_nn_sens subset Th_nn(DAT_nn_sens)? Da jede Theorie aufgrund der ihr ‚innewohnenden‘ Generalisierungen grundsätzlich mehr Elemente in ihrer Bildmenge hat als sensorische Daten in sie eingehen, kann man nicht verlangen, dass sich zu allen theoretisch möglichen Bildelementen 1-zu-1-Entsprechungen in den Primärdaten finden lassen, wohl aber kann – und muss – man verlangen, dass alle tatsächlich auftretenden Primärdaten sich als Elemente der Bildmenge darstellen lassen. Wahrheit_1 wäre dann also genau die Erfüllung dieser Forderung, dass man also sagen könnte: Eine nuronale Theorie der Welt ist Wahr_1 genau dann, wenn gilt: DAT_nn_sens subset Th_nn(DAT_nn_sens). Also nicht Übereinstimmung sondern abschwächend ‚Enthaltensein‘. Der Bewusstseinsraum Ph als ‚Bewusstsein‘  CONSC ist hier verstehbar als korrespondierend mit eine Teilmenge NN_ph der Menge der neuronalen Zustände NN, also NN_ph subset NN und die zu prüfenden neuronalen Theorien sind Muster innerhalb von NN_ph und NN_nph und ihr Referenzpunkt (ihr ‚Kriterium‘) für Wahrheit_1 ist das Enthaltensein der auftretenden neuronalen Ereignisse in der Bildmenge der Theorie. Eine logische Antinomie und daraus sich herleitenden Aporien gibt es hier nicht.

 

(20) In Relation zur umgebenden Außenwelt (hier ‚Wahrheit_2‘ genannt) stellt sich die Frage nicht innerhalb eines Systems, da das einzelne System in seinem internen Modell ‚gefangen‘ ist. Die modernen empirischen Wissenschaften haben uns aber die Möglichkeit eröffnet, dass wir andere Körper – menschliche wie tierische und andere – als ‚empirische Objekte‘ untersuchen können. Zusätzlich können wir – bis zu einem gewissen Grad – die Entwicklung von Populationen im Laufe der Zeit untersuchen. In diesem Kontext kann man die Frage der ‚Passung‘ des Verhaltens einer Population zur jeweiligen Außenwelt nach unterschiedlichen Kriterien gewichten. Z.B. stellt das schlichte ‚Überleben‘ bzw. ‚Nicht-Überleben‘ ein Basiskriterium dar. Populationen, die nicht überleben, haben offensichtlich ein Verhaltensspektrum, was nicht geeignet ist, alle notwendigen ‚Aufgaben‘, die die jeweilige Umgebung stellt, in der verfügbaren Zeit befriedigend zu lösen. Insofern das Verhalten ein Ouput des Körpers mit seinem Nervensystem ist, das auf einem bestimmten Input basiert – also sys: IN x BD x NN —> OUT — muss man sagen, dass die Systemfunktion sys offensichtlich unzulänglich ist. Da jede Systemfunktion eine Synthese von Körper mit Nervensystem BD x NN bildet, von dem wir wissen, dass es auf biochemischem Wege über Genetik, Wachstum und Vererbung weitergegeben und zugleich ‚verformt‘ wird, könnte man sagen, ein Körper-mit-Nervensystem-System SYS_bd_nn hat eine ‚wahre_2‘ Struktur, wenn das potentielle Verhalten sys( IN x BD x NN) geeignet ist, dass die Population dieses Systems POP_sys überlebt. Hier wird also der Körper mit seinem Nervensystem und den im Nervensystem bildbaren ‚Modellen‘ Th_nn einheitlich als ein dynamisches Modell sys() gesehen, das alle für das Überleben notwendigen Eigenschaften in der umgebenden Außenwelt hinreichend abbilden und gestalten kann. Das ‚Transobjektive‘ von Hartmann könnte in diesem Kontext interpretiert werden als die umgebenden Außenwelt, die auf den jeweiligen Körper einwirkt und über die verfügbaren Sensoren in dem Körper ein ‚Bild ihrer selbst‘ erzeugt, das nicht die Außenwelt ist, wie sie ‚an sich‘ ist, sondern die Außenwelt, wie sie aufgrund einer kausalen Wirkkette innerhalb eines Organismus repräsentiert werden kann. Die verfügbare neuronale Maschinerie generiert aus diesem primären ‚Bild‘ unterschiedliche komplexe Theorien, die über die konkreten einzelnen Daten hinausreichen (sie ‚transzendieren‘) und mittels einer Theorie ein übergreifendes Bild von einem ‚transzendierenden Objekt‘ entwerfen. Dieses selbst generierte ‚Bild eines Urbildes‘ kann mit dem Urbild – von einem Metastandpunkt aus betrachtet — mehr oder weniger ‚übereinstimmen‘ –also: wahr2: ENV x BD x NN x IN —> {passt, passt-nicht} –, doch ist diese Art von Passung dem individuellen System nicht zugänglich! Sie erschliesst sich nur in einer empirischen Untersuchung, die historische Entwicklungen untersuchen kann.

 

(21) Behält man das Verständnis von Metaphysik als Wissenschaft vom Seienden bei, das sich durch und jenseits der Erkenntnis erschließt und das unabhängig von der Erkenntnis existiert, dann müsste man nun sagen, Metaphysik ist im Prinzip möglich, nicht jedoch als Disziplin individuellen Erkennens, sondern nur als empirische Disziplin, die in einem Netzwerk betrieben wird. Moderne empirische Wissenschaften mit explizitem Theorieanteil, die die Leistungsfähigkeit von Populationen unter expliziter Berücksichtigung des neuronal basierten Verhaltens mit Bezug auf ihre Umwelt untersuchen, bilden gute Kandidaten für eine moderne Metaphysik.

(22) Man kann diese Überlegungen auf vielfältige Weise ergänzen und weiterführen. Ein interessanter Aspekt ist der ‚Offenbarungscharakter‘ von Natur. Wenn man bedenkt, wie umfangreich der Weg vom sogenannten Big-Bang (reine Energie mit einer unvorstellbar großen Temperatur) über Ausdehnung, Sternenbildung, Elementbildung, Bildung unserer Galaxie mit einem komfortablen Platz für unser Sonnensystem, mit einem komfortablen Platz für unsere Erde mit einer extrem günstigen Konstellation aller Planeten, der Entstehung von Molekülen aus Elementen, bis hin zu den ersten Zellen (bis heute letztlich ungeklärt)(vor ca. -3.2 Milliarden Jahren), von da aus eine ‚endogen und interaktiv  getriebene Entwicklung‘ genannt Evolution hin zu körperlichen Strukturen mit vielen Zellen, hin zu Nervensystemen (Start vor ca. -700 Mio Jahren), hin zu Körpern und Gehirnen, die explizite Modelle ihrer Umwelt und ihrer selbst entwickeln können, die symbolische Sprache erfunden haben und vieles mehr. Entscheidend: von der reinen Energie am Anfang sind wir zu Gehirnzuständen gekommen, in denen sich das Universum gleichsam ’selbst‘ anschauen kann, den Augenblick, das Einzelne, aber auch Alle und die ganze Entwicklung. Im Bewusstsein eines JEDEN Menschen kann sich potentiell das gesamte Universum mit allen seinen Facetten ‚versammeln‘, ‚aufscheinen‘. Ich habe nicht den Eindruck, dass irgendein Mensch sich der Tragweite dieses Faktums bewusst ist. Und bezogen auf die klassischen Offenbarungsreligionen (Judentum, Christentum, Islam) habe ich den Eindruck, dass diese die Menschen, statt sie mehr und tiefer zu Gott und einer Ehrfurcht vor dem Leben hinzuführen, eher dazu dienen, die Menschen Gott zu entfremden und das Leben – auch in Gestalt anderer Menschen – zu verachten, zu hassen oder gar zu töten. Ein solches Verhalten ist NIEMALS die Botschaft des Lebens, wenngleich das ‚Fressen und Gefressenwerden‘ im Bereich des Lebens eine Eigenschaft darstellt, die an die Notwendigkeit der Verfügbarkeit von hinreichender Energie gekoppelt ist. Doch in der Gestalt des Menschen hat das biologische Leben einen Punkt erreicht, bei dem dieses zwanghafte Fressen und Gefressenwerden prinzipiell durchbrochen werden kann. Wir haben die grundsätzliche Möglichkeit –zum ersten Mal seitdem es dieses Universum gibt!!! — die Gesetze des Lebens neu zu gestalten, neu zu formen, ja, letztlich können wir im Prinzip das gesamte bekannte Weltall von Grund auf neu umformen (natürlich nicht an einem Tag….). Genau dazu sind wir ‚berufen‘. Aber wen interessiert schon die Wahrheit2? Noch liegt immer ein gewisser ‚Schleier‘ über der Bestimmung des gesamten Lebens. Dass es auch irgendwo anders im riesigen Universum ähnliches der gar gleiches Leben wie unseres geben sollte, ist grundsätzlich weder auszuschließen noch würde es unserer ‚Bestimmung‘ irgendeinen Abbruch tun. Die Erkenntnis des ‚gemeinsam Gewordenseins‘ enthält in sich eine gemeinsame Berufung für das Ganze, von dem wir in Gestalt des messbaren Universums möglicherweise bislang nur einen kleinen Zipfel sehen (so wie unser Gehirn im Körper sich als ‚Herr der Dinge‘ erlebt, obgleich es doch, wie wir heute wissen können, nur einen winzigen Ausschnitt eines viel Größeren erlebt). ‚Wahrheit‘ ist das jeweils ‚Größere‘ (Magis), dem wir uns beugen und dienen müssen, da wir als einzelne nicht ‚Herr des Geschehens‘ sind. Insofern wir aber untereinander mit allem unauflöslich ‚verbunden‘ sind, ist diese individuelle Beschränkung nur relativ.

 

 

Eine direkte Fortsetzung findet sich hier

 

 

Eine Übersicht zu allen Beiträgen des Blogs findet sich im begleitenden cogntiveagent-Wiki

 

 

 

 

 

 

A POSTERIORI, A PRIORI, TRANSZENDENZ, AN SICH, FÜR SICH – Überlegungen zu N.Hartmanns Metaphysik der Erkenntnis

Begrifflicher Rahmen zu N.Hartmann’s MdE

VORGESCHICHTE

(1) Bei der Lektüre von Husserls Pariser Vorlesungen von 1929 –bekannt als ‚Cartesianische Meditationen‘– hatte sich gezeigt, dass sich Husserl im Rahmen seiner Beschreibung der phänomenologischen Analyse schwer tat, die Eigenstellung des ‚Objektes‘ in seinem Denkrahmen zu beschreiben (siehe dazu die vorausgehenden Reflexionen in diesem Block; eine Übersicht findet sich hier). Obgleich das ‚Objekt‘ ein wesentliches Moment in seiner Beschreibung des ‚transzendentalen ego‘ war, hatte es dennoch keine absolute Eigenständigkeit innerhalb des Denkhorizontes. Das Denken war primär. In diesem Sinne erweist sich das Husserlsche Denken als ‚idealistisch‘. Zum Ende seiner Vorlesungen bemerkt Husserl, dass er mit diesem Denkansatz ein Problem bekommt um dem Phänomen des ‚Anderen‘ als ‚Du‘ gerecht werden zu können.

 

(2) In meinem Vortrag in Bremerhaven hatte ich nachfolgend herausgearbeitet, dass ein phänomenologisches Denken sich nicht im absoluten Gegensatz zu einem empirischen Denken befindet und dass, darüber hinaus, ein phänomenologisches Denken sogar der Unterstützung des empirischen Denkens bedarf, um seine eigenen Denkvoraussetzungen ‚kritisch‘ zu klären. Kritisch nicht im Sinne von Kants ‚Kritik der reinen Vernunft‘ als Klärung ohne Bezug zur Empirie, sondern durch Einbeziehung der Empirie hinsichtlich der empirischen Voraussetzungen des Denkens.

(3) Die Vorgehensweise der Einbeziehung der Empirie zur Klärung der Voraussetzungen des Denkens wurde schon von anderen praktiziert (im Vortrag verweise ich auf einige Publikationen im Rahmen einer sogenannten ‚Evolutionären Erkenntnistheorie‘: Literaturhinweise). Ein solches Vorgehen setzt allerdings die Annahme voraus, dass das uns bekannte bewusste Denken eine Leistung des Gehirns ist. Dies bedeutet, dass wir nur solches bewusst erleben und denken können, was durch die ‚Schaltungen der neuronalen Maschinerie‘ möglich ist. Allerdings folgt daraus nicht, dass man aus den physikalischen Eigenschaften dieser neuronalen Maschinerie die korrespondierenden bewussten Leistungen direkt erschließen könnte. Die ‚bewussten‘ Leistungen gehören zur ‚Innensicht‘ des Gehirns und sind als solche nur von dem beschreibbar, der diese ‚Erlebnisse‘ hat. Daraus ergibt sich, dass eine Beschreibung der Struktur und Dynamik des Bewusstseins aus der Innensicht eine unverzichtbare und irreduzible Aufgabe einer philosophischen Analyse des menschlichen Denkens ist –als phänomenologische Theorie TH_ph–, allerdings notwendigerweise korrespondierend mit neuropsychologischen Untersuchungen zur Denkmaschinerie TH_nn und dem korrespondierenden Verhalten TH_sr, will man ein minimal vollständiges Bild gewinnen.

(4) In diesem Zusammenhang bin ich durch die Lektüre von K.Lorenz ‚Die Rückseite des Spiegels‘ aufmerksam geworden auf die Philosophie Nicolai Hartmanns. In der Darstellung von Konrad Lorenz gewann ich den Eindruck, dass N.Hartmann der Stellung des ‚Objekts‘ innerhalb des Denkens von vornherein mehr Gewicht verleiht als Husserl. Während Husserl gegen Ende seiner Pariser Vorträge große Probleme hat, dem ‚Objekt‘ innerhalb seines Denkens wieder eine angemessene Stellung zu verschaffen, nachdem er es zuvor weitgehend annulliert hatte, soll Hartmann nach Lorenz dem ‚Objekt‘ innerhalb des Denkens von vornherein eine sehr starke Stellung eingeräumt haben.

(5) Nach kurzer Recherche habe ich dann begonnen jenes Werk von Hartmann zu lesen, durch das er sich vom Idealismus einer Marburger Schule abgewendet haben soll, eben seine ‚Grundzüge einer Metaphysik der Erkenntnis‘ [MdE] von 1929.

MdE – AUSGANGSPUNKT

(6) In der ‚gnoseologischen‘ Einleitung bezeugt Hartmann, dass er den Ausgangspunkt einer philosophischen Analyse analog zu Husserl in einer ‚phänomenologischen Analyse‘ des Gegebenen sieht. So schreibt er explizit „Nur das größtmögliche Maximum an Gegebenheit kann der wahrhaft kritischen Einstellung genügen, die bis hinter alle möglichen Standpunkte zurückgreift und auch gegen sie kritisch bleibt.“ (MdE,43). Und weiter „Der Phänomenologie müssen alle Phänomene als gleichwertig gelten. Für die Theorie können sie es nicht sein. Phänomenologie … steht ja nicht nur diesseits der Theorie, sondern diesseits aller Problemstellung. Ihre ganze Arbeit ist die Ordnung und Zusammenfassung des Gegebenen unter der Einheit deskriptiver Begriffe. Was sie als gegeben zusammenstellt, erhebt nicht den Anspruch auf objektive Realität, sondern nur auf Geltung als Phänomen. Und eben das Phänomen ist es, was die Theorie zu deuten hat.“ (MdE,43)

 

(7) Dieser Abschnitt enthält eine Reihe von wichtigen Begriffen, die innerhalb der Einleitung nicht wirklich erläutert werden, die aber dennoch Schlüsselbegriffe zu sein scheinen, die einen ‚Rahmen‘ aufspannen, innerhalb dessen sich alle weiteren Überlegungen bewegen werden.

(8) Ein erstes Gegensatzpaar bilden einerseits die ‚Phänomen als Gegebenes‘ und andererseits ein möglicher ‚Standpunkt‘, der von den gegebenen Phänomenen insoweit als ‚unabhängig‘ anzunehmen ist, als es offensichtlich mehr als einen einzigen Standpunkt zu den gleichen Phänomenen geben kann (andernfalls gäbe es eine denknotwendige Verbindung von gegebenen Phänomenen zu einem Standpunkt und eine Betonung auf die Phänomene ‚hinter allen möglichen‘ Standpunkten wäre unnötig). An dieser Stelle ist nicht ganz klar, was ein solcher ‚möglicher Standpunkt‘ unterschieden von gegebenen Phänomenen sein soll. Hartmann stellt nur fest, dass die Konzeption des ‚Standpunktes‘ auf der „letzten und abhängigsten“ Einsicht basiert, die vom „Ganzen der Problembehandlung“ abhängig ist (vgl. MdE, 43).

 

(9) Ebenso gibt es eine Unterscheidung zwischen gegebenen Phänomenen und einer ‚Theorie‘, von der gesagt wird, dass sie die Phänomene ‚deute‘. Was man sich genau unter ‚Theorie‘ oder unter ‚Deuten‘ vorstellen sollte, erklärt er auf den ersten 43 Seiten nicht). Man kann vermuten, dass es sich um eine von den gegebenen Phänomenen verschiedene Ebene des Denkens handeln kann, die durch Bereitstellung von eigenständigen Zusammenhängen diese Phänomene ‚deutet‘.

 

(10) Er spricht außerdem von ‚deskriptiven Begriffen‘, die dazu dienen, die gegebenen Phänomene Ph zu ‚Ordnen und Zusammenzufassen‘ bzw. ‚Zusammenzustellen‘. Was man sich unter ‚deskriptiven Begriffen‘ vorstellen soll bzw. wie man sich ein ‚Ordnen‘ und ‚Zusammenstellen‘ vorzustellen habe, wird nicht erklärt. Man kann spekulieren, dass ‚deskriptive Begriffe‘ B_des Ausdrücke einer Sprache L sind (B_des subset L), mittels deren Bezug genommen wird auf gegebene Phänomene als mögliche ‚Bedeutungsträger‘ D subset Ph (Designate, Bezeichnete, Signifie, …) M: L —> D. Es stellt sich dann die Frage, inwieweit solche deskriptiven Begriffe B_des selbst auch Phänomene sind/ sein müssen. Wären die Ausdrücke B_des Phänomene im Sinne Husserls, dann wären sie bar jeglicher Bedeutung D, da die Bedeutungsbeziehung M(L,D) als solche etwas ist, was weder einem Ausdruck B_des als solchem noch einem potentiellen Bedeutungsträger D als solchem zukommt. Die Bedeutungsbeziehung ist ein ‚eigenständig Gegebenes‘ als Eigenschaft unseres Bewusstseins, das wir ‚vorfinden‘. D.h. unser Bewusstsein ‚zeigt‘ uns, dass wir zwei unterschiedliche eigenständige gegebene Phänomene B_des_i und Ph_j über eine Bedeutungsbeziehung M() so miteinander verknüpfen können, dass ab einem bestimmten ‚Punkt‘ eine Bedeutungsbeziehung M(B_des_i, Ph_j) gegeben ist, durch die das Phänomen Ph_j zu einem ‚Designat‘ (zu einer Bedeutung) für das Phänomen B_des_i wird und umgekehrt das Phänomen B_des_i zu einem ‚Zeichen‘ für das Phänomen Ph_j. In diesem Zusammenhang könnte man die deskriptiven Begriffe dann ‚definieren‘ als solche ‚Zeichen‘, die in einer Bedeutungsbeziehung M() zu einem gegebenen Phänomen des Bewusstseins stehen. Sofern man solche deskriptiven Begriffe zur Kommunikation zwischen verschiedenen Bewusstseinen benutzen möchte müsste geklärt sein, wie es möglich ist, dass zwei verschiedene Bewusstseine A und B eine ‚hinreichend ähnliche‘ Bedeutungsbeziehung etablieren können, obschon weder A die Phänomene von B kennt noch B jene von A. Ferner wäre zu klären, ob und wie die Bedeutungsbeziehung M() in beiden Bewusstseinen ‚hinreichend ähnlich‘ ist bzw. sein kann.

 

(11) Schließlich bringt Hartmann den Begriff ‚objektive Realität‘ ins Spiel, und zwar als etwas, was außerhalb der phänomenologischen Analyse liegt. Phänomene sind zwar per se auch ‚real‘, aber nicht ‚objektiv‘. An dieser Stelle ist schwer ersichtlich, was mit einer Realität ‚außerhalb‘ der Phänomene des Bewusstseins gemeint sein kann, da ja nach allgemeiner Annahme alles, was wir wissen und wissen können nur durch die Vermittlung des Bewusstseins erkenntnismäßig fassbar wird.

 

MdE – SUBJEKT, OBJEKT, TRANSZENDENTAL

 

(12) Hartmann beginnt seine Analyse mit der Annahme, dass jegliche ‚Erkenntnis‘ geprägt ist von den unterscheidbaren Momenten ‚Subjekt‘ und ‚Objekt‘: das Subjekt ‚erfasst‘ das Objekt und das Objekt ist für das Subjekt ‚erfassbar‘. Diese Asymmetrie ist nicht ‚umkehrbar‘ bzw. nicht ‚vertauschbar‘. Hartmann spricht sogar davon, dass sich in diesem ‚Hinausgreifen des Subjekts‘ anzeigt, dass die Sphäre des Objekts für das Subjekt ‚transzendent‘ ist, da das Subjekt zum Erfassen des Objekts ’sich verlassen‘ (‚transzendieren‘) muss. Andererseits bedingt eine Objekt-Erkenntnis, dass das Subjekt im Erkennen nicht beim Objekt verbleibt, sondern trotz allem auch bei ’sich selbst‘ ist; dadurch nur ist ein Bewusst-sein-des-Objekts möglich. Schließlich gilt, dass innerhalb der durch das Erkennen zustande kommenden Verknüpfung von Subjekt und Objekt das Objekt ‚unaufhebbar erhalten‘ bleibt. (vgl. MdE, 44f,Nr.1-6)

 

(13) Wie so oft werden in diesem Buch Begriffe –hier ‚Subjekt‘ und ‚Objekt‘– eingeführt, die nicht weiter erklärt werden. Da es sich um komplexe Begriffe handelt, denen allem Anschein nach eine zentrale Rolle zukommt, ist dies ein wenig befremdlich. Andererseits ist aus dem Bereich der modernen Theoriebildung bekannt, dass man innerhalb eines theoretischen Gefüges ‚theoretische Terme‘ einführen kann, deren Bedeutung nur durch ihre logische Funktion im Gesamtkontext gegeben ist. Angenommen, dass es sich bei den Begriffen ‚Objekt‘ und ‚Subjekt‘ um solche theoretischen Begriffe handelt, dann müssen wir ihre Bedeutung durch den ‚Kontext ihrer Verwendung‘ erschließen. Dabei sollte man bedenken, dass moderne Theorien formale Theorien sind, in denen der Kontext eindeutig gegeben ist. Davon kann hier nicht die Rede sein. Gegen diese Interpretation als ‚theoretische Terme‘ spricht auch, dass Hartmann ja gerade zuvor eine deutliche Abgrenzung zwischen einer ‚phänomenologischen Analyse mittels deskriptiver Begriffe‘ einerseits und möglichen ‚deutenden Theorien‘ andererseits gefordert hat. In diesem Sinne würde man erwarten, dass er hier nicht mit theoretischen Begriffen operiert, sondern mit deskriptiven. Deskriptive Begriffe sollten sich dann aber auf jene Phänomene beziehen, von deren Gegebenheiten wir ausgehen. Nehmen wir dies als Deutungshypothese an, dann müssten wir fragen, auf welche Phänomene beziehen sich die deskriptiven Begriffe ‚Objekt‘ und ‚Subjekt‘?

 

(14) Husserl hatte den Begriff des ‚transzendentalen ego‘ eingeführt, um den nicht weiter aufzeigbaren ‚Fluchtpunkt‘ allen Wissens um etwas zu benennen. Descartes hatte in der Formulierung des ‚cogito ergo sum‘ ein ‚ego‘ impliziert, das als solches kein Phänomen ist wie ein Phänomenkomplex ‚Stuhl‘, ‚Hund‘, ‚Hand‘ usw. Das ‚wissende ego‘ wurde sowohl von Descartes wie auch Husserl als Bedingung jeglicher Erkenntnis geortet –und insofern von Husserl als ‚transzendental‘ bezeichnet–, aber eben nicht vergleichbar jenen Phänomenkomplexen, die gewöhnlicherweise das ‚Etwas‘ im Erkennen markieren, den intentionalen Gegenstand. Nehmen wir einmal an, Hartmann meint mit ‚Subjekt‘ in diesem Kontext das, was Husserl ‚transzendentales ego‘ nannte und Descartes implizit mit seinem ‚cogito ergo sum‘ meinte. Dann könnte man annehmen, dass Hartmann vielleicht mit ‚Objekt‘ all jene Phänomenkomplexe meint, die in der Erkenntnisbeziehung dem transzendentalem ego als ein ‚Etwas‘ gegenübertreten.

 

(15) Mit dieser Interpretation könnte man dann formulieren, dass das in der Erkenntnisbeziehung aufscheinende ‚Etwas‘ als Gegenüber zum transzendentalen ego weder durch das transzendentale ego ‚hervorgebracht‘ wird noch im Erkennen vom transzendentalen ego ‚absorbiert‘ wird. Innerhalb der Erkenntnisbeziehung ist ein mögliches ‚Objekt‘ als ein Etwas der Erkenntnis gegenüber dem erkennenden transzendentalem ego gleichberechtigt und damit dann auch transzendental; es bildet eine Voraussetzung der Erkenntnis, die das transzendentale ego nicht selbst hervorbringt, sondern vorfindet. Gerade darin liegt ja auch irgendwie der Reiz des Erkennens; es hat fundamental den Charakter des ‚Vorfindens‘, ‚Entdeckens‘, ‚Begegnens‘ mit etwas Verschiedenem, Anderem. Strenggenommen geht aber eine Qualifizierung von etwas Gegebenem als ‚transzendental‘ über die phänomenologische Analyse schon hinaus. Zwischen ‚Objekt‘ und ‚Subjekt‘ zu unterscheiden macht Sinn, da sich hier unterschiedliche Eigenschaften im gegebenen Phänomen einer Beschreibung ‚aufdrängen‘. Diese Beschreibungen weiter zu analysieren hinsichtlich logischer Verhältnisse gehört eigentlich schon in den Bereich einer möglichen Theorie.

 

MdE – BILD DES OBJEKTS

(16) An dieser Stelle trifft Hartmann eine Entscheidung von großer Tragweite. Er schreibt „Das Einholen des Erfaßten bedeutet nicht ein Einholen des Objekts in das Subjekt, sondern nur die Wiederkehr der Bestimmtheiten des Objekts an einem inhaltlichen Gebilde im Subjekt, dem Erkenntnisgebilde, oder dem ‚Bilde‘ des Objekts…. Am Objekt entsteht nichts Neues, im Subjekt aber entsteht das Gegenstandsbewußtsein mit seinem Inhalt, dem ‚Bilde‘ des Objekts.“ (MdE, 5, Nr.7). Auf den ersten Blick verletzt er mit dieser Feststellung seine eigenen methodischen Forderungen. Wenn es nicht das Objekt selbst ist, was im Erkennen aufscheint, sondern nur ein ‚Bild‘ von dem Objekt, dann gehört das vorausgesetzte Objekt nicht zu den Phänomenen. Dann aber liegt es außerhalb der von ihm selbst postulierten deskriptiven Phänomenologie. Bestenfalls könnte es Gegenstand einer theoretischen Diskussion sein, die sich um eine angemessene theoretische Deutung des phänomenologischen Sachverhalte bemüht. Innerhalb einer deskriptiven Phänomenologie habe ich aber nur jene Phänomene, die tatsächlich innerhalb des Erkennens aufscheinen. Lässt sich der Begriff des ‚Objekts‘ wie vorher angesprochen einigermaßen deuten als typische Phänomenkomplexe, die innerhalb des Erkennens als ‚Etwas‘ aufscheinen, entzieht sich der Begriff eines ‚Objekts als dem Erkennen jenseitig‘, verstanden als ‚Objekt als solches‘, jeglicher Phänomenologie; dies ist mehr als transzendent und daher –in diesem Kontext– rational nicht nachvollziehbar.

(17) Hartmann scheint sich dieser Problematik bewusst zu sein. Er führt nämlich dann die Unterscheidung zwischen ’schlichter, unreflektierter Erkenntnis‘ ein und solcher Erkenntnis (MdE. 45), in der ein Moment von ‚Reflexion‘ vorkommt; letztere aber noch unterschieden von einer vollständigen ‚Theorie‘ (MdE,46). Die schlichte, naive, unreflektierte Erkenntnis kann nach ihm nicht unterscheiden zwischen dem ‚Objekt als solchem‘ und dem ‚Bilde des Objektes‘. Erst in Verbindung mit Reflexion lassen sich die ‚Bestandteile des Phänomens aufzeigen‘, bewusst machen. Die hier notwendige Reflexion ist noch nicht die Theorie, aber doch die Voraussetzung einer möglichen Theorie. Aufgrund ihrer Unterscheidung kann eine Theorie entstehen. Zugleich stellt er fest, dass eine schlichte, naive Erkenntnis im Alltag niemals isoliert auftritt sondern immer schon eingebettet in ein alltägliches ‚Meinen über das Erfasste‘, das direkt in das Erfasste ‚hineininterpoliert‘ ist (vgl. MdE, 46).

(18) Selbst wenn man Hartmann zustimmt, dass das alltägliche Erkennen eine beständige Mixtur von phänomenologischen Sachverhalten, vorgefertigten Interpretationen in Form von Meinungen und andauernden Reflexionen ist, so kann und muss man sich fragen, warum er zuvor so klare methodische Unterscheidungen aufstellt, wenn er sie dann doch nicht –mit Verweis auf eine vorphilosophische, davon abweichende Praxis– dann noch nicht selbst beherzigt?

 

(19) Nach diesem Einschub mit ’naiver‘ versus ‚reflektierender‘ Erkenntnis wiederholt er dann seine These „Es ist der Gegenstand nicht wie er an sich ist, sondern wie er gesehen, erfaßt oder gemeint ist. Zum Bewusstsein kommt dieser Unterschied wo erneutes Erfassen zu erstmaligem Erfassen in inhaltlichen Gegensatz tritt.“ (MdE,46) Und, etwas später „…Dieses Etwas nun,als welches er vorkam oder vorschwebte, ist offenbar weder der Gegenstand selbst noch auch das Subjekt, sondern ein von beiden unterschiedenen Drittes, das in die Erkenntnisrelation eingeflochten ist. Es ist das, was man die ‚Vorstellung‘ des Gegenstandes genannt hat.“ (MdE, 46f)

 

(20) Entscheidend ist hier der Satz „Zum Bewusstsein kommt dieser Unterschied wo erneutes Erfassen zu erstmaligem Erfassen in inhaltlichen Gegensatz tritt.“ Dieser Satz setzt voraus, dass es beim Erfassen eine Unterscheidung von ‚Vorher – nachher‘ gibt

also eine Art Folge von Erfasstem <Erf_1, Erf_2, …, Erf_n>

und dass die inhaltlichen Eigenschaften von etwas Erfassten Erf_i und Erf_i+1 vergleichbar sind, mindestens im Sinne von ‚gleich’/ ‚ungleich‘, also

comp(Erf_i, Erf_i+1) = 1, wenn ‚gleich‘ und =0, wenn ‚ungleich‘.

Eine solche komplexe Operation setzt voraus, dass es ein minimales Gedächtnis (Memory) gibt, das in der Lage ist, ‚vorausgehende‘ Erfassungen soweit zu speichern, dass ein Vergleich mit ’neuem‘, ‚aktuellem‘ Erfassten möglich ist. Sagen wir, dass die zu vergleichenden Gebilde Erf_i und Erf_i+1 auf der ‚gedanklichen Ebene‘ Level_k liegen, dann operiert der Vergleich auf einer höheren Ebene Level_k+1. Auf dieser höheren Ebene Level_k+1 ließe sich dann eine Art ‚Metakonzept‘ MK(Erf_i, Erf_i+1) bilden, in dem Gemeinsamkeiten und Unterschiede repräsentiert werden könnten (Anmk: in der kognitiven Psychologie gibt es zahlreiche Modelle, wie man solche begrifflichen Strukturen beschreiben könnte). Die ‚Vorstellung‘ bzw. das ‚Bild‘ eines Objektes wäre in dieser theoretischen Rekonstruktion dann eine aktuelle ‚Instanz‘ (Erf_i) eines abstrakten ‚Objektkonzeptes‘ (MK()), das sich anhand der vielen individuellen Instanzen langsam ‚bilden‘ würde. Das ‚Objekt an sich‘ wäre dann ein theoretisches Konstrukt auf der Basis der phänomenalen Ereignisse. In diesem Modell könnt man zum Level_k+1 einen weiteren Level_k+2 bilden. Auf diesem Level könnte man dann Eigenschaften von Objektkonzepten modellieren, z.B. dass ein Objektkonzept ‚unabgeschlossen‘ ist, d.h. ein Objektkonzept kann sich grundsätzlich verändern, weiter entwickeln (Anmk: dieses Modell wurde schon anlässlich der Diskussion von Husserls Cartesiansichen Meditationen beschrieben. Würde man es akzeptieren, dann würden sich hier Husserl und Hartmann bis zu diesem Punkt nicht wirklich unterscheiden).

 

(21) Für Hartmann ist es wichtig, zu betonen, –hier Fichte positiv zitierend– „Erkenntnis ist Bestimmung des Subjekts durch das Objekt“. (MdE,47) Und „Das Subjekt verhält sich in der Erkenntnisrelation prinzipiell rezeptiv zum Objekt“. (MdE,48) Obgleich wir heute wissen (und in anderem Zusammenhang geht Hartmann selbst darauf ein), dass das Subjekt sehr wohl das Aufscheinen von Objekten in seinem Bewusstsein so manipulieren kann, dass das, was aufscheint, mit ‚unabhängig vom Bewusstsein existieren Objekten‘ wenig bis gar nichts mehr zu tun hat (Selbsttäuschung, Wahn, Lüge, Propaganda, Desinformation, Fantasie, Virtuelle Welten,…), kann man zustimmen, dass dort, wo das Subjekt in einer ’nicht manipulierten Umgebung‘ lebt, das im Bewusstsein Erfasste Eigenschaften ‚von Etwas jenseits des Bewusstseins‘ transportiert, die die Gestalt des Bewusstseins ‚prägen‘ können. In gewisser Weise folgt dann das Bewusstsein dem Objekt anhand des postulierten Gedächtnisses.

 

MdE – A POSTERIORI, A PRIORI

(22) Hartmann führt dann auch noch die Unterscheidung ‚a posteriori‘ und ‚a priori‘ ein. ‚A posteriori‘ nennt er alles Erfassen, bei dem das Erkennen sich auf einen ‚realen Einzelfall‘ bezieht. (cf. MdE,50). Alles Erfassen, bei dem ein realer Einzelfall nicht vorliegt und eine Erkenntnis aufgrund des ‚allgemeinen Wesenszuges‘ des Gegenstandes, aufgrund seines ‚idealen‘ Seins, möglich ist, nennt er ‚a priori‘. (vgl. MdE, 50).

 

(23) Auf den ersten Blick bieten diese Begriffsdeutungen zum Vorausgehenden kein Problem, da Metakonzepte als solche immer Möglichkeiten bieten, allgemeine Aussagen über ein Erfasstes zu machen, ohne dass dieses als Instanz gegeben ist. D.h. das ‚A priorische‘ wäre in diesem Modell indirekt gegeben durch die sich herausbildenden Strukturen im Bereich der Metakonzepte. Es ist aber nicht ganz klar, ob Hartmann nicht doch noch etwas anderes, und sogar ‚mehr‘ meint, wenn er diese Begriffe benutzt.

(24) So spricht er vom ‚äußeren‘ und ‚inneren‘ Sinn und zitiert Kant mit dem Gedanken, „… dass er das eigentliche Erkenntnisphänomen des Apriorischen in seiner ‚objektiven Gültigkeit‘ erblickt, d.h. im Zutreffen des innerlich Erschauten auf den transzendenten Gegenstand.“ (MdE, 51). Im vorausgehenden Modell könnte man zwar ein entstehendes Metakonzept immer wieder neu mit dem aktuell Erfassten vergleichen und im Falle der ‚hinreichenden Ähnlichkeit‘ dies als ‚Bestätigung‘ mit der ‚transzendentalen Quelle‘ interpretieren, unabhängig von den Metakonzepten macht es aber keinen rechten Sinn, von einem ‚transzendenten Objekt‘ zu sprechen, da hierfür jeglicher Ansatzpunkt fehlt. Man kann sich zwar vorstellen, dass man die Erkenntnisebenen Level_k+2 weiter ausdehnt und z.B. ein umfassendes Metakonzept bildet, in dem das Konzept (die Idee?) eines Raumes formiert wird, in der das Bewusstsein als ein Element vorkommt, das von hypothetischen Objekten beeinflusst werden kann. Dies wären dann Konzepte möglicher transzendenter Objekte, aber diese Metakonzepte selbst wären natürlich keine transzendenten Objekte. Es ist schwer zu sehen, wie Hartmann diese Rede von transzendenten Objekten im Rahmen der menschlichen Erkenntnis rechtfertigen kann. Auch die Rede vom ‚äußeren‘ und ‚inneren‘ Sinn ist problematisch. Wenn das Subjekt über phänomenologische Komplexe sowie darauf aufbauende Metakonzepte nicht hinauskommt, wie kann er dann in einem absoluten Sinne von ‚Außen‘ versus ‚Innen‘ sprechen? Bislang wäre eine Reden von ‚Außen‘ nur in einem abgeleiteten Sinne innerhalb der Metakonzeptbildung möglich.

 

(25) Hartmann hält diese Mehrdeutigkeit eine Zeitlang noch in der Schwebe, da er für den Bereich des Erkennens (die gnoseologische Sicht) eine letzte Unabhängigkeit von Subjekt und Objekt voneinander ausschließt (vgl. MdE, 51-53), formuliert aber so, dass mit Blick auf eine ontologische (die Existenz betreffende) Sicht ein An-sich-sein postuliert, von dem aus das Objekt vom Subjekt unabhängig ist und in diesem Sinne wahrhaft ‚transzendent‘ und nicht nur ‚transzendental‘. Ferner schließt er in ontologischer Sicht nicht aus, dass auch das Subjekt ‚mehr‘ ist als nur Erkennen. (vgl. MdE, 52f)

 

(26) Ein solcher ‚Flirt‘ mit einer ontologischen Sicht mag ’nett‘ wirken, ist aber letztlich ‚unseriös‘, wenn darauf verzichtet wird, heraus zu arbeiten, wie es möglich ist, auf der Basis einer gnoseologischen (strikt an der Erkenntnis orientierten) Sicht zu ontologischen Aussagen zu kommen, die deutlich mehr Informationen enthaltenen, als die Erkenntnisbasis hergibt. Ich sehe in dem Text soweit bislang keinerlei Ansatzpunkt, wie Hartmann seine ontologischen Deutungen rechtfertigen könnte.

 

MdE – HANDLUNG

(27) Hartmann weist kurz darauf hin, dass das Subjekt durch sein ‚Handeln‘ sehr wohl auch das Objekt verändern könne. (vgl. MdE, 53f). Er gibt hier aber weiter keine Erläuterungen. Dies wäre aber sinnvoll, da das Reden von ‚Handlungen des Subjekts, die das Objekt verändern‘ phänomenologisch alles andere als einfach ist. Allein der saubere Aufweis, wie man begrifflich beschreiben sollte, dass ein Subjekt ‚Aktivitäten‘ ‚plant/ intendiert/ will…‘, diese dann ‚umsetzt‘, die ‚Wirkung‘ dieses seines ‚Handelns‘ erfassen kann als sein eigener Beitrag zur Veränderung des erfahrbaren Objektes ist maximal komplex und ist nach meiner Kenntnis bis heute von niemandem auch nur annähernd geleistet worden. Dies reisst eine gewaltige Lücke in die philosophische Reflexion um das Verhältnis von Subjekt und Objekt.

 

MdE – VARIABLES OBJEKT

(28) Oszillierend zwischen Gnoseologie und Ontologie kreist Hartmann beständig um die Differenz von aktuell erkanntem Objekt und dem allgemeineren Konzept, das sich aus vielen konkreten Ereignissen herausbilden kann. Er selbst neigt dazu (mit Anlehnung an eine nicht begründete Ontologie) diese Differenz interpretierend auszuweiten auf ein Objekt an sich, auf ein wahrhaft transzendentes Objekt, auf ein ‚Transobjektives‘. (MdE, 54) Und er nimmt an, dass das Subjekt von dieser Inadäquatheit zwischen realisiertem und transzendentem Objekt wissen kann, ein ‚Wissen des Nichtswissens‘. (MdE, 54). Daraus leitet Hartmann ein Bewusstsein der ‚Beschränkung‘ her, das zu einem Spannungsmoment wird, welches wiederum den Erkenntnisprozess als Progreß antreibt. (vgl. MdE, 55)

 

(29) Diese schon eher psychologisch anmutenden Spekulationen zeigen, was passiert, wenn man die Bedingungen der Aussagen nicht mehr sauber kontrolliert. Im Rahmen des Erkenntnisprozesses gibt es kein ‚Objekt an sich‘ als ‚transzendierendes‘ Objekt. Wohl lässt sich vorstellen, wie man mit Hilfe von Erkenntnisebenen unterschiedliche Abstraktionsebenen konstruieren kann, die unter Einbeziehung eines –noch näher zu beschreibenden– Gedächtnismodells aus einem Strom von Einzelereignissen abstrakte Konzepte bilden können, die sich durch eine Kontrolle möglicher Übereinstimmungen als abstrakte Metakonzepte etablieren können, mit deren Hilfe das Subjekt seine Orientierung in der Flut der Phänomene verbessern kann. Als Metakonzept lassen sich auch Eigenschaften wie die ‚Unabgeschlossenheit eines Konzeptes‘ bilden, die wiederum die Ausarbeitung einer Strategie erlauben würde, mit Unabgeschlossenheit umzugehen, aber dieser Mechanismus könnte seine eigenen immanenten Beschränkungen nicht vollständig überwinden. Das ‚Objekt an sich‘ bleibt wesentlich unerreichbar. Eine Konsequenz davon ist, dass das subjektive Wissen wesenhaft unabgeschlossen ist und von daher der Strom der Phänomene einen hohen Informationswert besitzt; alles, was ‚abweicht vom Bekannten‘ kann extrem bedeutsam sein.

(30) Erkennen bleibt für ein Subjekt eine zentrale Aufgabe, da das Wissen ‚um das mögliche Ganze‘ ‚verpackt‘ ist im Strom der Phänomene. Das einzelne Subjekt kann nur in der Gemeinsamkeit aller Phänomene die mögliche umfassende ‚wahre‘ Antwort finden. Kein einzelnes menschliches Subjekt kann die Wahrheit des potentiellen Ganzen alleine vorweg nehmen. Die ‚Neugierde‘ wird von Hartmann psychologisch gedeutet als verursacht aus der anhaltenden Differenz, aus dem Wissen des Nichtwissens. Evolutionär-Philosophisch gibt es Hinweise, dass das nackte Überleben eines Organismus von einer immer besseren ‚Anpassung‘ des gesamten Organismus an das vorgegebene ‚universale Objekt‘ Welt – Sonnensystem – Universum abhängt, d.h. unser gesamter Organismus ist so ausgelegt, dass er kontinuierlich auf ein ‚Begreifen des Ganzen‘ ‚programmiert‘ ist, unabhängig vom ‚Wollen‘ eines einzelnen. Der einzelne kann sich allerdings verweigern.

 

Zur Fortsetzung der Überlegungen zu Hartmanns MdE klicke hier

LITERATURVERWEISE

Hartmann, N. “ Grundzüge einer Metaphysik der Erkenntnis“, Berlin: Walter de Gruyter & Co, 5.Aufl. 1965 (Erstausgabe 1929).