Archiv der Kategorie: Repräsentation

DONALD A.NORMAN, THINGS THAT MAKE US SMART – Teil 4

Diesem Beitrag ging voraus Teil 3.

BISHER

In den vorausgehenden Teilen wurden bislang zwei Aspekte sichtbar: einmal die ‚Menschenvergessenheit‘ in der Entwicklung und Nutzung von Technologie sowie die Einbeziehung von ‚wissensunterstützenden Dingen‘ sowohl außerhalb des Körpers (physisch) wie auch im Denken selber (kognitiv). Ferner hatte Norman die Vielfalt des Denkens auf zwei ‚Arbeitsweisen‘ reduziert: die ‚erfahrungsorientierte‘ Vorgehensweise, ohne explizite Reflexion (die aber über ‚Training‘ implizit in die Erfahrung eingegangen sein kann), und die ‚reflektierende‘ Vorgehensweise. Er unterschied ferner grob zwischen dem Sammeln (‚accretion‘) von Fakten, einer ‚Abstimmung‘ (‚tuning‘) der verschiedenen Parameter für ein reibungsloses Laufen, Schreiben, Sprechen, usw., und einer Restrukturierung (‚restructuring‘) vorhandener begrifflicher Konzepte. Ferner sieht er in der ‚Motivation‘ einen wichtigen Faktor.

WEITER

1) Im folgenden Kapitel macht er nochmals deutlich, dass der menschliche Geist ohne externe Hilfsmittel sehr beschränkt, sehr hilflos ist. (vgl. S.43) Die primären erweiternden Technologien sieht er im Lesen (was Texte voraussetzt) und Schreiben (was Schreibmöglichkeiten voraussetzt, Zeichensysteme).(vgl. S.44). In diesem Sinne wiederholt Norman die These, dass es ‚Dinge‘ sind, die uns ‚intelligent machen‘ („It is things that make us smart“ (S.44)).
2) Mit Bezug auf Susan Noakes nimmt Norman an, dass es im Mittelalter unter den ‚Intellektuellen‘ üblich war, Geschriebenes (ergänzt um Gemaltes, Kommentiertes) nicht einfach ‚runter zu lesen‘, sondern mit dem Geschriebenen in einen Dialog zu treten, zu hinterfragen, zu befragen, zu kommentieren. (vgl. S.46)

REPRÄSENTATION

3) Norman wird dann konkreter. Ausgehend von der Kommunikation mittels Zeichen (’symbols‘) führt er die Unterscheidung ein zwischen dem Zeichenmaterial (Klang, Geste, Schriftzeichen,….) und dem, worauf es sich bezieht (‚refers to‘). In einer solchen Zeichenbeziehung kann man sagen, dass das Zeichenmaterial das Bezeichnete ‚repräsentiert‘ (‚represents‘). (vgl. S.47)
4) Zusätzlich zum repräsentierenden Zeichenmaterial und dem Bezeichneten führt Norman noch ein Drittes ein, die ‚Abstraktion‘ (‚abstraction‘). Unser Denken ‚abstrahiert‘ aus dem Wahrgenommenen einen Bündel von Eigenschaften, das dann kognitiv das auslösende Objekt repräsentiert, und auf dieses Abstraktum bezieht sich dann das Zeichenmaterial, also OBJ_real —> ABSTR_cogn —> ZCHN_real.(vgl. S.47) Allerdings können auch reale Objekte genutzt werden, um bestimmte Eigenschaften von anderen realen Objektven zu repräsentieren, also OBJ_real —> ABSTR_real —> ZCHN_real. (vgl. S.48) Wichtig ist, dass die Abstraktionen verschieden sind von den Objekten, die sie repräsentieren und dass sie Vereinfachungen darstellen, Hervorhebung von interessierenden Eigenschaften, die in gewissen Sinne Manipulationen zulassen, um mögliche potentielle Kombinationen dieser Eigenschaften rein gedanklich zu untersuchen.(vgl. S.49)
5) Norman differenziert dann nochmals weiter: er unterscheidet (i) zwischen der Welt, die repräsentiert werden soll (Objekte, Konzepte), (ii) einer Welt von Symbolen (= Zeichenmaterial), und (iii) einem Interpreten (I), der die Beziehung (‚relationships‘) zwischen dem Bezeichneten (O) und dem Bezeichnendem (S) verwaltet. Man müsste also minimal schreiben I: O —> S der Interpreter I bildet Objekte auf Symbole ab und umgekehrt I: S —> O. Wobei das gleiche Objekt o in O verschiedene s_i in S meinen kann und umgekehrt.(vgl. S.49f, S.259f).
6) [Anmerkung: Norman zitiert ja generell fast gar nicht die Quellen, die er benutzt. Hier ist es aber besonders ärgerlich, da er mit dieser Begrifflichkeit den Bereich der Semiotik (Semiotics) betritt, in dem es viele Publikation zum Thema gibt. Die von ihm benutzte Terminologie I,O,S findet sich ziemlich genau bei Peirce wieder, aber auch bei vielen anderen Semiotikern, z.B. Saussure oder Morris.]
7) [Anmerkung: Letztlich bleiben diese Begriffe aber alle etwas vage und unscharf. Das zeigt sich an vielen konkreten Beispielen. Wenn er z.B. eine Skizze als Repräsentation einer realen Szene (=O) als eine Art Modell (Mod(O)) benutzt, die auch in Abwesenheit der realen Szene benutzt werden kann (dann als S), um über die reale Szene zu sprechen. Andererseits kann die Skizze selbst ein Objekt (=O) sein, auf das andere Symbole (S) Bezug nehmen. Nur der jeweilige Interpreter (=I) kann entscheiden, welche Beziehung gerade vorliegt. Ebenso können wir uns von realen Szenen (=O) (oder auch von Skizzen von realen Szenen!) rein abstrakte Konzepte bilden, die diese Objekte repräsentieren (=Abstr(O)). Diese abstrakten Konzepte sind keine Symbole (S). Sie können aber in Abwesenheit von den realen Objekten als Quasi-Objekte für Symbole benutzt werden (z.B. verschiedene reale Objekte, die wir als ‚Stühle‘ bezeichnen erlauben die Bildung eines abstrakten Konzepts von ‚Stuhl_abstr‘. Die Bedeutung des Wortes (= Symbols) ‚Stuhl‘ ist dann kodiert in der Abstraktion ‚Stuhl_abstr‘ mit Bezug auf die auslösenden realen Stuhl-Objekte. Dies alles würde folgende Verallgemeinerung nahelegen: (i) es gibt ‚auslösende Objekte (O)‘, um Abstraktionen auszulösen, die entweder als reale Strukturen realisiert werden Abstr_real(O) oder als rein gedankliche, kognitive Abstraktionen Abstr_cog(O). Bei realen Abstraktionen Abstr_real(O) spricht man oft auch von ‚Modellen‘. Symbole (S) im Sinne von Zeichenmaterial kann sowohl auf reale Objekte direkt Bezug nehmen als I: S —> O oder – was im Falle der Sprache üblicher ist – indirekt durch Bezugnahme auf Abstraktionen I: O —> Abstr_x(O) und I: Abstr_x(O) —> S. In Grenzfällen kann eine reale Abstraktion Abstr_real(O), also ein Modell Abstr-real(O) = Mod(O), auch als Symbol für ein reales Objekt dienen, also I: Abstr_real(O) = S —> O. Hier eröffnen sich sehr viele weitere Fragen, auf die später noch eingegangen werden soll.]
8) [Anmerkung: Warum Norman ein Modell Mod(O) eines realen Objektes (O) nicht nur als ‚Repräsentation‘ des realen Objektes bezeichnet, sondern zugleich auch als ‚Metarepräsentation‘ (‚representation of a representation‘) erschließt sich mir nicht.(vgl. 51) ]
9) Andererseits gibt es natürlich die Möglichkeit, mit Hilfe von realen Abstraktionen (Skizzen, Diagrammen, Formeln,…) Zusammenhänge sichtbar zu machen und zu ’speichern‘, die ohne solche realen Abstraktionen nur schwer oder gar nicht ‚gedacht‘ werden könnten, und diese Abstraktionen können durch Bezugnahmen untereinander immer ‚höhere Ordnungen‘ (‚higher order‘) von Abstraktionen bilden.(vgl. S.51)
10) [Anmerkung: Diese Fähigkeit der Bildung von ‚Abstraktionen höherer Ordnung‘ setzt voraus, dass jede Abstraktion Abstr_x() zu einem ’neuen Objekt‘ wird, also zu einem ‚Objekt höherer Ordnung‘. Also O —> Abstr_x(O) = O1 —> Abstr_x(O1) = O2 … . In der Tat zeigt die Erfahrung, dass solche Abstraktionsketten ohne Hilfsmittel, ohne Artefakte, vom normalen Gehirn nicht bewältigt werden können.]
11) Auf den SS.53-75 beschreibt Norman dann anhand einer Reihe von Beispielen (game of 15, ticktacktoe, airline schedules, medical prescriptions, numbers, diagrams) weitere Aspekte von realen Abstraktionen, die gedacht sind, wichtige Eigenschaften von Objekten (O) als Abstr_real(O) zu repräsentieren. Reale Abstraktionen Abstr_real(O), die die Eigenschaften unserer sensorischen Wahrnehmung gut ausnutzen, können leichter verarbeitet werden, als wenn sie diesen entgegen stehen. Dies gilt aber nur dann, wenn die reale Abstraktion mit ihren konkreten Eigenschaften mit den wichtigen Eigenschaften des abzubildenden Objektes (O) gut übereinstimmen.

Fortsetzung folgt mit Teil 5.

LITERATURVERWEISE

Susan Noakes, Timely Reading: Between Exegesis and Interpretation. Ithaca, N.Y., and London: Cornell University Press, 1988. Pp. xv,

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

Der Ursprung und die Evolution des Lebens auf der Erde. Leben als ein kosmischer Imperativ. Reflexionen zum Buch von Christian de Duve. Teil 3

Christian de Duve, VITAL DUST. Life as a Cosmic Imperative, New York: Basic Books, 1995

Beginn: 25.Okt.2012, 23:30h
Letzte Änderung: 10.Nov. 2012, 10:30h

Für Teil2 siehe HIER

  1. [ANMERKUNG: Obwohl Duve den Begriff der Information im Text immer wieder verwendet, wird der Begriff bislang nicht definiert. Selbst an der Stelle, an der er vom Ende der chemischen Evolution spricht, die dann mit Hilfe von DNA/ RNA in die informationsgeleitete Entwicklung übergeht, findet man keine weitere Erklärung. Der einzige greifbare Anhaltspunkt ist der Bezug zur DNA/ RNA, wobei offen bleibt, warum die DNA der RNA vorgeschaltet wurde.]
  2. Duve beschreibt den Kernsachverhalt so, dass wir ein Abhängigkeitsverhältnis haben von der DNA (die zur Replikation fähig ist) über eine Transkription zur RNA (die in speziellen Fällen, Viren, auch zur Replikation fähig ist) mittels Translation (Übersetzung) zu den Proteinen (vgl. S.55f) ; von den Proteinen gäbe es keinen Weg zurück zur RNA (vgl. S.56f). Die RNA hat dabei auch eine enzymatisch-katalytische Rolle.
  3. [ANMERKUNG: Für einen Interpretationsversuch zur möglichen Bedeutung des Begriffs ‚Information‘ in diesem Kontext bietet sich vor allem der Sachverhalt an, dass die ‚Konstruktion‘ eines DNA-Moleküls bzgl. der Anordnung der einzelnen Aminosäurebausteinen nicht deterministisch festgelegt ist. Ist erst einmal ein DNA-Molekül ‚zustande gekommen‘, dann kann es innerhalb des Replikationsmechanismus (kopieren, mischen und mutieren) so verändert werden, dass es nach der Replikation ‚anders‘ aussieht. Diese nicht-deterministischen Veränderungsprozesse sind völlig unabhängig von ihrer möglichen ‚Bedeutung‘! Es ist etwa so, wie ein kleines Kind, das mit einem Haufen von Buchstaben spielen würde, allerdings mit der kleinen Vorgabe, dass es eine fertige ‚Kette‘ von Buchstaben bekommen würde, die es zerschneiden darf, neu zusammenfügen, und gelegentlich einzelne Stellen austauschen darf.
  4. Die Übersetzung dieser DNA-Ketten in Proteine erfolgt dann über den RNA-gesteuerten Mechanismus. Diese Übersetzung folgt ‚in sich‘ festen Regeln, ist von daher im Prinzip deterministisch. Dies bedeutet, dass ohne die DNA-Ketten zwar deterministische Prozesse möglich sind, allerdings ohne die ‚freie Kombinierbarkeit‘ wie im Falle der DNA-Ketten (was aber, siehe Viren, im Prinzp auch gehen könnte). Die standardmäßige Trennung von Replikation und Translation deutet indirekt daraufhin, dass mit dieser Trennung irgendwelche ‚Vorteile‘ einher zugehen scheinen.
  5. Der Clou scheint also darin zu liegen, dass durch die Entkopplung von chemisch fixierten (deterministischen) Übersetzungsmechanismen von den freien erinnerungs- und zufallsgesteuerten Generierungen von DNA-Ketten überhaupt erst die Voraussetzung geschaffen wurde, dass sich das ‚Zeichenmaterial‘ von dem ‚Bedeutungsmaterial‘ trennen konnte. Damit wiederum wurde überhaupt erst die Voraussetzung für die Entstehung von ‚Zeichen‘ im semiotischen Sinne geschaffen (zu ‚Zeichen‘ und ’semiotisch‘ siehe Noeth (2000)). Denn nur dann, wenn die Zuordnung zwischen dem ‚Zeichenmaterial‘ und dem möglichen ‚Bedeutungsmaterial‘ nicht fixiert ist, kann man von einem Zeichen im semiotischen Sinne sprechen. Wir haben es also hier mit der Geburt des Zeichens zu tun (und damit, wenn man dies unbedingt will, von den ersten unübersehbaren Anzeichen von Geist!!!).
  6. Die Rede von der Information ist in diesem Kontext daher mindestens missverständlich, wenn nicht gar schlichtweg falsch. Bislang gibt es überhaupt keine allgemeine Definition von Information. Der Shannonsche Informationsbegriff (siehe Shannon und Weaver (1948)) bezieht sich ausschließlich auf Verteilungseigenschaften von Elementen einer endlichen Menge von Elementen, die als Zeichenmaterial (Alphabet) in einem technischen Übermittlungsprozeß benutzt werden, völlig unabhängig von ihrer möglichen Bedeutung. Mit Zeichen im semiotischen Sinne haben diese Alphabetelemente nichts zu tun. Daher kann Shannon in seiner Theorie sagen, dass ein Element umso ‚wichtiger‘ ist, je seltener es ist.  Hier von ‚Information‘ zu sprechen ist technisch möglich, wenn man weiß, was man definiert; diese Art von Information hat aber mit der ‚Bedeutung‘ von Zeichen bzw. der ‚Bedeutung‘ im Kontext von DNA-Ketten nichts zu tun. Die Shannonsche Information gab und gibt es auch unabhängig von der Konstellation DNA – RNA – Proteine.
  7. Auch der Informationsbegriff von Chaitin (1987, 2001) bezieht sich ausschließlich auf Verteilungseigenschaften von Zeichenketten. Je weniger ‚Zufall‘ bei der Bildung solcher Ketten eine Rolle spielt, also je mehr ‚regelhafte Wiederholungen (Muster, Pattern)‘ auftreten, um so eher kann man diese Ketten komprimieren. Benutzt man dann dazu das Shannonsche Konzept, dass der ‚Informationsgehalt‘ (wohlgemerkt ‚Gehalt‘ hier nicht im Sinne von ‚Bedeutung‘ sondern im Sinne von ‚Seltenheit‘!) umso größer sei, je ’seltener‘ ein Element auftritt, dann nimmt der Informationsgehalt von Zeichenketten mit der Zunahme von Wiederholungen ab. Insofern Zeichenketten bei Chaitin Algorithmen repräsentieren können, also mögliche Anweisungen für eine rechnende Maschine, dann hätten nach dieser Terminologie jene Algorithmen den höchsten ‚Informationsgehalt (im Sinne von Shannon)‘, die die wenigsten ‚Wiederholungen‘ aufwiesen; das wären genau jene, die durch eine ‚zufällige Bildung‘ zustande kommen.
  8. Lassen wir den weiteren Aspekt mit der Verarbeitung durch eine rechnende Maschine hier momentan mal außer Betracht (sollte wir später aber noch weiter diskutieren), dann hätten DNA-Ketten aufgrund ihrer zufälligen Bildung von ihrer Entstehung her einen maximale Informationsgehalt (was die Verteilung betrifft).
  9. Die Aussage, dass mit der DNA-RNA die ‚Information‘ in das Geschehen eingreift, ist also eher nichtssagend bzw. falsch. Dennoch machen die speziellen Informationsbegriffe von Shannon und Chaitin etwas deutlich, was die Ungeheuerlichkeit an der ‚Geburt des Zeichens‘ verstärkt: die zufallsgesteuerte Konstruktion von DNA-Ketten verleiht ihnen nicht nur eine minimale Redundanz (Shannon, Chaitin) sondern lässt die Frage aufkommen, wie es möglich ist, dass ‚zufällige‘ DNA-Ketten über ihre RNA-Interpretation, die in sich ‚fixiert‘ ist, Protein-Strukturen beschreiben können, die in der vorausgesetzten Welt lebensfähig sind? Zwar gibt es im Kontext der biologischen (= zeichengesteuerten) Evolution noch das Moment der ‚Selektion‘ durch die Umwelt, aber interessant ist ja, wie es durch einen rein ‚zufallsgesteuerten‘ DNA-Bildungsprozess zu Ketten kommen kann, die sich dann ‚positiv‘ selektieren lassen. Dieses Paradox wird umso stärker, je komplexer die Proteinstrukturen sind, die auf diese Weise erzeugt werden. Die ‚Geordnetheit‘ schon einer einzigen Zelle ist so immens groß, dass eine Beschreibung dieser Geordnetheit durch einen ‚zufälligen‘ Prozess absurd erscheint. Offensichtlich gibt es hier noch einen weiteren Faktor, der bislang nicht klar identifiziert wurde (und der muss im Generierungsprozess von DNA-Ketten stecken).]
  10. [ANMERKUNG: Eine erste Antwort steckt vielleicht in den spekulativen Überlegungen von Duve, wenn er die Arbeiten von Spiegelmann (1967), Orgel (1979) und Eigen (1981) diskutiert (vgl. S.57-62). Diese Arbeiten deuten daraufhin, dass RNA-Molküle Replizieren können und Ansätze zu evolutionären Prozessen aufweisen. Andererseits sind RNA-Moleküle durch Übersetzungsprozesse an Proteinstrukturen gekoppelt. Wenn also beispielsweise die RNA-Moleküle vor den DNA-Ketten auftraten, dann gab es schon RNA-Ketten, die sich in ihrer jeweiligen Umgebung ‚bewährt‘ hatten. Wenn nun — auf eine Weise, die Duve nicht beschreibt — zusätzlich zu den RNA-Ketten DNA-Ketten entstanden sind, die primär nur zur Replikation da waren und die RNA-Ketten dann ’nur‘ noch für die Übersetzung in Proteinstrukturen ‚zuständig‘ waren, dann haben die DNA-Ketten nicht bei ‚Null‘ begonnen sondern repräsentierten potentielle Proteinstrukturen, die sich schon ‚bewährt‘ hatten. Der Replikationsmechanismus stellte damit eine lokale Strategie dar, wie die im realen Raum vorhandenen DNA/ RNA-Ketten den ‚unbekannten Raum‘ möglicher weiterer Proteinstrukturen dadurch ‚absuchen‘ konnten, dass neue ‚Suchanfragen‘ in Form neuer DNA-Moleküle gebildet wurden. Der ‚Akteur‘ war in diesem Fall die komplette Umgebung (Teil der Erde), die mit ihren physikalisch-chemischen Eigenschaften diese Replikationsprozesse ‚induzierte‘. Die einzige Voraussetzung für einen möglichen Erfolg dieser Strategie bestand darin, dass die ‚Sprache der DNA‘ ‚ausdrucksstark‘ genug war, alle für das ‚hochorganisierte Leben‘ notwendigen ‚Ausdrücke‘ ‚bilden‘ zu können. Betrachtet man den RNA-Proteinkonstruktionsprozess als die ‚Maschine‘ und die DNA-Ketten als die ‚Anweisungen‘, dann muss es zwischen der RNA-Proteinmaschine‘ und den DNA-Anweisungen eine hinreichende Entsprechung geben.]
  11. [ANMERKUNG: Die Überlegungen von Duve haben einen weiteren kritischen Punkt erreicht. Um die Optimierung des Zusammenspiels zwischen RNA und Proteinen und ihren Vorformen erklären zu können, benötigt er einen Rückkopplungsmechanismus, der ein schon vorhandenes ‚Zusammenspiel‘ von allen beteiligten Komponenten in einer gemeinsamen übergeordneten Einheit voraussetzt. Diese hypothetische übergeordnete gemeinsame Einheit nennt er ‚Protozelle‘ (‚protocell‘). (vgl.S.65f)]
  12. Die Protein-Erzeugungsmaschinerie (‚proteine-synthesizing machinery‘) besteht aus mehreren Komponenten. (i) Das Ribosom heftet eine Aminosäure an eine wachsende Peptid-Kette, quasi ‚blindlings‘ entsprechend den determinierenden chemischen Eigenschaften. (vgl. S.66) Das Bindeglied zwischen den ‚informierenden‘ Aminosäuren und den zu bildenden Petidketten (Proteinen) bildet die ‚Boten-RNA‘ (‚messenger RNA, mRNA‘), in der jeweils 3 Aminosäuren (Aminosäuren-Triplets) als ‚Kodon‘, also 4^3=64, eine von 64 möglichen Zieleinheiten kodieren. Dem Kodon entspricht in einer ‚Transport-RNA‘ (‚transfer-RNA, tRNA‘) dann ein ‚Antikodon‘ (ein chemisch komplementäres Aminosäure-Triplet), an das genau eine von den 22 (21) biogenen Aminosäuren ‚angehängt‘ ist. Durch diesen deterministischen Zuordnungsprozess von mRNA-Kodon zu tRNA-Antikodon und dann Aminosäure kann eine Peptidkette (Protein) Schritt für Schritt entstehen. Diejenigen Zieleinheiten aus den 64 Möglichen, die nicht in eine Aminosäure übersetzt werden, bilden ‚Befehle‘ für die ‚Arbeitsweise‘ wie z.B. ‚Start‘, ‚Stopp‘. Dieser ‚Kode‘ soll nach Duve ‚universal‘ für alle Lebewesen gelten. (vgl. S.66f)
  13. [ANMERKUNG: Für eine vergleichende Lektüre zu diesem zentralen Vorgang der Proteinbildung sei empfohlen, die immer sehr aktuellen Versionen der entsprechenden englischsprachigen Wikipediabeiträge zu lesen (siehe unten Wkipedia (en).]
  14. Duve weist ausdrücklich darauf hin, dass die eigentliche ‚Übersetzung‘, die eigentliche ‚Kodierung‘ außerhalb, vorab zu dem mRNA-tRNA Mechanismus liegt. Der ribosomale Konstruktionsprozess übernimmt ja einfach die Zuordnung von Antikodon und Aminosäure, wie sie die Transfer-RNA liefert. Wann, wie und wo kam es aber zur Kodierung von Antikodon und Aminosäure in dem Format, das dann schließlich zum ‚Standard‘ wurde? (vgl. S.69)
  15. Letztlich scheint Duve an diesem Punkt auf der Stelle zu treten. Er wiederholt hier nur die Tatsachen, dass RNA-Moleküle mindestens in der dreifachen Funktionalität (Botschaft, Transfer und Konformal) auftreten können und dass sich diese drei Funktionen beim Zusammenbauen von Peptidketten ergänzen. Er projiziert diese Möglichkeit in die Vergangenheit als möglichen Erklärungsansatz, wobei diese reine Möglichkeit der Peptidwerdung keinen direkten ‚evolutionären Fitnesswert‘ erkennen lässt, der einen bestimmte Entwicklungsprozess steuern könnte.(vgl. S.69f) Er präzisiert weiter, dass der ‚Optimierung‘ darin bestanden haben muss, dass — in einer ersten Phase — ein bestimmtes Transfer-RNA Molekül hochspezifisch nur eine bestimmte Aminosäure kodiert. In einer nachfolgenden Phase konzentrierte sich die Optimierung dann auf die Auswahl der richtigen Boten-RNA. (vgl.S.70f)
  16. [ANMERKUNG: Das alles ist hochspekulativ. Andererseits, die ‚Dunkelheit‘ des Entstehungsprozesses ist nicht ‚völlige Schwärze‘, sondern eher ein ’nebliges Grau‘, da man sich zumindest grundsätzlich Mechanismen vorstellen kann, wie es gewesen sein könnte.]
  17. Duve reflektiert auch über mögliche chemische Präferenzen und Beschränkungen innerhalb der Bildung der Zuordnung (= Kodierung) von Kodons und Antikodons mit der Einschätzung, dass die fassbaren chemischen Eigenschaften darauf hindeuten, dass eine solche Zuordnung nicht ohne jede Beschränkung, sprich ’nicht rein zufällig‘ stattgefunden hat.(vgl. S.72f)
  18. [ANMERKUNG: Der spekulative Charakter bleibt, nicht zuletzt auch deswegen, weil Duve schon für den ‚evolutionären‘ Charakter der Kodon-Antikodon Entwicklung das fiktive Konzept einer ‚Protozelle‘ voraussetzen muss, deren Verfügbarkeit vollständig im Dunkel liegt. Etwas kaum Verstandenes (= die Kodon-Antikodon Zuordnung) wird durch etwas an dieser Stelle vollständig Unverstandenes (= das Konzept der Protozelle) ‚erklärt‘. Natürlich ist dies keine echte Kritik an Duve; schließlich versucht er ja — und darin mutig — im Nebel der verfügbaren Hypothesen einen Weg zu finden, der vielleicht weiter führen könnte. In solchen unbefriedigenden Situationen wäre eine ‚vornehme Zurückhaltung‘ fehl am Platze; Suchen ist allemal gefährlich… ]
  19. Duve geht jedenfalls von der Annahme aus, dass ein evolutionärer Prozess nur in dem Umfang effektiv einsetzen konnte, als die Veränderung der Kodon-Antikodon Zuordnung samt den daraus resultierenden chemischen Prozessen (Katalysen, Metabolismus…) insgesamt ein Trägersystem — in diesem Fall die vorausgesetzte Protozelle — ‚positiv‘ unterstützte und ‚überlebensfähiger‘ machte. (vgl. S.73f)
  20. Ungeachtet der Schwierigkeit, die Details des Entstehungsprozesses zum jetzigen Zeitpunkt zu enthüllen, versucht Duve weitere Argumente zu versammeln, die aufgrund allgemeiner Eigenschaften des Entstehungsprozesses den evolutionären Charakter dieses Prozesses weiter untermauern.
  21. Generell gehört es zu einem evolutionären Prozess, dass die Entwicklung zum Zeitpunkt t nur auf das zurückgreifen kann, was an Möglichkeiten zum Zeitpunkt t-1 zur Verfügung gestellt wird, also change: STATE —> STATE. Dies schränkt den Raum der Möglichkeiten grundsätzlich stark ein. (vgl. S.75, 77)
  22. Da es bei der Übersetzung von mRNA in Peptide zu Fehlern kommen kann (Duve zitiert Eigen mit der quantitativen Angabe, dass auf 70 – 100 übersetzten Aminosäuren 1 Baustein falsch ist ), bedeutet dies dass die ersten Kodon-Antikodon Zuordnungen in Gestalt von mRNA Molekülen aufgrund dieser Fehlerrate nur 60 – 90 Einheiten lang sein konnten, also nur 20 – 30 Aminosäuren kodieren konnten. (vgl. S.76)
  23. Rein kombinatorisch umfasst der Möglichkeitsraum bei 20 Aminosäuren 20^n viele Varianten, also schon bei einer Länge von nur 100 Aminosäuren 10^130 verschiedene Moleküle. Rein praktisch erscheint nach Duve ein solcher Möglichkeitsraum zu groß. Nimmt man hingegen an — was nach Duve der tatsächlichen historischen Situation eher entsprechen soll –, dass es zu Beginn nur 8 verschiedene Aminosäuren gab die zu Ketten mit n=20 verknüpft wurden, dann hätte man nur 8^20 = 10^18 Möglichkeiten zu untersuchen. In einem kleinen Tümpel (‚pond‘) erscheint das ‚Ausprobieren‘ von 10^18 Variationen nach Duve nicht unrealistisch.(vgl. S.76)
  24. Schließlich führt Duve noch das Prinzip der ‚Modularität‘ ein: RNA-Moleküle werde nicht einfach nur ‚Elementweise‘ verlängert, sondern ganze ‚Blöcke‘ von erprobten Sequenzen werden kombiniert. Dies reduziert einserseits den kombinatorischen Raum drastisch, andererseits erhöht dies die Stabilität. (vgl. S.77)

Fortsetzung folgt…

LITERATURVERWEISE

Chaitin, G.J; Algorithmic information theory. Cambridge: UK, Cambridge University Press, (first:1987), rev.ed. 1988, 1990, 1992, ,paperback 2004

Chaitin, G.J; Exploring Randomness. London: UK, Springer Ltd., (2001, corr. 2001), 3rd printing 2002

Noeth, W., Handbuch der Semiotik, 2. vollst. neu bearb. und erw. Aufl. mit 89 Abb. Stuttgart/Weimar: J.B. Metzler, xii + 668pp, 2000

Claude E. Shannon A mathematical theory of communication. Bell System Tech. J., 27:379-423, 623-656, July, Oct. 1948 (online: http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html; zuletzt besucht: May-15, 2008)

Claude E. Shannon; Warren Weaver The mathematical theory of communication. Urbana – Chicgo: University of Illinois Press, 1948.

Wikipedia (en): Genetischer Kode: http://en.wikipedia.org/wiki/Genetic_code, Ribosom: http://en.wikipedia.org/wiki/Ribosome, Protein Biosynthesis: http://en.wikipedia.org/wiki/Protein_biosynthesis, Aminosäuren: http://en.wikipedia.org/wiki/Amino_acid, Proteinoide Aminosäuren:http://en.wikipedia.org/wiki/Proteinogenic_amino_acid (Alle Links zuletzt besucht: Mo, 29.Okt.2012)

Für einen Überblick über alle bisherigen Einträge nach Titeln siehe HIER.

RÜCKKEHR DER METAPHYSIK? Natur als Offenbarung? Universale Ethik?

Einbettung von Metaphysik in moderne Wissenschaft

 

 

 

 

(1) Im Zwiegespräch mit dem Text ‚Metaphysik der Erkenntnis‘ (erstmalig 1921) von Nicolai Hartmann trifft man auf zahlreiche Aporien (siehe die anderen Blogeintragungen). Hartmann nimmt seinen Ausgangspunkt bei der — für ihn grundlegenden – Beziehung zwischen einem ‚erkennenden Subjekt‘ und einem ‚erkannten Objekt‘. Dies in einer primär ‚phänomenologischen‘ Einstellung, die ihren Ausgangspunkt bei dem ‚Gegebenem‘ nimmt im Versuch, ’sichtbar zu machen‘, was sich vorfindet.

 

(2) Tatsächlich ist das, was wir im Bewusstseinserlebnis als aufscheinendes ‚Phänomen‘ vorfinden, das erste und einzige, was wir vorfinden. Nach Hartmann ist dieses aufscheinend Gegebene aber eingebettet in eine begleitend vorhandene ‚Reflexion‘, mittels der sich Eigenschaften fokussieren, abstrahieren und in Beziehung setzen lassen; nicht zuletzt lassen sich ‚Begriffe‘ bilden. Die Reflexion als solche ist nicht mehr ’neutral‘; sie kann das vorfindlich Gegebene verändern, modifizieren und damit in gewisser Weise interpretieren.

 

(3) Die ‚Abfallprodukte‘ der Reflexion bilden nicht automatisch eine ‚Theorie‘ verstanden als ein systematisches Begriffsnetzwerk, in dem alle Begriffe vollständig aufeinander bezogen sind entweder als ‚Grundterme‘ oder als ‚axiomatische Terme‘, eingebunden in Relationen und Axiome, repräsentiert in einer eigenen ‚Theoriesprache‘. Eine Theorie auf der Basis der primären Reflexion bildet eine ‚Metaebene‘ und stellt eine Konstruktion dar, die aus einer Vielzahl von Möglichkeiten eine Variante herausgreift. Zugleich ist jede Theorie eine bestimmte Interpretation. Eine interessante Frage ist, ob und wie sowohl die Begriffe der primären Reflexion wie auch die Strukturen einer Theorie in einem bestimmbaren Sinn ‚wahr‘ oder ‚falsch‘ sein können.

 

(4) Hartmann diskutiert die Frage der ‚Wahrheit‘ im Umfeld seiner Subjekt-Objekt-Relation mit einem sehr unspezifischen Begriff von ‚Erkenntnis‘. Er geht von der Annahme aus – die er nicht weiter begründet –, dass Wahrheit mit Übereinstimmung zu tun haben muss, nämlich der Übereinstimmung (oder Nicht-Übereinstimmung) von dem erkennbaren Objekt für das Subjekt mit einem Objekt an sich, das dem erkennenden Subjekt per definitionem nicht zugänglich ist; daher spricht er hier auch von einem ‚transzendentem Objekt‘ bzw. vom ‚Transobjektivem‘, das das erkennende Subjekt ‚objiziert‘ mithilfe von ‚Bestimmtheiten‘, die ein ‚Bild‘ des ursprünglichen Objektes darstellen, nicht das transzendente Objekt selbst. Die vom Transobjektivem objizierten Bestimmtheiten, die vom verursachenden Objekt verschieden sind, will er auch eine ‚Repräsentation‘ des Transobjektiven nennen.

 

 

(5) Das ‚Transobjektive‘, das vom erkennenden Subjekt nicht erreicht werden kann, ist damit auch nicht intelligibel, ist im vollen Sinne ‚irrational‘. Dennoch assoziiert Hartmann genau mit diesem Transobjektiven das eigentliche ‚Sein‘, ‚volle Wirklichkeit‘, ‚Realität‘. Hier verortete er die ontologische Dimension, den Fluchtpunkt jeder Metaphysik. In einer Metaphysik ist Erkenntnis nur ein Durchgang, ein Medium zur Erfassung und Beschreibung von ‚Wahrheit‘ als letztlich im ‚Sein‘ gründend.

 

 

(7) Der von ihm zuerst favorisierte Wahrheitsbegriff als Übereinstimmungsoperation wahr: OBJ x OBJ* —> {wahr, falsch} mit ‚OBJ‘ für das Transobjektive (verursachende) Sein und ‚OBJ*‘ als der Repräsentation des Transobjektiven für das erkennende Subjekt setzt die Verfügbarkeit des Transobjektiven in dieser Übereinstimmung voraus, ohne aber in der Lage zu sein, zu erklären, wie das erkennende Subjekt dies nutzen soll, da das Transobjektive ja per definitionem vom Erkennen eines Transobjektiven ausgeschlossen wurde. Die sich hier auftuende logische Antinomie verwirbelt Hartmann in bis zu vier unterschiedliche Aporien, die allesamt letztlich nur diese eine zentrale Antinomie umschreiben.

 

(8) Aktuell weiss ich noch nicht, wie es ab S.88 in seinem Buch weiter gehen wird. Bezogen auf seine bisherigen Ausführungen kann man nur sagen, dass er sich mit seinem bisherigen Begriffsapparat in einer Sackgasse befindet. Auch wenn er noch weitere Aporien durch Einführung neuer begrifflicher Gebilde generieren mag, sein Grundproblem wird er nicht lösen, solange er seine bisherigen Voraussetzungen nicht einer kritischen Re-Analyse unterzieht.

 

(9) Ob mein Lösungsansatz tatsächlich ein Lösungsansatz ist, muss sich in den weiteren Diskussionen und Experimenten noch zeigen, aber auf jeden Fall sehe ich einen gedanklichen Weg, der ohne die antinomischen Konstruktionen Hartmanns auskommt, der mit den großen Themen der Philosophie kompatibel ist, und der nicht zuletzt auch mit den tiefgreifenden Erkenntnissen der modernen Naturwissenschaften harmoniert (soweit wir heute meinen zu verstehen, was wir verstehen).

 

(10) Wie schon im Bremerhaven-Vortrag skizziert nehme ich auch den Ausgangspunkt im Raum der Phänomene (es gibt keine Alternative), allerdings mit der Differenzierung, dass sich im Gesamtbereich der Phänomene Ph eine spezielle Teilmenge der empirischen Phänomene Ph_emp identifizieren lässt. Dies sind solche Phänomene, die durch Verwendung von definierten Messprozeduren meas() generiert werden, etwa meas: Ph —> Ph_emp. Empirische Phänomene sind zwar auch Phänomene, aber eben solche, die auf eine spezielle Weise hervorgebracht werden, die unabhängig vom Körper eines Menschen ist. Nur das Produkt eines Messvorganges muss wahrnehmbar sein, der Messvorgang selber ist unabhängig von einem menschlichen Körper (und Gehirn, und Bewusstsein).

 

(11) Auf den ersten Blick wirkt dieser Hinweis auf die Teilmenge der empirischen Phänomene möglicherweise unscheinbar. Aber bei längerer Betrachtung zeigt sich, dass hier die Lösung für nahezu alle Aporien liegen kann, mit denen sich Hartmann herumschlägt.

 

(12) Natürlich gilt im Falle der empirischen Phänomene Ph_emp auch – wie im Falle aller Phänomene –, dass die empirischen Phänomene nicht ‚isoliert‘ dastehen, sondern auch eingebettet sind in die allgemeine ‚Reflexion‘, die alles Erleben begleitet und durchdringt; und es gilt auch, dass sich im Medium dieser Reflexion Unterscheidungen treffen lassen, Zusammenfassungen bilden lassen, Begriffe einführen lassen, Beziehungen aufzeigen lassen, usw. bis hin dazu, dass sich explizite Theorien formulieren lassen. Diese Reflexion, Begriffsbildungen, Theoriebildung unterscheidet sich im Allgemeinen in Nichts von der alltäglichen oder philosophischen Reflexion, wohl aber im Speziellen. Auf der Basis von empirischen Daten lassen sich nämlich eindeutiger und klarer als durch die rein körperbasierten Phänomene Ph\Ph_emp Begriffe mit einer ‚operationalisierten‘ Bedeutung einführen, darauf aufbauend Abstraktionen, Relationen und Gesetzmäßigkeiten unter kontrollierten Bedingungen und in mathematischer Form. Natürlich ist auch diese Form von Erkenntnisbildung nicht frei von Problemen (dazu gibt es weit mehr als 1000 wissenschaftliche Publikationen!), doch trotz all dieser Probleme hat die Praxis gezeigt, dass diese Erkenntnisstrategie trotz aller Spezialisierung Erkenntnisse (und Technologien) hervorgebracht hat, die noch vor 100 – 150 Jahren unvorstellbar waren.

 

(13) Mittels der Reflexion (und darauf aufbauenden Theorien oder theorieähnlichen begrifflichen Strukturen) lassen sich im Strom der Phänomene Objekte, Beziehungen, und Aktionen identifizieren, die das Bild eines ‚Außenraums‘ um den Körper herum entstehen lassen, der eine eigene Dynamik hat, die man heute ansatzweise in seiner evolutionären Dimension fassen kann. Ferner kann man im Bereich der identifizierbaren Objekte solche unterscheiden, die man durch spezifische Eigenschaften als ‚biologisch‘ qualifizieren kann, als ‚Körper‘ mit einer Innenstruktur, zu der u.a. ein Nervensystem (Gehirn) gehört. Durch Korrelation der empirischen Daten mit den Erlebnisdaten läßt sich die starke Hypothese formulieren, dass die uns primär zugänglichen Phänomene Ph im Raum des Bewusstseins Eigenschaften eines Nervensystems sind, das sich empirisch nur ‚von außen‘ messen und beschreiben läßt. D.h. man kann nicht die bewussten Erlebnisse selbst ‚messen‘, sondern nur physikalisch-chemische Eigenschaften des Nervensystems DAT_nn, die zeitlich mit bestimmten Erlebnissen Ph korrelieren.

 

(14) Abseits vieler ungelöster Detailfragen lässt sich eine generelle Schlussfolgerung auf jeden Fall ziehen: die Phänomene unseres Bewusstseins sind als solche keine Objekte der umgebenden Außenwelt! Vielmehr scheint es so zu sein, dass die ‚Zustände der Außenwelt‘ auf einen ‚Körper‘ einwirken können, der diese physikalisch-chemischen Einwirkungen mittels einer Vielzahl sogenannter ‚Sensoren‘ in ’neuronale Signale‘ ‚übersetzt‘, also etwa sens: ENV x IS —> IS x NN, d.h. die Menge aller Sensoren realisieren eine Abbildung von Umweltereignissen ENV – eventuell modifiziert durch aktuelle interne Zustände IS des Körpers – in eine Menge von neuronalen Signalen NN, eventuell begleitet von zusätzlichen internen Zuständen IS des Körpers.

 

(15) Wie wir heute schon wissen werden diese sensorisch induzierten neuronalen Signale NN_sens über ein komplexes Schaltwerk von Neuronen auf verschiedenen ‚Ebenen‘ und durch verschiedene ‚Querschaltungen‘ und ‚Rückkopplungen‘ zu abstrakteren Konzepten und Beziehungen ‚weiterverarbeitet‘. D.h. das, was uns irgendwann ‚bewusst‘ wird als Phänomen Ph ist in der Regel sowohl ein ’spätes Verarbeitungsprodukt‘ und zugleich eine ‚Auswahl‘ aller stattfindender neuronaler Zustände, also etwa nn: NN_sens x NN —> NN x Ph. Hierbei gilt die weitreichende Annahme, dass die Menge der Phänomene Ph aus Sicht des Gehirns letztlich eine Teilmenge, und zwar eine echte Teilmenge, der Menge aller neuronalen Zustände ist. Sei NN_ph jene Menge von Neuronalen Signalen, die mit den erlebten Phänomenen Ph korrelieren, und NN_nph die Menge der neuronalen Signale, die nicht mit Ph korrelieren, dann gilt, dass die Menge der neuronalen Signale NN = NN_ph u NN_nph, mit der Annahme, dass die Menge der neuronalen Signale NN_ph, die mit den erlebten Phänomenen Ph korrelieren, eine echte Teilmenge aller neuronalen Signale sind NN_ph  rsubset NN. Denn gerade in diesem Umstand der echten Teilmenge wurzelt der evolutionäre Gewinn des ‚Bwusstseins‘: durch die Möglichkeit einer ‚Abstraktion‘ von der beliebig großen Komplexität des begleitenden Körpers und eines kontinuierlich wachsenden Gehirns kann man aktuelles Entscheiden und Kommunizieren in einem überschaubaren Bereich halten.

 

(16) Zu sagen, dass die bewussten Phänomene Ph aus ‚Sicht des Gehirns‘ auch nur neuronale Zustände sind ist kein (logischer) Widerspruch zur Annahme, dass die Phänomene unseres Bewusstseins aus Sicht unseres Erlebens etwas Besonderes sind, das sich nicht auf neuronale Signale reduzieren lässt. Dies hat mit dem begrifflichen Rahmen zu tun, in dem man sich bewegt. Im phänomenologischen Kontext bewege ich mich im Raum meines Erlebens. Meine ‚Daten‘ DAT_ph sind die erlebbaren Phänomene meines Bewusstseins. Aufbauend auf diesen primären Daten kann ich Begriffsnetze entwickeln, ja sogar Theorien reflexion: DAT_ph —> Th_ph. Beschränke ich mich auf die Teilmenge der empirischen Phänomene Ph_emp habe ich zwar immer noch Phänomene, im Fall der empirischen Untersuchungen zum Körper und Gehirn benutze ich aber zusätzlich zum ’normalen‘ Erkennen empirische Messverfahren meas(), mit denen ich Eigenschaften des Körpers bzw. des Nervensystems untersuche, also meas: BODY x BRAIN —> DAT_bd x DAT_nn. Insofern ich diese Messwerte als Messwerte wahrnehmen kann, sind diese natürlich auch Phänomene Ph_emp_bd und Ph_emp_nn, aber das Besondere dieser Phänomene liegt nicht in dem, was ich als Messergebnis wahrnehme, sondern in der Art, wie ich dieses Phänomen erzeugt habe, eben durch einen zusätzlichen Messvorgang. Wenn ich also bei dem Drücken einer bestimmten Taste auf einem Klavier einen bestimmten Ton höre DAT_ph_ton_i, und die Neuropsychologen zeitlich gleichzeitig durch eine geeignete Messvorrichtung in bestimmten Bereichen meines Gehirns bestimmte Erregungsmuster DAT_nn_ton_i messen können, dann kann man in der Regel nicht direkt von DAT_nn_ton_i auf DAT_ph_ton_i schliessen oder umgekehrt, aber eine Versuchsperson Vpn, die einen Ton hört (DAT_ph_ton_i)Person_abc, und die zugleich das Messergebnis (DAT_nn_ton_i)Person_abc wahrnehmen kann, kann kontrollieren, ob es zwischen den empirischen Messwerten und ihren subjektiven Wahrnehmungen eine signifikante Korrelation gibt (wobei wir unterstellen, dass die ausgewählte Gehirnregion ‚relevant‘ ist). Insofern also solch eine Versuchsperson in dieser speziellen Konstellation eine signifikante Korrelation feststellen könnte, könnte man begründet vermuten, dass das erlebte Phänomen und die gemessenen neuronalen Zustände ‚identisch‘ sind in dem Sinne, dass Erlebnisse als indirekt messbare neuronale Zustände ‚auftreten‘. Davon zu unterscheiden ist die Frage, wie man das Phänomen des subjektiven Erlebens im Rahmen einer empirischen Theorie des Gehirns ‚erklärt‘. Offensichtlich handelt es sich um eine Art ‚Innensicht‘ des Gehirns, bei der ausgewählte Bereiche der Gehirnzustände dazu dienen, wichtige Steuerungsparameter des Gehirns auf einer hohen Abstraktionsebene so zu organisieren, dass sie sich u.a. auch mit symbolischer Sprache verknüpfen lassen.

 

(17) Zusammenfassend gilt, dass die jeweiligen Konstruktionen des Gehirns auf Basis der sensorischen und körpereigenen Signale DAT_nn_sens und DAT_bd vollständige Eigenleistungen des Gehirns sind. Letztlich baut das Gehirn mit seinen ‚Bordmitteln‘ eine ‚Theorie der umgebenden Welt‘ TH_nn_env mit sich selbst als ‚agierendem Objekt‘ Th_nn_ego subset Th_nn_env.

 

(18) In diesem Kontext stellt sich die ‚Wahrheitsfrage‘ – will man diesen klassischen Term beibehalten – auf mindestens zweifache Weise: (i) systemintern und (ii) in Relation zur umgebenden Außenwelt.

 

(19) Systemintern (hier ‚Wahrheit_1‘ genannt) stellt sich primär die Frage, ob die emergierenden Theorien Th_nn als hypothetische Deutungen der in den Daten DAT_nn implizit mitgegebenen Dynamiken mit den Daten hinreichend ‚kongruent‘ sind? D.h. gilt es, dass die Daten DAT_nn vollständig in der ‚Bildmenge‘ der Theorie(n) Th_nn vorkommen? Bzw. gilt, dass  DAT_nn_sens subset Th_nn(DAT_nn_sens)? Da jede Theorie aufgrund der ihr ‚innewohnenden‘ Generalisierungen grundsätzlich mehr Elemente in ihrer Bildmenge hat als sensorische Daten in sie eingehen, kann man nicht verlangen, dass sich zu allen theoretisch möglichen Bildelementen 1-zu-1-Entsprechungen in den Primärdaten finden lassen, wohl aber kann – und muss – man verlangen, dass alle tatsächlich auftretenden Primärdaten sich als Elemente der Bildmenge darstellen lassen. Wahrheit_1 wäre dann also genau die Erfüllung dieser Forderung, dass man also sagen könnte: Eine nuronale Theorie der Welt ist Wahr_1 genau dann, wenn gilt: DAT_nn_sens subset Th_nn(DAT_nn_sens). Also nicht Übereinstimmung sondern abschwächend ‚Enthaltensein‘. Der Bewusstseinsraum Ph als ‚Bewusstsein‘  CONSC ist hier verstehbar als korrespondierend mit eine Teilmenge NN_ph der Menge der neuronalen Zustände NN, also NN_ph subset NN und die zu prüfenden neuronalen Theorien sind Muster innerhalb von NN_ph und NN_nph und ihr Referenzpunkt (ihr ‚Kriterium‘) für Wahrheit_1 ist das Enthaltensein der auftretenden neuronalen Ereignisse in der Bildmenge der Theorie. Eine logische Antinomie und daraus sich herleitenden Aporien gibt es hier nicht.

 

(20) In Relation zur umgebenden Außenwelt (hier ‚Wahrheit_2‘ genannt) stellt sich die Frage nicht innerhalb eines Systems, da das einzelne System in seinem internen Modell ‚gefangen‘ ist. Die modernen empirischen Wissenschaften haben uns aber die Möglichkeit eröffnet, dass wir andere Körper – menschliche wie tierische und andere – als ‚empirische Objekte‘ untersuchen können. Zusätzlich können wir – bis zu einem gewissen Grad – die Entwicklung von Populationen im Laufe der Zeit untersuchen. In diesem Kontext kann man die Frage der ‚Passung‘ des Verhaltens einer Population zur jeweiligen Außenwelt nach unterschiedlichen Kriterien gewichten. Z.B. stellt das schlichte ‚Überleben‘ bzw. ‚Nicht-Überleben‘ ein Basiskriterium dar. Populationen, die nicht überleben, haben offensichtlich ein Verhaltensspektrum, was nicht geeignet ist, alle notwendigen ‚Aufgaben‘, die die jeweilige Umgebung stellt, in der verfügbaren Zeit befriedigend zu lösen. Insofern das Verhalten ein Ouput des Körpers mit seinem Nervensystem ist, das auf einem bestimmten Input basiert – also sys: IN x BD x NN —> OUT — muss man sagen, dass die Systemfunktion sys offensichtlich unzulänglich ist. Da jede Systemfunktion eine Synthese von Körper mit Nervensystem BD x NN bildet, von dem wir wissen, dass es auf biochemischem Wege über Genetik, Wachstum und Vererbung weitergegeben und zugleich ‚verformt‘ wird, könnte man sagen, ein Körper-mit-Nervensystem-System SYS_bd_nn hat eine ‚wahre_2‘ Struktur, wenn das potentielle Verhalten sys( IN x BD x NN) geeignet ist, dass die Population dieses Systems POP_sys überlebt. Hier wird also der Körper mit seinem Nervensystem und den im Nervensystem bildbaren ‚Modellen‘ Th_nn einheitlich als ein dynamisches Modell sys() gesehen, das alle für das Überleben notwendigen Eigenschaften in der umgebenden Außenwelt hinreichend abbilden und gestalten kann. Das ‚Transobjektive‘ von Hartmann könnte in diesem Kontext interpretiert werden als die umgebenden Außenwelt, die auf den jeweiligen Körper einwirkt und über die verfügbaren Sensoren in dem Körper ein ‚Bild ihrer selbst‘ erzeugt, das nicht die Außenwelt ist, wie sie ‚an sich‘ ist, sondern die Außenwelt, wie sie aufgrund einer kausalen Wirkkette innerhalb eines Organismus repräsentiert werden kann. Die verfügbare neuronale Maschinerie generiert aus diesem primären ‚Bild‘ unterschiedliche komplexe Theorien, die über die konkreten einzelnen Daten hinausreichen (sie ‚transzendieren‘) und mittels einer Theorie ein übergreifendes Bild von einem ‚transzendierenden Objekt‘ entwerfen. Dieses selbst generierte ‚Bild eines Urbildes‘ kann mit dem Urbild – von einem Metastandpunkt aus betrachtet — mehr oder weniger ‚übereinstimmen‘ –also: wahr2: ENV x BD x NN x IN —> {passt, passt-nicht} –, doch ist diese Art von Passung dem individuellen System nicht zugänglich! Sie erschliesst sich nur in einer empirischen Untersuchung, die historische Entwicklungen untersuchen kann.

 

(21) Behält man das Verständnis von Metaphysik als Wissenschaft vom Seienden bei, das sich durch und jenseits der Erkenntnis erschließt und das unabhängig von der Erkenntnis existiert, dann müsste man nun sagen, Metaphysik ist im Prinzip möglich, nicht jedoch als Disziplin individuellen Erkennens, sondern nur als empirische Disziplin, die in einem Netzwerk betrieben wird. Moderne empirische Wissenschaften mit explizitem Theorieanteil, die die Leistungsfähigkeit von Populationen unter expliziter Berücksichtigung des neuronal basierten Verhaltens mit Bezug auf ihre Umwelt untersuchen, bilden gute Kandidaten für eine moderne Metaphysik.

(22) Man kann diese Überlegungen auf vielfältige Weise ergänzen und weiterführen. Ein interessanter Aspekt ist der ‚Offenbarungscharakter‘ von Natur. Wenn man bedenkt, wie umfangreich der Weg vom sogenannten Big-Bang (reine Energie mit einer unvorstellbar großen Temperatur) über Ausdehnung, Sternenbildung, Elementbildung, Bildung unserer Galaxie mit einem komfortablen Platz für unser Sonnensystem, mit einem komfortablen Platz für unsere Erde mit einer extrem günstigen Konstellation aller Planeten, der Entstehung von Molekülen aus Elementen, bis hin zu den ersten Zellen (bis heute letztlich ungeklärt)(vor ca. -3.2 Milliarden Jahren), von da aus eine ‚endogen und interaktiv  getriebene Entwicklung‘ genannt Evolution hin zu körperlichen Strukturen mit vielen Zellen, hin zu Nervensystemen (Start vor ca. -700 Mio Jahren), hin zu Körpern und Gehirnen, die explizite Modelle ihrer Umwelt und ihrer selbst entwickeln können, die symbolische Sprache erfunden haben und vieles mehr. Entscheidend: von der reinen Energie am Anfang sind wir zu Gehirnzuständen gekommen, in denen sich das Universum gleichsam ’selbst‘ anschauen kann, den Augenblick, das Einzelne, aber auch Alle und die ganze Entwicklung. Im Bewusstsein eines JEDEN Menschen kann sich potentiell das gesamte Universum mit allen seinen Facetten ‚versammeln‘, ‚aufscheinen‘. Ich habe nicht den Eindruck, dass irgendein Mensch sich der Tragweite dieses Faktums bewusst ist. Und bezogen auf die klassischen Offenbarungsreligionen (Judentum, Christentum, Islam) habe ich den Eindruck, dass diese die Menschen, statt sie mehr und tiefer zu Gott und einer Ehrfurcht vor dem Leben hinzuführen, eher dazu dienen, die Menschen Gott zu entfremden und das Leben – auch in Gestalt anderer Menschen – zu verachten, zu hassen oder gar zu töten. Ein solches Verhalten ist NIEMALS die Botschaft des Lebens, wenngleich das ‚Fressen und Gefressenwerden‘ im Bereich des Lebens eine Eigenschaft darstellt, die an die Notwendigkeit der Verfügbarkeit von hinreichender Energie gekoppelt ist. Doch in der Gestalt des Menschen hat das biologische Leben einen Punkt erreicht, bei dem dieses zwanghafte Fressen und Gefressenwerden prinzipiell durchbrochen werden kann. Wir haben die grundsätzliche Möglichkeit –zum ersten Mal seitdem es dieses Universum gibt!!! — die Gesetze des Lebens neu zu gestalten, neu zu formen, ja, letztlich können wir im Prinzip das gesamte bekannte Weltall von Grund auf neu umformen (natürlich nicht an einem Tag….). Genau dazu sind wir ‚berufen‘. Aber wen interessiert schon die Wahrheit2? Noch liegt immer ein gewisser ‚Schleier‘ über der Bestimmung des gesamten Lebens. Dass es auch irgendwo anders im riesigen Universum ähnliches der gar gleiches Leben wie unseres geben sollte, ist grundsätzlich weder auszuschließen noch würde es unserer ‚Bestimmung‘ irgendeinen Abbruch tun. Die Erkenntnis des ‚gemeinsam Gewordenseins‘ enthält in sich eine gemeinsame Berufung für das Ganze, von dem wir in Gestalt des messbaren Universums möglicherweise bislang nur einen kleinen Zipfel sehen (so wie unser Gehirn im Körper sich als ‚Herr der Dinge‘ erlebt, obgleich es doch, wie wir heute wissen können, nur einen winzigen Ausschnitt eines viel Größeren erlebt). ‚Wahrheit‘ ist das jeweils ‚Größere‘ (Magis), dem wir uns beugen und dienen müssen, da wir als einzelne nicht ‚Herr des Geschehens‘ sind. Insofern wir aber untereinander mit allem unauflöslich ‚verbunden‘ sind, ist diese individuelle Beschränkung nur relativ.

 

 

Eine direkte Fortsetzung findet sich hier

 

 

Eine Übersicht zu allen Beiträgen des Blogs findet sich im begleitenden cogntiveagent-Wiki

 

 

 

 

 

 

Gnoseologische, ontologische, teleologische Wahrheit – Fortsetzung 2 der Überlegungen zu N.Hartmanns Metaphysik der Erkenntnis

ZWISCHENSTAND

 

(1) In den bisherigen Überlegungen arbeitet N.Hartmann immer schärfer einen Gegensatz heraus zwischen dem empfangenden und erkennenden Subjekt einerseits (wobei eine genauere Beschreibung und Analyse dieses ‚Subjektes‘ bemerkenswerter Weise auf sich warten lässt) und der Realisierung eines Objektes im phänomenalen Raum, von der er sagt, dass sie über sich hinaus weist (transzendieren, Transzendenz) auf ein eigentliches Objekt, auf ein ‚Objekt an sich‘, das als solches der Erkenntnis entzogen ist, das aber als dieses ganz und gar eigenständige Objekt die wahre ‚Objektivität‘, die wahre ‚Existenz‘ verkörpere. Dies ist für ihn der Gegenstandsbereich der ‚Ontologie‘, der Kern des ‚Metaphysischen‘.

 

(2) Mit dieser Art von Rede über ein ‚Objekt an sich‘ bei gleichzeitigem Festhalten an einer phänomengebundenen Erkenntnis konstruiert Hartmann sowohl eine logische Antinomie des Bewusstseins wie auch eine logische Antinomie des Objekts. Nach meinem Verständnis beruhen beide Antinomien auf Annahmen, die so nicht zwingend sind.

 

(3) Von diesen logischen Antinomien gibt es unterschiedliche Spielarten. Eine ist diejenige, die sich im Kontext der a apriorischen Erkenntnis ergibt. Hartmann schreibt „Wie ist es möglich, dass dasjenige, was das Bewusstsein bei sich selbst am immanenten Vorstellungs- oder Gedankengebilde erschaut, Gültigkeit für ein Reales habe, welches ihm unaufhebbar transzendent ist?“ (MdE, 65) Und natürlich ist diese Frage unausweichlich, solange man Erkenntnisimmanenz und Objekttranszendenz per Annahme so radikal trennt, dass ein Zusammenhang logisch nicht fassbar ist. Das ist schlichtweg tautologisch.

 

(4) Es folgen dann auf den Seiten 66-87 Überlegungen zum Wahrheitsbegriff, die grundsätzlich daran leiden, dass der Wahrheitsbegriff in gewisser Weise vorausgesetzt wird, ohne dass er irgendwie erklärt wird. Er tritt in immer wieder neuen Formulierungskontexten auf ohne dass die beteiligten Begriffe klar sind. So benutzt Hartmann z.B. die Begriffe ‚Wahrheit‘, ‚Wahrheitsbewusstsein‘ und ‚Kriterium der Wahrheit‘ in einer vieldeutigen Weise.

 

(5) Die Wahrheits-Sprachspiele werden eröffnet durch die Formulierung „Erkenntnis kann nur entweder wahr oder unwahr sein.“ (MdE,66) Der Begriff ‚Erkenntnis‘ ist in diesem Kontext völlig unterbestimmt. Genauso gut hätte Hartmann schreiben können “ XYZ kann nur entweder wahr oder unwahr sein“. Aufgrund der nachfolgenden Feststellungen kann man zumindest entnehmen, dass Hartmann annimmt, dass es bei XYZ darum geht, dass es eine Übereinstimmung WAHR() zwischen den ‚Bestimmtheiten eines Objektbildes (OBJ*)‘ mit einem ‚zugehörigen Objekt (OBJ)‘ gibt, und dass der Ort dieser Übereinstimmung das  ‚Subjekt (SUB)‘ ist. Also er geht von einer Beziehung WAHR(OBJK*, OBJ) aus, die innerhalb eines SUB stattfinden soll. Nach den vorausgehenden Überlegungen kann hier eine Bedeutungsverschiebung von ‚Bewusstsein (BEW)‘ zu Subjekt nicht ausgeschlossen werden. Dann ginge es um die Beziehung WAHR() innerhalb des Bewusstseins. Ferner nimmt Hartmann an, dass diese Übereinstimmung entweder stattfinden kann oder nicht. Dies bedeutet dann, dass die Beziehung WAHR() nicht bloß eine Relation ist sondern eine Abbildung der Art wahr: OBJ* x OBJ —> {wahr, falsch}. Da diese Abbildung innerhalb des Subjekts bzw. innerhalb des Bewusstseins stattfinden soll, impliziert dies, dass das Objekt OBJ, mit dem das Bild OBJ* des Objektes OBJ verglichen wird, sich innerhalb des Subjets/ Bewusstseins befindet; andernfalls wäre der Vergleich nicht möglich.

 

(6) Doch hier scheint die Unterscheidung zwischen ‚Wahrheit‘ und ‚Wahrheitsbewusstsein‘ zu greifen. Die ‚Wahrheit‘ scheint sich auf das ‚Innenverhältnis‘ zwischen Objekt OBJ und dessen Bild OBJ* zu beziehen. Und innerhalb dieser Beziehung ist –rein logisch– kein Problem erkennbar, da –per definitionem– die Bestimmtheiten des Bildes eben mit dem ‚Original‘ übereinstimmen oder nicht. Hartmann „Es gibt keine Aporie der Wahrheit“. (MdE, 67).

 

(7) Doch lässt sich schwerlich über die ‚Wahrheit an sich‘ reden, da für uns ’normal Erkennende‘ sich die Frage nach der Übereinstimmung nur innerhalb unseres Bewusstseins stellt, es also nicht einfach nur um die Wahrheit ‚als Wahrheit‘ geht, sondern um unser ‚Bewusstsein von der Wahrheit‘ spricht um unser ‚Bewusstsein von der Übereinstimmung‘ zwischen OBJ* und OBJ. Hier gibt es dann aber eine „Aporie des Wahrheitsbewusstseins“ (MdE, 67). Per definitonem kann das Objekt an sich OBJ nicht Teil des Bewusstseins sein; dann aber ist die Vergleichsoperation wahr: OBJ* x OBJ —> {wahr, falsch} nicht möglich. Für die Abbildung fehlt dann ein Faktor: wahr: OBJ* x ??? —> {wahr, falsch}.

 

(8) Doch, wie schon zuvor herausgearbeitet, besteht der Eindruck, dass diese Aporie des Wahrheitsbewusstsein eine Scheinaporie ist, hervorgerufen durch mindestens eine Annahme, die zweifelhaft erscheint. Hartmann schreibt: „Die Aporie des Wahrheitsbewusstseins läuft also auf eine Aporie des Kriteriums der Wahrheit hinaus. Dass es Übereinstimmung des Objektbildes mit dem transzendenten Objekt geben kann, unterliegt keinem Zweifel. Die Frage ist nur, ob es eine Möglichkeit für das Subjekt gibt, diese Übereinstimmung zu erkennen … In dieser Möglichkeit würde das Kriterium bestehen. Die Frage ist also: gibt es ein Kriterium der Wahrheit?“. (MdE, 67)

 

(9) Die zweifelhafte Annahme steckt in der Formulierung „Dass es Übereinstimmung des Objektbildes mit dem transzendenten Objekt geben kann, unterliegt keinem Zweifel.“ Es bleibt rätselhaft, wie Hartmann zu dieser Annahme kommen kann. Es gibt keinerlei Anhaltspunkte, warum man diese Annahme machen sollte bzw. überhaupt machen kann. Jenseits der Erkenntnis wissen wir nichts von einem Objekt außerhalb der Erkenntnis (wenngleich, wie wir später sehen werden, es einen ‚indirekten Weg‘ gibt, etwas Vergleichbares anzunehmen, allerdings auf eine Weise, die eben nicht zu einer Aporie führt).

 

(10) Nebenbei erfährt man aber auf diese Weise, was er unter einem ‚Kriterium der Wahrheit‘ verstanden haben wissen will. Das Wahrheitskriterium besteht demnach in der Möglichkeit des Erkennens einer Übereinstimmung zwischen Objekt und Objektbild. Da es sich bei dieser Übereinstimmung um eine Abbildungsoperation handelt wahr: OBJ* x OBJ —> {wahr, falsch} setzt ein so verstandenes Wahrheitskriterium nicht nur die Existenz der beiden zu vergleichenden Bereiche OBJ und OBJ* voraus, sondern auch noch die Möglichkeit einer effektiven Vergleichsoperation auf den ‚Elementen‘ dieser beiden Bereiche. Wenn wir allerdings davon ausgehen, dass die Annahme der Verfügbarkeit eines Objektes an sich OBJ für das Bewusstsein nicht zu rechtfertigen ist, dann fällt auch das Wahrheitskriterium in sich zusammen. Überhaupt ist dann das ganze Konstrukt von Wahrheit als Übereinstimmung hinfällig.

 

 

(11) Eine gänzliche Verwerfung des Wahrheitsbewusstseins verortet Hartmann schon in der antiken Skepsis. (MdE, 67) Für Hartmann würde aus solch einer Verwerfung folgen, dass man dann „den Anspruch des Subjekts auf das Wissen um wahr und unwahr als schlechthin illusorisch verwerfen [müsste]“. (MdE, 68). Mit Blick auf die „unabsehbaren Folgen“ einer solchen skeptischen Verwerfung zieht Hartmann daher diese Position in Zweifel. (vgl. MdE, 68). Dies wirkt wenig überzeugend. Das wirkt fast so, also ob er zwar keine wirklichen logischen Argumente hat, aber aufgrund seines ‚Bauchgefühls‘ –wie manche heute sagen würden– eher etwas anderes für wahr halten möchte. Dies ist allerdings keinesfalls ‚rational‘ sondern eher ‚mirakulös‘.

 

 

(12) Statt also die Unhaltbarkeit der Annahme einer Erkenntnis des Objekts an sich von innerhalb der Erkenntnis zu akzeptieren, spekuliert Hartmann über eine mögliche begriffliche Konstruktion, wie vielleicht doch irgendwie die Existenz eines Objekts an sich gerettet werden kann, um sein Konzept von Wahrheit zu retten. (vgl. MdE, 68f) Er sinniert über ein „zweites Erfassen“, über ein „Wissen des Wissens“, über eine „zweite übergreifende Bindung“, und bemerkt dann immerhin, dass dies zu einer „ungeheuren Komplizierung und Belastung des Erkenntnisproblems“ führt. (MdE, 69)

 

(13) Nicht genug all dieser fruchtlosen Spekulationen, führt er dann noch am Beispiel des „Wissens des Nichtwissens“ eine neue „Aporie des Problembewusstseins“ ein, die im Prinzip nichts Neues aufzeigt als nur das Gleiche mit anderen Worten: „Wie ist ein Erfassen dessen möglich [des Objekts OBJ], was viel mehr unerfasst bleibt, und gerade sofern es unerfasst bleibt [am erkennbaren Bild OBJ*]?“ (MdE, 70) Dies verdeutlicht auch eine andere Formulierung: „Was hier verlangt wird ist eine Objektion des Transobjektiven an das Subjekt, in der dasselbe transobjektiv bleibt…“. (MdE, 70)

 

(14) Für Hartmann besteht der feine Unterschied zwischen der Aporie des Wahrheitskriteriums und der Aporie des Problembewusstseins darin, dass das Kriterium der Wahrheit es angeblich nur mit „dem zu tun hat, was diesseits der Grenze“ liegt, wohingegen das Problembewusstsein im Wissen um das Nichtwissen „über die Objektgrenzen hinaus“ greifen soll. (vgl. MdE, 71) Dies führt Hartmann zur Annahme einer „dritten Art von Bindung“ zwischen Subjekt und Objekt als Trans-objektivem. (vgl. MdE, 71)

 

(15) Die Formulierung „diesseits der Grenze“ ist mehr als zweifelhaft, da sie suggeriert, als ob ein Vergleich zwischen Objektbild OBJ* und Objekt an sich OBJ ganz ohne dem Objekt OBJ auskäme. Das widerspricht aber seiner eigenen Definition des Wahrheitskriteriums und macht auch logisch keinen Sinn. Die Abgrenzung des Problembewusstseins von dieser Art von Wahrheitskriterium hängt damit aber in der Luft. Die Formulierungen „über die Objektgrenzen hinaus greifen“ bzw. „Objekt als Transobjektives“ erscheinen daher nur als unnötige Verdopplungen von Begriffen für ein und denselben Sachverhalt, der in sich daran krankt, dass er auf Annahmen beruht, die bislang schlicht und einfach ‚haltlos‘ sind.

 

(16) Hartmann führt einen weiteren neuen Begriff ein, den des „Erkenntnisprozesses“. Gegenüber dem „Problembewusstsein“ charakterisiert Hartmann den Erkenntnisprozess als „dynamisch“, als Lösungen generierend. (MdE, 72) Im Erkenntnisprozess emanzipiert sich das Subjekt vom Transobjektiven, indem es Objekterkenntnis in seinem Rahmen entwickelt. (vgl. MdE,72) Das Transobjektive wird als Objiziertes in ein „Erkanntes“ verwandelt, das einerseits unabhängig von allen zuvor genannten Aporien ist, zugleich aber von der impliziten Bestimmtheit des Objektbildes OBJ* durch das Objekt OBJ wie auch durch das Problembewusstsein um diese unvollendete Bestimmtheit weiß. (vg. MdE, 73)

 

(17) Für Hartmann kulminieren im Erkenntnisproblem dann letztlich vier Aporien, denen unterschiedliche Arten von Bindungen zwischen Subjekt und Objekt korrespondieren, eine „Komplizierung“, wie er feststellt, die letztlich durch die eigentliche Theorie aufzuhellen sei. (MdE, 73)

 

(18) Nach meiner Einschätzung sind alle die genannten vier Aporien Artefakte falscher Annahmen. Sie lenken das Denken auf begriffliche Konstellationen, die nicht weiterführen.

 

(19) Nach all dem Festhalten am Objekt an sich wundert es nicht, dass Hartmann die bisherigen Aporien als „gnoseologisch“ qualifiziert, da es „Erkenntnisprobleme“ sind, im Unterschied zu den „ontologischen“ Aporien, die sich auf den Gegenstand an sich beziehen, der als einziger „real“ ist, „voll wirklich“, „existent“. (vgl. MdE, 74)

 

(20) Hartmann hat drastische Formulierungen: „Der Schwerpunkt der Erkenntnisrelation liegt außerhalb ihrer selbst, jenseits der verschiebbaren Objektionsgrenze, im Transobjektiven, ja, … im Irrationalen (genauer im Transintelligiblen…). Hinter dem ‚Gegenstand‘ taucht die seiende Sache, hinter der Erkenntnisrelation die Seinsrelation auf. In dieser steht, statt des Erkennenden und Erkannten, nur noch ein Seiendes einem Seienden gegenüber.“ (MdE, 74)

 

(21) Mit diesen Formulierungen ist der zuvor schon diagnostizierten Irrationalität Tür und Tor geöffnet. Wenn es möglich ist, Sachverhalte zu postulieren, die jenseits und unabhängig vom Denken angesiedelt sein sollen, dann verliert das Denken seine Spielregeln; dann kann man alles behaupten, weil nichts mehr falsch sein kann. Da wir später sehen werden, dass eine Analyse des tatsächlichen Denkens Strukturen zutage fördern kann, die –obschon klar im Denken verwurzelt– über das aktuell Erkennbare hinaus Strukturen erzeugen können, die geeignet sind, über den Bereich der ‚Bilder‘ hinaus (transzendierend) zu denken um damit ‚mögliche‘ Objekte jenseits des Wahrnehmbaren zu ‚orten‘, sind die begrifflichen Versuche von Hartmann, genau jene in jeglichem Denken angelegten ‚induktiv-transzendierende‘ Strukturen zu denken (und für wahr zu halten), nicht völlig ’sinnlos‘, aber sie sind in dem Kontext, in dem er argumentiert, –wie er selbst sagt!– ‚irrational‘ und ‚transintelligibel‘. Auf den Seiten SS.75f kumuliert er die Irrationalitäten in dem wechselweisen Verweis von Ontologie und Gnoseologie aufeinander. Viele schöne Worte für einen einfachen Sachverhalt.

 

(22) Auf den SS.78 – 87 folgen unterschiedliche Anmerkungen zu den vorausgehenden grundsätzlichen Überlegungen. So führt Hartmann u.a. aus, dass es zwischen Phänomenologie und Metaphysik kein Problem gibt. Das Metaphysische ist in allen Phänomenen notgedrungen implizit gegeben. Die Phänomenologie hilft, diese Vorkommen sichtbar zu machen, nicht aber, es zu lösen.(vgl. MdE, 77f) Zum Problem des Objektbildes innerhalb der Phänomenologie schreibt er z.B. „Ein Bewusstseinsgebilde als solches kann überhaupt niemals einem außerbewußten Urbilde ähnlich sein; es ist und bleibt von ihm wesensverschieden. Die Ähnlichkeit kann sich immer nur auf bestimmte Züge erstrecken, die das Urbild irgendwie in einer ihm heterogenen Materie und mit heterogenen Mitteln nachformen…. Der bessere … Ausdruck für das ‚Bild‘ ist daher der von Leibniz geprägte Begriff der Repräsentation. Die Bestimmungen des Erkenntnisgebildes müssen die des Objekts irgendwie wiedergeben, ‚ausdrücken‘, oder im Bewusstsein ‚vertreten‘.“ (MdE, 80)

 

(23) In diesem Abschnitt wiederholen sich wieder die vielen Ungereimtheiten, die schon zuvor den Gedankengang beschwert haben. Es wird (aufgrund welcher Erkenntnisbasis?) einerseits behauptet, das das Bild des Objektes im Bewusstsein niemals dem verursachenden Objekt ähnlich sein kann (obgleich wir ja angeblich über dieses verursachende Objekt nichts wissen, also auch nicht, ob es ähnlich ist oder nicht), dennoch wird angenommen, dass es dennoch eine Ähnlichkeit gibt, die sich auf „bestimmte Züge“ erstreckt (woher wissen wir dies denn nun schon wieder, wo wir doch gar nichts wissen sollen?). Ebenso unmotiviert erscheint dann die Argumentation, warum der Leibnizsche Ausdruck ‚Repräsentation‘ anstatt ‚Bild‘ besser geeignet sein soll? Da wir ja über die ‚wahre Natur‘ der Objekt-Bild-Beziehung nichts Genaues wissen, fragt sich, warum wir beurteilen können sollen, ob die Bezeichnung ‚Bild‘ oder ‚Repräsentation‘ besser sein soll, zumal diese beiden Begriffe selbst als solche auch keine präzise Bedeutungsbeschreibung bieten. Aus mathematischer Sicht würde es sich bei einer Objekt-Bild-Beziehung grundsätzlich um eine Abbildung handeln und eine Bezeichnung als ‚Bild‘ oder ‚Repräsentation‘ macht keinen wirklichen Unterschied.

 

(24) Hartmann macht darauf aufmerksam, dass es in der traditionellen Metaphysik noch eine Variante des Wahrheitsbegriffs gibt, die über den zuvor als ‚ontologisch‘ charakterisierten noch hinausgeht; es geht um einen „teleologischen“ Wahrheitsbegriff, in dem man ein ewiges ideales Urbild allen Seins annimmt, aus dem alles andere Seiende hervorgeht und das im Verhältnis zum Urbild relativ gesehen immer ein „Abbild“ ist. (vgl. MdE, 84) Dieses Konzept findet sich bei Platon und dann weiter z.B. bei Aristoteles, Leibniz und Hegel. (vgl. MdE, 85f) Hartmann disqualifiziert diesen Wahrheitsbegriff als ein „teleologisches Adäquationsverhältnis“, das mit Wahrheit nichts zu tun habe. (vgl. MdE, 85) Hier stockt dann allerdings das denken da ja zuvor das ontologische Wahrheitsverhältnis ein Verhältnis zwischen Objekt und Objektbild unterstellte; warum das Verhältnis zwischen Urbild und Abbild von einer anderen Art sein soll, ist aus der Natur des ontologischen Verhältnisses aus nicht direkt erkennbar, zumal wir ja bislang immer noch keine klaren Kriterien haben, um überhaupt etwas Verbindliches zum Verhältnis Objekt und Objektbild sagen zu können. Für Hartmann, der bereit ist, in Sachen Irrationalität recht weit zu gehen, ist aber im Falle der teleologischen Wahrheit eine Grenzmarke überschritten: „Diese extreme Verschiebung des Wahrheitsbegriffs ins Metaphysisch-Teleologische hat den schlichten gnoseologischen Sinn der ‚Wahrheit‘ bis zur Unkenntlichkeit entstellt, hat das eigentliche Wahrheitsproblem nahezu verschüttet… Eine so gewichtige Metaphysik kann das Erkenntnisproblem unmöglich tragen. Ihr entspricht keines seiner Teilprobleme.“ (MdE, 86)

 

 

Eine Übersicht zu allen Beiträgen des Blogs findet sich im begleitenden cogntiveagent-Wiki

 

 

 

 

 

 

 

 

LITERATURVERWEISE

 

Hartmann, N. “ Grundzüge einer Metaphysik der Erkenntnis“, Berlin: Walter de Gruyter & Co, 5.Aufl. 1965 (Erstausgabe 1929).