Archiv der Kategorie: Zeichen

SUCHE NACH DEM URSPRUNG UND DER BEDEUTUNG DES LEBENS (Paul Davies). Teil 2 (Information als Grundeigenschaft alles Materiellen?)

Paul Davies, The FIFTH MIRACLE: The Search for the Origin and Meaning of Life, New York:1999, Simon & Schuster

 Fortsetzung von Suche… (Teil 1)

Start: 27.Aug.2012

Letzte Fortsetzung: 1.Sept.2012

  1. Das dritte Kapitel ist überschrieben ‚Out of the Slime‘. (SS.69-96) Es startet mit Überlegungen zur Linie der Vorfahren (Stammbaum), die alle auf ‚gemeinsame Vorfahren‘ zurückführen. Für uns Menschen zu den ersten Exemplaren des homo sapiens in Afrika vor 100.000 Jahren, zu den einige Millionen Jahre zurückliegenden gemeinsamen Vorläufern von Affen und Menschen; ca. 500 Mio Jahre früher waren die Vorläufer Fische, zwei Milliarden Jahre zurück waren es Mikroben. Und diese Rückführung betrifft alle bekannten Lebensformen, die, je weiter zurück, sich immer mehr in gemeinsamen Vorläufern vereinigen, bis hin zu den Vorläufern allen irdischen Lebens, Mikroorganismen, Bakterien, die die ersten waren.(vgl. S.69f)

  2. [Anmerkung: Die Formulierung von einem ‚einzelnen hominiden Vorfahren‘ oder gar von der ‚afrikanischen Eva‘ kann den Eindruck erwecken, als ob der erste gemeinsame Vorfahre ein einzelnes Individuum war. Das scheint mir aber irreführend. Bedenkt man, dass wir ‚Übergangsphasen‘ haben von Atomen zu Molekülen, von Molekülen zu Netzwerken von Molekülen, von Molekülnetzwerken zu Zellen, usw. dann waren diese Übergänge nur erfolgreich, weil viele Milliarden und Abermilliarden von Elementen ‚gleichzeitig‘ beteiligt waren; anders wäre ein ‚Überleben‘ unter widrigsten Umständen überhaupt nicht möglich gewesen. Und es spricht alles dafür, dass dieses ‚Prinzip der Homogenität‘ sich auch bei den ‚komplexeren‘ Entwicklungsstufen fortgesetzt hat. Ein einzelnes Exemplar einer Art, das durch irgendwelche besonderen Eigenschaften ‚aus der Reihe‘ gefallen wäre, hätte gar nicht existieren können. Es braucht immer eine Vielzahl von hinreichend ‚ähnlichen‘ Exemplaren, dass ein Zusammenwirken und Fortbestehen realisiert werden kann. Die ‚Vorgänger‘ sind also eher keine spezifischen Individuen (wenngleich in direkter Abstammung schon), sondern immer Individuen als Mitglieder einer bestimmten ‚Art‘.]

  3. Es ist überliefert, dass Darwin im Sommer 1837, nach der Rückkehr von seiner Forschungsreise mit der HMS Beagle in seinem Notizbuch erstmalig einen irregulär verzweigenden Baum gemalt hat, um die vermuteten genealogischen Zusammenhänge der verschiedenen Arten darzustellen. Der Baum kodierte die Annahme, dass letztlich alle bekannten Lebensformen auf einen gemeinsamen Ursprung zurückgehen. Ferner wird deutlich, dass viele Arten (heutige Schätzungen: 99%) irgendwann ‚ausgestorben‘ sind. Im Falle einzelliger Lebewesen gab es aber – wie wir heute zunehmend erkennen können – auch das Phänomene der Symbiose: ein Mikroorganismus ‚frißt‘ andere und ‚integriert‘ deren Leistung ‚in sich‘ (Beispiel die Mitochondrien als Teil der heute bekannten Zellen). Dies bedeutet, dass ‚Aussterben‘ auch als ‚Synthese‘ auftreten kann.(vgl. SS.70-75)

  4. Die Argumente für den Zusammenhang auf Zellebene zwischen allen bekannten und ausgestorbenen Arten mit gemeinsamen Vorläufern beruhen auf den empirischen Fakten, z.B. dass die metabolischen Verläufe der einzelnen Zellen gleich sind, dass die Art und Weise der genetischen Kodierung und Weitergabe gleich ist, dass der genetische Kode im Detail der gleiche ist, oder ein kurioses Detail wie die molekulare Ausrichtung – bekannt als Chiralität –; obgleich jedes Molekül aufgrund der geltenden Gesetze sowohl rechts- oder linkshändig sein kann, ist die DNA bei allen Zellen ‚rechtshändig‘ und ihr Spiegelbild linkshändig. (vgl.SS.71-73)

  5. Da das DNA-Molekül bei allen bekannten Lebensformen in gleicher Weise unter Benutzung von Bausteinen aus Aminosäure kodiert ist, kann man diese Moleküle mit modernen Sequenzierungstechniken Element für Element vergleichen. Unter der generellen Annahme, dass sich bei Weitergabe der Erbinformationen durch zufällige Mutationen von Generation zur Generation Änderungen ergeben können, kann man anhand der Anzahl der verschiedenen Elemente sowohl einen ‚genetischen Unterschied‘ wie auch einen ‚genealogischen Abstand‘ konstruieren. Der genetische Unterschied ist direkt ’sichtbar‘, die genaue Bestimmung des genealogischen Abstands im ‚Stammbaum‘ hängt zusätzlich ab von der ‚Veränderungsgeschwindigkeit‘. Im Jahr 1999 war die Faktenlage so, dass man annimmt, dass es gemeinsame Vorläufer für alles Leben gegeben hat, die sich vor ca. 3 Milliarden Jahren in die Art ‚Bakterien‘ und ‚Nicht-Bakterien‘ verzweigt haben. Die Nicht-Bakterien haben sich dann weiter verzweigt in ‚Eukaryoten‘ und ‚Archäen‘. (vgl. SS.75-79)

  6. Davies berichtet von bio-geologischen Funden nach denen in de Nähe von Isua (Grönland) Felsen von vor mindestens -3.85 Milliarden Jahren gefunden wurden mit Spuren von Bakterien. Ebenso gibt es Funde von Stromatolythen (Nähe Shark Bay, Australien), mit Anzeichen für Cyanobakterien aus der Zeit von ca. -3.5 Milliarden Jahren und aus der gleichen Zeit Mikrofossilien in den Warrawoona Bergen (Australien). Nach den Ergebnissen aus 1999 hatten die Cyanobakterien schon -3.5 Mrd. Jahre Mechanismen für Photosynthese, einem höchst komplexen Prozess.(vgl. SS.79-81)

  7. Die immer weitere Zurückverlagerung von Mikroorganismen in die Vergangenheit löste aber nicht das Problem der Entstehung dieser komplexen Strukturen. Entgegen der früher verbreiteten Anschauung, dass ‚Leben‘ nicht aus ‚toter Materie‘ entstehen kann, hatte schon Darwin 1871 in einem Brief die Überlegung geäußert, dass in einer geeigneten chemischen Lösung über einen hinreichend langen Zeitraum jene Moleküle und Molekülvernetzungen entstehen könnten, die dann zu den bekannten Lebensformen führen. Aber erst in den 20iger Jahren des 20.Jahrhunderts waren es Alexander Oparin (Rußland) und J.B.S.Haldane (England) die diese Überlegungen ernst nahmen. Statt einem kleinen See,  wie bei Darwin, nahm Haldane an, dass es die Ozeane waren, die den Raum für den Übergangsprozess von ‚Materie‘ zu ‚Leben‘ boten. Beiden Forschern fehlten aber in ihrer Zeit die entscheidende Werkzeuge und Erkenntnisse der Biochemie und Molekularbiologie, um ihre Hypothesen testen zu können. Es war Harold Urey (USA) vorbehalten, 1953 mit ersten Laborexperimenten beginnen zu können, um die Hypothesen zu testen. (vgl. SS.81-86)

  8. Mit Hilfe des Studenten Miller arrangierte Urey ein Experiment, bei dem im Glaskolben eine ‚Mini-Erde‘ bestehend aus etwas Wasser mit den Gasen Methan, Hydrogen und Ammonium angesetzt wurde. Laut Annahme sollte dies der Situation um ca. -4 Millarden Jahren entsprechen. Miller erzeugte dann in dem Glaskolben elektrische Funken, um den Effekt von Sonnenlicht zu simulieren. Nach einer Woche fand er dann verschiedene Amino-Säuren, die als Bausteine in allen biologischen Strukturen vorkommen, speziell auch in Proteinen.(vgl. S.86f)

  9. Die Begeisterung war groß. Nachfolgende Überlegungen machten dann aber klar, dass damit noch nicht viel erreicht war. Die Erkenntnisse der Geologen deuteten in den nachfolgenden Jahren eher dahin, dass die Erdatmosphäre, die die sich mehrfach geändert hatte, kaum Ammonium und Methan enthielt, sondern eher reaktions-neutrales Kohlendioxyd und Schwefel, Gase die keine Aminosäuren produzieren. (vgl.S.87)

  10. Darüber hinaus ist mit dem Auftreten von Aminosäuren als Bausteine für mögliche größere Moleküle noch nichts darüber gesagt, ob und wie diese größere Moleküle entstehen können. Genauso wenig wie ein Haufen Ziegelsteine einfach so ein geordnetes Haus bilden wird, genauso wenig formen einzelne Aminosäuren ‚einfach so‘ ein komplexes Molekül (ein Peptid oder Polypeptid). Dazu muss der zweite Hauptsatz überwunden werden, nach dem ’spontane‘ Prozesse nur in Richtung Energieabbau ablaufen. Will man dagegen komplexe Moleküle bauen, muss man gegen den zweiten Hauptsatz die Energie erhöhen; dies muss gezielt geschehen. In einem angenommenen Ozean ist dies extrem unwahrscheinlich, da hier Verbindungen eher aufgelöst statt synthetisiert werden.(vgl.87-90)

  11. Der Chemiker Sidney Fox erweiterte das Urey-Experiment durch Zufuhr von Wärme. In der Tat bildeten sich dann Ketten von Aminosäurebausteinen die er ‚Proteinoide‘ nannte. Diese waren eine Mischung aus links- und rechts-händigen Molekülen, während die biologisch relevanten Moleküle alle links-händig sind. Mehr noch, die biologisch relevanten Aminosäureketten sind hochspezialisiert. Aus der ungeheuren Zahl möglicher Kombinationen die ‚richtigen‘ per Zufall zu treffen grenzt mathematisch ans Unmögliche.(vgl.S.90f) Dazu kommt, dass eine Zelle viele verschiedene komplexe Moleküle benötigt (neben Proteinen auch Lipide, Nukleinsäuren, Ribosomen usw.). Nicht nur ist jedes dieser Moleküle hochkomplex, sondern sie entfalten ihre spezifische Wirkung als ‚lebendiges Ensemble‘ erst im Zusammenspiel. Jedes Molekül ‚für sich‘ weiß aber nichts von einem Zusammenhang. Wo kommen die Informationen für den Zusammenhang her? (vgl.S.91f) Rein mathematisch ist die Wahrscheinlichkeit, dass sich die ‚richtigen‘ Proteine bilden in der Größenordnung von 1:10^40000, oder, um ein eindrucksvolles Bild des Physikers Fred Hoyle zu benutzen: genauso unwahrscheinlich, wie wenn ein Wirbelsturm aus einem Schrottplatz eine voll funktionsfähige Boeing 747 erzeugen würde. (vgl.S.95)

  12. Die Versuchung, das Phänomen des Lebens angesichts dieser extremen Unwahrscheinlichkeiten als etwas ‚Besonderes‘, als einen extrem glücklichen Zufall, zu charakterisieren, ist groß. Davies plädiert für eine Erklärung als eines ’natürlichen physikalischen Prozesses‘. (S.95f)

  13. Im Kapitel 4 ‚The Message in the Machine‘ (SS.97-122) versucht Davies mögliche naturwissenschaftliche Erklärungsansätze, beginnend bei den Molekülen, vorzustellen. Die Zelle selbst ist so ungeheuerlich komplex, dass noch ein Niels Bohr die Meinung vertrat, dass Leben als ein unerklärbares Faktum hinzunehmen sei (vgl.Anmk.1,S.99). Für die Rekonstruktion erinnert Davies nochmals daran, dass diejenigen Eigenschaften, die ‚lebende‘ Systeme von ’nicht-lebenden‘ Systemen auszeichnen, Makroeigenschaften sind, die sich nicht allein durch Verweis auf die einzelnen Bestandteile erklären lassen, sondern nur und ausschließlich durch das Zusammenspiel der einzelnen Komponenten. Zentrale Eigenschaft ist hier die Reproduktion. (vgl.SS.97-99)

  14. Reproduktion ist im Kern gebunden an das Kopieren von drei-dimensional charakterisierten DNA-Molekülen. Vereinfacht besteht solch ein DNA-Molekül aus zwei komplementären Strängen, die über eine vierelementiges Alphabet von Nukleinsäurebasen miteinander so verbunden sind, dass es zu jeder Nukleinsäurebase genau ein passendes Gegenstück gibt. Fehlt ein Gegenstück, ist es bei Kenntnis des Kodes einfach, das andere Stück zu ergänzen. Ketten von den vierelementigen Basen können ‚Wörter‘ bilden, die ‚genetische Informationen‘ kodieren. Ein ‚Gen‘ wäre dann solch ein ‚Basen-Wort‘. Und das ganze Molekül wäre dann die Summe aller Gene als ‚Genom‘. Das ‚Auftrennen‘ von Doppelsträngen zum Zwecke des Kopierens wie auch das wieder ‚Zusammenfügen‘ besorgen spezialisierte andere Moleküle (Enzyme). Insgesamt kann es beim Auftrennen, Kopieren und wieder Zusammenfügen zu ‚Fehlern‘ (Mutationen) kommen. (vgl.SS.100-104)

  15. Da DNA-Moleküle als solche nicht handlungsfähig sind benötigen sie eine Umgebung, die dafür Sorge trägt, dass die genetischen Informationen gesichert und weitergegeben werden. Im einfachen Fall ist dies eine Zelle. Um eine Zelle aufzubauen benötigt man Proteine als Baumaterial und als Enzyme. Proteine werden mithilfe der genetischen Informationen in der DNA erzeugt. Dazu wird eine Kopie der DNA-Informationen in ein Molekül genannt Boten-RNA (messenger RNA, mRNA) kopiert, dieses wandert zu einem komplexen Molekülnetzwerk genannt ‚Ribosom‘. Ribosomen ‚lesen‘ ein mRNA-Molekül als ‚Bauanleitung‘ und generieren anhand dieser Informationen Proteine, die aus einem Alphabet von 20 (bisweilen 21) Aminosäuren zusammengesetzt werden. Die Aminosäuren, die mithilfe des Ribosoms Stück für Stück aneinandergereiht werden, werden von spezialisierten Transportmolekülen (transfer RNA, tRNA) ‚gebracht‘, die so gebaut sind, dass immer nur dasjenige tRNA-Molekül andocken kann, das zur jeweiligen mRNA-Information ‚passt‘. Sobald die mRNA-Information ‚abgearbeitet‘ ist, liegt eines von vielen zehntausend möglichen Proteinen vor. (vgl.SS. 104-107) Bemerkenswert ist die ‚Dualität‘ der DNA-Moleküle (wie auch der mRNA) sowohl als ‚Material/ Hardware‘ wie auch als ‚Information/ Software‘. (vgl.S.108)

  16. Diese ‚digitale‘ Perspektive vertieft Davies durch weitere Betrachtung und führt den Leser zu einem Punkt, bei dem man den Eindruck gewinnt, dass die beobachtbaren und messbaren Materialien letztlich austauschbar sind bezogen auf die ‚impliziten Strukturen‘, die damit realisiert werden. Am Beispiel eines Modellflugzeugs, das mittels Radiowellen ferngesteuert wird, baut er eine Analogie dahingehend auf, dass die Hardware (das Material) des Flugzeugs wie auch der Radiowellen selbst als solche nicht erklären, was das Flugzeug tut. Die Hardware ermöglicht zwar grundsätzlich bestimmte Flugeigenschaften, aber ob und wie diese Eigenschaften genutzt werden, das wird durch ‚Informationen‘ bestimmt, die per Radiowellen von einem Sender/ Empfänger kommuniziert werden. Im Fall einer Zelle bilden komplexe Molekülnetzwerke die Hardware mit bestimmten verfügbaren chemischen Eigenschaften, aber ihr Gesamtverhalten wird gesteuert durch Informationen, die primär im DNA-Molekül kodiert vorliegt und die als ‚dekodierte‘ Information alles steuert.(vgl. SS.113-115)

  17. [Anmerkung: Wie schon zuvor festgestellt, repräsentieren Atome und Moleküle als solche keine ‚Information‘ ‚von sich aus‘. Sie bilden mögliche ‚Ereignisse‘ E ‚für andere‘ Strukturen S, sofern diese andere Strukturen S auf irgendeine Weise von E ‚beeinflusst‘ werden können. Rein physikalisch (und chemisch) gibt es unterschiedliche Einwirkungsmöglichkeiten (z.B. elektrische Ladungen, Gravitation,…). Im Falle der ‚Information‘ sind es aber nicht nur solche primären physikalisch-chemischen Eigenschaften, die benutzt werden, sondern das ‚empfangende‘ System S befindet sich in einem Zustand, S_inf, der es dem System ermöglicht, bestimmte physikalisch-chemische Ereignisse E als ‚Elemente eines Kodes‘ zu ‚interpretieren. Ein Kode ist minimal eine Abbildungsvorschrift, die Elemente einer Menge X (die primäre Ereignismenge) in eine Bildmenge Y (irgendwelche anderen Ereignisse, die Bedeutung) ‚übersetzt‘ (kodiert), also CODE: X —> Y. Das Materiell-Stoffliche wird damit zum ‚Träger von Informationen‘, zu einem ‚Zeichen‘, das von einem Empfänger S ‚verstanden‘ wird. Im Falle der zuvor geschilderten Replikation wurden ausgehend von einem DNA-Molekül (= X, Ereignis, Zeichen) mittels mRNA, tRNA und Ribosom (= Kode, CODE) bestimmte Proteine (=Y, Bedeutung) erzeugt. Dies bedeutet, dass die erzeugten Proteine die ‚Bedeutung des DNA-Moleküls‘ sind unter Voraussetzung eines ‚existierenden Kodes‘ realisiert im Zusammenspiel eines Netzwerkes von mRNA, tRNAs und Ribosom. Das Paradoxe daran ist, das die einzelnen Bestandteile des Kodes, die Moleküle mRNA, tRNA und Ribosom (letzteres selber hochkomplex) ‚für sich genommen‘ keinen Kode darstellen, nur in dem spezifischen Zusammenspiel! Wenn also die einzelnen materiellen Bestandteile, die Atome und Moleküle ‚für sich gesehen‘ keinen komplexen Kode darstellen, woher kommt dann die Information, die alle diese materiell hochkomplexen Bestandteile auf eine Weise ‚zusammenspielen‘ lässt, die weit über das hinausgeht, was die Bestandteile einzeln ‚verkörpern‘? ]

  18. "Zelle und Turingmaschine"
    zelle_tm

    [Anmerkung: Es gibt noch eine andere interssante Perspektive. Das mit Abstand wichtigste Konzept in der (theoretischen) Informatik ist das Konzept der Berechenbarkeit, wie es zunächst von Goedel 1931, dann von Turing in seinem berühmten Artikel von 1936-7 vorgelegt worden ist. In seinem Artikel definiert Turing das mathematische (!) Konzept einer Vorrichtung, die alle denkbaren berechenbaren Prozesse beschreiben soll. Später gaben andere dieser Vorrichtung den Namen ‚Turingmaschine‘ und bis heute haben alle Beweise immer nur dies eine gezeigt, dass es kein anderes formales Konzept der intuitiven ‚Berechenbarkeit‘ gibt, das ’stärker‘ ist als das der Turingmaschine. Die Turingmaschine ist damit einer der wichtigsten – wenn nicht überhaupt der wichtigste — philosophischen Begriff(e). Viele verbinden den Begriff der Turingmaschine oft mit den heute bekannten Computern oder sehen darin die Beschreibung eines konkreten, wenngleich sehr ‚umständlichen‘ Computers. Das ist aber vollständig an der Sache vorbei. Die Turingmaschine ist weder ein konkreter Computer noch überhaupt etwas Konkretes. Genau wie der mathematische Begriff der natürlichen Zahlen ein mathematisches Konzept ist, das aufgrund der ihm innewohnenden endlichen Unendlichkeit niemals eine reale Zahlenmenge beschreibt, sondern nur das mathematische Konzept einer endlich-unendlichen Menge von abstrakten Objekten, für die die Zahlen des Alltags ‚Beispiele‘ sind, genauso ist auch das Konzept der Turingmaschine ein rein abstraktes Gebilde, für das man konkrete Beispiele angeben kann, die aber das mathematische Konzept selbst nie erschöpfen (die Turingmaschine hat z.B. ein unendliches Schreib-Lese-Band, etwas, das niemals real existieren kann).
    ]

  19. [Anmerkung: Das Interessante ist nun, dass man z.B. die Funktion des Ribosoms strukturell mit dem Konzept einer Turingmaschine beschreiben kann (vgl. Bild). Das Ribosom ist jene Funktionseinheit von Molekülen, die einen Input bestehend aus mRNA und tRNAs überführen kann in einen Output bestehend aus einem Protein. Dies ist nur möglich, weil das Ribosom die mRNA als Kette von Informationseinheiten ‚interpretiert‘ (dekodiert), die dazu führen, dass bestimmte tRNA-Einheiten zu einem Protein zusammengebaut werden. Mathematisch kann man diese funktionelle Verhalten eines Ribosoms daher als ein ‚Programm‘ beschreiben, das gleichbedeutend ist mit einer ‚Funktion‘ bzw. Abbildungsvorschrift der Art ‚RIBOSOM: mRNA x tRNA —> PROTEIN. Das Ribosom stellt somit eine chemische Variante einer Turingmaschine dar (statt digitalen Chips oder Neuronen). Bleibt die Frage, wie es zur ‚Ausbildung‘ eines Ribosoms kommen kann, das ’synchron‘ zu entsprechenden mRNA-Molekülen die richtige Abbildungsvorschrift besitzt.
    ]
  20. Eine andere Blickweise auf das Phänomen der Information ist jene des Mathematikers Chaitin, der darauf aufmerksam gemacht hat, dass man das ‚Programm‘ eines Computers (sein Algorithmus, seine Abbildungsfunktion, seine Dekodierungsfunktion…) auch als eine Zeichenkette auffassen kann, die nur aus Einsen und Nullen besteht (also ‚1101001101010..‘). Je mehr Wiederholungen solch eine Zeichenkette enthalten würde, um so mehr Redundanz würde sie enthalten. Je weniger Wiederholung, um so weniger Redundanz, um so höher die ‚Informationsdichte‘. In einer Zeichenkette ohne jegliche Redundanz wäre jedes einzelne Zeichen wichtig. Solche Zeichenketten sind formal nicht mehr von reinen zufallsbedingten Ketten unterscheidbar. Dennoch haben biologisch nicht alle zufälligen Ketten eine ’nützliche‘ Bedeutung. DNA-Moleküle ( bzw. deren Komplement die jeweiligen mRNA-Moleküle) kann man wegen ihrer Funktion als ‚Befehlssequenzen‘ als solche binär kodierten Programme auffassen. DNA-Moleküle können also durch Zufall erzeugt worden sein, aber nicht alle zufälligen Erzeugungen sind ’nützlich‘, nur ein verschwindend geringer Teil.  Dass die ‚Natur‘ es geschafft hat, aus der unendlichen Menge der nicht-nützlichen Moleküle per Zufall die herauszufischen, die ’nützlich‘ sind, geschah einmal durch das Zusammenspiel von Zufall in Gestalt von ‚Mutation‘ sowie Auswahl der ‚Nützlichen‘ durch Selektion. Es stellt sich die Frage, ob diese Randbedingungen ausreichen, um das hohe Mass an Unwahrscheinlichkeit zu überwinden. (vgl. SS. 119-122)
  21. [Anmerkung: Im Falle ‚lernender‘ Systeme S_learn haben wir den Fall, dass diese Systeme einen ‚Kode‘ ‚lernen‘ können, weil sie in der Lage sind, Ereignisse in bestimmter Weise zu ‚bearbeiten‘ und zu ’speichern‘, d.h. sie haben Speichersysteme, Gedächtnisse (Memory), die dies ermöglichen. Jedes Kind kann ‚lernen‘, welche Ereignisse welche Wirkung haben und z.B. welche Worte was bedeuten. Ein Gedächtnis ist eine Art ‚Metasystem‘, in dem sich ‚wahrnehmbare‘ Ereignisse E in einer abgeleiteten Form E^+ so speichern (= spiegeln) lassen, dass mit dieser abgeleiteten Form E^+ ‚gearbeitet‘ werden kann. Dies setzt voraus, dass es mindestens zwei verschiedene ‚Ebenen‘ (layer, level) im Gedächtnis gibt: die ‚primären Ereignisse‘ E^+ sowie die möglichen ‚Beziehungen‘ RE, innerhalb deren diese vorkommen. Ohne dieses ‚Beziehungswissen‘ gibt es nur isolierte Ereignisse. Im Falle multizellulärer Organismen wird diese Speicheraufgabe durch ein Netzwerk von neuronalen Zellen (Gehirn, Brain) realisiert. Der einzelnen Zelle kann man nicht ansehen, welche Funktion sie hat; nur im Zusammenwirken von vielen Zellen ergeben sich bestimmte Funktionen, wie z.B. die ‚Bearbeitung‘ sensorischer Signale oder das ‚Speichern‘ oder die Einordnung in eine ‚Beziehung‘. Sieht man mal von der spannenden Frage ab, wie es zur Ausbildung eines so komplexen Netzwerkes von Neuronen kommen konnte, ohne dass ein einzelnes Neuron als solches ‚irgend etwas weiß‘, dann stellt sich die Frage, auf welche Weise Netzwerke von Molekülen ‚lernen‘ können.  Eine minimale Form von Lernen wäre das ‚Bewahren‘ eines Zustandes E^+, der durch ein anderes Ereignis E ausgelöst wurde; zusätzlich müsste es ein ‚Bewahren‘ von Zuständen geben, die Relationen RE zwischen primären Zuständen E^+ ‚bewahren‘. Solange wir es mit frei beweglichen Molekülen zu tun haben, ist kaum zu sehen, wie es zu solchen ‚Bewahrungs-‚ sprich ‚Speicherereignissen‘ kommen kann. Sollte es in irgend einer Weise Raumgebiete geben, die über eine ‚hinreichend lange Zeit‘ ‚konstant bleiben, dann wäre es zumindest im Prinzip möglich, dass solche ‚Bewahrungsereignisse‘ stattfinden. Andererseits muss man aber auch sehen, dass diese ‚Bewahrungsereignisse‘ aus Sicht eines möglichen Kodes nur möglich sind, wenn die realisierenden Materialien – hier die Moleküle bzw. Vorstufen zu diesen – physikalisch-chemische Eigenschaften aufweisen, die grundsätzlich solche Prozesse nicht nur ermöglichen, sondern tendenziell auch ‚begünstigen‘, und dies unter Berücksichtigung, dass diese Prozesse ‚entgegen der Entropie‘ wirken müssen. Dies bedeutet, dass — will man keine ‚magischen Kräfte‘ annehmen —  diese Reaktionspotentiale schon in den physikalisch-chemischen Materialien ‚angelegt‘ sein müssen, damit sie überhaupt auftreten können. Weder Energie entsteht aus dem Nichts noch – wie wir hier annehmen – Information. Wenn wir also sagen müssen, dass sämtliche bekannte Materie nur eine andere Zustandsform von Energie ist, dann müssen wir vielleicht auch annehmen, dass alle bekannten ‚Kodes‘ im Universum nichts anderes sind als eine andere Form derjenigen Information, die von vornherein in der Energie ‚enthalten‘ ist. Genauso wie Atome und die subatomaren Teilchen nicht ’neutral‘ sind sondern von vornherein nur mit charakteristischen (messbaren) Eigenschaften auftreten, genauso müsste man dann annehmen, dass die komplexen Kodes, die wir in der Welt und dann vor allem am Beispiel biologischer Systeme bestaunen können, ihre Wurzeln in der grundsätzlichen ‚Informiertheit‘ aller Materie hat. Atome formieren zu Molekülen, weil die physikalischen Eigenschaften sie dazu ‚bewegen‘. Molkülnetzwerke entfalten ein spezifisches ‚Zusammenspiel‘, weil ihre physikalischen Eigenschaften das ‚Wahrnehmen‘, ‚Speichern‘ und ‚Dekodieren‘ von Ereignissen E in einem anderen System S grundsätzlich ermöglichen und begünstigen. Mit dieser Annahme verschwindet ‚dunkle Magie‘ und die Phänomene werden ‚transparent‘, ‚messbar‘, ‚manipulierbar‘, ‚reproduzierbar‘. Und noch mehr: das bisherige physikalische Universum erscheint in einem völlig neuen Licht. Die bekannte Materie verkörpert neben den bislang bekannten physikalisch-chemischen Eigenschaften auch ‚Information‘ von ungeheuerlichen Ausmaßen. Und diese Information ‚bricht sich selbst Bahn‘, sie ‚zeigt‘ sich in Gestalt des Biologischen. Das ‚Wesen‘ des Biologischen sind dann nicht die ‚Zellen als Material‘, das Blut, die Muskeln, die Energieversorgung usw., sondern die Fähigkeit, immer komplexer Informationen aus dem Universum ‚heraus zu ziehen, aufzubereiten, verfügbar zu machen, und damit das ‚innere Gesicht‘ des Universums sichtbar zu machen. Somit wird ‚Wissen‘ und ‚Wissenschaft‘ zur zentralen Eigenschaft des Universums samt den dazugehörigen Kommunikationsmechanismen.]

  22. Fortsetzung Teil 3

Einen Überblick über alle bisherigen Themen findet sich HIER

Zitierte  Literatur:

Chaitin, G.J. Information, Randomness & Incompleteness, 2nd ed.,  World Scientific, 1990

Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).

 Interessante Links:

Ein Video in Youtube, das eine Rede von Pauls Davies dokumentiert, die thematisch zur Buchbesprechung passt und ihn als Person etwas erkennbar macht.

Teil 1:
http://www.youtube.com/watch?v=9tB1jppI3fo

Teil 2:
http://www.youtube.com/watch?v=DXXFNnmgcVs

Teil 3:
http://www.youtube.com/watch?v=Ok9APrXfIOU

Teil 4:
http://www.youtube.com/watch?v=vXqqa1_0i7E

Part 5:
http://www.youtube.com/watch?v=QVrRL3u0dF4
Es gibt noch einige andere Videos mit Paul Davies bei Youtube.

Philosophie im Kontext – Teil2 – Irrtum!

Das Diagramm im letzten Beitrag über Philosophie im Kontext ist falsch, nicht so sehr in den Details, sondern in der grundlegenden Logik.

Philosophie im Kontext - FalschBild 1

Eine korigierte Version könnte wie folgt aussehen:

Philosophie im Kontext - NeuBild 2

 

(1) In dem vorausgehenden Beitrag hatte ich versucht, auf der Basis der philosophischen Überlegungen seit Januar (letztlich natürlich noch Monate und Jahre weiter zurück) in einem Diagramm die grundsätzlichen Verhältnisse zu skizzieren, die man berücksichtigen muss, will man über das Zusammenspiel all der verschiedenen möglichen wissenschaftlichen und philosophischen Theorien sprechen, einschließlich des alltäglichen Denkens.

 

(2) Dabei ist mir ein gravierender Fehler unterlaufen, der natürlich nicht zufällig ist, sondern aus der Art und Weise resultiert, wie unser Denken funktioniert.

 

 

(3) Das Bild, so wie es jetzt ist (siehe Bild 1), zeigt — wie in einer Landkarte — das erkennende Individuum aus einer ‚Draufsicht‘ (3.Person) mit seinem Körper, darin enthalten sein Gehirn, und innerhalb des Gehirns irgendwo die subjektiven Erlebnisse als ‚Phänomene [PH]‘.

 

(4) Der Fehler liegt darin begründet, dass das subjektive Erkennen niemals als ‚Objekt einer dritten Person-Perspektive‘ auftreten kann. Das ist ja gerade das Besondere der subjektiven Erkenntnis, dass sie die ‚Innenansicht‘ eines Gehirns ist, das subjektive Erleben eines bestimmten Menschen (oder auch mit Abwandlungen eines Tieres), ’seines‘ Erlebens, bei Husserl dem ‚transzendentalen ego‘ zugeordnet. D.h. das ‚primäre Erkennen‘ ist in einem subjektiven Erleben verortet, das als solches kein Objekt einer dritten Person sein kann.

 

(5) Diesem Sachverhalt trägt Bild 2 Rechnung. Das Erkennen startet dort bei der Menge der Phänomene. Wie Husserl – und auch viele andere – zurecht herausgestellt hat, sind die Phänomene aber nicht nur ‚in sich geschlossene Objekte‘, sondern ‚phänomenologische Tatbestände‘ in dem Sinne, dass ihr ‚Vorkommen/ Auftreten‘ begleitet ist von einem ‚Wissen über sie‘; jemand, der ‚etwas erkennt‘, ‚weiß‘ dass er erkennt. Das wird im Diagramm durch den Pfeil mit dem Label ‚Reflexion‘ ausgedrückt: Im ‚Wissen um etwas‘ – Husserl nennt dies ‚Intentionalität‘ des Erkennens – können wir alles, was der Inhalt dieses primären Wissens ist, hinsichtlich möglicher unterscheidbarer Eigenschaften ‚explizit unterscheiden‘ und ‚bezugnehmende Konzepte‘ bilden.

 

 

(6) Und da der Mensch – in Ansätzen auch einige Tierarten – die wundersame Fähigkeit besitzt, ‚Gewusstes‘ [PH_Non-L] in Beziehung zu setzen (assoziieren, Assoziation) zu anderem Gewussten, das als ‚verweisenden Etwas‘ (Zeichen) [PH_L] dienen soll, kann der erkennende Mensch die ‚Inhalte seines Bewusstseins‘ – die Phänomene [PH] – mit Hilfe solcher verweisender Zeichen ‚kodieren‘ und dann unter Verwendung solcher kodierender Zeichen ‚Netzwerke solcher Zeichen‘ bilden, die – je nach ‚Ordnungsgrad‘ – mehr oder weniger ‚Modelle‘ oder gar ‚Theorien‘ bilden können.

 

(7) Da das begleitende Wissen, die Reflexion, in der Lage ist, auch ‚dynamische Eigenschaften‘ der Phänomene zu erfassen (‚Erinnern‘, ‚Vorher – nachher‘,…) kann diese Reflexion auch – nach sehr vielen Reflexionsschritten – unterscheiden zwischen jenen Phänomenen, die geschehen ‚ohne eigenes Zutun‘ (ohne eigenes ‚Wollen‘) und den anderen. Das ‚ohne eigenes Zutun‘ kann aus jenen Bereichen des ‚eigenen Körpers‘ herrühren, die die Reflexion ’nicht unter Kontrolle‘ hat oder aus Bereichen ‚außerhalb des Körpers‘, den wir dann auch ‚intersubjektiv‘ nennen bzw. neuzeitlich ‚empirisch‘ [PH_emp].

 

 

(9) In einer phänomenologischen Theorie [TH_ph], deren Gegenstandsbereich die subjektiven Erlebnisse [PH] sind, kann man daher die charakteristische Teilmenge der empirischen Phänomene [PH_emp] identifizieren. Daneben – und zugleich – kann man all die anderen Eigenschaften der Phänomene samt ihrer ‚Dynamik‘ unterscheiden und begrifflich ausdrücklich machen. Eine genaue Beschreibung aller möglicher Unterscheidung ist sehr komplex und ich habe nicht den Eindruck, dass irgend jemand dies bis heute erschöpfend und befriedigend zugleich geleistet hat. Möglicherweise kann dies auch nur als ein ‚Gemeinschaftswerk‘ geschehen. Dazu müsste man eine geeignete Methodik finden, die dies ermöglicht (vielleicht sind wir Menschen technologisch erst jetzt (2012, ca. 13.7 Milliarden Jahre nach dem Big Bang, ca. 3.7 Milliarden Jahre nach dem ersten Auftreten von lebensrelevanten Molekülen auf der Erde…) langsam in der Lage, eine solche Unternehmung einer ‚gemeinsamen Theorie des menschlichen phänomenalen Bewusstseins‘ in Angriff zu nehmen).

 

(10) Vieles spricht dafür, dass die unterschiedlichen Versuche von Philosophen, die Vielfalt der Reflexionsdynamik (und deren ‚Wirkungen‘ auf den Bewusstseinsinhalt) mit Hilfe von sogenannten ‚Kategorientafeln‘ zu strukturieren (keine gleicht wirklich völlig der anderen), in diesen Kontext der Bildung einer ‚phänomenologischen Theorie‘ [TH_ph] gehört. Idealerweise würde man – zumindest einige der bekanntesten (Aristoteles, Kant, Peirce, Husserl,…) – vor dem aktuellen Hintergrund neu vergleichen und analysieren. Sofern diese die Struktur der Dynamik des ’sich ereignenden Denkens‘ beschreiben, müssten diese Kategorientafeln letztlich alle ’strukturell gleich‘ sein. Dabei unterstellen wir, dass die Dynamik des Denkens der einzelnen Menschen aufgrund der Gehirnstruktur ‚hinreichend ähnlich‘ ist. Dies ist aber streng genommen bis heute nicht erwiesen. Die vielen neuen Erkenntnisse zur Gehirnentwicklung und zum individuellen Lernen (einschließlich der emotionalen Strukturen) legen eher die Vermutung nahe, dass es sehr wohl individuelle Unterschiede geben kann in der Art und Weise, wie einzelne Menschen die Welt ‚verarbeiten‘. Träfe dies zu, hätte dies natürlich weitreichende Folgen für die Alltagspraxis und die Ethik (und die Moral und die Gesetze…).

 

 

(11) Hat man sich dies alles klar gemacht, dann wundert es nicht mehr, dass die Bildung wissenschaftlicher empirischer Theorien [TH_emp] nicht ‚außerhalb‘ einer phänomenologischen Theoriebildung stattfinden kann, sondern nur ‚innerhalb‘, und zwar aus mindestens zwei Gründen: (i) die Menge der empirischen Phänomene [PH_emp] ist eindeutig eine echte Teilmenge aller Phänomene [PH], also PH_emp subset PH. (ii) Die empirische Theorie TH_emp entsteht im Rahmen und unter Voraussetzung der allgemeinen Reflexion, die unser primäres Denken ermöglicht und ausmacht; wir haben kein ‚zweites‘ Denken daneben oder ‚jenseits‘ im ‚Irgendwo‘. Dies erklärt auch sehr einfach das häufig bemerkte Paradox der Metatheorie: Theorien sind nur möglich, weil wir ‚über‘ (Alt-Griechisch: ‚meta‘) sie ’nachdenken‘ können. Dieses ‚Nachdenken über‘ (Metareflexion‘) ist unter Annahme der allem Denken vorausgehenden und begleitenden primären Reflexion keine Überraschung. Was immer wie uns ‚ausdenken‘, es geschieht im Rahmen der primären Reflexion und von daher kann auch alles und jedes, was wir jemals gedacht haben oder uns gerade denken beliebig miteinander in Beziehung gesetzt werden. Bezogen auf diese vorausgehende und begleitende Reflexion ist jeder ‚Denkinhalt‘ grundsätzlich ‚unabgeschlossen‘; die primäre Reflexion ermöglicht eine ‚endliche Unendlichkeit‘, d.h. der prinzipiell nicht abgeschlossene Denkprozess kann – als ‚Prozess‘ – jede endliche Struktur immer wieder und immer weiter ‚erweitern‘, ‚ausdehnen‘, usf.

 

(12) Kennzeichen von neuzeitlichen empirischen Theorien ist ihre Fundierung in ‚empirischen Messverfahren‘ [MEAS]. Kennzeichen dieser empirischen Messverfahren ist es, dass sie unabhängig vom Körper eines Menschen und auch unabhängig von seinem individuellen Erkennen, Fühlen und Wollen bei gleicher ‚Durchführung‘ immer wieder die ‚gleichen Messergebnisse‘ [DATA_emp] liefern sollen. Ob und wieweit solche ‚unabhängigen‘ Messungen tatsächlich durchgeführt werden können ist eine ‚praktische‘ und ‚technologische‘ Frage. Die Geschichte zeigt, dass dieses Konzept auf jeden Fall trotz aller Probleme im Detail bislang extrem erfolgreich war.

 

(13) Allerdings ist hier folgender Umstand zu beachten: obwohl die Messergebnisse [DATA_emp] als solche idealerweise ‚unabhängig‘ vom Fühlen, Denken und Wollen eines Menschen erzeugt werden sollen, gelangen dieses Messergebnisse erst dann zu einer ‚theoretischen Wirkung‘, wenn es irgendwelche Menschen gibt, die diese Messergebnisse DATA_emp ‚wahrnehmen‘ (Englisch: perception, abgekürzt hier als ‚perc‘) können, damit sie als ‚auftretende Phänomene‘ – und zwar hier dann als empirische Phänomene [PH_emp] – in den Bereich des ‚Wissens‘ eintreten, also perc: DATA_emp —> PH_emp. Dies bedeutet, der besondere Charakter von empirischen Phänomenen haftet ihnen nicht als ‚gewussten Eigenschaften‘, nicht qua ‚Phänomen‘ an, sondern nur im Bereich ihrer ‚Entstehung‘, ihres ‚Zustandekommens‘ (aus diesem – und nur aus diesem – Grund ist es so wichtig, beim Umgang mit Phänomenen jeweils klar zu kennzeichnen, ‚woher diese stammen), der ihrem ‚Phänomensein‘ ‚vorausliegt‘.

 

 

(14) In dem Masse nun, wie wir mittels empirischer Messungen Daten über das beobachtbare menschliche Verhalten [DATA_sr], über physiologische Eigenschaften des Körpers [DATA_bd] bzw. auch über Eigenschaften des Nervennetzes im Körper (‚Gehirn‘) [DATA_nn] gewonnen haben, können wir versuchen, basierend auf diesen verschiedenen Daten entsprechende wissenschaftliche Theorien TH_sr, TH_bd, TH_nn zu formulieren, die die Gesetzmäßigkeiten explizit machen, die durch die Daten sichtbar werden.

 

(15) Der wichtige Punkt hier ist, dass alle diese Theorien nicht ‚unabhängig‘ oder ‚jenseits von‘ einer phänomenologischen Theorie zu verorten sind, sondern ‚innerhalb‘ von dieser! Jede beliebige Theorie kann immer nur eine Theorie ‚innerhalb‘ der umfassenden und zeitlich wie logisch vorausgehenden phänomenologischen Theorie sein. Eine spezifische empirische Theorie [TH_i] zeichnet sich ja gerade dadurch aus, dass sie sich auf eine echte Teilmenge [PH_i] aller verfügbarer Phänomene [PH] beschränkt. Gerade in dieser methodischen Beschränkung liegt – wie der Gang der Geschichte uns lehrt – der große Erfolg dieser Art von Theoriebildung. Zugleich wird aber auch deutlich, dass jede dieser speziellen Theorien TH_i aufgrund ihrer speziellen Datenmengen DATA_i (denen die entsprechenden Phänomenmengen PH_emp_i] korrespondieren) zunächst einmal nichts mit einer der vielen anderen speziellen Theorien TH_j TH_i zu tun hat. Es ist eine eigene theoretische Leistung, Querbeziehungen herzustellen, strukturelle Ähnlichkeiten aufzuzeigen, usw. Dies fällt dann in den Bereich ‚interdisziplinärer Theoriebildung‘, ist ‚Metatheorie‘. Diese Art von metatheoretischen Aktivitäten ist aber nur möglich, da die primäre Reflexion alle Arten von speziellen Reflexionen zeitlich und logisch vorausgeht und das entsprechende ‚Instrumentarium‘ zur Verfügung stellt.

 

(16) In diesem Kontext ist unmittelbar einsichtig, dass subjektives Wissen prinzipiell kein Gegenstand empirischer Theoriebildung sein kann. Im Umfeld der modernen Neurowissenschaften (einschließlich Neuropsychologie) sowie im Bereich der Psychologie ist dieser grundsätzliche Tatbestand – so scheint es – bislang methodisch nicht wirklich sauber geklärt. In unzähligen Experimenten mischen sich klare empirische Vorgehensweisen mit der Benutzung von subjektiven Daten, was methodisch ungeklärt ist. Dies durchzieht alle ‚Kreise‘.

 

(17) Will man von der einzigartigen Datenquelle des primären Wissens PH für wissenschaftliche empirische Forschung PH_emp profitieren, bietet sich bislang einzig ein ‚hybrides‘ Vorgehen an, in dem ein Mensch sein eigenes subjektives Wissen PH auf der Basis einer ‚zeitlichen Korrelation‘ (t,t‘) mit empirischen Daten PH_emp, die von anderen Wissenschaftlern mittels Messungen über seinen Körper und sein Nervennetz erhoben werden. Also etwa CORR((t,t‘), PH, PH_emp). Dies ist zwar mühsam und fehleranfällig, aber die einzige methodische Möglichkeit, mit diesen ungleichen Phänomenmengen zurecht zu kommen (Mir ist nicht bekannt, dass irgendjemand diese scharfe methodische Forderung bislang erhebt geschweige denn, dass irgend jemand danach tatsächlich vorgeht).

 

(18) Für die weiteren Überlegungen soll versucht werden, diesen methodologischen Anforderungen gerecht zu werden.

 

(19) Es zeigt sich nun auch sehr klar, dass und wie das philosophische Denken gegenüber allen anderen theoretischen Erklärungsansätzen tatsächlich eine Sonderstellung einnimmt. Das philosophische Denken ist das fundamentale Denken, das jeglichem speziellen Denken zeitlich und logisch voraus liegt, nicht als Gegensatz oder als etwas ganz Anderes, sondern als das primäre Medium innerhalb dessen sich alles andere ‚abspielt‘. Während ich eine spezielle empirische Theorie als ‚Objekt des Wissens‘ klar abgrenzen und beschreiben kann, ist die dazu notwendige Metareflexion als solche kein ‚Objekt des Wissens‘, sondern immer nur ein nicht weiter hintergehbares ‚Medium‘, eben das ‚Denken‘, in dem wir uns immer schon vorfinden, das wir nicht erst ‚machen‘, das wir nur ‚benutzen‘ können. Die ‚Eigenschaften‘ dieses unseres Denkens ‚zeigen‘ sich damit auch nur ‚indirekt‘ durch die ‚Wirkung‘ der Denkaktivität auf die Inhalte des Bewusstseins (Eine Kooperation von empirischer Psychologie TH_emp_psych und phänomenologischer Analyse TH_ph kann hilfreich sein, allerdings sind die Gegenstandsbereiche DATA_emp_psych als PH_emp_psych und PH komplett verschieden und wirklich interessant würde es erst dann, wenn wir eine TH_emp_psych einer TH_ph gegenübersetzen könnten (bislang sehe ich nirgends – nicht einmal in Ansätzen – eine phänomenologische Theorie, die diesen Namen verdienen würde, noch eine wirkliche empirische psychologische Theorie, und das im Jahr 2012).

 

 

Ein Überblick über alle bisherigen Einträge findet sich hier.

 

 

In dem Online-Skript General Computational Learning Theory versuche ich, diese erkenntnisphilosophischen Aspekte zu berücksichtigen. Ich kann in diesem Skript allerdings nur einen Teilbereich behandeln. Aber aus diesen sehr abstrakt wirkenden Überlegungen ist meine ‚Rückkehr zur Philosophie‘ entscheidend mitbeeinflusst worden.

 

 

 

 

 

SINN, SINN, und nochmals SINN

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 20.März 2012
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Letzte Änderungen: 16.Februar 2019 (Kontext eingefügt sowie im Text kursive Hervorhebungen)

KONTEXT

Zum Thema ‚Sinn‘ hab es zwei  vorausgehende Beiträge mit den Titel „Zur Grammatik des Sinns„ sowie „Weil es Sinn gibt, kann sich Wissen akkumulieren, das Sinn sichtbar macht. Oder: warum die Frage ‚Warum gerade ich?‘ in die Irre führen kann„. Beide Beiträge sind ziemlich  grundsätzlich und können den vorliegenden Text weiter vertiefen.

(1) Wie die vorausgehenden Beiträge auf unterschiedliche Weise gezeigt haben, führt die Frage nach dem ‚Sinn‘ (eng verknüpft mit der Frage nach der Wahrheit), wenn man sie ernsthaft stellt, schnell auf allerlei ‚Randbedingungen‘ des ‚Erkennens‘, die nicht nur ‚passiver Natur‘ sind (was ‚uns geschieht‘), sondern zugleich auch vielfältiger ‚aktiver‘ Momente (was ‚wir tun‘), damit wir überhaupt etwas erkennen, ‚wie‘ wir erkennen, ‚wann‘, ‚wo‘, usw. ‚Erkennen‘ zeigt sich somit als ein komplexes Geschehen, eingebettet in eine Vielzahl von Randbedingungen, die eine unüberschaubare Anzahl von Möglichkeiten zulassen.

(2) In jeder dieser unendlich vielen Kombinationen haben wir ein Erkenntniserlebnis, was immer auch die aktuelle Konstellation sein mag (Fernsehen gucken, Lesen, Laufen, reden, arbeiten, Malen, Streiten, Internet surfen, ….). Dieses aktuelle Erlebnis ist als Erlebnis ‚real‘. Wir können uns diesem realen Erleben nicht entziehen. Wir sind ‚mitten drin‘. Und wenn wir über das, was wir erleben, nicht explizit und zusätzlich ’nachdenken‘ (reflektieren…), dann ist die Welt das, was wir aktuell faktisch erleben (Wittgensteins berühmter Satz ‚Die Welt ist, was der Fall ist‘ (der in einem ganz bestimmten Kontext geäußert wurde) würde hier jetzt genau dies bedeuten: die Welt ist, was ich erlebe (was Wittgenstein genau vehement abstreiten würde (das war sein Problem…)). Denn nur das haben wir zur Verfügung (oder, wie zuvor mehrfach ausgeführt, das ist das, was das Gehirn ’sich selbst‘ aufgrund der verfügbaren Signale ‚zubereitet‘ (… wobei ‚Gehirn‘ ein komplexes theoretisches Konzept ist, dessen Anführung in diesem Kontext für viele Leser eher irreführend als zielführend sein kann)).

(3) Was die Sache mit dem Erleben (aus theoretischer Sicht) ’schwierig‘ macht (mit den entsprechenden weitreichenden Folgen für das alltägliche praktische Leben), ist die Tatsache, dass unser Erleben (wie jetzt schon oft besprochen) keine 1-zu-1-Abbildung von ‚Dingen außerhalb des Körpers‘ ist, sondern eine permanente dynamische Konstruktionsleistung unseres Gehirns, das aktuell verfügbare Signale mit schon zuvor ‚erworbenen (gelernten?)‘ Daten (Erinnerung, Gedächtnis) ‚verrechnet‘ und ‚Arbeitshypothesen‘ entwickelt, wie das alles ‚zusammenpassen‘ (Kohärenz, Konsistenz…) kann. Da das Gehirn endlich ist und in knapp bemessener Zeit aus einer Signalflut permanent auswählen muss, fallen beständig Sachen unter den Tisch, werden ausgeklammert, werden Dinge ‚vereinfacht‘ usw. Auf der ‚Habenseite‘ dieses atemberaubenden Geschehens verbleibt aber ein ‚Erkenntniseindruck‘, der ‚uns‘ das Gefühl vermittelt, wir ’sehen‘ etwas, wir ‚hören‘, usw.

(4) Dieser permanente Rückgriff auf ’schon Bekanntes‘ hat den großen Vorteil, dass die meist unvollkommenen Daten durch den Bezug auf ‚Ähnliches‘ ‚ergänzt‘ (interpretiert, gedeutet…) werden können und damit der ‚Entscheidungsprozess‘ während der ‚Berechnung‘ der ‚möglichen Strukturen in den Signalströmen‘ in Richtung des ’schon Bekannten‘ geleitet und damit abgekürzt werden kann (in Experimenten im Rahmen der Phonetik konnte man zeigen, dass Menschen bei der Identifizierung von akustischen Signalen ohne ‚Kontextwissen‘ deutlich schlechter waren, als mathematische Algorithmen für die Signalerkennung. Sobald die Menschen aber nur ein wenig Kontextwissen besaßen, waren sie den Algorithmen (nachvollziehbarerweise) deutlich überlegen. Andererseits konnte man sie dadurch aber auch gezielter ‚manipulieren‘: wenn man weiß, welches Kontextwissen bei einem bestimmten Menschen ‚dominant‘ ist, dann kann man ihm Daten so servieren, dass er diese Daten ’spontan‘ (wenn er nicht kritisch nachdenkt) im Sinne seines Kontextwissens interpretiert und damit zu ‚Schlüssen‘ kommt, die mit der tatsächlich auslösenden Situation gar nichts mehr zu tun haben).

(5) Diese ambivalente Rückwirkung des ’schon Bekannten‘ wird noch komplexer, wenn man berücksichtigt, dass mit dem Erlernen einer Sprache die ‚Gegenstandswelt‚ erweitert wird um eine ‚Welt der Zeichen‚, die auf diese Gegenstandswelt (und auf sich selbst!) auf vielfältige Weise ‚verweisen‘ kann. Ein sprachlicher Ausdruck als solcher ist auch ein reales Erlebnis, das aber – im Normalfall – von sich weg auf etwas ‚Anderes‘, auf seine ‚Bedeutung‘ ‚verweist‘. Jede mögliche Bedeutung ist letztlich immer erst mal wieder nur ein Erlebnis, das irgendwann einmal stattgefunden hat, und sei es als bloß ‚Imaginiertes/ Vorgestelltes/…‘. D.h. die Verwendung der Sprache als solche führt nicht grundsätzlich über den Bereich des Erlebbaren hinaus. Ein Denken mit Hilfe von sprachlichen Ausdrücken ist nur ’strukturierter‘, ‚berechenbarer‘, ‚handhabbarer‘ als ein Denken ohne sprachliche Ausdrücke. Sprache erlaubt die ‚wunderbare Vermehrung der Dinge‘, ohne dass real die Dinge tatsächlich vermehrt oder verändert werden (ein Roman von vielen hundert oder gar über tausend Seiten kann für den Leser ein sehr intensives ‚Erlebnis‘ erzeugen, gestiftet von einem bunten Strauss von sprachlich induzierten ‚Vorstellungen‘, die als solche real sind, ohne dass diesen Vorstellungen irgendetwas in der Außenwelt entsprechen muss.

(6) Mit den modernen Medien (Film, Fernsehen, Video, Computeranimation…) wird die Erzeugung von ‚Vorstellungen‘ nach ‚außen‘ verlagert in ein Medium, das Erlebnisse erzeugt ’scheinbar wie die Außenwelt‘, die aber ‚willkürlich erzeugt‘ wurden und die mit der empirisch-realen Welt nichts zu tun haben müssen. Dem ‚Erlebnis als solchem‘ kann man dies u.U. Nicht mehr ansehen, sofern man nicht (wie auch in allen anderen Fällen) sehr bewusst ‚kritisch‘ Randbedingungen überprüft und berücksichtigt. Während das Lesen eines Romans ‚als Lesen‘ deutlich macht, dass alle durch das Lesen induzierten Erlebnisse ‚künstlich‘ sind, kann das sehen/ hören/ fühlen… eines künstlichen Mediums die Einsichtsschwelle in die ‚Künstlichkeit‘ immer ‚höher‘ legen. Ein Film über ‚Erfundenes‘ neben einem Film über ‚empirisch-Reales‘ ist nicht mehr ohne weiteres identifizierbar.

(7) Sofern man nicht explizit die Frage nach der ‚Wahrheit‘ stellt (ich definiere ‚Wahrheit‘ hier jetzt nicht; siehe dazu die vorausgehenden Reflexionen) sind alle diese möglichen Erlebniswelten (real-empirisch bezogen oder beliebig generiert) aus Sicht des Erlebens ‚gleichwertig‘. Wer hier nicht ausdrücklich immer darauf achtet, was wann wie von wem mit welcher Absicht usw. ‚erzeugt‘ wurde, für den verschwimmen alle diese erlebnisfundierten Bilder zu einem großen Gesamtbild, wo jedes jedes ‚interpretiert‘ und wo die Frage nach der Wahrheit aus den Händen gleitet. Dennoch bieten alle diese Bilder – so verzerrt und willkürlich sie auch sein mögen – für den, der sie ‚hat‘ eine ‚Interpretation‘ und damit einen ‚möglichen Sinn‘. Ohne die ‚Gewichtung‘ durch den Aspekt der Wahrheit sind alle diese ‚möglichen Sinne‘ ‚gleichwertig‘. Es gibt im Bereich des möglichen Sinns keine ausgezeichnete Instanz, die einen besonderen Vorzug verdienen würde. Entsprechend ‚bunt‘ ist das Bild, das sich bietet, wenn man schaut, was Menschen alles für ’sinnvoll‘ halten. Es kann für jemand anderen noch so ‚grotesk‘ erscheinen, für den ‚Besitzer‘ dieses Sinns ist es ‚der allein Seligmachende‘.

(8) Wie gesagt, solange man die Frage nach der ‚Wahrheit‘ ausklammert, geht alles. Die Frage nach der Wahrheit wiederum setzt eine ‚kritische Reflexion‘ auf Randbedingungen voraus. Wie der Alltag zeigt, ist aber den meisten Menschen gar nicht klar, was ‚kritische Reflexion‘ praktisch bedeutet. Selbst wenn sie ‚kritisch reflektieren‘ wollten, sie könnten es nicht. Millionen von Menschen sind zwar bereit, viel Geld, viel persönliche Zeit, ja sogar ihr ganzes persönliche Leben, in ‚Gefolgschaften‘ von Kursen und Organisationen zu investieren, ohne ein Minimum an kritischem Denken dafür zurück zu bekommen. Das ‚Verwirrspiel‘ um den ‚Sinn‘, um den ‚Lebenssinn‘, um den ‚wahren Sinn‘ wird damit nur schlimmer und furchtbarer. Meist werden ein paar Leute dadurch sehr viel reicher, und viele andere sehr viel ärmer. So etwas sollte immer als ein mögliches Alarmzeichen dienen, um darauf aufmerksam zu machen, dass es bei solchen Veranstaltungen (das müssen nicht nur sogenannte ‚Sekten‘ sein, das kann — wie wir täglich leidvoll dazu lernen — jede Art von sogenannten ‚Beratern‘ sein) nicht um ‚wahren Sinn‘ geht, sondern um simple materielle Vorteile einzelner auf Kosten anderer.

(9) Das Thema ist damit nicht erschöpft (was ja auch die vorausgehenden Eindrücke zusätzlich belegen können), …es ist nur eine ‚Notiz‘ zwischendurch….

LITERATURNACHWEISE

Wittgenstein, L.: Logisch-philosophische Abhandlung, W. Ostwald (Hrsg.), Annalen der Naturphilosophie, Band 14, 1921, S. 185–262

nachlesbar in:

Wittgenstein, L.: Logisch-philosophische Abhandlung, Tractatus logico-philosophicus. Kritische Edition. Suhrkamp, Frankfurt am Main 1998

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

CARTESIANISCHE MEDITATIONEN III, Teil 8

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 26.Dezember 2011
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

(114) Den rote Faden der Rationalität, der die ‚universale Philosophie‘ mit den ‚Tatsachenwissenschaften‘ verbindet, formuliert Husserl an einer Stelle auch wie folgt: ‚Alle Rationalität des Faktums liegt ja im Apriori. Apriorische Wissenschaft ist Wissenschaft von dem Prinzipiellen, auf das Tatsachenwissenschaft rekurrieren muss, um letztlich, eben prinzipiell begründet zu werden…‘ (vgl. CM2, S.38, Z28f) Dies klingt auf den ersten Blick so klar. Doch lässt man sich auf die Magie der Worte ein, dann können sich zuvorderst erscheinende Strukturen verschieben, und in der Folge weiteren Nachdenkens können Strukturen sichtbar werden, die einfach anders sind.

(115) Beginnen wir mit den Begriffen ‚Apriorische Wissenschaft‘ und ‚Tatsachenwissenschaft‘. Wie so oft, ist der Begriff der ‚Tatsache‘ nicht wirklich definiert. Aus dem Kontext können wir nur erschließen, dass Husserl jene Gegebenheiten meint, die die empirischen Wissenschaften als ‚gültig‘ beschreiben. Aus Sicht der Phänomenologie sind diese als ‚Tatsachen‘ bezeichneten Gegebenheiten zunächst einmal Phänomene wie alle anderen Phänomene auch. Aus Sicht der Phänomenologie gibt es nur die Menge der Phänomene [Ph], wie sie im Bewusstsein erscheinen unabghängig davon, wie eine bestimme Denkdisziplin eine mögliche Teilmenge von diesen darüber hinaus bezeichnet. Wenn also die empirischen Wissenschaften darüber überein gekommen ist, innerhalb der Menge der Phänomene Ph eine bestimmte Teilmenge auszuzeichnen und dieser Teilmenge den Namen ‚empirische Phänomene [Ph_emp]‘ verleihen, dann kann man dies tun; die Menge der empirischen Phänomene Ph_emp bleibt damit aber dennoch primär eine Menge von Phänomenen Ph, also Ph_emp subset Ph.

(116) Husserl charakterisiert den Übergang vom ’naiven‘ Alltagsbewusstsein zum ’nicht-naiven‘ –sprich ‚kritischen‘– philosophischen (phänomenologischen) Bewusstsein   zuvor durch die Reduktion mittels Epoché, durch die Bewusstwerdung davon, dass alles –insbesondere das Weltliche– nur etwas ist im Bewusstsein, als Gegebenes des transzendentalen ego. (vgl. z.B. CM2, S8f) Damit verschwinden keine Phänomene, auch nicht die, die ‚empirisch‘ genannt werden, es wird nur ihre ‚Interpretation‘ als etwas, das  ein ausserhalb des Bewusstsein Liegendes sei (z.B. der Außenraum, das Andere, die Welt), eingeklammert und aller Sinn beschränkt auf jenen Sinn, der sich aus der Unhintergehbarkeit des ‚Im-Wissen-des-Wissens-um-sich-Selbst-und-seiner-Gegebenheiten‘ (zuvor schon abkürzend transzendentales Subjekt trlS bezeichnet) ergibt.

(117) Folgt man diesem Gedanken, stellt sich nur die Frage, wie ein so transzendental bezogenes Gegebenes jemals wieder als ‚Bote einer anderen Welt‘, und zwar wenigstens hypothetisch, gedacht werden kann? Wie kann ein trlS ‚in sich‘ bzw. ‚aus sich heraus‘ jenes ‚Andere‘ erkennen, das von ihm weg auf etwas anderes verweist, ohne dabei das Gegebensein im trlS zu verlieren? Sofern ein bestimmtes Gegebenes nicht im Kontext von speziellen Eigenschaften W  vorkommt, die das trlS dazu ‚berechtigen‘, auf ein ‚jenseits von ihm selbst‘ (ein Transzendentes) verweisen zu können, wird man die Frage negativ bescheiden müssen. Und die vorausgehenden Reflexionen zum husserlschen transzendentalen ego haben ja gerade zum Konzept des trlS geführt, weil im tiefsten Innern des Transzendentalen, in seinem ‚Kern‘, in seiner ‚Wurzel‘,…. das ‚Andere‘ schon immer da ist. Nur weil das ‚Wissen um sich selbst‘ als dieses  spezielle Wissen das im Wissen als etwas Gegebenes als ‚etwas von dem Wissen Verschiedenes‘, als ein ‚wesentlich Anderes‘ schon immer denknotwendig vorfindet, kann das trlS sowohl den Begriff des Anderen denken wie auch den Begriff des ‚für sich Seins‘ eines Anderen. Da dieses Andere in vielfältigen Eigenschaftskombination sowie in mannigfaltigen dynamischen Abläufen auftritt, zeigt sich das Andere nicht nur mit einem ‚Gesicht‘; es kann sehr viele verschiedene Namen bekommen.

(118) Wenn also in der Epoché die ‚Weltgeltung‘ bestimmter Phänomene innerhalb des Wissens um sich selbst thematisiert wird und damit dieses Wissen sich seiner ‚kritischen Funktion‘ bewusst wird, ermöglicht sich zwar auf der einen Seite ein spezieller reflektierender Umgang mit diesen Phänomenen, durch diesen reflektierenden Umgang wird aber die jeweilige ‚phänomenologische Qualität‘, die jeweilige Mischung von Eigenschaften, die ein Phänomen konstituieren, nicht ausgelöscht; diese Eigenschaften bleiben, wie sie sind. Die grundsätzliche (transzendentale!) Andersartigkeit jeden Phänomens bleibt erhalten und innerhalb dieser unhintergehbaren Andersartigkeit deutet sich in vielen Phänomenen samt ihrem Kontext ein ‚Jenseits‘, eine ‚Transzendenz‘ an, die den Phänomenen und der Art ihres Erscheinens ‚innewohnt‘. In diesem Sinne muss man sagen, dass der transzendentale Charakter des ‚Anderem im für uns sein‘ ergänzt werden muss um die Eigenschaft der ‚Transzendenz‘ als etwas dem Anderen wesentlich Zukommendes.

(119) Das Wissen um sich ‚besitzt‘ das andere ’nicht‘, sondern es ‚empfängt‘ es. Anders gewendet, im kontinuierlichen Empfangen des transzendental Anderen ‚zeigt sich‘ (revelare, revelatio, Offenbarung) etwas ganz anderes als wesentlicher Teil unseres für uns Seins. Und da dieses sich kontinuierlich Zeigen (Offenbaren) aufgrund der Endlichkeit jeden einzelnen Phänomens im Kommen und Gehen und ‚zusammenbindenden Erinnern‘ eine ’nicht abschließbare Endlichkeit‘ ist, eine ‚unendliche Endlichkeit‘, verweist jedes konkrete Phänomen durch diese ‚gewusste Nichtabschließbarkeit‘ auf ein ‚Jenseits‘ des aktuell Gegebenen, manifestiert sich eine ‚Transzendenz‘, die im Wissen um sich und für sich zu einem ‚Faktum‘ wird, dessen kontinuierliche Endlichkeit ein Begreifen, ein ‚Gefasstwerden‘, einen Abschluss, eine Einheit, eine …. herausfordert.

(120) Innerhalb der allgemeinen Menge der Phänomene Ph  eine spezielle Menge der empirischen Phänomene Ph_emp aussondern zu können setzt somit voraus, dass diesen ausgesonderten Phänomenen qua Phänomene etwas zukommt, das diese Aussonderung rechtfertigt. Es ist eine Erfahrungstatsache, dass bis auf jene Menschen, die als ‚psychisch gestört‘ klassifiziert werden, zwischen Menschen immer eine Einigung darüber möglich ist, ob ein bestimmtes Phänomen ein empirisches Phänomen x in Ph_emp ist oder nicht x -in Ph_emp. Diese Praxis ist möglich, weil es vorab zu dieser Praxis als notwendige Eigenschaften der empirischen Phänomene etwas gibt, was sie von anderen abhebt und aufgrund deren Gegebenheit Menschen diese Unterscheidung treffen können. Die empirischen Wissenschaften, die sich auf diese Teilmenge Ph_emp der allgemeinen Phänomene Ph berufen, sind in dieser Berufung noch nicht verschieden von der allgemeinen phänomenologischen Philosophie. Die Phänomene als Phänomene sind reell, sind gegeben, unabhängig davon, wie ich sie darüber hinaus ‚interpretiere‘, ob ’naiv‘ hinnehmend oder ‚kritisch‘ einordnend.

(121) Das übliche Kriterium in den empirischen Wissenschaften, mittels dessen die empirischen Phänomene Ph_emp von der allgemeinen Menge der Phänomene Ph ‚ausgesondert‘ wird, ist das ‚Experiment‘. Ein Experiment ist eine Ereignis- bzw. Handlungsfolge,  deren Kennzeichen ist, dass sie jederzeit von jedem wiederholbar sein müssen und dass bei gleichen Ausgangsbedingungen die gleichen (Mess-)Ereignisse  auftreten. Eine detaillierte phänomenologische Beschreibung wäre etwas umfangreicher. An dieser Stelle sollen nur die Kernaussagen festgehalten werden. Dazu bezeichnen wir alle Phänomene, die im Kontext eines Experimentes auftreten, als Ph_exp. Das Experiment als solches ist nicht notwendig, sondern ‚kontingent‘. Man kann ein Experiment durchführen, aber man muss nicht. Allerdings, wenn man ein Experiment durchführt, dann gilt, dass das das zu messende Phänomen Ph_emp  mit ‚Notwendigkeit‘ immer auftritt. Man kann also sagen, die empirischen Phänomene sind eine Schnittmenge aus den allgemeinen Phänomenen und den experimentellen Phänomenen Ph_emp = Ph cut Ph_exp. Mit all diesen Besonderheiten bleiben sie aber genuine Phänomene und fallen nicht aus dem Bereich einer phänomenologischen Reflexion heraus. Ein phänomenologischer Philosoph kann die experimentellen empirischen Phänomne betrachten wie er alle anderen Phänomene auch betrachtet.

(122) Das einzelne empirische Phänomen als solches besagt aber so gut wie nichts. Es gewinnt einen möglichen ‚Sinn‘ erst durch die zusätzliche Eigenschaft, dass es nicht nur ‚kontingent‘ im Sinne von ‚regellos‘, ‚zufällig‘ ist, sondern dass es im Zusammenhang mit anderen empirischen Phänomenen etwas ‚Nicht-Kontingentes‘, etwas ‚Nicht-Zufälliges‘  erkennen läßt. Diese Beschreibung schließt mit ein, dass man sagen kann, wie genau die Eigenschaft ‚Zufällig-Sein‘ (Kontingent-Sein) definiert wird. Wir setzen an dieser Stelle einfach mal voraus, dass dies geht (was alles andere als ‚trivial‘ ist!). Nicht-Zufälliges kann z.B. auftreten in Form von Zufallsverteilungen oder aber sogar bisweilen in Gestalt eines ‚gesetzmäßigen Zusammenhangs‘, dass immer wenn ein Phänomen p_i auftritt, ein anderes Phänomen p_j zugleich mit auftritt oder dem Phänomen p_i ‚folgt‘. In diesem Sinne gibt es im Bereich der Phänomene ’notwendige Zusammenhänge‘, die das Denken im Anderen  ‚vorfindet‘. Wichtig ist aber, dass es sich hier um Eigenschaften handelt, die den Phänomenen als Phänomenen zukommen, die nicht aus dem phänomenologischen Denken herausfallen. Ja, mehr noch, es geht hier nicht um ‚primäre‘ Eigenschaften der Phänomene, sondern um ‚phänomenübersteigende‘ Eigenschaften, die auf Zusammenhänge verweisen, die nicht dem einzelnen Phänomen als solchen zukommen, sondern sie verweisen auf ‚Formen des dynamischen Erscheinens‘ von Phänomenen.

(123) Diese ‚das einzelne Phänomen übersteigende Eigenschaften‘ setzen eine Erinnerungsfähigkeit voraus, die aktuell Gegebenes (Aktuales) ‚im nächsten Moment‘ nicht vollständig vergisst, sondern in der Lage ist, ‚Vorher Aktuales‘ wieder zu ‚erinnern‘ und es darüber hinaus noch mit dem ‚jetzt Aktualen‘ in Beziehung zu setzen, z.B. in einem ‚Vergleich‘. Diese Fähigkeit des impliziten Erinnerns gehört unserem Denken zu, ist eine dem Denken inhärierende Eigenschaft, ohne die wir keinen einzigen Zusammenhang denken könnten. In diesem Sinne ist das Erinnern und aus der Erinnerung heraus ‚Beziehen‘ können denknotwendig, transzendental.

(124) Durch Experimente kann das phänomenologische Denken allerdings ermitteln, dass das, was erinnert wird  [Ph_mem]  mit dem ‚ursprünglich Wahrgenommenen‘ [Ph_aktual] nicht identisch sein muss und in der Regel auch nicht identisch ist. Also  Ph_mem = Erinnern(Ph_aktual) & Ph_mem != Ph_aktual. D.h. das Erinnern ist keine 1-zu-1 Kopie des vorausgehenden Aktualen sondern –im Normalfall– eine ‚Modifikation des Originals‘. Es ist eine eigene Wissenschaft, zu erforschen, ob und in welchem Umfang diese Modifikationen selbst ‚gesetzmäßig‘ sind. Wichtig an dieser Stelle ist nur, dass man sich bewusst ist, dass das dem Denken transzendental innewohnende Erinnern im Normalfall eine Form von ‚Transformation‘ darstellt, die dem Denken zwar ’neue‘ Eigenschaften des Anderen aufscheinen lässt, aber diese ’neuen‘ Eigenschaften resultieren aus dem Denken selbst. Das ‚Einordnen‘ von Phänomenen in einen ‚gedachten Zusammenhang‘ ist primär ein Akt des Denkens und damit genuin phänomenologisch. Gedachte Zusammenhänge sind aber  als ‚gedachte‘ keine ‚primäre‘  Phänomene sondern ‚abgeleitete‘, ’sekundäre‘ Phänomene. Als ‚gewusste‘ sind sie ‚evident‘, in ihrem möglichen Bezug zu primären Phänomenen können sie ‚divergieren‘, ‚abweichen‘, sich ‚unterscheiden‘.

(125) Das, was sich im Denken zeigt, sind die Phänomene. Sehr verbreitet ist die Redeweise, in der bestimmte Phänomenkomplexe in besonderer Weise als ‚Objekte‘ [Obj] aufgefasst werden. Diese können als Wahrnehmungsobjekte [Obj_perc] auftreten, als  Erinnerungsobjekte [Obj_mem] oder als Denkobjekte [Obj_cog]. In aller Spezifikation bleiben sie Phänomene und gehören zum phänomenologischen Denken. Auch die empirischen Wissenschaften benutzen solche speziellen Objektkonzepte wie ‚Atom‘, ‚chemische Verknüpfungen‘ usw.

(126) Charakteristisch für empirische Theorien ist aber letztlich, dass die gefundenen Zusammenhänge zusätzlich  in einem System von Zeichen (Sprache) so abgebildet werden können, dass sich auf der Basis solcher symbolischer Darstellungen sowohl ein Bezug zu den primären Phänomenen herstellen läßt wie auch, dass sich unter Hinzuziehung eines Folgerungsbegriffs   logische Schlüsse ziehen lassen.

(127) Hierzu müsste man erklären, wie man innerhalb einer phänomenologischen Theorie den Begriff des Zeichens einführen kann.  Dies soll an dieser Stelle nicht geschehen. Husserl selbst lässt diesen zentralen Punkt ganz beiseite. Wir halten hier nur fest, dass an dieser Stelle solch eine Einführung stattfinden müsste; ohne sie wäre das Konzept einer (empirischen) wissenschaftlichen Theorie wesentlich unvollständig.

(128) Blicken wir nochmals zurück. Erinnern wir die Feststellung Husserls ‚Apriorische Wissenschaft ist Wissenschaft von dem Prinzipiellen, auf das Tatsachenwissenschaft rekurrieren muss, um letztlich, eben prinzipiell begründet zu werden…‘ (vgl. CM2, S.38, Z28f)  Die bisherigen Überlegungen haben gezeigt, dass die empirischen Wissenschaften sich zunächst nicht von der phänomenologischen Philosophie unterscheiden. Sie basieren auf den gleichen Phänomenen und sie benutzen das gleiche Denken. Insofern die empirischen Wissenschaften versuchen, im Raum der Phänomene Zusammenhänge aufzuspüren, Regelhaftigkeiten, müssen sie auf allgemeine Eigenschaften des Anderen rekurrieren, indem sie sich dieser Zusammenhänge ‚bewusst werden‘ und diese als ‚denknotwendige Zusammenhänge‘ explizit machen, bewusst machen, und dann konzeptuell und semiotisch benennen. Empirische Wissenschaften tun dies ‚phänomengeleitet‘, aber auch bestimmten Methoden folgend, die ein Minimum an ‚Wissen um‘ Phänomene und allgemeine Eigenschaften des Denkens einschließt.

(129) Eine klare Abgrenzung zu einer phänomenologischen Philosophie dürfte letztendlich schwierig sein, da ja auch ein phänomenologischer Philosoph nie in jedem Augenblick ‚das Ganze‘ denken kann, sondern immer nur schrittweise  Teilaspekte reflektiert, die er dann ebenso schrittweise zu größeren Perspektiven ‚zusammenfügen‘ kann. Mir scheinen vor diesem Hintergrund die eher zur Gegenübersetzung von Philosophie und empirischer Wissenschaft anregenden Formulierungen von Husserl nicht so geeignet zu sein. Stattdessen würde ich eher den ‚inklusiven‘ Charakter betonen. Empirische Wissenschaft ist grundsätzlich ein Denkgeschehen, was ‚innerhalb‘ des phänomenologischen Denkens stattfindet. Empirisches Denken stellt insoweit eine ‚Teilmenge‘ des phänomenologisch-philosophischen Denkens dar, insoweit das empirische wissenschaftliche Denken (i) einmal die Menge der zu betrachtenden Phänomene mittels eines überprüfbaren Kriteriums ‚beschränkt‘ und (ii) bei den reflektierenden Betrachtungen nicht alles reflektiert, was man reflektieren könnte, sondern sich auf jene Aspekte beschränkt, die notwendig sind, um die empirisch motivierten Zusammenhänge angemessen zu denken.  Wie die fortschreitende Entwicklung der empirischen Wissenschaften zeigt, können sich die Grenzen empirisch-wissenschaftlicher Reflexion beständig verschieben in Richtung solcher Inhalte, die traditionellerweise nur in der Philosophie zu finden waren. Dass heutzutage Ingenieure über die Konstruktion eines ‚künstlichen‘ Bewusstseins grübeln, kann sehr wohl geschehen im Einklang einer genuinen phänomenologisch-philosophischen Reflektion aller Gegebenheiten eines transzendentalen Subjekts.

Fortsetzung folgt.

ÜBERSICHT: Eine Übersicht über alle Blog-Beiträge nach Themen findet sich HIER

GEN — MEM — SEM

(1) Bei der Betrachtung der Entwicklung des (biologischen) Lebens auf der Erde tritt als markantes Ereignis (vor ca. 3.5 Mrd Jahren) die Verfügbarkeit von selbstreproduktiven Einheiten hervor: DNA-Moleküle werden dazu benutzt um unter Zuhilfenahme anderer Moleküle Proteinstrukturen in einer geordneten Weise so zu organisieren, dass daraus wieder Zellen, multizelluläre Organismen entstehen.

 

(2) In einem Abstraktionsprozeß wurden mathematische Modelle entwickelt, die die Struktur eines DNA.-Moleküls in solch einem selbstreproduktiven Kontext als ‚Informationseinheiten‚ identifizierten, die auch als ‚Gene‚ bezeichnet wurden. Der gesamte Informationsprozess wurde als ‚Genetischer Algorithmus (GA)‚ rekonstruiert. Gegenüber dem biochemischen Modell enthält er Vereinfachungen, zugleich bilden diese aber auch eine ‚Generalisierung‚, die eine mathematische Behandlung zulassen. Dadurch konnten sehr weitreichende Untersuchungen angestellt werden.

 

(3) Die Uminterpretation von genetischen Algorithmen als Classifier Systeme betrachtet die genetische Informationen als Wenn-Dann-Regeln (auch mehrere hintereinander). Je nachdem, welche Bedingungen vorliegen, werden nur bestimmte ‚Wenns‘ ‚erfüllt‘ und nur diese ‚Danns‘ werden aktiviert. Eine ‚Wenn-Dann-Regel‘ bildet einen ‚Classifier‚. Während genetische Informationen als solche eigentlich nur einmal im Leben eines (biologischen) Systems verändert werden (in der Realität natürlich auch durch Fremdeinwirkungen öfters), nämlich bei der Weitergabe der Informationen nach bestimmten Mustern/ Regeln geändert werden können (letztlich gibt es nur zwei Fälle (i) Rekombination nach einer festen Regel oder (ii) Zufällige Veränderung), können die Informationen, die als eine Menge von Classifiern kodiert sind, durch jedes einzelne Verhalten eines Systems geändert werden. Dies entspricht eher dem Organisationsniveau des Nervensystems bzw. dem des Gehirns in einem biologischen System.

 

(4) Betrachtet man Classifier Systeme auf der Organisationsebene des Gehirns, dann liegt auf der Hand, sie primär als Modell eines einfachen Gedächtnisses (Memory) zu sehen. Die ‚Wenns‘ (Engl. if) repräsentieren dann wichtige ‚Wahrnehmungszustände‘ des Systems (sensorische wie propriozeptive oder mehr), die ‚Danns‘ (Engl. ‚then‘) repräsentieren jene Aktionen des Systems, die aufgrund solcher Wahrnehmungen ausgeführt wurden und damit potentiell über die Veränderung einer (unterstellten) Situation zu einer Veränderung dieser Situation geführt haben, die wiederum die Wahrnehmung ändern kann. Da man mathematisch Wenn-Dann-Regeln (also Classifier) als Graphen interpretieren kann mit den ‚Wenns‘ als Knoten und den ‚Danns‘ als Übergänge zwischen den Knoten, sprich Kanten, bilden die Classifier als Graph den Ausgangspunkt für ein mögliches Gedächtnis.

 

(5) Nennen wir den ersten Graphen, den wir mittels Classifiern bilden können, Stufe 0 (Level 0), dann kann ein Gedächtnis mit Stufe 0 Wahrnehmungssituationen speichern, darauf basierende Handlungen, sowie Feedback-Werte. Feedbackwerte sind ‚Rückmeldungen der Umgebung (Engl. environment). Biologische Systeme verfügen im Laufe der 3.5 Miliarden dauernden Evolution mittlerweile über ein ganzes Arsenal von eingebauten (angeborenen, genetisch fixierten) Reaktionsweisen, die das System zur Orientierung benutzen kann: Hungergefühle, Durstgefühle, Müdigkeit, diverse Schutzreflexe, sexuelle Erregung usw. Im Englischen spricht man hier auch von drives bzw. verallgemeinernd von speziellen emotions (Emotionen). In diesem erweiterten Sinn kann man biologische Systeme auf der Organisationseben des Gedächtnisses auch als emotionale Classifier Systeme (emotional classifier systems) bezeichnen. Wenn man diese systemspezifischen Rückmeldungen in die Kodierung der Wenn-Dann-Regeln einbaut — was bei Classifiern der Fall ist –, dann kann ein auf Classifiern basierendes Gedächtnis die Wirkung von wahrgenommenen Situationen in Verbindung mit den eigenen Handlungen gespeichert (store) werden. Darüberhinaus könnte man diese gespeicherten Informationen mit geeigneten Such- und Auswertungsoperationen in zukünftigen Situationen nutzen, in denen man z.B. Hunger hat und man sich fragt, ob und wo und wie man an etwas Essbares kommen könnte.

 

(6) Der Begriff mem wurde in der Literatur schon vielfach und für sehr unterschiedliche Sachverhalte benutzt. In diesem Kontext soll ein mem* einen Knoten samt aller verfügbaren Kanten in einem Classifiersystem bezeichnen, das als Gedächtnis benutzt wird. Meme* sind dann — analog wie Gene — auch Informationseinheiten, allerdings nicht zur Kodierung von Wachstumsprozessen wie bei den Genen, sondern als Basis für Handlungsprozesse. Meme* ermöglichen Handlungen und die durch Handlungen ermöglichten Veränderungen in der unterstellten Umwelt können auf das handelnde System zurückwirken und dadurch die Menge der Meme* verändern.

 

(7) Wie wir heute wissen, haben biologische System — allerdings sehr, sehr spät — auch Zeichensysteme entwickelt, die schließlich als Sprachen zum grundlegenden Kommunikationsmittel des homo sapiens wurden. Kommunikation ermöglicht die Koordinierung unterschiedlicher Gehirne.

 

(8) Die allgemeine Beschreibung von Zeichen ist Gegenstand der Semiotik als Wissenschaft der Zeichen und Zeichenprozesse. Allerdings ist die Semiotik bis heute kaum anerkannt und fristet vielfach nur ein Schattendasein neben anderen Disziplinen. Dafür gibt es dann viele Teildisziplinen wie Phonetik, Linguistik, Sprachwissenschaften, Sprachpsychologie, Neurolinguistik usw. die nur Teilaspekte der menschlichen Zeichen untersuchen, aber es historisch geschafft haben, sich gesellschaftliche Anerkennung zu verschaffen.

 

(9) Eine Schwäche der Semiotik war — und ist es bis heute –, dass sie es nicht geschafft hat, eine einheitliche Theorie der Zeichen zu erarbeiten. Schon alleine die Vielzahl der ‚Gründer‘ der Semiotik (wie z.B. Peirce, de Saussure, Morris und viele andere) und deren unterschiedlichen begrifflichen Konzepte macht es schwer bis unmöglich, zu einer einheitlichen Zeichentheorie zu kommen.

 

(10) Ich habe mehrfach versucht, die beiden sehr unterschiedlichen Ansätze von Peirce (bewusstseinsbasiert) und Morris (Verhaltensbasiert) zu formalisieren und zu vereinheitlichen. Es scheint so zu sein, dass man bei Erweiterung des classifier-basierten Mem*-Konzeptes einen formalen Rahmen hat, der es erlaubt, sowohl die bewusstseinsorientierte Sicht von Peirce wie auch zugleich die verhaltensorientierte Sicht von Morris zusammen zu führen, ohne dass man deren Konzepte ‚verunstalten‘ müsste. Im Falle von Peirce kann man sein komplexes (und in sich selbst nicht konsistentes) System von Kategorien — so scheint es — drastisch vereinfachen.

 

(11) Stark vereinfachend gesagt kann man den Zeichenbegriff verstehen als eine Beziehung  zwischen einem Zeichenmaterial (das sowohl verhaltensrelevant  wie auch wahrnehmungsrelevant vorliegt) und einem Bedeutungsmaterial (das ebenfalls entweder verhaltensrelevant UND wahrnehmunsrelevant vorliegt oder NUR wahrnehmungsrelevant). Allerdings existiert eine solche Bedeutungsbeziehung nicht als wahrnehmbares Objekt sondern ausschliesslich als gewusste Beziehung im ‚Kopf‘ bzw. im ‚Gedächtnis‘ des Zeichenbenutzers. In Anlehnung an die griechische Philosophie möchte ich ein Zeichen als sem* bezeichnen. Ein sem* basiert zwar auf potentiell vielen memen*, stellt aber als ausgezeichnete Beziehung zwischen memen* etwas Eigenständiges dar. In diesem Sinne kann — und muss — man sagen, dass seme* eine neue Ebene der Organisation von Informationen eröffnen (was grundsätzlich keine neue Einsicht ist; ich wiederhole dies hier nur, da dies die Voraussetzung für die nächste Organisationsebene von Informationen ist).

 

Fortsetzung folgt.