Archiv der Kategorie: empirische Phänomene

DAS NEUE ALS PROBLEM DER WAHRHEIT – Zwischenbemerkung

PDF

Überblick

Im Spannungsfeld zwischen intelligenten Maschinen und dem Menschen entwickelt sich das Bild vom Menschen in jede Richtung als atemberaubend. Hier eine kurze Werkstattnotiz beim Versuch, dies alles weiter zu denken. Hier der Punkt ’Wahrheit und Neues’.

           II. KONTEXT

Seit einiger Zeit fokussieren sich die Themen bei cagent ja auf die beiden Pole intelligente Maschinen einerseits und Menschenbild andererseits. Beides beeinflusst sich im täglichen Leben gegenseitig.

Während die Position der ’intelligenten Maschinen’ trotz aller methodischen Probleme der aktuellen Künstlichen Intelligenz Forschung – letztlich leicht abgrenzbar und überschaubar ist [(1) Anmerkung: Im Grundsätzlichen, nicht was die schier unübersehbare Fülle der Publikationen betrifft, einschließlich der Software.], erweist sich dasThema Menschenbild als umso differenzierter und komplexer, je mehr man hinschaut.

Das eine Segment des Menschenbildes repräsentieren die neuen empirischen Erkenntnisse innerhalb der Disziplinen Psychologie, Biologie (inklusive Gehirnforschung), Molekularbiologie, und Astrobiologie. Ein anderes Segment repräsentieren die Wissenschaften zum Verhalten des Menschen in historisch-kultureller Sicht. Zur Kultur rechne ich hier auch Formen des Wirtschaftens (Ökonomie), Formen der Technologie, Formen politischer Strukturen, Formen des Rechts, usw.

Sowohl die empirischen Disziplinen haben unser Wissen um den Menschen als Teil des biologischen Lebens explodieren lassen, aber auch die historisch-kulturellen Erkenntnisse. Das Eigenschaftswort atemberaubend’ ist eigentlich noch eine Untertreibung für das Gesamtbild, das sich hier andeutet.

Was bislang aber nicht – noch nicht – stattfindet, das ist eine Verknüpfung der empirischen Erkenntnisse mit den historisch-kulturellen Einsichten. Für diese Trennung gibt es sicher viele Gründe, aber letztlich kann es keine wirkliche Rechtfertigung für diese anhaltende Spaltung des Denkens geben. Das historisch-kulturelle Phänomen mit dem homo sapiens als Kernakteur ist letztlich nur möglich und verstehbar unter Voraussetzung  der empirisch erkannten Strukturen und – das wird mit dem Wort von der ’Koevolution’ bislang nur sehr schwach thematisiert – die im Historisch-Kulturellen auftretenden Phänomene sind nicht nur irgendwie Teile der biologischen Evolution’, sondern sie sind wesentliches Moment an dieser. Von daher erscheint jeder Versuch, von biologischer Evolution zu sprechen, ohne das Historisch-Kulturelle einzubeziehen, im Ansatz als  ein methodischer Fehler.

In einem längeren Artikel für ein deutschlandweites Presseorgan hatte cagent versuchsweise das Verhältnis zwischen dem Konzept der ’Künstlichen Intelligenz’ und dem ’Glauben an Gott’ ausgelotet [(2) Anmerkung: Demnächst auch hier im Blog in einer erweiterten Fassung.]  Der Begriff Glaube an Gott’ ist natürlich vom Ansatz her vieldeutig, vielschichtig, abhängig vom jeweiligen Betrachter, seinem Ort, seiner Zeit. In dem Beitrag hat cagent das Thema ’Glauben an Gott’ am Beispiel der jüdisch-christlichen Überlieferungsbasis, der Bibel, diskutiert [(3) Anmerkung: Beispiele für Übersetzungen sind einmal die deutsche ökumenische Einheitsübersetzung [BB81], die griechische Version des Alten Testamentes bekannt als Septuaginta (LXX) [Rah35], sowie eine Ausgabe in hebräischer Sprache [KKAE66]. Es gibt auch noch die berühmte lateinische Ausgabe bekannt als ’Vulgata’ [Tvv05] (Als online-Ausgabe hier http://www.wilbourhall.org/pdfs/vulgate.pdf).]

Da die Bibel selbst eine Art ’Überlieferungsmonster’ darstellt, das sich aus einer viele Jahrhunderte andauernden mündlichen Überlieferungsphase speist, die dann ca. zwischen -700 und +200 verschriftlicht wurde, um dann weitere Jahrhunderte zu brauchen, um zu fixierten Textsammlungen zu führen [(4) Anmerkung: Siehe dazu z.B. [ZO98].]  konnte die Diskussion natürlich nur exemplarisch geführt werden. Dazu bot sich das erste Buch des alten Testaments an, das als Buch ’Genesis’ bekannt ist. In den ersten 11 Kapiteln trifft der Leser auf eine Textfolge, die offensichtlich vorschriftliche Traditionsquellen verarbeitet haben. Das Besondere an den Stoffen ist ihre globale Sicht: es geht um die Welt als ganze, um die Menschheit, um ein sehr ursprüngliches Verhältnis der Menschen zu einem X genannt ’Gott’, und diese Stoffe finden sich in ganz vielen Kulturen des mittleren Ostens, Afrikas, und Indiens. Mit großer Wahrscheinlichkeit wird weitere Forschung noch mehr Parallelen in noch vielen anderen Kulturen finden (oder hat sie bereits gefunden; cagent ist kein Spezialist für vergleichende Kulturgeschichte).

Was sich unter dem Strich in all diesen wunderbaren Zeugnissen menschlichen Handelns, Verstehens und Schreibens zeigt, das ist das Ringen des Menschen, seine jeweils aktuelle Sichten der Welt mit all der aufbrechenden Vielfalt des Lebens irgendwie zu versöhnen’. Dies führt zu der angekündigten Zwischenbemerkung.

II. WAHRHEIT UND NEUES

Im Zeitalter der Fake-News kann man den Eindruck gewinnen, dass ein Begriff wie Wahrheit sehr ausgehöhlt wirkt und von daher weder die Rolle von Wahrheit noch die mit der Wahrheit einhergehende Dramatik  überhaupt wahrgenommen,  geschweige denn erkannt wird.

Es gibt viele Gründe in der Gegenwart, warum selbst angestammte Bereiche der Wahrheit wie die empirischen Wissenschaften Erosionserscheinungen aufweisen; von anderen Bereichen ganz zu schweigen. Dennoch können all diese Verformungen und Entartungen nicht gänzlich darüber hinwegtäuschen, dass – selbst wenn traditionelle Wahrheits-Begriffe möglicherweise korrigiert, adjustiert werden müssen (im öffentlichen Bewusstsein) die grundlegenden Sachverhalte der Übereinstimmung unseres virtuellen Denkens mit einer jenseits dieses Denkens unterstellten objektiven Wirklichkeit weiterhin von grundlegender Bedeutung und lebenswichtig sind.

Jenseits aller allgemein philosophischen und speziell wissenschaftsphilosophischen Überlegungen zu Wahrheit’ weiß jeder einzelne, dass er in seinem Alltag nicht weit kommt, wenn das, was er persönlich von der Welt zu wissen glaubt, nicht zutrifft. Nach dem Aufwachen folgen viele, viele Stunden von Verhaltensweisen, die sich beständig dadurch speisen, dass man Wissen über eine Welt hat, die sich in den konkreten Handlungen dann auch bestätigen. Das ist unser primärer, alltäglicher Wahrheitsbegriff: Es verhält sich im Handeln so, wie wir in unserem Denken annehmen.

Zu dieser Alltagserfahrung gehört auch, dass wir uns manchmal irren: wir haben im Kopf einen Termin, der aber z.B. Tage, Zeiten, Orte verwechselt. Wir wollen einen Gegenstand mitnehmen, und er ist nicht dort, wo wir ihn erinnern. Wir fahren einen Weg, und stellen plötzlich fest, wir sind an einem Ort, der nicht wirklich zu unserer Zielvorstellung passt; usw.

Alle diese Irrtumserfahrungen lassen uns aber nicht grundsätzlich an unserer Fähigkeit zweifeln, dass wir ein handlungstaugliches Bild von der Welt haben können. Dieses Bild, sofern es funktioniert, nennen wir wahr.

Von anderen Menschen erfahren wir gelegentlich, dass sie die Orientierung im Alltag verloren haben. Ärzte sagen uns, dass diese Menschen ’krank’ seien, dass ihre Psyche oder/ und ihr Gehirn beschädigt sei. Das haken wir dann ab als mögliche Störungen, die vorkommen können; das tangiert dann aber nicht unbedingt unsere eigene Überzeugung, dass wir Wahrheitsfähig sind.

Hier gibt es nun einen (natürlich gäbe es sehr viele) interessanten Punkt: wenn wir die Wahrheit über die Handlungstauglichkeit definieren, die eine Art von Übereinstimmung zwischen Wissen/ Denken und der erfahrbaren Welt (einschließlich des eigenen Körpers) beinhaltet, wie gehen wir dann mit Neuem um?

Neues’ definiert sich ja gerade dadurch, dass es mit dem bisher Bekannten nichts oder nur wenig zu tun hat. Wirklich ’Neues’ lässt ein Stück Wirklichkeit aufbrechen, das wir so bislang nicht kennen.

Historisch und psychologisch können wir bei uns Menschen eine gewisse Tendenz erkennen, uns eher im Bekannten einzurichten, da dies überschaubar und berechenbar ist. Je mehr Vorteile ein Mensch aus einer bestimmten gegebenen Situation zieht, je mehr Sicherheit er mit ihr verbindet, umso weniger ist der Mensch geneigt, die Situation zu verändern oder sie zu verlassen. Je schlechter es Menschen geht, umso eher sind sie bereit, das Bekannte zu verlassen, denn es kann möglicherweise nur noch besser werden. Aber auch die Wissenschaft kennt solche Beharrungstendenzen. In allen Bereichen findet man eine große Zähigkeit, erworbene Anschauungen über Jahrhunderte zu tradieren, auch wenn schon längst klar ist, dass diese Anschauungen ’vorne und hinten’ nicht so wirklich passen. Im Grunde genommen ist die gesamte Geschichte eine Geschichte des Kampfes zwischen den beharrenden Anschauungen und den Abweichlern’ (politisch, moralisch, religiös, künstlerisch, )

Wenn man sich dann klar macht, dass das biologische Leben (soweit wir es heute verstehen können) im innersten Kern einen Generator für Neues fest eingebaut hat, wenn wir wissen, wie jedes einzelne Lebewesen über Zeugung, Geburt, älter werden, Sterben kontinuierlichen Wandlungsprozessen unterworfen ist; wenn wir wissen, dass die Erde, auf der wir leben, beständig massiven Veränderungen unterliegt, dazu das Sonnensystem, unsere Heimatgalaxie, die Milchstraße, das ganze bekannte Universum, … dann müsste eigentlich klar sein, dass das Neue eigentlich der wichtigste Rohstoff des Wissens und des Handelns und aller kulturellen Systeme sein müsste. Genau das Gegenteil scheint aber bislang der Fall zu sein. Firmen kennen zwar das Problem der Innovation, um am Markt überleben zu können; im militärischen Bereich gibt es einen Innovationsdruck aufgrund unterstellter (oder auch realer) Konkurrenz um die Macht; die Unterhaltungsindustrie kommt nicht ohne Innovationen aus; und dennoch, die offizielle Kultur, die offiziellen Erziehungsprozesse sind nicht auf eine Kultur des Neuen ausgerichtet. Offizielle Literatur verdaut Vergangenheit, Gegenwart und Unmengen an subjektiven Gefühlen, nur in den kulturell eher immer noch geächteten Science- Fiction Werken blitzt Neues auf, Verarbeitung möglicher Zukunft, Auseinandersetzung zwischen Heute und Morgen, Auseinandersetzung zwischen Natur, Technik und Geist.

In einem vorausgehenden Eintrag   hatte cagent über Offenbarung geschrieben, nicht als Kategorie der Religionen, sondern vorab zu allen Religionen als Grundkategorie des menschlichen In-Der-Welt-Seins. Das hier angesprochene Neue ist ein Aspekt dieser grundlegenden Kategorie der Offenbarung als Weise, wie wir Menschen uns in dieser Welt vorfinden. Wir sind in jedem Moment vollständig in jeder Hinsicht einer Wirklichkeit ausgesetzt, die uns in jeder Hinsicht übersteigt in ihren Möglichkeiten. Unser Körper ist Teil dieser vorfindlichen Wirklichkeit und wer kann behaupten, dass wir die 5-10 Billionen (10^12) Zellen eines einzelnen homo-sapiens-Körpers wirklich verstehen? Unser Gehirn ist Teil davon und wer kann schon behaupten, er verstehe sein eigenes Gehirn, geschweige denn sein eigenes Denken? Und dies ist ja nur ein winziger Bruchteil jener Wirklichkeit, in der wir uns vorfinden.

Wer das Neue scheut, ist im realen Leben noch nicht angekommen. Was aus all dem folgt, ist natürlich entsprechend offen. Das mag niemand, es sei denn …

QUELLEN

  • [BB81] Katholisches Bibelwerk and Deutsche Bibelgesellschaft. Die Heilige Schrift. Einheitsübersetzung. Verlag Katholisches Bibelwerk & Deutsche Bibelgesellschaft, Stuttgart, 1981.
  • [KKAE66] Rudolg Kittel, P. Kahle, A. Alt, and O. Eissfeldt. Biblia Hebraica. Würthembergische Bibelanstalt, Stuttgart, 7.Aufl., 1966.
  • [Rah35] Alfred Rahlfs. Septuaginta. Würthembergische Bibelanstalt, Stuttgart, 9.Aufl., 1935.
  • [Tvv05] Michaele Tvveedale, editor. BIBLIA SACRA JUXTA VULGATAM CLEMENTINAM. Bishops’ Conference of England and Wales, London (UK), Elektronische Ausgabe, 2005.
  • [ZO98] Erich Zenger et.al.. Einleitung in das Alte Testament. W.Kohlhammer, Stuttgart, 3.Aufl., 1998.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

ERKENNTNISSCHICHTEN – PHILOSOPHISCHE LEVEL. Erste Notizen

VORBEMERKUNG

Vor fast genau drei Jahren hatte ich schon einmal einen Blogeintrag geschrieben, in dem das Wort ‚Level‘ im Kontext eines Computerspiels erwähnt wurde (siehe: SCHAFFEN WIR DEN NÄCHSTEN LEVEL? Oder ÜBERWINDEN WIR DEN STATUS DER MONADEN?
). Dort jedoch wurde die Idee des Computerspiels und der Level in einem ganz anderen Zusammenhang diskutiert. Im folgenden Text geht es tatsächlich um den Versuch, konkret verschiedene Ebenen des Denkens (Level) zu unterscheiden. Als ‚Ordnungsprinzip‘ in all dem wird einmal die zeitliche Abfolge benutzt, in der diese Level auftreten können, und eine ‚implizite Architektur‘ unseres Denkens, die sich nur ‚indirekt‘ beschreiben lässt.

DER BEGRIFF ‚LEVEL‘

1. Wer heutzutage Computerspiele spielt, der kennt das: man bewegt sich immer auf einem bestimmten ‚LEVEL‘, d.h. auf einer bestimmten Spielebene. Jede Spielebene hat eigene Regeln, eine eigene spezifische Schwierigkeit. Erst wenn man genügend Aufgaben gelöst hat, wenn man hinreichend viel Punkte erworben hat, dann darf man auf den nächsten Level. Diese Idee der Spielebene, des Level, kann man auch auf den Alltag übertragen.

FUNKTIONIEREN IM ALLTAG

2. Im Alltag stehen wir in beständiger Interaktion mit unserer alltäglichen Umgebung (Level 1). Wir nehmen wahr, wir identifizieren Objekte mit Eigenschaften, Beziehungen zwischen diesen im Raum, zeitliche Abfolgen, und wir selbst verhalten uns nach bestimmten Regeln, die uns der Alltag aufdrängt oder aufgedrängt hat: wir lernen, dass Dinge fallen können; dass es Tag und Nacht gibt; dass Menschen unterschiedlich reagieren können; dass Menschen Rollen haben können, unterschiedliche Verpflichtungen; dass es Regeln gibt, Vorschriften, Gesetze, Erwartungen anderer, Gewohnheiten, Sitten, Gebräuche. Wir lernen mit der Zeit, dass Unterschiede gemacht werden bezüglich Herkunft, Sprache, wirtschaftlicher Stellung, Glaubens- oder Weltanschauungsansicht, usw.

3. Wenn alles ‚gut‘ läuft, dann FUNKTIONIEREN wir; wir tun, was erwartet wird, wir tun, was die Spielregeln sagen; wir tun, was wir gewohnt sind; wir bekommen unsere Leistungspunkte, unsere Anerkennungen …. oder auch nicht.

4. Wenn man uns fragt, wer wir sind, dann zählen wir für gewöhnlich auf, was wir so tun, welche Rollen wir spielen, welche Berufsbezeichnungen wir tragen.

DURCH NACHDENKEN ZUM PHILOSOPHIEREN

5. Sobald man nicht mehr nur FUNKTIONIERT, sondern anfängt, über sein Funktionieren NACHZUDENKEN, in dem Moment beginnt man, zu PHILOSOPHIEREN. Man beginnt dann mit einer BEWUSSTWERDUNG: man tut etwas und zugleich wird einem bewusst, DASS man es tut. Damit beginnt Level 2.

6. Beginn man mit einer solchen bewussten Wahrnehmung des DASS, des Unterscheidbaren, des sich Ereignenden, dann wird man nicht umhin kommen, zu unterscheiden zwischen jenen Phänomenen, Ereignissen, Objekten, die ‚zwischen‘ verschiedenen Menschen – also ‚intersubjektiv‘, ‚empirisch‘, ‚objektiv‘ – verfügbar sind und jenen, die ‚rein subjektive‘ Tatbestände darstellen. Über den ‚Apfel dort auf dem Tisch‘ kann man sich mit anderen verständigen, über die eigenen Zahnschmerzen, die eigenen Gefühle, die eigenen Erinnerungen usw. nicht so ohne weiteres. Jeder kann bis zu einem gewissen Grad ‚IN SEIN BEWUSSTSEINS HINEINSCHAUEN‘ – ’subjektiv‘, ‚introspektiv‘,’phänomenologisch‘– und solche Phänomene wahrnehmen, die NICHT INTERSUBJEKTIV sind, sondern REIN SUBJEKTIV. Diese OJEKTE DER INNENWELT sind für das eigene Erleben genauso real wie die Objekte der Außenwelt, aber sie sind nicht zugleich auch von anderen Menschen wahrnehmbar. Diese bewusste Unterscheidung zwischen AUSSEN und INNEN innerhalb des Level 2 soll hier als Level 3 bezeichnet werden. Die Menge der Inhalte, die innerhalb von Level 2 und 3 bewusst wahrgenommen werden, sollen hier einfach PHÄNOMENE genannt werden mit der anfangshaften Unterscheidung von intersubjektiven Phänomenen auch als EMPIRISCHE PHÄNOMENE und rein subjektive Phänomene als NICHTEMPIRISCHE PHÄNOMENE

WELT NEU ERZÄHLEN

7. Mit dem Bewusstwerden von Level 2 und Level 3 kann eine neue Form von BESCHREIBUNG beginnen, die hier LEVEL 4 heißen soll. Dieser Level 4 stellt eine Art META-LEVEL dar; man spricht auf einem Meta-Level über einen anderen Level. Dies ist vergleichbar einem Linguisten, der die Eigenschaften einer Sprache (z.B. des Deutschen) in seiner Fachsprache beschreiben muss. So könnte es sein, dass ein Satz wie ‚Das Haus hat einen Eingang‘ auf der linguistischen Metaebene eine Beschreibung bekäme wie ‚(‚Das‘: Bestimmter Artikel)(‚Haus‘: Substantiv)(‚hat‘: Verb)(‚einen‘: unbestimmter Artikel)(‚Eingang‘: Substantiv)‘; diese Beschreibung könnte viele weitere Elemente enthalten.

8. Eine Meta-Beschreibung kann innerlich weiter strukturiert sein. Auf Level 4.0 BENENNT man nur, was man im DASS unterscheiden kann: Objekte, Eigenschaften, Beziehungen. Auf Level 4.1 kann man ABFOLGEN von benannten Phänomenen identifizieren, speziell solche, die REGELHAFT erscheinen. Aus der Gesamtheit von Benennungen und Abfolgen kann man auf Level 4.2 ein MODELL konstruieren, mittels dem eine Teilmenge von Phänomenen und deren Abfolgen FUNKTIONAL ERKLÄRT werden soll. Mit einer zusätzlichen LOGIK auf Level 4.3 kann man dann mit einem Modell FOLGERUNGEN konstruieren, die wie VORHERSAGEN benutzt werden können, die sich ÜBRPRÜFEN lassen.

9. Beschränkt man sich auf dem Level 4 auf die empirischen Phänomene, dann bilden die Level 4.0 – 4.3 das, was wir die EMPIRISCHEN WISSENSCHAFTEN nennen. Man benennt = beschreibt die Dinge dann in einer eigenen Fachsprache (Chemie, Psychologie, Physik, Linguistik, …); man definiert Messverfahren, wie man Eigenschaften reproduzierbar messen kann; und man benutzt die Mathematik und die formale Logik, um Modelle (THEORIEN) zu konstruieren.

10. Beschränkt man sich auf dem Level 4 hingegen auf die nicht-empirischen Phänomene, dann bilden die Level 4.0 – 4.3 das, was wir die SUBJEKTIVE WISSENSCHAFT nennen könnten. Auch hier würde man die Dinge mit einer eigenen Fachsprache benennen = beschreiben; man definiert Verfahren, wie man möglicherweise Eigenschaften reproduzierbar erzeugen kann; und man benutzt die Mathematik und die formale Logik, um Modelle (THEORIEN) zu konstruieren. Eine Verständigung über Theorien der subjektiven Wissenschaft wären aufgrund der subjektiven Wahrnehmungsbasen ungleich schwieriger als im Falle von empirischen Theorien, aber niht völlig augeschlossen.

KREATIVITÄT

11. Hat man das ‚automatische‘ Verhalten überwunden (so wie es alle tun, so wie man es gelernt hat), und ist sich stattdessen bewusst geworden, dass man so und so handelt, und hat man angefangen das Automatische bewusst zu rekonstruieren, dann kann man jetzt auch bewusst Alternativen durch Variationen erzeugen [Anmerkung: natürlich kann man auch ohne Reflexion ’spontan‘ Dinge anders tun, als man sie vorher getan hat, aber dies ist dann ‚überwiegend zufällig‘, während ein Kreativität in einem reflektierten Kontext sowohl ‚gerichtet‘ ist aufgrund des verfügbaren Wissens, zugleich aber auch ‚zufällig‘, jedoch in einem viel größeren Umfang; nicht nur ‚punktuell‘]. Man kann jetzt sehr bewusst fragen, ‚warum‘ muss ich dies so tun? Warum will ich dies so? Was sind die Voraussetzungen? Was sind die Motive? Was sind die Ziele? Was will man erreichen? Usw.

12. Ein Ergebnis dieser Infragestellungen kann sein, dass man bestimmte Abläufe ändert, einfach, um mal heraus zu finden, was passiert, wenn man es anders macht. Häufige Fälle: jemand hat nie Gedichte geschrieben, weil niemand ihn vorher dazu angeregt hat, Gedichte zu schreiben; oder jemand hat nie Musik gemacht, weil sie sich immer eingeredet hat, sie sei unmusikalisch. Jemand hat nie vor anderen Menschen geredet, weil er immer Angst hatte, sich zu blamieren. Usw. Kurzum bei Erreichen von Level 4 beginnt man zu ahnen, dass alles anders sein könnte, als man es bislang gewohnt war und praktiziert hatte. Nennen wir diese neu gewonnene kreative Freiheit den LEVEL 5.

Fortsetzung folgt

Über Industrie 4.0 und Transhumanismus. Roboter als Volksverdummung? Schaffen wir uns selbst ab?

Vortrag am 19.Mai 2015 im Literaturhaus Frankfurt in der Veranstaltung PR-Slam & Ham 2015

In meiner Präsentation hatte ich eine Reihe von Schaubildern gezeigt, die ich dann mündlich kommentiert habe. Einen geschriebenen Text gab es nicht. Ich habe aber die Erläuterung nochmals ’nachgesprochen‘. Aus den 20 Min sind dann ca. 70 Min geworden. Die Bilder unten bilden das Rückgrat der Geschichte; sie sind nummeriert. Im gesprochenen Text nehme ich auf diese Bilder Bezug.

Das Ganze endet in einem glühenden Plädoyer für die Zukunft des Lebens in Symbiose mit einer angemessenen Technik. Wir sind nicht das ‚Endprodukt‘ der Evolution, sondern nur eine Durchgangsstation hin zu etwas ganz anderem!

 

AUDIODATEI DES KOMMENTARS (70 Minuten! mp3)

Gehirn im Körper mit Bild 1: Bewusstsein - Beobachter
Bild 1: Gehirn im Körper mit Bewusstsein – Beobachter
Bild 2: Gehirn im Körper mit Raum der Phänomene. Empirische und nicht-empirische Phänomene
Bild 2: Gehirn im Körper mit Raum der Phänomene. Empirische und nicht-empirische Phänomene
Bild 3: Korrelation zwischen Gehirn, Bewusstsein und Gedächtnis. Gedächtnis mit Sensorik, Arbeitsgedächtnis und Langzeitgedächtnis
Bild 3: Korrelation zwischen Gehirn, Bewusstsein und Gedächtnis. Gedächtnis mit Sensorik, Arbeitsgedächtnis und Langzeitgedächtnis
Bild 4: Mensch im Alltag, umringt von technischen Schnittstellen die mit digitalisierten weltausschnitten verbinden können: viel. schnell, komplex
Bild 4: Mensch im Alltag, umringt von technischen Schnittstellen die mit digitalisierten weltausschnitten verbinden können: viel. schnell, komplex
Bild 5: Menge von Komplexitätsereignissen bisher; Explosion in der Gegenwart
Bild 5: Menge von Komplexitätsereignissen bisher; Explosion in der Gegenwart
Bild 6: Konkrete Zahlen zum vorhergehenden Schaubild mit den Komplexitätsereignissen
Bild 6: Konkrete Zahlen zum vorhergehenden Schaubild mit den Komplexitätsereignissen
Bild 7: Biologischer Reproduktion als Quelle der Kreativität für neue Strukturen
Bild 7: Biologischer Reproduktion als Quelle der Kreativität für neue Strukturen
Bild 8: Struktur der biologischen Reproduktion in 1-zu-1 Isomorphie zur Struktur eines Automaten (Turingmaschine)
Bild 8: Struktur der biologischen Reproduktion in 1-zu-1 Isomorphie zur Struktur eines Automaten (Turingmaschine)

Die Vision, die in dem Audiobeitrag gegen Ende entwickelt wird, soll in dem Emerging-Mind Projekt konkret umgesetzt werden, als Impuls, als Anstoß, als Provokation, als Community, die sich mit dem Thema philosophisch, wissenschaftlich, künstlerisch und theologisch auseinandersetzt.

Eine Übersicht über alle Einträge von cagent in diesem Blog nach Titeln findet sich HIER.

ENTSCHEIDEN IN EINER MULTIKAUSALEN WELT? MEMO ZUR PHILOSOPHIEWERKSTATT VOM Sonntag, 10.Mai 2015 IN DER DENKBAR (Frankfurt)

Begriffsnetzwerk von der Philosophiewerkstatt am 10.Mai 2015
Begriffsnetzwerk von der Philosophiewerkstatt am 10.Mai 2015

Generelles Anliegen der Philosophiewerkstatt ist es, ein philosophisches Gespräch zu ermöglichen, in dem die Fragen der TeilnehmerInnen versuchsweise zu Begriffsnetzen verknüpft werden, die in Beziehung gesetzt werden zum allgemeinen Denkraum der Philosophie, der Wissenschaften, der Kunst und Religion. Im Hintergrund stehen die Reflexionen aus dem Blog cognitiveagent.org, das Ringen um das neue Menschen- und Weltbild.

Aus der letzten Philosophiewerkstatt vom 12.April 2015 resultierte das – nicht ganz schar formulierte – Thema: Kann sich ein einzelner innerhalb einer multikausalen Welt überhaupt noch sinnvoll entscheiden? Kann man überhaupt noch eine Wirkung erzielen? Ist nicht irgendwie alles egal?

1. Trotz strahlendem Sommerwetter fand sich wieder ein bunter Kreis interessierter und engagierter Gesprächsteilnehmer, um sich in der DENKBAR Frankfurt zum Thema auszutauschen. Wie beim jedem Treffen bisher gab es auch dieses Mal neben schon bekannten Teilnehmern wieder auch neue Teilnehmer, die das Gespräch bereicherten.

2. Wie die Gedankenskizze des Gesprächs andeutet, förderte das gemeinsame Gespräch eine Fülle interessanter Aspekte zutage, die auf vielfältige Weise miteinander verknüpft sind. Auch wenn jeder Punkt für sich ein eigenes Thema abgeben könnte, so zeigt gerade der Überblick über und die Vernetzung von den Begriffen etwas von unserer Entscheidungswirklichkeit auf, die im Alltag oft im Dunkeln verbleibt.

INDIVIDUUM – KONTEXT

3. Das Gespräch fokussierte zunächst eher auf den individuellen Träger von Entscheidungen und lies die diverse Einflüsse des Kontextes eher am Rande.

4. Am Entscheidungsprozess traten verschieden ‚Phasen‘ hervor: (i) irgendein ein Anlass. Warum man sich überhaupt mit etwas beschäftigt. Warum öffnet man sich überhaupt für ein Thema? Wendet man sich einem Thema zu, dann gibt es in der Regel mindestens eine Alternative, was man tun könnte. Dies hängt sowohl von den konkreten Umständen wie auch von der verfügbaren Erfahrung und dem verfügbaren Wissen ab. Nach welchen Kriterien/ Präferenzen/ Werten entscheidet man dann, welche der vielen Möglichkeiten man wählen soll? Ist die Entscheidung ‚frei‘ oder durch irgendwelche Faktoren ‚vorbestimmt‘? Gibt es explizite Wissensanteile, aufgrund deren man meint, ‚rational‘ zu handeln, oder ist es eine ‚Bauchentscheidung‘? Wieweit spielen ’nicht-bewusste‘ Anteile mit hinein? Insofern nicht-bewusste Anteile von sich aus nicht bewusst sind, können wir selbst dies gar nicht wissen. Wir bräuchten zusätzliche Hilfen, um dies möglicherweise sichtbar zu machen. Schließlich wurde bemerkt, dass selbst dann, wenn wir sogar zu einer Entscheidung gekommen sind, was wir tun sollten, es sein kann, dass wir die Ausführung lassen. Wir tun dann doch nichts. Sollten wir etwas tun, dann würde unser Tun ‚eine Wirkung‘ entfalten.

ARCHITEKTUR DES INDIVIDUUMS

5. Alle diese Entscheidungsprozesse verlaufen in einer Person; im anderen, in mir. Wir wissen, dass jeder Mensch eine komplexe Architektur besitzt, sehr viele unterschiedliche Komponenten besitzt, die in Wechselwirkung stehen. Folgende drei Bereich wurden genannt, ohne Anspruch auf Vollständigkeit: (i) der Körper selbst, die Physis, das Physiologische. Das Gehirn ist eines der vielen komplexen Organe im Bereich der Physis. Das Physische kann altern, kann zwischen Menschen Varianzen aufweisen. Resultiert aus einem individuellen Wachstumsprozess (Ontogenese), und im Rahmen einer Population resultiert der Bauplan eines individuellen Körpers aus einem evolutionären Prozess (Phylogenese). Sowohl in der Phylogenese wie in der Ontogenese können sich Strukturen umweltabhängig, verhaltensabhängig und rein zufällig verändern. Weiter gibt es (ii) den Komplex, der grob mit Emotionen, Gefühle umschrieben wurde. Es sind Körper- und Gemütszustände, die auf das Bewerten der Wahrnehmung und das Entscheiden Einfluss ausüben können (und es in der Regel immer tun). Schließlich (iii) gibt es den Komplex Wissen/ Erfahrung, der Menschen in die Lage versetzt, die Wahrnehmung der Welt zu strukturieren, Beziehungen zu erkennen, Beziehungen herzustellen, komplexe Muster aufzubauen, usw. Ohne Wissen ist ein Überschreiten des Augenblicks nicht möglich.

WISSEN

6. Aufgrund der zentralen Rolle des Wissens ist es dann sicher nicht verwunderlich, dass es zum Wissen verschiedene weitere Überlegungen gab.

7. Neben der Betonung der zentralen Rolle von Wissen wurde mehrfach auf potentielle Grenzen und Schwachstellen hingewiesen: (i) gemessen an dem objektiv verfügbare Wissen erscheint unser individuelles Wissen sehr partiell, sehr begrenzt zu sein. Es ist zudem (ii) veränderlich durch ‚Vergessen‘ und ‚Neues‘. Auch stellte sich die Frage (iii) nach der Qualität: wie sicher ist unser Wissen? Wie ‚wahr-falsch‘? Woher können wir wissen, ob das, was wir ‚für wahr halten‘, an was wir ‚glauben‘, tatsächlich so ist? Dies führte (iv) zu einer Diskussion des Verhältnisses zwischen ‚wissenschaftlichem‘ Wissen und ‚Alltags-‚ bzw. ‚Bauchwissen‘. Anwesende Ärzte betonten, dass sie als Arzt natürlich nicht einfach nach ‚Bauchwissen‘ vorgehen könnten, sondern nach explizit verfügbarem wissenschaftlichen Wissen. Im Gespräch deutete sich dann an, dass natürlich auch dann, wenn jemand bewusst nach explizit vorhandenem Wissen vorgehen will, er unweigerlich an die ‚Ränder seines individuellen‘ Wissens stoßen wird und dass er dann gar keine andere Wahl hat, als nach zusätzlichen (welche!?) Kriterien zu handeln oder – was vielen nicht bewusst ist – sie ‚verdrängen‘ die reale Grenze ihres Wissens, indem sie mögliche Fragen und Alternativen ‚wegrationalisieren‘ (das ‚ist nicht ernst‘ zu nehmen, das ist ‚unwichtig‘, das ‚machen wir hier nicht so‘, usw.). Ferner wurde (v) der Status des ‚wissenschaftlichen‘ Wissens selbst kurz diskutiert. Zunächst einmal beruht die Stärke des wissenschaftlichen Wissens auf einer Beschränkung: man beschäftigt sich nur mit solchen Phänomenen, die man ‚messen‘ kann (in der Regel ausschließlich intersubjektive Phänomene, nicht rein subjektive). Damit werden die Phänomene zu ‚Fakten‘, zu ‚Daten‘. Ferner formuliert man mögliche Zusammenhänge zwischen den Fakten in expliziten Annahmen, die formal gefasst in einem expliziten Modell repräsentiert werden können. Alle diese Modelle sind letztlich ‚Annahmen‘, ‚Hypothesen‘, ‚Vermutungen‘, deren Gültigkeit von der Reproduzierbarkeit der Messungen abhängig ist. Die Geschichte der Wissenschaft zeigt überdeutlich, dass diese Modelle beständig kritisiert, widerlegt und verbessert wurden. Wissenschaftliches Wissen ist insofern letztlich eine Methode, wie man der realen Welt (Natur) schrittweise immer mehr Zusammenhänge entlockt. Die ‚Sicherheit‘ dieses Wissens ist ‚relativ‘ zu den möglichen Messungen und Modellen. Ihre Verstehbarkeit hängt zudem ab von den benutzten Sprachen (Fachsprachen, Mathematische Sprachen) und deren Interpretierbarkeit. Die moderne Wissenschaftstheorie konnte zeigen, dass letztlich auch empirische Theorien trotz aller Rückbindung auf das Experiment ein Bedeutungsproblem haben, das sich mit der Fortentwicklung der Wissenschaften eher verschärft als vereinfacht. Im Gespräch klang zumindest kurz an (vi), dass jedes explizites Wissen (auch das wissenschaftliche), letztlich eingebunden bleibt in das Gesamt eines Individuums. Im Individuum ist jedes Wissen partiell und muss vom Individuum im Gesamtkontext von Wissen, Nichtwissen, Emotionen, körperlicher Existenz, Interaktion mit der Umwelt integriert werden. Menschen, die ihr Wissen wie ein Schild vor sich hertragen, um damit alles andere abzuwehren, zu nivellieren, leben möglicherweise in einer subjektiven Täuschungsblase, in der Rationalität mutiert zu Irrationalität.

UND DEN KONTEXT GIBT ES DOCH

8. Schließlich gewann der Kontext des Individuums doch noch mehr an Gewicht.

9. Schon am Beispiel des wissenschaftlichen Wissens wurde klar, dass Wissenschaft ja keine individuelle Veranstaltung ist, sondern ein überindividuelles Geschehen, an dem potentiell alle Menschen beteiligt sind.

10. Dies gilt auch für die schier unendlich erscheinende Menge des externen Wissens in Publikationen, Bibliotheken, Datenbanken, Internetservern, die heute produziert, angehäuft wird und in großen Teilen abrufbar ist. Dazu die verschiedenen Medien (Presse, Radio, Fernsehen, Musikindustrie,….), deren Aktivitäten um unsere Wahrnehmung konkurrieren und deren Inhalt, wenn wir es denn zulassen, in uns eindringen. Die Gesamtheit dieser externen Informationen kann uns beeinflussen wie auch ein einzelner dazu beitragen kann, diese Informationen zu verändern.

11. Es kam auch zur Sprache, dass natürlich auch die unterschiedliche Lebensstile und Kulturen spezifisch auf einzelne (Kinder, Jugendliche, Erwachsene…) einwirken bis dahin, dass sie deutliche Spuren sogar im Gehirn (und in den Genen!) hinterlassen, was sich dann auch im Verhalten manifestiert.

12. Besonders hervorgehoben wurden ferner die politischen Prozesse und Teil des Wirtschaftssystems. Die Meinung war stark vertreten, dass wir auch in den Demokratien eine ‚Abkopplung‘ der politischen Prozesse von der wählenden Bevölkerung feststellen können. Der intensive und gesetzmäßig unkontrollierte Lobbyismus im Bereich deutscher Parteien scheint ein Ausmaß erreicht zu haben, das eine ernste Gefahr für die Demokratie sein kann. Die Vertretung partikulärer Interessen (genannt wurde beispielhaft die Pharmaindustrie, aber auch Finanzindustrie und weitere), die gegenläufig zum Allgemeinwohl sind, wurde – anhand von Beispielen – als übermächtiges Wirkprinzip der aktuellen Politik unterstellt. Sofern dies tatsächlich zutrifft, ist damit natürlich die sowieso schon sehr beschränkte Einflussmöglichkeit des Wählers weitgehend annulliert. Die zu beobachtende sich verstärkende Wahlmüdigkeit des Wählers wird damit nur weiter verstärkt. Das Drama ist, dass diejenigen, die das Wählervertrauen durch ihr Verhalten kontinuierlich zerstören, nämlich die gewählten Volksvertreter, den Eindruck erwecken, dass sie selbst alles verhindern, damit der extreme Lobbyismus durch Transparenz und wirksamen Sanktionen zumindest ein wenig eingedämmt wird.

ABSCHLUSS

13. In der abschließenden Reflexion bildete sich die Meinung, dass die Punkte (i) Präferenzen/ Werte/ Kriterien einerseits und (ii) Beeinflussbarkeit politischer Prozesse andererseits in der nächsten (und letzten Sitzung vor der Sommerpause) etwas näher reflektiert werden sollten. Reinhard Graeff erklärte sich bereit, für die nächste Sitzung am So 14.Juni einen Einstieg vorzubereiten und das genaue Thema zu formulieren.

AUSBLICK

14. Am So 14.Juni 2015 16:00 findet nicht nur die letzte Sitzung der Philosophiewerkstatt vor der Sommerpause statt, sondern es soll im Anschluss auch (ca. ab 19:00h) bei Essen und Trinken ein wenig darüber nachgedacht werden, wie man in die nächste Runde (ab November 2015) einsteigen möchte. Soll es überhaupt weitergehen? Wenn ja, was ändern? Usw.

Einen Überblick über alle Beiträge zur Philosophiewerkstatt nach Themen findet sich HIER

M.DONALD: EVOLUTION DES MENSCHLICHEN BEWUSSTSEINS – Kurzbesprechung, Teil 2

Diesem Beitrag ging voraus Teil 1.

1) Das siebte Kapitel ist überschrieben ‚The First Hybrid Minds on Earth‘ (etwa: ‚Die ersten hybriden Geister auf der Erde‘). (S.252)
2) [Anmerkung: Das Problem ist, dass es für den Plural des englischen Begriffs ‚minds‘ in diesem Kontext keine direkte Übersetzung gibt. Die Übersetzung ‚Geister‘ ist eher irreführend, da mit ‚Geister‘ im Deutschen etwas anderes assoziiert wird als mit dem Plural von ‚minds‘. Das liegt daran, dass der deutsche Singular ‚Geist‘ einmal die ‚geistige Kapazität‘ im allgemeinen meinen kann, aber auch ein ontologisch schillerndes Wesen, das als ‚Geist‘ zwar ‚irgendwie‘ da ist, aber nicht so, wie ein reales Wesen. Von der ‚geistigen Kapazität‘ im Singular gibt es im Deutschen aber keinen wirklichen Plural, also die ‚geistige Kapazität‘ in vielfachen Ausprägungen, viele ‚reale‘ Wesen mit einem ‚realen‘ Geist. Die Übersetzung von ‚mind‘ als ‚Verstand‘ oder ‚Vernunft‘ ist nicht ganz falsch, aber auch nicht ganz richtig. Aber auch von ‚Verstand‘ und ‚Vernunft‘ gibt es im Deutschen keinen Plural! Das ist eigentlich interessant. Warum kann man im Deutschen von ‚Geist‘, ‚Verstand‘ und ‚Vernunft‘ nicht im Plural sprechen bzw. denken? Faktisch sind diese Eigenschaften an individuelle Körper gebunden, von denen es viele gibt. Warum kann man im Deutschen dann nicht von ‚den Geistern‘, den ‚Verständen‘, ‚den Vernünften‘ sprechen? Ich denke, hier zeigt sich in der Sprache etwas, das man nicht so einfach hinnehmen sollte.]
3) Das Kapitel startet mit der These, dass die Entwicklung ’symbolischer Fähigkeiten‘ (’symbolic skills‘) nicht durch Beschränkung auf ein isoliertes Gehirn alleine erklärt werden können, da es sich um Phänomene handelt, die ‚inhärent vernetzte Phänomene‘ (‚inherent network phenomena‘) sind.(vgl. S.252)
4) [Anmerkung: Wenn ich einen Körper als Ansammlung von vielen Zellen (ca. 14 Billionen, 14 * 10^12) verstehe, die in ihrer Ausformung von einem genetischen Bauplan und seiner ‚Umsetzung‘ in Form von ‚Wachstum‘ abhängig sind, dann kann ich die genetische und die ontogenetische Maschinerie natürlich bis zu einem gewissen Grad beschreiben, ohne explizit Bezug auf externe Faktoren zu nehmen. Eine solche Beschreibung ist auch nicht ‚falsch‘, da das, was ich beschreibe, ja empirisch aufweisbar ist. Dennoch kann diese empirische nicht falsche Beschreibung in ihrem Verzicht auf korrelierende Kontext-Faktoren möglicherweise entscheidende Faktoren ‚unterschlagen‘ (‚verdrängen‘,…). Dies wäre dann der Fall, wenn sich die ‚körperinternen‘ Faktoren in ihren Veränderungen nur ‚verstehen lassen würden‘, wenn man die korrelierenden Faktoren einbeziehen würde. Verstehen ist aber relativ, kriterienabhängig: welche Eigenschaften erscheinen einem ‚wichtig‘, so dass man sie in eine Erklärung einbeziehen möchte? ]
5) [Anmerkung: In einer empirischen Erklärung gelten nur Phänomene, die notwendig sind, um das Auftreten eines bestimmten Phänomens auch in Form einer Voraussage ‚erklären‘ zu können, etwa: Wenn X gegeben ist, dann wird Y mit einer Wahrscheinlichkeit von p auftreten. Wenn ich mehrere biologische Arten A1, …, Ak habe, die eine Eigenschaft P0 gemeinsam haben, sich aber jeweils in mindestens einer Eigenschaft P1, …, Pk voneinander unterscheiden, dann würde eine Beschränkung auf P0 zwar nicht falsch sein, aber eben nicht alles erklären. Um die Art Ai in ihrer Besonderheit erklären zu können, müsste ich die Eigenschaften P0 + Pi erklären, nicht nur P0 alleine.]
6) [Anmerkung: Wie im Falle biologischer Systeme bekannt, entwickeln sich besondere Arten Ai mit einer Spezialeigenschaft Pi in der Regel immer in Abhängigkeit von einer besonderen Umgebungseigenschaften Ei. Dies bedeutet, man kann das Auftreten der Eigenschaft Pi bei der Art Ai nicht ‚verstehen‘, wenn man die korrelierende Eigenschaft Ei nicht berücksichtigt. Aus diesem Grund betrachtet die moderne Biologie biologische Systeme Ai niemals isoliert, sondern immer nur im Kontext von jeweiligen umgebenden Lebensräumen Ei und die ‚Wechselwirkungen‘ zwischen Umgebung und der Population der Art Ai. Diese Wechselwirkungen setzen sich zusammen aus individuellen Eigenschaften des jeweiligen individuellen biologischen Systems (z.B. spezifische Wahrnehmungsfähigkeit, Verdauungsfähigkeit, Bewegungsform, usw.) und verbunden damit mit der Zahl der Nachkommen während der Lebenszeit. Die individuellen Fähigkeiten erweisen ihre Bedeutung in der Fähigkeit, dass die Population als Ganze in jeder Generation über hinreichend viele und fähige Nachkommen verfügt. Diese Sicht der Dinge war in der Biologie nicht immer schon da; sie musste Schritt für Schritt erarbeitet werden.]
7) [Anmerkung: Die These von Donald , dass man den Kontext einbeziehen muss, ist von daher einerseits nichts grundlegend Neues. Andererseits legt er den Finger auf Kontexteigenschaften, die als solche qualitativ verschieden sind von den vorausgehenden. ‚Symbole‘ sind vieldeutige Werkzeuge, die der Mensch so in der Natur nicht vorgefunden, sondern die er selber geschaffen hat. In dem Maße, wie er sie geschaffen hat, können sie zu einem Teil seiner Umgebung werden, die wie die ’natürliche‘ Umgebung auf ihn ‚einwirken‘ kann. Und hier kommt die nächste Besonderheit: Symbole als Umgebung wirken nicht nur physisch auf den Menschen ein wie die natürliche Natur, sondern sie beeinflussen die gedanklichen Prozesse des Menschen, sie bilden ‚Formen‘, ‚Muster‘, ‚Regeln‘, Strukturen‘, ‚Inhalte‘ usw. der gedanklichen Prozesse, mit Hilfe deren sich der Mensch in seiner Welt ‚orientiert‘. Die Orientierung besteht darin, dass der Mensch ‚im Medium seiner Gedanken‘ seine Wahrnehmungen von der Welt (und sich selbst) ‚interpretiert‘. Anders gesagt: mit den Symbolen als Werkzeug schafft der Mensch eine Umgebung, die auf ihn zurückwirken kann, und mit Hilfe von der er die Welt interpretiert; eine bizarre ‚Rückkopplung‘. Dies ist keine genetisch-ontogenetisch vermittelte Koevolution sondern eine symbolisch vermittelte Koevolution ‚mit sich selbst‘; das ist eine neue Qualität. Der Mensch schafft sich in symbolischen Räumen ein Medium, das als dieses Medium auf sein Denken zurückwirkt und darin permanent sein Medium verändert.]
8) [Anmerkung: Verglichen mit der genetischen basierten Evolution ist diese Art von symbolischer Koevolution um Dimensionen schneller. Durch die ‚Ungleichzeitigkeit‘ von genetischer und symbolischer Koevolution ist ein massiver Konflikt vorprogrammiert: wird die schnellere symbolische Evolution die langsamere genetische Evolution letztlich strukturell verändern können (durch ‚Gentechnik‘) oder wird die symbolische Evolution durch Schaffung eines ‚künstlichen Geistes‘ die genetische Evolution überflüssig machen? ]
9) Diese These bedeutet im Fall der Sprache, dass es – nach Donald — nicht die Fähigkeit zum Sprechen als solche war, die zum Phänomen der Sprache in ihrem vollem Umfang geführt hat, sondern in der Bildung von ‚gedanklichen Gemeinschaften‘ (‚cognitive communities‘). Dies bedeutet, das Zusammensein und das Zusammenwirken von mehreren Menschen als solchen muss gegeben gewesen sein, damit sich aus einem elementaren ‚Sprechen‘ ein ‚Sprache‘ entwickeln konnte. (vgl. SS.252-254)
10) [Anmerkung: So suggestiv diese Formulierungen von Donald klingen mögen, so erscheint mir doch Vorsicht geboten. Wie schon das einfache Beispiel mit den beiden Nervenzellen A und B andeutete, die ein UND oder OR-Gatter realisieren: der einzelnen Zelle kann man dies Eigenschaft nicht ansehen. Noch kann man sagen, dass A sich nur so entwickeln konnte, weil es B gab (oder umgekehrt); in dem Falle reicht es aus, dass sowohl A als auch B bestimmte Grundeigenschaften besitzen, die in Kombination unterschiedliche Funktionen ‚zeigen‘. Das gleiche gilt für Atome; auch wenn man nicht sagt, dass Wasserstoff ‚H‘ sich bilden musste, weil es Sauerstoff ‚O‘ gab (oder umgekehrt), gilt, dass eine Kombination von ‚H‘ und ‚O‘ zu ‚H2O‘ möglich ist und dann in dieser Kombination ’neue‘ Eigenschaften zeigt. M.a.W. das Vorkommen von einzelnen Gehirnen im Rahmen einer Population bedeutet, dass die Gehirne ‚ihre eigene Umgebung‘ sind. Das Besondere wäre nicht die Umgebung als solche, sondern die Tatsache, dass Gehirne spezielle Eigenschaften besitzen, die, wenn sie auf ein anderes Gehirn treffen, ’sichtbar‘ werden. Im Falle der Sprache als einem vernetzten Beziehungssystem von ‚Sprachmaterial‘ (‚token‘) ‚Z‘, möglichem ‚intentionalem Gegenstand‘ ‚O'(‚real‘ oder ‚gedacht‘), ‚gewusster Bedeutungsbeziehung‘ ‚B: Z <---> O‘ und einem ’semiotischen System‘ ‚S‘ als Träger und Realisator dieser Bedeutungsbeziehungen, sind Gehirne in einem Körper – soweit wir sie kennen – die idealen Mediatoren für Sprache: Gehirne können intentionale Gegenstände O ‚repräsentieren‘, sie können Zeichenmaterial Z ‚produzieren‘, sie können beliebige Bedeutungsbeziehungen B realisieren, und sie können diese Fähigkeiten als dynamische Systeme kontinuierlich einsetzen. Dies bedeutet, die Präsenz von mindestens zwei Gehirnen bietet alle Voraussetzungen dafür, dass sich Sprache bilden kann. ]
11) [Anmerkung: Vor diesem Hintergrund erscheint es bemerkenswert, dass die Wissenschaft sich bislang so schwer tut, Sprachbildungsprozesse mit dem Computer nach zu vollziehen. Seit den pionierhaften Talking-Heads Experimenten eines Luc Steels sind wir nicht viel weiter gekommen (siehe Quellen unten) (vergleicht man die Forschungsmittel, die generell ausgegeben werden mit jenen, die für Forschungen zur künstlichen Intelligenz ausgegeben werden, so ist der Betrag für künstliche Intelligenz so niedrig, dass man ihn kaum in Prozenten ausdrücken kann. Aber ich bezweifle, ob es nur am Geld liegt.]
12) Das erste, was Kinder in solchen gedanklichen Gemeinschaften lernen müssen, das ist ein Satz von ‚reziproken Verhaltensmustern‘, in denen man sich wechselseitig der Aufmerksamkeit versichern kann. Dies wiederum geht nur, sofern die Gedächtnisstrukturen hinreichend differenziert sind. Objekte, Relationen, Strukturen, Rollen, Abläufe usw. müssen erinnert werden können; Selbstmodelle und Fremdmodelle, die Metareflexionen voraussetzen. Dies alles impliziert komplexe Lernprozesse, die wiederum Zeit brauchen und entsprechende soziale Umgebungen, die dazu beitragen, dass bestimmte Muster ’sozial einprogrammiert‘ werden. (vgl.SS.254-257)
13) [Anmerkung: Aufgrund des nachweisbaren Zusammenhangs zwischen bestimmten Umgebungseigenschaften Ei und bestimmten Eigenschaften Pi einer bestimmten Art Ai ist die Versuchung groß, diesen Zusammenhang ‚kausal‘ zu interpretieren, also im Sinne ‚weil‘ es Ei gibt, daher bildete sich Pi heraus. Mir scheint, dies ist – wenn überhaupt – höchstens die ‚halbe Wahrheit‘. Bedenkt man die Funktionsweise der genetischen basierten Evolution, so ist die primäre Quelle von möglichen Strukturen das Wechselspiel von Selbstreproduktion des genetischen Codes und der molekularen Übersetzung des Codes in Proteinstrukturen als Ontogenese. Dies bedeutet, dass – egal welche Umgebungseigenschaften jeweils gegeben sind – primär der verfügbare genetische Code und dessen molekulare Übersetzung darüber entscheidet, was sich überhaupt an Strukturen bilden kann. So könnte es grundsätzlich auch so sein, dass die Menge der genetisch bedingten Strukturen grundsätzlich nicht zu den umgebungsmäßig gegebenen Eigenschaften Ei passen würde. In diesem Fall könnten die Umgebungseigenschaften niemals ‚bewirken‘, dass sich ‚geeignete‘ Strukturen bilden. Der Eindruck von möglichen kausalen Zusammenhängen ist ‚beobachterabhängig‘ und eher ein ‚Artefakt des Denkens‘. Dass es zu scheinbaren ‚Anpassungen‘ kommen kann ist zwar ein ‚Auswahlprozesse‘ (Selektion‘), aber nicht in dem Sinne, dass die gegebenen Umgebungseigenschaften Ei aller erst die speziellen genetischen Eigenschaften Gi schaffen, die zu den phänotypischen Eigenschaften Pi führen, sondern weil der genetische und ontogenetische Prozess ‚von sich aus‘ die Eigenschaften Gi bereitstellen kann bzw. sie bereitgestellt hatte können diese dann ’selektiert‘ werden, weil jene Phänotypen, die aus diesen Gi hervorgegangen sind, mehr Nachkommen haben, als jene Phänotypen, die aus einem anderen Genotyp Gj hervorgegangen sind. Die Dramaturgie von geologischem Erdprozess und genetisch basierter Evolution ist damit in keiner Weise aufgeklärt; hier gibt es mehr Fragen als Antworten.‘]
14) Donald ergänzt seine Bemerkungen zum Gedächtnis dahingehend, dass er für das menschliche Gedächtnis postuliert, dass es die beobachtbaren Verhaltensleistungen nur unterstützen kann, wenn es in viele funktional differenzierte Bereich aufgegliedert ist, die parallel arbeiten können. So müssten wir grundsätzlich unterscheiden können zwischen ‚Selbst‘ und ‚Anderer‘, ‚Gegenwart‘, ‚Vergangenheit‘ und ‚Zukunft‘. (vgl. SS.257-259)
15) [Anmerkung: Es ist interessant, wie vage und allgemein die Aussagen zum Gedächtnis sind, obgleich doch gerade das Gedächtnis so zentral sein soll für die symbolisch vermittelte Kultur (ein ähnliches Phänomen war bei Norman zu beobachten. Auch bei ihm waren die Aussagen zum Gedächtnis sehr vage, plakativ, nicht durch harte empirische Modellbildung abgesicherten. Andererseits, wenn man sieht, wie schwer sich selbst die neuesten neurowissenschaftlichen Forschungen zum Raumgedächtnis und episodischen Gedächtnis tun, dann darf man Donald hier nicht zu hart kritisieren. Aber zumindest sollte er dann darauf hinweisen, dass es ziemlich spekulativ ist, was er da sagt…]

LITERATURHINWEISE

Steels, L.; Cooperation between distributed agents through self-organisation, Intelligent Robots and Systems ’90. ‚Towards a New Frontier of Applications‘, Proceedings. IROS ’90. IEEE International Workshop on, pp. 8 – 14 supl, 1990
Steels, Luc (1990) „Components of Expertise“ , AI Magazine Volume 11 Number 2 (1990), pp. 28-49.
Steels, L.; Mathematical analysis of behavior systems, From Perception to Action Conference, 1994., Proceedings, pp. 88 – 95, 1994
Steels, L.; A self-organizing spatial vocabulary, Artificial Life Journal, 2(3), pp. 319-332, 1995
Steels, L.; Language Games for Autonomous Robots, IEEE Intelligent Systems , Volume 16 Issue 5, pp.16 – 22, 2001
Steels, Luc; (2001) Grounding Symbols through Evolutionary Language Games. In: Cangelosi A. and Parisi D. (Eds.) Simulating the Evolution of Language Springer.
Steels, L.; Evolving grounded communication for robots, Trends in Cognitive Science 7(7), July 2003, pp.308 – 312
Steels, L.; Semiotic Dynamics for Embodied Agents, Intelligent Systems, IEEE, Volume: 21 , Issue: 3, pp. 32 – 38, 2006
Steels, L.; The Symbol Grounding Problem has been solved. So What’s Next?, In Glenberg, A.; Graesser, A.; Vega, M. de; (Eds.), Symbols, Embodiment, and Meaning, Oxford University Press, pp. 506-557, 2008
Steels, L.; Work on Symbol Grounding now needs concrete Experimentation, Intern. J. of Signs and Semiotic Systems, 1(1), pp. 57-58, 2011
Steels, Luc (2011) „Design Patterns in Fluid Construction Grammar“ , Amsterdam: John Benjamins Pub.
Steels, Luc (2011) „Modeling the cultural evolution of language.“ Physics of Life Reviews, 8(4) pp. 339-356.

Fortsetzung folgt in Teil 3.

Einen Überblick über alle bisherige Blogeinträge nach Titeln findet sich HIER.

ERKENNTNISSCHICHTEN – Das volle Programm…

 

  1. Wir beginnen mit einem Erkenntnisbegriff, der im subjektiven Erleben ansetzt. Alles, was sich subjektiv als ‚Gegeben‘ ansehen kann, ist ein ‚primärer‘ ‚Erkenntnisinhalt‘ (oft auch ‚Phänomen‘ [PH] genannt).

  2. Gleichzeitig mit den primären Erkenntnisinhalten haben wir ein ‚Wissen‘ um ’sekundäre‘ Eigenschaften von Erkenntnisinhalten wie ‚wahrgenommen‘, ‚erinnert‘, ‚gleichzeitig‘, ‚vorher – nachher‘, ‚Instanz einer Klasse‘, ‚innen – außen‘, und mehr.

  3. Auf der Basis der primären und sekundären Erkenntnisse lassen sich schrittweise komplexe Strukturen aufbauen, die das subjektive Erkennen aus der ‚Innensicht‘ beschreiben (‚phänomenologisch‘, [TH_ph]), aber darin auch eine systematische Verortung von ‚empirischem Wissen‘ erlaubt.

  4. Mit der Bestimmung des ‚empirischen‘ Wissens lassen sich dann Strukturen der ‚intersubjektiven Körperwelt‘ beschreiben, die weit über das ’subjektive/ phänomenologische‘ Wissen hinausreichen [TH_emp], obgleich sie als ‚Erlebtes‘ nicht aus dem Bereich der Phänomene hinausführen.

  5. Unter Einbeziehung des empirischen Wissens lassen sich Hypothesen über Strukturen bilden, innerhalb deren das subjektive Wissen ‚eingebettet‘ erscheint.

  6. Der Ausgangspunkt bildet die Verortung des subjektiven Wissens im ‚Gehirn‘ [NN], das wiederum zu einem ‚Körper‘ [BD] gehört.

  7. Ein Körper stellt sich dar als ein hochkomplexes Gebilde aus einer Vielzahl von Organen oder organähnlichen Strukturen, die miteinander in vielfältigen Austauschbeziehungen (‚Kommunikation‘) stehen und wo jedes Organ spezifische Funktionen erfüllt, deren Zusammenwirken eine ‚Gesamtleistung‘ [f_bd] des Input-Output-Systems Körpers ergibt. Jedes Organ besteht aus einer Vielzahl von ‚Zellen‘ [CL], die nach bestimmten Zeitintervallen ‚absterben‘ und ‚erneuert‘ werden.

  8. Zellen, Organe und Körper entstehen nicht aus dem ‚Nichts‘ sondern beruhen auf ‚biologischen Bauplänen‘ (kodiert in speziellen ‚Molekülen‘) [GEN], die Informationen vorgeben, auf welche Weise Wachstumsprozesse (auch ‚Ontogenese‘ genannt) organisiert werden sollen, deren Ergebnis dann einzelne Zellen, Zellverbände, Organe und ganze Körper sind (auch ‚Phänotyp‘ genannt). Diese Wachstumsprozesse sind ’sensibel‘ für Umgebungsbedingungen (man kann dies auch ‚interaktiv‘ nennen). Insofern sind sie nicht vollständig ‚deterministisch‘. Das ‚Ergebnis‘ eines solchen Wachstumsprozesses kann bei gleicher Ausgangsinformation anders aussehen. Dazu gehört auch, dass die biologischen Baupläne selbst verändert werden können, sodass sich die Mitglieder einer Population [POP] im Laufe der Zeit schrittweise verändern können (man spricht hier auch von ‚Phylogenese‘).

  9. Nimmt man diese Hinweise auf Strukturen und deren ‚Schichtungen‘ auf, dann kann man u.a. zu dem Bild kommen, was ich zuvor schon mal unter dem Titel ‚Emergenz des Geistes?‘ beschrieben hatte. In dem damaligen Beitrag hatte ich speziell abgehoben auf mögliche funktionale Unterschiede der beobachtbaren Komplexitätsbildung.

  10. In der aktuellen Reflexion liegt das Augenmerk mehr auf dem Faktum der Komplexitätsebene allgemein. So spannen z.B. die Menge der bekannten ‚Atome‘ [ATOM] einen bestimmten Möglichkeitsraum für theoretisch denkbare ‚Kombinationen von Atomen‘ [MOL] auf. Die tatsächlich feststellbaren Moleküle [MOL‘] bilden gegenüber MOL nur eine Teilmenge MOL‘ MOL. Die Zusammenführung einzelner Atome {a_1, a_2, …, a_n} ATOM zu einem Atomverband in Form eines Moleküls [m in MOL‘] führt zu einem Zustand, in dem das einzelne Atom a_i mit seinen individuellen Eigenschaften nicht mehr erkennbar ist; die neue größere Einheit, das Molekül zeigt neue Eigenschaften, die dem ganzen Gebilde Molekül m_j zukommen, also {a_1, a_2, …, a_n} m_i (mit {a_1, a_2, …, a_n} als ‚Bestandteilen‘ des Moleküls m_i).

  11. Wie wir heute wissen, ist aber auch schon das Atom eine Größe, die in sich weiter zerlegt werden kann in ‚atomare Bestandteile‘ (‚Quanten‘, ‚Teilchen‘, ‚Partikel‘, …[QUANT]), denen individuelle Eigenschaften zugeordnet werden können, die auf der ‚Ebene‘ des Atoms verschwinden, also auch hier wenn {q_1, q_2, …, q_n} QUANT und {q_1, q_2, …, q_n} die Bestandteile eines Atoms a_i sind, dann gilt {q_1, q_2, …, q_n} a_i.

  12. Wie weit sich unterhalb der Quanten weitere Komplexitätsebenen befinden, ist momentan unklar. Sicher ist nur, dass alle diese unterscheidbaren Komplexitätsebenen im Bereich ‚materieller‘ Strukturen aufgrund von Einsteins Formel E=mc^2 letztlich ein Pendant haben als reine ‚Energie‘. Letztlich handelt es sich also bei all diesen Unterschieden um ‚Zustandsformen‘ von ‚Energie‘.

  13. Entsprechend kann man die Komplexitätsbetrachtungen ausgehend von den Atomen über Moleküle, Molekülverbände, Zellen usw. immer weiter ausdehnen.

  14. Generell haben wir eine ‚Grundmenge‘ [M], die minimale Eigenschaften [PROP] besitzt, die in einer gegebenen Umgebung [ENV] dazu führen können, dass sich eine Teilmenge [M‘] von M mit {m_1, m_2, …, m_n} M‘ zu einer neuen Einheit p={q_1, q_2, …, q_n} mit p M‘ bildet (hier wird oft die Bezeichnung ‚Emergenz‘ benutzt). Angenommen, die Anzahl der Menge M beträgt 3 Elemente |M|=3, dann könnte man daraus im einfachen Fall die Kombinationen {(1,2), (1,3), (2,3), (1,2,3)} bilden, wenn keine Doubletten zulässig wären. Mit Doubletten könnte man unendliche viele Kombinationen bilden {(1,1), (1,1,1), (1,1,….,1), (1,2), (1,1,2), (1,1,2,2,…),…}. Wie wir von empirischen Molekülen wissen, sind Doubletten sehr wohl erlaubt. Nennen wir M* die Menge aller Kombinationen aus M‘ (einschließlich von beliebigen Doubletten), dann wird rein mathematisch die Menge der möglichen Kombinationen M* gegenüber der Grundmenge M‘ vergrößert, wenngleich die Grundmenge M‘ als ‚endlich‘ angenommen werden muss und von daher die Menge M* eine ‚innere Begrenzung‘ erfährt (Falls M’={1,2}, dann könnte ich zwar M* theoretisch beliebig groß denken {(1,1), (1,1,1…), (1,2), (1,2,2), …}, doch ‚real‘ hätte ich nur M*={(1,2)}. Von daher sollte man vielleicht immer M*(M‘) schreiben, um die Erinnerung an diese implizite Beschränkung wach zu halten.

  15. Ein anderer Aspekt ist der Übergang [emer] von einer ’niedrigerem‘ Komplexitätsniveau CL_i-1 zu einem höheren Komplexitätsniveau CL_i, also emer: CL_i-1 —> CL_i. In den meisten Fällen sind die genauen ‚Gesetze‘, nach denen solch ein Übergang stattfindet, zu Beginn nicht bekannt. In diesem Fall kann man aber einfach ‚zählen‘ und nach ‚Wahrscheinlichkeiten‘ Ausschau halten. Allerdings gibt es zwischen einer ‚reinen‘ Wahrscheinlich (absolute Gleichverteilung) und einer ‚100%-Regel‘ (Immer dann wenn_X_dann geschieht_Y_) ein Kontinuum von Wahrscheinlichkeiten (‚Wahrscheinlichkeitsverteilungen‘ bzw. unterschiedlich ‚festen‘ Regeln, in denen man Z%-Regeln benutzt mit 0 < Z < 100 (bekannt sind z.B. sogenannte ‚Fuzzy-Regeln‘).

  16. Im Falle des Verhaltens von biologischen Systemen, insbesondere von Menschen, wissen wir, dass das System ‚endogene Pläne‘ entwickeln kann, wie es sich verhalten soll/ will. Betrachtet man allerdings ‚große Zahlen‘ solcher biologischer Systeme, dann fällt auf, dass diese sich entlang bestimmter Wahrscheinlichkeitsverteilungen trotzdem einheitlich verhalten. Im Falle von Sterbensraten [DEATH] einer Population mag man dies dadurch zu erklären suchen, dass das Sterben weitgehend durch die allgemeinen biologischen Parameter des Körpers abhängig ist und der persönliche ‚Wille‘ wenig Einfluß nimmt. Doch gibt es offensichtlich Umgebungsparameter [P_env_i], die Einfluss nehmen können (Klima, giftige Stoffe, Krankheitserreger,…) oder indirekt vermittelt über das individuelle ‚Verhalten‘ [SR_i], das das Sterben ‚begünstigt‘ oder ‚verzögert‘. Im Falle von Geburtenraten [BIRTH] kann man weitere Faktoren identifizieren, die die Geburtenraten zwischen verschiedenen Ländern deutlich differieren lässt, zu verschiedenen Zeiten, in verschiedenen sozialen Gruppen, usw. obgleich die Entscheidung für Geburten mehr als beim Sterben individuell vermittelt ist. Bei allem Verhalten kann man mehr oder weniger starke Einflüsse von Umgebungsparametern messen. Dies zeigt, dass die individuelle ‚Selbstbestimmung‘ des Verhaltens nicht unabhängig ist von Umgebungsparametern, die dazu führen, dass das tatsächliche Verhalten Millionen von Individuen sehr starke ‚Ähnlichkeiten‘ aufweist. Es sind diese ‚gleichförmigen Wechselwirkungen‘ die die Ausbildung von ‚Verteilungsmustern‘ ermöglichen. Die immer wieder anzutreffenden Stilisierungen von Wahrscheinlichkeitsverteilungen zu quasi ‚ontologischen Größen‘ erscheint vor diesem Hintergrund eher irreführend und verführt dazu, die Forschung dort einzustellen, wo sie eigentlich beginnen sollte.

  17. Wie schon die einfachen Beispiele zu Beginn gezeigt haben, eröffnet die nächst höhere Komplexitätstufe zunächst einmal den Möglichkeitsraum dramatisch, und zwar mit qualitativ neuen Zuständen. Betrachtet man diese ‚Komplexitätsschichtungen‘ nicht nur ‚eindimensional‘ (also z.B. in eine Richtung… CL_i-1, CL_i, CL_i+1 …) sondern ‚multidimensional‘ (d.h. eine Komplexitätsstufe CL_i kann eine Vielzahl von Elementen umfassen, die eine Komplexitätstufe j<i repräsentieren, und diese können wechselseitig interagieren (‚kommunizieren‘)), dann führt dies zu einer ‚Verdichtung‘ von Komplexität, die immer schwerer zu beschreiben ist. Eine einzige biologische Zelle funktioniert nach so einem multidimensionalen Komplexitätsmuster. Einzelne Organe können mehrere Milliarden solcher multidimensionaler Einheiten umfassen. Jeder Körper hat viele solcher Organe die miteinander wechselwirken. Die Koordinierung aller dieser Elemente zu einer prägnanten Gesamtleistung übersteigt unsere Vorstellungskraft bei weitem. Dennoch funktioniert dies in jeder Sekunde in jedem Körper Billionenfach, ohne dass das ‚Bewusstsein‘ eines biologischen Systems dies ‚mitbekommt‘.

  18. Was haben all diese Komplexitätstufen mit ‚Erkenntnis‘ zu tun? Nimmt man unser bewusstes Erleben mit den damit verknüpften ‚Erkenntnissen‘ zum Ausgangspunkt und erklärt diese Form von Erkenntnis zur ‚Norm‘ für das, was Erkenntnis ist, dann haben all diese Komplexitätsstufen zunächst nichts mit Erkenntnis zu tun. Allerdings ist es dieses unser ’subjektives‘ ‚phänomenologisches‘ ‚Denken‘, das all die erwähnten ‚Komplexitäten‘ im Denken ’sichtbar‘ macht. Ob es noch andere Formen von Komplexität gibt, das wissen wir nicht, da wir nicht wissen, welche Form von Erkenntnis unsere subjektive Erkenntnisform von vornherein ‚ausblendet‘ bzw. aufgrund ihrer Beschaffenheit in keiner Weise ‚erkennt‘. Dies klingt paradox, aber in der Tat hat unser subjektives Denken die Eigenschaft, dass es durch Verbindung mit einem Körper einen indirekt vermittelten Bezug zur ‚Körperwelt jenseits des Bewusstseins‘ herstellen kann, der so ist, dass wir die ‚Innewohnung‘ unseres subjektiven Erkennens in einem bestimmten Körper mit dem Organ ‚Gehirn‘ als Arbeitshypothese formulieren können. Darauf aufbauend können wir mit diesem Körper, seinem Gehirn und den möglichen ‚Umwelten‘ dann gezielt Experimente durchführen, um Aufklärung darüber zu bekommen, was denn so ein Gehirn im Körper und damit korrelierend eine bestimmte Subjektivität überhaupt erkennen kann. Auf diese Weise konnten wir eine Menge über Erkenntnisgrenzen lernen, die rein aufgrund der direkten subjektiven Erkenntnis nicht zugänglich sind.

  19. Diese neuen Erkenntnisse aufgrund der Kooperation von Biologie, Psychologie, Physiologie, Gehirnwissenschaft sowie Philosophie legen nahe, dass wir das subjektive Phänomen der Erkenntnis nicht isoliert betrachten, sondern als ein Phänomen innerhalb einer multidimensionalen Komplexitätskugel, in der die Komplexitätsstrukturen, die zeitlich vor einem bewussten Erkennen vorhanden waren, letztlich die ‚Voraussetzungen‘ für das Phänomen des subjektiven Erkennens bilden.

  20. Gilt im bekannten Universum generell, dass sich die Systeme gegenseitig beeinflussen können, so kommt bei den biologischen Systemen mit ‚Bewusstsein‘ eine qualitativ neue Komponente hinzu: diese Systeme können sich aktiv ein ‚Bild‘ (‚Modell‘) ihrer Umgebung, von sich selbst sowie von der stattfindenden ‚Dynamik‘ machen und sie können zusätzlich ihr Verhalten mit Hilfe des konstruierten Bildes ’steuern‘. In dem Masse, wie die so konstruierten Bilder (‚Erkenntnisse‘, ‚Theorien‘,…) die tatsächlichen Eigenschaften der umgebenden Welt ‚treffen‘ und die biologischen Systeme ‚technologische Wege‘ finden, die ‚herrschenden Gesetze‘ hinreichend zu ‚kontrollieren‘, in dem Masse können sie im Prinzip nach und nach das gesamte Universum (mit all seinen ungeheuren Energien) unter eine weitreichende Kontrolle bringen.

  21. Das einzig wirkliche Problem für dieses Unterfangen liegt in der unglaublichen Komplexität des vorfindlichen Universums auf der einen Seite und den extrem beschränkten geistigen Fähigkeiten des einzelnen Gehirns. Das Zusammenwirken vieler Gehirne ist absolut notwendig, sehr wahrscheinlich ergänzt um leistungsfähige künstliche Strukturen sowie evtl. ergänzt um gezielte genetische Weiterentwicklungen. Das Problem wird kodiert durch das Wort ‚gezielt‘: Hier wird ein Wissen vorausgesetzt das wir so eindeutig noch nicht haben Es besteht ferner der Eindruck, dass die bisherige Forschung und Forschungsförderung diese zentralen Bereiche weltweit kum fördert. Es fehlt an brauchbaren Konzepten.

Eine Übersicht über alle bisherigen Beiträge findet sich hier

RÜCKKEHR DER METAPHYSIK? Natur als Offenbarung? Universale Ethik?

Einbettung von Metaphysik in moderne Wissenschaft

 

 

 

 

(1) Im Zwiegespräch mit dem Text ‚Metaphysik der Erkenntnis‘ (erstmalig 1921) von Nicolai Hartmann trifft man auf zahlreiche Aporien (siehe die anderen Blogeintragungen). Hartmann nimmt seinen Ausgangspunkt bei der — für ihn grundlegenden – Beziehung zwischen einem ‚erkennenden Subjekt‘ und einem ‚erkannten Objekt‘. Dies in einer primär ‚phänomenologischen‘ Einstellung, die ihren Ausgangspunkt bei dem ‚Gegebenem‘ nimmt im Versuch, ’sichtbar zu machen‘, was sich vorfindet.

 

(2) Tatsächlich ist das, was wir im Bewusstseinserlebnis als aufscheinendes ‚Phänomen‘ vorfinden, das erste und einzige, was wir vorfinden. Nach Hartmann ist dieses aufscheinend Gegebene aber eingebettet in eine begleitend vorhandene ‚Reflexion‘, mittels der sich Eigenschaften fokussieren, abstrahieren und in Beziehung setzen lassen; nicht zuletzt lassen sich ‚Begriffe‘ bilden. Die Reflexion als solche ist nicht mehr ’neutral‘; sie kann das vorfindlich Gegebene verändern, modifizieren und damit in gewisser Weise interpretieren.

 

(3) Die ‚Abfallprodukte‘ der Reflexion bilden nicht automatisch eine ‚Theorie‘ verstanden als ein systematisches Begriffsnetzwerk, in dem alle Begriffe vollständig aufeinander bezogen sind entweder als ‚Grundterme‘ oder als ‚axiomatische Terme‘, eingebunden in Relationen und Axiome, repräsentiert in einer eigenen ‚Theoriesprache‘. Eine Theorie auf der Basis der primären Reflexion bildet eine ‚Metaebene‘ und stellt eine Konstruktion dar, die aus einer Vielzahl von Möglichkeiten eine Variante herausgreift. Zugleich ist jede Theorie eine bestimmte Interpretation. Eine interessante Frage ist, ob und wie sowohl die Begriffe der primären Reflexion wie auch die Strukturen einer Theorie in einem bestimmbaren Sinn ‚wahr‘ oder ‚falsch‘ sein können.

 

(4) Hartmann diskutiert die Frage der ‚Wahrheit‘ im Umfeld seiner Subjekt-Objekt-Relation mit einem sehr unspezifischen Begriff von ‚Erkenntnis‘. Er geht von der Annahme aus – die er nicht weiter begründet –, dass Wahrheit mit Übereinstimmung zu tun haben muss, nämlich der Übereinstimmung (oder Nicht-Übereinstimmung) von dem erkennbaren Objekt für das Subjekt mit einem Objekt an sich, das dem erkennenden Subjekt per definitionem nicht zugänglich ist; daher spricht er hier auch von einem ‚transzendentem Objekt‘ bzw. vom ‚Transobjektivem‘, das das erkennende Subjekt ‚objiziert‘ mithilfe von ‚Bestimmtheiten‘, die ein ‚Bild‘ des ursprünglichen Objektes darstellen, nicht das transzendente Objekt selbst. Die vom Transobjektivem objizierten Bestimmtheiten, die vom verursachenden Objekt verschieden sind, will er auch eine ‚Repräsentation‘ des Transobjektiven nennen.

 

 

(5) Das ‚Transobjektive‘, das vom erkennenden Subjekt nicht erreicht werden kann, ist damit auch nicht intelligibel, ist im vollen Sinne ‚irrational‘. Dennoch assoziiert Hartmann genau mit diesem Transobjektiven das eigentliche ‚Sein‘, ‚volle Wirklichkeit‘, ‚Realität‘. Hier verortete er die ontologische Dimension, den Fluchtpunkt jeder Metaphysik. In einer Metaphysik ist Erkenntnis nur ein Durchgang, ein Medium zur Erfassung und Beschreibung von ‚Wahrheit‘ als letztlich im ‚Sein‘ gründend.

 

 

(7) Der von ihm zuerst favorisierte Wahrheitsbegriff als Übereinstimmungsoperation wahr: OBJ x OBJ* —> {wahr, falsch} mit ‚OBJ‘ für das Transobjektive (verursachende) Sein und ‚OBJ*‘ als der Repräsentation des Transobjektiven für das erkennende Subjekt setzt die Verfügbarkeit des Transobjektiven in dieser Übereinstimmung voraus, ohne aber in der Lage zu sein, zu erklären, wie das erkennende Subjekt dies nutzen soll, da das Transobjektive ja per definitionem vom Erkennen eines Transobjektiven ausgeschlossen wurde. Die sich hier auftuende logische Antinomie verwirbelt Hartmann in bis zu vier unterschiedliche Aporien, die allesamt letztlich nur diese eine zentrale Antinomie umschreiben.

 

(8) Aktuell weiss ich noch nicht, wie es ab S.88 in seinem Buch weiter gehen wird. Bezogen auf seine bisherigen Ausführungen kann man nur sagen, dass er sich mit seinem bisherigen Begriffsapparat in einer Sackgasse befindet. Auch wenn er noch weitere Aporien durch Einführung neuer begrifflicher Gebilde generieren mag, sein Grundproblem wird er nicht lösen, solange er seine bisherigen Voraussetzungen nicht einer kritischen Re-Analyse unterzieht.

 

(9) Ob mein Lösungsansatz tatsächlich ein Lösungsansatz ist, muss sich in den weiteren Diskussionen und Experimenten noch zeigen, aber auf jeden Fall sehe ich einen gedanklichen Weg, der ohne die antinomischen Konstruktionen Hartmanns auskommt, der mit den großen Themen der Philosophie kompatibel ist, und der nicht zuletzt auch mit den tiefgreifenden Erkenntnissen der modernen Naturwissenschaften harmoniert (soweit wir heute meinen zu verstehen, was wir verstehen).

 

(10) Wie schon im Bremerhaven-Vortrag skizziert nehme ich auch den Ausgangspunkt im Raum der Phänomene (es gibt keine Alternative), allerdings mit der Differenzierung, dass sich im Gesamtbereich der Phänomene Ph eine spezielle Teilmenge der empirischen Phänomene Ph_emp identifizieren lässt. Dies sind solche Phänomene, die durch Verwendung von definierten Messprozeduren meas() generiert werden, etwa meas: Ph —> Ph_emp. Empirische Phänomene sind zwar auch Phänomene, aber eben solche, die auf eine spezielle Weise hervorgebracht werden, die unabhängig vom Körper eines Menschen ist. Nur das Produkt eines Messvorganges muss wahrnehmbar sein, der Messvorgang selber ist unabhängig von einem menschlichen Körper (und Gehirn, und Bewusstsein).

 

(11) Auf den ersten Blick wirkt dieser Hinweis auf die Teilmenge der empirischen Phänomene möglicherweise unscheinbar. Aber bei längerer Betrachtung zeigt sich, dass hier die Lösung für nahezu alle Aporien liegen kann, mit denen sich Hartmann herumschlägt.

 

(12) Natürlich gilt im Falle der empirischen Phänomene Ph_emp auch – wie im Falle aller Phänomene –, dass die empirischen Phänomene nicht ‚isoliert‘ dastehen, sondern auch eingebettet sind in die allgemeine ‚Reflexion‘, die alles Erleben begleitet und durchdringt; und es gilt auch, dass sich im Medium dieser Reflexion Unterscheidungen treffen lassen, Zusammenfassungen bilden lassen, Begriffe einführen lassen, Beziehungen aufzeigen lassen, usw. bis hin dazu, dass sich explizite Theorien formulieren lassen. Diese Reflexion, Begriffsbildungen, Theoriebildung unterscheidet sich im Allgemeinen in Nichts von der alltäglichen oder philosophischen Reflexion, wohl aber im Speziellen. Auf der Basis von empirischen Daten lassen sich nämlich eindeutiger und klarer als durch die rein körperbasierten Phänomene Ph\Ph_emp Begriffe mit einer ‚operationalisierten‘ Bedeutung einführen, darauf aufbauend Abstraktionen, Relationen und Gesetzmäßigkeiten unter kontrollierten Bedingungen und in mathematischer Form. Natürlich ist auch diese Form von Erkenntnisbildung nicht frei von Problemen (dazu gibt es weit mehr als 1000 wissenschaftliche Publikationen!), doch trotz all dieser Probleme hat die Praxis gezeigt, dass diese Erkenntnisstrategie trotz aller Spezialisierung Erkenntnisse (und Technologien) hervorgebracht hat, die noch vor 100 – 150 Jahren unvorstellbar waren.

 

(13) Mittels der Reflexion (und darauf aufbauenden Theorien oder theorieähnlichen begrifflichen Strukturen) lassen sich im Strom der Phänomene Objekte, Beziehungen, und Aktionen identifizieren, die das Bild eines ‚Außenraums‘ um den Körper herum entstehen lassen, der eine eigene Dynamik hat, die man heute ansatzweise in seiner evolutionären Dimension fassen kann. Ferner kann man im Bereich der identifizierbaren Objekte solche unterscheiden, die man durch spezifische Eigenschaften als ‚biologisch‘ qualifizieren kann, als ‚Körper‘ mit einer Innenstruktur, zu der u.a. ein Nervensystem (Gehirn) gehört. Durch Korrelation der empirischen Daten mit den Erlebnisdaten läßt sich die starke Hypothese formulieren, dass die uns primär zugänglichen Phänomene Ph im Raum des Bewusstseins Eigenschaften eines Nervensystems sind, das sich empirisch nur ‚von außen‘ messen und beschreiben läßt. D.h. man kann nicht die bewussten Erlebnisse selbst ‚messen‘, sondern nur physikalisch-chemische Eigenschaften des Nervensystems DAT_nn, die zeitlich mit bestimmten Erlebnissen Ph korrelieren.

 

(14) Abseits vieler ungelöster Detailfragen lässt sich eine generelle Schlussfolgerung auf jeden Fall ziehen: die Phänomene unseres Bewusstseins sind als solche keine Objekte der umgebenden Außenwelt! Vielmehr scheint es so zu sein, dass die ‚Zustände der Außenwelt‘ auf einen ‚Körper‘ einwirken können, der diese physikalisch-chemischen Einwirkungen mittels einer Vielzahl sogenannter ‚Sensoren‘ in ’neuronale Signale‘ ‚übersetzt‘, also etwa sens: ENV x IS —> IS x NN, d.h. die Menge aller Sensoren realisieren eine Abbildung von Umweltereignissen ENV – eventuell modifiziert durch aktuelle interne Zustände IS des Körpers – in eine Menge von neuronalen Signalen NN, eventuell begleitet von zusätzlichen internen Zuständen IS des Körpers.

 

(15) Wie wir heute schon wissen werden diese sensorisch induzierten neuronalen Signale NN_sens über ein komplexes Schaltwerk von Neuronen auf verschiedenen ‚Ebenen‘ und durch verschiedene ‚Querschaltungen‘ und ‚Rückkopplungen‘ zu abstrakteren Konzepten und Beziehungen ‚weiterverarbeitet‘. D.h. das, was uns irgendwann ‚bewusst‘ wird als Phänomen Ph ist in der Regel sowohl ein ’spätes Verarbeitungsprodukt‘ und zugleich eine ‚Auswahl‘ aller stattfindender neuronaler Zustände, also etwa nn: NN_sens x NN —> NN x Ph. Hierbei gilt die weitreichende Annahme, dass die Menge der Phänomene Ph aus Sicht des Gehirns letztlich eine Teilmenge, und zwar eine echte Teilmenge, der Menge aller neuronalen Zustände ist. Sei NN_ph jene Menge von Neuronalen Signalen, die mit den erlebten Phänomenen Ph korrelieren, und NN_nph die Menge der neuronalen Signale, die nicht mit Ph korrelieren, dann gilt, dass die Menge der neuronalen Signale NN = NN_ph u NN_nph, mit der Annahme, dass die Menge der neuronalen Signale NN_ph, die mit den erlebten Phänomenen Ph korrelieren, eine echte Teilmenge aller neuronalen Signale sind NN_ph  rsubset NN. Denn gerade in diesem Umstand der echten Teilmenge wurzelt der evolutionäre Gewinn des ‚Bwusstseins‘: durch die Möglichkeit einer ‚Abstraktion‘ von der beliebig großen Komplexität des begleitenden Körpers und eines kontinuierlich wachsenden Gehirns kann man aktuelles Entscheiden und Kommunizieren in einem überschaubaren Bereich halten.

 

(16) Zu sagen, dass die bewussten Phänomene Ph aus ‚Sicht des Gehirns‘ auch nur neuronale Zustände sind ist kein (logischer) Widerspruch zur Annahme, dass die Phänomene unseres Bewusstseins aus Sicht unseres Erlebens etwas Besonderes sind, das sich nicht auf neuronale Signale reduzieren lässt. Dies hat mit dem begrifflichen Rahmen zu tun, in dem man sich bewegt. Im phänomenologischen Kontext bewege ich mich im Raum meines Erlebens. Meine ‚Daten‘ DAT_ph sind die erlebbaren Phänomene meines Bewusstseins. Aufbauend auf diesen primären Daten kann ich Begriffsnetze entwickeln, ja sogar Theorien reflexion: DAT_ph —> Th_ph. Beschränke ich mich auf die Teilmenge der empirischen Phänomene Ph_emp habe ich zwar immer noch Phänomene, im Fall der empirischen Untersuchungen zum Körper und Gehirn benutze ich aber zusätzlich zum ’normalen‘ Erkennen empirische Messverfahren meas(), mit denen ich Eigenschaften des Körpers bzw. des Nervensystems untersuche, also meas: BODY x BRAIN —> DAT_bd x DAT_nn. Insofern ich diese Messwerte als Messwerte wahrnehmen kann, sind diese natürlich auch Phänomene Ph_emp_bd und Ph_emp_nn, aber das Besondere dieser Phänomene liegt nicht in dem, was ich als Messergebnis wahrnehme, sondern in der Art, wie ich dieses Phänomen erzeugt habe, eben durch einen zusätzlichen Messvorgang. Wenn ich also bei dem Drücken einer bestimmten Taste auf einem Klavier einen bestimmten Ton höre DAT_ph_ton_i, und die Neuropsychologen zeitlich gleichzeitig durch eine geeignete Messvorrichtung in bestimmten Bereichen meines Gehirns bestimmte Erregungsmuster DAT_nn_ton_i messen können, dann kann man in der Regel nicht direkt von DAT_nn_ton_i auf DAT_ph_ton_i schliessen oder umgekehrt, aber eine Versuchsperson Vpn, die einen Ton hört (DAT_ph_ton_i)Person_abc, und die zugleich das Messergebnis (DAT_nn_ton_i)Person_abc wahrnehmen kann, kann kontrollieren, ob es zwischen den empirischen Messwerten und ihren subjektiven Wahrnehmungen eine signifikante Korrelation gibt (wobei wir unterstellen, dass die ausgewählte Gehirnregion ‚relevant‘ ist). Insofern also solch eine Versuchsperson in dieser speziellen Konstellation eine signifikante Korrelation feststellen könnte, könnte man begründet vermuten, dass das erlebte Phänomen und die gemessenen neuronalen Zustände ‚identisch‘ sind in dem Sinne, dass Erlebnisse als indirekt messbare neuronale Zustände ‚auftreten‘. Davon zu unterscheiden ist die Frage, wie man das Phänomen des subjektiven Erlebens im Rahmen einer empirischen Theorie des Gehirns ‚erklärt‘. Offensichtlich handelt es sich um eine Art ‚Innensicht‘ des Gehirns, bei der ausgewählte Bereiche der Gehirnzustände dazu dienen, wichtige Steuerungsparameter des Gehirns auf einer hohen Abstraktionsebene so zu organisieren, dass sie sich u.a. auch mit symbolischer Sprache verknüpfen lassen.

 

(17) Zusammenfassend gilt, dass die jeweiligen Konstruktionen des Gehirns auf Basis der sensorischen und körpereigenen Signale DAT_nn_sens und DAT_bd vollständige Eigenleistungen des Gehirns sind. Letztlich baut das Gehirn mit seinen ‚Bordmitteln‘ eine ‚Theorie der umgebenden Welt‘ TH_nn_env mit sich selbst als ‚agierendem Objekt‘ Th_nn_ego subset Th_nn_env.

 

(18) In diesem Kontext stellt sich die ‚Wahrheitsfrage‘ – will man diesen klassischen Term beibehalten – auf mindestens zweifache Weise: (i) systemintern und (ii) in Relation zur umgebenden Außenwelt.

 

(19) Systemintern (hier ‚Wahrheit_1‘ genannt) stellt sich primär die Frage, ob die emergierenden Theorien Th_nn als hypothetische Deutungen der in den Daten DAT_nn implizit mitgegebenen Dynamiken mit den Daten hinreichend ‚kongruent‘ sind? D.h. gilt es, dass die Daten DAT_nn vollständig in der ‚Bildmenge‘ der Theorie(n) Th_nn vorkommen? Bzw. gilt, dass  DAT_nn_sens subset Th_nn(DAT_nn_sens)? Da jede Theorie aufgrund der ihr ‚innewohnenden‘ Generalisierungen grundsätzlich mehr Elemente in ihrer Bildmenge hat als sensorische Daten in sie eingehen, kann man nicht verlangen, dass sich zu allen theoretisch möglichen Bildelementen 1-zu-1-Entsprechungen in den Primärdaten finden lassen, wohl aber kann – und muss – man verlangen, dass alle tatsächlich auftretenden Primärdaten sich als Elemente der Bildmenge darstellen lassen. Wahrheit_1 wäre dann also genau die Erfüllung dieser Forderung, dass man also sagen könnte: Eine nuronale Theorie der Welt ist Wahr_1 genau dann, wenn gilt: DAT_nn_sens subset Th_nn(DAT_nn_sens). Also nicht Übereinstimmung sondern abschwächend ‚Enthaltensein‘. Der Bewusstseinsraum Ph als ‚Bewusstsein‘  CONSC ist hier verstehbar als korrespondierend mit eine Teilmenge NN_ph der Menge der neuronalen Zustände NN, also NN_ph subset NN und die zu prüfenden neuronalen Theorien sind Muster innerhalb von NN_ph und NN_nph und ihr Referenzpunkt (ihr ‚Kriterium‘) für Wahrheit_1 ist das Enthaltensein der auftretenden neuronalen Ereignisse in der Bildmenge der Theorie. Eine logische Antinomie und daraus sich herleitenden Aporien gibt es hier nicht.

 

(20) In Relation zur umgebenden Außenwelt (hier ‚Wahrheit_2‘ genannt) stellt sich die Frage nicht innerhalb eines Systems, da das einzelne System in seinem internen Modell ‚gefangen‘ ist. Die modernen empirischen Wissenschaften haben uns aber die Möglichkeit eröffnet, dass wir andere Körper – menschliche wie tierische und andere – als ‚empirische Objekte‘ untersuchen können. Zusätzlich können wir – bis zu einem gewissen Grad – die Entwicklung von Populationen im Laufe der Zeit untersuchen. In diesem Kontext kann man die Frage der ‚Passung‘ des Verhaltens einer Population zur jeweiligen Außenwelt nach unterschiedlichen Kriterien gewichten. Z.B. stellt das schlichte ‚Überleben‘ bzw. ‚Nicht-Überleben‘ ein Basiskriterium dar. Populationen, die nicht überleben, haben offensichtlich ein Verhaltensspektrum, was nicht geeignet ist, alle notwendigen ‚Aufgaben‘, die die jeweilige Umgebung stellt, in der verfügbaren Zeit befriedigend zu lösen. Insofern das Verhalten ein Ouput des Körpers mit seinem Nervensystem ist, das auf einem bestimmten Input basiert – also sys: IN x BD x NN —> OUT — muss man sagen, dass die Systemfunktion sys offensichtlich unzulänglich ist. Da jede Systemfunktion eine Synthese von Körper mit Nervensystem BD x NN bildet, von dem wir wissen, dass es auf biochemischem Wege über Genetik, Wachstum und Vererbung weitergegeben und zugleich ‚verformt‘ wird, könnte man sagen, ein Körper-mit-Nervensystem-System SYS_bd_nn hat eine ‚wahre_2‘ Struktur, wenn das potentielle Verhalten sys( IN x BD x NN) geeignet ist, dass die Population dieses Systems POP_sys überlebt. Hier wird also der Körper mit seinem Nervensystem und den im Nervensystem bildbaren ‚Modellen‘ Th_nn einheitlich als ein dynamisches Modell sys() gesehen, das alle für das Überleben notwendigen Eigenschaften in der umgebenden Außenwelt hinreichend abbilden und gestalten kann. Das ‚Transobjektive‘ von Hartmann könnte in diesem Kontext interpretiert werden als die umgebenden Außenwelt, die auf den jeweiligen Körper einwirkt und über die verfügbaren Sensoren in dem Körper ein ‚Bild ihrer selbst‘ erzeugt, das nicht die Außenwelt ist, wie sie ‚an sich‘ ist, sondern die Außenwelt, wie sie aufgrund einer kausalen Wirkkette innerhalb eines Organismus repräsentiert werden kann. Die verfügbare neuronale Maschinerie generiert aus diesem primären ‚Bild‘ unterschiedliche komplexe Theorien, die über die konkreten einzelnen Daten hinausreichen (sie ‚transzendieren‘) und mittels einer Theorie ein übergreifendes Bild von einem ‚transzendierenden Objekt‘ entwerfen. Dieses selbst generierte ‚Bild eines Urbildes‘ kann mit dem Urbild – von einem Metastandpunkt aus betrachtet — mehr oder weniger ‚übereinstimmen‘ –also: wahr2: ENV x BD x NN x IN —> {passt, passt-nicht} –, doch ist diese Art von Passung dem individuellen System nicht zugänglich! Sie erschliesst sich nur in einer empirischen Untersuchung, die historische Entwicklungen untersuchen kann.

 

(21) Behält man das Verständnis von Metaphysik als Wissenschaft vom Seienden bei, das sich durch und jenseits der Erkenntnis erschließt und das unabhängig von der Erkenntnis existiert, dann müsste man nun sagen, Metaphysik ist im Prinzip möglich, nicht jedoch als Disziplin individuellen Erkennens, sondern nur als empirische Disziplin, die in einem Netzwerk betrieben wird. Moderne empirische Wissenschaften mit explizitem Theorieanteil, die die Leistungsfähigkeit von Populationen unter expliziter Berücksichtigung des neuronal basierten Verhaltens mit Bezug auf ihre Umwelt untersuchen, bilden gute Kandidaten für eine moderne Metaphysik.

(22) Man kann diese Überlegungen auf vielfältige Weise ergänzen und weiterführen. Ein interessanter Aspekt ist der ‚Offenbarungscharakter‘ von Natur. Wenn man bedenkt, wie umfangreich der Weg vom sogenannten Big-Bang (reine Energie mit einer unvorstellbar großen Temperatur) über Ausdehnung, Sternenbildung, Elementbildung, Bildung unserer Galaxie mit einem komfortablen Platz für unser Sonnensystem, mit einem komfortablen Platz für unsere Erde mit einer extrem günstigen Konstellation aller Planeten, der Entstehung von Molekülen aus Elementen, bis hin zu den ersten Zellen (bis heute letztlich ungeklärt)(vor ca. -3.2 Milliarden Jahren), von da aus eine ‚endogen und interaktiv  getriebene Entwicklung‘ genannt Evolution hin zu körperlichen Strukturen mit vielen Zellen, hin zu Nervensystemen (Start vor ca. -700 Mio Jahren), hin zu Körpern und Gehirnen, die explizite Modelle ihrer Umwelt und ihrer selbst entwickeln können, die symbolische Sprache erfunden haben und vieles mehr. Entscheidend: von der reinen Energie am Anfang sind wir zu Gehirnzuständen gekommen, in denen sich das Universum gleichsam ’selbst‘ anschauen kann, den Augenblick, das Einzelne, aber auch Alle und die ganze Entwicklung. Im Bewusstsein eines JEDEN Menschen kann sich potentiell das gesamte Universum mit allen seinen Facetten ‚versammeln‘, ‚aufscheinen‘. Ich habe nicht den Eindruck, dass irgendein Mensch sich der Tragweite dieses Faktums bewusst ist. Und bezogen auf die klassischen Offenbarungsreligionen (Judentum, Christentum, Islam) habe ich den Eindruck, dass diese die Menschen, statt sie mehr und tiefer zu Gott und einer Ehrfurcht vor dem Leben hinzuführen, eher dazu dienen, die Menschen Gott zu entfremden und das Leben – auch in Gestalt anderer Menschen – zu verachten, zu hassen oder gar zu töten. Ein solches Verhalten ist NIEMALS die Botschaft des Lebens, wenngleich das ‚Fressen und Gefressenwerden‘ im Bereich des Lebens eine Eigenschaft darstellt, die an die Notwendigkeit der Verfügbarkeit von hinreichender Energie gekoppelt ist. Doch in der Gestalt des Menschen hat das biologische Leben einen Punkt erreicht, bei dem dieses zwanghafte Fressen und Gefressenwerden prinzipiell durchbrochen werden kann. Wir haben die grundsätzliche Möglichkeit –zum ersten Mal seitdem es dieses Universum gibt!!! — die Gesetze des Lebens neu zu gestalten, neu zu formen, ja, letztlich können wir im Prinzip das gesamte bekannte Weltall von Grund auf neu umformen (natürlich nicht an einem Tag….). Genau dazu sind wir ‚berufen‘. Aber wen interessiert schon die Wahrheit2? Noch liegt immer ein gewisser ‚Schleier‘ über der Bestimmung des gesamten Lebens. Dass es auch irgendwo anders im riesigen Universum ähnliches der gar gleiches Leben wie unseres geben sollte, ist grundsätzlich weder auszuschließen noch würde es unserer ‚Bestimmung‘ irgendeinen Abbruch tun. Die Erkenntnis des ‚gemeinsam Gewordenseins‘ enthält in sich eine gemeinsame Berufung für das Ganze, von dem wir in Gestalt des messbaren Universums möglicherweise bislang nur einen kleinen Zipfel sehen (so wie unser Gehirn im Körper sich als ‚Herr der Dinge‘ erlebt, obgleich es doch, wie wir heute wissen können, nur einen winzigen Ausschnitt eines viel Größeren erlebt). ‚Wahrheit‘ ist das jeweils ‚Größere‘ (Magis), dem wir uns beugen und dienen müssen, da wir als einzelne nicht ‚Herr des Geschehens‘ sind. Insofern wir aber untereinander mit allem unauflöslich ‚verbunden‘ sind, ist diese individuelle Beschränkung nur relativ.

 

 

Eine direkte Fortsetzung findet sich hier

 

 

Eine Übersicht zu allen Beiträgen des Blogs findet sich im begleitenden cogntiveagent-Wiki

 

 

 

 

 

 

CARTESIANISCHE MEDITATIONEN III, Teil 8

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 26.Dezember 2011
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

(114) Den rote Faden der Rationalität, der die ‚universale Philosophie‘ mit den ‚Tatsachenwissenschaften‘ verbindet, formuliert Husserl an einer Stelle auch wie folgt: ‚Alle Rationalität des Faktums liegt ja im Apriori. Apriorische Wissenschaft ist Wissenschaft von dem Prinzipiellen, auf das Tatsachenwissenschaft rekurrieren muss, um letztlich, eben prinzipiell begründet zu werden…‘ (vgl. CM2, S.38, Z28f) Dies klingt auf den ersten Blick so klar. Doch lässt man sich auf die Magie der Worte ein, dann können sich zuvorderst erscheinende Strukturen verschieben, und in der Folge weiteren Nachdenkens können Strukturen sichtbar werden, die einfach anders sind.

(115) Beginnen wir mit den Begriffen ‚Apriorische Wissenschaft‘ und ‚Tatsachenwissenschaft‘. Wie so oft, ist der Begriff der ‚Tatsache‘ nicht wirklich definiert. Aus dem Kontext können wir nur erschließen, dass Husserl jene Gegebenheiten meint, die die empirischen Wissenschaften als ‚gültig‘ beschreiben. Aus Sicht der Phänomenologie sind diese als ‚Tatsachen‘ bezeichneten Gegebenheiten zunächst einmal Phänomene wie alle anderen Phänomene auch. Aus Sicht der Phänomenologie gibt es nur die Menge der Phänomene [Ph], wie sie im Bewusstsein erscheinen unabghängig davon, wie eine bestimme Denkdisziplin eine mögliche Teilmenge von diesen darüber hinaus bezeichnet. Wenn also die empirischen Wissenschaften darüber überein gekommen ist, innerhalb der Menge der Phänomene Ph eine bestimmte Teilmenge auszuzeichnen und dieser Teilmenge den Namen ‚empirische Phänomene [Ph_emp]‘ verleihen, dann kann man dies tun; die Menge der empirischen Phänomene Ph_emp bleibt damit aber dennoch primär eine Menge von Phänomenen Ph, also Ph_emp subset Ph.

(116) Husserl charakterisiert den Übergang vom ’naiven‘ Alltagsbewusstsein zum ’nicht-naiven‘ –sprich ‚kritischen‘– philosophischen (phänomenologischen) Bewusstsein   zuvor durch die Reduktion mittels Epoché, durch die Bewusstwerdung davon, dass alles –insbesondere das Weltliche– nur etwas ist im Bewusstsein, als Gegebenes des transzendentalen ego. (vgl. z.B. CM2, S8f) Damit verschwinden keine Phänomene, auch nicht die, die ‚empirisch‘ genannt werden, es wird nur ihre ‚Interpretation‘ als etwas, das  ein ausserhalb des Bewusstsein Liegendes sei (z.B. der Außenraum, das Andere, die Welt), eingeklammert und aller Sinn beschränkt auf jenen Sinn, der sich aus der Unhintergehbarkeit des ‚Im-Wissen-des-Wissens-um-sich-Selbst-und-seiner-Gegebenheiten‘ (zuvor schon abkürzend transzendentales Subjekt trlS bezeichnet) ergibt.

(117) Folgt man diesem Gedanken, stellt sich nur die Frage, wie ein so transzendental bezogenes Gegebenes jemals wieder als ‚Bote einer anderen Welt‘, und zwar wenigstens hypothetisch, gedacht werden kann? Wie kann ein trlS ‚in sich‘ bzw. ‚aus sich heraus‘ jenes ‚Andere‘ erkennen, das von ihm weg auf etwas anderes verweist, ohne dabei das Gegebensein im trlS zu verlieren? Sofern ein bestimmtes Gegebenes nicht im Kontext von speziellen Eigenschaften W  vorkommt, die das trlS dazu ‚berechtigen‘, auf ein ‚jenseits von ihm selbst‘ (ein Transzendentes) verweisen zu können, wird man die Frage negativ bescheiden müssen. Und die vorausgehenden Reflexionen zum husserlschen transzendentalen ego haben ja gerade zum Konzept des trlS geführt, weil im tiefsten Innern des Transzendentalen, in seinem ‚Kern‘, in seiner ‚Wurzel‘,…. das ‚Andere‘ schon immer da ist. Nur weil das ‚Wissen um sich selbst‘ als dieses  spezielle Wissen das im Wissen als etwas Gegebenes als ‚etwas von dem Wissen Verschiedenes‘, als ein ‚wesentlich Anderes‘ schon immer denknotwendig vorfindet, kann das trlS sowohl den Begriff des Anderen denken wie auch den Begriff des ‚für sich Seins‘ eines Anderen. Da dieses Andere in vielfältigen Eigenschaftskombination sowie in mannigfaltigen dynamischen Abläufen auftritt, zeigt sich das Andere nicht nur mit einem ‚Gesicht‘; es kann sehr viele verschiedene Namen bekommen.

(118) Wenn also in der Epoché die ‚Weltgeltung‘ bestimmter Phänomene innerhalb des Wissens um sich selbst thematisiert wird und damit dieses Wissen sich seiner ‚kritischen Funktion‘ bewusst wird, ermöglicht sich zwar auf der einen Seite ein spezieller reflektierender Umgang mit diesen Phänomenen, durch diesen reflektierenden Umgang wird aber die jeweilige ‚phänomenologische Qualität‘, die jeweilige Mischung von Eigenschaften, die ein Phänomen konstituieren, nicht ausgelöscht; diese Eigenschaften bleiben, wie sie sind. Die grundsätzliche (transzendentale!) Andersartigkeit jeden Phänomens bleibt erhalten und innerhalb dieser unhintergehbaren Andersartigkeit deutet sich in vielen Phänomenen samt ihrem Kontext ein ‚Jenseits‘, eine ‚Transzendenz‘ an, die den Phänomenen und der Art ihres Erscheinens ‚innewohnt‘. In diesem Sinne muss man sagen, dass der transzendentale Charakter des ‚Anderem im für uns sein‘ ergänzt werden muss um die Eigenschaft der ‚Transzendenz‘ als etwas dem Anderen wesentlich Zukommendes.

(119) Das Wissen um sich ‚besitzt‘ das andere ’nicht‘, sondern es ‚empfängt‘ es. Anders gewendet, im kontinuierlichen Empfangen des transzendental Anderen ‚zeigt sich‘ (revelare, revelatio, Offenbarung) etwas ganz anderes als wesentlicher Teil unseres für uns Seins. Und da dieses sich kontinuierlich Zeigen (Offenbaren) aufgrund der Endlichkeit jeden einzelnen Phänomens im Kommen und Gehen und ‚zusammenbindenden Erinnern‘ eine ’nicht abschließbare Endlichkeit‘ ist, eine ‚unendliche Endlichkeit‘, verweist jedes konkrete Phänomen durch diese ‚gewusste Nichtabschließbarkeit‘ auf ein ‚Jenseits‘ des aktuell Gegebenen, manifestiert sich eine ‚Transzendenz‘, die im Wissen um sich und für sich zu einem ‚Faktum‘ wird, dessen kontinuierliche Endlichkeit ein Begreifen, ein ‚Gefasstwerden‘, einen Abschluss, eine Einheit, eine …. herausfordert.

(120) Innerhalb der allgemeinen Menge der Phänomene Ph  eine spezielle Menge der empirischen Phänomene Ph_emp aussondern zu können setzt somit voraus, dass diesen ausgesonderten Phänomenen qua Phänomene etwas zukommt, das diese Aussonderung rechtfertigt. Es ist eine Erfahrungstatsache, dass bis auf jene Menschen, die als ‚psychisch gestört‘ klassifiziert werden, zwischen Menschen immer eine Einigung darüber möglich ist, ob ein bestimmtes Phänomen ein empirisches Phänomen x in Ph_emp ist oder nicht x -in Ph_emp. Diese Praxis ist möglich, weil es vorab zu dieser Praxis als notwendige Eigenschaften der empirischen Phänomene etwas gibt, was sie von anderen abhebt und aufgrund deren Gegebenheit Menschen diese Unterscheidung treffen können. Die empirischen Wissenschaften, die sich auf diese Teilmenge Ph_emp der allgemeinen Phänomene Ph berufen, sind in dieser Berufung noch nicht verschieden von der allgemeinen phänomenologischen Philosophie. Die Phänomene als Phänomene sind reell, sind gegeben, unabhängig davon, wie ich sie darüber hinaus ‚interpretiere‘, ob ’naiv‘ hinnehmend oder ‚kritisch‘ einordnend.

(121) Das übliche Kriterium in den empirischen Wissenschaften, mittels dessen die empirischen Phänomene Ph_emp von der allgemeinen Menge der Phänomene Ph ‚ausgesondert‘ wird, ist das ‚Experiment‘. Ein Experiment ist eine Ereignis- bzw. Handlungsfolge,  deren Kennzeichen ist, dass sie jederzeit von jedem wiederholbar sein müssen und dass bei gleichen Ausgangsbedingungen die gleichen (Mess-)Ereignisse  auftreten. Eine detaillierte phänomenologische Beschreibung wäre etwas umfangreicher. An dieser Stelle sollen nur die Kernaussagen festgehalten werden. Dazu bezeichnen wir alle Phänomene, die im Kontext eines Experimentes auftreten, als Ph_exp. Das Experiment als solches ist nicht notwendig, sondern ‚kontingent‘. Man kann ein Experiment durchführen, aber man muss nicht. Allerdings, wenn man ein Experiment durchführt, dann gilt, dass das das zu messende Phänomen Ph_emp  mit ‚Notwendigkeit‘ immer auftritt. Man kann also sagen, die empirischen Phänomene sind eine Schnittmenge aus den allgemeinen Phänomenen und den experimentellen Phänomenen Ph_emp = Ph cut Ph_exp. Mit all diesen Besonderheiten bleiben sie aber genuine Phänomene und fallen nicht aus dem Bereich einer phänomenologischen Reflexion heraus. Ein phänomenologischer Philosoph kann die experimentellen empirischen Phänomne betrachten wie er alle anderen Phänomene auch betrachtet.

(122) Das einzelne empirische Phänomen als solches besagt aber so gut wie nichts. Es gewinnt einen möglichen ‚Sinn‘ erst durch die zusätzliche Eigenschaft, dass es nicht nur ‚kontingent‘ im Sinne von ‚regellos‘, ‚zufällig‘ ist, sondern dass es im Zusammenhang mit anderen empirischen Phänomenen etwas ‚Nicht-Kontingentes‘, etwas ‚Nicht-Zufälliges‘  erkennen läßt. Diese Beschreibung schließt mit ein, dass man sagen kann, wie genau die Eigenschaft ‚Zufällig-Sein‘ (Kontingent-Sein) definiert wird. Wir setzen an dieser Stelle einfach mal voraus, dass dies geht (was alles andere als ‚trivial‘ ist!). Nicht-Zufälliges kann z.B. auftreten in Form von Zufallsverteilungen oder aber sogar bisweilen in Gestalt eines ‚gesetzmäßigen Zusammenhangs‘, dass immer wenn ein Phänomen p_i auftritt, ein anderes Phänomen p_j zugleich mit auftritt oder dem Phänomen p_i ‚folgt‘. In diesem Sinne gibt es im Bereich der Phänomene ’notwendige Zusammenhänge‘, die das Denken im Anderen  ‚vorfindet‘. Wichtig ist aber, dass es sich hier um Eigenschaften handelt, die den Phänomenen als Phänomenen zukommen, die nicht aus dem phänomenologischen Denken herausfallen. Ja, mehr noch, es geht hier nicht um ‚primäre‘ Eigenschaften der Phänomene, sondern um ‚phänomenübersteigende‘ Eigenschaften, die auf Zusammenhänge verweisen, die nicht dem einzelnen Phänomen als solchen zukommen, sondern sie verweisen auf ‚Formen des dynamischen Erscheinens‘ von Phänomenen.

(123) Diese ‚das einzelne Phänomen übersteigende Eigenschaften‘ setzen eine Erinnerungsfähigkeit voraus, die aktuell Gegebenes (Aktuales) ‚im nächsten Moment‘ nicht vollständig vergisst, sondern in der Lage ist, ‚Vorher Aktuales‘ wieder zu ‚erinnern‘ und es darüber hinaus noch mit dem ‚jetzt Aktualen‘ in Beziehung zu setzen, z.B. in einem ‚Vergleich‘. Diese Fähigkeit des impliziten Erinnerns gehört unserem Denken zu, ist eine dem Denken inhärierende Eigenschaft, ohne die wir keinen einzigen Zusammenhang denken könnten. In diesem Sinne ist das Erinnern und aus der Erinnerung heraus ‚Beziehen‘ können denknotwendig, transzendental.

(124) Durch Experimente kann das phänomenologische Denken allerdings ermitteln, dass das, was erinnert wird  [Ph_mem]  mit dem ‚ursprünglich Wahrgenommenen‘ [Ph_aktual] nicht identisch sein muss und in der Regel auch nicht identisch ist. Also  Ph_mem = Erinnern(Ph_aktual) & Ph_mem != Ph_aktual. D.h. das Erinnern ist keine 1-zu-1 Kopie des vorausgehenden Aktualen sondern –im Normalfall– eine ‚Modifikation des Originals‘. Es ist eine eigene Wissenschaft, zu erforschen, ob und in welchem Umfang diese Modifikationen selbst ‚gesetzmäßig‘ sind. Wichtig an dieser Stelle ist nur, dass man sich bewusst ist, dass das dem Denken transzendental innewohnende Erinnern im Normalfall eine Form von ‚Transformation‘ darstellt, die dem Denken zwar ’neue‘ Eigenschaften des Anderen aufscheinen lässt, aber diese ’neuen‘ Eigenschaften resultieren aus dem Denken selbst. Das ‚Einordnen‘ von Phänomenen in einen ‚gedachten Zusammenhang‘ ist primär ein Akt des Denkens und damit genuin phänomenologisch. Gedachte Zusammenhänge sind aber  als ‚gedachte‘ keine ‚primäre‘  Phänomene sondern ‚abgeleitete‘, ’sekundäre‘ Phänomene. Als ‚gewusste‘ sind sie ‚evident‘, in ihrem möglichen Bezug zu primären Phänomenen können sie ‚divergieren‘, ‚abweichen‘, sich ‚unterscheiden‘.

(125) Das, was sich im Denken zeigt, sind die Phänomene. Sehr verbreitet ist die Redeweise, in der bestimmte Phänomenkomplexe in besonderer Weise als ‚Objekte‘ [Obj] aufgefasst werden. Diese können als Wahrnehmungsobjekte [Obj_perc] auftreten, als  Erinnerungsobjekte [Obj_mem] oder als Denkobjekte [Obj_cog]. In aller Spezifikation bleiben sie Phänomene und gehören zum phänomenologischen Denken. Auch die empirischen Wissenschaften benutzen solche speziellen Objektkonzepte wie ‚Atom‘, ‚chemische Verknüpfungen‘ usw.

(126) Charakteristisch für empirische Theorien ist aber letztlich, dass die gefundenen Zusammenhänge zusätzlich  in einem System von Zeichen (Sprache) so abgebildet werden können, dass sich auf der Basis solcher symbolischer Darstellungen sowohl ein Bezug zu den primären Phänomenen herstellen läßt wie auch, dass sich unter Hinzuziehung eines Folgerungsbegriffs   logische Schlüsse ziehen lassen.

(127) Hierzu müsste man erklären, wie man innerhalb einer phänomenologischen Theorie den Begriff des Zeichens einführen kann.  Dies soll an dieser Stelle nicht geschehen. Husserl selbst lässt diesen zentralen Punkt ganz beiseite. Wir halten hier nur fest, dass an dieser Stelle solch eine Einführung stattfinden müsste; ohne sie wäre das Konzept einer (empirischen) wissenschaftlichen Theorie wesentlich unvollständig.

(128) Blicken wir nochmals zurück. Erinnern wir die Feststellung Husserls ‚Apriorische Wissenschaft ist Wissenschaft von dem Prinzipiellen, auf das Tatsachenwissenschaft rekurrieren muss, um letztlich, eben prinzipiell begründet zu werden…‘ (vgl. CM2, S.38, Z28f)  Die bisherigen Überlegungen haben gezeigt, dass die empirischen Wissenschaften sich zunächst nicht von der phänomenologischen Philosophie unterscheiden. Sie basieren auf den gleichen Phänomenen und sie benutzen das gleiche Denken. Insofern die empirischen Wissenschaften versuchen, im Raum der Phänomene Zusammenhänge aufzuspüren, Regelhaftigkeiten, müssen sie auf allgemeine Eigenschaften des Anderen rekurrieren, indem sie sich dieser Zusammenhänge ‚bewusst werden‘ und diese als ‚denknotwendige Zusammenhänge‘ explizit machen, bewusst machen, und dann konzeptuell und semiotisch benennen. Empirische Wissenschaften tun dies ‚phänomengeleitet‘, aber auch bestimmten Methoden folgend, die ein Minimum an ‚Wissen um‘ Phänomene und allgemeine Eigenschaften des Denkens einschließt.

(129) Eine klare Abgrenzung zu einer phänomenologischen Philosophie dürfte letztendlich schwierig sein, da ja auch ein phänomenologischer Philosoph nie in jedem Augenblick ‚das Ganze‘ denken kann, sondern immer nur schrittweise  Teilaspekte reflektiert, die er dann ebenso schrittweise zu größeren Perspektiven ‚zusammenfügen‘ kann. Mir scheinen vor diesem Hintergrund die eher zur Gegenübersetzung von Philosophie und empirischer Wissenschaft anregenden Formulierungen von Husserl nicht so geeignet zu sein. Stattdessen würde ich eher den ‚inklusiven‘ Charakter betonen. Empirische Wissenschaft ist grundsätzlich ein Denkgeschehen, was ‚innerhalb‘ des phänomenologischen Denkens stattfindet. Empirisches Denken stellt insoweit eine ‚Teilmenge‘ des phänomenologisch-philosophischen Denkens dar, insoweit das empirische wissenschaftliche Denken (i) einmal die Menge der zu betrachtenden Phänomene mittels eines überprüfbaren Kriteriums ‚beschränkt‘ und (ii) bei den reflektierenden Betrachtungen nicht alles reflektiert, was man reflektieren könnte, sondern sich auf jene Aspekte beschränkt, die notwendig sind, um die empirisch motivierten Zusammenhänge angemessen zu denken.  Wie die fortschreitende Entwicklung der empirischen Wissenschaften zeigt, können sich die Grenzen empirisch-wissenschaftlicher Reflexion beständig verschieben in Richtung solcher Inhalte, die traditionellerweise nur in der Philosophie zu finden waren. Dass heutzutage Ingenieure über die Konstruktion eines ‚künstlichen‘ Bewusstseins grübeln, kann sehr wohl geschehen im Einklang einer genuinen phänomenologisch-philosophischen Reflektion aller Gegebenheiten eines transzendentalen Subjekts.

Fortsetzung folgt.

ÜBERSICHT: Eine Übersicht über alle Blog-Beiträge nach Themen findet sich HIER