DECHER – HANDBUCH PHILOSOPHIE DES GEISTES – PLATON – DISKURS (Teil 3)

Decher, Friedhelm, Handbuch der Philosophie des Geistes, Darmstadt: WBG Wissenschaftliche Buchgesellschaft, 2015 (Im Folgenden abgekürzt: HPG)

KONTEXT

  1. Nach der kurzen Einführung in das Phänomen Geist beginnt Decher seine gedankliche Expedition zum Begriff Geist bei den  alten Ägyptern und den Vorsokratikern. In Teil 2 habe ich darauf hingewiesen, dass die Verwendung der zentralen Begriffe wie Noos/ Nous, Thymos, Psyché, Aisthesis, Noema, Logos und deren Interpretation grundsätzlich eine Herausforderung darstellt, die aus der Art und Weise resultiert, wie Sprache und Erkennen beim Menschen funktionieren.
  2. Im nächsten Kapitel wendet sich Decher Platon zu, und hier speziell dem Verhältnis von Geist (Nous) und Seele (Psyché).
  3. An dieser Stelle sei wiederum darauf aufmerksam gemacht (vgl.  die Anmerkungen im ersten Teil dieser Besprechung, besonders Nr.4), dass diese Besprechung in keiner Weise die eigene Lektüre des Buches von Decher ersetzen kann. Ich lese das Buch im Lichte meiner Fragen, andere werden möglicherweise etwas anderes in dem Buch erkennen. Die Lektüre eines Buches ist niemals eine 1-zu-1 Angelegenheit (ein Umstand, warum auch die sogenannte Offenbarungsschriften im Judentum, Christentum und im Islam im Gang der Geschichte immer wieder – und zwar unvermeidbar – unterschiedlich interpretiert werden).

PLATON: NOUS UND PSYCHE (SS.41 – 44)

Platon: Seele und Geist, Grundstruktur

Platon: Seele und Geist, Grundstruktur

  1. Decher weist darauf hin, dass es bis heute schwierig ist, in den Werken Platons – speziell in seinen früheren Werke – den Einfluss der sokratischen Denkweise von den eigenen Überlegungen Platons klar abzugrenzen. Sokrates (ca. -469 bis -399) lebte vor Platon (-428/7 bis – 348/7) und Platon kannte Sokrates nicht nur, sondern war auch sein Schüler (ca. ab -407).
  2. Decher fasst dann die Lehre von Platon in einigen Kernthesen zusammen, die im Schaubild (erweitert) illustriert werden.
  3. Grundsätzlich geht Platon von einer Trennung von Körper und Seele (Psyché) aus, wobei der Geist (Nous) ein Teil der Seele ist. Die Seele gehört zum unkörperlichen immateriellen überindividuellen und unsterblichen Lebensprinzip im Gegensatz zum materiellen sterblichen Körper. Entsprechend den verschiedenen Körperteilen (Kopf, Brust, Unterleib) zeigt sich die Seele auf unterschiedliche Weise (Nous als Geist, Verstand; Thýmos als antreibende Gefühle; Epithymiai als Begierden, Triebe, Bedürfnisse). Anlässlich von sinnlichen Erregungen wird der Geist in der Weise angeregt, stimuliert, dass er sich erinnert (Erinnerung, Anamnesis) an ein allgemeines, ideales, immaterielles Wissen, das auf die Ideen zurückgeht, die die Seele vor ihrer Wiedergeburt kannte, und die sie auf dem Weg zur Wiedergeburt in einem Körper beim Durchqueren des Flusses Lethe (Fluss des Vergessens) vergessen hatte. Die allgemein Wahrheit ist also etwas, was unabhängig von materieller Körperwelt und sinnlicher Erfahrung existiert und nur erinnert werden kann. Je nachdem, wie die verschiedenen Seelenteile miteinander im Einklang sind, ist ein Mensch eher krank oder gesund.

DISKURS

  1. Diese Bemerkungen sind sehr knapp. Entsprechen aber den allgemeinen Lehrmeinungen über Platons Position.
  2. Interessant ist hier die Wechselbeziehung zwischen Geist und Seele.
  3. Offensichtlich kommt der Seele die Priorität zu. Der Geist scheint zwar der Ort zu sein, wo die aus der Materialität herrührenden sinnlichen Erregungen sich zu ersten bewussten Vorstellungen formen können und wo diese Anregungen zur Erinnerung an präexistierende immaterielle unendliche Ideen führen können, die ebenfalls im Geist bewusst werden können, aber der Geist ist nur ein Moment an der Seele, die als solche als immateriell und unsterblich gilt.
  4. Der Hauptgrund für die Unsterblichkeit der Seele scheint aus der Annahme zu resultieren (vgl. dazu Hirschberger, SS.118-128), dass die Seele als Lebensprinzip alles Lebendigen gesehen wird (auch der Tiere und Pflanzen), und dieses Lebensprinzip erkennt man an der Bewegung, und zwar an der spontanen Selbstbewegung. Die Selbstbewegung liegt jeglicher Bewegung zugrunde, auch den Himmelsbewegungen; sie ist das Erste von Allem, und darin ewig.
  5. Dies bedeutet, dass ein ewiges, immaterielles Prinzip erkannt wurde auf der Basis eines Naturphänomens, das zu Zeiten Platons von vielen nicht anders verstanden werden konnte, als etwas ganz Anderes, für das man keine Erklärung in der bekannten Welt finden konnte.
  6. Unterstützung fand diese Hypothese von der ganz anderen Bewegung noch durch die Phänomene des Erkennens, dass man in der empirischen Erfahrungswelt immer nur endliche und unvollkommene Objekte, Verhältnisse und Strukturen findet, sich im Denken aber Verhältnisse zeigen und denken lassen, die unendlich erscheinen und ideal. Lässt diese scheinbare Unerklärlichkeit der (spontanen) Bewegung kombiniert mit der Unerklärlichkeit der idealen Erkenntnisse von daher berechtigt einen Schluss auf etwas Immaterielles, Unendliches, Präexistierendes, Überindividuelles zu, das man Seele (Psyché) nennt und das vorab und begleitend zur erfahrbaren empirischen Welt existiert und wirkt?
  7. Auf den ersten Blick tut sich hier ein Dualismus von endlichem unvollkommenem Materiellen und endlichem vollkommenem Immateriellen auf. Dies aber nur solange, als man die Wechselwirkung zwischen beiden nicht ernst nimmt. Wenn das endliche Materielle mit dem unendlichen Immateriellen in Erkenntnisweisen zusammenwirken können, dann kann und muss man fragen, wie dies möglich ist.
  8. Sowohl die sinnlich angeregten Vorstellungen sind bewusst und im Geist (Nous) wie auch die von den ewigen Ideen gespeisten Erinnerungen an ideale Verhältnisse sind bewusst, da ansonsten unbekannt. Im platonischen Denkmodell gibt es für dieses Zusammentreffen von unvereinbaren Gegensätzen keine wirkliche Erklärung. Im Lichte der neuzeitlichen Erkenntnisse der letzten 50 (!) Jahre gibt es aber Ansatzpunkte, die möglicherweise neue Denkmodelle ermöglichen könnten, die aber – so scheint mir – bislang noch nicht konsequent öffentlich zu Ende gedacht wurden.

SELBSTBEWEGUNG

  1. Nach heutigem Kenntnisstand wissen wir, dass es ein Charakteristikum biologischen Lebens ist, dass es über eine Konfiguration von Molekülen verfügt, die es in die Lage versetzen, Energie aus der Umgebung zu entziehen, um damit eine Eigenbewegung (Selbstbewegung) zu organisieren. Die Selbstbewegung resultiert also aus dem Zusammenwirken einer (nach heutigem Kenntnisstand) vorauszusetzenden Energie, die allem Empirischen zugrunde liegt, und einer bestimmten molekularen Struktur, die in der Lage ist, diese Energie in Bewegung zu transformieren. Dies ist ein Eigenschaft jeder biologischen Zelle, die sich im Falle des homo sapiens in ca. 37 Billionen (10^12) Zellen in Form eines Gesamtorganismus (Körper) so präsentiert, dass eine Vielzahl von Bewegungen in Erscheinung treten können. Die ca. 100 Mrd (10^9) Gehirnzellen nutzen ihre Energie weniger zu mechanischen Bewegungen sondern zum elektrischen Signalaustausch. Dieser Signalaustausch ermöglicht Wahrnehmung, Erinnern, Denken, Fühlen usw.
  2. Mit diesen Erkenntnissen können wir zwar auch sagen, dass die primären Prinzipien von biologischer Belebtheit auf überindividuelle Gesetze und Eigenschaften zurückverweisen (Energie), dass aber das Zusammenwirken von materiellen (atomaren, molekularen) Strukturen und freier Energie eine Eigenschaft ist, die schon jeder einzelnen Zelle zukommt, und damit jeglicher Lebensform auf der Erde.

IDEALE ERKENNTNIS

  1. Bleibt das Phänomen der idealen Erkenntnis. In der Tat sind alle sinnlich wahrnehmbaren Sachverhalte endlich, unvollkommen, singulär verglichen mit allgemeinen, strukturellen Dachverhalten, wie sie sich im Denken erschließen können.
  2. Hält man sich aber vor Augen, dass unser sinnliches Wahrnehmen und unser ideales Denken von einem Netzwerk von ca. 100 Mrd (10^9) Zellen ermöglicht wird, die völlig uniform arbeiten, dann kann man zumindest die Frage stellen, ob es möglicherweise ein (sehr hilfreicher) Artefakt dieses neuronalen Netzwerkes ist, dass wir mit endlichen Strukturen unendliche Strukturen denken können?
  3. Gerade dieser Punkt ist in der modernen Grundlagenforschung merkwürdigerweise noch nicht hinreichend abgeklärt. Hier nur ein paar Stichworte, um anzudeuten, in welcher Richtung die Antwort liegen kann.
  4. Wichtigster Kronzeuge für ideale unendliche Objekte des Denkens ist die Mathematik. Ein Beispiel ist hier die Menge der abzählbar-unendlichen natürlichen Zahlen. Die Menge der natürlichen Zahlen gilt als unendlich groß. Man definiert diese Unendlichkeit durch einen endlichen Zählprozess, der als Prozess aber keinen Endpunkt besitzt. Analog verhält es sich mit den komplexeren Zahlmengen wie z.B. den rationalen Zahlen, den reellen Zahlen usw. Diese Mengen gelten auf unterschiedliche Weise als unendlich, besitzen einen Namen, mit denen man sie benennen kann, und indem Mathematiker ständig die Namen von Objekten im Munde führen können, die als unendlich gelten, kann der Eindruck entstehen, dass es solche unendlichen Objekte tatsächlich gibt. Was es aber nur gibt, das sind endliche Prozeduren, durch die unterschiedliche Begriffe von Unendlichkeit definiert werden. Alle Arten von endlichen Prozeduren können – nach heutigem Wissensstand – von neuronalen Netzen simuliert – sprich: gedacht — werden.
  5. Ein anderes Beispiel ist die Welt der Begriffe, wie sie sich im Sprachgebrauch und in der Alltagslogik finden. Wir sind gewohnt (meist unbewusst), beständig Allgemeinbegriffe benutzen. Z.B. wir sehen ein Objekt vor uns auf dem Tisch, das genügend Eigenschaften aufweist, dass wir es als eine Tasse klassifizieren können. Und bekanntlich können wir beliebig viele einzelne Objekte als Tasse bezeichnen, sofern die charakterisierenden Eigenschaften gegeben sind. Dies bedeutet, mit einigen wenigen (endlich vielen) Eigenschaften können wir einen einzigen, individuellen Namen mit potentiell (= abzählbar) unendlich vielen Objekten verknüpfen. Dies ist mit einem neuronalen Netzwerk leicht zu bewerkstelligen.
  6. Dies bedeutet, am Beispiel von zwei sehr wichtigen Typen von denkbarer Unendlichkeit kann man sehen, dass sich diese mit endlichen Mitteln realisieren lassen.
  7. Allerdings ist klar, dass diese quasi-unendlichen endlichen Prozesse nur möglich sind, insoweit von außerhalb des Systems beständig genügend Energie zugeführt werden kann, durch die diese Prozesse aufrecht erhalten werden können.
  8. Wollte man die platonische Dualität von Materiell-Immateriell, von Seele – Körper, beibehalten, dann wäre nach heutigem Wissensstand der Körper die Anordnung der Atome/ Moleküle und das Seelische die verfügbare freie Energie, durch die Veränderungen/ Transformationen/ Signale/ Bewegungen dieser Moleküle möglich sind. Aufgrund der endlichen Konstellation der Moleküle kann zugeführte (unendliche?) Energie ein Denken von quasi unendlichen Mengen mit Hilfe endlicher Strukturen realisiert werden.

SEIN – WAHRHEIT

  1. Die Rückführung von quasi unendlichen Objekten auf endliche (Denk-)Prozesse lässt aber die Frage unbeantwortet, ob diese mit endlichen Mitteln sichtbar werdenden quasi-unendlichen Objekte (Strukturen) über das Denken hinaus eine ontologische Bedeutung haben können, oder, anders formuliert, ob diese quasi-unendlichen Objekte (Strukturen) über das Denken hinaus tatsächlich existieren, obgleich sie sich für unsere begrenzte Wahrnehmung immer nur als punktuelle, individuelle Messereignisse in Raum und Zeit manifestieren?
  2. Dies wäre die Frage nach der Wahrheit unserer Erkenntnisse.

Fortsetzung mit Aristotles HIER

SONSTIGE QUELLEN

  • Hirschberger, Johannes; GESCHICHTE DER PHILOSOPHIE. Altertum und Mittelalter, Freiburg – Basel – Wien: Herder, 14.Aufl. 1976
  • Holenstein, Elmar; Philosophie-Atlas. Orte und Wege des Denkens, Zürich: Amman Verlag & Co, 2004

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

Wieweit können wir den ‘biologischen Geist’ durch einen ‘künstlichen Geist’ nachbilden? – Nachreflexion zur Philosophiewerkstatt vom 12.April 2015

Gedankenskizze von der Philosophiewerkstatt am 12-April 2015 in der DENKBAR

Gedankenskizze von der Philosophiewerkstatt am 12-April 2015 in der DENKBAR

1. Trotz wunderbarem Wetter draußen fand sich wieder eine interessante Gruppe von Philosophierenden am 12.April 2015 zur Philosophiewerkstatt in der DENKBAR zusammen.

2. Mittlerweile bildet sich ein ’spezifischer Stil‘ in der Philosophiewerkstatt heraus: Immer weniger vorgefertigter Input durch einen Eingangsvortrag, sondern stattdessen von Anfang an ein ‚gemeinsames Denken‘ entlang einer Fragestellung. Das ‚Gemeinsame‘ wird in einem aktuellen ‚Gedankenbild‘ festgehalten, ‚visualisiert‘, so dass die Vielfalt der Gedanken für alle sichtbar wird. Nichts geht verloren. Dies eröffnet dann jedem die Möglichkeit, anhand der sichtbaren Unterschiede, Lücken und Gemeinsamkeiten ‚fehlende Stücke‘ zu suchen, zu ergänzen, oder vorhandene Begriffe weiter zu erläutern.

3. Als ‚Rhythmus‘ des gemeinsamen Denkens erweist sich ein gemeinsamer Einstieg, dann ‚Blubberpause‘, dann Schlussrunde als sehr produktiv.

GEIST – BIOLOGISCH UND KÜNSTLICH

4. Ausgangspunkt waren die Begriffe ‚Geist‘, ‚Biologisch‘ sowie ‚Künstlich‘.

5. Auf einer Zeitachse betrachtet kann man grob sagen, dass der Begriff ‚Geist‘ in der antiken griechischen Philosophie eine zentrale Rolle gespielt hat, sich bis mindestens ins 19.Jahrhundert durchgehalten hat, dann aber – zumindest im Bereich der Naturwissenschaft – nahezu jegliche Verwendung verloren hat. In den heutigen Naturwissenschaften herrscht der Eindruck vor, man bräuchte den Begriff ‚Geist‘ nicht mehr. Zugleich fehlen damit auch alle ‚Unterstützungsmerkmale‘ für jenes Wertesystem, das einer demokratischen Staatsform wie der deutschen Demokratie zugrunde liegt. ‚Menschenwürde‘ in Art.1 des Grundgesetzes hat im Lichte der aktuellen Naturwissenschaften keine Bedeutung mehr.

6. Gleichfalls auf der Zeitachse beobachten wir, dass das Paradigma der ‚Maschine‘ mit dem Aufkommen des theoretischen Begriffs des Automaten (erste Hälfte des 20.Jahrhunderts) und der Bereitstellung von geeigneter Technologie (Computer) einen neuen Begriff von ‚Künstlichkeit‘ ermöglicht: der Computer als programmierbare Maschine erlaubt die Nachbildung von immer mehr Verhaltensweisen, die wir sonst nur von biologischen Systemen kennen. Je mehr dies geschieht, umso mehr stellt sich die Frage, wieweit diese neue ‚Künstlichkeit‘ letztlich alle ‚Eigenschaften‘ des Biologischen, insbesondere auch ‚intelligentes Verhalten‘ bzw. den ‚Geist im Biologischen‘ nachbilden kann?

GEIST – SUBJEKTIV UND OBJEKTIV NEURONAL

7. Im Bereich des Biologischen können wir seit dem 20.Jahrhundert auch zunehmend differenzieren zwischen der subjektiven Dimension des Geistes im Bereich unseres Erlebens, des Bewusstseins, und den körperlichen, speziell neuronalen Prozessen im Gehirn, die mit den subjektiven Prozessen korrelieren. Zwar ist die ‚Messgenauigkeit‘ sowohl des Subjektiven wie auch des Neuronalen noch nicht besonders gut, aber man kann schon erstaunlich viele Korrelationen identifizieren, die sehr vielen, auch grundsätzlichen subjektiv-geistigen Phänomenen auf diese Weise neuronale Strukturen und Prozesse zuordnen, die zur ‚Erklärung‘ benutzt werden können. Sofern man dies tun kann und es dann auch tut, werden die subjektiv-geistigen Phänomene in die Sprache neuronaler Prozesse übersetzt; damit wirken diese subjektiven Begriffe leicht ‚obsolet‘, ‚überflüssig‘. Zugleich tritt damit möglicherweise eine Nivellierung ein, eine ‚Reduktion‘ von spezifischen ‚Makrophänomenen‘ auf unspezifische neuronale Mechanismen, wie sie sich in allen Lebewesen finden. Erklärung im Stil von Reduktion kann gefährlich sein, wenn man damit interessante Phänomene ‚unsichtbar‘ macht, die eigentlich auf komplexere Mechanismen hindeuten, als die ‚einfachen‘ Bestandteile eines Systems.

MATERIE – INFORMATION1 und INFORMATION2

8. Im Bereich der materiellen Struktur unseres Universums hat es sich eingebürgert, dass man die physikalische Entropie mit einem Ordnungsbegriff korreliert und darüber auch mit dem statistischen Informationsbegriff von Shannon. Ich nenne diesen Informationsbegriff hier Information1.

9. Davon zu unterscheiden ist ein anderer Informationsbegriff – den ich hier Information2 nenne –, der über die Statistik hinausgeht und eine Abbildung impliziert, nämlich die Abbildung von einer Struktur auf eine andere. Im Sinne der Semiotik (:= allgemeine Lehre von den Zeichen) kann man dies als eine ‚Bedeutungsbeziehung‘ deuten, für die es auch den Begriff ’semantische Beziehung‘ gibt. Für die Realisierung einer Bedeutungsbeziehung im Sinne von Information2 benötigt man im physikalischen Raum minimal drei Elemente: eine Ausgangsgröße, eine Zielgröße und eine ‚vermittelnde Instanz‘.

10. Im Falle der Selbstreproduktion der biologischen Zellen kann man genau solch eine Struktur identifizieren: (i) die Ausgangsgröße sind solche Moleküle, deren physikalische Eigenschaften ‚für den Vermittler‘ als ‚Informationen2‘ gedeutet werden können; (ii) die Zielgröße sind jene Verbindungen von Molekülen, die generiert werden sollen; (iii) die vermittelnde Instanz sind jene Moleküle, die die Moleküle mit Information2 ‚lesen‘ und dann die ‚Generierungsprozesse‘ für die Zielgrößen anstoßen. Dies ist ein komplexes Verhalten, das sich aus den beteiligten Elementen nicht direkt ableiten lässt. Nur auf den Prozess als solchen zu verweisen, ‚erklärt‘ in diesem Fall eigentlich nichts.

11. Interessant wird dies nun, wenn man bedenkt, dass das mathematische Konzept, das den heutigen Computern zugrunde liegt, der Begriff des programmierten Automaten, ebenfalls solch eine Struktur besitzt, die es ermöglicht, Information2 zu realisieren.

12. Dies bedeutet, dass sowohl der ‚Kern‘ des Biologischen wie auch der ‚Kern‘ des neuen Künstlichen beide die Grundstruktur von Information2 repräsentieren.

13. Sofern nun das ‚Lebendige‘, das ‚Geistige‘ reduzierbar sind auf eine Information2-fähige Struktur, müsste man nun folgern, dass die Computertechnologie das gleiche Potential besitzt wie das Biologische.

OFFENE FRAGEN

14. Offen bleibt – und blieb bei dem Werkstattgespräch –, ob diese Reduktion tatsächlich möglich ist.

15. Die Frage, ob eine reduktionistische Erklärungsstrategie ausreichend und angemessen ist, um die komplexen Phänomene des Lebens zu deuten, wird schon seit vielen Jahren diskutiert.

16. Eine reduktionistische Erklärungsstrategie wäre ‚unangemessen‘, wenn man sagen könnte/ müsste, dass die Angabe einer Verhaltensfunktion f: I –-> O auf der Basis der beobachteten Reaktionen (Input I, Output O) eines Systems ‚Eigenschaften des Systems‘ sichtbar macht, die sich durch die bekannten Systembestandteile als solche nicht erklären lassen. Dies gilt verstärkt, wenn die Bestandteile eines Systems (z.B.die physikalischen Gatter im Computer oder die Neuronen im Gehirn) von sich aus keinerlei oder ein rein zufälliges Verhalten zeigen, es sei denn, man würde – im Falle des Computers – ‚in‘ die Menge der Gatter eine ‚Funktion‘ ‚hineinlegen‘, die dazu führt, dass sich die Gatter in dieser bestimmten Weise ‚verhalten‘. Würde man nun dieses spezifische Verhalten dadurch ‚erklären‘ wollen, dass man einfach die vorhandenen Gatter verweist, würde man gerade nicht erklären, was zu erklären wäre. Überträgt man diesen Befund auf biologische oder generell physikalische Systeme, dann müsste man mindestens mal die Frage stellen, ob man mit den reduktionistischen Strategien nicht genau das vernichtet, was man erklären sollte.

17. Eine Reihe von Physikern (Schrödinger, Davis) haben das Auftreten von Information2 im Kontexte des Biologischen jedenfalls als eigenständiges Phänomen gewürdigt, das man nicht einfach mit den bekannten physikalischen Erklärungsmodellen ‚erklären‘ kann.

AUSBLICK PHILOSOPHIEWERKSTATT MAI UND JUNI

18. Die nächste Philosophiewerkstatt am 10.Mai 2015 will sich der Frage widmen, wie ein einzelner innerhalb einer multikausalen Welt überhaupt noch sinnvoll entscheiden kann. Speziell auch die Frage, welche Wirkung man überhaupt noch erzielen kann? Ist nicht irgendwie alles egal?

19. Die Philosophiewerkstatt am 14.Juni ist die letzte Werkstatt vor der Sommerpause. Es wird im Anschluss an die Sitzung ein offener Abend mit voller Restauration angeboten werden und mit der Möglichkeit, über das weitere Vorgehen zu diskutieren (welche Formate, zusätzliche Ereignisse,…).

Einen Überblick über alle Beiträge zur Philosophiewerkstatt nach Themen findet sich HIER

EINLADUNG ZUR PHILOSOPHIEWERKSTATT v2.0 am So, 12.April 2015: Wieweit können wir den ‚biologischen Geist‘ durch einen ‚künstlichen Geist‘ nachbilden?

philosophieWerkstatt v2.0

philosophieWerkstatt v2.0

EINLADUNG ZUR NÄCHSTEN

philosophieWerkstatt v2.0

am

Sonntag, 12.April 2015

16:00 – 19:00h
in der
DENKBAR Frankfurt
Spohrstrasse 46a

Essen und Trinken wird angeboten von Michas Essen & Trinken. Parken ist im Umfeld schwierig; evtl. in der Rat-Beil-Strasse (entlang der Friedhofsmauer).

Anliegen der Philosophiewerkstatt ist es, ein philosophisches Gespräch zu ermöglichen, in dem die Fragen der TeilnehmerInnen versuchsweise zu Begriffsnetzen verknüpft werden, die in Beziehung gesetzt werden zum allgemeinen Denkraum der Philosophie, der Wissenschaften, der Kunst und Religion. Im Hintergrund stehen die Reflexionen aus dem Blog cognitiveagent.org, das Ringen um das neue Menschen- und Weltbild.

PROGRAMMVORSCHLAG

Nachdem wir am So, 8.Februar unter Anleitung von Paul Samide und Maria Siefen-Just das spannende Thema SIND KINDER GUT? WIE KOMMT DAS BÖSE IN DIE WELT? diskutieren konnten und am So, 8.März 2015 unter Anleitung von Christian Hellwig das Thema WEISHEIT ALS REVOLUTIONÄRER BEGRIFF FÜR EINE ZUKUNFTSFÄHIGE WELT stellte sich wie immer die spannende Frage, mit welchem Thema machen wir weiter? Da Gerd Doeben-Henisch bis Ende März einen Beitrag für eine Online-Zeitschrift zum Thema ‚Künstlichen Geist‘ abliefern musste, gab dies die Anregung, diese Thema für die nächste Philosophiewerkstatt am 12.April aufzugreifen. Damit ergab sich folgender Programmvorschlag:

1. Dieses Mal kein Experiment zur ‘Neuen Musik’ sondern ein kurzes Bedeutungs-Findungs-Experiment zur Klärung einiger Begriffsfelder, die im folgenden Gespräch eine Rolle spielen (es wäre gut, wenn man ein Blatt Papier und einen Schreibstift dabei hätte).
2. Eine kurze Gesprächsrunde zu den Ergebnissen.
3. Eine kurze Einführung zum Thema „Wieweit können wir den ‚biologischen Geist‘ durch einen ‚künstlichen Geist‘ nachbilden?“
4. Gesprächsrunde zum Thema
5. ‚Blubberphase‘ – jeder kann mit jedem reden, um das zuvor gesagte ‚aktiv zu verdauen‘ …
6. Zusammenfassung der Ergebnisse mit Schlussbemerkungen
7. Mögliche Aufgabenstellung für das nächste Treffen
8. Offener Ausklang

HINTERGRUND

Das Thema der Erschaffung eines künstlichen Geistes findet sich zwar nicht in Goethes antiaufklärerischem Faust, sehr wohl aber in vielen anderen Schriften, Visionen, und seit fast 100 Jahren in vielerlei Science-Fiction Romanen und Filmen. Seit mindestens 30 Jahren gibt es ernsthafte wissenschaftliche Publikationen und wissenschaftliche Einrichtungen, die die Ablösung des Menschen durch Maschinen (Stichworte ‚Transhumanismus‘, ‚Singularität‘) offiziell und mit vielen Milliarden Dollar Unterstützung propagieren. Das Vordringen der empirischen Wissenschaften, speziell der Neurowissenschaften, bieten zusätzlich Anregungen, den Menschen als ‚molekulare Maschine‘ zu sehen, die man letztlich einfach ’nachbauen‘ kann.

Das Thema manifestiert sich in vielen hundert Artikeln und Büchern und lässt dennoch viele Fragen noch offen. Angesichts dieser Fülle und zugleich Komplexität darf man von einer kurzen Sitzung zu diesem Thema nicht zu viel erhoffen. Es besteht aber die Aussicht, dass wir anhand einiger ausgewählter Fragen und Denkmodellen den Kern des Problems soweit offenlegen können, dass jeder für sich daraus ein paar fruchtbare Schlüsse ziehen kann.

In der Tat geht es um grundlegende Fragen unseres Menschen- und Weltbildes.

Im Blog cognitiveagent.org gibt es mehrere Blogeinträge, die sich dem Thema auf unterschiedliche Weise schon mal gewidmet haben. Derjenige Blogeintrag, der von allen mehr als 300 Einträgen mit weitem Abstand am häufigsten angeklickt wird, ist der folgende: KANN ES DOCH EINEN KÜNSTLICHEN GEIST GEBEN?. Er wurde 6x so oft angeklickt wie der nächtshäufige Blogeintrag.

PHILOSOPHIEWERKSTATT ÜBERBLICK

Einen Überblick über alle Beiträge zur Philosophiewerkstatt nach Themen findet sich HIER

PHILOSOPHIE IM KONTEXT oder: BEGRIFFSNETZE oder: THEORIENETZWERKE

Achtung: Es hat sich gezeigt, dass diese Version einen grundlegenden Fehler enthält! Siehe am Ende des Textes den Link auf eine verbesserte Version.

 

(1) In dem Vortrag in Bremerhaven ist die Verzahnung von Philosophie und Wissenschaft hevorgehoben worden. Ansatzweise wurde skizziert, wie eine bewusstseinsbasierte Philosophie als das primäre Denken innerhalb seines Denkraumes einen ‚Unterraum‘ spezifizieren kann, der sich über die spezielle Teilmenge der ‚empirischen Phänomene‘ [PH_Emp] definiert bzw. umgekehrt, wie man ausgehend von den empirischen Disziplinen über die Frage nach den notwendigen Voraussetzungen zu einem größeren Zusammenhang kommen kann, der letztlich mit dem philosophischen Denken zusammenfällt. Versucht man, die begrifflichen Verhältnisse zwischen den verschiedenen hier einschlägigen Disziplinen zu klären, dann wird man alsbald feststellen, dass diese bei den meisten nicht ganz klar sind; dies betrifft die ganze ‚Community‘. Im Folgenden ein weiterer Versuch, die hier geltenden grundsätzlichen Verhältnisse transparent zu machen.

 

(2) Die grundsätzliche Idee (die ich seit mehr als 20 Jahren immer wieder mal auf unterschiedliche Weise versucht habe, — in erster Lnie mir selbst — zu verdeutlichen) ist im Schaubild Nr.1 angedeutet.

 

 

Gesamtrahmen Philosophie und Wissenschaften

 

 

(3) Nimmt man seinen Ausgangspunkt von existierenden empirischen Disziplinen wie Physik [Phys], Chemie [Chem], Biologie [Biol] usw. dann sind diese dadurch gekennzeichnet, dass sie aufgrund spezifischer Fragestellungen und spezifischer Messverfahren entsprechend verschiedene ‚Messwerte‘ gewinnen.

 

(4) Hierbei ist aber zu beachten, dass die empirischen Messwerte zwar – idealerweise – unabhängig von einem bestimmten Körper oder Bewusstsein ‚gewonnen‘ werden, dass sie aber nur in dem Maße in eine wissenschaftliche Theoriebildung eingehen können, als die Messwerte von Menschen auch ‚wahrgenommen‘ werden können, d.h. nur insoweit, als die handlungs- und technikbasierten Messwerte zu ‚bewussten Ereignissen‘ werden, zu ‚Phänomenen‘ [PH]. Als ‚Phänomen‘ ist ein Messwert und ein Zahnschmerz nicht unterscheidbar, allerdings haben sie verschiedene ‚Ursachen der Entstehung‘, die sich in einer ‚Reflexion‘ erschließen lassen. In dem Masse, wie man diese Unterscheidung durchführen kann, kann man dann innerhalb der ‚allgemeinen‘ Menge der Phänomene PH eine spezielle Teilmenge der ’speziellen‘ Phänomene ausgrenzen, also PH_Emp PH.

 

 

(5) In diesem Sinne kann man sagen, dass die Menge der empirischen Phänomene sich bezüglich ihrer ’speziellen Herkunft‘ von allen anderen Phänomenen unterscheiden und dass die verschiedenen empirischen Disziplinen sich diese spezielle Teilmenge auf unterschiedliche Weise ‚aufteilen‘. Idealerweise würde man sich die Menge der empirischen Phänomene PH_Emp zerlegt denken in endliche viele disjunkte Untermengen. Ob die tatsächlichen Messverfahren mitsamt den daraus resultierenden Messwerten real vollständig disjunkt sind, ist aktuell offen; spielt für die weiteren Überlegungen zunächst auch keine wesentliche Rolle. Wichtig ist nur, dass in diesem Zusammenhang nur dann von empirischen Daten wie z.B. ‚psychologischen Daten‘ DATA_SR gesprochen werden soll, wenn es reale Messwerte von realen Messvorgängen gibt, die von einem Menschen wahrgenommen werden können und dieser diese Phänomene als entsprechende empirische Phänomene PH_Emp_x interpretiert (das ‚x‘ steht hierbei für die jeweilige Disziplin).

 

(6) Wie in vorausgehenden Blogeinträgen schon mehrfach festgestellt, bilden empirische Daten DATA_x als solche noch keine wirkliche Erkenntnis ab. Diese beginnt erst dort, wo Verallgemeinerungen vorgenommen werden können, Beziehungen erkennbar sind, regelhafte Veränderungen, usw. Die Gesamtheit solcher struktureller Eigenschaften im Zusammenhang mit Daten nennt man normalerweise eine ‚Theorie‘ [TH]. Ob und inwieweit alle heutigen empirischen Disziplinen wirklich systematisches Wissen in Form von expliziten Theorien TH_x entwickeln, steht hier nicht zur Diskussion (es gibt sicher viel weniger explizite Theoriebildung als man sich wünschen würde. Die einzige Disziplin, von der man den Eindruck hat, dass sie überwiegend durch formale Konstrukte begleitet wird, die den Anspruch von Theorien erfüllen, ist die moderne Physik. Alle anderen Disziplinen fallen hinter das Ideal mehr oder weniger weit zurück.).

 

(7) Solange man sich nun innerhalb einer ganz bestimmten Disziplin bewegt, ist die Welt — in gewissem Sinne – ‚in Ordnung‘: man weiß wie man misst und man hat elementare Techniken, wie man Daten strukturiert. Fängt man an, Fragen nach den ‚Voraussetzungen‘ dieser fachspezifischen Theoriebildung zu stellen, nach der Angemessenheit der verwendeten Methoden, wird es schwierig, da für solche Fragen strenggenommen kein Instrumentarium verfügbar ist (Warum und wieso sollte ein Chemiker sich Fragen nach den Grundlagen der Erkenntnis stellen, aufgrund deren er überhaupt etwas erkennt, oder nach dem Problem der sprachlichen Bedeutung, wenn er über chemische Sachverhalte spricht, über die Angemessenheit seiner Begrifflichkeit für den zu untersuchenden Gegenstand, usw.). Noch schwieriger wird es, wenn es um mögliche Wechselwirkungen zwischen verschiedenen Theorieansätzen geht: ob und wie verhalten sich die Daten und theoretischen Modelle zwischen z.B. beobachtetem Verhalten in der Psychologie TH_SR mit zeitgleichen Messungen im Körper TH_Bd oder spezieller im Nervensystem TH_NN? Wann darf ich denn überhaupt von einer Theorie sprechen? In welchem Sinne kann ich Theorien TH_x und TH_y vergleichen? Diese – und viele andere – Fragen gehen weit über die fachspezifischen Fragestellungen hinaus, verweisen auf allgemeine fachübergreifende Zusammenhänge.

 

(8) Im deutschen Sprachraum gab es in der Zeit von ungefähr 1970 bis 1990 eine Phase, in der man verstärkt von ‚Wissenschaftstheorie‘ sprach als jener ‚Metadisziplin‘, die die allgemeinen Eigenschaften und Randbedingungen von ‚Theorien‘ untersucht und klärt. Im englischen Sprachraum nannte man dies ‚Philosophy of Science‘ (allerdings mit einer nicht ganz deckungsgleichen Bedeutung). Alle diese Strömungen haben – so scheint es – bis heute keinen nachhaltigen Einfluss auf den ’normalen Wissenschaftsbetrieb‘ nehmen können; eher ist das Thema sogar wieder rückläufig. Zwar bräuchte man es aus methodischen Gründen dringen, aber keiner will dafür Geld ausgeben.

 

(9) Die deutschsprachige Wissenschaftstheorie hatte den Nachteil, dass sie zwar versuchte, disziplinenübergreifend strukturelle Eigenschaften von Theorien zu klären, sich aber letztlich weigerte, sämtliche Voraussetzungen (einschließlich ihrer eigenen) zu reflektieren, d.h. die Wissenschaftstheorie nahm zwar einerseits gegenüber den Fachdisziplinen allgemeine Eigenschaften von Denken, Folgern, Sprechen, Messen usw. in Anspruch, die über die engen Fachdisziplinen hinausgehen, weigerte sich aber, diesen Anspruch in letzter Konsequenz zu reflektieren und auszuweisen (auch nicht die Erlanger Schule und die sogenannten Konstruktivisten). Eine solche grundlegende Reflexion war und blieb die Domäne der klassischen Philosophie, von der sich die Wissenschaftstheorie panisch abzugrenzen versuchte.

 

(10) So sehr eine gesunde Kritik an der klassischen Philosophie nottat, eine vollständige Verdrängung der philosophischen Aufgabenstellung und Denkweise wirkte aber wie eine ‚Überreaktion‘; diese hatte zur Folge, dass sich die Wissenschaftstheorie von ihren eigenen Voraussetzungen mittels einer klassischen ‚Verdrängung‘ zu befreien suchte, sich dadurch aber entscheidende Aspekte vergab.

 

 

(11) Wie das Schaubild zeigt, gehe ich davon aus, dass die im Erleben wurzelnde Reflexion der primäre Ausgangspunkt für jede Art von spezialisierendem Denken ist. Selbst eine empirische Disziplin ist im Raum der bewussten Erlebnisse, im Raum der Phänomene, verankert, und was immer ein empirischer Wissenschaftler denkt, er denkt im Rahmen der Denkmöglichkeiten, die ihm über das Bewusstsein und die ‚an das Bewusstsein gekoppelten Subsysteme‘ verfügbar sind. Andere hat er gar nicht. Ein Wissenschaftstheoretiker, der über das theoretische Denken von Fachdisziplinen forschen will, ist auch nicht besser dran. Auch er ist an den Phänomenraum als primärem Bezugssystem gebunden und auch er nutzt jene allgemeinen Reflexionsmöglichkeiten, die im Bewusstseinsraum generell verfügbar sind. D.h. jeder Versuch, eine irgendwie geartetes geordnetes Denken — sei es fachwissenschaftlich oder wissenschaftstheoretisch – als solches auf seine Voraussetzungen und Wechselwirkungen hin zu befragen, muss auf dieses ‚primäre Denken‘ zurückgehen und es für die Erkenntnis nutzen. Dieses primäre Denken aber ist genau das philosophische Denken, das auf der einen Seite mit dem alltäglichen Denken verschwimmt, und auf der anderen Seite in Wissenschaftstheorie oder gar Fachwissenschaft übergeht.

 

(12) Von der Intention her hat sich ‚Philosophie‘ immer als solch ein ‚erstes Denken‘ verstanden, das alles andere Denken umfassen sollte. In der konkreten Ausformung eines solchen ersten Denkens gab es aber immer vielfältige und starke Unterschiede. Generell kann man die Tendenz beobachten, dass das philosophische Denken sich entweder vom alltäglichen und wissenschaftlichen Denken ‚zu weit entfernt‘ hat oder aber umgekehrt diesem ‚zu nah‘ kam. Im letzteren Fall büßte Philosophie ihre kritisch-klärende Funktion ein.

 

(13) Will Philosophie beides zugleich realisieren, kritische Distanz wie auch kenntnisreiche Nähe, muss das philosophische Denken sowohl die ‚Form‘ eines wissenschaftlichen Denkens hinreichend klären wie auch die eigenen Erkenntnis — sofern überhaupt strukturierbar – entsprechend explizieren. Das philosophische Denken als ‚erstes Denken‘ wird zwar niemals seinen eigenen Anteil zugleich vollständig und korrekt explizieren können (das liegt primär an der Struktur des Denkens selbst sowie an der Verwendung von Sprache), aber es kann den Zusammenhang der einzelwissenschaftlichen Theorieansätze sowie deren allgemeinen erkenntnistheoretischen Voraussetzungen soweit explizieren, dass klar wird, (i) was ist überhaupt eine Theorie TH_x, (ii) welche erkenntnistheoretischen Voraussetzungen müssen für eine bestimmte Theorie TH_x berücksichtigt werden, (iii) wie kann man das Verhältnis von Theorien beschreiben XREL(TH_x, TH_y), (iv) wie können Objektbeschreibungen aus unterschiedlichen Theorien (z.B. Eigenschaften von Neuronen beschrieben in einer neurowissenschaftlichen Theorie TH_nn, und Eigenschaften eines beobachtbaren Verhaltens in einer psychologischen Theorie TH_sr) aufeinander bezogen werden, usw.

 

(14) Fordern muss man aber auch, dass das philosophische Denken seine Inhalte, soweit sie explizierbar sind, auch in Form von Daten DATA_ph kenntlich macht, und, darauf aufbauend, verdeutlicht, welche Strukturen TH_ph das philosophische Denken vermeintlich besitzt bzw. benutzt, um die Möglichkeit und das ‚Funktionieren‘ der Einzeltheorien zu ‚erklären‘. In gewisser Weise muss die Philosophie genauso ein ‚Modell‘ ihres Gegenstandes bauen wie dies die anderen Wissenschaften auch tun. Im Fall der Philosophie geht es um den Menschen selbst, speziell um den Menschen, insofern er ‚erkennt‘, ‚Wissen‘ entwickelt‘, er ’spricht‘, und vieles mehr. Und natürlich könnte (bzw. sie müsste es!) die Philosophie — wie alle anderen Disziplinen auch – Computermodelle benutzen, um ihr theoretisches Modell vom erkenntnisfähigen und ethisch handelndem Menschen zu explizieren. ‚Computergestützte Philosophische Theorie‘ (etwa ‚computational philosophy‘) ist nicht nur kein Gegensatz sondern ein absolutes Muss! Ohne solche Modelle hat eine moderne Philosophie kaum eine Chance, die zu behandelnde Komplexität angemessen beschreiben zu können.

 

 

Eine korrigierte Version dieses Beitrags findet sich hier.

 

 

Einen Überblick über alle bisherigen Beiträge findet man hier.

 

 

(15) Weitere Details in Fortsetzungen bzw. im Rahmen meiner online-Skripte zur allgemeinen Lerntheorie.