Archiv der Kategorie: Psychologie

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 3-neu

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll.

Hinter den Augen …

Das eingesperrte Gehirn

Die Antwort auf die Frage, warum Menschen so unterschiedlich wahrnehmen, warum sie dies tun und anderes lassen, liegt irgendwo da im ‚Inneren‘ des Menschen, dort, hinter seinen Augen, hinter seinem Gesicht, das mal lächelt, mal weint, mal zürnt; dort gibt es ‚geheimnisvolle Kräfte‘, die ihn, uns, Dich und mich, dazu bringen uns so zu verhalten, wie wir es erleben.

Wie die moderne Biologie uns in Gestalt der Gehirnforschung lehrt, ist es vor allem das Gehirn, in dem ca. 100 Milliarden einzelne neuronale Zellen miteinander ein Dauergespräch führen, dessen Nebenwirkungen die eine oder andere Handlung ist, die wir vornehmen.

Wenn wir uns auf die moderne Biologie einlassen, auf die Gehirnwissenschaft, erkennen wir sehr schnell, dass das Gehirn, das unser Verhalten bestimmt, selbst keinen Kontakt mit der Welt hat. Es ist im Körper eingeschlossen, quasi abgeschottet, isoliert von der Welt jenseits des Körpers.

Das Gehirn bezieht sein Wissen über die Welt jenseits der Gehirnzellen von einer Art von ‚Mittelsmännern‘, von speziellen Kontaktpersonen, von Übersetzern; dies sind unsere Sinnesorgane (Augen, Ohren, Haut, Geschmackszellen, Gleichgewichtsorgan, die bestimmte Ereignisse aus der Welt jenseits der Gehirnzellen in die ‚Sprache des Gehirns‘ übersetzen.(Anmerkung: Siehe: Sinnesorgan, Sensory Receptor, Sensory System)

Wenn wir sagen, dass wir Musik hören, wunderschöne Klänge, harmonisch oder dissonant, laut oder leise, hoch oder tief, mit unterschiedlichen Klangfarben, dann sind dies für das Gehirn ’neuronale Signale‘, elektrische Potentialänderungen, die man als ‚Signal‘ oder ‚Nicht-Signal‘ interpretieren kann, als ‚An‘ oder ‚Aus‘, oder einfach als ‚1‘ oder ‚0‘, allerdings zusätzlich eingebettet in eine ‚Zeitstruktur‘; innerhalb eines Zeitintervalls können ‚viele‘ Signale auftreten oder ‚wenige‘. Ferner gibt es eine ‚topologische‘ Struktur: das gleiche Signal kann an einem Ort im Gehirn ein ‚Klang‘ bedeuten, an einem anderen Ort eine ‚Bild‘, wieder an einem anderen Ort ein ‚Geschmack‘ oder ….

Was hier am Beispiel des Hörens gesagt wurde, gilt für alle anderen Sinnesorgane gleichermaßen: bestimmte physikalische Umwelteigenschaften werden von einem Sinnesorgan so weit ‚verarbeitet‘, dass am Ende immer alles in die Sprache des Gehirns, in die neuronalen ‚1en‘ und ‚0en‘ so übersetzt wird, so dass diese Signale zeitlich und topologisch geordnet zwischen den 100 Mrd Gehirnzellen hin und her wandern können, um im Gehirn Pflanzen, Tiere, Räume, Objekte und Handlungen jenseits der Gehirnzellen neuronal-binär repräsentieren zu können.

Alles, was in der Welt jenseits des Gehirns existiert (auch die anderen Körperorgane mit ihren Aktivitäten), es wird einheitlich in die neuronal-binäre Sprache des Gehirns übersetzt. Dies ist eine geniale Leistung der Natur(Anmerkung: Dass wir in unserem subjektiven Erleben keine ‚1en‘ und ‚0en‘ wahrnehmen, sondern Töne, Farben, Formen, Geschmäcker usw., das ist das andere ‚Wunder der Natur‘.) (siehe weiter unten.).

Die Welt wird zerschnitten

Diese Transformation der Welt in ‚1en‘ und ‚0en‘ ist aber nicht die einzige Übersetzungsbesonderheit. Wir wissen heute, dass die Sinnesinformationen für eine kurze Zeitspanne (in der Regel deutlich weniger als eine Sekunde) nach Sinnesarten getrennt in einer Art ‚Puffer‘ zwischen gespeichert werden. (Anmerkung: Siehe Sensory Memory) Von dort können sie für weitere Verarbeitungen übernommen werden. Ist die eingestellte Zeitdauer verstrichen, wird der aktuelle Inhalt von neuen Daten überschrieben. Das voreingestellte Zeitfenster (t1,t2) definiert damit, was ‚gleichzeitig‘ ist.

Faktisch wird die sinnlich wahrnehmbare Welt damit in Zeitscheiben ‚zerlegt‘ bzw. ‚zerschnitten‘. Was immer passiert, für das Gehirn existiert die Welt jenseits seiner Neuronen nur in Form von säuberlich getrennten Zeitscheiben. In Diskussionen, ob und wieweit ein Computer das menschliche Gehirn ’nachahmen‘ könnte, wird oft betont, der Computer sei ja ‚diskret‘, ‚binär‘, zerlege alles in 1en und 0en im Gegensatz zum ‚analogen‘ Gehirn. Die empirischen Fakten legen hingegen nahe, auch das Gehirn als eine ‚diskrete Maschine‘ zu betrachten.

Unterscheiden sich die ‚Inhalte‘ von Zeitscheiben, kann dies als Hinweis auf mögliche ‚Veränderungen‘ gedeutet werden.

Beachte: jede Sinnesart hat ihre eigene Zeitscheibe, die dann vom Gehirn zu ’sinnvollen Kombinationen‘ ‚verrechnet‘ werden müssen.

Die Welt wird vereinfacht

Für die Beurteilung, wie das Gehirn die vielen unterschiedlichen Informationen so zusammenfügt, auswertet und neu formt, dass daraus ein ’sinnvolles Verhalten‘ entsteht, reicht es nicht aus, nur die Gehirnzellen selbst zu betrachten, was zum Gegenstandsbereich der Gehirnwissenschaft (Neurowissenschaft) gehört. Vielmehr muss das Wechselverhältnis von Gehirnaktivitäten und Verhaltenseigenschaften simultan betrachtet werden. Dies verlangt nach einer systematischen Kooperation von wissenschaftlicher Verhaltenswissenschaft (Psychologie) und Gehirnwissenschaft unter der Bezeichnung Neuropsychologie. (Anmerkung: Siehe Neuropsychology)

Ein wichtiges theoretisches Konzept, das wir der Neuropsychologie verdanken, ist das Konzept des Gedächtnisses. (Anmerkung: Memory) Mit Gedächtnis wird die generelle Fähigkeit des Gehirns umschrieben, Ereignisse zu verallgemeinern, zu speichern, zu erinnern, und miteinander zu assoziieren.

Ausgehend von den oben erwähnten zeitlich begrenzten Sinnesspeichern unterteilt man das Gedächtnis z.B. nach der Zeitdauer (kurz, mittel, unbegrenzt), in der Ereignisse im Gedächtnis verfügbar sind, und nach der Art ihrer Nutzung. Im Kurzzeit- und Arbeitsgedächtnis kann eine kleine Zahl von Ereignissen im begrenzten Umfang verarbeitet und mit dem Langzeitgedächtnis in begrenztem Umfang ausgetauscht werden (speichern, erinnern). Die Kapazität von sinnespezifischen Kurzzeitspeicher und multimodalem Arbeitsgedächtnis liegt zwischen ca. 4 (im Kurzzeitgedächtnis) bis 9 (im Arbeitsgedächtnis) Gedächtniseinheiten. Dabei ist zu beachten, dass schon im Übergang vom oben erwähnten Sinnesspeichern zum Kurzzeit- und Arbeitsgedächtnis eine starke Informationsreduktion stattfindet; grob von 100% auf etwa 25%.

Nicht alles, was im Kurz- und Arbeitsgedächtnis vorkommt, gelangt automatisch ins Langzeitgedächtnis. Ein wichtiger Faktor, der zum Speichern führt, ist die ‚Verweildauer‘ im Kurzzeit- und Arbeitsgedächtnis, und die ‚Häufigkeit‘ des Auftretens. Ob wir nach einer Speicherung etwas ‚wiederfinden‘ können, hängt ferner davon ab, wie ein Ereignis abgespeichert wurde. Je mehr ein Ereignis sich zu anderen Ereignissen in Beziehung setzen lässt, umso eher wird es erinnert. Völlig neuartige Ereignisse (z.B. die chinesischen Schriftzeichen in der Ordnung eines chinesischen Wörterbuches, wenn man Chinesisch neu lernt) können Wochen oder gar Monate dauern, bis sie so ‚verankert‘ sind, dass sie bei Bedarf ‚mühelos‘ erinnern lassen.

Ein anderer Punkt ist die Abstraktion. Wenn wir über alltägliche Situationen sprechen, dann benutzen wir beständig Allgemeinbegriffe wie ‚Tasse‘, ‚Stuhl‘, ‚Tisch‘, ‚Mensch‘ usw. um über ‚konkrete individuelle Objekte‘ zu sprechen. So nennen wir ein konkretes rotes Etwas auf dem Tisch eine Tasse, ein anderen blaues konkretes Etwas aber auch, obgleich sie Unterschiede aufweisen. Desgleichen nennen wir ein ‚vertikales durchsichtiges Etwas‘ eine Flasche, ein vertikales grünliches Etwas auch; usw.

Unser Gedächtnis besitzt die wunderbare Eigenschaft, alles, was sinnlich wahrgenommen wird, durch einen unbewussten automatischen Abstraktionsprozess in eine abstrakte Struktur, in einen Allgemeinbegriff, in eine ‚Kategorie‘ zu übersetzen. Dies ist extrem effizient. Auf diese Weise kann das Gedächtnis mit einem einzigen Konzept hunderte, tausende, ja letztlich unendlich viele konkrete Objekte klassifizieren, identifizieren und damit weiter arbeiten.

Welt im Tresor

Ohne die Inhalte unseres Gedächtnisses würden wir nur in Augenblicken existieren, ohne vorher und nachher. Alles wäre genau das, wie es gerade erscheint. Nichts hätte eine Bedeutung.

Durch die Möglichkeit des ‚Speicherns‘ von Ereignisse (auch in den abstrakten Formen von Kategorien), und des ‚Erinnerns‘ können wir ‚vergleichen‘, können somit Veränderungen feststellen, können Abfolgen und mögliche Verursachungen erfassen, Regelmäßigkeiten bis hin zu Gesetzmäßigkeiten; ferner können wir Strukturen erfassen.

Eine Besonderheit sticht aber ins Auge: nur ein winziger Teil unseres potentiellen Wissens ist ‚aktuell verfügbar/ bewusst‘; meist weniger als 9 Einheiten! Alles andere ist nicht aktuell verfügbar, ist ’nicht bewusst‘!

Man kann dies so sehen, dass die schier unendliche Menge der bisher von uns wahrgenommenen Ereignisse im Langzeitgedächtnis weggesperrt ist wie in einem großen Tresor. Und tatsächlich, wie bei einem richtigen Tresor brauchen auch wir selbst ein Codewort, um an den Inhalt zu gelangen, und nicht nur ein Codewort, nein, wir benötigen für jeden Inhalt ein eigenes Codewort. Das Codewort für das abstrakte Konzept ‚Flasche‘ ist ein konkretes ‚Flaschenereignis‘ das — hoffentlich — genügend Merkmale aufweist, die als Code für das abstrakte Konzept ‚Flasche‘ dienen können.

Wenn über solch einen auslösenden Merkmalscode ein abstraktes Konzept ‚Flasche‘ aktiviert wird, werden in der Regel aber auch alle jene Konzepte ‚aktiviert‘, die zusammen mit dem Konzept ‚Flasche‘ bislang aufgetreten sind. Wir erinnern dann nicht nur das Konzept ‚Flasche‘, sondern eben auch all diese anderen Ereignisse.

Finden wir keinen passenden Code, oder wir haben zwar einen Code, aber aus irgendwelchen Emotionen heraus haben wir Angst, uns zu erinnern, passiert nichts. Eine Erinnerung findet nicht statt; Blockade, Ladehemmung, ‚blackout‘.

Bewusstsein im Nichtbewusstsein

Im Alltag denken wir nicht ‚über‘ unser Gehirn nach, sondern wir benutzen es direkt. Im Alltag haben wir subjektiv Eindrücke, Erlebnisse, Empfindungen, Gedanken, Vorstellungen, Fantasien. Wir sind ‚in‘ unserem Erleben, wir selbst ‚haben‘ diese Eindrücke. Es sind ‚unsere‘ Erlebnisse‘.

Die Philosophen haben diese Erlebnis- und Erkenntnisweise den Raum unseres ‚Bewusstseins‘ genannt. Sie sprechen davon, dass wir ‚Bewusstsein haben‘, dass uns die Ding ‚bewusst sind‘; sie nennen die Inhalte unseres Bewusstseins ‚Qualia‘ oder ‚Phänomene‘, und sie bezeichnen diese Erkenntnisperspektive den Standpunkt der ‚ersten Person‘ (‚first person view‘) im Vergleich zur Betrachtung von Gegenständen in der Außenwelt, die mehrere Personen gleichzeitig haben können; das nennen sie den Standpunkt der ‚dritten Person‘ (‚third person view‘) (Anmerkung: Ein Philosoph, der dies beschrieben hat, ist Thomas Nagel. Siehe zur Person: Thomas Nagel. Ein Buch von ihm, das hir einschlägig ist: ‚The view from nowhere‘, 1986, New York, Oxford University Press).

Nach den heutigen Erkenntnissen der Neuropsychologie gibt es zwischen dem, was die Philosophen ‚Bewusstsein‘ nennen und dem, was die Neuropsychologen ‚Arbeitsgedächtnis‘ nennen, eine funktionale Korrespondenz. Wenn man daraus schließen kann, dass unser Bewusstsein sozusagen die erlebte ‚Innenperspektive‘ des ‚Arbeitsgedächtnisses‘ ist, dann können wir erahnen, dass das, was uns gerade ‚bewusst‘ ist, nur ein winziger Bruchteil dessen ist, was uns ’nicht bewusst‘ ist. Nicht nur ist der potentiell erinnerbare Inhalt unseres Langzeitgedächtnisses viel größer als das aktuell gewusste, auch die Milliarden von Prozessen in unserem Körper sind nicht bewusst. Ganz zu schweigen von der Welt jenseits unseres Körpers. Unser Bewusstsein gleicht damit einem winzig kleinen Lichtpunkt in einem unfassbar großen Raum von Nicht-Bewusstsein. Die Welt, in der wir bewusst leben, ist fast ein Nichts gegenüber der Welt, die jenseits unseres Bewusstseins existiert; so scheint es.

Außenwelt in der Innenwelt

Der Begriff ‚Außenwelt‘, den wir eben benutzt haben, ist trügerisch. Er gaukelt vor, als ob es da die Außenwelt als ein reales Etwas gibt, über das wir einfach so reden können neben dem Bewusstsein, in dem wir uns befinden können.

Wenn wir die Erkenntnisse der Neuropsychologie ernst nehmen, dann findet die Erkenntnis der ‚Außenwelt‘ ‚in‘ unserem Gehirn statt, von dem wir wissen, dass es ‚in‘ unserem Körper ist und direkt nichts von der Außenwelt weiß.

Für die Philosophen aller Zeiten war dies ein permanentes Problem. Wie kann ich etwas über die ‚Außenwelt‘ wissen, wenn ich mich im Alltag zunächst im Modus des Bewusstseins vorfinde?

Seit dem Erstarken des empirischen Denkens — spätestens seit der Zeit Galileis (Anmerkung: Galilei) — tut sich die Philosophie noch schwerer. Wie vereinbare ich die ‚empirische Welt‘ der experimentellen Wissenschaften mit der ’subjektiven Welt‘ der Philosophen, die auch die Welt jedes Menschen in seinem Alltag ist? Umgekehrt ist es auch ein Problem der empirischen Wissenschaften; für den ’normalen‘ empirischen Wissenschaftler ist seit dem Erstarken der empirischen Wissenschaften die Philosophie obsolet geworden, eine ’no go area‘, etwas, von dem sich der empirische Wissenschaftler fernhält. Dieser Konflikt — Philosophen kritisieren die empirischen Wissenschaften und die empirischen Wissenschaften lehnen die Philosophie ab — ist in dieser Form ein Artefakt der Neuzeit und eine Denkblokade mit verheerenden Folgen.

Die empirischen Wissenschaften gründen auf der Annahme, dass es eine Außenwelt gibt, die man untersuchen kann. Alle Aussagen über die empirische Welt müssen auf solchen Ereignissen beruhen, sich im Rahmen eines beschriebenen ‚Messvorgangs‘ reproduzieren lassen. Ein Messvorgang ist immer ein ‚Vergleich‘ zwischen einem zuvor vereinbarten ‚Standard‘ und einem ‚zu messenden Phänomen‘. Klassische Standards sind ‚das Meter‘, ‚das Kilogramm‘, ‚die Sekunde‘, usw. (Anmerkung: Siehe dazu: Internationales Einheitensystem) Wenn ein zu messendes Phänomen ein Objekt ist, das z.B. im Vergleich mit dem Standard ‚Meter [m]‘ die Länge 3m aufweist, und jeder, der diese Messung wiederholt, kommt zum gleichen Ergebnis, dann wäre dies eine empirische Aussage über dieses Objekt.

Die Einschränkung auf solche Phänomene, die sich mit einem empirischen Messstandard vergleichen lassen und die von allen Menschen, die einen solchen Messvorgang wiederholen, zum gleichen Messergebnis führen, ist eine frei gewählte Entscheidung, die methodisch motiviert ist. Sie stellt sicher, dass man zu einer Phänomenmenge kommt, die allen Menschen(Anmerkung: die über gleiche Fähigkeiten der Wahrnehmung und des Denkens verfügen. Blinde Menschen, taube Menschen usw. könnten hier Probleme bekommen!“> … in gleicher Weise zugänglich und für diese nachvollziehbar ist. Erkenntnisse, die allen Menschen in gleicher Weise zugänglich und nachprüfbar sind haben einen unbestreitbaren Vorteil. Sie können eine gemeinsame Basis in einer ansonsten komplexen verwirrenden Wirklichkeit bieten.

Die ‚Unabhängigkeit‘ dieser empirischen Messvorgänge hat im Laufe der Geschichte bei vielen den Eindruck vertieft, als ob es die ‚vermessene Welt‘ außerhalb und unabhängig von unserem Bewusstsein als eigenständiges Objekt gibt, und dass die vielen ‚rein subjektiven‘ Empfindungen, Stimmungen, Vorstellungen im Bewusstsein, die sich nicht direkt in der vermessbaren Welt finden, von geringerer Bedeutung sind, unbedeutender ’subjektiver Kram‘, der eine ‚Verunreinigung der Wissenschaft‘ darstellt.

Dies ist ein Trugschluss mit verheerenden Folgen bis in die letzten Winkel unseres Alltags hinein.

Der Trugschluss beginnt dort, wo man übersieht, dass die zu messenden Phänomene auch für den empirischen Wissenschaftler nicht ein Sonderdasein führen, sondern weiterhin nur Phänomene seines Bewusstseins sind, die ihm sein Gehirn aus der Sinneswahrnehmung ‚herausgerechnet‘ hat. Vereinfachend könne man sagen, die Menge aller Phänomene unseres Bewusstseins — nennen wir sie PH — lässt sich aufteilen in die Teilmenge jener Phänomene, auf die sich Messoperationen anwenden lassen, das sind dann die empirischen Phänomene PH_EMP, und jene Phänomene, bei denen dies nicht möglich ist; dies sind dann die nicht-empirischen Phänomene oder ‚rein subjektiven‘ Phänomene PH_NEMP. Die ‚Existenz einer Außenwelt‘ ist dann eine Arbeitshypothese, die zwar schon kleine Kindern lernen, die aber letztlich darauf basiert, dass es Phänomene im Bewusstsein gibt, die andere Eigenschaften haben als die anderen Phänomene.

In diesen Zusammenhang gehört auch das Konzept unseres ‚Körpers‘, der sich mit den empirischen Phänomenen verknüpft.

Der Andere als Reflektor des Selbst

Bislang haben wir im Bereich der Phänomene (zur Erinnerung: dies sind die Inhalte unseres Bewusstseins) unterschieden zwischen den empirischen und den nicht-empirischen Phänomenen. Bei genauerem Hinsehen kann man hier viele weitere Unterscheidungen vornehmen. Uns interessiert hier nur der Unterschied zwischen jenen empirischen Phänomenen, die zu unserem Körper gehören und jenen empirischen Phänomenen, die unserem Körper ähneln, jedoch nicht zu uns, sondern zu jemand ‚anderem‘ gehören.

Die Ähnlichkeit der Körperlichkeit des ‚anderen‘ zu unserer Körperlichkeit bietet einen Ansatzpunkt, eine ‚Vermutung‘ ausbilden zu können, dass ‚in dem Körper des anderen‘ ähnliche innere Ereignisse vorkommen, wie im eigenen Bewusstsein. Wenn wir gegen einen harten Gegenstand stoßen, dabei Schmerz empfinden und eventuell leise aufschreien, dann unterstellen wir, dass ein anderer, wenn er mit seinem Körper gegen einen Gegenstand stößt, ebenfalls Schmerz empfindet. Und so in vielen anderen Ereignissen, in denen der Körper eine Rolle spielt(Anmerkung: Wie wir mittlerweile gelernt haben, gibt es Menschen, die genetisch bedingt keine Schmerzen empfinden, oder die angeboren blind oder taub sind, oder die zu keiner Empathie fähig sind, usw.“> … .

Generalisiert heißt dies, dass wir dazu neigen, beim Auftreten eines Anderen Körpers unser eigenes ‚Innenleben‘ in den Anderen hinein zu deuten, zu projizieren, und auf diese Weise im anderen Körper ‚mehr‘ sehen als nur einen Körper. Würden wir diese Projektionsleistung nicht erbringen, wäre ein menschliches Miteinander nicht möglich. Nur im ‚Übersteigen‘ (‚meta‘) des endlichen Körpers durch eine ‚übergreifende‘ (‚transzendierende‘) Interpretation sind wir in der Lage, den anderen Körper als eine ‚Person‘ zu begreifen, die aus Körper und Seele, aus Physis und Psyche besteht.

Eine solche Interpretation ist nicht logisch zwingend. Würden wir solch eine Interpretation verweigern, dann würden wir im Anderen nur einen leblosen Körper sehen, eine Ansammlung von unstrukturierten Zellen. Was immer der Andere tun würde, nichts von alledem könnte uns zwingen, unsere Interpretation zu verändern. Die ‚personale Wirklichkeit des Anderen‘ lebt wesentlich von unserer Unterstellung, dass er tatsächlich mehr ist als der Körper, den wir sinnlich wahrnehmen können.

Dieses Dilemma zeigt sich sehr schön in dem berühmten ‚Turing Test'(Anmerkung: Turing-Test, den Alan Matthew Turing 1950 vorgeschlagen hatte, um zu testen, wie gut ein Computer einen Menschen imitiere kann. (Anmerkung: Es war in dem Artikel: „Alan Turing: Computing Machinery and Intelligence“, Mind 59, Nr. 236, Oktober 1950, S. 433–460) Da man ja ‚den Geist‘ selbst nicht sehen kann, sondern nur die Auswirkungen des Geistes im Verhalten, kann man in dem Test auch nur das Verhalten eines Menschen neben einem Computer beobachten, eingeschränkt auf schriftliche Fragen und Antworten. (Anmerkung: heute könnte man dies sicher ausdehnen auf gesprochene Fragen und Antworten, eventuell kombiniert mit einem Gesicht oder gar mehr“) Die vielen Versuche mit diesem Test haben deutlich gemacht — was man im Alltag auch ohne diesen Test sehen kann –, dass das beobachtbare Verhalten eines Akteurs niemals ausreicht, um logisch zwingend auf einen ‚echten Geist‘, sprich auf eine ‚echte Person‘ schließen zu können. Daraus folgt nebenbei, dass man — sollte es jemals hinreichend intelligente Maschinen geben — niemals zwingend einen Menschen, nur aufgrund seines Verhaltens, von einer intelligenten Maschine unterscheiden könnte.

Rein praktisch folgt aus alledem, dass wir im Alltag nur dann und solange als Menschen miteinander umgehen können, solange wir uns wechselseitig ‚Menschlichkeit‘ unterstellen, an den ‚Menschen‘ im anderen glauben, und mein Denken und meine Gefühle hinreichend vom Anderen ‚erwidert‘ werden. Passiert dies nicht, dann muss dies noch nicht eine völlige Katastrophe bedeuten, aber auf Dauer benötigen Menschen eine minimale Basis von Gemeinsamkeiten, auf denen sie ihr Verhalten aufbauen können.

Im positiven Fall können Unterschiede zwischen Menschen dazu führen, dass man sich wechselseitig anregt, man durch die Andersartigkeit ‚Neues‘ lernen kann, man sich weiter entwickelt. Im negativen Fall kann es zu Missverständnissen kommen, zu Verletzungen, zu Aggressionen, gar zur wechselseitigen Zerstörung. Zwingend ist keines von beidem.

Fortsetzung mit Kapitel 4 (neu).

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 5

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll

Das Wunder des Zeichens

Wenn wir zu verstehen beginnen, dass die wunderbare Welt unseres Erkennens im Gehirn stattfindet, das in unserem Körper eingeschlossen getrennt von der Welt existiert, kann sich die Frage stellen, wie denn das Gehirn von Dir und mein Gehirn miteinander kommunizieren können. Wie erfahre ich, was Du willst, und Du, was ich will? Woher kann ich wissen, warum Du diese Handlung gut findest, und wie erfährst Du, warum ich die andere Handlung gut finde?

Diese Fragen zielen auf das Wunder der Koordination zwischen Menschen, aber letztlich auch zwischen Tieren, auch zwischen Pflanzen, ja generell: wieso können biologische Zellen ihr Verhalten koordinieren?

Hier gibt es noch viele Fragen, auf die die Wissenschaften bis heute keine voll befriedigenden Antworten gefunden hat. Auf einige dieser Fragen werde ich weiter unten noch eingehen. Jetzt, hier, in diesem Kapitel, soll es um die Frage gehen, wie wir Menschen die Frage der Kommunikation mittels Sprache — zumindest ansatzweise — gelöst haben.

Auf etwas zeigen

Wenn Menschen mit anderen zusammen am Tisch sitzen und Essen ist es oft so, dass man einen Gegenstand vom Tisch benötigt, der weiter weg steht und man denjenigen bittet, der am nächsten dran sitzt, einem den Gegenstand zu reichen.

Man kann dies tun, indem man mit der Hand, den Fingern, mit dem Gesicht in die Richtung des Gegenstandes deutet und die andere Person ‚erkennt‘ aus der Richtung und dem, was sich auf dem Tisch befindet, was ‚gemeint‘ ist; die andere Person deutet dann vielleicht selbst auf diesen Gegenstand, mit einem fragenden Blick, und wenn es der Gegenstand ist, den man meint, dann nickt man vielleicht, freundlich, mit einem Lächeln, und die andere Person reicht einem den Gegenstand.

In diesem Fall waren es Bewegungen des Körpers und bestimmte Körperhaltungen die in einer konkreten Situation mit Teilen der Situation in Interaktion treten und die, eine andere ‚kooperierenden Person‘ vorausgesetzt, von dieser anderen kooperierenden Person mit bestimmten Teilen der Situation ‚in Beziehung gesetzt‘ werden. Eine Handbewegung ist in diesem Fall nicht einfach eine Handbewegung ‚für sich‘, sondern eine Handbewegung als Teil einer größeren Situation, wo der ‚Andere‘ die Handbewegung mit einem bestimmten Teil der Situation, einem Gegenstand G, in eine ‚Beziehung‘ bringt. Diese Beziehung ist selbst kein realer Gegenstand sondern ist eine der vielen ‚möglichen gedachten Beziehungen‘ im Kopf des Anderen zwischen der beobachteten Handbewegung und den verschiedenen Gegenständen auf dem Tisch. Durch den fragenden Blick will der Andere wissen, ob seine ‚gedachte Beziehung‘ jene Beziehung ist, die der Bittende ‚intendiert‘ (sich vorgestellt, gedacht, …) hatte. Wenn der Bittende bestätigend nickt, dann fühlt der Andere sich ‚bestätigt‘ und nimmt die hypothetische gedachte Beziehung als jene Beziehung, die jetzt in dieser Situation vom Bittenden ‚gemeint‘ ist. Punktuell, kurzfristig wurde also im Raum der vielen Möglichkeiten eine bestimmte mögliche Beziehung als hier und jetzt gewollte gedacht und durch Bewegungen ‚manifestiert‘ (ausgedrückt, mitgeteilt, …).

Wenn wir dieses alltägliche Beispiel verallgemeinern, dann haben wir folgende (theoretische) Zutaten:

  1. Wir haben mindestens zwei Teilnehmer A und B, die ein Kommunikationsspiel spielen.
  2. Wir unterstellen bei jedem Teilnehmer ein Bewusstsein, das einem Teilnehmer ermöglicht, Eigenschaften der Außenwelt W in seinem Bewusstsein ‚hinreichend gut‘ zu ‚repräsentieren‘.
  3. Jeder Teilnehmer hat einen Körper, der von dem anderen wahrgenommen werden kann und der Eigenschaften besitzt, die eine Unterscheidung von Körperhaltungen und Körperbewegungen erlauben.
  4. In der gemeinsam geteilten Situation (als Teil der Außenwelt) gibt es Objekte, die Eigenschaften besitzen, wodurch sie sich voneinander unterscheiden und aufgrund deren sie von den Teilnehmern ‚wahrgenommen‘ werden können.
  5. Wir unterscheiden zwischen der ‚Stimulation‘ der Sinnesorgane in Gestalt von sensorischem Input I durch die Objekte OBJ der Außenwelt (als $latex stim: SIT \times OBJ \longmapsto I$) und der eigentlichen Wahrnehmung als Ergebnis der internen Verarbeitung der Stimulation I in bewusste Perzepte P (als $latex perc: I \times IS \longmapsto IS \times P$) (‚IS‘ steht für irgendwelche internen Zustände, die bei diesem Prozess auch noch eine Rolle spielen.). Dies berücksichtigt, dass die gleichen Außenweltreize von verschiedenen Anderen unterschiedlich verarbeitet werden können.
  6. Objekte in der Außenwelt werden — auf unterschiedliche Weise — so wahrgenommen, als ob sie sich in einem dreidimensionalen Raum befinden. Dies bedeutet, eine Situation hat eine ‚Raumstruktur‘, in der die Objekte in bestimmten Positionen und Lagen vorkommen. Dadurch ergeben sich zwischen den Objekten charakteristische räumliche Beziehungen. Während die Stimulation der Sinnesorgane diese räumlichen Strukturen partiell ‚vereinfacht‘, kann die Wahrnehmung mit Unterstützung des Gehirns daraus partiell räumliche Strukturen ‚zurückrechnen‘.
  7. Wenn zwei Gegenstände sich im Raum der Außenwelt so befinden, dass wir sie wahrnehmen können (z.B. eine Schüssel auf dem Tisch und eine Hand, die in diese ‚Richtung‘ deutet), können wir außer der räumlichen Beziehung auch andere mögliche Beziehungen (z.B. eine ‚Zeigebeziehung‘) wahrnehmen. Diese Beziehungen existieren als mögliche ‚gedachte Beziehungen‘ im Bewusstsein eines Teilnehmers. Ein Teilnehmer kann sich unendlich viele Beziehungen denken.
  8. Dass ein Anderer A zwei Objekte der Außenwelt mit einer ‚gedachten Beziehung‘ verbinden kann, die der Bittende B in seinem Bewusstsein ’sich vorstellt’/ ‚denkt‘, setzt ferner voraus, dass es zwischen der Wahrnehmung und dem ‚Vorstellen’/ ‚Denken‘ zwischen A und B hinreichend viel ‚Ähnlichkeit‘ gibt. Könnte ein A grundsätzlich sich nicht jene ‚Beziehungen‘ ‚vorstellen‘, die sich B vorstellt, wenn er mit seiner Hand in Richtung eines bestimmten Gegenstands (z.B. der einen roten Schüssel …) deutet, dann könnte B so viel deuten wie er will, der Andere A würde sich einfach nicht vorstellen

Nach dieser — noch immer vereinfachenden — Darstellung des Sachverhalts, können wir uns dem Begriff des Zeichens zuwenden.

Der Begriff des Zeichens

Mit dieser Frage gerät man in den Bereich der allgemeinen Wissenschaft von den Zeichen, der Semiotik (Anmerkung: Die Geschichte der Semiotik ist lang und vielschichtig. Einen guten Überblick bietet Winfried Noeth in seinem ‚Handbuch der Semiotik‘ von 2000, publiziert von J.B. Metzler (Stuttgart/Weimar)). Obwohl es je nach Zeit und Denkmode sehr unterschiedliche Formulierungen gibt, kann man eine Kernstruktur erkennen, die sich in allen unterschiedlichen Positionen durchhält.

Allerdings sollte man sich vorab klar machen, ob man — wie es historisch zunächst der Fall war — den Begriff des Zeichens primär durch Bezugnahme auf den Raum des Bewusstseins charakterisieren will, oder durch Bezugnahme auf das beobachtbare Verhalten (wie es die empirischen Wissenschaften favorisieren).

Der berühmteste Vertreter einer bewusstseinszentrierten Vorgehensweise ist Charles Sanders Peirce (1839 – 1914). Für den verhaltensorientierten Ansatz einflussreich war Charles William Morris (1901 – 1979). Eine Kombination aus bewusstseinsbasierten und verhaltensorientierten Aspekten bietet Ferdinand de Saussure (1857 – 1913).

Der Gebrauch eines Zeichens setzt — wie zuvor — eine Kommunikationssituation voraus mit mindestens zwei Teilnehmern, die mit ihren Körpern in der Situation anwesend sind und über hinreichend gleiche Körperstrukturen für Wahrnehmung und Denken verfügen.

Am Beispiel der Situation des Essens möchte ich die rote Schüssel mit dem Nachtisch gereicht bekommen; diese steht nicht in meiner Griffweite. Ich sehe meine Schwester Martina so sitzen, dass Sie mir die Schüssel reichen könnte. Ohne Sprache könnte ich nur mit Handbewegungen und Gesichtsausdrücken versuchen, ihr klar zu machen, was ich möchte. Mit Sprache könnte ich Laute erzeugen, die als Schallwellen ihr Ohr erreichen und sagen würden ‚Hallo M, kannst Du mir bitte mal die rote Schüssel reichen?‘. Sofern meine Schwester Deutsch kann (was der Fall ist), wird sie diese Schallwellen in ihrem Kopf so ‚übersetzen‘, dass sie einen Bezug herstellt zu ihrer Wahrnehmung der roten Schüssel, zur Wahrnehmung von mir, und wird eine Aktion einleiten, mir die Schüssel zu reichen.

Der gesprochene Satz ‚Hallo M, kannst Du mir bitte mal die rote Schüssel reichen?‘ als ganzer stellt ein Ausdrucksmittel dar, bildet ein Material, mittels dessen ein Sprecher (in dem Fall ich), einen Hörer (in dem Fall meine Schwester) in die Lage versetzt, nur aufgrund des Schalls einen Bezug zu einem realen Objekt herzustellen und dieses Objekt in eine Handlung (mir das Objekt rüber reichen) einzubetten. Meine Schwester als Hörerin ist damit interpretierend tätig; sie stellt aktiv eine Verbindung her zwischen dem gehörten Schall und Elementen ihrer Wahrnehmung der Situation. Diese Interpretation befähigt sie, eine Handlung zu planen und auszuführen.

Rein verhaltensorientiert kann man sagen, dass die gesamte sprachliche Äußerung ein Zeichenmaterial darstellt, das vom Hörer intern ‚verarbeitet‘ wird, was zu einer bestimmten Handlung führt (die rote Schüssel reichen). Der Hörer nimmt hier eine Interpretation (Int) vor, durch die der Schall, das Zeichenmaterial (ZM) in Beziehung gesetzt wird zu etwas Wahrgenommenem; dies führt wiederum zu einer beobachtbaren Handlung, die damit zur Bedeutung (M) des Zeichenmaterials wird: $latex Int: ZM \longmapsto M$. Anders ausgedrückt, das Gesagte, der Sprachschall, bekommt durch diesen Zusammenhang eine neue Funktion; der Schall steht nicht mehr nur ‚für sich alleine‘, sondern es spielt eine Rolle in einer Beziehung. Damit wird das an sich neutrale Schallereignis zu einem ‚Zeichen‘. Ein Hörer verwandelt mit seiner Interpretation ein an sich neutrales Ereignis in ein Zeichen für etwas anderes, was man die Bedeutung des Zeichens nennt.

Als Wissenschaftler kann man hier weiter verallgemeinern und den Hörer als ein Input-Output-System betrachten mit dem Sprachschall und den visuellen Wahrnehmungen als Input I und dem beobachtbaren Verhalten als Output O und der Interpretation Int als Verhaltensfunktion $latex \phi$, geschrieben $latex \phi: I \times IS \longmapsto IS \times O$

Interpretieren

Wer die Thematik ‚Zeichen‘, ‚Semiotik‘, ‚Sprache‘, Sprachverstehen‘ usw. ein wenig kennt, der weiß, dass wir uns damit einer Materie genähert haben, die sehr umfangreich und beliebig kompliziert ist, so kompliziert, dass fast alle wirklich interessanten Fragen noch kaum als gelöst bezeichnet werden können. Ich beschränke mich daher hier nur auf einige Kernpunkte. Nach Bedarf müssten wir das vertiefen.

Wie man an dieser Stelle ahnen kann, ist der Vorgang des Interpretierens das eigentliche Herzstück des Zeichenbegriffs. Hier geschieht die Zuordnung zwischen gehörtem Schall (oder gelesenem Text, oder gesehenen Gesten, oder …) zu anderen bekannten Wissensinhalten, vorzugsweise zu Wahrnehmungselementen der aktuellen Situation. Will man die Details dieses Interpretationsprozesses beschreiben, hat man mit einem verhaltensbasierten Ansatz ein Problem: alles, was sich im ‚Innern‘ eines biologischen Systems abspielt, ist zunächst nicht beobachtbar. Da hilft es auch nicht, wenn man heute einen Körper ‚aufmachen‘ kann und Körperorgane, Zellen, Prozesse in den Zellen untersuchen kann. Schaltzustände von Zellen, speziell Gehirnzellen, sagen als solche nichts über das Verhalten. Es sei denn, man ist in der Lage, explizit einen Zusammenhang zwischen den Zuständen von Gehirnzellen und beobachtbarem Verhalten herzustellen, was in der Neuropsychologie zur Methode gehört. Ähnlich könnte man bei der expliziten Parallelisierung von beobachtbarem Verhalten und rein subjektiven Phänomenen vorgehen oder eine explizite Parallelisierung zwischen Aktivitäten von Gehirnzellen (oder auch anderer Zellen) mit rein subjektiven Phänomenen.

Die verhaltensbasierte empirische Psychologie hat in zahllosen Modellbildungen gezeigt, wie man auf der Basis von Verhaltensdaten empirisch kontrollierte Hypothesen über mögliche Verarbeitungsmechanismen im System formulieren kann. Wieweit diese Modelle sich im Rahmen von neuropsychologischen Studien in der Zukunft bestätigen lassen oder diese modifiziert werden müssen, das wird die Zukunft zeigen.

Abstraktionen – Allgemeinbegriffe

Wenn wir mittels sprachlicher Ausdrücke Gegenstände unserer Alltagswelt ansprechen, benutzen wir fast ausnahmslos sogenannte Allgemeinbegriffe. Ich frage nach der ‚Schüssel‘ wohl wissend, dass es hunderte von Gegenständen geben kann, die konkret verschieden sind, die wir aber alle als ‚Schüssel‘ bezeichnen würden; desgleichen mit Ausdrücken wie ‚Tasse‘, ‚Flasche‘, ‚Tisch‘, Stuhl‘, usw.

Indem wir sprachliche Ausdrücke benutzen machen wir stillschweigend Gebrauch von der Fähigkeit unseres Gedächtnisses, dass alles, was wir gegenständlich wahrnehmen, ‚verallgemeinert‘ wird, d.h. von Details abgesehen wird und Kerneigenschaften abstrahiert werden (die Philosophen sprechen auch von Kategorisierung, der Bildung von Kategorien; eine andere Bezeichnung ist das Wort ‚Klasse‘). Dies geschieht offensichtlich unbewusst, ‚automatisch‘; unser Gedächtnis arbeitet einfach so, stillschweigend, lautlos. Was immer wir wahrnehmen, es wird in ein abstraktes Konzept ‚übersetzt‘, und alles, was zukünftig diesem Konzept ‚ähnlicher‘ ist als anderen Konzepten, das wird dann diesem Konzept zugerechnet. Ein gedankliches Gegenstandskonzept kann auf diese Weise für viele hundert unterschiedliche konkrete Gegenstände stehen. Und die Sprache braucht immer nur ein einziges Wort für ein solches abstraktes Gegenstands-Konzept.

Im konkreten Fall (wie z.B. dem Essen) ist die Verständigung meist einfach, da vielleicht nur eine einzige Schüssel auf dem Tisch steht. Wenn nicht, dann haben diese Schüsseln eventuell eine unterscheidende Eigenschaft (anhand ihrer räumlichen Position, Farbe, Größe, Inhalt, …). Die Schüssel ’neben‘ …, die ‚rote‘ Schüssel…, die ‚kleine weiße Schüssel‘ …, die Schüssel mit dem Reis ….

Wenn wir den Interpretationsprozess genauer beschreiben wollen, dann müssten wir diese Abstraktionsprozesse und ihre Anwendung in die Theoriebildung mit einbeziehen.

Diese Abstraktionsprozesse finden wir nicht nur bei ‚Gegenständen‘, sondern auch bei der Lautwahrnehmung. Wen wir ein gesprochenes Wort wie ‚Tasse‘ hören, dann hören wir dieses gesprochene Wort auch dann, wenn es schneller, langsamer, höher, tiefer, lauter oder leiser usw. gesprochen wird. Alle diese verschiedenen Äußerungsereignisse sind physikalisch sehr unterschiedlich und die moderne Sprachtechnologie hat viele Jahrzehnte gebraucht, um ‚in den meisten Fällen‘ das ‚richtige‘ Wort zu erkennen. Wir Menschen gehen mit diesen vielen unterschiedlichen Realisierungen vergleichsweise mühelos um. Auch hier verfügt unser Wahrnehmungs- und Gedächtnissystem über sehr leistungsfähige Abstraktionsprozesse, die zur Ausbildung von Lautkategorien und dann Wortklassen führen.

Wechselwirkungen zwischen Kategorien und Sprache

Damit finden wir auf der untersten Ebene des sprachlichen Zeichengebrauchs zwei selbständige Abstraktions- und Kategoriensysteme (Laute, Gegenstände), die im Zeichengebrauch zusammen geführt werden. Bevor Kinder diese beiden Systeme nicht meistern, können sie nicht wirklich Sprache lernen. Wenn sie es aber geschafft haben, diese Laut- und Gegenstandskategorien in sich zu realisieren, dann explodiert ihr Sprachlernen. (Anmerkung: Für einen Überblick siehe: Language development. Besonders aufschlussreich sind die empirischen Daten zur Entwicklung der Lautbildung, des Bedeutungserwerbs und der Grammatik. Umfassendere Theoriebildungen sind meist sehr spekulativ.)

Eine oft diskutierte Frage ist, in wieweit die Kategorienbildung bei den Gegenständen unabhängig ist von der Korrelation mit den Laut- und Wortkategorien (Anmerkung: Siehe einen Überblick zum Streit über die Sapir-Whorf-Hypothese.). Sofern diese Abstraktionsprozesse in genetisch bedingten Verarbeitungsprozessen gründen (wie z.B. der Farbwahrnehmung) darf man davon ausgehen, dass die sprachlichen Besonderheiten diese grundsätzlichen Kategorienbildung im Gegenstandsbereich nicht verändern, höchstens unterschiedlich nutzen. Für das gemeinsame Erlernen von Sprache bildet die Unabhängigkeit der vorsprachlichen Kategorienbildung eine Voraussetzung, dass eine Sprache gelernt werden kann. Gibt es hier Abweichungen (Anmerkung: wie z.B. bei Farbblindheit, generell Sehstörungen oder gar Blindheit, bei Taubheit, bei Störungen der Sinneswahrnehmungen, usw.), dann wird das gemeinsame Erlernen von Sprache in unterschiedlichen Graden erschwert bzw. eingeschränkt.

Bedeutung als Werden

Man kann erkennen, dass schon auf dieser untersten Ebene des Sprachgebrauchs Menschen, obgleich sie das gleiche Wort benutzen (wie ‚Flasche‘, ‚Tasse‘, …), damit ganz unterschiedliche Dinge verbinden können, je nachdem welche konkreten Gegenstände sie im Laufe ihrer Lerngeschichte sie wahrnehmen konnten. Je weiter sich diese Gegenstände von einfachen Alltagsgegenständen entfernen und komplexere Gegenstände benennen wie Tätigkeiten (‚Autofahren‘, ‚Einkaufen‘, ‚Reparieren‘, ..), komplexe Situationen (‚Parkhaus‘, ‚Jahrmarkt‘, ‚Sportveranstaltung‘, …) oder komplexe Organisationen (‚Gemeindeverwaltung‘, ‚politische Partei‘, ‚Demokratie‘, …), umso vielfältiger und umso unschärfer (‚fuzzy‘) werden die damit eingeschlossenen konkreten Eigenschaften. So wunderbar die Verfügbarkeit von abstrakten Begriffen/ Klassen/ Kategorien/ Allgemeinbegriffen den Gebrauch von Sprache vereinfacht, so trügerisch können diese Begriffe sein. 10 Menschen benutzen das Wort ‚Gott‘ und jeder versteht damit möglicherweise etwas ganz anderes.

Der Aufbau einer gemeinsam geteilten Bedeutungswelt ist in keiner Weise ein ‚Selbstgänger‘; langer Atem, gemeinsame Anstrengungen, Abstimmungen, Abgleiche, viel Kommunikation ist notwendig, um Verstehen zu ermöglichen, Missverständnisse zu verringern und bewusster Manipulation entgegen zu treten.

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

INTELLIGENZ, LERNEN, IMPLIZITE WERTE: ZUR BIOTECHNOLOGISCHEN KREATIVITÄT VERURTEILT

EINFÜHRUNG

1. Momentan kreuzen wieder einmal verschiedene Themen ihre Bahnen und die folgenden Zeilen stellen den Versuch dar, einige Aspekt davon festzuhalten.

2. Ein Thema rührt von dem Vortrag am 19.Mai her, bei dem es darum ging, die scheinbare Einfachheit, Begrenztheit und Langsamkeit von uns Menschen angesichts der aktuell rasant erscheinenden Entwicklungen in einen größeren Kontext einzuordnen, in den Kontext der biologischen Entwicklung, und dabei aufzuzeigen, welch fantastisches ‚Produkt‘ der homo sapiens im Kontext des biologischen Lebens darstellt und dass unsere Gegenwart nicht als ein ‚Endpunkt‘ misszuverstehen ist, sondern als eine hochaktive Transitzone in eine Zukunft, die keiner wirklich kennt.

3. Ein anderes Thema rührt her von den neuen Technologien der Informationstheorie, Informatik, Robotik, die unser Leben immer mehr begleiten, umhüllen, durchtränken in einer Weise, die unheimlich werden kann. In den Science-Fiction Filmen der letzten 40-50 Jahren werden die ‚intelligenten Maschinen‘ mehr und mehr zu den neuen Lichtgestalten während der Mensch verglichen mit diesen Visionen relativ ‚alt‘ aussieht.

4. Während viele – die meisten? – dem Akteur homo sapiens momentan wenig Aufmerksamkeit zu schenken scheinen, auf ihn keine ernsthafte Wetten abschließen wollen, traut man den intelligenten Maschinen scheinbar alles zu.

5. Ich selbst liefere sogar (neue) Argumente (in vorausgehenden Artikeln), warum eine Technologie der künstlichen Intelligenz ‚prinzipiell‘ alles kann, was auch biologische Systeme können.

6. In den Diskussionen rund um dieses Thema bin ich dabei verstärkt auf das Thema der ‚impliziten Werte‘ gestoßen, die innerhalb eines Lernprozesses Voraussetzung dafür sind, dass das Lernen eine ‚Richtung‘ nehmen kann. Dieser Punkt soll hier etwas ausführlicher diskutiert werden.

INTELLIGENZ

7. Eine Diskussion über die Möglichkeit von Intelligenz (bzw. dann sogar vielleicht einer Superintelligenz) müsste klären, wie man überhaupt Intelligenz definieren will. Was ‚Intelligenz an sich‘ sein soll, das weiß bis heute niemand. Die einzigen, die seit ca. 100 Jahren einen empirisch brauchbaren Intelligenzbegriff entwickelt haben, das sind die Psychologen. Sie definieren etwas, was niemand kennt, die ‚Intelligenz‘, ganz pragmatisch über einen Katalog von Aufgaben, die ein Kind in einem bestimmten Alter in einer bestimmten Gesellschaft so lösen kann, dass man dieses Kind in dieser Gesellschaft als ‚intelligent‘ bezeichnen würde. Bei einem Menschen mit einem anderen Alter aus einer anderen Gesellschaft kann dieser Aufgabenkatalog ganz andere Ergebnisse liefern.

8. Interessant ist in diesem Zusammenhang, dass Kinder, denen man aufgrund ihres vermessenen Verhaltens einen hohen Intelligenzwert zugeschrieben hat, bei Langzeituntersuchung auch überdurchschnittlich ‚erfolgreich‘ (eine in sich nicht einfache Kategorie) waren. Daraus hat man die Arbeitshypothese abgeleitet, dass das messbare intelligente Verhalten ein Indikator für bestimmte ‚interne Strukturen im Kind‘ ist, die dafür verantwortlich sind, dass das Kind solch ein Verhalten hervorbringen kann. Und es sind genau diese postulierten Ermöglichungsstrukturen für de Intelligenz, die im Kind wirksam sein sollen, wenn es im Laufe seines Lebens ‚erfolgreich‘ ist.

9. Die Ingenieurwissenschaften und die Informatik benutzen Begriffe wie ’smart‘ und ‚intelligent‘ heute fast inflationär, ohne sich in der Regel die Mühe zu machen, ihre technischen Intelligenzbegriffe mit dem psychologischen Intelligenzbegriff abzugleichen. Dies führt zu großen Begriffsverwirrungen und man kann im Falle der technischen Intelligenz in der Regel nicht sagen, in welchem Sinne ein Interface oder eine Maschine ‚intelligent‘ ist, wenn sie technisch ’smart‘ oder ‚intelligent‘ genannt wird.

10. Der berühmt Turing-Test zur Feststellung, ob eine technische Vorrichtung sich in ihrem textbasierten Dialog mit einem Menschen für den beteiligten Menschen als ununterscheidbar zu einem Menschen darstellen kann, ist nach den Standards der Psychologie wenig brauchbar. Die endlosen Diskussionen um den Turing-Test dokumentieren für mich die immer noch anhaltende methodische Verwirrung, die sich im Umfeld des technischen Intelligenzbegriffs findet. Das hohe Preisgeld für den Turing-Test kann die evidenten inhärenten Schwächen des Tests nicht beheben.

11. Wenn wir also über intelligente (oder gar super intelligente) Maschinen reden wollen, sollten wir uns an bekannte, empirisch nachprüfbare und vergleichbare Standards halten, und dies sind die der empirischen Psychologie. Das gleiche gilt auch für den nächsten zentralen Begriff, dem des ‚Lernens‘.

LERNEN

12. Auch bei dem Begriff ‚Lernen‘ finden wir wieder einen inflationären Sprachgebrauch von ‚Lernen‘ in der Informatik, der in keiner Weise mit dem empirischen Begriff des Lernens in den verhaltensorientierten Wissenschaften abgestimmt ist. Was eine ‚intelligente‘ Maschine der Informatik im Vergleich zu biologischen Systemen darstellen soll, ist im allgemeinen Fall unklar. An konkreten Beispielen wie ’schachspielender Computer, ‚Routenplanung‘ für eine Reise, ‚Quizfragen beantworten‘, ‚Gegenstände erkennen‘, gibt es zwar partielle verhaltensorientierte Beschreibungen von ‚maschineller Intelligenz‘, diese sind aber nicht in eine allgemeine verhaltensorientierte Theorie ‚intelligenter Maschinen‘ integriert.

13. In den verhaltensorientierten Wissenschaften wird ‚Lernen‘ über beobachtbares Verhalten definiert. ‚Anhaltende Verhaltensänderungen‘ in ‚Abhängigkeit von bestimmten Umweltereignissen‘ bilden die Anknüpfungspunkte, um im beobachteten System allgemein Zustände anzunehmen, die sich wahrnehmungsabhängig und erinnerungsabhängig ’nachhaltig ändern‘ können. Was genau sich ändert, weiß ein Psychologe nicht, nur dass es geeignete interne Strukturen geben muss, wenn sich ein bestimmtes Verhalten zeigt.

14. Setzt man den Körper als Ermöglichungsstruktur voraus, dann beschränkt sich Lernen auf interne Veränderungen des gegebenen Körpers. Das wäre das ’normale‘ lokale individuelle Lernen. Man kann aber auch die Strukturen eine Körpers selbst als Ergebnis eines Lernprozesses auffassen, dann bezieht sich das Lernen auf den Wandel der Körperstrukturen und -formen und die dafür verantwortlichen (angenommenen) internen Zustände sind z.T. im Reproduktionsmechanismus zu verorten. Insgesamt erscheint das strukturelle Lernen aber als komplexer mehrstufiger Prozess, der Phylogenese, Ontogenese und Epigenese umfasst.

GERICHTETE KREATIVE ENTWICKLUNG

15. Solange ein System sich in seinem Lernen damit beschäftigt, Ereignisse zu identifizieren, zu klassifizieren, Muster zu erfassen, auftretende Beziehungen zu erfassen, so lange ist das Lernen ‚an sich‘ ‚wertfrei‘. Spannender wird es bei ‚Auswahlprozessen‘: womit soll sich ein System beschäftigen: eher A oder eher Nicht-A? Durch Auswahlprozesse bekommt der individuelle Lernprozess eine ‚Richtung‘, einen selektierten Ereignisraum, der sich dann auch in den Wissensstrukturen des Systems widerspiegeln wird. Jede ‚Lerngeschichte‘ korrespondiert auf diese Weise mit einer entsprechenden ‚Wissensstruktur‘. Wenn jemand Weinanbau gelernt hat, aber es gibt keinen Wein mehr, sondern nur noch Handwerk, ist er ‚arbeitslos‘ oder muss ‚umlernen‘. Wer Betriebswirtschaft gelernt hat, aber zu wenig von Qualitätsprozessen versteht, kann erfolgreiche Firmen in den Ruin steuern. Auswahlprozesse realisieren ‚Präferenzen‘: Eher A als Nicht-A. Präferenzen repräsentieren implizit ‚Werte‘: A ist besser/ wichtiger als Nicht-A.

16. Im Falle der biologischen Evolution werden die Präferenzen sowohl vom biologischen Reproduktionsmechanismus geliefert (bis dahin vorhandene Erbinformationen), wie auch durch die herrschende Umgebung, die von bestimmten Körperformen nicht gemeistert werden konnten, von anderen schon. Die in ihren Nachkommen überlebenden Körperformen repräsentierten dann mit ihren Erbinformationen eine von außen induzierte Präferenz, die ‚gespeicherten Präferenzen der Vergangenheit‘ als eine Form von ‚Erinnerung‘, als ‚Gedächtnis‘. Über die ‚Zukunft‘ weiß die biologische Entwicklung nichts! [Anmerkung: Diese Ideen finden sich u.a. auch schon in den Schriften von Stuart Alan Kauffman. Sie ergeben sich aber auch unmittelbar, wenn man mit genetischen Algorithmen arbeitet und die Lernstruktur dieser Algorithmen heraushebt.].

17. Die biologische Entwicklung lebt vielmehr von der – impliziten! – ‚Hoffnung‘, dass die umgebende Welt sich nicht schneller ändert als die gespeicherten Erbinformationen voraussetzen. Da wir heute wissen, dass sich die Welt beständig verändert hat, teilweise sehr schnell oder gar blitzartig (Vulkanausbruch, Asteroidenbeschuss, Erdbeben,…), kann man sich fragen, wie die biologische Evolution es dann geschafft hat, das Leben quasi im Spiel zu halten, ohne etwas über die Zukunft zu wissen? Die Antwort ist eindeutig: durch eine Kombination von Kreativität und von Masse!

18. Die ‚Kreativität‘ ist implizit; die Reproduktion eines neuen Körpers aus vorhandenen genetischen Informationen verläuft auf sehr vielen Ebenen und in sehr vielen aufeinanderfolgenden Phasen. Fasst man diesen ganzen Prozess als eine ‚Abbildung‘ im mathematischen Sinne auf, dann kann man sagen, dass die Zuordnung von Körpern zu Erbinformationen nicht eindeutig ist; aus der gleichen Erbinformation kann rein mathematisch eine nahezu unendlich große Anzahl von ‚Varianten‘ entstehen, mit einem möglichen ‚Variantenkern‘. In der empirischen Welt ist die Varianz erstaunlich gering und der Variantenkern erstaunlich stabil. Aber offensichtlich hat die verfügbare Varianz ausgereicht, um die sich stark verändernden Umgebungsbedingungen bedienen zu können. Voraus zur Zukunft in einer sich verändernden Welt hat man immer nur ein Teilwissen. Das ‚fehlende Wissen‘ muss man sich teuer erkaufen; es gibt nichts zu Nulltarif. Für jedes Leben, das man in der Zukunft erhalten will, muss man einen – nicht leicht genau zu bestimmenden – hohen Einsatz erbringen, in der Hoffnung, dass die Breite des Ansatzes ausreichend ist.

GEGENWART ALS TRANSIT

19. Verglichen mit den Dramen der Vergangenheit könnten uns die ‚Erfolge‘ der Gegenwart dazu verleiten, anzunehmen, dass wir Menschen ‚über dem Berg‘ sind. Dass wir jetzt so langsam alles ‚im Griff‘ haben. Diese Vorstellung könnte sehr sehr trügerisch sein. Denn das Überleben auf der Erde rechnet in Jahrhunderttausenden, Millionen oder gar hunderten von Millionen Jahren. Eine kurzfristige ‚Boomzeit‘ von ein paar Jahrzehnten besagt nichts, außer dass wir feststellen, dass schon in wenigen Jahrzehnten ungeheuer viele biologische Arten ausgestorben sind, viele weitere vom Aussterben bedroht sind, und allein wir Menschen viele zentrale Probleme der Ernährung, des Wassers und der Energie noch keineswegs gelöst haben. Außerdem haben wir nach heutigem Kenntnisstand nicht noch weitere 4 Milliarden Jahre Zeit, sondern höchstens ca. eine Milliarde Jahre, weil dann laut der Physik die Sonne sich aufgrund ihrer Kernfusionsprozess sich soweit ausgedehnt haben wird, dass ein Leben auf der Erde (nach heutigem Kenntnisstand) nicht mehr möglich sein wird.

20. Letztlich dürften wir weiterhin in dieser Position der anzustrebenden Meisterung von etwas ‚Neuem‘ sein, das wir vorab nur partiell kennen. Nur durch ein hinreichendes Maß an Kreativität und hinreichend vielfältigen Experimenten werden wir die Herausforderung meistern können. Jede Form der Festschreibung der Gegenwart als ‚unveränderlich‘ ist mittel- und langfristig tödlich.

BIOLOGIE UND TECHNIK IN EINEM BOOT

21. Aus den vorausgehenden Überlegungen ergeben sich unmittelbar einige weitreichende Folgerungen.

22. Die heute gern praktizierte Trennung von Biologie einerseits und Technologie andererseits erscheint künstlich und irreführend. Tatsache ist, dass die gesamte Technologie aus der Aktivität des biologischen Lebens – speziell durch den homo sapiens – entstanden ist. Etwas Biologisches (der homo sapiens) hat mit Mitteln der Biologie und der vorfindlichen Natur ‚Gebilde‘ geschaffen, die so vorher zwar nicht existiert haben, aber sie sind auch nicht aus dem ‚Nichts‘ entstanden. Sie sind durch und durch ‚biologisch‘, wenngleich – faktisch – mit der übrigen Natur, mit dem bisherigen Ökosystem nicht immer ‚optimal‘ angepasst. Aber die Natur selbst hat millionenfach Systeme erzeugt, die nicht optimal angepasst waren. Die Natur ist ein dynamisches Geschehen, in dem milliardenfach, billionenfach Strukturen generiert werden, die für eine Zukunft gedacht sind, die keiner explizit kennt. Es ist sozusagen ein allgemeines ‚Herantasten‘ an das ‚werdende Unbekannt‘. Wer hier glaubt, die bekannte Gegenwart als ‚Maßstab schlechthin‘ benutzen zu können, irrt schon im Ansatz.

23. Wenn nun ein Teil dieser Natur, der homo sapiens als Realisierung eines biologischen Systems, es durch seine Aktivitäten geschafft hat, seine unmittelbare Lebensumgebung umfassend und zugleich schnell so umzugestalten, dass er als Hauptakteur nun plötzlich als ‚Flaschenhals‘ erscheint, als ‚Bremsklotz‘, dann ist dies zunächst einmal keine ‚Panne‘, sondern ein riesiger Erfolg.

24. Die körperlichen Strukturen des homo sapiens, ein Wunderwerk von ca. 4 Milliarden Jahren ‚Entwicklungsarbeit‘, besitzen eine Substruktur, das Gehirn, das in der Lage ist, die strukturellen Lernprozesse der biologischen Körper in Gestalt lokaler individueller Lernprozesse dramatisch zu beschleunigen. Komplexe Gedächtnisstrukturen, komplexe Begriffsoperationen, Symbolgebrauch, Logik und Mathematik, Rechenmaschinen, Bücher, Computer, Daten-Netzwerke haben dem individuellen Gehirn eine ‚kognitive Verstärkung‘ verpasst, die die Veränderungsgeschwindigkeit des strukturellen Körperlernens von einer Dimension von etwa (optimistischen) 10^5 Jahren auf etwa (pessimistischen) 10^1 Jahren – oder weniger – verkürzt haben. Dies stellt eine absolute Revolution in der Evolution dar.

25. Hand in Hand mit der dramatischen Verkürzung der Lernzeit ging und geht eine dramatische Steigerung der Kooperationsfähigkeit durch Angleichung der Sprache(n), Angleichung der Datenräume, politisch-juristische Absicherung sozialer Räume, Verbesserung der Infrastrukturen für große Zahlen und vielem mehr.

26. Innerhalb von nur etwa 50-100 Jahren ist die Komplexitätsleistung des homo sapiens geradezu explodiert.

27. Bislang sind die neuen (noch nicht wirklich intelligenten) Technologien eindeutig eine Hilfe für den homo sapiens, sich in dieser Welt zurecht zu finden.

28. Wenn man begreift, dass die scheinbare ‚Schwäche‘ des homo sapiens nur die Kehrseite seiner ungeheuren Leistungsfähigkeit sind, sein gesamtes Umfeld dramatisch zu beschleunigen, dann würde die naheliegende Frage eigentlich sein, ob und wie der homo sapiens die neuen Technologien nutzen kann, um seine aktuellen begrenzten körperlichen Strukturen eben mit Hilfe dieser neuen Technologien soweit umzubauen, dass er selbst mit seinen eigenen Gestaltungserfolgen auf Dauer noch mithalten kann (und es ist ja kein Zufall, dass die gesamte moderne Genetik ohne Computer gar nicht existieren würde).

29. Bislang bremsen ‚veraltete‘ Ethiken in den Köpfen der Politik eine dynamische Erforschung der alternativen Strukturräume noch aus. Dies ist bis zu einem gewissen Grad verständlich, da der homo sapiens als ‚Transitwesen‘ sich nicht selbst ruinieren sollte bevor er neue leistungsfähige Strukturen gefunden hat; aber Verbote als grundsätzliche Haltung sind gemessen an der erfolgreichen Logik des Lebens seit 4 Milliarden Jahre grundlegend unethisch, da lebensfeindlich.

30. Auch die heute so ‚trendige‘ Gegenüberstellung von homo sapiens und ‚intelligenten lernenden Maschinen‘ erscheint nach den vorausgehenden Überlegungen wenig wahrscheinlich.

31. Einmal hätten mögliche intelligente Maschinen das gleiche Entwicklungsproblem wie die biologischen Systeme, die ihre Überlebensfähigkeit seit 4 Milliarden Jahre demonstriert haben. Biologische Systeme haben einen ‚mehrlagigen‘ Lernmechanismus‘ ausgebildet, der ‚Kreativität‘ als wesentlichen Bestandteil enthält. Die bisherigen Konzepte für maschinelle Intelligenz sind verglichen damit höchst primitiv. Maschinelle Intelligenz ‚für sich‘ ist auch völlig ortlos, kontextfrei. Als Moment am biologischen Entwicklungsprozess jedoch,in einer symbiotischen Beziehung zu biologischen Systemen, kann künstliche Intelligenz eine maximal hohe Bedeutung gewinnen und kann von den ‚Wertfindungsmechanismen‘ der biologischen Systeme als Teil einer vorfindlichen Natur profitieren.

32. Die Gegenübersetzung von homo sapiens und (intelligenter) Technologie ist ein Artefakt, ein Denkfehler, ein gefährlicher Denkfehler, da er genau die maximale Dynamik, die in einer biotechnologischen Symbiose bestehen kann, behindert oder gar verhindert. Das wäre lebensfeindlich und darin zutiefst unethisch.

Einen Überblick über alle Blogeinträge von cagent nach Titeln findet sich HIER: cagent.

DAS NICHTBEWUSSTSEIN – ODER DIE KUNST SICH SELBST ZU (ER)FINDEN

Ausgehend vom 'Bewusstsein' kann uns die Pschologie helfen, den Komplementärbegriff des 'Nichtbwusstseins' zu bilden
Ausgehend vom ‚Bewusstsein‘ kann uns die Pschologie helfen, den Komplementärbegriff des ‚Nichtbwusstseins‘ zu bilden

1. In einem vorausgehenden Blogeintrag hatte ich den Begriff des ‚Nichtbewusstseins‘ als Komplementärbegriff zum Begriff des ‚Bewusstseins‘ eingeführt. Der so eingeführte Begriff des ‚Nichtbewusstseins‘ ist rein technischer Natur und hat mit den sich im Umlauf befindlichen Begriffen wie ‚Unterbewusstsein‘, ‚Vorbewusstsein‘, ‚Tiefenbewusstsein‘ usw. aus dem Bereich der Psychotherapie oder Psychoanalyse zunächst nichts zu tun.

2. Wie im Schaubild angedeutet, setzt der hier eingeführte technische Begriff des ‚Nichtbewusstseins‘ voraus, dass es ein intuitives-vorwissenschaftliches Verständnis von ‚Bewusstsein‘ gibt, verbunden mit der Annahme, dass alle beteiligten Sprecher-Hörer biologisch eine hinreichend ähnliche Struktur besitzen und in der Lage sind/ waren, den sprachlichen Ausdruck ‚Bewusstsein‘ mit diesem Vorverständnis ‚irgendwie‘ zu ‚verknüpfen‘. Ob dies tatsächlich der Fall ist lässt sich im Alltag immer nur ’näherungsweise‘ feststellen. Es bleibt eine unaufhebbare ‚Unschärfe‘ dahingehend, dass wir niemals genau wissen können, was der/ die andere ‚tatsächlich‘ meint, wenn er/ sie von ‚Bewusstsein spricht. Letztlich gilt dies auch immer für ‚uns selbst‘: unsere eigenen ‚Bewusstseinsinhalte‘ sind nicht konstant, wechseln beständig, zeigen immer wieder neue, überraschende Seiten, usw. Unser eigenes ‚Konzept‘ von unserem eigenen ‚Bewusstsein‘ ist daher auch immer schon eine ‚Annäherung‘ an etwas, was wir ‚vorfinden‘!

3. Benutzt man nun die Erkenntnisse der experimentellen Psychologie aus den letzten ca. 100 Jahren, dann kann man erste Anhaltspunkte zum Verhalten und zur Struktur einzelner Phänomene des ‚Bewusstseins‘ samt möglicher Wechselwirkungen mit einem hypothetischen Bereich ‚jenseits des Bewusstseins‘ – hier global ‚Nichtbewusstsein‘ genannt – finden. In einem beständigen Kreislauf von theoretischen Annahmen und empirischen Experimenten hat die Psychologie diverse Erkenntnisse zur potentiellen Struktur des menschlichen Gedächtnisses herausgearbeitet, die in dem schon erwähnten groben Schema von ‚Sensorischem Gedächtnis‘, ‚Kurzzeitspeicher‘ sowie ‚Langzeitspeicher‘ zusammengefasst sind. Das, was subjektiv als ‚Bewusstsein‘ erlebt wird, korreliert ungefähr mit dem Begriff des ‚Kurzzeitspeichers‘ im psychologischen Modell (parallel versuchen seit einiger Zeit die Neurowissenschaften ’neuronale Korrelate des Bewusstseins‘ zu ermitteln. Die bisherigen Ergebnisse sind bislang aber – aus verschiedenen Gründen – (leider) wenig brauchbar). Das psychologische Modell als solches ist experimentell und ansatzweise modellhaft/ theoretisch einigermaßen ‚klar‘, das vorwissenschaftliche Bezugsobjekt ‚Bewusstsein‘ hingegen ist prinzipiell ‚unklar‘, ‚vage‘.

4. Gilt schon für das Bewusstsein selbst, dass es ‚vorgegeben‘ ist, dass es eine ‚veränderliche‘ Größe ist, deren Inhalt und Dynamik sich nur in einer längeren ‚Betrachtung‘ erschließt, so gilt dies verstärkt für den Bereich des ‚Nichtbewusstseins‘ ‚jenseits‘ des Bewusstseins. Alles, was wir erfahrungsmäßig empirisch erfahren (unser Körper, die Welt außerhalb unseres Körpers), ist per se etwas, was wir auch ‚vorfinden‘, was ’sich zeigt‘, was sich als ‚veränderlich‘ zeigt, usw.

5. D.h. wir haben zu einem bestimmten (konstruierten) Zeitpunkt t einen bestimmten ‚Bewusstseinsinhalt‘ [Cont(Consc, t) = PH] als Menge von ‚Phänomenen‘ [PH], und zu einem späteren Zeitpunkt t‘ > t einen Bewusstseinsinhalt Cont(Consc, t‘) = PH‘. Falls PH‘ verschieden ist von PH, also PH ≠ PH‘, liegen ‚Veränderungen‘ vor.

6. Angenommen, es gibt solche Veränderungen (und in der täglichen Erfahrungen gehen wir davon aus), dann stellt sich hier schon ein erstes fundamentales Problem: da nach Annahme der aktuelle Bewusstseinsinhalt PH zu einem aktuellen Zeitpunkt t nur ‚Inhalte‘ in Form von ‚Phänomenen‘ umfasst, kann man sich fragen, wieso wir zu einem späteren Zeitpunkt t‘ mit anderen Phänomenen PH‘ zugleich ‚feststellen‘ können, dass einzelne Phänomene ph‘ aus PH‘ sich ’so‘ ’nicht‘ in der Menge der Phänomene PH zum vorausgehenden Zeitpunkt t ‚befunden‘ haben? Ein solcher Vergleich setzt minimal voraus, dass es eine Art ‚Erinnerung‘ mem(PH,t,t‘) = PH_mem der Phänomene vom Zeitpunkt t zum späteren Zeitpunkt t‘ gibt, und dass der ‚Inhalt dieser Erinnerung‘ PH_mem ‚verglichen‘ werden kann cmp(PH_mem, PH‘) = ph‘ mit den aktuellen Phänomenen PH‘ zum Zeitpunkt t‘.

7. Dabei ist auch noch zu bestimmen, was alles davon ‚bewusst‘ ist: nur das Ergebnis der Erinnerung samt Vergleich – also ph‘ –, oder auch der Vorgang des Erinnerns mem() und Vergleichens cmp()?

8. Im aktuellen psychologischen Modell würde man sagen, dass der Vorgang des Erinnerns und Vergleichens in den Bereich des Langzeitgedächtnisses gehören würde und damit in den Bereich des Nichtbewusstseins fallen würden, also nicht bewusst wären. Bewusst wären nur jene Phänomene ph‘ die sich in t‘ von t unterscheiden. Dies würde bedeuten, dass die Vorgäng des ‚Erinnerns‘ mem() und ‚Vergleichens von Erinnerbarem mit Aktuellem‘ cmp() Vorgänge wären, die wir nur indirekt erschließen können. Aus Sicht einer wissenschaftlichen Theoriebildung wären sie dann sogenannte ‚theoretische Terme‘ innerhalb eines ‚Modells‘ (oder einer ‚Theorie‘).

9. Diese sehr einfachen Überlegungen können ahnen lassen, dass der Bereich des ‚Nichtbewusstseins‘ nicht nur potentiell unendlich groß ist, sondern er kann in sich unendlich viele ‚fertige Strukturen und Prozesse‘ aufweisen, die festlegen, ‚ob‘ wir überhaupt ‚Bewusstseinsinhalte‘ in Form von Phänomenen PH haben und ‚in welcher Weise‘ diese ‚auftreten‘. ‚Dass‘ wir überhaupt erinnern können hängt von dem ab, was wir ‚Gedächtnis‘ nennen, und ebenfalls ‚wie‘.

10. Was nun das ‚Bild‘ betrifft, das ein Mensch ‚von sich selbst‘ hat, so folgt aus dieser Ausgangslage, dass niemand von Anfang an ‚wissen‘ kann, ‚wer‘ er selbst tatsächlich ist. Der einzige Weg, dies heraus zu finden, ist der ‚Versuch‘, das ‚Experiment‘, das ‚Spielen‘, das ‚kreativ sein‘ usw. Wer sich niemals selbst ausprobiert, wird niemals wissen können, wer er/ sie ‚wirklich‘ ist.

11. Im Alltag ist es oft so, dass Kinder Bilder über sich selbst ‚von anderen‘ übernehmen (eigene Eltern, Freunde, KlassenkameradenInnen, LehrerIn, usw.), die ‚falsch‘ sind in dem Sinne, dass ein Vater z.B. sagt, dass ein Kind X entweder nie kann (obwohl es das tatsächlich könnte) oder dass das Kind X auf jeden Fall können muss (obwohl es X zumindest nicht jetzt können kann). Kinder machen sich sehr oft und sehr schnell solche ‚Fremdzuschreibungen‘ zu eigen, nehmen also ein ‚Bild‘ von sich an, was gar nicht ihren tatsächlichen Fähigkeiten entspricht, und Verhalten sich dann entsprechend diesem falschen Bild. Ein Vorgang, der sich im Jugendalter und im Berufsleben, in Beziehungen weiter fortsetzen kann: man bekommt eine bestimmte Rolle Y zugeschrieben (obgleich diese möglicherweise ‚unpassend‘ ist) und ’nimmt sie an‘. Manchmal sind es Zufälle (neue Freunde, neue Arbeitskollegen, Situationen im Urlaub…), dass man entdeckt, dass man ja auch ‚ganz anders‘ sein kann.

12. Der einzige wirkliche ‚Schutz gegen falsche Bilder‘ ist das ‚eigenständige Ausprobieren‘, das eigenständige ‚Hinterfragen‘, der Mut, den Erwartungen der Umgebung immer wieder mal nicht zu entsprechen, der Mut zum Experiment.

13. Und selbst dann, wenn man ein bestimmtes Selbstbewusstsein in Richtung Schreiben, Malen, Musik machen, Rechnen, Sport usw. ausgebildet hat, selbst dann ist jeder neue Tag eine neue Herausforderung, sich nicht in der ‚Vergangenheit‘ einzurichten, nicht bei ‚Bekanntem‘ auszuharren, anstatt sich immer wieder neu dem Wagnis auszusetzen, im Tun sich immer wieder ’neu‘ zu erleben.

14. Wenn ich anfange zu Schreiben, dann weiß ich in der Regel nie, was ich alles schreiben werden. Im Schreiben erlebe ich, wie Worte sich formen, ein Gedanke sich entwickelt, und am Ende bin ich selbst erstaunt, was ich dann geschrieben habe. Tage und Wochen später, falls ich dann nochmals lese, was ich schon geschrieben habe (was merkwürdigerweise eher selten ist, da so viel ‚Neues‘ ansteht), kann ich oft nicht glauben, dass ich dies geschrieben habe. Das Schreiben enthüllt Dinge aus dem eigenen ‚Nichtbewusstsein‘, die bis zum Augenblick des ‚Hervortretens‘ ‚unsichtbar‘ sind, nicht bewusst.

15. Insofern das ‚Nichtbewusstsein‘ – wie uns die Psychologie (und ansatzweise die Neurowissenschaft) lehrt –, in Form eines Langzeitgedächtnisses auf sehr komplexe Weise organisiert zu sein scheint, gibt es zwar für manche ‚Verarbeitungsprozesse‘ Erklärungsansätze, die ‚verständlich‘ machen können, warum man morgens, wenn man aufwacht, gerade diese Gedanken und gerade so denkt, aber dies sind sekundäre theoretische Erklärungen; wir selbst als ‚Erlebende‘ haben nur das aktuelle Erleben. Wir können nur sehr indirekt dieses Erleben ’steuern‘: wenn jemand weiß, dass zu langes spätes Fernsehen plus zu viel Alkohol plus Bewegungsarmut schlecht schlafen lässt, könnte er spätes Fernsehen reduzieren, Alkohol reduzieren und sich bewusst mehr bewegen. Der Effekt ist direkt erlebbar. Es macht aber wenig Sinn, über schlechtes Körpergefühl am morgen zu klagen und sich nur zu ‚wünschen‘ es wäre anders.

16. Jemand, der sich als ‚Künstler‘ versteht, bewegt sich tendenziell eher am ‚Rande des Bewusstseins‘, ist jemand, der versucht, seinem ‚Nichtbewusstsein‘ Raum zu geben, indem er mit Verhalten, Materialien, Situation, mit sich selbst ‚experimentiert‘. Selbst wenn der Ausgangspunkt eine gewöhnliche ‚Leinwand‘ sein sollte, selbst wenn die die zum Einsatz kommenden ‚Materialien‘ (Farben, Pinsel, …) ‚bekannt‘ sind, selbst dann ist in der Regel völlig offen, ‚wie‘ der Künstler Leinwand, Farben und Pinsel benutzen wird. ‚Was‘ wird ’sichtbar‘ werden? Sofern der ‚Ursprung‘ seiner Malaktionen in seinem ‚Nichtbewusstsein‘ liegen, weiß er normalerweise nicht, ‚was‘ er ‚wie‘ malen wird. Während des Malens wird das Gemalte ‚mit ihm‘ einen Dialog eröffnen, in dessen Verlauf er (Warum? Wieso? Weshalb?) das Gemalte eher ‚gut‘ finden wird oder eher ’schlecht‘. Würde man ihn fragen ‚warum‘, wird er normalerweise nicht wirklich sagen können, warum. Mit dem aktuellen Malen tritt etwas aus seinem Nichtbewusstsein heraus, das ihm erst dann ‚bewusst‘ wird, das ihn ‚überraschen‘ kann, womöglich gar ‚erschrecken‘, ihm ‚Angst machen‘ kann, aber eventuell auch ‚berauscht‘, ‚anregt‘ usw. Im Malen findet er damit buchstäblich ‚zu sich‘. Er entdeckt Seiten ‚an sich‘, die ihm bis zum Malakt ‚verborgen‘ waren.

17. Wenn die Umgebung, die ‚Öffentlichkeit‘, der ‚Kunstmarkt‘ sich eines Malers ‚bemächtigt‘, kann es passieren, dass die ‚externen Erwartungen‘ sich über den Maler ’stülpen‘ und er dann plötzlich meint, Dinge malen zu müssen, nur um diese externen Erwartungen zu befriedigen. Aus den ‚malerischen Offenbarungen‘ von zuvor werden dann ‚malerische Dekorationen‘, die dem kommerziellen Wertstellungsmechanismus gefallen, tatsächlich aber die ‚Kunst‘ im Sinne eines Hervorbringens von noch nicht Bekanntem zerstören. ‚Konservenkunst‘ (speziell im Bereich Musik) wiederholt dann nur noch Bekanntes, erstarrt zur Maske, hat ihr ‚Leben‘ ausgehaucht. Der Versuch, das ‚Schöne‘ zu bannen, führt im Moment des ‚Bannens‘ zur Verzerrung, zur Ontologisierung von etwas, was eigentlich nur Bewegung und Werden ist. Der tiefsitzende Reflex des ‚Haben Wollens‘, des ‚Festhalten Wollens‘ ist der permanente Feind des Lebens, das per se etwas ist, das immer ‚über sich hinaus‘ verweist.

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER

MUSIK

Im Sinne der obigen Gedanken ist der folgende Klang keine ‚Komposition‘, sondern ‚hat sich ergeben‘, Methode ‚radically Unplugged‘. Interessante Frage: ‚Was‘ ergibt sich ‚wann‘ und ‚warum‘? Interessant ist dabei das, was sich nicht aus ’schon Bekanntem‘ ergibt, sondern aus dem ‚Nichts‘ des noch ’nicht Bekanntem‘?

BAUSTEINE DER ‚UNLOGIK‘ VON GESCHICHTE: Philosophie und Politik, Einzelner und Geschichte, Das Beharrliche an Ungerechtigkeit

DENKEN, KÖRPER, WELT, POLITIK

1. Seit dem letzten Sommer schreibe ich in diesem Blog immer wieder und immer mehr über ‚politische‘ Themen, obgleich ich dies weder geplant hatte noch eigentlich will; die Tagesereignisse wirken jedoch auf das philosophierende Denken wie eine Art ‚Störfeuer‘; ich möchte Strukturen unseres Denkens, unseres Wissens, unseres Handelns weiter klären, aber dann rasen Meldungen durch die Medien von Ereignissen, die Auswirkungen auf viele haben, von Menschen, die Entscheidungen fällen, die ganze Nationen elementar betreffen, und dann ist irgendwie klar, dass das individuelle Denken und der reale Gang der Geschichte nun mal irgendwie zusammenhängen. Das individuelle Denken findet in einer realen Matrix von Gegebenheiten, Handlungen anderer statt, von denen man zwar im Denken bis zu einem gewissen Grad ‚abstrahieren‘ kann, aber trotz denkerischer Abstraktion bestehen diese realen Zusammenhänge. Auch wenn ich im ‚Denkraum‘ abtauche bleibt mein Körper ein realer Moment in realen Prozessen, verlangt er nach Nahrung, hat einen amtlich registrierten Namen, bin ich eine Nummer in einer Verwaltungsmaschinerie, unterliege ich den Spielregeln der aktuell jetzt und hier geltenden Gesetze. Im Denken kann ich ‚anders‘ sein als der Moment, als der Augenblick, als es die realen Situationen vorsehen und erlauben, aber das Denken als Denken verändert nicht notwendigerweise die Realität. Ich kann über Grundprinzipien der Demokratie ’nachdenken‘ und zugleich mit meinem Körper in einer Situation leben, in der Demokratie abgebaut wird, und ich dadurch zu diesem Abbau dadurch mit beitrage, dass mein Körper ’nichts tut‘, was diesen Prozess stoppt.

2. In dem Maße, wie ich meine, das Zusammenspiel von Realität und Denken besser zu verstehen, in dem Maße verliert die Realität ihre ‚Unschuld‘. In dem Maße wie man zu verstehen meint, wie die Prozesse des Alltags nicht ’naturgegeben‘ sind, nicht ‚unabwendbar‘, sondern auch von uns Menschen, von jedem einzelnen von uns, ‚erzeugt‘, in dem Masse wird Denken ‚über‘ diese Realität mehr und mehr zu einem Denken ‚der Realität‘, in der jedes Wort, jede Geste, jedes Handeln ‚bedeutsam‘ wird: wenn ich ’schweige‘ dann ‚rede‘ ich in der Form der Zustimmung; wenn ich rede, dann dann rede ich in Form der realen Interaktion. Dann tritt mein Denken in einem scheinbar ’schwachen‘ aber dennoch ‚realen‘ Dialog mit der Welt, in der mein Körper vorkommt. Es ist aktuell die Welt des Jahres 2014 (andere Kalender haben andere Zahlen).

3. Ich beginne für mich zu realisieren, dass die Zeit des ‚politikfreien‘ Denkens möglicherweise vorbei ist. Ich stelle fest, dass ich nicht mehr so abstrahieren kann wie früher. Ich stelle fest, dass das Denken der großen Entwicklungslinien des Lebens auf der Erde und das Alltagsgeschehen immer mehr verschmilzt. Der atemberaubende kosmologische Prozess dieser unserer Erde als Teil von Sonnensystem, Milchstraße usw. bricht sich in den scheinbar ‚geschichtslosen‘ Aktionen von Milliarden menschlicher Individuen jeden Tag neu, und je mehr man das Wunder des Lebens zu erkennen meint, umso unfassbarer wird die Perspektiv- und Verantwortungslosigkeit, die unser ‚Alltagshandel‘ zu haben scheint.

IMPLIZITES WISSEN UND EXPLIZITES HANDELN

4. Ich sage bewusst ’scheint‘, da nach aktuellem Kenntnisstand fast alles, was die Lebenssituation auf der Erde betrifft und die Strukturen des biologischen Lebens, stattgefunden hat und stattfindet ohne unser Zutun. Allerdings hat die Existenz der menschlichen Lebensform auf dieser Erde seit ein paar Millionen Jahren die Erde im Handlungsbereich eben von uns Menschen zunehmend verändert. Diese Änderungen sind mittlerweile so stark, dass wir drauf und dran sind, wichtige Teilprozesse des Gesamtprozesses so zu stören, dass der Gesamtprozess damit nachhaltig gestört wird.

5. Dennoch, obwohl das beobachtbare Verhalten von uns Menschen große Einwirkungen auf die eigene Lebensumwelt erkennen lässt, und es Menschen, Gruppierungen, größere Organisationen und Firmen gibt, deren Verhalten ‚planvoll‘ wirkt, kann man sich nicht des Eindrucks erwehren, dass das ‚Planvolle‘ an dem Geschehen letztlich überwiegend wenig reflektiert ist und von individuellen Motiven einzelner angetrieben wird, die in der individuellen Psyche und deren individueller Geschichte wurzeln, und denen jeder Bezug zu einem größeren Ganzen abgeht. Dass ‚kleinwüchsige Männer‘ einen überhöhten Geltungsdrang haben, der viele Völker in einen Strudel von Kriegen und Zerstörung getrieben haben, ist nicht nur ein Klischee, sondern historische Realität. Dass persönliche Eitelkeiten und individuelles Machtstreben gepaart mit allerlei anderen individuellen Bedürfnissen Ländereien, Fabriken, ganze Völker ruiniert haben, ist auch real. Kurzum, das psychologische Format des einzelnen Menschen erscheint immer mehr als unzureichend für die Herausforderungen einer komplexen Massengesellschaft. Während die komplexen Prozesse einer Stadt, einer Region weitreichende vernetzte und rückgekoppelte Denkprozesse verlangen, die von Menschen ausgeführt und unterstützt werden, die in ihrem Denken und Fühlen dazu fähig sind, ist die normale psychologische Ausstattung eines einzelnen Menschen dafür im Normalfall gar nicht ausgelegt.

WENDEPUNKT DER EVOLUTION?

6. Immerhin, der Mensch, zumindest der homo sapiens sapiens, hat ca. 100.000 Jahre mit seiner psychologischen Ausstattung Erstaunliches bewegt und geleistet. Nun aber scheint homo sapiens sapiens sowohl mit seinem psychologischen Format wie auch mit seinen kognitiven Fähigkeiten wie ein Insekt um ein tödliches Licht zu kreisen, das im Fall des homo sapiens sapiens die in jedem Individuum eingebauten zeitlich eng begrenzten Bedürfnisse und Motive sind, die ihn wie ein unsichtbarer Magnet in ihrem Bann halten und letztlich im Alltag bestimmen. Die verschiedenen Religionen (alle, ohne Ausnahme!) haben bislang wenig dazu beigetragen, das Bild des Menschen real so aufzuhellen, dass wir diesem in unseren Genen eingeschriebenem Programm des ‚Handelns auf Kurzsicht, Nahbereich, triebhafter Elementarsteuerung‘ usw. irgendwie entkommen könnten. Letztlich haben sie es mit blumigen Worten und allerlei zufälligem Regelwerk festgeschrieben, den Status Quo zum Selbstzweck erklärt. Am allerschlimmsten, sie haben die ‚Erde‘ und den ‚Himmel‘ geteilt. Das ist die schlimmste Form des Atheismus, die es geben kann.

7. Historisch befindet sich der homo sapiens sapiens an dem bislang ‚höchsten Punkt‘ seiner Entwicklung. Zugleich ist dies eine Art ‚Scheitelpunkt‘ an dem ein nachhaltiger ‚Systemumbau‘ notwendig ist, soll das bislang Erreichte nicht im Desaster enden. Einerseits scheint es, als ob wir genügend Wissen ansammeln konnten, andererseits stecken wir alle in einer ‚unsichtbaren‘ psychologischen ‚Programmhülle‘, die die Gene in unserem Körper und Gehirn angelegt haben, die jeden einzelnen in seinem Bann hält und wie von einer unsichtbaren Macht gezogen täglich zu Gefühlen und Handlungen anregt, die sowohl individuell wie gemeinschaftlich eher ‚destruktiv‘ wirken als ‚konstruktiv‘.

8. Solange der gesellschaftliche Diskurs diese Problematik nicht offen und kompetent adressiert, solange werden wir das bisherige Programm unserer Gene weiter ausführen und damit unsere individuelle wie gemeinschaftliche Zukunft möglicherweise zerstören; nicht, weil wir dies explizit wollen, sondern weil wir implizit, ’nichtbewusst‘, Dinge tun, die unser genetisches Programm uns beständig ‚einflüstert‘, weil sich dieses Programm vor langer Zeit mal bewährt hatte. Moralisieren und die verschiedenen, aus dem Nichtwissen geborenen Religionen, helfen hier nicht weiter. Die Wissenschaft könnte helfen; alle bekannten Gesellschaftssysteme forcieren aber – wenn überhaupt – eine Wissenschaft, die auf kurzfristigen wirtschaftlichen Erfolg programmiert ist, und sich in den fachlichen Details verliert und gerade nicht ein solches Wissen, das Disziplinen übergreifend nach Zusammenhängen sucht und das alltägliche Fühlen und Denken in seiner Gesamtheit im Zusammenhang sieht mit dem zugrunde liegenden genetischen Programm.

WEN FRAGEN ERWACHSENE?

9. Kinder können die Erwachsenen fragen, was sie tun sollen, und sie fragen auch. Wen können die Erwachsenen fragen? Und wenn wir alle gleich wenig wissen, wen fragen wir dann zuerst?
10. Alle Antworten sind im Prinzip schon da. Ich bin auch überzeugt, dass wir die Antworten irgendwann finden werden. Wann? Bei einem historischen Prozess von ca. 13.8 Mrd Jahren kommt es nicht auf ein paar tausend ode ein paar zehntausend oder auch mehr Jahre an. Solange wir als einzelne nicht begreifen (und fühlen), dass wir grundsätzlich Teil dieses größeren Ganzen sind, solange können diese Gedanken ’schrecklich‘ wirken.

SELBSTBEHARRUNG DER UNGERECHTIGKEIT

11. Zum letzten Teil der Überschrift: wenn man sich lange genug die vielen ‚Ungerechtigkeiten‘ in unserer Welt anschaut, so beruhen sie ja allesamt auf dem Schema, dass einige wenige sich ‚Vorteile’/ ‚Privilegien‘ auf Kosten einer Mehrheit herausnehmen. Die Begründungen für diese Privilegien variieren im Laufe der Geschichte (auch dafür musste oft Gott herhalten: ‚göttliche Abstammung‘, ‚gottgewollt‘ …). Letztlich sind alle diese Begründungen nicht viel wert. Wenn das Leben als Ganzen der oberste Wert ist und alle Teile grundsätzlich ‚gleichberechtigt‘, dann können nur solche Lösungen zählen, in denen für die Gesamtheit ein Optimum angestrebt wird. Die Tendenz individuell oder gruppenmäßig Privilegien anzuhäufen, huldigt der Überlebenslogik, dass nur die ‚eigene Gruppe‘ überleben kann und soll und dass alle ‚anderen‘ Feinde sind. Dies ist die implizit kurzsichtige Logik der Gene. Für komplexe Gesellschaften als Teil komplexer Abläufe ist dies, wie sich allenthalben zeigt, kontraproduktiv oder sogar tödlich. Allerdings scheint es so zu sein, dass privilegierte Gruppen von sich aus fast nie ‚freiwillig‘ auf ihre Privilegien verzichten. Änderungen kamen daher immer entweder dadurch, dass die Privilegienbesitzer sich selbst zugrunde gewirtschaftet haben oder weil Unzufriedene sich dieses Schauspiel nicht mehr länger ansehen wollten und versucht haben, sich ihre angestammten Rechte notfalls mit Gewalt zurück zu holen. Revolutionen, Kriege, Terrorismus sind daher immer auch Indikatoren für Ungleichgewichte. Nach erfolgreichen Aufständen wurden dann die ‚Aufrührer‘ selbst zu ‚Privilegierten‘, usw.

RUM-Music

Musik vom 13.Maerz 2014, kann man hören muss man nicht. Eines von vielen experimentellen Stücken.

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

IBN SINA/ AVICENNA: DIE METAPHYSIK AVICENNAS – Warum man manchmal schlafende Hunde wecken sollte (Teil 1)

AVICENNA: DIE METAPHYSIK AVICENNAS. Enthaltend Die Metaphysik, Theologie, Kosmologie und Ethik. Übersetzt und erläutert von Max Horten, Halle a.S. und New York: Verlag von Rudolf Haupt, 1907 (Reprint durch Amazon.co.uk Ltd., Marston Gate (Great Britain), Ulan Press, keine Jahreszahl)

Nachtrag: hier eine musikalische Variante zu Avicenna; tatsächlich 10 Tage vor dem Eintrag in den Blog. Die Aussprache der Jahreszahl zu Beginn ist nicht korrekt … Das ist eben ‚radically unplugged music‘ (RUM).

VON LOBO, NSA, DEMOKRATIE, MACHT ZU AVICENNA

Im Film wäre der Übergang vom letzten Blogeintrag zum diesem hier ein harter Schnitt. Aber hier im Blog muss dies auch sein, da die Welt viele Facetten hat und dieser Blog sich der Vielfalt aus Sicht der Philosophie verschrieben hat. Letztlich könnte man sogar eine direkte Brücke bauen. Nehmen wir den Interneterklärer Lobo (die NSA und die anderen Stichworte wären natürlich auch geeignet). Lobo diagnostiziert an sich selbst, dass sein ‚bisheriges Bild vom Internet‘ ‚falsch‘ gewesen ist. Anhand konkreter Ereignisse wird ihm bewusst, dass sein ‚Weltbild‘ die reale Welt nicht so repräsentiert hatte, wie sie sich ihm jetzt in den konkreten Ereignissen ’neu‘ darzustellen scheint. Er ist jemand, der nicht nur zu solcher kritischen Selbsterkenntnis fähig zu sein scheint, nein, er macht es auch noch transparent, öffentlich; er macht sich damit anfassbar. Ob sich dadurch viel ändern wird, ist damit noch nicht gesagt; aber er hat damit zumindest empfänglich gemacht für mögliche ‚Korrekturen‘ an seinem ‚Weltbild‘.

WELTBILD

Die sprachliche Ausdrucksweise, dass wir vom ‚Weltbild‘ Lobos reden, ist einerseits ‚üblich‘, andererseits aber — bei näherer Betrachtung — gefährlich. Legt sie doch die Vorstellung nahe, dass das Weltbild etwas ‚Konkretes‘, ‚Wirkliches‘ ‚in‘ Sascha Lobos ‚Kopf‘ sei, wie so eine Art Gegenstand mit Eigenschaften, allerdings ein Gegenstand, der sich ‚ändern‘ kann. Dazu kommt, dass der Gegenstand ‚Weltbild‘ die Art und Weise bestimmt, wie wir unsere Welt ’sehen‘, ‚interpretieren‘. Das ist sehr ungewöhnlich für Gegenstände. Wir benutzen zwar die Gegenstände ‚Brille‘, ‚Fernglas‘, ‚Mikroskop‘ (und Fernsehen? und Computer? und Smartphone? …), um die Dinge der realen Welt visuell ’scharf‘ zu sehen oder ‚größer‘ (oder ‚bunt‘ mit mitgeliefertem, aber nicht kenntlich gemachten, Interpretationsanteilen?), aber diese optischen ‚Sehhilfen‘ lassen die Dinge (von Skalierungen und Farbveränderungen abgesehen), ‚wie sie sind‘. Ein ‚Weltbild‘ hingegen ‚verändert‘ die Dinge notwendigerweise. Ohne dass wir selbst etwas dagegen tun können werden die Inhalte unserer Wahrnehmung (visuell, akustisch, … , interozeptiv, ..) vom aktuellen Weltbild auf vielfache Weise in das vorhandene Wissensgeflecht aktiv eingefügt, vom ‚Vorhandenen aus‘ dadurch interpretiert, so dass das, was wir dann ‚bewusst‘ wahrnehmen, nicht das ist, was ‚faktisch auslösend war‘, sondern tatsächlich das, was unser Wissen daraus aktuell und aktiv ‚macht‘. Der bloße Vorsatz, ‚kritisch sein zu wollen‘ ändert an diesem Automatismus unseres aktuellen Wissens zunächst gar nichts. Um Kritikfähigkeit zur Wirkung kommen zu lassen muss man aktiv aktuelle Wissensbestände durch aktive Denkprozesse verändern. Wünschen alleine reicht nicht. Schon das bewusste aktive Lesen eines guten Artikels kann Wunder wirken, wobei die Betonung auf ‚bewusst‘ und ‚aktiv‘ liegt. Einen Vortrag einfach ’nur hören‘ oder einen Artikel einfach ’nur lesen‘ bewirkt meist nicht viel (ein interessanter Test wäre, dass jemand sie 30 min nach der Tagesschau oder nach ‚heute‘ oder ähnlichen Nachrichtenmagazinen unerwartet interviewen würde, was sie in diesen Nachrichtensendungen gesehen, gehört und verstanden haben. Es wäre überraschend, wenn auch nur eine einzige Versuchsperson in der Lage wäre, einigermaßen wiederzugeben, was der Inhalt der Sendung war. Das Paradoxe ist, dass dennoch so viele Menschen sich diese Sendungen anschauen; also bleibt doch etwas hängen? Was bleibt hängen? Welchen sachlich-erklärenden Informationswert hat das, was hängenbleibt?).

WELTBILD UND PHILOSOPHIE

Aus dem Faktum von Weltbildern in den Köpfen der Menschen folgt nicht zwingend, dass man sich mit Philosophie beschäftigen sollte. Es gibt verschiedene Disziplinen und Handlungsbereiche, die sich mit einzelnen Aspekten von Weltbildern beschäftigen. Am intensivsten wohl alle möglichen Spielarten von Werbepsychologie (weil man wissen will, wie man das Kaufverhalten beeinflussen kann), von Meinungsumfragen (Demoskopie) (weil man das Wahlverhalten für den eigenen politischen Erfolg nutzen möchte), von Leser- und Zuschauer- oder Kundenverhalten (weil man den wirtschaftlichen Erfolg des Senders, des Kinos, des Theaters, der Zeitung usw. erhalten oder steigern möchte), von Arbeitspsychologie (weil man Störungen in den Arbeitsabläufen minimieren will), von Verhaltenstherapien (weil man Menschen helfen möchte, Störungen in ihrem Lebensgefühl und ihrem Verhalten zu mildern), von Religions-, Kulturwissenschaften und Ethnologie (weil man das Verhalten von Menschen in Abhängigkeit von ihren Weltbildern untersucht), und vielem mehr. Bei dieser Aufzählung kann auffallen, dass keine der zuvor genannten Aktivitäten im Umfeld menschlichen Verhaltens mit Bezug auf potentielle ’steuernde‘ Weltbilder die Weltbilder als solche bzw. sogar die generelle Struktur und Dynamik von beliebigen Weltbildern thematisiert. Näher liegen hier sicher die kognitive Psychologie (mit allen möglichen Teildisziplinen wie Wahrnehmung, Sprache, Gedächtnis usw.) oder auch die Neuropsychologie (DE) (Neuropsychology (EN), insofern bei letzterer die generelle Struktur von Kognition in Korrelation mit den zugrundeliegenden neuronalen Prozessen untersucht wird. Dennoch fällt auf, dass die Neuropsychologie bislang eher noch von speziellen Fragestellungen getrieben wird mit einem Übergewicht der Verhaltensorientierung. Ein explizites Modell des ’subjektiven Weltbildes‘ hat sie nicht und es nicht zu erkennen, dass dies irgendwo entwickelt werden soll. Wenn im Kontext von Neuropsychologie von ‚Kognition‘ (‚cognition‘) gesprochen wird, dann handelt es sich in der Regel um Modellbildungen der kognitiven Psychologie, die auf der Basis von Verhaltensdaten hypothetische Modelle von Verarbeitungsfunktionen ‚im Innern des Körpers‘ generieren.
Die klassische (europäische) Philosophie seit den Griechen nahm dagegen ihren Ausgangspunkt nicht bei den empirisch beobachtbaren Verhaltensdaten alleine sondern bei der ‚Welt‘, wie sie sich innerhalb des bewussten Raumes ‚introspektiv‘, ’subjektiv‘ als Raum von Phänomenen darbot; die empirischen Verhaltensdaten bilden in diesem Phänomenraum eine echte Teilmenge. Das Interesse aller Philosophen richtete sich dann darauf, ausgehend von diesem (subjektiven) Phänomenraum Strukturen und Gesetzlichkeiten zu erkennen, die möglicherweise Aussagen erlauben würden, die ‚über‘ (Griechisch: ‚meta‘) den aktuellen Phänomenraum hinausweisen können, und zwar in einer Form von ‚Allgemeinheit‘, die die zufälligen individuellen Gegebenheiten des eigenen Phänomenraumes möglicherweise übersteigen könnten. Vom Konkreten, Natürlichen, Individuellem (Natur, ‚physis‘), zum Allgemeinen, Idealisierten/ Geistigen (‚meta physis‘). In diesem Anliegen liegt die Wurzel zur Meta-Physik, dem eigentlichen Kern aller Philosophie: alles Wissen im Konkreten und Allgemeinen so erfassen zu können, dass ein Maximum an Klarheit und Aussagbarkeit (was Voraussagbarkeit mit einschließt) entsteht.

ANSTOSS VON AUSSEN

Vor vielen, vielen Jahren, als ich die ersten Jahre Philosophie und Theologie studieren konnte, hatte ich mit großem Interesse u.a. auch Teile der griechischen Philosophie (besonders Aristoteles (384 – 322)) und Teile der lateinischen Theologie und Philosophie (vor allem Thomas von Acquin (1225-1274)) studiert. Zum Studium orientalischer Philosophen hatte die Zeit nicht gereicht. Andere Wege führten dann u.a. in die moderne Logik und Wissenschaftstheorie. Als ich dann kürzlich — so spielt das Leben — meine Frau und Freunde zum Film ‚Der Medicus‘ begleitete, traf ich ziemlich unerwartet (hatte den Roman nicht gelesen; hatte mich auch nicht informiert, worum es in dem Film ging) auf die Person Avicennas (c. 980-1037), der in dem Film unter dem seinem arabischen Namen ‚Ibn Sina‘ (laut englischer Wikipedia war sein voller Name Abū ʿAlī al-Ḥusayn ibn ʿAbd Allāh ibn Al-Hasan ibn Ali ibn Sīnā) durch eine Hauptrolle repräsentiert wird. Der Film zeigt nur die Schlussphase seines Lebens. Erste Recherchen meinerseits im Anschluss an den Film ergaben, dass er nicht nur ein großer Medizinwissenschaftler gewesen ist, sondern zeit übergreifend war er auch bedeutend im Bereich der Philosophie.

AVICENNAS POSITIONIERUNG IN DER ZEIT

An dieser Stelle kann es nicht um eine inhaltliche (und erst recht keine abschließende) Positionierung von Avicenna im Kontext der philosophischen-wissenschaftlichen Traditionen gehen, sondern zunächst nur mal um eine grobe Positionierung im Kontext anderer großer Namen und Traditionen.

Konsultiert man die verschiedenen Enzyklopädien so scheint Avicenna zum Höhepunkt der sogenannten ‚frühen islamischen Philosophie‘ oder des ‚Goldenen Zeitalters‘ (8.Jh – 12.Jh) der islamischen Philosophie zu gehören. Personen, die ihn im Denken stark beeinflusst haben, gibt es viele. Im Bereich der Metaphysik gehört sicher dazu Al-Farabi (lat. Alpharabius (c. 872 950/951), Abu Sahl ‚Isa ibn Yahya al-Masihi al-Jurjani (starb 999/1000)(Lehrer von Avicenna. Schreib eine medizinische Abhandlung mit 100 Kapiteln, die die erste dieser Art in der arabischen Welt war und möglicherweise auch Vorbild für Avicennas späteres medizinisches Hauptwerk war), Abu Nasr Mansur ibn Ali ibn Iraq (c. 960 – 1036)(persischer Mathematiker), Abū al-Rayhān Muhammad ibn Ahmad al-Bīrūnī (973 – 1048)(lat. Alberonius, Engl. Al-Biruni)(ilamischer Wissenschaftler und Mathematiker), Abū Ḥāmid Muḥammad ibn Muḥammad al-Ghazālī (c. 1058–1111)(lat. Al-Ghazali oder Algazel)(gilt als der einflussreichste islamische Theologe und Philosoph nach Mohammed). Abū l-Walīd Muḥammad bin ʾAḥmad bin Rušd (auch Ibn Rushd , lat. Averroës 1126 – 1198)(spanischer Universalgelehrter; in der islamischen Welt kritisch gesehen; sehr einflussreich im westlichen mittelalterlichen Denken; einer der einflussreichsten Kommentatoren von Aristoteles für die westlich-lateinische Überlieferung).

AD FONTES – ZU DEN QUELLEN

Bei einem so komplexen geistesgeschichtlichen Umfeld hat man zunächst nahezu keine Chance, irgendetwas wirklich zu verstehen. Nach meiner Erfahrung hilft da letztlich nur eines: reale Texte von realen Denkern nehmen und anfangen diese aktiv zu lesen. Hält man dies lange genug durch, dann entstehen erste Umrisse eines Bildes von diesem Denken, auf dem man dann aufbauen und weiter arbeiten kann. Da ich zwar von früher her noch ein wenig Latein und Griechisch kann, aber — bedauerlicherweise — kein Arabisch, bleibt mir momentan nichts übrig, als nach einer Übersetzung von Avicennas Werken zu schauen. Für deutschsprachige Leser gibt es den glücklichen Umstand, dass deutsche Orientalisten zu Beginn des 20.Jahrhunderts großartige Arbeit geleistet haben. Ein bedeutender deutscher Orientalist war Max Horten (voller Name: Maximilian Joseph Heinrich Horten) (1874 — 1945). Von ihm gibt es eine sehr gute Übersetzung mit ausgiebigen Erläuterungen von dem philosophischen Hauptwerk von Avicenna, von seiner Metaphysik. Das Buch „Die Metaphysik Avicennas: das Buch der Genesung der Seele, Leipzig 1907; Frankfurt am Main 1960“ ist zwar vergriffen, aber es gibt einen Reprint dieses Buches bei Amazon.

DAS BUCH

Dieses Buch, ein 1-zu-1 Reprint der Ausgabe von 1907, umfasst 799 Seiten. Es präsentiert sich in einem exzellenten Deutsch und einer umfassenden Kommentierung in den Fußnoten. Da Horten ein Orientalist mit breiten Kenntnissen in Philosophie und Theologie (insbesondere die lateinische Tradition) war, eröffnen seine Anmerkungen mit Originalzitaten griechischer, arabischer und lateinischer Autoren einen Einblick in die Vernetzung der Gedankenwelt Avicennas mit den verschiedenen Traditionen.

Ich habe bislang zwar erst ca. 100 von den 799 Seiten gelesen, aber ich bin restlos begeistert und fasziniert von diesem Text; nicht so sehr, weil ich glaube, dass man diese Gedanken heute noch so direkt übernehmen könnte, aber weil dieser Text die Möglichkeit bietet, das ‚alte‘ Denken, das viele Jahrhunderte (letztlich fast 2000 Jahre) den europäischen Raum (zu dem der ‚Orient‘ wesentlich dazugehört) geprägt hat, mit dem heutigen ‚modernen‘ Denken direkt in Beziehung zu setzen, um dadurch die grundlegenden Transformationen deutlich zu machen, die das europäische Denken durchlaufen hat. Insbesondere habe ich durch die bisherige Lektüre den Eindruck gewonnen, dass seine Auffassung von Logik und Metaphysik einen wunderbaren Anknüpfungspunkt bildet, um die Besonderheiten des modernen Denkens zu erklären. Einerseits kann man die moderne Logik, Wissenschaftstheorie und Erkenntnistheorie seit dem Ende des 19.Jahrhunderts als eine Art Generalkritik an der klassischen Metaphysik sehen, andererseits ist die moderne Philosophie mittlerweile soweit fortgeschritten, dass sie neben der ‚Kritik‘ nun einen konstruktiven Vergleich wagen könnte, der aus dem konstruktiven nebeneinander von klassischer Metaphysik und moderner Logik, Erkenntnistheorie und Wissenschaftstheorie ein neues ‚Gesamtbild‘ zeichnen könnte, in der beide (!) vorkommen. Wie gesagt, dies ist eine aktuelle Vermutung, die sich bei der Lektüre aufdrängt, und die im Folgenden im einzelnen erst genauer zu erarbeiten wäre.

Ob und wie sich das europäische Denken mit anderen Denkformen verzahnt oder nicht verzahnt, sich möglicherweise gegenseitig anregen kann, dies wäre ein eigenes Thema.

FÜR WELCHE LESER

Für jemanden, der keinerlei Vorwissen in griechischer Philosophie, lateinischer Theologie und klassischer Logik hat, ist das Buch möglicherweise ein bisschen ‚hart‘ und mag als verwirrende ‚Begriffsklauberei‘ erscheinen. Wer sich aber da ein wenig auskennt und vielleicht noch dazu ein wenig moderne Logik, Philosophie und Wissenschaftstheorie kennt, für den kann das Buch ein absoluter Genuss sein. Ich werde das Buch auf jeden Fall weiter lesen und hier diskutieren.

Zur Fortsetzung siehe hier, Teil 2.

HILFREICHE LINKS

Max Horten: http://de.wikipedia.org/wiki/Max_Horten Autor von: Die Metaphysik Avicennas: das Buch der Genesung der Seele, Leipzig 1907; Frankfurt am Main 1960 (vergriffen)
Encyclopaedia Iranica: http://www.iranicaonline.org/articles/avicenna-index
Wikipedia (EN): http://en.wikipedia.org/wiki/Avicenna
The MacTutor History of Mathematics archive: http://www-history.mcs.st-andrews.ac.uk/Biographies/Avicenna.html
Thomas Hockey et al. (eds.). The Biographical Encyclopedia of Astronomers, Springer Reference. New York: Springer, 2007, pp. 570-572: http://islamsci.mcgill.ca/RASI/BEA/Ibn_Sina_BEA.htm
Wikipedia (DE): http://de.wikipedia.org/wiki/Avicenna
The Internet Encyclopedia of Philosophy (IEP) (ISSN 2161-0002): http://www.iep.utm.edu/avicenna/
Ecyclopedia Britannica: http://www.britannica.com/EBchecked/topic/45755/Avicenna
Islamische Philosophie: http://www.muslimphilosophy.com/sina/art/ei-is.htm
Enzyklopädie des Islams: http://www.eslam.de/begriffe/a/avicenna.htm
Catholic Encyclopedia: http://en.wikisource.org/wiki/Catholic_Encyclopedia_%281913%29/Avicenna

Einen Überblick über alle Blogbeiträge von cagent nach Titeln findet sich HIER.

Philosophie im Kontext – Teil2 – Irrtum!

Das Diagramm im letzten Beitrag über Philosophie im Kontext ist falsch, nicht so sehr in den Details, sondern in der grundlegenden Logik.

Philosophie im Kontext - FalschBild 1

Eine korigierte Version könnte wie folgt aussehen:

Philosophie im Kontext - NeuBild 2

 

(1) In dem vorausgehenden Beitrag hatte ich versucht, auf der Basis der philosophischen Überlegungen seit Januar (letztlich natürlich noch Monate und Jahre weiter zurück) in einem Diagramm die grundsätzlichen Verhältnisse zu skizzieren, die man berücksichtigen muss, will man über das Zusammenspiel all der verschiedenen möglichen wissenschaftlichen und philosophischen Theorien sprechen, einschließlich des alltäglichen Denkens.

 

(2) Dabei ist mir ein gravierender Fehler unterlaufen, der natürlich nicht zufällig ist, sondern aus der Art und Weise resultiert, wie unser Denken funktioniert.

 

 

(3) Das Bild, so wie es jetzt ist (siehe Bild 1), zeigt — wie in einer Landkarte — das erkennende Individuum aus einer ‚Draufsicht‘ (3.Person) mit seinem Körper, darin enthalten sein Gehirn, und innerhalb des Gehirns irgendwo die subjektiven Erlebnisse als ‚Phänomene [PH]‘.

 

(4) Der Fehler liegt darin begründet, dass das subjektive Erkennen niemals als ‚Objekt einer dritten Person-Perspektive‘ auftreten kann. Das ist ja gerade das Besondere der subjektiven Erkenntnis, dass sie die ‚Innenansicht‘ eines Gehirns ist, das subjektive Erleben eines bestimmten Menschen (oder auch mit Abwandlungen eines Tieres), ’seines‘ Erlebens, bei Husserl dem ‚transzendentalen ego‘ zugeordnet. D.h. das ‚primäre Erkennen‘ ist in einem subjektiven Erleben verortet, das als solches kein Objekt einer dritten Person sein kann.

 

(5) Diesem Sachverhalt trägt Bild 2 Rechnung. Das Erkennen startet dort bei der Menge der Phänomene. Wie Husserl – und auch viele andere – zurecht herausgestellt hat, sind die Phänomene aber nicht nur ‚in sich geschlossene Objekte‘, sondern ‚phänomenologische Tatbestände‘ in dem Sinne, dass ihr ‚Vorkommen/ Auftreten‘ begleitet ist von einem ‚Wissen über sie‘; jemand, der ‚etwas erkennt‘, ‚weiß‘ dass er erkennt. Das wird im Diagramm durch den Pfeil mit dem Label ‚Reflexion‘ ausgedrückt: Im ‚Wissen um etwas‘ – Husserl nennt dies ‚Intentionalität‘ des Erkennens – können wir alles, was der Inhalt dieses primären Wissens ist, hinsichtlich möglicher unterscheidbarer Eigenschaften ‚explizit unterscheiden‘ und ‚bezugnehmende Konzepte‘ bilden.

 

 

(6) Und da der Mensch – in Ansätzen auch einige Tierarten – die wundersame Fähigkeit besitzt, ‚Gewusstes‘ [PH_Non-L] in Beziehung zu setzen (assoziieren, Assoziation) zu anderem Gewussten, das als ‚verweisenden Etwas‘ (Zeichen) [PH_L] dienen soll, kann der erkennende Mensch die ‚Inhalte seines Bewusstseins‘ – die Phänomene [PH] – mit Hilfe solcher verweisender Zeichen ‚kodieren‘ und dann unter Verwendung solcher kodierender Zeichen ‚Netzwerke solcher Zeichen‘ bilden, die – je nach ‚Ordnungsgrad‘ – mehr oder weniger ‚Modelle‘ oder gar ‚Theorien‘ bilden können.

 

(7) Da das begleitende Wissen, die Reflexion, in der Lage ist, auch ‚dynamische Eigenschaften‘ der Phänomene zu erfassen (‚Erinnern‘, ‚Vorher – nachher‘,…) kann diese Reflexion auch – nach sehr vielen Reflexionsschritten – unterscheiden zwischen jenen Phänomenen, die geschehen ‚ohne eigenes Zutun‘ (ohne eigenes ‚Wollen‘) und den anderen. Das ‚ohne eigenes Zutun‘ kann aus jenen Bereichen des ‚eigenen Körpers‘ herrühren, die die Reflexion ’nicht unter Kontrolle‘ hat oder aus Bereichen ‚außerhalb des Körpers‘, den wir dann auch ‚intersubjektiv‘ nennen bzw. neuzeitlich ‚empirisch‘ [PH_emp].

 

 

(9) In einer phänomenologischen Theorie [TH_ph], deren Gegenstandsbereich die subjektiven Erlebnisse [PH] sind, kann man daher die charakteristische Teilmenge der empirischen Phänomene [PH_emp] identifizieren. Daneben – und zugleich – kann man all die anderen Eigenschaften der Phänomene samt ihrer ‚Dynamik‘ unterscheiden und begrifflich ausdrücklich machen. Eine genaue Beschreibung aller möglicher Unterscheidung ist sehr komplex und ich habe nicht den Eindruck, dass irgend jemand dies bis heute erschöpfend und befriedigend zugleich geleistet hat. Möglicherweise kann dies auch nur als ein ‚Gemeinschaftswerk‘ geschehen. Dazu müsste man eine geeignete Methodik finden, die dies ermöglicht (vielleicht sind wir Menschen technologisch erst jetzt (2012, ca. 13.7 Milliarden Jahre nach dem Big Bang, ca. 3.7 Milliarden Jahre nach dem ersten Auftreten von lebensrelevanten Molekülen auf der Erde…) langsam in der Lage, eine solche Unternehmung einer ‚gemeinsamen Theorie des menschlichen phänomenalen Bewusstseins‘ in Angriff zu nehmen).

 

(10) Vieles spricht dafür, dass die unterschiedlichen Versuche von Philosophen, die Vielfalt der Reflexionsdynamik (und deren ‚Wirkungen‘ auf den Bewusstseinsinhalt) mit Hilfe von sogenannten ‚Kategorientafeln‘ zu strukturieren (keine gleicht wirklich völlig der anderen), in diesen Kontext der Bildung einer ‚phänomenologischen Theorie‘ [TH_ph] gehört. Idealerweise würde man – zumindest einige der bekanntesten (Aristoteles, Kant, Peirce, Husserl,…) – vor dem aktuellen Hintergrund neu vergleichen und analysieren. Sofern diese die Struktur der Dynamik des ’sich ereignenden Denkens‘ beschreiben, müssten diese Kategorientafeln letztlich alle ’strukturell gleich‘ sein. Dabei unterstellen wir, dass die Dynamik des Denkens der einzelnen Menschen aufgrund der Gehirnstruktur ‚hinreichend ähnlich‘ ist. Dies ist aber streng genommen bis heute nicht erwiesen. Die vielen neuen Erkenntnisse zur Gehirnentwicklung und zum individuellen Lernen (einschließlich der emotionalen Strukturen) legen eher die Vermutung nahe, dass es sehr wohl individuelle Unterschiede geben kann in der Art und Weise, wie einzelne Menschen die Welt ‚verarbeiten‘. Träfe dies zu, hätte dies natürlich weitreichende Folgen für die Alltagspraxis und die Ethik (und die Moral und die Gesetze…).

 

 

(11) Hat man sich dies alles klar gemacht, dann wundert es nicht mehr, dass die Bildung wissenschaftlicher empirischer Theorien [TH_emp] nicht ‚außerhalb‘ einer phänomenologischen Theoriebildung stattfinden kann, sondern nur ‚innerhalb‘, und zwar aus mindestens zwei Gründen: (i) die Menge der empirischen Phänomene [PH_emp] ist eindeutig eine echte Teilmenge aller Phänomene [PH], also PH_emp subset PH. (ii) Die empirische Theorie TH_emp entsteht im Rahmen und unter Voraussetzung der allgemeinen Reflexion, die unser primäres Denken ermöglicht und ausmacht; wir haben kein ‚zweites‘ Denken daneben oder ‚jenseits‘ im ‚Irgendwo‘. Dies erklärt auch sehr einfach das häufig bemerkte Paradox der Metatheorie: Theorien sind nur möglich, weil wir ‚über‘ (Alt-Griechisch: ‚meta‘) sie ’nachdenken‘ können. Dieses ‚Nachdenken über‘ (Metareflexion‘) ist unter Annahme der allem Denken vorausgehenden und begleitenden primären Reflexion keine Überraschung. Was immer wie uns ‚ausdenken‘, es geschieht im Rahmen der primären Reflexion und von daher kann auch alles und jedes, was wir jemals gedacht haben oder uns gerade denken beliebig miteinander in Beziehung gesetzt werden. Bezogen auf diese vorausgehende und begleitende Reflexion ist jeder ‚Denkinhalt‘ grundsätzlich ‚unabgeschlossen‘; die primäre Reflexion ermöglicht eine ‚endliche Unendlichkeit‘, d.h. der prinzipiell nicht abgeschlossene Denkprozess kann – als ‚Prozess‘ – jede endliche Struktur immer wieder und immer weiter ‚erweitern‘, ‚ausdehnen‘, usf.

 

(12) Kennzeichen von neuzeitlichen empirischen Theorien ist ihre Fundierung in ‚empirischen Messverfahren‘ [MEAS]. Kennzeichen dieser empirischen Messverfahren ist es, dass sie unabhängig vom Körper eines Menschen und auch unabhängig von seinem individuellen Erkennen, Fühlen und Wollen bei gleicher ‚Durchführung‘ immer wieder die ‚gleichen Messergebnisse‘ [DATA_emp] liefern sollen. Ob und wieweit solche ‚unabhängigen‘ Messungen tatsächlich durchgeführt werden können ist eine ‚praktische‘ und ‚technologische‘ Frage. Die Geschichte zeigt, dass dieses Konzept auf jeden Fall trotz aller Probleme im Detail bislang extrem erfolgreich war.

 

(13) Allerdings ist hier folgender Umstand zu beachten: obwohl die Messergebnisse [DATA_emp] als solche idealerweise ‚unabhängig‘ vom Fühlen, Denken und Wollen eines Menschen erzeugt werden sollen, gelangen dieses Messergebnisse erst dann zu einer ‚theoretischen Wirkung‘, wenn es irgendwelche Menschen gibt, die diese Messergebnisse DATA_emp ‚wahrnehmen‘ (Englisch: perception, abgekürzt hier als ‚perc‘) können, damit sie als ‚auftretende Phänomene‘ – und zwar hier dann als empirische Phänomene [PH_emp] – in den Bereich des ‚Wissens‘ eintreten, also perc: DATA_emp —> PH_emp. Dies bedeutet, der besondere Charakter von empirischen Phänomenen haftet ihnen nicht als ‚gewussten Eigenschaften‘, nicht qua ‚Phänomen‘ an, sondern nur im Bereich ihrer ‚Entstehung‘, ihres ‚Zustandekommens‘ (aus diesem – und nur aus diesem – Grund ist es so wichtig, beim Umgang mit Phänomenen jeweils klar zu kennzeichnen, ‚woher diese stammen), der ihrem ‚Phänomensein‘ ‚vorausliegt‘.

 

 

(14) In dem Masse nun, wie wir mittels empirischer Messungen Daten über das beobachtbare menschliche Verhalten [DATA_sr], über physiologische Eigenschaften des Körpers [DATA_bd] bzw. auch über Eigenschaften des Nervennetzes im Körper (‚Gehirn‘) [DATA_nn] gewonnen haben, können wir versuchen, basierend auf diesen verschiedenen Daten entsprechende wissenschaftliche Theorien TH_sr, TH_bd, TH_nn zu formulieren, die die Gesetzmäßigkeiten explizit machen, die durch die Daten sichtbar werden.

 

(15) Der wichtige Punkt hier ist, dass alle diese Theorien nicht ‚unabhängig‘ oder ‚jenseits von‘ einer phänomenologischen Theorie zu verorten sind, sondern ‚innerhalb‘ von dieser! Jede beliebige Theorie kann immer nur eine Theorie ‚innerhalb‘ der umfassenden und zeitlich wie logisch vorausgehenden phänomenologischen Theorie sein. Eine spezifische empirische Theorie [TH_i] zeichnet sich ja gerade dadurch aus, dass sie sich auf eine echte Teilmenge [PH_i] aller verfügbarer Phänomene [PH] beschränkt. Gerade in dieser methodischen Beschränkung liegt – wie der Gang der Geschichte uns lehrt – der große Erfolg dieser Art von Theoriebildung. Zugleich wird aber auch deutlich, dass jede dieser speziellen Theorien TH_i aufgrund ihrer speziellen Datenmengen DATA_i (denen die entsprechenden Phänomenmengen PH_emp_i] korrespondieren) zunächst einmal nichts mit einer der vielen anderen speziellen Theorien TH_j TH_i zu tun hat. Es ist eine eigene theoretische Leistung, Querbeziehungen herzustellen, strukturelle Ähnlichkeiten aufzuzeigen, usw. Dies fällt dann in den Bereich ‚interdisziplinärer Theoriebildung‘, ist ‚Metatheorie‘. Diese Art von metatheoretischen Aktivitäten ist aber nur möglich, da die primäre Reflexion alle Arten von speziellen Reflexionen zeitlich und logisch vorausgeht und das entsprechende ‚Instrumentarium‘ zur Verfügung stellt.

 

(16) In diesem Kontext ist unmittelbar einsichtig, dass subjektives Wissen prinzipiell kein Gegenstand empirischer Theoriebildung sein kann. Im Umfeld der modernen Neurowissenschaften (einschließlich Neuropsychologie) sowie im Bereich der Psychologie ist dieser grundsätzliche Tatbestand – so scheint es – bislang methodisch nicht wirklich sauber geklärt. In unzähligen Experimenten mischen sich klare empirische Vorgehensweisen mit der Benutzung von subjektiven Daten, was methodisch ungeklärt ist. Dies durchzieht alle ‚Kreise‘.

 

(17) Will man von der einzigartigen Datenquelle des primären Wissens PH für wissenschaftliche empirische Forschung PH_emp profitieren, bietet sich bislang einzig ein ‚hybrides‘ Vorgehen an, in dem ein Mensch sein eigenes subjektives Wissen PH auf der Basis einer ‚zeitlichen Korrelation‘ (t,t‘) mit empirischen Daten PH_emp, die von anderen Wissenschaftlern mittels Messungen über seinen Körper und sein Nervennetz erhoben werden. Also etwa CORR((t,t‘), PH, PH_emp). Dies ist zwar mühsam und fehleranfällig, aber die einzige methodische Möglichkeit, mit diesen ungleichen Phänomenmengen zurecht zu kommen (Mir ist nicht bekannt, dass irgendjemand diese scharfe methodische Forderung bislang erhebt geschweige denn, dass irgend jemand danach tatsächlich vorgeht).

 

(18) Für die weiteren Überlegungen soll versucht werden, diesen methodologischen Anforderungen gerecht zu werden.

 

(19) Es zeigt sich nun auch sehr klar, dass und wie das philosophische Denken gegenüber allen anderen theoretischen Erklärungsansätzen tatsächlich eine Sonderstellung einnimmt. Das philosophische Denken ist das fundamentale Denken, das jeglichem speziellen Denken zeitlich und logisch voraus liegt, nicht als Gegensatz oder als etwas ganz Anderes, sondern als das primäre Medium innerhalb dessen sich alles andere ‚abspielt‘. Während ich eine spezielle empirische Theorie als ‚Objekt des Wissens‘ klar abgrenzen und beschreiben kann, ist die dazu notwendige Metareflexion als solche kein ‚Objekt des Wissens‘, sondern immer nur ein nicht weiter hintergehbares ‚Medium‘, eben das ‚Denken‘, in dem wir uns immer schon vorfinden, das wir nicht erst ‚machen‘, das wir nur ‚benutzen‘ können. Die ‚Eigenschaften‘ dieses unseres Denkens ‚zeigen‘ sich damit auch nur ‚indirekt‘ durch die ‚Wirkung‘ der Denkaktivität auf die Inhalte des Bewusstseins (Eine Kooperation von empirischer Psychologie TH_emp_psych und phänomenologischer Analyse TH_ph kann hilfreich sein, allerdings sind die Gegenstandsbereiche DATA_emp_psych als PH_emp_psych und PH komplett verschieden und wirklich interessant würde es erst dann, wenn wir eine TH_emp_psych einer TH_ph gegenübersetzen könnten (bislang sehe ich nirgends – nicht einmal in Ansätzen – eine phänomenologische Theorie, die diesen Namen verdienen würde, noch eine wirkliche empirische psychologische Theorie, und das im Jahr 2012).

 

 

Ein Überblick über alle bisherigen Einträge findet sich hier.

 

 

In dem Online-Skript General Computational Learning Theory versuche ich, diese erkenntnisphilosophischen Aspekte zu berücksichtigen. Ich kann in diesem Skript allerdings nur einen Teilbereich behandeln. Aber aus diesen sehr abstrakt wirkenden Überlegungen ist meine ‚Rückkehr zur Philosophie‘ entscheidend mitbeeinflusst worden.

 

 

 

 

 

PHILOSOPHIE IM KONTEXT oder: BEGRIFFSNETZE oder: THEORIENETZWERKE

Achtung: Es hat sich gezeigt, dass diese Version einen grundlegenden Fehler enthält! Siehe am Ende des Textes den Link auf eine verbesserte Version.

 

(1) In dem Vortrag in Bremerhaven ist die Verzahnung von Philosophie und Wissenschaft hevorgehoben worden. Ansatzweise wurde skizziert, wie eine bewusstseinsbasierte Philosophie als das primäre Denken innerhalb seines Denkraumes einen ‚Unterraum‘ spezifizieren kann, der sich über die spezielle Teilmenge der ‚empirischen Phänomene‘ [PH_Emp] definiert bzw. umgekehrt, wie man ausgehend von den empirischen Disziplinen über die Frage nach den notwendigen Voraussetzungen zu einem größeren Zusammenhang kommen kann, der letztlich mit dem philosophischen Denken zusammenfällt. Versucht man, die begrifflichen Verhältnisse zwischen den verschiedenen hier einschlägigen Disziplinen zu klären, dann wird man alsbald feststellen, dass diese bei den meisten nicht ganz klar sind; dies betrifft die ganze ‚Community‘. Im Folgenden ein weiterer Versuch, die hier geltenden grundsätzlichen Verhältnisse transparent zu machen.

 

(2) Die grundsätzliche Idee (die ich seit mehr als 20 Jahren immer wieder mal auf unterschiedliche Weise versucht habe, — in erster Lnie mir selbst — zu verdeutlichen) ist im Schaubild Nr.1 angedeutet.

 

 

Gesamtrahmen Philosophie und Wissenschaften

 

 

(3) Nimmt man seinen Ausgangspunkt von existierenden empirischen Disziplinen wie Physik [Phys], Chemie [Chem], Biologie [Biol] usw. dann sind diese dadurch gekennzeichnet, dass sie aufgrund spezifischer Fragestellungen und spezifischer Messverfahren entsprechend verschiedene ‚Messwerte‘ gewinnen.

 

(4) Hierbei ist aber zu beachten, dass die empirischen Messwerte zwar – idealerweise – unabhängig von einem bestimmten Körper oder Bewusstsein ‚gewonnen‘ werden, dass sie aber nur in dem Maße in eine wissenschaftliche Theoriebildung eingehen können, als die Messwerte von Menschen auch ‚wahrgenommen‘ werden können, d.h. nur insoweit, als die handlungs- und technikbasierten Messwerte zu ‚bewussten Ereignissen‘ werden, zu ‚Phänomenen‘ [PH]. Als ‚Phänomen‘ ist ein Messwert und ein Zahnschmerz nicht unterscheidbar, allerdings haben sie verschiedene ‚Ursachen der Entstehung‘, die sich in einer ‚Reflexion‘ erschließen lassen. In dem Masse, wie man diese Unterscheidung durchführen kann, kann man dann innerhalb der ‚allgemeinen‘ Menge der Phänomene PH eine spezielle Teilmenge der ’speziellen‘ Phänomene ausgrenzen, also PH_Emp PH.

 

 

(5) In diesem Sinne kann man sagen, dass die Menge der empirischen Phänomene sich bezüglich ihrer ’speziellen Herkunft‘ von allen anderen Phänomenen unterscheiden und dass die verschiedenen empirischen Disziplinen sich diese spezielle Teilmenge auf unterschiedliche Weise ‚aufteilen‘. Idealerweise würde man sich die Menge der empirischen Phänomene PH_Emp zerlegt denken in endliche viele disjunkte Untermengen. Ob die tatsächlichen Messverfahren mitsamt den daraus resultierenden Messwerten real vollständig disjunkt sind, ist aktuell offen; spielt für die weiteren Überlegungen zunächst auch keine wesentliche Rolle. Wichtig ist nur, dass in diesem Zusammenhang nur dann von empirischen Daten wie z.B. ‚psychologischen Daten‘ DATA_SR gesprochen werden soll, wenn es reale Messwerte von realen Messvorgängen gibt, die von einem Menschen wahrgenommen werden können und dieser diese Phänomene als entsprechende empirische Phänomene PH_Emp_x interpretiert (das ‚x‘ steht hierbei für die jeweilige Disziplin).

 

(6) Wie in vorausgehenden Blogeinträgen schon mehrfach festgestellt, bilden empirische Daten DATA_x als solche noch keine wirkliche Erkenntnis ab. Diese beginnt erst dort, wo Verallgemeinerungen vorgenommen werden können, Beziehungen erkennbar sind, regelhafte Veränderungen, usw. Die Gesamtheit solcher struktureller Eigenschaften im Zusammenhang mit Daten nennt man normalerweise eine ‚Theorie‘ [TH]. Ob und inwieweit alle heutigen empirischen Disziplinen wirklich systematisches Wissen in Form von expliziten Theorien TH_x entwickeln, steht hier nicht zur Diskussion (es gibt sicher viel weniger explizite Theoriebildung als man sich wünschen würde. Die einzige Disziplin, von der man den Eindruck hat, dass sie überwiegend durch formale Konstrukte begleitet wird, die den Anspruch von Theorien erfüllen, ist die moderne Physik. Alle anderen Disziplinen fallen hinter das Ideal mehr oder weniger weit zurück.).

 

(7) Solange man sich nun innerhalb einer ganz bestimmten Disziplin bewegt, ist die Welt — in gewissem Sinne – ‚in Ordnung‘: man weiß wie man misst und man hat elementare Techniken, wie man Daten strukturiert. Fängt man an, Fragen nach den ‚Voraussetzungen‘ dieser fachspezifischen Theoriebildung zu stellen, nach der Angemessenheit der verwendeten Methoden, wird es schwierig, da für solche Fragen strenggenommen kein Instrumentarium verfügbar ist (Warum und wieso sollte ein Chemiker sich Fragen nach den Grundlagen der Erkenntnis stellen, aufgrund deren er überhaupt etwas erkennt, oder nach dem Problem der sprachlichen Bedeutung, wenn er über chemische Sachverhalte spricht, über die Angemessenheit seiner Begrifflichkeit für den zu untersuchenden Gegenstand, usw.). Noch schwieriger wird es, wenn es um mögliche Wechselwirkungen zwischen verschiedenen Theorieansätzen geht: ob und wie verhalten sich die Daten und theoretischen Modelle zwischen z.B. beobachtetem Verhalten in der Psychologie TH_SR mit zeitgleichen Messungen im Körper TH_Bd oder spezieller im Nervensystem TH_NN? Wann darf ich denn überhaupt von einer Theorie sprechen? In welchem Sinne kann ich Theorien TH_x und TH_y vergleichen? Diese – und viele andere – Fragen gehen weit über die fachspezifischen Fragestellungen hinaus, verweisen auf allgemeine fachübergreifende Zusammenhänge.

 

(8) Im deutschen Sprachraum gab es in der Zeit von ungefähr 1970 bis 1990 eine Phase, in der man verstärkt von ‚Wissenschaftstheorie‘ sprach als jener ‚Metadisziplin‘, die die allgemeinen Eigenschaften und Randbedingungen von ‚Theorien‘ untersucht und klärt. Im englischen Sprachraum nannte man dies ‚Philosophy of Science‘ (allerdings mit einer nicht ganz deckungsgleichen Bedeutung). Alle diese Strömungen haben – so scheint es – bis heute keinen nachhaltigen Einfluss auf den ’normalen Wissenschaftsbetrieb‘ nehmen können; eher ist das Thema sogar wieder rückläufig. Zwar bräuchte man es aus methodischen Gründen dringen, aber keiner will dafür Geld ausgeben.

 

(9) Die deutschsprachige Wissenschaftstheorie hatte den Nachteil, dass sie zwar versuchte, disziplinenübergreifend strukturelle Eigenschaften von Theorien zu klären, sich aber letztlich weigerte, sämtliche Voraussetzungen (einschließlich ihrer eigenen) zu reflektieren, d.h. die Wissenschaftstheorie nahm zwar einerseits gegenüber den Fachdisziplinen allgemeine Eigenschaften von Denken, Folgern, Sprechen, Messen usw. in Anspruch, die über die engen Fachdisziplinen hinausgehen, weigerte sich aber, diesen Anspruch in letzter Konsequenz zu reflektieren und auszuweisen (auch nicht die Erlanger Schule und die sogenannten Konstruktivisten). Eine solche grundlegende Reflexion war und blieb die Domäne der klassischen Philosophie, von der sich die Wissenschaftstheorie panisch abzugrenzen versuchte.

 

(10) So sehr eine gesunde Kritik an der klassischen Philosophie nottat, eine vollständige Verdrängung der philosophischen Aufgabenstellung und Denkweise wirkte aber wie eine ‚Überreaktion‘; diese hatte zur Folge, dass sich die Wissenschaftstheorie von ihren eigenen Voraussetzungen mittels einer klassischen ‚Verdrängung‘ zu befreien suchte, sich dadurch aber entscheidende Aspekte vergab.

 

 

(11) Wie das Schaubild zeigt, gehe ich davon aus, dass die im Erleben wurzelnde Reflexion der primäre Ausgangspunkt für jede Art von spezialisierendem Denken ist. Selbst eine empirische Disziplin ist im Raum der bewussten Erlebnisse, im Raum der Phänomene, verankert, und was immer ein empirischer Wissenschaftler denkt, er denkt im Rahmen der Denkmöglichkeiten, die ihm über das Bewusstsein und die ‚an das Bewusstsein gekoppelten Subsysteme‘ verfügbar sind. Andere hat er gar nicht. Ein Wissenschaftstheoretiker, der über das theoretische Denken von Fachdisziplinen forschen will, ist auch nicht besser dran. Auch er ist an den Phänomenraum als primärem Bezugssystem gebunden und auch er nutzt jene allgemeinen Reflexionsmöglichkeiten, die im Bewusstseinsraum generell verfügbar sind. D.h. jeder Versuch, eine irgendwie geartetes geordnetes Denken — sei es fachwissenschaftlich oder wissenschaftstheoretisch – als solches auf seine Voraussetzungen und Wechselwirkungen hin zu befragen, muss auf dieses ‚primäre Denken‘ zurückgehen und es für die Erkenntnis nutzen. Dieses primäre Denken aber ist genau das philosophische Denken, das auf der einen Seite mit dem alltäglichen Denken verschwimmt, und auf der anderen Seite in Wissenschaftstheorie oder gar Fachwissenschaft übergeht.

 

(12) Von der Intention her hat sich ‚Philosophie‘ immer als solch ein ‚erstes Denken‘ verstanden, das alles andere Denken umfassen sollte. In der konkreten Ausformung eines solchen ersten Denkens gab es aber immer vielfältige und starke Unterschiede. Generell kann man die Tendenz beobachten, dass das philosophische Denken sich entweder vom alltäglichen und wissenschaftlichen Denken ‚zu weit entfernt‘ hat oder aber umgekehrt diesem ‚zu nah‘ kam. Im letzteren Fall büßte Philosophie ihre kritisch-klärende Funktion ein.

 

(13) Will Philosophie beides zugleich realisieren, kritische Distanz wie auch kenntnisreiche Nähe, muss das philosophische Denken sowohl die ‚Form‘ eines wissenschaftlichen Denkens hinreichend klären wie auch die eigenen Erkenntnis — sofern überhaupt strukturierbar – entsprechend explizieren. Das philosophische Denken als ‚erstes Denken‘ wird zwar niemals seinen eigenen Anteil zugleich vollständig und korrekt explizieren können (das liegt primär an der Struktur des Denkens selbst sowie an der Verwendung von Sprache), aber es kann den Zusammenhang der einzelwissenschaftlichen Theorieansätze sowie deren allgemeinen erkenntnistheoretischen Voraussetzungen soweit explizieren, dass klar wird, (i) was ist überhaupt eine Theorie TH_x, (ii) welche erkenntnistheoretischen Voraussetzungen müssen für eine bestimmte Theorie TH_x berücksichtigt werden, (iii) wie kann man das Verhältnis von Theorien beschreiben XREL(TH_x, TH_y), (iv) wie können Objektbeschreibungen aus unterschiedlichen Theorien (z.B. Eigenschaften von Neuronen beschrieben in einer neurowissenschaftlichen Theorie TH_nn, und Eigenschaften eines beobachtbaren Verhaltens in einer psychologischen Theorie TH_sr) aufeinander bezogen werden, usw.

 

(14) Fordern muss man aber auch, dass das philosophische Denken seine Inhalte, soweit sie explizierbar sind, auch in Form von Daten DATA_ph kenntlich macht, und, darauf aufbauend, verdeutlicht, welche Strukturen TH_ph das philosophische Denken vermeintlich besitzt bzw. benutzt, um die Möglichkeit und das ‚Funktionieren‘ der Einzeltheorien zu ‚erklären‘. In gewisser Weise muss die Philosophie genauso ein ‚Modell‘ ihres Gegenstandes bauen wie dies die anderen Wissenschaften auch tun. Im Fall der Philosophie geht es um den Menschen selbst, speziell um den Menschen, insofern er ‚erkennt‘, ‚Wissen‘ entwickelt‘, er ’spricht‘, und vieles mehr. Und natürlich könnte (bzw. sie müsste es!) die Philosophie — wie alle anderen Disziplinen auch – Computermodelle benutzen, um ihr theoretisches Modell vom erkenntnisfähigen und ethisch handelndem Menschen zu explizieren. ‚Computergestützte Philosophische Theorie‘ (etwa ‚computational philosophy‘) ist nicht nur kein Gegensatz sondern ein absolutes Muss! Ohne solche Modelle hat eine moderne Philosophie kaum eine Chance, die zu behandelnde Komplexität angemessen beschreiben zu können.

 

 

Eine korrigierte Version dieses Beitrags findet sich hier.

 

 

Einen Überblick über alle bisherigen Beiträge findet man hier.

 

 

(15) Weitere Details in Fortsetzungen bzw. im Rahmen meiner online-Skripte zur allgemeinen Lerntheorie.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(NOCHMALS) PHÄNOMENOLOGISCHES DENKEN

(1) Der Denkweg von Husserl (1859 – 1938) signalisiert einen Prozess, der zu einzelnen Zeitpunkten eine Fixierung in Form von offiziellen Publikationen erfuhr. Wie die mittlerweile fast vollständige Werkausgabe (Husserliana 1950ff) erkennen lässt, muss man die offiziell publizierten  Werke sehen als ‚gleitende Fixpunkte‘ in einem Strom von begrifflichen Fixierungen und dann auch wieder Modifikationen, Auflösungen, Veränderungen, wie er für ein selbständiges aktives Denken typisch ist.

(2) Vor diesem allgemeinen Hintergrund kann man die Frage stellen, ob es sinnvoll ist, das Werk eines aktiven  Philosophen über seine offiziellen Publikationen hinaus in all seinen Verästelungen zu verfolgen und zu deuten. Sicher mag man im Detail dadurch Präzisierungen vornehmen können, mag man manche schwebende Interpretationen möglicherweise besser auflösen können, zugleich werden sich aber neue Unklarheiten und Fragen einstellen und, nahezu unvermeidlich, wird die in der offiziellen Publikation fixierte Position in Interpretationskontexte gezwungen, die der schreibende Autor mit der offiziellen Publikation gerade hinter sich lassen wollte.

(3) Von einem größeren Zusammenhang her, nämlich dem der umgebenden ‚Kultur‘, stellt sich die Frage ebenso: wenn wir davon ausgehen, dass der Mensch seine biologisch bedingten Verarbeitungskapazitäten bis auf weiteres nicht merklich erweitern kann, dann stellt die gewaltige Vermehrung von Bänden als Teile von uferlosen Werkausgaben eine quantitative Hürde in der möglichen Vermittlung des philosophischen Wissens dar: im akribischen Streben von Herausgebern nach immer ‚Mehr‘ wird es für den möglichen Rezipienten immer schwerer bis unmöglich,   die eigentlichen Inhalte, das philosophische Denken, auffassen zu können. Während man ein Hauptwerk mit ein, zwei Kommentaren vielleicht noch lesen und verarbeiten kann, muss jeder vor 30, 40 und mehr Bänden für einen einzelnen Philosophen schlichtweg kapitulieren. Dazu kommt – theoretisch unbedeutend, praktisch aber sehr bedeutend –, dass die ‚wissenschaftliche‘ Literatur methodisch korrekt bei Zitaten der Werkausgabe folgt. Diese ist aber letztlich nur Spezialisten zugänglich. Welcher normale Mensch kann es sich leisten, nach Bedarf in eine Bibliothek zu gehen, um in eine Werkausgabe Einsicht nehmen zu können, geschweige denn, sich privat Bände aus der Werkausgabe zuzulegen? Aus praktischer Sicht, man muss es klar sagen, sind die modernen Werkausgaben ‚elitär‘ und verhindern eine breitere Rezeption statt sie zu befördern.

(4) Natürlich ist es aus Sicht des einzelnen Denkers, dem es  primär um die Wahrheit geht, und zwar um die möglichst allgemeine und prinzipiell gültige, kein Motiv, die Summe seines Denkens mit Blick auf die umgebende Kultur — oder gar noch mit Blick auf eine mögliche Nachwelt – ‚lesbar‘ und ‚kompakt‘ in möglichst wenige Publikationen zusammen zu fassen, womöglich in ein einziges Buch, sozusagen sein ‚Personal Summary‘. Von der Natur des Denkprozesses her ist es vermutlich auch nur begrenzt möglich, da ja die Erlangung bestimmter Einsichten an einen konkreten Denkprozess gebunden ist, dessen aktive ‚Durchlebung‘ notwendig ist. Zu sagen, man soll einen Denkprozess, der womöglich Monate oder Jahre umfasst, auf wenige Seiten zusammen fassen, klingt im ersten Moment für manche schockierend. Auf der anderen Seite sehen wir im Bereich der Wissenschaften und der Technologie, dass dasjenige was die Zeiten verändert und gestaltet, letztlich die Ergebnisse sind; die Wege zum Ergebnis sind zwar für den einzelnen unumgehbar und wesentlich, sind meistens auch ‚erlebnisstark‘, aber dennoch zählt nachher vor allem die tatsächlich gewonnene Einsicht in einen neuen Zusammenhang. Die Frage einer ‚Zusammenfassung‘ wäre von daher nicht ganz so abwegig, wenngleich vermutlich lebensfremd; ein aktiver Denker denkt nicht in Zusammenfassungen, sondern primär in Prozessen; darin ist er ein ‚Getriebener‘. Von sich aus wird er Zusammenfassungen nur schreiben, insoweit er sie selbst benötigt, um sich immer wieder mal zu vergewissern, welche der bislang gedachten Zusammenhänge denn nun gerade wichtig sein sollen für den weiteren Prozess.  Prozess: ich selbst habe in meinem Leben  bestimmt schon mehr als 50 Notizbücher vollgeschrieben (und gemalt), aber ich kann mich nicht entsinnen,  dass ich jemals nochmals in eines dieser Notizbücher hineingeschaut habe. Z.T. Hab ich sie schon weggeschmissen oder gar verbrannt. Die ‚Leiter‘ ist zwar notwendig, um an einen bestimmten Punkt zu kommen, aber dann, wenn man ihn erreicht hat, wird sie ‚überflüssig‘.

(5) Husserls Philosophie ist charakterisiert als ‚Phänomenologie‘. In der Einleitung zum Husserl-Lexikon (Gander et al. Hrsg, 2010) stellt Gander fest (S.8), dass Husserl den Begriff der Phänomenologie nicht von Hegel übernommen habe sondern von der Psychologie des 19.Jahrhunderts. Diese Feststellung wirft Fragen auf: selbst wenn es so wäre, dass die Psychologie des 19.Jahrhunderts Ansatzpunkte für eine entsprechende Terminologie geboten hatte, so wundert es dennoch, dass der Philosoph Husserl, der sich ja vehement gegen den Vorwurf des ‚Psychologismus‘ zur Wehr gesetzt hat,  ausgerechnet dasjenige philosophische System nicht zur Kenntnis genommen haben soll, das vor ihm den Gedanken der Phänomenologie intensiv und extensiv entwickelt hat, faktisch sogar weit über den Punkt hinaus, den Husserl in seinem eigenen Werk erreicht hat? Dieser Sachverhalt bedarf weiterer Klärung.

(6) Nach Gander (ebd., S.8) zeichnet sich die phänomenologische Methode dadurch aus, dass alle Erkenntnisansprüche durch eine ‚reflexive und vorurteilsfreie‘ Analyse der ‚Gegebenheitsweisen von Gegenständen im Bewusstsein‘ aufgeklärt werden sollen. Dies impliziert, dass ‚Bewusstsein‘ immer schon  ‚Bewusstsein von etwas‘ (‚Intentionalität‘) ist. Damit verlagert sich auch das ‚transzendente‘ Objekt ‚außerhalb des Bewusstseins‘ als ‚Erlebnisimmanenz‘ ‚in‘ das Bewusstsein. Das ‚Andere‘ ist nicht das ‚ganz andere‘ sondern nur ein Anderes, das als Erlebtes anders ist innerhalb des Bewusstseins. Aussagen über ‚transzendente Geltungsansprüche‘ müssen also innerhalb der Reflexion des Bewusstseins entschieden werden. Eine phänomenologische Analyse kann also nur durch Analyse sowohl der vorfindlichen Gegenstände (und ihrer Eigenschaften) wie auch durch die Art und Weise ihres Auftretens innerhalb eines ‚Erkenntnisaktes‘ zu ‚Erkenntnissen‘ kommen. Anders gesagt: durch die Art und Weise, wie sich das Bewusstsein auf vorfindliche Gegenstände beziehen kann. Husserl erhebt mit seiner phänomenologischen Methode den Anspruch, die Philosophie als ’strenge Wissenschaft‘ zu begründen (S.8).

(7) Folgt man Andrea Staiti im gleichen Buch (S.50ff), dann beschreibt die Reduktion auf die Immanenz des Bewusstseins mit der Ausklammerung  (epochä) transzendenter Geltungen nur   den ‚cartesianischen‘ Weg (C.W.) in das phänomenologische Denken. Sie unterscheidet noch den ‚psychologischen‘ Weg (P.W.) sowie den ‚lebensweltlichen‘ Weg (L.W.). Der cartesianische Weg (in Anlehnung an die ‚meditationes de prima philosophia‘ (1641/2) von Descartes) ist der grundlegendste von allen dreien, führte bei Husserl aber zum  Problem des nahezu vollständigen  ‚Verlustes‘ von Welt und Intersubjektivität. Für Husserl bot die phänomenologische Methode für dieses Problem nahezu keinen Ausweg. Seine späteren Versuche über den psychologischen Weg, der seinen Ausgangspunkt bei der ‚Fülle‘ psychologischer Phänomene‘ nimmt, führten letztlich, wollte man sie für die phänomenologische Philosophie nutzbar machen, doch wieder zum cartesianischen Weg, der alle ‚unrechtmäßigen‘ Geltungsansprüche ausklammert. Bleibt noch der lebensweltlich Weg, der in seinen späten unveröffentlichten Schriften als der ‚bessere‘ charakterisiert wird (vgl. Staiti, S.55). Es fehlt aber ein klarer Aufweis, wie ein lebensweltlich orientierter Weg mit der phänomenologischen Methode tatsächlich vereinbar ist.

Fortsetzung 1:

(8) Will man diesen Fragen genauer nachgehen, muss man sich selbst in die Texte Husserls vertiefen. Angesichts der Breite seines Werkes fragt sich dann, wo man ansetzen soll.

(9) Folgt man den Worten der Einleitung in die 2.Auflage  der Cartesianischen Meditationen von Husserl (Husserliana, Bd.1, The Hague: Netherlands, Martinus Nijhoff, 1973), dann sieht Husserl  in der deutschen  Bearbeitung der beiden Pariser Vorträge vom 23. und 25.Februar 1929 gleichsam die Krönung seines Lebenswerkes in der Darstellung der transzendentalen Phänomenologie als ‚universaler Philosophie, die voll ausgebildet alle Ontologien (‚aller‘ apriorischen Wissenschaften) und alle Wissenschaften überhaupt – in letzter Begründung – umspannen würde‘ (ebd., S.XXVIII). Das Manuskript mit dem deutschen Text, das am 17.Mai 1929 nach Straßburg zum Zwecke der Übersetzung (durch Levinas, Pfeiffer) ins Französische übersandt wurde (und der im März 1931 bei Colin in Paris erschien) ist verschollen. Es gibt ein anderes Manuskript, das Husserl selbst Ende 1932 Dorion Cairns (New York) geschenkt hatte, das nach allen Erkenntnissen dem ursprünglichen Manuskript für die französische Übersetzung weitgehend entspricht. Ferner gibt es natürlich Manuskripte im Besitz des Husserl Archivs, die die originalen Texte enthalten (für Details lese man den textkritischen Anhang von Husserliana, Bd.1). Alles in allem kann man sagen, dass die Inhalte der cartesianischen Meditationen in der Textgestalt von Husserliana I in hinreichend klarer Fassung vorliegen. Dieser Text erscheint daher geeignet, einen ersten Einstieg in das philosophische Konzept von Husserl zu bieten. Die späteren Versuche von Husserl, eine erweiterte und vertiefte Fassung der cartesianischen Meditationen für das deutsche Publikum vorzubereiten (mit starker Unterstützung durch Fink),  kamen zu keinem endgültigen Abschluss. Wohl veröffentlichte er noch einen größeren Text (Die Krisis der europäischen Wissenschaften und die transzendentale Philosophie), doch wurden nur Teil 1+2 veröffentlicht; den dritten Teil hatte er wieder zurückgezogen, um ihn nochmals zu überarbeiten, wozu es durch seinen Tod aber nicht mehr kam).

Fortsetzung siehe HIER