SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 5

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll

Das Wunder des Zeichens

Wenn wir zu verstehen beginnen, dass die wunderbare Welt unseres Erkennens im Gehirn stattfindet, das in unserem Körper eingeschlossen getrennt von der Welt existiert, kann sich die Frage stellen, wie denn das Gehirn von Dir und mein Gehirn miteinander kommunizieren können. Wie erfahre ich, was Du willst, und Du, was ich will? Woher kann ich wissen, warum Du diese Handlung gut findest, und wie erfährst Du, warum ich die andere Handlung gut finde?

Diese Fragen zielen auf das Wunder der Koordination zwischen Menschen, aber letztlich auch zwischen Tieren, auch zwischen Pflanzen, ja generell: wieso können biologische Zellen ihr Verhalten koordinieren?

Hier gibt es noch viele Fragen, auf die die Wissenschaften bis heute keine voll befriedigenden Antworten gefunden hat. Auf einige dieser Fragen werde ich weiter unten noch eingehen. Jetzt, hier, in diesem Kapitel, soll es um die Frage gehen, wie wir Menschen die Frage der Kommunikation mittels Sprache — zumindest ansatzweise — gelöst haben.

Auf etwas zeigen

Wenn Menschen mit anderen zusammen am Tisch sitzen und Essen ist es oft so, dass man einen Gegenstand vom Tisch benötigt, der weiter weg steht und man denjenigen bittet, der am nächsten dran sitzt, einem den Gegenstand zu reichen.

Man kann dies tun, indem man mit der Hand, den Fingern, mit dem Gesicht in die Richtung des Gegenstandes deutet und die andere Person ‚erkennt‘ aus der Richtung und dem, was sich auf dem Tisch befindet, was ‚gemeint‘ ist; die andere Person deutet dann vielleicht selbst auf diesen Gegenstand, mit einem fragenden Blick, und wenn es der Gegenstand ist, den man meint, dann nickt man vielleicht, freundlich, mit einem Lächeln, und die andere Person reicht einem den Gegenstand.

In diesem Fall waren es Bewegungen des Körpers und bestimmte Körperhaltungen die in einer konkreten Situation mit Teilen der Situation in Interaktion treten und die, eine andere ‚kooperierenden Person‘ vorausgesetzt, von dieser anderen kooperierenden Person mit bestimmten Teilen der Situation ‚in Beziehung gesetzt‘ werden. Eine Handbewegung ist in diesem Fall nicht einfach eine Handbewegung ‚für sich‘, sondern eine Handbewegung als Teil einer größeren Situation, wo der ‚Andere‘ die Handbewegung mit einem bestimmten Teil der Situation, einem Gegenstand G, in eine ‚Beziehung‘ bringt. Diese Beziehung ist selbst kein realer Gegenstand sondern ist eine der vielen ‚möglichen gedachten Beziehungen‘ im Kopf des Anderen zwischen der beobachteten Handbewegung und den verschiedenen Gegenständen auf dem Tisch. Durch den fragenden Blick will der Andere wissen, ob seine ‚gedachte Beziehung‘ jene Beziehung ist, die der Bittende ‚intendiert‘ (sich vorgestellt, gedacht, …) hatte. Wenn der Bittende bestätigend nickt, dann fühlt der Andere sich ‚bestätigt‘ und nimmt die hypothetische gedachte Beziehung als jene Beziehung, die jetzt in dieser Situation vom Bittenden ‚gemeint‘ ist. Punktuell, kurzfristig wurde also im Raum der vielen Möglichkeiten eine bestimmte mögliche Beziehung als hier und jetzt gewollte gedacht und durch Bewegungen ‚manifestiert‘ (ausgedrückt, mitgeteilt, …).

Wenn wir dieses alltägliche Beispiel verallgemeinern, dann haben wir folgende (theoretische) Zutaten:

  1. Wir haben mindestens zwei Teilnehmer A und B, die ein Kommunikationsspiel spielen.
  2. Wir unterstellen bei jedem Teilnehmer ein Bewusstsein, das einem Teilnehmer ermöglicht, Eigenschaften der Außenwelt W in seinem Bewusstsein ‚hinreichend gut‘ zu ‚repräsentieren‘.
  3. Jeder Teilnehmer hat einen Körper, der von dem anderen wahrgenommen werden kann und der Eigenschaften besitzt, die eine Unterscheidung von Körperhaltungen und Körperbewegungen erlauben.
  4. In der gemeinsam geteilten Situation (als Teil der Außenwelt) gibt es Objekte, die Eigenschaften besitzen, wodurch sie sich voneinander unterscheiden und aufgrund deren sie von den Teilnehmern ‚wahrgenommen‘ werden können.
  5. Wir unterscheiden zwischen der ‚Stimulation‘ der Sinnesorgane in Gestalt von sensorischem Input I durch die Objekte OBJ der Außenwelt (als stim: SIT \times OBJ \longmapsto I) und der eigentlichen Wahrnehmung als Ergebnis der internen Verarbeitung der Stimulation I in bewusste Perzepte P (als perc: I \times IS \longmapsto IS \times P) (‚IS‘ steht für irgendwelche internen Zustände, die bei diesem Prozess auch noch eine Rolle spielen.). Dies berücksichtigt, dass die gleichen Außenweltreize von verschiedenen Anderen unterschiedlich verarbeitet werden können.
  6. Objekte in der Außenwelt werden — auf unterschiedliche Weise — so wahrgenommen, als ob sie sich in einem dreidimensionalen Raum befinden. Dies bedeutet, eine Situation hat eine ‚Raumstruktur‘, in der die Objekte in bestimmten Positionen und Lagen vorkommen. Dadurch ergeben sich zwischen den Objekten charakteristische räumliche Beziehungen. Während die Stimulation der Sinnesorgane diese räumlichen Strukturen partiell ‚vereinfacht‘, kann die Wahrnehmung mit Unterstützung des Gehirns daraus partiell räumliche Strukturen ‚zurückrechnen‘.
  7. Wenn zwei Gegenstände sich im Raum der Außenwelt so befinden, dass wir sie wahrnehmen können (z.B. eine Schüssel auf dem Tisch und eine Hand, die in diese ‚Richtung‘ deutet), können wir außer der räumlichen Beziehung auch andere mögliche Beziehungen (z.B. eine ‚Zeigebeziehung‘) wahrnehmen. Diese Beziehungen existieren als mögliche ‚gedachte Beziehungen‘ im Bewusstsein eines Teilnehmers. Ein Teilnehmer kann sich unendlich viele Beziehungen denken.
  8. Dass ein Anderer A zwei Objekte der Außenwelt mit einer ‚gedachten Beziehung‘ verbinden kann, die der Bittende B in seinem Bewusstsein ’sich vorstellt’/ ‚denkt‘, setzt ferner voraus, dass es zwischen der Wahrnehmung und dem ‚Vorstellen’/ ‚Denken‘ zwischen A und B hinreichend viel ‚Ähnlichkeit‘ gibt. Könnte ein A grundsätzlich sich nicht jene ‚Beziehungen‘ ‚vorstellen‘, die sich B vorstellt, wenn er mit seiner Hand in Richtung eines bestimmten Gegenstands (z.B. der einen roten Schüssel …) deutet, dann könnte B so viel deuten wie er will, der Andere A würde sich einfach nicht vorstellen

Nach dieser — noch immer vereinfachenden — Darstellung des Sachverhalts, können wir uns dem Begriff des Zeichens zuwenden.

Der Begriff des Zeichens

Mit dieser Frage gerät man in den Bereich der allgemeinen Wissenschaft von den Zeichen, der Semiotik (Anmerkung: Die Geschichte der Semiotik ist lang und vielschichtig. Einen guten Überblick bietet Winfried Noeth in seinem ‚Handbuch der Semiotik‘ von 2000, publiziert von J.B. Metzler (Stuttgart/Weimar)). Obwohl es je nach Zeit und Denkmode sehr unterschiedliche Formulierungen gibt, kann man eine Kernstruktur erkennen, die sich in allen unterschiedlichen Positionen durchhält.

Allerdings sollte man sich vorab klar machen, ob man — wie es historisch zunächst der Fall war — den Begriff des Zeichens primär durch Bezugnahme auf den Raum des Bewusstseins charakterisieren will, oder durch Bezugnahme auf das beobachtbare Verhalten (wie es die empirischen Wissenschaften favorisieren).

Der berühmteste Vertreter einer bewusstseinszentrierten Vorgehensweise ist Charles Sanders Peirce (1839 – 1914). Für den verhaltensorientierten Ansatz einflussreich war Charles William Morris (1901 – 1979). Eine Kombination aus bewusstseinsbasierten und verhaltensorientierten Aspekten bietet Ferdinand de Saussure (1857 – 1913).

Der Gebrauch eines Zeichens setzt — wie zuvor — eine Kommunikationssituation voraus mit mindestens zwei Teilnehmern, die mit ihren Körpern in der Situation anwesend sind und über hinreichend gleiche Körperstrukturen für Wahrnehmung und Denken verfügen.

Am Beispiel der Situation des Essens möchte ich die rote Schüssel mit dem Nachtisch gereicht bekommen; diese steht nicht in meiner Griffweite. Ich sehe meine Schwester Martina so sitzen, dass Sie mir die Schüssel reichen könnte. Ohne Sprache könnte ich nur mit Handbewegungen und Gesichtsausdrücken versuchen, ihr klar zu machen, was ich möchte. Mit Sprache könnte ich Laute erzeugen, die als Schallwellen ihr Ohr erreichen und sagen würden ‚Hallo M, kannst Du mir bitte mal die rote Schüssel reichen?‘. Sofern meine Schwester Deutsch kann (was der Fall ist), wird sie diese Schallwellen in ihrem Kopf so ‚übersetzen‘, dass sie einen Bezug herstellt zu ihrer Wahrnehmung der roten Schüssel, zur Wahrnehmung von mir, und wird eine Aktion einleiten, mir die Schüssel zu reichen.

Der gesprochene Satz ‚Hallo M, kannst Du mir bitte mal die rote Schüssel reichen?‘ als ganzer stellt ein Ausdrucksmittel dar, bildet ein Material, mittels dessen ein Sprecher (in dem Fall ich), einen Hörer (in dem Fall meine Schwester) in die Lage versetzt, nur aufgrund des Schalls einen Bezug zu einem realen Objekt herzustellen und dieses Objekt in eine Handlung (mir das Objekt rüber reichen) einzubetten. Meine Schwester als Hörerin ist damit interpretierend tätig; sie stellt aktiv eine Verbindung her zwischen dem gehörten Schall und Elementen ihrer Wahrnehmung der Situation. Diese Interpretation befähigt sie, eine Handlung zu planen und auszuführen.

Rein verhaltensorientiert kann man sagen, dass die gesamte sprachliche Äußerung ein Zeichenmaterial darstellt, das vom Hörer intern ‚verarbeitet‘ wird, was zu einer bestimmten Handlung führt (die rote Schüssel reichen). Der Hörer nimmt hier eine Interpretation (Int) vor, durch die der Schall, das Zeichenmaterial (ZM) in Beziehung gesetzt wird zu etwas Wahrgenommenem; dies führt wiederum zu einer beobachtbaren Handlung, die damit zur Bedeutung (M) des Zeichenmaterials wird: Int: ZM \longmapsto M. Anders ausgedrückt, das Gesagte, der Sprachschall, bekommt durch diesen Zusammenhang eine neue Funktion; der Schall steht nicht mehr nur ‚für sich alleine‘, sondern es spielt eine Rolle in einer Beziehung. Damit wird das an sich neutrale Schallereignis zu einem ‚Zeichen‘. Ein Hörer verwandelt mit seiner Interpretation ein an sich neutrales Ereignis in ein Zeichen für etwas anderes, was man die Bedeutung des Zeichens nennt.

Als Wissenschaftler kann man hier weiter verallgemeinern und den Hörer als ein Input-Output-System betrachten mit dem Sprachschall und den visuellen Wahrnehmungen als Input I und dem beobachtbaren Verhalten als Output O und der Interpretation Int als Verhaltensfunktion \phi, geschrieben \phi: I \times IS \longmapsto IS \times O

Interpretieren

Wer die Thematik ‚Zeichen‘, ‚Semiotik‘, ‚Sprache‘, Sprachverstehen‘ usw. ein wenig kennt, der weiß, dass wir uns damit einer Materie genähert haben, die sehr umfangreich und beliebig kompliziert ist, so kompliziert, dass fast alle wirklich interessanten Fragen noch kaum als gelöst bezeichnet werden können. Ich beschränke mich daher hier nur auf einige Kernpunkte. Nach Bedarf müssten wir das vertiefen.

Wie man an dieser Stelle ahnen kann, ist der Vorgang des Interpretierens das eigentliche Herzstück des Zeichenbegriffs. Hier geschieht die Zuordnung zwischen gehörtem Schall (oder gelesenem Text, oder gesehenen Gesten, oder …) zu anderen bekannten Wissensinhalten, vorzugsweise zu Wahrnehmungselementen der aktuellen Situation. Will man die Details dieses Interpretationsprozesses beschreiben, hat man mit einem verhaltensbasierten Ansatz ein Problem: alles, was sich im ‚Innern‘ eines biologischen Systems abspielt, ist zunächst nicht beobachtbar. Da hilft es auch nicht, wenn man heute einen Körper ‚aufmachen‘ kann und Körperorgane, Zellen, Prozesse in den Zellen untersuchen kann. Schaltzustände von Zellen, speziell Gehirnzellen, sagen als solche nichts über das Verhalten. Es sei denn, man ist in der Lage, explizit einen Zusammenhang zwischen den Zuständen von Gehirnzellen und beobachtbarem Verhalten herzustellen, was in der Neuropsychologie zur Methode gehört. Ähnlich könnte man bei der expliziten Parallelisierung von beobachtbarem Verhalten und rein subjektiven Phänomenen vorgehen oder eine explizite Parallelisierung zwischen Aktivitäten von Gehirnzellen (oder auch anderer Zellen) mit rein subjektiven Phänomenen.

Die verhaltensbasierte empirische Psychologie hat in zahllosen Modellbildungen gezeigt, wie man auf der Basis von Verhaltensdaten empirisch kontrollierte Hypothesen über mögliche Verarbeitungsmechanismen im System formulieren kann. Wieweit diese Modelle sich im Rahmen von neuropsychologischen Studien in der Zukunft bestätigen lassen oder diese modifiziert werden müssen, das wird die Zukunft zeigen.

Abstraktionen – Allgemeinbegriffe

Wenn wir mittels sprachlicher Ausdrücke Gegenstände unserer Alltagswelt ansprechen, benutzen wir fast ausnahmslos sogenannte Allgemeinbegriffe. Ich frage nach der ‚Schüssel‘ wohl wissend, dass es hunderte von Gegenständen geben kann, die konkret verschieden sind, die wir aber alle als ‚Schüssel‘ bezeichnen würden; desgleichen mit Ausdrücken wie ‚Tasse‘, ‚Flasche‘, ‚Tisch‘, Stuhl‘, usw.

Indem wir sprachliche Ausdrücke benutzen machen wir stillschweigend Gebrauch von der Fähigkeit unseres Gedächtnisses, dass alles, was wir gegenständlich wahrnehmen, ‚verallgemeinert‘ wird, d.h. von Details abgesehen wird und Kerneigenschaften abstrahiert werden (die Philosophen sprechen auch von Kategorisierung, der Bildung von Kategorien; eine andere Bezeichnung ist das Wort ‚Klasse‘). Dies geschieht offensichtlich unbewusst, ‚automatisch‘; unser Gedächtnis arbeitet einfach so, stillschweigend, lautlos. Was immer wir wahrnehmen, es wird in ein abstraktes Konzept ‚übersetzt‘, und alles, was zukünftig diesem Konzept ‚ähnlicher‘ ist als anderen Konzepten, das wird dann diesem Konzept zugerechnet. Ein gedankliches Gegenstandskonzept kann auf diese Weise für viele hundert unterschiedliche konkrete Gegenstände stehen. Und die Sprache braucht immer nur ein einziges Wort für ein solches abstraktes Gegenstands-Konzept.

Im konkreten Fall (wie z.B. dem Essen) ist die Verständigung meist einfach, da vielleicht nur eine einzige Schüssel auf dem Tisch steht. Wenn nicht, dann haben diese Schüsseln eventuell eine unterscheidende Eigenschaft (anhand ihrer räumlichen Position, Farbe, Größe, Inhalt, …). Die Schüssel ’neben‘ …, die ‚rote‘ Schüssel…, die ‚kleine weiße Schüssel‘ …, die Schüssel mit dem Reis ….

Wenn wir den Interpretationsprozess genauer beschreiben wollen, dann müssten wir diese Abstraktionsprozesse und ihre Anwendung in die Theoriebildung mit einbeziehen.

Diese Abstraktionsprozesse finden wir nicht nur bei ‚Gegenständen‘, sondern auch bei der Lautwahrnehmung. Wen wir ein gesprochenes Wort wie ‚Tasse‘ hören, dann hören wir dieses gesprochene Wort auch dann, wenn es schneller, langsamer, höher, tiefer, lauter oder leiser usw. gesprochen wird. Alle diese verschiedenen Äußerungsereignisse sind physikalisch sehr unterschiedlich und die moderne Sprachtechnologie hat viele Jahrzehnte gebraucht, um ‚in den meisten Fällen‘ das ‚richtige‘ Wort zu erkennen. Wir Menschen gehen mit diesen vielen unterschiedlichen Realisierungen vergleichsweise mühelos um. Auch hier verfügt unser Wahrnehmungs- und Gedächtnissystem über sehr leistungsfähige Abstraktionsprozesse, die zur Ausbildung von Lautkategorien und dann Wortklassen führen.

Wechselwirkungen zwischen Kategorien und Sprache

Damit finden wir auf der untersten Ebene des sprachlichen Zeichengebrauchs zwei selbständige Abstraktions- und Kategoriensysteme (Laute, Gegenstände), die im Zeichengebrauch zusammen geführt werden. Bevor Kinder diese beiden Systeme nicht meistern, können sie nicht wirklich Sprache lernen. Wenn sie es aber geschafft haben, diese Laut- und Gegenstandskategorien in sich zu realisieren, dann explodiert ihr Sprachlernen. (Anmerkung: Für einen Überblick siehe: Language development. Besonders aufschlussreich sind die empirischen Daten zur Entwicklung der Lautbildung, des Bedeutungserwerbs und der Grammatik. Umfassendere Theoriebildungen sind meist sehr spekulativ.)

Eine oft diskutierte Frage ist, in wieweit die Kategorienbildung bei den Gegenständen unabhängig ist von der Korrelation mit den Laut- und Wortkategorien (Anmerkung: Siehe einen Überblick zum Streit über die Sapir-Whorf-Hypothese.). Sofern diese Abstraktionsprozesse in genetisch bedingten Verarbeitungsprozessen gründen (wie z.B. der Farbwahrnehmung) darf man davon ausgehen, dass die sprachlichen Besonderheiten diese grundsätzlichen Kategorienbildung im Gegenstandsbereich nicht verändern, höchstens unterschiedlich nutzen. Für das gemeinsame Erlernen von Sprache bildet die Unabhängigkeit der vorsprachlichen Kategorienbildung eine Voraussetzung, dass eine Sprache gelernt werden kann. Gibt es hier Abweichungen (Anmerkung: wie z.B. bei Farbblindheit, generell Sehstörungen oder gar Blindheit, bei Taubheit, bei Störungen der Sinneswahrnehmungen, usw.), dann wird das gemeinsame Erlernen von Sprache in unterschiedlichen Graden erschwert bzw. eingeschränkt.

Bedeutung als Werden

Man kann erkennen, dass schon auf dieser untersten Ebene des Sprachgebrauchs Menschen, obgleich sie das gleiche Wort benutzen (wie ‚Flasche‘, ‚Tasse‘, …), damit ganz unterschiedliche Dinge verbinden können, je nachdem welche konkreten Gegenstände sie im Laufe ihrer Lerngeschichte sie wahrnehmen konnten. Je weiter sich diese Gegenstände von einfachen Alltagsgegenständen entfernen und komplexere Gegenstände benennen wie Tätigkeiten (‚Autofahren‘, ‚Einkaufen‘, ‚Reparieren‘, ..), komplexe Situationen (‚Parkhaus‘, ‚Jahrmarkt‘, ‚Sportveranstaltung‘, …) oder komplexe Organisationen (‚Gemeindeverwaltung‘, ‚politische Partei‘, ‚Demokratie‘, …), umso vielfältiger und umso unschärfer (‚fuzzy‘) werden die damit eingeschlossenen konkreten Eigenschaften. So wunderbar die Verfügbarkeit von abstrakten Begriffen/ Klassen/ Kategorien/ Allgemeinbegriffen den Gebrauch von Sprache vereinfacht, so trügerisch können diese Begriffe sein. 10 Menschen benutzen das Wort ‚Gott‘ und jeder versteht damit möglicherweise etwas ganz anderes.

Der Aufbau einer gemeinsam geteilten Bedeutungswelt ist in keiner Weise ein ‚Selbstgänger‘; langer Atem, gemeinsame Anstrengungen, Abstimmungen, Abgleiche, viel Kommunikation ist notwendig, um Verstehen zu ermöglichen, Missverständnisse zu verringern und bewusster Manipulation entgegen zu treten.

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

Philosophie im Kontext – Teil2 – Irrtum!

Das Diagramm im letzten Beitrag über Philosophie im Kontext ist falsch, nicht so sehr in den Details, sondern in der grundlegenden Logik.

Philosophie im Kontext - FalschBild 1

Eine korigierte Version könnte wie folgt aussehen:

Philosophie im Kontext - NeuBild 2

 

(1) In dem vorausgehenden Beitrag hatte ich versucht, auf der Basis der philosophischen Überlegungen seit Januar (letztlich natürlich noch Monate und Jahre weiter zurück) in einem Diagramm die grundsätzlichen Verhältnisse zu skizzieren, die man berücksichtigen muss, will man über das Zusammenspiel all der verschiedenen möglichen wissenschaftlichen und philosophischen Theorien sprechen, einschließlich des alltäglichen Denkens.

 

(2) Dabei ist mir ein gravierender Fehler unterlaufen, der natürlich nicht zufällig ist, sondern aus der Art und Weise resultiert, wie unser Denken funktioniert.

 

 

(3) Das Bild, so wie es jetzt ist (siehe Bild 1), zeigt — wie in einer Landkarte — das erkennende Individuum aus einer ‚Draufsicht‘ (3.Person) mit seinem Körper, darin enthalten sein Gehirn, und innerhalb des Gehirns irgendwo die subjektiven Erlebnisse als ‚Phänomene [PH]‘.

 

(4) Der Fehler liegt darin begründet, dass das subjektive Erkennen niemals als ‚Objekt einer dritten Person-Perspektive‘ auftreten kann. Das ist ja gerade das Besondere der subjektiven Erkenntnis, dass sie die ‚Innenansicht‘ eines Gehirns ist, das subjektive Erleben eines bestimmten Menschen (oder auch mit Abwandlungen eines Tieres), ’seines‘ Erlebens, bei Husserl dem ‚transzendentalen ego‘ zugeordnet. D.h. das ‚primäre Erkennen‘ ist in einem subjektiven Erleben verortet, das als solches kein Objekt einer dritten Person sein kann.

 

(5) Diesem Sachverhalt trägt Bild 2 Rechnung. Das Erkennen startet dort bei der Menge der Phänomene. Wie Husserl – und auch viele andere – zurecht herausgestellt hat, sind die Phänomene aber nicht nur ‚in sich geschlossene Objekte‘, sondern ‚phänomenologische Tatbestände‘ in dem Sinne, dass ihr ‚Vorkommen/ Auftreten‘ begleitet ist von einem ‚Wissen über sie‘; jemand, der ‚etwas erkennt‘, ‚weiß‘ dass er erkennt. Das wird im Diagramm durch den Pfeil mit dem Label ‚Reflexion‘ ausgedrückt: Im ‚Wissen um etwas‘ – Husserl nennt dies ‚Intentionalität‘ des Erkennens – können wir alles, was der Inhalt dieses primären Wissens ist, hinsichtlich möglicher unterscheidbarer Eigenschaften ‚explizit unterscheiden‘ und ‚bezugnehmende Konzepte‘ bilden.

 

 

(6) Und da der Mensch – in Ansätzen auch einige Tierarten – die wundersame Fähigkeit besitzt, ‚Gewusstes‘ [PH_Non-L] in Beziehung zu setzen (assoziieren, Assoziation) zu anderem Gewussten, das als ‚verweisenden Etwas‘ (Zeichen) [PH_L] dienen soll, kann der erkennende Mensch die ‚Inhalte seines Bewusstseins‘ – die Phänomene [PH] – mit Hilfe solcher verweisender Zeichen ‚kodieren‘ und dann unter Verwendung solcher kodierender Zeichen ‚Netzwerke solcher Zeichen‘ bilden, die – je nach ‚Ordnungsgrad‘ – mehr oder weniger ‚Modelle‘ oder gar ‚Theorien‘ bilden können.

 

(7) Da das begleitende Wissen, die Reflexion, in der Lage ist, auch ‚dynamische Eigenschaften‘ der Phänomene zu erfassen (‚Erinnern‘, ‚Vorher – nachher‘,…) kann diese Reflexion auch – nach sehr vielen Reflexionsschritten – unterscheiden zwischen jenen Phänomenen, die geschehen ‚ohne eigenes Zutun‘ (ohne eigenes ‚Wollen‘) und den anderen. Das ‚ohne eigenes Zutun‘ kann aus jenen Bereichen des ‚eigenen Körpers‘ herrühren, die die Reflexion ’nicht unter Kontrolle‘ hat oder aus Bereichen ‚außerhalb des Körpers‘, den wir dann auch ‚intersubjektiv‘ nennen bzw. neuzeitlich ‚empirisch‘ [PH_emp].

 

 

(9) In einer phänomenologischen Theorie [TH_ph], deren Gegenstandsbereich die subjektiven Erlebnisse [PH] sind, kann man daher die charakteristische Teilmenge der empirischen Phänomene [PH_emp] identifizieren. Daneben – und zugleich – kann man all die anderen Eigenschaften der Phänomene samt ihrer ‚Dynamik‘ unterscheiden und begrifflich ausdrücklich machen. Eine genaue Beschreibung aller möglicher Unterscheidung ist sehr komplex und ich habe nicht den Eindruck, dass irgend jemand dies bis heute erschöpfend und befriedigend zugleich geleistet hat. Möglicherweise kann dies auch nur als ein ‚Gemeinschaftswerk‘ geschehen. Dazu müsste man eine geeignete Methodik finden, die dies ermöglicht (vielleicht sind wir Menschen technologisch erst jetzt (2012, ca. 13.7 Milliarden Jahre nach dem Big Bang, ca. 3.7 Milliarden Jahre nach dem ersten Auftreten von lebensrelevanten Molekülen auf der Erde…) langsam in der Lage, eine solche Unternehmung einer ‚gemeinsamen Theorie des menschlichen phänomenalen Bewusstseins‘ in Angriff zu nehmen).

 

(10) Vieles spricht dafür, dass die unterschiedlichen Versuche von Philosophen, die Vielfalt der Reflexionsdynamik (und deren ‚Wirkungen‘ auf den Bewusstseinsinhalt) mit Hilfe von sogenannten ‚Kategorientafeln‘ zu strukturieren (keine gleicht wirklich völlig der anderen), in diesen Kontext der Bildung einer ‚phänomenologischen Theorie‘ [TH_ph] gehört. Idealerweise würde man – zumindest einige der bekanntesten (Aristoteles, Kant, Peirce, Husserl,…) – vor dem aktuellen Hintergrund neu vergleichen und analysieren. Sofern diese die Struktur der Dynamik des ’sich ereignenden Denkens‘ beschreiben, müssten diese Kategorientafeln letztlich alle ’strukturell gleich‘ sein. Dabei unterstellen wir, dass die Dynamik des Denkens der einzelnen Menschen aufgrund der Gehirnstruktur ‚hinreichend ähnlich‘ ist. Dies ist aber streng genommen bis heute nicht erwiesen. Die vielen neuen Erkenntnisse zur Gehirnentwicklung und zum individuellen Lernen (einschließlich der emotionalen Strukturen) legen eher die Vermutung nahe, dass es sehr wohl individuelle Unterschiede geben kann in der Art und Weise, wie einzelne Menschen die Welt ‚verarbeiten‘. Träfe dies zu, hätte dies natürlich weitreichende Folgen für die Alltagspraxis und die Ethik (und die Moral und die Gesetze…).

 

 

(11) Hat man sich dies alles klar gemacht, dann wundert es nicht mehr, dass die Bildung wissenschaftlicher empirischer Theorien [TH_emp] nicht ‚außerhalb‘ einer phänomenologischen Theoriebildung stattfinden kann, sondern nur ‚innerhalb‘, und zwar aus mindestens zwei Gründen: (i) die Menge der empirischen Phänomene [PH_emp] ist eindeutig eine echte Teilmenge aller Phänomene [PH], also PH_emp subset PH. (ii) Die empirische Theorie TH_emp entsteht im Rahmen und unter Voraussetzung der allgemeinen Reflexion, die unser primäres Denken ermöglicht und ausmacht; wir haben kein ‚zweites‘ Denken daneben oder ‚jenseits‘ im ‚Irgendwo‘. Dies erklärt auch sehr einfach das häufig bemerkte Paradox der Metatheorie: Theorien sind nur möglich, weil wir ‚über‘ (Alt-Griechisch: ‚meta‘) sie ’nachdenken‘ können. Dieses ‚Nachdenken über‘ (Metareflexion‘) ist unter Annahme der allem Denken vorausgehenden und begleitenden primären Reflexion keine Überraschung. Was immer wie uns ‚ausdenken‘, es geschieht im Rahmen der primären Reflexion und von daher kann auch alles und jedes, was wir jemals gedacht haben oder uns gerade denken beliebig miteinander in Beziehung gesetzt werden. Bezogen auf diese vorausgehende und begleitende Reflexion ist jeder ‚Denkinhalt‘ grundsätzlich ‚unabgeschlossen‘; die primäre Reflexion ermöglicht eine ‚endliche Unendlichkeit‘, d.h. der prinzipiell nicht abgeschlossene Denkprozess kann – als ‚Prozess‘ – jede endliche Struktur immer wieder und immer weiter ‚erweitern‘, ‚ausdehnen‘, usf.

 

(12) Kennzeichen von neuzeitlichen empirischen Theorien ist ihre Fundierung in ‚empirischen Messverfahren‘ [MEAS]. Kennzeichen dieser empirischen Messverfahren ist es, dass sie unabhängig vom Körper eines Menschen und auch unabhängig von seinem individuellen Erkennen, Fühlen und Wollen bei gleicher ‚Durchführung‘ immer wieder die ‚gleichen Messergebnisse‘ [DATA_emp] liefern sollen. Ob und wieweit solche ‚unabhängigen‘ Messungen tatsächlich durchgeführt werden können ist eine ‚praktische‘ und ‚technologische‘ Frage. Die Geschichte zeigt, dass dieses Konzept auf jeden Fall trotz aller Probleme im Detail bislang extrem erfolgreich war.

 

(13) Allerdings ist hier folgender Umstand zu beachten: obwohl die Messergebnisse [DATA_emp] als solche idealerweise ‚unabhängig‘ vom Fühlen, Denken und Wollen eines Menschen erzeugt werden sollen, gelangen dieses Messergebnisse erst dann zu einer ‚theoretischen Wirkung‘, wenn es irgendwelche Menschen gibt, die diese Messergebnisse DATA_emp ‚wahrnehmen‘ (Englisch: perception, abgekürzt hier als ‚perc‘) können, damit sie als ‚auftretende Phänomene‘ – und zwar hier dann als empirische Phänomene [PH_emp] – in den Bereich des ‚Wissens‘ eintreten, also perc: DATA_emp —> PH_emp. Dies bedeutet, der besondere Charakter von empirischen Phänomenen haftet ihnen nicht als ‚gewussten Eigenschaften‘, nicht qua ‚Phänomen‘ an, sondern nur im Bereich ihrer ‚Entstehung‘, ihres ‚Zustandekommens‘ (aus diesem – und nur aus diesem – Grund ist es so wichtig, beim Umgang mit Phänomenen jeweils klar zu kennzeichnen, ‚woher diese stammen), der ihrem ‚Phänomensein‘ ‚vorausliegt‘.

 

 

(14) In dem Masse nun, wie wir mittels empirischer Messungen Daten über das beobachtbare menschliche Verhalten [DATA_sr], über physiologische Eigenschaften des Körpers [DATA_bd] bzw. auch über Eigenschaften des Nervennetzes im Körper (‚Gehirn‘) [DATA_nn] gewonnen haben, können wir versuchen, basierend auf diesen verschiedenen Daten entsprechende wissenschaftliche Theorien TH_sr, TH_bd, TH_nn zu formulieren, die die Gesetzmäßigkeiten explizit machen, die durch die Daten sichtbar werden.

 

(15) Der wichtige Punkt hier ist, dass alle diese Theorien nicht ‚unabhängig‘ oder ‚jenseits von‘ einer phänomenologischen Theorie zu verorten sind, sondern ‚innerhalb‘ von dieser! Jede beliebige Theorie kann immer nur eine Theorie ‚innerhalb‘ der umfassenden und zeitlich wie logisch vorausgehenden phänomenologischen Theorie sein. Eine spezifische empirische Theorie [TH_i] zeichnet sich ja gerade dadurch aus, dass sie sich auf eine echte Teilmenge [PH_i] aller verfügbarer Phänomene [PH] beschränkt. Gerade in dieser methodischen Beschränkung liegt – wie der Gang der Geschichte uns lehrt – der große Erfolg dieser Art von Theoriebildung. Zugleich wird aber auch deutlich, dass jede dieser speziellen Theorien TH_i aufgrund ihrer speziellen Datenmengen DATA_i (denen die entsprechenden Phänomenmengen PH_emp_i] korrespondieren) zunächst einmal nichts mit einer der vielen anderen speziellen Theorien TH_j TH_i zu tun hat. Es ist eine eigene theoretische Leistung, Querbeziehungen herzustellen, strukturelle Ähnlichkeiten aufzuzeigen, usw. Dies fällt dann in den Bereich ‚interdisziplinärer Theoriebildung‘, ist ‚Metatheorie‘. Diese Art von metatheoretischen Aktivitäten ist aber nur möglich, da die primäre Reflexion alle Arten von speziellen Reflexionen zeitlich und logisch vorausgeht und das entsprechende ‚Instrumentarium‘ zur Verfügung stellt.

 

(16) In diesem Kontext ist unmittelbar einsichtig, dass subjektives Wissen prinzipiell kein Gegenstand empirischer Theoriebildung sein kann. Im Umfeld der modernen Neurowissenschaften (einschließlich Neuropsychologie) sowie im Bereich der Psychologie ist dieser grundsätzliche Tatbestand – so scheint es – bislang methodisch nicht wirklich sauber geklärt. In unzähligen Experimenten mischen sich klare empirische Vorgehensweisen mit der Benutzung von subjektiven Daten, was methodisch ungeklärt ist. Dies durchzieht alle ‚Kreise‘.

 

(17) Will man von der einzigartigen Datenquelle des primären Wissens PH für wissenschaftliche empirische Forschung PH_emp profitieren, bietet sich bislang einzig ein ‚hybrides‘ Vorgehen an, in dem ein Mensch sein eigenes subjektives Wissen PH auf der Basis einer ‚zeitlichen Korrelation‘ (t,t‘) mit empirischen Daten PH_emp, die von anderen Wissenschaftlern mittels Messungen über seinen Körper und sein Nervennetz erhoben werden. Also etwa CORR((t,t‘), PH, PH_emp). Dies ist zwar mühsam und fehleranfällig, aber die einzige methodische Möglichkeit, mit diesen ungleichen Phänomenmengen zurecht zu kommen (Mir ist nicht bekannt, dass irgendjemand diese scharfe methodische Forderung bislang erhebt geschweige denn, dass irgend jemand danach tatsächlich vorgeht).

 

(18) Für die weiteren Überlegungen soll versucht werden, diesen methodologischen Anforderungen gerecht zu werden.

 

(19) Es zeigt sich nun auch sehr klar, dass und wie das philosophische Denken gegenüber allen anderen theoretischen Erklärungsansätzen tatsächlich eine Sonderstellung einnimmt. Das philosophische Denken ist das fundamentale Denken, das jeglichem speziellen Denken zeitlich und logisch voraus liegt, nicht als Gegensatz oder als etwas ganz Anderes, sondern als das primäre Medium innerhalb dessen sich alles andere ‚abspielt‘. Während ich eine spezielle empirische Theorie als ‚Objekt des Wissens‘ klar abgrenzen und beschreiben kann, ist die dazu notwendige Metareflexion als solche kein ‚Objekt des Wissens‘, sondern immer nur ein nicht weiter hintergehbares ‚Medium‘, eben das ‚Denken‘, in dem wir uns immer schon vorfinden, das wir nicht erst ‚machen‘, das wir nur ‚benutzen‘ können. Die ‚Eigenschaften‘ dieses unseres Denkens ‚zeigen‘ sich damit auch nur ‚indirekt‘ durch die ‚Wirkung‘ der Denkaktivität auf die Inhalte des Bewusstseins (Eine Kooperation von empirischer Psychologie TH_emp_psych und phänomenologischer Analyse TH_ph kann hilfreich sein, allerdings sind die Gegenstandsbereiche DATA_emp_psych als PH_emp_psych und PH komplett verschieden und wirklich interessant würde es erst dann, wenn wir eine TH_emp_psych einer TH_ph gegenübersetzen könnten (bislang sehe ich nirgends – nicht einmal in Ansätzen – eine phänomenologische Theorie, die diesen Namen verdienen würde, noch eine wirkliche empirische psychologische Theorie, und das im Jahr 2012).

 

 

Ein Überblick über alle bisherigen Einträge findet sich hier.

 

 

In dem Online-Skript General Computational Learning Theory versuche ich, diese erkenntnisphilosophischen Aspekte zu berücksichtigen. Ich kann in diesem Skript allerdings nur einen Teilbereich behandeln. Aber aus diesen sehr abstrakt wirkenden Überlegungen ist meine ‚Rückkehr zur Philosophie‘ entscheidend mitbeeinflusst worden.

 

 

 

 

 

GEN — MEM — SEM

(1) Bei der Betrachtung der Entwicklung des (biologischen) Lebens auf der Erde tritt als markantes Ereignis (vor ca. 3.5 Mrd Jahren) die Verfügbarkeit von selbstreproduktiven Einheiten hervor: DNA-Moleküle werden dazu benutzt um unter Zuhilfenahme anderer Moleküle Proteinstrukturen in einer geordneten Weise so zu organisieren, dass daraus wieder Zellen, multizelluläre Organismen entstehen.

 

(2) In einem Abstraktionsprozeß wurden mathematische Modelle entwickelt, die die Struktur eines DNA.-Moleküls in solch einem selbstreproduktiven Kontext als ‚Informationseinheiten‚ identifizierten, die auch als ‚Gene‚ bezeichnet wurden. Der gesamte Informationsprozess wurde als ‚Genetischer Algorithmus (GA)‚ rekonstruiert. Gegenüber dem biochemischen Modell enthält er Vereinfachungen, zugleich bilden diese aber auch eine ‚Generalisierung‚, die eine mathematische Behandlung zulassen. Dadurch konnten sehr weitreichende Untersuchungen angestellt werden.

 

(3) Die Uminterpretation von genetischen Algorithmen als Classifier Systeme betrachtet die genetische Informationen als Wenn-Dann-Regeln (auch mehrere hintereinander). Je nachdem, welche Bedingungen vorliegen, werden nur bestimmte ‚Wenns‘ ‚erfüllt‘ und nur diese ‚Danns‘ werden aktiviert. Eine ‚Wenn-Dann-Regel‘ bildet einen ‚Classifier‚. Während genetische Informationen als solche eigentlich nur einmal im Leben eines (biologischen) Systems verändert werden (in der Realität natürlich auch durch Fremdeinwirkungen öfters), nämlich bei der Weitergabe der Informationen nach bestimmten Mustern/ Regeln geändert werden können (letztlich gibt es nur zwei Fälle (i) Rekombination nach einer festen Regel oder (ii) Zufällige Veränderung), können die Informationen, die als eine Menge von Classifiern kodiert sind, durch jedes einzelne Verhalten eines Systems geändert werden. Dies entspricht eher dem Organisationsniveau des Nervensystems bzw. dem des Gehirns in einem biologischen System.

 

(4) Betrachtet man Classifier Systeme auf der Organisationsebene des Gehirns, dann liegt auf der Hand, sie primär als Modell eines einfachen Gedächtnisses (Memory) zu sehen. Die ‚Wenns‘ (Engl. if) repräsentieren dann wichtige ‚Wahrnehmungszustände‘ des Systems (sensorische wie propriozeptive oder mehr), die ‚Danns‘ (Engl. ‚then‘) repräsentieren jene Aktionen des Systems, die aufgrund solcher Wahrnehmungen ausgeführt wurden und damit potentiell über die Veränderung einer (unterstellten) Situation zu einer Veränderung dieser Situation geführt haben, die wiederum die Wahrnehmung ändern kann. Da man mathematisch Wenn-Dann-Regeln (also Classifier) als Graphen interpretieren kann mit den ‚Wenns‘ als Knoten und den ‚Danns‘ als Übergänge zwischen den Knoten, sprich Kanten, bilden die Classifier als Graph den Ausgangspunkt für ein mögliches Gedächtnis.

 

(5) Nennen wir den ersten Graphen, den wir mittels Classifiern bilden können, Stufe 0 (Level 0), dann kann ein Gedächtnis mit Stufe 0 Wahrnehmungssituationen speichern, darauf basierende Handlungen, sowie Feedback-Werte. Feedbackwerte sind ‚Rückmeldungen der Umgebung (Engl. environment). Biologische Systeme verfügen im Laufe der 3.5 Miliarden dauernden Evolution mittlerweile über ein ganzes Arsenal von eingebauten (angeborenen, genetisch fixierten) Reaktionsweisen, die das System zur Orientierung benutzen kann: Hungergefühle, Durstgefühle, Müdigkeit, diverse Schutzreflexe, sexuelle Erregung usw. Im Englischen spricht man hier auch von drives bzw. verallgemeinernd von speziellen emotions (Emotionen). In diesem erweiterten Sinn kann man biologische Systeme auf der Organisationseben des Gedächtnisses auch als emotionale Classifier Systeme (emotional classifier systems) bezeichnen. Wenn man diese systemspezifischen Rückmeldungen in die Kodierung der Wenn-Dann-Regeln einbaut — was bei Classifiern der Fall ist –, dann kann ein auf Classifiern basierendes Gedächtnis die Wirkung von wahrgenommenen Situationen in Verbindung mit den eigenen Handlungen gespeichert (store) werden. Darüberhinaus könnte man diese gespeicherten Informationen mit geeigneten Such- und Auswertungsoperationen in zukünftigen Situationen nutzen, in denen man z.B. Hunger hat und man sich fragt, ob und wo und wie man an etwas Essbares kommen könnte.

 

(6) Der Begriff mem wurde in der Literatur schon vielfach und für sehr unterschiedliche Sachverhalte benutzt. In diesem Kontext soll ein mem* einen Knoten samt aller verfügbaren Kanten in einem Classifiersystem bezeichnen, das als Gedächtnis benutzt wird. Meme* sind dann — analog wie Gene — auch Informationseinheiten, allerdings nicht zur Kodierung von Wachstumsprozessen wie bei den Genen, sondern als Basis für Handlungsprozesse. Meme* ermöglichen Handlungen und die durch Handlungen ermöglichten Veränderungen in der unterstellten Umwelt können auf das handelnde System zurückwirken und dadurch die Menge der Meme* verändern.

 

(7) Wie wir heute wissen, haben biologische System — allerdings sehr, sehr spät — auch Zeichensysteme entwickelt, die schließlich als Sprachen zum grundlegenden Kommunikationsmittel des homo sapiens wurden. Kommunikation ermöglicht die Koordinierung unterschiedlicher Gehirne.

 

(8) Die allgemeine Beschreibung von Zeichen ist Gegenstand der Semiotik als Wissenschaft der Zeichen und Zeichenprozesse. Allerdings ist die Semiotik bis heute kaum anerkannt und fristet vielfach nur ein Schattendasein neben anderen Disziplinen. Dafür gibt es dann viele Teildisziplinen wie Phonetik, Linguistik, Sprachwissenschaften, Sprachpsychologie, Neurolinguistik usw. die nur Teilaspekte der menschlichen Zeichen untersuchen, aber es historisch geschafft haben, sich gesellschaftliche Anerkennung zu verschaffen.

 

(9) Eine Schwäche der Semiotik war — und ist es bis heute –, dass sie es nicht geschafft hat, eine einheitliche Theorie der Zeichen zu erarbeiten. Schon alleine die Vielzahl der ‚Gründer‘ der Semiotik (wie z.B. Peirce, de Saussure, Morris und viele andere) und deren unterschiedlichen begrifflichen Konzepte macht es schwer bis unmöglich, zu einer einheitlichen Zeichentheorie zu kommen.

 

(10) Ich habe mehrfach versucht, die beiden sehr unterschiedlichen Ansätze von Peirce (bewusstseinsbasiert) und Morris (Verhaltensbasiert) zu formalisieren und zu vereinheitlichen. Es scheint so zu sein, dass man bei Erweiterung des classifier-basierten Mem*-Konzeptes einen formalen Rahmen hat, der es erlaubt, sowohl die bewusstseinsorientierte Sicht von Peirce wie auch zugleich die verhaltensorientierte Sicht von Morris zusammen zu führen, ohne dass man deren Konzepte ‚verunstalten‘ müsste. Im Falle von Peirce kann man sein komplexes (und in sich selbst nicht konsistentes) System von Kategorien — so scheint es — drastisch vereinfachen.

 

(11) Stark vereinfachend gesagt kann man den Zeichenbegriff verstehen als eine Beziehung  zwischen einem Zeichenmaterial (das sowohl verhaltensrelevant  wie auch wahrnehmungsrelevant vorliegt) und einem Bedeutungsmaterial (das ebenfalls entweder verhaltensrelevant UND wahrnehmunsrelevant vorliegt oder NUR wahrnehmungsrelevant). Allerdings existiert eine solche Bedeutungsbeziehung nicht als wahrnehmbares Objekt sondern ausschliesslich als gewusste Beziehung im ‚Kopf‘ bzw. im ‚Gedächtnis‘ des Zeichenbenutzers. In Anlehnung an die griechische Philosophie möchte ich ein Zeichen als sem* bezeichnen. Ein sem* basiert zwar auf potentiell vielen memen*, stellt aber als ausgezeichnete Beziehung zwischen memen* etwas Eigenständiges dar. In diesem Sinne kann — und muss — man sagen, dass seme* eine neue Ebene der Organisation von Informationen eröffnen (was grundsätzlich keine neue Einsicht ist; ich wiederhole dies hier nur, da dies die Voraussetzung für die nächste Organisationsebene von Informationen ist).

 

Fortsetzung folgt.