Archiv der Kategorie: Kognitionswissenschaft

DER VERSTECKTE BEOBACHTER UND AKTEUR. Wo Denken sich verabschiedet. Notiz

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
12.April 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: cagent

Philosophie des Beobachters - Vogelperspektive
Philosophie des Beobachters – Vogelperspektive

DER  BEOBACHTER

In den Wissenschaften ist klar, dass es ohne einen Beobachter nichts gibt: keine Experimente mit Messungen, die Daten generieren, und keine Modelle, Theorien, die Daten in Zusammenhänge setzen und damit Deutungs- oder gar Erklärungshypothesen liefern.

Weniger klar ist, dass und wieweit der Beobachter konstitutiv in eine Theorie eingeht und dass eine ’normale‘ Theorie nicht in der Lage ist, ihren eigenen Beobachter zu thematisieren.

Besonders krass ist der Fall in der Physik. Die standardisierten physikalischen Messeinheiten erlauben interessante Modellbildungen zu Strukturen und Dynamiken der realen Welt, es ist mit diesen Daten und Modellen jedoch nicht möglich, den physik- spezifischen Beobachter angemessen zu beschreiben.

Andere Disziplinen wie z.B. die Biologie, die Psychologie oder die Soziologie kommen den komplexen Phänomenen eines Beobachters zwar ’näher‘, aber auch diese – wenn sie denn als empirische Wissenschaften arbeiten – können ihre jeweiligen spezifischen Beobachter nicht mir eigenen ‚Bordmitteln‘ erschöpfend beschreiben. Würden sie es tun, würden sie ihr Wissenschaftsparadigma sprengen; dann müssten sie aufhören, empirische Wissenschaften zu sein.

IRREFÜHRUNG INTERDISZIPLINARITÄT

Im übrigen muss man auch fragen, ob nicht alle Disziplinen auf ihre spezifische Weise Sichten zum Beobachter entwickeln, die  jeweils spezifisch  ‚Recht‘ haben. Nur eine Zusammenschau aller dieser verschiedenen Sichten würde dem komplexen Phänomen ‚Beobachter‘ gerecht, wenngleich prinzipiell unvollständig. Allerdings wäre keine der einzelnen Disziplinen je für sich in der Lage, eine ‚Gesamtschau‘ zu organisieren. Das gibt der normale Theoriebegriff nicht her. Das Reden vom ‚Interdisziplinären‘ ist insofern eine Farce. Hier wird eine Disziplinen-Übergreifende Einheit angedeutet, die es zwischen Einzeldisziplinen prinzipiell nicht geben kann (und auch in der Praxis nie erreicht wird; das scheitert schon an den verschiedenen Sprachen der Disziplinen).

ROLLEN

In der Praxis der Gesellschaft und der Industrie manifestiert sich das Dilemma des versteckten Beobachters im Phänomen der unterschiedlichen Rollen. An einem Systems-Engineering Prozess (SEP) kann man dies verdeutlichen.

Die Manager eines SEP legen Rahmenbedingungen fest, geben Ziele vor, überwachen den Ablauf. Der Prozess selbst wird von unterschiedlichen Experten (Akteuren) gelebt. Diese Experten setzen den ‚durch die Manager gesetzten Rahmen‘ für die Dauer des Prozesses voraus, als gültiges Referenzsystem, innerhalb dessen sie ihre Problemlösung in Kooperation mit anderen Akteuren ‚leben‘.

Innerhalb eines SEP gibt es Akteure , z.B. die Mensch-Maschine Interaktions (MMI) Experten, heute auch schon Akteur-Akteur-Interaktions (AAI) Experten genannt (Akteure können Menschen (biologische Systeme) oder auch mittlerweile Roboter (nicht-biologische Systeme) sein. ‚Cyborgs‘ bilden neuartige ‚Zwitterwesen‘, wo noch nicht ganz klar ist, ob es ‚erweiterte biologische Systeme‘ sind oder es sich hier um eine neue hybride Lebensform als Ergebnis der Evolution handelt). Die MMI oder AAI Experten entwickeln Konzepte für ‚potentielle Benutzer (User)‘, also ‚andere Akteure‘, die in ‚angedachten Abläufen‘ mit ‚angedachten neuen Schnittstellen (Interface)‘ aktiv werden sollen. Werden die Pläne der AAI Experten akzeptiert und realisiert, entstehen für die angedachten Abläufe neue Schnittstellen, mit denen dann andere – dann ‚reale‘ – Akteure‘ arbeiten werden. Tritt dieser Fall ein, dann übernehmen die ‚Anwender (User)‘ einen ‚von anderen Akteuren gesetzten‘ Rahmen für ihr Handeln.

Vom Auftraggeber (Ebene 1) zum Manager eines SEP (Ebene 2) zu den Experten des SEP (Ebene 3) zu den intendierten Anwendern (Ebene 4). Wie sich dies dann wieder auf die umgebende Gesellschaft (Ebene 5) auswirkt, die sowohl Auftraggeber (Ebene 1) als auch Manager von Prozessen (Ebene 2) als auch die verschiedenen Experten (Ebene 3) beeinflussen kann, ist im Normalfall weitgehend unklar. Zu vielfältig sind hier die möglichen Verflechtungen.

Andere Querbeziehungen in einen SEP hinein (kleine Auswahl) treten dort auf, wo z.B. die AAI Experten andere Wissenschaften zu Rate ziehen, entweder über deren ‚Produkte‘ (Artikel, Bücher, Verfahren) oder direkt durch Einbeziehung der Akteure (Psychologie, Psychologen, Soziologie, Soziologen, usw.).

An keiner Stelle in diesem überaus komplexen Rollengeflecht gibt es normalerweise eine Rolle, die offiziell sowohl die spezifischen Aufgaben ‚innerhalb‘ einer Rolle wie auch die ‚Rolle selbst‘ beobachtet, protokolliert, untersucht. Eine solche Rolle würde jeweils vorgegebene Rollen ‚durchbrechen‘, ‚aufbrechen‘, ‚verletzten‘. Das verwirrt, schafft Unruhe, erzeugt Ängste und Abwehr.

HOFNARREN, PHILOSOPHEN

Andererseits gibt es historisch diese Formen in allen Zeiten. In der einen Form ist es der ‚Hofnarr‘, der kraft seiner Rolle grundsätzlich anders sein darf, dadurch feste Muster, Klischees durchbrechen darf, bis zum gewissen Grad wird dies auch erwartet, aber nur bis zu einem gewissen Grad. Unterschwellige Machtstrukturen dürfen in der Regel nicht angetastet werden.

In der anderen Rolle haben wir die Philosophen. Das philosophische Denken kann das einzelwissenschaftliche Denken ‚imitieren‘, es kann aber jederzeit aus diesem Muster ausbrechen und nach den Voraussetzungen des einzelwissenschaftlichen Denkens fragen. Ein Philosoph kann — von seinem Denken her — die immer und überall wirksamen ‚Voraussetzungen‘ von Verhalten und Denken ‚hinterfragen‘, ‚thematisieren‘ und auf diese Weise einer expliziten Reflexion und sogar bis zu einem gewissen Grade einer Theoriebildung zugänglich machen. Der Philosoph als Teil einer Gesellschaft mit seiner Nähe zum ‚Hofnarren‘ darf meistens aber nur soviel anders sein (Schulphilosophie), die die Gesellschaft ihm zugesteht. Vom Standpunkt eines philosophischen Denkens aus kann man unterschiedliche einzelwissenschaftliche Modelle und Theorien ‚als Objekte‘ untersuchen, vergleichen, formalisieren und man kann auf einer ‚Metaebene‘ zu den Einzelwissenschaften ‚integrierte Theorien‘ schaffen; nur so. Interdisziplinarität ist von hier aus betrachtet eine Form von Ideologie, die genau solche Integrationen  verhindert.

WISSENSCHAFTLICHE EINZELSTAATEREI

Der Versuch der Einzelwissenschaften, sich der ‚Gängelei‘ eines philosophischen Denkens zu entziehen, führt bei aller Positivität der einzelwissenschaftlichen Erkenntnisse zu dem großen Wirrwarr, das wir heute um uns herum beobachten können. Ein komplexes Phänomen wie der Homo sapiens wird zwischen den einzelwissenschaftlichen Mühlsteinen zu Sand zerrieben; übrig bleibt nichts. Die verschiedenen biologischen, psychologischen, neurologischen, soziologischen usw. ‚Substrate‘ bilden unterschiedliche Zerrformen, die in keinem Gesamtbild integriert sind. Das kommt einer Abschaffung des Menschen durch den Wissenschaftsbetrieb gleich. Dies erinnert ein wenig an den kleinstaatlichen Flickenteppich, bevor Deutschland ein integrierter Staat wurde; jeder war sein eigener Fürst; sehr schön; komplexere Einheit fand nicht statt. Das menschliche Gehirn bevorzugt Vereinfachungen, und das subjektive Machtgefühl eines jeden fühlt sich geschmeichelt, wenn es sich als (wenn auch kleiner und beschränkter) ‚Fürst‘ fühlen kann.

PHILOSOPHIESOMMER 2016 IN DER DENKBAR FRANKFURT

Alltag, Visionen der Wissenschaft, und die antike Philosophie: müssen hier Köpfe rollen oder gibt es neue gedankliche Fusion?

Sind Sie neugierig, oder meinen Sie, etwas beitragen zu können?

Kommen Sie dazu.

Geben Sie ihrer Eitelkeit drei Stunden Urlaub und lassen Sie zu, dass Sie in der Andersartigkeit vielleicht etwas Neues entdecken.

ORT:

DENKBAR Frankfurt
Spohrstrasse 46a

(Achtung: Parken schwierig! Man muss wirklich im Umfeld suchen)

PROGRAMMFORMAT

Moderation: Gerd Doeben-Henisch

16:00 Begrüßung

16:05 Kleine Performance aus dem PHILOSOPHY-IN-CONCERT Experiment

16:15 Eingangsüberlegungen

16:30 Erste offene Gesprächsrunde (simultan Erstellung eines Begriffsnetzwerkes)

17:30 Blubberpause (Jeder kann mit jedem reden; Essen und Trinken)

18:00 Zweite offene Gesprächsrunde (simultan Erstellung eines Begriffsnetzwerkes)

18:45 Schlussstatements

19:00 Ende

Langsames Wegdiffundieren der Teilnehmer ….

ERINNERUNGEN…

In der Regel erscheint im Anschluss an eine Sitzung ein Bericht im Blog cognitiveagent.org, der auch Gelegenheit bietet, sich durch Kommentare oder eigene Beiträge an der Diskussion zu beteiligen.

INHALTLICHE LINIE

Da der Gesprächsprozess – abhängig von den Teilnehmern! – seine eigene Dynamik gewinnt, lässt sich keine genaue Prognose für alle kommenden Themen geben.

Das Rezept für den Start orientiert sich einmal an unseren alltäglichen Erfahrung einer Menschheit im Fiebertaumel zwischen Gewalt, Krieg, Katastrophen auf der einen Seite, eingespannt in ein umfassendes Räderwerk von Wirtschaft, Verwaltungen, Medienströmen, Politikbetrieb, Anwachsen von ‚tiefem Staat‘ mit mittlerweile grenzenloser Überwachung andererseits; dazu eine scheinbar entfesselte Wissenschaft, die – abgeschottet von der Öffentlichkeit – immer neue Details der Materie enthüllt, den Menschen als biochemische Masse sieht, deren Tage gezählt sind, und in automatisierten Produktionsprozessen denkt, die mit bekannten Wertesystemen kaum noch etwas zu tun haben. Und dann, man wagt es kaum zu sagen, gab es einen alten, sehr alten Philosophen, der mindestens 1800 Jahre lang das Denken In ganz Europa (Westen wie Osten; christliche Theologie genauso wie die islamische Theologie!) geprägt hat, Aristoteles, der heute auf allen Gebieten als abgeschrieben gelten kann. Und doch, schaut man sich die großen Lücken an, die die moderne Wissenschaft mit sich herumschleppt, kann man ins Grübeln kommen. Die Zukunft ist niemals einfach nur die Wiederholung des Gestern. Aber sie ist auch niemals das total ganz andere. Die biologische Evolution praktiziert das Modell der Zähmung des Zufalls durch Erinnerung; das Ergebnis nach ca. 4 Mrd Jahren sind u.a. wir, der homo sapiens. Es ist schwer zu verstehen, bis heute. Manche wollen es auch gar nicht verstehen…

ARCHIV

Wer sich für die bisherigen philosophischen Gespräche unter der Überschrift ‚Philosophiewerkstatt‘ interessiert, ist eingeladen, die Erinnerungsseite zu besuchen. Hier gibt es Berichte von den zurückliegenden Diskursen.

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

ERKENNTNISSCHICHTEN – PHILOSOPHISCHE LEVEL. Erste Notizen

VORBEMERKUNG

Vor fast genau drei Jahren hatte ich schon einmal einen Blogeintrag geschrieben, in dem das Wort ‚Level‘ im Kontext eines Computerspiels erwähnt wurde (siehe: SCHAFFEN WIR DEN NÄCHSTEN LEVEL? Oder ÜBERWINDEN WIR DEN STATUS DER MONADEN?
). Dort jedoch wurde die Idee des Computerspiels und der Level in einem ganz anderen Zusammenhang diskutiert. Im folgenden Text geht es tatsächlich um den Versuch, konkret verschiedene Ebenen des Denkens (Level) zu unterscheiden. Als ‚Ordnungsprinzip‘ in all dem wird einmal die zeitliche Abfolge benutzt, in der diese Level auftreten können, und eine ‚implizite Architektur‘ unseres Denkens, die sich nur ‚indirekt‘ beschreiben lässt.

DER BEGRIFF ‚LEVEL‘

1. Wer heutzutage Computerspiele spielt, der kennt das: man bewegt sich immer auf einem bestimmten ‚LEVEL‘, d.h. auf einer bestimmten Spielebene. Jede Spielebene hat eigene Regeln, eine eigene spezifische Schwierigkeit. Erst wenn man genügend Aufgaben gelöst hat, wenn man hinreichend viel Punkte erworben hat, dann darf man auf den nächsten Level. Diese Idee der Spielebene, des Level, kann man auch auf den Alltag übertragen.

FUNKTIONIEREN IM ALLTAG

2. Im Alltag stehen wir in beständiger Interaktion mit unserer alltäglichen Umgebung (Level 1). Wir nehmen wahr, wir identifizieren Objekte mit Eigenschaften, Beziehungen zwischen diesen im Raum, zeitliche Abfolgen, und wir selbst verhalten uns nach bestimmten Regeln, die uns der Alltag aufdrängt oder aufgedrängt hat: wir lernen, dass Dinge fallen können; dass es Tag und Nacht gibt; dass Menschen unterschiedlich reagieren können; dass Menschen Rollen haben können, unterschiedliche Verpflichtungen; dass es Regeln gibt, Vorschriften, Gesetze, Erwartungen anderer, Gewohnheiten, Sitten, Gebräuche. Wir lernen mit der Zeit, dass Unterschiede gemacht werden bezüglich Herkunft, Sprache, wirtschaftlicher Stellung, Glaubens- oder Weltanschauungsansicht, usw.

3. Wenn alles ‚gut‘ läuft, dann FUNKTIONIEREN wir; wir tun, was erwartet wird, wir tun, was die Spielregeln sagen; wir tun, was wir gewohnt sind; wir bekommen unsere Leistungspunkte, unsere Anerkennungen …. oder auch nicht.

4. Wenn man uns fragt, wer wir sind, dann zählen wir für gewöhnlich auf, was wir so tun, welche Rollen wir spielen, welche Berufsbezeichnungen wir tragen.

DURCH NACHDENKEN ZUM PHILOSOPHIEREN

5. Sobald man nicht mehr nur FUNKTIONIERT, sondern anfängt, über sein Funktionieren NACHZUDENKEN, in dem Moment beginnt man, zu PHILOSOPHIEREN. Man beginnt dann mit einer BEWUSSTWERDUNG: man tut etwas und zugleich wird einem bewusst, DASS man es tut. Damit beginnt Level 2.

6. Beginn man mit einer solchen bewussten Wahrnehmung des DASS, des Unterscheidbaren, des sich Ereignenden, dann wird man nicht umhin kommen, zu unterscheiden zwischen jenen Phänomenen, Ereignissen, Objekten, die ‚zwischen‘ verschiedenen Menschen – also ‚intersubjektiv‘, ‚empirisch‘, ‚objektiv‘ – verfügbar sind und jenen, die ‚rein subjektive‘ Tatbestände darstellen. Über den ‚Apfel dort auf dem Tisch‘ kann man sich mit anderen verständigen, über die eigenen Zahnschmerzen, die eigenen Gefühle, die eigenen Erinnerungen usw. nicht so ohne weiteres. Jeder kann bis zu einem gewissen Grad ‚IN SEIN BEWUSSTSEINS HINEINSCHAUEN‘ – ’subjektiv‘, ‚introspektiv‘,’phänomenologisch‘– und solche Phänomene wahrnehmen, die NICHT INTERSUBJEKTIV sind, sondern REIN SUBJEKTIV. Diese OJEKTE DER INNENWELT sind für das eigene Erleben genauso real wie die Objekte der Außenwelt, aber sie sind nicht zugleich auch von anderen Menschen wahrnehmbar. Diese bewusste Unterscheidung zwischen AUSSEN und INNEN innerhalb des Level 2 soll hier als Level 3 bezeichnet werden. Die Menge der Inhalte, die innerhalb von Level 2 und 3 bewusst wahrgenommen werden, sollen hier einfach PHÄNOMENE genannt werden mit der anfangshaften Unterscheidung von intersubjektiven Phänomenen auch als EMPIRISCHE PHÄNOMENE und rein subjektive Phänomene als NICHTEMPIRISCHE PHÄNOMENE

WELT NEU ERZÄHLEN

7. Mit dem Bewusstwerden von Level 2 und Level 3 kann eine neue Form von BESCHREIBUNG beginnen, die hier LEVEL 4 heißen soll. Dieser Level 4 stellt eine Art META-LEVEL dar; man spricht auf einem Meta-Level über einen anderen Level. Dies ist vergleichbar einem Linguisten, der die Eigenschaften einer Sprache (z.B. des Deutschen) in seiner Fachsprache beschreiben muss. So könnte es sein, dass ein Satz wie ‚Das Haus hat einen Eingang‘ auf der linguistischen Metaebene eine Beschreibung bekäme wie ‚(‚Das‘: Bestimmter Artikel)(‚Haus‘: Substantiv)(‚hat‘: Verb)(‚einen‘: unbestimmter Artikel)(‚Eingang‘: Substantiv)‘; diese Beschreibung könnte viele weitere Elemente enthalten.

8. Eine Meta-Beschreibung kann innerlich weiter strukturiert sein. Auf Level 4.0 BENENNT man nur, was man im DASS unterscheiden kann: Objekte, Eigenschaften, Beziehungen. Auf Level 4.1 kann man ABFOLGEN von benannten Phänomenen identifizieren, speziell solche, die REGELHAFT erscheinen. Aus der Gesamtheit von Benennungen und Abfolgen kann man auf Level 4.2 ein MODELL konstruieren, mittels dem eine Teilmenge von Phänomenen und deren Abfolgen FUNKTIONAL ERKLÄRT werden soll. Mit einer zusätzlichen LOGIK auf Level 4.3 kann man dann mit einem Modell FOLGERUNGEN konstruieren, die wie VORHERSAGEN benutzt werden können, die sich ÜBRPRÜFEN lassen.

9. Beschränkt man sich auf dem Level 4 auf die empirischen Phänomene, dann bilden die Level 4.0 – 4.3 das, was wir die EMPIRISCHEN WISSENSCHAFTEN nennen. Man benennt = beschreibt die Dinge dann in einer eigenen Fachsprache (Chemie, Psychologie, Physik, Linguistik, …); man definiert Messverfahren, wie man Eigenschaften reproduzierbar messen kann; und man benutzt die Mathematik und die formale Logik, um Modelle (THEORIEN) zu konstruieren.

10. Beschränkt man sich auf dem Level 4 hingegen auf die nicht-empirischen Phänomene, dann bilden die Level 4.0 – 4.3 das, was wir die SUBJEKTIVE WISSENSCHAFT nennen könnten. Auch hier würde man die Dinge mit einer eigenen Fachsprache benennen = beschreiben; man definiert Verfahren, wie man möglicherweise Eigenschaften reproduzierbar erzeugen kann; und man benutzt die Mathematik und die formale Logik, um Modelle (THEORIEN) zu konstruieren. Eine Verständigung über Theorien der subjektiven Wissenschaft wären aufgrund der subjektiven Wahrnehmungsbasen ungleich schwieriger als im Falle von empirischen Theorien, aber niht völlig augeschlossen.

KREATIVITÄT

11. Hat man das ‚automatische‘ Verhalten überwunden (so wie es alle tun, so wie man es gelernt hat), und ist sich stattdessen bewusst geworden, dass man so und so handelt, und hat man angefangen das Automatische bewusst zu rekonstruieren, dann kann man jetzt auch bewusst Alternativen durch Variationen erzeugen [Anmerkung: natürlich kann man auch ohne Reflexion ’spontan‘ Dinge anders tun, als man sie vorher getan hat, aber dies ist dann ‚überwiegend zufällig‘, während ein Kreativität in einem reflektierten Kontext sowohl ‚gerichtet‘ ist aufgrund des verfügbaren Wissens, zugleich aber auch ‚zufällig‘, jedoch in einem viel größeren Umfang; nicht nur ‚punktuell‘]. Man kann jetzt sehr bewusst fragen, ‚warum‘ muss ich dies so tun? Warum will ich dies so? Was sind die Voraussetzungen? Was sind die Motive? Was sind die Ziele? Was will man erreichen? Usw.

12. Ein Ergebnis dieser Infragestellungen kann sein, dass man bestimmte Abläufe ändert, einfach, um mal heraus zu finden, was passiert, wenn man es anders macht. Häufige Fälle: jemand hat nie Gedichte geschrieben, weil niemand ihn vorher dazu angeregt hat, Gedichte zu schreiben; oder jemand hat nie Musik gemacht, weil sie sich immer eingeredet hat, sie sei unmusikalisch. Jemand hat nie vor anderen Menschen geredet, weil er immer Angst hatte, sich zu blamieren. Usw. Kurzum bei Erreichen von Level 4 beginnt man zu ahnen, dass alles anders sein könnte, als man es bislang gewohnt war und praktiziert hatte. Nennen wir diese neu gewonnene kreative Freiheit den LEVEL 5.

Fortsetzung folgt

REDUKTIONISMUS, EMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 5

Vorheriger Beitrag Teil 4

Letzte Änderung (mit Erweiterungen): 12.April 2013, 06:26h

ALLGEMEINE EINSCHÄTZUNGEN ZU SEELE, GEIST UND WISSENSCHAFTEN

1. Im nächsten Kapitel ‚Mind‘ (etwa ‚Geist‘ (es gibt keine eindeutigen begrifflichen Zuordnungen in diesem Fall)) (SS.177-196) handelt Kauffman vom ‚Geist‘ des Menschen einschließlich dem besonderen Aspekt ‚(Selbst-)Bewusstsein‘ (‚consciousness‘) mit jenen Beschreibungsversuchen, die er für nicht zutreffend hält. Es folgt dann ein Kapitel ‚The Quantum Brain‘ (etwa ‚Das Quantengehirn‘) (SS.197-229), in dem er seine mögliche Interpretation vorstellt. Seine eigene Grundüberzeugung stellt er gleich an den Anfang, indem er sagt, dass der menschliche Geist (i) nicht ‚algorithmisch‘ sei im Sinne eines berechenbaren Ereignisses, sondern (ii) der Geist sei ‚Bedeutung und tue Organisches‘ (‚is a meaning and doing organic system‘). (iii) Wie der Geist Bedeutung erzeuge und sein Verhalten hervorbringe, das sei jenseits der aktuellen wissenschaftlichen Erklärungsmöglichkeiten.(vgl. S.177)
2. [Anmk: Seiner grundsätzlichen Einschätzung, dass eine vollständige wissenschaftliche Erklärung bislang nicht möglich sei (iii), kann ich nur zustimmen; wir haben mehr Fragen als Antworten. Die andere Aussage (ii), dass Geist ‚is a meaning and doing organic system‘, ist schwierig zu verstehen. Was soll es heißen, dass der Geist (‚mind‘) ‚doing organic system‘? Hier kann man nur raten. Ein sehr radikaler Interpretationsversuch wäre, zu sagen, dass der ‚Geist‘ etwas ist, was die Entstehung von organischen Systemen ermöglicht. Damit würde Geist fast schon zu einem ‚inneren Prinzip der Materie‘. Aus den bisherigen Ausführungen von Kauffmann gäbe es wenig Anhaltspunkte, das zu verstehen. Die andere Aussage (i), dass ‚Geist‘ (‚mind‘) ‚Bedeutung‘ sei, ist ebenfalls nicht so klar. Die Standardinterpretation von ‚Bedeutung‘ wird von der Semiotik geliefert. Innerhalb der Semiotik ist aber speziell der Begriff der Bedeutung, wie man sehr schnell sehen kann keinesfalls einfach oder klar. Ohne eine eigene Theorie verliert man sich in den historisch gewachsenen Verästelungen. Es gibt eine Vielzahl von Denkversuchen, die sich nicht auf einen gemeinsamen Denkrahmen zurückführen lassen. Die Geschichte der Ideen ist generell ein faszinierendes Phänomen ohne eine zwingende Logik. Die muss man sich selbst erarbeiten.]

ALGORITHMISIERUG VON GEIST

3. Auf den Seiten 178-182 zählt er einige wichtige Personen und Konzepte auf, die der Begriff ‚algorithmisch‘ in seiner historischen Entwicklung konnotiert. Da ist einmal Turing, der ein mathematisches Konzept von ‚Berechenbarkeit‘ gefunden hat, das bis heute die Grundlage für alle wichtigen Beweise bildet. Daneben von Neumann, der ’nebenher‘ eine Architektur für reale Computer erfunden hat, die als Von-Neumann-Architektur zum Ausgangspunkt der modernen programmierbaren Computers geworden ist. Ferner stellt er McCulloch vor und Pitts. McCulloch und Pitts gelten als jene, die als erstes eine erfolgreiche Formalisierung biologischer Nervenzellen durchgeführt haben und mit ihren McCulloch-Pitts Neuronen das Gebiet der künstlichen neuronalen Zellen begründeten. Das Besondere am frühen Konzept von McCulloch-Pitts war, dass sie nicht nur ein formales Modell von vernetzten künstlichen Neuronen definierten, sondern dass sie zusätzlich eine Abbildung dieser Neuronen in eine Menge formaler Aussagen in dem Sinne vornahmen, dass ein Neuron nicht nur eine Prozesseinheit war mit dem Zustand ‚1‘ oder ‚0‘, sondern man ein Neuron zugleich auch als eine Aussage interpretieren konnte, die ‚wahr‘ (‚1‘) sein konnte oder ‚falsch‘ (‚0‘). Damit entstand parallel zu den ‚rechnenden‘ Neuronen – in einer ’symbolischen‘ Dimension – eine Menge von interpretierten logischen Aussagen, die man mit logischen Mitteln bearbeiten konnte. Kauffman diskutiert den Zusammenhang zwischen diesen drei Konzepten nicht, stellt dann aber einen Zusammenhang her zwischen dem Formalisierungsansatz von McCulloch-Pitts und seinem eigenen Konzept eines ‚Boolschen Network Modells‘ (‚Boolean network model‘) aus Kapitel 8 her [hatte ich im Detail nicht beschrieben][Anmerkung: Vor einigen Jahren hatte ich mal versucht, die Formalisierungsansätze von McCulloch und Pitts zu rekonstruieren. Sie benutzen die Logik, die damals Carnap entwickelt hatte, erweitert um den Faktor Zeit. Mir ist keine konsistente Rekonstruktion gelungen, was nicht viel besagen muss. Möglicherweise war ich zu dumm, zu verstehen, was Sie genau wollen.]
4. Sowohl am Beispiel des ‚rechnenden Neurons‘ (was Kauffman und viele andere als ’subsymbolisch‘ bezeichnen) wie auch am Beispiel der interpretierten Aussagen (die von Kauffman als ’symbolisch‘ bezeichnete Variante) illustriert Kauffman, wie diese Modelle dazu benutzt werden können, um sie zusätzlich in einer dritten Version zu interpretieren, nämlich als ein Prozessmodell, das nicht nur ‚Energie‘ (‚1‘, ‚0‘) bzw. ‚wahr’/ ‚falsch‘ verarbeitet, sondern diese Zustände lassen sich abbilden auf ‚Eigenschaften des Bewusstseins‘, auf spezielle ‚Erlebnisse‘, die sich sowohl als ‚elementar’/ ‚atomar‘ interpretieren lassen wie auch als ‚komplex’/ ‚abstrahiert‘ auf der Basis elementarer Erlebnisse. (vgl. S.180f)
5. [Anmerkung: Diese von Kauffman eingeführten theoretischen Konzepte tangieren sehr viele methodische Probleme, von denen er kein einziges erwähnt. So muss man sehr klar unterscheiden zwischen dem mathematischen Konzept der Berechenbarkeit von Turing und dem Architekturkonzept von von Neumann. Während Turing ein allgemeines mathematisches (und letztlich sogar philosophisches!) Konzept von ‚endlich entscheidbaren Prozessen‘ vorstellt, das unabhängig ist von irgend einer konkreten Maschine, beschreibt von Neumann ein konkrete Architektur für eine ganze Klasse von konkreten Maschinen. Dass die Nachwelt Turings mathematisches Konzept ‚Turing Maschine‘ genannt hat erweckt den Eindruck, als ob die ‚Turing Maschine‘ eine ‚Maschine sei. Das aber ist sie gerade nicht. Das mathematische Konzept ‚Turing Maschine‘ enthält Elemente (wie z.B. ein beidseitig unendliches Band), was niemals eine konkrete Maschine sein kann. Demgegenüber ist die Von-Neumann-Architektur zu konkret, um als Konzept für die allgemeine Berechenbarkeit dienen zu können. Ferner, während ein Computer mit einer Von-Neumann-Architektur per Definition kein neuronales Netz ist, kann man aber ein neuronales Netz auf einem Von-Neumann-Computer simulieren. Außerdem kann man mit Hilfe des Turing-Maschinen Konzeptes untersuchen und feststellen, ob ein neuronales Netz effektiv entscheidbare Berechnungen durchführen kann oder nicht. Schließlich, was die unterschiedlichen ‚Interpretationen‘ von neuronalen Netzen angeht, sollte man sich klar machen, dass ein künstliches neuronales Netz zunächst mal eine formale Struktur KNN=[N,V,dyn] ist mit Mengen von Elementen N, die man Neuronen nennt, eine Menge von Verbindungen V zwischen diesen Elementen, und einer Übergangsfunktion dyn, die sagt, wie man von einem aktuellen Zustand des Netzes zum nächsten kommt. Diese Menge von Elementen ist als solche völlig ’neutral‘. Mit Hilfe von zusätzlichen ‚Abbildungen‘ (‚Interpretationen‘) kann man diesen Elementen und ihren Verbindungen und Veränderungen nun beliebige andere Werte zuweisen (Energie, Wahr/Falsch, Erlebnisse, usw.). Ob solche Interpretationen ’sinnvoll‘ sind, hängt vom jeweiligen Anwendungskontext ab. Wenn Kauffman solche möglichen Interpretationen aufzählt (ohne auf die methodischen Probleme hinzuweisen), dann sagt dies zunächst mal gar nichts.]

GEHIRN ALS PHYSIKALISCHER PROZESS

6. Es folgt dann ein kurzer Abschnitt (SS.182-184) in dem er einige Resultate der modernen Gehirnforschung zitiert und feststellt, dass nicht wenige Gehirnforscher dahin tendieren, das Gehirn als einen Prozess im Sinne der klassischen Physik zu sehen: Bestimmte neuronale Muster stehen entweder für Vorgänge in der Außenwelt oder stehen in Beziehung zu bewussten Erlebnissen. Das Bewusstsein hat in diesem Modell keinen ‚kausalen‘ Einfluss auf diese Maschinerie, wohl aber umgekehrt (z.B. ‚freier Wille‘ als Einbildung, nicht real).
7. [Anmk: Das Aufzählen dieser Positionen ohne kritische methodische Reflexion ihrer methodischen Voraussetzungen und Probleme erscheint mir wenig hilfreich. Die meisten Aussagen von Neurowissenschaftlern, die über die Beschreibung von neuronalen Prozessen im engeren Sinne hinausgehen sind – vorsichtig ausgedrückt – mindestens problematisch, bei näherer Betrachtung in der Regel unhaltbar. Eine tiefergreifende Diskussion mit Neurowissenschaftlern ist nach meiner Erfahrung allerdings in der Regel schwierig, da ihnen die methodischen Probleme fremd sind; es scheint hier ein starkes Reflexions- und Theoriedefizit zu geben. Dass Kauffman hier nicht konkreter auf eine kritische Lesart einsteigt, liegt möglicherweise auch daran, dass er in den späteren Abschnitten einen quantenphysikalischen Standpunkt einführt, der diese schlichten klassischen Modellvorstellungen von spezifischen Voraussetzungen überflüssig zu machen scheint.]

KOGNITIONSWISSENSCHAFTEN; GRENZEN DES ALGORITHMISCHEN

8. Es folgt dann ein Abschnitt (SS.184-191) über die kognitiven Wissenschaften (‚cognitive science‘). Er betrachtet jene Phase und jene Strömungen der kognitiven Wissenschaften, die mit der Modellvorstellung gearbeitet haben, dass man den menschlichen Geist wie einen Computer verstehen kann, der die unterschiedlichsten Probleme ‚algorithmisch‘, d.h. durch Abarbeitung eines bestimmten ‚Programms‘, löst. Dem stellt Kauffman nochmals die Unentscheidbarkeits- und Unvollständigkeitsergebnisse von Gödel gegenüber, die aufzeigen, dass alle interessanten Gebiete der Mathematik eben nicht algorithmisch entscheidbar sind. Anhand der beiden berühmten Mathematiker Riemann und Euler illustriert er, wie deren wichtigsten Neuerungen sich nicht aus dem bis dahin Bekanntem algorithmisch ableiten ließen, sondern auf ‚kreative Weise‘ etwas Neues gefunden haben. Er zitiert dann auch die Forschungen von Douglas Medin, der bei seinen Untersuchungen zur ‚Kategorienbildung‘ im menschlichen Denken auf sehr viele ungelöste Fragen gestoßen ist. Wahrscheinlichkeitstheoretische Ansätze zur Bildung von Clustern leiden an dem Problem, dass sie nicht beantworten können, was letztlich das Gruppierungskriterium (‚Ähnlichkeit‘, welche?) ist. Aufgrund dieser grundsätzlichen Schwierigkeit, ‚Neues‘, ‚Innovatives‘ vorweg zu spezifizieren, sieht Kauffman ein grundsätzliches Problem darin, den menschlichen Geist ausschließlich algorithmisch zu definieren, da Algorithmen – nach seiner Auffassung – klare Rahmenbedingungen voraussetzen. Aufgrund der zuvor geschilderten Schwierigkeiten, solche zu bestimmten, sieht er diese nicht gegeben und folgert daraus, dass die Annahme eines ‚algorithmischen Geistes‘ unzulänglich ist.
9. [Anmk: Die Argumente am Beispiel von Goedel, Riemann, Euler, und Medin – er erwähnte auch noch Wittgenstein mit den Sprachspielen – würde ich auch benutzen. Die Frage ist aber, ob die Argumente tatsächlich ausreichen, um einen ‚algorithmischen Geist‘ völlig auszuschliessen. Zunächst einmal muss man sich klar machen, dass es ja bislang überhaupt keine ‚Theorie des Geistes an sich‘ gibt, da ein Begriff wie ‚Geist‘ zwar seit mehr als 2500 Jahren — betrachtet man nur mal den europäischen Kulturkreis; es gibt ja noch viel mehr! — benutzt wird, aber eben bis heute außer einer Unzahl von unterschiedlichen Verwendungskontexten keine einheitlich akzeptierte Bedeutung hervorgebracht hat. Dies hat u.a. damit zu tun, dass ‚Geist‘ ja nicht als ‚direktes Objekt‘ vorkommt sondern nur vermittelt in den ‚Handlungen‘ und den ‚Erlebnissen‘ der Menschen in unzähligen Situationen. Was ‚wirklich‘ mit ‚Geist‘ gemeint ist weiß insofern niemand, und falls doch, würde es allen anderen nichts nützen. Es gibt also immer nur partielle ‚Deutungsprojekte‘ von denen die kognitive Psychologie mit dem Paradigma vom ‚Geist‘ als ‚Computerprogramm‘ eines unter vielen ist. Hier müsste man dann nochmals klar unterscheiden, ob die psychologischen Modelle explizit einen Zusammenhang mit einer zugrunde liegenden neuronalen Maschinerie herstellen oder nicht. Versteht man die wissenschaftliche Psychologie als ein ‚empirisches‘ Deutungsprojekt, dann muss man annehmen, dass sie solch einen Zusammenhang explizit annimmt. Damit wäre ein algorithmisches Verhalten aus der zugrunde liegenden neuronalen Maschinerie herzuleiten. Da man nachweisen kann, dass ein neuronales Netz mindestens so rechenstark wie eine Turingmaschine ist, folgt daraus, dass ein neuronales Netzwerk nicht in allen Fällen algorithmisch entscheidbar ist (Turing, 1936, Halteproblem). Dies bedeutet, dass selbst dann, wenn der menschliche Geist ‚algorithmisch‘ wäre, daraus nicht folgt, dass er alles und jedes berechnen könnte. Andererseits, wie wir später sehen werden, muss man die Frage des Gehirns und des ‚Geistes‘ vermutlich sowieso in einem ganz anderen Rahmen bedenken als dies in den Neurowissenschaften und den Kognitionswissenschaften bislang getan wird.]

GEIST OPERIERT MIT ‚BEDEUTUNG‘

10. Es folgen (SS.192-196) Überlegungen zur Tatsache, dass der ‚Geist‘ (‚mind‘) mit ‚Bedeutung‘ (‚meaning‘) arbeitet. Welche Zeichen und formale Strukturen wir auch immer benutzen, wir benutzen sie normalerweise nicht einfach ’nur als Zeichenmaterial‘, nicht nur rein ’syntaktisch‘, sondern in der Regel im Kontext ‚mit Bezug auf etwas anderes‘, das dann die ‚Bedeutung‘ für das benutzte Zeichenmaterial ausmacht. Kauffman bemerkt ausdrücklich, dass Shannon in seiner Informationstheorie explizit den Aspekt der Bedeutung ausgeschlossen hatte. Er betrachtete nur statistische Eigenschaften des Zeichenmaterials. Ob ein Zeichenereignis eine Bedeutung hat bzw. welche, das muss der jeweilige ‚Empfänger‘ klären. Damit aber Zeichenmaterial mit einer möglichen Bedeutung ‚verknüpft‘ werden kann, bedarf es eines ‚Mechanismus‘, der beides zusammenbringt. Für Kauffman ist dies die Eigenschaft der ‚Agentenschaft‘ (‚agency‘). Wie der menschliche Geist letztlich beständig solche neuen Bedeutungen erschafft, ist nach Kauffman bislang unklar.
11. Es folgen noch zwei Seiten Überlegungen zur Schwierigkeit, die nichtlineare Relativitätstheorie und die lineare Quantentheorie in einer einzigen Theorie zu vereinen. Es ist aber nicht ganz klar, in welchem Zusammenhang diese Überlegungen zur vorausgehenden Diskussion zum Phänomen der Bedeutung stehen.

Fortsezung mit Teil 6.

Ein Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER