REDAKTIONELLES – NEUE AUTOREN – THEMENFELDER – KRITERIEN

NEUER AUTOR

1. Aus Anlass eines neuen Autors, der sich aus eigener Initiative in den Diskurs in diesem Blog eingebracht hat, hier einige Bemerkungen, wie sich der Blog aus redaktioneller Hinsicht sieht.

BLICKRICHTUNG DES BLOGS

2. Die Blickrichtung des Blogs ist die der Philosophie auf das Spannungsfeld zwischen dem homo sapiens und der vom Menschen initiierten Kultur und Technik, speziell der Technologie der intelligenten Maschinen. Welche Zukunft hat der homo sapiens auf der Erde, im bekannten Universum, und speziell im Wechselspiel mit den intelligenten Maschinen? Wie müssen wir, die wir Exemplare der Lebensform homo sapiens sind, uns selbst sehen? Welche Bilder beschreiben uns angemessen, welche nicht?

EMPIRISCHE ERKENNTNISQUELLEN

3. Antworten auf diese Fragen bieten nahezu alle wissenschaftlichen Disziplinen, die es zur Zeit gibt. Allerdings ist eine wissenschaftliche Disziplin – wenn sie sich denn wirklich als empirische Wissenschaft versteht – rein methodisch an eine eingeschränkte Sicht auf die Wirklichkeit unter Anwendung ganz bestimmter Methoden gebunden. Dies hat viele Vorteile, aber auch Nachteile. Die Nachteile bestehen darin, dass die erfahrbare Welt als solche eine Einheit bildet, die in sich unfassbar verwoben ist. Die einzelnen Disziplinen können aber nur Fragmente liefern. Dies reicht heute immer weniger. Mit dem immer weiteren Voranschreiten der einzelnen Disziplinen brauchen wir immer dringender auch Blicke auf Zusammenhänge.

INTERDISZIPLINARITÄT IST EIN FAKE

4. Hier gibt es das Zauberwort von der Interdisziplinarität: verschiedene Disziplinen arbeiten gemeinsam an einer Problemstellung. Aus der Nähe betrachtet ist dies aber nur eine Scheinlösung. Wenn Vertreter aus mehreren Einzeldisziplinen A, B, C aufeinandertreffen, entsteht nicht automatisch eine integrierte Sicht V(A,B,C), in der von einem höheren Reflexionsniveau auf diese Einzeldisziplinen geschaut wird. In der Praxis gibt es erst einmal drei Sichten A, B, C, jeder redet auf den anderen ein und hofft, der andere versteht, was man sagt. Das funktioniert aber im Normalfall nicht. Es gibt viel Verwirrung und Frustration und man ist froh, wenn man wieder für sich alleine weiter arbeiten kann. Wenn es dann doch irgendwo leidlich funktioniert, dann nur deswegen, weil die Beteiligten über besonders gute empathische Fähigkeiten verfügen, sich besonders viel Zeit nehmen, die anderen Positionen zu verstehen, und wenigstens eine(r) dabei ist, der irgendwie übergeordnete Gesichtspunkte formulieren kann, ad hoc.

NORMIERTE VORGEHENSMODELLE

5. In der Industrie funktioniert dies nur dann, wenn sich alle auf ein gemeinsames Vorgehensmodell geeinigt haben, das auf allen Ebenen Vorgehensweisen und Ausdrucksmittel normiert hat. Diese Vorgehensmodelle (z.B. in der Art des Systems Engineerings im englischsprachigen Raum) funktionieren aber nur, wenn es Menschen gibt, die 20 – 30 Jahre Berufserfahrung haben, um die Methoden und Begrifflichkeiten zu verstehen, und selbst dann ist das gemeinsame Verständnis sehr fragil: die Verrechnung der komplexen Wirklichkeit in begrifflich normierte Modelle kann aus verschiedenen Gründen nicht funktionieren. Aber die Industrie hat hier in der Regel keine Wahl: sie muss liefern und kann sich nicht auf philosophische Dispute einlassen.

ALTERNATIVE BLOG

6. In diesem Blog ist das anders: der Blog muss nicht liefern. Wir leisten uns hier den Luxus, Fragen als Fragen zuzulassen, und wir erlauben uns, eine Suche zu starten, wenn gesucht werden muss. Die Erfahrung des Scheiterns ist mindestens so wertvoll wie scheinbare Lösungen. Hier muss keine herrschende Meinung bedient werden.
7. Hier geht es nicht um dumpfe Interdisziplinarität, sondern um eine offene philosophische Reflexion auf die Unterschiede der einzelnen Disziplinen und die Frage, wie man die verschiedenen Sichten zusammen bringen könnte. Zeitschriften für einzelwissenschaftliche Höchstleistungen gibt es genug. Hier geht es um die Reflexion auf die einzelwissenschaftliche Leistung und die Frage, wie stehen z.B. biologische, psychologische und soziologische Ergebnisse in einem Zusammenhang? Wie soll man den homo sapiens verstehen, der molekularbiologisch aus kleinen chemischen Maschinen, den Zellen besteht, die sich aber aus Molekülen erst entwickeln mussten, und dann eine wahnwitzige Entwicklungsgeschichte von 3.8 Mrd Jahren bis zu einer Lebensform, die u.a. über die Fähigkeit verfügt, Zeit wahrnehmen zu können, abstrakte Strukturen denken kann, das sich mittels banaler physikalischer Ereignisse (Schall) koordinieren kann, Kultur hervorbringt, Technik? Wie soll man die Fähigkeit des Denkens beschreiben, die neuronale Korrelate zu haben scheint, zugleich aber nur introspektiv direkt erfahrbar ist? Usw.

EUROPÄISCHES SCHISMA

8. Leider gab es in der Kulturgeschichte Europas eine folgenschwere Trennung der Art, dass sich die neu aufkommenden empirischen Wissenschaften in hunderten von Jahren von der Philosophie getrennt haben und auch umgekehrt, die Philosophie diese Trennung mit kultiviert hat, anstatt in den aufkommenden empirischen Wissenschaften die großartige Chance zu sehen, die ihre oft faktenleeren aber methodisch umfassenden Reflexionen unter Einbeziehung der empirischen Wissenschaften anzureichern. Leider gehört es bei vielen sogenannten Philosophen immer noch zum guten Ton, auf die empirischen Disziplinen als geistloses Treiben herab zu schauen; dabei übersehen die Philosophen, dass es genau ihr Job wäre, die fantastischen Ergebnisse der Einzeldisziplinen aufzugreifen, ‚beim Wort zu nehmen‘, und sie in leistungsfähige begriffliche Systeme einzuordnen, die in der Lage wären, diese Vielfalt in einer begründeten Einheit zum Leuchten zu bringen.
9. Die sogenannte Interdisziplinarität ist vor diesem Hintergrund ein andauerndes Ärgernis: es wird so getan, als ob das Zusammensperren von verschiedenen Experten in einen Raum automatisch eine begründete Zusammenschau liefern würde. Eine Unzahl von Forschungsprojekten mit EU-Geldern, in denen Interdisziplinarität erzwungen wird ohne dass man den methodischen und diskursiven Raum mit liefert, ohne dass die Beteiligten eine entsprechende Ausbildung haben, kann davon milliardenschwer künden.

ANDERE UNIVERSITÄTEN

10. Was wir bräuchten wären Universitäten, in denen jeder Studierende einer Einzelwissenschaft grundsätzlich auch lernt, wie man im Rahmen einer Wissenschaftsphilosophie das Vorgehen und das Reden einzelner Disziplinen in einen denkerisch begründeten Zusammenhang einordnen und bewerten kann. Dies würde voraussetzen, dass es Professoren gibt, die über diese Fähigkeiten verfügen und über Lehrpläne, in denen dies vorgesehen ist. Beides gibt es nicht. Der normale Professor an deutschen Universitäten hat von wissenschaftsphilosophischen Konzepten noch nie etwas gehört und aufgrund eines sehr eingeschränkten Effiziensdenkens (und einer leider immer schlimmer werden Konkurrenz um finanzielle Mittel) im universitären Bereich sind solche Lernprozesse nicht vorgesehen. Es ist auch nicht absehbar, dass sich dies in den nächsten 10-20 Jahren grundlegend ändern würde. Dazu müsste es Professoren geben, die das selbst lernen, aber wer soll sie ausbilden?

DER BLOG

11. Dieser Blog steht angesichts der allgemeinen universitären Situation mit seinem Anliegen daher eher alleine dar. Autoren, die einzelwissenschaftliche Erkenntnisse (z.B. in der eigenen Disziplin) in einem größeren Zusammenhang reflektieren, sind wunderbare Ausnahmen. Solche Autoren sind hier willkommen.
12. Mit dem Autor hardbern hat ein weiterer Autor den Mut, den dringend notwendigen Diskurs über den homo sapiens und seine Zukunft auf zu nehmen. Es wäre schön, wenn es weitere solche Autoren geben würde. Natürlich wird sich damit auch der Diskurs außerhalb des Blogs in Form von direkten Gesprächen, Vortragsdiskussionen, Workshops und ähnlichen weiter ausbilden.
13. Der Initiator dieses Blogs, cagent, ist seit 1.April 2017 emeritiert. Dies bietet die Möglichkeit, den Blog nicht nur neben einem vollen Arbeitsprogramm zu betreiben, sondern sich den Inhalten und potentiellen Autoren intensiver zu widmen. Z.B. denkt er darüber nach, künftig gezielt verschiedene ausgewiesene Experten zu den Fragen des Blogs direkt anzusprechen. Philosopisch-wissenschaftliches Denken lebt von der den Menschen eigenen Neugierde, zu verstehen, weil man verstehen will. Es geht nicht um Geld oder Ehre, es geht wirklich um die wahren Bilder der Welt, nicht als einzelwissenschaftliche Splitter, sondern als durch Denken vermittelter Zusammenhang von allem. Wenn das Wissen stirbt, versinken wir im Dunkel.

PHILOSOPHIEWERKSTATT JETZT ALS PHILOSOPHISCHES LABOR FÜR PHILOSOPHISCHE SELBSTVERSUCHE – Version 3.0. Eine Vorausschau

KONTEXT

Leser dieses Blogs sind vertraut mit dem philosophischen Experiment der Philosophiewerkstatt (Version 1.0), wie sie im Herbst 2013 im Cafe-Bistro Confetti in Schöneck startete.  Dies waren erste Gehversuche. Es gab noch kein festes Format.

Ab Herbst 2014 gab es die Philosophiewerkstatt Version 2.0 in Kooperation mit der DENKBAR in Frankfurt. In dieser Zeit entwickelte sich eine kreative Form des gemeinsamen Gedankenaustausches, die sich stabilisierte.

Ab Herbst 2016 wird es die Philosophiewerkstatt in einer Neuauflage geben, in Version 3.0, Ortsveränderung inbegriffen: das Institut für Neue Medien in Frankfurt. Dies ist kein Abschied von der DENKBAR, die zwei Jahre lang eine belebende Umgebung für die sonntäglichen Treffen war, sondern es ist eine Kooperation von DENKBAR und INM in einer veränderten Umgebung, mit einem veränderten Konzept.

Worin besteht das Neue?

ORTLOS ZWISCHEN FÜHLEN UND DENKEN

Wer sich ein wenig in der Geschichte der Philosophie auskennt, der weiß, dass das Hauptanliegen der Philosophie eher die Klärung der Welt mit Hilfe des Denkens war. In der Verfertigung des Gedankens, im Reden, Schreiben, im Dialog da entsteht Wirklichkeit neu, als Gedachte, und im Denken als Geklärte, Bereinigte, Strukturierte, eingehüllt in Worte, in Symbole.

Die neuzeitliche Wissenschaft hat die Abkopplung des Fühlens vom Denken weiter beeinflusst; Wissenschaft wurde hier im Raum von Messwerten und mathematischen Formeln verortet; das Fühlen hat hier keine offizielle Rolle mehr und sogar das Subjekt der wissenschaftlichen Tätigkeit, der Forscher selbst, spielt keine Rolle mehr. Er wurde systematisch ausgeblendet.

Diese Ausklammerung von Fühlen und Subjekt aus dem offiziellen Denken führt mittlerweile zu sehr vielen Problemen, fundamentalen Problemen.

Im Bereich der Wissenschaft ist es der Verlust des Menschen. In vielen Bereichen – wie z.B. der Physik – kommt der Mensch als Mensch per se gar nicht mehr vor; in anderen – wie Biologie, Medizin, Gehirnwissenschaften, usw. – kommt der Mensch als Untersuchungsobjekt zwar vor, aber er zerfällt hier in unzählige Details, wird zu einem Ort bloßer chemischer Prozesse. Mögliche Zusammenhänge gehen weitgehend verloren. Die Frage, wer der Mensch denn überhaupt ist, hat in den Wissenschaften keine wirkliche Stelle mehr; sie ist unter die Räder gekommen.

Für einen einzelnen Menschen, der sich ernst nehmen will, bedeutet dies eine zunehmende Ortlosigkeit: eingebettet zwischen einem Fühlen, das diskreditiert ist, und einem Denken, das mit dem Menschen nichts anfangen kann. Hat der Mensch überhaupt noch eine Zukunft?

DAS DENKEN WOHNT IM FÜHLEN

Aus philosophischer Sicht ist klar, dass die begrifflichen Netze, mit denen empirische Wissenschaftler arbeiten, nur scheinbar vom Subjekt losgelöst sind. Denn die Theorie selbst wie auch die Messwerte brauchen die Rückkopplung an das Gehirn, an eine bestimmte Form von Bewusstsein. Ohne Bewusstsein und Gehirn gibt es weder Messwerte noch Begriffsnetzwerke. Es ist das Bewusstsein im Gehirn und im Körper als Teil eines komplexen biologischen Netzwerkes, in beständiger Interaktion mit der umgebenden Materie, welches der Ort von Fühlen und Denken ist. Es ist für uns Menschen der EINZIGE Ort, über den wir Kontakt zu dem haben, was wir Wirklichkeit nennen.

Wirklichkeit ist das erste Vorfindliche, ein Ur-begriff, an dem alle anderen Begriffe partizipieren. Was immer irgendeine wissenschaftliche Disziplin zu beschreiben versucht, sie setzt einen Ur-begriff von Wirklichkeit voraus, der durch die Einbettung in den Körper gegeben ist. Ohne den Körper ist jede Wissenschaft (und jedes Denken) nichts, echtes Nichts, das ganz und gar Undenkbare. Andererseits definiert sich eine wissenschaftliche Disziplin methodisch über eine Einschränkung und Abgrenzung. Die empirische Methode erzwingt eine Zerlegung des Phänomenraums in jene Teilräume, die intersubjektiv empirisch sind, und innerhalb dieser grundsätzlichen Einschränkung finden in der Regel weitere Abgrenzungen statt (Physik, Chemie, Biologie, (empirische) Soziologie, …).

Das Besondere des Menschen ist gerade diese Art seiner Welterfahrung, ermöglicht durch die Besonderheit seines Körpers: Makrostrukturen von Mikrostrukturen, die bis in den subatomaren Bereich – und damit unbegrenzt – hinein reichen und wechselwirken, beständig [Vorstellungshilfe: allein das menschliche Gehirn hat etwa 290 Mrd Zellen (etwa 30% Neuronen, 58% Astrozyten und etwa 12% Gliazellen). Das entspricht der Anzahl von Sternen in einer ganzen Galaxie. Der ganze menschliche Körper soll ca. 36 Billionen (10^12) Zellen haben (ohne die vielen Mrd zusätzliche Bakterien in und auf ihm), das wären dann in Entsprechung etwa 120 Galaxien. Bedenkt man noch die Komplexität der Wechselwirkung zwischen den Zellen des Körpers, dann übersteigt die Komplexität eines einzelnen menschlichen Körpers jene von 120 Galaxien um ein Mehrfaches, nur ein Körper!]. Diese Welterfahrung setzte einen Entwicklungsprozess von ca. 13.8 Mrd Jahre voraus. Unser Verständnis dieser Vorgänge ist noch ganz am Anfang (und es ist eine offene Frage, ob wir diese Komplexität wohl jemals ‚begreifen‘ können, wenn man bedenkt, dass das menschliche Arbeitsgedächtnis (auch bei Physikern) nicht mehr als ca. 7 +/- 2 Einheiten gleichzeitig verarbeiten kann).

Wenn man also als Philosoph die vorfindliche Wirklichkeit ernst nehmen will, dann darf man die eigene Körpererfahrung nicht von vornherein ausblenden, man muss sie akzeptieren, man muss sie zulassen, sie anschauen, und versuchen, daraus zu lernen, was es zu lernen gibt. Das Fühlen (im weitesten Sinne) ist ein Grundbestandteil philosophischer Weltwahrnehmung. Ob und was ein nachfolgendes Reflektieren mit solch einem Fühlen anfangen kann, das kann man vorab nicht abschätzen. Jedes Denken ist immer speziell, begrenzt, abgrenzend, ausgrenzend; das ist seine Art, seine Stärke wie zugleich seine Schwäche. Denken lebt vom Prozess, von der Wiederholung, vom unermüdlichen immer wieder neu ansetzen und neu sortieren. Denken hat kein absolutes Ende, nicht zuletzt auch deswegen nicht, weil es sich ja selbst zum Gegenstand machen kann; dies ist wichtig und gefährlich zugleich (die moderne Physik bietet das Schauspiel eines Denkens, das sich soweit von der Realität entfernt hat, dass im Einzelfall oft nicht mehr klar ist, ob hier eine wirklichkeitsrelevante Modellbildung vorliegt oder ein Artefakt des Modells, ein Denken des Denkens).

Es fragt sich dann, was hier ‚Fühlen‘ heißt und wie philosophisches Denken mit dem Fühlen umgehen kann?

WELCHES FÜHLEN UND WIE DAMIT UMGEHEN?

Für einen Philosophen kann es nur um das GANZE Fühlen gehen, d.h. alles, was ein Denken vorfinden kann. Und da dieses Fühlen an unseren Körper gebunden ist, geht es darum, was ein Körper in unterschiedlichsten Situationen fühlen kann und wie man solch ein stattfindendes Fühlen dann beschreiben kann, nicht nur punktuell, sondern auch in seiner prozesshaften Erstreckung in dem, was wir Zeit nennen.

In einer Philosophiewerkstatt wird man hier solche Prozesse kaum vorweg nehmen können. Man kann aber versuchen, die Grundeinstellung zu praktizieren, den Einstieg in das Fühlen üben, das dann Denken nachträglich zulässt.

Die Grundform des philosophischen Fühlens ist das bewusste Dasein ohne ein fokussiertes Denken. Es lassen sich zwar tausendfache Variationen denken, wie man dies tut (man denke nur an die Vielzahl von sogenannten Meditationsformen), aber das für eine bestimmte Zeitspanne einfach bewusste Dasein ohne irgend etwas anderes zu tun bzw. tun zu müssen, mit einem Denken in Ruhestellung, das ist die Grundübung. Und weil unser Körper mit seinen 120 Galaxien an Zellen samt seinen unendlich vielen Wechselwirkungen mit sich selbst und seiner Umgebung kein natürlicher Ruhepol ist, sondern ein permanenter Aufschrei an Bewegtheit, braucht es eine gewisse Zeit, bis sich überhaupt Ruhe einstellt und statt den marktschreierischen primären Wahrnehmungen auch solche Ereignisse bemerkbar machen können, die mit weniger Energie daher kommen. Jeder einzelne wird SEIN Fühlen haben, seine speziellen Wahrnehmungen (natürlich auch Gemeinsamkeiten mit anderen, weil unsere Körper strukturell ähnlich sind).

Es kann interessant sein, sich im Anschluss über sein Fühlen auszutauschen; auf jeden Fall kann es helfen, sich im Anschluss Notizen zu machen, sein Denken wieder mehr zulassen, Eindrücke zu sortieren.

FORMAT DER PHILOSOPHISCHEN SELBSTVERSUCHE

Für die Philosophiewerkstatt Version 3.0 ist folgendes Schema angedacht:

Bis 15:00h ANKOMMEN (Über die Einladung gibt es auch eine Fragestellung)

15:00 – 15:15h MIT DEM ORT VERTRAUT WERDEN

15:15 – 15:35h ZEIT ZUM INDIVIDUELLEN FÜHLEN

15:35 – 15:45h ASSOZIATIONEN INDIVIDUELL NOTIEREN

15:45 – 16:05h KOMMUNIKATION VON BEOBACHTUNGEN

16:05 – 16:20h BEWEGUNG, TEE TRINKEN, REDEN

16:20 – 17:05h GEMEINSAME REFLEXION MIT GEDANKENBILD

17:05 – 17:20h BEWEGUNG, TEE TRINKEN, REDEN

17:20 – 17:40h GEWICHTEN DES GEDANKENBILDES

17:20 – 18:00h AUSBLICK

Ab 18:00h VERABSCHIEDUNG VOM ORT

Stunden, Tage danach: ABSTAND NEHMEN, NACHSINNEN

Irgendwann: BERICHT(e) ZUM TREFFEN, EINZELN, IM BLOG

Irgendwann: KOMMENTARE ZU(M) BERICHT(en), EINZELN, IM BLOG

TERMINE

Um sich im Fühlen und Denken zu koordinieren, hier die geplanten Termine (vom INM bestätigt):

23.Okt 16

27.Nov 16

22.Jan 17

26.Febr.17 (Wegen Krankheit ausgefallen)

26.März 17 (Wegen Krankheit ausgefallen)

Einen Überblick über alle Einträge zur Philosophiewewrkstatt nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs finden sich HIER.

WO IST DER STANDPUNKT VON JEDEM EINZELNEN? Eine Notiz

ANGEREGT VON

  1. Angeregt von dem Buch von Matt Ridley Ehe Evolution of Everything. How small Changes Transform our World (2015) ergaben sich viele interessante Fragen. Eine ausführlichere Diskussion des Buches wird im Blog noch erfolgen. Vorab aber erste Impressionen zu der speziellen Frage, die sich mir stellte, ob sich für jeden Menschen skizzieren lässt, was eigentlich der individuelle Ausgangspunkt für den gesamten Weltbezug ist (eine Abstimmung dieser Überlegungen mit den vielen vorausgehenden Beiträgen im Blog könnte zusätzlich hilfreich sein).

ALLGEMEINE BEDEINGUNGEN FÜR LEBEN

Verhältnis der Zeitdauer zwischen Alter des Universums (physikalische Natur) mit ca. 13.8 Mrd. Jahren, dem Auftreten biologschen Lebens seit ca. 3.8 Mrd, dem Auftreten von menschlichen Gesellschaften (homo sapiens sapiens) mit ca. 200.000 Jahren sowie der Lebenszeit eines einzelnen Menschen (hier optimistisch auf 100 Jahre gesetzt)

Verhältnis der Zeitdauer zwischen Alter des Universums (physikalische Natur) mit ca. 13.8 Mrd. Jahren, dem Auftreten biologschen Lebens seit ca. 3.8 Mrd, dem Auftreten von menschlichen Gesellschaften (homo sapiens sapiens) mit ca. 200.000 Jahren sowie der Lebenszeit eines einzelnen Menschen (hier optimistisch auf 100 Jahre gesetzt)

  1. Im Lichte des verfügbaren empirischen Wissens könnte man versucht sein, vier Dimensionen aufzuspannen:
  2. Den allgemeinsten Rahmen gibt die Naturgeschichte des Universums mit ca. 13.8 Mrd Jahren bislang, durch die die allgemeinsten Rahmenbedingungen festgelegt werden. Ohne diese zu verstehen kann man eigentlich gar nichts verstehen (Übergang von Energie in den Zustand von Materie mit Bewegung und Raum, Bildung von Atomen, Molekülen im Kontext von Gas- und Sonnenbildungen, Galaxien, usw.).
  3. Innerhalb dieses Rahmens haben sich seit ca. 3.8 Mrd Jahren biologische Strukturen herausgebildet, die unter Beachtung der allgemeinen physikalischen Gesetze eine Eigendynamik entwickelt haben, die sich deutlich von den allgemeinen physikalischen Gesetzen abheben.
  4. Sehr spät – also ca. ab 200.000 Jahren vor unserer Zeit – kann man innerhalb der biologischen Strukturen ein Phänomen beobachten, das mit Populationen des homo sapiens sapiens nur sehr unzulänglich beschrieben ist. Populationen des homo sapiens sapiens (hier abgekürzt hss-Populationen) zeigen eine Dynamik, die sich von der allgemein biologischen Dynamik nochmals deutlich abhebt.
  5. Dies neue Art von hss-Dynamik wird initiiert von jedem einzelnen Mitglied einer hss-Population, also von jedem einzelnen Exemplar eines homo sapiens sapiens; diese hss-Exemplare sollen hier Menschen genannt werden.
  6. Jeder einzelne Mensch (kurz für hss-Exemplar) zeigt spezifische Dynamiken im Vergleich zu allen anderen biologischen Individuen, setzt aber alle allgemeinen biologischen und physikalischen Gesetze voraus. Ohne diese kann man ihn nicht verstehen. Zusätzlich zeigt der Mensch aber besondere Dynamiken, die im Wechselspiel mit anderen Menschen im Rahmen von jeweiligen Gesellschaftssystemen zu immer wieder neuen Konstellationen führen können.
  7. Soweit eine erste Sichtweise aus der Sicht der empirischen Wissenschaften. Bei dieser Sichtweise wird vorausgesetzt, dass es eine Menge von wissenschaftlichen Beobachtern OBS gibt, die alle in gleicher Weise diese empirischen Phänomene sehen und beurteilen können.

EMPIRISCHER BEOBACHTER UNVOLLSTÄNDIG

  1. Wie wir aber heute wissen (können) (Anmerkung: siehe z.B. die 9 Blogeinträge HIER; es gab dazu noch viele weitere Blogeinträge), ist der von den empirischen Wissenschaften unterstellte homogene Beobachter eine starke Idealisierung. Diese Idealisierung ermöglicht zwar die Erklärung vieler Begriffe im Kontext der empirischen Wissenschaften, verdeckt aber die ganze komplexe Maschinerie, die notwendig ist, dass der idealisierte empirische Beobachter überhaupt funktionieren kann.
  2. Bezieht man diese komplexe Maschinerie ein, dann betritt man das aufregende unbekannte Land der aktuellen Forschungen, in denen von der einen Seite aus die empirischen Wissenschaften versuchen, das faszinierende Phänomen des Menschen mit empirischen Mitteln aufzuhellen, auf der anderen Seit die sogenannten Geisteswissenschaften, mit zusätzlichen, nicht-empirischen Methoden. Leider herrscht in diesem Forschungsgebiet des Phänomens Mensch eine große Unübersichtlichkeit, wechselseitig viel Unverständnis und unnötige Verteufelungen, natürlich auch schlichte Abgrenzungskämpfe um selbst möglich viel von den knappen Forschungsgeldern zu bekommen. Das interessanteste Phänomen des bekannten Universums, der Mensch, wird also vielfach zerrieben zwischen den Kämpfen der beteiligten Disziplinen.
  3. Ein beliebter Konfliktpunkt im Wechselspiel der vielen beteiligten Disziplinen ist die grobe Unterscheidung zwischen dem empirischen Standpunkt des Beobachters aus der sogenannten 3.Person-Perspektive und und dem subjektiven, introspektiven Standpunkt des Beobachters (als Selbstbeobachter) aus der sogenannten 1.Person-Perspektive.
  4. Die Kritik der empirischen Disziplinen an Untersuchungen im introspektiven Modus ist natürlich berechtigt, da introspektive Untersuchungen sich interaktiv nur sehr schwer (bis gar nicht) zweifelsfrei kommunizieren und überprüfen lassen.
  5. Auf der anderen Seite kulminiert das Besondere des Phänomens Mensch gerade in der Fähigkeit, auf der Basis seines Körpers mit dem Gehirn eine Art Innensicht des Systems genannt Bewusstsein auszubilden, das den Menschen in die Lage versetzt, genau diese Besonderheit an Dynamik zu entwickeln, die Populationen von Menschen deutlich abhebt von anderen biologischen Populationen. Außerdem besteht zwischen der 3.Person-Perspektive und der 1.Person-Perspektive kein absoluter Gegensatz. Die sogenannte 3.Person-Perspektive ist genuiner Teil des Bewusstseins, also der 1.Person-Perspektive. Mathematisch kann man davon sprechen, dass die Perspektive des empirischen Beobachters eine echte Teilmenge der Perspektive der 1.Person ist. Zum vollen Verständnis des empirischen Beobachters muss man letztlich sogar von dieser Teilmengeneigenschaft Gebrauch machen, sonst kann man das Funktionieren des empirischen Beobachters gar nicht erklären.
  6. Dieses spezifische Abhängigkeitsverhältnis des empirischen Beobachters von dem introspektiven Beobachter wurde bislang in den Wissenschaften kaum (oder gar nicht?) tiefer gehender diskutiert und untersucht. Man belässt es gerne bei der Abgrenzung.

SPEZIFISCHE DYNAMIK DES BIOLOGISCHEN

  1. Kommen wir nochmals zurück zur Behauptung, dass sich die biologischen Strukturen von den allgemeinen physikalischen Strukturen durch eine spezifische Dynamik auszeichnen und innerhalb der biologischen Strukturen sich die menschliche Population auch nochmals durch eine spezifische Dynamik auszeichnet. Viele (die meisten?) Wissenschaftler würden solche Feststellungen eher ablehnen. Die Grundtendenz ist (nachvollziehbar und bis zu einem gewissen Grad angemessen), die Vielfalt der Phänomene auf möglichst wenig Grundprinzipien zurück zu führen. Das ist das Erfolgsprinzip der empirischen Wissenschaften bis heute. Allerdings zeigt die Geschichte der Wissenschaften, dass gerade aufgrund dieses Prinzips nicht alles zu einem Einheitsbrei zusammen gedampft wurde, sondern dass gerade im Versuch der Vereinfachung sich auch Besonderheiten gezeigt haben. Die Vielfalt der heute bekannten Materieteilchen (subatomar, atomar, molekular…) kann man zwar auf allgemeine Prinzipien zurückführen, die schließlich alle im Superbegriff der Energie versinken, aber die Vielfalt der Phänomene im Universum allgemein wie speziell auch auf der Erde mit den biologischen Strukturen kann man nicht erklären, indem man im abstraktesten Allgemeinen verweilt.
  2. Ein Charles Darwin hat (im Kontext vieler anderer Denker, die damals ähnliche Phänomene untersuchten) zwar einerseits die Vielfalt biologischer Phänomene auf einige wenige Prinzipien der möglichen Entstehung zurückgeführt, aber diese Rückführung führte nicht zur Aufhebung der Vielfalt selbst. Nein, die Vielfalt blieb erhalten und es kamen Ideen auf, wie nicht nur diese Vielfalt sondern noch ganze andere Vielfalte entstehen könnten. In gewisser Weise erschien die beobachtbare Vielfalt als Manifestation eines Prinzips, das offensichtlich wirkte und genau durch die wechselnden Vielfalte sichtbar wurde. Dass dieses Prinzip dann den Namen Evolution bekam ist fast nebensächlich, Wichtig ist nur, dass überhaupt ein Prinzip entdeckt werden konnte, das mathematisch als Funktion, Abbildung interpretierbar ist:
  3. evol: BIOL x ENV —> ENV x BIOL
  4. Etwa umschreibar mit: gegebene biologische Systeme (BIOL) in bestimmten Umgebungen (ENV) können neue biologische Systeme hervorbringen und dabei zugleich verändernd auf die Umgebung einwirken. Die spezifischen Aktivitäten, Veränderungen dieser vielfältigen Formen werden hier allgemein als Dynamik bezeichnet.
  5. In dieser Allgemeinheit lässt das Evolutionskonzept noch nahezu nichts Konkretes erkennen, fokussiert aber den Blick darauf, dass der kontinuierliche Strom der Formen nicht rein zufällig stattfindet, sondern von Bedingungen abhängt, die nach einem bestimmten Muster neue Formen hervorbringt. Diese Dynamik deutet damit auf eine bestimmte Prozessstruktur hin, auf eine bestimmte mathematisch beschreibbare Logik des Geschehens, die sich nicht in der Beschreibung der einzelnen Teile erschöpft, sondern nur und gerade in der Beschreibung von Abfolgen und Zusammenhängen, durch die sich diese unterstellte Logik manifestiert.
  6. Der Begriff der Emergenz, der in diesem Zusammenhang oft und gerne benutzt wird, erscheint dem Autor dieser Zeilen zu schwach, um der Konkretheit dieser Logik und ihrer massiven Wirkung gerecht zu werden.
  7. Nach Darwin konnte das postulierte Prinzip der Evolution schrittweise immer weiter konkretisiert werden. Mit der Entdeckung von Zellstrukturen, von Molekülen, speziell dem DNA-Molekül, dem Reproduktionsmechanismus der Zellen mit Hilfe von DNA- und anderen Molekülen, dem epizyklischen Geschehen und vielem mehr konnte man die postulierte Logik des Geschehens an immer konkreteren Strukturen festmachen und damit die unterstellte Prozessstruktur verfeinern. Mittlerweile gibt es sogar weitreichende Modelle, die sogar die Entstehung der komplexen Zellen selbst aus einfacheren Bestandteilen unter bestimmten Umgebungsbedingungen plausibel machen können. Auch hier handelt es sich letztlich mathematisch um Abbildungsprozesse, die die Genese/ Konstruktion von komplexen Strukturen aus einfacheren Elementen unter Beteiligung von Wirkprinzipien andeuten. Die Wirkprinzipien selbst jenseits der beteiligten materiellen Komponenten sind nicht direkt beschreibbar, nur in ihren Wirkungen (so wie auch z.B. die Gravitation sich nur indirekt durch das Verhalten der beobachtbaren Materiekonstellationen erschließen lässt).
  8. Die entscheidend Botschaft ist hier also, dass sich in der Dynamik biologischer Strukturen Wirkprinzipien manifestieren, die charakteristisch für das Biologische sind, die auf implizite Eigenschaften der beteiligten Komponenten hinweisen, die sich nur in bestimmten Konstellationen zeigen. Letztlich sind es Eigenschaften der Materie, die sich überall im Universum zeigen können, wenn entsprechende Bedingungen gegeben sind.

ENDLICHE UNENDLICHKEIT

  1. Während ein einzelner Mensch am Beispiel seines Körpers mit dem klaren Beginn (Geburt) und dem klaren Ende (Tod) das Modell eines endlichen Prozesses am eigenen Leib erleben kann (und natürlich vielfältig im Laufe seines Lebens mit anderen Phänomenen), gibt es aus Sicht eines Menschen aber Phänomene, die sein Leben überdauern, die länger als 100 Jahre andauern. Die Endlichkeit wird damit immer ungreifbarer, erscheint immer mehr wie eine quasi Unendlichkeit. Und im Denken kann ein Mensch den Begriff der Unendlichkeit formen als Gegensatz zur Endlichkeit. Es bleibt zwar offen, ob und wieweit dem der gedanklichen Unendlichkeit irgendeine Realität entspricht, aber zumindest gibt es ein Etwas, ein Gedachtes, als Gegensatz zur konkreten Endlichkeit.

UNTERBRECHUNG

  1. Mit diesem angedeuteten Koordinatensystem kann man nun viele bekannte Phänomene diskutieren und zueinander in Beziehung setzen. Vielleicht geschieht dies mit weiteren Blogeinträgen.

Einen Überblick über alle Blog-Beiträge des Autors cagent nach Titeln findet sich HIER.

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

CARTESIANISCHE MEDITATIONEN III, Teil 2

ÄNDERUNGEN: Letzte Änderung 11.Dez.2011 vor 12:00h

CM III, Teil 2

(16) Husserl spricht länger über das Beispiel mit dem Hexaeder (CM2, 16-18). Im Rahmen seines Intentionalitätsmodells gibt es die übergreifende Einheit des cogito, das sich in seinem bewusst Sein auf ein Gegebenes als ‚cogitatum‘ bezieht, das sich in vielerlei ‚Erscheinungsweisen‘  (verknüpft mit einem Seinsmodus und einem Bewusstseinstypus)  darbietet. Dennoch sind diese unterscheidbaren Gegebenheiten nicht isoliert denkbar, sondern nur als Momente einer im cogito vorfindlichen Einheit. Zu dieser im cogito fundierten Einheit gehört auch die phänomenologische Zeitlichkeit, die die einzeln unterscheidbaren Gegebenheiten des cogitatum als ‚Dahinströmen‘, als kontinuierliche Aneinanderreihung erscheinen lassen, deren gedankliche Aufteilung wieder ein Dahinströmendes ergibt und das auch seinen Bewusstseinstypus (hier: Wahrgenommenes) beibehält. Nach Husserl werden eben nicht ‚Dinge‘ in das Wahrnehmen hineingesteckt, sondern diverse konkrete Gegebenheiten werden in der synthetischen Einheit des cogito miteinander zu einem Gedachten‘ verknüpft, und das jeweils Verknüpfte ist selbst wieder Teil dieser Einheit des cogito.

(17)Nimmt man diese Darstellung von Husserl und versucht sie innerhalb des bisherigen Rekonstruktionsmodells (TEgo: Ph_(*) x DLOG[+ONT] —> Ph_(*) x DLOG[-ONT]) einzuordnen, dann ergibt sich folgendes: das jeweilige cogitatum mit seinen unterschiedlichen Gegebenheitsweisen gehört als Phänomen ph_i zur Menge der Phänomene Ph_(t). Die ‚zeitliche Dimension‘ des Aufeinanderfolgens  soll aber  ‚koexistent‘ sein mit dem einzelnen Phänomen, hebt es einerseits nicht auf, aber ist so verfügbar, dass ich das einzelne als Teil eines ‚Ganzen‘ ‚erleben‘ kann. Nach der bisherigen Annahme ist ein Phänomen ein komplexes Gegebenes mit den Momenten  ph = <e,p,m,c>. Eine genaue Definition gibt es noch nicht, da Husserls Ausdrucksweise hier nicht sehr präzise ist. Würden wir ‚e‘ als das sich einzeln (?) ereignende Gegebene annehmen, das hier einerseits ein sinnlich Wahrgenommenes ist –z.B. p_vis– im Seinsmodus eines ‚Wahrgenommenen‘ m_wahrg, das begleitet ist von dem Wissen um ein Eines –also etwa c als ‚Ergebnis‘ aus dem bisherigen c(t-1) und dem ’neuen‘  c(t)–   dann wären die Momente ‚e,p,m,c(t-1)‘ der ‚Input‘ und ‚e,p,m,c(t)‘ wäre der ‚Output‘  durch den Bezug zum cogito. Die ‚Herstellung‘ der Einheit würde dann eine Leistung des Denkens DLOG sein: was immer zu einem bestimmten Augenblick das Wissen um einen bestimmten Gegenstand –wie z.B. ein Hexaeder– ausmachte, sobald ein neues Moment <e‘,p‘,m‘> auftritt, das mit dem bisherigen cogitatum <e,p,m,c(t-1)> in einen Zusammenhang (aufgrund von ‚Ähnlichkeiten‘) gebracht werden kann, wird das neue Moment über DLOG mit dem bisherigen vereint zu <e‘,p‘,m‘,c(t)> mit DLOG: C(t-1) —> C(t) und c in C. Generell gilt aber bislang, dass innerhalb der Synthese des cogito alle Aspekte der Phänomene ‚verarbeitet‘ werden können (DLOG: Ph_(*) —> Ph_(*)), selbst das sich ‚ereignende‘ einzelne Phänomen kann bzgl. seines Auftretens ‚e,p,c‘ streng genommen eine Veränderung dahingehend erfahren, dass das cogito die ursprüngliche Wahrnehmung schon so abändert, dass das Wahrgenommene selbst mehr ‚Interpretiertes‘ ist als ‚induziertes Ereignis‘ unabhängig vom Denken.

(18) Zeilen wie die von CM2,18,Zeilen 22-30 mit dem Kernsatz ‚..einheitlich und in der Form der immanenten Zeit sich beständig objektivierend‘ (CM2,18,Z29f) können in dem bisherigen Rekonstruktionsmodell jedenfalls eine Interpretation finden.

(19) Husserl kommt dann auf jene wundersame Eigenschaft des transzendentalen ego zu sprechen, durch die das konkret ‚reell erlebte‘ Einzelne in einer übergeordneten Einheit so erlebt werden kann, dass das einzelne in einem (Sinn-)Zusammenhang mit anderen einzelnen gelangt, durch den ein einzelnes mit einem Mal Teil eines ‚Gegenstandes‘ werden kann, oder Ausgangspunkt eines möglichen Zustandes, den es geben könnte, oder ein Zustand  erscheint als Alternative zu einem anderen aktuell gegebenem oder vorstellbaren Zustand. (vgl. CM2,SS18f).  Dieses über die Aktualität Hinausgehen können in eine reell vorgestellte/ gedachte Möglichkeit nennt Husserl ‚Potentialität‘ und mit Bezug auf das reelle Erleben spricht er in diesem Zusammenhang auch von dem ‚Horizont‘ des Erlebens (z.B. CM2,S19,Z22-27).

(20) Im Rekonstruktionsmodell TEgo: Ph_(*) x DLOG[+ONT] —> Ph_(*) x DLOG[-ONT]ist dieses Aktualität mit Horizont und intentional realisierte Potentialität dadurch gegeben, dass innerhalb des transzendentalen Ego TEgo die ‚eingebaute‘ Denklogik DLOG die Möglichkeit bietet, jedes beliebige Phänomen als ‚reell Erlebtes‘ in beliebige Zusammenhänge einordnen zu können, sowohl als Teil eines größeren Ganzen, als logische Alternative, als mögliche (zeitlich) Fortsetzung, usw. ‚Horizont‘ und ‚Potentialität‘ folgen aus de Grundannahme des TEgo als einer partiell rekursiven Abbildung. Damit ist jegliche Einheit von jeglicher Vielheit möglich, als intentionales Etwas, das nur im Bewusstsein ist.

(21) Für Husserl eröffnet sich für die phänomenologische Deskription und Methodik hier eine ’neue Methode‘, nämlich die Erforschung von möglichem Sinn und Sein durch ‚Enthüllen‘ und  ‚Herausstellen‘ des im Horizont, in der Potentialität ‚implizit‘ Gemeinten (vgl. CM2,S19,Z28ff). Dieses implizit Gemeinte wird ‚evident‘ durch Ausfaltung des im Horizont beschlossenen Potentials, indem das Denken eine ‚Folge von möglichen Wahrnehmungen‘ erzeugt, durch die sich potentieller Sinn enthüllt. Solche potentiellen Enthüllungen sind der Gegenstand von phänomenologischer Deskription und Analyse. Natürlich dann nicht beschränkt auf einzelne Sinne (als Plural von ‚Sinn‘), sondern final bezogen auf die allgemeine, universale Struktur von Sinn im Bewusstsein (vgl. CM2,S19f).

(22) Will man von diesen letzten Überlegungen Husserls einen Bezug zum Rekonstruktionsmdell TEgo: Ph_(*) x DLOG[+ONT] —> Ph_(*) x DLOG[-ONT] herstellen, dann ergibt sich ein interessantes Paradox: (i) einerseits müsste man erklären, wie eine phänomenologische Deskription und Analyse innerhalb des Rekonstruktionsmodells möglich ist, andererseits (ii) musss man annehmen, dass das Ergebnis einer solchen phänomenologischen Deskription und Analyse der universalen Strukturen letztlich genau dem Rekonstruktionsmodell entsprechen müsste, andernfalls wäre das Rekonstruktionsmodell unzulänglich.

(23) Was die Möglichkeit einer phänomenologische Deskription und Analyse innerhalb des Rekonstruktionsmodells angeht, so würde man fordern müssen, dass es innerhalb der umfassenden Synthese des transzendentalen ego als ‚Teil‘ der Denklogik DLOG eine ‚Komponente‘ geben muss, die sowohl den auftretenden Phänomenen wie auch ihrer ‚logischen Dynamik‘ sprachliche Ausdrücke so zuordnen kann, dass diese zusammengenommen eine ’sinnvolle Beschreibung‘ ergeben. Prinzipiell ist klar, wie ein solcher ‚Mechanismus‘ aussehen müsste. Wie ‚leicht‘ er sich in einem ‚funktionierenden Bewusstsein‘ ‚realisieren‘ lassen würde, ist eine andere Frage (ein Bewusstsein wie das von Husserl gehört ja bekanntlich nicht zu einem ‚Massenphänomen‘ und selbst dieses Bewusstsein hat immerhin mehrere Jahrzehnte benötigt, um eine ‚Form‘ zu finden, die dann in der Lage war, die Pariser Vorlesungen zu halten).

(24) Bezüglich der Konsequenz, dass das Ergebnis einer phänomenologischen Deskription und Analyse der universalen Strukturen letztlich genau dem Rekonstruktionsmodell entsprechen sollte, muss man die Frage klären, was denn eigentlich eine ‚adäquate Form‘ einer phänomenologischen Darstellung sein sollte? Husserl hat bislang nichts dazu gesagt. Er spricht immer nur über die ‚Inhalte‘ der Analyse. Dennoch benutzt er für seine Gedanken über diese Inhalte und die phänomenologische Deskription und Analyse wie selbstverständlich eine Sprache, hier die deutsche Sprache (selbst für seine Pariser Vorlesungen). Die deutsche Sprache ist aber bekanntlich als ’natürliche‘ Sprache beliebig ‚vieldeutig‘. Sie gewinnt ihre ‚gemeinte Bedeutung‘ durch Identifizierung jener Inhalte, die Husserl ‚gemeint hat‘, als er die Ausdrücke niederschrieb. Da es sich bei dem von Husserl ‚Gemeinten‘ nicht um einfache ‚Gegenstände der intersubjektiven Außenwelt‘ gehandelt hat (meistens nicht), sondern um ‚Gegebenheiten seines individuellen Denkens‘ in seinem ‚individuellen Bewusstsein‘ sind diese ‚gemeinten Inhalte‘ zunächst mal streng genommen für jeden anderen vollständig unzugänglich. Dass er dennoch die Hoffnung hegen konnte, dass das von ihm ‚Gemeinte‘  den  Lesern seiner Zeilen zumindest ‚potentiell zugänglich‘ sein könnte, muss einen ‚Grund‘ haben (andernfalls wäre Husserl ein ‚Verrückter‘, der ‚herumspinnt‘). Husserl hat sich zu diesem ‚Grund‘ bislang nicht geäußert (was von heute aus auffällt, zu seiner Zeit aber den normalen Denkgewohnheiten entsprach). Es ist unklar, ob und wieweit Husserl sich dieser Problematik überhaupt bewusst war. Ziemlich sicher kann man sagen, dass er zu seiner Zeit kaum eine Chance gehabt hätte, diese Frage befriedigend zu beantworten (soweit wir heute die Ideenlandschaft seiner Zeit kennen und beurteilen).

(25) Parallel zu Husserl und dann natürlich noch nach ihm entwickelte sich die moderne formale Logik, die moderne Mathematik und Wissenschaftstheorie, die Denkansätze freilegten, mit denen sich einige der Fragen, die Husserl unbeantwortet lies, beantworten lassen. Allerdings muss man festhalten, dass diese Disziplinen sich mit den gedanklichen Bereichen einer phänomenologischen Deskription und Analyse nahezu überhaupt nicht beschäftigt haben. Das Desinteresse der modernen Wissenschaftstheorie für inhaltsfundierte Analysen hat (meine persönliche Einschätzung) letztlich auch wieder zu ihrer ‚Selbstauflösung‘ geführt. Bis heute hat die Wissenschaftstheorie (im Englischen eher ‚Philosophy of Science‘, was aber die deutsche Bedeutung nicht ganz wiedergibt) jedenfalls keine allzu große Bedeutung für die Wissenschaften gewonnen, was man auf Schritt und Tritt schmerzlich merken kann.

(26) Kommen wir zurück zum ‚Gemeinten‘ von Husserl und zur Frage nach einem ‚Grund‘ für die Unterstellung Husserls, irgendein Leser seiner Texte könnte ‚verstehen‘, was er ‚gemeint‘ hat, wo er doch vornehmlich ’nur‘ über die Tatsachen seines eigenen individuellen Bewusstseins spricht/ schreibt. Generell ist klar, dass seine ‚gelebte Unterstellung‘ nur ‚Sinn‘ ergibt, wenn jeder (oder wenigstens die meisten?) Leser in seinem –von Husserl verschiedenem– Bewusstsein ‚hinreichend Ähnliches‘ vorfinden kann wie Husserl selbst.

(27) Nennen wir ein einzelnes Bewusstsein C_h_i in C_h mit ‚C_h‘ als der Menge aller möglichen ‚Husserl-Ähnlichen Bewusstseine‘. Husserl muss also unterstellt haben, dass –im idealen Fall– jedes dieser einzelnen Bewusstseine C_h_i ‚im Prinzip‘ so ähnlich ist mit seinem eigenen C_h_*, dass alles, was er über die Strukturen seines eigenen Bewusstseins C_h_* sagt mit ‚hinreichender Ähnlichkeit‘ auch in jedem dieser anderen Bewusstseine ‚vorkommt’/ ‚reell erlebbar‘ ist.

(28) Da es klar ist, dass Husserl nicht die jeweils konkreten Inhalte gemeint haben kann, die sich bei jedem einzelnen aufgrund von individuell konkreten Umständen real unterscheiden, muss es um die allgemeinen Strukturen gehen, in denen konkrete Inhalte auftreten, vorkommen, wahrgenommen, erinnert, vorgestellt usw. werden. Also, alltäglich-praktisch: wenn zwei Betrachter auf eine Tasse schauen, die zwischen ihnen steht, hat zwar jeder aufgrund seines unterschiedlichen Wahrnehmungspunktes einen anderen konkreten Eindruck von dieser Tasse, beide können aber anlässlich dieses –und weiterer– Eindrucks offensichtlich ein ‚inneres Konzept‘ von ‚Tasse‘ bilden, das in den unterschiedlichsten konkreten Kontexten ‚hinreichend ähnlich‘ funktioniert. Das deutet auf ‚allgemeine Strukturen‘ ‚in‘ den einzelnen Bewusstseinen hin, die die unterschiedlichen konkreten Ereignisse auf eine allgemeine Struktur hin ‚transformieren‘, die hypothetisch in den verschiedenen Bewusstseinen ‚hinreichend ähnlich‘ funktioniert. Solche allgemeinen Strukturen kann man recht gut mit Hilfe von formalen Modellen beschreiben. Würde also Husserl (was nun leider nicht mehr geht) die von ihm unterstellten allgemeinen Strukturen des Bewusstseins, die für jedes Bewusstsein in gleicher Weise gelten (Arbeitshypothese), mit Hilfe solcher formaler Modelle beschreiben wollen, so könnte er dies z.B. mittels des bisherigen  Rekonstruktionsmodells TEgo: Ph_(*) x DLOG[+ONT] —> Ph_(*) x DLOG[-ONT] tun. Dieses Modell unterstellt genau solche ‚universalen Strukturen‘ von Wahrnehmung, Erinnerung usw. in jedem beteiligten Bewusstsein.

(29) Husserl stellt zwar nicht explizit die Frage nach ‚Strukturen‘ im Erleben, aber er spricht darüber im Kontext: ‚…im Fluß [des Bewusstseinslebens] herrscht eine sehr wohl ausgeprägte Typik. Wahrnehmung… Wiedererinnerung… [retentionales] Leerbewusstsein… dergleichen sind allgemeine, scharf ausgeprägte Typen… Jeden solchen Typus kann ich, allgemein beschreibend,  nach seiner Struktur befragen, und zwar nach seiner intentionalen Struktur, da es eben ein intentionaler Typus ist…wie der eine in einen anderen übergeht…sich bildet…abwandelt…'(vgl. CM2,S20,Z21-34).

(30) Dieses Sprechen Husserls über implizit vorfindliche Strukturen im Fluss des Bewusstseins  bedeutet, dass er diese –ohne dies so ausdrücklich zu sagen– letztlich für jedes einzelne Bewusstsein c_h_i voraussetzt (anders macht seine Rede keinen Sinn).

(31) Schließlich benutzt Husserl hier sogar den Begriff der ‚Theorie‘: ‚Das ergibt also transzendentale Theorie der Wahrnehmung,…transzendentale Theorie der Erinnerung und des Zusammenhangs der Anschauung überhaupt, aber auch transzendentale Urteilstheorie, Willenstheorie, usw.‘ (CM2, S20f,Z37-Z2)

(32) Husserl liefert im Rahmen seiner Vorlesung bis zu dieser Stelle keine Definition –oder vergleichbare Erklärung– des Begriffs ‚Theorie‘. Man weiss an dieser Stelle daher nicht genau, was er meint, wenn er von ‚Theorie‘ spricht. Offensichtlich setzt er aber voraus, dass es diese Strukturen im Erleben sein müssen, die den Ausgangspunkt für das bilden, was er ‚Theorie‘ nennt. Die nachfolgenden Zeilen scheinen dies zu bestätigen, werfen dabei aber auch ein eigentümliches Licht auf seinen Theoriebegriff.

(33) ‚Immer kommt es darauf an, nicht wie objektive Tatsachenwissenschaften bloße Erfahrung <zu> betätigen und das Erfahrungsdatum reell zu analysieren, sondern den Linien intentionaler Synthese nachzugehen, wie sie intentional und horizontmäßig vorgezeichnet sind, wobei die Horizonte selbst aufgewiesen, dann aber auch enthüllt werden müssen‘. (CM2,S21,Z2-8)

(34) Nach diesen Zeilen scheinen die objektiven Tatsachenwissenschaften sich nur mit ‚bloßen Erfahrung‘ zu beschäftigen, dieses ‚reell zu analysieren‘ ohne –so legen es diese Worte nahe– sich mit den darin vorfindlichen Regelhaftigkeiten bzw. Strukturen zu beschäftigen. Schon zu Zeiten Husserls gab es sehr wohl das Konzept allgemeiner formaler Strukturen als Werkzeug, um mittels solcher formaler  Strukturen ‚auffindbare‘ Regelhaftigkeiten zu repräsentieren. Diese formale Strukturen kombiniert mit ihrem jeweiligen empirischen Bezug zusammen wurden als ‚Theorien‘ gehandelt. D.h. auch die sogenannten objektiven Tatsachenwissenschaften sind nur interessant, weil sie Einzelereignisse durch Bezug auf ‚darin sich zeigende Regelhaftigkeiten (= Typen, Strukturen)‘ in Form von formalen (mathematischen) Strukturen repräsentieren und die unterstellten Strukturen als das ‚Wahre‘ nehmen, an dem man das Messbare ‚misst‘. Insofern macht Husserl hier die Tatsachenwissenschaften ‚kleiner‘ als sie wirklich sind (bzw. damals schon waren).

(35) Man könnte jetzt noch einwenden, dass die Tatsachenwissenschaften zwar aus den Einzelereignissen Strukturen ‚herausziehen‘ und diese dann benutzen, aber dass sie dies tun  in einem ‚unreflektierten Kontext‘ eines sich selbst nicht bewussten Denkens und in diesem Sinne seien sie eingeschränkt und trotz Sachbezugs Seinsvergessen.

(36) Schaut man sich die Geschichte der empirischen Wissenschaften an, wird man  feststellen (müssen!), dass die scheinbar ‚unreflektierte‘ Methode der Strukturbildung unter Berücksichtigung der jeweiligen Geltungsbedingungen (!) schrittweise nicht nur den Horizont der zu untersuchenden Sachen in alle Richtungen ausgeweitet hat, sondern auch durch kontinuierliche Transparentmachung von Geltungsbedingungen immer mehr jene Strukturen des Denkens thematisiert hat, die an den Reflexionsbereich des ‚klassischen‘ philosophischen Denkens heranreichen. Die Entdeckung des ‚Subjekts‘ als konstitutiver Faktor im Kontext  physikalischer (aber auch psychologischer, soziologischer usw.) empirischer Theorien ist vielleicht nicht in eins zu setzen mit einer bewussten Selbstreflexion des Bewusstseins aber immerhin Aufdeckung des Bewusstseins als ‚Faktor‘, der in die Theoriebildung ‚konstitutiv‘ (damit letztlich als ein transzendentaler Faktor) eingeht. Mit Neurowissenschaften und speziell Neuropsychologie werden diese Geltungsbedingungen von wissenschaftlichen Erkenntnissen und Theorien kontinuierlich ‚verfeinert‘ bis dahin, dass man bestimmte kognitive Leistungen bestimmten physiologischen Strukturen und deren Funktionen zuordnen kann. Durch zugleich vermehrt eingesetzten Computersimulationen von kognitiven Strukturen in überprüfbaren experimentellen Räumen können diese Modelle von kognitiven Strukturen zusätzlich überprüft und sogar weiter entwickelt werden.

(37) So gesehen muss man wohl sagen, dass die von Husserl gescholtenen objektiven Tatsachenwissenschaften offensichtlich sehr wohl einen erheblichen Beitrag zur fortschreitenden Aufhellung der Strukturen von Wirklichkeit leisten können (wenngleich zu Zeiten Husserls die ganze Tragweite dieser Wissenschaften noch nicht so erkennbar waren wie heute, allerdings mehr als er zur Kenntnis genommen hat).
(38) Es bleibt die Frage nach dem ‚Rest‘, nach der trotz aller Erkenntniserfolge zu konstatierende ‚Differenz‘ des Erkenntnisstandpunktes. Die empirischen Wissenschaften definieren sich generell über die Selbstbeschränkung, nur solche Phänomene zu untersuchen, deren ‚Außengeltung‘ durch wiederholbare Experimente von jedem nachprüfbar sind. Aus dieser Definition folgt mit –soweit in diesem Rahmen möglicher– Denknotwendigkeit, dass ein Denkstandpunkt, der diese Beschränkung nicht akzeptiert, grundsätzlich mehr Phänomene ‚im Blick hat‘  und zu Strukturerkenntnissen kommen kann, die ‚anderer Natur‘ sind, eben philosophischer Art (oder innerhalb des allgemein Philosophischen  phänomenologisch Philosophisch, wenngleich die Definition von Phänomenologie wiederum ‚das Philosophische‘ ganz abzudecken scheint). Daraus würde ich folgern, dass objektive Tatsachenwissenschaften –eben die empirischen Wissenschaften– und philosophische Theorien gemeinsam haben, dass sie ihre Gegebenheiten in Form formaler (mathematischer) Strukturen Th darstellen können, dass sie sich aber bzgl. ihres ‚Gegenstandsbereiches  darin unterscheiden, dass gilt Ph_emp subset Ph_ph (und ’subset‘ ist hier eine ‚echte‘ Teilmenge mit Ph_ph – Ph_emp != 0).

(39) Während die Philosophie als Phänomenologie auf diese Weise die Strukturen des Denkens aus der inneren Bewusstseinsperspektive enthüllen  und darin beschreiben kann als eine phänomenologische Theorie Th_ph, tun dies die empirischen Wissenschaft  als empirische Theorie Th_emp, dabei unentrinnbar verwurzelt in der (inneren) Bewusstseinsperspektive. Durch die methodische Beschränkung auf eine Teilmenge der Phänomene (die die innere Denktätigkeit ausklammert) können die empirischen Wissenschaften das menschliche Denken trotz ihrer inneren Verwurzelung in diesem Denken nicht direkt beschreiben. Es bleibt ihnen nur der Umweg über die empirischen Phänomene und den darin implizit enthaltenen Strukturen (z.B. Gehirnaktivitäten zeitlich korreliert mit bestimmten beobachtbaren Verhaltensweisen und/oder korreliert mit empirischen ‚Selbstaussagen‘ von Personen zu ihrer ‚Selbstwahrnehmung‘, wobei der ‚Inhalt‘ der Selbstaussagen nicht empirische ist!). Sofern solche empirischen Beschreibungen systematisiert als Th_emp vorliegen und gleichzeitig systematisierte phänomenologische Beschreibungen Th_ph kann man versuchen,  beide Theorien aufeinander abzubilden. Dies kann z.B. dahin führen, dass die empirischen Strukturen erkannt werden als jene Prozesse, die im bewussten Denken vorausgesetzt werden müssen, um ‚erklären‘ zu können, warum die phänomenologischen Strukturen so sind, wie sie ‚erlebt‘ werden.  In diesem speziellen Sinne könnte man dann sagen, dass die  empirischen Wissenschaften die Geltungsbedingungen unseres phänomenologisch beschriebenen Denkens durch ihre wissenschaftliche Beschreibungen enthüllen und damit erweitern. Statt sich also gegenseitig zu bekämpfen können beide Erkenntnisstile voneinander profitieren. Dies kann zu einer wechselseitigen Erhellung führen, durch die die ‚Geistigkeit der Materie‘ sichtbar wird.

Zur Fortsetzung siehe CM3, Teil 3

HINWEIS: Einen Überblick über alle Blog-Einträge nach Titeln findet sich hier: Übersicht nach Titeln