DER VERSTECKTE BEOBACHTER UND AKTEUR. Wo Denken sich verabschiedet. Notiz

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
12.April 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: cagent

Philosophie des Beobachters - Vogelperspektive

Philosophie des Beobachters – Vogelperspektive

DER  BEOBACHTER

In den Wissenschaften ist klar, dass es ohne einen Beobachter nichts gibt: keine Experimente mit Messungen, die Daten generieren, und keine Modelle, Theorien, die Daten in Zusammenhänge setzen und damit Deutungs- oder gar Erklärungshypothesen liefern.

Weniger klar ist, dass und wieweit der Beobachter konstitutiv in eine Theorie eingeht und dass eine ’normale‘ Theorie nicht in der Lage ist, ihren eigenen Beobachter zu thematisieren.

Besonders krass ist der Fall in der Physik. Die standardisierten physikalischen Messeinheiten erlauben interessante Modellbildungen zu Strukturen und Dynamiken der realen Welt, es ist mit diesen Daten und Modellen jedoch nicht möglich, den physik- spezifischen Beobachter angemessen zu beschreiben.

Andere Disziplinen wie z.B. die Biologie, die Psychologie oder die Soziologie kommen den komplexen Phänomenen eines Beobachters zwar ’näher‘, aber auch diese – wenn sie denn als empirische Wissenschaften arbeiten – können ihre jeweiligen spezifischen Beobachter nicht mir eigenen ‚Bordmitteln‘ erschöpfend beschreiben. Würden sie es tun, würden sie ihr Wissenschaftsparadigma sprengen; dann müssten sie aufhören, empirische Wissenschaften zu sein.

IRREFÜHRUNG INTERDISZIPLINARITÄT

Im übrigen muss man auch fragen, ob nicht alle Disziplinen auf ihre spezifische Weise Sichten zum Beobachter entwickeln, die  jeweils spezifisch  ‚Recht‘ haben. Nur eine Zusammenschau aller dieser verschiedenen Sichten würde dem komplexen Phänomen ‚Beobachter‘ gerecht, wenngleich prinzipiell unvollständig. Allerdings wäre keine der einzelnen Disziplinen je für sich in der Lage, eine ‚Gesamtschau‘ zu organisieren. Das gibt der normale Theoriebegriff nicht her. Das Reden vom ‚Interdisziplinären‘ ist insofern eine Farce. Hier wird eine Disziplinen-Übergreifende Einheit angedeutet, die es zwischen Einzeldisziplinen prinzipiell nicht geben kann (und auch in der Praxis nie erreicht wird; das scheitert schon an den verschiedenen Sprachen der Disziplinen).

ROLLEN

In der Praxis der Gesellschaft und der Industrie manifestiert sich das Dilemma des versteckten Beobachters im Phänomen der unterschiedlichen Rollen. An einem Systems-Engineering Prozess (SEP) kann man dies verdeutlichen.

Die Manager eines SEP legen Rahmenbedingungen fest, geben Ziele vor, überwachen den Ablauf. Der Prozess selbst wird von unterschiedlichen Experten (Akteuren) gelebt. Diese Experten setzen den ‚durch die Manager gesetzten Rahmen‘ für die Dauer des Prozesses voraus, als gültiges Referenzsystem, innerhalb dessen sie ihre Problemlösung in Kooperation mit anderen Akteuren ‚leben‘.

Innerhalb eines SEP gibt es Akteure , z.B. die Mensch-Maschine Interaktions (MMI) Experten, heute auch schon Akteur-Akteur-Interaktions (AAI) Experten genannt (Akteure können Menschen (biologische Systeme) oder auch mittlerweile Roboter (nicht-biologische Systeme) sein. ‚Cyborgs‘ bilden neuartige ‚Zwitterwesen‘, wo noch nicht ganz klar ist, ob es ‚erweiterte biologische Systeme‘ sind oder es sich hier um eine neue hybride Lebensform als Ergebnis der Evolution handelt). Die MMI oder AAI Experten entwickeln Konzepte für ‚potentielle Benutzer (User)‘, also ‚andere Akteure‘, die in ‚angedachten Abläufen‘ mit ‚angedachten neuen Schnittstellen (Interface)‘ aktiv werden sollen. Werden die Pläne der AAI Experten akzeptiert und realisiert, entstehen für die angedachten Abläufe neue Schnittstellen, mit denen dann andere – dann ‚reale‘ – Akteure‘ arbeiten werden. Tritt dieser Fall ein, dann übernehmen die ‚Anwender (User)‘ einen ‚von anderen Akteuren gesetzten‘ Rahmen für ihr Handeln.

Vom Auftraggeber (Ebene 1) zum Manager eines SEP (Ebene 2) zu den Experten des SEP (Ebene 3) zu den intendierten Anwendern (Ebene 4). Wie sich dies dann wieder auf die umgebende Gesellschaft (Ebene 5) auswirkt, die sowohl Auftraggeber (Ebene 1) als auch Manager von Prozessen (Ebene 2) als auch die verschiedenen Experten (Ebene 3) beeinflussen kann, ist im Normalfall weitgehend unklar. Zu vielfältig sind hier die möglichen Verflechtungen.

Andere Querbeziehungen in einen SEP hinein (kleine Auswahl) treten dort auf, wo z.B. die AAI Experten andere Wissenschaften zu Rate ziehen, entweder über deren ‚Produkte‘ (Artikel, Bücher, Verfahren) oder direkt durch Einbeziehung der Akteure (Psychologie, Psychologen, Soziologie, Soziologen, usw.).

An keiner Stelle in diesem überaus komplexen Rollengeflecht gibt es normalerweise eine Rolle, die offiziell sowohl die spezifischen Aufgaben ‚innerhalb‘ einer Rolle wie auch die ‚Rolle selbst‘ beobachtet, protokolliert, untersucht. Eine solche Rolle würde jeweils vorgegebene Rollen ‚durchbrechen‘, ‚aufbrechen‘, ‚verletzten‘. Das verwirrt, schafft Unruhe, erzeugt Ängste und Abwehr.

HOFNARREN, PHILOSOPHEN

Andererseits gibt es historisch diese Formen in allen Zeiten. In der einen Form ist es der ‚Hofnarr‘, der kraft seiner Rolle grundsätzlich anders sein darf, dadurch feste Muster, Klischees durchbrechen darf, bis zum gewissen Grad wird dies auch erwartet, aber nur bis zu einem gewissen Grad. Unterschwellige Machtstrukturen dürfen in der Regel nicht angetastet werden.

In der anderen Rolle haben wir die Philosophen. Das philosophische Denken kann das einzelwissenschaftliche Denken ‚imitieren‘, es kann aber jederzeit aus diesem Muster ausbrechen und nach den Voraussetzungen des einzelwissenschaftlichen Denkens fragen. Ein Philosoph kann — von seinem Denken her — die immer und überall wirksamen ‚Voraussetzungen‘ von Verhalten und Denken ‚hinterfragen‘, ‚thematisieren‘ und auf diese Weise einer expliziten Reflexion und sogar bis zu einem gewissen Grade einer Theoriebildung zugänglich machen. Der Philosoph als Teil einer Gesellschaft mit seiner Nähe zum ‚Hofnarren‘ darf meistens aber nur soviel anders sein (Schulphilosophie), die die Gesellschaft ihm zugesteht. Vom Standpunkt eines philosophischen Denkens aus kann man unterschiedliche einzelwissenschaftliche Modelle und Theorien ‚als Objekte‘ untersuchen, vergleichen, formalisieren und man kann auf einer ‚Metaebene‘ zu den Einzelwissenschaften ‚integrierte Theorien‘ schaffen; nur so. Interdisziplinarität ist von hier aus betrachtet eine Form von Ideologie, die genau solche Integrationen  verhindert.

WISSENSCHAFTLICHE EINZELSTAATEREI

Der Versuch der Einzelwissenschaften, sich der ‚Gängelei‘ eines philosophischen Denkens zu entziehen, führt bei aller Positivität der einzelwissenschaftlichen Erkenntnisse zu dem großen Wirrwarr, das wir heute um uns herum beobachten können. Ein komplexes Phänomen wie der Homo sapiens wird zwischen den einzelwissenschaftlichen Mühlsteinen zu Sand zerrieben; übrig bleibt nichts. Die verschiedenen biologischen, psychologischen, neurologischen, soziologischen usw. ‚Substrate‘ bilden unterschiedliche Zerrformen, die in keinem Gesamtbild integriert sind. Das kommt einer Abschaffung des Menschen durch den Wissenschaftsbetrieb gleich. Dies erinnert ein wenig an den kleinstaatlichen Flickenteppich, bevor Deutschland ein integrierter Staat wurde; jeder war sein eigener Fürst; sehr schön; komplexere Einheit fand nicht statt. Das menschliche Gehirn bevorzugt Vereinfachungen, und das subjektive Machtgefühl eines jeden fühlt sich geschmeichelt, wenn es sich als (wenn auch kleiner und beschränkter) ‚Fürst‘ fühlen kann.

Wieweit können wir unseren eigenen Gedanken trauen, dass sie wahr sind? Memo zur Philosophiewerkstatt vom 11.Juni 2017

Abstract—Dieser Text schildert die Eingangsgedanken
zur Philosophiewerkstatt vom 11.Juni 2017 (in aktualisierter
Form) und berichtet anhand der Gedankenskizze
vom Gespräch. Zu vielen Aspekten und Gedanken blieben
abschließende Stellungnahmen aufgrund der knappen Zeit
aus. Vielleicht l ässt sich dies in der letzten Sitzung vor der
Sommerpause am 16.Juli 2017 noch ergänzen.

PDF-Version

I. Einleitung

A. Erbe aus der letzten Sitzung

In der letzten Philosophiewerkstatt vom 30.April 2017 wurde eine Linie skizziert vom körperlichen Dasein eines Menschen in einem Raum, zu seinem Innenleben voller Eindrücke und Gedanken, durchsetzt von Gefühlen, von dort zu seinem Körper mit dem Nervensystem und Gehirn, durch die das Innenleben möglich wird, und dann der Hinweis auf das Werkzeug Sprache, wodurch Menschen ihr eigenes Innenleben mit dem Innenleben anderer Menschen unterschiedlich gut verknüpfen können.

Im Gespräch zeigte sich dann, dass das Verhältnis von sprachlichem Ausdruck zu dem mit dem Ausdruck Gemeintem (die intendierte Bedeutung) alles andere als einfach ist, kein ‚Selbstläufer‘, kein Automatismus für wahr Sätze. Es entstand vielmehr der Eindruck, dass die Möglichkeit zur subjektiven Täuschung, zur Verzerrung, zum Irrtum von vornherein gegeben ist. Etwas Angemessenes, Richtiges, Wahres sagen zu können erfordert viel Aufmerksamkeit und viel Erfahrung. Was aber, wenn große Teile der Erfahrung schon falsch sind? Wenn gar eine ganze Kultur ’schief liegt‘?

Im folgenden werden zwei berühmte philosophisch-wissenschaftliche Positionen thesenartig vorgestellt, die zu weiterem Nachdenken anregen können.

B. Nilsson: Alles ist Glauben

Nils John Nilssonist ein US-amerikanischer Informatiker, der mit zu den Gründungsvätern der modernen Informatik zählt, hier speziell im Gebiet der künstlichen Intelligenz (KI). Sehr spät, 2014, hat er ein Buch publiziert mit dem Titel Understanding Beliefs.

Nilsson 2014: Mensch so wie Roboter

Nilsson 2014: Mensch so wie Roboter

In dem Maße wie die Informatik im Bereich der KI-Forschung mit Prozessen zu tun hat, die dem menschlichen Erkennen und Denken ähneln, in dem Maße stellen sich hier auch ähnliche — wenn nicht gar die ‚gleichen‘ — Fragen, wie die, die sich uns Menschen stellen, wenn wir über unser eigenes Denken nachsinnen wollen. In der Philosophie nennt man dieses Gebiete des philosophischen Denkens Erkenntnistheorie (engl.: epistemology). Und in der Tat, Nilsson, nach vielen Jahrzehnten der KI-Forschung, wendet sich in seinem jüngsten Buch dezidiert erkenntnistheoretischen Fragen zu, und in diesem Fall nicht Fragen des Denkens bei Maschinen, sondern, genau umgekehrt, herausgefordert durch seine Beschäftigung mit den Maschinen, den Fragen des Erkennens beim Menschen, bei uns selbst.

Bemerkenswert ist hier allerdings seine Formulierung. Ausgehend von den Robotern (vgl. Bild ‚Mensch so wie Roboter‘), die er kennt, weil er selber Roboter entwickelt, gebaut und getestet hat, überträgt er das Robotermodell — so scheint es — einfach auf die Menschen. Genauso, wie es bei dem Roboter ist (it is the same for us humans (vgl.KP 55)) mit sensorischer Wahrnehmung, daraus resultierendem Wissen und Erklärungen und Folgerungen, genau so sei es bei uns Menschen. Auch der menschliche Körper hat eine Sensorik, ein auf der Wahrnehmung basierendes Wissen und zusätzliches Wissen als Erklärung und Folgerungen.Im Fall des Menschen ist es allerdings nicht ein Ingenieur, der baut, sondern der Prozess der biologischen Evolution, der aus Zellen mit DNA-Molekülen menschliche Körper entstehen lässt. (vgl. KP 55ff)

Struktur des menschlichen Wissens nach Nilsson (2014), Kap.1

Struktur des menschlichen Wissens nach Nilsson (2014), Kap.1

Bei der Beschreibung des menschlichen Wissens (vgl. Bild ‚Struktur menschlichen Wissens) unterscheidet Nilsson am Körper der Menschen grundsätzlich Sensorik, die die Außenweltereignisse wahrnehmen kann, dann das Gehirn, das alle Signale verarbeitet, und indirekt das Bewusstsein, in dem unsere Wahrnehmungen und unser Wissen sich zeigen.[Anmerkung: Nilsson erwähnt das Bewusstsein in diesem Kapitel nicht explizit!] Ferner nimmt er ebenfalls nur implizit das beobachtbare Verhalten an, das die Grundlage für die empirische Psychologie bildet.

In Korrespondenz zu diesen Annahmen unterscheidet Nilsson grundsätzlich drei verschiedene Disziplinen, die sich mit menschlichem Wissen beschäftigen: die Philosophie, die Kognitionswissenschaften in Gestalt der kognitiven Psychologie, und die Neurowissenschaften.

Die Neurowissenschaften sortiert er schnell aus, da sie bislang nach seiner Einschätzung noch kein hinreichendes Wissen darüber erarbeitet haben, wie unser Wissen und unsere Überzeugungen im Gehirn tatsächlich repräsentiert sind. [Anmk: Womit sich die Frage stellt, woher wissen wir denn überhaupt etwas über unser Wissen; das Bewusstsein erwähnt er ja nicht.]

Die Philosophie in Form von Erkenntnistheorie (engl.: epistemology) erwähnt er auch nur kurz. Die Erkenntnistheorie beschäftige sich hauptsächlich mit Wissen in Form von deklarativem Wissen, das mittels erklärenden feststellenden sprachlichen Äußerungen artikuliert wird.

Die Kognitionspsychologie (die auch zu den Kognitionswissenschaften gerechnet wird) wird auch nur beiläufig erwähnt. Diese entwickelt theoretische Modelle über das deklarative (Wissen, dass) und prozedurale (Wissen wie) Wissen.

Details über diese verschiedene Disziplinen sowie ihr mögliches Zusammenwirken werden nicht mitgeteilt.

Unbeschwert von methodischen Anforderungen der genannten drei Disziplinen geht Nilsson dann relativ schnell zu der Behauptung über, dass Überzeugungen und Wissen letztlich das Gleiche seien. All unser tatsachenbezogenes Wissen drückt sich in unseren Überzeugungen aus. Überzeugungen sind hypothetisch und veränderbar; sie bilden eine schier unendliche Liste. Sie enthalten inhaltlich Annahmen über Objekte, Eigenschaften und Beziehungen. Ausgedrückt/ artikuliert werden Überzeugungen durch sprachliche Äußerungen in der Form von feststellenden (deklarativen) Ausdrücken. Viele Sätze zusammen bilden dann Theorien bzw. Modelle, die die Realität der Außenwelt für uns Menschen ersetzen, da wir sie so real erleben, als ob sie die Realität wären. Tatsächlich sind sie im Vergleich zur Realität der Außenwelt aber nur virtuelle Größen, die unser Gehirn aufgrund der Sinnesdaten berechnet und uns als produzierte (= virtuelle) Realität anbietet.

Ob und wieweit virtuelle Modelle der Realität ‚entsprechen‘, das müssen spezielle wissenschaftliche Verfahren klären. Ein Mensch kann nicht nur direkt einen bestimmten Sachverhalt X ‚glauben‘, er kann auch glauben, dass der Sachverhalt X nicht zutrifft.

C. Popper: Wider die Unüberwindbarkeit des begrifflichen Rahmens

Von Karl Popper gibt es viele gewichtige Schriften. Hier soll sein Aufsatz The Myth of the Framework berücksichtigt werden, der als Kapitel 2 des Buches The Myth of the Framework: In Defence of Science and Rationality 1994 erschienen ist.

In diesem Text vertritt Popper einige Kernthesen, die er — aufgrund seines umfangreichen historischen Wissens — mit sehr vielen Beispielen illustriert. So interessant diese Beispiele sind, so können sie aber auch die Kernthesen verdecken. Im Folgenden (siehe dazu auch Bild ‚Gegen den Mythos von der …‘) werden daher die historischen Beispiele weitgehend ausgeblendet. Dem interessierten Leser sei aber empfohlen, den ganzen Text zu lesen.

http://www.cognitiveagent.org/wp-content/uploads/2017/06/PopperMythFramework1-2400.jpg

Popper (1994): Gegen den Mythos von der Unüberwindbrkeit des begrifflichen Rahmens

Popper beginnt seinen Text mit einer These, die er dem sogenannten Relativismus zuschreibt: dass jeder Mensch in seinem Denken jeweils einen bestimmten kulturellen Kontext widerspiegele, und dieser Kontext sich in Form eines bestimmten begrifflichen Rahmens (engl.: framework) bestimmend auf das Denken auswirke. Die Wahrnehmung der Welt wird im Lichte des begrifflichen Rahmens so stark bestimmt, dass ein anderer Mensch mit einem anderen kulturellen Kontext bei gleichen Wahrnehmungen zu unterschiedlichen Interpretationen kommen würde. Diese kulturell und dann begrifflich-rahmenmäßig induzierten Interpretationsunterschiede seien unüberwindlich.

Dieser Auffassung widerspricht Popper vehement.

Dabei macht er gleich zu Beginn eine Unterscheidung, die er leider nicht weiter ausführt und systematisiert: er weist darauf hin, dass man zwischen dem jeweiligen begrifflichen Rahmen und den Voraussetzungen für einen Dialog unterscheiden muss. Das eine ist, was wir wissen (innerhalb unseres begrifflichen Rahmens), das andere sind psychologische und soziale Rahmenbedingungen, die festlegen, ob und wie wir miteinander kommunizieren. Explizit nennt er hier illustrierend die Toleranz, den guten Willen, Freiheit, Rationalität und auch eine demokratische Verfasstheit. Diese (und andere) Faktoren können einen offenen, kritischen Diskurs fördern.

Dass ein offener Diskurs wichtig ist, das liegt daran, dass gerade bei Unterschieden im begrifflichen Rahmen angesichts unterschiedlicher Kulturen diese Unterschiede eine Herausforderung darstellen: wirken diese Unterschiede bedrohlich? Haben sie möglicherweise einschneidende negative Folgen für die Betroffenen? Es besteht dann die Gefahr einer Ablehnung, die sich mit Gewalt verbindet, bis hin zum Krieg. Werden Unterschiede aber offen aufgegriffen, nüchtern analysiert, versucht man aus ihnen zu lernen, kommt man aufgrund von Unterschieden zu neuen, möglicherweise besseren Einsichten, dann können alle Beteiligten aus solchen Unterschieden einen Gewinn ziehen. Und genau für diesen konstruktiv-positiven Umgang mit Unterschieden haben sich im Laufe der Jahrhunderte und sogar Jahrtausenden Haltungen wie Toleranz und Rationalität sehr bewährt.

Es fragt sich, was man näher hin unter einem begrifflichen Rahmen verstehen soll. Diese Frage wird von Popper nicht sehr präzise beantwortet. Allgemein bauen wir unsere begriffliche Rahmen als Teil unserer Kultur auf, um die Welt, das Leben zu erklären. Dies beinhaltet zahlreiche Annahmen (engl.: assumptions) und Prinzipien. In der Wahrnehmung der Welt geht der begriffliche Rahmen insoweit ein, als jede Beobachtung Theorie geladen ist (engl.: theory impregnated). Wahre Aussagen sind solche, die sich mit Bezug auf reale Sachverhalten entscheiden lassen. Sofern ein solcher entscheidbarer Bezug auf Sachverhalte verfügbar ist, sind sprachliche Aussagen unterschiedlicher Sprachen ineinander übersetzbar. Durch eine solche Entscheidbarkeit von Sätzen gibt es Ansatzpunkte für eine Falsifizierbarkeit. Popper geht allerdings nicht näher darauf ein, ob und wie sich die Entscheidbarkeit einzelner Aussagen im größeren Kontext einer Theorie nutzen lässt.

II. Nilsson, Popper und das Gespräch

Im nachfolgenden Gespräch wurden die Thesen von Nilsson und Popper von den Teilnehmern nur sehr indirekt angesprochen.[Anmk: An dem Tag lagen die graphischen Interpretationen noch nicht vor und die verfügbare Zeit war ein bisschen knapp,um die Text voll zu lesen.] Es wird daher erst das Gespräch kurz skizziert und dann werden einige Fragen aufgeführt, die sich angesichts der vorausgehenden Themen stellen können. Möglicherweise wird die nächste Sitzung der Philosophiewerkstatt am So 16.Juli 2017 eine Weiterführung und Vertiefung der aktuellen Überlegungen bringen, zusätzlich angereichert von Thesen von Deutsch (1997) „The Fabric of Reality“.

III. Memo Gespräch

Gedankenbild zum Gespräch der Philosophiewerkstatt vom 11.Juni 2017

Gedankenbild zum Gespräch der Philosophiewerkstatt vom 11.Juni 2017

A. Alltagserfahrung

Das Gespräch nahm seinen (natürlichen) Ausgangspunkt bei Alltagserfahrungen der Teilnehmer. Alle empfinden die Situation so, dass sie immer schneller mit immer mehr Fakten überflutet werden; dies führt dazu, dass sich Wissen durch die schiere Menge selbst relativiert. Das Reden von ‚Wissen‘, das heute überall verfügbar sei, gewinnt dadurch fast illusorische Züge, da der einzelne mit seinem Gehirn in seinem Leben nur einen Bruchteil des verfügbaren Wissens wird verarbeiten können.

Diese Relativität von Wissen prägt unsere politischen Formen (Mehrheiten, keine absoluten Wahrheiten) und auch die Rechtsfindung (Fakten sammeln, abwägen, evaluierten). Die leitenden Rechtsnormen repräsenieren keine absoluten Werte und sind interpretationsbedürftig.

B.Kinder

Die Entwicklung der Kinder war schon oft ein Modellfall für viele Fragen. Auch für die Frage nach der Wahrheit war dies wieder ergiebig: sie überschwemmen ihre Umgebung mit Warum-Fragen und suchen Deutungsangebote. Ein Blick in die Kulturen und Geschichte deutet an, dass die Suche nach Erklärungen möglicherweise ein tiefsitzendes Bedürfnis des Menschen nach Verstehen, nach Sicherheit widerspiegelt. Und insofern von der Deutung/ Erklärung viele praktischen Konsequenzen abhängen können, stellt sich die Frage nach der Wahrheit eines Zutreffens in der Erfahrungswelt meist nicht interessefrei.

C. Wissenschaftliches Wissen

Es ist interessant, dass die Menschen erst nach vielen tausend Jahren in der Lage waren, die Produktion und Pflege von wahrem, nachprüfbaren Wissen zu beherrschen. Wissenschaftliches Wissen gründet auf nachvollziehbaren, wiederholbaren Messprozessen, die als solche jedem zugänglich sind, die unabhängig sind von den inneren Zuständen des einzelnen. Solche wissenschaftliche Messungen generieren für einen bestimmten Zeitpunkt und einen bestimmten Ort einen Messwert. Messwerte als solche bieten aber keine Erklärung. Um einzelne Messwerte für die Zwecke der Erklärung zu benutzen, muss eine allgemeine Beziehung generiert werden, die für alle bekannten Messwerte funktioniert. Diese Beziehung ist kein empirisches Objekt im üblichen Sinne, sondern eine kreative Erfindung des Wissenschaftlers, der damit versucht, die Messwerte zu deuten. In der Regel hilft das verfügbare Vorwissen bei der Formulierung solch einer Hypothese. Gelingt es, mit Hilfe eines allgemeinen Verfahrens andere potentielle Messwerte voraus zu sagen (Prognose), dann wird dies üblicherweise als Bestätigung der Hypothese interpretiert; im anderen Fall spricht man von einer Abschwächung oder gar Widerlegung (Falsifikation).

D. Biologische Evolution

Interessant ist, dass es zwischen diesem experimentellen Vortasten des Wissenschaftlers und dem Prozess der biologischen Evolution direkte Parallelen gibt. Im Prozess der biologischen Evolution besitzt jede Zelle im DNA-Molekül eine Art Vorwissen der bisherigen Erfolge, und ergänzend dazu werden zufällig-kreativ zahllose neue Varianten gebildet. Einige von diesen neuen Varianten zeugen dann, dass sie funktionieren (d.h. meistens: überleben können), andere nicht. Das Überleben ist in diesem Zusammenhang dann die Bestätigung.

E. Menschliches Bewusstsein

Die wissenschaftliche Form des Wissens wirft auch Licht auf eine fundamentale Eigenart des menschlichen Bewusstseins. Im menschlichen Bewusstsein treffen die konkreten sensorischen Ereignisse zusammen mit den abstrahierten, geclusterten, vernetzten Elementen des Gedächtnisses. Dadurch kann jeder Mensch beständig konkrete Objekte als Instanzen von allgemeinen Begriffen erkennen und sieht sie sogleich in allen möglichen Kontexten. Dies ist einerseits sehr hilfreich, birgt aber zugleich auch die Gefahr, dass eine falsche Vorerfahrung aktuelle Wahrnehmungen falsch einordnet.

In allen Kontexten tauchten immer wieder auch die Frage nach den Werten auf. Es blieb offen welche Rolle Gefühle wie angenehm/ unangenehm spielen, unterschiedliche Interessen, Bedürfnisse. Welchen Stellenwert haben sie letztlich?

 

Einen Überblick über alle Einträge zur Philosophiewewrkstatt nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs finden sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

PHILOSOPHIEWERKSTATT JETZT ALS PHILOSOPHISCHES LABOR FÜR PHILOSOPHISCHE SELBSTVERSUCHE – Version 3.0. Eine Vorausschau

KONTEXT

Leser dieses Blogs sind vertraut mit dem philosophischen Experiment der Philosophiewerkstatt (Version 1.0), wie sie im Herbst 2013 im Cafe-Bistro Confetti in Schöneck startete.  Dies waren erste Gehversuche. Es gab noch kein festes Format.

Ab Herbst 2014 gab es die Philosophiewerkstatt Version 2.0 in Kooperation mit der DENKBAR in Frankfurt. In dieser Zeit entwickelte sich eine kreative Form des gemeinsamen Gedankenaustausches, die sich stabilisierte.

Ab Herbst 2016 wird es die Philosophiewerkstatt in einer Neuauflage geben, in Version 3.0, Ortsveränderung inbegriffen: das Institut für Neue Medien in Frankfurt. Dies ist kein Abschied von der DENKBAR, die zwei Jahre lang eine belebende Umgebung für die sonntäglichen Treffen war, sondern es ist eine Kooperation von DENKBAR und INM in einer veränderten Umgebung, mit einem veränderten Konzept.

Worin besteht das Neue?

ORTLOS ZWISCHEN FÜHLEN UND DENKEN

Wer sich ein wenig in der Geschichte der Philosophie auskennt, der weiß, dass das Hauptanliegen der Philosophie eher die Klärung der Welt mit Hilfe des Denkens war. In der Verfertigung des Gedankens, im Reden, Schreiben, im Dialog da entsteht Wirklichkeit neu, als Gedachte, und im Denken als Geklärte, Bereinigte, Strukturierte, eingehüllt in Worte, in Symbole.

Die neuzeitliche Wissenschaft hat die Abkopplung des Fühlens vom Denken weiter beeinflusst; Wissenschaft wurde hier im Raum von Messwerten und mathematischen Formeln verortet; das Fühlen hat hier keine offizielle Rolle mehr und sogar das Subjekt der wissenschaftlichen Tätigkeit, der Forscher selbst, spielt keine Rolle mehr. Er wurde systematisch ausgeblendet.

Diese Ausklammerung von Fühlen und Subjekt aus dem offiziellen Denken führt mittlerweile zu sehr vielen Problemen, fundamentalen Problemen.

Im Bereich der Wissenschaft ist es der Verlust des Menschen. In vielen Bereichen – wie z.B. der Physik – kommt der Mensch als Mensch per se gar nicht mehr vor; in anderen – wie Biologie, Medizin, Gehirnwissenschaften, usw. – kommt der Mensch als Untersuchungsobjekt zwar vor, aber er zerfällt hier in unzählige Details, wird zu einem Ort bloßer chemischer Prozesse. Mögliche Zusammenhänge gehen weitgehend verloren. Die Frage, wer der Mensch denn überhaupt ist, hat in den Wissenschaften keine wirkliche Stelle mehr; sie ist unter die Räder gekommen.

Für einen einzelnen Menschen, der sich ernst nehmen will, bedeutet dies eine zunehmende Ortlosigkeit: eingebettet zwischen einem Fühlen, das diskreditiert ist, und einem Denken, das mit dem Menschen nichts anfangen kann. Hat der Mensch überhaupt noch eine Zukunft?

DAS DENKEN WOHNT IM FÜHLEN

Aus philosophischer Sicht ist klar, dass die begrifflichen Netze, mit denen empirische Wissenschaftler arbeiten, nur scheinbar vom Subjekt losgelöst sind. Denn die Theorie selbst wie auch die Messwerte brauchen die Rückkopplung an das Gehirn, an eine bestimmte Form von Bewusstsein. Ohne Bewusstsein und Gehirn gibt es weder Messwerte noch Begriffsnetzwerke. Es ist das Bewusstsein im Gehirn und im Körper als Teil eines komplexen biologischen Netzwerkes, in beständiger Interaktion mit der umgebenden Materie, welches der Ort von Fühlen und Denken ist. Es ist für uns Menschen der EINZIGE Ort, über den wir Kontakt zu dem haben, was wir Wirklichkeit nennen.

Wirklichkeit ist das erste Vorfindliche, ein Ur-begriff, an dem alle anderen Begriffe partizipieren. Was immer irgendeine wissenschaftliche Disziplin zu beschreiben versucht, sie setzt einen Ur-begriff von Wirklichkeit voraus, der durch die Einbettung in den Körper gegeben ist. Ohne den Körper ist jede Wissenschaft (und jedes Denken) nichts, echtes Nichts, das ganz und gar Undenkbare. Andererseits definiert sich eine wissenschaftliche Disziplin methodisch über eine Einschränkung und Abgrenzung. Die empirische Methode erzwingt eine Zerlegung des Phänomenraums in jene Teilräume, die intersubjektiv empirisch sind, und innerhalb dieser grundsätzlichen Einschränkung finden in der Regel weitere Abgrenzungen statt (Physik, Chemie, Biologie, (empirische) Soziologie, …).

Das Besondere des Menschen ist gerade diese Art seiner Welterfahrung, ermöglicht durch die Besonderheit seines Körpers: Makrostrukturen von Mikrostrukturen, die bis in den subatomaren Bereich – und damit unbegrenzt – hinein reichen und wechselwirken, beständig [Vorstellungshilfe: allein das menschliche Gehirn hat etwa 290 Mrd Zellen (etwa 30% Neuronen, 58% Astrozyten und etwa 12% Gliazellen). Das entspricht der Anzahl von Sternen in einer ganzen Galaxie. Der ganze menschliche Körper soll ca. 36 Billionen (10^12) Zellen haben (ohne die vielen Mrd zusätzliche Bakterien in und auf ihm), das wären dann in Entsprechung etwa 120 Galaxien. Bedenkt man noch die Komplexität der Wechselwirkung zwischen den Zellen des Körpers, dann übersteigt die Komplexität eines einzelnen menschlichen Körpers jene von 120 Galaxien um ein Mehrfaches, nur ein Körper!]. Diese Welterfahrung setzte einen Entwicklungsprozess von ca. 13.8 Mrd Jahre voraus. Unser Verständnis dieser Vorgänge ist noch ganz am Anfang (und es ist eine offene Frage, ob wir diese Komplexität wohl jemals ‚begreifen‘ können, wenn man bedenkt, dass das menschliche Arbeitsgedächtnis (auch bei Physikern) nicht mehr als ca. 7 +/- 2 Einheiten gleichzeitig verarbeiten kann).

Wenn man also als Philosoph die vorfindliche Wirklichkeit ernst nehmen will, dann darf man die eigene Körpererfahrung nicht von vornherein ausblenden, man muss sie akzeptieren, man muss sie zulassen, sie anschauen, und versuchen, daraus zu lernen, was es zu lernen gibt. Das Fühlen (im weitesten Sinne) ist ein Grundbestandteil philosophischer Weltwahrnehmung. Ob und was ein nachfolgendes Reflektieren mit solch einem Fühlen anfangen kann, das kann man vorab nicht abschätzen. Jedes Denken ist immer speziell, begrenzt, abgrenzend, ausgrenzend; das ist seine Art, seine Stärke wie zugleich seine Schwäche. Denken lebt vom Prozess, von der Wiederholung, vom unermüdlichen immer wieder neu ansetzen und neu sortieren. Denken hat kein absolutes Ende, nicht zuletzt auch deswegen nicht, weil es sich ja selbst zum Gegenstand machen kann; dies ist wichtig und gefährlich zugleich (die moderne Physik bietet das Schauspiel eines Denkens, das sich soweit von der Realität entfernt hat, dass im Einzelfall oft nicht mehr klar ist, ob hier eine wirklichkeitsrelevante Modellbildung vorliegt oder ein Artefakt des Modells, ein Denken des Denkens).

Es fragt sich dann, was hier ‚Fühlen‘ heißt und wie philosophisches Denken mit dem Fühlen umgehen kann?

WELCHES FÜHLEN UND WIE DAMIT UMGEHEN?

Für einen Philosophen kann es nur um das GANZE Fühlen gehen, d.h. alles, was ein Denken vorfinden kann. Und da dieses Fühlen an unseren Körper gebunden ist, geht es darum, was ein Körper in unterschiedlichsten Situationen fühlen kann und wie man solch ein stattfindendes Fühlen dann beschreiben kann, nicht nur punktuell, sondern auch in seiner prozesshaften Erstreckung in dem, was wir Zeit nennen.

In einer Philosophiewerkstatt wird man hier solche Prozesse kaum vorweg nehmen können. Man kann aber versuchen, die Grundeinstellung zu praktizieren, den Einstieg in das Fühlen üben, das dann Denken nachträglich zulässt.

Die Grundform des philosophischen Fühlens ist das bewusste Dasein ohne ein fokussiertes Denken. Es lassen sich zwar tausendfache Variationen denken, wie man dies tut (man denke nur an die Vielzahl von sogenannten Meditationsformen), aber das für eine bestimmte Zeitspanne einfach bewusste Dasein ohne irgend etwas anderes zu tun bzw. tun zu müssen, mit einem Denken in Ruhestellung, das ist die Grundübung. Und weil unser Körper mit seinen 120 Galaxien an Zellen samt seinen unendlich vielen Wechselwirkungen mit sich selbst und seiner Umgebung kein natürlicher Ruhepol ist, sondern ein permanenter Aufschrei an Bewegtheit, braucht es eine gewisse Zeit, bis sich überhaupt Ruhe einstellt und statt den marktschreierischen primären Wahrnehmungen auch solche Ereignisse bemerkbar machen können, die mit weniger Energie daher kommen. Jeder einzelne wird SEIN Fühlen haben, seine speziellen Wahrnehmungen (natürlich auch Gemeinsamkeiten mit anderen, weil unsere Körper strukturell ähnlich sind).

Es kann interessant sein, sich im Anschluss über sein Fühlen auszutauschen; auf jeden Fall kann es helfen, sich im Anschluss Notizen zu machen, sein Denken wieder mehr zulassen, Eindrücke zu sortieren.

FORMAT DER PHILOSOPHISCHEN SELBSTVERSUCHE

Für die Philosophiewerkstatt Version 3.0 ist folgendes Schema angedacht:

Bis 15:00h ANKOMMEN (Über die Einladung gibt es auch eine Fragestellung)

15:00 – 15:15h MIT DEM ORT VERTRAUT WERDEN

15:15 – 15:35h ZEIT ZUM INDIVIDUELLEN FÜHLEN

15:35 – 15:45h ASSOZIATIONEN INDIVIDUELL NOTIEREN

15:45 – 16:05h KOMMUNIKATION VON BEOBACHTUNGEN

16:05 – 16:20h BEWEGUNG, TEE TRINKEN, REDEN

16:20 – 17:05h GEMEINSAME REFLEXION MIT GEDANKENBILD

17:05 – 17:20h BEWEGUNG, TEE TRINKEN, REDEN

17:20 – 17:40h GEWICHTEN DES GEDANKENBILDES

17:20 – 18:00h AUSBLICK

Ab 18:00h VERABSCHIEDUNG VOM ORT

Stunden, Tage danach: ABSTAND NEHMEN, NACHSINNEN

Irgendwann: BERICHT(e) ZUM TREFFEN, EINZELN, IM BLOG

Irgendwann: KOMMENTARE ZU(M) BERICHT(en), EINZELN, IM BLOG

TERMINE

Um sich im Fühlen und Denken zu koordinieren, hier die geplanten Termine (vom INM bestätigt):

23.Okt 16

27.Nov 16

22.Jan 17

26.Febr.17 (Wegen Krankheit ausgefallen)

26.März 17 (Wegen Krankheit ausgefallen)

Einen Überblick über alle Einträge zur Philosophiewewrkstatt nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs finden sich HIER.

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

DIE NEUROWISSENSCHAFTEN – EIN PHILOSOPHISCHES SCHWARZES LOCH? – Zu einem Artikel von W.Singer in der FAZ vom 17.September 2014

(Letzte Änderungen am Text: 21.Sept.2014, 22:06h)

Sound einer Galaxie oder doch eher von Neuronen oder von Galaxien eingefangen in den Vibrationen der Neuronen?

BEGRIFF (PHILOSOPHISCHES) SCHWARZES LOCH

1. Ein Schwarzes Loch (oder auch Black hole) ist in der Astrophysik – leicht vereinfachend – ein Raum-Zeit-Gebiet, das im Kern eine Massekonzentration besitzt, die so groß ist, dass in einem bestimmten Umfeld alle Materie (einschließlich der Lichtquanten) so stark angezogen wird, dass jenseits dieses Umfeldes (jenseits des ‚Ereignishorizontes‘) nichts mehr nach außen dringt (außer der sogenannten Hawking-Strahlung (benannt nach dem Physiker Stephen Hawking)). Im Prinzip kann ein schwarzes Loch immer weiter wachsen. Ab einer bestimmten Größe entstehen im Umfeld des Ereignishorizontes allerdings ‚Sperreffekte‘, die den Zufluss von Materie erschweren und über die Hawking-Strahlung verlieren schwarze Löcher kontinuierlich Energie.

2. Der Begriff ‚philosophisches‘ schwarzes Loch wird in diesem Beitrag benutzt als eine Metapher, um eine Denkweise zu charakterisieren, die die Vielfalt der Phänomene durch Beschränkung auf ein einziges Prinzip so stark nivelliert, dass von der Vielfalt anschließend nur noch bestimmte Fragmente übrig bleiben, die als solche zwar eine gewisse ‚Wahrheit‘ verkörpern, durch den eliminierenden Kontext aber letztlich ihre ursprüngliche Wahrheit verloren haben; vielleicht muss man sogar sagen, sie werden durch den falschen Kontext geradezu ‚falsch‘.

3. Ich stelle hier die frage, ob diese Metapher vom ‚philosophischen schwarzen Loch‘ anwendbar ist auf den Artikel von Wolf Singer in der FAZ vom 17.September 2014 S.N2. Würde meine Hypothese zutreffen, dann wäre dies fast tragisch, da hier eine Sache, die in sich gut und wichtig ist, die Hirnforschung, durch ihre methodische Übergrifflichkeit viele andere Sachen dermaßen entstellt und ihrer ontologischen Besonderheit beraubt, dass damit genau das Großartige, was die Gehirne in diese Welt eingebracht haben, von den Hirnforschern selbst totgemacht, zerstört würden.

4. Dies hier ist meine individuelle Hypothese. Vielleicht würde eine empirische soziologische Untersuchung im Rahmen einer Wissenssoziologie zu noch weitreichenderen kritischen Aussagen zu den Neurowissenschaften kommen. Aber für solche Wissenschaften ist es heute sehr schwer, Forschungsgelder zu bekommen.

DIE ARGUMENTATIONSFIGUR IM TEXT

5. Warum kann ich die Frage stellen, ob die Metapher von einem ‚philosophisch schwarzem Loch‘ auf den Artikel von Wolf Singer zutrifft?

6. In dem zitierten Artikel mit der Überschrift „Erst kommt das Denken, dann die Kunst“ soll es offiziell um das Verhältnis zwischen der Kunst und den Neurowissenschaften gehen; inoffiziell ergreift der Autor aber die Gelegenheit, aus Anlass eines Themas, das außerhalb der Neurowissenschaften liegt, primär die Bedeutung und Leistung der Neurowissenschaften heraus zu stellen; das auslösende Thema, der ‚Aufhänger‘ Kunst, gerät zu einer Art ‚Randnotiz‘: ja, es gibt irgendwo Kunst, ja, sie hat ein paar Eigenschaften, aber letztlich sind alle diese Eigenschaften unwichtig, da es eigentlich nur auf die Leistungen der neuronalen Verbände ankommt, die dem künstlerischen Verhalten letztlich zugrunde liegen. Die Neuronen und deren Verhalten repräsentieren die eigentliche, die wahre Wirklichkeit; sie erzählen uns, worum es geht …

7. Nun ist es ja unbestreitbar, dass die Neurowissenschaften seit ihrem Entstehen – letztlich viele Jahrhunderte; mit der klaren Einsicht in die Isoliertheit des Neurons aber dann erst seit ca. 120 Jahre – atemberaubende neue Einblicke in unser Gehirn und in die Interaktion zwischen dem Gehirn und dem Körper ermöglicht haben. Vielen Phänomenen des beobachtbaren Verhaltens wie auch unserer subjektiven Empfindungen konnten durch die Korrelation mit neuronalen Aktivitäten neue, interessante Aspekte zugeordnet werden, die zu neuen Verstehensmodellen geführt haben.

INPUT-OUTPUT SYSTEME: DIE SUMME IST MEHR ALS IHRE TEILE

8. Bei der Erklärung des Verhaltens eines Input-Output-Systems — was biologische Systeme u.a. sind – sind die Verhältnisse nicht ganz so trivial, wie sie die Erklärungsmuster der Neurowissenschaftler oft nahe legen.

9. Aus der Tatsache, dass ein Input-Output-System aus einer Vielzahl von elementaren Einheiten – im Falle des Gehirns u.a. aus ‚Neuronen‘ – besteht, folgt sehr selten, dass man das beobachtbare (äußere) Verhalten des Systems durch einfachen Rückgriff auf die Eigenschaften seiner Bestandteile ‚erklären‘ kann.

10. Wenn jemand heute — in einem analogen Fall — einen Computer (PC, Smartphone, Auto, Kamera,…) kauft, um damit einen Text zu schreiben oder Musik zu hören oder ein Computerspiel zu spielen oder … dann interessiert sich normalerweise niemand für die elektronischen Bauteilen in diesen Geräten (würden die meisten auch nicht verstehen), sondern nur um die ‚Funktionen‘, die das Gerät ihm zur Verfügung stellt.

11. Jener, der an der Funktion ‚Text Schreiben‘ interessiert ist, interessiert sich nicht unbedingt auch für die Funktion ‚Fotos machen‘, oder nicht für die spannenden Abenteuer eines Computerspiels, usw.

EINE ABBILDUNGSVORSCHRIFT IST MEHR ALS IHRE ‚TEILE‘

12. Alle diese verschiedenen ‚Funktionen‘ die heute ein Computer ausführen kann, sind zwar – in der Tat – alle durch die gleichen elektronischen Bauteile ermöglicht worden, wie man — im Falle der Computer — aber weiß, ist es nicht möglich, aus der Gegebenheit der elektronischen Bauteile als solcher auch nur eine einzige dieser vielen möglichen Milliarden von Funktionen ‚abzuleiten‘!

13. Zwar kann man rein theoretisch aus der Beschaffenheit dieser Bauteile ableiten (und damit voraussagen), welche Arten von Funktionen generell mit diesen Bauteilen ausführbar wären, aber man könnte niemals zwingend – also niemals mit Notwendigkeit – sagen, auf diesem Computer muss genau diese ‚Funktion f‘ ausgeführt werden.

14. Der tiefere – wenngleich sehr einfache – Grund für diesen Sachverhalt liegt darin, dass das beobachtbare Verhalten eines Computers – verstanden als eine Funktion f – eine Folge von Zustandsänderungen zusammenfasst, die unterschiedlichen ‚Input I‘ in das System (Eingaben durch den Benutzer, Messwerte, …) unter Berücksichtigung aktuell verfügbarer ‚interner Zustände IS‘ auf die beobachtbaren ‚Outputs O‘ (Ereignisse auf dem Bildschirm, Töne, Bewegungen eines mechanischen Teils, …) — und möglicherweise auch auf interne Zustände IS — ‚abbildet‘, wie der Mathematiker sagen würde. Eine solche reale Verhaltensfunktion ist damit nichts anderes als eine Folge von Paaren der Art …, ((I,IS),(IS,O)), …, verallgemeinernd geschrieben als eine Abbildungsvorschrift f: I \times IS \longrightarrow IS \times O.

15. Schon an dieser Stelle kann man direkt sehen, dass die Existenz irgendwelcher interner Zustände (z.B. elektronische Bauteile oder – wie im Falle des Gehirns – von Neuronen) in keiner Weise irgendetwas darüber sagen kann, wie die übergreifende Verhaltensfunktion f aussehen wird. Die Verhaltensfunktion f wird zwar nur unter Voraussetzung der internen Zustände stattfinden können, die internen Zustände (elektronische Bauteile, Neuronen, …) erlauben aber keinerlei Schlüsse auf die übergreifenden Funktion f, die damit tatsächlich zur Ausführung kommt.

16. Jeder kennt die Formulierung ‚Die Summe ist mehr als ihre Teile‘ oder der etwas neuere Begriff der ‚Emergenz‘, d.h. des Auftretens von Eigenschaften P eines Systems (z.B. Wasser), die unter bestimmten Bedingungen (Kälte, Hitze, …) mit einem Mal ‚beobachtbar‘ werden (‚zu Eis gefrieren‘, ’sich in Dampf transformieren‘, …). Die einzelnen Bestandteile als solche ‚für sich‘ können die Eigenschaft P nicht haben; wenn aber viele solche einzelnen Elemente (z.B. Moleküle) ‚zusammen‘ in einem Raum-Zeitgebiet vorkommen, dann kann eine – die einzelnen Elemente ‚übersteigende‘ (‚emergierende‘) — Eigenschaft P sichtbar werden, die wie aus dem ‚Nichts‘ entsteht.

17. Eine seit den Anfängen der Physik beliebte Strategie, die ‚emergenten‘ Eigenschaften zusammengesetzter Systeme durch ‚Rückführung auf die zugrunde liegenden Elemente‘ zu ‚erklären‘ (bekannt unter dem Namen ‚Reduktionismus‘) ist bis heute virulent, und findet sich z.B. ungebrochen im Text von Wolf Singer wieder. Was immer wir an Verhaltensweisen bei einem Menschen beobachten können – er hat sich einige ausgewählt, die einige als ‚künstlerisch‘, als ‚Malerei‘ bezeichnen –, das Verhalten in seiner speziellen Funktionalität wird auf das Verhalten zugrunde liegender Elemente (Neuronen) zurückgeführt und soll damit ‚erklärt‘ sein.

METHODISCHE GRENZEN DER NEUROWISSENSCHAFTEN

18. Abgesehen mal davon, dass die Neurowissenschaften auch heute – was Singer sogar an einzelnen Stellen einräumt – in der Regel noch nicht über wirklich harte Erklärungsansätze verfügen (bedingt durch die Komplexität des Gehirns und Messproblemen), werden die Neurowissenschaften als solche – sofern sie ihren eigenen Methoden treu bleiben – grundsätzlich niemals und zu keinem Zeitpunkt auch nur einzige der beobachtbaren Funktionen im echten Sinne ‚erklären‘ können.

19. Wenn Neurowissenschaftler sich zu Verhaltenserklärungen hinreißen lassen, dann überschreiten Sie in diesem Moment die methodischen Grenzen, die den Neurowissenschaften grundsätzlich gesetzt sind. Erklärung von ‚Verhalten‘ geht prinzipiell über die Beschreibung von Neuronen, Neuronenverbänden, und dem Verhalten von Neuronen hinaus, da es sich um prinzipiell verschiedene Datenarten handelt. Verhalten ist die Domäne der (biologischen) Ethologie oder der modernen experimentellen verhaltensbasierten Psychologie. Diese beiden Disziplinen wissen (als Verhaltenswissenschaften) nichts von Körperzuständen und Neuronen. Begibt ein Neurowissenschaftler sich in das Gebiet des Verhaltens, dann begeht er eine methodische Grenzüberschreitung. Wenn er Verhalten beschreibe will, dann muss er seine Neuronen grundsätzlich und vollständig vergessen! Hält man sich nicht an diese methodischen Grenzziehungen, dann resultiert ein methodisches Chaos, das man leider in ganz vielen neurowissenschaftlichen Publikationen — bis hin zu den High-End Journalen — beobachten kann.

20. Natürlich kann man sich eine methodisch kontrollierte ‚Kooperation‘ zwischen ‚Neurowissenschaften‘ und ‚Psychologie‘ vorstellen – dafür gibt es auch schon lange den Namen ‚Neuropsychologie‘ –, aber eine solche Kooperation stellt sehr hohe methodische und theoretische Anforderungen. Es ist nicht zu sehen, dass sich die Mehrheit der Neurowissenschaftlern dieses Problems bewusst ist. Es gibt offizielle Lehrbücher mit dem Titel ‚Neuropsychologie‘ die in keiner Weise den wissenschaftstheoretischen Ansprüchen genügen, die man hier stellen muss.

21. Im Falle des Artikels von Wolf Singer meine ich sowohl die Erklärungsstrategie des ‚Reduktionismus‘ wie auch eine Grenzüberschreitung von der Neurowissenschaft zu den Verhaltenswissenschaften feststellen zu müssen.

KEIN BEZUG ZUR WISSENSCHAFTSTHEORIE

22. Das Grundproblem, wie man das beobachtbare Verhalten f eines biologischen Input-Output-Systems ‚erklärt‘, ist eine Fragestellung aus dem Bereich der ‚Meta-Wissenschaft‘ genannt ‚Wissenschaftstheorie‘, die letztlich zur ‚Philosophie‘ gehört, der allgemeinen Reflexion ‚über‘ die Dinge, nicht methodisch eingegrenzt auf eine bestimmte wissenschaftliche Fachdisziplin.

23. Insofern berührt der Text von Wolf Singer Aspekte und Fragestellungen, die über die Neurowissenschaften deutlich hinausgehen. Singer lässt aber nirgends in seinem Text erkennen, dass er sich dieser Sachlage bewusst ist. Er spricht über das Gehirn wie ein Techniker über seinen Schaltplan, aus dem er abliest, dass der Motor in Halle 3 nicht läuft, weil eine bestimmte Leitung mit einer bestimmten Bauteilgruppe nicht funktioniert.

24. Mit einem solchen platten ‚Erklärungsansatz‘ wird aber genau die Besonderheit des Phänomens schlicht und einfach verdeckt, zugedeckt, unsichtbar gemacht. Das verstehe ich unter einem ‚philosophisch-schwarzen Loch‘

DIE RÜCKKEHR DES GEISTES?

25. Ist schon die mangelnde Selbstreflexion der Neurowissenschaften traurig genug, so gerät diese zu einer gewissen Tragik, da sie – aufgrund ihrer aktuell starken gesellschaftlichen Akzeptanz – alternative Reflektionsansätze auf die Vielfalt der Phänomene zu übertönen droht und damit die Wahrnehmung von genau dem ‚Wunder des Geistes‘, das durch die Evolution der Körper mit Gehirnen möglich wurde, im Ansatz zerstören. Kann man das ‚Allmachtsgebaren‘ der Neurowissenschaften noch als ‚typisch menschlich‘ abtun, greifen die kognitiven Wirkungen des begrifflichen Allmachtgehabes die ontologische Brisanz der durch die Gehirne möglichen Phänomene in ihrer Substanz an.

26. Erinnern wir uns an die mathematische Formel von zuvor f: I \times IS \longrightarrow IS \times O. Es ist absolut unmöglich, aus der Beschaffenheit der Teile die Gesamtfunktion abzuleiten; insofern repräsentiert eine solche Funktion ein ‚Mehr‘ an Informationen.

REFERENZSYSTEM PHYSIK

27. Die Physik kennt keine Gesetze, die die Entstehung von Etwas aus einem ‚Nichts‘ beschreiben (‚ex nihilo nihil fit‘). Insofern ist eine Theorie wie die ‚BigBang-Theorie‘ das Maximum, was die Physik leisten kann: vorausgesetzt, es gab genügend viel Energie am Beginn des Zeitpfeils, dann kann man den ganzen ‚Rest‘ (nämlich die Entwicklung des bekannten Universums) daraus schrittweise ‚rekonstruieren‘.

28. Will man mehr, dann muss man – hypothetisch – annehmen, dass es ‚außerhalb‘ von unserem bekannten Universum noch viele andere Universen gibt, die alle miteinander auf bestimmte Weise wechselwirken können. In diesem Fall wird das Prinzip ‚ex nihilo nihil fit‘ aber nicht aufgehoben. Die endlichen Raum-Zeitgrenzen werden damit nur ‚beliebig weit‘ (rein gedanklich) ausgedehnt.

29. Bezogen auf das Verhalten konkreter Systeme würde die Physik fordern, dass man ein ‚Mehr an Information‘ erklären muss.

30. Die Physik versagt bislang aber nicht nur bei der Grundsatzfrage, wo denn die ungeheure Menge an Information in Form von Anfangsenergie ‚herkommt‘, sie versagt auch schon bei der – scheinbar – kleineren Frage, wie es zur Ausbildung von biologischen Systemen auf dem Planeten Erde kommen konnte.

31. Damit ist nicht die Detailfrage gemeint, ob bestimmte für das Leben wichtige Moleküle schon ‚fertig‘ aus dem Weltall auf die Erde kamen oder sich – auf bislang noch unklare Weise – auf der Erde ‚gebildet‘ haben, sondern die Grundsatzfrage, wie es möglich war, dass sich überhaupt biologischen Systeme auf dem Planeten Erde bilden und immer weiter ausbreiten konnten (Molekülbildung, chemische Evolution, biologische Evolution).

32. Nach den Gesetzen der Thermodynamik strebt das bekannte Universum zwar langfristig auf einen Ausgleich aller Energieunterschiede, solange aber noch lokale Unterschiede bestehen, solange können sich an den Rändern des Energiegefälles noch Phänomene ausbilden, die die an diesen ‚Rändern‘ verfügbare ‚freie‘ Energie für ‚ihre Zwecke‘ ’nutzen‘. Alle biologische Zellen und Zellverbände, sind solche Strukturen: sie entziehen ihrer Umgebung (freie) Energie und generieren immer komplexere Strukturen, die der Idee des ‚(entropischen) Ausgleichs‘ diametral entgegen wirken. Und die biologischen Strukturen tun dies in einer sowohl individuellen wie auch systemisch-vernetzten Komplexität, die jeden rein auf ‚Zufall‘ basierenden Erklärungsversuch schon im Ansatz (rein mathematisch) ad absurdum führt.

33. Will man an dieser Stelle nicht in pseudo-theologische Ansätze flüchten, die die Erklärungslücken nach eigenen Vorstellungen – beliebig ? — ‚auffüllen‘, dann benötigt man Erklärungshypothesen, die sich mit den Methoden der Wissenschaft(en) vertragen.

VERDECKTE (IMPLIZITE) EIGENSCHAFTEN

34. Wenn wir im großen Stil Phänomene beobachten und messen können, die sich als Funktionen f darstellen lassen, die sich nicht direkt aus den unmittelbaren ‚Teilen‘ des Phänomens herleiten lassen, dann gibt es – neben der notwendigen Klärung der Arbeitsweise unseres Denkens (sehr wohl auch unter Einbeziehung einer evolutionären Erkenntnistheorie) – natürlich die (ganz normale) Arbeitshypothese, dass es in ‚Verbindung‘ mit den beteiligten ‚Elementen E‘ des beobachtbaren Phänomens p nicht nur die ‚direkten Eigenschaften‘ P(E) der beteiligten Elemente gibt, sondern möglicherweise auch weitere (indirekte)Eigenschaften E* (‚hidden properties‘), die direkt nicht beobachtbar sind, sondern nur unter bestimmten Randbedingungen des Zusammenwirkens ’sichtbar‘ werden.

35. Dieser Denkansatz würde dann in die Richtung führen, dass genau jene Eigenschaften, die an komplexen Strukturen ’sichtbar‘ werden, nicht ‚aus dem Nichts‘ entstehen, sondern grundsätzlich in der Struktur der Materie-Energie angelegt sind und sich bei steigendem Komplexitätsgrad in immer komplexeren Formen ‚zeigen‘.

36. Insofern alles, was wir in der Geistes- und Kulturgeschichte über ‚Geist’/ ‚Geistigkeit‘ usw. kennengelernt haben, von genau jenem komplexen Körper mit Gehirn stammt, der sich in der biologischen Evolution schrittweise herausgeschält hat, kann man mit dieser Hypothese dann die Frage aufwerfen, ob das, was die Phänomene des ‚Geistes‘ ausmacht, nicht zurückgeht auf diese indirekten Eigenschaften der Materie-Energie. Falls ja wäre der ‚Geist‘ letztlich eine ‚interne Eigenschaft‘ der Materie-Energie von Anfang an (ein Gedanke, der philosophisch viele Vorläufer hat, wenngleich eingebettet in andere Wortspiele).

37. Für eine empirische Theoriebildung wären solchen Fragen grundsätzlich kein Problem. In jeder anspruchsvollen empirischen Theorie mit mathematischem Modell gibt es genügend viele theoretische Begriffe (auch ‚theoretische Terme‘ genannt), die nicht ‚explizit‘ (‚direkt‘) definiert sind, sondern nur im Kontext vieler anderer Begriffe und Funktionen, die als Gesamtmodell einen Erklärungsanspruch darstellen und als Gesamtmodell ‚wahr‘ oder ‚falsch‘ sind.

[Anmerkung: Die Annahme von ‚verborgenen‘, ‚indirekten‘ Eigenschaften sind in der modernen Physik seit langem üblich. Der berühmte ‚Teilchenzoo‘ der Quantenphysik bietet hier genügend Anschauungsmaterial.]

38. Eine neue empirisch begründete (!) wissenschaftliche universale Theorie des Geistes wäre vor diesem Hintergrund prinzipiell kein Problem. Sie würde aber voraussetzen, dass die einzelnen Disziplinen (wie z.B. die Gehirnforschung) sich ihrer methodischen Grenzen bewusst werden und es zulassen würden, dass andere wissenschaftliche Disziplinen im Bereich komplexer Verhaltensphänomene geeignete theoretische Modelle entwickeln, die sich zwar bedingt mit z.B. der Gehirnwissenschaft für begrenzte Fragestellungen korrelieren lassen, die aber in keinster Weise auf diese begrenzten Fachdisziplinen ‚reduzierbar‘ wären. Andersherum gesprochen: diese komplexen Theorien beschreiben Eigenschaften und Beziehungen ‚oberhalb‘ möglichen vorausgesetzten ‚primitiveren# Elementen, die nur in diesen komplexeren Begriffen ’sichtbar‘ werden und nur hier ihre ‚Bedeutung‘ haben. Eine ‚Reduktion‘ auf die einfacheren Elemente ist nicht nur rein logisch nicht möglich, sondern würde die eigentliche Aussage direkt zerstören.

[Anmerkung: Das Thema mit dem ‚impliziten‘ Geist wurde in diesem Blog schon mehrfach diskutiert; besonders vielleicht in diesem Beitrag.]

DER KUNSTBEGRIFF

39. Im übrigen wäre der Kunstbegriff, den Singer benutzt, kritisch zu hinterfragen. Er selbst stellt gleich zu Beginn einerseits fest, dass es überhaupt keinen Konsens zum Begriff ‚Kunst‘ gibt, andererseits nimmt er Bezug auf bestimmte Tätigkeiten, die er dann als ‚künstlerisch‘ bezeichnet. Was soll man jetzt denken? Warum und wie sollen bestimmte Aktivitäten von Neuronen etwas mit Kunst zu tun haben, wenn nicht klar ist, was genau Kunst ist? Warum schreibt er dann nicht gleich, dass er zum Verhältnis von Gehirn und Kunst nichts sagen kann, weil nicht klar genug ist, was Kunst ist?

Einen Überblick über alle Blogeinträge nach Titeln findet sich HIER.

BEWUSSTSEIN – NICHTBEWUSSTSEIN AM BEISPIEL VON SEXUALITÄT UND GESCHLECHT

Letzte Änderung: 10.Mai 2014 (Links zu den vorausgehenden Beiträgen)

Genetische Informationen beeinflussen die Strukturbildung des Körpers und geschlechterspezifische Hormone beinflussen über Neuronen spezifische Verhaltenskomplexe (bis hin zur Änderung chromosomaler Strukturen)

Genetische Informationen beeinflussen die Strukturbildung des Körpers und geschlechterspezifische Hormone beinflussen über Neuronen spezifische Verhaltenskomplexe (bis hin zur Änderung chromosomaler Strukturen)

1. Im Kontext der aktuellen Diskussion zum Thema Bewusstsein – Nichtbewusstsein (siehe den letzten Beitrag hier) in diesem Blog deutet sich an, dass das Bewusstsein nicht nur nur einen kleinen Teil der tatsächlichen Vorgänge im Körper repräsentiert, sondern zusätzlich geht in die Repräsentation eine spezifische ‚Formatierung‘ ein, die sich so direkt in den auslösenden Ereignissen nicht finden muss.

2. Zu den vielfältigen Phänomenen, die im Bewusstsein aufschlagen, gehören auch Phänomene im Umfeld der Sexualität und der verschiedenen Geschlechter.

3. Wie die verschiedenen Begriffe in der Liste der Kategorien verraten (Sexualität, Sexualbeziehung, SexualarbeiterIn, usw.), gab es in diesem Blog schon öfters Einträge zu diesem Thema (SEXUALITÄT GESTERN, MORGEN, UND, SEXARBEITERiNNEN – SIND WIR WEITER?, (SEXARBEITERiNNEN – Teil 2 – GESCHICHTE UND GEGENWART). Diese Beiträge behandelten grob einzelne Aspekte, z.B. wie sich Sexualität manifestiert und viele Formen (gegenwärtig und vergangen), in denen Sexualität verknüpft ist mit Gewalt gegen Frauen. Dies ist fragmentarisch und bedürfte mannigfaltiger Ergänzungen. Hier soll nun jener Aspekt angesprochen werden, bei dem es um die genetischen und neuronalen Grundlagen der Sexualität und des Geschlechts geht.

4. Zu ‚erleben‘, dass man ’sexuell angeregt‘ ist, ’sexuelle Lust‘ verspürt, man ’sexuell befriedigt‘ ist – um nur einige Aspekte zu nennen – ist eines; ein anderes ist es, zu klären, warum dies überhaupt so ist: Woher kommt das? Warum hat man überhaupt diese Erlebnisse? Verändert sich dies? Haben andere das genauso? Usw.

5. In der Vergangenheit habe ich oft heutige Neurowissenschaftler kritisiert für ihre vielfache methodische Sorglosigkeiten oder für schlechte Artikel selbst in angesehensten wissenschaftlichen Journalen; dazu stehe ich, gleichzeitig habe ich aber auch kein Problem, anzuerkennen, dass die Neurowissenschaften uns – analog wie z.B. die Physik, die Chemie, die Molekularbiologie, die evolutionäre Biologie – in einer neuen Weise Einblicke in die Grundlagen unseres Fühlens und Denkens verschafft haben, die vorher undenkbar erschienen und die unser Bild von uns selbst (und anderen Lebewesen) nachhaltig verändert haben (sofern wir uns auf diese Erkenntnisse einlassen).

6. Im Rahmen der Überlegungen zum Bewusstsein-Nichtbewusstsein angewendet auf die Phänomene im Umfeld von ‚Sexualität‘ und ‚Geschlecht‘ liefert uns die Neurowissenschaft eine Menge interessanter Eckwerte.

7. Heute morgen habe ich in meinen Bücherschrank gegriffen und spontan 8 (Hand-)Bücher aus den Regalen geholt (siehe unten), die alle zur Neurowissenschaft zu rechnen sind (oder als ‚Physiologische Psychologie‘ zumindest sehr nahe benachbart sind). Sie stammen aus dem Zeitraum 1994 – 2012. Bis auf Gazzaniga (2009) und Baars (2010) behandeln alle das Thema ‚Sexualität‘ und ‚Geschlecht‘.

8. Sehr gut lesbar und recht ausführlich ist der Beitrag ‚Sexual Differentiation of the Nervous System‘ von Shah, N.M.; Jessel, T.M.; Sanes, J.R. in Kandell et al. (2012), Kap.56. Sieht man davon ab, dass im Beitrag selbst nicht direkt zitiert wird und die methodischen Fragen unerwähnt bleiben, kann man dem Beitrag aber die Argumentation entnehmen, dass die Gene der Chromosomen zunächst einmal im Rahmen der Embryogenese die Strukturbildung des Körpers beeinflussen (z.B. Ausbildung von Geschlechtsorganen, Ausbildung spezifischer Gehirnstrukturen). Die Steuerung übernehmen dabei spezifische Hormone. Liegen die Strukturen dann vor, steuern die gleichen oder ähnliche Hormone über die Rezeptoren von Neuronen spezifische neuronale Muster, die für bestimmte Verhaltensmuster (sexuelle Erregungszustände, Balzverhalten, Aggression (gegen Konkurrenten), sexuelle Vereinigung, Brutpflege, usw.) verantwortlich sind.

9. Das komplexe Wechselspiel von Strukturen, Hormonen (mit z.T. komplexen Transformationsketten), und passenden Rezeptoren, bietet allerlei Angriffspunkte für ‚Störungen‘, so dass ein Kind zunächst äußerlich z.B. männliche Geschlechtsorgane aufweist, es in seinem hormonellen Systemen darin aber nicht unterstützt wird. Während diese Prozesse heute physiologisch nachvollzogen (und z.T. durch geeignete medizinische Eingriffe ‚korrigiert‘) werden können, ist dies alles für die ’subjektive Erlebnisseite‘, für den/ die Betroffene(n) nicht direkt einsichtig. Er/ Sie empfängt Körpersignale, die mit dem Verhalten anderer Menschen nicht so recht zu korrelieren scheinen.

10. Ferner werden manche hormonellen Prozesse über die Wahrnehmung gesteuert (Milchproduktion bei Müttern aufgrund des Saugreizes). Die sensorischen Signale triggern die Produktion bestimmter Hormone, die wiederum Neuronen aktivieren, die dann zu einem bestimmten Verhalten führen (können). Zusätzlich wurde beobachtet, dass frühkindliche sensorische Erfahrungen (‚Stress‘ oder ‚umsorgt‘ sein) auch soweit in bestimmte Chromosomen hineinwirken können, dass diese sich auf das Verhalten auswirken.

11. Aufgrund der Komplexität des menschlichen Gehirns und des menschlichen Verhaltens samt den vielfältigen Wechsel- und Rückwirkungen ist es aber bei sehr vielen Verhaltensmustern noch nicht eindeutig, ob diese genetisch bedingt sind oder aufgrund des sozialen Umfelds. Dies betrifft insbesondere die vielfältigen Formen von gleichgeschlechtlicher Sexualität. Zwar konnte man nachweisen, dass das Rezeptorverhalten mancher Aktivitäten sich bei Menschen in gleichgeschlechtlichen Beziehungen sich so geändert hat, dass Männer das Rezeptorverhalten von Frauen zeigen und Frauen das Rezeptorverhalten von Männern, aber es ist bislang nicht auszuschließen, dass diese Änderungen allein durch das Verhalten zustande kamen.

12. Soweit meine recht grobe Zusammenfassung. Für Details sollte jeder den Beitrag selber nachlesen. Aus philosophischer Sicht kommt es hier auch nicht auf die molekularbiologischen Details an, sondern auf die allgemeine Struktur, die sich hier zeigt: auch im Falle der für Lebewesen zentralen Sexualität gründet sich unser Erleben und Verhalten auf konkreten neuronalen Schaltkreisen, die mittels Hormonen getriggert werden, und zwar so, dass damit nicht nur ‚Verhalten‘ gesteuert wird, sondern auch die genetischen Grundlagen selbst können selbstreferentiell modifiziert werden.

13. Für das Selbstverständnis von uns Menschen, die wir uns im Alltag an unserer Bewusstseinserfahrung und dem beobachtbaren Verhalten orientieren, kann dies zu Irritationen und Unmenschlichkeiten im Miteinander führen, wenn Menschen aufgrund einer abweichenden genetischen – hormonellen – neuronalen Struktur anders empfinden und sich anders verhalten. In der Geschichte hat dies real zu ‚Verteuflungen‘, ‚Verurteilungen‘, ‚Unterdrückung‘, ‚Ausgrenzungen‘ und ‚Verfolgungen‘ usw. geführt. Religiöse Traditionen haben hier genauso versagt wie andere Spielarten von Moral oder Ethik. Und auch heute ist die Verurteilung und Unterdrückung von ‚Homosexualität‘ (z.B. Rußland) offizielles Recht.

14. Während man konkrete Menschen, die aufgrund ihrer genetischen – hormonellen – neuronalen Strukturen anders erleben und sich verhalten als der ’statistische Durchschnitt‘, grundsätzlich als Menschen achten und sie unterstützen sollte, muss man davon die Frage unterscheiden, wie eine Gesellschaft offiziell mit den vorliegenden genetischen und körperlichen Strukturen der Menschheit auf Zukunft hin umgehen will. Auch wenn wir JEDEN AKTUELL LEBENDEN Menschen als Mitglied der Gattung homo sapiens sapiens achten sollten, müssen wir uns als Menschen die Frage stellen, (i) welche unserer ‚Bilder von uns selbst‘ denn noch ‚angemessen‘ sind und (ii) in welche Richtung denn die Entwicklung wohl geht bzw. ‚gehen sollte‘?

15. Die Menschenbilder, die uns die großen bekannten Religionen (Buddhismus, Judentum, Christentum, Islam) anbieten, sind nach meinem Verständnis vielfach zu überarbeiten. Die impliziten Menschenbilder der modernen Demokratien gehen in vielen Punkten deutlich über die Menschenbilder der Religionen hinaus, sind aber auch durch den Gang der Erkenntnis partiell überholt. Es wird nicht reichen, einfach nur das ‚Gewohnte‘ zu wiederholen.

16. ‚Sexualität‘ und darum herum aufbauend ‚Geschlecht‘ repräsentiert konkrete Prozesse (die anfällig für Störungen sind), die evolutionär geworden sind, die einem bestimmten Zweck dienten, und die im Heute neu hinterfragt werden könnten und müssten. Vieles von dem ‚Mann-Frau-Gerede‘ klebt am ‚Phänomen‘ und hilft wenig, ein wirkliches Verständnis der wirkenden Prozesse zu vermitteln.

QUELLEN

Buecher vom 12.April 2014 zum Thema genetisch-neuronale Grundlagen der Sexualität

Buecher vom 12.April 2014 zum Thema genetisch-neuronale Grundlagen der Sexualität

  1. Arbib, M.a. et.al (eds) The Handbook of Brain Theory and Neural Networks, Cambridge (MA): Bradford Book, 2003 (2nd ed.), S.680f, Motivation
  2. Baars, J.B.; Gage, N.M. Cognition, Brain, and Consciousness. Introduction to Cognitive Neuroscience, 2nd.ed., Amsterdam et: Elsevier, 2010
  3. Carlson, N.R., Physiologische Psychologie, München – Boston – San Francisco et.al:Pearson Studium, 2004 (8.Aufl.), Kap.10, Sexuelles Verhalten
  4. Gazzaniga, M. S. (Ed.), The Cognitive Neurosciences, London – Cambridge (MA): The MIT Press, 2009 (4th ed.), ‚motivation‘ als ‚Vermeidung‘ (116), als emotionale Reaktion Kap.61, Kap.11 beim Transfer-Lernen, Kap.70 bei Entscheidungsfindung
  5. Gazzaniga, M. S. (Ed.), The Cognitive Neurosciences, London – Cambridge (MA): The MIT Press, 1995, Kap.69-77, Kap.80
  6. Kandel, E.R.; Schwartz, J.H.; Jessell, T.M.; Siegelbaum, S.A.; Hudspeth, A.J.; (Eds.) Principles of Neural Science, 5th.ed., New York et.al: McGrawHill, 2012, Kap.3: Gene und Verhalten, Kap.22: Sensorik und Verarbeitung, Kap.58: Sexuelle Differenzierung des Nervensystems
  7. Nelson, C.A.; Luciana, M. (eds.), Handbook of Developmental Cognitive Neuroscience, Cambridge (MA) – London (Engl.): MIT Press, 2008 (2nd. ed.), S.394f Störungen während der Gehirnentwicklung und deren Folgen
  8. Shepherd, G.M., Neurobiology, 3rd.Ed, New York – Oxford: Oxford University Press, 1994, (ISBN-10: 0195088433, ISBN-13: 978-0195088434), Kap.24 ‚Mating‘

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

REDUKTIONISMUS, EMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 6

Vorheriger Beitrag Teil 5

Letzte Änderungen: 15.April 2013, 09:30h

WARNUNG – SPEKULATIV

1. Auf den Seiten 197-229 versucht Kauffman, die Besonderheiten des Phänomens ‚Geist‘ mit den Denkmodellen der Quantenphysik zu reflektieren. Und er warnt seine Leser, dass dieses Kapitel seines Buches vermutlich die wissenschaftlich unsicherste Passage im ganzen Buch sei.(vgl.S.197, 222). Auch macht er darauf aufmerksam, dass es mit Roger Penrose schon andere gab, die Ähnliches zu denken versucht haben.
2. [Anmerkung: Wer den Beitrag über Penrose in der englischen Wikipedia liest, wird feststellen, dass Penrose und seine Partner Hameroff in ihrer Hypothesenbildung sehr weit gehen und damit eine eigenständige Diskussion auf internationaler Ebene ausgelöst haben. Im Kontext ‚Quantenphysik‘ und ‚Bewusstsein/ Geist‘ wird auch Niels Bohr erwähnt sowie Eugen Wigner. Bei letzterem ist der Zusammenhang offensichtlich; bei Planck konnte ich es noch nicht verifizieren.]

NEUROWISSENSCHAFTEN ‚KLASSISCH‘

3. Ausgangspunkt für dieses Kapitel ist die Position der Neurowissenschaftler, so wie Kauffman sie sieht: sie nehmen das Gehirn als eine Ansammlung von Neuronen, die untereinander auf biochemische Weise im nicht-quantenphysikalischen Sinne kausal verknüpft sind; dies entspricht einem geschlossenen Raum kausaler Verknüpfung, in dem es zu jedem Ereignis eine erschöpfende Ursache gibt. Das, was wir im Alltag ‚Geist‘, ‚Bewusstsein‘ (inklusive ‚freiem Willen‘) nennen, ist in diesem Modell eine Eigenschaft dieser kausalen Maschinerie. Daraus ergibt sich dann, dass das ‚Bewusstsein‘ nicht diese kausale Maschinerie beeinflusst, sondern die kausale Maschinerie erzeugt die Phänomene des Bewusstseins bzw. das Bewusstsein überhaupt. Einen freien Willen gibt es in diesem Szenario daher nicht. Dies bedeutet, dass die einzelnen Menschen nicht moralisch verantwortlich sein können für das, was sie tun.(vgl. S.197f)

KEIN ABSOLUTER KAUSALER RAUM

4. Dieses sehr einfache, deterministische Bild vorausgesetzt [Anmerkung: was selbst ohne Quantenphysik m.E. so kaum haltbar ist] spekuliert Kauffman, welche neuen Perspektiven sich ergeben würden, wenn man die quantenphysikalischen Grundlagen aller Makrophänomene ernst nehmen würde. Da der quantenphysikalische Raum grundsätzlich ‚akausal‘ ist, würden letztlich alle ’scheinbar kausalen‘ Prozesse sich in einem umfassenden ‚akausalen Rauschen‘ auflösen. Letztlich wäre gar nichts mehr ‚kausal‘. Ob daraus tatsächlich etwas ‚Konstruktives‘ folgen würde, lässt Kauffman offen, aber zumindest wäre die vereinfachende ‚Abschliessung‘ aller interessanten empirischen Phänomene in einer deterministischen Feinstruktur aufgebrochen.(vgl. S.199)
5. [Anmerkung: Dass die bloße Annahme eines akausalen quantenphysikalischen Raumes als ‚Grundlage für alles‘ in gewisser Weise noch nichts erklärt, kann man an der Tatsache erkennen, dass nahezu alles, was das menschliche Weltbild ausmacht, auf ‚Regelmäßigkeiten‘ basiert, die sich vom allgemeinen ‚Rauschen‘ abheben. Dies bedeutet, dass der akausale quantenphysikalische Raum ‚als solcher‘ von sich aus nicht automatisch Erklärungen liefert, er bietet nur einen ‚Ausgangspunkt‘ für mögliche Erklärungen ‚regelmäßiger‘ Phänomene, die wir in diesem Zusammenhang als ‚emergent‘ begreifen, d.h. als Phänomene, die im akausalen quantenphysikalischen Raum ‚gründen‘, die aber in ihrem Zusammenhang und ihrer Komplexität Eigenschaften des quantenphysikalischen Raumes sichtbar machen, die allein aus seinen ‚Bestandteilen‘ nicht so ohne weiteres abgeleitet werden können. ]

IDENTITÄTSTHEORIE UND SO

6. Kaufmann zitiert in diesem Kontext beiläufig noch die Positionen der ‚Identitätstheorie‘, des ‚Dualismus‘, den ‚radikalen Idealismus eines Berkeley, zwei Sprachphilosophen Ryle und Searl, sowie zwei neuere Philosophen Flanagan und Churchland.
7. Zentral erscheint mir seine Bemerkung, dass das Faktum der ‚Bewusstheit als solcher‘ (‚awareness itself‘) unabhängig von allen angebotenen Interpretationsmodellen das primäre Phänomen darstellt, das es zu erklären und zu gewichten gilt. Die persönliche Erfahrung jedes einzelnen ist ‚privat‘ im strengsten Sinne; niemand anderes kann sie einsehen. Und was immer wir uns an Erklärungsmodellen erarbeiten, sie alle setzen diese Privatheit des subjektiven Erlebens als primäre Basis voraus.(vgl. S.199)
8. Kauffman zitiert Descartes in diesem Kontext als jener Philosoph, der das Selbstbewusstsein in Form eines sich gewissen Denkens als primären, einzig nicht bezweifelbaren Punkt aller Erkenntnis angenommen hatte Descartes (1596-1650). In seinen weiteren Reflexionen und Analysen hatte Descartes dann die Konkretheit, Veränderlichkeit und Zufälligkeit des Körpers, der ganzen Körperwelt und der darauf aufbauenden Wahrnehmung als ontologisch verschieden zu der Klarheit, Allgemeingültigkeit und Zuverlässigkeit des Denkens zum Ausgangspunkt genommen für das Postulat, dass das Denken einer anderen Substanz als jener der veränderlichen Körperwelt zugehöre. Daraus ergab sich für ihn eine Art ‚Dualismus‘ des Veränderlichen gegenüber dem Unveränderlichen. Diese Dualismus-Hypothese brachte eine Reihe von Denkproblemen mit sich.(vgl.S.199)
9. Aufgrund der fortschreitenden Erkenntnisse, wie der Körper, speziell das Nervensystem und hier das Gehirn, funktionieren, hat sich heute vielfach die Hypothese von der ‚Identität von Gehirn und Geist‘ durchgesetzt (hier als Oberbegriff für die verschiedenen Spielarten einer Gehirn-Geist-Identätstheorie. Diese Identitätstheorie schließt die Dualismus-Hypothese von Descartes aus. Kauffman sagt, dass er diese Gehirn-Geist-Identitätstheorie übernimmt, sie aber dann mit dem quantenphysikalischen Modell vereinen möchte.(vgl.S.199) In diesem Kontext sollte man auch die klassische Neurobiologie nennen, für die Kauffman als Vertreter Christof Koch zitiert. Diese nimmt an, dass es zu allen Phänomenen des Bewusstseins entsprechende neuronale Strukturen und Prozesse gibt, die kausal verantwortlich sind für das Auftreten der bewussten Ereignisse. Im Detail stellen sich hier eine Menge von ungelösten Fragen. Auch kann man von den neurologischen Daten D_nn in keiner Weise direkt auf Phänomene (= Ereignisse des individuellen Bewusstseins) D_ph schliessen. Ein geeigneter theoretischer Rahmen fehlt. (vgl. S.202f)
10. [Anmerkung: Wie schon verschiedentlich in diesem Blog angemerkt, ist die Bezeichnung ‚Geist-Identitätstheorie‘ aus philosophischer Sicht mindestens unglücklich in der Wortwahl. Da die Neurowissenschaften empirisch Daten D_nn aus der 3.Person-Perspektive haben, Daten zum Selbstbewusstsein D_ph aber nur in der 1.Person vorliegen, haben wir zwei verschiedene Datenbereiche, die ontologisch vollständig verschieden sind (D_nn cut D_ph = 0). Hier von einer ‚Identität‘ zu reden ist sehr irreführend und sachlich falsch. Denkbar wäre, dass es zu jedem Datenbereich eine Theorie TH(D_nn), TH(D_ph) gibt (bis heute hat dies aber noch niemand geschafft), und sich zwischen den verschiedenen Theorien irgendwelche Abbildungsbeziehungen konstruieren lassen (wer wird der erste sein?). Rein formal hätten wir dann irgendwelche ‚Morphismen‘, deren ontologische Deutungen dennoch keine Identität zulassen würden. Es scheint, dass sich die Philosophen die Sache mit der Identitätstheorie etwas einfach machen. Eine solche korrigierte Formalisierung führt aber weder zurück zu einem Dualismus a la Descartes noch zu einem Idealismus a la George Berkeley (1685-1753). Dies sollte an anderer Stelle weiter diskutiert werden.]

SPRACHNAHE PHILOSOPHIE

11. Kauffman erwähnt auch noch die ’sprachnahen‘ Philosophen Gilbert Ryle (1900 – 1976) und John Searle (1932 – ), die bei ihren Analysen des Verhaltens (einschließlich Sprechens) auf eine Einbeziehung des Begriffs ‚Bewusstsein‘ verzichteten mit der Begründung, dass der Begriff ‚Bewusstsein‘ kaum klar zu fassen sei. Damit wiederholen Sie aber eigentlich nur Positionen von Ludwig Wittgenstein (1889 – 1951), der die Problematik jeglicher sprachlicher Bedeutung zuvor schon in vielfältigen Analysen aufgedeckt hatte.(vgl.S.200)
12. [Anmerkung: entsprechend der allgemeinen Erkenntnistheorie, die den Überlegungen in diesem Blog zugrunde liegen, haben wir es grundsätzlich mit drei heterogenen Datenbereichen zu tun (D_nn, D_ph, D_sr (= Verhalten, 3.Person)), deren saubere Aufarbeitung und Integration in einer umfassenden Theorie bis heute nicht einmal in Ansätzen vorliegt. Es gibt ja nicht einmal Konsensus über die Besonderheit dieser drei Datenbereiche geschweige denn einen Konsens, dass und wie man damit umgehen soll. Diesen Mangel an erkenntnistheoretischem und dann auch wissenschaftstheoretischem Konsens merkt man überall auf Schritt und tritt.]
13. Kauffman erwähnt auch noch die Philosophen Paricia Smith Churchland (1943-) und Owen Flanagan (1949 – ) im Kontext der Diskussionen zur ‚Einheit des Bewusstseins‘. Während das Bewusstsein in der subjektiven Perspektive als ‚eines‘ erscheint deuten die medizinischen Befunde drauf hin, dass sich das Bewusstsein aus vielen Teilleistungen zusammensetzt, die einzeln und partiell verändert werden oder ganz ausfallen können, ohne dass deswegen das subjektive Gefühl eines ‚einzigen einen Bewusstseins‘ verschwindet.(vgl. S.200)

STARKE KI

14. Es wird dann die sogenannte ‚Starke Künstliche Intelligenz-Hypothese‘ erwähnt, die annimmt, dass bei einer genügend großen Anzahl von verknüpften rechnenden Elementen ‚ab einem bestimmten Punkt automatisch‘ ‚Selbstbewusstsein‘ entstehen würde. Als einziges hartes Argument gegen diese Hypothese führt Kauffman die die Hypothese an, dass die starke KI-Hypothese voraussetze, dass diese intelligenz ‚algorithmisch‘ sein müsse und dass nach Kauffman der ‚Geist‘ (‚mind‘) vermutlich niht algorithmisch sei.(vgl. S.201f)
15. [Anmerkung: Die Formulierung der starken KI-Hypothese (’strong artificial intelligence hypothesis‘, ’strong ai-hypothesis‘) geht zurück auf den Philsophen John Searl (s.o.) und ist alles andere als sehr klar. Nicht nur sind die verwendeten Begriffe in sich oft unscharf, sondern – wie die sehr ausufernde Diskussion zeigt – ist die ganze Problemstellung alles andere als klar. Mit einem Satz festzustellen, dass sich das Problem erledigt habe, weil klar sei, dass der ‚Geist‘ nicht algorithmisch sei, stellt daher möglicherweise eine grobe Vereinfachung dar. Abgesehen davon spring Kaufman von dem Begriff ‚Selbstbewusstsein‘ einfach zum Begriff ‚Geist‘ dabei unterstellend, dass beide Begriffe hinreichend ähnlich seien. Das aber ist eine schwierige Frage. Ich sehe keinen einfachen Zusammenhang zwischen beiden Begriffen. ]

SELBSTBEWUSSTSEIN UND QUANTENPHYSIK

16. Den nächsten sehr langen Abschnitt leitet Kauffman ein mit der Bemerkung, dass er und Penrose davon ausgehen, dass das Selbstbewusstsein (‚consciousness‘) von sehr speziellen physikalischen Bedingungen abhängt. [Anmerkung: Eine Assoziation zu Descartes kühner Arbeitshypothese, die denkende Materie (res extensa) mit der kontingenten Materie (res extensa) über die ‚Zirbeldrüse‘ verknüpft zu denken, drängt sich unwillkürlich auf. Descartes wusste nicht wirklich, was dieses ‚Selbstbwusstsein‘ mit dem ‚Ich denke‘ genau ist; es erschien ihm ‚anders‘ als die kontingente materielle Körperwelt. Um diesen logischen Bruch denkerisch zu kitten erfand Descartes die Hypothese mit der Zirbeldrüse. Niemand würde sie heute so nehmen, wie Descartes sich das gedacht hatte. Doch das Vorgehen von Kauffman an dieser Stelle wirkt ähnlich. Bislang konnte er in keiner Weise erklären, was er wirklich mit ‚Selbstbewusstsein‘ oder gar ‚Geist‘ meint. Dennoch entwickelt er eine neue Hypothese, dass bestimmte quantenphysikalische Besonderheiten die Grundlage für eben jenes Unbekannte sein könnten… Rein logisch ersetzt hier die Spekulation über die Quantenphysik den cartesischen Begriff der Zirbeldrüse ohne zu große Aussicht auf mehr Klarheit (allerdings erweitert sich der Raum möglicher Hypothesen natürlich erheblich und ich stimme Kauffman soweit zu, dass jede tatsächlich weiterführende Antwort nur unter Einbeziehung der Quantenphysik funktionieren wird). ](vgl. S.203f)
17. Das leitende ‚Motiv‘ für die Einbeziehung der Quantenphysik ist das schon zuvor mehrfach erwähnte Argument, dass der menschliche Geist (‚mind‘) ’nicht algorithmisch‘ sei, was nach Kauffman nicht impliziert, dass er völlig ‚akausal‘ (‚acausal‘) sei. [Man beachte, das er beständig zwischen den Begriffen ‚Geist‘ (‚mind‘) und ‚Selbstbewusstsein‘ (‚consciousness‘) hin und her springt obgleich beide Begriffe nach meinem Verständnis sehr verschieden sind und beide Begriffe bislang sich jeder Definition weitgehend entziehen. Man könnte stattdessen auch einfach von ‚S‘ und ‚G‘ reden, diese wechselweise vertauschen und davon sprechen, dass sie nicht algorithmisch seien. Die argumentative Luft, in der sich Kauffman hier bewegt, ist sehr dünn geworden. Daneben ist auch die Aussage, ‚G‘ bzw. ‚S‘ sei nicht algorithmisch letztlich kaum zu verstehen. Ist doch mehr oder weniger unklar, was es heißen würde, dass S-G ‚algorithmisch‘ seien (das hatte Kauffman zuvor nicht wirklich erklärt. Aber er hat dafür argumentiert, dass es nicht so sei…).] (vgl. S.204)
18. Die Einbeziehung der Quantenphysik führt zu dem generellen Paradox, dass die Quantenwelt als solche nur aus Wahrscheinlichkeitsverteilungen besteht, die als solche ‚akausal‘ sind, während die ‚reale = makroskopische‘ Welt aktuelle konkrete Instanzen präsentiert, die in bestimmten Perspektiven ‚kausale Muster‘ erkennen lassen.(vgl. S.204f) Kauffman zitiert dann Richard Feynman (1918 – 1988) mit Beispielen, die diese Eigenschaften illustrieren sollen. Der entscheidende Punkt aber ist der Übergang vom unbeschränkten Quantenzustand zu einer ‚Aktualisierung‘, bei der/ in der wichtige Quanteninformationen verlorengehen. Als Erklärungsversuch für diesen Übergang verweist Kauffman auf die Dekohärenztheorie als zur Zeit am meisten akzeptierte theoretische Beschreibung dieser Aktualisierungsphänomene.(vgl. SS.205-208)
19. Es ist genau dieses Dekohärenzphänomen was Kauffman dann aufgreift, um damit die Interaktion zwischen einem ‚quantenphysikalischen kohärentem selbstbewussten Geist (qkSG)‘ und ‚Aktualisierungen in der klassischen physikalischen Welt‘ zu interpretieren.[Anmerkung: War zuvor schon der Status der Begriffe ‚Selbstbewusstsein (S)‘ und ‚Geist (G)‘ je für sich schon unklar, wird diese Unklarheit durch die Kombination ’selbstbewusster Geist (SG)‘ (‚conscious mind‘) nicht unbedingt besser.] Auf jeden Fall ist die Einwirkung dieses qkSG auf die Materie nicht kausal. Andererseits stellt Kauffman fest, dass der Vorgang der Dekohärenz bislang kaum verstanden ist. (vgl. S.208) [Anmerkung: Damit verknüpft sich die unklare Bedeutung von SG mit der Unklarheit der postulierten Dekohärenz. ] Dann setzt Kauffman den bislang kaum fassbaren Begriff qkSG mit der ‚res cogitans‘ von Descartes gleich und die aktualisierte Materie mit der ‚res extensa‘.(vgl. S.209). [Anmerkung: Dies ist eine stimulierende Überlegung, aber wenn vor der Einführung von qkSG schon keine wirkliche Bedeutung für SG – geschweige denn qkSG – verfügbar war, dann führt uns diese Gleichsetzung auch nicht weiter. Descartes hatte keine wirkliche Definition für seine ‚res cogitans‘. Bei ihm war es eine Vermischung von phänomenalen Eigenschaften erweitert um Spekulationen über eine mögliche allgemeine (ideale) Natur des ‚Geistes‘, ein Begriff, der als solcher keine wirkliche Bedeutung besitzt. Möglicherweise könnte man in einer ‚Metatheorie‘ zur Phänomenologie ein paar allgemeinere Begriffe ‚jenseits der Phänomene‘ einführen, ihr ontologischer Status wäre aber unklar. Descartes hat dies nicht getan und ich kenne auch keinen anderen Philosophen, der dies bislang wirklich geschafft hat. Den cartesischen Begriff ‚res cogitans‘ hier zu benutzen täuscht daher eine Bedeutung vor, die es so nicht gibt.]
20. In diesem Kontext führt Kauffman auch den Begriff ‚immateriell‘ (‚immaterial‘) ein und definiert ihn als eine mögliche Eigenschaft im quantenphysikalischen Raum, die ’nicht objektiv real‘ ist. (vgl. S.209)
21. Interessant ist auch das Phänomen, dass ein kohärenter quantenphysikalischer Zustand beim Auftreten von Dekohärenz nicht aufgehoben werden muss. Es gibt Beispiele dafür, dass Dekohärenz auftreten kann und der kohärente Zustand bleibt weiter bestehen bzw. dass es Mechanismen gibt, Kohärenz/ Dekohärenz kontrolliert zu nutzen. Dazu gehören auch neuere Modelle, wie Quanten-Computer funktionieren könnten. (vgl. SS.210-214) Aufgrund eigener Untersuchungen hält Kauffman es für möglich, dass jede Zelle so strukturiert ist, dass kohärente quantenphysikalische Austauschprozesse zwischen den Proteinen möglich sind. (vgl. S.220) Das Phänomen der Qantenverknüpftheit (‚quantum entanglement‘) verweist zusätzlich auf das Phänomen, dass Quanten in beliebiger Entfernung voneinander gemeinsame Eigenschaften haben können. (vgl. S.222)

REDUKTIONISMUS ABGEMILDERT DURCH EMERGENZ

22. Kauffman stellt dann nochmals fest, dass im Falle, dass seine Überlegungen zur Quantennatur des Geistes stimmen würden, also die angenommene Verlagerung des Geistes in den Quantenraum, der über Kohärenz/ Dekohärenz mit dem makroskopischen Raum der Körper interagiert, dass diese Annahme auch eine Art ‚Reduktionismus‘ darstellen würde, einen Reduktionismus, den er zu Beginn seines Buches ja gerade bekämpft hat. Er schwächt dann aber ab, indem er darauf verweist, dass sich aus diesem Reduktionismus von Geist auf quantenphysikalische Strukturen nichts deterministisch ableiten lässt. Nahezu alle Phänomene der biologischen Evolution repräsentieren Strukturen, die sich in dieser Konkretheit aus dem vorausgesetzten quantenphysikalischen Raum nicht voraussagen lassen. (vgl. S.222f)

DIE HARTEN ARGUMENTE GEGEN DEN GEIST HARREN EINER ANTWORT

23. Abschließend zu seinem Kapitel über die Hypothese, den ’selbstbewussten Geist‘ quantenphysikalisch zu interpretieren, listet Kauffman nochmals drei zentrale philosophische Argumente gegen die Annahme eines ‚Geistes‘ als unterschieden vom Gehirn an, die beantwortet sein wollen.
24. Als erstes verweist er nochmals auf den Ephiphänomenalismus, der die geistigen Phänomene als Begleiterscheinungen einer aktiven neuronalen Maschinerie sieht, da es bislang an überzeugenden Argumenten fehlt, die erklären, wie der ‚Geist‘ (für den es als solchen keine überzeugende Beschreibung gibt), auf das Gehirn, auf den Körper einwirken kann.(vgl. S.224) Dazu gehört auch das Problem, dass es völlig unklar sei, wie ‚Geist‘ direkt auf ‚Geist‘ wirken könne ohne Einbeziehung neuronaler Prozesse. (vgl. S.224f) Kauffman verweist darauf, dass, könnte man die Hypothese einer quantenphysikalischen Interpretation eines selbstbewussten Geistes qkSG beweisen, sich diese Probleme auflösen würden, da ein qkSG auf vielfache Weise mit sich selbst interagieren könnte ohne über den Umweg neuronaler Prozesse und doch zugleich auch über Dekohärenz neuronale Prozesse beeinflussen könnte. (vgl. S.225f)
25. Als zweites Problem erwähnt Kauffman das Problem der subjektiven Erfahrung selbst, oft das Problem der Qualia (DE)/ Qualia (EN) genannt. Hier sagt Kauffman, dass es bislang völlig unklar ist, ob und wie eine quantenphysikalische Interpretation von Geist hier neue Interpretationsansätze liefern kann. [Anmerkung: Schaut man in die Wikipediastichworte – sowohl in der deutschsprachigen wie auch in der englischsprachigen Version – nach, wird man schnell feststellen können, dass die Sachlage in diesem Bereich nur als ‚verworren‘ bezeichnet werden kann.] Allerdings bemerkt Kauffman zurecht, dass wir aus der Tatsache, dass momentan noch keiner eine schlüssige Erklärung auf der Basis der Quantenphysk anbieten kann, auch nicht folgt, dass es keine gibt. Aktuell ist nicht auszuschließen, dass es später mal eine brauchbare Erklärung geben kann. (cgl. S.226f)
26. Das dritte und letzte genannte Problem ist das Phänomen des freien Willens (EN)/ freien Willens (DE). Kauffman thematisiert zunächst den Aspekt des ‚Nicht-Determiniert-Seins‘ als einer Forderung an das Gegebensein eines freien Willens. Würde die quantenphysikalische Interpretation stimmen, dann sähe er hier eine Möglichkeit, das Determinismusproblem zu lösen. Bezüglich des zweiten Aspekts der ‚moralischen Verantwortung‘ bleibt er einen Hinweis schuldig. (vgl.S.227f) [Anmerkung: Liest man sich in die Wikipediastichworte ein, so sieht man nicht nur, dass es – wie meistens – zwischen der deutschen und der englischen Version große Unterschiede gibt, sondern wie vielschichtig und damit letztlich unklar das Konzept des freien Willens ist. Generell spielt es in der Alltagskultur der westlichen Länder eine zentrale Rolle, insbesondere im Rechtssystem, aber seine philosophische Behandlung ist alles andere als zufriedenstellend.]
27. Damit ist das Ende der beiden Kapitel über den Geist erreicht. Trotz vieler kritischer Anmerkungen im Detail – eine abschließende Reflexion wird noch folgen – waren dies außerordentlich anregende Kapitel. Für Kauffman war es wichtig, zu zeigen, dass das Phänomen des ‚Selbstbewusstseins‘ [hier lässt er den Begriff ‚Geist‘ wieder mal weg] ein natürliches Phänomen ist, ein genuiner Teil der Evolution, den zu erklären, es keines ‚Schöpfergottes‘ (‚creator god‘) brauche.(vgl. S.229)
28. [Anmerkung: Seinen Schlusssatz, dass man für dies alles keine Annahme über einen ‚Schöpfergott‘ brauche, macht natürlich nur Sinn, wenn man den Begriff ‚Schöpfergott‘ in einer Weise definiert, der den bekannten naturwissenschaftlichen Daten zum evolutionären Prozess widerspricht. Dies muss aber keinesfalls so sein. Denn schon in der jüdisch-christlichen Tradition gibt es ja nicht einen einzigen, klar definierten Gottesbegriff, sondern die vielen verschiedenen Schriften der Bibel zeichnen sehr unterschiedliche Bilder. Dazu kommt, dass nirgends explizit von der Evolution die Rede ist, da ja die Menschen zu den Zeiten, als die Texte der Bibel verfasst worden sind, von all dem nichts wussten. Und die wenigen Texte, die direkt Bezug nehmen auf die Entstehung der bekannten Welt – insbesondere die beiden sogenannten ‚Schöpfungsberichte‘ zu Beginn des Buches Genesis – sind sprachlich und inhaltlich so verschieden (weil sie aus verschiedenen Zeiten von verschiedenen Autoren stammen), dass sich jede weiterreichende Interpretation auf der Basis dieser beiden Texte verbietet. Zumindest in der christlichen Tradition gibt es kein klar definiertes Bild eines Schöpfergottes, das den neueren naturwissenschaftlichen Erkenntnissen entgegen stehen würde (wobei man bedenken sollte, dass sich innerhalb der Wissenschaft die naturwissenschaftlichen Bilder von der Welt mindestens seit Galilei immer wieder und stark verändert haben. Gerade in unserer Zeit durchläuft die Wissenschaft in vielen Bereichen wieder einmal grundlegende Korrekturen, deren Ende noch gar nicht abzusehen sind). Das Wenige, was sich von einem christlichen Gottesbegriff ableiten lässt deutet eher auf eine Art ‚Koevolution von Allem‘ hin, in der dem Leben (speziell dem Menschen?) eine besondere Rolle zugedacht ist. Worin die genau besteht, ist eher unklar und muss von den Handelnden selbst schrittweise ermittelt werden (falls es überhaupt eine mögliche Klärung gibt). Ich habe nicht den Eindruck, dass sich innerhalb des Christentums irgendjemand für diese Klärung des Gesamtzusammenhangs ernsthaft interessiert. Man hört höchstens immer wieder von obskuren Abwehrschlachten von sogenannten ‚Fundamentalisten‘, die offensichtlich ihre eigene Bibel nicht kennen.]

Die Fortsetzung findet sich HIER: Teil 7.

Ein Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER

Philosophie im Kontext – Teil2 – Irrtum!

Das Diagramm im letzten Beitrag über Philosophie im Kontext ist falsch, nicht so sehr in den Details, sondern in der grundlegenden Logik.

Philosophie im Kontext - FalschBild 1

Eine korigierte Version könnte wie folgt aussehen:

Philosophie im Kontext - NeuBild 2

 

(1) In dem vorausgehenden Beitrag hatte ich versucht, auf der Basis der philosophischen Überlegungen seit Januar (letztlich natürlich noch Monate und Jahre weiter zurück) in einem Diagramm die grundsätzlichen Verhältnisse zu skizzieren, die man berücksichtigen muss, will man über das Zusammenspiel all der verschiedenen möglichen wissenschaftlichen und philosophischen Theorien sprechen, einschließlich des alltäglichen Denkens.

 

(2) Dabei ist mir ein gravierender Fehler unterlaufen, der natürlich nicht zufällig ist, sondern aus der Art und Weise resultiert, wie unser Denken funktioniert.

 

 

(3) Das Bild, so wie es jetzt ist (siehe Bild 1), zeigt — wie in einer Landkarte — das erkennende Individuum aus einer ‚Draufsicht‘ (3.Person) mit seinem Körper, darin enthalten sein Gehirn, und innerhalb des Gehirns irgendwo die subjektiven Erlebnisse als ‚Phänomene [PH]‘.

 

(4) Der Fehler liegt darin begründet, dass das subjektive Erkennen niemals als ‚Objekt einer dritten Person-Perspektive‘ auftreten kann. Das ist ja gerade das Besondere der subjektiven Erkenntnis, dass sie die ‚Innenansicht‘ eines Gehirns ist, das subjektive Erleben eines bestimmten Menschen (oder auch mit Abwandlungen eines Tieres), ’seines‘ Erlebens, bei Husserl dem ‚transzendentalen ego‘ zugeordnet. D.h. das ‚primäre Erkennen‘ ist in einem subjektiven Erleben verortet, das als solches kein Objekt einer dritten Person sein kann.

 

(5) Diesem Sachverhalt trägt Bild 2 Rechnung. Das Erkennen startet dort bei der Menge der Phänomene. Wie Husserl – und auch viele andere – zurecht herausgestellt hat, sind die Phänomene aber nicht nur ‚in sich geschlossene Objekte‘, sondern ‚phänomenologische Tatbestände‘ in dem Sinne, dass ihr ‚Vorkommen/ Auftreten‘ begleitet ist von einem ‚Wissen über sie‘; jemand, der ‚etwas erkennt‘, ‚weiß‘ dass er erkennt. Das wird im Diagramm durch den Pfeil mit dem Label ‚Reflexion‘ ausgedrückt: Im ‚Wissen um etwas‘ – Husserl nennt dies ‚Intentionalität‘ des Erkennens – können wir alles, was der Inhalt dieses primären Wissens ist, hinsichtlich möglicher unterscheidbarer Eigenschaften ‚explizit unterscheiden‘ und ‚bezugnehmende Konzepte‘ bilden.

 

 

(6) Und da der Mensch – in Ansätzen auch einige Tierarten – die wundersame Fähigkeit besitzt, ‚Gewusstes‘ [PH_Non-L] in Beziehung zu setzen (assoziieren, Assoziation) zu anderem Gewussten, das als ‚verweisenden Etwas‘ (Zeichen) [PH_L] dienen soll, kann der erkennende Mensch die ‚Inhalte seines Bewusstseins‘ – die Phänomene [PH] – mit Hilfe solcher verweisender Zeichen ‚kodieren‘ und dann unter Verwendung solcher kodierender Zeichen ‚Netzwerke solcher Zeichen‘ bilden, die – je nach ‚Ordnungsgrad‘ – mehr oder weniger ‚Modelle‘ oder gar ‚Theorien‘ bilden können.

 

(7) Da das begleitende Wissen, die Reflexion, in der Lage ist, auch ‚dynamische Eigenschaften‘ der Phänomene zu erfassen (‚Erinnern‘, ‚Vorher – nachher‘,…) kann diese Reflexion auch – nach sehr vielen Reflexionsschritten – unterscheiden zwischen jenen Phänomenen, die geschehen ‚ohne eigenes Zutun‘ (ohne eigenes ‚Wollen‘) und den anderen. Das ‚ohne eigenes Zutun‘ kann aus jenen Bereichen des ‚eigenen Körpers‘ herrühren, die die Reflexion ’nicht unter Kontrolle‘ hat oder aus Bereichen ‚außerhalb des Körpers‘, den wir dann auch ‚intersubjektiv‘ nennen bzw. neuzeitlich ‚empirisch‘ [PH_emp].

 

 

(9) In einer phänomenologischen Theorie [TH_ph], deren Gegenstandsbereich die subjektiven Erlebnisse [PH] sind, kann man daher die charakteristische Teilmenge der empirischen Phänomene [PH_emp] identifizieren. Daneben – und zugleich – kann man all die anderen Eigenschaften der Phänomene samt ihrer ‚Dynamik‘ unterscheiden und begrifflich ausdrücklich machen. Eine genaue Beschreibung aller möglicher Unterscheidung ist sehr komplex und ich habe nicht den Eindruck, dass irgend jemand dies bis heute erschöpfend und befriedigend zugleich geleistet hat. Möglicherweise kann dies auch nur als ein ‚Gemeinschaftswerk‘ geschehen. Dazu müsste man eine geeignete Methodik finden, die dies ermöglicht (vielleicht sind wir Menschen technologisch erst jetzt (2012, ca. 13.7 Milliarden Jahre nach dem Big Bang, ca. 3.7 Milliarden Jahre nach dem ersten Auftreten von lebensrelevanten Molekülen auf der Erde…) langsam in der Lage, eine solche Unternehmung einer ‚gemeinsamen Theorie des menschlichen phänomenalen Bewusstseins‘ in Angriff zu nehmen).

 

(10) Vieles spricht dafür, dass die unterschiedlichen Versuche von Philosophen, die Vielfalt der Reflexionsdynamik (und deren ‚Wirkungen‘ auf den Bewusstseinsinhalt) mit Hilfe von sogenannten ‚Kategorientafeln‘ zu strukturieren (keine gleicht wirklich völlig der anderen), in diesen Kontext der Bildung einer ‚phänomenologischen Theorie‘ [TH_ph] gehört. Idealerweise würde man – zumindest einige der bekanntesten (Aristoteles, Kant, Peirce, Husserl,…) – vor dem aktuellen Hintergrund neu vergleichen und analysieren. Sofern diese die Struktur der Dynamik des ’sich ereignenden Denkens‘ beschreiben, müssten diese Kategorientafeln letztlich alle ’strukturell gleich‘ sein. Dabei unterstellen wir, dass die Dynamik des Denkens der einzelnen Menschen aufgrund der Gehirnstruktur ‚hinreichend ähnlich‘ ist. Dies ist aber streng genommen bis heute nicht erwiesen. Die vielen neuen Erkenntnisse zur Gehirnentwicklung und zum individuellen Lernen (einschließlich der emotionalen Strukturen) legen eher die Vermutung nahe, dass es sehr wohl individuelle Unterschiede geben kann in der Art und Weise, wie einzelne Menschen die Welt ‚verarbeiten‘. Träfe dies zu, hätte dies natürlich weitreichende Folgen für die Alltagspraxis und die Ethik (und die Moral und die Gesetze…).

 

 

(11) Hat man sich dies alles klar gemacht, dann wundert es nicht mehr, dass die Bildung wissenschaftlicher empirischer Theorien [TH_emp] nicht ‚außerhalb‘ einer phänomenologischen Theoriebildung stattfinden kann, sondern nur ‚innerhalb‘, und zwar aus mindestens zwei Gründen: (i) die Menge der empirischen Phänomene [PH_emp] ist eindeutig eine echte Teilmenge aller Phänomene [PH], also PH_emp subset PH. (ii) Die empirische Theorie TH_emp entsteht im Rahmen und unter Voraussetzung der allgemeinen Reflexion, die unser primäres Denken ermöglicht und ausmacht; wir haben kein ‚zweites‘ Denken daneben oder ‚jenseits‘ im ‚Irgendwo‘. Dies erklärt auch sehr einfach das häufig bemerkte Paradox der Metatheorie: Theorien sind nur möglich, weil wir ‚über‘ (Alt-Griechisch: ‚meta‘) sie ’nachdenken‘ können. Dieses ‚Nachdenken über‘ (Metareflexion‘) ist unter Annahme der allem Denken vorausgehenden und begleitenden primären Reflexion keine Überraschung. Was immer wie uns ‚ausdenken‘, es geschieht im Rahmen der primären Reflexion und von daher kann auch alles und jedes, was wir jemals gedacht haben oder uns gerade denken beliebig miteinander in Beziehung gesetzt werden. Bezogen auf diese vorausgehende und begleitende Reflexion ist jeder ‚Denkinhalt‘ grundsätzlich ‚unabgeschlossen‘; die primäre Reflexion ermöglicht eine ‚endliche Unendlichkeit‘, d.h. der prinzipiell nicht abgeschlossene Denkprozess kann – als ‚Prozess‘ – jede endliche Struktur immer wieder und immer weiter ‚erweitern‘, ‚ausdehnen‘, usf.

 

(12) Kennzeichen von neuzeitlichen empirischen Theorien ist ihre Fundierung in ‚empirischen Messverfahren‘ [MEAS]. Kennzeichen dieser empirischen Messverfahren ist es, dass sie unabhängig vom Körper eines Menschen und auch unabhängig von seinem individuellen Erkennen, Fühlen und Wollen bei gleicher ‚Durchführung‘ immer wieder die ‚gleichen Messergebnisse‘ [DATA_emp] liefern sollen. Ob und wieweit solche ‚unabhängigen‘ Messungen tatsächlich durchgeführt werden können ist eine ‚praktische‘ und ‚technologische‘ Frage. Die Geschichte zeigt, dass dieses Konzept auf jeden Fall trotz aller Probleme im Detail bislang extrem erfolgreich war.

 

(13) Allerdings ist hier folgender Umstand zu beachten: obwohl die Messergebnisse [DATA_emp] als solche idealerweise ‚unabhängig‘ vom Fühlen, Denken und Wollen eines Menschen erzeugt werden sollen, gelangen dieses Messergebnisse erst dann zu einer ‚theoretischen Wirkung‘, wenn es irgendwelche Menschen gibt, die diese Messergebnisse DATA_emp ‚wahrnehmen‘ (Englisch: perception, abgekürzt hier als ‚perc‘) können, damit sie als ‚auftretende Phänomene‘ – und zwar hier dann als empirische Phänomene [PH_emp] – in den Bereich des ‚Wissens‘ eintreten, also perc: DATA_emp —> PH_emp. Dies bedeutet, der besondere Charakter von empirischen Phänomenen haftet ihnen nicht als ‚gewussten Eigenschaften‘, nicht qua ‚Phänomen‘ an, sondern nur im Bereich ihrer ‚Entstehung‘, ihres ‚Zustandekommens‘ (aus diesem – und nur aus diesem – Grund ist es so wichtig, beim Umgang mit Phänomenen jeweils klar zu kennzeichnen, ‚woher diese stammen), der ihrem ‚Phänomensein‘ ‚vorausliegt‘.

 

 

(14) In dem Masse nun, wie wir mittels empirischer Messungen Daten über das beobachtbare menschliche Verhalten [DATA_sr], über physiologische Eigenschaften des Körpers [DATA_bd] bzw. auch über Eigenschaften des Nervennetzes im Körper (‚Gehirn‘) [DATA_nn] gewonnen haben, können wir versuchen, basierend auf diesen verschiedenen Daten entsprechende wissenschaftliche Theorien TH_sr, TH_bd, TH_nn zu formulieren, die die Gesetzmäßigkeiten explizit machen, die durch die Daten sichtbar werden.

 

(15) Der wichtige Punkt hier ist, dass alle diese Theorien nicht ‚unabhängig‘ oder ‚jenseits von‘ einer phänomenologischen Theorie zu verorten sind, sondern ‚innerhalb‘ von dieser! Jede beliebige Theorie kann immer nur eine Theorie ‚innerhalb‘ der umfassenden und zeitlich wie logisch vorausgehenden phänomenologischen Theorie sein. Eine spezifische empirische Theorie [TH_i] zeichnet sich ja gerade dadurch aus, dass sie sich auf eine echte Teilmenge [PH_i] aller verfügbarer Phänomene [PH] beschränkt. Gerade in dieser methodischen Beschränkung liegt – wie der Gang der Geschichte uns lehrt – der große Erfolg dieser Art von Theoriebildung. Zugleich wird aber auch deutlich, dass jede dieser speziellen Theorien TH_i aufgrund ihrer speziellen Datenmengen DATA_i (denen die entsprechenden Phänomenmengen PH_emp_i] korrespondieren) zunächst einmal nichts mit einer der vielen anderen speziellen Theorien TH_j TH_i zu tun hat. Es ist eine eigene theoretische Leistung, Querbeziehungen herzustellen, strukturelle Ähnlichkeiten aufzuzeigen, usw. Dies fällt dann in den Bereich ‚interdisziplinärer Theoriebildung‘, ist ‚Metatheorie‘. Diese Art von metatheoretischen Aktivitäten ist aber nur möglich, da die primäre Reflexion alle Arten von speziellen Reflexionen zeitlich und logisch vorausgeht und das entsprechende ‚Instrumentarium‘ zur Verfügung stellt.

 

(16) In diesem Kontext ist unmittelbar einsichtig, dass subjektives Wissen prinzipiell kein Gegenstand empirischer Theoriebildung sein kann. Im Umfeld der modernen Neurowissenschaften (einschließlich Neuropsychologie) sowie im Bereich der Psychologie ist dieser grundsätzliche Tatbestand – so scheint es – bislang methodisch nicht wirklich sauber geklärt. In unzähligen Experimenten mischen sich klare empirische Vorgehensweisen mit der Benutzung von subjektiven Daten, was methodisch ungeklärt ist. Dies durchzieht alle ‚Kreise‘.

 

(17) Will man von der einzigartigen Datenquelle des primären Wissens PH für wissenschaftliche empirische Forschung PH_emp profitieren, bietet sich bislang einzig ein ‚hybrides‘ Vorgehen an, in dem ein Mensch sein eigenes subjektives Wissen PH auf der Basis einer ‚zeitlichen Korrelation‘ (t,t‘) mit empirischen Daten PH_emp, die von anderen Wissenschaftlern mittels Messungen über seinen Körper und sein Nervennetz erhoben werden. Also etwa CORR((t,t‘), PH, PH_emp). Dies ist zwar mühsam und fehleranfällig, aber die einzige methodische Möglichkeit, mit diesen ungleichen Phänomenmengen zurecht zu kommen (Mir ist nicht bekannt, dass irgendjemand diese scharfe methodische Forderung bislang erhebt geschweige denn, dass irgend jemand danach tatsächlich vorgeht).

 

(18) Für die weiteren Überlegungen soll versucht werden, diesen methodologischen Anforderungen gerecht zu werden.

 

(19) Es zeigt sich nun auch sehr klar, dass und wie das philosophische Denken gegenüber allen anderen theoretischen Erklärungsansätzen tatsächlich eine Sonderstellung einnimmt. Das philosophische Denken ist das fundamentale Denken, das jeglichem speziellen Denken zeitlich und logisch voraus liegt, nicht als Gegensatz oder als etwas ganz Anderes, sondern als das primäre Medium innerhalb dessen sich alles andere ‚abspielt‘. Während ich eine spezielle empirische Theorie als ‚Objekt des Wissens‘ klar abgrenzen und beschreiben kann, ist die dazu notwendige Metareflexion als solche kein ‚Objekt des Wissens‘, sondern immer nur ein nicht weiter hintergehbares ‚Medium‘, eben das ‚Denken‘, in dem wir uns immer schon vorfinden, das wir nicht erst ‚machen‘, das wir nur ‚benutzen‘ können. Die ‚Eigenschaften‘ dieses unseres Denkens ‚zeigen‘ sich damit auch nur ‚indirekt‘ durch die ‚Wirkung‘ der Denkaktivität auf die Inhalte des Bewusstseins (Eine Kooperation von empirischer Psychologie TH_emp_psych und phänomenologischer Analyse TH_ph kann hilfreich sein, allerdings sind die Gegenstandsbereiche DATA_emp_psych als PH_emp_psych und PH komplett verschieden und wirklich interessant würde es erst dann, wenn wir eine TH_emp_psych einer TH_ph gegenübersetzen könnten (bislang sehe ich nirgends – nicht einmal in Ansätzen – eine phänomenologische Theorie, die diesen Namen verdienen würde, noch eine wirkliche empirische psychologische Theorie, und das im Jahr 2012).

 

 

Ein Überblick über alle bisherigen Einträge findet sich hier.

 

 

In dem Online-Skript General Computational Learning Theory versuche ich, diese erkenntnisphilosophischen Aspekte zu berücksichtigen. Ich kann in diesem Skript allerdings nur einen Teilbereich behandeln. Aber aus diesen sehr abstrakt wirkenden Überlegungen ist meine ‚Rückkehr zur Philosophie‘ entscheidend mitbeeinflusst worden.

 

 

 

 

 

PHILOSOPHIE IM KONTEXT oder: BEGRIFFSNETZE oder: THEORIENETZWERKE

Achtung: Es hat sich gezeigt, dass diese Version einen grundlegenden Fehler enthält! Siehe am Ende des Textes den Link auf eine verbesserte Version.

 

(1) In dem Vortrag in Bremerhaven ist die Verzahnung von Philosophie und Wissenschaft hevorgehoben worden. Ansatzweise wurde skizziert, wie eine bewusstseinsbasierte Philosophie als das primäre Denken innerhalb seines Denkraumes einen ‚Unterraum‘ spezifizieren kann, der sich über die spezielle Teilmenge der ‚empirischen Phänomene‘ [PH_Emp] definiert bzw. umgekehrt, wie man ausgehend von den empirischen Disziplinen über die Frage nach den notwendigen Voraussetzungen zu einem größeren Zusammenhang kommen kann, der letztlich mit dem philosophischen Denken zusammenfällt. Versucht man, die begrifflichen Verhältnisse zwischen den verschiedenen hier einschlägigen Disziplinen zu klären, dann wird man alsbald feststellen, dass diese bei den meisten nicht ganz klar sind; dies betrifft die ganze ‚Community‘. Im Folgenden ein weiterer Versuch, die hier geltenden grundsätzlichen Verhältnisse transparent zu machen.

 

(2) Die grundsätzliche Idee (die ich seit mehr als 20 Jahren immer wieder mal auf unterschiedliche Weise versucht habe, — in erster Lnie mir selbst — zu verdeutlichen) ist im Schaubild Nr.1 angedeutet.

 

 

Gesamtrahmen Philosophie und Wissenschaften

 

 

(3) Nimmt man seinen Ausgangspunkt von existierenden empirischen Disziplinen wie Physik [Phys], Chemie [Chem], Biologie [Biol] usw. dann sind diese dadurch gekennzeichnet, dass sie aufgrund spezifischer Fragestellungen und spezifischer Messverfahren entsprechend verschiedene ‚Messwerte‘ gewinnen.

 

(4) Hierbei ist aber zu beachten, dass die empirischen Messwerte zwar – idealerweise – unabhängig von einem bestimmten Körper oder Bewusstsein ‚gewonnen‘ werden, dass sie aber nur in dem Maße in eine wissenschaftliche Theoriebildung eingehen können, als die Messwerte von Menschen auch ‚wahrgenommen‘ werden können, d.h. nur insoweit, als die handlungs- und technikbasierten Messwerte zu ‚bewussten Ereignissen‘ werden, zu ‚Phänomenen‘ [PH]. Als ‚Phänomen‘ ist ein Messwert und ein Zahnschmerz nicht unterscheidbar, allerdings haben sie verschiedene ‚Ursachen der Entstehung‘, die sich in einer ‚Reflexion‘ erschließen lassen. In dem Masse, wie man diese Unterscheidung durchführen kann, kann man dann innerhalb der ‚allgemeinen‘ Menge der Phänomene PH eine spezielle Teilmenge der ’speziellen‘ Phänomene ausgrenzen, also PH_Emp PH.

 

 

(5) In diesem Sinne kann man sagen, dass die Menge der empirischen Phänomene sich bezüglich ihrer ’speziellen Herkunft‘ von allen anderen Phänomenen unterscheiden und dass die verschiedenen empirischen Disziplinen sich diese spezielle Teilmenge auf unterschiedliche Weise ‚aufteilen‘. Idealerweise würde man sich die Menge der empirischen Phänomene PH_Emp zerlegt denken in endliche viele disjunkte Untermengen. Ob die tatsächlichen Messverfahren mitsamt den daraus resultierenden Messwerten real vollständig disjunkt sind, ist aktuell offen; spielt für die weiteren Überlegungen zunächst auch keine wesentliche Rolle. Wichtig ist nur, dass in diesem Zusammenhang nur dann von empirischen Daten wie z.B. ‚psychologischen Daten‘ DATA_SR gesprochen werden soll, wenn es reale Messwerte von realen Messvorgängen gibt, die von einem Menschen wahrgenommen werden können und dieser diese Phänomene als entsprechende empirische Phänomene PH_Emp_x interpretiert (das ‚x‘ steht hierbei für die jeweilige Disziplin).

 

(6) Wie in vorausgehenden Blogeinträgen schon mehrfach festgestellt, bilden empirische Daten DATA_x als solche noch keine wirkliche Erkenntnis ab. Diese beginnt erst dort, wo Verallgemeinerungen vorgenommen werden können, Beziehungen erkennbar sind, regelhafte Veränderungen, usw. Die Gesamtheit solcher struktureller Eigenschaften im Zusammenhang mit Daten nennt man normalerweise eine ‚Theorie‘ [TH]. Ob und inwieweit alle heutigen empirischen Disziplinen wirklich systematisches Wissen in Form von expliziten Theorien TH_x entwickeln, steht hier nicht zur Diskussion (es gibt sicher viel weniger explizite Theoriebildung als man sich wünschen würde. Die einzige Disziplin, von der man den Eindruck hat, dass sie überwiegend durch formale Konstrukte begleitet wird, die den Anspruch von Theorien erfüllen, ist die moderne Physik. Alle anderen Disziplinen fallen hinter das Ideal mehr oder weniger weit zurück.).

 

(7) Solange man sich nun innerhalb einer ganz bestimmten Disziplin bewegt, ist die Welt — in gewissem Sinne – ‚in Ordnung‘: man weiß wie man misst und man hat elementare Techniken, wie man Daten strukturiert. Fängt man an, Fragen nach den ‚Voraussetzungen‘ dieser fachspezifischen Theoriebildung zu stellen, nach der Angemessenheit der verwendeten Methoden, wird es schwierig, da für solche Fragen strenggenommen kein Instrumentarium verfügbar ist (Warum und wieso sollte ein Chemiker sich Fragen nach den Grundlagen der Erkenntnis stellen, aufgrund deren er überhaupt etwas erkennt, oder nach dem Problem der sprachlichen Bedeutung, wenn er über chemische Sachverhalte spricht, über die Angemessenheit seiner Begrifflichkeit für den zu untersuchenden Gegenstand, usw.). Noch schwieriger wird es, wenn es um mögliche Wechselwirkungen zwischen verschiedenen Theorieansätzen geht: ob und wie verhalten sich die Daten und theoretischen Modelle zwischen z.B. beobachtetem Verhalten in der Psychologie TH_SR mit zeitgleichen Messungen im Körper TH_Bd oder spezieller im Nervensystem TH_NN? Wann darf ich denn überhaupt von einer Theorie sprechen? In welchem Sinne kann ich Theorien TH_x und TH_y vergleichen? Diese – und viele andere – Fragen gehen weit über die fachspezifischen Fragestellungen hinaus, verweisen auf allgemeine fachübergreifende Zusammenhänge.

 

(8) Im deutschen Sprachraum gab es in der Zeit von ungefähr 1970 bis 1990 eine Phase, in der man verstärkt von ‚Wissenschaftstheorie‘ sprach als jener ‚Metadisziplin‘, die die allgemeinen Eigenschaften und Randbedingungen von ‚Theorien‘ untersucht und klärt. Im englischen Sprachraum nannte man dies ‚Philosophy of Science‘ (allerdings mit einer nicht ganz deckungsgleichen Bedeutung). Alle diese Strömungen haben – so scheint es – bis heute keinen nachhaltigen Einfluss auf den ’normalen Wissenschaftsbetrieb‘ nehmen können; eher ist das Thema sogar wieder rückläufig. Zwar bräuchte man es aus methodischen Gründen dringen, aber keiner will dafür Geld ausgeben.

 

(9) Die deutschsprachige Wissenschaftstheorie hatte den Nachteil, dass sie zwar versuchte, disziplinenübergreifend strukturelle Eigenschaften von Theorien zu klären, sich aber letztlich weigerte, sämtliche Voraussetzungen (einschließlich ihrer eigenen) zu reflektieren, d.h. die Wissenschaftstheorie nahm zwar einerseits gegenüber den Fachdisziplinen allgemeine Eigenschaften von Denken, Folgern, Sprechen, Messen usw. in Anspruch, die über die engen Fachdisziplinen hinausgehen, weigerte sich aber, diesen Anspruch in letzter Konsequenz zu reflektieren und auszuweisen (auch nicht die Erlanger Schule und die sogenannten Konstruktivisten). Eine solche grundlegende Reflexion war und blieb die Domäne der klassischen Philosophie, von der sich die Wissenschaftstheorie panisch abzugrenzen versuchte.

 

(10) So sehr eine gesunde Kritik an der klassischen Philosophie nottat, eine vollständige Verdrängung der philosophischen Aufgabenstellung und Denkweise wirkte aber wie eine ‚Überreaktion‘; diese hatte zur Folge, dass sich die Wissenschaftstheorie von ihren eigenen Voraussetzungen mittels einer klassischen ‚Verdrängung‘ zu befreien suchte, sich dadurch aber entscheidende Aspekte vergab.

 

 

(11) Wie das Schaubild zeigt, gehe ich davon aus, dass die im Erleben wurzelnde Reflexion der primäre Ausgangspunkt für jede Art von spezialisierendem Denken ist. Selbst eine empirische Disziplin ist im Raum der bewussten Erlebnisse, im Raum der Phänomene, verankert, und was immer ein empirischer Wissenschaftler denkt, er denkt im Rahmen der Denkmöglichkeiten, die ihm über das Bewusstsein und die ‚an das Bewusstsein gekoppelten Subsysteme‘ verfügbar sind. Andere hat er gar nicht. Ein Wissenschaftstheoretiker, der über das theoretische Denken von Fachdisziplinen forschen will, ist auch nicht besser dran. Auch er ist an den Phänomenraum als primärem Bezugssystem gebunden und auch er nutzt jene allgemeinen Reflexionsmöglichkeiten, die im Bewusstseinsraum generell verfügbar sind. D.h. jeder Versuch, eine irgendwie geartetes geordnetes Denken — sei es fachwissenschaftlich oder wissenschaftstheoretisch – als solches auf seine Voraussetzungen und Wechselwirkungen hin zu befragen, muss auf dieses ‚primäre Denken‘ zurückgehen und es für die Erkenntnis nutzen. Dieses primäre Denken aber ist genau das philosophische Denken, das auf der einen Seite mit dem alltäglichen Denken verschwimmt, und auf der anderen Seite in Wissenschaftstheorie oder gar Fachwissenschaft übergeht.

 

(12) Von der Intention her hat sich ‚Philosophie‘ immer als solch ein ‚erstes Denken‘ verstanden, das alles andere Denken umfassen sollte. In der konkreten Ausformung eines solchen ersten Denkens gab es aber immer vielfältige und starke Unterschiede. Generell kann man die Tendenz beobachten, dass das philosophische Denken sich entweder vom alltäglichen und wissenschaftlichen Denken ‚zu weit entfernt‘ hat oder aber umgekehrt diesem ‚zu nah‘ kam. Im letzteren Fall büßte Philosophie ihre kritisch-klärende Funktion ein.

 

(13) Will Philosophie beides zugleich realisieren, kritische Distanz wie auch kenntnisreiche Nähe, muss das philosophische Denken sowohl die ‚Form‘ eines wissenschaftlichen Denkens hinreichend klären wie auch die eigenen Erkenntnis — sofern überhaupt strukturierbar – entsprechend explizieren. Das philosophische Denken als ‚erstes Denken‘ wird zwar niemals seinen eigenen Anteil zugleich vollständig und korrekt explizieren können (das liegt primär an der Struktur des Denkens selbst sowie an der Verwendung von Sprache), aber es kann den Zusammenhang der einzelwissenschaftlichen Theorieansätze sowie deren allgemeinen erkenntnistheoretischen Voraussetzungen soweit explizieren, dass klar wird, (i) was ist überhaupt eine Theorie TH_x, (ii) welche erkenntnistheoretischen Voraussetzungen müssen für eine bestimmte Theorie TH_x berücksichtigt werden, (iii) wie kann man das Verhältnis von Theorien beschreiben XREL(TH_x, TH_y), (iv) wie können Objektbeschreibungen aus unterschiedlichen Theorien (z.B. Eigenschaften von Neuronen beschrieben in einer neurowissenschaftlichen Theorie TH_nn, und Eigenschaften eines beobachtbaren Verhaltens in einer psychologischen Theorie TH_sr) aufeinander bezogen werden, usw.

 

(14) Fordern muss man aber auch, dass das philosophische Denken seine Inhalte, soweit sie explizierbar sind, auch in Form von Daten DATA_ph kenntlich macht, und, darauf aufbauend, verdeutlicht, welche Strukturen TH_ph das philosophische Denken vermeintlich besitzt bzw. benutzt, um die Möglichkeit und das ‚Funktionieren‘ der Einzeltheorien zu ‚erklären‘. In gewisser Weise muss die Philosophie genauso ein ‚Modell‘ ihres Gegenstandes bauen wie dies die anderen Wissenschaften auch tun. Im Fall der Philosophie geht es um den Menschen selbst, speziell um den Menschen, insofern er ‚erkennt‘, ‚Wissen‘ entwickelt‘, er ’spricht‘, und vieles mehr. Und natürlich könnte (bzw. sie müsste es!) die Philosophie — wie alle anderen Disziplinen auch – Computermodelle benutzen, um ihr theoretisches Modell vom erkenntnisfähigen und ethisch handelndem Menschen zu explizieren. ‚Computergestützte Philosophische Theorie‘ (etwa ‚computational philosophy‘) ist nicht nur kein Gegensatz sondern ein absolutes Muss! Ohne solche Modelle hat eine moderne Philosophie kaum eine Chance, die zu behandelnde Komplexität angemessen beschreiben zu können.

 

 

Eine korrigierte Version dieses Beitrags findet sich hier.

 

 

Einen Überblick über alle bisherigen Beiträge findet man hier.

 

 

(15) Weitere Details in Fortsetzungen bzw. im Rahmen meiner online-Skripte zur allgemeinen Lerntheorie.