MEDITATION UND WISSENSCHAFT. Überlegungen zu einem Lehr- und Forschungsexperiment an einer Deutschen Hochschule

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 16.Okt. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Das Hauptthema in diesem Blog ist seit Beginn die Suche nach dem neuen Menschenbild innerhalb der Koordinaten ‚Philosophie – Wissenschaft‘ ergänzt um die Themen ‚Gesellschaft – Technologie‘ und ‚Religion‘.

Im Laufe der Jahre haben sich aufgrund dieser Überlegungen immer wieder ‚Unterprojekte‘ außerhalb des Blogs herausgebildet, um die allgemeinen Überlegungen auch konkret zu prüfen bzw. umzusetzen.

Aktuell gibt es drei Unterprojekte: (i) Vorbereitet durch viele Jahre Vorlesungen gibt es ein online-Buchprojekt zum integrierten Engineering, das weit fortgeschritten ist. (ii) Ferner gibt es nun schon im vierten Semester ein Projekt ‚Meditation und Wissenschaft‘ an einer Deutschen Hochschule als reguläre interdisziplinäre Lehrveranstaltung, aus der ein erstes Buch hervorgegangen ist (kurz vor dem Druck), und zu dem es in wenigen Tagen einen ersten wissenschaftlichen Kongress geben wird. (iii) Seit dem Frühjahr 2018 hat sich im Anschluss an einen Kongress zur Städteplanung ein neues interdisziplinäres Projekt gebildet, das eine ziemlich direkte Umsetzung der Theorie des Engineerings ist, die unter (i) erwähnt wird (die aktuelle Webseite https://www.frankfurt-university.de/index.php?id=4664 verrät noch nicht all zu viel, aber eine deutlich erweiterte Fassung ist in Vorbereitung (bis ca. Mitte November) und adressiert alle Kommunen in Deutschland (und letztlich in ganz Europa). Eine weitere Variante adressiert Universitäten und Schulen, auch Firmen.

Hier soll kurz auf das unter (ii) genannte Projekt eingegangen werden.

GESELLSCHAFTICHE AUSGANGSLAGE

Wie in dem im Frühjahr 2019 erscheinenden Buch ausführlich dargelegt wird, erleben wir eine Zeit, in der aktuelle technologische Entwicklungen (sehr dominant: die sogenannte ‚Digitalisierung‘) die gewohnten Abläufe in der Gesellschaft von Grund auf neu formen. Zusätzlich wirbeln alte, bekannte Weltbilder mit neuen wissenschaftlichen Sehweisen, meist sehr fragmentiert, durcheinander und lassen den einzelnen eher verwirrt denn aufgeklärt zurück. Die konkreten Alltagsformate der einzelnen Menschen in den Industrieländern induzieren viele neue Stresssituationen, selbst schon bei Kindern, Jugendlichen und Studierenden, die das aktuelle Bildungssystem zu überfordern scheinen.

VERANTWORTUNG DER HOCHSCHULEN

In einem solchen Kontext müssen sich Hochschulen, auch die Hochschulen für angewandte Wissenschaften, neu orientieren und sortieren.

Traditionellerweise verbindet man mit Hochschulen ‚Wissenschaft‘, ‚wissenschaftliches Denken und Arbeiten‘, und es gibt zahlreiche juristische und organisatorische Abläufe, die diese Wissenschaftlichkeit absichern sollen. Aus Sicht des einzelnen Studierenden erscheint eine Hochschule aber immer mehr wie eine ‚Service-Maschine‘, die eine Vielfalt von Studienprogrammen anbietet, die jeweils kleine Ausschnitte aus dem großen Wissenskosmos vorstellt, die — in der Regel — weder mit dem Rest der Wissenschaft noch mit der Breite der Gesellschaft irgendetwas zu tun haben. Wichtiges Detail: der einzelne Studierende als ‚Person‘, als ‚Mensch‘ mit all seinen Facetten und heutigen Belastungen kommt in diesen Programmen normalerweise nicht vor. Dies ist ‚Privatsache‘. Da muss jeder auf eigene Faust schauen, wie er das ‚regelt‘.

Der wachsende ‚Veränderungsdruck‘ in der gesamten Gesellschaft, die Zersplitterung der kognitiven Landkarte in viele Fragmente, die nicht mehr zusammen zu passen scheinen, die allseitige Zunahme an körperlichen und psychischen Erkrankungen, kann man, wenn man will, als Anregung, als Herausforderung verstehen, den Ort ‚Hochschule‘ neu zu formen, um diesen greifbaren Defiziten mehr gerecht zu werden.

ERSTER ANTWORTVERSUCH

Eine umfassende Antwort würde möglicherweise in eine sehr grundlegende Reform der Hochschulen münden. Ob, wann und wie dies geschieht, weiß momentan sicher niemand. Aufgrund einer besonderen Situation an der Frankfurt University of Applied Sciences kam es im Frühjahr 2017 zu einer Initiative (Dievernich, Frey, Doeben-Henisch), die zum Start eines offiziellen Lehrmoduls ‚Meditation als kulturelle Praxis‘ führte, das sich seitdem inhaltlich immer mehr zur Thematik ‚Meditation und Wissenschaft‘ hin entwickelt hat.

Es soll hier einführend beschrieben werden, wie das Projekt so zwei unterschiedlich erscheinende Themen wie ‚Meditation‘ einerseits und ‚Wissenschaft und Technologie‘ andererseits miteinander zu einer Lehrveranstaltung mit forschendem Charakter verbinden kann. Zudem sollte es einen Beitrag zur personalen, menschlichen Situation der Studierenden leisten.

INTERDISZIPLINÄRES FELD STUDIUM GENERALE

Vorweg zu den Details der nachfolgenden Erläuterungen muss festgestellt werden, dass der Start zu dem neuen, innovativen, Projekt ‚Meditation als kulturelle Praxis‘ (oder dann künftig eher ‚Meditation und Wissenschaft‘) nur möglich war, weil es in der Hochschule schon seit 2005 die alle Fachbereiche und Studienprogramme übergreifende Einrichtung eines ‚interdisziplinären Studium Generale (ISG)‘ gibt. In diesem Rahmen können nahezu beliebige Themen von Dozenteams aus mindestens 2 – eher 3 — verschiedenen Fachbereichen angeboten werden, und die Studierenden aus allen Bachelorstudiengängen können sich dafür anmelden. Dieser kreative Raum innerhalb der ansonsten ziemlich ‚hart verdrahteten‘ Lehre war schon vielfach ein Ort für neue, innovative, und vor allem teamorientierte Lernerfahrungen. Doch auch hier gilt: was nützen die besten Optionen, wenn es zu wenig kreative und mutige Dozenten und Studierende gibt. Freiräume sind ‚Einladungen zu‘ aber keine ‚Garantien für‘ eine kreative Nutzung.

PHÄNOMEN MEDITATION

Das Thema ‚Meditation‘ blickt zurück auf eine Tradition von mehr als 2000 Jahren, mit vielen unterschiedlichen kulturellen Ausprägungen, und erlebt seit Jahren eine starke Wiederbelebung in von Technologie geprägten Gesellschaften, deren Vielfalt kaum noch zu überschauen ist. Im Kern wird das Thema Meditation aber begleitet von einer Art Versprechen, dass jemand, der meditiert, daraus sowohl für seinen Körper als auch für seine Psyche ‚positive Wirkungen‘ ziehen kann.

Meditieren heißt, dass man mit seinem Körper etwas konkretes ‚tut‘, dass man konkrete Zustände seines Körpers konkret ‚erlebt‘, und dass man dieses Tun und Erleben ‚interpretieren‘ kann, aber nicht muss. Sowohl zu den konkreten praktischen Formen des Meditierens wie auch zu den möglichen Interpretationen gibt es ein breites Spektrum an Vorgehensweisen und Deutungen.

Was kann ein einzelner Mensch tun, wenn er sich mit Meditieren beschäftigen will? Was kann er tun, wenn er in einer von Wissenschaft und Technik geprägten Welt mit dem Phänomen Meditation konfrontiert wird? Welche Rolle spielen die ‚Deutungsmodelle‘? Warum gibt es überhaupt so viele unterschiedliche Deutungsmodelle? Was bedeutet es, dass diese Deutungsmodelle in so vielen verschiedenen Sprachen aus unterschiedlichen kulturellen Kontexten vorliegen?

DEUTUNGSMODELLE UND WISSENSCHAFT

Die modernen empirischen Wissenschaften sind im Laufe der Jahrhunderte (mit langen Vorlaufzeiten von bis zu 2000 Jahren!) entstanden als eine neue Art von ‚Wahrheitsbewegung‘: wie kann man in der Vielfalt der Erfahrungen und des Wissens jene ‚Bestandteile‘ herausfinden, die ‚wirklich Geltung‘ haben im Unterschied zu jenen Bestandteilen, die sprachlich zwar beschrieben und behauptet werden, aber nur schwer bis gar nicht als ‚gültig‘ erwiesen werden können? In einem mühsamen Prozess, der in den ca. letzten 400 Jahren zu seiner heutigen Form fand, zeigte sich, dass das Festhalten an intersubjektiv überprüfbaren ‚Standards‘ intersubjektiv nachvollziehbare und reproduzierbare ‚Messoperationen‘ mit ‚Messwerten‘ ermöglichte, was wiederum ganz neue explizite ‚Arbeitshypothesen‘, ‚Modelle‘ und dann ‚Theorien‘ ermöglicht.

KEIN GEGENSATZ ZWISCHEN WISSENSCHAFT UND ‚GEIST‘

Während das Projekt ‚empirische Wissenschaft‘ lange Zeit als Gegensatz zur klassischen Philosophie und den sogenannten Geisteswissenschaften erschien, führten die Ergebnisse der ca. letzten 150 Jahre mehr und mehr dazu, dass man die Position des ‚Geistes‘, der ‚Geisteswissenschaften‘ im Rahmen der modernen empirischen Theorien schrittweise so ‚einordnen‘ kann, dass die Geisteswissenschaften einerseits im Rahmen der empirischen Wissenschaften integriert werden können, andererseits aber die Besonderheit des Menschen (als Teil des gesamten biologischen Lebens) nicht verschwindet. Statt dass die Besonderheit des Geistigen und des Lebens verschwindet, scheint es eher so zu sein, dass die Besonderheit des Geistigen als Teil des Biologischen eine noch viel größere Wucht erhält als je zuvor. Diese neue mögliche Fusion von empirischen Wissenschaften und ‚Theorie des Geistigen‘ wird bislang noch kaum genutzt. Zu tief haben sich traditionelle Begrifflichkeiten als kulturelle Muster in die Gehirne ‚eingegraben‘; solches zu ändern dauert erfahrungsgemäß viele Generationen.

KANT 2.0

Während der Philosoph Immanuel Kant (1724 – 1804) eingesperrt in sein Bewusstsein, ohne Sprachkritik und ohne Evolutionstheorie, die Antworten auf seine Fragen nur als abstrakte Postulate formulieren konnte, nach denen u.a. Raum und Zeit ‚konstitutiv‘ für menschliches Erkennen sind, ohne dass er dies weiter erklären konnte, hat die moderne Wissenschaft nicht nur ein Stück mehr erklären können, wie überhaupt Sprache funktioniert, sondern zusätzlich wie die Strukturen unserer Wahrnehmung, unseres Gedächtnisses, unseres Denkens und vieles mehr von den Strukturen unseres Gehirns in einem bestimmten Körper geprägt sind, die sich wiederum in einer Entwicklungsgeschichte von vielen Milliarden Jahren herausgebildet haben. Wir wissen heute, dass das ‚Bewusstsein‘ nur einen quantitativ verschwindend kleinen Teil des Gesamtkörpers repräsentiert; das meiste ist ‚unbewusst‘ (die Gehirnzellen haben am ganzen Körper einen Anteil von ca. 0.15%, das ‚Bewusstsein‘ wiederum ist nur mit einem Teil der Gehirnzellen assoziiert…). Zusätzlich hat die Wissenschaft ansatzweise aufgedeckt, wie das Gehirn die aufgenommenen Sinnesreize und Körperreize im Kontext von Wahrnehmung, Gedächtnis und Lernen ‚induktiv‘ zu nahezu beliebig komplexen Mustern verrechnen kann, die für uns dann die Konzepte/ Kategorien bilden, mit denen wir die Welt und und uns selbst anschauen. Da diese komplexen Strukturbildungsprozesse durch kommunikative Interaktionen (speziell auch sprachlichen) beeinflusst werde können, können sich Gehirn-induzierte und Kultur-induzierte Muster mischen, vermischen, und so komplexe Deutungsmuster entstehen lassen, deren ‚Gültigkeitsgehalt‘ stark variieren.

REFORMBEDARF DER WISSENSCHAFTEN

Während die empirischen Wissenschaften (und darauf aufbauen die Ingenieurskunst), in den letzten Jahrhunderten viele Pluspunkte sammeln konnten, zeigen sich im bisherigen Konzept und der Praxis von Wissenschaft dennoch gewisse Schwachpunkte: im Rahmen des empirischen Paradigmas können zwar erfolgreiche empirische Experimente und partielle Modelle entwickelt werden, aber die bisherigen empirischen Konzepte reichen nicht aus, um (i) die vielen einzelnen Theorien zu ‚integrieren‘, und (ii) die bisherigen Konzepte sind nicht in der Lage, den ‚Theoriemacher‘ und ‚Theoriebenutzer‘ in der Theorie mit zu repräsentieren. Gerade in den Ingenieurwissenschaften mit ihren immer komplexeren Projekten führt dies zu grotesken Verzerrungen und vielfachen Projektabstürzen. In den empirischen Wissenschaften ist dies nicht wirklich besser, nur fällt es dort nicht so direkt auf. Allerdings kann man zwischen einer rein physikalischen Betrachtungsweise und einer biologischen immer größere Probleme entdecken.

RÜCKKEHR DER PHILOSOPHIE

An dieser Stelle wird klar, dass das historisch ‚ältere‘ Projekt einer umfassenden Philosophie noch nicht ganz ausgedient hat. Während die Philosophie in der oftmals selbst gewählten Abstinenz von Wissenschaft (seit ca. 1500 Jahren) mehr und mehr den Kontakt zur Welt verlor, kann Philosophie in enger Kooperation mit Wissenschaft dieser helfen, ihre fehlende ‚Einheit‘ zurück zu gewinnen. Das neue Paradigma lautet daher ‚Philosophie und Wissenschaft‘ als grundlegendem Denkmuster, erweitert, konkretisiert in der ‚Ingenieurskunst‘. Diese liefern den Rahmen, in dem sich die Freiheit und Kreativität des Lebens entfalten und gestalten kann.

MEDITATION UND WISSENSCHAFT

Schematisches Modell für eine philosophisch begründete empirische Weltsicht am Beispiel des Meditierens

Schematisches Modell für eine philosophisch begründete empirische Weltsicht am Beispiel des Meditierens

Diese neuen, spannenden Entwicklungen in Philosophie und Wissenschaft eröffnen auch neue, interessante Zugangsweisen im Umgang mit dem empirischen (und historisch überlieferten) Phänomen der Meditation. Im folgenden Text (siehe auch die Schaubilder) wird versucht, aufzuzeigen, wie ein modernes Philosophie-Wissenschafts-Paradigma eine aktive Auseinandersetzung mit dem Phänomen leisten könnte.

Für diese aktive Beschäftigung mit dem Phänomen Meditation wird angenommen, dass sich grob vier Perspektiven unterscheiden lassen:

  1. REALE PRAXIS: Meditation wird in einer bestimmten Umgebung praktiziert von einem Menschen, der dabei mit seinem Körper etwas tut. Dies kann zu Veränderungen an seinem Körper führen wie auch in seinem Erleben.

  2. BEOBACHTEN: Vor der Praxis kann man in Form von Fragen festlegen, auf welche Art von Phänomenen man vor, während und nach der Meditation achten will. Dazu kann man festlegen, in welcher Form die Beobachtung ausgeführt werden soll und wie man die Beobachtungswerte/ -daten protokollieren will. Sie sollten unter festgelegten Bedingungen für jeden potentiellen Beobachter reproduzierbar sein. Ort, Zeit, Umstände usw. sollten aus den Protokollen entnehmbar sein.

  3. DEUTUNG: Einzelne Beobachtungswerte repräsentieren isolierte Ereignisse, die als solche noch keine weiterreichenden Deutungen zulassen. Die einfachste Form von Deutungen sind einfache Beziehungen zwischen verschiedenen Beobachtungswerten (räumliche, zeitliche, …). Sobald mehr als eine Beziehung auftritt, ein Beziehungsbündel, kann man Beziehungsnetzwerke formulieren, Modelle, in denen Wechselbeziehungen zwischen verschiedenen Faktoren sichtbar werden. Wahrheitsfähig werden Deutungen aber erst, wenn sie als Theorie formuliert werden (Strukturen, Beziehungen, Dynamiken, Folgerungsbegriff, …), erst dann können sie wahr oder falsch sein, können sie möglicherweise falsifiziert werden, weil man Voraussagen ableiten kann. Generell kann man für Deutungen noch folgende Eigenschaften festhalten:

    1. Die einfachste und historisch häufigste Form von Deutungen sind Texte in ‚Normalsprache‚, eventuell angereichert mit Bildern oder anderen Artefakten.

    2. In modernen Versionen von Deutungen finden sich zusätzlich mehr und mehr voll definierte Diagramm-Sprachen bis hin zu animierten Bildfolgen

    3. Für die eigentliche, harte Modell- und Theoriebildung haben sich aber formale Sprachen durchgesetzt bzw. eine konsequent mathematische Darstellungsweise, ergänzt um eine explizite Logik, die beschreibt, wie man korrekte Folgerungen aus einer gegebenen Theorie gewinnen kann.

    4. Quer zu den Darstellungsweisen Text, Bild und Formel gibt es die zusätzliche Dimension einer dynamischen Repräsentation in Form von Ablaufschilderungen, Bildfolgen, Computer-Simulationen, oft noch erweitert um Interaktionen, die dem Ganzen einen spielerischen Charakter verleihen.

    5. ÜBERLIEFERUNG: Zu vielen (den meisten…) Phänomenen finden sich Überlieferungen aus früheren Zeiten. Die Überlieferungsgeschichte ist unterschiedlich gut, bisweilen sehr schlecht. Die Kontexte und die verwendeten sprachlichen sowie bildhaften Mittel setzen Interpretationsbeziehungen voraus, die heute gar nicht oder nur partiell bekannt sind. Die konkreten Umstände der Überlieferung, die beteiligten Personen, deren Innenleben, sind oft nur wenig bis gar nicht bekannt. Die Einbeziehung von Überlieferungen ist daher mit großer Vorsicht zu sehen. Dennoch können sie wertvolle Hinweise liefern, die man neu überprüfen kann.

  4. REFLEXION: Die bislang genannten Themen ‚Reale Praxis – Beobachtung – Deutung‘ kann man als solche ‚definieren‘, ‚beschreiben‘ und anwenden. Allerdings setzen alle diese Themen einen übergreifenden/ vorausgehenden Standpunkt voraus, in dem entschieden wird, ob man sich überhaupt einer Realität zuwenden will, welcher Realität, wie, wie oft usw. Ebenso muss vor der Beobachtung geklärt werden, ob man überhaupt beobachten will, wie, wann, wie oft, was man mit den Beobachtungswerten dann tun will, usw. Und entsprechend muss man vor Deutungsaktionen entscheiden, ob man überhaupt deuten will, wie, was, usw. Diese Dimension der vorbereitenden, begleitenden, und nachsinnenden Überlegungen zum gesamten Prozess wird hier Reflexion genannt. Als Menschen verfügen wir über diese Fähigkeit. Sie wird in all unserem Tun, speziell dann auch in einem wissenschaftlichen Verhalten, nicht direkt sichtbar, sondern nur indirekt durch die Art und Weise, wie wir mit der Welt und uns selbst umgehen. Es ist irgendwie die gesamte Vorgehensweise, in der sich ein ‚Plan‘, verschiedene ‚Überlegungen‘, verschiedene ‚Entscheidungen‘ auswirken und damit ausdrücken können. Und ein wissenschaftlicher Umgang mit der Welt und sich selbst setzt insofern bestimmte Verhaltensformate voraus. Wissenschaft im üblichen Sinne ist die geordnete Umsetzung eines solchen Planes. Die Analyse und das Design eines solchen wissenschaftlichen Handlungsformates leistet idealerweise die Wissenschaftsphilosophie. Den kompletten Rahmen für jedwede Art von Vorgehen, das Nachsinnen ob und wie überhaupt, die Klärung von Motiven und Voraussetzungen, die Methode einer Wissenschaftsphilosophie, und vieles mehr, das ist die originäre Aufgabe der Philosophie. Insofern ist die Domäne der vor- und übergreifenden Reflexion die Domäne der Philosophie, die darin in einer methodisch engen Weise mit jedweder Form von Wissenschaft verknüpft ist.

Die hier aufgelisteten Punkte bilden eine minimale Skizze, die weitere Kommentare benötigt.

BEOBACHTUNG: SUBJEKTIVITÄT – OBJEKTIVITÄT

Die Verschränkung des 'Objektiven' mit dem 'Subjektiven' aufgrund des heutigen Kenntnisstands

Die Verschränkung des ‚Objektiven‘ mit dem ‚Subjektiven‘ aufgrund des heutigen Kenntnisstands

Setzt man obigen Rahmen voraus, dann scheint es hilfreich, einen Punkt daraus hier speziell aufzugreifen: das Verhältnis von Subjektivität und Objektivität, das sich nahezu durch die gesamte Geschichte der Philosophie und der Auseinandersetzung zwischen Philosophie und empirischer Wissenschaft zieht. Und gerade im Fall des Meditierens gewinnt diese Unterscheidung eine besondere Bedeutung, da neben jenen Wirkungen des Meditierens, die sich äußerlich und in Körperfunktionen direkt (empirisch, objektiv) beobachten (messen) lassen, es viele (die meisten) Wirkungen gibt, die sich nur ‚im Innern‘ (subjektiv) des Meditierenden erfassen lassen. Wie geht man damit um?

Aufgrund der Erkenntnisse der empirischen Wissenschaften können wir heute relativ klar sagen, dass das persönliche Erleben an das jeweilige, individuelle Bewusstsein (‚consciousness‘) geknüpft ist, das wiederum – in einer noch nicht genau rekonstruierten Weise – eine Funktion des individuellen Gehirns ist. Das Gehirn wiederum sitzt in einem Körper und wird von diesem neben der notwendigen Energie mit allerlei Erregungsmustern (neuronale Signale) versorgt. Einige stammen von Sinnesorganen, die verschiedene energetische Ereignisse er Außenwelt (Licht, Schall, Geruch, …) in neuronale Signale übersetzen, andere vom Körperinnern, andere vom Gehirn selbst. Das Gehirn weiß also von der Außenwelt ‚direkt‘ nichts, sondern nur in dem Maße, als ihm diverse neuronale Signale übermittelt werden, die in sich schon eine erste Übersetzung darstellen. Aus all diesen Signalen errechnet das Gehirn kontinuierlich ein Netzwerk von repräsentierenden Ereignisstrukturen, die zusammen ein ‚komplexes (dynamisches) Bild‘ des aktuellen Zustands ergeben. Dieses Zustandsbild ist beeinflusst von ‚vergangenen Bildern‘ (Gedächtnis), von unterschiedlichen ‚Abstraktionsprozessen‘, von unterschiedlichen ‚Erwartungswerten‘ und ‚Bewertungen‘, um as Mindeste zu sagen. Wie viel von den kontinuierlichen Berechnungen des Gehirns tatsächlich ins ‚Bewusstsein‘ gelangt, also ‚bewusst‘ ist, lässt sich nicht klar sagen. Sicher ist nur, dass das, was uns bewusst ist, in jedem Fall eine Auswahl darstellt und es insofern – aus Sicht des Bewussten – ein Unbewusstes gibt, das nach groben Schätzungen erheblich größer ist als das Bewusste.

Philosophen nennen die unterschiedlichen Inhalte des Bewusstseins ‚Phänomene [PH]‘ (zumindest in jener Richtung, die sich phänomenologische Philosophie‘ nennt). Innerhalb dieser Menge der Phänomene kann man anhand von Eigenschaften unterschiedliche Teilmengen der Phänomene unterscheiden. Eine sehr wichtige ist die Teilmenge der ‚Phänomene von den externen Sensoren (PH_W_EXT)‘. Durch ihren Bezug zu unterstellten Objekten der Außenwelt und zusätzlich unterstützt durch Phänomene einer realen Kommunikation lässt sich eine Art ‚Korrelation‘ dieser Phänomene mit unterstellten Objekten der Außenwelt in einer Weise herstellen, die sich mit anderen ‚Beobachtern‘ ’synchronisieren‘ lässt. Sofern dies gelingt (z.B. durch vereinbarte Formen des Messens mit vereinbarten Standards) bekommen diese Phänomene PH_W_EXT einen besonderen Status. Wir nennen sie empirische Phänomene weil sie – obgleich sie weiterhin Phänomene bleiben und damit subjektiv sind – sich in einer Weise mit externen Ereignissen koppeln lassen, die sich in der Reaktion anderer Beobachter auch reproduzieren lässt. Durch diese ‚Rückkopplung‘ gelingt es einem Gehirn, seine ‚locked-in‘ Situation partiell zu überwinden. Daher kommt den als empirisch qualifizierbaren subjektiven Phänomene eine ganz besondere Rolle zu.

Vor diesem Hintergrund ist es nicht erstaunlich, dass die modernen empirischen Wissenschaften durch ihren methodischen Bezug auf die empirischen subjektiven Phänomene sich eine Beobachtungsbasis geschaffen haben, der ein maximaler Erfolgt deswegen vergönnt war, weil tatsächlich nur jene Phänomene Berücksichtigung fanden, die im Prinzip allen Beobachtern in gleicher Weise zugänglich sind.

Eine unkritische – was hier heißt: eine un-philosophische – Handhabung des empirischen Auswahlprinzips kann aber zu unerwünschten Ergebnissen führen. Einer der größten Fehler der Wissenschaftsgeschichte ist wohl (und da hat die Philosophie simultan auch versagt), aus der methodisch sinnvollen Einschränkung auf die subjektiven empirischen Phänomene zu schließen, dass alle anderen (subjektiven) Phänomene grundsätzlich unwichtig oder gar irreführend seien. Diese Folgerung war und ist sachlich völlig haltlos und in ihrer Wirkung verheerend.

Es ist ja nicht nur so (siehe den vorausgehenden Text), dass die empirisch genannten Phänomene weiterhin rein subjektive Phänomene bleiben, sondern das Bewusstsein als Ganzes ist die primäre Quelle für jede Form von Erkenntnis, deren der homo sapiens fähig ist! Die neueren Erkenntnisse zur gleichzeitigen Existenz eines sehr großen Unbewussten setzen das Phänomen des Bewusstseins ja nicht ‚außer Kraft‘, sondern, ganz im Gegenteil, es stellt sich verschärft die Frage, warum es in der Evolution zur Ausprägung des Bewusstseins unter Voraussetzung des Unbewussten kam? Was ist der ‚Vorteil‘ für ein biologisches System zusätzlich zum gewaltigen Komplex der ‚unbewussten Maschinerie‘ des Körpers und des Gehirns noch die Form des ‚Bewusstseins‘ zu besitzen? Bei einem sehr groben Vergleich der Zeiträume von Lebewesen ‚mit‘ und ‚ohne‘ Bewusstsein ist unübersehbar, dass es erst mit der Verfügbarkeit eines hinreichend differenzierten Bewusstseins zu den überaus komplexen und beständig weiter anwachsenden komplexen Verhaltensleistungen ganzer Populationen gekommen ist. Und aus der Tatsache, dass sich nur ein kleiner Teil der Phänomene des Bewusstseins direkt über die Außenwelt mit anderen Beobachtern korrelieren lässt, zu folgern, dass alle anderen Phänomene ‚irrelevant‘ seien, ist weder sachlich noch logisch irgendwie begründbar. Mit dem heutigen Wissensstand müssten wir eher das Gegenteil folgern: eine neue bewusste und herzhafte Hinwendung zu jener reichen Phänomenwelt, die ein biologisches System hervorbringen kann, die sich aber (bislang) einem direkten empirischen Zugriff entziehen.

In diesem Zusammenhang ist auch zu beachten, dass eine ‚Erklärung‘ von subjektiven Phänomenen durch Rückgriff auf ausschließlich direkt korrelierbare physiologische Eigenschaften methodisch fragwürdig ist und in der Regel genau das nicht erklärt, was erklärt werden sollte.

Diese wenigen ersten Gedanken können vielleicht deutlich machen, dass der Anteil subjektiver Phänomene im Kontext des Phänomens ‚Meditation‘ philosophisch und wissenschaftlich kein unüberwindbares Hindernis darstellt, sondern eher eine Einladung, die Forschungen zu vertiefen und zu verbessern.

WIE PRAKTISCH VORGEHEN?

Was bedeutet dies nun für ein praktisches Vorgehen? Wie kann man dies im Rahmen eines konkreten Lehrmoduls umsetzen? Hier ein erster Entwurf:

  1. Als primärer Referenzpunkt sollen konkrete praktische Meditationsübungen dienen, von denen unterschiedliche Formen vorgestellt und dann unter Anleitung ausprobiert werden können. Dies kann in jeder Sitzung und außerhalb, im privaten und öffentlichen Bereich geschehen.

  2. Damit die Perspektive der Wissenschaft und Philosophie zur Wirkung kommen kann, sollte von Anfang an diese Perspektive vorgestellt und demonstriert werden, wie diese sich auf das konkrete Beispiel Meditation anwenden lässt. Neben einer allgemeinen Einführung müsste konkret erläutert werden, welche Fragen sich stellen lassen, und wie eine Beobachtung aussehen könnte. Jeder für sich und dann auch im Team versucht eine Art ‚Logbuch‘ zu führen, in dem alle für die Beobachtung wichtigen Daten eingetragen werden.

  3. Nachdem erste Beobachtungen vorliegen, kann man gemeinsam überlegen, ob und wie man solche Daten ‚deuten‘ könnte: welche Art von Mustern, Regelmäßigkeiten deuten sich an? Gibt es Unterschiede in den verschiedenen Logbüchern? Welchen Status haben solche Deutungen?

  4. Die Schritte (1) – (3) kann man mehrfach wiederholen. Im Alltagsleben kann dies Jahre dauern, viele Jahre. Im Lehrbetrieb hat man nur ca. 2-3 Monate Zeit, um zumindest den grundlegenden Ansatz zu vermitteln.

  5. Nachdem ein erster Eindruck vermittelt wurde, wie man selber sowohl konkret meditieren wie auch empirisch seine Erfahrungen analysieren kann, kann man den individuellen Prozess in größere Kontexte einbetten wie (i) Beispiele von traditionellen Deutungen anhand von prominenten Texten aus der Überlieferung oder (ii) Beispiele aus der Arbeitsweise der verhaltensbasierten Psychologie und der etwas differenzierteren Psychoanalyse oder (iii) Beispielen aus der Philosophie und der Wissenschaftsphilosophie.

Wie man aus diesem kleinen Aufriss entnehmen kann, stellt ein einzelnes Modul nur ein minimales Kick-Off dar, für eine allererste Idee, wie es gehen könnte. Im Grunde genommen bräuchte man für jeden der genannten Punkte (i) – (iii) ein eigenes Modul, und selbst dies wäre nur ein Tropfen auf den heißen Stein. Hieran kann man erahnen, wie schwierig die Ausbildung einer eigenen konkreten Selbsterfahrungs-Praxis mit einer wissenschaftlichen Begleitung eigentlich ist, und wir dürfen uns nicht wundern, wenn so viele Menschen heute sich im Strom der Ereignisse schnell ‚verloren‘ vorkommen… sogenannte ‚Patentantworten‘ sind nicht notwendigerweise ‚richtige Antworten’…

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 6

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 29.August 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

BISHER

Teil 1

Teil 2

Teil 3

Teil 4

Teil 5

WICHTIGE POSITIONEN

Zur Erinnerung, einige der wichtigen Positionen, auf die bislang hingewiesen wurde:

EDELMAN

Edelman benutzt die Arbeitshypothese, dass das, was wir ‚Geist‘ nennen, sich nur ab bestimmten Zeitpunkten während der allgemeinen Evolution ‚gezeigt‘ (‚emerged‘) hat, und zwar sehr spät.(vgl. S.41) Und dies setzt die Annahme voraus, dass die fundamentale Basis für alles Verhalten und für die ‚Sichtbarwerdung‘ (‚emergence‘) des Geistes die Anatomie und Morphologie der biologischen Strukturen ist sowie deren Funktionen.(vgl. S.41)

ASPEKTE DER DISKUSSION BISHER

Im Kontext seiner Argumentation kritisiert Edelman viele bekannte Positionen im Bereich Philosophie und Psychologie aus der eingeschränkten Perspektive ihres Bezuges zu den materiellen Strukturen heraus, die von ihm – letztlich wie bei Kant, nur mit anderem Akzent, mehr oder weniger – als ‚Ermöglichung des Geistes‘ gesehen werden. Diese Kritik in dieser speziellen Perspektive ist zum Teil berechtigt, aber auch nur zu einem sehr eingeschränkten Teil, da die kritisierten Personen und Positionen von den neuen Erkenntnissen noch gar nichts wissen konnten. Über diese enge Perspektive des expliziten Bezugs zu materiellen Strukturen hinaus repräsentieren die kritisierten Positionen aber auch Perspektiven, die ‚in sich eine methodische Rechtfertigung‘ besitzen, die Edelman schlicht nicht erkennt. Hier verkürzt zur Erinnerung einige seiner ‚methodischen blinden Flecken‘:

  1. … zugleich die Arbeitshypothese aufzustellen, dass damit Analyse- und Erklärungsansätze von vornherein zu verurteilen sind, die Verhaltensdaten (Psychologie) bzw. auch introspektive Daten (Philosophie) als solche als Basis nehmen ohne direkt einen Bezug zu den materiellen (anatomischen) Daten herzustellen, ist mindestens problematisch wenn nicht wissenschaftsphilosophisch unhaltbar…
  2. … denn, wie immer die anatomischen Grundlagen beschaffen sein mögen, wenn ich deren ‚Verhaltensdynamik‘ erforschen will, interessieren mich die Details dieser Anatomie nicht, sondern nur ihre Funktion. Und diese lässt sich nicht durch Rekurs auf Bestandteile beschreiben sondern nur durch Beobachtung des Systemverhaltens …
  3. … aus materiellen Strukturen als solchen folgt in keiner Weise irgend etwas ‚Geistiges‘ es sei denn, ich habe vorab zur Untersuchung einen Kriterienkatalog G, den ich als Maßstab anlegen kann, um dann bei der Analyse der Beobachtungsdaten konstatieren zu können, das der Eigenschaftskomplex G vorliegt. Habe ich solch einen Kriterienkatalog G nicht, kann ich noch so viele empirische Daten zu irgendwelchen materiellen Strukturen vorweisen; ‚aus sich heraus‘ lassen diese Daten eine solche Eigenschaftszuschreibung nicht zu! …
  4. … ohne die ‚Anhaltspunkte‘ im ‚beobachtbaren Verhalten‘ wäre es praktisch unmöglich, jene bedingenden materiellen Struktureigenschaften zu identifizieren, da die zugrundeliegenden neuronalen und damit letztlich biochemischen Grundlagen rein mathematisch nahezu unbegrenzt viele Funktionen erlauben. Letztlich deuten diese materiellen Strukturen auf einen quantenmechanischen Möglichkeitsraum hin, deren Konkretisierung von Faktoren abhängt, die sich aus den Strukturen selbst nicht so einfach ableiten lassen. …
  5. Philosophen arbeiten traditionell mit dem subjektiven Erlebnisraum direkt, ohne zugleich die Frage nach den materiellen Bedingungen der so erlebbaren ‚Phänomene‘ zu fragen. In gewisser Weise handelt es sich bei diesen subjektiven (= bewussten) Phänomenen auch um eine Systemfunktion eigener Art mit einer spezifischen Besonderheit, der man nicht gerecht werden würde, würde man sie durch Rekurs auf die bedingenden materiellen Strukturen (Gehirn, Körper, Welt, …) ‚ersetzen‘ wollen. …
  6. … muss man sich klar machen, dass alle sogenannten ‚empirischen Daten‘ ja nicht ‚außerhalb‘ des ‚bewusstseinsbedingten Phänomenraums‘ vorkommen, sondern auch nur ‚beusstseinsbedingte Phänomene‘ sind, allerdings eine spezielle Teilmenge, die man mit unterstellten Vorgängen in der Außenwelt in Verbindung bringt. Insofern bildet der subjektive Phänomenraum die Basis für jegliche Denkfigur, auch für die empirischen Wissenschaften. …
  7. Die Frage, was denn dann die primären Kriterien für das ‚Psychische-Geistige‘ sind, wird durch diese multidisziplinäre Kooperationen nicht einfacher: da die materiellen Strukturen als solche keinerlei Anhaltspunkte für ‚Geistiges‘ liefern, bleibt letztlich als Ausgangspunkt doch nur das ‚Geistige‘, wie biologische Systeme ’sich selbst‘ sehen, weil sie sich so ‚erleben‘. Das ‚Geistige‘ erscheint hier als ‚Dynamik‘ von Systemen, die sich anhand des Auftretens dieser Systeme ‚zeigt‘, ‚manifestiert‘. Aus den einzelnen materiellen Bestandteilen kann man diese Eigenschaften nicht ableiten, nur aus der Gesamtheit in spezifischen Wechselwirkungen. …
  8. … Erst durch die Dynamik des Gesamtsystems werden – oft als ‚emergent‘ klassifizierte – Phänomene sichtbar, die von den einzelnen Bestandteilen des materiellen Systems als solchen nicht ableitbar sind, nur eben durch das Verhalten, die Dynamik des Gesamtsystems. …
  9. … wenn ein homo sapiens ’nichts tut‘, dann ist die Dynamik ‚unsichtbar‘ und die durch solch eine Dynamik sichtbar werdenden Eigenschaften sind nicht greifbar. Weiter: wenn ein homo sapiens eine Dynamik erkennen lässt, dann bedarf es einer spezifischen ‚Erkenntnisweise‘, um die spezifischen Eigenschaften von ‚Geist‘ erkennen zu können. …
  10. … Es ist weder auszuschließen, dass es zwischen dem empirischen Phänomen der ‚Gravitation‘ und dem empirischen Phänomen ‚Geist‘ einen ‚tieferen‘ Zusammenhang gibt (da ‚Geist‘ als empirisches Phänomen ‚Gravitation‘ voraussetzt‘), noch dass es weit komplexere empirische Phänomene geben kann als den ‚individuell in Populationen‘ sich manifestierenden ‚empirischen Geist‘.
  11. … Da jene geistige Eigenschaften, die den homo sapiens von anderen Lebensformen unterscheiden, erst mit diesem auftreten, kann eine ‚Geschichte der Entwicklung jener Formen, die den homo sapiens auszeichnen‘ nur indirekte Hinweise darauf liefern, wie sich jene ’späten‘ komplexen materiellen Strukturen aus ‚einfacheren, früheren‘ Strukturen entwickelt haben. Damit entsteht dann die interessante Frage, wie sich solche Komplexität aus ’scheinbar einfacheren‘ Strukturen entwickeln konnte? In der logischen Beweistheorie gilt allgemein, dass ich nur etwas ‚ableiten’/ ‚beweisen‘ kann, wenn ich das zu Beweisende letztlich schon in meinen ‚Voraussetzungen’/ ‚Annahmen‘ angenommen habe. Das ’spätere komplexere Neue‘ wäre in dem Sinne dann nicht wirklich ’neu‘ sondern nur eine ‚andere Zustandsform‘ eines Ausgangspunktes, der schon alles hat‘. Dies wäre nicht sehr überraschend, da wir in der Big-Bang-Theorie allgemein von ‚Energie (E)‘ ausgehen, die in Folge von Abkühlungsprozessen unendlich viele konkrete Zustandsformen angenommen hat, von denen wir mit E=mc^2 wissen, dass sie alle ineinander überführbar sind, wie speziell sie auch immer sein mögen.
  12. …Die komplexen Abbildungsprozesse zwischen Genotypen und Phänotypen als Teil von Populationen in Umgebungen machen eine Zuordnung von im Verhalten fundierten Eigenschaftszuschreibungen von ‚Geist‘ zu vorliegenden materiellen Strukturen schwer bis unmöglich. … Das Entscheidende am Phänomen des Geistes ist ja, dass er nach vielen Milliarden Jahren Entwicklung in einem aktuell hochkomplexen und dynamischen System sich zeigt, und zwar nicht ‚aus sich heraus‘ sondern nur dann, wenn ein anderes System, das ebenfalls ‚Geist‘ hat, diesen Phänomenen ‚ausgesetzt‚ ist. Ein System, das selbst ‚keinen Geist hat‘, kann die beobachtbaren Phänomene nicht als ‚geistige‘ klassifizieren! Dies schließt nicht aus, dass heutige Algorithmen quasi automatisch irgendwelche ‚Muster‘ im beobachtbaren Verhalten identifizieren können, allerdings sind dies Muster wie unendlich viele andere Muster, deren ‚Bewertung‘ in irgendeine Zustandsdimension völlig beliebig ist.
  13. …Von Interesse ist auch, wie sich der Zustandsraum der materiellen Strukturen (die Gesamtheit des aktuellen empirischen Wissens über das Universum und seiner möglichen Zukünfte) und der Zustandsraum von Systemen mit Geist (die Gesamtheit des geistigen Vorstellungsraumes samt seiner möglichen geistigen Zukünfte) unterscheidet. Die Sache wird dadurch kompliziert, dass ja die Systeme mit empirischem Geist letztlich auch zum genuinen Gegenstandsbereich der sogenannten ‚Natur‘-Wissenschaften gehören. Wenn das Empirisch-Geistige Teil der Natur ist, reichen die bisherigen empirischen naturwissenschaftlichen Theorien nicht mehr. Sie müssten entsprechend geändert werden. Der Beobachter muss wesentlicher Bestandteil der Theorie selbst werden. Für diese Konstellation haben wir bislang aber keinen geeigneten empirischen Theoriebegriff.
  14. Die fundamentale Tatsache, dass es Moleküle gibt, die andere Moleküle als ‚Kode‘ benutzen können, um Transformationsprozesse zwischen einer Sorte von Molekülen (DNA, RNA) in eine andere Sorte von Molekülen (Polypeptide, Proteine) steuern zu können, nimmt Edelman als Faktum hin, thematisiert es selbst aber nicht weiter. Er benennt diese ‚interpretierenden Moleküle‘ auch nicht weiter; sein Begriff ‚cellular device‘ ist eher nichtssagend. Dennoch ist es gerade diese Fähigkeit des ‚Übersetzens’/ ‚Interpretierens‘, die fundamental ist für den ganzen Transformationsprozess von einem Genom in einen Phänotyp bzw. in eine ganze Kette von hierarchisch aufeinander aufbauenden Phänotypen. Setzt man diese Übersetzungsfähigkeit voraus, ist das ganze folgende Transformationsgeschehen – so komplex es im Detail erscheinen mag – irgendwie ‚trivial‘. Wenn ich in mathematischer Sicht irgendwelche Mengen habe (z.B. verschiedene Arten von Moleküle), habe aber keine Beziehungen definiert (Relationen, Funktionen), dann habe ich quasi ‚Nichts‘. Habe ich aber z.B. eine Funktion definiert, die eine ‚Abbildung‘ zwischen unterschiedlichen Mengen beschreibt, dann ist es eine reine Fleißaufgabe, die Abbildung durchzuführen (z.B. die Übersetzung von DNA über RNA in Aminosäuren, dann Polypeptide, dann Proteine). Das die Biochemie und Mikrobiologie samt Genetik so viele Jahre benötigt hat, die Details dieser Prozesse erkennen zu können, ändert nichts daran, dass diese Transformationsprozesse als solche ‚trivial‘ sind, wenn ich die grundlegende Transformationsfunktion definiert habe. Wo aber kommt diese grundlegende Abbildungsfunktion her? Wie kann es sein, dass ein ordinäres chemisches Molekül ein anderes ordinäres chemisches Molekül als ‚Kode‘ interpretiert, und zwar genau dann so, wie es geschieht? Betrachtet man ’normale‘ Moleküle mit ihren chemischen Eigenschaften isoliert, dann gibt es keinerlei Ansatzpunkt, um diese grundlegende Frage zu beantworten. Offensichtlich geht dies nur, wenn man alle Moleküle als eine Gesamtheit betrachtet, diese Gesamtheit zudem nicht im unbestimmten Raum, sondern in Verbindung mit den jeweils möglichen ‚realen Kontextbedingungen‘, und dann unter Berücksichtigung des potentiellen Interaktionsraumes all dieser Moleküle und Kontexte. Aber selbst diese Raum repräsentiert im mathematischen Sinne nur Mengen, die alles und nichts sein können. Dass man in diesem Raum eine Funktion implantieren sollte, die dem Dekodieren des genetischen Kodes entspricht, dafür gibt es im gesamten Raum keinerlei Ansatzpunkt, es sei denn, man setzt solche eine Funktion als ‚Eigenschaft des Raumes‘ voraus, so wie die Physiker die ‚Gravitation‘ als Eigenschaft des Raumes voraussetzen, ohne irgendeinen Ansatzpunkt im Raum selbst zu haben, als die beobachtbare Wirkung der Gravitation. Die Biologen können feststellen, dass es tatsächlich einen Transformationsprozess gibt, der solch eine Abbildungsbeziehung voraussetzt, sie haben aber keine Chance, das Auftreten dieser Abbildungsbeziehung aus den beobachtbaren materiellen Strukturen abzuleiten!!!
  15. In der Beschreibung von Edelmans Position habe ich schon angemerkt, dass seine Wortwahl ‚Topobiologie‘ möglicherweise unglücklich ist, da es letztlich nicht der dreidimensionale Raum als solcher ist, der entscheidend ist (wenngleich indirekt die Drei-Dimensionalität eine Rolle spielt) sondern der ‚Kontext in Form von interaktiven Nachbarschaften‘: welche andere Zellen stehen in Interaktion mit einer Zelle; welche Signale werden empfangen. Indirekt spielt dann auch der ‚vorausgehende Prozess‘ eine Rolle, durch den eben Kontexte erzeugt worden sind, die nur in bestimmten Phasen des Prozesses vorliegen. Man hat also eher einen ‚Phasenraum‘, eine Folge typischer Zustände, die auseinander hervorgehen, so, dass der bisherige Prozess die nächste Prozessphase hochgradig determiniert. Dies ähnelt einer ‚algorithmischen‘ Struktur, in der eine Folge von Anweisungen schrittweise abgearbeitet wird, wobei jeder Folgeschritt auf den Ergebnissen der vorausgehenden Abarbeitungen aufbaut und in Abhängigkeit von verfügbaren ‚Parameterwerten‘ den nächsten Schritt auswählt. Im Unterschied zu einem klassischen Computer, bei dem die Ausführungsumgebung (normalerweise) festliegt, haben wir es hier mit einem algorithmischen Programm zu tun, das die jeweilige Ausführungsumgebung simultan zur Ausführung ‚mit erschafft‘! Wenn Computermetapher, dann eben so: ein Programm (Algorithmus), das seine Ausführungsumgebung (die Hardware) mit jedem Schritt selbst ‚erschafft‘, ‚generiert‘, und damit seine Ausführungsmöglichkeiten schrittweise ausbaut, erweitert. Dies setzt allerdings voraus, dass das genetische Programm dies alles schon ‚vorsieht‘, ‚vorwegnimmt‘. Die interessante Frage ist dann hier, wie ist dies möglich? Wie kann sich ein genetisches Programm ‚aus dem Nichts‘ entwickeln, das all diese ungeheuer komplexen Informationen bezüglich Ausführung und Ausführungsumgebung zugleich ‚aufgesammelt‘, ’strukturiert‘, ‚verpackt‘ hat, wo die Gesamtheit der modernen Wissenschaft bislang nur Fragmente versteht?
  16. Während Neurowissenschaftler (Edelman eingeschlossen) oft mit unsinnigen Computervergleichen versuchen, die Besonderheit des menschlichen Gehirns herauszustellen, kann man ja auch mal umgekehrt denken: wenn die Entwicklung des Gehirns (und des gesamten Organismus) Ähnlichkeiten aufweist mit einem Algorithmus, der seine eigene Ausführungsumgebung während der Ausführung (!!!) mit generiert, ob sich solch ein Prozess auch ‚rein technisch‘ denken ließe in dem Sinne, dass wir Maschinen bauen, die aus einer ‚kleinen Anfangsmenge von Materie‘ heraus ausgestattet mit einem geeigneten ‚Kode‘ und einem geeigneten ‚Interpretierer‘ sich analog selbst sowohl materiell als auch kodemäßig entwickeln? Da die biologischen Systeme zeigen, dass es grundsätzlich geht, kann man solch einen technischen Prozess nicht grundsätzlich ausschließen. Ein solches Gedankenexperiment macht aber sichtbar, worauf es wirklich ankommt: eine solche sich selbst mit-bauende Maschine benötigt auch einen geeigneten Kode und Interpretationsmechanismus, eine grundlegende Funktion. Ohne diese Funktion, geht gar nichts. Die Herkunft dieser Funktion ist aber gerade diejenige grundlegende Frage, die die gesamte empirische Wissenschaft bislang nicht gelöst hat. Es gibt zwar neuere Arbeiten zur Entstehung von ersten Zellen aus Molekülen unter bestimmten realistischen Kontexten, aber auch diese Forschungen beschreiben nur Prozesse, die man ‚vorfindet‘, die sich ‚zeigen‘, nicht aber warum und wieso es überhaupt zu diesen Prozessen kommen kann. Alle beteiligten materiellen Faktoren in diesen Prozessen als solchen geben keinerlei Ansatzpunkte für eine Antwort. Das einzige, was wir bislang wissen, ist, dass es möglich ist, weil wir es ‚beobachten können‘. Die ‚empirischen Phänomene‘ sind immer noch die härteste Währung für Wahrheit.

KAP.7 DIE PROBLEME NEU ÜBERLEGT

  1. Nach den ersten Analysen in Kap.1-6 stellt Edelman eine ‚Zwischenreflexion‘ an. Angesichts der entdeckten Komplexität und Dynamik im Fall des Gehirns und seiner Entwicklung stellt sich die Frage, wie man den Zusammenhang zwischen den vorfindlichen materiellen Strukturen und ihren Funktionen miteinander in Beziehung setzen (‚to relate‘) kann.(vgl. S.65f)
  2. Und um seine mögliche neue Position zu bestimmen wiederholt er summarisch nochmals seine zuvor geäußerte Kritik an der ‚falschen Objektivität‘ der Physik, an der zu eng gefassten Kognitionswissenschaft, und er wiederholt auch wieder die unsinnigen Vergleiche mit einem falschen Begriff von Computer, der weder theoretisch noch praktisch Sinn macht.(vgl. SS.66-69)
  3. Grundsätzlich hält er an der Forderung fest, (i) eine ‚Theorie‘ zu bauen (‚to construct), die (ii) ‚wissenschaftlich‘ ist. ‚Wissenschaftlich sein‘ macht er an der Eigenschaft fest (iii), dass die Theorie ‚überprüfbar‘ sein soll. Allerdings muss die Theorie (iv) ’nicht immer‘ zu (v) ‚Voraussagen auf allen Ebenen führen‘, noch muss (vi) ‚jeder Teil von der Theorie direkt falsifizierbar‘ sein.(vgl. S.66)
  4. Aufgrund seiner massiven Kritik an der unterdrückten Rolle des Beobachters speziell in der Physik (vgl. S.66f) muss man indirekt folgern, dass (a) der Beobachter in einer ‚kritischen Wissenschaft‘ im Zusammenspiel mit der Theorie ‚anders integriert wird als bisher‘. Dies bedeutet, man muss berücksichtigen, (b) dass es ‚mentale Ereignisse‘ gibt (‚Bewusstsein‘, ‚Intentionalität‘) gibt, die (c) nur durch ‚Introspektion‘ oder (d) nur durch indirekte Schlüsse aufgrund des beobachtbaren Verhaltens von anderen‘ zugänglich sind.(vgl. S.67)

DISKUSSION FORTSETZUNG

  1. Das Kapitel 7 ist sehr kurz und bringt weitgehend nur Wiederholungen ausgenommen der Punkt mit der Theorie. Der ist neu. Und es ist überhaupt das erste Mal, dass Edelman in diesem Buch explizit über eine ‚wissenschaftliche Theorie‘ spricht, obgleich er sich selbst ja als Wissenschaftler versteht und  er seine eigenen Überlegungen gleichwohl als wissenschaftlich verstanden wissen will (wenngleich er das aktuelle Buch in seiner Form nicht streng als wissenschaftliche Theorie verfasst hat).
  2. Seine Charakterisierung einer ‚wissenschaftlichen Theorie‘ ist interessant. Sie ist generell sehr fragmentarisch; sie ist ferner in ihrer Ernsthaftigkeit fragwürdig, da er die Forderung der Falsifizierbarkeit mit dem Argument einschränkt, dass ansonsten Darwins Theorie in ihrer Anfangszeit niemals hätte Erfolg haben können; und sie ist geradezu mystisch, da er eine radikal neue Rolle des Beobachters mit all seinen mentalen Eigenschaften innerhalb der Theoriebildung einfordert, ohne aber irgendwelche Hinweise zu liefern, wie das praktiziert werden soll.
  3. Man stellt sich die Frage, welchen ‚Begriff von Theorie‘ Edelman eigentlich benutzt? In der Geschichte der empirischen Wissenschaften gab es viele verschiedene Begrifflichkeiten, die nicht ohne weiteres kompatibel sind, und seit ca. 100 Jahren gibt es eine eigene Meta-Wissenschaft zu den Wissenschaften mit Namen wie ‚Wissenschaftsphilosophie‘, ‚Wissenschaftstheorie‘, ‚Wissenschaftslogik‘, deren Gegenstandsbereich gerade die empirischen Wissenschaften und ihr Theoriebegriff ist. Obgleich das Gebiet der Wissenschaftsphilosophie, wie ich es hier nenne, bislang immer noch keinen geschlossenen begrifflichen Raum darstellt, gibt es doch eine Reihe von grundlegenden Annahmen, die die meisten Vertreter dieses Feldes einer Metawissenschaft zu den Wissenschaften teilen. Aufgrund seiner bisherigen Ausführungen scheint Edelman nichts vom Gebiet der Wissenschaftsphilosophie zu kennen.
  4. Die Überprüfbarkeit einer Theorie ist in der Tat ein wesentliches Merkmal der modernen empirischen Wissenschaften. Ohne diese Überprüfbarkeit gäbe es keine empirische Wissenschaft. Die Frage ist nur, was mit ‚Überprüfbarkeit‘ gemeint ist bzw. gemeint sein kann.
  5. Wenn Edelman fordert dass für eine Theorie gelten soll, dass nicht (vi) ‚jeder Teil von der Theorie direkt falsifizierbar‘ sein muss, dann geht er offensichtlich davon aus, dass eine Theorie T aus ‚Teilen‘ besteht, also etwa T(T1, T2, …, Tn) und dass im ‚Idealfall‘ jeder Teil ‚direkt falsifizierbar‘ sein müsste. Diese Vorstellung ist sehr befremdlich und hat weder mit der Realität existierender physikalischer Theorien irgend etwas zu tun noch entspricht dies den modernen Auffassungen von Theorie. Moderne Theorien T sind mathematische (letztlich algebraische) Strukturen, die als solche überhaupt nicht interpretierbar sind, geschweige den einzelne Teile davon. Ferner liegt die Erklärungsfähigkeit von Theorien nicht in ihren Teilen, sondern in den ‚Beziehungen‘, die mittels dieser Teile formulierbar und behauptbar werden. Und ob man irgendetwas aus solch einer Theorie ‚voraussagen‘ kann hängt minimal davon ab, ob die mathematische Struktur der Theorie die Anwendung eines ‚logischen Folgerungsbegriffs‘ erlaubt, mittels dem sich ‚Aussagen‘ ‚ableiten‘ lassen, die sich dann – möglicherweise – ‚verifizieren‘ lassen. Diese Verifizierbarkeit impliziert sowohl eine ‚Interpretierbarkeit‘ der gefolgerten Aussagen wie auch geeignete ‚Messverfahren‘, um feststellen zu können, ob die ‚in den interpretierten Aussagen involvierten entscheidbaren Eigenschaften‘ per Messung verifiziert werden können oder nicht. Der zentrale Begriff ist hier ‚Verifikation‘. Der Begriff der ‚Falsifikation‘ ist relativ zu Verifikation als komplementärer Begriff definiert. Begrifflich erscheint dies klar: wenn ich nicht verifizieren kann, dann habe ich automatisch falsifiziert. In der Praxis stellt sich aber oft das Problem, entscheiden zu können, ob der ganz Prozess des Verifizierens ‚korrekt genug‘ war: sind die Umgebungsbedingungen angemessen? Hat das Messgerät richtig funktioniert? Haben die Beobachter sich eventuell geirrt? Usw. Als ‚theoretischer Begriff‘ ist Falsifikation elegant, in der Praxis aber nur schwer anzuwenden. Letztlich gilt dies dann auch für den Verifikationsbegriff: selbst wenn der Messvorgang jene Werte liefert, die man aufgrund einer abgeleiteten und interpretierten Aussage erwartet, heißt dies nicht mit absoluter Sicherheit, dass richtig gemessen wurde oder dass die Aussage möglicherweise falsch interpretiert oder falsch abgeleitet worden ist.
  6. All diese Schwierigkeiten verweisen auf den ausführenden Beobachter, der im Idealfall auch der Theoriemacher ist. In der Tat ist es bislang ein menschliches Wesen, das mit seinen konkreten mentalen Eigenschaften (basierend auf einer bestimmten materiellen Struktur Gehirn im Körper in einer Welt) sowohl Phänomene und Messwerte in hypothetische mathematische Strukturen transformiert, und diese dann wiederum über Folgerungen und Interpretationen auf Phänomene und Messwerte anwendet. Dies in der Regel nicht isoliert, sondern als Teil eines sozialen Netzwerkes, das sich über Interaktionen, besonders über Kommunikation, konstituiert und am Leben erhält.
  7. Edelman hat Recht, wenn er auf die bisherige unbefriedigende Praxis der Wissenschaften hinweist, in der die Rolle des Theoriemachers als Teil der Theoriebildung kaum bis gar nicht thematisiert wird, erst recht geht diese Rolle nicht in die eigentliche Theorie mit ein. Edelman selbst hat aber offensichtlich keinerlei Vorstellung, wie eine Verbesserung erreicht werden könnte, hat er ja noch nicht einmal einen rudimentären Theoriebegriff.
  8. Aus dem bisher Gesagten lässt sich zumindest erahnen, dass ein verbessertes Konzept einer Theorie darin bestehen müsste, dass es eine explizite ‚Theorie einer Population von Theoriemachern (TPTM)‘ gibt, die beschreibt, wie solch eine Population überhaupt eine Theorie gemeinsam entwickeln und anwenden kann und innerhalb dieser Theorie einer Population von Theoriemachern würden die bisherigen klassischen Theoriekonzepte dann als mögliche Theoriemodelle eingebettet. Die TPTM wäre dann quasi ein ‚Betriebssystem für Theorien‘. Alle Fragen, die Edelman angeschnitten hat, könnte man dann in einem solchen erweiterten begrifflichen Rahmen bequem diskutieren, bis hinab in winzigste Details, auch unter Einbeziehung der zugrunde liegenden materiellen Strukturen.
  9. Das, was Edelman als Theorie andeutet, ist vollständig unzulänglich und sogar in wesentlichen Punkten falsch.
  10. Anmerkung: Darwin hatte nichts was einem modernen Begriff von Theorie entsprechen würde. Insofern ist auch das Reden von einer ‚Evolutionstheorie‘ im Kontext von Darwin unangemessen. Damit wird aber der epochalen Leistung von Darwin kein Abbruch getan! Eher wirkt sein Werk dadurch noch gewaltiger, denn die Transformation von Gedanken, Phänomenen, Fakten usw. in die Form einer modernen Theorie setzt nicht nur voraus, dass man über die notwendigen Formalisierungsfähigkeiten verfügt (selbst bei den theoretischen Physikern ist dies nicht unbedingt vollständig gegeben) sondern man kann erst dann ’sinnvoll formalisieren‘, wenn man überhaupt irgendetwas ‚Interessantes‘ hat, was man formalisieren kann. Die großen Naturforscher (wie z.B. Darwin) hatten den Genius, die Kreativität, den Mut, die Zähigkeit, das bohrende, systematisierende Denken, was den Stoff für interessante Erkenntnisse liefert. Dazu braucht man keine formale Theorie. Die Transformation in eine formale Theorie ist irgendwo Fleißarbeit, allerdings, wie die Geschichte der Physik zeigt, braucht man auch hier gelegentlich die ‚Genies‘, die das Formale so beherrschen, dass sie bisherige ‚umständliche‘ oder ‚unpassende‘ Strukturen in ‚einfachere‘, ‚elegantere‘, ‚besser passende‘ formale Strukturen umschreiben.

Fortsetzung folgt HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

MEDITATION IN EINER TECHNISCHEN UND WISSENSCHAFTLICHEN WELT? Versuch einer philosophischen Verortung

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
7.Mai 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: doeben@fb2.fra-uas.de

 

ÜBERSICHT

I Fragmentierung der Welt als Dauerentfremdung

II Philosophie und Wissenschaft (Idealbild)

II-A Alltagserfahrung – Oberflächen .

II-B Jenseits des Alltags – Wissenschaft

II-C Homo Sapiens Heute – Digitale Versklavung beginnt

II-D Selbstvergewisserung – Speziell durch Meditation?

III Erst Reaktionen

III-A Erosion der Wissenschaft ’von innen’

III-B ’Digitalisierung’ als ’hypnotischer Zustand’? .

III-C Meditationserfahrung gegen Reflexion?

Quellen

IDEE

In diesem Text wird aufgezeigt, wie das Phänomen der Meditation im Koordinatensystem der modernen Philosophie und der empirischen Wissenschaften in einer mittlerweile hochtechnisierten Welt verortet werden kann. Ein Deutungsversuch. Er wurde provoziert durch ein Experiment an der Frankfurt University of Applied Sciences, an der seit dem Sommersemester 2017 das Thema ’Meditation’ als offizielles Fach Für alle Bachelor-Studierende der Universität angeboten wird.

I. FRAGMENTIERUNG DER WELT ALS DAUERENTFREMDUNG

In ihren Bachelorstudiengängen erwerben die Studierende grundlegende Kenntnisse über viele verschiedene Einzeldisziplinen. Wieweit diese Disziplinen eher als ’empirische wissenschaftliche Disziplinen’ daherkommen oder doch mehr als ein ’ingenieurmäßiges Anwendungsfeld’ hängt stark vom Charakter der einzelnen Disziplin ab. Sicher ist nur, diese Einzeldisziplinen vermitteln keine ’Gesamtsicht’ der Welt oder des Menschen in der Welt. Ein ’Betriebswirtschaftler’ pflegt einen ganz anderen Zugang zur Welt als ein ’Architekt’, eine ’Case-Managerin’ ist keine ’Elektrotechnikerin’, usw.

Vorab zu allen möglichen Spezialisierungen ist ein Studierender aber primär ein ’Mensch’, ein weltoffenes Wesen, das eine Orientierung im Ganzen sucht, mit einem Körper, der eines der größten Wunderwerke der biologischen Evolution darstellt. Gesellschaftliche Teilhabe, Kommunikation, Verstehen sind wichtige Facetten in einer menschlichen Existenz. Historische Kontexte, Kultur, Werte, eigene Lernprozesse, das eigene Erleben und Lernen, dies alles gehört wesentlich zum Menschsein.

In einer einzelnen Disziplin kommt all dies nicht vor. Wer sich voll in einer bestimmten Disziplin engagiert ist damit nur zu einem kleinen Teil seines Menschseins ’versorgt’. Es klaffen große Lücken. In diesem Kontext ein Modul ’Meditation als kulturelle Praxis’ anzubieten, adressiert ein paar zusätzliche Teilaspekte des studentischen Lebens. Es spricht den persönlichen Umgang mit dem eigenen Körper an, mit spezifischen Körpererfahrungen, die eine feste erlebnismäßige Basis im Strom der Alltagsereignisse bieten können. Damit diese konkrete Praxis nicht ’ir-rational’ daherkommt, werden Teile des kulturellen Kontextes, aus der Geschichte, aus dem heutigen Weltbild, mit erzählt. Wie verstehen Menschen das ’Meditieren’ zu verschiedenen Zeiten, in verschiedenen Kulturen, heute?

II. PHILOSOPHIE UND WISSENSCHAFT (IDEALBILD)

Zwei besonders wichtige Blickweisen in der europäischen Kultur werden durch die modernen empirischen Wissenschaften und durch die moderne Philosophie repräsentiert. Beide entwickelten sich in enger Wechselwirkung seit dem 17.Jahrhundert; sie schufen die Grundlage für moderne Technologien, Gesellschafts- und Wertesysteme. Auch legten sie die Basis für einen Blick auf das Universum, das Leben im Universum, wie auch auf das menschliche Erkennen, wie es in der bisherigen Geschichte des Lebens einmalig ist.

Nun ist der Umfang dieses wissenschaftlichen und philosophischen Wissens zu groß, um es hier auch nur ansatzweise ausbreiten zu können. Es soll aber versucht werden, ausgehend von der Alltagserfahrung und der Praxis der Meditation anzudeuten, wie sich dieses aus Sicht der Philosophie und der empirischen Wissenschaften darstellt.

A. Alltagserfahrung

Oberflächen In seinem Alltag erlebt sich der Mensch mit seinem ’Körper’, der in einem räumlichen Miteinander mit anderen Körpern und Objekten vorkommt. Er erlebt Veränderungen, Verhaltensweisen, asynchron und synchron: Menschen auf einer Straße können wild durcheinander laufen, sie können aber auch gemeinsam diszipliniert in einer Warteschlange stehen, sich im gemeinsamen Tanz bewegen, oder im direkten Gespräch ihr individuelles Verstehen miteinander verschränken.

Zugleich lernt jeder von früh an, dass es ’hinter der Oberfläche’, ’im’ Körper, eine Vielfalt von Ereignissen gibt, subjektive Erlebnisse, die das ’Innere’ eines Menschen charakterisieren. Einiges von diesen Vorgängen ist ’bewusst’, bildet das ’Bewusstsein’ des Menschen. Wir wissen aber heute, dass vieles im Inneren eines Körpers, eigentlich das meiste, ’nicht bewusst’ ist! So sind die ’Inhalte’ unseres ’Gedächtnisses’ normalerweise nicht bewusst; sie können aber bewusst werden, wenn bestimmte Ereignisse uns an etwas erinnern, und herausfordern. Solche Erinnerungen können wie eine Kettenreaktion wirken: eine Erinnerung aktiviert die nächste.

B. Jenseits des Alltags

Wissenschaft Mittlerweile wurde der menschliche Körper, seine Bauweise, viele seiner Funktionen, durch die Biologie, die Physiologie, die Psychologie und durch viele weitere Wissenschaften untersucht und partiell ’erklärt’, dazu auch das Miteinander mit anderen Menschen in seinen vielfältigen Formen.

Wir wissen, dass die ’innere Verarbeitung’ des Menschen die äußeren und die körperinternen Reize nach festen Verfahren zu allgemeinen Strukturen zusammenführt (’Cluster’, ’Kategorien’), diese untereinander vielfach vernetzt, und automatisch in einer Raumstruktur aufbereitet. Zugleich erlaubt das Gedächtnis jede aktuelle Gegenwart mit gespeicherten ’alten Gegenwarten’ zu vergleichen, was ein ’vorher/nachher’ ermöglicht, der Ausgangspunkt für ein Konzept von ’Zeit’. Dazu kommt die besondere Fähigkeit des Menschen, die Ausdrücke einer Sprache mit seinen ’inneren Zuständen’ ’verzahnen’ zu können. Ein Ausdruck wie ’Es ist 7 Uhr auf meiner Uhr’ können wir in Beziehung setzen zu unserer Wahrnehmung eines Gegenstandes am angesprochenen Arm.

Ein wichtiges Charakteristikum biologischer Körper ist auch ihre grundlegende ’Nicht-Determiniertheit’, eine grundlegende Voraussetzung für ’Freiheit’.

Dass diese komplexen inneren Mechanismen des menschlichen Körpers so scheinbar mühelos mit den Gegebenheiten der Körperwelt ’harmonieren’, kommt nicht von ungefähr. Die moderne Biologie mit Spezialgebieten  wie z.B. der ’Mikrobiologie’, der ’Evolutionsbiologie’, der ’Paläobiologie’, der ’Astrobiologie’ 1 zusätzlich vereint mit Disziplinen wie der Geologie, Archäologie, der Klimatologie samt vielen Subdisziplinen der Physik und der Chemie; diese alle haben in über 100 Jahren konzertierter Arbeit die Geschichte der Lebensformen auf der Erde samt den parallelen Veränderungen der Erde mit ihrem Klima häppchenweise entschlüsselt, entziffert, dekodiert und immer wieder neu zu einem Gesamtbild zusammen gefügt. Das Bild, das sich daraus bis heute ergeben hat, zeigt eine ungeheure Vielfalt, eine bisweilen große Dramatik, vor allem aber das erstaunliche Phänomen, wie sich ’biologisches Leben’ anschickt, die freien Energiereserven des Universums ’anzuzapfen’, sie für sich ’nutzbar zu machen’, um damit immer komplexere Strukturen zu schaffen, die über einfache erste Zellen von vor ca. 3.8 Mrd. Jahren zu komplexen (’eukaryotischen’) Zellen führten, zu Zellverbänden, zu Pflanzen, zu Tieren und dann, sehr spät, ’erst vor kurzem’, zu einer Lebensform, die wir ’homo sapiens’ nennen, die sich von Ostafrika aus kommend, in ca. 45.000 Jahren über die ganze bekannte Erde ausgebreitet hat. Das sind wir.

Nimmt man die Erkenntnisse der Astrobiologie hinzu, dann wird deutlich, dass unser Planet Erde bisher eine äußerst ’lebensfreundliche’ Position in unserem Sonnensystem inne hatte; unser Sonnensystem wiederum befindet sich in einem sehr lebensfreundlichen Bereich unserer Heimatgalaxie, der Milchstraße mit ihren ca. 200 – 400 Mrd. Sternen; erst in ein paar Mrd. Jahren wird die Milchstraße – nach heutigem Kenntnisstand – mit der Andromeda- Galaxie kollidieren, die ca. 1 Bio. Sterne zählt.

C. Homo Sapiens Heute – Digitale Versklavung beginnt

Verglichen mit den langen Zeiträumen der Entwicklung des bekannten Universums (vor ca. 13.8 Mrd. Jahren), unserer Erde (vor ca. 4.5 Mrd. Jahren), des biologischen Lebens selbst (vor ca. 3.8 Mrd. Jahren) ist das Auftreten des homo sapiens (vor ca. 200.000 Jahre) verschwindend kurz. Betrachtet man nur die Zeit seit der Gründung der ersten Städte (vor ca. 11.000 Jahren), seit dem ersten Computer (vor ca. 88 Jahren), seit dem Internet (vor ca. 48 Jahren), dann muss man sagen, dass wir Menschen uns seit kurzem mitten in einer Revolution befinden, in der digitalen Revolution, die das Zeug dazu hat, die bisherige Lebensweise des homo sapiens so nachhaltig zu verändern, wie vielleicht vergleichbar mit der frühen Seßhaftwerdung des homo sapiens.

Ein Grundzug der Digitalisierung des menschlichen Lebens ist der Aufbau einer parallelen, einer digitalen Welt, in der ungeheure Datenmengen eingelagert werden können, riesige Datenströme schneller als menschliche Gedanken von überall nach überall hin und her strömen können, Daten, die partiell Abbilder, Kopien, Modelle der realen Welt darstellen, in denen Computerprogramme diese Datenberge geräuschlos verwalten, verarbeiten und in Maßnahmen umsetzen können.

Der homo sapiens mit seinem Körper für die Außenwelt und seinen bewussten kognitiven Prozessen in der ’Innenwelt’, wird über Schnittstellen mit der digitalen Welt verkoppelt und lebt immer mehr nur durch das Medium des Digitalen. Sein Körper, die Vorgänge in der Außenwelt, verlieren an Bedeutung. Die wahrgenommene Außenwelt wird zu einem immer kleiner werdenden Segment der subjektiv gedachten und digital aufbereiteten Welt. Falls der homo sapiens die Nutzung der digitalen Welt in der Zukunft nicht grundlegend anders organisiert, wird das einzelne, individuelle Gehirn zu einem bloßen Anhängsel einer neuen digitalen Galaxie, deren Beherrschung und Steuerung sich allen bekannten Kategorien aus der Außenwelt entzieht. Alle bekannten rechtliche, soziale und politische Kategorien werden nicht mehr gelten. Ganze Staaten verlieren ihren Halt, weil ihre Bürger in einer digitalen Welt leben, die von globalen anonymen Kräften beherrscht werden. Bürger mutieren zu ’Realwelt-Zombies’, deren Inneres zum Bestandteil über-individueller globaler Algorithmen geworden ist, die alle individuellen Regungen automatisch beobachten, und nach partiellen ökonomischen Interessen global steuern.

Noch ist diese Vision nicht vollständig wahr, aber doch schon soweit, dass es uns erschrecken sollte. Ist es das, was wir wollen, was wir wollen sollten?

D. Selbstvergewisserung – Speziell durch Meditation?

Eines der wichtigsten Themen der Philosophie war und ist zu allen Zeiten das Thema der ’Selbstvergewisserung’: wer bin ich, der ich wahrnehme, empfinde, denke, und handle? Bin ich das, was ich wahrnehme, empfinde etc. oder bin ich etwas davon ’Verschiedenes’, oder die ’Synthese’ aus all dem, oder etwas noch ganz anderes?

Die Palette der Antworten ist so breit, wie die Zeit lang ist. Jeder Philosoph hat das Thema irgendwie neu moduliert; bis heute gibt es nicht ’die’ Antwort.

Schon mittendrin in der digitalen Revolution, schon jetzt fast mehr im ’digitalen’ Raum als im ’realen Körperraum’, verschärft sich diese philosophische Fragestellung weiter: wenn das, was ich wahrnehme, immer weniger direkt mit der realen Körperwelt korrespondiert, dafür immer mehr mit digital aufbereiteten Objekten, deren Herkunft zu bestimmen immer schwieriger wird, dann kann es passieren, dass sich das individuelle erkennende Subjekt über eine (digitale) Objektwelt definiert, die weitgehend ein Fake ist, einzig dazu da, den Einzelnen zu manipulieren, ihn zu einem ferngesteuerten ’Diener des Systems’ zu machen, besser: zu einem ’digitalen Sklaven’.

Würde man die aktuelle Entwicklungstendenz der digitalen Revolution so fort schreiben, wie sie aktuell formatiert ist, dann würde dies zur totalen Auslöschung eines freien, kreativen Individuums führen. Denn selbst ein Individuum, das vom Ansatz her ein ’freies’ Individuum ist, würde durch eine reale Lebensform der manifesten digitalen Sklaverei jeglichen Ansatzpunkt verlieren, die Freiheit zu ’materialisieren’.

Um eine solche digitale Sklaverei zu verhindern, kann und muss man die aktuelle digitale Revolution ’um- formatieren’. Statt den menschlichen Benutzer zu einem vollständig manipulierten Bestandteil einer Population von wertfreien Algorithmen zu machen, die von einzelnen narzisstischen, macht-hungrigen und menschenverachtenden Menschen global gesteuert werden, sollte man den digitalen Raum neu, von ’unten-nach-oben’ organisieren. Der einzelne Mensch muss wieder zum Taktgeber werden, die individuelle Freiheit, Kreativität und in Freiheit geborenen Werte müssen in einer freien Gesellschaft wieder ins Zentrum gerückt werden, und die diversen Algorithmen und Datengebirge müssen diesen individuellen Freiheiten in einer demokratischen Gesellschaft ’dienen’!

Eine Grundvoraussetzung für solch eine neue ’Selbstvergewisserung’ von ’Freiheit’ ist eine radikale, authentische Selbstwahrnehmung des ganzen individuellen Daseins, weit-möglichst frei von manipulierten und gefakten Fakten. Natürlich kann dies nicht bedeuten, dass der Mensch sich all seiner Erfahrungen, all seines Wissens ’entleert’, das wäre die andere Form von Versklavung in der Dunkelheit eines radikalen ’Nicht-Wissens’. Aber in all seinen Erfahrungen, in all seinem Wissen, braucht es die Erfahrung ’seiner selbst’, wie man ’faktisch ist’, man ’selbst’, mit seinem ’Körper’, in einer Erfahrungswelt, die dem menschlichen Tun ’vorgelagert’ ist als das, was wir ’Natur’ nennen, die ’aus sich heraus gewordene und werdende Wirklichkeit’ der Erde im Universum, des Lebens auf der Erde, von dem wir ein Teil sind.

Natürlich, und das wissen wir mittlerweile, gerade auch durch das philosophische Denken im Einklang mit den empirischen Wissenschaften, haben wir Menschen niemals einen völlig authentischen, einen völlig ’ungefilterten’ Zugang zur ’Natur’. Einmal nicht, weil das menschliche Vermögen des Wahrnehmens und Verstehens aus sich heraus ’konstruktiv’ ist und wir die ’Außenwelt’ grundsätzlich nur im Modus unserer ’Innenwelt’ ’haben’, zum anderen nicht, weil wir selbst Teil dieser Natur sind und durch unsere Aktivitäten diese Natur mit verändern. Die erlebbare Natur ist von daher immer schon eine ’vom Menschen mit-gestaltete Natur’! Je mehr wir dies tun, je mehr wir selbst als Teil der Natur die Natur verändern, umso weniger können wir die Natur ’vor’ oder ’ohne’ den Menschen erleben.

Dennoch, bei aller ’Verwicklung’ des Menschen mit der umgebenden Natur, und heute noch zusätzlich mit der selbst geschaffenen digitalen Wirklichkeit, gibt es keine Alternative zu einer praktizierten Selbstvergewisserung mit vollem Körpereinsatz. Dies können intensive Formen körperlicher Aktivitäten sein – wie z.B. Gehen, Laufen, Fahrrad fahren, Mannschaftssport, Tanzen, Musizieren, … –, dies kann aber auch das ’Meditieren’ sein. Im Meditieren, mit dem Atmen als ’Referenzpunkt’, kann sich der einzelne mit all seinen Befindlichkeiten als ’Ganzes’ erleben, als direkt Gegebenes, mit einem ungefilterten Erleben, mit einer Feinheit des Erlebens, die nicht durch Alltagsrauschen ’überdeckt’, ’maskiert’ wird, und der einzelne kann darin nicht nur ’physiologische Entspannung’ finden, sondern auch – über die Zeit – durch seine erweiterte Wahrnehmung zu neuen, differenzierteren ’Bildern seiner selbst’ kommen, zum ’Entdecken’ von ’Mustern’ des Daseins, die über den aktuellen Moment hinaus auf Wirkzusammenhänge verweisen, die im Alltagsrauschen normalerweise völlig untergehen. Darüber hinaus können sich – meist auf Dauer – Erlebnisse, Erfahrungen einstellen, die sich in spezifischer Weise ’wohltuend’ auf das gesamte Lebensgefühl eines einzelnen auswirken, die einen ’gefühlten Zusammenhang mit Allem’ ermöglichen, der das ’Gefühl für das Ganze’ deutlich verändert. Dieses ’Wohlfühlen’ ist ’mehr’ als physiologische Entspannung, es sind ’Gefühle eines komplexen Existierens’, zu dem nur biologische Systeme fähig sind, deren Körper aufgrund ihrer quanten-physikalischen Offenheit in allen Richtungen Wirklichkeit ’registrieren’ können. Auch das Thema sogenannter ’mystischer’ Erfahrungen gehört in diesen Kontext. Leider gibt es dazu kaum wissenschaftliche Forschungen, aber viele Phänomene, die der Erklärung harren.

III. ERST REAKTIONEN

Obwohl dieser Text erst wenige Tage alt ist, kam es schon zu interessanten Rückmeldungen. Einige davon seien hier ausdrücklich genannt, da sie helfen können, den Kern der Aussage noch weiter zu konturieren.

A. Erosion der Wissenschaft ’von innen’

Wenn im vorausgehenden Text von ’Wissenschaft’ die Rede ist, dann wurde in diesem Text ein Idealbild von Wissenschaft unterstellt, das es so heute ansatzweise gar nicht mehr gibt, und das tendenziell dabei ist, sicher weiter zu verwischen. Für das Projekt einer Zukunft mit dem homo sapiens als aktivem Teilnehmer ist dies brandgefährlich!

Für eine ausführliche Beschreibung dieser beginnenden Erosion von Wissenschaft bräuchte es einen längeren Text. Hier zwei Beispiele, die als erste ’Indikatoren’ dienen mögen.

Vor wenigen Tagen hatte ich Gelegenheit, im Rahmen eines sogenannten ’Graduiertenkollegs’ mit Studierenden von 6 verschiedenen Universitäten mit 7 verschiedenen akademischen Profilen arbeiten zu können; alle waren DoktorandenInnen.

Wir nahmen uns zu Beginn die Zeit, mittels einfacher Zettel, mal zusammen zu stellen, was jedem von ihnen zum Thema ’Wissenschaft’ einfällt. Das Ergebnis war erschreckend. Kein einziger war in der Lage, ein auch nur annähernd ’korrektes’ Bild dessen zu zeichnen, was ’standardmäßig’ unter dem Begriff ’Wissenschaft’ zu verstehen ist; keiner. Nachdem wir dann in Ruhe alle Beiträge gemeinsam diskutiert und in einen Gesamtzusammenhang eingeordnet hatten (mit vielen Ergänzungen), war die einhellige Reaktion, dass sie dieses in ihrem ganzen Studium noch nie gehört hätten, und dass sie ein großes Interesse hätten, dazu mehr zu erfahren.

Also, eine Zufallsauswahl von jungen Menschen, die eine Doktorarbeit schreiben wollen, war nicht in der Lage, ein belastbares Konzept von ’Wissenschaft’ zu kommunizieren, und das nach ca. 5-6 Jahren Studien an 6 verschiedenen Universitäten in 7 verschiedenen Fachprofilen.

Wer diesen Befund jetzt mit dem Hinweis wegwischen möchte, dass dies auf keinen Fall repräsentativ sei, dem möchte ich ein neueres Handbuch der Wissenschaftsphilosophie zu den Philosophien der Einzelwissenschaften zur Lektüre empfehlen (siehe: [LR17]). In diesem Buch von 2017 wird von Experten der Wissenschaftsphilosophie in 22 Kapiteln sehr kenntnisreich, mit umfänglichen Literatursammlungen, dargelegt, was heute die großen Strömungen im Verständnis von Wissenschaft sind. Was man in diesen Texten nicht findet – ich konnte bislang 6 von 22 Kapiteln lesen –, ist ein klares Konzept, was dann heute unter ’Wissenschaft’ verstanden wird oder verstanden werden sollte. Wenn mir beispielsweise für die Disziplinen Mathematik, Philosophie, Ingenieurwissenschaften und Psychologie – ohne Zweifel sehr kenntnisreich – allerlei Strömungen und Problemdiskussionen präsentiert werden, das Fach selbst samt Wissenschaftsbegriff aber nicht zuvor geklärt wird, dann ist die Aufzählung von all den interessanten Aspekten wenig hilfreich. Alles verschwimmt in einem großen Brei. Und die Studierenden (siehe das Beispiel oben) durchlaufen den Wissenschaftsbetrieb und wissen nachher eigentlich nicht, was man unter ’Wissenschaft’ versteht bzw. verstehen sollte.

Das meine ich mit ’innerer Erosion’ von Wissenschaft: der Wissenschaftsbetrieb als ganzer weist heute riesige, komplexe Organisationsformen auf, verschlingt riesige Geldsummen, aber keiner scheint mehr zu wissen, was es eigentlich ist, was man da macht.

B. ’Digitalisierung’ als ’hypnotischer Zustand’?

Ein ähnliches Phänomen kann man im Umfeld des Phänomens der ’Digitalisierung von Gesellschaft’ beobachten. Mittlerweile vergeht nicht ein Tag, an dem nicht in Zeitungen, im Fernsehen, in Fachartikeln, in Romanen das Phänomen der Digitalisierung beschworen wird. Zumeist hält man sich bei einigen Auswirkungen auf, die in der Tat bedrohlich erscheinen oder sogar sind, aber fast nirgends findet man fundierte Analysen von jenen Technologien, die ’hinter’ den Phänomenen tatsächlich am Werk sind. Am schlimmsten ist das Wort ’Künstliche Intelligenz’. Obwohl es bis heute keine wirklich akzeptierte Definition gibt, jeder damit etwas anderes meint (Anmerkung: Eines der am häufigsten zitierten Lehrbücher zur künstlichen Intelligenz enthält über viele hundert Seiten unzählige Beispiele von einzelnen mathematischen Konzepten (und Algorithmen), aber eine klare Definition wird man nicht finden, auch keine klare Einordnung in das Gesamt von Wissenschaft; siehe [RN10] )  wird so getan, als ob klar ist, was es ist, als ob es so einfach wäre, dass künstliche Intelligenz sich verselbständigen könnte und die ’Herrschaft über die Menschen’ übernehmen wird. Zeitgleich fällt das Bild vom Menschen in ein schwarzes Loch des Nichtwissens, aus dem es kein Entrinnen gibt, um der umfassenden gesellschaftlichen ’Hypnose’ der Digitalisierung ein paar vernünftige Gedanken entgegen zu setzen. Eine der wenigen kritische, dekonstruierende Stellungnahme ist für mich ein Artikel von Sarah Spiekermann (siehe [Spi18]), in dem sie die ernüchternde Schwachheit des ganzen Big-Data-Ansatzes klar ausspricht und welche Gefahren gerade dadurch für uns als Gesellschaft davon ausgehen. Nicht die ’Stärke’ dieser Algorithmen bildet eine Gefahr, sondern ihre grandiose Schwäche, durch welche die Komplexität der Gegenwart und die noch größeren Komplexität der noch unbekannten Zukunft vor unserem geistigen Auge verdeckt wird.

C. Meditationserfahrung gegen Reflexion?

Einen anderen interessanten Reflex durfte ich erfahren (nicht unbedingt erst seit diesem Text): diejenigen, die Meditation schon für ihr Leben entdeckt haben, es bisweilen viele Jahre oder gar schon Jahrzehnte, praktizieren, reagieren spontan mit Abwehr auf die ’Vereinnahmung’ von Meditation durch Reflexion, durch Wissen, was sie als ’Quelle von Störungen’ erfahren, als Hindernis zur tieferen, inneren Erkenntnis und Erfahrung.

Kommunikation in diesem Kontext wird dadurch erschwert, dass das Phänomen ’Meditation’ ja nicht nur über tausende von Jahren in unterschiedlichen kulturellen Kontexten praktiziert und interpretiert wurde (und niemand beherrscht rein wissensmäßig alle diese Traditionen), sondern die Meditationserfahrung selbst spielt sich in jenen inneren Bereichen des Körpers ab, die sich einem direkten ’Zugriff von außen’ entziehen und die von daher schwer bis gar nicht mit ’klaren sprachlichen Ausdrücken’ kommunizierbar sind. Jeder muss immer unterstellen, dass der andere ’das Gleiche’ meint, wie man selbst, ohne es wirklich kontrollieren zu können. Auch die modernen Verfahren der Hirnforschung bieten hier nur sehr abstrakte, äußerliche Kriterien zu irgendwelchen physiologischen Parametern, die keinen direkten Schluss auf die tatsächlichen internen Prozesse zulassen (dazu: Jonas/ Kording (2017) [JK17]).

Zu diesen objektiven Schwierigkeiten kommt aber dann eine verbreitete subjektive Abwehr von Reflexion in meditativen Kontexten, da es sowohl dominante Tendenzen in den verschiedenen Traditionen gibt, die diese ’inneren Prozesse/ Zustände/ Erlebensformen…’ im direkten Gegensatz zu ’diskursiven Tätigkeiten’ sehen, wie auch durch die Tatsache bedingt, dass die ’alten Traditionen’ die modernen (wissenschaftlichen und philosophischen) Sichtweisen in keinster Weise kannten. Obwohl also einerseits die Meditation selbst ’diskursfrei’ gesehen wird, wird ihre ’Einbettung in den gesellschaftlichen Kontext’ mit einem begrifflichen Rahmen ’verpackt’, ’interpretiert’, der von modernen Erkenntnissen ’unberührt’ ist.

Es wäre schon viel gewonnen, wenn man zwischen dem ’inneren meditativen Erfahrungsraum’ und den sekundären begrifflichen Erklärungsmustern klar unterscheiden würde. Egal ob ein Buddhist, eine Jude, ein Christ oder ein Muslim – oder wer auch immer – etwas zu Meditation sagt, das ’Reden über Meditation’ ist nicht gleichzusetzen mit dem Meditieren selbst und den hier stattfindenden Ereignissen. Wie eine Reihe von Untersuchungen nahelegen (z.B. Stace (1960) [Sta60]), kann der gleiche Sachverhalt, je nach kulturellem Vor- Wissen, ganz unterschiedliche interpretiert werden.

Von daher kann es sehr wohl sein – und der Autor dieser Zeilen geht davon aus – dass der ’Innenraum’ des Meditierens im ’Lichte’ der Erkenntnisse der neueren Philosophie(en) und Wissenschaften eine ganz neue Deutung finden kann. Insofern das Meditieren im Grundansatz an den Phänomenen des ’Innenraums’ orientiert ist (die nichts mit den Phänomenen des ’Außenraums’ zu tun haben müssen!), hat Meditation eine an ’Erfahrung’ orientierte Ausrichtung, die von allen, die sich ’in gleicher Weise’ verhalten, ’im Prinzip reproduzierbar’ ist. Bezieht man die aktuellen empirischen Wissenschaften mit ihren reproduzierbaren Messprozessen auf die ’intersubjektiven Phänomene’ des ’Körperraums’, dann weisen die meditativen Erfahrungen hin auf einen ’erweiterten Erfahrungsraum’, der sich bislang nur durch den vollen Körpereinsatz unter Einbeziehung der ’Phänomene des Innenraums’ manifestiert, und der ansatzweise erfahrungsmäßig reproduzierbar ist.

Während der Innenraum der Meditation im Prinzip versucht, reflektierende Prozesse ’raus zu halten’, kann die begleitende Reflexion vorher und nachher sehr wohl versuchen, das Getane und Erlebte mit dem verfügbaren Wissen zu vernetzten und damit in bekannte Zusammenhänge einzuordnen. Genauso wenig aber, wie aus empirischen Messwerten ’rein automatisch’ Modelle oder Theorien folgen, genauso wenig folgen aus meditativen ’Erlebnissen/ Erfahrungen…’ irgendwelche Modelle oder Theorien. Jede Art von übergreifendem Zusammenhang ist die kreative Eigenleistung eines Individuums und muss sich vor dem Gesamtheit der Erfahrung und im Experiment ’bewähren’.

Vor diesem Hintergrund kann keine Zeit für sich einen absoluten Interpretationsanspruch zum Phänomen der Meditation beanspruchen! Im Gegenteil, jede neue Zeit ist herausgefordert, bisherige Interpretationen im Lichte neuer Erfahrungen, neuer Experimente, immer wieder zu überprüfen.

LITERATUR

[JK17] E. Jonas and K.P. Kording. Could a neuroscientist understand a microprocessor? PLoS Comput Biol, 13(1):1–24, January 2017.

[LR17] Simon Lohse and Thomas Reydon. Grundriss Wissenschaftsphilosophie. Die Philosophien der Einzelwissenschaften. Wissenschaftliche Buchgesellschaft, Darmstadt (Germany), 1 edition, 2017.

[RN10] Stuart Russel and Peter Norvig. Artificial Intelligence. A Modern Approach. Universe Books, 3 edition, 2010.

[Spi18] Sarah Spiekermann. Die große big-data-illusion. FAZ, (96):13, 25.April 2018.

[Sta60] W.T. Stace. Mysticism and Philosophy. Jeremy P.Tarcher, Inc., Lo Angeles (CA), 1 edition, 1960.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

DAS PHILOSOPHIE JETZT PHILOTOP

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 30.Nov. 2017
URL: cognitiveagent.org
info@cognitiveagent.org

Autor: cagent
Email: cagent@cognitiveagent.org

Worum geht’s — Meine Antwort auf die von vielen gestellte
Frage, wie denn die  verschiedenen Seiten untereinander zusammen hängen, war zu schnell (siehe den Blogeintrag vom 14.November ). Hier eine Korrektur.

I. EIN PHILOTOP

Wie man unschwer erkennen kann, ist das Wort
’Philotop’ eine Übertragung von dem Wort ’Biotop’.
Für Biologen ist klar, dass man einzelne Lebensformen
eigentlich nur angemessen verstehen kann, wenn
man ihren gesamten Lebensraum mit betrachtet:
Nahrungsquellen, Feinde, ’Kollaborateure’, Klima, und
vieles mehr.

Ganz ähnlich ist es eigentlich auch mit dem Blog
’Philosophie Jetzt: Auf der Suche …’. Auch diese Ideen
haben sehr viele Kontexte, Herkünfte, wechselseitige
Interaktionen mit vielen anderen Bereichen. Ohne diese
Kontexte könnte der Blog vielleicht gar nicht ’atmen’.

Im Blogeintrag vom 14.November 2017 wurde
verwiesen auf die monatliche Philosophiewerkstatt, in
der in einer offenen Gesprächsrunde Fragestellungen
gemeinsam gedacht werden. Seltener gibt es
die Veranstaltung Philosophy-in-Concert, in der philosophische Ideen, eingebettet in experimentelle Musik, Bildern und Texten ihren Empfänger suchen und
sich auch auf ein Gespräch einlassen.

Schaubild vom Philotop ( die 'Kernbereiche') :-)

Schaubild vom Philotop ( die ‚Kernbereiche‘) 🙂

Die Wechselwirkung mit den nächsten beiden
Blogs liegt für manche vielleicht nicht so auf der
Hand. Aber bedingt durch die langjährige Lehr-
und Forschungstätigkeit von cagent im Bereich des
Engineerings stellte sich heraus, dass gerade das
Engineering der Welt riesige Potentiale für eine
moderne Philosophie bietet, und dies nicht nur einfach
als begriffs-ästhetische Spielerei, sondern mit einem
sehr konkreten Impakt auf die Weise, wie Ingenieure die
Welt sehen und gestalten. Daraus entstand ein Projekt,
das bislang keinen wirklich eigenen Namen hat.

Umschrieben wird es mit ’Integrated Engineering of
the Future’, also ein typisches Engineering, aber eben
’integriert’, was in diesem Kontext besagt, dass die
vielen methodisch offenen Enden des Engineerings hier
aus wissenschaftsphilosophischer Sicht aufgegriffen und
in Beziehung gesetzt werden zu umfassenderen Sichten
und Methoden. Auf diese Weise verliert das Engineering
seinen erratischen, geistig undurchdringlichen Status
und beginnt zu ’atmen’: Engineering ist kein geist-
und seelenloses Unterfangen (wie es von den Nicht-
Ingenieuren oft plakatiert wird), sondern es ist eine
intensive Inkarnation menschlicher Kreativität, von
Wagemut und zugleich von einer rationalen Produktivität,
ohne die es die heutige Menschheit nicht geben würde.

Das Engineering als ein Prozess des Kommunizierens
und darin und dadurch des Erschaffens von neuen
komplexen Strukturen ist himmelhoch hinaus über
nahezu allem, was bildende Kunst im Kunstgeschäft
so darbietet. Es verwandelt die Gegenart täglich und
nachhaltig, es nimmt Zukünfte vorweg, und doch fristet
es ein Schattendasein. In den Kulturarenen dieser Welt,
wird es belächelt, und normalerweise nicht verstanden.
Dies steht  im krassen Missverhältnis zu seiner Bedeutung.
Ein Leonardo da Vinci ist ein Beispiel dafür, was es
heißt, ein philosophierender Ingenieur gewesen zu sein,
der auch noch künstlerisch aktiv war.
Innerhalb des Engineerings spielt der Mensch in
vielen Rollen: als Manager des gesamten Prozesses, als mitwirkender Experte, aber auch in vielen Anwendungssituationen als der intendierte Anwender.

Ein Wissen darum, wie ein Mensch wahrnimmt, denkt,
fühlt, lernt usw. ist daher von grundlegender Bedeutung. Dies wird in der Teildisziplin Actor-Actor-Interaction (AAI) (früher, Deutsch, Mensch-Maschine Interaktion oder,
Englisch, Human-Machine Interaction), untersucht und methodisch umgesetzt.

Die heute so bekannt gewordene Künstliche Intelligenz
(KI) (Englisch: Artificial Intelligence (AI)) ist ebenfalls ein
Bereich des Engineerings und lässt sich methodisch
wunderbar im Rahmen des Actor-Actor Interaction
Paradigmas integriert behandeln. Im Blog wird es unter
dem Label Intelligente Maschinen abgehandelt.
Sehr viele, fast alle?, alle? Themen aus der
Philosophie lassen sich im Rahmen des Engineerings,
speziell im Bereich der intelligenten Maschinen als Teil
des Actor-Actor-Interaction Paradigmas neu behandeln.

Engineering ist aber nie nur Begriffsspielerei.
Engineering ist immer auch und zuvorderst Realisierung
von Ideen, das Schaffen von neuen konkreten Systemen,
die real in der realen Welt arbeiten können. Von daher
gehört zu einer philosophisch orientierten künstlichen
Intelligenzforschung auch der Algorithmus, das lauffähige
Programm, der mittels Computer in die Welt eingreifen
und mit ihr interagieren kann. Nahezu alle Themen der
klassischen Philosophie bekommen im Gewandte von
intelligenten Maschinen eine neue Strahlkraft. Diesem
Aspekt des Philosophierens wird in dem Emerging-Mind
Lab Projekt Rechnung getragen.

Mit dem Emerging-Mind Lab und dessen Software
schließt sich wieder der Kreis zum menschlichen
Alltag: im Kommunizieren und Lernen ereignet sich
philosophisch reale und mögliche Welt. Insoweit intelligenten Maschinen aktiv daran teilhaben können, kann dies die Möglichkeiten des Menschen spürbar erweitern. Ob zum Guten oder Schlechten, das entscheidet
der Mensch selbst. Die beeindruckende Fähigkeit von
Menschen, Gutes in Böses zu verwandeln, sind eindringlich belegt. Bevor wir Maschinen verteufeln, die wir
selbst geschaffen haben, sollten wir vielleicht erst einmal
anfangen, uns selbst zu reformieren, und dies beginnt
im Innern des Menschen. Für eine solche Reform des
biologischen Lebens von innen gibt es bislang wenig bis
gar keine erprobten Vorbilder.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

DIE NATUR DER ERKLÄRUNG – Kenneth Craig – Diskussion

PDF

ÜBERBLICK

Craik führt in diesem Buch eine breit angelegte Diskussion im Spannungsfeld von Philosophie, Psychologie, Physiologie, Physik und Technik, die einige Hauptthemen erkennen lässt: ein Plädoyer für ein kausales Verständnis der realen Welt, für die Rekonstruktion von Bewusstsein durch Rückgriff auf das Nervensystem, für die zentrale Rolle mentaler Modelle, sowie für die wichtige Rolle von Sprache in allem Erklären.

I. KONTEXT

Alle Themen, die Craik in seinem Buch ”The Nature of Explanation” [Cra43] anspricht, sind Themen, die in verschiedenen Blogeinträgen schon zur Sprache gekommen sind. Das Buch wird daher etwas intensiver diskutiert, um damit die Position des Blogs weiter zu klären. Dabei ist zu beachten, dass Craik nicht nur eine große Linie verfolgt, sondern im Verlauf des Textes viele andere Themen anspricht, die irgendwie auch mit der großen Linie zusammenhängen. Dies macht die Lektüre manchmal etwas mühsam, wenngleich immer interessant. Dem Interesse des Blogs folgend werden daher nur einige Hauptthemen hier weiter diskutiert. Eine Lektüre dieser Themen ersetzt nicht die eigene Lektüre seines Buches.

II. ERKLÄRUNG DURCH KAUSALITÄT

K.Craik - Stichworte aus Kap.1-4

K.Craik – Stichworte aus Kap.1-4

Das Schaubild 1 enthält nur einige der einschlägigen Stichworte von Craig aus den ersten vier Kapiteln, und auch nur kursorisch.

Aus den vielen Argumenten, die gegen die Möglichkeit einer Erklärung durch Kausalität sprechen, stammt das prominenteste von David Hume (1711 – 1776), für den die Beschaffenheit der sinnlichen Wahrnehmung keinen direkten Schluss auf eine kausaler Beziehung der Art ’B ist da durch A’ zulässt. Zu einem bestimmten Augenblick
haben wir einen Momenteindruck, beim nächsten Augenblick auch. Zwischen verschiedenen Augenblicken kann es zwar Unterschiede geben, aber diese lassen nicht zwingend eine Interpretation in Richtung einer kausalen Beziehung zu.

Neben sehr vielen anderen Positionen bespricht Craik auch die Position der modernen Physik sofern sie quantenmechanische Modelle benutzt. Angesichts einer prinzipiellen Messungenauigkeit (Heisenberg, Unschärferelation) und unbeobachtbaren Objekten soll eine direkte kausale Zuschreibung nicht mehr möglich sein. Es gibt nur noch
Regelmäßigkeiten in Form von statistischen Tendenzen. Craik kritisiert in diesem Zusammenhang, dass man aus den Grenzen der Beobachtbarkeit nicht notwendigerweise darauf schließen kann, dass es deswegen grundsätzlich
keine Kausalität mehr gäbe. Ferner weist er anhand vieler Beispiele darauf hin, dass die Theorien der Wahrscheinlichkeit als Theorien starke implizite Annahmen über die vorausgesetzten Ereignismengen machen, die grundlegende Wechselwirkungen, auch in Form kausaler Beziehungen, voraussetzen.

 

Aus der Sicht Craiks ist die Position Humes nicht ganz korrekt, da das sinnliche Material immer schon in eine Raumstruktur eingebettet ist, die implizite Wechselbeziehungen realisiert (zwei gleichartige Objekte können nicht zugleich auf ein und derselben Raumstelle sein); ferner gehört die Zeitstruktur zur Wahrnehmung (darin über die
rein sinnlichen Anteile hinausgehend), die zumindest potentielle Abfolgen erkennen lassen (B folgt auf A in der Zeit). Dies impliziert zwar nicht unmittelbar eine kausale Beziehung, bietet aber einen Anknüpfungspunkt für eine Hypothese und Experimente. Im Rahmen der Zeitstruktur kann man z.B. allerlei Veränderungen beobachten, z.B.
auch eine Veränderung von Energieleveln. Diese bieten Ansatzpunkte für Hypothesen und Experimente.

Für Craik realisiert sich empirische Wissenschaft durch das Ernst nehmen von vorfindlichen Gegebenheiten, von Fakten, bezogen auf die man Hypothesen bzgl. möglicher Zusammenhänge formulieren kann. Diese Hypothesen kann man dann in Experimenten überprüfen. Sofern sich die Hypothesen bestätigen lassen, soll dies eine gewisse Zufriedenheit auslösen. Geprüfte Zusammenhänge ermöglichen Verstehen, Einsicht, erlauben Voraussagen, mit Voraussagen kann man zukünftige Situationen vorweg nehmen, um sich dadurch auf kommende Situation einzustellen.
Ferner erlaubten geprüfte Zusammenhänge auch unterschiedliche praktische Nutzungen.
Fehlen geprüfte Zusammenhänge, dann kann dies zu Enttäuschungen, ja zu Frustrationen führen. Man kann dann nichts ableiten, nichts voraus sagen, nicht wirklich planen; auch eine praktische Nutzung ist nicht möglich. Man versteht das auslösende Phänomen dann nicht wirklich.

III. DENKEN UND NERVENSYSTEM

K.Craik - Die Erkennungsleistung des Systems Mensch

K.Craik – Die Erkennungsleistung des Systems Mensch

Nach zahlreichen vorausgehenden kritischen Anmerkungen zu unterschiedlichen Positionen in der Philosophie und in den Wissenschaften, geht Craik davon aus, dass der Mensch in einer realen Welt vorkommt. Einige der Ereignisse in dieser Welt können von Sinnesorganen beobachtet werden. Beobachten heißt hier, dass diese Ereignisse sowohl
in interne neuronale Ereignisse übersetzt werden, zusätzlich aber auch in eine symbolischer Sprache  mittels der Bezug genommen werden kann auf viele interne Gegebenheiten, Ereignisse und Prozesse. Das Andere der Symbole ist dann ihre Bedeutung (’meaning’). Was immer auch intern im einzelnen geschieht, es gibt unterschiedliche Prozesse, die abstrakt als Denken, Schlüsse ziehen, Voraussagen machen beschrieben werden. Ein wesentliches Element dieser Prozesse ist das Generieren von internen, mentalen Modellen, deren Analogien mit der realen
Außenwelt so groß sind, dass wichtige Eigenschaften und Prozesse der Außenwelt in ihren kausalen Beziehungen so nachgebildet werden können, dass auf ihrer Basis einigermaßen zuverlässige Voraussagen über die Zukunft gemacht werden können, die sich überprüfen lassen.

Craik wirft auch die Frage auf, welche Eigenschaften am Nervensystem es wohl sind, die alle diese Leistungen ermöglichen? Anhand verschiedener Verhaltensphänomene (visueller Reiz, Retina, Adaption, Differenzierung, Ähnlichkeit, bewusst – unbewusst, Reflexe, Zahlen und deren Nutzung, Gedächtnis, Lernen, Gefühle, …) diskutiert er
dann die Anforderungen, die an das System gestellt werden und überlegt, ob und wie diese Anforderungen rein technisch bzw. mittels des Nervensystems eingelöst werden könnten. Diese Überlegungen sind in ihrem grundsätzlichen Charakter interessant, aber der Stand des Wissens in seiner Zeit zum Nervensystem und zu neuronalen Modellen
war nicht ausreichend, um alle diese Phänomene verbindlich diskutieren zu können.
Immer wieder stellt er die zentrale Rolle der symbolischen Sprache heraus, mittels der sich komplexe Strukturen und Modelle generieren lassen, mit denen Erklärungen möglich werden, Voraussagen und auch die Koordinierung zwischen den Gehirnen.

Bei seiner Beschreibung der realen Welt fällt auf, dass er stark fixiert ist auf einfache physikalische Strukturen; die Besonderheit und Komplexität biologischer Systeme tritt wenig hervor. Dies obgleich er ja die komplexen Strukturen von Menschen sehr wohl diskutiert.

Er sieht allerdings schon ein Eigengewicht der mentalen logischen Strukturen gegenüber der ’reinen Maschinerie’ des Nervensystems, insofern das Nervensystem als solches funktioniert unabhängig von Logik und Bedeutung. In wissenschaftlichen Kontexten aber muss auch Logik und Bedeutung stimmen, andernfalls gelingt die Argumentation
nicht. Allerdings, auch hier gilt, dass auch eine Logik und mögliche Bedeutungen im mentalen Bereich ebenfalls Leistungen des Nervensystems sind. Das gerade ist das Besondere. Reine Introspektion kann zwar die phänomenale Seite des Geistes enthüllen, nicht aber seine neuronale Seite. Dazu bedarf es mehr als Introspektion.

Craik postuliert auch den Faktor der Gefühle (’feelings’) und der Emotionen (’emotions’) als grundlegend für das Verhalten. Zufriedenheit und Unglücklich sein sind starke Motive für das gesamte Verhalten. Wissenschaft lebt davon, Kunst, aber auch viele psychische Krankheiten scheinen mit einem Missmanagement der Gefühle zu tun zu haben.
Das Wechselspiel zwischen Gefühlen und dem gesamten Lebensprozess umschließt nach Craik viele Faktoren, viele dabei oft unbewusst, so dass das Erkennen der Zusammenhänge in der Regel nicht einfach ist. Klassische Ethik und Moral dagegen tendieren zu Vereinfachungen, die dann sachlich unangemessen sind.

IV. DISKURS

Die vorgestellten Gedanken von Craik sind, wohlgemerkt, nur eine Art Extrakt, viele interessante Details bleiben ungesagt. Für das Anliegen des Blogs kann dies aber u.U. genügen.

Das Thema empirische Wissenschaft, Messen, Erklären usw. steht in Übereinstimmung mit dem, was bislang angenommen wurde. Craik ist sehr bemüht, die Perspektive der Introspektion zu übersteigen, da er zu Recht erkennt, dass diese allein nicht ausreicht. Zugleich sieht er sehr wohl eine gewisse Eigenständigkeit der introspektiven Dimension. Was er aber nicht leistet, das ist ein Aufweis, wie man methodisch sauber beide Dimensionen kombiniert [Anmerkung: Dass eine empirischer Herangehensweise allein die Gesamtheit des Phänomens aber auch nicht erreichen kann, dies spricht Craik nicht
an. Letztlich haben wir es hier mit einem methodischen Deadlock zu tun: Introspektion benötigt zusätzlich empirische Methoden, empirische Methoden benötigen zusätzlich sehr dringend Introspektion. Dieses methodische Problem ist bis heute nicht befriedigend gelöst.] Im Blog gab es dazu zumindest einige Versuche.

Die gezielte Nachfrage danach, wie man welche der introspektiv und im Verhalten zugänglichen Eigenschaften des Menschen mittels neuronaler Mechanismen modellieren könnte, wurde hier im Blog noch nicht diskutiert. Es gibt dazu einige Skript aus Vorlesungen, die aber bislang keinen Eingang in den Blog gefunden haben [Anmerkung: Dazu findet sich mehr in dem korrespondierenden Blog uffmm.org.4].  Die Frage
ist aber tatsächlich philosophisch relevant. Die Frage wurde vom Autor cagent bislang deswegen in diesem Blog kaum diskutiert, weil er der Frage nachging, ob und wieweit man neuronale Netze durch andere mathematisch äquivalente Mechanismen ersetzen kann um dann die Fragen nach der Substitution dann mit diesen anderen Strukturen zu untersuchen. In den letzten Jahren sind neuronale Netze so populär geworden, dass sich kaum jemand noch dafür interessiert, ob und welche alternativen Formalismen es auch tun würden und möglicherweise einfacher. Grundsätzlich ist seit langem bekannt, dass neuronalen Netze nicht mehr können als im Konzept der Turingmaschine definiert ist. Man muss also aus theoretischen Gründen keine Neuronalen Netze benutzen, wenn
sie denn nicht speziell besondere Vorteile bieten.

Die Lektüre von Craik hat allerdings dazu ermutigt, die Idee der parallelen Analyse von Verhalten, Introspektiv zugänglichem Bewusstseinsraum, sowie Physiologie des Gehirns im Körper weiter Raum zu geben, immer natürlich auch mit Blick auf evolutionäre Entwicklungen unter Einschluss der Kultur. Ferner sollte dabei die parallele Entwicklung intelligenter Maschinen mit reflektiert werden, sehr wohl in Bezugssetzung zu den biologischen Systemen.

 

Vor lauter Faszination durch die moderne Technik geht vielfach unter, dass die Naturwissenschaften in den letzten 10 Jahren ungeheuerlich interessante Aspekte des biologischen Lebens (und der umgebenden Welt) zutage gefördert haben, die das Bild vom Menschen im Universum eigentlich radikal verändern könnten. Obwohl die Roboter und die KI-Programme vergleichsweise simple Strukturen darstellen, die jeder intelligente Schüler verstehen könnte, wenn man es ihm denn erzählen würde, stoßen wir im biologischen Leben auf immer unfassbare Komplexitäten und Verschiebungen von Perspektiven, die eigentlich alle Aufmerksamkeit erfordern würden.

QUELLEN
[Cra43] Kenneth Craik. The Nature of Explanation. Cambridge University Press, Cambridge (UK), 1 edition, 1943.

 KONTEXTE

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

ENTSCHEIDEN IN EINER MULTIKAUSALEN WELT? MEMO ZUR PHILOSOPHIEWERKSTATT VOM Sonntag, 10.Mai 2015 IN DER DENKBAR (Frankfurt)

Begriffsnetzwerk von der Philosophiewerkstatt am 10.Mai 2015

Begriffsnetzwerk von der Philosophiewerkstatt am 10.Mai 2015

Generelles Anliegen der Philosophiewerkstatt ist es, ein philosophisches Gespräch zu ermöglichen, in dem die Fragen der TeilnehmerInnen versuchsweise zu Begriffsnetzen verknüpft werden, die in Beziehung gesetzt werden zum allgemeinen Denkraum der Philosophie, der Wissenschaften, der Kunst und Religion. Im Hintergrund stehen die Reflexionen aus dem Blog cognitiveagent.org, das Ringen um das neue Menschen- und Weltbild.

Aus der letzten Philosophiewerkstatt vom 12.April 2015 resultierte das – nicht ganz schar formulierte – Thema: Kann sich ein einzelner innerhalb einer multikausalen Welt überhaupt noch sinnvoll entscheiden? Kann man überhaupt noch eine Wirkung erzielen? Ist nicht irgendwie alles egal?

1. Trotz strahlendem Sommerwetter fand sich wieder ein bunter Kreis interessierter und engagierter Gesprächsteilnehmer, um sich in der DENKBAR Frankfurt zum Thema auszutauschen. Wie beim jedem Treffen bisher gab es auch dieses Mal neben schon bekannten Teilnehmern wieder auch neue Teilnehmer, die das Gespräch bereicherten.

2. Wie die Gedankenskizze des Gesprächs andeutet, förderte das gemeinsame Gespräch eine Fülle interessanter Aspekte zutage, die auf vielfältige Weise miteinander verknüpft sind. Auch wenn jeder Punkt für sich ein eigenes Thema abgeben könnte, so zeigt gerade der Überblick über und die Vernetzung von den Begriffen etwas von unserer Entscheidungswirklichkeit auf, die im Alltag oft im Dunkeln verbleibt.

INDIVIDUUM – KONTEXT

3. Das Gespräch fokussierte zunächst eher auf den individuellen Träger von Entscheidungen und lies die diverse Einflüsse des Kontextes eher am Rande.

4. Am Entscheidungsprozess traten verschieden ‚Phasen‘ hervor: (i) irgendein ein Anlass. Warum man sich überhaupt mit etwas beschäftigt. Warum öffnet man sich überhaupt für ein Thema? Wendet man sich einem Thema zu, dann gibt es in der Regel mindestens eine Alternative, was man tun könnte. Dies hängt sowohl von den konkreten Umständen wie auch von der verfügbaren Erfahrung und dem verfügbaren Wissen ab. Nach welchen Kriterien/ Präferenzen/ Werten entscheidet man dann, welche der vielen Möglichkeiten man wählen soll? Ist die Entscheidung ‚frei‘ oder durch irgendwelche Faktoren ‚vorbestimmt‘? Gibt es explizite Wissensanteile, aufgrund deren man meint, ‚rational‘ zu handeln, oder ist es eine ‚Bauchentscheidung‘? Wieweit spielen ’nicht-bewusste‘ Anteile mit hinein? Insofern nicht-bewusste Anteile von sich aus nicht bewusst sind, können wir selbst dies gar nicht wissen. Wir bräuchten zusätzliche Hilfen, um dies möglicherweise sichtbar zu machen. Schließlich wurde bemerkt, dass selbst dann, wenn wir sogar zu einer Entscheidung gekommen sind, was wir tun sollten, es sein kann, dass wir die Ausführung lassen. Wir tun dann doch nichts. Sollten wir etwas tun, dann würde unser Tun ‚eine Wirkung‘ entfalten.

ARCHITEKTUR DES INDIVIDUUMS

5. Alle diese Entscheidungsprozesse verlaufen in einer Person; im anderen, in mir. Wir wissen, dass jeder Mensch eine komplexe Architektur besitzt, sehr viele unterschiedliche Komponenten besitzt, die in Wechselwirkung stehen. Folgende drei Bereich wurden genannt, ohne Anspruch auf Vollständigkeit: (i) der Körper selbst, die Physis, das Physiologische. Das Gehirn ist eines der vielen komplexen Organe im Bereich der Physis. Das Physische kann altern, kann zwischen Menschen Varianzen aufweisen. Resultiert aus einem individuellen Wachstumsprozess (Ontogenese), und im Rahmen einer Population resultiert der Bauplan eines individuellen Körpers aus einem evolutionären Prozess (Phylogenese). Sowohl in der Phylogenese wie in der Ontogenese können sich Strukturen umweltabhängig, verhaltensabhängig und rein zufällig verändern. Weiter gibt es (ii) den Komplex, der grob mit Emotionen, Gefühle umschrieben wurde. Es sind Körper- und Gemütszustände, die auf das Bewerten der Wahrnehmung und das Entscheiden Einfluss ausüben können (und es in der Regel immer tun). Schließlich (iii) gibt es den Komplex Wissen/ Erfahrung, der Menschen in die Lage versetzt, die Wahrnehmung der Welt zu strukturieren, Beziehungen zu erkennen, Beziehungen herzustellen, komplexe Muster aufzubauen, usw. Ohne Wissen ist ein Überschreiten des Augenblicks nicht möglich.

WISSEN

6. Aufgrund der zentralen Rolle des Wissens ist es dann sicher nicht verwunderlich, dass es zum Wissen verschiedene weitere Überlegungen gab.

7. Neben der Betonung der zentralen Rolle von Wissen wurde mehrfach auf potentielle Grenzen und Schwachstellen hingewiesen: (i) gemessen an dem objektiv verfügbare Wissen erscheint unser individuelles Wissen sehr partiell, sehr begrenzt zu sein. Es ist zudem (ii) veränderlich durch ‚Vergessen‘ und ‚Neues‘. Auch stellte sich die Frage (iii) nach der Qualität: wie sicher ist unser Wissen? Wie ‚wahr-falsch‘? Woher können wir wissen, ob das, was wir ‚für wahr halten‘, an was wir ‚glauben‘, tatsächlich so ist? Dies führte (iv) zu einer Diskussion des Verhältnisses zwischen ‚wissenschaftlichem‘ Wissen und ‚Alltags-‚ bzw. ‚Bauchwissen‘. Anwesende Ärzte betonten, dass sie als Arzt natürlich nicht einfach nach ‚Bauchwissen‘ vorgehen könnten, sondern nach explizit verfügbarem wissenschaftlichen Wissen. Im Gespräch deutete sich dann an, dass natürlich auch dann, wenn jemand bewusst nach explizit vorhandenem Wissen vorgehen will, er unweigerlich an die ‚Ränder seines individuellen‘ Wissens stoßen wird und dass er dann gar keine andere Wahl hat, als nach zusätzlichen (welche!?) Kriterien zu handeln oder – was vielen nicht bewusst ist – sie ‚verdrängen‘ die reale Grenze ihres Wissens, indem sie mögliche Fragen und Alternativen ‚wegrationalisieren‘ (das ‚ist nicht ernst‘ zu nehmen, das ist ‚unwichtig‘, das ‚machen wir hier nicht so‘, usw.). Ferner wurde (v) der Status des ‚wissenschaftlichen‘ Wissens selbst kurz diskutiert. Zunächst einmal beruht die Stärke des wissenschaftlichen Wissens auf einer Beschränkung: man beschäftigt sich nur mit solchen Phänomenen, die man ‚messen‘ kann (in der Regel ausschließlich intersubjektive Phänomene, nicht rein subjektive). Damit werden die Phänomene zu ‚Fakten‘, zu ‚Daten‘. Ferner formuliert man mögliche Zusammenhänge zwischen den Fakten in expliziten Annahmen, die formal gefasst in einem expliziten Modell repräsentiert werden können. Alle diese Modelle sind letztlich ‚Annahmen‘, ‚Hypothesen‘, ‚Vermutungen‘, deren Gültigkeit von der Reproduzierbarkeit der Messungen abhängig ist. Die Geschichte der Wissenschaft zeigt überdeutlich, dass diese Modelle beständig kritisiert, widerlegt und verbessert wurden. Wissenschaftliches Wissen ist insofern letztlich eine Methode, wie man der realen Welt (Natur) schrittweise immer mehr Zusammenhänge entlockt. Die ‚Sicherheit‘ dieses Wissens ist ‚relativ‘ zu den möglichen Messungen und Modellen. Ihre Verstehbarkeit hängt zudem ab von den benutzten Sprachen (Fachsprachen, Mathematische Sprachen) und deren Interpretierbarkeit. Die moderne Wissenschaftstheorie konnte zeigen, dass letztlich auch empirische Theorien trotz aller Rückbindung auf das Experiment ein Bedeutungsproblem haben, das sich mit der Fortentwicklung der Wissenschaften eher verschärft als vereinfacht. Im Gespräch klang zumindest kurz an (vi), dass jedes explizites Wissen (auch das wissenschaftliche), letztlich eingebunden bleibt in das Gesamt eines Individuums. Im Individuum ist jedes Wissen partiell und muss vom Individuum im Gesamtkontext von Wissen, Nichtwissen, Emotionen, körperlicher Existenz, Interaktion mit der Umwelt integriert werden. Menschen, die ihr Wissen wie ein Schild vor sich hertragen, um damit alles andere abzuwehren, zu nivellieren, leben möglicherweise in einer subjektiven Täuschungsblase, in der Rationalität mutiert zu Irrationalität.

UND DEN KONTEXT GIBT ES DOCH

8. Schließlich gewann der Kontext des Individuums doch noch mehr an Gewicht.

9. Schon am Beispiel des wissenschaftlichen Wissens wurde klar, dass Wissenschaft ja keine individuelle Veranstaltung ist, sondern ein überindividuelles Geschehen, an dem potentiell alle Menschen beteiligt sind.

10. Dies gilt auch für die schier unendlich erscheinende Menge des externen Wissens in Publikationen, Bibliotheken, Datenbanken, Internetservern, die heute produziert, angehäuft wird und in großen Teilen abrufbar ist. Dazu die verschiedenen Medien (Presse, Radio, Fernsehen, Musikindustrie,….), deren Aktivitäten um unsere Wahrnehmung konkurrieren und deren Inhalt, wenn wir es denn zulassen, in uns eindringen. Die Gesamtheit dieser externen Informationen kann uns beeinflussen wie auch ein einzelner dazu beitragen kann, diese Informationen zu verändern.

11. Es kam auch zur Sprache, dass natürlich auch die unterschiedliche Lebensstile und Kulturen spezifisch auf einzelne (Kinder, Jugendliche, Erwachsene…) einwirken bis dahin, dass sie deutliche Spuren sogar im Gehirn (und in den Genen!) hinterlassen, was sich dann auch im Verhalten manifestiert.

12. Besonders hervorgehoben wurden ferner die politischen Prozesse und Teil des Wirtschaftssystems. Die Meinung war stark vertreten, dass wir auch in den Demokratien eine ‚Abkopplung‘ der politischen Prozesse von der wählenden Bevölkerung feststellen können. Der intensive und gesetzmäßig unkontrollierte Lobbyismus im Bereich deutscher Parteien scheint ein Ausmaß erreicht zu haben, das eine ernste Gefahr für die Demokratie sein kann. Die Vertretung partikulärer Interessen (genannt wurde beispielhaft die Pharmaindustrie, aber auch Finanzindustrie und weitere), die gegenläufig zum Allgemeinwohl sind, wurde – anhand von Beispielen – als übermächtiges Wirkprinzip der aktuellen Politik unterstellt. Sofern dies tatsächlich zutrifft, ist damit natürlich die sowieso schon sehr beschränkte Einflussmöglichkeit des Wählers weitgehend annulliert. Die zu beobachtende sich verstärkende Wahlmüdigkeit des Wählers wird damit nur weiter verstärkt. Das Drama ist, dass diejenigen, die das Wählervertrauen durch ihr Verhalten kontinuierlich zerstören, nämlich die gewählten Volksvertreter, den Eindruck erwecken, dass sie selbst alles verhindern, damit der extreme Lobbyismus durch Transparenz und wirksamen Sanktionen zumindest ein wenig eingedämmt wird.

ABSCHLUSS

13. In der abschließenden Reflexion bildete sich die Meinung, dass die Punkte (i) Präferenzen/ Werte/ Kriterien einerseits und (ii) Beeinflussbarkeit politischer Prozesse andererseits in der nächsten (und letzten Sitzung vor der Sommerpause) etwas näher reflektiert werden sollten. Reinhard Graeff erklärte sich bereit, für die nächste Sitzung am So 14.Juni einen Einstieg vorzubereiten und das genaue Thema zu formulieren.

AUSBLICK

14. Am So 14.Juni 2015 16:00 findet nicht nur die letzte Sitzung der Philosophiewerkstatt vor der Sommerpause statt, sondern es soll im Anschluss auch (ca. ab 19:00h) bei Essen und Trinken ein wenig darüber nachgedacht werden, wie man in die nächste Runde (ab November 2015) einsteigen möchte. Soll es überhaupt weitergehen? Wenn ja, was ändern? Usw.

Einen Überblick über alle Beiträge zur Philosophiewerkstatt nach Themen findet sich HIER

DIE NEUROWISSENSCHAFTEN – EIN PHILOSOPHISCHES SCHWARZES LOCH? – Zu einem Artikel von W.Singer in der FAZ vom 17.September 2014

(Letzte Änderungen am Text: 21.Sept.2014, 22:06h)

Sound einer Galaxie oder doch eher von Neuronen oder von Galaxien eingefangen in den Vibrationen der Neuronen?

BEGRIFF (PHILOSOPHISCHES) SCHWARZES LOCH

1. Ein Schwarzes Loch (oder auch Black hole) ist in der Astrophysik – leicht vereinfachend – ein Raum-Zeit-Gebiet, das im Kern eine Massekonzentration besitzt, die so groß ist, dass in einem bestimmten Umfeld alle Materie (einschließlich der Lichtquanten) so stark angezogen wird, dass jenseits dieses Umfeldes (jenseits des ‚Ereignishorizontes‘) nichts mehr nach außen dringt (außer der sogenannten Hawking-Strahlung (benannt nach dem Physiker Stephen Hawking)). Im Prinzip kann ein schwarzes Loch immer weiter wachsen. Ab einer bestimmten Größe entstehen im Umfeld des Ereignishorizontes allerdings ‚Sperreffekte‘, die den Zufluss von Materie erschweren und über die Hawking-Strahlung verlieren schwarze Löcher kontinuierlich Energie.

2. Der Begriff ‚philosophisches‘ schwarzes Loch wird in diesem Beitrag benutzt als eine Metapher, um eine Denkweise zu charakterisieren, die die Vielfalt der Phänomene durch Beschränkung auf ein einziges Prinzip so stark nivelliert, dass von der Vielfalt anschließend nur noch bestimmte Fragmente übrig bleiben, die als solche zwar eine gewisse ‚Wahrheit‘ verkörpern, durch den eliminierenden Kontext aber letztlich ihre ursprüngliche Wahrheit verloren haben; vielleicht muss man sogar sagen, sie werden durch den falschen Kontext geradezu ‚falsch‘.

3. Ich stelle hier die frage, ob diese Metapher vom ‚philosophischen schwarzen Loch‘ anwendbar ist auf den Artikel von Wolf Singer in der FAZ vom 17.September 2014 S.N2. Würde meine Hypothese zutreffen, dann wäre dies fast tragisch, da hier eine Sache, die in sich gut und wichtig ist, die Hirnforschung, durch ihre methodische Übergrifflichkeit viele andere Sachen dermaßen entstellt und ihrer ontologischen Besonderheit beraubt, dass damit genau das Großartige, was die Gehirne in diese Welt eingebracht haben, von den Hirnforschern selbst totgemacht, zerstört würden.

4. Dies hier ist meine individuelle Hypothese. Vielleicht würde eine empirische soziologische Untersuchung im Rahmen einer Wissenssoziologie zu noch weitreichenderen kritischen Aussagen zu den Neurowissenschaften kommen. Aber für solche Wissenschaften ist es heute sehr schwer, Forschungsgelder zu bekommen.

DIE ARGUMENTATIONSFIGUR IM TEXT

5. Warum kann ich die Frage stellen, ob die Metapher von einem ‚philosophisch schwarzem Loch‘ auf den Artikel von Wolf Singer zutrifft?

6. In dem zitierten Artikel mit der Überschrift „Erst kommt das Denken, dann die Kunst“ soll es offiziell um das Verhältnis zwischen der Kunst und den Neurowissenschaften gehen; inoffiziell ergreift der Autor aber die Gelegenheit, aus Anlass eines Themas, das außerhalb der Neurowissenschaften liegt, primär die Bedeutung und Leistung der Neurowissenschaften heraus zu stellen; das auslösende Thema, der ‚Aufhänger‘ Kunst, gerät zu einer Art ‚Randnotiz‘: ja, es gibt irgendwo Kunst, ja, sie hat ein paar Eigenschaften, aber letztlich sind alle diese Eigenschaften unwichtig, da es eigentlich nur auf die Leistungen der neuronalen Verbände ankommt, die dem künstlerischen Verhalten letztlich zugrunde liegen. Die Neuronen und deren Verhalten repräsentieren die eigentliche, die wahre Wirklichkeit; sie erzählen uns, worum es geht …

7. Nun ist es ja unbestreitbar, dass die Neurowissenschaften seit ihrem Entstehen – letztlich viele Jahrhunderte; mit der klaren Einsicht in die Isoliertheit des Neurons aber dann erst seit ca. 120 Jahre – atemberaubende neue Einblicke in unser Gehirn und in die Interaktion zwischen dem Gehirn und dem Körper ermöglicht haben. Vielen Phänomenen des beobachtbaren Verhaltens wie auch unserer subjektiven Empfindungen konnten durch die Korrelation mit neuronalen Aktivitäten neue, interessante Aspekte zugeordnet werden, die zu neuen Verstehensmodellen geführt haben.

INPUT-OUTPUT SYSTEME: DIE SUMME IST MEHR ALS IHRE TEILE

8. Bei der Erklärung des Verhaltens eines Input-Output-Systems — was biologische Systeme u.a. sind – sind die Verhältnisse nicht ganz so trivial, wie sie die Erklärungsmuster der Neurowissenschaftler oft nahe legen.

9. Aus der Tatsache, dass ein Input-Output-System aus einer Vielzahl von elementaren Einheiten – im Falle des Gehirns u.a. aus ‚Neuronen‘ – besteht, folgt sehr selten, dass man das beobachtbare (äußere) Verhalten des Systems durch einfachen Rückgriff auf die Eigenschaften seiner Bestandteile ‚erklären‘ kann.

10. Wenn jemand heute — in einem analogen Fall — einen Computer (PC, Smartphone, Auto, Kamera,…) kauft, um damit einen Text zu schreiben oder Musik zu hören oder ein Computerspiel zu spielen oder … dann interessiert sich normalerweise niemand für die elektronischen Bauteilen in diesen Geräten (würden die meisten auch nicht verstehen), sondern nur um die ‚Funktionen‘, die das Gerät ihm zur Verfügung stellt.

11. Jener, der an der Funktion ‚Text Schreiben‘ interessiert ist, interessiert sich nicht unbedingt auch für die Funktion ‚Fotos machen‘, oder nicht für die spannenden Abenteuer eines Computerspiels, usw.

EINE ABBILDUNGSVORSCHRIFT IST MEHR ALS IHRE ‚TEILE‘

12. Alle diese verschiedenen ‚Funktionen‘ die heute ein Computer ausführen kann, sind zwar – in der Tat – alle durch die gleichen elektronischen Bauteile ermöglicht worden, wie man — im Falle der Computer — aber weiß, ist es nicht möglich, aus der Gegebenheit der elektronischen Bauteile als solcher auch nur eine einzige dieser vielen möglichen Milliarden von Funktionen ‚abzuleiten‘!

13. Zwar kann man rein theoretisch aus der Beschaffenheit dieser Bauteile ableiten (und damit voraussagen), welche Arten von Funktionen generell mit diesen Bauteilen ausführbar wären, aber man könnte niemals zwingend – also niemals mit Notwendigkeit – sagen, auf diesem Computer muss genau diese ‚Funktion f‘ ausgeführt werden.

14. Der tiefere – wenngleich sehr einfache – Grund für diesen Sachverhalt liegt darin, dass das beobachtbare Verhalten eines Computers – verstanden als eine Funktion f – eine Folge von Zustandsänderungen zusammenfasst, die unterschiedlichen ‚Input I‘ in das System (Eingaben durch den Benutzer, Messwerte, …) unter Berücksichtigung aktuell verfügbarer ‚interner Zustände IS‘ auf die beobachtbaren ‚Outputs O‘ (Ereignisse auf dem Bildschirm, Töne, Bewegungen eines mechanischen Teils, …) — und möglicherweise auch auf interne Zustände IS — ‚abbildet‘, wie der Mathematiker sagen würde. Eine solche reale Verhaltensfunktion ist damit nichts anderes als eine Folge von Paaren der Art …, ((I,IS),(IS,O)), …, verallgemeinernd geschrieben als eine Abbildungsvorschrift f: I \times IS \longrightarrow IS \times O.

15. Schon an dieser Stelle kann man direkt sehen, dass die Existenz irgendwelcher interner Zustände (z.B. elektronische Bauteile oder – wie im Falle des Gehirns – von Neuronen) in keiner Weise irgendetwas darüber sagen kann, wie die übergreifende Verhaltensfunktion f aussehen wird. Die Verhaltensfunktion f wird zwar nur unter Voraussetzung der internen Zustände stattfinden können, die internen Zustände (elektronische Bauteile, Neuronen, …) erlauben aber keinerlei Schlüsse auf die übergreifenden Funktion f, die damit tatsächlich zur Ausführung kommt.

16. Jeder kennt die Formulierung ‚Die Summe ist mehr als ihre Teile‘ oder der etwas neuere Begriff der ‚Emergenz‘, d.h. des Auftretens von Eigenschaften P eines Systems (z.B. Wasser), die unter bestimmten Bedingungen (Kälte, Hitze, …) mit einem Mal ‚beobachtbar‘ werden (‚zu Eis gefrieren‘, ’sich in Dampf transformieren‘, …). Die einzelnen Bestandteile als solche ‚für sich‘ können die Eigenschaft P nicht haben; wenn aber viele solche einzelnen Elemente (z.B. Moleküle) ‚zusammen‘ in einem Raum-Zeitgebiet vorkommen, dann kann eine – die einzelnen Elemente ‚übersteigende‘ (‚emergierende‘) — Eigenschaft P sichtbar werden, die wie aus dem ‚Nichts‘ entsteht.

17. Eine seit den Anfängen der Physik beliebte Strategie, die ‚emergenten‘ Eigenschaften zusammengesetzter Systeme durch ‚Rückführung auf die zugrunde liegenden Elemente‘ zu ‚erklären‘ (bekannt unter dem Namen ‚Reduktionismus‘) ist bis heute virulent, und findet sich z.B. ungebrochen im Text von Wolf Singer wieder. Was immer wir an Verhaltensweisen bei einem Menschen beobachten können – er hat sich einige ausgewählt, die einige als ‚künstlerisch‘, als ‚Malerei‘ bezeichnen –, das Verhalten in seiner speziellen Funktionalität wird auf das Verhalten zugrunde liegender Elemente (Neuronen) zurückgeführt und soll damit ‚erklärt‘ sein.

METHODISCHE GRENZEN DER NEUROWISSENSCHAFTEN

18. Abgesehen mal davon, dass die Neurowissenschaften auch heute – was Singer sogar an einzelnen Stellen einräumt – in der Regel noch nicht über wirklich harte Erklärungsansätze verfügen (bedingt durch die Komplexität des Gehirns und Messproblemen), werden die Neurowissenschaften als solche – sofern sie ihren eigenen Methoden treu bleiben – grundsätzlich niemals und zu keinem Zeitpunkt auch nur einzige der beobachtbaren Funktionen im echten Sinne ‚erklären‘ können.

19. Wenn Neurowissenschaftler sich zu Verhaltenserklärungen hinreißen lassen, dann überschreiten Sie in diesem Moment die methodischen Grenzen, die den Neurowissenschaften grundsätzlich gesetzt sind. Erklärung von ‚Verhalten‘ geht prinzipiell über die Beschreibung von Neuronen, Neuronenverbänden, und dem Verhalten von Neuronen hinaus, da es sich um prinzipiell verschiedene Datenarten handelt. Verhalten ist die Domäne der (biologischen) Ethologie oder der modernen experimentellen verhaltensbasierten Psychologie. Diese beiden Disziplinen wissen (als Verhaltenswissenschaften) nichts von Körperzuständen und Neuronen. Begibt ein Neurowissenschaftler sich in das Gebiet des Verhaltens, dann begeht er eine methodische Grenzüberschreitung. Wenn er Verhalten beschreibe will, dann muss er seine Neuronen grundsätzlich und vollständig vergessen! Hält man sich nicht an diese methodischen Grenzziehungen, dann resultiert ein methodisches Chaos, das man leider in ganz vielen neurowissenschaftlichen Publikationen — bis hin zu den High-End Journalen — beobachten kann.

20. Natürlich kann man sich eine methodisch kontrollierte ‚Kooperation‘ zwischen ‚Neurowissenschaften‘ und ‚Psychologie‘ vorstellen – dafür gibt es auch schon lange den Namen ‚Neuropsychologie‘ –, aber eine solche Kooperation stellt sehr hohe methodische und theoretische Anforderungen. Es ist nicht zu sehen, dass sich die Mehrheit der Neurowissenschaftlern dieses Problems bewusst ist. Es gibt offizielle Lehrbücher mit dem Titel ‚Neuropsychologie‘ die in keiner Weise den wissenschaftstheoretischen Ansprüchen genügen, die man hier stellen muss.

21. Im Falle des Artikels von Wolf Singer meine ich sowohl die Erklärungsstrategie des ‚Reduktionismus‘ wie auch eine Grenzüberschreitung von der Neurowissenschaft zu den Verhaltenswissenschaften feststellen zu müssen.

KEIN BEZUG ZUR WISSENSCHAFTSTHEORIE

22. Das Grundproblem, wie man das beobachtbare Verhalten f eines biologischen Input-Output-Systems ‚erklärt‘, ist eine Fragestellung aus dem Bereich der ‚Meta-Wissenschaft‘ genannt ‚Wissenschaftstheorie‘, die letztlich zur ‚Philosophie‘ gehört, der allgemeinen Reflexion ‚über‘ die Dinge, nicht methodisch eingegrenzt auf eine bestimmte wissenschaftliche Fachdisziplin.

23. Insofern berührt der Text von Wolf Singer Aspekte und Fragestellungen, die über die Neurowissenschaften deutlich hinausgehen. Singer lässt aber nirgends in seinem Text erkennen, dass er sich dieser Sachlage bewusst ist. Er spricht über das Gehirn wie ein Techniker über seinen Schaltplan, aus dem er abliest, dass der Motor in Halle 3 nicht läuft, weil eine bestimmte Leitung mit einer bestimmten Bauteilgruppe nicht funktioniert.

24. Mit einem solchen platten ‚Erklärungsansatz‘ wird aber genau die Besonderheit des Phänomens schlicht und einfach verdeckt, zugedeckt, unsichtbar gemacht. Das verstehe ich unter einem ‚philosophisch-schwarzen Loch‘

DIE RÜCKKEHR DES GEISTES?

25. Ist schon die mangelnde Selbstreflexion der Neurowissenschaften traurig genug, so gerät diese zu einer gewissen Tragik, da sie – aufgrund ihrer aktuell starken gesellschaftlichen Akzeptanz – alternative Reflektionsansätze auf die Vielfalt der Phänomene zu übertönen droht und damit die Wahrnehmung von genau dem ‚Wunder des Geistes‘, das durch die Evolution der Körper mit Gehirnen möglich wurde, im Ansatz zerstören. Kann man das ‚Allmachtsgebaren‘ der Neurowissenschaften noch als ‚typisch menschlich‘ abtun, greifen die kognitiven Wirkungen des begrifflichen Allmachtgehabes die ontologische Brisanz der durch die Gehirne möglichen Phänomene in ihrer Substanz an.

26. Erinnern wir uns an die mathematische Formel von zuvor f: I \times IS \longrightarrow IS \times O. Es ist absolut unmöglich, aus der Beschaffenheit der Teile die Gesamtfunktion abzuleiten; insofern repräsentiert eine solche Funktion ein ‚Mehr‘ an Informationen.

REFERENZSYSTEM PHYSIK

27. Die Physik kennt keine Gesetze, die die Entstehung von Etwas aus einem ‚Nichts‘ beschreiben (‚ex nihilo nihil fit‘). Insofern ist eine Theorie wie die ‚BigBang-Theorie‘ das Maximum, was die Physik leisten kann: vorausgesetzt, es gab genügend viel Energie am Beginn des Zeitpfeils, dann kann man den ganzen ‚Rest‘ (nämlich die Entwicklung des bekannten Universums) daraus schrittweise ‚rekonstruieren‘.

28. Will man mehr, dann muss man – hypothetisch – annehmen, dass es ‚außerhalb‘ von unserem bekannten Universum noch viele andere Universen gibt, die alle miteinander auf bestimmte Weise wechselwirken können. In diesem Fall wird das Prinzip ‚ex nihilo nihil fit‘ aber nicht aufgehoben. Die endlichen Raum-Zeitgrenzen werden damit nur ‚beliebig weit‘ (rein gedanklich) ausgedehnt.

29. Bezogen auf das Verhalten konkreter Systeme würde die Physik fordern, dass man ein ‚Mehr an Information‘ erklären muss.

30. Die Physik versagt bislang aber nicht nur bei der Grundsatzfrage, wo denn die ungeheure Menge an Information in Form von Anfangsenergie ‚herkommt‘, sie versagt auch schon bei der – scheinbar – kleineren Frage, wie es zur Ausbildung von biologischen Systemen auf dem Planeten Erde kommen konnte.

31. Damit ist nicht die Detailfrage gemeint, ob bestimmte für das Leben wichtige Moleküle schon ‚fertig‘ aus dem Weltall auf die Erde kamen oder sich – auf bislang noch unklare Weise – auf der Erde ‚gebildet‘ haben, sondern die Grundsatzfrage, wie es möglich war, dass sich überhaupt biologischen Systeme auf dem Planeten Erde bilden und immer weiter ausbreiten konnten (Molekülbildung, chemische Evolution, biologische Evolution).

32. Nach den Gesetzen der Thermodynamik strebt das bekannte Universum zwar langfristig auf einen Ausgleich aller Energieunterschiede, solange aber noch lokale Unterschiede bestehen, solange können sich an den Rändern des Energiegefälles noch Phänomene ausbilden, die die an diesen ‚Rändern‘ verfügbare ‚freie‘ Energie für ‚ihre Zwecke‘ ’nutzen‘. Alle biologische Zellen und Zellverbände, sind solche Strukturen: sie entziehen ihrer Umgebung (freie) Energie und generieren immer komplexere Strukturen, die der Idee des ‚(entropischen) Ausgleichs‘ diametral entgegen wirken. Und die biologischen Strukturen tun dies in einer sowohl individuellen wie auch systemisch-vernetzten Komplexität, die jeden rein auf ‚Zufall‘ basierenden Erklärungsversuch schon im Ansatz (rein mathematisch) ad absurdum führt.

33. Will man an dieser Stelle nicht in pseudo-theologische Ansätze flüchten, die die Erklärungslücken nach eigenen Vorstellungen – beliebig ? — ‚auffüllen‘, dann benötigt man Erklärungshypothesen, die sich mit den Methoden der Wissenschaft(en) vertragen.

VERDECKTE (IMPLIZITE) EIGENSCHAFTEN

34. Wenn wir im großen Stil Phänomene beobachten und messen können, die sich als Funktionen f darstellen lassen, die sich nicht direkt aus den unmittelbaren ‚Teilen‘ des Phänomens herleiten lassen, dann gibt es – neben der notwendigen Klärung der Arbeitsweise unseres Denkens (sehr wohl auch unter Einbeziehung einer evolutionären Erkenntnistheorie) – natürlich die (ganz normale) Arbeitshypothese, dass es in ‚Verbindung‘ mit den beteiligten ‚Elementen E‘ des beobachtbaren Phänomens p nicht nur die ‚direkten Eigenschaften‘ P(E) der beteiligten Elemente gibt, sondern möglicherweise auch weitere (indirekte)Eigenschaften E* (‚hidden properties‘), die direkt nicht beobachtbar sind, sondern nur unter bestimmten Randbedingungen des Zusammenwirkens ’sichtbar‘ werden.

35. Dieser Denkansatz würde dann in die Richtung führen, dass genau jene Eigenschaften, die an komplexen Strukturen ’sichtbar‘ werden, nicht ‚aus dem Nichts‘ entstehen, sondern grundsätzlich in der Struktur der Materie-Energie angelegt sind und sich bei steigendem Komplexitätsgrad in immer komplexeren Formen ‚zeigen‘.

36. Insofern alles, was wir in der Geistes- und Kulturgeschichte über ‚Geist’/ ‚Geistigkeit‘ usw. kennengelernt haben, von genau jenem komplexen Körper mit Gehirn stammt, der sich in der biologischen Evolution schrittweise herausgeschält hat, kann man mit dieser Hypothese dann die Frage aufwerfen, ob das, was die Phänomene des ‚Geistes‘ ausmacht, nicht zurückgeht auf diese indirekten Eigenschaften der Materie-Energie. Falls ja wäre der ‚Geist‘ letztlich eine ‚interne Eigenschaft‘ der Materie-Energie von Anfang an (ein Gedanke, der philosophisch viele Vorläufer hat, wenngleich eingebettet in andere Wortspiele).

37. Für eine empirische Theoriebildung wären solchen Fragen grundsätzlich kein Problem. In jeder anspruchsvollen empirischen Theorie mit mathematischem Modell gibt es genügend viele theoretische Begriffe (auch ‚theoretische Terme‘ genannt), die nicht ‚explizit‘ (‚direkt‘) definiert sind, sondern nur im Kontext vieler anderer Begriffe und Funktionen, die als Gesamtmodell einen Erklärungsanspruch darstellen und als Gesamtmodell ‚wahr‘ oder ‚falsch‘ sind.

[Anmerkung: Die Annahme von ‚verborgenen‘, ‚indirekten‘ Eigenschaften sind in der modernen Physik seit langem üblich. Der berühmte ‚Teilchenzoo‘ der Quantenphysik bietet hier genügend Anschauungsmaterial.]

38. Eine neue empirisch begründete (!) wissenschaftliche universale Theorie des Geistes wäre vor diesem Hintergrund prinzipiell kein Problem. Sie würde aber voraussetzen, dass die einzelnen Disziplinen (wie z.B. die Gehirnforschung) sich ihrer methodischen Grenzen bewusst werden und es zulassen würden, dass andere wissenschaftliche Disziplinen im Bereich komplexer Verhaltensphänomene geeignete theoretische Modelle entwickeln, die sich zwar bedingt mit z.B. der Gehirnwissenschaft für begrenzte Fragestellungen korrelieren lassen, die aber in keinster Weise auf diese begrenzten Fachdisziplinen ‚reduzierbar‘ wären. Andersherum gesprochen: diese komplexen Theorien beschreiben Eigenschaften und Beziehungen ‚oberhalb‘ möglichen vorausgesetzten ‚primitiveren# Elementen, die nur in diesen komplexeren Begriffen ’sichtbar‘ werden und nur hier ihre ‚Bedeutung‘ haben. Eine ‚Reduktion‘ auf die einfacheren Elemente ist nicht nur rein logisch nicht möglich, sondern würde die eigentliche Aussage direkt zerstören.

[Anmerkung: Das Thema mit dem ‚impliziten‘ Geist wurde in diesem Blog schon mehrfach diskutiert; besonders vielleicht in diesem Beitrag.]

DER KUNSTBEGRIFF

39. Im übrigen wäre der Kunstbegriff, den Singer benutzt, kritisch zu hinterfragen. Er selbst stellt gleich zu Beginn einerseits fest, dass es überhaupt keinen Konsens zum Begriff ‚Kunst‘ gibt, andererseits nimmt er Bezug auf bestimmte Tätigkeiten, die er dann als ‚künstlerisch‘ bezeichnet. Was soll man jetzt denken? Warum und wie sollen bestimmte Aktivitäten von Neuronen etwas mit Kunst zu tun haben, wenn nicht klar ist, was genau Kunst ist? Warum schreibt er dann nicht gleich, dass er zum Verhältnis von Gehirn und Kunst nichts sagen kann, weil nicht klar genug ist, was Kunst ist?

Einen Überblick über alle Blogeinträge nach Titeln findet sich HIER.

NACHÜBERLEGUNGEN ZUM VORTRAG „NOTION OF GOD“ von GIUSEPPE TANZELLA-NITTI, Prof. für Dogmatische Theologie der Theologischen Fakultät der Päpstlichen Universität vom Heiligen Kreuz (Rom); Vortrag gehaltem am 17.Aug.2013 an der Universität UNICAMP (Campinas, Brasilien)

Letzte Änderung: Einfügung zweier Musikstücke am 24.August 2013

Als Begleitmusik (Variante 1)

PERSÖNLICHER NACHHALL

1) Die folgenden Überlegungen beabsichtigen nicht, den Vortrag als solchen wieder zu geben (als Hintergrundlektüre für den Vortrag war angegeben worden God, Notion of), sondern Gedanken, die sich für mich aus dem Vortrag ergeben haben, auch in Verbindung mit einem der anschließenden Gesprächskreise (der zum Glück auf Englisch war, da sich mein Portugiesisch bislang nur auf wenige Worte beschränkt).
2) Aufgrund meiner Biographie vermeide ich es eher, mich mit kirchlichen Themen zu beschäftigen, da das offiziell-kirchliche Denken — ich muss es so sagen — in meiner Erfahrung aufklärendes Denken eher verhindert als befördert. Aber da ich nun mal hier war und mein Freund den Vortrag besuchen wollte, bin ich mal mitgegangen.

EINSCHRÄNKUNG AUF GRENZEN DER WISSENSCHAFTEN

3) Eine kleine Überraschung war, dass der Vortrag selbst sich nur auf Aussagen der Wissenschaft beschränkte, und hier besonders auf die großen Diskussionen in der Physik bis ca. Ende des 20.Jahrhunderts. Alle anderen Wissenschaften wie die Geologie und Biologie mit dem evolutionären Veränderungsgeschehen auf der Erde, die Molekularbiologie und Neurowissenschaften mit den neuen Erkenntnissen zu den Grundlagen des Menschseins samt den Auswirkungen auf die moderne Philosophie, dies alles fehlte in dem Vortrag. Erst recht fehlte die Position der Kirche, die Theologie, wie diese sich zu dem Ganzen verhält (die in dem oben genannten Artikel ‚Notion of God‘ sehr wohl vorkommt).

GRENZEN UND IHRE ÜBERWINDUNG

4) Der Vortrag artikulierte im Munde des Vortragenden besonders drei Leitthemen: (i) Die Wissenschaft leistet aus Sicht der Kirche sehr wohl einen Beitrag zur Erkenntnis der Welt, wie sie ist; (ii) aufgrund der verwendeten empirischen Methoden in Kombination mit der Mathematik hat die Wissenschaft aber eingebaute Erkenntnisgrenzen, die verhindern, dass man das ‚große Ganze‘ sehen kann; (iii) die Lücken, die die Wissenschaft lässt, verlangen dennoch nach einer ‚Füllung‘, die mittels philosophischem und theologischen Denken geschlossen werden können.
5) Akzeptiert man die Annahmen, die der Vortragenden in seinem Vortrag stillschweigend macht (Anmerkung: Er hat nirgends seine eigenen Voraussetzungen offengelegt (und dies geschieht auch nicht in dem angegebenen Hintergrundartikel)), dann ist dies ein recht plausibler, schlüssiger Gedankengang.
6) Er brachte dann eine Fülle von Originalzitaten aus Briefen und Büchern berühmter Forscher, die alle mit je eigenen Worten ihre persönliche Position bezüglich der Grenzen der wissenschaftlichen Erkenntnis zum Ausdruck brachten; diese mündeten in den einen Tenor, dass sie ‚hinter allem‘ letztlich eine alles übergreifende Ordnung vermuten oder gar direkt von ‚Gott‘ sprechen. Abgerundet wurde der Zitatenstrauss durch eine Episode während einer wissenschaftlichen Konferenz im Vatikan, bei der Stephen Hawking, bekennender Atheist und aus Sicht der Kirche illegal ein zweites Mal verheiratet eine Begegnung mit Papst Paul II. hatte und der Papst Hawking entgegen Hawkings Erwartungen nicht kritisierte (in der Vergangenheit hatte Hawking von einem Papst sogar eine hohe kirchliche Auszeichnung bekommen, die der Papst (Foto war da) ‚kniend‘ überreicht hatte).

EINE FALSCHE ‚HEILE WELT‘?

7) So nett dies alles klingt, es führt letztlich an der Sache vorbei und gaukelt eine ‚heile Welt‘ vor, die so nicht existiert.

KOMMENTAR: HISTORISCHE EINORDNUNG DER WISSENSCHAFT FRAGWÜRDIG

8) In meinem ersten Kommentar in der Vortragsrunde habe ich versucht deutlich zu machen, dass die Fokussierung auf die ‚Grenzen‘ wissenschaftlichen Erkennens — so lehrreich sie in gewissen Details sind — letztlich aber die Sicht auf den tatsächlichen Gang der historischen Entwicklung verstellt. Das, was aus einer vom Vortragenden bewusst gewählten Sicht als ‚Begrenzung‘ des Wissens durch die moderne Wissenschaften erscheint, erweist sich im realen historischen Kontext als gewaltige Befreiung! Vor dem systematischen Betrieb von empirischer Wissenschaft — wobei man Galileo Galilei (1564– 1642) als einen Bezugspunkt für den historischen Beginn setzen kann (natürlich gab es auch vor Galileo andere, die schon empirische Untersuchungen angestellt haben, die Mathematik zur Beschreibung benutzt haben, aber mit seiner Person, seinen Werken und seinem Schicksal verbindet sich die Geschichte der modernen Wissenschaften in besonderer Weise) — gab es ein Sammelsurium von Wissen, stark dominiert von einem philosophischen Denken, das trotz der Klarheit eines Aristoteles (384-322BC) stark in den Fallstricken der natürlichen Denkens verhaftet war und mittels einer sogenannten Meta-Physik alle die Fragen löste, die das übrige Wissen zu dieser Zeit noch nicht lösen konnte. Dies vermittelte zwar den Eindruck von ‚Klarheit‘ und ‚Sicherheit‘, da man ja alles meinte ‚erklären‘ zu können. Der große Nachteil dieses Wissens war, dass es nicht ‚falsch‘ werden konnte. Unter der Flagge der Meta-Physik konnten also auch größte Unsinnigkeit geäußert werden und man konnte sie nicht widerlegen. So schlimm dies in sich schon ist, so schlimm wird dies dann, wenn eine politische oder kirchliche Macht (oder beide zusammen, was geschehen ist), ihre eigenen Wahrheits- und Machtansprüche mit solch einer Denkform, die nicht falsch werden kann, verknüpft. Eine kirchliche Macht formal verknüpft mit einem ‚abgeleiteten‘ Aristoteles konnte jedes ’neue‘ und ‚andersartige‘ Denken im Ansatz unterbinden. Vor diesem Hintergrund war das Aufkommen der empirischen Wissenschaften eine wirkliche Befreiung, eine Revolution und das harte unerbittliche Vorgehen der Kirche gegen die ersten Wissenschaftler (bis hin zum Tod auf dem Scheiterhaufen) belegt, dass die Inhaber der Macht sehr wohl gespürt haben, dass ein empirisch wissenschaftliches Denken trotz seiner eingebauten Grenzen mächtig genug ist, die metaphysischen Kartengebäude der Vergangenheit zum Einsturz zu bringen. Und die weitere Entwicklung zeigt überdeutlich, dass es genau dieses empirische-wissenschaftliche Denken war, das im Laufe der letzten 400 Jahre schrittweise immer mehr unser gesamtes Denken über das Universum, die Erde, das Leben und den Menschen ‚umgegraben‘ hat; wir haben atemberaubende Einblicke erlangt in ein universelles Geschehen und in einen Mikrokosmos, der alles übersteigt, was frühere Zeiten nicht einmal ahnen konnten. Wenn ein Aristoteles heute leben könnte, er wäre sicher besinnungslos vor Glück angesichts all dieser aufregenden Erkenntnisse (und natürlich würde er seine Meta-Physik komplett neu schreiben; er würde es sicher tun, nicht so die vielen philologischen Philosophen, die immer nur neue Ausgaben editieren (so wertvoll dies für sich auch sein mag)).
9) Von all dem hat der Vortragende nichts gesagt! Er hat es tunlichst vermieden, hätte er doch unweigerlich die hochproblematische Rolle der realen Kirche in diesem historischen Prozess zur Sprache bringen müssen, noch mehr, er hätte sich unangenehmen Fragen danach stellen müssen, wie es denn die Kirche heute mit der wissenschaftlichen Erkenntnis hält. Dies war mein zweiter Punkt, den ich im Plenum angemerkt habe.

KOMMENTAR: AUSLASSUNG DER NEUEREN WISSENSCHAFTSENTWICKLUNG; SCHWEIGEN ÜBER WISSENSCHAFTLICHE ERKENNTNISSE IN ANWENDUNG AUF DIE BIBEL

10) In dem zitierten Dokument God, Notion of) werden einige kirchliche Dokumente aufgelistet, die auf die eine oder andere Weise — zumindest in Worten — eine grundlegende Wertschätzung von allgemeinen wissenschaftlichen und philosophischen Erkenntnissen zum Ausdruck bringen. Allerdings, wie oben schon angemerkt, werden viele neue wissenschaftliche Disziplinen, speziell jene im Umfeld der chemisch-biologischen Evolution, Neurowissenschaften, künstliche Intelligenzforschung, ausgeklammert. Und — dies fällt vielen Nicht-Theologen vermutlich gar nicht auf — die Anwendung wissenschaftlicher Methoden auf die sogenannten ‚Offenbarungsschriften‘ des alten und Neuen Testaments (kurz ‚Bibel‘ von Griechisch ‚biblos‘ = Buch) und die theologische Lehre insgesamt wird nahezu vollständig ausgeblendet. In allen offiziellen kirchlichen Texten spielen die gut 100 Jahre andauernden wissenschaftlichen Untersuchungen zur Überlieferungsgeschichte der biblischen Dokumente, ihre historischen Kontexte, ihre literarische Formen, ihre redaktionellen Be- und Überarbeitungen, ihre Übernahme vorgegebener Themen aus dem Umfeld, usw. keine ernsthafte Rolle (Anmerkung: Diese Feststellung bezieht sich wohlgemerkt auf die offiziellen kirchlichen Verlautbarungen. In den meisten theologischen Hochschulen — zumindest im deutschsprachigen Bereich –werden diese Methoden im Rahmen der Wissenschaften von der Bibel (Exegese) sehr wohl gelehrt und angewendet, allerdings, wie man sieht, im offiziell kirchlichen Denken ohne Konsequenzen). Das gleiche zieht sich fort in den theologischen Disziplinen, die zum dogmatischen Denken gehören. Hier wird Wissenschaft und moderne Philosophie — wenn überhaupt — nur sehr selektiv einbezogen. Diese gelebten Realitäten einer Kirche sprechen eine andere Sprache als die schönen Worte der offiziell kirchlichen Verlautbarungen. Würde man die hier in den letzten 100 Jahren gewonnenen Erkenntnisse ernst nehmen, dazu die übrigen neuen wissenschaftlichen Erkenntnisse, dann würde man viele gewohnte kirchliche Positionen ziemlich sicher korrigieren müssen. Während die einen dies als ‚Verlust‘ empfinden mögen, als ‚Bedrohung‘, werden andere daran einen möglichen Weg sehen, die ursprüngliche Sprengkraft eines christlichen Glaubens auch unter veränderten Erkenntnisbedingungen wieder besser denken und dann vielleicht auch besser leben zu können. Auf diesen ganzen Komplex von Wissenschaftsverachtung durch die reale Kirche heute ist der Vortragende mit keinem Wort eingegangen (in dem von ihm angegebenen Text lässt der abschließende Abschnitt über die Sicht der Theologie den Eindruck entstehen, als ob er selbst als Autor diese 100 Jahre umfangreichster wissenschaftlicher Arbeiten zur Bibel auch völlig ausklammert und stattdessen nur klassische metaphysische Muster wiederholt, deren Gültigkeit heute mehr als fragwürdig ist).

KOMMENTAR: SCHLIESSEN DER LÜCKEN MIT UNGEEIGNETEN MITTELN

11) Damit kommen wir zum dritten Themenkreis, dem Schließen der ‚Lücken‘, die das wissenschaftliche Denken angeblich lässt. Nu muss man an dieser Stelle selbstkritisch einräumen, dass die vielen empirisch-wissenschaftlichen Disziplinen bis heute keinen einheitlichen, überall anerkannten ‚meta-wissenchaftlichen‘ Überbau in Form einer allgemein verbreiteten ‚Wissenschaftstheorie‘ oder ‚Philosophy of Science‘ haben; sofern es solche Professuren gibt, sind diese oft vereinzelt, isoliert, eher der Philosophie zugeschlagen und abgetrennt von den Wissenschaften, die dieses Denken eigentlich brauchen. Die ohne Zweifel in jedes wissenschaftliche Erkennen einfließenden philosophischen Anteile sind oft wenig thematisiert oder gar nicht thematisiert. Andererseits ist es aber so, dass de reale Gang der empirischen Wissenschaften beständig begleitet war von allerlei methodologischen Diskussionen. Die große Mannigfaltigkeit der Disziplinen und der hohe Veränderungsgrad machen es allerdings schwierig, hier mit einer Reflexion Schritt zu halten (zumal diese von den Universitäten zum Leidwesen der Wissenschaften kaum honoriert oder unterstützt wird). Aus dieser, sich aus der Sache heraus ergebenden, Schwierigkeit dann abzuleiten, dass es so etwas wie eine Philosophie der realen Wissenschaften nicht geben kann und dass man stattdessen doch lieber Vorlieb nimmt mit den ‚Philosophen der Vergangenheit‘ (die können sich ja nicht mehr wehren), ist verständlich, wenngleich für den Wissenschaftsbetrieb unglücklich. Statt die Kluft zwischen ‚Denken in der Vergangenheit und Denken heute‘ zu schließen, wird diese Kluft dann eher zementiert. Aus dieser unbefriedigenden Situation heraus entstehen dann solche Lösungsvorschläge, die ‚Erkenntnislücken‘ der heutigen Wissenschaften mit den Konzepten der alten klassischen Metaphysik zu ‚überbrücken‘ (zu ‚transzendieren‘), da man ja letztlich (so die stillschweigende Annahme) aus dem vorausgesetzten allgemeinen ‚Logos‘ (ein Begriff aus der griechischen Philosophie, zusätzlich aufgeladen durch die biblischen Schriften, u.a. vom Johannesevangelium her, das im griechischen Text auch vom ‚logos‘ spricht) existentiell und logisch meint allgemeine Zusammenhänge herleiten zu können, um die Erkenntnislücken empirischer Wissenschaften zu schließen.
12) Wie gesagt, die empirischen Wissenschaften bieten leider kein ideales Bild, aber die Einbeziehung von klassischen philosophischen Positionen ohne weitere Begründung ist nicht sehr rational. Da werden mindestens 400 Jahre kritische methodische Reflexionen komplett unterschlagen. Hier nur ein paar Anmerkungen (eine korrekte Darstellung könnte ganze Bücher füllen):

EINWÄNDE GEGEN NAIVE INANSPRUCHNAHME VON ‚LOGOS‘ UND METAPHYSIK
– ERKENNTNISTHEORIE

13) (i) ein Einspruch kommt von der modernen Erkenntnistheorie (etwa ab Descartes, über Hume, Kant, Locke und vielen anderen bis hin zur evolutionären Erkenntnistheorie). Hier hat man erkannt, dass unsere subjektive Erlebnis- und Denkwelt ganz konkrete Voraussetzungen hat, die in der Struktur und der Funktion des Gehirns begründet sind, das wiederum zusammen mit dem umgebenden Körper eine Entwicklung von vielen Millionen Jahren hinter sich hat. Die Art und Weise unseres Denkens ist ein Produkt, und die heutigen Erlebnis- und Denkformen bilden keinen endgültigen Schlusspunkt, sondern repräsentieren eine Übergangsform, die in einigen Zehntausend Jahren (falls die Gentechnik nicht schon früher Änderungen hervorbringt) anders aussehen werden als heute. Beispielsweise sehen wir (durch die Kodierung des Gehirns) beständig ‚Objekte‘, aber in der physikalischen Welt gibt es keine Objekte, nur Eigenschaftsmengen, Energiefelder. Eine klassische Metaphysik konnte unter Voraussetzung des subjektiven Denkens mit Objekten in Form einer ‚Ontologie‘ operieren, eine moderne Philosophie muss erst einmal erklären, wie sie damit klar kommt, dass unser Gehirn subjektiv überall Objekte konstruiert, obwohl es physikalisch eigentlich keine Objekte gibt (und eine moderne Philosophie muss natürlich noch erheblich mehr erklären als dieses).

– SPRACHPHILOSOPHIE

14) (ii) Ein zweiter Einspruch kommt von der Sprachphilosophie. Der Vortragende erwähnte zwar auch den frühen Wittgenstein (1889-1951) als Kronzeugen für die Einsicht in die Grenzen dessen, was man mit Sprache sagen kann, um damit einmal mehr die Grenzen der empirisch-wissenschaftlichen Methode zu thematisieren, er versäumte es dann aber, auch den späten Wittgenstein zu erwähnen, der nachhaltig aufzeigen konnte, wie die Grenzen des Sagbaren alle Sprachspiele durchziehen, auch die Alltagssprache, auch — und nicht zuletzt! — die Sprache der Philosophen. Konnte man in früheren Zeiten als Philosoph einfach einen Satz hinschreiben mit der trügerischen Annahme, das könne wohl jeder verstehen, der verstehen will, kann nach Wittgenstein jeder, der es wissen will, wissen, dass dies eine wenig haltbare Position ist. Nicht nur jeder Satz, sondern sogar jedes einzelne Wort unterliegen dem Problem, dass ein Sprecher A das, was er mit bestimmten Lauten oder Zeichen verbunden wissen will (die Bedeutung), in keinem einzigen Fall als selbstverständlich gegeben bei einem anderen Sprecher B voraussetzen kann. Dies liegt daran, dass die Zuordnung von sprachlichem Ausdruck und das mit dem Ausdruck Gemeintem nicht zwangsweise mit dem Ausdruck selbst verknüpft ist, sondern in jedem einzelnen Fall mühsam gelernt werden muss (was jeder, der mühsam eine neue Sprache lernen will auf Schritt und Tritt erfährt). Mag dies bei Bezugnahme auf empirische Sachverhalte noch einigermaßen gehen, wird es bei nicht-empirischen Sachverhalten zu einem Rate- und Glücksspiel, das umso abenteuerlicher ist, je weniger Bezugspunkte zu etwas anderem, was schon bekannt ist, vorliegen. Wer schon einmal klassische philosophische Texte gelesen hat, der weiß, dass philosophische Texte in der Regel NICHT von empirischen Sachverhalten sprechen, sondern von Erlebnis- und Denkstrukturen, die als solche nicht wie Objekte aufzeigbar sind. Die Vielzahl unterschiedlicher Interpretationen ein und desselben klassischen philosophischen Textes ist von daher kein Zufall sondern resultiert aus dieser schwierigen Bedeutungslage. Klassische philosophische Texte sind ’schön‘, solange man sie nicht ernsthaft analysiert; tut man dies, verliert man sich unweigerlich in immer mehr Aporien.
15) [Anmerkung: Ich selbst war Teilnehmer des folgenden Experimentes an derjenigen deutschen Universität, die als einzige unter den ersten 50 Plätzen internationalen Universitätsrankings vorkommt. Teilnehmer waren zwei bekannte Philosophieprofessoren, zwei habilitierte Assistenten und mindestens drei Doktoranden der Philosophie. Es ging um die Frage, ob man die Einleitung in Kants Kritik der reinen Vernunft so interpretieren könne, dass alle ausnahmslos zustimmen müssten. Das Experiment lief zwei Semester lang. An Methoden war alles erlaubt, was bekannt war und dienlich erschien. Natürlich wurden u.a. auch alle bisher verfügbaren Kommentare berücksichtigt. Nach zwei Semestern gab es nicht einmal ansatzweise eine gemeinsame Sicht der Dinge. Beweisen tut dies im strengen Sinne nichts. Ich fand es damals sehr ernüchternd.]
16) Fasst man die Erkenntnisse der modernen Erkenntnistheorie und die der modernen Sprachphilosophie zusammen, dann erscheint es nicht nachvollziehbar und geradezu gewagt, anzunehmen, man könne die bislang erkannten Grenzen der modernen empirisch-wissenschaftlichen Erkenntnis durch einen unreflektierten Rekurs auf einen alles übergreifenden ‚Logos‘ einfach so überbrücken. Diese Art von ’naiver‘ (sprich ‚unreflektierter‘) Meta-Physik (und Ontologie) ist vorbei.
17) Bedenkt man die Bedeutungs-Probleme, die die Alltagssprache besitzt, ist die Situation in den empirisch-wissenschaftlichen Disziplinen ja geradezu noch ‚idyllisch‘. Bis zu einem gewissen Grad gibt es hier noch aufzeigbare und kontrollierbare ‚Bedeutung‘, wenn auch nicht vollständig.

VERZICHT AUF ‚LOGOS‘ ODER METAPHYSIK BEDEUTET NICHT GOTTLOSIGKEIT

18) Akzeptiert man die kritischen Argumente, dann folgt daraus NICHT — wie der Vortragende zu unterstellen scheint –, dass sich damit die Frage nach einem letzten ‚Sinn‘ oder gar die Frage nach etwas, das wir ‚Gott‘ nennen, grundsätzlich erledigt hat. Was sich allerdings weitgehend erledigt hat, ist, dass man tiefgreifende Fragen, die sich durch das Fortschreiten der Wissenschaften dem Wahrheitssuchenden öffnen weder durch Rekurs auf eine vor-kritische naive Metaphysik ‚überspielen‘ kann, noch dass man theologische Positionen als Antworten benutzen kann, die sowohl die wissenschaftliche kritische Analyse der religiösen Überlieferungsgeschichte wie auch der sich aus den Wissenschaften ergebenden neuen Erkenntnisse zur Struktur des Menschen, seiner Erkenntnisfähigkeit, seinen Erlebnisstrukturen usw. unberücksichtigt lassen. Das, was der Vortragende in dem zitierten Artikel tut, ist aber genau dies: er benutzt die alte naive Metaphysik, als ob es die letzten 400 Jahre nicht gab, und er benutzt eine theologische Interpretation, die genau jene Wissenschaft, die zuvor als so wichtig gepriesen wird, vollständig ausklammert. Das ist in meinen Augen nicht seriös, das ist nicht rational, das ist unwissenschaftlich, das hilft all den Menschen nicht, die ernsthaft nach Wahrheit suchen und nicht nur eine ‚psychologische Beruhigung‘ mit ‚einlullenden Bildern‘ (obwohl das Erzählen von Märchen sehr wohl der Wahrheitsfindung dienen kann; man muss sie nur richtig erzählen. Viele der Gleichnisse (einfache Form von Märchen?), die der Gestalt Jesus von Nazareth zugeschrieben werden, sind z.B. von dieser Natur: sie machen Punkte im Verhalten von Menschen deutlich, denen man eine gewisse Lebensweisheit nicht absprechen kann (eine Weisheit, die nicht jeder mögen muss)).

DIE GRENZEN DER SPRACHE IMPLIZIEREN NICHT EINE BEGRENZTHEIT DER WELT

19) Der Gesprächskreis im Anschluss an den Vortrag war sehr heterogen. Ich selbst habe aus den vielen Aussagen folgenden Gedanken mitgenommen: Die Grenzen der Sprache (Für die Mathematik aufgezeigt durch Gödel (und auch Turing)), für die allgemeine Sprache durch Wittgenstein) bedeuten nicht das Ende der Erkenntnis, sie machen uns nur deutlich, dass die grundsätzlichen Möglichkeiten des Erkennens für uns Menschen (bisher, unter Voraussetzung des aktuellen Erkenntnisapparates) nicht beliebig sind und dass wir, wenn wir ‚wahre‘ Erkenntnis wollen, jene, die uns aus den Wirrungen des alltäglichen naiven Weltbildes tatsächlich herausführen kann, dass wir dann diese Grenzen beherzigen und berücksichtigen sollten. Dass die scheinbare Begrenzung des wahren Erkennens auf die empirisch-wissenschaftliche Vorgehensweise uns gegenüber dem Vorgehen mit der nur scheinbar alles umfassenden naiven metaphysischen Denkweise in geradezu explosionsartiger Weise in Denkräume hinein katapultiert hat, von denen keiner der alten Philosophen auch nur träumen konnte, dies sollte uns Ermutigung und Anstoß sein, diesen Weg beherzt weiter zu gehen. Darüber hinaus zeigt sich aber ein fundamentaler Tatbestand: explizites, sprachlich vermitteltes Denken kann letztlich nur jener Wirklichkeit folgen, in der wir uns vorfinden und die allem Denken voraus ist. Was wir nicht aufzeigen können, ist letztlich nicht greifbar. Mehr noch, nur im Erfahren des ‚wirklich Anderen‘ — dem Empirisch-widerständigen — erfahren wir uns selbst als das ‚Andere zum anderen‘, als ‚Selbst‘ und das, ‚was‘ wir sind bzw. sein können, wissen wir erst dann, wenn wir selbst in unserem konkreten Dasein uns selbst sichtbar werden. Dies aber bedeutet, nur wenn wir ‚aus uns heraus‘ gehen, nur wenn wir ‚uns aufs Spiel setzen‘, nur wenn wir etwas ‚Probieren‘, nur dann kann sichtbar werden, ‚was‘ bzw. ‚wer‘ wir ‚tatsächlich sind‘. Nur weil das ‚biologische Leben‘ beständig weiter ‚aus sich heraus‘ gewachsen ist, immer mehr ‚Varianten probiert‘ und ‚Komplexitäten geschaffen‘ hat sind Formen des Lebens entstanden, von denen wir ein kleiner Teil sind. Dass das DNA-Molekül und der zugehörige Übersetzungsmechanismus ‚begrenzt‘ ist (verglichen mit den klassischen metaphysischen Konzepten geradezu lächerlich primitiv) war — und ist — kein Hindernis dafür, dass immer komplexere Lebensformen entstanden sind, so komplex, dass unser heutiges Denkvermögen sie nicht vollständig beschreiben kann. Die Grenzen der Sprache sind NICHT die Grenzen des Lebens und der Wahrheit. Die Wahrheit geht jeder Sprache — und erst recht jeder Metaphysik — um Lichtjahre voraus.

JEDER KANN SEIN ‚GOTTESEXPERIMENT‘ MACHEN

20) Sollte es so etwas wie einen ‚Gott‘ geben, so brauchen wir uns mit Sicherheit keine Sorgen darum machen, ob er ‚ist‘, was er ‚tut‘ oder ob wir ihn ‚richtig erkennen‘. Wenn es einen ‚Gott‘ als das letztlich Unbegreiflich alles Umfassende geben sollte, dann kann man davon ausgehen, dass er schon immer handelt (auch ohne uns zu fragen), er ist schon immer bei und in uns, ohne dass wir darum bitten müssen, und er lässt die ‚Wahrheit‘ auch in Lebensformen aufscheinen und sich entwickeln, die wir uns nicht ausgedacht haben und über die wir keine Verfügungsgewalt haben. Mit Sicherheit ist dieser Gott nicht an eine spezielle ethnische Gruppe gebunden, mit Sicherheit interessiert diesen Gott nicht, was wir essen und trinken, mit Sicherheit spielt Jungfrauengeburt und ähnliche Folklore keine Rolle. Für diesen Gott, so es ihn gibt, geht es um wirklich Grundlegendes. Aus meiner beschränkten Wahrnehmung sehe ich nicht, dass irgendeiner der heute lebenden Religionen (Judentum, Christentum, Islam…) wirklich ernsthaft an Gott interessiert ist. Dazu ist viel zu viel Hass unterwegs, zu viel Menschenverachtung, zu viele gruppenspezifische Egoismen, zu viele Herrschaftsstrukturen, die nur denen dienen, die herrschen, zu viel Folklore, zu viel Geldmacherei, zu wenig echtes Wissen.
21) Alles in allem — das habe ich in einem andren Blogeintrag auch schon mal ausgeführt — kann man den Eindruck gewinnen, dass es heute weniger die alten Religionen sind, die uns etwas Interessantes über den Sinn dieser Welt und über Gott zu sagen haben, als vielmehr die modernen Wissenschaften, die trotz ihrer Unvollkommenheiten ein Fenster der Erkenntnis aufgestoßen haben, dass alle Räume sehr weit aufmacht, so weit, dass wir noch gar nicht alles fassen können, was wir da sehen, zugleich werden die Grundrisse einer neuen Spiritualität sichtbar, die zu erkunden und auszuprobieren noch viel zu tun bleibt.
22) Das wäre mein letzter Punkt (zu dem es auch schon frühere Blogeinträge gibt). Wenn das alles stimmt, was uns die empirischen Wissenschaften sagen, dann ist die Annahme einer direkten Kommunikation ‚Gottes‘ — was immer man alles über ihn im Detail noch sagen kann — mit jedem Punkt des Universums — und damit natürlich auch mit jedem Lebewesen, auch mit uns Menschen — grundsätzlich möglich, und zwar jederzeit und überall. Niemand braucht eine vermittelnde Instanz dazu, da wir durch unsere Körper (die ja alle aus Zellen bestehen, diese aus Molekülen, diese aus Atomen, diese aus subatomaren Teilchen) jederzeit mit jedem Punkt im Universum kommunizieren können. Die grundlegenden Regeln der — zumindest christlichen — Mystik sind mit diesem empirischen Befund deckungsgleich. Es macht ja auch keinen Sinn, ‚Gott‘ als alles umfassenden und ermöglichenden Grund allen Seins zu postulieren und ihm dann zu verbieten, sich mit jedem Punkt des Universums verbinden zu können. Von der Quantenphysik her gibt es jedenfalls keine grundlegenden Einwände (was nicht bedeutet, dass wir in der Quantenphysik soweit wären, eine solche Kommunikation vollständig beschreiben zu können). Das gute daran ist, man muss dies nicht ‚glauben‘, sondern man kann es ‚tun‘, d.h. jeder kann sein privates ‚Gottesexperiment‘ machen und mit Gott in Kontakt treten. Man muss dafür kein Geld bezahlen, man braucht dazu keine ‚Genehmigung‘, man muss dazu keinen Universitätsabschluss gemacht haben, man muss dazu keiner bestimmten politischen Partei angehören, man muss dazu kein Millionär sein; das ‚einfache Menschsein‘ genügt. Die einzige Bedingung, man muss es einfach ‚tun‘, womit wir wieder bei dem zentralen Sachverhalt sind: Leben gibt es nur dort, wo es sich ‚ereignet‘, indem man seine Möglichkeiten ausübt…

Eine Übersicht über alle bishergen Blogeinträge nach Titeln gibt es HIER

Variante Nr.2

DIE GROSSE VEREINIGUNG: Philosophie, Wissenschaft, Kunst und Religion?

1. Nachdem in den letzten Wochen — zumindest gedanklich — die ‚Vereinigung‘ von getrennten Bereichen fortgesetzt wurde (Seit Januar 2012 Philosophie und Wissenschaft, seit Februar 2013 Philosophie, Wissenschaft und Theologie/ Religion), blieb die Frage nach der Rolle der Kunst bislang außen vor.
2. Dies gründet nicht darin, dass ich selbst etwas gegen Kunst hätte — partiell war und bin ich selbst künstlerisch engagiert –, aber auch mir geht es so wie vielen (den meisten?) heute, dass diese Bereiche in unser Gesellschaft akribisch getrennt werden. In den Schulen, insbesondere den Hochschulen des Landes, sind diese Bereiche voneinander abgeschottet. In den großen Zeitungen sind die Redaktionen ebenfalls säuberlich getrennt: hier die Wissenschaften, hier das Feuilleton als Sammelstelle für Alles, was nicht Wissenschaft ist, ausgenommen Politik und Wirtschaft.
3. Und da wir uns im Normalfall eher innerhalb der vorgebahnten gesellschaftlichen Rollen und Leitplanken bewegen, praktizieren wir ein gedankliches Schisma, das — zumindest Europa und die davon beeinflussten anderen Länder — seit Jahrhunderten besteht.
4. Nun geht es nicht unbedingt um eine ‚Gleichmacherei‘, als ob Kunst gleich Wissenschaft sei oder umgekehrt, aber zumindest um die Frage der ‚inneren Beziehung‘ zwischen Philosophie, Wissenschaft, Kunst und Religion.
5. Für eine solche Fragestellung gibt es viele Gründe: Trotz vieler wissenschaftlicher Disziplinen, vieler unterschiedlicher Künste, leben wir in EINER Welt, in der dies alles ‚gleichzeitig‘ passiert, als reales Geschehen. Also sind es ‚genuine Phänomene‘ dieser einen Welt, die etwas, über die Eigenschaften dieser Welt sagen. Ferner ist es EINE spezifische Gattung, der homo sapiens sapiens, der all diese Verhaltensweise aufweist, manifestiert. Trotz aller Unterschiedlichkeit entspringen alle diese verschiedenen Phänomene einer Quelle und illustrieren je auf ihre Weise Eigenschaften dieser einen Quelle.
6. Eine Abschottung dieser verschiedenen Phänomene voneinander wäre radikal ‚unphilosophisch‘, würde dies doch bedeuten, dass man das, was die Grundlage allen Erkennens bildet, Phänomene als Teil des Erlebensraumes, ‚verdrängen‘, ‚verleugnen‘ würde. Das kann nicht angehen. Philosophisch haben wir keine ‚Metaregel‘, die es uns erlauben würde, beliebige Phänomene zu ‚Un-Phänomenen‘ zu erklären. Das oberste philosophisches Prinzip lautet, JEDES Phänomen zunächst mal als Phänomen zu akzeptieren. Wie man dieses dann später ‚interpretiert‘, ist eine nachgeordnete Frage, verlangt jedoch — zumindest im philosophischen Denken — maximale ‚Transparenz‘.
7. Die Hauptaufgabe der Philosophie angesichts der Vielfalt der Phänomene ist also die ‚Wahrung der Vielfalt‘ mit allen verfügbaren denkerischen Mitteln.
8. Die empirischen Wissenschaften haben sich in den Jahrhunderten seit ihrer Profilierung (kein einzelnes Anfangsdatum; schleichender gesellschaftlicher Prozess) dadurch ausgezeichnet, dass sie in Kombination von ‚empirischen Messverfahren‘ und ‚mathematischer Modellierung‘ TEILBEREICHE der Phänomenwelt untersucht haben. Ihre Ergebnisse sind zweilfellos atemberaubend. Dennoch sollte man vor lauter Begeisterung nicht den Blick dafür verlieren, dass es eben TEILBEREICHE des Phänomenraumes sind, d.h. dass diese Untersuchungen nur möglich waren, weil man ‚methodisch bewusst‘ viele andere Phänomene ‚ausgeklammert‘ hat, da sie mit empirischen Mitteln nicht untersuchbar waren. Zugleich hat die empirische Wissenschaft im Laufe der Jahrhunderte deutliche ‚gedankliche Entwicklungen‘ erlebt: mathematische Modelle wurden laufend verändert, verfeinert, bisweilen durch völlig neue Paradigmen ‚ersetzt‘ (z.B. klassische Physik a la Newton und Quantenphysik).
9. Es scheint so zu sein, dass die ‚Ausklammerung‘ der nicht empirisch messbaren Phänomene — mangels hinreichender philosophischer Reflexion ?! — bei vielen Akteuren zu dem Eindruck geführt hat, dass die REDUIZIERTEN (nicht ‚reduktionistisch‘!) empirischen Theorien eigentlich schon ‚Alles‘ abdecken, was sie natürlich nicht tun, da sie ja einen Großteil der Phänomene schlichtweg ausklammern. Sachlich gesehen ist dies kein Problem, aber psychologisch und machtpolitisch ist es natürlich ‚angenehmer‘, eine gesellschaftlich ’starke‘ Position zu haben als eine ’schwache‘ (z.B. die geisteswissenschaftlichen Disziplinen als ‚Sorgenkinder‘ der zunehmend ökonomisierten Universitäten). Eine Aufrechterhaltung des empirischen Interpretationsmonopols ist also weniger philosophisch-rational begründet als vielmehr psychologisch, soziologisch usw.
10. Dies so sachlich zu diagnostizieren, ist eine Sache. Eine andere Frage ist, wie man sich denn ein weniger abgrenzendes, sondern eher ein konstruktives Verhältnis zwischen empirischen Wissenschaften und den Künsten vorstellen soll? (Also Geisteswissenschaften erweitert um Kunst!)
11. Ein Verständnis der Künste könnte der kreativ-spielerische Umgang mit der ganzen Bandbreite der Phänomene sein ohne die methodisch induzierten Grenzen durch die empirischen Messverfahren. Dies würde sowohl neue Phänomene wie auch neue, implizite Zusammenhänge in diesen Phänomenen sichtbar machen, die für das, was wir als homo sapiens sapiens in dieser Welt sind/ sein können, wesentlich sind. Denn wir ‚kennen‘ uns nur ‚im Vollzug‘. Wer wir ’sind‘ bzw. wer wir ’sein können‘ zeigt sich nur im ‚praktischen Ausloten‘ der Möglichkeiten. Die methodisch induzierten Grenzen der Phänomenselektion der empirischen Wissenschaften sind im Grundsatz zu eng und — falsch verstanden — ideologisch gefährlich. Genauso wenig wie wir philosophisch auftretende Phänomene einfach ‚beiseite schieben‘ können, genauso wenig dürfen wir von vornherein bestimmte Verhaltensweisen einfach — ohne sehr harte Gründe — verbieten, da nur so überhaupt die Phänomene sichtbar werden können, die uns zu neuen, erweiterten Erkenntnissen führen können.
12. Dass bestimmte Phänomenproduktionen wie z.B. bestimmte Formen von ‚Musik‘ oder bestimmte ‚Bilder‘, in Menschen ‚angenehme Gefühle‘ anregen können, dürfte nicht das primäre und nicht das einzige Interesse in der Phänomenproduktion sein. Sonst würde durch solche spezielle Gefühle der gleiche selektierende Isolationseffekt entstehen, wie durch die methodisch induzierten Eingrenzungen der empirischen Wissenschaften (Die Geschichte ist voll von ‚Moden‘ und ‚Trends‘, die sich gewandelt haben und die sich selbst wechselseitig außer Kraft gesetzt haben. Die Rolle und Bedeutung von ‚Gefühlen‘ bei der Bewertung von Wirklichkeit wäre eine eigene Reflexion wert).
13. Die Auslotung des Möglichen im Rahmen einer kreativ-spielerischen Kunst könnte also die Grundlage für ein vertieftes Verständnis dessen sein, was/ wer/ wie wir sind. Zugleich würde eine solche prinzipiell unbegrenzte Phänomenproduktion aber nur dann zu einem ‚gesellschaftlich wirksamen Sinn‘ führen, wenn diese Phänomene ‚angemessen‘ kommuniziert würden bzw. wenn evtl. möglichst viele ähnliche Phänomenproduktionen vollziehen würden, da diese dann als ‚Teile von ihnen selbst‘ sie unmittelbar betreffen und prägen. Es ist zu fragen, ob die heute beobachtbare ‚Spezialisierung und Professionalisierung‘ von künstlerischer Phänomenproduktion nicht eher ein hochgezüchtetes Randphänomen von künstlerischer Aktivität ist, die nah dran ist an bloßer ‚Gefälligkeit‘ und Stereotypisierung und genau den kreativ-spielerischen Charakter verliert. Von gesellschaftlicher ‚Rezeption‘ kann bei dem heutigen hochspezialisierten organisierten Kunstbetrieb kaum gesprochen werden (Welche verschwindende Minderheit von Spezialisten liest Feuilletons?).
14. Dies ist ein weites Feld und kann hier jetzt nicht angemessen behandelt werden. Es geht nur darum, einen ersten Orientierungspfosten zu setzen, um anzudeuten, dass eine stärkere Interaktion von Kunst einerseits und Philosophie und Wissenschaft andererseits auch entsprechende gesellschaftliche Formen und Kommunikationsprozesse erfordert.
15. Die notwendige kommunikative Aufarbeitung neuer — künstlerisch hervorgebrachter — Phänomene muss sicherlich auf vielen Ebenen vollzogen werden. Für den methodischen Gesamtzusammenhang ist die Philosophie zuständig. Für die Erweiterung der wissenschaftlichen Untersuchungen ist die Wissenschaft selbst in enger Kooperation mit der Philosophie zuständig (z.B. auch in der Form der ‚Wissenschaftstheorie‘).
16. Letzteres kann aber nur funktionieren, wenn der Wissenschafts- und Philosophiebetrieb eine kontinuierliche Reflexion pflegen, die diese Fragen als ’normale Fragen‘ in der Routinepraxis ‚pflegen‘. Davon sind wir weit, weit entfernt. Das geschichtlich gewachsene Schisma ist tief verankert in den Köpfen aller Beteiligten und die — ungerechtfertigt unterstellte? — Eitelkeit in den Köpfen der Wissenschafts und/ oder Feuilleton-Redaktionen der Medien tut ihr Ihriges, um dieses Schisma täglich am Leben zu erhalten. Das gelegentlich immer wieder aufflammende Wehklagen der einen über diesen unseligen Zustand oder die abwertenden Bemerkungen der anderen helfen hier nicht weiter.
17. In einem internationalen Projekt, das ich in diesen Monaten zu starten versuche (lange Vorläufe in den letzten Jahren) versuchen wir ein radikal technologisches Experiment direkt mit Kunst und Philosophie zu verknüpfen. Sowohl ‚Reengineering von Goethe‘ wie auch ‚Goethefizierung von künstlicher Intelligenz‘ als platte Formeln, um etwas Komplexes anzudeuten.
18. Wie schon in vorausgehenden Blogeinträgen besprochen, führen die ‚emergenten‘ Phänomene die heutigen empirischen Wissenschaften an die Grenzen ihrer aktuellen Methoden und Modellen. In einer Metareflexion kann man erkennen, dass die empirischen Wissenschaften die Auflösungen der methodischen Aporien nur nur Erweiterung ihrer Modellbildungen durch Einbeziehung höherer Komplexitätsstufen auflösen kann. Diese können aber genau von jenen Disziplinen eingebracht werden, die sich mit ‚Handlung‘, ‚Sprache‘, ‚Bewusstsein‘, ‚Wissen‘, ‚Gefühlen‘, ‚Kunst‘ usw. beschäftigen. Diese ‚Zwitter-Disziplinen‘ — teils empirisch, prinzipiell mathematisch — können Brücken bauen zwischen den verschiedenen bislang schismatisch aufgesplitterten Phänomenmengen. Zwitter-Disziplinen haben kein Problem mit Kunst bzw. künstlerischen Phänomenen.
19. In diesem weit aufgespannten Raum von Philosophie (Kampf für alle Phänomene), empirisches Wissenschaft (Präzisierung des empirisch Messbaren), Zwitter-Disziplinen (Integration der empirischen und nicht-empirischen Phänomene) sowie Kunst (kreativ-spielerische Auslotung des Phänomenraumes) ist prinzipiell Raum für Religion, eigentlich mehr denn je. Ich verstehe unter Religion eine menschliche Haltung dahingehend, dass ein religiöser Mensch die Vielfalt des Phänomenraumes nicht nur als ‚unbeteiligter Zuschauer‘ sieht, sondern sich als ‚Teil des Ganzen‘ begreift. Dadurch verlieren die Phänomene ihren neutralen Status: sie werden zu möglichen ‚Zeichen‘ einer ‚impliziten Bedeutung‘, die sich in der Interaktion mit der Welt ‚zeigen kann‘. Dies verlangt allerdings einen ‚bewussten‘ Umgang mit der Welt als einer Welt, die einem ’nicht egal‘ ist. Alle religiös-mystischen Traditionen, die ich kenne, sind in diesem Punkt kompatibel. Die Gesamtheit des Wissens, wie es sich in Philosophie, Wissenschaften und Kunst erschließt, ist für eine so verstandene Religiosität kein Gegensatz, sondern ganz im Gegenteil ‚Ermöglichungsgrund‘ eines verantworteten Umgangs mit der Welt. Die ‚geistigen Besonderheiten‘, die viele offizielle Religionsgemeinschaften im Laufe ihrer Geschichte produziert haben, wirken vor diesem Hintergrund befremdlich und eher religionsfeindlich (eine leicht paradoxe Formulierung).

Einen Überblick über alle bisherigen Blogeinträge nach Themen findet sich HIER

Kunst als eigene Aktivität

Ich habe vor einigen Jahren, angeregt durch philosophische Reflexionen, begonnen, eigene ‚Kunstexperimente‘ zu realisieren. Ein Bereich ist die experimentelle Musik nach dem Konzept der ‚radically unplugged music (RUM)‘. Dazu habe ich mittlerweile mehr als 400 Musikstücke generiert. ‚Radically Unplugged‘ heisst, dass man nicht nach Noten spielt, das man vorher nicht probt, dass keine Stimme weiss was die andere als nächstes tun wird. Dadurch ist es möglich, dass Personen sich am Experiment beteiligen, die als ‚unmusikalisch‘ gelten, die keine Noten lesen können, ja, die nicht einmal ein Instrument spielen können. Hier ein Stück, das ich gestern ‚produziert‘ habe: ‚Coming To An End‘

Hinweis: Wer sich dieses Klangexperiment anhören möchte, sollte unbedingt darauf achten, über eine sehr gute Soundkarte und einen sehr guten Kopfhörer zu verfügen (noch besser eine Soundanlage mit guten Boxen), andernfalls sind viele Klanganteile nur sehr schlecht oder garnicht hörbar!