Archiv der Kategorie: Geisteswissenschaften

WAS IST DER MENSCH?

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062 20.Juli 2020
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

AKTUALISIERUNGEN: Letzte Aktualisierung 21.7.2020 (Korrekturen; neue Links)

KONTEXT

In den vielen vorausgehenden Beiträgen in diesem Blog wurde die Frage nach dem Menschen, was das angemessene Bild vom Menschen sein könnte, schon oft gestellt. Möglicherweise wird diese Frage auch in der Zukunft sich immer wieder neu stellen, weil wir immer wieder auf neue Aspekte unseres Menschseins stoßen. Ich bin diese Tage auf einen Zusammenhang gestoßen, der mir persönlich in dieser Konkretheit neu ist (was nicht ausschließt, dass andere dies schon ganz lange so sehen). Hier einige weitere Gedanken dazu.

DER MENSCH IN FRAGMENTEN

In der evolutionsbiologischen Perspektive taucht der homo sapiens — also wir — sehr, sehr spät auf. Vom Jahr 2020 aus betrachtet, bilden wir den aktuellen Endpunkt der bisherigen Entwicklung wohl wissend, dass es nur ein Durchgangspunkt ist in einem Prozess, dessen Logik und mögliche Zielrichtung wir bislang nur bedingt verstehen.

Während man bei der Betrachtung der letzten Jahrtausende Menschheitsgeschichte bisweilen den Eindruck haben könnte, dass die Menschen sich als Menschen als etwas irgendwie Besonderes angesehen haben (was die Menschen aber nicht davon abgehalten hat, sich gegenseitig zu bekämpfen, sich zu bekriegen, sich regelrecht abzuschlachten), könnte man bei der Betrachtung der letzten 100 Jahre den Eindruck gewinnen, als ob die Wissenschaft die Besonderheit des Menschen — so es sie überhaupt gab — weitgehend aufgelöst hat: einmal durch die Einbettung in das größere Ganze der Evolution, dann durch einen vertieften Blick in die Details der Anatomie, des Gehirns, der Organe, der Mikro- und Zellbiologie, der Genetik, und schließlich heute durch das Aufkommen digitaler Technologien, der Computer, der sogenannten künstlichen Intelligenz (KI); dies alles lässt den Menschen auf den ersten Blick nicht mehr als etwas Besonders erscheinen.

Diese fortschreitende Fragmentierung des Menschen, des homo sapiens, findet aber nicht nur speziell beim Menschen statt. Die ganze Betrachtungsweise der Erde, des Universums, der realen Welt, ist stark durch die empirischen Wissenschaften der Gegenwart geprägt. In diesen empirischen Wissenschaften gibt es — schon von ihrem methodischen Ansatz her — keine Geheimnisse. Wenn ich nach vereinbarten Messmethoden Daten sammle, diese in ein — idealerweise — mathematisches Modell einbaue, um Zusammenhänge sichtbar zu machen, dann kann ich möglicherweise Ausschnitte der realen Welt als abgeschlossene Systeme beschreiben, bei denen der beschreibende Wissenschaftler außen vor bleibt. Diese partiellen Modelle bleiben notgedrungen Fragmente. Selbst die Physik, die für sich in Anspruch nimmt, das Ganze des Universums zu betrachten, fragmentiert die reale Welt, da sich die Wissenschaftler selbst, auch nicht die Besonderheiten biologischen Lebens generell, in die Analyse einbeziehen. Bislang interessiert das die meisten wenig. Je nach Betrachtungsweise kann dies aber ein fataler Fehler sein.

DER BEOBACHTER ALS BLINDE FLECK

Die Ausklammerung des Beobachters aus der Beschreibung des Beobachtungsgegenstands ist in den empirischen Wissenschaften Standard, da ja das Messverfahren idealerweise invariant sein soll bezüglich demjenigen, der misst. Bei Beobachtungen, in denen der Beobachter selbst das Messinstrument ist, geht dies natürlich nicht, da die Eigenschaften des Beobachters in den Messprozess eingehen (z.B. überall dort, wo wir Menschen unser eigenes Verhalten verstehen wollen, unser Fühlen und Denken, unser Verstehen, unser Entscheiden, usw.). Während es lange Zeit eine strenge Trennung gab zwischen echten (= harten) Wissenschaften, die strikt mit dem empirischen Messideal arbeiten, und jenen quasi (=weichen) Wissenschaften, bei denen irgendwie der Beobachter selbst Teil des Messprozesses ist und demzufolge das Messen mehr oder weniger intransparent erscheint, können wir in den letzten Jahrzehnten den Trend beobachten, dass die harten empirischen Messmethoden immer mehr ausgedehnt werden auch auf Untersuchungen des Verhaltens von Menschen, allerdings nur als Einbahnstraße: man macht Menschen zwar zu Beobachtungsgegenständen partieller empirischer Methoden, die untersuchenden Wissenschaftler bleiben aber weiterhin außen vor. Dieses Vorgehen ist per se nicht schlecht, liefert es doch partiell neue, interessante Einsichten. Aber es ist gefährlich in dem Moment, wo man von diesem — immer noch radikal fragmentiertem — Vorgehen auf das Ganze extrapoliert. Es entstehen dann beispielsweise Bücher mit vielen hundert Seiten zu einzelnen Aspekten der Zelle, der Organe, des Gehirns, aber diese Bücher versammeln nur Details, Fragmente, eine irgendwie geartete Zusammenschau bleibt aus.

Für diese anhaltende Fragmentierung gibt es sicher mehr als einen Grund. Einer liegt aber an der Wurzel des Theoriebegriffs, der Theoriebildung selbst. Im Gegensatz zu einer weit verbreiteten Anschauung entstehen Theorien, Modelle, also jene begrifflichen Gebilde, mit denen wir einzelne Daten deuten, nicht aus einem Automatismus, sondern sie beruhen auf gedanklichen Entscheidungen in den Köpfen der Wissenschaftler selbst: grundsätzlich gibt es immer mehr als eine Option, wie ich etwas angehen will. Jede Option verlangt also eine Entscheidung, eine Wahl aus einem großen Bereich von Möglichkeiten. Die Generierung einer Theorie ist von daher immer ein komplexer Prozess. Interessanterweise gibt es in kaum einer der heutigen empirischen Disziplinen das Thema Wie generieren wir eine Theorie? als eigene Themenstellung. Obwohl hier viele Grundentscheidungen fallen, obwohl hier viel Komplexität rational aufgehellt werden müsste, betreiben die sogenannten harten Wissenschaften hier ein weitgehend irrationales Geschäft. Das Harte an den empirischen Wissenschaften gründet sich in diesem Sinne nicht einmal in einer weichen Reflexion; es gibt schlicht gar keine offizielle Reflexion. Die empirischen Wissenschaften sind in dieser Hinsicht fundamental irrational. Dass sie trotz ihrer fundamentalen Irrationalität interessante Detailergebnisse liefern kann diesen fundamentalen Fehler in der Wurzel nur bedingt ausgleichen. Die interessante Frage ist doch, was könnten die empirischen Wissenschaften noch viel mehr leisten, wenn sie ihre grundlegende Irrationalität an der Wurzel der Theoriebildung schrittweise mit Rationalität auffüllen würden?

HOMO SAPIENS – DER TRANSFORMER

(Ein kleiner Versuch, zu zeigen, was man sehen kann, wenn man die Grenzen der Disziplinen versuchsweise (und skizzenhaft) überschreitet)

Trotz ihrer Irrationalität an der Wurzel hat die Evolutionsbiologie viele interessante Tatbestände zum homo sapiens sichtbar gemacht, und andere Wissenschaften wie z.B. Psychologie, Sprachwissenschaften, und Gehirnwissenschaft haben weitere Details beigesteuert, die quasi ‚auf der Straße‘ herumliegen; jeder produziert für sich fleißig partielle Modelle, aber niemand ist zuständig dafür, diese zusammen zu bauen, sie versuchsweise zu integrieren, mutig und kreativ eine Synthese zu versuchen, die vielleicht neue Aspekte liefern kann, mittels deren wir viele andere Details auch neu deuten könnten. Was Not tut ist eine Wissenschaft der Wissenschaften, nicht als Privatvergnügen eines einzelnen Forschers, sondern als verpflichtender Standard für alle. In einer Wissenschaft der Wissenschaften wäre der Beobachter, der Forscher, die Forschergruppe, selbst Teil des Untersuchungsgegenstandes und damit in der zugehörigen Meta-Theorie aufzuhellen.

Anmerkung: Im Rahmen der Theorie des Engineering gibt es solche Ansätze schon länger, da das Scheitern eines Engineeringprozesses ziemlich direkt auf die Ingenieure zurück schlägt; von daher sind sie äußerst interessiert daran, auf welche Weise der Faktor Mensch — also auch sie selbst — zum Scheitern beigetragen hat. Hier könnte die Wissenschaft eine Menge von den Ingenieuren lernen.

Neben den vielen Eigenschaften, die man am homo sapiens entdecken kann, erscheinen mir drei von herausragender Bedeutung zu sein, was sich allerdings erst so richtig zeigt, wenn man sie im Zusammenspiel betrachtet.

Faktor 1: Dass ein homo sapiens einen Körper [B, body] mit eingebautem Gehirn [b, brain] hat, unterscheidet ihn nicht unbedingt von anderen Lebensformen, da es viele Lebensformen im Format Körper mit eingebautem Gehirn gibt. Dennoch ist schon mal festzuhalten, dass der Gehirn-Körper [b_B] eines homo sapiens einen Teil der Eigenschaften seiner Realwelt-Umgebung [RW] — und der eigene Körper gehört aus Sicht des Gehirns auch zu dieser Realwelt-Umgebung — ausnahmslos in neuronale Zustände [NN] im Gehirn verwandelt/ transformiert/ konvertiert und diese neuronale Zustände auf vielfältige Weise Prozesshaft bearbeitet (Wahrnehmen, Speichern, Erinnern, Abstrahieren, Assoziieren, bewerten, …). In dieser Hinsicht kann man den Gehirn-Körper als eine Abbildung, eine Funktion verstehen, die u.a. dieses leistet: b_B : RW —–> RW_NN. Will man berücksichtigen, dass diese Abbildung durch aktuell verfügbare Erfahrungen aus der Vergangenheit modifiziert werden kann, dann könnte man schreiben: b_B : RW x RW_NN —–> RW_NN. Dies trägt dem Sachverhalt Rechnung, dass wir das, was wir aktuell neu erleben, automatisch mit schon vorhandenen Erfahrungen abgleichen und automatisch interpretieren und bewerten.

Faktor 2: Allein schon dieser Transformationsprozess ist hochinteressant, und er funktioniert bis zu einem gewissen Grad auch ganz ohne Sprache (was alle Kinder demonstrieren, wenn sie sich in der Welt bewegen, bevor sie sprechen können). Ein homo sapiens ohne Sprache ist aber letztlich nicht überlebensfähig. Zum Überleben braucht ein homo sapiens das Zusammenwirken mit anderen; dies verlangt ein Minimum an Kommunikation, an sprachlicher Kommunikation, und dies verlangt die Verfügbarkeit einer Sprache [L].

Wir wir heute wissen, ist die konkrete Form einer Sprache nicht angeboren, wohl aber die Fähigkeit, eine auszubilden. Davon zeugen die vielen tausend Sprachen, die auf dieser Erde gesprochen werden und das Phänomen, dass alle Kinder irgendwann anfangen, Sprachen zu lernen, aus sich heraus.

Was viele als unangenehm empfinden, das ist, wenn man als einzelner als Fremder, als Tourist in eine Situation gerät, wo alle Menschen um einen herum eine Sprache sprechen, die man selbst nicht versteht. Dem Laut der Worte oder dem Schriftzug eines Textes kann man nicht direkt entnehmen, was sie bedeuten. Dies liegt daran, dass die sogenannten natürlichen Sprachen (oft auch Alltagssprachen genannt), ihre Bedeutungszuweisungen im Gehirn bekommen, im Bereich der neuronalen Korrelate der realen Welt RW_NN. Dies ist auch der Grund, warum Kinder nicht von Geburt an eine Sprache lernen können: erst wenn sie minimale Strukturen in ihren neuronalen Korrelaten der Außenwelt ausbilden konnten, können die Ausdrücke der Sprache ihrer Umgebung solchen Strukturen zugeordnet werden. Und so beginnt dann ein paralleler Prozess der Ausdifferenzierung der nicht-sprachlichen Strukturen, die auf unterschiedliche Weise mit den sprachlichen Strukturen verknüpft werden. Vereinfachend kann man sagen, dass die Bedeutungsfunktion [M] eine Abbildung herstellt zwischen diesen beiden Bereichen: M : L <–?–> RW_NN, wobei die sprachlichen Ausdrücke letztlich ja auch Teil der neuronalen Korrelate der Außenwelt RW_NN sind, also eher M: RW_NN_L <–?–>RW_NN.

Während die grundsätzliche Fähigkeit zur Ausbildung einer bedeutungshaltigen Sprache [L_M] (L :_ Ausrucksseite, M := Bedeutungsanteil) nach heutigem Kenntnisstand angeboren zu sein scheint, muss die Bedeutungsrelation M individuell in einem langen, oft mühsamen Prozess, erlernt werden. Und das Erlernen der einen Sprache L_M hilft kaum bis gar nicht für das Erlernen einer anderen Sprache L’_M‘.

Faktor 3: Neben sehr vielen Eigenschaften im Kontext der menschlichen Sprachfähigkeit ist einer — in meiner Sicht — zusätzlich bemerkenswert. Im einfachen Fall kann man unterscheiden zwischen den sprachlichen Ausdrücken und jenen neuronalen Korrelaten, die mit Objekten der Außenwelt korrespondieren, also solche Objekte, die andere Menschen zeitgleich auch wahrnehmen können. So z.B. ‚die weiße Tasse dort auf dem Tisch‘, ‚die rote Blume neben deiner Treppe‘, ‚die Sonne am Himmel‘, usw. In diesen Beispielen haben wir auf der einen Seite sprachliche Ausdrücke, und auf der anderen Seite nicht-sprachliche Dinge. Ich kann mit meiner Sprache aber auch sagen „In dem Satz ‚die Sonne am Himmel‘ ist das zweite Wort dieses Satzes grammatisch ein Substantiv‘. In diesem Beispiel benutze ich Ausdrücke der Sprache um mich auf andere Ausdrücke einer Sprache zu beziehen. Dies bedeutet, dass ich Ausdrücke der Sprache zu Objekten für andere Ausdrücke der Sprache machen kann, die über (meta) diese Objekte sprechen. In der Wissenschaftsphilosophie spricht man hier von Objekt-Sprache und von Meta-Sprache. Letztlich sind es zwei verschiedenen Sprachebenen. Bei einer weiteren Analyse wird man feststellen können, dass eine natürliche/ normale Sprache L_M scheinbar unendlich viele Sprachebenen ausbilden kann, einfach so. Ein Wort wie Demokratie z.B. hat direkt kaum einen direkten Bezug zu einem Objekt der realen Welt, wohl aber sehr viele Beziehungen zu anderen Ausdrücken, die wiederum auf andere Ausdrücke verweisen können, bis irgendwann vielleicht ein Ausdruck dabei ist, der Objekte der realen Welt betrifft (z.B. der Stuhl, auf dem der Parlamentspräsident sitzt, oder eben dieser Parlamentspräsident, der zur Institution des Bundestages gehört, der wiederum … hier wird es schon schwierig).

Die Tatsache, dass also das Sprachvermögen eine potentiell unendlich erscheinende Hierarchie von Sprachebenen erlaubt, ist eine ungewöhnlich starke Eigenschaft, die bislang nur beim homo sapiens beobachtet werden kann. Im positiven Fall erlaubt eine solche Sprachhierarchie die Ausbildung von beliebig komplexen Strukturen, um damit beliebig viele Eigenschaften und Zusammenhänge der realen Welt sichtbar zu machen, aber nicht nur in Bezug auf die Gegenwart oder die Vergangenheit, sondern der homo sapiens kann dadurch auch Zustände in einer möglichen Zukunft andenken. Dies wiederum ermöglicht ein innovatives, gestalterisches Handeln, in dem Aspekte der gegenwärtigen Situation verändert werden. Damit kann dann real der Prozess der Evolution und des ganzen Universums verändert werden. Im negativen Fall kann der homo sapiens wilde Netzwerke von Ausdrücken produzieren, die auf den ersten Blick schön klingen, deren Bezug zur aktuellen, vergangenen oder möglichen zukünftigen realen Welt nur schwer bis gar nicht herstellbar ist.

Hat also ein entwickeltes Sprachsystem schon für das Denken selbst eine gewisse Relevanz, spielt es natürlich auch für die Kommunikation eine Rolle. Der Gehirn-Körper transformiert ja nicht nur reale Welt in neuronale Korrelate b_B : RW x RW_NN —–> RW_NN (mit der Sprache L_B_NN als Teil von RW_NN), sondern der Gehirn-Körper produziert auch sprachliche Ausdrücke nach außen b_B : RW_NN —–> L. Die sprachlichen Ausdrücke L bilden von daher die Schnittstelle zwischen den Gehirnen. Was nicht gesagt werden kann, das existiert zwischen Gehirnen nicht, obgleich es möglicherweise neuronale Korrelate gibt, die wichtig sind. Nennt man die Gesamtheit der nutzbaren neuronalen Korrelate Wissen dann benötigt es nicht nur eine angemessene Kultur des Wissens sondern auch eine angemessene Kultur der Sprache. Eine Wissenschaft, eine empirische Wissenschaft ohne eine angemessene (Meta-)Sprache ist z.B. schon im Ansatz unfähig, mit sich selbst rational umzugehen; sie ist schlicht sprachlos.

EIN NEUES UNIVERSUM ? !

Betrachtet man die kontinuierlichen Umformungen der Energie-Materie vom Big Bang über Gasnebel, Sterne, Sternenhaufen, Galaxien und vielem mehr bis hin zur Entstehung von biologischem Leben auf der Erde (ob auch woanders ist komplexitätstheoretisch extrem unwahrscheinlich, aber nicht unmöglich), dort dann die Entwicklung zu Mehrzellern, zu komplexen Organismen, bis hin zum homo sapiens, dann kommt dem homo sapiens eine einzigartig, herausragende Rolle zu, der er sich bislang offensichtlich nicht richtig bewusst ist, u.a. möglicherweise auch, weil die Wissenschaften sich weigern, sich professionell mit ihrer eigenen Irrationalität zu beschäftigen.

Der homo sapiens ist bislang das einzig bekannte System im gesamten Universum, das in er Lage ist, die Energie-Materie Struktur in symbolische Konstrukte zu transformieren, in denen sich Teile der Strukturen des Universums repräsentieren lassen, die dann wiederum in einem Raum hoher Freiheitsgrade zu neue Zuständen transformiert werden können, und diese neuen — noch nicht realen — Strukturen können zum Orientierungspunkt für ein Verhalten werden, das die reale Welt real transformiert, sprich verändert. Dies bedeutet, dass die Energie-Materie, von der der homo sapiens ein Teil ist, ihr eigenes Universum auf neue Weise modifizieren kann, möglicherweise über die aktuellen sogenannten Naturgesetze hinaus.

Hier stellen sich viele weitere Fragen, auch alleine schon deswegen, weil der Wissens- und Sprachaspekt nur einen kleinen Teil des Potentials des homo sapiens thematisiert.

MEDITATION UND WISSENSCHAFT. Überlegungen zu einem Lehr- und Forschungsexperiment an einer Deutschen Hochschule

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 16.Okt. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Das Hauptthema in diesem Blog ist seit Beginn die Suche nach dem neuen Menschenbild innerhalb der Koordinaten ‚Philosophie – Wissenschaft‘ ergänzt um die Themen ‚Gesellschaft – Technologie‘ und ‚Religion‘.

Im Laufe der Jahre haben sich aufgrund dieser Überlegungen immer wieder ‚Unterprojekte‘ außerhalb des Blogs herausgebildet, um die allgemeinen Überlegungen auch konkret zu prüfen bzw. umzusetzen.

Aktuell gibt es drei Unterprojekte: (i) Vorbereitet durch viele Jahre Vorlesungen gibt es ein online-Buchprojekt zum integrierten Engineering, das weit fortgeschritten ist. (ii) Ferner gibt es nun schon im vierten Semester ein Projekt ‚Meditation und Wissenschaft‘ an einer Deutschen Hochschule als reguläre interdisziplinäre Lehrveranstaltung, aus der ein erstes Buch hervorgegangen ist (kurz vor dem Druck), und zu dem es in wenigen Tagen einen ersten wissenschaftlichen Kongress geben wird. (iii) Seit dem Frühjahr 2018 hat sich im Anschluss an einen Kongress zur Städteplanung ein neues interdisziplinäres Projekt gebildet, das eine ziemlich direkte Umsetzung der Theorie des Engineerings ist, die unter (i) erwähnt wird (die aktuelle Webseite https://www.frankfurt-university.de/index.php?id=4664 verrät noch nicht all zu viel, aber eine deutlich erweiterte Fassung ist in Vorbereitung (bis ca. Mitte November) und adressiert alle Kommunen in Deutschland (und letztlich in ganz Europa). Eine weitere Variante adressiert Universitäten und Schulen, auch Firmen.

Hier soll kurz auf das unter (ii) genannte Projekt eingegangen werden.

GESELLSCHAFTICHE AUSGANGSLAGE

Wie in dem im Frühjahr 2019 erscheinenden Buch ausführlich dargelegt wird, erleben wir eine Zeit, in der aktuelle technologische Entwicklungen (sehr dominant: die sogenannte ‚Digitalisierung‘) die gewohnten Abläufe in der Gesellschaft von Grund auf neu formen. Zusätzlich wirbeln alte, bekannte Weltbilder mit neuen wissenschaftlichen Sehweisen, meist sehr fragmentiert, durcheinander und lassen den einzelnen eher verwirrt denn aufgeklärt zurück. Die konkreten Alltagsformate der einzelnen Menschen in den Industrieländern induzieren viele neue Stresssituationen, selbst schon bei Kindern, Jugendlichen und Studierenden, die das aktuelle Bildungssystem zu überfordern scheinen.

VERANTWORTUNG DER HOCHSCHULEN

In einem solchen Kontext müssen sich Hochschulen, auch die Hochschulen für angewandte Wissenschaften, neu orientieren und sortieren.

Traditionellerweise verbindet man mit Hochschulen ‚Wissenschaft‘, ‚wissenschaftliches Denken und Arbeiten‘, und es gibt zahlreiche juristische und organisatorische Abläufe, die diese Wissenschaftlichkeit absichern sollen. Aus Sicht des einzelnen Studierenden erscheint eine Hochschule aber immer mehr wie eine ‚Service-Maschine‘, die eine Vielfalt von Studienprogrammen anbietet, die jeweils kleine Ausschnitte aus dem großen Wissenskosmos vorstellt, die — in der Regel — weder mit dem Rest der Wissenschaft noch mit der Breite der Gesellschaft irgendetwas zu tun haben. Wichtiges Detail: der einzelne Studierende als ‚Person‘, als ‚Mensch‘ mit all seinen Facetten und heutigen Belastungen kommt in diesen Programmen normalerweise nicht vor. Dies ist ‚Privatsache‘. Da muss jeder auf eigene Faust schauen, wie er das ‚regelt‘.

Der wachsende ‚Veränderungsdruck‘ in der gesamten Gesellschaft, die Zersplitterung der kognitiven Landkarte in viele Fragmente, die nicht mehr zusammen zu passen scheinen, die allseitige Zunahme an körperlichen und psychischen Erkrankungen, kann man, wenn man will, als Anregung, als Herausforderung verstehen, den Ort ‚Hochschule‘ neu zu formen, um diesen greifbaren Defiziten mehr gerecht zu werden.

ERSTER ANTWORTVERSUCH

Eine umfassende Antwort würde möglicherweise in eine sehr grundlegende Reform der Hochschulen münden. Ob, wann und wie dies geschieht, weiß momentan sicher niemand. Aufgrund einer besonderen Situation an der Frankfurt University of Applied Sciences kam es im Frühjahr 2017 zu einer Initiative (Dievernich, Frey, Doeben-Henisch), die zum Start eines offiziellen Lehrmoduls ‚Meditation als kulturelle Praxis‘ führte, das sich seitdem inhaltlich immer mehr zur Thematik ‚Meditation und Wissenschaft‘ hin entwickelt hat.

Es soll hier einführend beschrieben werden, wie das Projekt so zwei unterschiedlich erscheinende Themen wie ‚Meditation‘ einerseits und ‚Wissenschaft und Technologie‘ andererseits miteinander zu einer Lehrveranstaltung mit forschendem Charakter verbinden kann. Zudem sollte es einen Beitrag zur personalen, menschlichen Situation der Studierenden leisten.

INTERDISZIPLINÄRES FELD STUDIUM GENERALE

Vorweg zu den Details der nachfolgenden Erläuterungen muss festgestellt werden, dass der Start zu dem neuen, innovativen, Projekt ‚Meditation als kulturelle Praxis‘ (oder dann künftig eher ‚Meditation und Wissenschaft‘) nur möglich war, weil es in der Hochschule schon seit 2005 die alle Fachbereiche und Studienprogramme übergreifende Einrichtung eines ‚interdisziplinären Studium Generale (ISG)‘ gibt. In diesem Rahmen können nahezu beliebige Themen von Dozenteams aus mindestens 2 – eher 3 — verschiedenen Fachbereichen angeboten werden, und die Studierenden aus allen Bachelorstudiengängen können sich dafür anmelden. Dieser kreative Raum innerhalb der ansonsten ziemlich ‚hart verdrahteten‘ Lehre war schon vielfach ein Ort für neue, innovative, und vor allem teamorientierte Lernerfahrungen. Doch auch hier gilt: was nützen die besten Optionen, wenn es zu wenig kreative und mutige Dozenten und Studierende gibt. Freiräume sind ‚Einladungen zu‘ aber keine ‚Garantien für‘ eine kreative Nutzung.

PHÄNOMEN MEDITATION

Das Thema ‚Meditation‘ blickt zurück auf eine Tradition von mehr als 2000 Jahren, mit vielen unterschiedlichen kulturellen Ausprägungen, und erlebt seit Jahren eine starke Wiederbelebung in von Technologie geprägten Gesellschaften, deren Vielfalt kaum noch zu überschauen ist. Im Kern wird das Thema Meditation aber begleitet von einer Art Versprechen, dass jemand, der meditiert, daraus sowohl für seinen Körper als auch für seine Psyche ‚positive Wirkungen‘ ziehen kann.

Meditieren heißt, dass man mit seinem Körper etwas konkretes ‚tut‘, dass man konkrete Zustände seines Körpers konkret ‚erlebt‘, und dass man dieses Tun und Erleben ‚interpretieren‘ kann, aber nicht muss. Sowohl zu den konkreten praktischen Formen des Meditierens wie auch zu den möglichen Interpretationen gibt es ein breites Spektrum an Vorgehensweisen und Deutungen.

Was kann ein einzelner Mensch tun, wenn er sich mit Meditieren beschäftigen will? Was kann er tun, wenn er in einer von Wissenschaft und Technik geprägten Welt mit dem Phänomen Meditation konfrontiert wird? Welche Rolle spielen die ‚Deutungsmodelle‘? Warum gibt es überhaupt so viele unterschiedliche Deutungsmodelle? Was bedeutet es, dass diese Deutungsmodelle in so vielen verschiedenen Sprachen aus unterschiedlichen kulturellen Kontexten vorliegen?

DEUTUNGSMODELLE UND WISSENSCHAFT

Die modernen empirischen Wissenschaften sind im Laufe der Jahrhunderte (mit langen Vorlaufzeiten von bis zu 2000 Jahren!) entstanden als eine neue Art von ‚Wahrheitsbewegung‘: wie kann man in der Vielfalt der Erfahrungen und des Wissens jene ‚Bestandteile‘ herausfinden, die ‚wirklich Geltung‘ haben im Unterschied zu jenen Bestandteilen, die sprachlich zwar beschrieben und behauptet werden, aber nur schwer bis gar nicht als ‚gültig‘ erwiesen werden können? In einem mühsamen Prozess, der in den ca. letzten 400 Jahren zu seiner heutigen Form fand, zeigte sich, dass das Festhalten an intersubjektiv überprüfbaren ‚Standards‘ intersubjektiv nachvollziehbare und reproduzierbare ‚Messoperationen‘ mit ‚Messwerten‘ ermöglichte, was wiederum ganz neue explizite ‚Arbeitshypothesen‘, ‚Modelle‘ und dann ‚Theorien‘ ermöglicht.

KEIN GEGENSATZ ZWISCHEN WISSENSCHAFT UND ‚GEIST‘

Während das Projekt ‚empirische Wissenschaft‘ lange Zeit als Gegensatz zur klassischen Philosophie und den sogenannten Geisteswissenschaften erschien, führten die Ergebnisse der ca. letzten 150 Jahre mehr und mehr dazu, dass man die Position des ‚Geistes‘, der ‚Geisteswissenschaften‘ im Rahmen der modernen empirischen Theorien schrittweise so ‚einordnen‘ kann, dass die Geisteswissenschaften einerseits im Rahmen der empirischen Wissenschaften integriert werden können, andererseits aber die Besonderheit des Menschen (als Teil des gesamten biologischen Lebens) nicht verschwindet. Statt dass die Besonderheit des Geistigen und des Lebens verschwindet, scheint es eher so zu sein, dass die Besonderheit des Geistigen als Teil des Biologischen eine noch viel größere Wucht erhält als je zuvor. Diese neue mögliche Fusion von empirischen Wissenschaften und ‚Theorie des Geistigen‘ wird bislang noch kaum genutzt. Zu tief haben sich traditionelle Begrifflichkeiten als kulturelle Muster in die Gehirne ‚eingegraben‘; solches zu ändern dauert erfahrungsgemäß viele Generationen.

KANT 2.0

Während der Philosoph Immanuel Kant (1724 – 1804) eingesperrt in sein Bewusstsein, ohne Sprachkritik und ohne Evolutionstheorie, die Antworten auf seine Fragen nur als abstrakte Postulate formulieren konnte, nach denen u.a. Raum und Zeit ‚konstitutiv‘ für menschliches Erkennen sind, ohne dass er dies weiter erklären konnte, hat die moderne Wissenschaft nicht nur ein Stück mehr erklären können, wie überhaupt Sprache funktioniert, sondern zusätzlich wie die Strukturen unserer Wahrnehmung, unseres Gedächtnisses, unseres Denkens und vieles mehr von den Strukturen unseres Gehirns in einem bestimmten Körper geprägt sind, die sich wiederum in einer Entwicklungsgeschichte von vielen Milliarden Jahren herausgebildet haben. Wir wissen heute, dass das ‚Bewusstsein‘ nur einen quantitativ verschwindend kleinen Teil des Gesamtkörpers repräsentiert; das meiste ist ‚unbewusst‘ (die Gehirnzellen haben am ganzen Körper einen Anteil von ca. 0.15%, das ‚Bewusstsein‘ wiederum ist nur mit einem Teil der Gehirnzellen assoziiert…). Zusätzlich hat die Wissenschaft ansatzweise aufgedeckt, wie das Gehirn die aufgenommenen Sinnesreize und Körperreize im Kontext von Wahrnehmung, Gedächtnis und Lernen ‚induktiv‘ zu nahezu beliebig komplexen Mustern verrechnen kann, die für uns dann die Konzepte/ Kategorien bilden, mit denen wir die Welt und und uns selbst anschauen. Da diese komplexen Strukturbildungsprozesse durch kommunikative Interaktionen (speziell auch sprachlichen) beeinflusst werde können, können sich Gehirn-induzierte und Kultur-induzierte Muster mischen, vermischen, und so komplexe Deutungsmuster entstehen lassen, deren ‚Gültigkeitsgehalt‘ stark variieren.

REFORMBEDARF DER WISSENSCHAFTEN

Während die empirischen Wissenschaften (und darauf aufbauen die Ingenieurskunst), in den letzten Jahrhunderten viele Pluspunkte sammeln konnten, zeigen sich im bisherigen Konzept und der Praxis von Wissenschaft dennoch gewisse Schwachpunkte: im Rahmen des empirischen Paradigmas können zwar erfolgreiche empirische Experimente und partielle Modelle entwickelt werden, aber die bisherigen empirischen Konzepte reichen nicht aus, um (i) die vielen einzelnen Theorien zu ‚integrieren‘, und (ii) die bisherigen Konzepte sind nicht in der Lage, den ‚Theoriemacher‘ und ‚Theoriebenutzer‘ in der Theorie mit zu repräsentieren. Gerade in den Ingenieurwissenschaften mit ihren immer komplexeren Projekten führt dies zu grotesken Verzerrungen und vielfachen Projektabstürzen. In den empirischen Wissenschaften ist dies nicht wirklich besser, nur fällt es dort nicht so direkt auf. Allerdings kann man zwischen einer rein physikalischen Betrachtungsweise und einer biologischen immer größere Probleme entdecken.

RÜCKKEHR DER PHILOSOPHIE

An dieser Stelle wird klar, dass das historisch ‚ältere‘ Projekt einer umfassenden Philosophie noch nicht ganz ausgedient hat. Während die Philosophie in der oftmals selbst gewählten Abstinenz von Wissenschaft (seit ca. 1500 Jahren) mehr und mehr den Kontakt zur Welt verlor, kann Philosophie in enger Kooperation mit Wissenschaft dieser helfen, ihre fehlende ‚Einheit‘ zurück zu gewinnen. Das neue Paradigma lautet daher ‚Philosophie und Wissenschaft‘ als grundlegendem Denkmuster, erweitert, konkretisiert in der ‚Ingenieurskunst‘. Diese liefern den Rahmen, in dem sich die Freiheit und Kreativität des Lebens entfalten und gestalten kann.

MEDITATION UND WISSENSCHAFT

Schematisches Modell für eine philosophisch begründete empirische Weltsicht am Beispiel des Meditierens
Schematisches Modell für eine philosophisch begründete empirische Weltsicht am Beispiel des Meditierens

Diese neuen, spannenden Entwicklungen in Philosophie und Wissenschaft eröffnen auch neue, interessante Zugangsweisen im Umgang mit dem empirischen (und historisch überlieferten) Phänomen der Meditation. Im folgenden Text (siehe auch die Schaubilder) wird versucht, aufzuzeigen, wie ein modernes Philosophie-Wissenschafts-Paradigma eine aktive Auseinandersetzung mit dem Phänomen leisten könnte.

Für diese aktive Beschäftigung mit dem Phänomen Meditation wird angenommen, dass sich grob vier Perspektiven unterscheiden lassen:

  1. REALE PRAXIS: Meditation wird in einer bestimmten Umgebung praktiziert von einem Menschen, der dabei mit seinem Körper etwas tut. Dies kann zu Veränderungen an seinem Körper führen wie auch in seinem Erleben.

  2. BEOBACHTEN: Vor der Praxis kann man in Form von Fragen festlegen, auf welche Art von Phänomenen man vor, während und nach der Meditation achten will. Dazu kann man festlegen, in welcher Form die Beobachtung ausgeführt werden soll und wie man die Beobachtungswerte/ -daten protokollieren will. Sie sollten unter festgelegten Bedingungen für jeden potentiellen Beobachter reproduzierbar sein. Ort, Zeit, Umstände usw. sollten aus den Protokollen entnehmbar sein.

  3. DEUTUNG: Einzelne Beobachtungswerte repräsentieren isolierte Ereignisse, die als solche noch keine weiterreichenden Deutungen zulassen. Die einfachste Form von Deutungen sind einfache Beziehungen zwischen verschiedenen Beobachtungswerten (räumliche, zeitliche, …). Sobald mehr als eine Beziehung auftritt, ein Beziehungsbündel, kann man Beziehungsnetzwerke formulieren, Modelle, in denen Wechselbeziehungen zwischen verschiedenen Faktoren sichtbar werden. Wahrheitsfähig werden Deutungen aber erst, wenn sie als Theorie formuliert werden (Strukturen, Beziehungen, Dynamiken, Folgerungsbegriff, …), erst dann können sie wahr oder falsch sein, können sie möglicherweise falsifiziert werden, weil man Voraussagen ableiten kann. Generell kann man für Deutungen noch folgende Eigenschaften festhalten:

    1. Die einfachste und historisch häufigste Form von Deutungen sind Texte in ‚Normalsprache‚, eventuell angereichert mit Bildern oder anderen Artefakten.

    2. In modernen Versionen von Deutungen finden sich zusätzlich mehr und mehr voll definierte Diagramm-Sprachen bis hin zu animierten Bildfolgen

    3. Für die eigentliche, harte Modell- und Theoriebildung haben sich aber formale Sprachen durchgesetzt bzw. eine konsequent mathematische Darstellungsweise, ergänzt um eine explizite Logik, die beschreibt, wie man korrekte Folgerungen aus einer gegebenen Theorie gewinnen kann.

    4. Quer zu den Darstellungsweisen Text, Bild und Formel gibt es die zusätzliche Dimension einer dynamischen Repräsentation in Form von Ablaufschilderungen, Bildfolgen, Computer-Simulationen, oft noch erweitert um Interaktionen, die dem Ganzen einen spielerischen Charakter verleihen.

    5. ÜBERLIEFERUNG: Zu vielen (den meisten…) Phänomenen finden sich Überlieferungen aus früheren Zeiten. Die Überlieferungsgeschichte ist unterschiedlich gut, bisweilen sehr schlecht. Die Kontexte und die verwendeten sprachlichen sowie bildhaften Mittel setzen Interpretationsbeziehungen voraus, die heute gar nicht oder nur partiell bekannt sind. Die konkreten Umstände der Überlieferung, die beteiligten Personen, deren Innenleben, sind oft nur wenig bis gar nicht bekannt. Die Einbeziehung von Überlieferungen ist daher mit großer Vorsicht zu sehen. Dennoch können sie wertvolle Hinweise liefern, die man neu überprüfen kann.

  4. REFLEXION: Die bislang genannten Themen ‚Reale Praxis – Beobachtung – Deutung‘ kann man als solche ‚definieren‘, ‚beschreiben‘ und anwenden. Allerdings setzen alle diese Themen einen übergreifenden/ vorausgehenden Standpunkt voraus, in dem entschieden wird, ob man sich überhaupt einer Realität zuwenden will, welcher Realität, wie, wie oft usw. Ebenso muss vor der Beobachtung geklärt werden, ob man überhaupt beobachten will, wie, wann, wie oft, was man mit den Beobachtungswerten dann tun will, usw. Und entsprechend muss man vor Deutungsaktionen entscheiden, ob man überhaupt deuten will, wie, was, usw. Diese Dimension der vorbereitenden, begleitenden, und nachsinnenden Überlegungen zum gesamten Prozess wird hier Reflexion genannt. Als Menschen verfügen wir über diese Fähigkeit. Sie wird in all unserem Tun, speziell dann auch in einem wissenschaftlichen Verhalten, nicht direkt sichtbar, sondern nur indirekt durch die Art und Weise, wie wir mit der Welt und uns selbst umgehen. Es ist irgendwie die gesamte Vorgehensweise, in der sich ein ‚Plan‘, verschiedene ‚Überlegungen‘, verschiedene ‚Entscheidungen‘ auswirken und damit ausdrücken können. Und ein wissenschaftlicher Umgang mit der Welt und sich selbst setzt insofern bestimmte Verhaltensformate voraus. Wissenschaft im üblichen Sinne ist die geordnete Umsetzung eines solchen Planes. Die Analyse und das Design eines solchen wissenschaftlichen Handlungsformates leistet idealerweise die Wissenschaftsphilosophie. Den kompletten Rahmen für jedwede Art von Vorgehen, das Nachsinnen ob und wie überhaupt, die Klärung von Motiven und Voraussetzungen, die Methode einer Wissenschaftsphilosophie, und vieles mehr, das ist die originäre Aufgabe der Philosophie. Insofern ist die Domäne der vor- und übergreifenden Reflexion die Domäne der Philosophie, die darin in einer methodisch engen Weise mit jedweder Form von Wissenschaft verknüpft ist.

Die hier aufgelisteten Punkte bilden eine minimale Skizze, die weitere Kommentare benötigt.

BEOBACHTUNG: SUBJEKTIVITÄT – OBJEKTIVITÄT

Die Verschränkung des 'Objektiven' mit dem 'Subjektiven' aufgrund des heutigen Kenntnisstands
Die Verschränkung des ‚Objektiven‘ mit dem ‚Subjektiven‘ aufgrund des heutigen Kenntnisstands

Setzt man obigen Rahmen voraus, dann scheint es hilfreich, einen Punkt daraus hier speziell aufzugreifen: das Verhältnis von Subjektivität und Objektivität, das sich nahezu durch die gesamte Geschichte der Philosophie und der Auseinandersetzung zwischen Philosophie und empirischer Wissenschaft zieht. Und gerade im Fall des Meditierens gewinnt diese Unterscheidung eine besondere Bedeutung, da neben jenen Wirkungen des Meditierens, die sich äußerlich und in Körperfunktionen direkt (empirisch, objektiv) beobachten (messen) lassen, es viele (die meisten) Wirkungen gibt, die sich nur ‚im Innern‘ (subjektiv) des Meditierenden erfassen lassen. Wie geht man damit um?

Aufgrund der Erkenntnisse der empirischen Wissenschaften können wir heute relativ klar sagen, dass das persönliche Erleben an das jeweilige, individuelle Bewusstsein (‚consciousness‘) geknüpft ist, das wiederum – in einer noch nicht genau rekonstruierten Weise – eine Funktion des individuellen Gehirns ist. Das Gehirn wiederum sitzt in einem Körper und wird von diesem neben der notwendigen Energie mit allerlei Erregungsmustern (neuronale Signale) versorgt. Einige stammen von Sinnesorganen, die verschiedene energetische Ereignisse er Außenwelt (Licht, Schall, Geruch, …) in neuronale Signale übersetzen, andere vom Körperinnern, andere vom Gehirn selbst. Das Gehirn weiß also von der Außenwelt ‚direkt‘ nichts, sondern nur in dem Maße, als ihm diverse neuronale Signale übermittelt werden, die in sich schon eine erste Übersetzung darstellen. Aus all diesen Signalen errechnet das Gehirn kontinuierlich ein Netzwerk von repräsentierenden Ereignisstrukturen, die zusammen ein ‚komplexes (dynamisches) Bild‘ des aktuellen Zustands ergeben. Dieses Zustandsbild ist beeinflusst von ‚vergangenen Bildern‘ (Gedächtnis), von unterschiedlichen ‚Abstraktionsprozessen‘, von unterschiedlichen ‚Erwartungswerten‘ und ‚Bewertungen‘, um as Mindeste zu sagen. Wie viel von den kontinuierlichen Berechnungen des Gehirns tatsächlich ins ‚Bewusstsein‘ gelangt, also ‚bewusst‘ ist, lässt sich nicht klar sagen. Sicher ist nur, dass das, was uns bewusst ist, in jedem Fall eine Auswahl darstellt und es insofern – aus Sicht des Bewussten – ein Unbewusstes gibt, das nach groben Schätzungen erheblich größer ist als das Bewusste.

Philosophen nennen die unterschiedlichen Inhalte des Bewusstseins ‚Phänomene [PH]‘ (zumindest in jener Richtung, die sich phänomenologische Philosophie‘ nennt). Innerhalb dieser Menge der Phänomene kann man anhand von Eigenschaften unterschiedliche Teilmengen der Phänomene unterscheiden. Eine sehr wichtige ist die Teilmenge der ‚Phänomene von den externen Sensoren (PH_W_EXT)‘. Durch ihren Bezug zu unterstellten Objekten der Außenwelt und zusätzlich unterstützt durch Phänomene einer realen Kommunikation lässt sich eine Art ‚Korrelation‘ dieser Phänomene mit unterstellten Objekten der Außenwelt in einer Weise herstellen, die sich mit anderen ‚Beobachtern‘ ’synchronisieren‘ lässt. Sofern dies gelingt (z.B. durch vereinbarte Formen des Messens mit vereinbarten Standards) bekommen diese Phänomene PH_W_EXT einen besonderen Status. Wir nennen sie empirische Phänomene weil sie – obgleich sie weiterhin Phänomene bleiben und damit subjektiv sind – sich in einer Weise mit externen Ereignissen koppeln lassen, die sich in der Reaktion anderer Beobachter auch reproduzieren lässt. Durch diese ‚Rückkopplung‘ gelingt es einem Gehirn, seine ‚locked-in‘ Situation partiell zu überwinden. Daher kommt den als empirisch qualifizierbaren subjektiven Phänomene eine ganz besondere Rolle zu.

Vor diesem Hintergrund ist es nicht erstaunlich, dass die modernen empirischen Wissenschaften durch ihren methodischen Bezug auf die empirischen subjektiven Phänomene sich eine Beobachtungsbasis geschaffen haben, der ein maximaler Erfolgt deswegen vergönnt war, weil tatsächlich nur jene Phänomene Berücksichtigung fanden, die im Prinzip allen Beobachtern in gleicher Weise zugänglich sind.

Eine unkritische – was hier heißt: eine un-philosophische – Handhabung des empirischen Auswahlprinzips kann aber zu unerwünschten Ergebnissen führen. Einer der größten Fehler der Wissenschaftsgeschichte ist wohl (und da hat die Philosophie simultan auch versagt), aus der methodisch sinnvollen Einschränkung auf die subjektiven empirischen Phänomene zu schließen, dass alle anderen (subjektiven) Phänomene grundsätzlich unwichtig oder gar irreführend seien. Diese Folgerung war und ist sachlich völlig haltlos und in ihrer Wirkung verheerend.

Es ist ja nicht nur so (siehe den vorausgehenden Text), dass die empirisch genannten Phänomene weiterhin rein subjektive Phänomene bleiben, sondern das Bewusstsein als Ganzes ist die primäre Quelle für jede Form von Erkenntnis, deren der homo sapiens fähig ist! Die neueren Erkenntnisse zur gleichzeitigen Existenz eines sehr großen Unbewussten setzen das Phänomen des Bewusstseins ja nicht ‚außer Kraft‘, sondern, ganz im Gegenteil, es stellt sich verschärft die Frage, warum es in der Evolution zur Ausprägung des Bewusstseins unter Voraussetzung des Unbewussten kam? Was ist der ‚Vorteil‘ für ein biologisches System zusätzlich zum gewaltigen Komplex der ‚unbewussten Maschinerie‘ des Körpers und des Gehirns noch die Form des ‚Bewusstseins‘ zu besitzen? Bei einem sehr groben Vergleich der Zeiträume von Lebewesen ‚mit‘ und ‚ohne‘ Bewusstsein ist unübersehbar, dass es erst mit der Verfügbarkeit eines hinreichend differenzierten Bewusstseins zu den überaus komplexen und beständig weiter anwachsenden komplexen Verhaltensleistungen ganzer Populationen gekommen ist. Und aus der Tatsache, dass sich nur ein kleiner Teil der Phänomene des Bewusstseins direkt über die Außenwelt mit anderen Beobachtern korrelieren lässt, zu folgern, dass alle anderen Phänomene ‚irrelevant‘ seien, ist weder sachlich noch logisch irgendwie begründbar. Mit dem heutigen Wissensstand müssten wir eher das Gegenteil folgern: eine neue bewusste und herzhafte Hinwendung zu jener reichen Phänomenwelt, die ein biologisches System hervorbringen kann, die sich aber (bislang) einem direkten empirischen Zugriff entziehen.

In diesem Zusammenhang ist auch zu beachten, dass eine ‚Erklärung‘ von subjektiven Phänomenen durch Rückgriff auf ausschließlich direkt korrelierbare physiologische Eigenschaften methodisch fragwürdig ist und in der Regel genau das nicht erklärt, was erklärt werden sollte.

Diese wenigen ersten Gedanken können vielleicht deutlich machen, dass der Anteil subjektiver Phänomene im Kontext des Phänomens ‚Meditation‘ philosophisch und wissenschaftlich kein unüberwindbares Hindernis darstellt, sondern eher eine Einladung, die Forschungen zu vertiefen und zu verbessern.

WIE PRAKTISCH VORGEHEN?

Was bedeutet dies nun für ein praktisches Vorgehen? Wie kann man dies im Rahmen eines konkreten Lehrmoduls umsetzen? Hier ein erster Entwurf:

  1. Als primärer Referenzpunkt sollen konkrete praktische Meditationsübungen dienen, von denen unterschiedliche Formen vorgestellt und dann unter Anleitung ausprobiert werden können. Dies kann in jeder Sitzung und außerhalb, im privaten und öffentlichen Bereich geschehen.

  2. Damit die Perspektive der Wissenschaft und Philosophie zur Wirkung kommen kann, sollte von Anfang an diese Perspektive vorgestellt und demonstriert werden, wie diese sich auf das konkrete Beispiel Meditation anwenden lässt. Neben einer allgemeinen Einführung müsste konkret erläutert werden, welche Fragen sich stellen lassen, und wie eine Beobachtung aussehen könnte. Jeder für sich und dann auch im Team versucht eine Art ‚Logbuch‘ zu führen, in dem alle für die Beobachtung wichtigen Daten eingetragen werden.

  3. Nachdem erste Beobachtungen vorliegen, kann man gemeinsam überlegen, ob und wie man solche Daten ‚deuten‘ könnte: welche Art von Mustern, Regelmäßigkeiten deuten sich an? Gibt es Unterschiede in den verschiedenen Logbüchern? Welchen Status haben solche Deutungen?

  4. Die Schritte (1) – (3) kann man mehrfach wiederholen. Im Alltagsleben kann dies Jahre dauern, viele Jahre. Im Lehrbetrieb hat man nur ca. 2-3 Monate Zeit, um zumindest den grundlegenden Ansatz zu vermitteln.

  5. Nachdem ein erster Eindruck vermittelt wurde, wie man selber sowohl konkret meditieren wie auch empirisch seine Erfahrungen analysieren kann, kann man den individuellen Prozess in größere Kontexte einbetten wie (i) Beispiele von traditionellen Deutungen anhand von prominenten Texten aus der Überlieferung oder (ii) Beispiele aus der Arbeitsweise der verhaltensbasierten Psychologie und der etwas differenzierteren Psychoanalyse oder (iii) Beispielen aus der Philosophie und der Wissenschaftsphilosophie.

Wie man aus diesem kleinen Aufriss entnehmen kann, stellt ein einzelnes Modul nur ein minimales Kick-Off dar, für eine allererste Idee, wie es gehen könnte. Im Grunde genommen bräuchte man für jeden der genannten Punkte (i) – (iii) ein eigenes Modul, und selbst dies wäre nur ein Tropfen auf den heißen Stein. Hieran kann man erahnen, wie schwierig die Ausbildung einer eigenen konkreten Selbsterfahrungs-Praxis mit einer wissenschaftlichen Begleitung eigentlich ist, und wir dürfen uns nicht wundern, wenn so viele Menschen heute sich im Strom der Ereignisse schnell ‚verloren‘ vorkommen… sogenannte ‚Patentantworten‘ sind nicht notwendigerweise ‚richtige Antworten’…

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

OBJEKTIVE WERTE? Diskussion von Stace’s ’Religion and the Modern Mind’ Teil 2: Kap.3

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062
10.Juni 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

 

ÜBERBLICK

Der Philosoph W.T.Stace ist in diesem Blog bekannt durch die Besprechung seines Buches ’Mysticism and Philosophy’ [1]. Er hatte aber schon 1952 [2] ein interessantes Buch veröffentlicht, in dem er den Übergang vom mittelalterlich-religiösen Weltbild zum modernen, von der Wissenschaft geprägten Weltbild, skizziert hatte. Dies ist im Jahr 2018 von besonderem Interesse, da wir zur Zeit erleben, wie das wissenschaftliche Weltbild sich selbst in eine tiefe Krise stürzt und die ’unverdauten Reste’ vor- wissenschaftlicher Weltbilder wieder erstarken. Krisen können bedrohlich wirken, sie können zerstörerisch sein, sie können aber auch als Chance begriffen werden, die Mängel des bisherigen wissenschaftlichen Weltbildes besser zu verstehen. Letzteres kann möglicherweise der Ausgangspunkt für eine ’Erneuerung’ des wissenschaftlichen Denkens bilden, das seine Schwächen durch ein verbessertes Selbstverständnis überwinden kann. Im Teil 2 wird Kap.3 besprochen (In Teil 1 wird fehlerhaft von Kap.1-3 gesprochen; tatsächlich waren es Kap.1-2)

I. KAPITEL 3

Stace Kap.3 (1952), rekonstruiert als Mind-Map von G.Doeben-Henisch]{Stace Kap.3 (1952), rekonstruiert als Mind-Map von G.Doeben-Henisch
Stace Kap.3 (1952), rekonstruiert als Mind-Map von G.Doeben-Henisch

In diesem Kapitel 3 kontrastiert Stace das mittelalterliche (christliche) mit dem neuzeitlich- wissenschaftlichen Denken zu den Themen ’Gott als letzte Ursache’, ’Teleologisches Ziel der Welt’ und ’Moralische Ordnung (Werte)’ (vgl. das Schaubild 1).

Während das mittelalterlich-christliche Denken von einer bestehenden moralischen Ordnung ausgeht, die in einer alles umfassenden Absicht eingebettet ist, die letztlich auf einen alles ermöglichenden ’Gott’ zurückgeht, beginnt spätestens im 16.Jahrhundert eine neuzeitlich-wissenschaftliche Sicht der Welt Raum zu greifen. In dieser auf nachweisbaren kausalen Beziehungen gründenden Sicht relativieren sich alle Dinge zu überschaubaren kausalen Netzwerken; Aussagen über Eigenschaften und Beziehungen, die über das direkt Kausal-Nachweisbare hinausgehen verlieren ihre Akzeptanz. ’Werte’ werden zurück gebunden an konkrete Menschen und deren individuellen Befindlichkeiten, die man als ’relativ’ betrachtet, nicht mehr ’absolut’. Die Ausdehnung auf größere ’Gruppen’ (Stämme, Völker, …) hebt die grundlegende Relativität nicht auf.

Eine schwer kontrollierbare Wendung bringen Vorstellungen von einer ’kosmischen Absicht’, einem ’universellen Geist’, sofern diese sich nur ’indirekt (immanent)’ manifestieren, womöglich noch verschattet von unserem Un-Bewussten, das einen viel größeren Bereich unseres Körpers abdeckt als der bewusste.

II. DISKURS

Die klare Konturierung von mittelalterlich-christlichem und neuzeitlich-wissenschaftlichem Denken zu den genannten Themen geht – wie Stace selbst bemerkt – auf Kosten von Genauigkeit und vielen Details. Ohne die vielen Fragen, die sich hier stellen, schon zu diskutieren (siehe nachfolgende Teile), sei nur auf folgende Punkte hingewiesen.

A. Gefühle

Gefühle sind streng genommen nicht einfach ’subjektiv’, sondern haben in der Regel ’objektive Ursachen’, die auf objektive Prozesse verweisen. Manche dieser Prozesse sind komplexer Natur und erschließen sich erst bei der Analyse von ’Zeitreihen’.

In neueren Spielarten der christlichen Spiritualität und Mystik quasi parallel zum Entstehen des neuzeitlichen Denkens war eine solche Sicht üblich (z.B. in der Spiritualität des Jesuitenordens). Die Hintergrundannahme, dass es einen ’Gott’ gibt, war das mittelalterliche Erbe. Durch die Verknüpfung mit einem empirischen Erfahrungsansatz des eigenen Fühlens, wodurch Gott mit Menschen direkt interagieren kann, nicht ’kausal-deterministisch’, sondern ’kausal-nicht deterministisch’ (’sine cause’), in Abstimmung mit anderen Menschen und dem übrigen Weltwissen, veränderte sich aber der zuvor unnahbar transzendente Begriff Gottes zu einem nahbaren, partiell empirisch kontrollierbaren Begriff. Diese eigentlich revolutionäre Veränderung der christlichen Spiritualität wurde aber bis heute dadurch verdeckt, dass die kirchliche hierarchische Autorität mit ihrer papalen Verfassung die Anerkennung von individuellen Erfahrungen als ’heilsrelevant’ grundsätzlich verweigert. Dies ergibt sich nicht nur aus dem kirchenrechtlich fixierten Sachverhalt, dass alle offiziellen spirituellen Gemeinschaften dem jeweiligen Papst einen absoluten Gehorsam schulden, sondern grundlegend aus der kirchlichen Lehre, dass es nach dem Tod Jesu keine neuen öffentlichen Offenbarungen Gottes mehr geben wird.

(Anmerkung 2: Im offiziellen Text des II.Vatikanischen Konzils von 1965 lautet die Formel dazu ”… et nulla iam nova revelation publica expectanda est ante gloriosam manifestationem Domini nostri Iesu Christi”.(Siehe: [3], Kap.1, Nr.4) )

 

B. Kausale Erklärungen

Sosehr das neuzeitliche wissenschaftliche Denken mit der Vorstellung verknüpft wird, dass seit Galileo und Newton (um nur die prominentesten Namen zu nennen), das wissenschaftliche Denken ein ’kausales Denken’ sei, das sich in jedem Einzelfall empirisch bestätigen lassen können soll, so falsch, oder zumindest ’grob vereinfachend’ ist diese Ansicht.

Was die moderne empirischen Wissenschaften haben, das ist eine klare Trennung zwischen ’Messwerten’ und ’interpretierenden Modellen’. Damit einher geht aber auch die wachsende Einsicht, dass es keinen irgendwie gearteten Automatismus gibt, um von Messwerten zu einem geeigneten interpretierenden Modell zu kommen. Rein formal ist die Menge der möglichen Modelle quasi unendlich. Nur durch die Rückkopplung des unendlich formalen Raumes an ein konkretes, endliches Gehirn mit meist endlich vielen, sehr überschaubaren Vorstellungsmustern zum Zeitpunkt der Theoriebildung, verringert den Raum des ’Denkbaren’ dramatisch; doch ist dieser reduzierte Denkraum immer noch ’groß’.

Welches nun tatsächlich ein ’angemessenes Modell’ ist, das sich experimentell ’bestätigen’ lässt, dafür gibt es keine absolute Kriterien, sondern muss ’ausprobiert’ werden (’trial and error’). Dass es hier zu schweren Fehlern kommen kann, hat die Geschichte mehrfach eindrucksvoll gezeigt, und liegt auch in der Natur der Sache. Der einzige ’harte’ Referenzpunkt ist die ’erfahrbare Realität’, und diese ist, so wie wir sie vorfinden, inhärent ’unbekannt’, ’komplex’, ’mindestens endlich unendlich groß’. Kein menschlicher Forscher hat ’vorweg’ (’a priori’) ein irgendwie geartetes Wissen von dem großen Ganzen. Der Kampf um das ’Unbekannte’ erfordert höchsten Einsatz und ist ohne massiven und kreativen Einsatz von ’Fehlern’ (!) nicht zu gewinnen.

Wenn man also ein ’absolutes’ Wissen ablegt und sich auf das ’Objektive’ verlegen will, dann gerät man zunächst unweigerlich in das Fahrwasser von ’Relativität’. Andererseits, diese wissenschaftliche Relativität ist deutlich zu unterscheiden von ’Beliebigkeit’! Die Objektivität als primäre Form der Wirklichkeit für wissenschaftliche Erkenntnis wird letztlich als eine ’absolute Größe’ angenommen, die wir mit unseren beschränkten Mitteln aber nur häppchenweise erkenn können. Doch sind diese ’Häppchen’, sofern sie die unterstellte ’absolute Objektivität’ treffen, in diesem angenommenen Sinn auch ’absolut objektiv’, allerdings im Modus einer ’relativen Absolutheit’. Während man in einer allgemeinen Beliebigkeit nichts voraussagen kann, erlaubt eine ’relative Absolutheit’ (die wissenschaftliche Objektivität) weitreichende Voraussagen im Rahmen der Übereinstimmung mit der relativen Absolutheit und im Rahmen der Eigenart der erkannten Sachverhalte. Diese Bewegung von der relativen Absolutheit der aktuellen Erkenntnis zu einer immer ’absoluteren Absolutheit’ stellt keinen vollen Gegensatz dar zu  einem alles bestimmenden ’kosmischen Prinzip’.

Allerdings verwandelt die relative Absolutheit alle Menschen in gleicherweise Suchende. Grundsätzlich erlaubt diese Art der Erkenntnissituation keine ’absoluten Führer’, auch irgendwelche ’Klassen’ oder ’Kastenbildungen’ sind in diesem Kontext ’irrational’.

QUELLEN

[1] W. Stace, Mysticism and Philosophy, 1st ed. 2 Los Angeles (CA): Jeremy P.Tarcher, Inc., 1960.
——, Religion and the Modern Mind, 1st ed. Westport (Connecticut): Greenwood Press, Publishers, 1952, reprint 1980 from Lippincott and Crowell, Publishers.
[3] H. S. Brechter and et.al, Eds., II. Vatikanisches Konzil. Dogmatische Konstitution über die Göttliche Offenbarung, 2nd ed. Freiburg – Basel – Wien: Herder Verlag, 1967.

Zur Fortsetzung geht es HIER.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

DER VERSTECKTE BEOBACHTER UND AKTEUR. Wo Denken sich verabschiedet. Notiz

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
12.April 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: cagent

Philosophie des Beobachters - Vogelperspektive
Philosophie des Beobachters – Vogelperspektive

DER  BEOBACHTER

In den Wissenschaften ist klar, dass es ohne einen Beobachter nichts gibt: keine Experimente mit Messungen, die Daten generieren, und keine Modelle, Theorien, die Daten in Zusammenhänge setzen und damit Deutungs- oder gar Erklärungshypothesen liefern.

Weniger klar ist, dass und wieweit der Beobachter konstitutiv in eine Theorie eingeht und dass eine ’normale‘ Theorie nicht in der Lage ist, ihren eigenen Beobachter zu thematisieren.

Besonders krass ist der Fall in der Physik. Die standardisierten physikalischen Messeinheiten erlauben interessante Modellbildungen zu Strukturen und Dynamiken der realen Welt, es ist mit diesen Daten und Modellen jedoch nicht möglich, den physik- spezifischen Beobachter angemessen zu beschreiben.

Andere Disziplinen wie z.B. die Biologie, die Psychologie oder die Soziologie kommen den komplexen Phänomenen eines Beobachters zwar ’näher‘, aber auch diese – wenn sie denn als empirische Wissenschaften arbeiten – können ihre jeweiligen spezifischen Beobachter nicht mir eigenen ‚Bordmitteln‘ erschöpfend beschreiben. Würden sie es tun, würden sie ihr Wissenschaftsparadigma sprengen; dann müssten sie aufhören, empirische Wissenschaften zu sein.

IRREFÜHRUNG INTERDISZIPLINARITÄT

Im übrigen muss man auch fragen, ob nicht alle Disziplinen auf ihre spezifische Weise Sichten zum Beobachter entwickeln, die  jeweils spezifisch  ‚Recht‘ haben. Nur eine Zusammenschau aller dieser verschiedenen Sichten würde dem komplexen Phänomen ‚Beobachter‘ gerecht, wenngleich prinzipiell unvollständig. Allerdings wäre keine der einzelnen Disziplinen je für sich in der Lage, eine ‚Gesamtschau‘ zu organisieren. Das gibt der normale Theoriebegriff nicht her. Das Reden vom ‚Interdisziplinären‘ ist insofern eine Farce. Hier wird eine Disziplinen-Übergreifende Einheit angedeutet, die es zwischen Einzeldisziplinen prinzipiell nicht geben kann (und auch in der Praxis nie erreicht wird; das scheitert schon an den verschiedenen Sprachen der Disziplinen).

ROLLEN

In der Praxis der Gesellschaft und der Industrie manifestiert sich das Dilemma des versteckten Beobachters im Phänomen der unterschiedlichen Rollen. An einem Systems-Engineering Prozess (SEP) kann man dies verdeutlichen.

Die Manager eines SEP legen Rahmenbedingungen fest, geben Ziele vor, überwachen den Ablauf. Der Prozess selbst wird von unterschiedlichen Experten (Akteuren) gelebt. Diese Experten setzen den ‚durch die Manager gesetzten Rahmen‘ für die Dauer des Prozesses voraus, als gültiges Referenzsystem, innerhalb dessen sie ihre Problemlösung in Kooperation mit anderen Akteuren ‚leben‘.

Innerhalb eines SEP gibt es Akteure , z.B. die Mensch-Maschine Interaktions (MMI) Experten, heute auch schon Akteur-Akteur-Interaktions (AAI) Experten genannt (Akteure können Menschen (biologische Systeme) oder auch mittlerweile Roboter (nicht-biologische Systeme) sein. ‚Cyborgs‘ bilden neuartige ‚Zwitterwesen‘, wo noch nicht ganz klar ist, ob es ‚erweiterte biologische Systeme‘ sind oder es sich hier um eine neue hybride Lebensform als Ergebnis der Evolution handelt). Die MMI oder AAI Experten entwickeln Konzepte für ‚potentielle Benutzer (User)‘, also ‚andere Akteure‘, die in ‚angedachten Abläufen‘ mit ‚angedachten neuen Schnittstellen (Interface)‘ aktiv werden sollen. Werden die Pläne der AAI Experten akzeptiert und realisiert, entstehen für die angedachten Abläufe neue Schnittstellen, mit denen dann andere – dann ‚reale‘ – Akteure‘ arbeiten werden. Tritt dieser Fall ein, dann übernehmen die ‚Anwender (User)‘ einen ‚von anderen Akteuren gesetzten‘ Rahmen für ihr Handeln.

Vom Auftraggeber (Ebene 1) zum Manager eines SEP (Ebene 2) zu den Experten des SEP (Ebene 3) zu den intendierten Anwendern (Ebene 4). Wie sich dies dann wieder auf die umgebende Gesellschaft (Ebene 5) auswirkt, die sowohl Auftraggeber (Ebene 1) als auch Manager von Prozessen (Ebene 2) als auch die verschiedenen Experten (Ebene 3) beeinflussen kann, ist im Normalfall weitgehend unklar. Zu vielfältig sind hier die möglichen Verflechtungen.

Andere Querbeziehungen in einen SEP hinein (kleine Auswahl) treten dort auf, wo z.B. die AAI Experten andere Wissenschaften zu Rate ziehen, entweder über deren ‚Produkte‘ (Artikel, Bücher, Verfahren) oder direkt durch Einbeziehung der Akteure (Psychologie, Psychologen, Soziologie, Soziologen, usw.).

An keiner Stelle in diesem überaus komplexen Rollengeflecht gibt es normalerweise eine Rolle, die offiziell sowohl die spezifischen Aufgaben ‚innerhalb‘ einer Rolle wie auch die ‚Rolle selbst‘ beobachtet, protokolliert, untersucht. Eine solche Rolle würde jeweils vorgegebene Rollen ‚durchbrechen‘, ‚aufbrechen‘, ‚verletzten‘. Das verwirrt, schafft Unruhe, erzeugt Ängste und Abwehr.

HOFNARREN, PHILOSOPHEN

Andererseits gibt es historisch diese Formen in allen Zeiten. In der einen Form ist es der ‚Hofnarr‘, der kraft seiner Rolle grundsätzlich anders sein darf, dadurch feste Muster, Klischees durchbrechen darf, bis zum gewissen Grad wird dies auch erwartet, aber nur bis zu einem gewissen Grad. Unterschwellige Machtstrukturen dürfen in der Regel nicht angetastet werden.

In der anderen Rolle haben wir die Philosophen. Das philosophische Denken kann das einzelwissenschaftliche Denken ‚imitieren‘, es kann aber jederzeit aus diesem Muster ausbrechen und nach den Voraussetzungen des einzelwissenschaftlichen Denkens fragen. Ein Philosoph kann — von seinem Denken her — die immer und überall wirksamen ‚Voraussetzungen‘ von Verhalten und Denken ‚hinterfragen‘, ‚thematisieren‘ und auf diese Weise einer expliziten Reflexion und sogar bis zu einem gewissen Grade einer Theoriebildung zugänglich machen. Der Philosoph als Teil einer Gesellschaft mit seiner Nähe zum ‚Hofnarren‘ darf meistens aber nur soviel anders sein (Schulphilosophie), die die Gesellschaft ihm zugesteht. Vom Standpunkt eines philosophischen Denkens aus kann man unterschiedliche einzelwissenschaftliche Modelle und Theorien ‚als Objekte‘ untersuchen, vergleichen, formalisieren und man kann auf einer ‚Metaebene‘ zu den Einzelwissenschaften ‚integrierte Theorien‘ schaffen; nur so. Interdisziplinarität ist von hier aus betrachtet eine Form von Ideologie, die genau solche Integrationen  verhindert.

WISSENSCHAFTLICHE EINZELSTAATEREI

Der Versuch der Einzelwissenschaften, sich der ‚Gängelei‘ eines philosophischen Denkens zu entziehen, führt bei aller Positivität der einzelwissenschaftlichen Erkenntnisse zu dem großen Wirrwarr, das wir heute um uns herum beobachten können. Ein komplexes Phänomen wie der Homo sapiens wird zwischen den einzelwissenschaftlichen Mühlsteinen zu Sand zerrieben; übrig bleibt nichts. Die verschiedenen biologischen, psychologischen, neurologischen, soziologischen usw. ‚Substrate‘ bilden unterschiedliche Zerrformen, die in keinem Gesamtbild integriert sind. Das kommt einer Abschaffung des Menschen durch den Wissenschaftsbetrieb gleich. Dies erinnert ein wenig an den kleinstaatlichen Flickenteppich, bevor Deutschland ein integrierter Staat wurde; jeder war sein eigener Fürst; sehr schön; komplexere Einheit fand nicht statt. Das menschliche Gehirn bevorzugt Vereinfachungen, und das subjektive Machtgefühl eines jeden fühlt sich geschmeichelt, wenn es sich als (wenn auch kleiner und beschränkter) ‚Fürst‘ fühlen kann.

WO IST DER STANDPUNKT VON JEDEM EINZELNEN? Eine Notiz

ANGEREGT VON

  1. Angeregt von dem Buch von Matt Ridley Ehe Evolution of Everything. How small Changes Transform our World (2015) ergaben sich viele interessante Fragen. Eine ausführlichere Diskussion des Buches wird im Blog noch erfolgen. Vorab aber erste Impressionen zu der speziellen Frage, die sich mir stellte, ob sich für jeden Menschen skizzieren lässt, was eigentlich der individuelle Ausgangspunkt für den gesamten Weltbezug ist (eine Abstimmung dieser Überlegungen mit den vielen vorausgehenden Beiträgen im Blog könnte zusätzlich hilfreich sein).

ALLGEMEINE BEDEINGUNGEN FÜR LEBEN

Verhältnis der Zeitdauer zwischen Alter des Universums (physikalische Natur) mit ca. 13.8 Mrd. Jahren, dem Auftreten biologschen Lebens seit ca. 3.8 Mrd, dem Auftreten von menschlichen Gesellschaften (homo sapiens sapiens) mit ca. 200.000 Jahren sowie der Lebenszeit eines einzelnen Menschen (hier optimistisch auf 100 Jahre gesetzt)
Verhältnis der Zeitdauer zwischen Alter des Universums (physikalische Natur) mit ca. 13.8 Mrd. Jahren, dem Auftreten biologschen Lebens seit ca. 3.8 Mrd, dem Auftreten von menschlichen Gesellschaften (homo sapiens sapiens) mit ca. 200.000 Jahren sowie der Lebenszeit eines einzelnen Menschen (hier optimistisch auf 100 Jahre gesetzt)

  1. Im Lichte des verfügbaren empirischen Wissens könnte man versucht sein, vier Dimensionen aufzuspannen:
  2. Den allgemeinsten Rahmen gibt die Naturgeschichte des Universums mit ca. 13.8 Mrd Jahren bislang, durch die die allgemeinsten Rahmenbedingungen festgelegt werden. Ohne diese zu verstehen kann man eigentlich gar nichts verstehen (Übergang von Energie in den Zustand von Materie mit Bewegung und Raum, Bildung von Atomen, Molekülen im Kontext von Gas- und Sonnenbildungen, Galaxien, usw.).
  3. Innerhalb dieses Rahmens haben sich seit ca. 3.8 Mrd Jahren biologische Strukturen herausgebildet, die unter Beachtung der allgemeinen physikalischen Gesetze eine Eigendynamik entwickelt haben, die sich deutlich von den allgemeinen physikalischen Gesetzen abheben.
  4. Sehr spät – also ca. ab 200.000 Jahren vor unserer Zeit – kann man innerhalb der biologischen Strukturen ein Phänomen beobachten, das mit Populationen des homo sapiens sapiens nur sehr unzulänglich beschrieben ist. Populationen des homo sapiens sapiens (hier abgekürzt hss-Populationen) zeigen eine Dynamik, die sich von der allgemein biologischen Dynamik nochmals deutlich abhebt.
  5. Dies neue Art von hss-Dynamik wird initiiert von jedem einzelnen Mitglied einer hss-Population, also von jedem einzelnen Exemplar eines homo sapiens sapiens; diese hss-Exemplare sollen hier Menschen genannt werden.
  6. Jeder einzelne Mensch (kurz für hss-Exemplar) zeigt spezifische Dynamiken im Vergleich zu allen anderen biologischen Individuen, setzt aber alle allgemeinen biologischen und physikalischen Gesetze voraus. Ohne diese kann man ihn nicht verstehen. Zusätzlich zeigt der Mensch aber besondere Dynamiken, die im Wechselspiel mit anderen Menschen im Rahmen von jeweiligen Gesellschaftssystemen zu immer wieder neuen Konstellationen führen können.
  7. Soweit eine erste Sichtweise aus der Sicht der empirischen Wissenschaften. Bei dieser Sichtweise wird vorausgesetzt, dass es eine Menge von wissenschaftlichen Beobachtern OBS gibt, die alle in gleicher Weise diese empirischen Phänomene sehen und beurteilen können.

EMPIRISCHER BEOBACHTER UNVOLLSTÄNDIG

  1. Wie wir aber heute wissen (können) (Anmerkung: siehe z.B. die 9 Blogeinträge HIER; es gab dazu noch viele weitere Blogeinträge), ist der von den empirischen Wissenschaften unterstellte homogene Beobachter eine starke Idealisierung. Diese Idealisierung ermöglicht zwar die Erklärung vieler Begriffe im Kontext der empirischen Wissenschaften, verdeckt aber die ganze komplexe Maschinerie, die notwendig ist, dass der idealisierte empirische Beobachter überhaupt funktionieren kann.
  2. Bezieht man diese komplexe Maschinerie ein, dann betritt man das aufregende unbekannte Land der aktuellen Forschungen, in denen von der einen Seite aus die empirischen Wissenschaften versuchen, das faszinierende Phänomen des Menschen mit empirischen Mitteln aufzuhellen, auf der anderen Seit die sogenannten Geisteswissenschaften, mit zusätzlichen, nicht-empirischen Methoden. Leider herrscht in diesem Forschungsgebiet des Phänomens Mensch eine große Unübersichtlichkeit, wechselseitig viel Unverständnis und unnötige Verteufelungen, natürlich auch schlichte Abgrenzungskämpfe um selbst möglich viel von den knappen Forschungsgeldern zu bekommen. Das interessanteste Phänomen des bekannten Universums, der Mensch, wird also vielfach zerrieben zwischen den Kämpfen der beteiligten Disziplinen.
  3. Ein beliebter Konfliktpunkt im Wechselspiel der vielen beteiligten Disziplinen ist die grobe Unterscheidung zwischen dem empirischen Standpunkt des Beobachters aus der sogenannten 3.Person-Perspektive und und dem subjektiven, introspektiven Standpunkt des Beobachters (als Selbstbeobachter) aus der sogenannten 1.Person-Perspektive.
  4. Die Kritik der empirischen Disziplinen an Untersuchungen im introspektiven Modus ist natürlich berechtigt, da introspektive Untersuchungen sich interaktiv nur sehr schwer (bis gar nicht) zweifelsfrei kommunizieren und überprüfen lassen.
  5. Auf der anderen Seite kulminiert das Besondere des Phänomens Mensch gerade in der Fähigkeit, auf der Basis seines Körpers mit dem Gehirn eine Art Innensicht des Systems genannt Bewusstsein auszubilden, das den Menschen in die Lage versetzt, genau diese Besonderheit an Dynamik zu entwickeln, die Populationen von Menschen deutlich abhebt von anderen biologischen Populationen. Außerdem besteht zwischen der 3.Person-Perspektive und der 1.Person-Perspektive kein absoluter Gegensatz. Die sogenannte 3.Person-Perspektive ist genuiner Teil des Bewusstseins, also der 1.Person-Perspektive. Mathematisch kann man davon sprechen, dass die Perspektive des empirischen Beobachters eine echte Teilmenge der Perspektive der 1.Person ist. Zum vollen Verständnis des empirischen Beobachters muss man letztlich sogar von dieser Teilmengeneigenschaft Gebrauch machen, sonst kann man das Funktionieren des empirischen Beobachters gar nicht erklären.
  6. Dieses spezifische Abhängigkeitsverhältnis des empirischen Beobachters von dem introspektiven Beobachter wurde bislang in den Wissenschaften kaum (oder gar nicht?) tiefer gehender diskutiert und untersucht. Man belässt es gerne bei der Abgrenzung.

SPEZIFISCHE DYNAMIK DES BIOLOGISCHEN

  1. Kommen wir nochmals zurück zur Behauptung, dass sich die biologischen Strukturen von den allgemeinen physikalischen Strukturen durch eine spezifische Dynamik auszeichnen und innerhalb der biologischen Strukturen sich die menschliche Population auch nochmals durch eine spezifische Dynamik auszeichnet. Viele (die meisten?) Wissenschaftler würden solche Feststellungen eher ablehnen. Die Grundtendenz ist (nachvollziehbar und bis zu einem gewissen Grad angemessen), die Vielfalt der Phänomene auf möglichst wenig Grundprinzipien zurück zu führen. Das ist das Erfolgsprinzip der empirischen Wissenschaften bis heute. Allerdings zeigt die Geschichte der Wissenschaften, dass gerade aufgrund dieses Prinzips nicht alles zu einem Einheitsbrei zusammen gedampft wurde, sondern dass gerade im Versuch der Vereinfachung sich auch Besonderheiten gezeigt haben. Die Vielfalt der heute bekannten Materieteilchen (subatomar, atomar, molekular…) kann man zwar auf allgemeine Prinzipien zurückführen, die schließlich alle im Superbegriff der Energie versinken, aber die Vielfalt der Phänomene im Universum allgemein wie speziell auch auf der Erde mit den biologischen Strukturen kann man nicht erklären, indem man im abstraktesten Allgemeinen verweilt.
  2. Ein Charles Darwin hat (im Kontext vieler anderer Denker, die damals ähnliche Phänomene untersuchten) zwar einerseits die Vielfalt biologischer Phänomene auf einige wenige Prinzipien der möglichen Entstehung zurückgeführt, aber diese Rückführung führte nicht zur Aufhebung der Vielfalt selbst. Nein, die Vielfalt blieb erhalten und es kamen Ideen auf, wie nicht nur diese Vielfalt sondern noch ganze andere Vielfalte entstehen könnten. In gewisser Weise erschien die beobachtbare Vielfalt als Manifestation eines Prinzips, das offensichtlich wirkte und genau durch die wechselnden Vielfalte sichtbar wurde. Dass dieses Prinzip dann den Namen Evolution bekam ist fast nebensächlich, Wichtig ist nur, dass überhaupt ein Prinzip entdeckt werden konnte, das mathematisch als Funktion, Abbildung interpretierbar ist:
  3. evol: BIOL x ENV —> ENV x BIOL
  4. Etwa umschreibar mit: gegebene biologische Systeme (BIOL) in bestimmten Umgebungen (ENV) können neue biologische Systeme hervorbringen und dabei zugleich verändernd auf die Umgebung einwirken. Die spezifischen Aktivitäten, Veränderungen dieser vielfältigen Formen werden hier allgemein als Dynamik bezeichnet.
  5. In dieser Allgemeinheit lässt das Evolutionskonzept noch nahezu nichts Konkretes erkennen, fokussiert aber den Blick darauf, dass der kontinuierliche Strom der Formen nicht rein zufällig stattfindet, sondern von Bedingungen abhängt, die nach einem bestimmten Muster neue Formen hervorbringt. Diese Dynamik deutet damit auf eine bestimmte Prozessstruktur hin, auf eine bestimmte mathematisch beschreibbare Logik des Geschehens, die sich nicht in der Beschreibung der einzelnen Teile erschöpft, sondern nur und gerade in der Beschreibung von Abfolgen und Zusammenhängen, durch die sich diese unterstellte Logik manifestiert.
  6. Der Begriff der Emergenz, der in diesem Zusammenhang oft und gerne benutzt wird, erscheint dem Autor dieser Zeilen zu schwach, um der Konkretheit dieser Logik und ihrer massiven Wirkung gerecht zu werden.
  7. Nach Darwin konnte das postulierte Prinzip der Evolution schrittweise immer weiter konkretisiert werden. Mit der Entdeckung von Zellstrukturen, von Molekülen, speziell dem DNA-Molekül, dem Reproduktionsmechanismus der Zellen mit Hilfe von DNA- und anderen Molekülen, dem epizyklischen Geschehen und vielem mehr konnte man die postulierte Logik des Geschehens an immer konkreteren Strukturen festmachen und damit die unterstellte Prozessstruktur verfeinern. Mittlerweile gibt es sogar weitreichende Modelle, die sogar die Entstehung der komplexen Zellen selbst aus einfacheren Bestandteilen unter bestimmten Umgebungsbedingungen plausibel machen können. Auch hier handelt es sich letztlich mathematisch um Abbildungsprozesse, die die Genese/ Konstruktion von komplexen Strukturen aus einfacheren Elementen unter Beteiligung von Wirkprinzipien andeuten. Die Wirkprinzipien selbst jenseits der beteiligten materiellen Komponenten sind nicht direkt beschreibbar, nur in ihren Wirkungen (so wie auch z.B. die Gravitation sich nur indirekt durch das Verhalten der beobachtbaren Materiekonstellationen erschließen lässt).
  8. Die entscheidend Botschaft ist hier also, dass sich in der Dynamik biologischer Strukturen Wirkprinzipien manifestieren, die charakteristisch für das Biologische sind, die auf implizite Eigenschaften der beteiligten Komponenten hinweisen, die sich nur in bestimmten Konstellationen zeigen. Letztlich sind es Eigenschaften der Materie, die sich überall im Universum zeigen können, wenn entsprechende Bedingungen gegeben sind.

ENDLICHE UNENDLICHKEIT

  1. Während ein einzelner Mensch am Beispiel seines Körpers mit dem klaren Beginn (Geburt) und dem klaren Ende (Tod) das Modell eines endlichen Prozesses am eigenen Leib erleben kann (und natürlich vielfältig im Laufe seines Lebens mit anderen Phänomenen), gibt es aus Sicht eines Menschen aber Phänomene, die sein Leben überdauern, die länger als 100 Jahre andauern. Die Endlichkeit wird damit immer ungreifbarer, erscheint immer mehr wie eine quasi Unendlichkeit. Und im Denken kann ein Mensch den Begriff der Unendlichkeit formen als Gegensatz zur Endlichkeit. Es bleibt zwar offen, ob und wieweit dem der gedanklichen Unendlichkeit irgendeine Realität entspricht, aber zumindest gibt es ein Etwas, ein Gedachtes, als Gegensatz zur konkreten Endlichkeit.

UNTERBRECHUNG

  1. Mit diesem angedeuteten Koordinatensystem kann man nun viele bekannte Phänomene diskutieren und zueinander in Beziehung setzen. Vielleicht geschieht dies mit weiteren Blogeinträgen.

Einen Überblick über alle Blog-Beiträge des Autors cagent nach Titeln findet sich HIER.

PHILOSOPHIESOMMER 2016 IN DER DENKBAR FRANKFURT

Alltag, Visionen der Wissenschaft, und die antike Philosophie: müssen hier Köpfe rollen oder gibt es neue gedankliche Fusion?

Sind Sie neugierig, oder meinen Sie, etwas beitragen zu können?

Kommen Sie dazu.

Geben Sie ihrer Eitelkeit drei Stunden Urlaub und lassen Sie zu, dass Sie in der Andersartigkeit vielleicht etwas Neues entdecken.

ORT:

DENKBAR Frankfurt
Spohrstrasse 46a

(Achtung: Parken schwierig! Man muss wirklich im Umfeld suchen)

PROGRAMMFORMAT

Moderation: Gerd Doeben-Henisch

16:00 Begrüßung

16:05 Kleine Performance aus dem PHILOSOPHY-IN-CONCERT Experiment

16:15 Eingangsüberlegungen

16:30 Erste offene Gesprächsrunde (simultan Erstellung eines Begriffsnetzwerkes)

17:30 Blubberpause (Jeder kann mit jedem reden; Essen und Trinken)

18:00 Zweite offene Gesprächsrunde (simultan Erstellung eines Begriffsnetzwerkes)

18:45 Schlussstatements

19:00 Ende

Langsames Wegdiffundieren der Teilnehmer ….

ERINNERUNGEN…

In der Regel erscheint im Anschluss an eine Sitzung ein Bericht im Blog cognitiveagent.org, der auch Gelegenheit bietet, sich durch Kommentare oder eigene Beiträge an der Diskussion zu beteiligen.

INHALTLICHE LINIE

Da der Gesprächsprozess – abhängig von den Teilnehmern! – seine eigene Dynamik gewinnt, lässt sich keine genaue Prognose für alle kommenden Themen geben.

Das Rezept für den Start orientiert sich einmal an unseren alltäglichen Erfahrung einer Menschheit im Fiebertaumel zwischen Gewalt, Krieg, Katastrophen auf der einen Seite, eingespannt in ein umfassendes Räderwerk von Wirtschaft, Verwaltungen, Medienströmen, Politikbetrieb, Anwachsen von ‚tiefem Staat‘ mit mittlerweile grenzenloser Überwachung andererseits; dazu eine scheinbar entfesselte Wissenschaft, die – abgeschottet von der Öffentlichkeit – immer neue Details der Materie enthüllt, den Menschen als biochemische Masse sieht, deren Tage gezählt sind, und in automatisierten Produktionsprozessen denkt, die mit bekannten Wertesystemen kaum noch etwas zu tun haben. Und dann, man wagt es kaum zu sagen, gab es einen alten, sehr alten Philosophen, der mindestens 1800 Jahre lang das Denken In ganz Europa (Westen wie Osten; christliche Theologie genauso wie die islamische Theologie!) geprägt hat, Aristoteles, der heute auf allen Gebieten als abgeschrieben gelten kann. Und doch, schaut man sich die großen Lücken an, die die moderne Wissenschaft mit sich herumschleppt, kann man ins Grübeln kommen. Die Zukunft ist niemals einfach nur die Wiederholung des Gestern. Aber sie ist auch niemals das total ganz andere. Die biologische Evolution praktiziert das Modell der Zähmung des Zufalls durch Erinnerung; das Ergebnis nach ca. 4 Mrd Jahren sind u.a. wir, der homo sapiens. Es ist schwer zu verstehen, bis heute. Manche wollen es auch gar nicht verstehen…

ARCHIV

Wer sich für die bisherigen philosophischen Gespräche unter der Überschrift ‚Philosophiewerkstatt‘ interessiert, ist eingeladen, die Erinnerungsseite zu besuchen. Hier gibt es Berichte von den zurückliegenden Diskursen.

EINLADUNG ZUR NÄCHSTEN philosophieWerkstatt v3.0 am So 8.Nov. 2015, 16:00h – WISSEN, WISSENSCHAFT und OFFENBARUNGSRELIGIONEN (Judentum, Christentum, Islam) – ANNÄHERUNG AN EIN TRAUMA

Logo philosophieWerkstatt v.30
Logo philosophieWerkstatt v.30

EINLADUNG ZUR NÄCHSTEN

philosophieWerkstatt v3.0

am

Sonntag, 8.Nov.2015

16:00 – 19:00h

in der
DENKBAR Frankfurt
Spohrstrasse 46a

Essen und Trinken wird angeboten von Michas Essen & Trinken. Parken ist im Umfeld schwierig; evtl. in der Rat-Beil-Strasse (entlang der Friedhofsmauer).

Anliegen der Philosophiewerkstatt ist es, ein philosophisches Gespräch zu ermöglichen, in dem die Fragen der TeilnehmerInnen versuchsweise zu Begriffsnetzen verknüpft werden, die in Beziehung gesetzt werden zum allgemeinen Denkraum der Philosophie, der Wissenschaften, der Kunst und Religion. Im Hintergrund stehen die Reflexionen aus dem Blog cognitiveagent.org, das Ringen um das neue Menschen- und Weltbild.

PROGRAMMVORSCHLAG

Nach der Sommerpause ist dies die erste Veranstaltung der philosophieWerkstatt, nunmehr in der dritten Auflage. Normalerweise gibt es einen Themenvorschlag aus der letzten Sitzung. Für diese erste Sitzung war das Thema offen. Angeregt durch vielerlei Faktoren werde ich diese Sitzung mit dem Thema einleiten:

WISSEN, WISSENSCHAFT und OFFENBARUNGSRELIGIONEN (Judentum, Christentum, Islam) – ANNÄHERUNG AN EIN TRAUMA

Letzter Anstoss zu diesem Thema war möglicherweise die Lektüre des Buches von Pohlmann zur Entstehung des Korans. Grundsätzlich sehe ich im Verhältnis von Wissen und moderner Wissenschaft gegenüber den großen drei Offenbarungsreligionen Judentum, Christentum und Islam eine Art Trauma vorliegen: es gibt heute beides, die Wissenschaften und das Wissen einerseits sowie die großen Offenbarungsreligionen. Aber ihr Verhältnis ist gezeichnet von tiefen Verletzungen auf Seiten der modernen Wissenschaften und durch extreme Verdrängungen auf Seiten der Offenbarungsreligionen. Der Modus der Koexistenz in europäischen Gesellschaften erscheint eher gezwungen zu sein anstatt lebendig und einer natürlichen Einstellung entspringend. Ich kenne keinen einzigen Wissenschaftler, der das Thema Religion noch für wichtig hält. Ich kenne zugleich keinen einzigen engagierten Gläubigen (Juden, Cristen, Muslime), der ein wirklich offenes und positives Verhältnis zur modernen Wissenschaft hat. Psychologisch liegen hier tiefe Verletzungen und Verunsicherungen vor, die ein wirkliches Gespräch blockieren.

In der Philosophiewerkstatt am 8.November möchte ich mich diesem europäischen Trauma ein wenig annähern, wohl wissend, dass dieses Thema so groß und vielschichtig ist, dass wir zunächst keine zu großen Erwartungen haben sollten.

Als Programmablauf wird vorgeschlagen:

1. Begrüßung
2. Kurzeinführung durch Gerd Doeben-Henisch
3. Gemeinsame Reflexion zum Thema mit begleitender Erstellung eines gemeinsamen
Begriffsnetzwerkes.
4. ‚Blubberphase‘ – jeder kann mit jedem reden, um das zuvor gesagte ‚aktiv zu verdauen‘
5. Schlussdiskussion mit Zusammenfassung der Ergebnisse

Einen Überblick über alle Beiträge zur Philosophiewerkstatt nach Themen findet sich HIER

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

DIE NEUROWISSENSCHAFTEN – EIN PHILOSOPHISCHES SCHWARZES LOCH? – Zu einem Artikel von W.Singer in der FAZ vom 17.September 2014

(Letzte Änderungen am Text: 21.Sept.2014, 22:06h)

Sound einer Galaxie oder doch eher von Neuronen oder von Galaxien eingefangen in den Vibrationen der Neuronen?

BEGRIFF (PHILOSOPHISCHES) SCHWARZES LOCH

1. Ein Schwarzes Loch (oder auch Black hole) ist in der Astrophysik – leicht vereinfachend – ein Raum-Zeit-Gebiet, das im Kern eine Massekonzentration besitzt, die so groß ist, dass in einem bestimmten Umfeld alle Materie (einschließlich der Lichtquanten) so stark angezogen wird, dass jenseits dieses Umfeldes (jenseits des ‚Ereignishorizontes‘) nichts mehr nach außen dringt (außer der sogenannten Hawking-Strahlung (benannt nach dem Physiker Stephen Hawking)). Im Prinzip kann ein schwarzes Loch immer weiter wachsen. Ab einer bestimmten Größe entstehen im Umfeld des Ereignishorizontes allerdings ‚Sperreffekte‘, die den Zufluss von Materie erschweren und über die Hawking-Strahlung verlieren schwarze Löcher kontinuierlich Energie.

2. Der Begriff ‚philosophisches‘ schwarzes Loch wird in diesem Beitrag benutzt als eine Metapher, um eine Denkweise zu charakterisieren, die die Vielfalt der Phänomene durch Beschränkung auf ein einziges Prinzip so stark nivelliert, dass von der Vielfalt anschließend nur noch bestimmte Fragmente übrig bleiben, die als solche zwar eine gewisse ‚Wahrheit‘ verkörpern, durch den eliminierenden Kontext aber letztlich ihre ursprüngliche Wahrheit verloren haben; vielleicht muss man sogar sagen, sie werden durch den falschen Kontext geradezu ‚falsch‘.

3. Ich stelle hier die frage, ob diese Metapher vom ‚philosophischen schwarzen Loch‘ anwendbar ist auf den Artikel von Wolf Singer in der FAZ vom 17.September 2014 S.N2. Würde meine Hypothese zutreffen, dann wäre dies fast tragisch, da hier eine Sache, die in sich gut und wichtig ist, die Hirnforschung, durch ihre methodische Übergrifflichkeit viele andere Sachen dermaßen entstellt und ihrer ontologischen Besonderheit beraubt, dass damit genau das Großartige, was die Gehirne in diese Welt eingebracht haben, von den Hirnforschern selbst totgemacht, zerstört würden.

4. Dies hier ist meine individuelle Hypothese. Vielleicht würde eine empirische soziologische Untersuchung im Rahmen einer Wissenssoziologie zu noch weitreichenderen kritischen Aussagen zu den Neurowissenschaften kommen. Aber für solche Wissenschaften ist es heute sehr schwer, Forschungsgelder zu bekommen.

DIE ARGUMENTATIONSFIGUR IM TEXT

5. Warum kann ich die Frage stellen, ob die Metapher von einem ‚philosophisch schwarzem Loch‘ auf den Artikel von Wolf Singer zutrifft?

6. In dem zitierten Artikel mit der Überschrift „Erst kommt das Denken, dann die Kunst“ soll es offiziell um das Verhältnis zwischen der Kunst und den Neurowissenschaften gehen; inoffiziell ergreift der Autor aber die Gelegenheit, aus Anlass eines Themas, das außerhalb der Neurowissenschaften liegt, primär die Bedeutung und Leistung der Neurowissenschaften heraus zu stellen; das auslösende Thema, der ‚Aufhänger‘ Kunst, gerät zu einer Art ‚Randnotiz‘: ja, es gibt irgendwo Kunst, ja, sie hat ein paar Eigenschaften, aber letztlich sind alle diese Eigenschaften unwichtig, da es eigentlich nur auf die Leistungen der neuronalen Verbände ankommt, die dem künstlerischen Verhalten letztlich zugrunde liegen. Die Neuronen und deren Verhalten repräsentieren die eigentliche, die wahre Wirklichkeit; sie erzählen uns, worum es geht …

7. Nun ist es ja unbestreitbar, dass die Neurowissenschaften seit ihrem Entstehen – letztlich viele Jahrhunderte; mit der klaren Einsicht in die Isoliertheit des Neurons aber dann erst seit ca. 120 Jahre – atemberaubende neue Einblicke in unser Gehirn und in die Interaktion zwischen dem Gehirn und dem Körper ermöglicht haben. Vielen Phänomenen des beobachtbaren Verhaltens wie auch unserer subjektiven Empfindungen konnten durch die Korrelation mit neuronalen Aktivitäten neue, interessante Aspekte zugeordnet werden, die zu neuen Verstehensmodellen geführt haben.

INPUT-OUTPUT SYSTEME: DIE SUMME IST MEHR ALS IHRE TEILE

8. Bei der Erklärung des Verhaltens eines Input-Output-Systems — was biologische Systeme u.a. sind – sind die Verhältnisse nicht ganz so trivial, wie sie die Erklärungsmuster der Neurowissenschaftler oft nahe legen.

9. Aus der Tatsache, dass ein Input-Output-System aus einer Vielzahl von elementaren Einheiten – im Falle des Gehirns u.a. aus ‚Neuronen‘ – besteht, folgt sehr selten, dass man das beobachtbare (äußere) Verhalten des Systems durch einfachen Rückgriff auf die Eigenschaften seiner Bestandteile ‚erklären‘ kann.

10. Wenn jemand heute — in einem analogen Fall — einen Computer (PC, Smartphone, Auto, Kamera,…) kauft, um damit einen Text zu schreiben oder Musik zu hören oder ein Computerspiel zu spielen oder … dann interessiert sich normalerweise niemand für die elektronischen Bauteilen in diesen Geräten (würden die meisten auch nicht verstehen), sondern nur um die ‚Funktionen‘, die das Gerät ihm zur Verfügung stellt.

11. Jener, der an der Funktion ‚Text Schreiben‘ interessiert ist, interessiert sich nicht unbedingt auch für die Funktion ‚Fotos machen‘, oder nicht für die spannenden Abenteuer eines Computerspiels, usw.

EINE ABBILDUNGSVORSCHRIFT IST MEHR ALS IHRE ‚TEILE‘

12. Alle diese verschiedenen ‚Funktionen‘ die heute ein Computer ausführen kann, sind zwar – in der Tat – alle durch die gleichen elektronischen Bauteile ermöglicht worden, wie man — im Falle der Computer — aber weiß, ist es nicht möglich, aus der Gegebenheit der elektronischen Bauteile als solcher auch nur eine einzige dieser vielen möglichen Milliarden von Funktionen ‚abzuleiten‘!

13. Zwar kann man rein theoretisch aus der Beschaffenheit dieser Bauteile ableiten (und damit voraussagen), welche Arten von Funktionen generell mit diesen Bauteilen ausführbar wären, aber man könnte niemals zwingend – also niemals mit Notwendigkeit – sagen, auf diesem Computer muss genau diese ‚Funktion f‘ ausgeführt werden.

14. Der tiefere – wenngleich sehr einfache – Grund für diesen Sachverhalt liegt darin, dass das beobachtbare Verhalten eines Computers – verstanden als eine Funktion f – eine Folge von Zustandsänderungen zusammenfasst, die unterschiedlichen ‚Input I‘ in das System (Eingaben durch den Benutzer, Messwerte, …) unter Berücksichtigung aktuell verfügbarer ‚interner Zustände IS‘ auf die beobachtbaren ‚Outputs O‘ (Ereignisse auf dem Bildschirm, Töne, Bewegungen eines mechanischen Teils, …) — und möglicherweise auch auf interne Zustände IS — ‚abbildet‘, wie der Mathematiker sagen würde. Eine solche reale Verhaltensfunktion ist damit nichts anderes als eine Folge von Paaren der Art …, ((I,IS),(IS,O)), …, verallgemeinernd geschrieben als eine Abbildungsvorschrift $latex f: I \times IS \longrightarrow IS \times O$.

15. Schon an dieser Stelle kann man direkt sehen, dass die Existenz irgendwelcher interner Zustände (z.B. elektronische Bauteile oder – wie im Falle des Gehirns – von Neuronen) in keiner Weise irgendetwas darüber sagen kann, wie die übergreifende Verhaltensfunktion f aussehen wird. Die Verhaltensfunktion f wird zwar nur unter Voraussetzung der internen Zustände stattfinden können, die internen Zustände (elektronische Bauteile, Neuronen, …) erlauben aber keinerlei Schlüsse auf die übergreifenden Funktion f, die damit tatsächlich zur Ausführung kommt.

16. Jeder kennt die Formulierung ‚Die Summe ist mehr als ihre Teile‘ oder der etwas neuere Begriff der ‚Emergenz‘, d.h. des Auftretens von Eigenschaften P eines Systems (z.B. Wasser), die unter bestimmten Bedingungen (Kälte, Hitze, …) mit einem Mal ‚beobachtbar‘ werden (‚zu Eis gefrieren‘, ’sich in Dampf transformieren‘, …). Die einzelnen Bestandteile als solche ‚für sich‘ können die Eigenschaft P nicht haben; wenn aber viele solche einzelnen Elemente (z.B. Moleküle) ‚zusammen‘ in einem Raum-Zeitgebiet vorkommen, dann kann eine – die einzelnen Elemente ‚übersteigende‘ (‚emergierende‘) — Eigenschaft P sichtbar werden, die wie aus dem ‚Nichts‘ entsteht.

17. Eine seit den Anfängen der Physik beliebte Strategie, die ‚emergenten‘ Eigenschaften zusammengesetzter Systeme durch ‚Rückführung auf die zugrunde liegenden Elemente‘ zu ‚erklären‘ (bekannt unter dem Namen ‚Reduktionismus‘) ist bis heute virulent, und findet sich z.B. ungebrochen im Text von Wolf Singer wieder. Was immer wir an Verhaltensweisen bei einem Menschen beobachten können – er hat sich einige ausgewählt, die einige als ‚künstlerisch‘, als ‚Malerei‘ bezeichnen –, das Verhalten in seiner speziellen Funktionalität wird auf das Verhalten zugrunde liegender Elemente (Neuronen) zurückgeführt und soll damit ‚erklärt‘ sein.

METHODISCHE GRENZEN DER NEUROWISSENSCHAFTEN

18. Abgesehen mal davon, dass die Neurowissenschaften auch heute – was Singer sogar an einzelnen Stellen einräumt – in der Regel noch nicht über wirklich harte Erklärungsansätze verfügen (bedingt durch die Komplexität des Gehirns und Messproblemen), werden die Neurowissenschaften als solche – sofern sie ihren eigenen Methoden treu bleiben – grundsätzlich niemals und zu keinem Zeitpunkt auch nur einzige der beobachtbaren Funktionen im echten Sinne ‚erklären‘ können.

19. Wenn Neurowissenschaftler sich zu Verhaltenserklärungen hinreißen lassen, dann überschreiten Sie in diesem Moment die methodischen Grenzen, die den Neurowissenschaften grundsätzlich gesetzt sind. Erklärung von ‚Verhalten‘ geht prinzipiell über die Beschreibung von Neuronen, Neuronenverbänden, und dem Verhalten von Neuronen hinaus, da es sich um prinzipiell verschiedene Datenarten handelt. Verhalten ist die Domäne der (biologischen) Ethologie oder der modernen experimentellen verhaltensbasierten Psychologie. Diese beiden Disziplinen wissen (als Verhaltenswissenschaften) nichts von Körperzuständen und Neuronen. Begibt ein Neurowissenschaftler sich in das Gebiet des Verhaltens, dann begeht er eine methodische Grenzüberschreitung. Wenn er Verhalten beschreibe will, dann muss er seine Neuronen grundsätzlich und vollständig vergessen! Hält man sich nicht an diese methodischen Grenzziehungen, dann resultiert ein methodisches Chaos, das man leider in ganz vielen neurowissenschaftlichen Publikationen — bis hin zu den High-End Journalen — beobachten kann.

20. Natürlich kann man sich eine methodisch kontrollierte ‚Kooperation‘ zwischen ‚Neurowissenschaften‘ und ‚Psychologie‘ vorstellen – dafür gibt es auch schon lange den Namen ‚Neuropsychologie‘ –, aber eine solche Kooperation stellt sehr hohe methodische und theoretische Anforderungen. Es ist nicht zu sehen, dass sich die Mehrheit der Neurowissenschaftlern dieses Problems bewusst ist. Es gibt offizielle Lehrbücher mit dem Titel ‚Neuropsychologie‘ die in keiner Weise den wissenschaftstheoretischen Ansprüchen genügen, die man hier stellen muss.

21. Im Falle des Artikels von Wolf Singer meine ich sowohl die Erklärungsstrategie des ‚Reduktionismus‘ wie auch eine Grenzüberschreitung von der Neurowissenschaft zu den Verhaltenswissenschaften feststellen zu müssen.

KEIN BEZUG ZUR WISSENSCHAFTSTHEORIE

22. Das Grundproblem, wie man das beobachtbare Verhalten f eines biologischen Input-Output-Systems ‚erklärt‘, ist eine Fragestellung aus dem Bereich der ‚Meta-Wissenschaft‘ genannt ‚Wissenschaftstheorie‘, die letztlich zur ‚Philosophie‘ gehört, der allgemeinen Reflexion ‚über‘ die Dinge, nicht methodisch eingegrenzt auf eine bestimmte wissenschaftliche Fachdisziplin.

23. Insofern berührt der Text von Wolf Singer Aspekte und Fragestellungen, die über die Neurowissenschaften deutlich hinausgehen. Singer lässt aber nirgends in seinem Text erkennen, dass er sich dieser Sachlage bewusst ist. Er spricht über das Gehirn wie ein Techniker über seinen Schaltplan, aus dem er abliest, dass der Motor in Halle 3 nicht läuft, weil eine bestimmte Leitung mit einer bestimmten Bauteilgruppe nicht funktioniert.

24. Mit einem solchen platten ‚Erklärungsansatz‘ wird aber genau die Besonderheit des Phänomens schlicht und einfach verdeckt, zugedeckt, unsichtbar gemacht. Das verstehe ich unter einem ‚philosophisch-schwarzen Loch‘

DIE RÜCKKEHR DES GEISTES?

25. Ist schon die mangelnde Selbstreflexion der Neurowissenschaften traurig genug, so gerät diese zu einer gewissen Tragik, da sie – aufgrund ihrer aktuell starken gesellschaftlichen Akzeptanz – alternative Reflektionsansätze auf die Vielfalt der Phänomene zu übertönen droht und damit die Wahrnehmung von genau dem ‚Wunder des Geistes‘, das durch die Evolution der Körper mit Gehirnen möglich wurde, im Ansatz zerstören. Kann man das ‚Allmachtsgebaren‘ der Neurowissenschaften noch als ‚typisch menschlich‘ abtun, greifen die kognitiven Wirkungen des begrifflichen Allmachtgehabes die ontologische Brisanz der durch die Gehirne möglichen Phänomene in ihrer Substanz an.

26. Erinnern wir uns an die mathematische Formel von zuvor $latex f: I \times IS \longrightarrow IS \times O$. Es ist absolut unmöglich, aus der Beschaffenheit der Teile die Gesamtfunktion abzuleiten; insofern repräsentiert eine solche Funktion ein ‚Mehr‘ an Informationen.

REFERENZSYSTEM PHYSIK

27. Die Physik kennt keine Gesetze, die die Entstehung von Etwas aus einem ‚Nichts‘ beschreiben (‚ex nihilo nihil fit‘). Insofern ist eine Theorie wie die ‚BigBang-Theorie‘ das Maximum, was die Physik leisten kann: vorausgesetzt, es gab genügend viel Energie am Beginn des Zeitpfeils, dann kann man den ganzen ‚Rest‘ (nämlich die Entwicklung des bekannten Universums) daraus schrittweise ‚rekonstruieren‘.

28. Will man mehr, dann muss man – hypothetisch – annehmen, dass es ‚außerhalb‘ von unserem bekannten Universum noch viele andere Universen gibt, die alle miteinander auf bestimmte Weise wechselwirken können. In diesem Fall wird das Prinzip ‚ex nihilo nihil fit‘ aber nicht aufgehoben. Die endlichen Raum-Zeitgrenzen werden damit nur ‚beliebig weit‘ (rein gedanklich) ausgedehnt.

29. Bezogen auf das Verhalten konkreter Systeme würde die Physik fordern, dass man ein ‚Mehr an Information‘ erklären muss.

30. Die Physik versagt bislang aber nicht nur bei der Grundsatzfrage, wo denn die ungeheure Menge an Information in Form von Anfangsenergie ‚herkommt‘, sie versagt auch schon bei der – scheinbar – kleineren Frage, wie es zur Ausbildung von biologischen Systemen auf dem Planeten Erde kommen konnte.

31. Damit ist nicht die Detailfrage gemeint, ob bestimmte für das Leben wichtige Moleküle schon ‚fertig‘ aus dem Weltall auf die Erde kamen oder sich – auf bislang noch unklare Weise – auf der Erde ‚gebildet‘ haben, sondern die Grundsatzfrage, wie es möglich war, dass sich überhaupt biologischen Systeme auf dem Planeten Erde bilden und immer weiter ausbreiten konnten (Molekülbildung, chemische Evolution, biologische Evolution).

32. Nach den Gesetzen der Thermodynamik strebt das bekannte Universum zwar langfristig auf einen Ausgleich aller Energieunterschiede, solange aber noch lokale Unterschiede bestehen, solange können sich an den Rändern des Energiegefälles noch Phänomene ausbilden, die die an diesen ‚Rändern‘ verfügbare ‚freie‘ Energie für ‚ihre Zwecke‘ ’nutzen‘. Alle biologische Zellen und Zellverbände, sind solche Strukturen: sie entziehen ihrer Umgebung (freie) Energie und generieren immer komplexere Strukturen, die der Idee des ‚(entropischen) Ausgleichs‘ diametral entgegen wirken. Und die biologischen Strukturen tun dies in einer sowohl individuellen wie auch systemisch-vernetzten Komplexität, die jeden rein auf ‚Zufall‘ basierenden Erklärungsversuch schon im Ansatz (rein mathematisch) ad absurdum führt.

33. Will man an dieser Stelle nicht in pseudo-theologische Ansätze flüchten, die die Erklärungslücken nach eigenen Vorstellungen – beliebig ? — ‚auffüllen‘, dann benötigt man Erklärungshypothesen, die sich mit den Methoden der Wissenschaft(en) vertragen.

VERDECKTE (IMPLIZITE) EIGENSCHAFTEN

34. Wenn wir im großen Stil Phänomene beobachten und messen können, die sich als Funktionen f darstellen lassen, die sich nicht direkt aus den unmittelbaren ‚Teilen‘ des Phänomens herleiten lassen, dann gibt es – neben der notwendigen Klärung der Arbeitsweise unseres Denkens (sehr wohl auch unter Einbeziehung einer evolutionären Erkenntnistheorie) – natürlich die (ganz normale) Arbeitshypothese, dass es in ‚Verbindung‘ mit den beteiligten ‚Elementen E‘ des beobachtbaren Phänomens p nicht nur die ‚direkten Eigenschaften‘ P(E) der beteiligten Elemente gibt, sondern möglicherweise auch weitere (indirekte)Eigenschaften E* (‚hidden properties‘), die direkt nicht beobachtbar sind, sondern nur unter bestimmten Randbedingungen des Zusammenwirkens ’sichtbar‘ werden.

35. Dieser Denkansatz würde dann in die Richtung führen, dass genau jene Eigenschaften, die an komplexen Strukturen ’sichtbar‘ werden, nicht ‚aus dem Nichts‘ entstehen, sondern grundsätzlich in der Struktur der Materie-Energie angelegt sind und sich bei steigendem Komplexitätsgrad in immer komplexeren Formen ‚zeigen‘.

36. Insofern alles, was wir in der Geistes- und Kulturgeschichte über ‚Geist’/ ‚Geistigkeit‘ usw. kennengelernt haben, von genau jenem komplexen Körper mit Gehirn stammt, der sich in der biologischen Evolution schrittweise herausgeschält hat, kann man mit dieser Hypothese dann die Frage aufwerfen, ob das, was die Phänomene des ‚Geistes‘ ausmacht, nicht zurückgeht auf diese indirekten Eigenschaften der Materie-Energie. Falls ja wäre der ‚Geist‘ letztlich eine ‚interne Eigenschaft‘ der Materie-Energie von Anfang an (ein Gedanke, der philosophisch viele Vorläufer hat, wenngleich eingebettet in andere Wortspiele).

37. Für eine empirische Theoriebildung wären solchen Fragen grundsätzlich kein Problem. In jeder anspruchsvollen empirischen Theorie mit mathematischem Modell gibt es genügend viele theoretische Begriffe (auch ‚theoretische Terme‘ genannt), die nicht ‚explizit‘ (‚direkt‘) definiert sind, sondern nur im Kontext vieler anderer Begriffe und Funktionen, die als Gesamtmodell einen Erklärungsanspruch darstellen und als Gesamtmodell ‚wahr‘ oder ‚falsch‘ sind.

[Anmerkung: Die Annahme von ‚verborgenen‘, ‚indirekten‘ Eigenschaften sind in der modernen Physik seit langem üblich. Der berühmte ‚Teilchenzoo‘ der Quantenphysik bietet hier genügend Anschauungsmaterial.]

38. Eine neue empirisch begründete (!) wissenschaftliche universale Theorie des Geistes wäre vor diesem Hintergrund prinzipiell kein Problem. Sie würde aber voraussetzen, dass die einzelnen Disziplinen (wie z.B. die Gehirnforschung) sich ihrer methodischen Grenzen bewusst werden und es zulassen würden, dass andere wissenschaftliche Disziplinen im Bereich komplexer Verhaltensphänomene geeignete theoretische Modelle entwickeln, die sich zwar bedingt mit z.B. der Gehirnwissenschaft für begrenzte Fragestellungen korrelieren lassen, die aber in keinster Weise auf diese begrenzten Fachdisziplinen ‚reduzierbar‘ wären. Andersherum gesprochen: diese komplexen Theorien beschreiben Eigenschaften und Beziehungen ‚oberhalb‘ möglichen vorausgesetzten ‚primitiveren# Elementen, die nur in diesen komplexeren Begriffen ’sichtbar‘ werden und nur hier ihre ‚Bedeutung‘ haben. Eine ‚Reduktion‘ auf die einfacheren Elemente ist nicht nur rein logisch nicht möglich, sondern würde die eigentliche Aussage direkt zerstören.

[Anmerkung: Das Thema mit dem ‚impliziten‘ Geist wurde in diesem Blog schon mehrfach diskutiert; besonders vielleicht in diesem Beitrag.]

DER KUNSTBEGRIFF

39. Im übrigen wäre der Kunstbegriff, den Singer benutzt, kritisch zu hinterfragen. Er selbst stellt gleich zu Beginn einerseits fest, dass es überhaupt keinen Konsens zum Begriff ‚Kunst‘ gibt, andererseits nimmt er Bezug auf bestimmte Tätigkeiten, die er dann als ‚künstlerisch‘ bezeichnet. Was soll man jetzt denken? Warum und wie sollen bestimmte Aktivitäten von Neuronen etwas mit Kunst zu tun haben, wenn nicht klar ist, was genau Kunst ist? Warum schreibt er dann nicht gleich, dass er zum Verhältnis von Gehirn und Kunst nichts sagen kann, weil nicht klar genug ist, was Kunst ist?

Einen Überblick über alle Blogeinträge nach Titeln findet sich HIER.

DONAL A.NORMAN, THINGS THAT MAKE US SMART. Defending Human Attributes In The Age Of The Machine, New York: Basic Books, 1993

(Die folgenden Gedanken sind (etwa ab der Mitte) in gewisser Weise ’salopper‘ als sonst; es geht primär darum, eine Anregung zu ermöglichen für das Thema der ‚Abwesenheit‘ des Menschen in weiten Bereichen des alltäglichen Denkens und Handelns)

BÜCHER LESEN IM ALLGEMEINEN

1) Wenn man Bücher lesen will ist das Hauptproblem immer, herauszufinden, welches der vielen möglichen Bücher soll man als nächstes lesen. Es gibt so viel unglaublich gute, spannende, aufklärende, erhellende Bücher, aber nur eines kann man als nächstes lesen, und da die Zeit knapp ist, bedeutet die Entscheidung für ein bestimmtes Buch, dass man all die anderen wunderbaren Bücher – zumindest vorläufig – nicht lesen wird.
2) Jeder hat da seine eigene Strategie, wie er Bücher auswählt. Im Grenzfall lässt man sich einfach überraschen (Geschenke, was im Regal steht, Werbung, Tipps von Freunden,…) oder aber man hat sich irgendwelche Kriterien zurechtgelegt (Forschungsthemen, bestimmte Hobbies, bestimmte Autoren,…).
3) Bei mir ist es eine Mischung von verschiedenen Faktoren: einerseits habe ich eine Art ‚Leitfrage‘, die sich nahezu durch mein ganzes Leben zieht, die sich in vielen Bereichen auch in diesem Blog widerspiegelt. Dann sind es meine Forschungsthemen, die alle um den Menschen kreisen, sein Erkennen, seine Kognition, seine Entstehung, der Mensch im Wechselspiel mit seiner Umgebung. Darin habe ich natürlich schon viel gelesen, was bedeutet, dass es so eine Art ‚Koordinatensystem‘ von Themen, Begriffen, Theorien, Autoren gibt. Dazu kommt weiter – als eine Art kontinuierlicher Prozess – Recherchen in Datenbanken sowohl zu Artikeln wie auch zu Büchern. Dies bedeutet, mit jedem neuen Namen, neuem Begriff, neuer Frage, neuem Artikel eröffnet sich beständig ein ganzes Feld von weiteren neuen Namen, Begriffen, Themen, Artikeln… Wissen erzeugt Wissen (genauso wie Nicht-Wissen dahin tendiert, Nicht-Wissen zu konservieren).
4) Und dann gibt es da noch einen Faktor, man mag dies ‚mystisch‘ nennen, eine bestimmte Art von ‚Gefühl‘. Wenn ich einen Artikel sehe oder ein Buch, dann sind es nicht nur die konkreten Worte und Sätze, die den Verstand erreichen, es ist auch immer ein ‚Gefühl‘ dabei, das so einen Artikel oder ein Buch zum ‚Leuchten‘ bringt (übrigens auch bei Veranstaltungen, angekündigten Vorträgen, usw.). Allerdings braucht dieses ‚Gefühl‘ einen konkreten ‚Anhaltspunkt‘. Es funktioniert nicht ‚blind‘ (höchstens im Modus der ‚Unruhe‘ die anzeigt, der Zustand ist unbefriedigend…). Letztlich ist es dann so eine Mischung aus Verstehen und ‚Gefühl‘, was den Ausschlag gibt, als nächstes Buch A zu lesen und nicht die anderen.
5) Manchmal ist diese Entscheidung schnell und direkt, manchmal ’stochere‘ ich ein wenig herum, probiere verschiedene Artikel/ Bücher aus, bis ich dann merke, das ist es jetzt.
6) Am schwierigsten ist dies, nachdem ich ein Buch gelesen habe, das einen sehr nachhaltigen Eindruck auf mich gemacht hat (wie z.B. das letzte Buch von Kauffman); dann etwas zu finden, was den Spannungsbogen fortsetzt, erscheint fast unmöglich.
7) Dazu kommt noch ein weiterer Aspekt: bei mir haben sich im Laufe der Jahre viele Bücher angesammelt, alle aus einer bestimmten Suche heraus. Und ich erlebe es immer wieder, dass manche Bücher viele Jahre da liegen, ich weiß, dass sie da sind, aber ‚der Funke springt nicht über‘; irgendwie passt es nicht, sie ‚jetzt‘ zu lesen obgleich klar ist, dass sie einen spannenden, wichtigen Inhalt haben. Und dann kommt ein Moment im eigenen Denken, Fühlen, Ausarbeiten, wo plötzlich klar wird, jetzt könnte dies eine Buch (in der Warteschleife) besonders passen. Und dann passiert es: es ist, als ob das Buch unverhofft ‚zum Leben erwacht‘, und es zu sprechen anfängt, und es entspinnt sich eine Art Dialog über die toten schwarzen Linien des Textes hinweg zu den mitschwingenden Inhalten, zu jenem imaginären Geist des Autors, den man meist nie gesehen hat.

WARUM DAS BUCH VON NORMAN

8) Einer der Faktoren, der ausschlaggebend war, das Buch von Donald A. Norman zu lesen, ist seine Positionierung für den Menschen und die Einordnung von Technologie als etwas, was dem Menschen helfen soll, sein ‚Menschsein‘ zu unterstützen, nicht den Menschen den Maschinen (die letztlich von Menschen geschaffen wurden) zu ‚opfern‘.
9) Dazu kommt, dass ich in einem anderen Zusammenhang zum Thema ‚verteiltes Wissen‘ in einem interessanten Artikel von Hollan et al. (2000) auf dieses Buch von Norman aufmerksam geworden bin.

MENSCHENZENTRIERT (‚Human-Centered‘)

10) Das Buch ist nicht sehr systematisch aufgebaut; es lebt von der umfangreichen praktischen Erfahrung des Autors. Er referiert viele konkrete Beispiele von Technologien, Schnittstellen / Interface dieser Technologien, Wirkungen auf Menschen, Erwartungen, die wir Menschen an Technologien haben, Faktoren, die dafür verantwortlich sind, welche Technologien entstehen, wie sie entstehen, wie sie ‚designed‘ werden.
11) Da ich auch viele Jahre Lehrveranstaltungen zum Thema Mensch-Maschine Interaktionen durchgeführt habe, waren mir die grundsätzlichen Themen bekannt und ich fand zahlreiche Anregungen im Detail.
12) Die Grundthese von Norman lässt sich etwa wie folgt formulieren: in der Vergangenheit wurde bei der Entwicklung von Technologien oft (bis immer) nicht der Mensch mit seinen tatsächlichen Fähigkeiten und Bedürfnissen zum Bezugspunkt gewählt, sondern das ‚rein technisch Mögliche‘ wurde in den Vordergrund gestellt und der Mensch musste sich dann diesen technischen Lösungen mehr oder weniger anpassen. Dank der hohen Anpassungsfähigkeit des Menschen (nicht der Technologien, die meist starr waren) war dies meist möglich, auch wenn sich dazu der Mensch oft sehr verbiegen musste, mit viel Leiden, mit viel gesundheitlichen Gefahren, letztlich un-menschlich.
13) Dass diese Situation einer menschen-unangemessenen Handlungssituation sehr fehleranfällig ist, liegt in der Natur der Sache. Wenn man den Menschen zwingt, etwas zu tun, was er eigentlich nicht gut kann, dann kommt der Mensch an seine Grenzen und macht Fehler bzw. nimmt psychisch und körperlich Schaden.
14) Auf der S.224 präsentiert Norman eine Tabelle, in der er gegenüberstellt, worin die Stärken und Schwächen von Menschen einerseits und Maschinen andererseits bestehen (wobei er davon ausgeht, dass ‚Maschinen‘ nicht ’smart‘ sind im Vergleich zum Menschen). In einer ‚menschenzentrierten‘ (‚human-centered‘) Perspektive hat der Mensch viel wunderbare Eigenschaften, mit denen er Maschinen haushoch überlegen ist. In einer ‚maschinenzentrierten‘ (‚machine centered‘) Perspektive, in der man die Maschine als Maßstab nimmt, nützen dem Menschen seine wunderbaren Fähigkeiten nichts; er ist den Maschinen haushoch unterlegen.

MENSCHENFERNER ALLTAG

15) Das klingt sehr einfach. Schaut man sich den Alltag an, so muss man konstatieren dass erst mit dem Aufkommen der Computer – und speziell hier dann der mobilen Telefone – der Aspekt eines ‚menschenzentrierten‘ Designs überhaupt erst ansatzweise eine wirtschaftlich relevante‘ Bedeutung bekommen hat (Erst stach Microsoft IBM aus, dann Apple Nokia und Microsoft, dann ….)(die Rolle anderer Designbereiche wie Mode, Haushaltsgegenstände, Möbel, Architektur,… wäre eigens zu gewichten).
16) Das dominante Thema ist und bleibt aber überwiegend eine Technologie, die ‚aus sich heraus‘ betrieben und weiter entwickelt wird. Der Blick auf den Menschen fällt den meisten Handelnden in Bereich Technikentwicklung schwer.
17) Dies fängt schon mit der Ausbildung an. In den technischen Ausbildungen (Ingenieure, Informatiker) war es bis vor kurzem völlig unüblich, den Studierenden dazu zu befähigen, den Blick vom Menschen her einzuüben. Und selbst heute ist der Anteil von Mensch-Maschine Interaktionsthemen im Curriculum sehr bescheiden, wenn er überhaupt vorkommt. Und bei den vorhandenen Lehrangeboten ist es dann wiederum nicht unbedingt die Perspektive des Menschen, die methodisch eingeübt wird, sondern es wird sehr oft eine bestimmte Technologie ‚als gegeben vorausgesetzt‘ und es wird nur gefragt, wie man diese ‚vorausgesetzte‘ Technologie (die als solche normalerweise wenig mit Menschen zu tun hat) so ‚herrichtet‘, dass ein Mensch sie bedienen kann, NICHT wie es für die Menschen gut wäre, SONDERN wie es die vorausgesetzte Technologie benötigt.
18) Insofern ist das Buch von Norman aus dem Jahr 1993 keineswegs ‚überholt‘, sondern seine These ist weiterhin provokativ und wegweisend. Der notwendige Blick auf den Menschen fällt allenthalben immer noch sehr schwer.
19) Wenn man sich fragt, woran das liegt, dann wird man schnell feststellen können, dass wir ein gesellschaftliches Geistesproblem haben: die sogenannte ‚humanistische Tradition‘ in Europa ist lokalisiert in den Bereichen Religion, Geisteswissenschaften, Feuilleton, Kulturbetrieb, ‚Sonntagsreden‘ von Verantwortlichen bei speziellen Anlässen, und juristisch partiell in den jeweiligen Gesetzgebungen. Daneben gibt es die Wirtschaft und stark wirtschaftsabhängige Forschung, in der der Mensch als Mensch überhaupt nicht vorkommt! Die Wirtschaft kennt den Menschen entweder nur als dummen, naiven Konsumenten, den man vorwiegend über statistische Parameter betrachtet, oder als Arbeitskraft, die rein unter dem Gesichtspunkt einer (in der Regel nicht menschengemäßen) Arbeitsleistung betrachtet wird mit einer zu leistenden Entlohnung, die sich in der Regel nicht an dem Geld orientiert, das verfügbar wäre, sondern an dem kleinstmöglichen Betrag, den man zahlen kann, ohne Probleme zu bekommen.

KULTURTHEORETISCHES

20) M.a.W. in all den Bereichen, die den Alltag primär bestimmen, existiert der Mensch als Mensch eigentlich nicht. Er ist durch die herrschenden Sprachregelungen und Verhaltensweisen ‚eliminiert‘. In einer solchen Situation hat der Mensch auch wenig Chancen. Es gibt von Seiten der Wirtschaft, der Technologie und den zugeordneten Ausbildungswegen keinerlei Ansatzpunkte, die Perspektive des Menschen sowohl theoretisch wie auch praktisch zu stärken. Der Mensch ist immer nur ein ‚Parameter‘ ‚am Rande‘, der ‚konsumiert‘ oder ‚produziert‘ (Ansätze, die darauf abzielen, die Situation der ‚Angestellten‘ zu verbessern sind meist nur angetrieben von der Notwendigkeit, die benötigte Arbeitskraft für die zu lösende Aufgabe hinreichenden zweckgebunden zu ‚befähigen‘).
21) Alles, was sich in den ‚humanistischen Reservaten‘ (Kulturbetrieb, Feuilletons, Religion…) abspielt, hat nahezu keine Relevanz für das technologische-wirtschaftliche Denken, höchstens als ‚Vergnügungsindustrie‘, ‚Brot und Spiele’…, in der Teilaspekte des Menschen sich gegen bares Geld ‚vermarkten‘ lassen, weil es ‚Spaß‘ macht oder weil es ‚chic‘ ist…).
22) In der literarischen Gattung ‚Science Fiction‘ reflektieren sich die zugrunde liegenden Annahmen über Mensch und Welt hinsichtlich Technologie meist mehr als in anderen literarischen Gattungen. Und hier gilt, dass in nicht wenigen Werken (man denke nur an das berühmte mehrteilige Foundation Werk von Asimov) die Technologie NICHT der dominierende Faktor ist, sondern ein Gesamtsystem, in der sich nicht nur die Technologie weiter entwickelt hat, sondern auch der Mensch selbst und die Technologie ist eine Art ‚Medium‘, in dem sich der ’neue‘ Mensch realisiert. Dies setzt allerdings voraus, dass die Entfremdung zwischen Technologie und Geisteswissenschaften aufgebrochen wird. Doch diese sitzt sehr tief, ist gesellschaftlich durch Institutionen, Rituale, Denkmuster so fest verankert, dass es ohne eine echte ‚Revolution‘ nicht gelingen wird, diese aufzubrechen. Der aktuelle Zustand verschafft seinen Protagonisten aktuell nur Vorteile. Eine Änderung wäre unüberschaubar, wirkt bedrohlich, würde verlangen, dass alle ihr Denken (und Fühlen) einer radikalen Selbstkritik unterziehen würden. Es gibt wenig Anlass zu glauben, dass dies einfach so geschehen wird. Wir bräuchten eine Art von Kulturrevolution (nicht das, was im China Maos darunter verstanden wurde)…
23) Wenn einer sich fragt, ob er generell zu einer Kulturrevolution fähig wäre, muss er sich die Testfrage stellen, ob er u.a. bereit wäre, in der Öffentlichkeit als ‚Verrückter‘ zu erscheinen. Wem diese Vorstellung ‚Unbehagen‘ bereitet, der sollte hier nicht weiter nachdenken.

Für eine Fortsezung siehe Teil 2.

Literaturhinweise:

JAMES HOLLAN, EDWIN HUTCHINS, and DAVID KIRSH, Distributed Cognition: Toward a New Foundation for Human-Computer Interaction Research, in: ACM Transactions on Computer-Human Interaction, Vol. 7, No. 2, June 2000, Pages 174–196.

Einen Überblick über alle Blogeinträge nach Titeln findet sich HIER