Archiv der Kategorie: Wissenschaftstheorie

Das Ende der Evolution, von Matthias Glaubrecht,2021 (2019). Lesenotizen

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 8.September 2022 – 10. September 2022, 10:12h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Kontext

In dem Parallelblock uffmm.org entwickelt der Autor das Konzept einer nachhaltigen empirischen Theorie (siehe z.B. „COMMON SCIENCE as Sustainable Applied Empirical Theory, besides ENGINEERING, in a SOCIETY“, ein Beitrag, der hervorgegangen ist aus den Überlegungen zu „From SYSTEMS Engineering to THEORY Engineering“), in der die Menschheit eine zentrale Rolle spielt, nicht losgelöst von der Biosphäre, nicht losgelöst vom gesamten Universum, sondern als eine ‚Handlungsmacht‘, die in diesen empirischen Substrat genannt ‚empirische Wirklichkeit‘ eingebettet ist.

Vor diesem Hintergrund erscheint das Buch von Glaubrecht zum Ende der Evolution auf den ersten Blick wie eine willkommene Ergänzung, eine Geschichte aus der Sicht der biologischen Evolution, wie ein ‚missing link‘, in dem das aktuelle wissenschaftliche Chaos und die zerstörerischen Kräfte einer entfesselten menschlichen Population ihren Erzähler finden.

Doch, lässt man sich auf die ruhig und sachlich wirkende ‚Erzählungen‘ dieses Buches ein, dann begegnet man im geradezu epischen Prolog Gedankenmuster, die wie ‚Disharmonien‘ wirken, wie ‚falsche Töne‘ in einer ansonsten berauschenden Sinfonie von Klängen.

Ein Prolog wie eine Ouvertüre

Ausschnitt aus dem berühmten ‚blue marbel‘ Bild von William Anders Anders während der Appollo-8 Mission 1968 (siehe: https://de.wikipedia.org/wiki/Datei:NASA-Apollo8-Dec24-Earthrise.jpg)

Glaubrecht lässt seine Erzählung beginnen mit dem einem Foto von William Alison Anders, einem Astronauten der Apollo-8 Mission 1968, das um die Welt ging, und mittlerweile einen ‚Kultstatus‘ hat: die blaue Kugel im Schwarz des umgebenden interstellaren Raumes, wundersam, so unwirklich, ein Bild ‚wie im Traum‘. Und doch, es ist kein Traum. Es ist der Ort von etwas, was wir gelernt haben, ‚biologisches Leben‘ zu nennen. Ein multidimensionales Phänomen, das nach heutigem Kenntnistand einzigartig im gesamten bekannten Universum ist. Diesen ‚Gedanken der Einzigartigkeit‘ greift Glaubrecht auf und pointiert ihn sehr stark, indem er die neuesten Forschungen zu einem ‚möglichen extra-terrestrischen Leben‘ auswertet und diese Option eines ‚anderen Lebens irgendwo dort draußen‘ quasi ad absurdum führt. (vgl. SS.21-24)

Nach diesem argumentativen ‚knock down‘ für die Option eines Lebens außerhalb der Erde wendet er sich dann dem Phänomen des Lebens auf der blauen Erde zu, und rafft die ca. 3.5 Milliarden Jahre Entstehung des Lebens auf der Erde mit Akzentuierung des Homo sapiens in 14 Zeilen auf S.24 zusammen. Die 14 Zeilen schließen mit der Bemerkung „obgleich wir … im kosmischen Maßstab kaum mehr sind als eine Eintagsfliege der irdischen Evolution“.

Fast könnte man das Buch an dieser Stelle zuklappen, es beiseite legen, und vergessen, dass es dieses Buch gibt.

Was immer der Autor Glaubrecht an wunderbaren Dingen in seinem Kopf haben mag, weiß, denkt, fühlt, mit dieser Aussage am Ende seiner 14 Zeilen Evolution auf S.24 deutet er an, dass er den Menschen in seiner biologischen Erscheinungsweise sehr ‚klassisch biologisch‘ sieht, Produkt einer ‚biologischen Hervorbringung‘, von der viele Biologen zu glauben wissen, was biologisches Leben ist. Dieser sich hier nurmehr ‚andeutende Akzent‘, dieser ‚gedankliche Tonfall‘, wird die ganze ‚Sinfonie der Gedanken‘ im weiteren Gang begleiten, verfolgen, und zu Disharmonien führen, die das ganze Werk in einen Abgrund zu reißen drohen, aus dem es kein gedankliches Entkommen zu geben scheint. ‚Schwarze Löcher‘ sind nicht nur ein Problem der heutigen theoretischen Physik.

Nachdem Glaubrecht (SS.24-28) die großen Phänomene einer tiefgreifenden Störung der Biosphäre und ihrer planetarischen Umgebung ins Bewusstsein gerufen hat (Bevölkerungsentwicklung, Ressourcenverbrauch, dramatisches Artensterben, Klimaextreme), deutet er auf das widersprüchliche Phänomen hin, dass es gesellschaftlich zwar schon — auch seit längerem — eine gewisse Wahrnehmung dieser Phänomene gibt (vgl. z.B. S.27), dass diese partiellen gesellschaftlichen Wahrnehmungen aber noch zu keiner wirklich wirksamen gesellschaftlichen Verhaltensänderung geführt zu haben scheinen.

Wer sollte diese ‚Gegenbewegung‘ zu einer wahrnehmbaren globalen zerstörerischen Dynamik auslösen? Woher sollte sie kommen?

Auf den Seiten 28-30 bekennt sich Glaubrecht klar zum Faktor ‚Wissen‘: „Der Schlüssel zu allem ist Wissen; ohne Kenntnis der Fakten und Hintergründe, der Daten und Quellen ist ein sicherer Umgang mit den komplexen Szenarien unserer Gegenwart nicht möglich, geschweige denn, dass sich die Herausforderungen der Zukunft meistern lassen.“(S.28) Allerdings, diese Bemerkung ist wichtig, Wissenschaft kann wirklich verlässlich „nur Vergangenes und bereits Geschehenes deuten“.(S.29) Dies klingt eher resignativ und wäre möglicherweise kaum ein Hilfe, gäbe es nicht doch auch — so Glaubrecht — die Möglichkeit, aus der Vergangenheit zu „lernen“ und „mithin Vorhersagen erleichtern“.(vgl. S.29)

Glaubrecht sagt nicht viel — eigentlich gar nichts — zur Frage, wie denn überhaupt Prognosen möglich sein können, was ihre Randbedingungen sind. Und irgendwie scheint ihm diese Option der ‚Prognose‘ ein wenig suspekt zu sein, beginnt er doch dann den Abschnitt darüber, wie er in seinem Buch arbeiten will, mit einem verstärkten Zweifel an der Möglichkeit von Prognosen (sein Zitat von Niels Bohr, S.30, Zeilen 1-2) und stellt fest „Tatsächlich ist Wissenschaft immer nur im Rückblick wirklich gut“.(S.30)

Damit mehren sich die Fragen, was Glaubrecht denn genau unter ‚Wissenschaft‘ versteht? Prognosen bezweifelt er, und der ‚Rückblick‘ soll es richten? Und er betont, dass es hier nicht nur um sein eigenes „Bauchgefühl“ — das eines einzelnen Wissenschaftlers — geht, der „sein Bauchgefühl zur Wissensautorität erhebt“ (S.28), sondern darum „Evidenzen“ zu sichern.(vgl. S.28f) Er verweist dann auf die Wissenschaftstheorie, die betone, dass das Gute an Wissenschaft sei, „dass wir ein Verfahren haben, den Gegenständen unserer Forschung gerecht zu werden, und unsere Ansichten, Befunde und Meinungen methodisch zu testen gelernt haben, statt uns im Vagen und Wunschdenken zu verlieren.“(S.29)

Eine Formulierung wie „den Gegenständen unserer Forschung gerecht zu werden“ ist natürlich ‚vage‘, und der Hinweis „unsere Ansichten, Befunde und Meinungen methodisch zu testen gelernt haben“ soll vielleicht weiter beruhigend wirken, aber diese Formulierung ist auch vage. Eine Kernbedeutung von ‚Testen‘ ist normalerweise jene, dass ich aus ‚Annahmen‘, die ich als Wissenschaftler — warum auch immer — mache, eine ‚Folgerung‘ (eine ‚Prognose‘) ableite, die ich dann ‚teste‘. Dieses Konzept der Generierung von ‚Prognosen‘ setzt einen ‚Mechanismus‘ (ein ‚Verfahren‘) voraus, wie ich aus Annahmen eine Prognose ‚ableiten‘ kann. Wie zirka 2.500 Jahre Philosophie und etwa 150 Jahre Wissenschaftsphilosophie zeigen, ist dies alles andere als ein ‚trivialer Sachverhalt‘. Glaubrecht schweigt dazu. Was sagt dies über seine Wissenschaftlichkeit … und jene der Evolutionsbiologie und Biodiversitätsforschung? Fakten ja, aber keine Prognosen?

Und es gibt noch einen Punkt, der bedenklich stimmen kann, ja sollte. Nach seiner wissenschaftsphilosophischen Verortung, die sich in vagen Andeutungen erschöpft, kommt er zu folgender Feststellung: „Just beim Blick in die biohistorischen Vergangenheit ist die Evolutionsforschung in ihrem Metier. Ausgerüstet mit dem Blick des Evolutionsbiologen und dem Wissen des Biodiversitätsforschers zur Artenvielfalt ebenso wie Artenschwund soll es hier um den Menschen, seine Wurzeln in der Natur und die Entwicklung seiner Kultur sowie um unseren Umgang mit der Natur gehen; schließlich auch darum, wohin uns das zukünftig führt“.(S.30)

Dass „Evolutionsbiologen und … Biodiversitätsforscher“ besonders geschult sind, um ‚evolutionäre biologische Prozesse‘ sowie die ‚Entwicklung von biologischen Arten‘ zu identifizieren und zu beschreiben, das mag man zunächst noch glauben; den nächsten Schritt, nämlich solche ‚auf Beobachtung beruhenden Evidenzen‘ dann sogar in ‚geeignete voraussagefähige Modelle‘ einzuordnen, muss man nicht unbedingt glauben. Noch weniger sollte man so ohne weiteres glauben, dass ‚Evolutionsbiologen und Biodiversitätsforscher‘ einfach so auch befähigt sind, komplexe Phänomene wie ‚Kultur‘ bzw. überhaupt ‚menschliche Gesellschaften‘ zu beschreiben. Ein Schreiner mag zwar an einem Haus Aspekte erkennen, die mit seiner Profession als Schreiner Überschneidungen aufweisen, aber er wird damit nicht zum ‚Multi-Handwerker‘, keinesfalls automatisch zum ‚Architekt‘ oder ‚Bauingenieur‘.

Mit dieser Selbstüberschätzung einzelner Disziplinen steht Glaubrecht nicht alleine. Er reproduziert damit nur ein Muster, was sich heute — leider — in nahezu allen wissenschaftlichen Einzeldisziplinen findet: jeder kultiviert seine eigene ‚Wissenschaftssprache‘, seine eigenen ‚wissenschaftlichen Methoden‘, aber die Fähigkeit zum ‚transdisziplinären‘ Denken und zu einer ‚gemeinsamen allgemeinen Theorie‘ existiert bislang eher nur in Absichtserklärungen. Eine der Folgen von dieser ’spendid isolation‘ der moderner Einzelwissenschaften ist genau das, was Glaubrecht — zu Recht — konstatiert: es gibt viele, verstreute Wahrnehmungen von ‚bedenklichen Entwicklungen‘ auf diesem Planeten, aber eine ‚Zusammenschau‘, die sich über ein ‚gemeinsames Wissen‘ organisieren müsste, findet nicht statt, weil wir als Menschen uns den Luxus leisten, in den Köpfen der überwältigenden Mehrheit ‚Weltbilder‘ zu hegen, die mit der realen Welt und ihrer Dynamik wenig zu tun haben. Für populistische und autokratische Gesellschaften eine ideale Umgebung.

Diese eher kritischen Bemerkungen zum wissenschaftlichen Setting des Buches sollten aber nicht davon ablenken, dass die Fülle der Fakten und Einsichten zu jenen Veränderungsprozessen planetarischen Ausmaßes, die Glaubrecht darbietet, wichtig sind. Diese Fülle ist atemberaubend. Doch diese wunderbare Seite des Buches darf nicht darüber hinweg täuschen, dass das schwierige wissenschaftlichen Setting des Buches sich voraussichtlich dort bemerkbar machen wird, wo es um eine Einschätzung der möglichen Zukunft gehen wird, ob und wie wir diese werden bewerkstelligen können. Auf dem Weg dahin wird es natürlich vielfach Sachverhalte geben, deren Einschätzung aufgrund seines Vorverständnisses vorzüglich in die Richtung seines Vorwissens laufen werden. Dies ist unausweichlich.

Auf den Seiten 30-35 lässt Glaubrecht umrisshaft erkennen, wie er sein Buch in drei Teilen organisieren will. Vor dem Blick in die Zukunft (Prognose!) ein langer Blick zurück in die Vergangenheit: Befunde, Fakten, Zusammenhänge. (vgl. S.30)

Im Rückblick auf den bisherigen Weg des Menschen zeichnet er das Bild eines „Pfadfinders“, der neugierig umherzieht, der sich überall aus einer scheinbar kostenlosen, unerschöpflichen Natur bedient, und der sich dabei rein zahlenmäßig dermaßen vermehrt, dass er nach und nach die gesamte planetarische Oberfläche in Besitz genommen und dabei so verändert hat, dass der Lebensraum nicht nur für erschreckend viele andere Arten genommen und zerstört wurde, sondern mittlerweile auch für sich selbst. Diese Auswirkungen des Menschen auf den Planeten sind so massiv, dass Geowissenschaftler eine neue erdgeschichtliche Epoche mit Namen „Anthropozän“ vorschlagen. (vgl.S.33) Alle Indizien deuten auf ein neues, sechstes, planetarisches Artensterben hin.(vgl. S.33) Dass es für uns Menschen scheinbar immer noch funktioniert trotz der aufweisbaren massiven Schäden überall lässt erahnen, wie komplex und redundant das gesamte biologische Ökosystem aufgebaut ist; in Milliarden von Jahren hat es sich in einer Weise ‚organisiert‘, die von einer großen ‚Resilienz‘ [1],[1.1], [1.2] zeugt. Doch diese ist nicht ‚unendlich‘; wenn die zerstörerischen Belastungen bestimmte Punkte — die berühmten ‚tipping points‘ — überschreiten, dann bricht das System so zusammen, dass eine Regenerierung — wenn überhaupt — möglicherweise nur über viele Millionen Jahre möglich sein wird und dann … (vgl. S.34f)

Wie dieser aktuell dramatische Prozess letztlich ausgehen wird: Glaubrecht lässt diese Frage bewusst unbeantwortet. Er plant zwar, einen ‚worst case‘ und ein mögliches ‚happy end‘ zu schildern (vgl.S36), aber welcher dieser beiden Fälle — oder womöglich noch ein dritter — letztlich eintreten wird, hängt vom Verhalten von uns Menschen in den nächsten Jahren ab. Wiederholt weist er darauf hin, dass der ‚Klimawandel‘, der heute in alle Munde ist, letztlich ja nur eine Nebenwirkung des eigentlichen Hauptproblems, der Verwüstung des Ökosystems ist. Eine Konzentration auf das Klima bei Vernachlässigung des ökologischen Problems kann daher kontraproduktiv sein.(vgl. S.36f)

Womit sich die Frage stellt, ob uns Menschen letztlich — biologisch und kulturell — die Mittel fehlen, mit dieser Problematik angemessen umzugehen? „Ist der Mensch letztlich ein vernunftloses Tier?“ (S.36)

(Paläo-)Anthropologie, Soziologie, Geschichte, Religion …

Gefühlt könnte der Prolog auf S.37 enden. Glaubrecht bringt aber noch Gedanken ins Spiel, die mit Evolutionsbiologie und Biodiversität eigentlich nichts mehr zu tun haben. Sein methodologisches wissenschaftliches Programm von S.30 wird damit deutlich gesprengt. Es folgt eine Skizze des Homo sapiens in den letzten 12.000 Jahren in denen die „überschaubaren Jäger und Sammler Horden“ (S.37) sich in Bauern verwandelten, in immer komplexere Gesellschaften leben mit all den Phänomenen, die frühe komplexe Gesellschaften so mit sich brachten (Ungleichheit, Gewalt, Unterdrückung, Krankheiten, Soziales als Stress, ..). Diese Darstellung ist durchsät mit ‚Bewertungen‘, die all dies Neue eher ’negativ‘ erscheinen lassen gegenüber der vorausgehenden ‚positiven‘ Zeit der wenigen, frei umherziehenden Horden.(vgl. S.37f)

Mit Evolutionsbiologie und Biodiversität hat dies nicht mehr viel zu tun. Glaubrecht bezieht sich an dieser Stelle direkt und ausführlich auf Schalk und Michel (EN 2016, DE 2017), die das Buch der Bibel aus anthropologischer Sicht interpretieren. Dazu führen sie eine dreifache Typologie der menschlichen ‚Natur‘ ein: (i) ‚Biologisch‘, (ii) ‚Kultur‘, (iii) ‚Vernunft‘. Abgesehen davon, dass die für die Klassifikation benutzten Begriffe in ihrem Verwendungskontext und ihrem Bedeutungsfeld mehr als vage sind, erscheint die Zuschreibung dieser Begriffe zur biologischen Lebensform des homo sapiens philosophisch und wissenschaftsphilosophisch zunächst sehr willkürlich (wenngleich diese Art der Typisierung sehr populär ist). Die in der Anthropologie (und auch den Geisteswissenschaften) sehr beliebte Gegenübersetzung von ‚Biologisch‘ und ‚Kultur‘ und dann auch noch zur ‚Vernunft‘ sitzt tief in den Köpfen der Vertreter dieser Disziplinen, aber dies sind ‚Denkprodukte‘ einer Epoche, ‚Artefakte‘ eines Denkens, das viele Jahrhunderte, ja viele Jahrtausende, nichts anderes gekannt hat. Wenn man aber im 20.Jahrhundert, und jetzt sogar im 21.Jahrhundert, lebt, darf man sich über diese denkerische Naivität schon wundern.

Fast schon extrem ist in diesem Zusammenhang die Zurichtung des Blicks auf das Phänomen der jüdisch-christlichen Religion mit der ‚Bibel‘ als Referenzpunkt. Bedenkt man, wie umfassend und reichhaltig die verschiedenen Gesellschaften und Kulturen der Menschheit in allen Erdteilen schon ab -5000 waren (man denke z.B. an Indien, China, Ägypten,) dann erscheint diese Blickverengung nicht nur extrem, sondern auch willkürlich.

Die Interpretation der Bibel, die Schaik und Michel präsentieren (und die Glaubrecht durch sein ausführliches Zitieren mindestens wohlwollend zur Kenntnis nimmt)(vgl. SS.38ff), ist zwar bei vielen immer noch populär, ist aber wissenschaftlich in keiner Weise zu rechtfertigen. Wie die verdienstvolle Arbeit der kritischen Bibelwissenschaften (ab dem 18.Jahrhundert)[2],[3] zeigt, muss man den Text des Alten Testaments als das Produkt eines Entstehungsprozesses sehen, der inhaltlich bis in die Zeit vor -900 (oder sogar weiter) zurückverweist. Er dokumentiert das vielstimmige Ringen von Menschen aus vielen verschiedenen Regionen und Zeiten, um eine Antwort auf letzten und doch auch sehr konkrete Fragen des Verhaltens im Alltag zu finden. In diesen Texten wird deutlich, dass diese Sichten keinesfalls ‚monoton‘ waren, sondern vielstimmig, teilweise geradezu konträr.[4] Und sowohl am Beispiel der jüdisch-christlichen Tradition wie auch an den Beispielen der verschiedenen anderen Religionen ist unübersehbar, dass es letztlich nicht die sogenannten ‚religiösen Inhalte‘ waren, die ganze Völker ‚befriedet‘ haben, sondern massive Machtinteressen (eng gekoppelt an finanziellen Interessen), die sich die religiösen Erzählungen für ihre Zwecke nutzbar machten um damit viele Völker äußerst blutig zu unterwerfen bzw. die Unterworfenen dogmatisch-autokratisch zu regieren. Dass sich modernes Denken, moderne Wissenschaft trotz dieser gedanklichen Unterdrückung überhaupt entwickeln konnten, ist dann fast schon ein Wunder. Die destruktive Kraft der religiösen Traditionen erlebt heute in vielen populistisch-fundamentalistischen Strömungen immer noch eine globale Wirkung, die ein modernes, dem Leben zugewandtes kritisches Denken eher verhindert und freie Gesellschaften gefährdet.[6]

Die massive Unterdrückung von anderem Fühlen und Denken, die von der jüdisch-christlichen Tradition mindestens ausging (und das war nicht die einzige Religion, die sich so verhielt) basiert im Kern auf bestimmten Überzeugungen, was ‚der Mensch‘ und was ‚Geschichte‘ ist. Während die Bibel selbst — und hier insbesondere das alte Testament — noch vielstimmig und gar konträr daherkommt, entstanden in den Zeiten nach der ‚Kanonisierung‘ [7] der verschiedenen Schriften immer mehr ‚verfestigte‘ Interpretationen, die zwar geeignet waren, Machtansprüche der herrschenden Institutionen durchzusetzen, sie verkleisterten aber das ursprüngliche Bild, machten seine menschlichen Verwurzelungen eher unsichtbar, und leisteten damit einer starren Dogmatisierung Vorschub. ‚Anderes‘ Denken war erst einmal ‚fremd‘, ‚gefährlich‘, ‚falsch‘. Dass die ‚Intelligenz der mittelalterlichen Mönche‘ es über mehrere Jahrhunderte hin schaffte, das ‚Denken der Griechischen Philosophie, vor allem das Denken des Aristoteles‘, in einen konstruktiven Dialog mit dem christlichen Dogma zu bringen, grenzt schon fast an ein Wunder. Allerdings schafften diese großartigen Denker es nicht, das christliche Lehramt in zentralen Positionen zu erneuern. Die aufkommenden neuen empirischen Wissenschaften (bis hin zur Evolutionsbiologie) wurden ebenfalls zunächst verteufelt, verfolgt, gar auf dem Scheiterhaufen verbrannt. Die christliche Begleitung der europäischen Unterwerfung der Völker anderer Kontinente ermöglichte zwar neue Einsichten und Verhaltensweisen speziell des Jesuitenordens, der sich überall auf die Seiten der ursprünglichen Bewohner schlug (Nord- und Südamerika, Asien), indem sie diese Sprachen lernten, Wörterbücher herausgaben, deren Kleidung und religiösen Praktiken teilweise übernahmen, oder sie (in Südamerika) aktiv gegen die portugiesisch-spanischen Ausbeuter zu schützen versuchten, doch wurden sie dafür von der Institution gnadenlos abgestraft: ohne Vorankündigung wurden sie über Nacht überall verfolgt, eingekerkert, gefoltert, umgebracht. Die später aufkeimende kritischen Bibelwissenschaften hatten genug Erkenntnisse, um die naiven Grundanschauungen des christlichen Dogmas zu erschüttern und als haltlos zu erweisen. Aber auch diese wurden lange unterdrückt und innerhalb der Institution dann soweit ‚abgeschwächt‘, dass notwendige Korrekturen am Gesamtbild von ‚Mensch‘, ‚Geschichte‘, ‚Institution‘ dann doch wieder unterblieben.

Wenn die Autoren Schaik und Michels — mit Billigung von Glaubrecht — diese ‚finstere Maschine‘ einer dogmatischen christlichen Religion (mit vielen ihrer späteren Ablegern) letztlich ‚glorifizierend‘ preisen als einen ‚menschheitsverbindenden Verhaltenskodex‘, den man irgendwie zurück haben möchte (S.41), dann erscheint dies vor dem Hintergrund der massiven Fakten als ‚extrem naiv‘; mit Wissenschaft hat dies nicht das Geringste zu tun.

Typisierung: Natur – Kultur – Vernunft

Ich möchte hier nochmals auf die für Schaik und Michels grundlegende Typisierung der menschlichen ‚Natur‘ als (i) ‚Biologisch‘, (ii) ‚Kulturell‘, (iii) ‚Vernunft‘ (vgl. S.39f) zurück kommen, die sich prozesshaft in einem komplexen Phänomen von „kumulativer kultureller Evolution“ (S.40) niederschlägt.

Wenn ich ein technisches System wie einen Computer nehme, dann besteht dieser aus (i) Hardware, die festlegt, welche technischen Systemzustände im Prinzip möglich sind (Hardware, die mittlerweile partiell ‚adaptiv‘ sein kann), aus (ii) Software, die aus dem Raum der möglichen Systemzustände eine charakteristische Teilmenge von Zuständen auswählt, und — für den menschlichen Benutzer bedeutsam — (iii) das beobachtbare Input-Output-Verhalten des Systems, das mit dem menschlichen Verhalten eine ‚Symbiose‘ eingeht. Ein Mensch im Jahr 2022, der ein sogenanntes ‚Smartphone‘ benutzt, der denkt während der Nutzung weder über die Hardware noch über die Software nach; er erlebt das technische System direkt und unmittelbar als ‚Teil seines eigenen Handlungsraumes‘. Letztlich ‚verschwindet‘ in der Wahrnehmung das technische System als etwas ‚Anderes‘; es gehört zum Menschen so wie sein Arm, seine Hand, seine Beine.

Die Dreifach-Typologie von Schaik und Michel (literarisch approbiert von Glaubrecht) liese sich auf die Menge der Smartphones anwenden: (i) der menschliche Körper als Manifestation des ‚Biologischen‘ entspricht der Hardware als Manifestation des Technischen. (ii) Die ‚Kultur‘ entspricht der Software, deren Regelmengen die Menge der Systemzustände festlegen. (iii) die ‚Vernunft‘ entspricht jenen typischen ‚Reaktionen‘ des technischen Systems auf die Anforderungen seitens des menschlichen Benutzers, in denen das System ‚antwortet‘, ‚erinnert‘, ‚Konsequenzen sichtbar macht‘, ‚Assoziationen herstellt‘, usw.

Wer jetzt einwenden möchte, dass diese ‚Auslegung der Begriffe‘ in diesem Beispiel doch etwas ‚willkürlich‘ sei, der sollte sich fragen, wie denn Schaik und Michel die Verwendung ihrer Begriffe rechtfertigen. Ihre Verwendung der Begriffe ist absolut beliebig.

Im Smartphone-Beispiel wird allerdings klar, dass die unterschiedlichen ‚Erscheinungsweisen‘ dieses technischen Systems (Hardware, Software, Input-Output-Verhalten) zwar sprachlich unterschiedlich gehandhabt werden können, dass aber jede ‚Ontologisierung‘ dieser drei Erscheinungsweisen in Richtung eigenständiger ‚Naturen‘ die tatsächliche Funktionalität des Systems stark verzerren würde. Jeder Informatiker weiß, dass das beobachtbare Input-Output-Verhalten des Smartphones (so ‚klug‘ es auch erscheinen mag), letztlich nur eine spezielle Abbildung der inneren Systemzustände ist, die von der aktiven Software aus der Menge der möglichen technischen Systemzustände ausgewählt wird. Das eine kann man nicht ohne das andere verstehen. Das technische System bildet als solches ein einziges ‚funktionales Ganzes‘. Und in dem Maße wie Computersysteme über ‚Sensoren‘ verfügen (das Smartphone hat sehr viele), die ‚Signale der Außenwelt‘ messen können, und/ oder auch über ‚Aktoren‘ (hat ein Smartphone auch), auf die Außenwelt physikalisch einwirken kann, dann kann ein Smartphone ‚Zustände der Außenwelt‘ in seine ‚internen Systemzustände‘ ‚abbilden‘, und es kann — falls die Software so ausgelegt wurde — auch Eigenschaften der Außenwelt (und auch über sich selbst) ‚lernen‘. Nicht rein zufällig sprechen ja heute fast alle vom ‚Smart‘-Phone, also von einem ‚klugen‘ Phone, von einem klugen technischen System. Selbstfahrende Autos und ‚autonome Roboter‘ gehören auch in diese Rubrik der ‚klugen‘, ‚vernünftigen‘ Maschine.

Wenn jetzt wieder jemand (vorzugsweise Anthropologen und Geisteswissenschaftler) einwenden würden, dass man diese Begriffe ‚klug‘ und ‚vernünftig‘ hier nicht anwenden darf, da sie ‚unpassend‘ seien, dann kann man gerne zurückfragen, wie Sie denn diese Begriffe definieren? Die Verwendungen dieser Begriffe in der Literatur ist dermaßen vielfältig und vage, dass es schwer fallen dürfte, eine ’scharfe‘ Definition zu geben, die eine gewisse Mehrheit findet. Nichts anderes machen die Informatiker. Weitgehend ohne Kenntnis der philosophischen Literatur benutzen sie diese Begriffe in ihrem Kontext. Sie haben allerdings den Vorteil, dass ihre technischen Systeme schärfere Definitionen zulassen. Von einer ‚klugen‘ Maschine in einem Atemzug mit einem ‚klugen‘ Menschen zu sprechen, erhöht zwar den kulturellen Verwirrtheitsgrad, bislang scheint dies aber niemanden ernsthaft zu stören.

Um es klar zu sagen: das von mir konstruierte Beispiel ist genau das, ein Beispiel; es ersetzt keine umfassende ‚Theorie‘ über den Menschen als Moment der biologischen Evolution auf diesem blauen Planeten. Von einer solchen Theorie sind wir aktuell auch noch — so scheint es — gefühlte Lichtjahre entfernt. Auf jeden Fall dann, wenn Biologen und Anthropologen kein Problem damit zu haben scheinen, solch ein finsteres Phänomen wie die jüdisch-christliche Religion in ihrer historischen Manifestation (sind andere besser?) als positives Beispiel einer Bewältigung des Lebens auf diesem Planeten zu qualifizieren. Vielleicht wäre es hilfreich, wenn Biologen und Anthropologen sich mehr damit beschäftigen würden, wie denn alle diese — scheinbar widersprüchlichen Phänomene ‚biologische Systeme‘, ‚Kultur‘ und ‚Vernunft‘ tatsächlich zusammenhängen. Die — geradezu naive — Verherrlichung der frühen Phase des ‚vorgesellschaftlichen‘ homo sapiens und die — ebenso naiven — Kassandra-Rufen-ähnliche Klassifizierungen von zunehmend komplexen Gesellschaftsbildungen zerstört das Phänomen, was es wissenschaftlich zu erklären gilt, bevor man es überhaupt richtig zur Kenntnis genommen hat. Hier bleibt erheblich ‚Luft nach oben‘.[8]

KOMMENTARE

wkp := Wikipedia, [de, en, …]

[1] Resilienz: Dieser Begriff wird von verschiedenen Disziplinen in Anspruch genommen. Nach meinen Recherchen taucht er als erstes in der Ökologie auf [1.1], wo er sich als wichtiger theoretischer Begriff etabliert hat.[1.2]

[1.1] C.S. Holling. Resilience and stability of ecological systems. Annual Review of Ecology and Systematics, 4(1):1–23, 1973. Online: https://www.jstor.org/stable/2096802

[1.2] Brand, F. S., and K. Jax. 2007. Focusing the meaning(s) of resilience: resilience as a descriptive concept and a boundary object. Ecology and Society 12(1): 23. [online] URL: http://www.ecologyandsociety.org/vol12/iss1/art23/

[1.3] Peter Jakubowski. Resilienz – eine zusätzliche denkfigur für gute stadtentwicklung. Informationen zur Raumentwicklung, 4:371–378, 2013.

[2] Biblische Exegese in wkp-de: https://de.wikipedia.org/wiki/Biblische_Exegese

[3] Historisch-kritische Methode in wkp-de: https://de.wikipedia.org/wiki/Historisch-kritische_Methode_(Theologie)

[4] Ein sehr prominentes Beispiel sind die beiden verschiedenen Versionen der sogenannten ‚Schöpfungsgeschichten‘ zu Beginn des heutigen biblischen Textes, die aus ganz verschiedenen Zeiten stammen, eine ganz verschiedene Sprache benutzen (im hebräischen Text direkt sichtbar), und die ganz unterschiedliche Bilder von Gott, Mensch und Schöpfung propagieren.

[5] Carel van Schaik und Kai Michel, „Das Tagebuch der Menschheit: Was die Bibel über unsere Evolution verrät“, Rowohlt Taschenbuch; 8. Edition (17. November 2017)(Original: The Good Book of Human Nature. An Evolutionary Reading of the Bible, 2016)

[6] Sehr aufschlussreich ist der Umgang der christlichen Tradition mit der sogenannten ‚Spiritualität‘ und ‚Mystik‘: nahezu alle großen geistlichen Lebensgemeinschaften (oft ‚Orden‘ genannt) durften nur existieren, wenn sie sich vollständig der Kontrolle der Institution unterwarfen. Falls nicht, wurden sie verfolgt oder getötet. ‚Subjektivität‘, ‚individuelle Erfahrung‘, nichtautoritäre Praxis, andere Gesellschaftsformen, wurden kompromisslos unterdrückt, ebenso jede Art von abweichender Weltsicht (man denke z.B. nur an Galilei und Co.).

[7] Die ‚Kanonisierung‘ der Bibel meint den historischen Prozess, in dem festgelegt wurde, welche Schriften zum Alten und Neuen Testament gezählt werden sollten und welche nicht. Wie man sich vorstellen kann, war dieser Prozess in keiner Weise ‚trivial‘.(Siehe auch: wkp-de, https://de.wikipedia.org/wiki/Kanon_(Bibel))

[8] Eine sehr interessante alternative Sicht im Bereich (Kultur-)Antropologie und Soziologie zum Verständnis des Phänomens Mensch bietet das interessante Buch von Pierre Lévy  “Collective Intelligence. mankind’s emerging world in cyberspace” (translated by Robert Bonono),1997 (French: 1994), Perseus Books, 11 Cambridge Center Cambridge, MA, United States. Allerdings scheint auch dieses Buch — trotz seiner neuen Akzente — noch eher im ‚alten Denken‘ verhaftet zu sein als in einem ’neuen Denken‘.

[8.1] Eine Folge von Kommentaren zu Pierre Lévy’s Buch findet sich hier: Gerd Doeben-Henisch, 2022, „Pierre Lévy : Collective Intelligence – Chapter 1 – Introduction“, https://www.uffmm.org/2022/03/17/pierre-levy-collective-intelligence-preview/ (mit Fortsetzungs-Links)

Ein Überblick über alle Beiträge des Autors nach Titeln findet sich HIER.

MASLOW UND DIE NEUE WISSENSCHAFT. Nachbemerkung zu Maslow (1966)

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Datum: 21.Juni 2020 (Korrekturen: 24.Juni 2020)

KONTEXT

Wenn man sich nicht nur wundern will, warum das Phänomen von ‚Fake News‘ oder ‚Verschwörungstheorien‘ so verbreitet ist und selbst vor akademischer Bildung nicht Halt macht, dann muss man versuchen, den Mechanismus zu verstehen, der diesem Phänomen zugrunde liegt. Von den vielen Zugängen zu dieser Frage finde ich das Buch von Maslow (1966) The Psychology of Science besonders aufschlussreich.

VERLUST DES PHÄNOMENS

Maslow erlebte seine Arbeit als Psychotherapeut im Spannungsfeld zur damaligen experimentellen verhaltensorientierten Psychologie im Stil von Watson. Während er als Psychotherapeut versuchte, die ganze Bandbreite der Phänomene ernst zu nehmen, die sich in der Begegnung mit konkreten Menschen ereignet, gehörte es zum damaligen Programm einer empirischen Verhaltens-Psychologie, die Phänomene im Kontext von Menschen auf beobachtbares Verhalten zu beschränken, und hier auch nur auf solche Phänomene, die sich in (damals sehr einfachen) experimentellen Anordnungen reproduzieren lassen. Außerdem galt das Erkenntnisinteresse nicht den individuellen Besonderheiten, sondern allgemeinen Strukturen, die sich zwischen allen Menschen zeigen.

Maslow verallgemeinert die Betrachtung dahingehend, dass er die Einschränkung der Phänomene aus Sicht einer bestimmten Disziplin als Charakteristisch für die Wissenschaft seiner Zeit diagnostiziert. Er meinte in dieser Ausklammerung von Phänomenen eine tiefer liegende Tendenz zu erkennen, in der letztlich die Methode über das Phänomen gestellt wird: wehe dem Phänomen, wenn es nicht zu den vereinbarten Methoden passt; es hat hier nichts zu suchen. In dem Moment, in dem die Wissenschaft von sich aus entscheiden darf, was als Phänomen gelten darf und was nicht, gerät sie in Gefahr, ein Spielball von psychologischen und anderen Dynamiken und Interessen zu werden, die sich hinter der scheinbaren Rationalität von Wissenschaft leicht verstecken können. Aus der scheinbar so rationalen Wissenschaft wird verdeckt eine irrationale Unternehmung, die sich selbst immunisiert, weil sie ja alle Phänomene ausklammern kann, die ihr nicht passen.

VERLUST DER EINHEIT

Zu der verdeckten Selbstimmunisierung von wissenschaftlichen Disziplinen kommt erschwerend hinzu, dass die vielen einzelnen Wissenschaften weder begrifflich noch prozedural auf eine Integration, auf eine potentielle Einheit hin ausgelegt sind. Dies hier nicht verstanden als eine weitere Immunisierungsstrategie, sondern als notwendiger Prozess der Integration vieler Einzelaspekte zu einem möglichen hypothetischen Ganzen. Ohne solche übergreifenden Perspektiven können viele Phänomene und daran anknüpfende einzelwissenschaftliche Erkenntnisse keine weiterreichende Deutung erfahren. Sie sind wie einzelne Findlinge, deren Fremdheit zu ihrem Erkennungszeichen wird.

SUBJEKTIV – OBJEKTIV

In der orthodoxen Wissenschaft, wie Maslow die rigorosen empirischen Wissensschaften nennt, wird ein Begriff von empirisch, von objektiv vorausgesetzt, der den Anspruch erhebt, die reale Welt unabhängig von den internen Zuständen eines Menschen zu vermessen. Dies geht einher mit der Ausklammerung der Subjektivität, weil diese als Quelle allen Übels in den früheren Erkenntnistätigkeiten des Menschen diagnostiziert wurde. Mit der Ausklammerung der Subjektivität verschwindet aber tatsächlich auch der Mensch als entscheidender Akteur. Zwar bleibt der Mensch Beobachter, Experimentator und Theoriemacher, aber nur in einem sehr abstrakten Sinne. Die inneren Zustände eines Menschen bleiben in diesem Schema außen vor, sind quasi geächtet und verboten.

Diese Sehweise ist selbst im eingeschränkten Bild der empirischen Wissenschaften heute durch die empirischen Wissenschaften selbst grundlegend in Frage gestellt. Gerade die empirischen Wissenschaften machen deutlich, dass unser Bewusstsein, unser Wissen, unser Fühlen funktional an das Gehirn gebunden sind. Dieses Gehirn sitzt aber im Körper. Es hat keinen direkten Kontakt mit der Welt außerhalb des Körpers. Dies gilt auch für die Gehirne von Beobachtern, Experimentatoren und Theoriekonstrukteuren. Keiner von ihnen sieht die Welt außerhalb des Körpers, wie sie ist! Sie alle leben von dem, was das Gehirn aufgrund zahlloser Signalwege von Sensoren an der Körperoberfläche oder im Körper einsammelt und daraus quasi in Echtzeit ein dreidimensionales Bild der unterstellten Welt da draußen mit dem eigenen Körper als Teil dieser Welt errechnet. Dies bedeutet, dass alles, was wir bewusst wahrnehmen, ein internes, subjektives Modell ist, eine Menge von subjektiven Ereignissen (oft Phänomene genannt, oder Qualia), von denen einige über Wahrnehmungsprozesse mit externen Ursachen verknüpft sind, die dann bei allen Menschen in der gleichen Situation sehr ähnliche interne Wahrnehmungsereignisse erzeugen. Diese Wahrnehmungen nennen wir objektiv, sie sind aber nur sekundär objektiv; primär sind sie interne, subjektive Wahrnehmungen. Die Selbstbeschränkung der sogenannten empirischen Wissenschaften auf solche subjektiven Phänomene, die zeitgleich mit Gegebenheiten außerhalb des Körpers korrelieren, hat zwar einen gewissen praktischen Vorteil, aber der Preis, den die sogenannten empirischen Wissenschaften dafür zahlen, ist schlicht zu hoch. Sie opfern die interessantesten Phänomene im heute bekannten Universum nur, um damit ihre einfachen, schlichten Theorien formulieren zu können.

In ihrer Entstehungszeit — so im Umfeld der Zeit von Galilelo Galilei — war es eine der Motivationen der empirischen Wissenschaften gewesen, sich gegen die schwer kontrollierbaren Thesen einer metaphysischen Philosophie als Überbau der Wissenschaften zu wehren. Die Kritik an der damaligen Metaphysik war sicher gerechtfertigt. Aber In der Gegenbewegung hat die empirische Wissenschaft gleichsam — um ein Bild zu benutzen — das Kind mit dem Bade ausgeschüttet: durch die extreme Reduktion der Phänomene auf jene, die besonders einfach sind und durch das Fehlen eines klaren Kriteriums, wie man der Gefahr entgeht, wichtige Phänomene schon im Vorfeld auszugrenzen, wurde die moderne empirische Wissenschaft selbst zu einer irrationalen dogmatischen Veranstaltung.

Es ist bezeichnend, dass die modernen empirischen Wissenschaften über keinerlei methodischen Überbau verfügen, ihre eigene Position, ihr eigenes Vorgehen rational und transparent zu diskutieren. Durch die vollständige Absage an Philosophie, Erkenntnistheorie, Wissenschaftsphilosophie — oder wie man die Disziplinen nennen will, die sich genau mit diesen Fragen beschäftigen — hat sich die empirische Wissenschaft der Neuzeit einer nachhaltigen Rationalität beraubt. Eine falsche Metaphysik zu kritisieren ist eines, aber sich selbst angemessen zu reflektieren, ein anderes. Und hier muss man ein Komplettversagen der modernen empirischen Wissenschaften konstatieren, was Maslow in seinem Buch über viele Kapitel, mit vielen Detailbeobachtungen aufzeigt.

DAS GANZE IST EIN DYNAMISCHES ETWAS

Würden die empirischen Wissenschaften irgendwann doch zur Besinnung kommen und ihren Blick nicht vor der ganzen Breite und Vielfalt der Phänomene verschließen, dann würden sie feststellen können, dass jeder Beobachter, Experimentator, Theoriemacher — und natürlich alle Menschen um sie herum — über ein reiches Innenleben mit einer spezifischen Dynamik verfügen, die kontinuierlich darauf einwirkt, was und wie wir denken, warum, wozu usw. Man würde feststellen, dass das Bewusstsein nur ein winziger Teil eines Wissens ist, das weitgehend in dem um ein Vielfaches größeren Unbewusstsein verortet ist, das unabhängig von unserem Bewusstsein funktioniert, kontinuierlich arbeitet, all unsere Wahrnehmung, unser Erinnern, unser Denken usw. prägt, das angereichert ist mit einer ganzen Bandbreite von Bedürfnissen und Emotionen, über deren Status und deren funktionale Bedeutung für den Menschen wir bislang noch kaum etwas wissen (zum Glück gab und gibt es Wissenschaften, die sich mit diesen Phänomenen beschäftigen, wenngleich mit großen Einschränkungen).

Und dann zeigt sich immer mehr, dass wir Menschen vollständig Teil eines größeren BIOMs sind, das eine dynamische Geschichte hinter sich hat in einem Universum, das auch eine Geschichte hinter sich hat. Alle diese Phänomene hängen unmittelbar untereinander zusammen, was bislang aber noch kaum thematisiert wird.

Das Erarbeiten einer Theorie wird zu einem dynamischen Prozess mit vielen Faktoren. Bei diesem Prozess kann man weder die primäre Wahrnehmung gegen konzeptuelle Modelle ausspielen, noch konzeptuelle Modelle gegen primäre Wahrnehmung, noch kann man die unterschiedlichen internen Dynamiken völlig ausklammern. Außerdem muss der Theoriebildungsprozess als gesellschaftlicher Prozess gesehen werden. Was nützt eine elitäre Wissenschaft, wenn der allgemeine Bildungsstand derart ist, dass Verschwörungstheorien als ’normal‘ gelten und ‚wissenschaftliche Theorien‘ als solche gar nicht mehr erkannt werden können? Wie soll Wissenschaft einer Gesellschaft helfen, wenn die Gesellschaft Wissenschaft nicht versteht, Angst vor Wissenschaft hat und die Wissenschaft ihrer eigenen Gesellschaft entfremdet ist?

BOTSCHAFT AN SICH SELBST?

Das biologische Leben ist das komplexeste Phänomen, das im bislang bekannten Universum vorkommt (daran ändert zunächst auch nicht, dass man mathematisch mit Wahrscheinlichkeiten herumspielt, dass es doch irgendwo im Universum etwas Ähnliches geben sollte). Es ist ein dynamischer Prozess, dessen Manifestationen man zwar beobachten kann, dessen treibende Dynamik hinter den Manifestationen aber — wie generell mit Naturgesetzen — nicht direkt beobachtet werden kann. Fasst man die Gesamtheit der beobachtbaren Manifestationen als Elemente einer Sprache auf, dann kann diese Sprache möglicherweise eine Botschaft enthalten. Mit dem Auftreten des homo sapiens als Teil des BIOMs ist der frühest mögliche Zeitpunkt erreicht, an dem das Leben ‚mit sich selbst‘ sprechen kann. Möglicherweise geht es gerade nicht um den einzelnen, wenngleich der einzelne im Ganzen eine ungewöhnlich prominente Stellung einnimmt. Vielleicht fängt die neue Wissenschaft gerade erst an. In der neuen Wissenschaft haben alle Phänomene ihre Rechte und es gibt keine Einzelwissenschaften mehr; es gibt nur noch die Wissenschaft von allen für alles ….

KONTEXT ARTIKEL

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

MEDITATION UND WISSENSCHAFT. Überlegungen zu einem Lehr- und Forschungsexperiment an einer Deutschen Hochschule

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 16.Okt. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Das Hauptthema in diesem Blog ist seit Beginn die Suche nach dem neuen Menschenbild innerhalb der Koordinaten ‚Philosophie – Wissenschaft‘ ergänzt um die Themen ‚Gesellschaft – Technologie‘ und ‚Religion‘.

Im Laufe der Jahre haben sich aufgrund dieser Überlegungen immer wieder ‚Unterprojekte‘ außerhalb des Blogs herausgebildet, um die allgemeinen Überlegungen auch konkret zu prüfen bzw. umzusetzen.

Aktuell gibt es drei Unterprojekte: (i) Vorbereitet durch viele Jahre Vorlesungen gibt es ein online-Buchprojekt zum integrierten Engineering, das weit fortgeschritten ist. (ii) Ferner gibt es nun schon im vierten Semester ein Projekt ‚Meditation und Wissenschaft‘ an einer Deutschen Hochschule als reguläre interdisziplinäre Lehrveranstaltung, aus der ein erstes Buch hervorgegangen ist (kurz vor dem Druck), und zu dem es in wenigen Tagen einen ersten wissenschaftlichen Kongress geben wird. (iii) Seit dem Frühjahr 2018 hat sich im Anschluss an einen Kongress zur Städteplanung ein neues interdisziplinäres Projekt gebildet, das eine ziemlich direkte Umsetzung der Theorie des Engineerings ist, die unter (i) erwähnt wird (die aktuelle Webseite https://www.frankfurt-university.de/index.php?id=4664 verrät noch nicht all zu viel, aber eine deutlich erweiterte Fassung ist in Vorbereitung (bis ca. Mitte November) und adressiert alle Kommunen in Deutschland (und letztlich in ganz Europa). Eine weitere Variante adressiert Universitäten und Schulen, auch Firmen.

Hier soll kurz auf das unter (ii) genannte Projekt eingegangen werden.

GESELLSCHAFTICHE AUSGANGSLAGE

Wie in dem im Frühjahr 2019 erscheinenden Buch ausführlich dargelegt wird, erleben wir eine Zeit, in der aktuelle technologische Entwicklungen (sehr dominant: die sogenannte ‚Digitalisierung‘) die gewohnten Abläufe in der Gesellschaft von Grund auf neu formen. Zusätzlich wirbeln alte, bekannte Weltbilder mit neuen wissenschaftlichen Sehweisen, meist sehr fragmentiert, durcheinander und lassen den einzelnen eher verwirrt denn aufgeklärt zurück. Die konkreten Alltagsformate der einzelnen Menschen in den Industrieländern induzieren viele neue Stresssituationen, selbst schon bei Kindern, Jugendlichen und Studierenden, die das aktuelle Bildungssystem zu überfordern scheinen.

VERANTWORTUNG DER HOCHSCHULEN

In einem solchen Kontext müssen sich Hochschulen, auch die Hochschulen für angewandte Wissenschaften, neu orientieren und sortieren.

Traditionellerweise verbindet man mit Hochschulen ‚Wissenschaft‘, ‚wissenschaftliches Denken und Arbeiten‘, und es gibt zahlreiche juristische und organisatorische Abläufe, die diese Wissenschaftlichkeit absichern sollen. Aus Sicht des einzelnen Studierenden erscheint eine Hochschule aber immer mehr wie eine ‚Service-Maschine‘, die eine Vielfalt von Studienprogrammen anbietet, die jeweils kleine Ausschnitte aus dem großen Wissenskosmos vorstellt, die — in der Regel — weder mit dem Rest der Wissenschaft noch mit der Breite der Gesellschaft irgendetwas zu tun haben. Wichtiges Detail: der einzelne Studierende als ‚Person‘, als ‚Mensch‘ mit all seinen Facetten und heutigen Belastungen kommt in diesen Programmen normalerweise nicht vor. Dies ist ‚Privatsache‘. Da muss jeder auf eigene Faust schauen, wie er das ‚regelt‘.

Der wachsende ‚Veränderungsdruck‘ in der gesamten Gesellschaft, die Zersplitterung der kognitiven Landkarte in viele Fragmente, die nicht mehr zusammen zu passen scheinen, die allseitige Zunahme an körperlichen und psychischen Erkrankungen, kann man, wenn man will, als Anregung, als Herausforderung verstehen, den Ort ‚Hochschule‘ neu zu formen, um diesen greifbaren Defiziten mehr gerecht zu werden.

ERSTER ANTWORTVERSUCH

Eine umfassende Antwort würde möglicherweise in eine sehr grundlegende Reform der Hochschulen münden. Ob, wann und wie dies geschieht, weiß momentan sicher niemand. Aufgrund einer besonderen Situation an der Frankfurt University of Applied Sciences kam es im Frühjahr 2017 zu einer Initiative (Dievernich, Frey, Doeben-Henisch), die zum Start eines offiziellen Lehrmoduls ‚Meditation als kulturelle Praxis‘ führte, das sich seitdem inhaltlich immer mehr zur Thematik ‚Meditation und Wissenschaft‘ hin entwickelt hat.

Es soll hier einführend beschrieben werden, wie das Projekt so zwei unterschiedlich erscheinende Themen wie ‚Meditation‘ einerseits und ‚Wissenschaft und Technologie‘ andererseits miteinander zu einer Lehrveranstaltung mit forschendem Charakter verbinden kann. Zudem sollte es einen Beitrag zur personalen, menschlichen Situation der Studierenden leisten.

INTERDISZIPLINÄRES FELD STUDIUM GENERALE

Vorweg zu den Details der nachfolgenden Erläuterungen muss festgestellt werden, dass der Start zu dem neuen, innovativen, Projekt ‚Meditation als kulturelle Praxis‘ (oder dann künftig eher ‚Meditation und Wissenschaft‘) nur möglich war, weil es in der Hochschule schon seit 2005 die alle Fachbereiche und Studienprogramme übergreifende Einrichtung eines ‚interdisziplinären Studium Generale (ISG)‘ gibt. In diesem Rahmen können nahezu beliebige Themen von Dozenteams aus mindestens 2 – eher 3 — verschiedenen Fachbereichen angeboten werden, und die Studierenden aus allen Bachelorstudiengängen können sich dafür anmelden. Dieser kreative Raum innerhalb der ansonsten ziemlich ‚hart verdrahteten‘ Lehre war schon vielfach ein Ort für neue, innovative, und vor allem teamorientierte Lernerfahrungen. Doch auch hier gilt: was nützen die besten Optionen, wenn es zu wenig kreative und mutige Dozenten und Studierende gibt. Freiräume sind ‚Einladungen zu‘ aber keine ‚Garantien für‘ eine kreative Nutzung.

PHÄNOMEN MEDITATION

Das Thema ‚Meditation‘ blickt zurück auf eine Tradition von mehr als 2000 Jahren, mit vielen unterschiedlichen kulturellen Ausprägungen, und erlebt seit Jahren eine starke Wiederbelebung in von Technologie geprägten Gesellschaften, deren Vielfalt kaum noch zu überschauen ist. Im Kern wird das Thema Meditation aber begleitet von einer Art Versprechen, dass jemand, der meditiert, daraus sowohl für seinen Körper als auch für seine Psyche ‚positive Wirkungen‘ ziehen kann.

Meditieren heißt, dass man mit seinem Körper etwas konkretes ‚tut‘, dass man konkrete Zustände seines Körpers konkret ‚erlebt‘, und dass man dieses Tun und Erleben ‚interpretieren‘ kann, aber nicht muss. Sowohl zu den konkreten praktischen Formen des Meditierens wie auch zu den möglichen Interpretationen gibt es ein breites Spektrum an Vorgehensweisen und Deutungen.

Was kann ein einzelner Mensch tun, wenn er sich mit Meditieren beschäftigen will? Was kann er tun, wenn er in einer von Wissenschaft und Technik geprägten Welt mit dem Phänomen Meditation konfrontiert wird? Welche Rolle spielen die ‚Deutungsmodelle‘? Warum gibt es überhaupt so viele unterschiedliche Deutungsmodelle? Was bedeutet es, dass diese Deutungsmodelle in so vielen verschiedenen Sprachen aus unterschiedlichen kulturellen Kontexten vorliegen?

DEUTUNGSMODELLE UND WISSENSCHAFT

Die modernen empirischen Wissenschaften sind im Laufe der Jahrhunderte (mit langen Vorlaufzeiten von bis zu 2000 Jahren!) entstanden als eine neue Art von ‚Wahrheitsbewegung‘: wie kann man in der Vielfalt der Erfahrungen und des Wissens jene ‚Bestandteile‘ herausfinden, die ‚wirklich Geltung‘ haben im Unterschied zu jenen Bestandteilen, die sprachlich zwar beschrieben und behauptet werden, aber nur schwer bis gar nicht als ‚gültig‘ erwiesen werden können? In einem mühsamen Prozess, der in den ca. letzten 400 Jahren zu seiner heutigen Form fand, zeigte sich, dass das Festhalten an intersubjektiv überprüfbaren ‚Standards‘ intersubjektiv nachvollziehbare und reproduzierbare ‚Messoperationen‘ mit ‚Messwerten‘ ermöglichte, was wiederum ganz neue explizite ‚Arbeitshypothesen‘, ‚Modelle‘ und dann ‚Theorien‘ ermöglicht.

KEIN GEGENSATZ ZWISCHEN WISSENSCHAFT UND ‚GEIST‘

Während das Projekt ‚empirische Wissenschaft‘ lange Zeit als Gegensatz zur klassischen Philosophie und den sogenannten Geisteswissenschaften erschien, führten die Ergebnisse der ca. letzten 150 Jahre mehr und mehr dazu, dass man die Position des ‚Geistes‘, der ‚Geisteswissenschaften‘ im Rahmen der modernen empirischen Theorien schrittweise so ‚einordnen‘ kann, dass die Geisteswissenschaften einerseits im Rahmen der empirischen Wissenschaften integriert werden können, andererseits aber die Besonderheit des Menschen (als Teil des gesamten biologischen Lebens) nicht verschwindet. Statt dass die Besonderheit des Geistigen und des Lebens verschwindet, scheint es eher so zu sein, dass die Besonderheit des Geistigen als Teil des Biologischen eine noch viel größere Wucht erhält als je zuvor. Diese neue mögliche Fusion von empirischen Wissenschaften und ‚Theorie des Geistigen‘ wird bislang noch kaum genutzt. Zu tief haben sich traditionelle Begrifflichkeiten als kulturelle Muster in die Gehirne ‚eingegraben‘; solches zu ändern dauert erfahrungsgemäß viele Generationen.

KANT 2.0

Während der Philosoph Immanuel Kant (1724 – 1804) eingesperrt in sein Bewusstsein, ohne Sprachkritik und ohne Evolutionstheorie, die Antworten auf seine Fragen nur als abstrakte Postulate formulieren konnte, nach denen u.a. Raum und Zeit ‚konstitutiv‘ für menschliches Erkennen sind, ohne dass er dies weiter erklären konnte, hat die moderne Wissenschaft nicht nur ein Stück mehr erklären können, wie überhaupt Sprache funktioniert, sondern zusätzlich wie die Strukturen unserer Wahrnehmung, unseres Gedächtnisses, unseres Denkens und vieles mehr von den Strukturen unseres Gehirns in einem bestimmten Körper geprägt sind, die sich wiederum in einer Entwicklungsgeschichte von vielen Milliarden Jahren herausgebildet haben. Wir wissen heute, dass das ‚Bewusstsein‘ nur einen quantitativ verschwindend kleinen Teil des Gesamtkörpers repräsentiert; das meiste ist ‚unbewusst‘ (die Gehirnzellen haben am ganzen Körper einen Anteil von ca. 0.15%, das ‚Bewusstsein‘ wiederum ist nur mit einem Teil der Gehirnzellen assoziiert…). Zusätzlich hat die Wissenschaft ansatzweise aufgedeckt, wie das Gehirn die aufgenommenen Sinnesreize und Körperreize im Kontext von Wahrnehmung, Gedächtnis und Lernen ‚induktiv‘ zu nahezu beliebig komplexen Mustern verrechnen kann, die für uns dann die Konzepte/ Kategorien bilden, mit denen wir die Welt und und uns selbst anschauen. Da diese komplexen Strukturbildungsprozesse durch kommunikative Interaktionen (speziell auch sprachlichen) beeinflusst werde können, können sich Gehirn-induzierte und Kultur-induzierte Muster mischen, vermischen, und so komplexe Deutungsmuster entstehen lassen, deren ‚Gültigkeitsgehalt‘ stark variieren.

REFORMBEDARF DER WISSENSCHAFTEN

Während die empirischen Wissenschaften (und darauf aufbauen die Ingenieurskunst), in den letzten Jahrhunderten viele Pluspunkte sammeln konnten, zeigen sich im bisherigen Konzept und der Praxis von Wissenschaft dennoch gewisse Schwachpunkte: im Rahmen des empirischen Paradigmas können zwar erfolgreiche empirische Experimente und partielle Modelle entwickelt werden, aber die bisherigen empirischen Konzepte reichen nicht aus, um (i) die vielen einzelnen Theorien zu ‚integrieren‘, und (ii) die bisherigen Konzepte sind nicht in der Lage, den ‚Theoriemacher‘ und ‚Theoriebenutzer‘ in der Theorie mit zu repräsentieren. Gerade in den Ingenieurwissenschaften mit ihren immer komplexeren Projekten führt dies zu grotesken Verzerrungen und vielfachen Projektabstürzen. In den empirischen Wissenschaften ist dies nicht wirklich besser, nur fällt es dort nicht so direkt auf. Allerdings kann man zwischen einer rein physikalischen Betrachtungsweise und einer biologischen immer größere Probleme entdecken.

RÜCKKEHR DER PHILOSOPHIE

An dieser Stelle wird klar, dass das historisch ‚ältere‘ Projekt einer umfassenden Philosophie noch nicht ganz ausgedient hat. Während die Philosophie in der oftmals selbst gewählten Abstinenz von Wissenschaft (seit ca. 1500 Jahren) mehr und mehr den Kontakt zur Welt verlor, kann Philosophie in enger Kooperation mit Wissenschaft dieser helfen, ihre fehlende ‚Einheit‘ zurück zu gewinnen. Das neue Paradigma lautet daher ‚Philosophie und Wissenschaft‘ als grundlegendem Denkmuster, erweitert, konkretisiert in der ‚Ingenieurskunst‘. Diese liefern den Rahmen, in dem sich die Freiheit und Kreativität des Lebens entfalten und gestalten kann.

MEDITATION UND WISSENSCHAFT

Schematisches Modell für eine philosophisch begründete empirische Weltsicht am Beispiel des Meditierens
Schematisches Modell für eine philosophisch begründete empirische Weltsicht am Beispiel des Meditierens

Diese neuen, spannenden Entwicklungen in Philosophie und Wissenschaft eröffnen auch neue, interessante Zugangsweisen im Umgang mit dem empirischen (und historisch überlieferten) Phänomen der Meditation. Im folgenden Text (siehe auch die Schaubilder) wird versucht, aufzuzeigen, wie ein modernes Philosophie-Wissenschafts-Paradigma eine aktive Auseinandersetzung mit dem Phänomen leisten könnte.

Für diese aktive Beschäftigung mit dem Phänomen Meditation wird angenommen, dass sich grob vier Perspektiven unterscheiden lassen:

  1. REALE PRAXIS: Meditation wird in einer bestimmten Umgebung praktiziert von einem Menschen, der dabei mit seinem Körper etwas tut. Dies kann zu Veränderungen an seinem Körper führen wie auch in seinem Erleben.

  2. BEOBACHTEN: Vor der Praxis kann man in Form von Fragen festlegen, auf welche Art von Phänomenen man vor, während und nach der Meditation achten will. Dazu kann man festlegen, in welcher Form die Beobachtung ausgeführt werden soll und wie man die Beobachtungswerte/ -daten protokollieren will. Sie sollten unter festgelegten Bedingungen für jeden potentiellen Beobachter reproduzierbar sein. Ort, Zeit, Umstände usw. sollten aus den Protokollen entnehmbar sein.

  3. DEUTUNG: Einzelne Beobachtungswerte repräsentieren isolierte Ereignisse, die als solche noch keine weiterreichenden Deutungen zulassen. Die einfachste Form von Deutungen sind einfache Beziehungen zwischen verschiedenen Beobachtungswerten (räumliche, zeitliche, …). Sobald mehr als eine Beziehung auftritt, ein Beziehungsbündel, kann man Beziehungsnetzwerke formulieren, Modelle, in denen Wechselbeziehungen zwischen verschiedenen Faktoren sichtbar werden. Wahrheitsfähig werden Deutungen aber erst, wenn sie als Theorie formuliert werden (Strukturen, Beziehungen, Dynamiken, Folgerungsbegriff, …), erst dann können sie wahr oder falsch sein, können sie möglicherweise falsifiziert werden, weil man Voraussagen ableiten kann. Generell kann man für Deutungen noch folgende Eigenschaften festhalten:

    1. Die einfachste und historisch häufigste Form von Deutungen sind Texte in ‚Normalsprache‚, eventuell angereichert mit Bildern oder anderen Artefakten.

    2. In modernen Versionen von Deutungen finden sich zusätzlich mehr und mehr voll definierte Diagramm-Sprachen bis hin zu animierten Bildfolgen

    3. Für die eigentliche, harte Modell- und Theoriebildung haben sich aber formale Sprachen durchgesetzt bzw. eine konsequent mathematische Darstellungsweise, ergänzt um eine explizite Logik, die beschreibt, wie man korrekte Folgerungen aus einer gegebenen Theorie gewinnen kann.

    4. Quer zu den Darstellungsweisen Text, Bild und Formel gibt es die zusätzliche Dimension einer dynamischen Repräsentation in Form von Ablaufschilderungen, Bildfolgen, Computer-Simulationen, oft noch erweitert um Interaktionen, die dem Ganzen einen spielerischen Charakter verleihen.

    5. ÜBERLIEFERUNG: Zu vielen (den meisten…) Phänomenen finden sich Überlieferungen aus früheren Zeiten. Die Überlieferungsgeschichte ist unterschiedlich gut, bisweilen sehr schlecht. Die Kontexte und die verwendeten sprachlichen sowie bildhaften Mittel setzen Interpretationsbeziehungen voraus, die heute gar nicht oder nur partiell bekannt sind. Die konkreten Umstände der Überlieferung, die beteiligten Personen, deren Innenleben, sind oft nur wenig bis gar nicht bekannt. Die Einbeziehung von Überlieferungen ist daher mit großer Vorsicht zu sehen. Dennoch können sie wertvolle Hinweise liefern, die man neu überprüfen kann.

  4. REFLEXION: Die bislang genannten Themen ‚Reale Praxis – Beobachtung – Deutung‘ kann man als solche ‚definieren‘, ‚beschreiben‘ und anwenden. Allerdings setzen alle diese Themen einen übergreifenden/ vorausgehenden Standpunkt voraus, in dem entschieden wird, ob man sich überhaupt einer Realität zuwenden will, welcher Realität, wie, wie oft usw. Ebenso muss vor der Beobachtung geklärt werden, ob man überhaupt beobachten will, wie, wann, wie oft, was man mit den Beobachtungswerten dann tun will, usw. Und entsprechend muss man vor Deutungsaktionen entscheiden, ob man überhaupt deuten will, wie, was, usw. Diese Dimension der vorbereitenden, begleitenden, und nachsinnenden Überlegungen zum gesamten Prozess wird hier Reflexion genannt. Als Menschen verfügen wir über diese Fähigkeit. Sie wird in all unserem Tun, speziell dann auch in einem wissenschaftlichen Verhalten, nicht direkt sichtbar, sondern nur indirekt durch die Art und Weise, wie wir mit der Welt und uns selbst umgehen. Es ist irgendwie die gesamte Vorgehensweise, in der sich ein ‚Plan‘, verschiedene ‚Überlegungen‘, verschiedene ‚Entscheidungen‘ auswirken und damit ausdrücken können. Und ein wissenschaftlicher Umgang mit der Welt und sich selbst setzt insofern bestimmte Verhaltensformate voraus. Wissenschaft im üblichen Sinne ist die geordnete Umsetzung eines solchen Planes. Die Analyse und das Design eines solchen wissenschaftlichen Handlungsformates leistet idealerweise die Wissenschaftsphilosophie. Den kompletten Rahmen für jedwede Art von Vorgehen, das Nachsinnen ob und wie überhaupt, die Klärung von Motiven und Voraussetzungen, die Methode einer Wissenschaftsphilosophie, und vieles mehr, das ist die originäre Aufgabe der Philosophie. Insofern ist die Domäne der vor- und übergreifenden Reflexion die Domäne der Philosophie, die darin in einer methodisch engen Weise mit jedweder Form von Wissenschaft verknüpft ist.

Die hier aufgelisteten Punkte bilden eine minimale Skizze, die weitere Kommentare benötigt.

BEOBACHTUNG: SUBJEKTIVITÄT – OBJEKTIVITÄT

Die Verschränkung des 'Objektiven' mit dem 'Subjektiven' aufgrund des heutigen Kenntnisstands
Die Verschränkung des ‚Objektiven‘ mit dem ‚Subjektiven‘ aufgrund des heutigen Kenntnisstands

Setzt man obigen Rahmen voraus, dann scheint es hilfreich, einen Punkt daraus hier speziell aufzugreifen: das Verhältnis von Subjektivität und Objektivität, das sich nahezu durch die gesamte Geschichte der Philosophie und der Auseinandersetzung zwischen Philosophie und empirischer Wissenschaft zieht. Und gerade im Fall des Meditierens gewinnt diese Unterscheidung eine besondere Bedeutung, da neben jenen Wirkungen des Meditierens, die sich äußerlich und in Körperfunktionen direkt (empirisch, objektiv) beobachten (messen) lassen, es viele (die meisten) Wirkungen gibt, die sich nur ‚im Innern‘ (subjektiv) des Meditierenden erfassen lassen. Wie geht man damit um?

Aufgrund der Erkenntnisse der empirischen Wissenschaften können wir heute relativ klar sagen, dass das persönliche Erleben an das jeweilige, individuelle Bewusstsein (‚consciousness‘) geknüpft ist, das wiederum – in einer noch nicht genau rekonstruierten Weise – eine Funktion des individuellen Gehirns ist. Das Gehirn wiederum sitzt in einem Körper und wird von diesem neben der notwendigen Energie mit allerlei Erregungsmustern (neuronale Signale) versorgt. Einige stammen von Sinnesorganen, die verschiedene energetische Ereignisse er Außenwelt (Licht, Schall, Geruch, …) in neuronale Signale übersetzen, andere vom Körperinnern, andere vom Gehirn selbst. Das Gehirn weiß also von der Außenwelt ‚direkt‘ nichts, sondern nur in dem Maße, als ihm diverse neuronale Signale übermittelt werden, die in sich schon eine erste Übersetzung darstellen. Aus all diesen Signalen errechnet das Gehirn kontinuierlich ein Netzwerk von repräsentierenden Ereignisstrukturen, die zusammen ein ‚komplexes (dynamisches) Bild‘ des aktuellen Zustands ergeben. Dieses Zustandsbild ist beeinflusst von ‚vergangenen Bildern‘ (Gedächtnis), von unterschiedlichen ‚Abstraktionsprozessen‘, von unterschiedlichen ‚Erwartungswerten‘ und ‚Bewertungen‘, um as Mindeste zu sagen. Wie viel von den kontinuierlichen Berechnungen des Gehirns tatsächlich ins ‚Bewusstsein‘ gelangt, also ‚bewusst‘ ist, lässt sich nicht klar sagen. Sicher ist nur, dass das, was uns bewusst ist, in jedem Fall eine Auswahl darstellt und es insofern – aus Sicht des Bewussten – ein Unbewusstes gibt, das nach groben Schätzungen erheblich größer ist als das Bewusste.

Philosophen nennen die unterschiedlichen Inhalte des Bewusstseins ‚Phänomene [PH]‘ (zumindest in jener Richtung, die sich phänomenologische Philosophie‘ nennt). Innerhalb dieser Menge der Phänomene kann man anhand von Eigenschaften unterschiedliche Teilmengen der Phänomene unterscheiden. Eine sehr wichtige ist die Teilmenge der ‚Phänomene von den externen Sensoren (PH_W_EXT)‘. Durch ihren Bezug zu unterstellten Objekten der Außenwelt und zusätzlich unterstützt durch Phänomene einer realen Kommunikation lässt sich eine Art ‚Korrelation‘ dieser Phänomene mit unterstellten Objekten der Außenwelt in einer Weise herstellen, die sich mit anderen ‚Beobachtern‘ ’synchronisieren‘ lässt. Sofern dies gelingt (z.B. durch vereinbarte Formen des Messens mit vereinbarten Standards) bekommen diese Phänomene PH_W_EXT einen besonderen Status. Wir nennen sie empirische Phänomene weil sie – obgleich sie weiterhin Phänomene bleiben und damit subjektiv sind – sich in einer Weise mit externen Ereignissen koppeln lassen, die sich in der Reaktion anderer Beobachter auch reproduzieren lässt. Durch diese ‚Rückkopplung‘ gelingt es einem Gehirn, seine ‚locked-in‘ Situation partiell zu überwinden. Daher kommt den als empirisch qualifizierbaren subjektiven Phänomene eine ganz besondere Rolle zu.

Vor diesem Hintergrund ist es nicht erstaunlich, dass die modernen empirischen Wissenschaften durch ihren methodischen Bezug auf die empirischen subjektiven Phänomene sich eine Beobachtungsbasis geschaffen haben, der ein maximaler Erfolgt deswegen vergönnt war, weil tatsächlich nur jene Phänomene Berücksichtigung fanden, die im Prinzip allen Beobachtern in gleicher Weise zugänglich sind.

Eine unkritische – was hier heißt: eine un-philosophische – Handhabung des empirischen Auswahlprinzips kann aber zu unerwünschten Ergebnissen führen. Einer der größten Fehler der Wissenschaftsgeschichte ist wohl (und da hat die Philosophie simultan auch versagt), aus der methodisch sinnvollen Einschränkung auf die subjektiven empirischen Phänomene zu schließen, dass alle anderen (subjektiven) Phänomene grundsätzlich unwichtig oder gar irreführend seien. Diese Folgerung war und ist sachlich völlig haltlos und in ihrer Wirkung verheerend.

Es ist ja nicht nur so (siehe den vorausgehenden Text), dass die empirisch genannten Phänomene weiterhin rein subjektive Phänomene bleiben, sondern das Bewusstsein als Ganzes ist die primäre Quelle für jede Form von Erkenntnis, deren der homo sapiens fähig ist! Die neueren Erkenntnisse zur gleichzeitigen Existenz eines sehr großen Unbewussten setzen das Phänomen des Bewusstseins ja nicht ‚außer Kraft‘, sondern, ganz im Gegenteil, es stellt sich verschärft die Frage, warum es in der Evolution zur Ausprägung des Bewusstseins unter Voraussetzung des Unbewussten kam? Was ist der ‚Vorteil‘ für ein biologisches System zusätzlich zum gewaltigen Komplex der ‚unbewussten Maschinerie‘ des Körpers und des Gehirns noch die Form des ‚Bewusstseins‘ zu besitzen? Bei einem sehr groben Vergleich der Zeiträume von Lebewesen ‚mit‘ und ‚ohne‘ Bewusstsein ist unübersehbar, dass es erst mit der Verfügbarkeit eines hinreichend differenzierten Bewusstseins zu den überaus komplexen und beständig weiter anwachsenden komplexen Verhaltensleistungen ganzer Populationen gekommen ist. Und aus der Tatsache, dass sich nur ein kleiner Teil der Phänomene des Bewusstseins direkt über die Außenwelt mit anderen Beobachtern korrelieren lässt, zu folgern, dass alle anderen Phänomene ‚irrelevant‘ seien, ist weder sachlich noch logisch irgendwie begründbar. Mit dem heutigen Wissensstand müssten wir eher das Gegenteil folgern: eine neue bewusste und herzhafte Hinwendung zu jener reichen Phänomenwelt, die ein biologisches System hervorbringen kann, die sich aber (bislang) einem direkten empirischen Zugriff entziehen.

In diesem Zusammenhang ist auch zu beachten, dass eine ‚Erklärung‘ von subjektiven Phänomenen durch Rückgriff auf ausschließlich direkt korrelierbare physiologische Eigenschaften methodisch fragwürdig ist und in der Regel genau das nicht erklärt, was erklärt werden sollte.

Diese wenigen ersten Gedanken können vielleicht deutlich machen, dass der Anteil subjektiver Phänomene im Kontext des Phänomens ‚Meditation‘ philosophisch und wissenschaftlich kein unüberwindbares Hindernis darstellt, sondern eher eine Einladung, die Forschungen zu vertiefen und zu verbessern.

WIE PRAKTISCH VORGEHEN?

Was bedeutet dies nun für ein praktisches Vorgehen? Wie kann man dies im Rahmen eines konkreten Lehrmoduls umsetzen? Hier ein erster Entwurf:

  1. Als primärer Referenzpunkt sollen konkrete praktische Meditationsübungen dienen, von denen unterschiedliche Formen vorgestellt und dann unter Anleitung ausprobiert werden können. Dies kann in jeder Sitzung und außerhalb, im privaten und öffentlichen Bereich geschehen.

  2. Damit die Perspektive der Wissenschaft und Philosophie zur Wirkung kommen kann, sollte von Anfang an diese Perspektive vorgestellt und demonstriert werden, wie diese sich auf das konkrete Beispiel Meditation anwenden lässt. Neben einer allgemeinen Einführung müsste konkret erläutert werden, welche Fragen sich stellen lassen, und wie eine Beobachtung aussehen könnte. Jeder für sich und dann auch im Team versucht eine Art ‚Logbuch‘ zu führen, in dem alle für die Beobachtung wichtigen Daten eingetragen werden.

  3. Nachdem erste Beobachtungen vorliegen, kann man gemeinsam überlegen, ob und wie man solche Daten ‚deuten‘ könnte: welche Art von Mustern, Regelmäßigkeiten deuten sich an? Gibt es Unterschiede in den verschiedenen Logbüchern? Welchen Status haben solche Deutungen?

  4. Die Schritte (1) – (3) kann man mehrfach wiederholen. Im Alltagsleben kann dies Jahre dauern, viele Jahre. Im Lehrbetrieb hat man nur ca. 2-3 Monate Zeit, um zumindest den grundlegenden Ansatz zu vermitteln.

  5. Nachdem ein erster Eindruck vermittelt wurde, wie man selber sowohl konkret meditieren wie auch empirisch seine Erfahrungen analysieren kann, kann man den individuellen Prozess in größere Kontexte einbetten wie (i) Beispiele von traditionellen Deutungen anhand von prominenten Texten aus der Überlieferung oder (ii) Beispiele aus der Arbeitsweise der verhaltensbasierten Psychologie und der etwas differenzierteren Psychoanalyse oder (iii) Beispielen aus der Philosophie und der Wissenschaftsphilosophie.

Wie man aus diesem kleinen Aufriss entnehmen kann, stellt ein einzelnes Modul nur ein minimales Kick-Off dar, für eine allererste Idee, wie es gehen könnte. Im Grunde genommen bräuchte man für jeden der genannten Punkte (i) – (iii) ein eigenes Modul, und selbst dies wäre nur ein Tropfen auf den heißen Stein. Hieran kann man erahnen, wie schwierig die Ausbildung einer eigenen konkreten Selbsterfahrungs-Praxis mit einer wissenschaftlichen Begleitung eigentlich ist, und wir dürfen uns nicht wundern, wenn so viele Menschen heute sich im Strom der Ereignisse schnell ‚verloren‘ vorkommen… sogenannte ‚Patentantworten‘ sind nicht notwendigerweise ‚richtige Antworten’…

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 6

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 29.August 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE ÄNDERUNG: 1.Dez.2018, Wiederholung der vorausgehenden Diskussion gestrichen. Kumulierte Zusammenfassungen sind HIER.

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

KAP.7 DIE PROBLEME NEU ÜBERLEGT

  1. Nach den ersten Analysen in Kap.1-6 stellt Edelman eine ‚Zwischenreflexion‘ an. Angesichts der entdeckten Komplexität und Dynamik im Fall des Gehirns und seiner Entwicklung stellt sich die Frage, wie man den Zusammenhang zwischen den vorfindlichen materiellen Strukturen und ihren Funktionen miteinander in Beziehung setzen (‚to relate‘) kann.(vgl. S.65f)
  2. Und um seine mögliche neue Position zu bestimmen wiederholt er summarisch nochmals seine zuvor geäußerte Kritik an der ‚falschen Objektivität‘ der Physik, an der zu eng gefassten Kognitionswissenschaft, und er wiederholt auch wieder die unsinnigen Vergleiche mit einem falschen Begriff von Computer, der weder theoretisch noch praktisch Sinn macht.(vgl. SS.66-69)
  3. Grundsätzlich hält er an der Forderung fest, (i) eine ‚Theorie‘ zu bauen (‚to construct), die (ii) ‚wissenschaftlich‘ ist. ‚Wissenschaftlich sein‘ macht er an der Eigenschaft fest (iii), dass die Theorie ‚überprüfbar‘ sein soll. Allerdings muss die Theorie (iv) ’nicht immer‘ zu (v) ‚Voraussagen auf allen Ebenen führen‘, noch muss (vi) ‚jeder Teil von der Theorie direkt falsifizierbar‘ sein.(vgl. S.66)
  4. Aufgrund seiner massiven Kritik an der unterdrückten Rolle des Beobachters speziell in der Physik (vgl. S.66f) muss man indirekt folgern, dass (a) der Beobachter in einer ‚kritischen Wissenschaft‘ im Zusammenspiel mit der Theorie ‚anders integriert wird als bisher‘. Dies bedeutet, man muss berücksichtigen, (b) dass es ‚mentale Ereignisse‘ gibt (‚Bewusstsein‘, ‚Intentionalität‘) gibt, die (c) nur durch ‚Introspektion‘ oder (d) nur durch indirekte Schlüsse aufgrund des beobachtbaren Verhaltens von anderen‘ zugänglich sind.(vgl. S.67)

DISKUSSION FORTSETZUNG

  1. Das Kapitel 7 ist sehr kurz und bringt weitgehend nur Wiederholungen ausgenommen der Punkt mit der Theorie. Der ist neu. Und es ist überhaupt das erste Mal, dass Edelman in diesem Buch explizit über eine ‚wissenschaftliche Theorie‘ spricht, obgleich er sich selbst ja als Wissenschaftler versteht und  er seine eigenen Überlegungen gleichwohl als wissenschaftlich verstanden wissen will (wenngleich er das aktuelle Buch in seiner Form nicht streng als wissenschaftliche Theorie verfasst hat).
  2. Seine Charakterisierung einer ‚wissenschaftlichen Theorie‘ ist interessant. Sie ist generell sehr fragmentarisch; sie ist ferner in ihrer Ernsthaftigkeit fragwürdig, da er die Forderung der Falsifizierbarkeit mit dem Argument einschränkt, dass ansonsten Darwins Theorie in ihrer Anfangszeit niemals hätte Erfolg haben können; und sie ist geradezu mystisch, da er eine radikal neue Rolle des Beobachters mit all seinen mentalen Eigenschaften innerhalb der Theoriebildung einfordert, ohne aber irgendwelche Hinweise zu liefern, wie das praktiziert werden soll.
  3. Man stellt sich die Frage, welchen ‚Begriff von Theorie‘ Edelman eigentlich benutzt? In der Geschichte der empirischen Wissenschaften gab es viele verschiedene Begrifflichkeiten, die nicht ohne weiteres kompatibel sind, und seit ca. 100 Jahren gibt es eine eigene Meta-Wissenschaft zu den Wissenschaften mit Namen wie ‚Wissenschaftsphilosophie‘, ‚Wissenschaftstheorie‘, ‚Wissenschaftslogik‘, deren Gegenstandsbereich gerade die empirischen Wissenschaften und ihr Theoriebegriff ist. Obgleich das Gebiet der Wissenschaftsphilosophie, wie ich es hier nenne, bislang immer noch keinen geschlossenen begrifflichen Raum darstellt, gibt es doch eine Reihe von grundlegenden Annahmen, die die meisten Vertreter dieses Feldes einer Metawissenschaft zu den Wissenschaften teilen. Aufgrund seiner bisherigen Ausführungen scheint Edelman nichts vom Gebiet der Wissenschaftsphilosophie zu kennen.
  4. Die Überprüfbarkeit einer Theorie ist in der Tat ein wesentliches Merkmal der modernen empirischen Wissenschaften. Ohne diese Überprüfbarkeit gäbe es keine empirische Wissenschaft. Die Frage ist nur, was mit ‚Überprüfbarkeit‘ gemeint ist bzw. gemeint sein kann.
  5. Wenn Edelman fordert dass für eine Theorie gelten soll, dass nicht (vi) ‚jeder Teil von der Theorie direkt falsifizierbar‘ sein muss, dann geht er offensichtlich davon aus, dass eine Theorie T aus ‚Teilen‘ besteht, also etwa T(T1, T2, …, Tn) und dass im ‚Idealfall‘ jeder Teil ‚direkt falsifizierbar‘ sein müsste. Diese Vorstellung ist sehr befremdlich und hat weder mit der Realität existierender physikalischer Theorien irgend etwas zu tun noch entspricht dies den modernen Auffassungen von Theorie. Moderne Theorien T sind mathematische (letztlich algebraische) Strukturen, die als solche überhaupt nicht interpretierbar sind, geschweige den einzelne Teile davon. Ferner liegt die Erklärungsfähigkeit von Theorien nicht in ihren Teilen, sondern in den ‚Beziehungen‘, die mittels dieser Teile formulierbar und behauptbar werden. Und ob man irgendetwas aus solch einer Theorie ‚voraussagen‘ kann hängt minimal davon ab, ob die mathematische Struktur der Theorie die Anwendung eines ‚logischen Folgerungsbegriffs‘ erlaubt, mittels dem sich ‚Aussagen‘ ‚ableiten‘ lassen, die sich dann – möglicherweise – ‚verifizieren‘ lassen. Diese Verifizierbarkeit impliziert sowohl eine ‚Interpretierbarkeit‘ der gefolgerten Aussagen wie auch geeignete ‚Messverfahren‘, um feststellen zu können, ob die ‚in den interpretierten Aussagen involvierten entscheidbaren Eigenschaften‘ per Messung verifiziert werden können oder nicht. Der zentrale Begriff ist hier ‚Verifikation‘. Der Begriff der ‚Falsifikation‘ ist relativ zu Verifikation als komplementärer Begriff definiert. Begrifflich erscheint dies klar: wenn ich nicht verifizieren kann, dann habe ich automatisch falsifiziert. In der Praxis stellt sich aber oft das Problem, entscheiden zu können, ob der ganz Prozess des Verifizierens ‚korrekt genug‘ war: sind die Umgebungsbedingungen angemessen? Hat das Messgerät richtig funktioniert? Haben die Beobachter sich eventuell geirrt? Usw. Als ‚theoretischer Begriff‘ ist Falsifikation elegant, in der Praxis aber nur schwer anzuwenden. Letztlich gilt dies dann auch für den Verifikationsbegriff: selbst wenn der Messvorgang jene Werte liefert, die man aufgrund einer abgeleiteten und interpretierten Aussage erwartet, heißt dies nicht mit absoluter Sicherheit, dass richtig gemessen wurde oder dass die Aussage möglicherweise falsch interpretiert oder falsch abgeleitet worden ist.
  6. All diese Schwierigkeiten verweisen auf den ausführenden Beobachter, der im Idealfall auch der Theoriemacher ist. In der Tat ist es bislang ein menschliches Wesen, das mit seinen konkreten mentalen Eigenschaften (basierend auf einer bestimmten materiellen Struktur Gehirn im Körper in einer Welt) sowohl Phänomene und Messwerte in hypothetische mathematische Strukturen transformiert, und diese dann wiederum über Folgerungen und Interpretationen auf Phänomene und Messwerte anwendet. Dies in der Regel nicht isoliert, sondern als Teil eines sozialen Netzwerkes, das sich über Interaktionen, besonders über Kommunikation, konstituiert und am Leben erhält.
  7. Edelman hat Recht, wenn er auf die bisherige unbefriedigende Praxis der Wissenschaften hinweist, in der die Rolle des Theoriemachers als Teil der Theoriebildung kaum bis gar nicht thematisiert wird, erst recht geht diese Rolle nicht in die eigentliche Theorie mit ein. Edelman selbst hat aber offensichtlich keinerlei Vorstellung, wie eine Verbesserung erreicht werden könnte, hat er ja noch nicht einmal einen rudimentären Theoriebegriff.
  8. Aus dem bisher Gesagten lässt sich zumindest erahnen, dass ein verbessertes Konzept einer Theorie darin bestehen müsste, dass es eine explizite ‚Theorie einer Population von Theoriemachern (TPTM)‘ gibt, die beschreibt, wie solch eine Population überhaupt eine Theorie gemeinsam entwickeln und anwenden kann und innerhalb dieser Theorie einer Population von Theoriemachern würden die bisherigen klassischen Theoriekonzepte dann als mögliche Theoriemodelle eingebettet. Die TPTM wäre dann quasi ein ‚Betriebssystem für Theorien‘. Alle Fragen, die Edelman angeschnitten hat, könnte man dann in einem solchen erweiterten begrifflichen Rahmen bequem diskutieren, bis hinab in winzigste Details, auch unter Einbeziehung der zugrunde liegenden materiellen Strukturen.
  9. Das, was Edelman als Theorie andeutet, ist vollständig unzulänglich und sogar in wesentlichen Punkten falsch.
  10. Anmerkung: Darwin hatte nichts was einem modernen Begriff von Theorie entsprechen würde. Insofern ist auch das Reden von einer ‚Evolutionstheorie‘ im Kontext von Darwin unangemessen. Damit wird aber der epochalen Leistung von Darwin kein Abbruch getan! Eher wirkt sein Werk dadurch noch gewaltiger, denn die Transformation von Gedanken, Phänomenen, Fakten usw. in die Form einer modernen Theorie setzt nicht nur voraus, dass man über die notwendigen Formalisierungsfähigkeiten verfügt (selbst bei den theoretischen Physikern ist dies nicht unbedingt vollständig gegeben) sondern man kann erst dann ’sinnvoll formalisieren‘, wenn man überhaupt irgendetwas ‚Interessantes‘ hat, was man formalisieren kann. Die großen Naturforscher (wie z.B. Darwin) hatten den Genius, die Kreativität, den Mut, die Zähigkeit, das bohrende, systematisierende Denken, was den Stoff für interessante Erkenntnisse liefert. Dazu braucht man keine formale Theorie. Die Transformation in eine formale Theorie ist irgendwo Fleißarbeit, allerdings, wie die Geschichte der Physik zeigt, braucht man auch hier gelegentlich die ‚Genies‘, die das Formale so beherrschen, dass sie bisherige ‚umständliche‘ oder ‚unpassende‘ Strukturen in ‚einfachere‘, ‚elegantere‘, ‚besser passende‘ formale Strukturen umschreiben.

Fortsetzung folgt HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

MEDITATION IN EINER TECHNISCHEN UND WISSENSCHAFTLICHEN WELT? Versuch einer philosophischen Verortung

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
7.Mai 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: doeben@fb2.fra-uas.de

 

ÜBERSICHT

I Fragmentierung der Welt als Dauerentfremdung

II Philosophie und Wissenschaft (Idealbild)

II-A Alltagserfahrung – Oberflächen .

II-B Jenseits des Alltags – Wissenschaft

II-C Homo Sapiens Heute – Digitale Versklavung beginnt

II-D Selbstvergewisserung – Speziell durch Meditation?

III Erst Reaktionen

III-A Erosion der Wissenschaft ’von innen’

III-B ’Digitalisierung’ als ’hypnotischer Zustand’? .

III-C Meditationserfahrung gegen Reflexion?

Quellen

IDEE

In diesem Text wird aufgezeigt, wie das Phänomen der Meditation im Koordinatensystem der modernen Philosophie und der empirischen Wissenschaften in einer mittlerweile hochtechnisierten Welt verortet werden kann. Ein Deutungsversuch. Er wurde provoziert durch ein Experiment an der Frankfurt University of Applied Sciences, an der seit dem Sommersemester 2017 das Thema ’Meditation’ als offizielles Fach Für alle Bachelor-Studierende der Universität angeboten wird.

I. FRAGMENTIERUNG DER WELT ALS DAUERENTFREMDUNG

In ihren Bachelorstudiengängen erwerben die Studierende grundlegende Kenntnisse über viele verschiedene Einzeldisziplinen. Wieweit diese Disziplinen eher als ’empirische wissenschaftliche Disziplinen’ daherkommen oder doch mehr als ein ’ingenieurmäßiges Anwendungsfeld’ hängt stark vom Charakter der einzelnen Disziplin ab. Sicher ist nur, diese Einzeldisziplinen vermitteln keine ’Gesamtsicht’ der Welt oder des Menschen in der Welt. Ein ’Betriebswirtschaftler’ pflegt einen ganz anderen Zugang zur Welt als ein ’Architekt’, eine ’Case-Managerin’ ist keine ’Elektrotechnikerin’, usw.

Vorab zu allen möglichen Spezialisierungen ist ein Studierender aber primär ein ’Mensch’, ein weltoffenes Wesen, das eine Orientierung im Ganzen sucht, mit einem Körper, der eines der größten Wunderwerke der biologischen Evolution darstellt. Gesellschaftliche Teilhabe, Kommunikation, Verstehen sind wichtige Facetten in einer menschlichen Existenz. Historische Kontexte, Kultur, Werte, eigene Lernprozesse, das eigene Erleben und Lernen, dies alles gehört wesentlich zum Menschsein.

In einer einzelnen Disziplin kommt all dies nicht vor. Wer sich voll in einer bestimmten Disziplin engagiert ist damit nur zu einem kleinen Teil seines Menschseins ’versorgt’. Es klaffen große Lücken. In diesem Kontext ein Modul ’Meditation als kulturelle Praxis’ anzubieten, adressiert ein paar zusätzliche Teilaspekte des studentischen Lebens. Es spricht den persönlichen Umgang mit dem eigenen Körper an, mit spezifischen Körpererfahrungen, die eine feste erlebnismäßige Basis im Strom der Alltagsereignisse bieten können. Damit diese konkrete Praxis nicht ’ir-rational’ daherkommt, werden Teile des kulturellen Kontextes, aus der Geschichte, aus dem heutigen Weltbild, mit erzählt. Wie verstehen Menschen das ’Meditieren’ zu verschiedenen Zeiten, in verschiedenen Kulturen, heute?

II. PHILOSOPHIE UND WISSENSCHAFT (IDEALBILD)

Zwei besonders wichtige Blickweisen in der europäischen Kultur werden durch die modernen empirischen Wissenschaften und durch die moderne Philosophie repräsentiert. Beide entwickelten sich in enger Wechselwirkung seit dem 17.Jahrhundert; sie schufen die Grundlage für moderne Technologien, Gesellschafts- und Wertesysteme. Auch legten sie die Basis für einen Blick auf das Universum, das Leben im Universum, wie auch auf das menschliche Erkennen, wie es in der bisherigen Geschichte des Lebens einmalig ist.

Nun ist der Umfang dieses wissenschaftlichen und philosophischen Wissens zu groß, um es hier auch nur ansatzweise ausbreiten zu können. Es soll aber versucht werden, ausgehend von der Alltagserfahrung und der Praxis der Meditation anzudeuten, wie sich dieses aus Sicht der Philosophie und der empirischen Wissenschaften darstellt.

A. Alltagserfahrung

Oberflächen In seinem Alltag erlebt sich der Mensch mit seinem ’Körper’, der in einem räumlichen Miteinander mit anderen Körpern und Objekten vorkommt. Er erlebt Veränderungen, Verhaltensweisen, asynchron und synchron: Menschen auf einer Straße können wild durcheinander laufen, sie können aber auch gemeinsam diszipliniert in einer Warteschlange stehen, sich im gemeinsamen Tanz bewegen, oder im direkten Gespräch ihr individuelles Verstehen miteinander verschränken.

Zugleich lernt jeder von früh an, dass es ’hinter der Oberfläche’, ’im’ Körper, eine Vielfalt von Ereignissen gibt, subjektive Erlebnisse, die das ’Innere’ eines Menschen charakterisieren. Einiges von diesen Vorgängen ist ’bewusst’, bildet das ’Bewusstsein’ des Menschen. Wir wissen aber heute, dass vieles im Inneren eines Körpers, eigentlich das meiste, ’nicht bewusst’ ist! So sind die ’Inhalte’ unseres ’Gedächtnisses’ normalerweise nicht bewusst; sie können aber bewusst werden, wenn bestimmte Ereignisse uns an etwas erinnern, und herausfordern. Solche Erinnerungen können wie eine Kettenreaktion wirken: eine Erinnerung aktiviert die nächste.

B. Jenseits des Alltags

Wissenschaft Mittlerweile wurde der menschliche Körper, seine Bauweise, viele seiner Funktionen, durch die Biologie, die Physiologie, die Psychologie und durch viele weitere Wissenschaften untersucht und partiell ’erklärt’, dazu auch das Miteinander mit anderen Menschen in seinen vielfältigen Formen.

Wir wissen, dass die ’innere Verarbeitung’ des Menschen die äußeren und die körperinternen Reize nach festen Verfahren zu allgemeinen Strukturen zusammenführt (’Cluster’, ’Kategorien’), diese untereinander vielfach vernetzt, und automatisch in einer Raumstruktur aufbereitet. Zugleich erlaubt das Gedächtnis jede aktuelle Gegenwart mit gespeicherten ’alten Gegenwarten’ zu vergleichen, was ein ’vorher/nachher’ ermöglicht, der Ausgangspunkt für ein Konzept von ’Zeit’. Dazu kommt die besondere Fähigkeit des Menschen, die Ausdrücke einer Sprache mit seinen ’inneren Zuständen’ ’verzahnen’ zu können. Ein Ausdruck wie ’Es ist 7 Uhr auf meiner Uhr’ können wir in Beziehung setzen zu unserer Wahrnehmung eines Gegenstandes am angesprochenen Arm.

Ein wichtiges Charakteristikum biologischer Körper ist auch ihre grundlegende ’Nicht-Determiniertheit’, eine grundlegende Voraussetzung für ’Freiheit’.

Dass diese komplexen inneren Mechanismen des menschlichen Körpers so scheinbar mühelos mit den Gegebenheiten der Körperwelt ’harmonieren’, kommt nicht von ungefähr. Die moderne Biologie mit Spezialgebieten  wie z.B. der ’Mikrobiologie’, der ’Evolutionsbiologie’, der ’Paläobiologie’, der ’Astrobiologie’ 1 zusätzlich vereint mit Disziplinen wie der Geologie, Archäologie, der Klimatologie samt vielen Subdisziplinen der Physik und der Chemie; diese alle haben in über 100 Jahren konzertierter Arbeit die Geschichte der Lebensformen auf der Erde samt den parallelen Veränderungen der Erde mit ihrem Klima häppchenweise entschlüsselt, entziffert, dekodiert und immer wieder neu zu einem Gesamtbild zusammen gefügt. Das Bild, das sich daraus bis heute ergeben hat, zeigt eine ungeheure Vielfalt, eine bisweilen große Dramatik, vor allem aber das erstaunliche Phänomen, wie sich ’biologisches Leben’ anschickt, die freien Energiereserven des Universums ’anzuzapfen’, sie für sich ’nutzbar zu machen’, um damit immer komplexere Strukturen zu schaffen, die über einfache erste Zellen von vor ca. 3.8 Mrd. Jahren zu komplexen (’eukaryotischen’) Zellen führten, zu Zellverbänden, zu Pflanzen, zu Tieren und dann, sehr spät, ’erst vor kurzem’, zu einer Lebensform, die wir ’homo sapiens’ nennen, die sich von Ostafrika aus kommend, in ca. 45.000 Jahren über die ganze bekannte Erde ausgebreitet hat. Das sind wir.

Nimmt man die Erkenntnisse der Astrobiologie hinzu, dann wird deutlich, dass unser Planet Erde bisher eine äußerst ’lebensfreundliche’ Position in unserem Sonnensystem inne hatte; unser Sonnensystem wiederum befindet sich in einem sehr lebensfreundlichen Bereich unserer Heimatgalaxie, der Milchstraße mit ihren ca. 200 – 400 Mrd. Sternen; erst in ein paar Mrd. Jahren wird die Milchstraße – nach heutigem Kenntnisstand – mit der Andromeda- Galaxie kollidieren, die ca. 1 Bio. Sterne zählt.

C. Homo Sapiens Heute – Digitale Versklavung beginnt

Verglichen mit den langen Zeiträumen der Entwicklung des bekannten Universums (vor ca. 13.8 Mrd. Jahren), unserer Erde (vor ca. 4.5 Mrd. Jahren), des biologischen Lebens selbst (vor ca. 3.8 Mrd. Jahren) ist das Auftreten des homo sapiens (vor ca. 200.000 Jahre) verschwindend kurz. Betrachtet man nur die Zeit seit der Gründung der ersten Städte (vor ca. 11.000 Jahren), seit dem ersten Computer (vor ca. 88 Jahren), seit dem Internet (vor ca. 48 Jahren), dann muss man sagen, dass wir Menschen uns seit kurzem mitten in einer Revolution befinden, in der digitalen Revolution, die das Zeug dazu hat, die bisherige Lebensweise des homo sapiens so nachhaltig zu verändern, wie vielleicht vergleichbar mit der frühen Seßhaftwerdung des homo sapiens.

Ein Grundzug der Digitalisierung des menschlichen Lebens ist der Aufbau einer parallelen, einer digitalen Welt, in der ungeheure Datenmengen eingelagert werden können, riesige Datenströme schneller als menschliche Gedanken von überall nach überall hin und her strömen können, Daten, die partiell Abbilder, Kopien, Modelle der realen Welt darstellen, in denen Computerprogramme diese Datenberge geräuschlos verwalten, verarbeiten und in Maßnahmen umsetzen können.

Der homo sapiens mit seinem Körper für die Außenwelt und seinen bewussten kognitiven Prozessen in der ’Innenwelt’, wird über Schnittstellen mit der digitalen Welt verkoppelt und lebt immer mehr nur durch das Medium des Digitalen. Sein Körper, die Vorgänge in der Außenwelt, verlieren an Bedeutung. Die wahrgenommene Außenwelt wird zu einem immer kleiner werdenden Segment der subjektiv gedachten und digital aufbereiteten Welt. Falls der homo sapiens die Nutzung der digitalen Welt in der Zukunft nicht grundlegend anders organisiert, wird das einzelne, individuelle Gehirn zu einem bloßen Anhängsel einer neuen digitalen Galaxie, deren Beherrschung und Steuerung sich allen bekannten Kategorien aus der Außenwelt entzieht. Alle bekannten rechtliche, soziale und politische Kategorien werden nicht mehr gelten. Ganze Staaten verlieren ihren Halt, weil ihre Bürger in einer digitalen Welt leben, die von globalen anonymen Kräften beherrscht werden. Bürger mutieren zu ’Realwelt-Zombies’, deren Inneres zum Bestandteil über-individueller globaler Algorithmen geworden ist, die alle individuellen Regungen automatisch beobachten, und nach partiellen ökonomischen Interessen global steuern.

Noch ist diese Vision nicht vollständig wahr, aber doch schon soweit, dass es uns erschrecken sollte. Ist es das, was wir wollen, was wir wollen sollten?

D. Selbstvergewisserung – Speziell durch Meditation?

Eines der wichtigsten Themen der Philosophie war und ist zu allen Zeiten das Thema der ’Selbstvergewisserung’: wer bin ich, der ich wahrnehme, empfinde, denke, und handle? Bin ich das, was ich wahrnehme, empfinde etc. oder bin ich etwas davon ’Verschiedenes’, oder die ’Synthese’ aus all dem, oder etwas noch ganz anderes?

Die Palette der Antworten ist so breit, wie die Zeit lang ist. Jeder Philosoph hat das Thema irgendwie neu moduliert; bis heute gibt es nicht ’die’ Antwort.

Schon mittendrin in der digitalen Revolution, schon jetzt fast mehr im ’digitalen’ Raum als im ’realen Körperraum’, verschärft sich diese philosophische Fragestellung weiter: wenn das, was ich wahrnehme, immer weniger direkt mit der realen Körperwelt korrespondiert, dafür immer mehr mit digital aufbereiteten Objekten, deren Herkunft zu bestimmen immer schwieriger wird, dann kann es passieren, dass sich das individuelle erkennende Subjekt über eine (digitale) Objektwelt definiert, die weitgehend ein Fake ist, einzig dazu da, den Einzelnen zu manipulieren, ihn zu einem ferngesteuerten ’Diener des Systems’ zu machen, besser: zu einem ’digitalen Sklaven’.

Würde man die aktuelle Entwicklungstendenz der digitalen Revolution so fort schreiben, wie sie aktuell formatiert ist, dann würde dies zur totalen Auslöschung eines freien, kreativen Individuums führen. Denn selbst ein Individuum, das vom Ansatz her ein ’freies’ Individuum ist, würde durch eine reale Lebensform der manifesten digitalen Sklaverei jeglichen Ansatzpunkt verlieren, die Freiheit zu ’materialisieren’.

Um eine solche digitale Sklaverei zu verhindern, kann und muss man die aktuelle digitale Revolution ’um- formatieren’. Statt den menschlichen Benutzer zu einem vollständig manipulierten Bestandteil einer Population von wertfreien Algorithmen zu machen, die von einzelnen narzisstischen, macht-hungrigen und menschenverachtenden Menschen global gesteuert werden, sollte man den digitalen Raum neu, von ’unten-nach-oben’ organisieren. Der einzelne Mensch muss wieder zum Taktgeber werden, die individuelle Freiheit, Kreativität und in Freiheit geborenen Werte müssen in einer freien Gesellschaft wieder ins Zentrum gerückt werden, und die diversen Algorithmen und Datengebirge müssen diesen individuellen Freiheiten in einer demokratischen Gesellschaft ’dienen’!

Eine Grundvoraussetzung für solch eine neue ’Selbstvergewisserung’ von ’Freiheit’ ist eine radikale, authentische Selbstwahrnehmung des ganzen individuellen Daseins, weit-möglichst frei von manipulierten und gefakten Fakten. Natürlich kann dies nicht bedeuten, dass der Mensch sich all seiner Erfahrungen, all seines Wissens ’entleert’, das wäre die andere Form von Versklavung in der Dunkelheit eines radikalen ’Nicht-Wissens’. Aber in all seinen Erfahrungen, in all seinem Wissen, braucht es die Erfahrung ’seiner selbst’, wie man ’faktisch ist’, man ’selbst’, mit seinem ’Körper’, in einer Erfahrungswelt, die dem menschlichen Tun ’vorgelagert’ ist als das, was wir ’Natur’ nennen, die ’aus sich heraus gewordene und werdende Wirklichkeit’ der Erde im Universum, des Lebens auf der Erde, von dem wir ein Teil sind.

Natürlich, und das wissen wir mittlerweile, gerade auch durch das philosophische Denken im Einklang mit den empirischen Wissenschaften, haben wir Menschen niemals einen völlig authentischen, einen völlig ’ungefilterten’ Zugang zur ’Natur’. Einmal nicht, weil das menschliche Vermögen des Wahrnehmens und Verstehens aus sich heraus ’konstruktiv’ ist und wir die ’Außenwelt’ grundsätzlich nur im Modus unserer ’Innenwelt’ ’haben’, zum anderen nicht, weil wir selbst Teil dieser Natur sind und durch unsere Aktivitäten diese Natur mit verändern. Die erlebbare Natur ist von daher immer schon eine ’vom Menschen mit-gestaltete Natur’! Je mehr wir dies tun, je mehr wir selbst als Teil der Natur die Natur verändern, umso weniger können wir die Natur ’vor’ oder ’ohne’ den Menschen erleben.

Dennoch, bei aller ’Verwicklung’ des Menschen mit der umgebenden Natur, und heute noch zusätzlich mit der selbst geschaffenen digitalen Wirklichkeit, gibt es keine Alternative zu einer praktizierten Selbstvergewisserung mit vollem Körpereinsatz. Dies können intensive Formen körperlicher Aktivitäten sein – wie z.B. Gehen, Laufen, Fahrrad fahren, Mannschaftssport, Tanzen, Musizieren, … –, dies kann aber auch das ’Meditieren’ sein. Im Meditieren, mit dem Atmen als ’Referenzpunkt’, kann sich der einzelne mit all seinen Befindlichkeiten als ’Ganzes’ erleben, als direkt Gegebenes, mit einem ungefilterten Erleben, mit einer Feinheit des Erlebens, die nicht durch Alltagsrauschen ’überdeckt’, ’maskiert’ wird, und der einzelne kann darin nicht nur ’physiologische Entspannung’ finden, sondern auch – über die Zeit – durch seine erweiterte Wahrnehmung zu neuen, differenzierteren ’Bildern seiner selbst’ kommen, zum ’Entdecken’ von ’Mustern’ des Daseins, die über den aktuellen Moment hinaus auf Wirkzusammenhänge verweisen, die im Alltagsrauschen normalerweise völlig untergehen. Darüber hinaus können sich – meist auf Dauer – Erlebnisse, Erfahrungen einstellen, die sich in spezifischer Weise ’wohltuend’ auf das gesamte Lebensgefühl eines einzelnen auswirken, die einen ’gefühlten Zusammenhang mit Allem’ ermöglichen, der das ’Gefühl für das Ganze’ deutlich verändert. Dieses ’Wohlfühlen’ ist ’mehr’ als physiologische Entspannung, es sind ’Gefühle eines komplexen Existierens’, zu dem nur biologische Systeme fähig sind, deren Körper aufgrund ihrer quanten-physikalischen Offenheit in allen Richtungen Wirklichkeit ’registrieren’ können. Auch das Thema sogenannter ’mystischer’ Erfahrungen gehört in diesen Kontext. Leider gibt es dazu kaum wissenschaftliche Forschungen, aber viele Phänomene, die der Erklärung harren.

III. ERST REAKTIONEN

Obwohl dieser Text erst wenige Tage alt ist, kam es schon zu interessanten Rückmeldungen. Einige davon seien hier ausdrücklich genannt, da sie helfen können, den Kern der Aussage noch weiter zu konturieren.

A. Erosion der Wissenschaft ’von innen’

Wenn im vorausgehenden Text von ’Wissenschaft’ die Rede ist, dann wurde in diesem Text ein Idealbild von Wissenschaft unterstellt, das es so heute ansatzweise gar nicht mehr gibt, und das tendenziell dabei ist, sicher weiter zu verwischen. Für das Projekt einer Zukunft mit dem homo sapiens als aktivem Teilnehmer ist dies brandgefährlich!

Für eine ausführliche Beschreibung dieser beginnenden Erosion von Wissenschaft bräuchte es einen längeren Text. Hier zwei Beispiele, die als erste ’Indikatoren’ dienen mögen.

Vor wenigen Tagen hatte ich Gelegenheit, im Rahmen eines sogenannten ’Graduiertenkollegs’ mit Studierenden von 6 verschiedenen Universitäten mit 7 verschiedenen akademischen Profilen arbeiten zu können; alle waren DoktorandenInnen.

Wir nahmen uns zu Beginn die Zeit, mittels einfacher Zettel, mal zusammen zu stellen, was jedem von ihnen zum Thema ’Wissenschaft’ einfällt. Das Ergebnis war erschreckend. Kein einziger war in der Lage, ein auch nur annähernd ’korrektes’ Bild dessen zu zeichnen, was ’standardmäßig’ unter dem Begriff ’Wissenschaft’ zu verstehen ist; keiner. Nachdem wir dann in Ruhe alle Beiträge gemeinsam diskutiert und in einen Gesamtzusammenhang eingeordnet hatten (mit vielen Ergänzungen), war die einhellige Reaktion, dass sie dieses in ihrem ganzen Studium noch nie gehört hätten, und dass sie ein großes Interesse hätten, dazu mehr zu erfahren.

Also, eine Zufallsauswahl von jungen Menschen, die eine Doktorarbeit schreiben wollen, war nicht in der Lage, ein belastbares Konzept von ’Wissenschaft’ zu kommunizieren, und das nach ca. 5-6 Jahren Studien an 6 verschiedenen Universitäten in 7 verschiedenen Fachprofilen.

Wer diesen Befund jetzt mit dem Hinweis wegwischen möchte, dass dies auf keinen Fall repräsentativ sei, dem möchte ich ein neueres Handbuch der Wissenschaftsphilosophie zu den Philosophien der Einzelwissenschaften zur Lektüre empfehlen (siehe: [LR17]). In diesem Buch von 2017 wird von Experten der Wissenschaftsphilosophie in 22 Kapiteln sehr kenntnisreich, mit umfänglichen Literatursammlungen, dargelegt, was heute die großen Strömungen im Verständnis von Wissenschaft sind. Was man in diesen Texten nicht findet – ich konnte bislang 6 von 22 Kapiteln lesen –, ist ein klares Konzept, was dann heute unter ’Wissenschaft’ verstanden wird oder verstanden werden sollte. Wenn mir beispielsweise für die Disziplinen Mathematik, Philosophie, Ingenieurwissenschaften und Psychologie – ohne Zweifel sehr kenntnisreich – allerlei Strömungen und Problemdiskussionen präsentiert werden, das Fach selbst samt Wissenschaftsbegriff aber nicht zuvor geklärt wird, dann ist die Aufzählung von all den interessanten Aspekten wenig hilfreich. Alles verschwimmt in einem großen Brei. Und die Studierenden (siehe das Beispiel oben) durchlaufen den Wissenschaftsbetrieb und wissen nachher eigentlich nicht, was man unter ’Wissenschaft’ versteht bzw. verstehen sollte.

Das meine ich mit ’innerer Erosion’ von Wissenschaft: der Wissenschaftsbetrieb als ganzer weist heute riesige, komplexe Organisationsformen auf, verschlingt riesige Geldsummen, aber keiner scheint mehr zu wissen, was es eigentlich ist, was man da macht.

B. ’Digitalisierung’ als ’hypnotischer Zustand’?

Ein ähnliches Phänomen kann man im Umfeld des Phänomens der ’Digitalisierung von Gesellschaft’ beobachten. Mittlerweile vergeht nicht ein Tag, an dem nicht in Zeitungen, im Fernsehen, in Fachartikeln, in Romanen das Phänomen der Digitalisierung beschworen wird. Zumeist hält man sich bei einigen Auswirkungen auf, die in der Tat bedrohlich erscheinen oder sogar sind, aber fast nirgends findet man fundierte Analysen von jenen Technologien, die ’hinter’ den Phänomenen tatsächlich am Werk sind. Am schlimmsten ist das Wort ’Künstliche Intelligenz’. Obwohl es bis heute keine wirklich akzeptierte Definition gibt, jeder damit etwas anderes meint (Anmerkung: Eines der am häufigsten zitierten Lehrbücher zur künstlichen Intelligenz enthält über viele hundert Seiten unzählige Beispiele von einzelnen mathematischen Konzepten (und Algorithmen), aber eine klare Definition wird man nicht finden, auch keine klare Einordnung in das Gesamt von Wissenschaft; siehe [RN10] )  wird so getan, als ob klar ist, was es ist, als ob es so einfach wäre, dass künstliche Intelligenz sich verselbständigen könnte und die ’Herrschaft über die Menschen’ übernehmen wird. Zeitgleich fällt das Bild vom Menschen in ein schwarzes Loch des Nichtwissens, aus dem es kein Entrinnen gibt, um der umfassenden gesellschaftlichen ’Hypnose’ der Digitalisierung ein paar vernünftige Gedanken entgegen zu setzen. Eine der wenigen kritische, dekonstruierende Stellungnahme ist für mich ein Artikel von Sarah Spiekermann (siehe [Spi18]), in dem sie die ernüchternde Schwachheit des ganzen Big-Data-Ansatzes klar ausspricht und welche Gefahren gerade dadurch für uns als Gesellschaft davon ausgehen. Nicht die ’Stärke’ dieser Algorithmen bildet eine Gefahr, sondern ihre grandiose Schwäche, durch welche die Komplexität der Gegenwart und die noch größeren Komplexität der noch unbekannten Zukunft vor unserem geistigen Auge verdeckt wird.

C. Meditationserfahrung gegen Reflexion?

Einen anderen interessanten Reflex durfte ich erfahren (nicht unbedingt erst seit diesem Text): diejenigen, die Meditation schon für ihr Leben entdeckt haben, es bisweilen viele Jahre oder gar schon Jahrzehnte, praktizieren, reagieren spontan mit Abwehr auf die ’Vereinnahmung’ von Meditation durch Reflexion, durch Wissen, was sie als ’Quelle von Störungen’ erfahren, als Hindernis zur tieferen, inneren Erkenntnis und Erfahrung.

Kommunikation in diesem Kontext wird dadurch erschwert, dass das Phänomen ’Meditation’ ja nicht nur über tausende von Jahren in unterschiedlichen kulturellen Kontexten praktiziert und interpretiert wurde (und niemand beherrscht rein wissensmäßig alle diese Traditionen), sondern die Meditationserfahrung selbst spielt sich in jenen inneren Bereichen des Körpers ab, die sich einem direkten ’Zugriff von außen’ entziehen und die von daher schwer bis gar nicht mit ’klaren sprachlichen Ausdrücken’ kommunizierbar sind. Jeder muss immer unterstellen, dass der andere ’das Gleiche’ meint, wie man selbst, ohne es wirklich kontrollieren zu können. Auch die modernen Verfahren der Hirnforschung bieten hier nur sehr abstrakte, äußerliche Kriterien zu irgendwelchen physiologischen Parametern, die keinen direkten Schluss auf die tatsächlichen internen Prozesse zulassen (dazu: Jonas/ Kording (2017) [JK17]).

Zu diesen objektiven Schwierigkeiten kommt aber dann eine verbreitete subjektive Abwehr von Reflexion in meditativen Kontexten, da es sowohl dominante Tendenzen in den verschiedenen Traditionen gibt, die diese ’inneren Prozesse/ Zustände/ Erlebensformen…’ im direkten Gegensatz zu ’diskursiven Tätigkeiten’ sehen, wie auch durch die Tatsache bedingt, dass die ’alten Traditionen’ die modernen (wissenschaftlichen und philosophischen) Sichtweisen in keinster Weise kannten. Obwohl also einerseits die Meditation selbst ’diskursfrei’ gesehen wird, wird ihre ’Einbettung in den gesellschaftlichen Kontext’ mit einem begrifflichen Rahmen ’verpackt’, ’interpretiert’, der von modernen Erkenntnissen ’unberührt’ ist.

Es wäre schon viel gewonnen, wenn man zwischen dem ’inneren meditativen Erfahrungsraum’ und den sekundären begrifflichen Erklärungsmustern klar unterscheiden würde. Egal ob ein Buddhist, eine Jude, ein Christ oder ein Muslim – oder wer auch immer – etwas zu Meditation sagt, das ’Reden über Meditation’ ist nicht gleichzusetzen mit dem Meditieren selbst und den hier stattfindenden Ereignissen. Wie eine Reihe von Untersuchungen nahelegen (z.B. Stace (1960) [Sta60]), kann der gleiche Sachverhalt, je nach kulturellem Vor- Wissen, ganz unterschiedliche interpretiert werden.

Von daher kann es sehr wohl sein – und der Autor dieser Zeilen geht davon aus – dass der ’Innenraum’ des Meditierens im ’Lichte’ der Erkenntnisse der neueren Philosophie(en) und Wissenschaften eine ganz neue Deutung finden kann. Insofern das Meditieren im Grundansatz an den Phänomenen des ’Innenraums’ orientiert ist (die nichts mit den Phänomenen des ’Außenraums’ zu tun haben müssen!), hat Meditation eine an ’Erfahrung’ orientierte Ausrichtung, die von allen, die sich ’in gleicher Weise’ verhalten, ’im Prinzip reproduzierbar’ ist. Bezieht man die aktuellen empirischen Wissenschaften mit ihren reproduzierbaren Messprozessen auf die ’intersubjektiven Phänomene’ des ’Körperraums’, dann weisen die meditativen Erfahrungen hin auf einen ’erweiterten Erfahrungsraum’, der sich bislang nur durch den vollen Körpereinsatz unter Einbeziehung der ’Phänomene des Innenraums’ manifestiert, und der ansatzweise erfahrungsmäßig reproduzierbar ist.

Während der Innenraum der Meditation im Prinzip versucht, reflektierende Prozesse ’raus zu halten’, kann die begleitende Reflexion vorher und nachher sehr wohl versuchen, das Getane und Erlebte mit dem verfügbaren Wissen zu vernetzten und damit in bekannte Zusammenhänge einzuordnen. Genauso wenig aber, wie aus empirischen Messwerten ’rein automatisch’ Modelle oder Theorien folgen, genauso wenig folgen aus meditativen ’Erlebnissen/ Erfahrungen…’ irgendwelche Modelle oder Theorien. Jede Art von übergreifendem Zusammenhang ist die kreative Eigenleistung eines Individuums und muss sich vor dem Gesamtheit der Erfahrung und im Experiment ’bewähren’.

Vor diesem Hintergrund kann keine Zeit für sich einen absoluten Interpretationsanspruch zum Phänomen der Meditation beanspruchen! Im Gegenteil, jede neue Zeit ist herausgefordert, bisherige Interpretationen im Lichte neuer Erfahrungen, neuer Experimente, immer wieder zu überprüfen.

LITERATUR

[JK17] E. Jonas and K.P. Kording. Could a neuroscientist understand a microprocessor? PLoS Comput Biol, 13(1):1–24, January 2017.

[LR17] Simon Lohse and Thomas Reydon. Grundriss Wissenschaftsphilosophie. Die Philosophien der Einzelwissenschaften. Wissenschaftliche Buchgesellschaft, Darmstadt (Germany), 1 edition, 2017.

[RN10] Stuart Russel and Peter Norvig. Artificial Intelligence. A Modern Approach. Universe Books, 3 edition, 2010.

[Spi18] Sarah Spiekermann. Die große big-data-illusion. FAZ, (96):13, 25.April 2018.

[Sta60] W.T. Stace. Mysticism and Philosophy. Jeremy P.Tarcher, Inc., Lo Angeles (CA), 1 edition, 1960.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

DAS PHILOSOPHIE JETZT PHILOTOP

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 30.Nov. 2017
URL: cognitiveagent.org
info@cognitiveagent.org

Autor: cagent
Email: cagent@cognitiveagent.org

Worum geht’s — Meine Antwort auf die von vielen gestellte
Frage, wie denn die  verschiedenen Seiten untereinander zusammen hängen, war zu schnell (siehe den Blogeintrag vom 14.November ). Hier eine Korrektur.

I. EIN PHILOTOP

Wie man unschwer erkennen kann, ist das Wort
’Philotop’ eine Übertragung von dem Wort ’Biotop’.
Für Biologen ist klar, dass man einzelne Lebensformen
eigentlich nur angemessen verstehen kann, wenn
man ihren gesamten Lebensraum mit betrachtet:
Nahrungsquellen, Feinde, ’Kollaborateure’, Klima, und
vieles mehr.

Ganz ähnlich ist es eigentlich auch mit dem Blog
’Philosophie Jetzt: Auf der Suche …’. Auch diese Ideen
haben sehr viele Kontexte, Herkünfte, wechselseitige
Interaktionen mit vielen anderen Bereichen. Ohne diese
Kontexte könnte der Blog vielleicht gar nicht ’atmen’.

Im Blogeintrag vom 14.November 2017 wurde
verwiesen auf die monatliche Philosophiewerkstatt, in
der in einer offenen Gesprächsrunde Fragestellungen
gemeinsam gedacht werden. Seltener gibt es
die Veranstaltung Philosophy-in-Concert, in der philosophische Ideen, eingebettet in experimentelle Musik, Bildern und Texten ihren Empfänger suchen und
sich auch auf ein Gespräch einlassen.

Schaubild vom Philotop ( die 'Kernbereiche') :-)
Schaubild vom Philotop ( die ‚Kernbereiche‘) 🙂

Die Wechselwirkung mit den nächsten beiden
Blogs liegt für manche vielleicht nicht so auf der
Hand. Aber bedingt durch die langjährige Lehr-
und Forschungstätigkeit von cagent im Bereich des
Engineerings stellte sich heraus, dass gerade das
Engineering der Welt riesige Potentiale für eine
moderne Philosophie bietet, und dies nicht nur einfach
als begriffs-ästhetische Spielerei, sondern mit einem
sehr konkreten Impakt auf die Weise, wie Ingenieure die
Welt sehen und gestalten. Daraus entstand ein Projekt,
das bislang keinen wirklich eigenen Namen hat.

Umschrieben wird es mit ’Integrated Engineering of
the Future’, also ein typisches Engineering, aber eben
’integriert’, was in diesem Kontext besagt, dass die
vielen methodisch offenen Enden des Engineerings hier
aus wissenschaftsphilosophischer Sicht aufgegriffen und
in Beziehung gesetzt werden zu umfassenderen Sichten
und Methoden. Auf diese Weise verliert das Engineering
seinen erratischen, geistig undurchdringlichen Status
und beginnt zu ’atmen’: Engineering ist kein geist-
und seelenloses Unterfangen (wie es von den Nicht-
Ingenieuren oft plakatiert wird), sondern es ist eine
intensive Inkarnation menschlicher Kreativität, von
Wagemut und zugleich von einer rationalen Produktivität,
ohne die es die heutige Menschheit nicht geben würde.

Das Engineering als ein Prozess des Kommunizierens
und darin und dadurch des Erschaffens von neuen
komplexen Strukturen ist himmelhoch hinaus über
nahezu allem, was bildende Kunst im Kunstgeschäft
so darbietet. Es verwandelt die Gegenart täglich und
nachhaltig, es nimmt Zukünfte vorweg, und doch fristet
es ein Schattendasein. In den Kulturarenen dieser Welt,
wird es belächelt, und normalerweise nicht verstanden.
Dies steht  im krassen Missverhältnis zu seiner Bedeutung.
Ein Leonardo da Vinci ist ein Beispiel dafür, was es
heißt, ein philosophierender Ingenieur gewesen zu sein,
der auch noch künstlerisch aktiv war.
Innerhalb des Engineerings spielt der Mensch in
vielen Rollen: als Manager des gesamten Prozesses, als mitwirkender Experte, aber auch in vielen Anwendungssituationen als der intendierte Anwender.

Ein Wissen darum, wie ein Mensch wahrnimmt, denkt,
fühlt, lernt usw. ist daher von grundlegender Bedeutung. Dies wird in der Teildisziplin Actor-Actor-Interaction (AAI) (früher, Deutsch, Mensch-Maschine Interaktion oder,
Englisch, Human-Machine Interaction), untersucht und methodisch umgesetzt.

Die heute so bekannt gewordene Künstliche Intelligenz
(KI) (Englisch: Artificial Intelligence (AI)) ist ebenfalls ein
Bereich des Engineerings und lässt sich methodisch
wunderbar im Rahmen des Actor-Actor Interaction
Paradigmas integriert behandeln. Im Blog wird es unter
dem Label Intelligente Maschinen abgehandelt.
Sehr viele, fast alle?, alle? Themen aus der
Philosophie lassen sich im Rahmen des Engineerings,
speziell im Bereich der intelligenten Maschinen als Teil
des Actor-Actor-Interaction Paradigmas neu behandeln.

Engineering ist aber nie nur Begriffsspielerei.
Engineering ist immer auch und zuvorderst Realisierung
von Ideen, das Schaffen von neuen konkreten Systemen,
die real in der realen Welt arbeiten können. Von daher
gehört zu einer philosophisch orientierten künstlichen
Intelligenzforschung auch der Algorithmus, das lauffähige
Programm, der mittels Computer in die Welt eingreifen
und mit ihr interagieren kann. Nahezu alle Themen der
klassischen Philosophie bekommen im Gewandte von
intelligenten Maschinen eine neue Strahlkraft. Diesem
Aspekt des Philosophierens wird in dem Emerging-Mind
Lab Projekt Rechnung getragen.

Mit dem Emerging-Mind Lab und dessen Software
schließt sich wieder der Kreis zum menschlichen
Alltag: im Kommunizieren und Lernen ereignet sich
philosophisch reale und mögliche Welt. Insoweit intelligenten Maschinen aktiv daran teilhaben können, kann dies die Möglichkeiten des Menschen spürbar erweitern. Ob zum Guten oder Schlechten, das entscheidet
der Mensch selbst. Die beeindruckende Fähigkeit von
Menschen, Gutes in Böses zu verwandeln, sind eindringlich belegt. Bevor wir Maschinen verteufeln, die wir
selbst geschaffen haben, sollten wir vielleicht erst einmal
anfangen, uns selbst zu reformieren, und dies beginnt
im Innern des Menschen. Für eine solche Reform des
biologischen Lebens von innen gibt es bislang wenig bis
gar keine erprobten Vorbilder.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

DIE NATUR DER ERKLÄRUNG – Kenneth Craig – Diskussion

PDF

ÜBERBLICK

Craik führt in diesem Buch eine breit angelegte Diskussion im Spannungsfeld von Philosophie, Psychologie, Physiologie, Physik und Technik, die einige Hauptthemen erkennen lässt: ein Plädoyer für ein kausales Verständnis der realen Welt, für die Rekonstruktion von Bewusstsein durch Rückgriff auf das Nervensystem, für die zentrale Rolle mentaler Modelle, sowie für die wichtige Rolle von Sprache in allem Erklären.

I. KONTEXT

Alle Themen, die Craik in seinem Buch ”The Nature of Explanation” [Cra43] anspricht, sind Themen, die in verschiedenen Blogeinträgen schon zur Sprache gekommen sind. Das Buch wird daher etwas intensiver diskutiert, um damit die Position des Blogs weiter zu klären. Dabei ist zu beachten, dass Craik nicht nur eine große Linie verfolgt, sondern im Verlauf des Textes viele andere Themen anspricht, die irgendwie auch mit der großen Linie zusammenhängen. Dies macht die Lektüre manchmal etwas mühsam, wenngleich immer interessant. Dem Interesse des Blogs folgend werden daher nur einige Hauptthemen hier weiter diskutiert. Eine Lektüre dieser Themen ersetzt nicht die eigene Lektüre seines Buches.

II. ERKLÄRUNG DURCH KAUSALITÄT

K.Craik - Stichworte aus Kap.1-4
K.Craik – Stichworte aus Kap.1-4

Das Schaubild 1 enthält nur einige der einschlägigen Stichworte von Craig aus den ersten vier Kapiteln, und auch nur kursorisch.

Aus den vielen Argumenten, die gegen die Möglichkeit einer Erklärung durch Kausalität sprechen, stammt das prominenteste von David Hume (1711 – 1776), für den die Beschaffenheit der sinnlichen Wahrnehmung keinen direkten Schluss auf eine kausaler Beziehung der Art ’B ist da durch A’ zulässt. Zu einem bestimmten Augenblick
haben wir einen Momenteindruck, beim nächsten Augenblick auch. Zwischen verschiedenen Augenblicken kann es zwar Unterschiede geben, aber diese lassen nicht zwingend eine Interpretation in Richtung einer kausalen Beziehung zu.

Neben sehr vielen anderen Positionen bespricht Craik auch die Position der modernen Physik sofern sie quantenmechanische Modelle benutzt. Angesichts einer prinzipiellen Messungenauigkeit (Heisenberg, Unschärferelation) und unbeobachtbaren Objekten soll eine direkte kausale Zuschreibung nicht mehr möglich sein. Es gibt nur noch
Regelmäßigkeiten in Form von statistischen Tendenzen. Craik kritisiert in diesem Zusammenhang, dass man aus den Grenzen der Beobachtbarkeit nicht notwendigerweise darauf schließen kann, dass es deswegen grundsätzlich
keine Kausalität mehr gäbe. Ferner weist er anhand vieler Beispiele darauf hin, dass die Theorien der Wahrscheinlichkeit als Theorien starke implizite Annahmen über die vorausgesetzten Ereignismengen machen, die grundlegende Wechselwirkungen, auch in Form kausaler Beziehungen, voraussetzen.

Aus der Sicht Craiks ist die Position Humes nicht ganz korrekt, da das sinnliche Material immer schon in eine Raumstruktur eingebettet ist, die implizite Wechselbeziehungen realisiert (zwei gleichartige Objekte können nicht zugleich auf ein und derselben Raumstelle sein); ferner gehört die Zeitstruktur zur Wahrnehmung (darin über die
rein sinnlichen Anteile hinausgehend), die zumindest potentielle Abfolgen erkennen lassen (B folgt auf A in der Zeit). Dies impliziert zwar nicht unmittelbar eine kausale Beziehung, bietet aber einen Anknüpfungspunkt für eine Hypothese und Experimente. Im Rahmen der Zeitstruktur kann man z.B. allerlei Veränderungen beobachten, z.B.
auch eine Veränderung von Energieleveln. Diese bieten Ansatzpunkte für Hypothesen und Experimente.

Für Craik realisiert sich empirische Wissenschaft durch das Ernst nehmen von vorfindlichen Gegebenheiten, von Fakten, bezogen auf die man Hypothesen bzgl. möglicher Zusammenhänge formulieren kann. Diese Hypothesen kann man dann in Experimenten überprüfen. Sofern sich die Hypothesen bestätigen lassen, soll dies eine gewisse Zufriedenheit auslösen. Geprüfte Zusammenhänge ermöglichen Verstehen, Einsicht, erlauben Voraussagen, mit Voraussagen kann man zukünftige Situationen vorweg nehmen, um sich dadurch auf kommende Situation einzustellen.
Ferner erlaubten geprüfte Zusammenhänge auch unterschiedliche praktische Nutzungen.
Fehlen geprüfte Zusammenhänge, dann kann dies zu Enttäuschungen, ja zu Frustrationen führen. Man kann dann nichts ableiten, nichts voraus sagen, nicht wirklich planen; auch eine praktische Nutzung ist nicht möglich. Man versteht das auslösende Phänomen dann nicht wirklich.

III. DENKEN UND NERVENSYSTEM

K.Craik - Die Erkennungsleistung des Systems Mensch
K.Craik – Die Erkennungsleistung des Systems Mensch

Nach zahlreichen vorausgehenden kritischen Anmerkungen zu unterschiedlichen Positionen in der Philosophie und in den Wissenschaften, geht Craik davon aus, dass der Mensch in einer realen Welt vorkommt. Einige der Ereignisse in dieser Welt können von Sinnesorganen beobachtet werden. Beobachten heißt hier, dass diese Ereignisse sowohl
in interne neuronale Ereignisse übersetzt werden, zusätzlich aber auch in eine symbolischer Sprache  mittels der Bezug genommen werden kann auf viele interne Gegebenheiten, Ereignisse und Prozesse. Das Andere der Symbole ist dann ihre Bedeutung (’meaning’). Was immer auch intern im einzelnen geschieht, es gibt unterschiedliche Prozesse, die abstrakt als Denken, Schlüsse ziehen, Voraussagen machen beschrieben werden. Ein wesentliches Element dieser Prozesse ist das Generieren von internen, mentalen Modellen, deren Analogien mit der realen
Außenwelt so groß sind, dass wichtige Eigenschaften und Prozesse der Außenwelt in ihren kausalen Beziehungen so nachgebildet werden können, dass auf ihrer Basis einigermaßen zuverlässige Voraussagen über die Zukunft gemacht werden können, die sich überprüfen lassen.

Craik wirft auch die Frage auf, welche Eigenschaften am Nervensystem es wohl sind, die alle diese Leistungen ermöglichen? Anhand verschiedener Verhaltensphänomene (visueller Reiz, Retina, Adaption, Differenzierung, Ähnlichkeit, bewusst – unbewusst, Reflexe, Zahlen und deren Nutzung, Gedächtnis, Lernen, Gefühle, …) diskutiert er
dann die Anforderungen, die an das System gestellt werden und überlegt, ob und wie diese Anforderungen rein technisch bzw. mittels des Nervensystems eingelöst werden könnten. Diese Überlegungen sind in ihrem grundsätzlichen Charakter interessant, aber der Stand des Wissens in seiner Zeit zum Nervensystem und zu neuronalen Modellen
war nicht ausreichend, um alle diese Phänomene verbindlich diskutieren zu können.
Immer wieder stellt er die zentrale Rolle der symbolischen Sprache heraus, mittels der sich komplexe Strukturen und Modelle generieren lassen, mit denen Erklärungen möglich werden, Voraussagen und auch die Koordinierung zwischen den Gehirnen.

Bei seiner Beschreibung der realen Welt fällt auf, dass er stark fixiert ist auf einfache physikalische Strukturen; die Besonderheit und Komplexität biologischer Systeme tritt wenig hervor. Dies obgleich er ja die komplexen Strukturen von Menschen sehr wohl diskutiert.

Er sieht allerdings schon ein Eigengewicht der mentalen logischen Strukturen gegenüber der ’reinen Maschinerie’ des Nervensystems, insofern das Nervensystem als solches funktioniert unabhängig von Logik und Bedeutung. In wissenschaftlichen Kontexten aber muss auch Logik und Bedeutung stimmen, andernfalls gelingt die Argumentation
nicht. Allerdings, auch hier gilt, dass auch eine Logik und mögliche Bedeutungen im mentalen Bereich ebenfalls Leistungen des Nervensystems sind. Das gerade ist das Besondere. Reine Introspektion kann zwar die phänomenale Seite des Geistes enthüllen, nicht aber seine neuronale Seite. Dazu bedarf es mehr als Introspektion.

Craik postuliert auch den Faktor der Gefühle (’feelings’) und der Emotionen (’emotions’) als grundlegend für das Verhalten. Zufriedenheit und Unglücklich sein sind starke Motive für das gesamte Verhalten. Wissenschaft lebt davon, Kunst, aber auch viele psychische Krankheiten scheinen mit einem Missmanagement der Gefühle zu tun zu haben.
Das Wechselspiel zwischen Gefühlen und dem gesamten Lebensprozess umschließt nach Craik viele Faktoren, viele dabei oft unbewusst, so dass das Erkennen der Zusammenhänge in der Regel nicht einfach ist. Klassische Ethik und Moral dagegen tendieren zu Vereinfachungen, die dann sachlich unangemessen sind.

IV. DISKURS

Die vorgestellten Gedanken von Craik sind, wohlgemerkt, nur eine Art Extrakt, viele interessante Details bleiben ungesagt. Für das Anliegen des Blogs kann dies aber u.U. genügen.

Das Thema empirische Wissenschaft, Messen, Erklären usw. steht in Übereinstimmung mit dem, was bislang angenommen wurde. Craik ist sehr bemüht, die Perspektive der Introspektion zu übersteigen, da er zu Recht erkennt, dass diese allein nicht ausreicht. Zugleich sieht er sehr wohl eine gewisse Eigenständigkeit der introspektiven Dimension. Was er aber nicht leistet, das ist ein Aufweis, wie man methodisch sauber beide Dimensionen kombiniert [Anmerkung: Dass eine empirischer Herangehensweise allein die Gesamtheit des Phänomens aber auch nicht erreichen kann, dies spricht Craik nicht
an. Letztlich haben wir es hier mit einem methodischen Deadlock zu tun: Introspektion benötigt zusätzlich empirische Methoden, empirische Methoden benötigen zusätzlich sehr dringend Introspektion. Dieses methodische Problem ist bis heute nicht befriedigend gelöst.] Im Blog gab es dazu zumindest einige Versuche.

Die gezielte Nachfrage danach, wie man welche der introspektiv und im Verhalten zugänglichen Eigenschaften des Menschen mittels neuronaler Mechanismen modellieren könnte, wurde hier im Blog noch nicht diskutiert. Es gibt dazu einige Skript aus Vorlesungen, die aber bislang keinen Eingang in den Blog gefunden haben [Anmerkung: Dazu findet sich mehr in dem korrespondierenden Blog uffmm.org.4].  Die Frage
ist aber tatsächlich philosophisch relevant. Die Frage wurde vom Autor cagent bislang deswegen in diesem Blog kaum diskutiert, weil er der Frage nachging, ob und wieweit man neuronale Netze durch andere mathematisch äquivalente Mechanismen ersetzen kann um dann die Fragen nach der Substitution dann mit diesen anderen Strukturen zu untersuchen. In den letzten Jahren sind neuronale Netze so populär geworden, dass sich kaum jemand noch dafür interessiert, ob und welche alternativen Formalismen es auch tun würden und möglicherweise einfacher. Grundsätzlich ist seit langem bekannt, dass neuronalen Netze nicht mehr können als im Konzept der Turingmaschine definiert ist. Man muss also aus theoretischen Gründen keine Neuronalen Netze benutzen, wenn
sie denn nicht speziell besondere Vorteile bieten.

Die Lektüre von Craik hat allerdings dazu ermutigt, die Idee der parallelen Analyse von Verhalten, Introspektiv zugänglichem Bewusstseinsraum, sowie Physiologie des Gehirns im Körper weiter Raum zu geben, immer natürlich auch mit Blick auf evolutionäre Entwicklungen unter Einschluss der Kultur. Ferner sollte dabei die parallele Entwicklung intelligenter Maschinen mit reflektiert werden, sehr wohl in Bezugssetzung zu den biologischen Systemen.

Vor lauter Faszination durch die moderne Technik geht vielfach unter, dass die Naturwissenschaften in den letzten 10 Jahren ungeheuerlich interessante Aspekte des biologischen Lebens (und der umgebenden Welt) zutage gefördert haben, die das Bild vom Menschen im Universum eigentlich radikal verändern könnten. Obwohl die Roboter und die KI-Programme vergleichsweise simple Strukturen darstellen, die jeder intelligente Schüler verstehen könnte, wenn man es ihm denn erzählen würde, stoßen wir im biologischen Leben auf immer unfassbare Komplexitäten und Verschiebungen von Perspektiven, die eigentlich alle Aufmerksamkeit erfordern würden.

QUELLEN
[Cra43] Kenneth Craik. The Nature of Explanation. Cambridge University Press, Cambridge (UK), 1 edition, 1943.

FORTSETZUNG

Für eine Fortsetzung der Diskussion siehe HIER.

 KONTEXTE

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

ENTSCHEIDEN IN EINER MULTIKAUSALEN WELT? MEMO ZUR PHILOSOPHIEWERKSTATT VOM Sonntag, 10.Mai 2015 IN DER DENKBAR (Frankfurt)

Begriffsnetzwerk von der Philosophiewerkstatt am 10.Mai 2015
Begriffsnetzwerk von der Philosophiewerkstatt am 10.Mai 2015

Generelles Anliegen der Philosophiewerkstatt ist es, ein philosophisches Gespräch zu ermöglichen, in dem die Fragen der TeilnehmerInnen versuchsweise zu Begriffsnetzen verknüpft werden, die in Beziehung gesetzt werden zum allgemeinen Denkraum der Philosophie, der Wissenschaften, der Kunst und Religion. Im Hintergrund stehen die Reflexionen aus dem Blog cognitiveagent.org, das Ringen um das neue Menschen- und Weltbild.

Aus der letzten Philosophiewerkstatt vom 12.April 2015 resultierte das – nicht ganz schar formulierte – Thema: Kann sich ein einzelner innerhalb einer multikausalen Welt überhaupt noch sinnvoll entscheiden? Kann man überhaupt noch eine Wirkung erzielen? Ist nicht irgendwie alles egal?

1. Trotz strahlendem Sommerwetter fand sich wieder ein bunter Kreis interessierter und engagierter Gesprächsteilnehmer, um sich in der DENKBAR Frankfurt zum Thema auszutauschen. Wie beim jedem Treffen bisher gab es auch dieses Mal neben schon bekannten Teilnehmern wieder auch neue Teilnehmer, die das Gespräch bereicherten.

2. Wie die Gedankenskizze des Gesprächs andeutet, förderte das gemeinsame Gespräch eine Fülle interessanter Aspekte zutage, die auf vielfältige Weise miteinander verknüpft sind. Auch wenn jeder Punkt für sich ein eigenes Thema abgeben könnte, so zeigt gerade der Überblick über und die Vernetzung von den Begriffen etwas von unserer Entscheidungswirklichkeit auf, die im Alltag oft im Dunkeln verbleibt.

INDIVIDUUM – KONTEXT

3. Das Gespräch fokussierte zunächst eher auf den individuellen Träger von Entscheidungen und lies die diverse Einflüsse des Kontextes eher am Rande.

4. Am Entscheidungsprozess traten verschieden ‚Phasen‘ hervor: (i) irgendein ein Anlass. Warum man sich überhaupt mit etwas beschäftigt. Warum öffnet man sich überhaupt für ein Thema? Wendet man sich einem Thema zu, dann gibt es in der Regel mindestens eine Alternative, was man tun könnte. Dies hängt sowohl von den konkreten Umständen wie auch von der verfügbaren Erfahrung und dem verfügbaren Wissen ab. Nach welchen Kriterien/ Präferenzen/ Werten entscheidet man dann, welche der vielen Möglichkeiten man wählen soll? Ist die Entscheidung ‚frei‘ oder durch irgendwelche Faktoren ‚vorbestimmt‘? Gibt es explizite Wissensanteile, aufgrund deren man meint, ‚rational‘ zu handeln, oder ist es eine ‚Bauchentscheidung‘? Wieweit spielen ’nicht-bewusste‘ Anteile mit hinein? Insofern nicht-bewusste Anteile von sich aus nicht bewusst sind, können wir selbst dies gar nicht wissen. Wir bräuchten zusätzliche Hilfen, um dies möglicherweise sichtbar zu machen. Schließlich wurde bemerkt, dass selbst dann, wenn wir sogar zu einer Entscheidung gekommen sind, was wir tun sollten, es sein kann, dass wir die Ausführung lassen. Wir tun dann doch nichts. Sollten wir etwas tun, dann würde unser Tun ‚eine Wirkung‘ entfalten.

ARCHITEKTUR DES INDIVIDUUMS

5. Alle diese Entscheidungsprozesse verlaufen in einer Person; im anderen, in mir. Wir wissen, dass jeder Mensch eine komplexe Architektur besitzt, sehr viele unterschiedliche Komponenten besitzt, die in Wechselwirkung stehen. Folgende drei Bereich wurden genannt, ohne Anspruch auf Vollständigkeit: (i) der Körper selbst, die Physis, das Physiologische. Das Gehirn ist eines der vielen komplexen Organe im Bereich der Physis. Das Physische kann altern, kann zwischen Menschen Varianzen aufweisen. Resultiert aus einem individuellen Wachstumsprozess (Ontogenese), und im Rahmen einer Population resultiert der Bauplan eines individuellen Körpers aus einem evolutionären Prozess (Phylogenese). Sowohl in der Phylogenese wie in der Ontogenese können sich Strukturen umweltabhängig, verhaltensabhängig und rein zufällig verändern. Weiter gibt es (ii) den Komplex, der grob mit Emotionen, Gefühle umschrieben wurde. Es sind Körper- und Gemütszustände, die auf das Bewerten der Wahrnehmung und das Entscheiden Einfluss ausüben können (und es in der Regel immer tun). Schließlich (iii) gibt es den Komplex Wissen/ Erfahrung, der Menschen in die Lage versetzt, die Wahrnehmung der Welt zu strukturieren, Beziehungen zu erkennen, Beziehungen herzustellen, komplexe Muster aufzubauen, usw. Ohne Wissen ist ein Überschreiten des Augenblicks nicht möglich.

WISSEN

6. Aufgrund der zentralen Rolle des Wissens ist es dann sicher nicht verwunderlich, dass es zum Wissen verschiedene weitere Überlegungen gab.

7. Neben der Betonung der zentralen Rolle von Wissen wurde mehrfach auf potentielle Grenzen und Schwachstellen hingewiesen: (i) gemessen an dem objektiv verfügbare Wissen erscheint unser individuelles Wissen sehr partiell, sehr begrenzt zu sein. Es ist zudem (ii) veränderlich durch ‚Vergessen‘ und ‚Neues‘. Auch stellte sich die Frage (iii) nach der Qualität: wie sicher ist unser Wissen? Wie ‚wahr-falsch‘? Woher können wir wissen, ob das, was wir ‚für wahr halten‘, an was wir ‚glauben‘, tatsächlich so ist? Dies führte (iv) zu einer Diskussion des Verhältnisses zwischen ‚wissenschaftlichem‘ Wissen und ‚Alltags-‚ bzw. ‚Bauchwissen‘. Anwesende Ärzte betonten, dass sie als Arzt natürlich nicht einfach nach ‚Bauchwissen‘ vorgehen könnten, sondern nach explizit verfügbarem wissenschaftlichen Wissen. Im Gespräch deutete sich dann an, dass natürlich auch dann, wenn jemand bewusst nach explizit vorhandenem Wissen vorgehen will, er unweigerlich an die ‚Ränder seines individuellen‘ Wissens stoßen wird und dass er dann gar keine andere Wahl hat, als nach zusätzlichen (welche!?) Kriterien zu handeln oder – was vielen nicht bewusst ist – sie ‚verdrängen‘ die reale Grenze ihres Wissens, indem sie mögliche Fragen und Alternativen ‚wegrationalisieren‘ (das ‚ist nicht ernst‘ zu nehmen, das ist ‚unwichtig‘, das ‚machen wir hier nicht so‘, usw.). Ferner wurde (v) der Status des ‚wissenschaftlichen‘ Wissens selbst kurz diskutiert. Zunächst einmal beruht die Stärke des wissenschaftlichen Wissens auf einer Beschränkung: man beschäftigt sich nur mit solchen Phänomenen, die man ‚messen‘ kann (in der Regel ausschließlich intersubjektive Phänomene, nicht rein subjektive). Damit werden die Phänomene zu ‚Fakten‘, zu ‚Daten‘. Ferner formuliert man mögliche Zusammenhänge zwischen den Fakten in expliziten Annahmen, die formal gefasst in einem expliziten Modell repräsentiert werden können. Alle diese Modelle sind letztlich ‚Annahmen‘, ‚Hypothesen‘, ‚Vermutungen‘, deren Gültigkeit von der Reproduzierbarkeit der Messungen abhängig ist. Die Geschichte der Wissenschaft zeigt überdeutlich, dass diese Modelle beständig kritisiert, widerlegt und verbessert wurden. Wissenschaftliches Wissen ist insofern letztlich eine Methode, wie man der realen Welt (Natur) schrittweise immer mehr Zusammenhänge entlockt. Die ‚Sicherheit‘ dieses Wissens ist ‚relativ‘ zu den möglichen Messungen und Modellen. Ihre Verstehbarkeit hängt zudem ab von den benutzten Sprachen (Fachsprachen, Mathematische Sprachen) und deren Interpretierbarkeit. Die moderne Wissenschaftstheorie konnte zeigen, dass letztlich auch empirische Theorien trotz aller Rückbindung auf das Experiment ein Bedeutungsproblem haben, das sich mit der Fortentwicklung der Wissenschaften eher verschärft als vereinfacht. Im Gespräch klang zumindest kurz an (vi), dass jedes explizites Wissen (auch das wissenschaftliche), letztlich eingebunden bleibt in das Gesamt eines Individuums. Im Individuum ist jedes Wissen partiell und muss vom Individuum im Gesamtkontext von Wissen, Nichtwissen, Emotionen, körperlicher Existenz, Interaktion mit der Umwelt integriert werden. Menschen, die ihr Wissen wie ein Schild vor sich hertragen, um damit alles andere abzuwehren, zu nivellieren, leben möglicherweise in einer subjektiven Täuschungsblase, in der Rationalität mutiert zu Irrationalität.

UND DEN KONTEXT GIBT ES DOCH

8. Schließlich gewann der Kontext des Individuums doch noch mehr an Gewicht.

9. Schon am Beispiel des wissenschaftlichen Wissens wurde klar, dass Wissenschaft ja keine individuelle Veranstaltung ist, sondern ein überindividuelles Geschehen, an dem potentiell alle Menschen beteiligt sind.

10. Dies gilt auch für die schier unendlich erscheinende Menge des externen Wissens in Publikationen, Bibliotheken, Datenbanken, Internetservern, die heute produziert, angehäuft wird und in großen Teilen abrufbar ist. Dazu die verschiedenen Medien (Presse, Radio, Fernsehen, Musikindustrie,….), deren Aktivitäten um unsere Wahrnehmung konkurrieren und deren Inhalt, wenn wir es denn zulassen, in uns eindringen. Die Gesamtheit dieser externen Informationen kann uns beeinflussen wie auch ein einzelner dazu beitragen kann, diese Informationen zu verändern.

11. Es kam auch zur Sprache, dass natürlich auch die unterschiedliche Lebensstile und Kulturen spezifisch auf einzelne (Kinder, Jugendliche, Erwachsene…) einwirken bis dahin, dass sie deutliche Spuren sogar im Gehirn (und in den Genen!) hinterlassen, was sich dann auch im Verhalten manifestiert.

12. Besonders hervorgehoben wurden ferner die politischen Prozesse und Teil des Wirtschaftssystems. Die Meinung war stark vertreten, dass wir auch in den Demokratien eine ‚Abkopplung‘ der politischen Prozesse von der wählenden Bevölkerung feststellen können. Der intensive und gesetzmäßig unkontrollierte Lobbyismus im Bereich deutscher Parteien scheint ein Ausmaß erreicht zu haben, das eine ernste Gefahr für die Demokratie sein kann. Die Vertretung partikulärer Interessen (genannt wurde beispielhaft die Pharmaindustrie, aber auch Finanzindustrie und weitere), die gegenläufig zum Allgemeinwohl sind, wurde – anhand von Beispielen – als übermächtiges Wirkprinzip der aktuellen Politik unterstellt. Sofern dies tatsächlich zutrifft, ist damit natürlich die sowieso schon sehr beschränkte Einflussmöglichkeit des Wählers weitgehend annulliert. Die zu beobachtende sich verstärkende Wahlmüdigkeit des Wählers wird damit nur weiter verstärkt. Das Drama ist, dass diejenigen, die das Wählervertrauen durch ihr Verhalten kontinuierlich zerstören, nämlich die gewählten Volksvertreter, den Eindruck erwecken, dass sie selbst alles verhindern, damit der extreme Lobbyismus durch Transparenz und wirksamen Sanktionen zumindest ein wenig eingedämmt wird.

ABSCHLUSS

13. In der abschließenden Reflexion bildete sich die Meinung, dass die Punkte (i) Präferenzen/ Werte/ Kriterien einerseits und (ii) Beeinflussbarkeit politischer Prozesse andererseits in der nächsten (und letzten Sitzung vor der Sommerpause) etwas näher reflektiert werden sollten. Reinhard Graeff erklärte sich bereit, für die nächste Sitzung am So 14.Juni einen Einstieg vorzubereiten und das genaue Thema zu formulieren.

AUSBLICK

14. Am So 14.Juni 2015 16:00 findet nicht nur die letzte Sitzung der Philosophiewerkstatt vor der Sommerpause statt, sondern es soll im Anschluss auch (ca. ab 19:00h) bei Essen und Trinken ein wenig darüber nachgedacht werden, wie man in die nächste Runde (ab November 2015) einsteigen möchte. Soll es überhaupt weitergehen? Wenn ja, was ändern? Usw.

Einen Überblick über alle Beiträge zur Philosophiewerkstatt nach Themen findet sich HIER

DIE NEUROWISSENSCHAFTEN – EIN PHILOSOPHISCHES SCHWARZES LOCH? – Zu einem Artikel von W.Singer in der FAZ vom 17.September 2014

(Letzte Änderungen am Text: 21.Sept.2014, 22:06h)

Sound einer Galaxie oder doch eher von Neuronen oder von Galaxien eingefangen in den Vibrationen der Neuronen?

BEGRIFF (PHILOSOPHISCHES) SCHWARZES LOCH

1. Ein Schwarzes Loch (oder auch Black hole) ist in der Astrophysik – leicht vereinfachend – ein Raum-Zeit-Gebiet, das im Kern eine Massekonzentration besitzt, die so groß ist, dass in einem bestimmten Umfeld alle Materie (einschließlich der Lichtquanten) so stark angezogen wird, dass jenseits dieses Umfeldes (jenseits des ‚Ereignishorizontes‘) nichts mehr nach außen dringt (außer der sogenannten Hawking-Strahlung (benannt nach dem Physiker Stephen Hawking)). Im Prinzip kann ein schwarzes Loch immer weiter wachsen. Ab einer bestimmten Größe entstehen im Umfeld des Ereignishorizontes allerdings ‚Sperreffekte‘, die den Zufluss von Materie erschweren und über die Hawking-Strahlung verlieren schwarze Löcher kontinuierlich Energie.

2. Der Begriff ‚philosophisches‘ schwarzes Loch wird in diesem Beitrag benutzt als eine Metapher, um eine Denkweise zu charakterisieren, die die Vielfalt der Phänomene durch Beschränkung auf ein einziges Prinzip so stark nivelliert, dass von der Vielfalt anschließend nur noch bestimmte Fragmente übrig bleiben, die als solche zwar eine gewisse ‚Wahrheit‘ verkörpern, durch den eliminierenden Kontext aber letztlich ihre ursprüngliche Wahrheit verloren haben; vielleicht muss man sogar sagen, sie werden durch den falschen Kontext geradezu ‚falsch‘.

3. Ich stelle hier die frage, ob diese Metapher vom ‚philosophischen schwarzen Loch‘ anwendbar ist auf den Artikel von Wolf Singer in der FAZ vom 17.September 2014 S.N2. Würde meine Hypothese zutreffen, dann wäre dies fast tragisch, da hier eine Sache, die in sich gut und wichtig ist, die Hirnforschung, durch ihre methodische Übergrifflichkeit viele andere Sachen dermaßen entstellt und ihrer ontologischen Besonderheit beraubt, dass damit genau das Großartige, was die Gehirne in diese Welt eingebracht haben, von den Hirnforschern selbst totgemacht, zerstört würden.

4. Dies hier ist meine individuelle Hypothese. Vielleicht würde eine empirische soziologische Untersuchung im Rahmen einer Wissenssoziologie zu noch weitreichenderen kritischen Aussagen zu den Neurowissenschaften kommen. Aber für solche Wissenschaften ist es heute sehr schwer, Forschungsgelder zu bekommen.

DIE ARGUMENTATIONSFIGUR IM TEXT

5. Warum kann ich die Frage stellen, ob die Metapher von einem ‚philosophisch schwarzem Loch‘ auf den Artikel von Wolf Singer zutrifft?

6. In dem zitierten Artikel mit der Überschrift „Erst kommt das Denken, dann die Kunst“ soll es offiziell um das Verhältnis zwischen der Kunst und den Neurowissenschaften gehen; inoffiziell ergreift der Autor aber die Gelegenheit, aus Anlass eines Themas, das außerhalb der Neurowissenschaften liegt, primär die Bedeutung und Leistung der Neurowissenschaften heraus zu stellen; das auslösende Thema, der ‚Aufhänger‘ Kunst, gerät zu einer Art ‚Randnotiz‘: ja, es gibt irgendwo Kunst, ja, sie hat ein paar Eigenschaften, aber letztlich sind alle diese Eigenschaften unwichtig, da es eigentlich nur auf die Leistungen der neuronalen Verbände ankommt, die dem künstlerischen Verhalten letztlich zugrunde liegen. Die Neuronen und deren Verhalten repräsentieren die eigentliche, die wahre Wirklichkeit; sie erzählen uns, worum es geht …

7. Nun ist es ja unbestreitbar, dass die Neurowissenschaften seit ihrem Entstehen – letztlich viele Jahrhunderte; mit der klaren Einsicht in die Isoliertheit des Neurons aber dann erst seit ca. 120 Jahre – atemberaubende neue Einblicke in unser Gehirn und in die Interaktion zwischen dem Gehirn und dem Körper ermöglicht haben. Vielen Phänomenen des beobachtbaren Verhaltens wie auch unserer subjektiven Empfindungen konnten durch die Korrelation mit neuronalen Aktivitäten neue, interessante Aspekte zugeordnet werden, die zu neuen Verstehensmodellen geführt haben.

INPUT-OUTPUT SYSTEME: DIE SUMME IST MEHR ALS IHRE TEILE

8. Bei der Erklärung des Verhaltens eines Input-Output-Systems — was biologische Systeme u.a. sind – sind die Verhältnisse nicht ganz so trivial, wie sie die Erklärungsmuster der Neurowissenschaftler oft nahe legen.

9. Aus der Tatsache, dass ein Input-Output-System aus einer Vielzahl von elementaren Einheiten – im Falle des Gehirns u.a. aus ‚Neuronen‘ – besteht, folgt sehr selten, dass man das beobachtbare (äußere) Verhalten des Systems durch einfachen Rückgriff auf die Eigenschaften seiner Bestandteile ‚erklären‘ kann.

10. Wenn jemand heute — in einem analogen Fall — einen Computer (PC, Smartphone, Auto, Kamera,…) kauft, um damit einen Text zu schreiben oder Musik zu hören oder ein Computerspiel zu spielen oder … dann interessiert sich normalerweise niemand für die elektronischen Bauteilen in diesen Geräten (würden die meisten auch nicht verstehen), sondern nur um die ‚Funktionen‘, die das Gerät ihm zur Verfügung stellt.

11. Jener, der an der Funktion ‚Text Schreiben‘ interessiert ist, interessiert sich nicht unbedingt auch für die Funktion ‚Fotos machen‘, oder nicht für die spannenden Abenteuer eines Computerspiels, usw.

EINE ABBILDUNGSVORSCHRIFT IST MEHR ALS IHRE ‚TEILE‘

12. Alle diese verschiedenen ‚Funktionen‘ die heute ein Computer ausführen kann, sind zwar – in der Tat – alle durch die gleichen elektronischen Bauteile ermöglicht worden, wie man — im Falle der Computer — aber weiß, ist es nicht möglich, aus der Gegebenheit der elektronischen Bauteile als solcher auch nur eine einzige dieser vielen möglichen Milliarden von Funktionen ‚abzuleiten‘!

13. Zwar kann man rein theoretisch aus der Beschaffenheit dieser Bauteile ableiten (und damit voraussagen), welche Arten von Funktionen generell mit diesen Bauteilen ausführbar wären, aber man könnte niemals zwingend – also niemals mit Notwendigkeit – sagen, auf diesem Computer muss genau diese ‚Funktion f‘ ausgeführt werden.

14. Der tiefere – wenngleich sehr einfache – Grund für diesen Sachverhalt liegt darin, dass das beobachtbare Verhalten eines Computers – verstanden als eine Funktion f – eine Folge von Zustandsänderungen zusammenfasst, die unterschiedlichen ‚Input I‘ in das System (Eingaben durch den Benutzer, Messwerte, …) unter Berücksichtigung aktuell verfügbarer ‚interner Zustände IS‘ auf die beobachtbaren ‚Outputs O‘ (Ereignisse auf dem Bildschirm, Töne, Bewegungen eines mechanischen Teils, …) — und möglicherweise auch auf interne Zustände IS — ‚abbildet‘, wie der Mathematiker sagen würde. Eine solche reale Verhaltensfunktion ist damit nichts anderes als eine Folge von Paaren der Art …, ((I,IS),(IS,O)), …, verallgemeinernd geschrieben als eine Abbildungsvorschrift $latex f: I \times IS \longrightarrow IS \times O$.

15. Schon an dieser Stelle kann man direkt sehen, dass die Existenz irgendwelcher interner Zustände (z.B. elektronische Bauteile oder – wie im Falle des Gehirns – von Neuronen) in keiner Weise irgendetwas darüber sagen kann, wie die übergreifende Verhaltensfunktion f aussehen wird. Die Verhaltensfunktion f wird zwar nur unter Voraussetzung der internen Zustände stattfinden können, die internen Zustände (elektronische Bauteile, Neuronen, …) erlauben aber keinerlei Schlüsse auf die übergreifenden Funktion f, die damit tatsächlich zur Ausführung kommt.

16. Jeder kennt die Formulierung ‚Die Summe ist mehr als ihre Teile‘ oder der etwas neuere Begriff der ‚Emergenz‘, d.h. des Auftretens von Eigenschaften P eines Systems (z.B. Wasser), die unter bestimmten Bedingungen (Kälte, Hitze, …) mit einem Mal ‚beobachtbar‘ werden (‚zu Eis gefrieren‘, ’sich in Dampf transformieren‘, …). Die einzelnen Bestandteile als solche ‚für sich‘ können die Eigenschaft P nicht haben; wenn aber viele solche einzelnen Elemente (z.B. Moleküle) ‚zusammen‘ in einem Raum-Zeitgebiet vorkommen, dann kann eine – die einzelnen Elemente ‚übersteigende‘ (‚emergierende‘) — Eigenschaft P sichtbar werden, die wie aus dem ‚Nichts‘ entsteht.

17. Eine seit den Anfängen der Physik beliebte Strategie, die ‚emergenten‘ Eigenschaften zusammengesetzter Systeme durch ‚Rückführung auf die zugrunde liegenden Elemente‘ zu ‚erklären‘ (bekannt unter dem Namen ‚Reduktionismus‘) ist bis heute virulent, und findet sich z.B. ungebrochen im Text von Wolf Singer wieder. Was immer wir an Verhaltensweisen bei einem Menschen beobachten können – er hat sich einige ausgewählt, die einige als ‚künstlerisch‘, als ‚Malerei‘ bezeichnen –, das Verhalten in seiner speziellen Funktionalität wird auf das Verhalten zugrunde liegender Elemente (Neuronen) zurückgeführt und soll damit ‚erklärt‘ sein.

METHODISCHE GRENZEN DER NEUROWISSENSCHAFTEN

18. Abgesehen mal davon, dass die Neurowissenschaften auch heute – was Singer sogar an einzelnen Stellen einräumt – in der Regel noch nicht über wirklich harte Erklärungsansätze verfügen (bedingt durch die Komplexität des Gehirns und Messproblemen), werden die Neurowissenschaften als solche – sofern sie ihren eigenen Methoden treu bleiben – grundsätzlich niemals und zu keinem Zeitpunkt auch nur einzige der beobachtbaren Funktionen im echten Sinne ‚erklären‘ können.

19. Wenn Neurowissenschaftler sich zu Verhaltenserklärungen hinreißen lassen, dann überschreiten Sie in diesem Moment die methodischen Grenzen, die den Neurowissenschaften grundsätzlich gesetzt sind. Erklärung von ‚Verhalten‘ geht prinzipiell über die Beschreibung von Neuronen, Neuronenverbänden, und dem Verhalten von Neuronen hinaus, da es sich um prinzipiell verschiedene Datenarten handelt. Verhalten ist die Domäne der (biologischen) Ethologie oder der modernen experimentellen verhaltensbasierten Psychologie. Diese beiden Disziplinen wissen (als Verhaltenswissenschaften) nichts von Körperzuständen und Neuronen. Begibt ein Neurowissenschaftler sich in das Gebiet des Verhaltens, dann begeht er eine methodische Grenzüberschreitung. Wenn er Verhalten beschreibe will, dann muss er seine Neuronen grundsätzlich und vollständig vergessen! Hält man sich nicht an diese methodischen Grenzziehungen, dann resultiert ein methodisches Chaos, das man leider in ganz vielen neurowissenschaftlichen Publikationen — bis hin zu den High-End Journalen — beobachten kann.

20. Natürlich kann man sich eine methodisch kontrollierte ‚Kooperation‘ zwischen ‚Neurowissenschaften‘ und ‚Psychologie‘ vorstellen – dafür gibt es auch schon lange den Namen ‚Neuropsychologie‘ –, aber eine solche Kooperation stellt sehr hohe methodische und theoretische Anforderungen. Es ist nicht zu sehen, dass sich die Mehrheit der Neurowissenschaftlern dieses Problems bewusst ist. Es gibt offizielle Lehrbücher mit dem Titel ‚Neuropsychologie‘ die in keiner Weise den wissenschaftstheoretischen Ansprüchen genügen, die man hier stellen muss.

21. Im Falle des Artikels von Wolf Singer meine ich sowohl die Erklärungsstrategie des ‚Reduktionismus‘ wie auch eine Grenzüberschreitung von der Neurowissenschaft zu den Verhaltenswissenschaften feststellen zu müssen.

KEIN BEZUG ZUR WISSENSCHAFTSTHEORIE

22. Das Grundproblem, wie man das beobachtbare Verhalten f eines biologischen Input-Output-Systems ‚erklärt‘, ist eine Fragestellung aus dem Bereich der ‚Meta-Wissenschaft‘ genannt ‚Wissenschaftstheorie‘, die letztlich zur ‚Philosophie‘ gehört, der allgemeinen Reflexion ‚über‘ die Dinge, nicht methodisch eingegrenzt auf eine bestimmte wissenschaftliche Fachdisziplin.

23. Insofern berührt der Text von Wolf Singer Aspekte und Fragestellungen, die über die Neurowissenschaften deutlich hinausgehen. Singer lässt aber nirgends in seinem Text erkennen, dass er sich dieser Sachlage bewusst ist. Er spricht über das Gehirn wie ein Techniker über seinen Schaltplan, aus dem er abliest, dass der Motor in Halle 3 nicht läuft, weil eine bestimmte Leitung mit einer bestimmten Bauteilgruppe nicht funktioniert.

24. Mit einem solchen platten ‚Erklärungsansatz‘ wird aber genau die Besonderheit des Phänomens schlicht und einfach verdeckt, zugedeckt, unsichtbar gemacht. Das verstehe ich unter einem ‚philosophisch-schwarzen Loch‘

DIE RÜCKKEHR DES GEISTES?

25. Ist schon die mangelnde Selbstreflexion der Neurowissenschaften traurig genug, so gerät diese zu einer gewissen Tragik, da sie – aufgrund ihrer aktuell starken gesellschaftlichen Akzeptanz – alternative Reflektionsansätze auf die Vielfalt der Phänomene zu übertönen droht und damit die Wahrnehmung von genau dem ‚Wunder des Geistes‘, das durch die Evolution der Körper mit Gehirnen möglich wurde, im Ansatz zerstören. Kann man das ‚Allmachtsgebaren‘ der Neurowissenschaften noch als ‚typisch menschlich‘ abtun, greifen die kognitiven Wirkungen des begrifflichen Allmachtgehabes die ontologische Brisanz der durch die Gehirne möglichen Phänomene in ihrer Substanz an.

26. Erinnern wir uns an die mathematische Formel von zuvor $latex f: I \times IS \longrightarrow IS \times O$. Es ist absolut unmöglich, aus der Beschaffenheit der Teile die Gesamtfunktion abzuleiten; insofern repräsentiert eine solche Funktion ein ‚Mehr‘ an Informationen.

REFERENZSYSTEM PHYSIK

27. Die Physik kennt keine Gesetze, die die Entstehung von Etwas aus einem ‚Nichts‘ beschreiben (‚ex nihilo nihil fit‘). Insofern ist eine Theorie wie die ‚BigBang-Theorie‘ das Maximum, was die Physik leisten kann: vorausgesetzt, es gab genügend viel Energie am Beginn des Zeitpfeils, dann kann man den ganzen ‚Rest‘ (nämlich die Entwicklung des bekannten Universums) daraus schrittweise ‚rekonstruieren‘.

28. Will man mehr, dann muss man – hypothetisch – annehmen, dass es ‚außerhalb‘ von unserem bekannten Universum noch viele andere Universen gibt, die alle miteinander auf bestimmte Weise wechselwirken können. In diesem Fall wird das Prinzip ‚ex nihilo nihil fit‘ aber nicht aufgehoben. Die endlichen Raum-Zeitgrenzen werden damit nur ‚beliebig weit‘ (rein gedanklich) ausgedehnt.

29. Bezogen auf das Verhalten konkreter Systeme würde die Physik fordern, dass man ein ‚Mehr an Information‘ erklären muss.

30. Die Physik versagt bislang aber nicht nur bei der Grundsatzfrage, wo denn die ungeheure Menge an Information in Form von Anfangsenergie ‚herkommt‘, sie versagt auch schon bei der – scheinbar – kleineren Frage, wie es zur Ausbildung von biologischen Systemen auf dem Planeten Erde kommen konnte.

31. Damit ist nicht die Detailfrage gemeint, ob bestimmte für das Leben wichtige Moleküle schon ‚fertig‘ aus dem Weltall auf die Erde kamen oder sich – auf bislang noch unklare Weise – auf der Erde ‚gebildet‘ haben, sondern die Grundsatzfrage, wie es möglich war, dass sich überhaupt biologischen Systeme auf dem Planeten Erde bilden und immer weiter ausbreiten konnten (Molekülbildung, chemische Evolution, biologische Evolution).

32. Nach den Gesetzen der Thermodynamik strebt das bekannte Universum zwar langfristig auf einen Ausgleich aller Energieunterschiede, solange aber noch lokale Unterschiede bestehen, solange können sich an den Rändern des Energiegefälles noch Phänomene ausbilden, die die an diesen ‚Rändern‘ verfügbare ‚freie‘ Energie für ‚ihre Zwecke‘ ’nutzen‘. Alle biologische Zellen und Zellverbände, sind solche Strukturen: sie entziehen ihrer Umgebung (freie) Energie und generieren immer komplexere Strukturen, die der Idee des ‚(entropischen) Ausgleichs‘ diametral entgegen wirken. Und die biologischen Strukturen tun dies in einer sowohl individuellen wie auch systemisch-vernetzten Komplexität, die jeden rein auf ‚Zufall‘ basierenden Erklärungsversuch schon im Ansatz (rein mathematisch) ad absurdum führt.

33. Will man an dieser Stelle nicht in pseudo-theologische Ansätze flüchten, die die Erklärungslücken nach eigenen Vorstellungen – beliebig ? — ‚auffüllen‘, dann benötigt man Erklärungshypothesen, die sich mit den Methoden der Wissenschaft(en) vertragen.

VERDECKTE (IMPLIZITE) EIGENSCHAFTEN

34. Wenn wir im großen Stil Phänomene beobachten und messen können, die sich als Funktionen f darstellen lassen, die sich nicht direkt aus den unmittelbaren ‚Teilen‘ des Phänomens herleiten lassen, dann gibt es – neben der notwendigen Klärung der Arbeitsweise unseres Denkens (sehr wohl auch unter Einbeziehung einer evolutionären Erkenntnistheorie) – natürlich die (ganz normale) Arbeitshypothese, dass es in ‚Verbindung‘ mit den beteiligten ‚Elementen E‘ des beobachtbaren Phänomens p nicht nur die ‚direkten Eigenschaften‘ P(E) der beteiligten Elemente gibt, sondern möglicherweise auch weitere (indirekte)Eigenschaften E* (‚hidden properties‘), die direkt nicht beobachtbar sind, sondern nur unter bestimmten Randbedingungen des Zusammenwirkens ’sichtbar‘ werden.

35. Dieser Denkansatz würde dann in die Richtung führen, dass genau jene Eigenschaften, die an komplexen Strukturen ’sichtbar‘ werden, nicht ‚aus dem Nichts‘ entstehen, sondern grundsätzlich in der Struktur der Materie-Energie angelegt sind und sich bei steigendem Komplexitätsgrad in immer komplexeren Formen ‚zeigen‘.

36. Insofern alles, was wir in der Geistes- und Kulturgeschichte über ‚Geist’/ ‚Geistigkeit‘ usw. kennengelernt haben, von genau jenem komplexen Körper mit Gehirn stammt, der sich in der biologischen Evolution schrittweise herausgeschält hat, kann man mit dieser Hypothese dann die Frage aufwerfen, ob das, was die Phänomene des ‚Geistes‘ ausmacht, nicht zurückgeht auf diese indirekten Eigenschaften der Materie-Energie. Falls ja wäre der ‚Geist‘ letztlich eine ‚interne Eigenschaft‘ der Materie-Energie von Anfang an (ein Gedanke, der philosophisch viele Vorläufer hat, wenngleich eingebettet in andere Wortspiele).

37. Für eine empirische Theoriebildung wären solchen Fragen grundsätzlich kein Problem. In jeder anspruchsvollen empirischen Theorie mit mathematischem Modell gibt es genügend viele theoretische Begriffe (auch ‚theoretische Terme‘ genannt), die nicht ‚explizit‘ (‚direkt‘) definiert sind, sondern nur im Kontext vieler anderer Begriffe und Funktionen, die als Gesamtmodell einen Erklärungsanspruch darstellen und als Gesamtmodell ‚wahr‘ oder ‚falsch‘ sind.

[Anmerkung: Die Annahme von ‚verborgenen‘, ‚indirekten‘ Eigenschaften sind in der modernen Physik seit langem üblich. Der berühmte ‚Teilchenzoo‘ der Quantenphysik bietet hier genügend Anschauungsmaterial.]

38. Eine neue empirisch begründete (!) wissenschaftliche universale Theorie des Geistes wäre vor diesem Hintergrund prinzipiell kein Problem. Sie würde aber voraussetzen, dass die einzelnen Disziplinen (wie z.B. die Gehirnforschung) sich ihrer methodischen Grenzen bewusst werden und es zulassen würden, dass andere wissenschaftliche Disziplinen im Bereich komplexer Verhaltensphänomene geeignete theoretische Modelle entwickeln, die sich zwar bedingt mit z.B. der Gehirnwissenschaft für begrenzte Fragestellungen korrelieren lassen, die aber in keinster Weise auf diese begrenzten Fachdisziplinen ‚reduzierbar‘ wären. Andersherum gesprochen: diese komplexen Theorien beschreiben Eigenschaften und Beziehungen ‚oberhalb‘ möglichen vorausgesetzten ‚primitiveren# Elementen, die nur in diesen komplexeren Begriffen ’sichtbar‘ werden und nur hier ihre ‚Bedeutung‘ haben. Eine ‚Reduktion‘ auf die einfacheren Elemente ist nicht nur rein logisch nicht möglich, sondern würde die eigentliche Aussage direkt zerstören.

[Anmerkung: Das Thema mit dem ‚impliziten‘ Geist wurde in diesem Blog schon mehrfach diskutiert; besonders vielleicht in diesem Beitrag.]

DER KUNSTBEGRIFF

39. Im übrigen wäre der Kunstbegriff, den Singer benutzt, kritisch zu hinterfragen. Er selbst stellt gleich zu Beginn einerseits fest, dass es überhaupt keinen Konsens zum Begriff ‚Kunst‘ gibt, andererseits nimmt er Bezug auf bestimmte Tätigkeiten, die er dann als ‚künstlerisch‘ bezeichnet. Was soll man jetzt denken? Warum und wie sollen bestimmte Aktivitäten von Neuronen etwas mit Kunst zu tun haben, wenn nicht klar ist, was genau Kunst ist? Warum schreibt er dann nicht gleich, dass er zum Verhältnis von Gehirn und Kunst nichts sagen kann, weil nicht klar genug ist, was Kunst ist?

Einen Überblick über alle Blogeinträge nach Titeln findet sich HIER.