MEDITATION IN EINER TECHNISCHEN UND WISSENSCHAFTLICHEN WELT? Versuch einer philosophischen Verortung

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
7.Mai 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: doeben@fb2.fra-uas.de

 

ÜBERSICHT

I Fragmentierung der Welt als Dauerentfremdung

II Philosophie und Wissenschaft (Idealbild)

II-A Alltagserfahrung – Oberflächen .

II-B Jenseits des Alltags – Wissenschaft

II-C Homo Sapiens Heute – Digitale Versklavung beginnt

II-D Selbstvergewisserung – Speziell durch Meditation?

III Erst Reaktionen

III-A Erosion der Wissenschaft ’von innen’

III-B ’Digitalisierung’ als ’hypnotischer Zustand’? .

III-C Meditationserfahrung gegen Reflexion?

Quellen

IDEE

In diesem Text wird aufgezeigt, wie das Phänomen der Meditation im Koordinatensystem der modernen Philosophie und der empirischen Wissenschaften in einer mittlerweile hochtechnisierten Welt verortet werden kann. Ein Deutungsversuch. Er wurde provoziert durch ein Experiment an der Frankfurt University of Applied Sciences, an der seit dem Sommersemester 2017 das Thema ’Meditation’ als offizielles Fach Für alle Bachelor-Studierende der Universität angeboten wird.

I. FRAGMENTIERUNG DER WELT ALS DAUERENTFREMDUNG

In ihren Bachelorstudiengängen erwerben die Studierende grundlegende Kenntnisse über viele verschiedene Einzeldisziplinen. Wieweit diese Disziplinen eher als ’empirische wissenschaftliche Disziplinen’ daherkommen oder doch mehr als ein ’ingenieurmäßiges Anwendungsfeld’ hängt stark vom Charakter der einzelnen Disziplin ab. Sicher ist nur, diese Einzeldisziplinen vermitteln keine ’Gesamtsicht’ der Welt oder des Menschen in der Welt. Ein ’Betriebswirtschaftler’ pflegt einen ganz anderen Zugang zur Welt als ein ’Architekt’, eine ’Case-Managerin’ ist keine ’Elektrotechnikerin’, usw.

Vorab zu allen möglichen Spezialisierungen ist ein Studierender aber primär ein ’Mensch’, ein weltoffenes Wesen, das eine Orientierung im Ganzen sucht, mit einem Körper, der eines der größten Wunderwerke der biologischen Evolution darstellt. Gesellschaftliche Teilhabe, Kommunikation, Verstehen sind wichtige Facetten in einer menschlichen Existenz. Historische Kontexte, Kultur, Werte, eigene Lernprozesse, das eigene Erleben und Lernen, dies alles gehört wesentlich zum Menschsein.

In einer einzelnen Disziplin kommt all dies nicht vor. Wer sich voll in einer bestimmten Disziplin engagiert ist damit nur zu einem kleinen Teil seines Menschseins ’versorgt’. Es klaffen große Lücken. In diesem Kontext ein Modul ’Meditation als kulturelle Praxis’ anzubieten, adressiert ein paar zusätzliche Teilaspekte des studentischen Lebens. Es spricht den persönlichen Umgang mit dem eigenen Körper an, mit spezifischen Körpererfahrungen, die eine feste erlebnismäßige Basis im Strom der Alltagsereignisse bieten können. Damit diese konkrete Praxis nicht ’ir-rational’ daherkommt, werden Teile des kulturellen Kontextes, aus der Geschichte, aus dem heutigen Weltbild, mit erzählt. Wie verstehen Menschen das ’Meditieren’ zu verschiedenen Zeiten, in verschiedenen Kulturen, heute?

II. PHILOSOPHIE UND WISSENSCHAFT (IDEALBILD)

Zwei besonders wichtige Blickweisen in der europäischen Kultur werden durch die modernen empirischen Wissenschaften und durch die moderne Philosophie repräsentiert. Beide entwickelten sich in enger Wechselwirkung seit dem 17.Jahrhundert; sie schufen die Grundlage für moderne Technologien, Gesellschafts- und Wertesysteme. Auch legten sie die Basis für einen Blick auf das Universum, das Leben im Universum, wie auch auf das menschliche Erkennen, wie es in der bisherigen Geschichte des Lebens einmalig ist.

Nun ist der Umfang dieses wissenschaftlichen und philosophischen Wissens zu groß, um es hier auch nur ansatzweise ausbreiten zu können. Es soll aber versucht werden, ausgehend von der Alltagserfahrung und der Praxis der Meditation anzudeuten, wie sich dieses aus Sicht der Philosophie und der empirischen Wissenschaften darstellt.

A. Alltagserfahrung

Oberflächen In seinem Alltag erlebt sich der Mensch mit seinem ’Körper’, der in einem räumlichen Miteinander mit anderen Körpern und Objekten vorkommt. Er erlebt Veränderungen, Verhaltensweisen, asynchron und synchron: Menschen auf einer Straße können wild durcheinander laufen, sie können aber auch gemeinsam diszipliniert in einer Warteschlange stehen, sich im gemeinsamen Tanz bewegen, oder im direkten Gespräch ihr individuelles Verstehen miteinander verschränken.

Zugleich lernt jeder von früh an, dass es ’hinter der Oberfläche’, ’im’ Körper, eine Vielfalt von Ereignissen gibt, subjektive Erlebnisse, die das ’Innere’ eines Menschen charakterisieren. Einiges von diesen Vorgängen ist ’bewusst’, bildet das ’Bewusstsein’ des Menschen. Wir wissen aber heute, dass vieles im Inneren eines Körpers, eigentlich das meiste, ’nicht bewusst’ ist! So sind die ’Inhalte’ unseres ’Gedächtnisses’ normalerweise nicht bewusst; sie können aber bewusst werden, wenn bestimmte Ereignisse uns an etwas erinnern, und herausfordern. Solche Erinnerungen können wie eine Kettenreaktion wirken: eine Erinnerung aktiviert die nächste.

B. Jenseits des Alltags

Wissenschaft Mittlerweile wurde der menschliche Körper, seine Bauweise, viele seiner Funktionen, durch die Biologie, die Physiologie, die Psychologie und durch viele weitere Wissenschaften untersucht und partiell ’erklärt’, dazu auch das Miteinander mit anderen Menschen in seinen vielfältigen Formen.

Wir wissen, dass die ’innere Verarbeitung’ des Menschen die äußeren und die körperinternen Reize nach festen Verfahren zu allgemeinen Strukturen zusammenführt (’Cluster’, ’Kategorien’), diese untereinander vielfach vernetzt, und automatisch in einer Raumstruktur aufbereitet. Zugleich erlaubt das Gedächtnis jede aktuelle Gegenwart mit gespeicherten ’alten Gegenwarten’ zu vergleichen, was ein ’vorher/nachher’ ermöglicht, der Ausgangspunkt für ein Konzept von ’Zeit’. Dazu kommt die besondere Fähigkeit des Menschen, die Ausdrücke einer Sprache mit seinen ’inneren Zuständen’ ’verzahnen’ zu können. Ein Ausdruck wie ’Es ist 7 Uhr auf meiner Uhr’ können wir in Beziehung setzen zu unserer Wahrnehmung eines Gegenstandes am angesprochenen Arm.

Ein wichtiges Charakteristikum biologischer Körper ist auch ihre grundlegende ’Nicht-Determiniertheit’, eine grundlegende Voraussetzung für ’Freiheit’.

Dass diese komplexen inneren Mechanismen des menschlichen Körpers so scheinbar mühelos mit den Gegebenheiten der Körperwelt ’harmonieren’, kommt nicht von ungefähr. Die moderne Biologie mit Spezialgebieten  wie z.B. der ’Mikrobiologie’, der ’Evolutionsbiologie’, der ’Paläobiologie’, der ’Astrobiologie’ 1 zusätzlich vereint mit Disziplinen wie der Geologie, Archäologie, der Klimatologie samt vielen Subdisziplinen der Physik und der Chemie; diese alle haben in über 100 Jahren konzertierter Arbeit die Geschichte der Lebensformen auf der Erde samt den parallelen Veränderungen der Erde mit ihrem Klima häppchenweise entschlüsselt, entziffert, dekodiert und immer wieder neu zu einem Gesamtbild zusammen gefügt. Das Bild, das sich daraus bis heute ergeben hat, zeigt eine ungeheure Vielfalt, eine bisweilen große Dramatik, vor allem aber das erstaunliche Phänomen, wie sich ’biologisches Leben’ anschickt, die freien Energiereserven des Universums ’anzuzapfen’, sie für sich ’nutzbar zu machen’, um damit immer komplexere Strukturen zu schaffen, die über einfache erste Zellen von vor ca. 3.8 Mrd. Jahren zu komplexen (’eukaryotischen’) Zellen führten, zu Zellverbänden, zu Pflanzen, zu Tieren und dann, sehr spät, ’erst vor kurzem’, zu einer Lebensform, die wir ’homo sapiens’ nennen, die sich von Ostafrika aus kommend, in ca. 45.000 Jahren über die ganze bekannte Erde ausgebreitet hat. Das sind wir.

Nimmt man die Erkenntnisse der Astrobiologie hinzu, dann wird deutlich, dass unser Planet Erde bisher eine äußerst ’lebensfreundliche’ Position in unserem Sonnensystem inne hatte; unser Sonnensystem wiederum befindet sich in einem sehr lebensfreundlichen Bereich unserer Heimatgalaxie, der Milchstraße mit ihren ca. 200 – 400 Mrd. Sternen; erst in ein paar Mrd. Jahren wird die Milchstraße – nach heutigem Kenntnisstand – mit der Andromeda- Galaxie kollidieren, die ca. 1 Bio. Sterne zählt.

C. Homo Sapiens Heute – Digitale Versklavung beginnt

Verglichen mit den langen Zeiträumen der Entwicklung des bekannten Universums (vor ca. 13.8 Mrd. Jahren), unserer Erde (vor ca. 4.5 Mrd. Jahren), des biologischen Lebens selbst (vor ca. 3.8 Mrd. Jahren) ist das Auftreten des homo sapiens (vor ca. 200.000 Jahre) verschwindend kurz. Betrachtet man nur die Zeit seit der Gründung der ersten Städte (vor ca. 11.000 Jahren), seit dem ersten Computer (vor ca. 88 Jahren), seit dem Internet (vor ca. 48 Jahren), dann muss man sagen, dass wir Menschen uns seit kurzem mitten in einer Revolution befinden, in der digitalen Revolution, die das Zeug dazu hat, die bisherige Lebensweise des homo sapiens so nachhaltig zu verändern, wie vielleicht vergleichbar mit der frühen Seßhaftwerdung des homo sapiens.

Ein Grundzug der Digitalisierung des menschlichen Lebens ist der Aufbau einer parallelen, einer digitalen Welt, in der ungeheure Datenmengen eingelagert werden können, riesige Datenströme schneller als menschliche Gedanken von überall nach überall hin und her strömen können, Daten, die partiell Abbilder, Kopien, Modelle der realen Welt darstellen, in denen Computerprogramme diese Datenberge geräuschlos verwalten, verarbeiten und in Maßnahmen umsetzen können.

Der homo sapiens mit seinem Körper für die Außenwelt und seinen bewussten kognitiven Prozessen in der ’Innenwelt’, wird über Schnittstellen mit der digitalen Welt verkoppelt und lebt immer mehr nur durch das Medium des Digitalen. Sein Körper, die Vorgänge in der Außenwelt, verlieren an Bedeutung. Die wahrgenommene Außenwelt wird zu einem immer kleiner werdenden Segment der subjektiv gedachten und digital aufbereiteten Welt. Falls der homo sapiens die Nutzung der digitalen Welt in der Zukunft nicht grundlegend anders organisiert, wird das einzelne, individuelle Gehirn zu einem bloßen Anhängsel einer neuen digitalen Galaxie, deren Beherrschung und Steuerung sich allen bekannten Kategorien aus der Außenwelt entzieht. Alle bekannten rechtliche, soziale und politische Kategorien werden nicht mehr gelten. Ganze Staaten verlieren ihren Halt, weil ihre Bürger in einer digitalen Welt leben, die von globalen anonymen Kräften beherrscht werden. Bürger mutieren zu ’Realwelt-Zombies’, deren Inneres zum Bestandteil über-individueller globaler Algorithmen geworden ist, die alle individuellen Regungen automatisch beobachten, und nach partiellen ökonomischen Interessen global steuern.

Noch ist diese Vision nicht vollständig wahr, aber doch schon soweit, dass es uns erschrecken sollte. Ist es das, was wir wollen, was wir wollen sollten?

D. Selbstvergewisserung – Speziell durch Meditation?

Eines der wichtigsten Themen der Philosophie war und ist zu allen Zeiten das Thema der ’Selbstvergewisserung’: wer bin ich, der ich wahrnehme, empfinde, denke, und handle? Bin ich das, was ich wahrnehme, empfinde etc. oder bin ich etwas davon ’Verschiedenes’, oder die ’Synthese’ aus all dem, oder etwas noch ganz anderes?

Die Palette der Antworten ist so breit, wie die Zeit lang ist. Jeder Philosoph hat das Thema irgendwie neu moduliert; bis heute gibt es nicht ’die’ Antwort.

Schon mittendrin in der digitalen Revolution, schon jetzt fast mehr im ’digitalen’ Raum als im ’realen Körperraum’, verschärft sich diese philosophische Fragestellung weiter: wenn das, was ich wahrnehme, immer weniger direkt mit der realen Körperwelt korrespondiert, dafür immer mehr mit digital aufbereiteten Objekten, deren Herkunft zu bestimmen immer schwieriger wird, dann kann es passieren, dass sich das individuelle erkennende Subjekt über eine (digitale) Objektwelt definiert, die weitgehend ein Fake ist, einzig dazu da, den Einzelnen zu manipulieren, ihn zu einem ferngesteuerten ’Diener des Systems’ zu machen, besser: zu einem ’digitalen Sklaven’.

Würde man die aktuelle Entwicklungstendenz der digitalen Revolution so fort schreiben, wie sie aktuell formatiert ist, dann würde dies zur totalen Auslöschung eines freien, kreativen Individuums führen. Denn selbst ein Individuum, das vom Ansatz her ein ’freies’ Individuum ist, würde durch eine reale Lebensform der manifesten digitalen Sklaverei jeglichen Ansatzpunkt verlieren, die Freiheit zu ’materialisieren’.

Um eine solche digitale Sklaverei zu verhindern, kann und muss man die aktuelle digitale Revolution ’um- formatieren’. Statt den menschlichen Benutzer zu einem vollständig manipulierten Bestandteil einer Population von wertfreien Algorithmen zu machen, die von einzelnen narzisstischen, macht-hungrigen und menschenverachtenden Menschen global gesteuert werden, sollte man den digitalen Raum neu, von ’unten-nach-oben’ organisieren. Der einzelne Mensch muss wieder zum Taktgeber werden, die individuelle Freiheit, Kreativität und in Freiheit geborenen Werte müssen in einer freien Gesellschaft wieder ins Zentrum gerückt werden, und die diversen Algorithmen und Datengebirge müssen diesen individuellen Freiheiten in einer demokratischen Gesellschaft ’dienen’!

Eine Grundvoraussetzung für solch eine neue ’Selbstvergewisserung’ von ’Freiheit’ ist eine radikale, authentische Selbstwahrnehmung des ganzen individuellen Daseins, weit-möglichst frei von manipulierten und gefakten Fakten. Natürlich kann dies nicht bedeuten, dass der Mensch sich all seiner Erfahrungen, all seines Wissens ’entleert’, das wäre die andere Form von Versklavung in der Dunkelheit eines radikalen ’Nicht-Wissens’. Aber in all seinen Erfahrungen, in all seinem Wissen, braucht es die Erfahrung ’seiner selbst’, wie man ’faktisch ist’, man ’selbst’, mit seinem ’Körper’, in einer Erfahrungswelt, die dem menschlichen Tun ’vorgelagert’ ist als das, was wir ’Natur’ nennen, die ’aus sich heraus gewordene und werdende Wirklichkeit’ der Erde im Universum, des Lebens auf der Erde, von dem wir ein Teil sind.

Natürlich, und das wissen wir mittlerweile, gerade auch durch das philosophische Denken im Einklang mit den empirischen Wissenschaften, haben wir Menschen niemals einen völlig authentischen, einen völlig ’ungefilterten’ Zugang zur ’Natur’. Einmal nicht, weil das menschliche Vermögen des Wahrnehmens und Verstehens aus sich heraus ’konstruktiv’ ist und wir die ’Außenwelt’ grundsätzlich nur im Modus unserer ’Innenwelt’ ’haben’, zum anderen nicht, weil wir selbst Teil dieser Natur sind und durch unsere Aktivitäten diese Natur mit verändern. Die erlebbare Natur ist von daher immer schon eine ’vom Menschen mit-gestaltete Natur’! Je mehr wir dies tun, je mehr wir selbst als Teil der Natur die Natur verändern, umso weniger können wir die Natur ’vor’ oder ’ohne’ den Menschen erleben.

Dennoch, bei aller ’Verwicklung’ des Menschen mit der umgebenden Natur, und heute noch zusätzlich mit der selbst geschaffenen digitalen Wirklichkeit, gibt es keine Alternative zu einer praktizierten Selbstvergewisserung mit vollem Körpereinsatz. Dies können intensive Formen körperlicher Aktivitäten sein – wie z.B. Gehen, Laufen, Fahrrad fahren, Mannschaftssport, Tanzen, Musizieren, … –, dies kann aber auch das ’Meditieren’ sein. Im Meditieren, mit dem Atmen als ’Referenzpunkt’, kann sich der einzelne mit all seinen Befindlichkeiten als ’Ganzes’ erleben, als direkt Gegebenes, mit einem ungefilterten Erleben, mit einer Feinheit des Erlebens, die nicht durch Alltagsrauschen ’überdeckt’, ’maskiert’ wird, und der einzelne kann darin nicht nur ’physiologische Entspannung’ finden, sondern auch – über die Zeit – durch seine erweiterte Wahrnehmung zu neuen, differenzierteren ’Bildern seiner selbst’ kommen, zum ’Entdecken’ von ’Mustern’ des Daseins, die über den aktuellen Moment hinaus auf Wirkzusammenhänge verweisen, die im Alltagsrauschen normalerweise völlig untergehen. Darüber hinaus können sich – meist auf Dauer – Erlebnisse, Erfahrungen einstellen, die sich in spezifischer Weise ’wohltuend’ auf das gesamte Lebensgefühl eines einzelnen auswirken, die einen ’gefühlten Zusammenhang mit Allem’ ermöglichen, der das ’Gefühl für das Ganze’ deutlich verändert. Dieses ’Wohlfühlen’ ist ’mehr’ als physiologische Entspannung, es sind ’Gefühle eines komplexen Existierens’, zu dem nur biologische Systeme fähig sind, deren Körper aufgrund ihrer quanten-physikalischen Offenheit in allen Richtungen Wirklichkeit ’registrieren’ können. Auch das Thema sogenannter ’mystischer’ Erfahrungen gehört in diesen Kontext. Leider gibt es dazu kaum wissenschaftliche Forschungen, aber viele Phänomene, die der Erklärung harren.

III. ERST REAKTIONEN

Obwohl dieser Text erst wenige Tage alt ist, kam es schon zu interessanten Rückmeldungen. Einige davon seien hier ausdrücklich genannt, da sie helfen können, den Kern der Aussage noch weiter zu konturieren.

A. Erosion der Wissenschaft ’von innen’

Wenn im vorausgehenden Text von ’Wissenschaft’ die Rede ist, dann wurde in diesem Text ein Idealbild von Wissenschaft unterstellt, das es so heute ansatzweise gar nicht mehr gibt, und das tendenziell dabei ist, sicher weiter zu verwischen. Für das Projekt einer Zukunft mit dem homo sapiens als aktivem Teilnehmer ist dies brandgefährlich!

Für eine ausführliche Beschreibung dieser beginnenden Erosion von Wissenschaft bräuchte es einen längeren Text. Hier zwei Beispiele, die als erste ’Indikatoren’ dienen mögen.

Vor wenigen Tagen hatte ich Gelegenheit, im Rahmen eines sogenannten ’Graduiertenkollegs’ mit Studierenden von 6 verschiedenen Universitäten mit 7 verschiedenen akademischen Profilen arbeiten zu können; alle waren DoktorandenInnen.

Wir nahmen uns zu Beginn die Zeit, mittels einfacher Zettel, mal zusammen zu stellen, was jedem von ihnen zum Thema ’Wissenschaft’ einfällt. Das Ergebnis war erschreckend. Kein einziger war in der Lage, ein auch nur annähernd ’korrektes’ Bild dessen zu zeichnen, was ’standardmäßig’ unter dem Begriff ’Wissenschaft’ zu verstehen ist; keiner. Nachdem wir dann in Ruhe alle Beiträge gemeinsam diskutiert und in einen Gesamtzusammenhang eingeordnet hatten (mit vielen Ergänzungen), war die einhellige Reaktion, dass sie dieses in ihrem ganzen Studium noch nie gehört hätten, und dass sie ein großes Interesse hätten, dazu mehr zu erfahren.

Also, eine Zufallsauswahl von jungen Menschen, die eine Doktorarbeit schreiben wollen, war nicht in der Lage, ein belastbares Konzept von ’Wissenschaft’ zu kommunizieren, und das nach ca. 5-6 Jahren Studien an 6 verschiedenen Universitäten in 7 verschiedenen Fachprofilen.

Wer diesen Befund jetzt mit dem Hinweis wegwischen möchte, dass dies auf keinen Fall repräsentativ sei, dem möchte ich ein neueres Handbuch der Wissenschaftsphilosophie zu den Philosophien der Einzelwissenschaften zur Lektüre empfehlen (siehe: [LR17]). In diesem Buch von 2017 wird von Experten der Wissenschaftsphilosophie in 22 Kapiteln sehr kenntnisreich, mit umfänglichen Literatursammlungen, dargelegt, was heute die großen Strömungen im Verständnis von Wissenschaft sind. Was man in diesen Texten nicht findet – ich konnte bislang 6 von 22 Kapiteln lesen –, ist ein klares Konzept, was dann heute unter ’Wissenschaft’ verstanden wird oder verstanden werden sollte. Wenn mir beispielsweise für die Disziplinen Mathematik, Philosophie, Ingenieurwissenschaften und Psychologie – ohne Zweifel sehr kenntnisreich – allerlei Strömungen und Problemdiskussionen präsentiert werden, das Fach selbst samt Wissenschaftsbegriff aber nicht zuvor geklärt wird, dann ist die Aufzählung von all den interessanten Aspekten wenig hilfreich. Alles verschwimmt in einem großen Brei. Und die Studierenden (siehe das Beispiel oben) durchlaufen den Wissenschaftsbetrieb und wissen nachher eigentlich nicht, was man unter ’Wissenschaft’ versteht bzw. verstehen sollte.

Das meine ich mit ’innerer Erosion’ von Wissenschaft: der Wissenschaftsbetrieb als ganzer weist heute riesige, komplexe Organisationsformen auf, verschlingt riesige Geldsummen, aber keiner scheint mehr zu wissen, was es eigentlich ist, was man da macht.

B. ’Digitalisierung’ als ’hypnotischer Zustand’?

Ein ähnliches Phänomen kann man im Umfeld des Phänomens der ’Digitalisierung von Gesellschaft’ beobachten. Mittlerweile vergeht nicht ein Tag, an dem nicht in Zeitungen, im Fernsehen, in Fachartikeln, in Romanen das Phänomen der Digitalisierung beschworen wird. Zumeist hält man sich bei einigen Auswirkungen auf, die in der Tat bedrohlich erscheinen oder sogar sind, aber fast nirgends findet man fundierte Analysen von jenen Technologien, die ’hinter’ den Phänomenen tatsächlich am Werk sind. Am schlimmsten ist das Wort ’Künstliche Intelligenz’. Obwohl es bis heute keine wirklich akzeptierte Definition gibt, jeder damit etwas anderes meint (Anmerkung: Eines der am häufigsten zitierten Lehrbücher zur künstlichen Intelligenz enthält über viele hundert Seiten unzählige Beispiele von einzelnen mathematischen Konzepten (und Algorithmen), aber eine klare Definition wird man nicht finden, auch keine klare Einordnung in das Gesamt von Wissenschaft; siehe [RN10] )  wird so getan, als ob klar ist, was es ist, als ob es so einfach wäre, dass künstliche Intelligenz sich verselbständigen könnte und die ’Herrschaft über die Menschen’ übernehmen wird. Zeitgleich fällt das Bild vom Menschen in ein schwarzes Loch des Nichtwissens, aus dem es kein Entrinnen gibt, um der umfassenden gesellschaftlichen ’Hypnose’ der Digitalisierung ein paar vernünftige Gedanken entgegen zu setzen. Eine der wenigen kritische, dekonstruierende Stellungnahme ist für mich ein Artikel von Sarah Spiekermann (siehe [Spi18]), in dem sie die ernüchternde Schwachheit des ganzen Big-Data-Ansatzes klar ausspricht und welche Gefahren gerade dadurch für uns als Gesellschaft davon ausgehen. Nicht die ’Stärke’ dieser Algorithmen bildet eine Gefahr, sondern ihre grandiose Schwäche, durch welche die Komplexität der Gegenwart und die noch größeren Komplexität der noch unbekannten Zukunft vor unserem geistigen Auge verdeckt wird.

C. Meditationserfahrung gegen Reflexion?

Einen anderen interessanten Reflex durfte ich erfahren (nicht unbedingt erst seit diesem Text): diejenigen, die Meditation schon für ihr Leben entdeckt haben, es bisweilen viele Jahre oder gar schon Jahrzehnte, praktizieren, reagieren spontan mit Abwehr auf die ’Vereinnahmung’ von Meditation durch Reflexion, durch Wissen, was sie als ’Quelle von Störungen’ erfahren, als Hindernis zur tieferen, inneren Erkenntnis und Erfahrung.

Kommunikation in diesem Kontext wird dadurch erschwert, dass das Phänomen ’Meditation’ ja nicht nur über tausende von Jahren in unterschiedlichen kulturellen Kontexten praktiziert und interpretiert wurde (und niemand beherrscht rein wissensmäßig alle diese Traditionen), sondern die Meditationserfahrung selbst spielt sich in jenen inneren Bereichen des Körpers ab, die sich einem direkten ’Zugriff von außen’ entziehen und die von daher schwer bis gar nicht mit ’klaren sprachlichen Ausdrücken’ kommunizierbar sind. Jeder muss immer unterstellen, dass der andere ’das Gleiche’ meint, wie man selbst, ohne es wirklich kontrollieren zu können. Auch die modernen Verfahren der Hirnforschung bieten hier nur sehr abstrakte, äußerliche Kriterien zu irgendwelchen physiologischen Parametern, die keinen direkten Schluss auf die tatsächlichen internen Prozesse zulassen (dazu: Jonas/ Kording (2017) [JK17]).

Zu diesen objektiven Schwierigkeiten kommt aber dann eine verbreitete subjektive Abwehr von Reflexion in meditativen Kontexten, da es sowohl dominante Tendenzen in den verschiedenen Traditionen gibt, die diese ’inneren Prozesse/ Zustände/ Erlebensformen…’ im direkten Gegensatz zu ’diskursiven Tätigkeiten’ sehen, wie auch durch die Tatsache bedingt, dass die ’alten Traditionen’ die modernen (wissenschaftlichen und philosophischen) Sichtweisen in keinster Weise kannten. Obwohl also einerseits die Meditation selbst ’diskursfrei’ gesehen wird, wird ihre ’Einbettung in den gesellschaftlichen Kontext’ mit einem begrifflichen Rahmen ’verpackt’, ’interpretiert’, der von modernen Erkenntnissen ’unberührt’ ist.

Es wäre schon viel gewonnen, wenn man zwischen dem ’inneren meditativen Erfahrungsraum’ und den sekundären begrifflichen Erklärungsmustern klar unterscheiden würde. Egal ob ein Buddhist, eine Jude, ein Christ oder ein Muslim – oder wer auch immer – etwas zu Meditation sagt, das ’Reden über Meditation’ ist nicht gleichzusetzen mit dem Meditieren selbst und den hier stattfindenden Ereignissen. Wie eine Reihe von Untersuchungen nahelegen (z.B. Stace (1960) [Sta60]), kann der gleiche Sachverhalt, je nach kulturellem Vor- Wissen, ganz unterschiedliche interpretiert werden.

Von daher kann es sehr wohl sein – und der Autor dieser Zeilen geht davon aus – dass der ’Innenraum’ des Meditierens im ’Lichte’ der Erkenntnisse der neueren Philosophie(en) und Wissenschaften eine ganz neue Deutung finden kann. Insofern das Meditieren im Grundansatz an den Phänomenen des ’Innenraums’ orientiert ist (die nichts mit den Phänomenen des ’Außenraums’ zu tun haben müssen!), hat Meditation eine an ’Erfahrung’ orientierte Ausrichtung, die von allen, die sich ’in gleicher Weise’ verhalten, ’im Prinzip reproduzierbar’ ist. Bezieht man die aktuellen empirischen Wissenschaften mit ihren reproduzierbaren Messprozessen auf die ’intersubjektiven Phänomene’ des ’Körperraums’, dann weisen die meditativen Erfahrungen hin auf einen ’erweiterten Erfahrungsraum’, der sich bislang nur durch den vollen Körpereinsatz unter Einbeziehung der ’Phänomene des Innenraums’ manifestiert, und der ansatzweise erfahrungsmäßig reproduzierbar ist.

Während der Innenraum der Meditation im Prinzip versucht, reflektierende Prozesse ’raus zu halten’, kann die begleitende Reflexion vorher und nachher sehr wohl versuchen, das Getane und Erlebte mit dem verfügbaren Wissen zu vernetzten und damit in bekannte Zusammenhänge einzuordnen. Genauso wenig aber, wie aus empirischen Messwerten ’rein automatisch’ Modelle oder Theorien folgen, genauso wenig folgen aus meditativen ’Erlebnissen/ Erfahrungen…’ irgendwelche Modelle oder Theorien. Jede Art von übergreifendem Zusammenhang ist die kreative Eigenleistung eines Individuums und muss sich vor dem Gesamtheit der Erfahrung und im Experiment ’bewähren’.

Vor diesem Hintergrund kann keine Zeit für sich einen absoluten Interpretationsanspruch zum Phänomen der Meditation beanspruchen! Im Gegenteil, jede neue Zeit ist herausgefordert, bisherige Interpretationen im Lichte neuer Erfahrungen, neuer Experimente, immer wieder zu überprüfen.

LITERATUR

[JK17] E. Jonas and K.P. Kording. Could a neuroscientist understand a microprocessor? PLoS Comput Biol, 13(1):1–24, January 2017.

[LR17] Simon Lohse and Thomas Reydon. Grundriss Wissenschaftsphilosophie. Die Philosophien der Einzelwissenschaften. Wissenschaftliche Buchgesellschaft, Darmstadt (Germany), 1 edition, 2017.

[RN10] Stuart Russel and Peter Norvig. Artificial Intelligence. A Modern Approach. Universe Books, 3 edition, 2010.

[Spi18] Sarah Spiekermann. Die große big-data-illusion. FAZ, (96):13, 25.April 2018.

[Sta60] W.T. Stace. Mysticism and Philosophy. Jeremy P.Tarcher, Inc., Lo Angeles (CA), 1 edition, 1960.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

DAS NEUE ALS PROBLEM DER WAHRHEIT. Memo zur Philosophiewerkstatt vom 16.Juli 2017

PDF

ÜBERBLICK

Ausgehend von dem Thema der Einladung zur Philosophiewerkstatt werden in der Einleitung dann wichtige Elemente einer subjektiven Wahrheit aufgelistet. Im nachfolgenden Diskurs (nach der Möglichkeit einer Meditation) wurde dann speziell versucht zu klären, worin denn das ‚Neue‘ besteht. Es kam zu interessanten Einsichten.

I. THEMA

In der Einladung zur Philosophiewerkstatt am 16.Juli 2017  war auf das Phänomen des Neuen in seiner Beziehung zu der aktuellen Wahrheit hingewiesen worden. Dabei wurde die aktuelle Wahrheit als das verstanden, was der einzelne gerade in seinem Kopf als Wissen über die Welt mit sich herumträgt; ein Wissen, mit dem die aktuelle Wahrnehmung interpretiert und das eigene Handeln entschieden wird. Verglichen mit dieser aktuellen Wahrheit ist jede Art von Neuem problematisch. Gemessen an der eigenen, aktuellen Anschauung ist alles, was da kommt, zunächst einmal eine Abweichung. Es stellt sich dann die Frage, was man damit macht. Die Vielfalt der Antworten ist das, was wir jeden Tag im privaten Umfeld, in der Wirtschaft, in der Politik, in den Massenmedien erleben. Je nach Interessenlage (und Wissen) wird das ‚Abweichende‘ z.B. zum Bösen schlechthin instrumentalisiert oder wandelt sich zur neuen Verheißung.

Es schlossen sich an diese Beobachtung die Fragen an, wie wir zum Neuen stehen? Gibt es Verhaltensgewohnheiten, Regeln, Strategien im Umgang mit dem ‚Neuen‘? Gibt es so etwas wie eine  Kultur des Neuen in allen Bereichen unseres Lebens oder ist es eine Dauerbaustelle jeder Gesellschaft, wie sie mit Neuem umgeht?

Oder die eher grundsätzlichen Fragen, warum es überhaupt ‚Neues‘ geben kann? Wenn unsere privaten Ansichten über die Welt wahr sind, warum kann die Welt dann so — unerlaubterweise 🙂 — anders sein? Verdrängen wir nicht ständig, dass wir uns selbst vom Embryo über das Baby über das Kind zum Teenager, zum jungen Erwachsenen, Leistungsträger, Senior beständig verändern, wir uns selbst gegenüber — sozusagen — etwas Neues sind? Sind wir mit dieser unserer eigenen Art der beständigen Neuheit nicht selbst ‚unheimlich‘? Machen wir uns selbst Angst?

II ELEMENTE DER SUBJEKTIVEN WAHRHEIT

Philosophiewerkstatt 16.Juli 2017 - Gedankenbild - Einführung

Philosophiewerkstatt 16.Juli 2017 – Gedankenbild – Einführung

In der Einführung zur Diskussion wurden skizzenhaft (siehe Schaubild ‚Einführung‘) wichtige Elemente der subjektiven Wahrheit vorgestellt.

Zentraler Angelpunkt ist bei jedem einzelnen sein persönliches Bewusstsein, angefüllt mit diversen Inhalten an Wahrnehmungseindrücken, Erinnerungen, Bedürfnissen, Gefühlen, Wissensfragmenten und Fähigkeiten, die sich im Tun zeigen.

Dieses Bewusstsein ist, wie wir heute wissen können, weitgehend eine Funktion unseres Gehirns, das wiederum Teil unseres Körpers ist. Dieser Körper hat eine Außenseite, die durchsetzt ist mit tausenden von  Sensoren für  Außenwelt-Reize (z.B. visuell, akustisch, Wärme, Berührung,…), wie auch Sensoren im Körper für körperspezifische Reize (z.B. Durst, Hunger, Gelenkstellungen, …).

Die Reize werden kontinuierlich zum Gehirn geleitet und sowohl auf dem Weg dahin wie auch dann im Gehirn selbst auf vielfache Weise bearbeitet. Wichtig ist hierbei, dass diese Reize in sogenannten sensorischen Puffern für eine kurze Zeitdauer (ca. 50 – 200 Millisekunden) zwischengespeichert werden, bevor sie von den nächsten Reizen überschrieben werden. Diese ‚Pufferung‘ führt dazu, dass die Ereignisse außerhalb des Gehirns in Zeitscheiben zerlegt werden (‚frames‘), die dann als diese Zeitscheiben weiter verarbeitet werden.

Im Rahmen der Bearbeitung und Verarbeitung der sensorischen Reize kommt es auf vielfache Weise zu Strukturbildungen, die wir auch als Abstraktionen verstehen können: eine Menge von einzelnen Erregungspunkten werden dann z.B. übersetzt in ‚Kanten‘, ‚Ecken‘, ‚Frequenzen‘ usw., die dann im weiteren Verlauf zu noch komplexeren Strukturen zusammengebaut werden. Letztlich werden hier die grundlegenden Eigenschaften von Objekten zusammengebaut, die wir dann anschließend in unserer bewussten Wahrnehmung als solche Strukturelemente bewusst wahrnehmen. Voraus und/ oder parallel zu dieser bewussten Wahrnehmung interagieren diese perzeptuellen Strukturen mit dem Gedächtnis (einer komplexen Gehirnleistung), in der sich bislang gelernte Strukturen, Beziehungen, Veränderungen usw. finden. Diese aktuell vorhandenen Erfahrungs-/Wissenselemente bilden automatisch einen Kontext zu den aktuellen Perzeptionen, so dass die aktuelle sensorische Wahrnehmung damit automatisch interpretiert wird.

Das  Gedächtnis hat vielfältige Funktionen. Neben den Abstraktionsleistungen und der Anordnung von Elementen in unterschiedlichen Beziehungen ist wohl die grundlegendste Leistung jene, durch die  aktuelle Wahrnehmungen mit  schon gespeicherten Inhalten verglichen werden können. Dadurch entsteht die Möglichkeit, das aktuelle Jetzt durch Rückgriff auf ein  erinnertes Jetzt in mögliche  Abfolgen aufzulösen und damit zu einem  fundamentalen Zeitbegriff zu kommen. Die Anordnung von Ereignissen in einer Abfolge induziert indirekt das, was wir  Veränderung nennen, darauf aufbauend Zeit. Zeit ist damit grundlegend eine Kategorie des Erkennens, der Erkenntnisleistung, ermöglicht durch die Leistung des Gehirns.

Mit der Verfügbarkeit von zeichenbasierten Sprachen verfügt das menschliche Gehirn und Bewusstsein über eine zusätzliche sehr starke Struktur: beliebige Inhalte des Bewusstseins lassen sich mit Ausdruckselementen zu bedeutungsvollen Ausdrücken verbinden, so dass durch den Austausch von physikalischen Zeichenträgern verschiedene Gehirne sich Botschaften über ihre internen Zustände übermitteln können. Diese akustischen (gesprochene Sprache) oder visuellen (Schriftzeichen, Texte) Signale können unterschiedlich komplex und elaboriert sein.

Aus der Kulturgeschichte wissen wir, dass Menschen seit Jahrtausenden in einer Vielzahl von Geschichten, Märchen, Mythen, Sagen, historischen Berichten, Theaterstücken, Ritualen, Gedichten, symbolischen (= mathematischen) Modellen usw. gelernt haben, Eigenschaften der Außenwelt wie auch der Innenwelt zu kommunizieren. Je nach Art des Textes ist der Bezug zur realen Welt oder zur möglichen Zukunft eher konkret, klar, nachvollziehbar, oder aber vage, nur angedeutet, nur vermutet, reine Fantasie.

Mit dem Aufkommen der empirischen Wissenschaften seit dem 16.Jahrhundert haben die Menschen gelernt, im Bereich der subjektiven Wahrnehmungen jene Teilmenge von Phänomenen gesondert zu behandeln, die sich mit Messvorgängen in der Außenwelt (= objektiv) verbinden lassen. Messvorgänge und deren Ergebnisse sind zwar weiterhin  subjektive Phänomene, aber eben nicht nur; ihnen korrespondiert etwas in der  gemeinsamen (= intersubjektiven = objektiven) Außenwelt.

Die Verknüpfung von empirischen Messwerten mit zeichenbasierten Ausdrücken einer formalen (meist mathematischen) Struktur zu einer  empirischen Theorie bleibt zwar weiterhin verankert in einem individuellen Bewusstsein, in einem individuellen Gedächtnis, aber die Verständigung zwischen den verschiedenen Gehirnen verschiedener Wissenschaftler kann über den Bezug zu objektiven Sachverhalten eher  synchronisiert werden als ohne diesen Bezug. Mit dem Voranschreiten der  Theoriebildung zu immer komplexeren Strukturen erweist sich allerdings die Absicherung solcher Theorien durch empirische Messwerte als immer schwieriger. Dazu kommt, dass moderne Messgeräte selbst schon komplexe Theorien repräsentieren, die man voraussetzen muss, um überhaupt solche Messwerte zu bekommen.

Als Nebeneffekt der neueren komplexen zeichenbasierten Theorien konnte man unter anderem auch die  Vorstellung von der Zeit auf unterschiedliche Weise präzisieren und neu formulieren.

III. ZEIT ZUM FÜHLEN – MEDITATION

Die Zeit zum individuellen Fühlen (andere nennen es Meditation) wurde von den einzelnen unterschiedlich genutzt. Historisch ist er Begriff vielfältig belegt, meist durch religiös-kirchliche Kontexte. Heute ist es im Westen ein Trendthema, vielfach unabhängig von Kirchen und Religionen, dem sich die Wirtschaft auf unterschiedliche Weise bemächtigt hat. Philosophisch ist es eine grundlegende Form der Selbstvergewisserung im eigenen Fühlen. Man kann sich war in vielfältigen Formen (speziell auch Bewegung, Sport, Spaziergang, usw.) ‚fühlen‘, das ruhige Dasitzen hat aber offensichtlich eine besondere Qualität. Allerdings gilt: tiefere Wirkungen stellen sich auch hier erst mit vielen Wiederholungen über einen längeren Zeitraum ein. Generell gilt, dass man mit dem Meditieren als ’sich fühlen‘ in eine ‚offene Zone des Erlebens‘ eintritt, deren ‚Ränder‘ und deren möglichen ‚Inhalte‘ im Vorhinein nicht abgegrenzt und nicht völlig definierbar sind. Im ‚Sich Fühlen‘ kann man sehr viel Neues entdecken, Unangenehmes wie Angenehmes.

IV. DISKURS

Philosophiewerkstatt 16.Juli 2017 - Gedankenbild - Diskurs

Philosophiewerkstatt 16.Juli 2017 – Gedankenbild – Diskurs

Nach der Einstimmung nahm das Gespräch Fahrt auf (siehe dazu das Schaubild ‚Diskurs‘). Zentraler Dreh- und Angelpunkt war der Begriff des Neuen.\\

Die erste Schwierigkeit bestand darin, wie man den Begriff des ‚Neuen‘ klarer fassen kann.

Grundlegend sollte gelten, dass wir das ‚Neue‘ immer im Kontext einer  bestimmten Person betrachten und hier mit Bezug auf die Gesamtheit des Wissens und der Erfahrung dieser Person. Diese Gesamtheit wurde auch gleichgesetzt mit der subjektiven Wahrheit dieser Person [Anmerkung: Zu den Elemente einer subjektiven Wahrheit siehe den vorausgehenden Abschnitt].  Als ’neu‘ sollte dann alles gelten, was relativ zu dieser vorausgesetzten  aktuellen subjektiven Wahrheit neu ist, weil es nicht zu dem bislang Bekanntem ‚passt‘.

Unterstellt man, dass die subjektive Wahrheit eine  dynamische Größe ist, die sich beständig ändern kann (z.B. durch Lernen), dann ist auch das ‚Neue‘ relativ: was eben noch ’neu‘ war ist beim nächsten Mal schon nicht mehr neu. Ein  aktuell Neues führt zu Veränderungen in der  aktuellen Wahrheit, wodurch das Neue zum schon Bekannten wird.

Wichtig ist auch, dass die wissensmäßigen und handlungsmäßigen Anteil der Erfahrung zusätzlich auf vielfältige Weise mit Erfahrungen von Bedürfnissen, Emotionen, Stimmungen, Gefühlen usw. verknüpft sind. Ist etwas Erinnerbares mit  negativen Emotionen verknüpft, kann es dazu führen, dass wir etwas ablehnen, ihm auszuweichen versuchen; verknüpft es sich mit positiven Emotionen, kann es umgekehrt anregen, dies anzustreben. Ist es  neutral, dann ist offen, was wir damit wollen.

Ohne Vorerfahrungen sind wir in gewisser Weise blind: wenn jemand eine Situation als  Gefahrensituation einstufen kann, dann kann — abhängig von der verfügbaren Erfahrung — eine ganze Skala von Reaktionen ablaufen. Entweder, man hat ein-trainierte Verhaltensmuster, die man abrufen kann, oder, wenn nicht, können angeborene Reflexe einsetzen, die einen zum Kampf oder zur Flucht oder z.B. zm Tot-stellen drängen. Hat man die Erfahrung nicht, dann können Menschen ’nichtsahnend‘ in Gefahrensituationen hineingehen, ohne sich entsprechend zu verhalten.

V. NACHTRAG

Was in den Gesprächen klar wurde, ist die  vollständige Abhängigkeit des einzelnen von seiner (subjektiven) Wahrheit. Was immer ein einzelner tun will, er wird geleitet werden von seiner aktuellen Wahrheit. Sollte diese seine Wahrheit durch seine Umgebung (Erziehung, Erfahrungen, andere Menschen…) einseitig sein, die ‚wahre Welt‘ nur ‚verzerrt‘ repräsentieren, dann könnte der einzelne selbst bei bester Absicht nicht optimal wahr handeln, da er nur seine eigene aktuelle Wahrheit hat.

Jeder einzelne Mensch stellt hier eine lebende Geschichte dar. Als Beispiel kann der Bericht über einen türkischen Lungenfacharzt Gergerlioglu dienen [Anmerkung: Siehe Frankfurter Allgemeine Sonntagszeitung, 16.Juli 2017, Nr.28, S.3.]  Als überzeugter Muslim hat er früher gemeinsam mit der AKP (Adalet ve Kalkınma Partisi = Partei für Gerechtigkeit und Entwicklung) für die Rechte von Muslimen, speziell für die Rechte der Frauen, gekämpft. Über dieses Engagement entdeckte er die Sicht der allgemeinen Menschenrechte. Von da war es für Ihn dann kein weiter Weg, zu entdecken, dass es ja noch andere religiöse Gruppen gab, die in der Türkei unterdrückt wurden: Aleviten, Christen, Kurden, Armenier, Atheisten, und die Misshandlung von Frauen. Er trat einer Menschenrechtsgruppe bei, wurde bald zum Vorsitzenden und dann deren Präsident in der ganzen Türkei. Damals arbeitete er noch eng mit der AKP zusammen, da sie zu dieser Zeit sich noch für die Rechte von Minderheiten einsetze und einen Aussöhnungsprozess mit den Kurden aktiv betrieb. Nach dem Verlust der absoluten Mehrheit für die AKP änderte sich plötzlich alles.

Unter Erdogan begann jetzt ein nationalistisches Vorgehen, in dessen Zusammenhang der Friedensprozess mit den Kurden gestoppt wurde; Hetze gegen Kurden und Minderheiten war plötzlich Realität. Als Gergerlioglu versuchte den Wahnsinn deutlich zu machen, indem er im Internet die Bilder von zwei Särgen veröffentlichte, einer mit einer türkischen, einer mit einer PKK-Flagge; daneben jeweils eine Mutter die weinte. Gergerlioglu stellte die Frage, warum verzehren wir uns gegenseitig, warum können die beiden nicht gleichberechtigt nebeneinander, Schulter an Schulter leben?

Diese Aktion machten Gergerlioglu innerhalb von 48 Std zum Terrorverdächtigen. Er wurde vom Dienst suspendiert, sein Pass wurde als ungültig erklärt, dann wurde er offiziell aus dem Staatsdienst entlassen. In der Justiz gab es angeblich kein Personal, um den Staatsanwalt auf ordentliche Weise einzuschalten. An der Schule seine Sohnes wurde er gebeten, nicht mehr für den Elternverein zu kandidieren. Aus dem Moscheeverein seines Viertels wurde er verdrängt. Seine schon eingereichten medizinischen Aufsätze wurden nicht mehr gedruckt. Später wurde auch seine Krankenversicherung gekündigt. Wie sich herausstellte, wurden mittlerweile alle Bürger in zwei Codegruppen eingeteilt: die mit einer 1 am Anfang sind unerwünscht, die mit einer 0 sind OK. Dies kommt einer gesellschaftlichen Auslöschung gleich.

Dieses Beispiel zeigt, dass die subjektive Wahrheit sich bei Herrn Gergerlioglu nicht geändert hat, wohl aber die Wahrheit der politisch einflussreichen Partei und deren Anhänger und Unterstützer. Menschenrechte und eine bestimmte Auffassung von Demokratie besitzen gesellschaftlich keine Mehrheiten mehr. Dies führt zu willkürlichen Ausgrenzungen von mittlerweile geschätzten 175.000 Bürgern. Offene Prozesse, transparente Nachweise fehlen bislang. Äußerungen des türkischen Wirtschaftsministers über potentielle Gegner der Regierung lassen das Allerschlimmste befürchten.

Interessant ist die Reaktion von Herrn Gergerlioglu auf diese Ereignisse. Für ihn sind die geänderten Kontexte neu. Die realen Begleiterscheinungen sind bedrohlich, schmerzlich, lebensverneinend, ohne große Perspektive (er hat u.a. eine schwerkranke Frau, deren Medikamente er bald nicht mehr bezahlen kann). Was ihm bislang Kraft gibt, diese Differenz zwischen seiner subjektiven Wahrheit und die des Kontextes auszuhalten, das ist sein Glaube. Was ist das, dieser  Glaube?

KONTEXTE

Einen Überblick über alle Einträge zur \textit{Philosophiewerkstatt nach Titeln} findet sich HIER.

Einen Überblick über alle \textit{Themenbereiche des Blogs} finden sich HIER.

Das aktuelle \textit{Publikationsinteresse des Blogs} findet sich HIER.

Offenbarung – Der blinde Fleck der Menschheit

PDF

Als Nachhall zur Diskussion des Artikels von Fink hier ein paar Überlegungen, dass der durch die Religionen vereinnahmte Begriff der ‚Offenbarung‘ ein Grundbegriff ist, der wesentlich zum Menschen generell gehört, bevor irgendeine Religion darauf einen Anspruch anmelden kann.

I. KONTEXT

Diesen Beitrag könnte man unter ‚Nachwehen‘ einordnen, Nachwehen zu dem letzten Beitrag. In diesem Beitrag hatte ich versucht, deutlich zu machen, dass die üblichen Vorgehensweisen, in die neuen Erkenntnisse zur Entstehung, Struktur und Dynamik des physikalischen Universums, den Glauben an ein sehr bestimmtes, klassisches Gottesbild zu ‚interpolieren‘, heute nicht mehr überzeugen können, ja, abgelehnt werden müssen als eher wegführend vom wahren Sachverhalt.

Zu dieser kritisch-ablehnenden Sicht tragen viele Argumente bei (siehe einige in dem genannten Artikel). Besonders erwähnen möchte ich hier nochmals das Buch ‚Mysticism and Philosophy‘ von Stace (1960) [ siehe Teil 3 einer Besprechung dieses Buches ]. Stace konzentriert sich bei seinen Analysen an der Struktur der menschlichen Erfahrung, wie sie über Jahrtausende in vielen Kulturen dieser Welt berichtet wird. Während diese Analysen darauf hindeuten, dass der Kern der menschlichen Erfahrungen eher gleich erscheint, erklärt sich die Vielfalt aus der Tatsache, dass — nach Stace — jede Erfahrung unausweichlich Elemente einer ‚Interpretation‘ umfasst, die aus den bisherigen Erfahrungen stammen. Selbst wenn Menschen das Gleiche erleben würden, je nach Zeit, Kultur, Sprache können sie das Gleiche unterschiedlich einordnen und benennen, so dass es über den Prozess des Erkennens etwas ‚anderes‘ wird; es erscheint nicht mehr gleich!

In einem sehr kenntnisreichen Artikel The Myth of the Framework von Karl Popper, veröffentlicht im Jahr 1994 als Kapitel 2 des Buches The Myth of the Framework: In Defence of Science and Rationality [Anmerkung: Der Herausgeber M.A.Notturno weist im Epilog zum Buch darauf hin, dass die Beiträge zum Buch schon in den 1970iger Jahren vorlagen!] hatte sich Popper mit diesem Phänomen auch auseinandergesetzt, allerdings nicht von der ‚Entstehung‘ her (wie kommt es zu diesen Weltbildern), sondern vom ‚Ergebnis‘ her, sie sind jetzt da, sie sind verschieden, was machen wir damit? [Siehe eine Diskussion des Artikels von Popper als Teil des Beitrags].

Angeregt von diesen Fragen und vielen weiteren Ideen aus den vorausgehenden Einträgen in diesem Blog ergeben sich die folgenden Notizen.

II. DER ‚BIG BANG‘ HÖRT NIE AUF …

Die Geschichte beginnt im Alltag. Wenn man in die Gegenwart seines Alltags eingetaucht ist, eingelullt wird von einem Strom von scheinbar selbstverständlichen Ereignissen, dann kann man leicht vergessen, dass die Physik uns darüber belehren kann, dass dieser unser Alltag eine Vorgeschichte hat, die viele Milliarden Jahre zurück reicht zur Entstehung unserer Erde und noch viel mehr Milliarden Jahre bis zum physikalischen Beginn unseres heute bekannten Universums. Obgleich dieses gewaltige Ereignis mitsamt seinen gigantischen Nachwirkungen mehr als 13 Milliarden Jahre zurück liegt und damit — auf einer Zeitachse — längst vorbei ist, passé, gone, … haben wir Menschen erst seit ca.50 – 60 Jahren begonnen, zu begreifen, dass das Universum in einer Art ‚Urknall‘ ins physikalische Dasein getreten ist. Was immer also vor mehr als 13 Milliarden Jahren geschehen ist, wir selbst, wir Menschen als Exemplare der Lebensform homo sapiens, haben erst vor wenigen Jahrzehnten ‚gelernt‘, dass unsere aktuelle Gegenwart bis zu solch einem Ereignis zurück reicht. Das reale physikalische Ereignis ‚Big Bang‘ fand also erst viele Milliarden Jahre später in den Gehirnen und damit im Bewusstsein von uns Menschen (zunächst nur wenige Menschen von vielen Milliarden) statt. Erst im schrittweisen Erkennen durch die vielen tausend Jahre menschlicher Kultur entstand im Bewusstsein von uns Menschen ein virtuelles Wissen von etwas vermutet Realem. Das reale Ereignis war vorbei, das virtuelle Erkennen lies es viel später in einem realen Erkenntnisprozess virtuell wieder entstehen. Vorher gab es dieses Ereignis für uns Menschen nicht. So gesehen war das Ereignis indirekt ‚gespeichert‘ im physikalischen Universum, bis diese Erkenntnisprozesse einsetzten. Welch gigantische Verzögerung!

III. OFFENBARUNG

Der Begriff ‚Offenbarung‘ ist durch seine Verwendung in der zurückliegenden Geschichte sehr belastet. Vor allem die großen Religionen wie Judentum, Christentum und Islam haben durch ihre Verwendung des Begriffs ‚Offenbarung‘ den Eindruck erweckt, dass Offenbarung etwas sehr Besonderes sei, die Eröffnung von einem Wissen, das wir Menschen nicht aus uns selbst gewinnen können, sondern nur direkt von einem etwas, das mit der Wortmarke ‚Gott‘ [die in jeder Sprache anders lautet] gemeint sei. Nur weil sich dieses etwas ‚Gott‘ bestimmten, konkreten Menschen direkt zugewandt habe, konnten diese ein spezielles Wissen erlangen, das diese dann wiederum ‚wortwörtlich‘ in Texten festgehalten haben, die seitdem als ‚heilige‘ Texte gelten.

Im Fall der sogenannten heiligen Schriften des Judentums und des Christentums hat intensive wissenschaftliche Forschung seit mehr als 100 Jahren gezeigt, dass dies natürlich nicht so einfach ist. Die Schriften sind alle zu unterschiedlichen Zeiten entstanden, bisweilen Jahrhunderte auseinander, wurden mehrfach überarbeitet, und was auch immer ein bestimmter Mensch irgendwann einmal tatsächlich gesagt hat, das wurde eingewoben in vielfältige Interpretationen und Überarbeitungen. Im Nachhinein — von heute aus gesehen also nach 2000 und mehr Jahren — zu entscheiden, was ein bestimmter Satz in hebräischer oder griechischer Sprache geschrieben, tatsächlich meint, ist nur noch annäherungsweise möglich. Dazu kommt, dass die christliche Kirche über tausend Jahre lang nicht mit den Originaltexten gearbeitet hat, sondern mit lateinischen Übersetzungen der hebräischen und griechischen Texte. Jeder, der mal Übersetzungen vorgenommen hat, weiß, was dies bedeutet. Es wundert daher auch nicht, dass die letzten 2000 Jahre sehr unterschiedliche Interpretationen des christlichen Glaubens hervorgebracht haben.

Im Fall der islamischen Texte ist die Lage bis heute schwierig, da die bisher gefundenen alten Manuskripte offiziell nicht wissenschaftlich untersucht werden dürfen [Anmerkung: Siehe dazu das Buch von Pohlmann (2015) zur Entstehung des Korans; eine Besprechung dazu findet sich  hier: ]. Die bisherigen Forschungen deuten genau in die gleiche Richtung wie die Ergebnisse der Forschung im Fall der jüdisch-christlichen Tradition.

Die Befunde zu den Überlieferungen der sogenannten ‚heiligen‘ Schriften bilden natürlich nicht wirklich eine Überraschung. Dies liegt eben an uns selbst, an uns Menschen, an der Art und Weise, wie wir als Menschen erkennen, wie wir erkennen können. Das Beispiel der empirischen Wissenschaften, und hier die oben erwähnte Physik des Universums, zeigt, dass alles Wissen, über das wir verfügen, im Durchgang durch unseren Körper (Sinnesorgane, Körperzustände, Wechselwirkung des Körpers mit der umgebenden Welt, dann Verarbeitung Gehirn, dann Teile davon im Bewusstsein) zu virtuellen Strukturen in unserem Gehirn werden, die partiell bewusst sind, und die uns Teile der unterstellten realen Welt genau so zeigen, wie sie im bewussten Gehirn gedacht werden, und zwar nur so. Die Tatsache, dass es drei große Offenbarungsreligionen gibt, die sich alle auf das gleiche Etwas ‚Gott‘ berufen, diesem Gott dann aber ganz unterschiedliche Aussagen in den Mund legen [Anmerkung: seit wann schreiben Menschen vor, was Gott sagen soll?], widerspricht entweder dem Glauben an den einen Gott, der direkt spricht, oder diese Vielfalt hat schlicht damit zu tun, dass man übersieht, dass jeder Mensch ‚Gefangener seines Erkenntnisprozesses‘ ist, der nun einmal ist, wie er ist, und der nur ein Erkennen von X möglich macht im Lichte der bislang bekannten Erfahrungen/ Erkenntnisse Y. Wenn jüdische Menschen im Jahr -800 ein X erfahren mit Wissen Y1, christliche Menschen in der Zeit +100 mit Wissen Y2 und muslimische Menschen um +700 mit Wissen Y3, dann ist das Ausgangswissen jeweils völlig verschieden; was immer sie an X erfahren, es ist ein Y1(X), ein Y2(X) und ein Y3(X). Dazu die ganz anderen Sprachen. Akzeptiert man die historische Vielfalt, dann könnte man — bei gutem Willen aller Beteiligten — möglicherweise entdecken, dass man irgendwie das ‚Gleiche X‘ meint; vielleicht. Solange man die Vielfalt aber jeweils isoliert und verabsolutiert, so lange entstehen Bilder, die mit Blick auf den realen Menschen und seine Geschichte im realen Universum kaum bis gar nicht zu verstehen sind.

Schaut man sich den Menschen und sein Erkennen an, dann geschieht im menschlichen Erkennen, bei jedem Menschen, in jedem Augenblick fundamental ‚Offenbarung‘.

Das menschliche Erkennen hat die Besonderheit, dass es sich bis zu einem gewissen Grad aus der Gefangenschaft der Gegenwart befreien kann. Dies gründet in der Fähigkeit, die aktuelle Gegenwart in begrenzter Weise erinnern zu können, das Jetzt und das Vorher zu vergleichen, von Konkretem zu abstrahieren, Beziehungen in das Erkannte ‚hinein zu denken‘ (!), die als solche nicht direkt als Objekte vorkommen, und vieles mehr. Nur durch dieses Denken werden Beziehungen, Strukturen, Dynamiken sichtbar (im virtuellen Denken!), die sich so in der konkreten Gegenwart nicht zeigen; in der Gegenwart ist dies alles unsichtbar.

In dieser grundlegenden Fähigkeit zu erkennen erlebt der Mensch kontinuierlich etwas Anderes, das er weder selbst geschaffen hat noch zu Beginn versteht. Er selbst mit seinem Körper, seinem Erkennen, gehört genauso dazu: wir wurden geboren, ohne dass wir es wollten; wir erleben uns in Körpern, die wir so nicht gemacht haben. Alles, was wir auf diese Weise erleben ist ’neu‘, kommt von ‚außen auf uns zu‘, können wir ‚aus uns selbst heraus‘ nicht ansatzweise denken. Wenn irgendetwas den Namen ‚Offenbarung‘ verdient, dann dieser fundamentale Prozess des Sichtbarwerdens von Etwas (zu dem wir selbst gehören), das wir vollständig nicht gemacht haben, das uns zu Beginn vollständig unbekannt ist.

Die Geschichte des menschlichen Erkennens zeigt, dass die Menschen erst nur sehr langsam, aber dann immer schneller immer mehr von der umgebenden Welt und dann auch seit kurzem über sich selbst erkennen. Nach mehr als 13 Milliarden Jahren erkennen zu können, dass tatsächlich vor mehr als 13 Milliarden Jahren etwas stattgefunden hat, das ist keine Trivialität, das ist beeindruckend. Genauso ist es beeindruckend, dass unsere Gehirne mit dem Bewusstsein überhaupt in der Lage sind, virtuelle Modelle im Kopf zu generieren, die Ereignisse in der umgebenden Welt beschreiben und erklären können. Bis heute hat weder die Philosophie noch haben die empirischen Wissenschaften dieses Phänomen vollständig erklären können (obgleich wir heute viel mehr über unser Erkennen wissen als noch vor 100 Jahren).

Zu den wichtigen Erkenntnissen aus der Geschichte des Erkennens gehört auch, dass das Wissen ‚kumulierend‘ ist, d.h. es gibt tiefere Einsichten, die nur möglich sind, wenn man zuvor andere, einfachere Einsichten gemacht hat. Bei der Erkenntnis des großen Ganzen gibt es keine ‚Abkürzungen‘. In der Geschichte war es immer eine Versuchung, fehlendes Wissen durch vereinfachende Geschichten (Mythen) zu ersetzen. Dies macht zwar oft ein ‚gutes Gefühl‘, aber es geht an der Realität vorbei. Sowohl das kumulierende Wissen selbst wie auch die davon abhängigen alltäglichen Abläufe, die Technologien, die komplexen institutionellen Regelungen, die Bildungsprozesse usw. sie alle sind kumulierend.

Aus diesem kumulierenden Charakter von Wissen entsteht immer auch ein Problem der individuellen Verarbeitung: während dokumentiertes und technisch realisiertes Wissen als Objekt durch die Zeiten existieren kann, sind Menschen biologische Systeme, die bei Geburt nur mit einer — wenngleich sehr komplexen — Grundausstattung ihren Lebensweg beginnen. Was immer die Generationen vorher gedacht und erarbeitet haben, der jeweils neue individuelle Mensch muss schrittweise lernen, was bislang gedacht wurde, um irgendwann in der Lage zu sein, das bisher Erreichte überhaupt verstehen zu können. Menschen, die an solchen Bildungsprozessen nicht teilhaben können, sind ‚Fremde‘ in der Gegenwart; im Kopf leben sie in einer Welt, die anders ist als die umgebende reale Welt. Es sind wissensmäßig Zombies, ‚Unwissende‘ in einem Meer von geronnenem Wissen.

Sollte also das mit der Wortmarke ‚Gott‘ Gemeinte eine Realität besitzen, dann ist der Prozess der natürlichen Offenbarung, die jeden Tag, in jedem Augenblick ein wenig mehr die Erkenntnis Y über das uns vorgegebene Andere ermöglicht, die beste Voraussetzung, sich diesem Etwas ‚X = Gott‘ zu nähern. Jede Zeit hat ihr Y, mit dem sie das Ganze betrachtet. Und so sollte es uns nicht wundern, dass die Geschichte uns viele Y(X) als Deutungen des Etwas ‚X = Gott‘ anbietet.

Empirisches Wissen, Philosophisches Wissen, religiöses Wissen kreisen letztlich um ein und dieselbe Wirklichkeit; sie alle benutzen die gleichen Voraussetzungen, nämlich unsere menschlicher Existenzweise mit den vorgegebenen Erkenntnisstrukturen. Niemand hat hier einen wesentlichen Vorteil. Unterschiede ergeben sich nur dadurch, dass verschiedenen Kulturen unterschiedlich geschickt darin sind, wie sie Wissen kumulieren und wie sie dafür Sorge tragen, dass alle Menschen geeignete Bildungsprozesse durchlaufen.

IV. VEREINIGTE MENSCHHEIT

Schaut man sich an, wie die Menschen sich auch nach den beiden furchtbaren Weltkriegen und der kurzen Blüte der Idee einer Völkergemeinschaft, die Ungerechtigkeit verhindern sollte, immer wieder — und man hat den Eindruck, wieder mehr — in gegenseitige Abgrenzungen und Verteufelungen verfallen, vor grausamen lokalen Kriegen nicht zurück schrecken, die Kultur eines wirklichkeitsbewussten Wissens mutwillig schwächen oder gar zerstören, dann kann man schon mutlos werden oder gar verzweifeln.

Andererseits, schaut man die bisherige Geschichte des Universums an, die Geschichte des Lebens auf der Erde, die Geschichte des homo sapiens, die letzten 10.000 Jahre, dann kommt man nicht umhin, festzustellen, dass es eine dynamische Bewegung hin zu mehr Erkenntnis und mehr Komplexität gegeben hat und noch immer gibt. Und wenn man sieht, wie wir alle gleich gestrickt und auf intensive Kooperation angewiesen sind — und vermutlich immer mehr –, dann erscheinen die Menschen eher wie eine Schicksalsgemeinschaft, wie ‚earth children‘, wie eine ‚Gemeinschaft von Heiligen kraft Geburt‘!

Das Wort ‚Heilige‘ mag alle irritieren, die mit Religion nichts verbinden, aber die ‚Heiligen‘ sind in den Religionen alle jene Menschen, die sich der Wahrheit des Ganzen stellen und die versuchen, aus dieser Wahrheit heraus — ohne Kompromisse — zu leben. Die Wahrheit des Ganzen ist für uns Menschen primär diese Grundsituation, dass wir alle mit unseren Körpern, mit unserem Erkennen, Teil eines Offenbarungsprozesses sind, der für alle gleich ist, der alle betrifft, und aus dem wir nicht aussteigen können. Wir sind aufeinander angewiesen. Anstatt uns gegenseitig zu bekriegen und abzuschlachten, also die ‚Bösen‘ zu spielen, wäre es näherliegender und konstruktiver, uns als ‚Heilige‘ zu verhalten, die bereit sind zum Erkennen, die bereit sind aus der Erkenntnis heraus zu handeln. Das alles ist — wie wir wissen können — nicht ganz einfach, aber es hat ja auch niemand gesagt, dass es einfach sei. Das Leben auf der Erde gleicht eher einem Expeditionschor, das im Universum an einer bestimmten Stelle gelandet ist, und jetzt den Weg zum Ziel finden muss. Wir brauchen keine TV-Reality-Shows, wir selbst sind die radikalste Reality-Show, die man sich denken kann. Und sie tritt gerade in eine sehr heiße Phase ein [Anmerkung: … nicht nur wegen des Klimas 🙂 ].

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

RINGEN UM DAS BEWUSSTSEIN: VELMANS 1995 – The Relation of Consciousness to the Material World. Diskussion

Max Velmans, The Relation of Consciousness to the Material World, Journal of Consciousness Studies, Vol.2, No.3, 1995, pp.255-265

KONTEXT

  1. Diesem Blogeintrag gingen zwei Beiträge voraus, in denen jeweils die Position von Chalmers und die von Clark aus dem gleichen Band der Zeitschrift diskutiert worden sind. Chalmers hatte mit seinem Beitrag den Band eröffnet, und alle anderen nahmen in ihren Beiträgen auf den Beitrag von Chalmers Bezug.

  2. Hier ist es Velmans, der zu Chalmers Stellung bezieht.

POSITION VON VELMANS

  1. Schon vor dem Beitrag von Chalmers 1995 hatte Velmans (1991, 1993) die Position vertreten, die Chalmers als zentrale These vorträgt, auf der alles andere aufbaut: Das Phänomen des Bewusstseins ist fundamental verschieden von den Verarbeitungsprozessen, wie wir sie im Gehirn finden. (vgl. Velmans S.256) Man kann zwar partiell subjektive Erlebnisse mit beobachtbaren Prozessen im Gehirn korrelieren, aber es erscheint extrem unwahrscheinlich (‚extremely unlikely‘), dass man solche subjektiven Phänomene auf solche neuronalen Prozesse reduzieren kann. (vgl. 256)

  2. Zwar dürfte alles, was wir als real in der Welt wahrnehmen, letztlich nur eine subjektive Wahrnehmung sein (irgendwie von der realen Welt mitverursacht), aber umgekehrt folgt aus einer Nicht-Wahrnehmung nicht zwingend, dass es in der Welt nichts gibt.

  3. Nimmt man einerseits eine Nicht-Reduzierbarkeit des Phänomens des Bewusstseins auf beobachtbare neuronale Prozesse an, will aber andererseits auch nicht einen Dualismus im Sinne Descartes vertreten, bleibt u.a. die Suche nach einer Version einer Dualen-Aspekt Theorie des Bewusstseins, wie sie Chalmers in seinem Beitrag versucht hatte.

  4. Velmans verweist in diesem Kontext auf Spinoza (1732 – 177), der in der Kritik an Descartes dessen Konzept von Geist und Materie als zwei Aspekte von etwas grundlegend Anderem in der Natur vermutet haben soll. (vgl. Velmans S.256)

  5. Analog zu Chalmers folgt Velmans der Arbeitshypothese einer Dualen-Aspekt Theorie, wobei auch er – wie Chalmers – den Begriff der Information als grundlegende Eigenschaft der Natur betrachtet (Anmerkung: im Gegensatz zu Spinoza, der hier den Begriff der Substanz verwendet).

  6. In seiner weiteren Analyse nimmt Velmans an, dass subjektive Erlebnisse repräsentierender Art (‚representational‘) seien, also über etwas (‚about something‘). Daraus schließt er, dass auch die korrelierenden neuronalen Prozesse über etwas sein müssten. Ferner nimmt er an, dass diese korrelierten repräsentierenden Prozesse und Erlebnisse identische Informationen kodieren, die eben nur auf zwei verschiedene Weisen formatiert ist. (vgl. S.257)

  7. Entgegen dieser Annahme sieht Velmans verschiedene Fälle der Diskrepanz zwischen neuronalen Prozessen, die Information verarbeiten, und dem Bewusstsein.

  8. Den meisten neuronalen Prozesse im Gehirn korrelieren keine subjektiven Erlebnisse. Auch nicht im Fall des Langzeit-Gedächtnisses oder im Falle von Blind-Sicht Patienten (‚blind-sight‘). Bei letzteren verarbeitet das Gehirn visuelle Informationen, die nicht bewusst sind. Soll ein Mensch mit Blind-Sicht handeln, wird er aber dennoch ‚richtig‘ handeln, so, als ob er Bewusstsein hätte.

  9. Angesichts solcher massiven Fälle von Diskrepanzen zwischen informationsrelevanten neuronalen Prozessen und nicht aufweisbarem Bewusstsein stellt Velmans die enge Korrelation von Chalmers zwischen Bewusstsein und Aufmerksamkeit in Frage. Er befürwortet eher, die Begriffe Bewusstsein, Aufmerksamkeit und Erfahrung als gleichwertig zu betrachten und alle (nicht notwendigerweise mit Bewusstsein korrelierenden) informationsverarbeitenden Prozesse des Gehirns als davon separat zu sehen. (vgl. S.258f)

  10. Ähnlich argumentiert Velmans am Beispiel der Ergebnisgleichheit von strukturell gleichen Organisationen, wie sie Chalmers postulierte. Am Beispiel von neuronalen Implantaten stellt Velmans in Frage, ob nicht auch andere Organisationsformen gleiche Ergebnisse erzeugen könnten. (vgl. S.259f)

  11. Letztlich sind es nur spezielle Fälle von neuronalen Prozessen, die mit subjektiven Erlebnissen korrelieren.

  12. Es gäbe auch noch die theoretische Möglichkeit, dass im Prinzip alle neuronalen Prozesse mit Bewusstsein begleitet sind, dass sie aber im Normalfall nur gehemmt werden. Bewusstsein würde dann da auftreten, wo die allgemeinen informationsverarbeitenden Prozesse nicht gehemmt werden (‚released from inhibition‘). In dieser Sicht wäre das Gehirn dann wie ein Filter für Informationen.(vgl. S.261f)

  13. Betrachtet man ferner, so Velmans, wie einfach man eine Temperaturmessung mit einem Gerät messen könnte, und wie kompliziert das menschliche Nervensystem aufgebaut ist, um subjektive warm-kalt Empfindungen zu realisieren, dann spricht dies auch eher dafür, dass die Struktur von informationsverarbeitenden Prozessen nicht unbedingt etwas darüber aussagen muss, ob solche Prozesse mit Bewusstsein begleitet sind oder nicht.

  14. Diese Überlegungen führen wieder zu dem Punkt zurück, dass all das empirische Wissen über neuronale Prozesse keine Anhaltspunkte liefert, warum manche dann doch mit subjektiven Erlebnissen korrelieren. (vgl. S.262)

  15. Dass die gleichen Informationen in unterschiedlichen Formaten repräsentiert werden können, dies sehen wir mittlerweile nicht mehr als ungewöhnlich an, aber dass es überhaupt geschieht, das ist ein provozierender Sachverhalt.(vgl. S.262f)

DISKUSSION

  1. Hier einige erste Zwischenreflexionen nach der Lektüre von Chalmers, Clark und jetzt Velmans (es werden nicht alle diskussionswürdigen Punte  aufgegriffen, das wären zu viele).

  2. Sowohl Chalmers als auch Velmans sehen im Phänomen des Bewusstseins, des Bereiches der subjektiven Erlebnisse, ein Phänomen sui generis, das sich nicht auf die bekannten empirischen Beschreibungen von neuronalen Prozessen reduzieren lässt.

  3. Gegenüber von Chalmers sieht Velmans daher keine Chance, aus den Daten empirischer neuronaler Prozesse allgemeine Regeln abzuleiten, mit denen man direkt auf Ereignisse des Bewusstseins schließen könnte. Nicht einmal über die Hypothese von Chalmers, dass aus einer Strukturgleichheit von zwei Strukturen S1 und S2 etwas über die möglichen Ergebnisse von S1 und S2 gefolgert werden könne.

  4. Allerdings folgt Velmans der Dualen-Aspekt Hypothese von Chalmers, dass man den Begriff der Information als grundlegenden Begriff in der Natur einführen könne, aufgrund dessen man dann die unterschiedlichen Ausprägungen wie neuronale Prozesse und subjektive Erlebnisse als zwei unterschiedliche Zustandsformen der grundlegenden Information verstehen könne. Velmans zitiert hier auch Spinoza, der eine ähnliche Idee in seiner Auseinandersetzung mit dem Dualismus von Descartes entwickelt hatte.

  5. Dass Spinoza das gleiche Problem mit einem anderen Begriff, nämlich Substanz, für sich ‚löste‘, macht Velmans nicht hellhörig. Ist der neuere Begriff Information, so wie er von Chalmers und Velmans benutzt wird, dann so zu verstehen, dass er strukturgleich zum Begriff der Substanz bei Spinoza ist?

  6. Es fällt auf, dass Velmans in seinem Beitrag den Begriff Information nicht weiter thematisiert; er übernimmt ihn einfach in der Verwendungsweise, wie er ihn bei Chalmers vorfindet.

  7. Wie ich aber in der Diskussion des Beitrags von Chalmers schon angemerkt hatte, ist die Verwendung des Begriffs Information bei Chalmers in sich unklar. Direkt bezieht er sich auf den semantikfreien Informationsbegriff von Shannon (1948), aber in der Art und Weise wie Chalmers diesen Begriff dann verwendet tut er genau das, was Shannon in seinem Text gleich zu Beginn explizit ausgeschlossen hat. Chalmers benutzt den Begriff Information im alltäglichen Sinne, nämlich mit einer semantischen Dimension, will sagen er benutzt nicht nur Signalereignisse als solche beschränkt auf ihre Auftretenswahrscheinlichkeiten, sondern er sieht Signalereignisse immer auch als Bedeutungsträger, also als Ereignisse, die mit etwas anderem korrelieren, das sowohl für den Sender wie für den Empfänger wesentlich dazu gehört. Im gesamten biologischen Bereich ist dies so. So sind z.B. die unterschiedlichen Bestandteile eines DNA-Moleküls (in seinen verschiedenen übersetzten Formen) für das Empfängermolekül, das Ribosom, nicht einfach nur irgendwelche atomaren Verbindungen, sondern diese atomaren Verbindungen sind Signalereignisse, die vom Empfänger so interpretiert werden, als ob sie noch etwas Anderes kodieren. Dieses Andere sind jene atomaren Verbindungen (Moleküle), mittels deren dann ein neues, komplexeres Molekül, ein Protein, zusammengebaut wird. Der Output des Prozesses ist etwas anderes, als der Input. Man kann diesen komplexen Prozess natürlich ausschließlich bezüglich seiner statistischen Eigenschaften beschreiben, damit würde man aber genau das, was diesen Prozess so besonders macht, das, was ihn auszeichnet, unsichtbar machen. Shannon wusste genau, was er tat, als er erklärte, dass er die Bedeutungskomponente ausließ, aber viele seiner späteren Leser haben seine Bemerkung anscheinend schlicht überlesen.

  8. Würde man den Begriff der Information streng nach Shannon verstehen, also Information_Sh, dann werden die Arbeitshypothesen von Chalmers und Velmans schlicht unsinnig. Mit reiner Statistik versteht man weder irgendeinen neuronalen Prozess noch die Dynamik subjektiver Ereignisse.

  9. Würde man den Begriff der Information im von Shannon explizit ausgeschlossenen Sinne – also Information+ – verstehen, also mit einer expliziten semantischen Dimension, dann müsste man über die Arbeitshypothesen von Chalmers und Velmans neu nachdenken. Das wäre eine in sich reizvolle Aufgabe. Bevor man dies tut, sollte man sich dann aber die Ausgangsposition nochmals vergegenwärtigen.

  10. Ausgangspunkt für Chalmers und Velmans ist deren Überzeugung, dass sich subjektive Erlebnisse nicht durch Rekurs auf empirische Beschreibungen von neuronalen Prozessen erklären lassen. Weder aus der Art der neuronalen Prozesse (Chalmers und Velmans) noch aus der Struktur neuronaler Verschaltungen (eher nur Velmans) lassen sich irgendwelche zwingenden Schlüsse auf mögliche begleitende subjektive Erlebnisse ziehen.

  11. Eine solche abgrenzende Position macht wissenschaftsphilosophisch nur Sinn, wenn man von zwei unterschiedlichen Datenbereichen (subjektive Erlebnisse D_s und neuronale Ereignisse D_nn) ausgeht, zu denen es zwei verschiedene Theorien gibt, eine Theorie der subjektiven Erlebnisse <Ts, Int_s, D_nn, D_nn> und eine Theorie der neuronalen Ereignisse <Tnn, Int_nn>. Ferner muss man annehmen, dass mindestens die Datenbereiche beider Theorien wesentlich verschieden sind, also D_s != D_nn. Letzteres ist der Fall, da nach allgemeinem Verständnis zwar alle empirischen Daten D_e, zu denen auch die neuronalen Ereignisse D_nn gehören, zwar zugleich auch subjektive Ereignisse D_s sind, da sie für den Beobachter ja primär erst einmal als seine subjektiven Wahrnehmungen auftreten, dass aber umgekehrt es für eine empirische Theorie Te nicht möglich ist, subjektive Daten D_s einzubeziehen. Mit anderen Worten, die empirischen Daten D_e bilden aus Sicht einer empirischen Theorie eine echte Teilmenge der subjektiven Daten D_s, von daher rührt die Ungleichheit in den Daten. Wichtig ist aber das Detail, dass aus Sicht einer empirischen Theorie Te zwar keine subjektiven Daten D_s verarbeitet werden können, dass umgekehrt aber eine subjektive Theorie Ts sehr wohl Zugriff auf empirische Daten hat, da empirische Daten D_e (mit den neuronalen Daten D_nn als echter Teilmenge) zugleich immer auch subjektive Daten D_s sind, also D_e c D_s. Empirische Daten D_e sind eben beides: subjektiv wie auch zugleich inter-subjektiv.

  12. Die heutigen empirischen Wissenschaften haben die empirische Welt in unterschiedliche empirische Datenbereiche aufgeteilt, deren Beziehungsverhältnisse eigentlich offiziell nicht geklärt sind. Unterschwellig wird immer angenommen, dass die Physik die umfassendste Sichtweise hat, dass also den empirischen Daten der Physik D_e_physik alle anderen empirischen Datenbereiche D_e_x umfassen, also D_e_x c D_e_physik. Ob dies so ist, ist eher offen. Astrobiologie, Evolutionsbiologie, Mikrobiologie – um nur einige Disziplinen zu nennen –, die sich u.a. mit dem Phänomen des biologischen Lebens beschäftigen, haben zahllose originäre Phänomene zu bieten, deren wissenschaftliche Beschreibung allein mit dem Inventar der bekannten Physik im Ansatz unmöglich erscheint (nach Feststellung von bekannten Physikern). Dann würde nicht gelten, dass D_e_x c D_e_physik, sondern D_e_x != D_e_physik.

  13. Doch unabhängig von den Verhältnissen zwischen den Datenbereichen der unterschiedlichen wissenschaftlichen Disziplinen gilt für das Verhältnis der empirischen Daten D_e zu den Tatsachen des Bewusstsein D_s, dass alle empirischen Daten D_e eine echte Teilmenge der subjektiven Daten D_s sind, also D_e c D_s. Vom Standpunkt eines Theorieerstellers vom Typ homo sapiens (sapiens) liegt damit eine Lösung der methodischen Probleme der empirischen Einzeldisziplinen Te_x – wenn es überhaupt eine gibt – im Bereich einer Theorie der Subjektivität Ts.

  14. Ich habe nicht den Eindruck, dass es solch eine umfassende Theorie der Subjektivität bislang gibt. Die großen philosophischen Entwürfe gehen sicher in diese Richtung. Vielleicht ist Carnaps Stufenbau der Welt (inhaltlich fast vollständig von Husserl geprägt (gegen den Mainstream der Carnap-Interpretation)) ein kleiner Ansatz zu einer modernen Theorie der Subjektivität.

  15. Also, wir haben noch keine brauchbare Theorie der Subjektivität Ts. Wenn wir sie hätten, man kann ja mal spekulieren, dann müsste man solche Fragen wie die von Chalmers, Velmans und Clark in solch einem Kontext diskutieren. Ob in solch einem Kontext ein semantischer Informationsbegriff Information+ dann nützlich wäre, müsste man ausloten. Ich vermute mal, dass man viele andere Fragen klären müsste, bevor man über die mögliche Verwendung eines Informationsbegriffs im Kontext von Subjektivität und begleitenden empirischen Prozessen nachdenken würde.

Einen Überblick über alle Blogbeiträge von Autor cagent nach Titeln findet sich HIER.

PHILOSOPHIESOMMER 2016 IN DER DENKBAR FRANKFURT

Alltag, Visionen der Wissenschaft, und die antike Philosophie: müssen hier Köpfe rollen oder gibt es neue gedankliche Fusion?

Sind Sie neugierig, oder meinen Sie, etwas beitragen zu können?

Kommen Sie dazu.

Geben Sie ihrer Eitelkeit drei Stunden Urlaub und lassen Sie zu, dass Sie in der Andersartigkeit vielleicht etwas Neues entdecken.

ORT:

DENKBAR Frankfurt
Spohrstrasse 46a

(Achtung: Parken schwierig! Man muss wirklich im Umfeld suchen)

PROGRAMMFORMAT

Moderation: Gerd Doeben-Henisch

16:00 Begrüßung

16:05 Kleine Performance aus dem PHILOSOPHY-IN-CONCERT Experiment

16:15 Eingangsüberlegungen

16:30 Erste offene Gesprächsrunde (simultan Erstellung eines Begriffsnetzwerkes)

17:30 Blubberpause (Jeder kann mit jedem reden; Essen und Trinken)

18:00 Zweite offene Gesprächsrunde (simultan Erstellung eines Begriffsnetzwerkes)

18:45 Schlussstatements

19:00 Ende

Langsames Wegdiffundieren der Teilnehmer ….

ERINNERUNGEN…

In der Regel erscheint im Anschluss an eine Sitzung ein Bericht im Blog cognitiveagent.org, der auch Gelegenheit bietet, sich durch Kommentare oder eigene Beiträge an der Diskussion zu beteiligen.

INHALTLICHE LINIE

Da der Gesprächsprozess – abhängig von den Teilnehmern! – seine eigene Dynamik gewinnt, lässt sich keine genaue Prognose für alle kommenden Themen geben.

Das Rezept für den Start orientiert sich einmal an unseren alltäglichen Erfahrung einer Menschheit im Fiebertaumel zwischen Gewalt, Krieg, Katastrophen auf der einen Seite, eingespannt in ein umfassendes Räderwerk von Wirtschaft, Verwaltungen, Medienströmen, Politikbetrieb, Anwachsen von ‚tiefem Staat‘ mit mittlerweile grenzenloser Überwachung andererseits; dazu eine scheinbar entfesselte Wissenschaft, die – abgeschottet von der Öffentlichkeit – immer neue Details der Materie enthüllt, den Menschen als biochemische Masse sieht, deren Tage gezählt sind, und in automatisierten Produktionsprozessen denkt, die mit bekannten Wertesystemen kaum noch etwas zu tun haben. Und dann, man wagt es kaum zu sagen, gab es einen alten, sehr alten Philosophen, der mindestens 1800 Jahre lang das Denken In ganz Europa (Westen wie Osten; christliche Theologie genauso wie die islamische Theologie!) geprägt hat, Aristoteles, der heute auf allen Gebieten als abgeschrieben gelten kann. Und doch, schaut man sich die großen Lücken an, die die moderne Wissenschaft mit sich herumschleppt, kann man ins Grübeln kommen. Die Zukunft ist niemals einfach nur die Wiederholung des Gestern. Aber sie ist auch niemals das total ganz andere. Die biologische Evolution praktiziert das Modell der Zähmung des Zufalls durch Erinnerung; das Ergebnis nach ca. 4 Mrd Jahren sind u.a. wir, der homo sapiens. Es ist schwer zu verstehen, bis heute. Manche wollen es auch gar nicht verstehen…

ARCHIV

Wer sich für die bisherigen philosophischen Gespräche unter der Überschrift ‚Philosophiewerkstatt‘ interessiert, ist eingeladen, die Erinnerungsseite zu besuchen. Hier gibt es Berichte von den zurückliegenden Diskursen.

DECHER – HANDBUCH PHILOSOPHIE DES GEISTES – PLATON – DISKURS (Teil 3)

Decher, Friedhelm, Handbuch der Philosophie des Geistes, Darmstadt: WBG Wissenschaftliche Buchgesellschaft, 2015 (Im Folgenden abgekürzt: HPG)

KONTEXT

  1. Nach der kurzen Einführung in das Phänomen Geist beginnt Decher seine gedankliche Expedition zum Begriff Geist bei den  alten Ägyptern und den Vorsokratikern. In Teil 2 habe ich darauf hingewiesen, dass die Verwendung der zentralen Begriffe wie Noos/ Nous, Thymos, Psyché, Aisthesis, Noema, Logos und deren Interpretation grundsätzlich eine Herausforderung darstellt, die aus der Art und Weise resultiert, wie Sprache und Erkennen beim Menschen funktionieren.
  2. Im nächsten Kapitel wendet sich Decher Platon zu, und hier speziell dem Verhältnis von Geist (Nous) und Seele (Psyché).
  3. An dieser Stelle sei wiederum darauf aufmerksam gemacht (vgl.  die Anmerkungen im ersten Teil dieser Besprechung, besonders Nr.4), dass diese Besprechung in keiner Weise die eigene Lektüre des Buches von Decher ersetzen kann. Ich lese das Buch im Lichte meiner Fragen, andere werden möglicherweise etwas anderes in dem Buch erkennen. Die Lektüre eines Buches ist niemals eine 1-zu-1 Angelegenheit (ein Umstand, warum auch die sogenannte Offenbarungsschriften im Judentum, Christentum und im Islam im Gang der Geschichte immer wieder – und zwar unvermeidbar – unterschiedlich interpretiert werden).

PLATON: NOUS UND PSYCHE (SS.41 – 44)

Platon: Seele und Geist, Grundstruktur

Platon: Seele und Geist, Grundstruktur

  1. Decher weist darauf hin, dass es bis heute schwierig ist, in den Werken Platons – speziell in seinen früheren Werke – den Einfluss der sokratischen Denkweise von den eigenen Überlegungen Platons klar abzugrenzen. Sokrates (ca. -469 bis -399) lebte vor Platon (-428/7 bis – 348/7) und Platon kannte Sokrates nicht nur, sondern war auch sein Schüler (ca. ab -407).
  2. Decher fasst dann die Lehre von Platon in einigen Kernthesen zusammen, die im Schaubild (erweitert) illustriert werden.
  3. Grundsätzlich geht Platon von einer Trennung von Körper und Seele (Psyché) aus, wobei der Geist (Nous) ein Teil der Seele ist. Die Seele gehört zum unkörperlichen immateriellen überindividuellen und unsterblichen Lebensprinzip im Gegensatz zum materiellen sterblichen Körper. Entsprechend den verschiedenen Körperteilen (Kopf, Brust, Unterleib) zeigt sich die Seele auf unterschiedliche Weise (Nous als Geist, Verstand; Thýmos als antreibende Gefühle; Epithymiai als Begierden, Triebe, Bedürfnisse). Anlässlich von sinnlichen Erregungen wird der Geist in der Weise angeregt, stimuliert, dass er sich erinnert (Erinnerung, Anamnesis) an ein allgemeines, ideales, immaterielles Wissen, das auf die Ideen zurückgeht, die die Seele vor ihrer Wiedergeburt kannte, und die sie auf dem Weg zur Wiedergeburt in einem Körper beim Durchqueren des Flusses Lethe (Fluss des Vergessens) vergessen hatte. Die allgemein Wahrheit ist also etwas, was unabhängig von materieller Körperwelt und sinnlicher Erfahrung existiert und nur erinnert werden kann. Je nachdem, wie die verschiedenen Seelenteile miteinander im Einklang sind, ist ein Mensch eher krank oder gesund.

DISKURS

  1. Diese Bemerkungen sind sehr knapp. Entsprechen aber den allgemeinen Lehrmeinungen über Platons Position.
  2. Interessant ist hier die Wechselbeziehung zwischen Geist und Seele.
  3. Offensichtlich kommt der Seele die Priorität zu. Der Geist scheint zwar der Ort zu sein, wo die aus der Materialität herrührenden sinnlichen Erregungen sich zu ersten bewussten Vorstellungen formen können und wo diese Anregungen zur Erinnerung an präexistierende immaterielle unendliche Ideen führen können, die ebenfalls im Geist bewusst werden können, aber der Geist ist nur ein Moment an der Seele, die als solche als immateriell und unsterblich gilt.
  4. Der Hauptgrund für die Unsterblichkeit der Seele scheint aus der Annahme zu resultieren (vgl. dazu Hirschberger, SS.118-128), dass die Seele als Lebensprinzip alles Lebendigen gesehen wird (auch der Tiere und Pflanzen), und dieses Lebensprinzip erkennt man an der Bewegung, und zwar an der spontanen Selbstbewegung. Die Selbstbewegung liegt jeglicher Bewegung zugrunde, auch den Himmelsbewegungen; sie ist das Erste von Allem, und darin ewig.
  5. Dies bedeutet, dass ein ewiges, immaterielles Prinzip erkannt wurde auf der Basis eines Naturphänomens, das zu Zeiten Platons von vielen nicht anders verstanden werden konnte, als etwas ganz Anderes, für das man keine Erklärung in der bekannten Welt finden konnte.
  6. Unterstützung fand diese Hypothese von der ganz anderen Bewegung noch durch die Phänomene des Erkennens, dass man in der empirischen Erfahrungswelt immer nur endliche und unvollkommene Objekte, Verhältnisse und Strukturen findet, sich im Denken aber Verhältnisse zeigen und denken lassen, die unendlich erscheinen und ideal. Lässt diese scheinbare Unerklärlichkeit der (spontanen) Bewegung kombiniert mit der Unerklärlichkeit der idealen Erkenntnisse von daher berechtigt einen Schluss auf etwas Immaterielles, Unendliches, Präexistierendes, Überindividuelles zu, das man Seele (Psyché) nennt und das vorab und begleitend zur erfahrbaren empirischen Welt existiert und wirkt?
  7. Auf den ersten Blick tut sich hier ein Dualismus von endlichem unvollkommenem Materiellen und endlichem vollkommenem Immateriellen auf. Dies aber nur solange, als man die Wechselwirkung zwischen beiden nicht ernst nimmt. Wenn das endliche Materielle mit dem unendlichen Immateriellen in Erkenntnisweisen zusammenwirken können, dann kann und muss man fragen, wie dies möglich ist.
  8. Sowohl die sinnlich angeregten Vorstellungen sind bewusst und im Geist (Nous) wie auch die von den ewigen Ideen gespeisten Erinnerungen an ideale Verhältnisse sind bewusst, da ansonsten unbekannt. Im platonischen Denkmodell gibt es für dieses Zusammentreffen von unvereinbaren Gegensätzen keine wirkliche Erklärung. Im Lichte der neuzeitlichen Erkenntnisse der letzten 50 (!) Jahre gibt es aber Ansatzpunkte, die möglicherweise neue Denkmodelle ermöglichen könnten, die aber – so scheint mir – bislang noch nicht konsequent öffentlich zu Ende gedacht wurden.

SELBSTBEWEGUNG

  1. Nach heutigem Kenntnisstand wissen wir, dass es ein Charakteristikum biologischen Lebens ist, dass es über eine Konfiguration von Molekülen verfügt, die es in die Lage versetzen, Energie aus der Umgebung zu entziehen, um damit eine Eigenbewegung (Selbstbewegung) zu organisieren. Die Selbstbewegung resultiert also aus dem Zusammenwirken einer (nach heutigem Kenntnisstand) vorauszusetzenden Energie, die allem Empirischen zugrunde liegt, und einer bestimmten molekularen Struktur, die in der Lage ist, diese Energie in Bewegung zu transformieren. Dies ist ein Eigenschaft jeder biologischen Zelle, die sich im Falle des homo sapiens in ca. 37 Billionen (10^12) Zellen in Form eines Gesamtorganismus (Körper) so präsentiert, dass eine Vielzahl von Bewegungen in Erscheinung treten können. Die ca. 100 Mrd (10^9) Gehirnzellen nutzen ihre Energie weniger zu mechanischen Bewegungen sondern zum elektrischen Signalaustausch. Dieser Signalaustausch ermöglicht Wahrnehmung, Erinnern, Denken, Fühlen usw.
  2. Mit diesen Erkenntnissen können wir zwar auch sagen, dass die primären Prinzipien von biologischer Belebtheit auf überindividuelle Gesetze und Eigenschaften zurückverweisen (Energie), dass aber das Zusammenwirken von materiellen (atomaren, molekularen) Strukturen und freier Energie eine Eigenschaft ist, die schon jeder einzelnen Zelle zukommt, und damit jeglicher Lebensform auf der Erde.

IDEALE ERKENNTNIS

  1. Bleibt das Phänomen der idealen Erkenntnis. In der Tat sind alle sinnlich wahrnehmbaren Sachverhalte endlich, unvollkommen, singulär verglichen mit allgemeinen, strukturellen Dachverhalten, wie sie sich im Denken erschließen können.
  2. Hält man sich aber vor Augen, dass unser sinnliches Wahrnehmen und unser ideales Denken von einem Netzwerk von ca. 100 Mrd (10^9) Zellen ermöglicht wird, die völlig uniform arbeiten, dann kann man zumindest die Frage stellen, ob es möglicherweise ein (sehr hilfreicher) Artefakt dieses neuronalen Netzwerkes ist, dass wir mit endlichen Strukturen unendliche Strukturen denken können?
  3. Gerade dieser Punkt ist in der modernen Grundlagenforschung merkwürdigerweise noch nicht hinreichend abgeklärt. Hier nur ein paar Stichworte, um anzudeuten, in welcher Richtung die Antwort liegen kann.
  4. Wichtigster Kronzeuge für ideale unendliche Objekte des Denkens ist die Mathematik. Ein Beispiel ist hier die Menge der abzählbar-unendlichen natürlichen Zahlen. Die Menge der natürlichen Zahlen gilt als unendlich groß. Man definiert diese Unendlichkeit durch einen endlichen Zählprozess, der als Prozess aber keinen Endpunkt besitzt. Analog verhält es sich mit den komplexeren Zahlmengen wie z.B. den rationalen Zahlen, den reellen Zahlen usw. Diese Mengen gelten auf unterschiedliche Weise als unendlich, besitzen einen Namen, mit denen man sie benennen kann, und indem Mathematiker ständig die Namen von Objekten im Munde führen können, die als unendlich gelten, kann der Eindruck entstehen, dass es solche unendlichen Objekte tatsächlich gibt. Was es aber nur gibt, das sind endliche Prozeduren, durch die unterschiedliche Begriffe von Unendlichkeit definiert werden. Alle Arten von endlichen Prozeduren können – nach heutigem Wissensstand – von neuronalen Netzen simuliert – sprich: gedacht — werden.
  5. Ein anderes Beispiel ist die Welt der Begriffe, wie sie sich im Sprachgebrauch und in der Alltagslogik finden. Wir sind gewohnt (meist unbewusst), beständig Allgemeinbegriffe benutzen. Z.B. wir sehen ein Objekt vor uns auf dem Tisch, das genügend Eigenschaften aufweist, dass wir es als eine Tasse klassifizieren können. Und bekanntlich können wir beliebig viele einzelne Objekte als Tasse bezeichnen, sofern die charakterisierenden Eigenschaften gegeben sind. Dies bedeutet, mit einigen wenigen (endlich vielen) Eigenschaften können wir einen einzigen, individuellen Namen mit potentiell (= abzählbar) unendlich vielen Objekten verknüpfen. Dies ist mit einem neuronalen Netzwerk leicht zu bewerkstelligen.
  6. Dies bedeutet, am Beispiel von zwei sehr wichtigen Typen von denkbarer Unendlichkeit kann man sehen, dass sich diese mit endlichen Mitteln realisieren lassen.
  7. Allerdings ist klar, dass diese quasi-unendlichen endlichen Prozesse nur möglich sind, insoweit von außerhalb des Systems beständig genügend Energie zugeführt werden kann, durch die diese Prozesse aufrecht erhalten werden können.
  8. Wollte man die platonische Dualität von Materiell-Immateriell, von Seele – Körper, beibehalten, dann wäre nach heutigem Wissensstand der Körper die Anordnung der Atome/ Moleküle und das Seelische die verfügbare freie Energie, durch die Veränderungen/ Transformationen/ Signale/ Bewegungen dieser Moleküle möglich sind. Aufgrund der endlichen Konstellation der Moleküle kann zugeführte (unendliche?) Energie ein Denken von quasi unendlichen Mengen mit Hilfe endlicher Strukturen realisiert werden.

SEIN – WAHRHEIT

  1. Die Rückführung von quasi unendlichen Objekten auf endliche (Denk-)Prozesse lässt aber die Frage unbeantwortet, ob diese mit endlichen Mitteln sichtbar werdenden quasi-unendlichen Objekte (Strukturen) über das Denken hinaus eine ontologische Bedeutung haben können, oder, anders formuliert, ob diese quasi-unendlichen Objekte (Strukturen) über das Denken hinaus tatsächlich existieren, obgleich sie sich für unsere begrenzte Wahrnehmung immer nur als punktuelle, individuelle Messereignisse in Raum und Zeit manifestieren?
  2. Dies wäre die Frage nach der Wahrheit unserer Erkenntnisse.

Fortsetzung mit Aristotles HIER

SONSTIGE QUELLEN

  • Hirschberger, Johannes; GESCHICHTE DER PHILOSOPHIE. Altertum und Mittelalter, Freiburg – Basel – Wien: Herder, 14.Aufl. 1976
  • Holenstein, Elmar; Philosophie-Atlas. Orte und Wege des Denkens, Zürich: Amman Verlag & Co, 2004

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

VORSCHAU TERMINE PHILOSOPHIEWERKSTATT FEBRUAR – MAI 2016

Da der Start zur neuen Serie etwas ‚ruckelig‘ war (Krankheit, Weihnachtsfeiertage, Terminkollisionen), hier – in Rücksprache mit Reinhard Graeff von der DENKBAR – der Versuch eines Neustarts für die Zeit Februar – Mai 2016, jeweils 2.Sonntag im Monat 16:00 – 19:00h:

TERMINE

VORGEHENSWEISE

Wir werden den bisherigen dialogischen (sokratischen) Stil der Bedeutungsfindung beibehalten, aber ergänzt um folgende Momente:

  • Zu Beginn eine thematisch passende Eingangsmusik ca.5-8 Min aus dem PHILOSPHY-IN-CONERT Programm des Emerging Mind Projektes
  • Vorstellung einer klassischen Position aus der Geschichte der Philosophie (Platon, Aristoteles, Augustinus, Thomas v.Acquin) ca. 10 – 15Min im Umfeld der Begriffe ‚Geist‘ und ‚Seele‘.
  • Gesprächsprozess zum vertiefenden Verständnis und geleitet von der Frage, ob und wie sich diese Positionen im Lichte heutiger Philosophie und Wissenschaft noch aufrecht erhalten lassen; falls nicht, was folgt daraus?
  • Im Anschluss an die Sitzung wird wie gewohnt ein Memo der Sitzung im Blog PHILOSOPHIE JETZT veröffentlicht. Jeder ist eingeladen, diese Darstellung mit eigenen Beiträgen zu ergänzen.

SPEZIELLER HINWEIS

Für alle die es interessiert, am

Mi, 20.Januar 2016, 19:30h

findet die Eröffnung des Emerging Mind Projektes im Institut für Neue Medien (INM) (Frankfurt) statt in Form eines Werkstattgesprächs. Das Emerging Mind Projekt (EMP) ist ein philosophisch motiviertes Projekt zur theoretischen und praktischen Erforschung der Zukunft von Menschen und intelligenten Maschinen. Es kooperiert eng mit der Emergent Life Academy (ELA), die diese Frage in dem größeren Kontext einer allgemeinen Entwicklungswissenschaft stellt, ebenfalls mit einem starken philosophischen Einschlag.

PHILOSOPHIEWERKSTATT BISHER

Einen Überblick über alle Beiträge zur Philosophiewerkstatt nach Themen findet sich HIER

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

BUCHPROJEKT 2015 – Zwischenreflexion 23.August 2015 – INFORMATION – Jenseits von Shannon

Der folgende Beitrag bezieht sich auf das Buchprojekt 2015.

VORHERIGE BEITRÄGE

1. Im Beitrag von John Maynard Smith hatte dieser Kritik geübt an der Informationstheorie von Shannon. Dabei fokussierte er im wesentlichen auf die direkte Anwendung des Shannonschen Begriffs auf die informationsvermittelnden Prozesse bei der Selbstreproduktion der Zelle, und er konnte deutlich machen, dass viele informationsrelevanten Eigenschaften bei dem Reproduktionsprozess mit dem Shannonschen Informationsbegriff nicht erfasst werden. Anschließend wurde ein Beitrag von Terrence W.Deacon diskutiert, der den Shannonschen Informationsbegriff als Ausgangspunkt nutzte, den er it dem Entropiebegriff von Boltzmann verknüpfte, von dort die Begriffe thermodynamisches Ungleichgewicht, Arbeit und Evolution nach Darwin benutzte, um die Idee anzudeuten, dass jene Zustände in einem System, die bedeutungsrelevant sein könnten (und von Shannon selbst nicht analysiert werden) in Interaktion mit der Umwelt entstanden sind und entstehen.

ZWISCHENSTAND
2. Was sowohl bei Maynard Smih wie auch bei Deakon auffällt, ist, dass sie sich wenig um den möglichen Kontext des Begriffs ‚Information‘ bemühen. Wie wurde der Begriff der Information im Laufe der Ideengeschichte verstanden? Welche Besonderheiten gibt es in den verschiedenen Disziplinen?

HISTORISCH-SYSTEMATISCHE PERSPEKTIVE

3. In einem umfangreichen und detailliertem Überblick von Pieter Adriaans (2012) in der Standford Encyclopedia of Philosophy findet man ein paar mehr Zusammenhänge.

4. Zwar heißt es auch hier mehrfach, dass ein erschöpfender Überblick und eine alles umfassende Theorie noch aussteht, aber ausgehend von der antiken Philosophie über das Mittelalter, die Renaissance bis hin zu einigen modernen Entwicklungen findet man wichtige Themen und Autoren.

5. Zusammenfassend sei hier nur festgestellt, dass Aspekte des Informationsbegriffs auf unterschiedlich Weise bis zum Ende des 19.Jahrhunderts feststellbar sind, ohne dass man von einer eigentlich Philosophie der Information oder einer Informationstheorie im modernen Sinne sprechen kann. Als grobe Koordinaten, die den Ausgangspunkt für die neuere Entwicklung einer Informationstheorie markieren, nennt Adriaans (i) Information als ein Prozess, der Systeme prägen/ formieren/ informieren kann; (ii) Information als ein Zustand, der sich bei einem System einstellt, nachdem es informiert wurde; (iii) Information als die Fähigkeit eines Systems, seine Umgebung zu prägen/ formen/ informieren.

6. Weiterhin identifiziert er zusammenfassend einige Bausteine der modernen Informationstheorie: (i) Information ist ‚extensiv‘ insofern die Bestandteile in das übergreifende Ganze eingehen und sie vermindert Unsicherheit; (ii) man benötigt eine formale Sprache zu ihrer Darstellung; (iii) ein ‚optimaler‘ Kode ist wichtig; (iv) die Verfügbarkeit eines optimierten Zahlensystems (binär, Stellen, Logarithmus) spielte eine Rolle; ausgehend von konstituierenden Elementen die Idee der Entropie in Kombination mit der Wahrscheinlichkeit; (v) die Entwicklung einer formalen Logik für Begriffe wie ‚Extension/ Intension‘, ‚Folgerung‘, ‚Notwendigkeit‘, ‚mögliche Welten‘, ‚Zustandsbeschreibungen‘ und ‚algorithmische Informationstheorie‘.

7. Andere wichtige Themen sind (i) Information als Grad der Widerlegbarkeit (Popper); (ii) Information in Begriffen der Wahrscheinlichkeit (Shannon); (iii) Information als Länge des Programms (Solomonoff, Kolmogorov, Chaitin).

SHANNON ERSCHEINT ÜBERMÄCHTIG

8. Was man bei Adriaans vermisst, das ist der Bezug zur semantischen Dimension. Hierzu gibt es einen anderen sehr umfangreichen Beitrag von Floridi (2015), auf den auch Adriaans verweist. Floridi behandelt die Frage der Semantischen Information quantitativ sehr ausführlich, inhaltlich aber beschränkt er sich weitgehend auf eine formale Semantik im Umfeld einer mathematischen Informationstheorie auf der Basis von Shannon 1948. Dies verwundert. Man kann den Eindruck gewinnen, dass die ‚konzeptuelle Gravitation‘ des Shannonschen Modells jede Art von begrifflicher Alternative im Keim erstickt.

BEFREIUNG DURCH BIOLOGIE

9. Bringt man die Informationstheorie in das begriffliche Gravitationsfeld der Biologie, insbesondere der Molekularbiologie, dann findet man in der Tat auch andere begrifflich Ansätze. Peter Godfrey-Smith und Kim Sterelny (2009) zeigen am Beispiel der Biologie und vieler molekularbiologischer Sachverhalte auf, dass man das enge Modell von Shannon durch weitere Faktoren nicht nur ergänzen kann, sondern muss, will man den besonderen biologischen Sachverhalten Rechnung tragen. Allerdings führen sie ein solches Modell nicht allgemein aus. Kritiker weisen darauf hin, dass solche zusätzlichen Abstraktionen die Gefahr bieten – wie in jeder anderen wissenschaftlichen Disziplin auch –, dass sich Abstraktionen ‚ontologisch verselbständigen‘; ohne erweiternde Begrifflichkeit kann man allerdings auch gar nichts sagen.

THEORIE A LA BOLTZMANN VOR MEHR ALS 100 JAHREN

10. Diese ganze moderne Diskussion um die ‚richtigen formalen Modelle‘ zur Erklärung der empirischen Wirklichkeit haben starke Ähnlichkeiten mit der Situation zu Zeiten von Ludwig Boltzmann. In einer lesenswerten Rede von 1899 zur Lage der theoretischen Physik ist er konfrontiert mit der stürmischen Entwicklung der Naturwissenschaften in seiner Zeit, speziell auch der Physik, und es ist keinesfalls ausgemacht, welches der vielen Modelle sich in der Zukunft letztlich als das ‚richtigere‘ erweisen wird.

11. Boltzmann sieht in dieser Situation die Erkenntnistheorie gefragt, die mithelfen soll, zu klären, welche Methoden in welcher Anordnung einen geeigneten Rahmen hergeben für eine erfolgreiche Modellbildung, die man auch als theoretische Systeme bezeichnen kann, die miteinander konkurrieren.

12. Mit Bezugnahme auf Hertz bringt er seinen Zuhörern zu Bewusstsein, „dass keine Theorie etwas Objektives, mit der Natur wirklich sich Deckendes sein kann, dass vielmehr jede nur ein geistiges Bild der Erscheinungen ist, das sich zu diesen verhält wie das Zeichen zum Bezeichneten.“ (Boltzmann 1899:215f) Und er erläutert weiter, dass es nur darum gehen kann, „ein möglichst einfaches, die Erscheinungen möglichst gut darstellendes Abbild zu finden.“ (Boltzmann 1899:216) So schließt er nicht aus, dass es zum gleichen empirischen Sachverhalt zwei unterschiedliche Theorien geben mag, die in der Erklärungsleistung übereinstimmen.

13. Als Beispiel für zwei typische theoretische Vorgehensweisen nennt er die ‚Allgemeinen Phänomenologen‘ und die ‚Mathematischen Phänomenologen‘. Im ersteren Fall sieht man die theoretische Aufgabe darin gegeben, alle empirischen Tatsachen zu sammeln und in ihrem historischen Zusammenhang darzustellen. Im zweiten Fall gibt man mathematische Modelle an, mit denen man die Daten in allgemeine Zusammenhänge einordnen, berechnen und Voraussagen machen kann. Durch die Einordnung in verallgemeinernde mathematische Modelle geht natürlich die Theorie über das bis dahin erfasste Empirische hinaus und läuft natürlich Gefahr, Dinge zu behaupten die empirisch nicht gedeckt sind, aber ohne diese Verallgemeinerungen kann ein Theorie nichts sagen. Es kann also nicht darum gehen, ’nichts‘ zu sagen, sondern das, was man theoretisch sagen kann, hinreichend auf Zutreffen bzw. Nicht-Zutreffen zu kontrollieren (Poppers Falsifizierbarkeit). Boltzmann bringt seitenweise interessante Beispiele aus der damals aktuellen Wissenschaftsdiskussion, auf die ich hier jetzt aber nicht eingehe.

WIE SHANNON ERWEITERN?

14. Stattdessen möchte ich nochmals auf die Fragestellung zurück kommen, wie man denn vorgehen sollte, wenn man erkannt hat, dass das Modell von Shannon – so großartig es für die ihm gestellten Aufgaben zu sein scheint –, bzgl. bestimmter Fragen als ‚zu eng‘ erscheint. Hier insbesondere für die Frage der Bedeutung.

15. Im Beitrag von Deacon konnte man eine Erweiterungsvariante in der Weise erkennen, dass Deacon versucht hatte, über die begriffliche Brücke (Shannon-Entropie –> Boltzmann-Entropie –>Thermodynamik → Ungleichgewicht → Aufrechterhaltung durch externe Arbeit) zu der Idee zu kommen, dass es in einem biologischen System Eigenschaften/ Größen/ Differenzen geben kann, die durch die Umwelt verursacht worden sind und die wiederum das Verhalten des Systems beeinflussen können. In diesem Zusammenhang könnte man dann sagen, dass diesen Größen ‚Bedeutung‘ zukommt, die zwischen Systemen über Kommunikationsereignisse manifestiert werden können. Ein genaueres Modell hatte Deacon dazu aber nicht angegeben.

16. Wenn Deacon allerdings versuchen wollte, diese seine Idee weiter zu konkretisieren, dann käme er um ein konkreteres Modell nicht herum. Es soll hier zunächst kurz skizziert werden, wie solch ein Shannon-Semantik-System aussehen könnte. An anderer Stelle werde ich dies Modell dann formal komplett hinschreiben.

SHANNON-SEMANTIK MODELL SKIZZE

17. Als Ausgangspunkt nehme ich das Modell von Shannon 1948. (S.381) Eine Quelle Q bietet als Sender Nachrichten M an, die ein Übermittler T in Kommunikationsereignisse S in einem Kommunikationskanal C verwandelt (kodiert). In C mischen sich die Signale S mit Rauschelementen N. Diese treffen auf einen Empfänger R, der die Signale von den Rauschanteilen trennt und in eine Nachricht M* verwandelt (dekodiert), die ein Empfänger D dann benutzen kann.

18. Da Shannon sich nur für die Wahrscheinlichkeit bestimmter Signalfolgen interessiert hat und die Kapazitätsanforderungen an den Kanal C, benötigt sein Modell nicht mehr. Wenn man aber jetzt davon ausgeht, dass der Sender nur deshalb Kommunikationsereignisse S erzeugt, weil er einem Empfänger bestimmte ‚Bedeutungen‘ übermitteln will, die den Empfänger in die Lage versetzen, etwas zu ‚tun‘, was der übermittelten Bedeutung entspricht, dann muss man sich überlegen, wie man das Shannon Modell erweitern kann, damit dies möglich ist.

19. Das erweiterte Shannon-Semantik Modell soll ein formales Modell sein, das geeignet ist, das Verhalten von Sendern und Empfängern zu beschreiben, die über reine Signale hinaus mittels dieser Signale ‚Bedeutungen‘ austauschen können. Zunächst wird nur der Fall betrachtet, dass die Kommunikation nur vom Sender zum Empfänger läuft.

20. Ein erster Einwand für die Idee einer Erweiterung könnte darin bestehen, dass jemand sagt, dass die Signale ja doch ‚für sich‘ stehen; wozu braucht man die Annahme weiterer Größen genannt ‚Bedeutung‘?

21. Eine informelle Erläuterung ist sehr einfach. Angenommen der Empfänger ist Chinese und kann kein Deutsch. Er besucht Deutschland. Er begegnet dort Menschen, die kein Chinesisch können und nur Deutsch reden. Der chinesische Besucher kann zwar sehr wohl rein akustisch die Kommunikationsereignisse in Form der Laute der deutschen Sprache hören, aber er weiß zunächst nichts damit anzufangen. In der Regel wird er auch nicht in der Lage sein, die einzelnen Laute separat und geordnet aufzuschreiben, obgleich er sie hören kann. Wie wir wissen, braucht es ein eigenes Training, die Sprachlaute einer anderen Sprache zweifelsfrei zu erkennen, um sie korrekt notieren zu können. Alle Deutschen, die bei einer solchen Kommunikation teilnehmen, können die Kommunikationsereignisse wahrnehmen und sie können – normalerweise – ‚verstehen‘, welche ‚anderen Sachverhalte‘ mit diesen Kommunikationsereignissen ‚verknüpft werde sollen‘. Würde der Chinese irgendwann Deutsch oder die Deutschen Chinesisch gelernt haben, dann könnten die Deutschen Kommunikationsereignisse in Chinesische übersetzt werden und dann könnten – möglicherweise, eventuell nicht 1-zu-1 –, mittels der chinesischen Kommunikationsereignisse hinreichend ähnliche ‚adere Sachverhalte‘ angesprochen werden.

22. Diese anderen Sachverhalte B, die sich den Kommunikationsereignissen zuordnen lassen, sind zunächst nur im ‚Innern des Systems‘ verfügbar. D.h. Die Kommunikationsereignisse S (vermischt mit Rauschen N) im Kommunikationskanal C werden mittels des Empfängers R in interne Nachrichten M* übersetzt (R: S x N —> M*), dort verfügt der Empfänger über eine weitere Dekodierfunktion I, die den empfangenen Nachrichten M* Bedeutungssachverhalte zuordnet, also I: M* —> B. Insofern ein Dolmetscher weiß, welche Bedeutungen B durch eine deutsche Kommunikationssequenz im Empfänger dekodiert werden soll, kann solch ein Dolmetscher dem chinesischen Besucher mittels chinesischer Kommunikationsereignisse S_chin einen Schlüssel liefern, dass dieser mittels R: S_chin —> M*_chin eine Nachricht empfangen kann, die er dann mit seiner gelernten Interpretationsfunktion I_chin: M*_chin —> B‘ in solche Bedeutungsgrößen B‘ übersetzen kann, die den deutschen Bedeutungsgrößen B ‚hinreichend ähnlich‘ sind, also SIMILAR(B, B‘).

23. Angenommen, der empfangenen Nachricht M* entspricht eine Bedeutung B, die eine bestimmte Antwort seitens des Empfängers nahelegt, dann bräuchte der Empfänger noch eine Sendeoperation der Art Resp: B —> M* und T: M* —> S.

24. Ein Empfänger ist dann eine Struktur mit mindestens den folgenden Elementen: <S,N,M*,B,R,I,resp,T> (verglichen mit dem ursprünglichen Shannon-Modell: <S,N,M*,-,R,I,-,T>). So einfach diese Skizze ist, zeigt sie doch, dass man das Shannon Modell einfach erweitern kann unter Beibehaltung aller bisherigen Eigenschaften.

25. Natürlich ist eine detaillierte Ausführung der obigen Modellskizze sehr aufwendig. Würde man die Biologie einbeziehen wollen (z.B. im Stile von Deacon), dann müsste man die Ontogenese und die Phylogenese integrieren.

26. Die Grundidee der Ontogenese bestünde darin, einen Konstruktionsprozess zu definieren, der aus einem Anfangselement Zmin das endgültige System Sys in SYS erstellen würde. Das Anfangselement wäre ein minimales Element Zmin analog einer befruchteten Zelle, das alle Informationen enthalten würde, die notwendig wären, um diese Konstruktion durchführen zu können, also Ontogenese: Zmin x X —> SYS. Das ‚X‘ stünde für alle die Elemente, die im Rahmen einer Ontogenese aus der Umgebung ENV übernommen werden müssten, um das endgültige system SYS = <S,N,M*,B,R,I,resp,T> zu konstruieren.

27. Für die Phylogenese benötigte man eine Population von Systemen SYS in einer Umgebung ENV, von denen jedes System Sys in SYS mindestens ein minimales Anfangselement Zmin besitzt, das für eine Ontogenese zur Verfügung gestellt werden kann. Bevor die Ontogenese beginnen würde, würden zwei minimale Anfangselemente Zmin1 und Zmin2 im Bereich ihrer Bauanleitungen ‚gemischt‘, um dann der Ontogenese übergeben zu werden.

QUELLEN

  1. John Maynard Smith (2000), „The concept of information in biology“, in: Philosophy of Science 67 (2):177-194
  2. Terrence W.Deacon (2010), „What is missing from theories of information“, in: INFORMATION AND THE NATURE OF REALITY. From Physics to Metaphysics“, ed. By Paul Davies & Niels Henrik Gregersen, Cambridge (UK) et al: Cambridge University Press, pp.146 – 169
  3. Bernd-Olaf Küppers 2010), „Information and communication in living matter“, in: INFORMATION AND THE NATURE OF REALITY. From Physics to Metaphysics“, ed. By Paul Davies & Niels Henrik Gregersen, Cambridge (UK) et al: Cambridge University Press, pp.170-184
  4. Luciano Floridi (2015) Semantic Conceptions of Information, in: Stanford Enyclopedia of Philosophy
  5. Jesper Hoffmeyer (2010), „Semiotic freedom: an emerging force“, in: INFORMATION AND THE NATURE OF REALITY. From Physics to Metaphysics“, ed. By Paul Davies & Niels Henrik Gregersen, Cambridge (UK) et al: Cambridge University Press, pp.185-204
  6. Stichwort Information in der Stanford Enyclopedia of Philosophy von Pieter Adriaans (P.W.Adriaans@uva.nl) (2012)
  7. Peter Godfrey-Smith, Kim Sterelny (2009) Biological Information“, in: Stanford Enyclopedia of Philosophy
  8. Hans Jörg Sandkühler (2010), „Enzyklopädie Philosophie“, Bd.2, 2., überarbeitete und erweiterte Auflage, Meiner Verlag, Hamburg 2010, ISBN 978-3-7873-1999-2, (3 Bde., parallel dazu auch als CD erschienen)
  9. Ludwig Boltzmann (1899), „Über die Entwicklung der Methoden der theoretischen Physik in neuerer Zeit“, in: „Populäre Schriften“, Leipzig:Verlag von Johann Ambrosius Barth, 1905, SS.198-227
  10. Lawrence Sklar (2015), Philosophy of Statistical Mechanics in Stanford Encyclopedia of Philosophy
  11. Schroedinger, E. „What is Life?“ zusammen mit „Mind and Matter“ und „Autobiographical Sketches“. Cambridge: Cambridge University Press, 1992 (‚What is Life‘ zuerst veröffentlicht 1944; ‚Mind an Matter‘ zuerst 1958)
  12. Claude E. Shannon, A mathematical theory of communication. Bell System Tech. J., 27:379-423, 623-656, July, Oct. 1948
  13. Claude E. Shannon; Warren Weaver (1949) „The mathematical theory of communication“. Urbana – Chicgo: University of Illinois Press.
  14. John Maynard Smith (2000), „The concept of information in biology“, in: Philosophy of Science 67 (2):177-194
  15. Noeth, W., Handbuch der Semiotik, 2. vollst. neu bearb. und erw. Aufl. mit 89 Abb. Stuttgart/Weimar: J.B. Metzler, xii + 668pp, 2000
  16. Monod, Jacques (1971). Chance and Necessity. New York: Alfred A. Knopf
  17. Introduction to Probability von Charles M. Grinstead und J. Laurie Snell, American Mathematical Society; Auflage: 2 Revised (15. Juli 1997)