Die Wiederentdeckung Gottes auf dem Planeten Erde für alle denkbaren Universen. Essay. Teil 2

Wahrheit ist nicht Alles

  1. Im vorausgehenden Teil  ist anhand einfacher Sprachbeispiele aus dem Alltag verdeutlicht worden, was alles zu einer ‚wahren‘ Äußerung gehört, und wie schwierig es ist, dass zwei Menschen die Voraussetzungen zu einer wahren Aussage erfüllen.
  2. In diesem Abschnitt wird aufgezeigt, wie das sprachliche Geschehen eingebettet ist in einen Kontext von Bewusstsein, Gehirn, Körper vielstufiger (hypothetisch angenommener) Außenwelt, die durch vielfältige soziale Strukturen zusätzlich angereichert sein kann und meistens ist. Alle diese Strukturen sind zugleich wirksam und spielen auf je spezifische Weise ineinander. Je mehr man dieses komplexen Netzwerke von Interaktionen versteht, um so mehr erscheint es einerseits fast unmöglich, dass überhaupt sogenannte ‚wahre‘ Aussagen zwischen Menschen zustande kommen können, auf der anderen Seite grenzt es an ein Wunder, wenn sie denn zustande kommen.
  3. Die folgenden Überlegungen erheben nicht (!) den Anspruch auf eine vollständige Erläuterungen aller Details (das müssen standardmäßig die Einzelwissenschaften leisten), sondern bilden den Versuch, die übergreifenden Zusammenhänge sichtbar zu machen, die man verstehen sollte (dazu als Hilfe das Schaubild Nr.1).
    Wissen und das Andere des Wissens

    Bild Nr.1 Wissen und das Andere des Wissens

     

    Wissen

  4. Die Sprachbeispiele aus dem vorausgehenden Abschnitt hatten schon gezeigt, dass man unterscheiden muss zwischen den sprachlichen Ausdrücken E als solchen und dem Sachverhalt Xe in der unterstellten Außenwelt. Dabei wurde ferner deutlich, dass es neben dem eigentlichen Sachverhalt, der in der Außenwelt vorliegen kann oder nicht, eine subjektive Bedeutung Y zum Ausdrucks E geben muss, die der einzelne Sprecher/Hörer für sich gelernt hat. Nur unter Voraussetzung dieser subjektiven Bedeutung Y kann ein Sprecher/ Hörer entscheiden, ob ein wahrgenommener Sachverhalt Xe mit der Bedeutung Y korrespondiert oder nicht. Und da diese Operationen sich nur im Gehirn abspielen können, wird die subjektive Bedeutung Y nicht direkt mit der Außenwelt verglichen, sondern mit der subjektiven Wahrnehmung Xs des unterstellten Sachverhalts Xe. Dass einer subjektive Wahrnehmung Xs tatsächlich ein Xe in der Außenwelt entspricht wird durch die Reaktion anderer Sprecher/ Hörer bestätigt, wenn diese den unterstellten Sachverhalt Xe auch wahrnehmen können.
  5. Diese Überlegungen führten zur Annahme der Menge der Phänomene PH, die jeder Sprecher/ Hörer in seinem Gehirn hat; sie werden entweder von sensorischen Ereignissen gespeist oder von internen Vorgängen im Gehirn (z.B. erinnern). Diese Phänomene sind subjektiv bewusst und konstituieren im Kern das, was man gewöhnlich Bewusstsein nennt. Phänomene können ‚konkret‘ sein, oder verallgemeinerte, abstrahierte ‚Strukturen‘ darstellen oder gar komplexe ‚Modelle‘ sein, innerhalb deren vielerlei Elemente in Beziehung gesetzt werden.
  6. Sofern die Strukturen des Bewusstseins gegenständlich sind, objekthaft, dazu noch verknüpft mit sprachlichen Strukturen, handelt es sich um Strukturen, die Wissen repräsentieren. Man kann z.B. Gegenstände und Eigenschaften benennen, Beziehungen zwischen Objekten, Muster, Abläufe; man kann alternative Szenarien denken oder aktuelle Zustände im Hinblick auf die vorausgehenden Zustände rekonstruieren. Dies alles ergibt aber keinerlei Präferenzen für irgend eine Bevorzugung, für irgend eine Wahl, welche Aspekte des wißbaren Möglichkeitsraumes man ‚bevorzugen‘ sollte. Wissen als solches kann aufzeigen was war oder was möglich ist, es reicht aber nicht aus, eine ‚Richtung‘ für den zukünftigen Prozess anzugeben.
  7. Dazu kommt noch ein limitierender Faktor im Zugriff auf das Wissen. Im Bewusstsein finden sich aktuelle Phänomene, die in diesem Augenblick bewusst sind. Am Beispiel des Phänomens ‚Erinnern‘ wissen wir aber, dass wir aktuell immer nur einen kleinen Bruchteil von all dem bewusst haben, was wir potentiell bewusst haben könnten. Ob wir tatsächlich etwas erinnern können, wissen wir erst, wenn wir wirklich etwas erinnern. Wie groß das tatsächlich abrufbare potentielle Wissen eines Menschen letztlich ist, wissen wir nicht wirklich. Man kann nur Schätzungen berechnen.

    Das Andere zum Wissen

  8. Im Phänomenraum haben wir neben dem ‚Wissen‘ noch andere Phänomene, die hier global als das ‚Andere zum Wissen‚ bezeichnet werden. Es ist eine Vielzahl unterschiedlicher Phänomene, die alle die Eigenschaft haben, dass sie unsere grundlegende Befindlichkeit konstituieren.
  9. Wir können uns eher ‚positiv‘, ‚hoffnungsvoll‘, ‚glücklich‘, ‚freudig‘ usw. erleben oder aber ’negativ‘, hoffnungslos‘, ‚unglücklich‘, ‚freudlos‘ usw.
  10. Zum Teil haben wir den Eindruck, dass das aktuelle Wissen um die Situation und um uns selbst ein Auslöser für die positiven oder negativen Stimmungen sein kann. Dies kann uns zusätzlich anfeuern, inspirieren, unternehmungslustig machen, neugierig, usw. bzw. umgekehrt uns ‚runter ziehen‘, uns ‚lähmen‘, ‚demotivieren‘, usw.
  11. In anderen Fällen sind es körperliche Zustände (‚Schmerzen‘) oder körperliche Vorgänge (‚Hunger‘, ‚Durst‘, ‚Müdigkeit‘, ..), die uns beeinflussen.
  12. In wieder anderen Fällen ist uns möglicherweise nicht direkt klar, was eine bestimmte Stimmungslage in uns auslöst. Der Körper bietet eine Vielzahl von Prozessen, die sich auf unsere Stimmungslage auswirken können, ohne das wir sie unmittelbar in dieser Funktion erkennen könne.
  13. Generell kann man beobachten, dass diese internen Stimmungslagen (mit ihrer riesigen Bandbreite an Varianten) sich grundsätzlich dahingehend auswirken können, ob man überhaupt Wissen entwickelt bzw. was man innerhalb des verfügbaren Wissensraumes präferiert. Diese Einwirkung auf den Wissensraum kann dem Betreffenden weitgehend bewusst sein, oder aber eher nicht, fast unbewusst; die berühmten ‚Bauchentscheidungen‘. Ob eine Entscheidung eher ‚mit Bewusstsein‘ erfolgt oder eher ‚kaum bewusst‘ muss nichts über die Qualität der Entscheidung aussagen.
  14. Dies hat damit zu tun, dass die Einwirkung des bewussten Wissens von Welt und Selbst auch auf die vielfältigen Stimmungsformen einwirken kann und in einer Art ‚emotionalen Speicher‘ abgelegt werden. Wenn es dann um bestimmte bewusste Vorstellungen geht, was man tun sollte, und ähnliche Situationen im emotionalen Speicher vorhanden sind, dann kann sich jemand daran erinnern und auf dieser Basis eine Präferenz entwickeln, die nicht sehr bewusst sein muss, aber verfügbar und wirksam ist.
  15. Die Schwierigkeit bei solchen eher ‚unklaren emotionalen Einwirkungen‘ ist, dass jegliche Form von Wissen automatisch gespeichert wird, also ohne bewusste Entscheidungen. Dies schließt mit ein, dass auch eher zufällige Konstellation abgespeichert werden, obgleich sie vielleicht ’sinnlos‘ oder gar ‚irreführend‘ sind. Wenn man sich dann ‚kritiklos‘, d.h. eher ’spontan‘ auf solche diffusen emotionalen Erinnerungen einlässt, ist die Wahrscheinlichkeit hoch, dass man Präferenzen zulässt, die wenig konstruktiv sind.
  16. Auf der anderen Seite spielt natürlich die Qualität des verfügbaren Wissens eine Rolle. Wenn jemand nur wenig Wissen zur Verfügung hat, das zudem noch sehr einfach, wenig differenziert ist, dann kann diese Person die Welt in ihrer Vielfalt, in ihren tiefen Verflechtungen, kaum oder gar nicht wahrnehmen; kann nicht angemessen verstehen. Dies kann zu groben Vereinfachungen, Entstellungen, Falschurteilen führen, die im eigenen Fühlen sehr schlechte, negative, zerstörerische Stimmungen erzeugen können, die dann das Ganze noch weiter verstärken. Es kann aber auch sein, dass die ‚einfache‘ Sicht einer komplizierten Situation auch positiv wirkt, weil der/ die Betreffende viele Bedrohungen und Gefahren erst gar nicht wahrnimmt.
  17. Interessant ist noch die Variante, dass sich ein schwaches, einfaches Wissen durch zugleich positive Gefühle dennoch in eine gute Richtung entwickeln könnte. Setzt aber voraus, dass die ‚positiven Stimmung‘ im verfügbaren Wissensraum jene Bereiche und Richtungen favorisieren, die grundsätzlich für den/ die Betreffende(n) vorteilhaft sind.
  18. Damit stellt sich die grundlegende Frage, woher unsere Stimmungen kommen? Beim Wissen haben wir gelernt, dass neben körperlich bedingten Besonderheiten, eigene, aktive Lernprozesse den Erwerb und den Aufbau von Wissen ermöglichen. Dies ist kein einliniger Prozess, da er von einer Vielzahl von Faktoren (und ‚Zufällen‘) bestimmt sein kann.
  19. Bei den Stimmungen, Emotionen ist dies weniger klar. Einiges (Bedürfnisse, Triebe) ist durch Körperprozesse gesteuert; anderes hängt von bio-chemischen Prozessen im Gehirn ab; anderes sind angeborene Instinktmuster, die zu Angst, Lachen, Aggression, Wut, Freue usw. führen. Doch lässt sich nicht immer für alle bekannten Stimmungsphänomene eines der bekannten Erklärungsmuster haftbar machen. Im übrigen wäre es natürlich fatal, wenn der Mensch trotz seines elaborierten Wissens über solche angeborenen Muster hinaus keine weiteren Möglichkeiten besitzen würde, wie im Falle des Wissens auch emotional-stimmungsmäßig im echten Sinne ‚lernen‘ zu können. Bei dem engen Wechselspiel von Wissen und Stimmungen im Gesamt des Handelns wäre es eher merkwürdig, wenn dem offenen Wissensprozess nicht auch irgendwo eine ‚Offenheit im Fühlen‘ entsprechen würde. Bislang gibt es in diese Richtung allerdings noch keinerlei Forschung.

    Gehirn im Körper

  20. Was immer wir über das Bewusstsein und den Raum der Phänomene sagen können, gegenüber den Philosophen der vorausgehenden Jahrhunderte und Jahrtausende wissen wir heute, dass das Bewusstsein eine Leistung des Gehirns ist und dieses Gehirn wiederum ist eingebettet in einen komplexen Körper, der wiederum Teil einer (unterstellten) intersubjektiven Außenwelt ist.
  21. Die modernen Forschungen zum Gehirn und zum Körper haben in diesem Feld auch immer mehr Funktionalitäten am Gehirn aufgedeckt und das Zusammenspiel von Bewusstsein und Gehirn sowie Gehirn und Körper in ersten Ansätzen sichtbar gemacht. Durch die prinzipielle Nicht-Messbarkeit von Bewusstseinsphänomenen ist eine Forschung zum Zusammenhang von Bewusstsein einerseits und Gehirn/ Körper andererseits (Neuropsychologie, Neurophänomenologie) zwar notorisch schwierig, aber immerhin mehren sich Hinweise auf allerlei Wechselwirkungen.
  22. Die wichtigste Einsicht ist wohl jene, dass die bewussten Bilder von der Welt, die wir haben, nicht die Welt selbst sind, sondern jene Bilder/ Modelle, die das Gehirn aufgrund der vielen sensorischen und propriozeptiven (sensorische Daten aus dem Körper) Daten eigenständig interpretiert und zusammenbaut. Dass der einzelne im Alltag weitgehend mit der Illusion leben kann, dass er die ‚reale‘ Welt sieht und nicht nur ein virtuelles Gehirn-Modell der Welt demonstriert, wie gut die Gehirne im Laufe von vielen Millionen Jahren sich entwickelt haben.
  23. Für das praktische Überleben in dieser Welt ist diese Fähigkeit des Gehirns von einer kaum zu überschätzenden positiven Bedeutung. Der Nachteil an dieser Funktionsweise ist, dass all das Wissen, das Menschen sich aufbauen, sich ebenfalls an den virtuellen Bildern des Bewusstseins orientiert und eine Diskrepanz mit der realen Welt nicht so ohne weiteres auffallen muss.
  24. Dass Menschen sich ganz eigenwillige Modelle der Welt in ihrem Kopf zurecht legen, die sie für ‚wahr‘ halten, können wir in allen Jahrhunderten und heute in der ganzen Welt beobachten. Diese Weltbilder können ziemlich verschroben sein, aber Menschen schaffen es, mit solchen verschrobenen Bildern ihre Welt zu sehen, danach zu handeln, und andere Menschen nach diesen falschen Bildern zu be- oder dann auch zu verurteilen.

    Evolution Total

  25. So viel schon ein einzelner Körper, ein einzelner Organismus über die Welt erzählen kann, so richtig spannend wird es erst, wenn man die Dimension der Zeit hinzu nimmt.
  26. Als die Geologen entdeckten, dass die verschiedenen Ablagerungsschichten des Erdreichs aus unterschiedlichen Zeiträumen stammen, dass diese nicht nur ein paar tausend, sondern viele Millionen oder gar Milliarden Jahre auseinander lagen, da eröffnete sich für die Wissenschaft eine grandiose neue Perspektive.
  27. Mit dem immer besseren Verstehen der Erdentwicklung, der Plattenverschiebungen, der unterschiedlichen Erdteile, der z.B. rabiaten Klimaschwankungen zwischen Eiszeiten (bis zu vielen Millionen Jahren) und Warmzeiten, Meerespiegel Abfällen und Aufstiegen, Erdbeben, Vulkanismus eröffnete sich auch für die Wissenschaften vom Leben (Biologie, …) neue Ansatzpunkte, auch die Entwicklung des Lebens selbst in den verschiedenen Phasen besser untersuchen zu können.
  28. Parallel deckte auch die Physik auf, dass das ganze Universum zu sehen ist als ein gigantischer Prozess mit einem messbaren Anfang genannt ‚Big Bang‘, der dann über die Entstehung der Atome und Moleküle zu Staubwolken führte, Sternentstehungen, Planeten, Galaxien, die sich voneinander immer mehr entfernen. Außerdem lernte man, dass der Prozess der Sternentstehung und des Sternesterbens nach bestimmten Regeln abläuft, die bis heute wirksam sind. So wird unsere Heimatsonne in ca. 0.9 Mrd Jahren ab heute die kritische Temperaturgrenze für höhere Lebewesen von +30o erreichen, was ein Leben auf der Erde schwer bis unmöglich machen wird (Siehe: Wikipedia-DE, Sonne, 2017).
  29. Eine wichtige Botschaft aus all diesen neuen Erkenntnissen ist, dass das biologische Leben zu einer Steigerung der Komplexität auf der Erde geführt hat, die nahezu unvorstellbar ist. Die Komplexität eines einzelnen menschlichen Körpers entspricht in etwa 120 Galaxien im Format der Milchstraße. In jeder Sekunde redet eine Zelle im Gehirn mit bis zu 100.000 anderen Zellen im Gehirn bei einer geschätzen Gesamtzahl von ca. 80 – 100 Milliarden Gehirnzellen. Gleichzeitig kommuniziert eine einzelne Körperzelle (geschätzte Anzahl ca. 34 Billionen (= 34 x 1012) mit bis zu mehreren Millarden anderen Zellen über chemische Botenstoffe. Ein vollständiges Verständnis all dieser Vorgänge entzieht sich bislang dem wissenschaftlichen Verständnis.
  30. Innerhalb dieser allgemeinen Komplexitätszunahme gibt es ferner das Phänomen des sprachlichen Denkens bei homo sapiens. Diese extrem späte Lebensform kann die ‚Gegenwart im Wahrnehmen und Denken‘ dadurch überwinden, dass er mittels eines ‚Gedächtnisses‘ aktuelle Gegenwarte abspeichern und diese dann mit der jeweils neuen Gegenwart vergleichen kann. Dadurch lassen sich Veränderungen erfassen, Muster, Strukturen, Beziehungen, Regeln und vieles mehr. Auf diese Weise kann der homo sapiens die biologische Veränderungsgeschwindigkeit durch Vererbung über Generationen extrem beschleunigen. Im Prinzip kann er sofort Änderungen bewirken.
  31. Zugleich hat homo sapiens neue Technologien entwickelt, die Prinzipien biologischer Strukturen in Form von künstlichen Maschinen in neuer Form verfügbar macht. Dazu gehören Computer, Datenspeicher und Datennetzwerke. Damit konnte er die Veränderungsgeschwindigkeit nochmals erheblich steigern, so stark, dass er selber jetzt ein Bewältigungsproblem hat. Im Wissen des homo sapiens kann sich quasi das ganze Universum wie in einem Spiegel selbst anschauen und bei vollem Bewusstsein sich selbst umbauen. Fragt sich, wohin dies führen wird.

Für eine Fortsetzung siehe HIER.

Pausenmusik 🙂

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

Offenbarung – Der blinde Fleck der Menschheit

PDF

Als Nachhall zur Diskussion des Artikels von Fink hier ein paar Überlegungen, dass der durch die Religionen vereinnahmte Begriff der ‚Offenbarung‘ ein Grundbegriff ist, der wesentlich zum Menschen generell gehört, bevor irgendeine Religion darauf einen Anspruch anmelden kann.

I. KONTEXT

Diesen Beitrag könnte man unter ‚Nachwehen‘ einordnen, Nachwehen zu dem letzten Beitrag. In diesem Beitrag hatte ich versucht, deutlich zu machen, dass die üblichen Vorgehensweisen, in die neuen Erkenntnisse zur Entstehung, Struktur und Dynamik des physikalischen Universums, den Glauben an ein sehr bestimmtes, klassisches Gottesbild zu ‚interpolieren‘, heute nicht mehr überzeugen können, ja, abgelehnt werden müssen als eher wegführend vom wahren Sachverhalt.

Zu dieser kritisch-ablehnenden Sicht tragen viele Argumente bei (siehe einige in dem genannten Artikel). Besonders erwähnen möchte ich hier nochmals das Buch ‚Mysticism and Philosophy‘ von Stace (1960) [ siehe Teil 3 einer Besprechung dieses Buches ]. Stace konzentriert sich bei seinen Analysen an der Struktur der menschlichen Erfahrung, wie sie über Jahrtausende in vielen Kulturen dieser Welt berichtet wird. Während diese Analysen darauf hindeuten, dass der Kern der menschlichen Erfahrungen eher gleich erscheint, erklärt sich die Vielfalt aus der Tatsache, dass — nach Stace — jede Erfahrung unausweichlich Elemente einer ‚Interpretation‘ umfasst, die aus den bisherigen Erfahrungen stammen. Selbst wenn Menschen das Gleiche erleben würden, je nach Zeit, Kultur, Sprache können sie das Gleiche unterschiedlich einordnen und benennen, so dass es über den Prozess des Erkennens etwas ‚anderes‘ wird; es erscheint nicht mehr gleich!

In einem sehr kenntnisreichen Artikel The Myth of the Framework von Karl Popper, veröffentlicht im Jahr 1994 als Kapitel 2 des Buches The Myth of the Framework: In Defence of Science and Rationality [Anmerkung: Der Herausgeber M.A.Notturno weist im Epilog zum Buch darauf hin, dass die Beiträge zum Buch schon in den 1970iger Jahren vorlagen!] hatte sich Popper mit diesem Phänomen auch auseinandergesetzt, allerdings nicht von der ‚Entstehung‘ her (wie kommt es zu diesen Weltbildern), sondern vom ‚Ergebnis‘ her, sie sind jetzt da, sie sind verschieden, was machen wir damit? [Siehe eine Diskussion des Artikels von Popper als Teil des Beitrags].

Angeregt von diesen Fragen und vielen weiteren Ideen aus den vorausgehenden Einträgen in diesem Blog ergeben sich die folgenden Notizen.

II. DER ‚BIG BANG‘ HÖRT NIE AUF …

Die Geschichte beginnt im Alltag. Wenn man in die Gegenwart seines Alltags eingetaucht ist, eingelullt wird von einem Strom von scheinbar selbstverständlichen Ereignissen, dann kann man leicht vergessen, dass die Physik uns darüber belehren kann, dass dieser unser Alltag eine Vorgeschichte hat, die viele Milliarden Jahre zurück reicht zur Entstehung unserer Erde und noch viel mehr Milliarden Jahre bis zum physikalischen Beginn unseres heute bekannten Universums. Obgleich dieses gewaltige Ereignis mitsamt seinen gigantischen Nachwirkungen mehr als 13 Milliarden Jahre zurück liegt und damit — auf einer Zeitachse — längst vorbei ist, passé, gone, … haben wir Menschen erst seit ca.50 – 60 Jahren begonnen, zu begreifen, dass das Universum in einer Art ‚Urknall‘ ins physikalische Dasein getreten ist. Was immer also vor mehr als 13 Milliarden Jahren geschehen ist, wir selbst, wir Menschen als Exemplare der Lebensform homo sapiens, haben erst vor wenigen Jahrzehnten ‚gelernt‘, dass unsere aktuelle Gegenwart bis zu solch einem Ereignis zurück reicht. Das reale physikalische Ereignis ‚Big Bang‘ fand also erst viele Milliarden Jahre später in den Gehirnen und damit im Bewusstsein von uns Menschen (zunächst nur wenige Menschen von vielen Milliarden) statt. Erst im schrittweisen Erkennen durch die vielen tausend Jahre menschlicher Kultur entstand im Bewusstsein von uns Menschen ein virtuelles Wissen von etwas vermutet Realem. Das reale Ereignis war vorbei, das virtuelle Erkennen lies es viel später in einem realen Erkenntnisprozess virtuell wieder entstehen. Vorher gab es dieses Ereignis für uns Menschen nicht. So gesehen war das Ereignis indirekt ‚gespeichert‘ im physikalischen Universum, bis diese Erkenntnisprozesse einsetzten. Welch gigantische Verzögerung!

III. OFFENBARUNG

Der Begriff ‚Offenbarung‘ ist durch seine Verwendung in der zurückliegenden Geschichte sehr belastet. Vor allem die großen Religionen wie Judentum, Christentum und Islam haben durch ihre Verwendung des Begriffs ‚Offenbarung‘ den Eindruck erweckt, dass Offenbarung etwas sehr Besonderes sei, die Eröffnung von einem Wissen, das wir Menschen nicht aus uns selbst gewinnen können, sondern nur direkt von einem etwas, das mit der Wortmarke ‚Gott‘ [die in jeder Sprache anders lautet] gemeint sei. Nur weil sich dieses etwas ‚Gott‘ bestimmten, konkreten Menschen direkt zugewandt habe, konnten diese ein spezielles Wissen erlangen, das diese dann wiederum ‚wortwörtlich‘ in Texten festgehalten haben, die seitdem als ‚heilige‘ Texte gelten.

Im Fall der sogenannten heiligen Schriften des Judentums und des Christentums hat intensive wissenschaftliche Forschung seit mehr als 100 Jahren gezeigt, dass dies natürlich nicht so einfach ist. Die Schriften sind alle zu unterschiedlichen Zeiten entstanden, bisweilen Jahrhunderte auseinander, wurden mehrfach überarbeitet, und was auch immer ein bestimmter Mensch irgendwann einmal tatsächlich gesagt hat, das wurde eingewoben in vielfältige Interpretationen und Überarbeitungen. Im Nachhinein — von heute aus gesehen also nach 2000 und mehr Jahren — zu entscheiden, was ein bestimmter Satz in hebräischer oder griechischer Sprache geschrieben, tatsächlich meint, ist nur noch annäherungsweise möglich. Dazu kommt, dass die christliche Kirche über tausend Jahre lang nicht mit den Originaltexten gearbeitet hat, sondern mit lateinischen Übersetzungen der hebräischen und griechischen Texte. Jeder, der mal Übersetzungen vorgenommen hat, weiß, was dies bedeutet. Es wundert daher auch nicht, dass die letzten 2000 Jahre sehr unterschiedliche Interpretationen des christlichen Glaubens hervorgebracht haben.

Im Fall der islamischen Texte ist die Lage bis heute schwierig, da die bisher gefundenen alten Manuskripte offiziell nicht wissenschaftlich untersucht werden dürfen [Anmerkung: Siehe dazu das Buch von Pohlmann (2015) zur Entstehung des Korans; eine Besprechung dazu findet sich  hier: ]. Die bisherigen Forschungen deuten genau in die gleiche Richtung wie die Ergebnisse der Forschung im Fall der jüdisch-christlichen Tradition.

Die Befunde zu den Überlieferungen der sogenannten ‚heiligen‘ Schriften bilden natürlich nicht wirklich eine Überraschung. Dies liegt eben an uns selbst, an uns Menschen, an der Art und Weise, wie wir als Menschen erkennen, wie wir erkennen können. Das Beispiel der empirischen Wissenschaften, und hier die oben erwähnte Physik des Universums, zeigt, dass alles Wissen, über das wir verfügen, im Durchgang durch unseren Körper (Sinnesorgane, Körperzustände, Wechselwirkung des Körpers mit der umgebenden Welt, dann Verarbeitung Gehirn, dann Teile davon im Bewusstsein) zu virtuellen Strukturen in unserem Gehirn werden, die partiell bewusst sind, und die uns Teile der unterstellten realen Welt genau so zeigen, wie sie im bewussten Gehirn gedacht werden, und zwar nur so. Die Tatsache, dass es drei große Offenbarungsreligionen gibt, die sich alle auf das gleiche Etwas ‚Gott‘ berufen, diesem Gott dann aber ganz unterschiedliche Aussagen in den Mund legen [Anmerkung: seit wann schreiben Menschen vor, was Gott sagen soll?], widerspricht entweder dem Glauben an den einen Gott, der direkt spricht, oder diese Vielfalt hat schlicht damit zu tun, dass man übersieht, dass jeder Mensch ‚Gefangener seines Erkenntnisprozesses‘ ist, der nun einmal ist, wie er ist, und der nur ein Erkennen von X möglich macht im Lichte der bislang bekannten Erfahrungen/ Erkenntnisse Y. Wenn jüdische Menschen im Jahr -800 ein X erfahren mit Wissen Y1, christliche Menschen in der Zeit +100 mit Wissen Y2 und muslimische Menschen um +700 mit Wissen Y3, dann ist das Ausgangswissen jeweils völlig verschieden; was immer sie an X erfahren, es ist ein Y1(X), ein Y2(X) und ein Y3(X). Dazu die ganz anderen Sprachen. Akzeptiert man die historische Vielfalt, dann könnte man — bei gutem Willen aller Beteiligten — möglicherweise entdecken, dass man irgendwie das ‚Gleiche X‘ meint; vielleicht. Solange man die Vielfalt aber jeweils isoliert und verabsolutiert, so lange entstehen Bilder, die mit Blick auf den realen Menschen und seine Geschichte im realen Universum kaum bis gar nicht zu verstehen sind.

Schaut man sich den Menschen und sein Erkennen an, dann geschieht im menschlichen Erkennen, bei jedem Menschen, in jedem Augenblick fundamental ‚Offenbarung‘.

Das menschliche Erkennen hat die Besonderheit, dass es sich bis zu einem gewissen Grad aus der Gefangenschaft der Gegenwart befreien kann. Dies gründet in der Fähigkeit, die aktuelle Gegenwart in begrenzter Weise erinnern zu können, das Jetzt und das Vorher zu vergleichen, von Konkretem zu abstrahieren, Beziehungen in das Erkannte ‚hinein zu denken‘ (!), die als solche nicht direkt als Objekte vorkommen, und vieles mehr. Nur durch dieses Denken werden Beziehungen, Strukturen, Dynamiken sichtbar (im virtuellen Denken!), die sich so in der konkreten Gegenwart nicht zeigen; in der Gegenwart ist dies alles unsichtbar.

In dieser grundlegenden Fähigkeit zu erkennen erlebt der Mensch kontinuierlich etwas Anderes, das er weder selbst geschaffen hat noch zu Beginn versteht. Er selbst mit seinem Körper, seinem Erkennen, gehört genauso dazu: wir wurden geboren, ohne dass wir es wollten; wir erleben uns in Körpern, die wir so nicht gemacht haben. Alles, was wir auf diese Weise erleben ist ’neu‘, kommt von ‚außen auf uns zu‘, können wir ‚aus uns selbst heraus‘ nicht ansatzweise denken. Wenn irgendetwas den Namen ‚Offenbarung‘ verdient, dann dieser fundamentale Prozess des Sichtbarwerdens von Etwas (zu dem wir selbst gehören), das wir vollständig nicht gemacht haben, das uns zu Beginn vollständig unbekannt ist.

Die Geschichte des menschlichen Erkennens zeigt, dass die Menschen erst nur sehr langsam, aber dann immer schneller immer mehr von der umgebenden Welt und dann auch seit kurzem über sich selbst erkennen. Nach mehr als 13 Milliarden Jahren erkennen zu können, dass tatsächlich vor mehr als 13 Milliarden Jahren etwas stattgefunden hat, das ist keine Trivialität, das ist beeindruckend. Genauso ist es beeindruckend, dass unsere Gehirne mit dem Bewusstsein überhaupt in der Lage sind, virtuelle Modelle im Kopf zu generieren, die Ereignisse in der umgebenden Welt beschreiben und erklären können. Bis heute hat weder die Philosophie noch haben die empirischen Wissenschaften dieses Phänomen vollständig erklären können (obgleich wir heute viel mehr über unser Erkennen wissen als noch vor 100 Jahren).

Zu den wichtigen Erkenntnissen aus der Geschichte des Erkennens gehört auch, dass das Wissen ‚kumulierend‘ ist, d.h. es gibt tiefere Einsichten, die nur möglich sind, wenn man zuvor andere, einfachere Einsichten gemacht hat. Bei der Erkenntnis des großen Ganzen gibt es keine ‚Abkürzungen‘. In der Geschichte war es immer eine Versuchung, fehlendes Wissen durch vereinfachende Geschichten (Mythen) zu ersetzen. Dies macht zwar oft ein ‚gutes Gefühl‘, aber es geht an der Realität vorbei. Sowohl das kumulierende Wissen selbst wie auch die davon abhängigen alltäglichen Abläufe, die Technologien, die komplexen institutionellen Regelungen, die Bildungsprozesse usw. sie alle sind kumulierend.

Aus diesem kumulierenden Charakter von Wissen entsteht immer auch ein Problem der individuellen Verarbeitung: während dokumentiertes und technisch realisiertes Wissen als Objekt durch die Zeiten existieren kann, sind Menschen biologische Systeme, die bei Geburt nur mit einer — wenngleich sehr komplexen — Grundausstattung ihren Lebensweg beginnen. Was immer die Generationen vorher gedacht und erarbeitet haben, der jeweils neue individuelle Mensch muss schrittweise lernen, was bislang gedacht wurde, um irgendwann in der Lage zu sein, das bisher Erreichte überhaupt verstehen zu können. Menschen, die an solchen Bildungsprozessen nicht teilhaben können, sind ‚Fremde‘ in der Gegenwart; im Kopf leben sie in einer Welt, die anders ist als die umgebende reale Welt. Es sind wissensmäßig Zombies, ‚Unwissende‘ in einem Meer von geronnenem Wissen.

Sollte also das mit der Wortmarke ‚Gott‘ Gemeinte eine Realität besitzen, dann ist der Prozess der natürlichen Offenbarung, die jeden Tag, in jedem Augenblick ein wenig mehr die Erkenntnis Y über das uns vorgegebene Andere ermöglicht, die beste Voraussetzung, sich diesem Etwas ‚X = Gott‘ zu nähern. Jede Zeit hat ihr Y, mit dem sie das Ganze betrachtet. Und so sollte es uns nicht wundern, dass die Geschichte uns viele Y(X) als Deutungen des Etwas ‚X = Gott‘ anbietet.

Empirisches Wissen, Philosophisches Wissen, religiöses Wissen kreisen letztlich um ein und dieselbe Wirklichkeit; sie alle benutzen die gleichen Voraussetzungen, nämlich unsere menschlicher Existenzweise mit den vorgegebenen Erkenntnisstrukturen. Niemand hat hier einen wesentlichen Vorteil. Unterschiede ergeben sich nur dadurch, dass verschiedenen Kulturen unterschiedlich geschickt darin sind, wie sie Wissen kumulieren und wie sie dafür Sorge tragen, dass alle Menschen geeignete Bildungsprozesse durchlaufen.

IV. VEREINIGTE MENSCHHEIT

Schaut man sich an, wie die Menschen sich auch nach den beiden furchtbaren Weltkriegen und der kurzen Blüte der Idee einer Völkergemeinschaft, die Ungerechtigkeit verhindern sollte, immer wieder — und man hat den Eindruck, wieder mehr — in gegenseitige Abgrenzungen und Verteufelungen verfallen, vor grausamen lokalen Kriegen nicht zurück schrecken, die Kultur eines wirklichkeitsbewussten Wissens mutwillig schwächen oder gar zerstören, dann kann man schon mutlos werden oder gar verzweifeln.

Andererseits, schaut man die bisherige Geschichte des Universums an, die Geschichte des Lebens auf der Erde, die Geschichte des homo sapiens, die letzten 10.000 Jahre, dann kommt man nicht umhin, festzustellen, dass es eine dynamische Bewegung hin zu mehr Erkenntnis und mehr Komplexität gegeben hat und noch immer gibt. Und wenn man sieht, wie wir alle gleich gestrickt und auf intensive Kooperation angewiesen sind — und vermutlich immer mehr –, dann erscheinen die Menschen eher wie eine Schicksalsgemeinschaft, wie ‚earth children‘, wie eine ‚Gemeinschaft von Heiligen kraft Geburt‘!

Das Wort ‚Heilige‘ mag alle irritieren, die mit Religion nichts verbinden, aber die ‚Heiligen‘ sind in den Religionen alle jene Menschen, die sich der Wahrheit des Ganzen stellen und die versuchen, aus dieser Wahrheit heraus — ohne Kompromisse — zu leben. Die Wahrheit des Ganzen ist für uns Menschen primär diese Grundsituation, dass wir alle mit unseren Körpern, mit unserem Erkennen, Teil eines Offenbarungsprozesses sind, der für alle gleich ist, der alle betrifft, und aus dem wir nicht aussteigen können. Wir sind aufeinander angewiesen. Anstatt uns gegenseitig zu bekriegen und abzuschlachten, also die ‚Bösen‘ zu spielen, wäre es näherliegender und konstruktiver, uns als ‚Heilige‘ zu verhalten, die bereit sind zum Erkennen, die bereit sind aus der Erkenntnis heraus zu handeln. Das alles ist — wie wir wissen können — nicht ganz einfach, aber es hat ja auch niemand gesagt, dass es einfach sei. Das Leben auf der Erde gleicht eher einem Expeditionschor, das im Universum an einer bestimmten Stelle gelandet ist, und jetzt den Weg zum Ziel finden muss. Wir brauchen keine TV-Reality-Shows, wir selbst sind die radikalste Reality-Show, die man sich denken kann. Und sie tritt gerade in eine sehr heiße Phase ein [Anmerkung: … nicht nur wegen des Klimas 🙂 ].

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

KÖNNEN UNSERE GEFÜHLE WAHR SEIN? – DIE ZUKUNFT WARTET NICHT – Teil 3a

DER MENSCH ALS HANDELNDER

  1. In dem vorausgehenden Blogeintrag zur anstürmenden Zukunft wurde u.a. angedeutet, dass wir als Menschen, als homo sapiens, bei aller Komplexität des modernen Lebens, noch immer die Handelnden sind, jene, die das alles zu verantworten haben.
  2. Als Teil des großen ‚Getriebes‘, das weltumspannend alles bewegt, treibt, verändert, kann man als einzelner jedoch den Eindruck bekommen, man sei ja letztlich nur ein kleines Rädchen im großen Räderwerk, ohne Einfluss, ohne Wirkung; zugleich ist jeder eingehüllt in eine subjektive Erlebniswolke von sinnlichen Eindrücken, Bedürfnissen, Emotionen, Erinnerungen, Wünschen, … die das persönliches Referenzsystem für die Wahrnehmung dessen bildet, was ist, wie auch für die Einschätzung, was sein sollte. Es hängt vom Ausmaß der zu erwartenden Belohnung oder Bestrafung ab, welche der verschiedenen Denk- und Handlungsmöglichkeiten man einen Vorzug gibt.
  3. Alles, was irgendwie ‚positiv bewertet‚ erscheint regt an, es zu tun; alles, was ‚negativ bewertet‚ erscheint, schreckt ab, bremst aus, demotiviert, macht Angst … oder  aggressiv.
  4. Die Einschätzung, ob es sich ‚lohnt‚ ein X zu tun oder eher ein Y bzw. dass es ‚ungut‚ ist, X zu tun, hängt sowohl ab von verfügbaren Erfahrungen und deren Bewertungen wie auch von einer Vielzahl unterschiedlicher Gefühle, Stimmungen, Bedürfnissen, Emotionen, Süchten… die alles ‚einhüllen‚.
  5. Für eine klare Entscheidung kann dies unübersichtlich sein, verwirrend. Jeder hat da so seine Strategien. Manche sprechen von ‚Bauchentscheidungen‚, um anzudeuten, das sie sich von Stimmungen, Gefühlen leiten lassen, die sich nicht völlig transparent in klare Entscheidungsmomente zerlegen lassen.

DER MENSCH ALS DETERMINISTISCHER AUTOMAT?

  1. Sind wir hier alle Getriebene eines Körpers, der durch seine evolutionäre Geschichte in einer Weise geprägt wurde, die aus uns letztlich dumpfe Maschinen macht, die vorprogrammiert reagieren, dumpf, reflexhaft, zufällig, letztlich ohne wirkliche eigene Verantwortung? Und haben nicht die Recht, die uns als solche biochemische Maschinen sehen, deren chemischen Prozesse man durch entsprechende Medikamente auf chemischen Weg weitgehend manipulieren kann (gegen Schmerzen, gegen Depression, für mehr Wachheit, für mehr Denkkraft …)?
  2. Wenn letztere Sicht voll zutreffen würde, wenn wir letztlich nur evolutionär vorprogrammierte Maschinen wären, dann wäre jede weiter Diskussion überflüssig, dann würde Erkenntnis, Verantwortung weiter keine Rolle spielen. Es gäbe keine Wahrheit. Alles wäre egal, es passiert einfach, weil die biochemischen Roboter genannt homo sapiens sich alle zwangsweise ausleben, ohne jede Möglichkeit der Einflussnahme.
  3. Gut, nehmen wir das einfach mal an, diesen worst case einer voll deterministischen biochemischen Maschine genannt homo sapiens. Dies würde implizieren, dass ein homo sapiens bei gleichem Input immer genau gleich antworten würde, und bei definierten Veränderungen seines Körpers, insbesondere seines Gehirns, müsste genau definierte Reaktionen auftreten. Trifft dies zu?

MENSCH ALS QUELLE VON NEUEM

  1. Eine empirische Betrachtung des Verhaltens von Menschen zeigt, dass dies auf keinen Fall zutrifft.
  2. Allein schon die Wachstums- und Alterungsprozesse zeigen, dass der Mensch ein dynamisches System ist, das sich beständig als Körper verändert.
  3. Eine ungeheure Zahl von verschiedenen Lernprozessen zeigen ferner, dass der Mensch nicht nur in der Lage ist, über angeborene Reflexe hinaus scheinbar beliebige komplexe Verhaltensmuster zu lernen, sondern er kann sogar angeborene Reflexe z.T. Umprogrammieren, überlernen.
  4. Im Lernen zeigt sich eine Beeinflussbarkeit durch die Umgebung, die in gewisser Weise aussieht, als ob man Menschen von außen beliebig steuern kann (Manipulation, Indoktrination, Abrichtung, …). Sofern man Menschen aber Freiräume lässt, sie ermutigt, auf sich selbst zu vertrauen, eigene Entscheidungen zu wagen, diese real auszuprobieren, in dem Maße kann man beobachten, dass Menschen dazu tendieren, mit ihren Möglichkeiten kreativ zu spielen, zu variieren, zu experimentieren, neue Verhaltensmuster auszuprobieren. Dies bedeutet, Menschen mit Selbstvertrauen und Handlungsspielräumen verändern ihr Verhalten, zeigen neue Muster, verändern die Umgebungen.
  5. Zu diesen auf dem beobachtbaren Verhalten basierten Einschätzungen kann man weitere hinzu fügen. Eine theoretische Untersuchung des Gehirns und seiner Zellen kann aufzeigen, dass die Gesamtheit dieser Zellen samt ihren Wechselwirkungen mindestens so mächtig sind wie eine sogenannte universelle Turingmaschine. Von dieser wurde von Alan Turing schon 1936/7 bewiesen, dass sie nicht deterministisch ist und dass ihre potentiellen Zustände grundsätzlich nicht in allen Fällen voraussagbar sind.
  6. Dass man also unter bestimmten Umständen die eine oder andere Eigenschaft biochemisch beeinflussen kann, sollte nicht zu dem Fehlschluss führen, dass man damit das komplexe Gesamtphänomen erschöpfend erklärt hätte.

BLEIBENDES GEHEIMNIS BEWUSSTSEIN

  1. Dies führt zu der eher grundsätzlichen Betrachtung, dass wir heute zwar am Menschen grob den Körper mit seinem Gehirn unterscheiden können, dass wir aber auch das Phänomen eines Bewusstseins konstatieren können und müssen, das zwar – so sieht es aus – eine Eigenschaft des Gehirns zu sein scheint, aber dennoch eine solche Eigenschaft ist, die sich nicht direkt empirisch messen lässt.
  2. Direkt am Körper und Gehirn lassen sich mittlerweile ungeheuer viele empirische Messungen vornehmen, aber das Phänomen des Bewusstseins zeigt sich bislang direkt nur dem einzelnen Gehirn in einer Art ‚Innensicht‘; wir sprechen von subjektiven Erfahrungen, von der ersten-Person-Sicht (1st-Person View), d.h. Jeder hat seine Sicht seines Bewusstseins, aber eine andere Person, ein Anderer, eine dritte Person (3rd Person View), hat keine direkte Möglichkeit, den Inhalt des Bewusstseins einer anderen Person irgendwie direkt wahr zu nehmen.
  3. Eine Auswirkung dieses Sachverhaltes besteht darin, dass es bis heute (März 2017) keine einzige wissenschaftliche Publikation gibt, die eine wissenschaftlich brauchbare Definition des Bewusstseins liefert! Auch wenn es viele Artikel und Bücher gibt, die im Titel oder im Text den Begriff ‚Bewusstsein‘ benutzen, so gibt es bislang keine wissenschaftlich brauchbare Definition von Bewusstsein. Bislang habe wir hier einen riesigen weißen Fleck auf der wissenschaftlichen Landkarte. Und je mehr Millionen Forschungsgelder bislang hier investiert wurden, um so weißer wurde dieser Fleck. Dies liegt daran, dass bislang etwas, das im Kern kein empirisches Objekt im klassischen Sinne ist, ausschließlich mit empirischen Methoden untersucht wird. Die so gewonnenen empirischen Erkenntnisse sind nicht wertlos, sie vertiefen unser Verständnis der biochemischen Maschinerie, aber sie führen uns nicht weiter im Verständnis jener Phänomene, die sich jenseits der klassisch-empirischen Perspektive andeuten.
  4. Unter Philosophen in Europa ist das Problem des Bewusstseins seit mindestens 2500 Jahren in unterschiedlichen Varianten bekannt, wirklich gelöst hat es aber noch niemand.
  5. Die Frage ist, was macht man mit Phänomenen, die ‚da‘ sind, die ein Mensch unzweifelhaft erleben kann und erlebt, für die man aber noch keine angemessene empirisch wissenschaftliche Erklärung hat?
  6. Eine bewährte Methode ist jene, solche Phänomene zu wahren, sie nicht zu verdrängen, sondern geduldig darauf zu warten, dass irgendwann doch irgendwelche Menschen die entscheidende Ideen haben werden, eventuell auch neue Untersuchungsmethoden erfinden, mit denen man die Phänomene angemessen erklären kann.
  7. Bis dahin müssen wir uns behelfen, so gut wir können.

FRAGEN DER INVARIANZ DES GESAGTEN

  1. Die Überlegungen, die jetzt folgen, werden in deutscher Sprache niedergeschrieben. Es wird angenommen, dass die wesentlichen Inhalte aber genauso zur Sprache kommen würden, wenn man dies in irgend einer anderen Sprache wie Deutsch aufschreiben würde, also etwa Englisch, Russisch, Chinesisch, Finnisch, Zulu, Türkisch usw. Es wird also eine Invarianz des Inhalts von der benutzten Sprache angenommen. Auf Englisch kann ich es – bis zu einem gewissen Grad – selbst versuchen. Bei anderen Sprachen müssten dies andere tun. Ein letzter Beweis der Invarianz wird aber schwierig sein, da es voraussetzen würde, dass die jeweiligen Philosophen mindestens mit zwei Sprachen sehr vertraut sind, die sie vergleichen könnten. Dabei würde es offen bleiben, ob ein Philosoph A der von Sprache L_DE in L_Chinesisch übersetzen würde und der Philosoph B, der von L_DE in L_Russisch übersetzen würde, letztlich tatsächlich das Gleiche übersetzen würden.
  2. Auch müsste man mit der Frage der Invarianz noch weiter gehen, indem man klären müsste, inwieweit das von mir Niedergeschriebene noch von anderen speziellen Voraussetzungen abhängig ist, die nicht auf alle Menschen zutreffen (z.B. biologisches Geschlecht, Zustände meines Wahrnehmungssystems, verfügbares Wissen usw.). Wäre dem so, dann würde das von mir Gesagte von sehr speziellen Voraussetzungen abhängen, dann würde die Frage nach der Wahrheitsfähigkeit unserer Gefühle entsprechend eingeschränkt gelten.
  3. Dazu muss ich feststellen, dass ich bislang zwar davon ausgehe, dass ich selbst ein Exemplar des homo sapiens bin, dies aber bislang niemals habe explizit wissenschaftlich feststellen lassen. Ich lebe, wie viele andere auch, als Teil einer Population, von der pauschal gesagt wird, dass sie zur Art homo sapiens gehöre. Wie weit trifft dies tatsächlich zu? Weicht meine DNA möglicherweise irgendwie ab? Im Vergleich zu welchem DNA-Maßstab? Und wenn es Abweichungen gäbe, wie viel Toleranz ist akzeptabel, um zu sagen, ich wäre ein Exemplar des homo sapiens?
  4. Und da wir davon ausgehen müssen, dass der homo sapiens sich auch ohne Gentechnik kontinuierlich weiter verändert, ist möglicherweise zu klären, wie hoch der Veränderungsgrad der homo sapiens DNA im Laufe der Zeit ist? Wie viele der Informationen auf dem DNA-Molekül ändern sich pro Jahr/ pro Jahrzehnt/ pro … ? Und was heißt hier Änderung? Verschwinden bestimmte Atome? Werden sie nur anders genutzt? Kommen neue dazu? Wieweit gibt es überhaupt einen klaren Zusammenhang zwischen DNA-Struktur und späterem Körper, Verhalten und Erleben?
  5. Eine weitere wichtige Frage wäre ja auch, wie genau das Zusammenspiel zwischen Gehirn und Körper ist? Werden tatsächlich alle Zustände des Körpers im Gehirn repräsentiert, und wenn ja, auf welche Weise? Wie wirkt das Gehirn auf die Körperzustände zurück? Wie wirkt das Gehirn auf sich selbst zurück? Wie kommunizieren die Körperzellen untereinander ohne das Gehirn? Wieweit brauchen die Körperzellen überhaupt das Gehirn? Bei ca. 37 x 10^12 Körperzellen keine leichte Frage, zumal diese ja – nach heutigem Kenntnisstand – auf komplexe Weise mit weiteren Billionen (10^12) von Bakterien kooperieren, sowohl im Körper wie auch auf der Haut.
  6. Für die folgenden Überlegungen könnte es also hilfreich sein, dass ich solche Verhaltensmuster finde, die jeder andere homo sapiens auch ausüben könnte, so dass die damit verbundenen subjektiven Erlebniszustände möglicherweise reproduzierbar und dann diskutierbar sind. Die Erlebnisse als solche wären noch nicht die mögliche Deutung! Das gleiche Erlebnis kann man grundsätzlich auf mehr als eine Weise deuten. Man müsste also gemeinsam nach einer ‚angemessenen Deutung‘ suchen.

ANGENOMMENES KOORDINATENSYSTEM

  1. In den folgenden Überlegungen gehe ich davon aus, dass wir die oben unterstellte Grundstruktur annehmen sollten, dass wir einen Körper mit einem Gehirn haben, und dass wir als homo sapiens über etwas verfügen, das hier provisorisch – nach üblichem Sprachgebrauch – ‚Bewusstsein‘ (BW) genannt wird.
  2. Es hat sich ferner eingebürgert, dass ein Mensch mit Bewusstsein auch von einem ‚Ich‘ spricht. Das ‚Ich‘ steht in Beziehung zu einem bestimmten individuellen Körper (K) (mit dessen Gehirn) und dem im Zusammenhang mit diesem Körper auftretenden ‚Bewusstsein‘ (BW), also ICH_(K,BW). Wenn also ich als Schreiber dieser Zeilen von meinem ‚Ich‘ spreche, dann spricht hier das ‚Ich‘ von dem Körper K_cagent, der zu cagent gehört, mit dem Bewusstsein BW_cagent, das als Teil dieses Körpers vorkommt, also Ich_(K_cagent, BW_cagent).

MESSBAR, NICHT-MESSBAR, REPRÄSENTIERBARKEIT

  1. Ferner gilt die Annahme, dass wir zwar den Körper (K) mit seinem Gehirn (NN) direkt empirisch messen können (nicht alles, sondern nur jene Größen, für die es geeichte Messverfahren gibt), nicht aber die Innenzustände des jeweiligen Bewusstseins (IBW). Zwar gibt es starke Hinweise auf vielfache Korrelationen zwischen messbaren Körper-Gehirn-Zuständen und Innenzuständen des Bewusstseins, aber aufgrund der Nicht-Messbarkeit der Innenzuständen des Bewusstseins handelt es sich hier immer nur um hypothetische Korrelationen CR(NN,IBW).
  2. Bisher die einzige Möglichkeit, die Innenzustände des Bewusstseins von einem Körper zu repräsentieren, besteht darin, dass das Ich eines Bewusstseins mit Körper einzelne Innenzustände samt möglichen Eigenschaften sprachlich benennt und in Strukturen einordnet, die Positionen und Dynamiken erkennen lassen. Auch wenn solche Innenzustände von Philosoph zu Philosoph im Detail abweichen würden, ließe sich über die zugeordnete Struktur dann möglicherweise das ‚Verhalten‘ dieses Elementes bewusstseinsunabhängig – also invariant gegenüber dem einzelnen Bewusstsein! – vergleichen. Diese Struktur könnte man als mathematische Struktur (STR) der beobachtbaren internen Zustände des Bewusstseins realisieren. Die Struktur eines Bewusstseins, die sich bei vielen einzelnen gleichermaßen wiederfinden würde, könnte man dann sogar als unser Bewusstsein (UBW) bezeichnen, etwas, das wir alle gemeinsam haben. Letzteres setzt voraus, dass es eine hinreichende Angemessenheit zwischen den subjektiv beobachteten Strukturelementen sowie der intersubjektiv vorzeigbaren mathematischen Struktur gibt. Dass solch eine Angemessenheit vorliegt, ist nicht zwingend. Da historisch die mathematische (mengentheoretische) Sprache unter Voraussetzung der vorgegebenen Struktur des Bewusstseins des homo sapiens entwickelt wurde, und zwar inter-subjektiv, d.h. unter Beteiligung von vielen verschiedenen Bewusstseinen, ist die Wahrscheinlichkeit hoch, dass es eine einigermaßen ‚brauchbare‘ Angemessenheit zwischen mathematischer Struktur und vorgegebener Struktur eines sich selbst erlebenden Bewusstseins gibt.

BEWUSSTSEINSINHALTE

  1. Zur Annahme eines zu einem Körper mit Gehirn gehörigen Bewusstseins gehört es, weiter anzunehmen, dass das zugehörige Ich eine Vielzahl von Bewusstseinszuständen erleben kann. Solche erlebbaren Bewusstseinszustände werden hier global als Bewusstseinsinhalte oder als Phänomene des Bewusstseins (PH) bezeichnet. Ein Phänomen ist also ein Etwas, das im Bewusstsein erlebt werden kann, etwas, das sich von Anderem unterscheidet. Jedes Phänomen impliziert ein abstraktes Ich (ICH) als abstrakten Bezugspunkt, relativ zu dem das Phänomen als Erlebbares vorkommt. Viele Philosophen sprechen daher hier auch gerne von der Intentionalität des Bewusstseins, seiner Gerichtetheit auf Etwas. Die Intentionalität erscheint dann als eine Beziehung INT(ICH,PH), wobei wir hier das abstrakte ICH mit dem Körper-Ich ICH_cagent hypothetisch gleichsetzen.
  2. In der deutschen Sprache gibt es sehr viele Begriffe, die man ziemlich direkt mit den Begebenheiten unseres Bewusstseins in Beziehung setzen kann. Wenn wir z.B. sagen, dass wir etwas sehen, dann meinen wir solche Erlebnisse die in Abhängigkeit von unseren Augen auftreten können. Entsprechend mit hören (Ohren), schmecken (Mund), berühren (Haut), riechen (Nase), usw. Die Gesamtheit der Phänomene, die wir in Abhängigkeit von unserer multimodalen sinnlichen Wahrnehmung erleben können, soll hier sinnliche Wahrnehmung (PH_sens) genannt werden und bildet eine echte Teilmenge aller Phänomene, also PH_sens c PH. Aufgrund von Experimenten wissen wir, dass die Auslöser für sinnliche Wahrnehmungen Ereignisse in der Umgebung unseres jeweiligen Körpers sind. Die Umgebung wollen wir inter-subjektive Umgebung nennen, oder auch die empirische Welt (W_emp). Die Sinnesorgane funktionieren hier wie Übersetzer: Ereignisse einer Art (aus der empirischen Welt, E_emp) werden in Ereignisse einer anderen Art (hier in neuronale Erregungsmuster für das Gehirn, E_nn) übersetzt. Diese neuronalen Erregungsmuster E_nn führen nach verschiedenen Verarbeitungsschritten im Gehirn — nach einem noch nicht ganz aufgeklärten Verfahren – zu sinnlichen Wahrnehmungsinhalten im Bewusstsein PH_sens. Wir haben also eine Kette E_emp –→ E_nn –→ PH_sens. Es ist eine interessante Frage, inwieweit die Struktur der empirischen Welt E_emp nach so vielen Verarbeitungsschritten in den Phänomenen des Bewusstseins angemessen repräsentiert wird?
  3. [ANMERKUNG: Ein Leser, der philosophisch vorgebildet ist und insbesondere die phänomenologische Methode nach Husserl kennt, wird sich möglicherweise bei der Lektüre des Textes die Haare raufen, da es für eine phänomenologische Methode wesentlich ist, die Phänomene als solche sprechen zu lassen ohne jegliche ontologische Zusatz- oder Hintergrundannahmen. Dies ist richtig. Im vorliegenden Text wird eine Methode angewendet, die von einer phänomenologischen Analyse ausgegangen ist, innerhalb dieser dann u.a. die empirische Wissenschaft als Teilmodell der phänomenologischen Methode identifiziert und herausanalysiert hat, und dann in einem weiteren reflektierten Vorgehen auf der Metaebene die phänomenologische Analyse unter Einbeziehung der empirischen Theorie wiederholt. Dieses hybride Vorgehen erlaubt es, die Vorteile beider Vorgehensweisen zu nutzen, ohne sich jedoch die jeweiligen Nachteile einzuhandeln, die zu einer wechselseitigen Paralyse führen.]  Fortsetzung folgt.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

RINGEN UM DAS BEWUSSTSEIN: VELMANS 1995 – The Relation of Consciousness to the Material World. Diskussion

Max Velmans, The Relation of Consciousness to the Material World, Journal of Consciousness Studies, Vol.2, No.3, 1995, pp.255-265

KONTEXT

  1. Diesem Blogeintrag gingen zwei Beiträge voraus, in denen jeweils die Position von Chalmers und die von Clark aus dem gleichen Band der Zeitschrift diskutiert worden sind. Chalmers hatte mit seinem Beitrag den Band eröffnet, und alle anderen nahmen in ihren Beiträgen auf den Beitrag von Chalmers Bezug.

  2. Hier ist es Velmans, der zu Chalmers Stellung bezieht.

POSITION VON VELMANS

  1. Schon vor dem Beitrag von Chalmers 1995 hatte Velmans (1991, 1993) die Position vertreten, die Chalmers als zentrale These vorträgt, auf der alles andere aufbaut: Das Phänomen des Bewusstseins ist fundamental verschieden von den Verarbeitungsprozessen, wie wir sie im Gehirn finden. (vgl. Velmans S.256) Man kann zwar partiell subjektive Erlebnisse mit beobachtbaren Prozessen im Gehirn korrelieren, aber es erscheint extrem unwahrscheinlich (‚extremely unlikely‘), dass man solche subjektiven Phänomene auf solche neuronalen Prozesse reduzieren kann. (vgl. 256)

  2. Zwar dürfte alles, was wir als real in der Welt wahrnehmen, letztlich nur eine subjektive Wahrnehmung sein (irgendwie von der realen Welt mitverursacht), aber umgekehrt folgt aus einer Nicht-Wahrnehmung nicht zwingend, dass es in der Welt nichts gibt.

  3. Nimmt man einerseits eine Nicht-Reduzierbarkeit des Phänomens des Bewusstseins auf beobachtbare neuronale Prozesse an, will aber andererseits auch nicht einen Dualismus im Sinne Descartes vertreten, bleibt u.a. die Suche nach einer Version einer Dualen-Aspekt Theorie des Bewusstseins, wie sie Chalmers in seinem Beitrag versucht hatte.

  4. Velmans verweist in diesem Kontext auf Spinoza (1732 – 177), der in der Kritik an Descartes dessen Konzept von Geist und Materie als zwei Aspekte von etwas grundlegend Anderem in der Natur vermutet haben soll. (vgl. Velmans S.256)

  5. Analog zu Chalmers folgt Velmans der Arbeitshypothese einer Dualen-Aspekt Theorie, wobei auch er – wie Chalmers – den Begriff der Information als grundlegende Eigenschaft der Natur betrachtet (Anmerkung: im Gegensatz zu Spinoza, der hier den Begriff der Substanz verwendet).

  6. In seiner weiteren Analyse nimmt Velmans an, dass subjektive Erlebnisse repräsentierender Art (‚representational‘) seien, also über etwas (‚about something‘). Daraus schließt er, dass auch die korrelierenden neuronalen Prozesse über etwas sein müssten. Ferner nimmt er an, dass diese korrelierten repräsentierenden Prozesse und Erlebnisse identische Informationen kodieren, die eben nur auf zwei verschiedene Weisen formatiert ist. (vgl. S.257)

  7. Entgegen dieser Annahme sieht Velmans verschiedene Fälle der Diskrepanz zwischen neuronalen Prozessen, die Information verarbeiten, und dem Bewusstsein.

  8. Den meisten neuronalen Prozesse im Gehirn korrelieren keine subjektiven Erlebnisse. Auch nicht im Fall des Langzeit-Gedächtnisses oder im Falle von Blind-Sicht Patienten (‚blind-sight‘). Bei letzteren verarbeitet das Gehirn visuelle Informationen, die nicht bewusst sind. Soll ein Mensch mit Blind-Sicht handeln, wird er aber dennoch ‚richtig‘ handeln, so, als ob er Bewusstsein hätte.

  9. Angesichts solcher massiven Fälle von Diskrepanzen zwischen informationsrelevanten neuronalen Prozessen und nicht aufweisbarem Bewusstsein stellt Velmans die enge Korrelation von Chalmers zwischen Bewusstsein und Aufmerksamkeit in Frage. Er befürwortet eher, die Begriffe Bewusstsein, Aufmerksamkeit und Erfahrung als gleichwertig zu betrachten und alle (nicht notwendigerweise mit Bewusstsein korrelierenden) informationsverarbeitenden Prozesse des Gehirns als davon separat zu sehen. (vgl. S.258f)

  10. Ähnlich argumentiert Velmans am Beispiel der Ergebnisgleichheit von strukturell gleichen Organisationen, wie sie Chalmers postulierte. Am Beispiel von neuronalen Implantaten stellt Velmans in Frage, ob nicht auch andere Organisationsformen gleiche Ergebnisse erzeugen könnten. (vgl. S.259f)

  11. Letztlich sind es nur spezielle Fälle von neuronalen Prozessen, die mit subjektiven Erlebnissen korrelieren.

  12. Es gäbe auch noch die theoretische Möglichkeit, dass im Prinzip alle neuronalen Prozesse mit Bewusstsein begleitet sind, dass sie aber im Normalfall nur gehemmt werden. Bewusstsein würde dann da auftreten, wo die allgemeinen informationsverarbeitenden Prozesse nicht gehemmt werden (‚released from inhibition‘). In dieser Sicht wäre das Gehirn dann wie ein Filter für Informationen.(vgl. S.261f)

  13. Betrachtet man ferner, so Velmans, wie einfach man eine Temperaturmessung mit einem Gerät messen könnte, und wie kompliziert das menschliche Nervensystem aufgebaut ist, um subjektive warm-kalt Empfindungen zu realisieren, dann spricht dies auch eher dafür, dass die Struktur von informationsverarbeitenden Prozessen nicht unbedingt etwas darüber aussagen muss, ob solche Prozesse mit Bewusstsein begleitet sind oder nicht.

  14. Diese Überlegungen führen wieder zu dem Punkt zurück, dass all das empirische Wissen über neuronale Prozesse keine Anhaltspunkte liefert, warum manche dann doch mit subjektiven Erlebnissen korrelieren. (vgl. S.262)

  15. Dass die gleichen Informationen in unterschiedlichen Formaten repräsentiert werden können, dies sehen wir mittlerweile nicht mehr als ungewöhnlich an, aber dass es überhaupt geschieht, das ist ein provozierender Sachverhalt.(vgl. S.262f)

DISKUSSION

  1. Hier einige erste Zwischenreflexionen nach der Lektüre von Chalmers, Clark und jetzt Velmans (es werden nicht alle diskussionswürdigen Punte  aufgegriffen, das wären zu viele).

  2. Sowohl Chalmers als auch Velmans sehen im Phänomen des Bewusstseins, des Bereiches der subjektiven Erlebnisse, ein Phänomen sui generis, das sich nicht auf die bekannten empirischen Beschreibungen von neuronalen Prozessen reduzieren lässt.

  3. Gegenüber von Chalmers sieht Velmans daher keine Chance, aus den Daten empirischer neuronaler Prozesse allgemeine Regeln abzuleiten, mit denen man direkt auf Ereignisse des Bewusstseins schließen könnte. Nicht einmal über die Hypothese von Chalmers, dass aus einer Strukturgleichheit von zwei Strukturen S1 und S2 etwas über die möglichen Ergebnisse von S1 und S2 gefolgert werden könne.

  4. Allerdings folgt Velmans der Dualen-Aspekt Hypothese von Chalmers, dass man den Begriff der Information als grundlegenden Begriff in der Natur einführen könne, aufgrund dessen man dann die unterschiedlichen Ausprägungen wie neuronale Prozesse und subjektive Erlebnisse als zwei unterschiedliche Zustandsformen der grundlegenden Information verstehen könne. Velmans zitiert hier auch Spinoza, der eine ähnliche Idee in seiner Auseinandersetzung mit dem Dualismus von Descartes entwickelt hatte.

  5. Dass Spinoza das gleiche Problem mit einem anderen Begriff, nämlich Substanz, für sich ‚löste‘, macht Velmans nicht hellhörig. Ist der neuere Begriff Information, so wie er von Chalmers und Velmans benutzt wird, dann so zu verstehen, dass er strukturgleich zum Begriff der Substanz bei Spinoza ist?

  6. Es fällt auf, dass Velmans in seinem Beitrag den Begriff Information nicht weiter thematisiert; er übernimmt ihn einfach in der Verwendungsweise, wie er ihn bei Chalmers vorfindet.

  7. Wie ich aber in der Diskussion des Beitrags von Chalmers schon angemerkt hatte, ist die Verwendung des Begriffs Information bei Chalmers in sich unklar. Direkt bezieht er sich auf den semantikfreien Informationsbegriff von Shannon (1948), aber in der Art und Weise wie Chalmers diesen Begriff dann verwendet tut er genau das, was Shannon in seinem Text gleich zu Beginn explizit ausgeschlossen hat. Chalmers benutzt den Begriff Information im alltäglichen Sinne, nämlich mit einer semantischen Dimension, will sagen er benutzt nicht nur Signalereignisse als solche beschränkt auf ihre Auftretenswahrscheinlichkeiten, sondern er sieht Signalereignisse immer auch als Bedeutungsträger, also als Ereignisse, die mit etwas anderem korrelieren, das sowohl für den Sender wie für den Empfänger wesentlich dazu gehört. Im gesamten biologischen Bereich ist dies so. So sind z.B. die unterschiedlichen Bestandteile eines DNA-Moleküls (in seinen verschiedenen übersetzten Formen) für das Empfängermolekül, das Ribosom, nicht einfach nur irgendwelche atomaren Verbindungen, sondern diese atomaren Verbindungen sind Signalereignisse, die vom Empfänger so interpretiert werden, als ob sie noch etwas Anderes kodieren. Dieses Andere sind jene atomaren Verbindungen (Moleküle), mittels deren dann ein neues, komplexeres Molekül, ein Protein, zusammengebaut wird. Der Output des Prozesses ist etwas anderes, als der Input. Man kann diesen komplexen Prozess natürlich ausschließlich bezüglich seiner statistischen Eigenschaften beschreiben, damit würde man aber genau das, was diesen Prozess so besonders macht, das, was ihn auszeichnet, unsichtbar machen. Shannon wusste genau, was er tat, als er erklärte, dass er die Bedeutungskomponente ausließ, aber viele seiner späteren Leser haben seine Bemerkung anscheinend schlicht überlesen.

  8. Würde man den Begriff der Information streng nach Shannon verstehen, also Information_Sh, dann werden die Arbeitshypothesen von Chalmers und Velmans schlicht unsinnig. Mit reiner Statistik versteht man weder irgendeinen neuronalen Prozess noch die Dynamik subjektiver Ereignisse.

  9. Würde man den Begriff der Information im von Shannon explizit ausgeschlossenen Sinne – also Information+ – verstehen, also mit einer expliziten semantischen Dimension, dann müsste man über die Arbeitshypothesen von Chalmers und Velmans neu nachdenken. Das wäre eine in sich reizvolle Aufgabe. Bevor man dies tut, sollte man sich dann aber die Ausgangsposition nochmals vergegenwärtigen.

  10. Ausgangspunkt für Chalmers und Velmans ist deren Überzeugung, dass sich subjektive Erlebnisse nicht durch Rekurs auf empirische Beschreibungen von neuronalen Prozessen erklären lassen. Weder aus der Art der neuronalen Prozesse (Chalmers und Velmans) noch aus der Struktur neuronaler Verschaltungen (eher nur Velmans) lassen sich irgendwelche zwingenden Schlüsse auf mögliche begleitende subjektive Erlebnisse ziehen.

  11. Eine solche abgrenzende Position macht wissenschaftsphilosophisch nur Sinn, wenn man von zwei unterschiedlichen Datenbereichen (subjektive Erlebnisse D_s und neuronale Ereignisse D_nn) ausgeht, zu denen es zwei verschiedene Theorien gibt, eine Theorie der subjektiven Erlebnisse <Ts, Int_s, D_nn, D_nn> und eine Theorie der neuronalen Ereignisse <Tnn, Int_nn>. Ferner muss man annehmen, dass mindestens die Datenbereiche beider Theorien wesentlich verschieden sind, also D_s != D_nn. Letzteres ist der Fall, da nach allgemeinem Verständnis zwar alle empirischen Daten D_e, zu denen auch die neuronalen Ereignisse D_nn gehören, zwar zugleich auch subjektive Ereignisse D_s sind, da sie für den Beobachter ja primär erst einmal als seine subjektiven Wahrnehmungen auftreten, dass aber umgekehrt es für eine empirische Theorie Te nicht möglich ist, subjektive Daten D_s einzubeziehen. Mit anderen Worten, die empirischen Daten D_e bilden aus Sicht einer empirischen Theorie eine echte Teilmenge der subjektiven Daten D_s, von daher rührt die Ungleichheit in den Daten. Wichtig ist aber das Detail, dass aus Sicht einer empirischen Theorie Te zwar keine subjektiven Daten D_s verarbeitet werden können, dass umgekehrt aber eine subjektive Theorie Ts sehr wohl Zugriff auf empirische Daten hat, da empirische Daten D_e (mit den neuronalen Daten D_nn als echter Teilmenge) zugleich immer auch subjektive Daten D_s sind, also D_e c D_s. Empirische Daten D_e sind eben beides: subjektiv wie auch zugleich inter-subjektiv.

  12. Die heutigen empirischen Wissenschaften haben die empirische Welt in unterschiedliche empirische Datenbereiche aufgeteilt, deren Beziehungsverhältnisse eigentlich offiziell nicht geklärt sind. Unterschwellig wird immer angenommen, dass die Physik die umfassendste Sichtweise hat, dass also den empirischen Daten der Physik D_e_physik alle anderen empirischen Datenbereiche D_e_x umfassen, also D_e_x c D_e_physik. Ob dies so ist, ist eher offen. Astrobiologie, Evolutionsbiologie, Mikrobiologie – um nur einige Disziplinen zu nennen –, die sich u.a. mit dem Phänomen des biologischen Lebens beschäftigen, haben zahllose originäre Phänomene zu bieten, deren wissenschaftliche Beschreibung allein mit dem Inventar der bekannten Physik im Ansatz unmöglich erscheint (nach Feststellung von bekannten Physikern). Dann würde nicht gelten, dass D_e_x c D_e_physik, sondern D_e_x != D_e_physik.

  13. Doch unabhängig von den Verhältnissen zwischen den Datenbereichen der unterschiedlichen wissenschaftlichen Disziplinen gilt für das Verhältnis der empirischen Daten D_e zu den Tatsachen des Bewusstsein D_s, dass alle empirischen Daten D_e eine echte Teilmenge der subjektiven Daten D_s sind, also D_e c D_s. Vom Standpunkt eines Theorieerstellers vom Typ homo sapiens (sapiens) liegt damit eine Lösung der methodischen Probleme der empirischen Einzeldisziplinen Te_x – wenn es überhaupt eine gibt – im Bereich einer Theorie der Subjektivität Ts.

  14. Ich habe nicht den Eindruck, dass es solch eine umfassende Theorie der Subjektivität bislang gibt. Die großen philosophischen Entwürfe gehen sicher in diese Richtung. Vielleicht ist Carnaps Stufenbau der Welt (inhaltlich fast vollständig von Husserl geprägt (gegen den Mainstream der Carnap-Interpretation)) ein kleiner Ansatz zu einer modernen Theorie der Subjektivität.

  15. Also, wir haben noch keine brauchbare Theorie der Subjektivität Ts. Wenn wir sie hätten, man kann ja mal spekulieren, dann müsste man solche Fragen wie die von Chalmers, Velmans und Clark in solch einem Kontext diskutieren. Ob in solch einem Kontext ein semantischer Informationsbegriff Information+ dann nützlich wäre, müsste man ausloten. Ich vermute mal, dass man viele andere Fragen klären müsste, bevor man über die mögliche Verwendung eines Informationsbegriffs im Kontext von Subjektivität und begleitenden empirischen Prozessen nachdenken würde.

Einen Überblick über alle Blogbeiträge von Autor cagent nach Titeln findet sich HIER.

RINGEN UM DAS BEWUSSTSEIN – Th.W.CLARK 1995 – FUNCTION AND PHENOMENOLOGY: CLOSING THE EXPLANATORY GAP – gegen Chalmers 1995

(Letzte Aktualisierung (ab Nr.31) am Sa, 30.7.2016, 12:08h)

Th.W.CLARK, FUNCTION AND PHENOMENOLOGY: CLOSING THE EXPLANATORY GAP, in Journal of Consciousness Studies, Vol.2, No.3, 1995, pp.241-254

  1. Der aktuelle Artikel von Clark, der hier diskutiert werden soll, ist eine direkte Antwort auf den Artikel von Chalmers Facing up to the problem…, der in der gleichen Zeitschrift abgedruckt war und der in diesem Blog zuvor ausführlich besprochen worden ist.

  2. Clark bezieht die direkte Gegenposition zu Chalmers. Während Chalmers im Kern die Besonderheit der Bewusstseinserfahrung herausstellt, die sich nicht durch Rückgriff auf die empirischen Prozesse des Körpers und der Umgebung angemessen erklären lässt (das Subjektive ist von fundamental anderer Qualität als das Objektive, Empirische), versucht Clark genau dies zu tun. Er behauptet, das Phänomen des Bewusstseins sei nichts Besonderes gegenüber den anderen empirischen Prozessen.

EXISTIERENDE EMPIRISCVHE THEORIEN

  1. Sowohl Chalmers wie auch Clark berufen sich auf existierende empirische Theorien, folgern aber Gegensätzliches: Chalmers sagt, dass sich das Phänomen des Bewusstseins nicht mit den üblichen wissenschaftlichen Mitteln  hinreichend erklären lässt, und Clark meint widersprechend, Ja, doch, man kann das Phänomen des Bewusstseins damit hinreichend erklären.

  2. Im Standardmodell einer empirischen Theorie hat man einerseits eine formale Struktur, die eigentliche Theorie T, und andererseits einen empirischen Bezug, durch den mittels Messoperationen M empirische Daten D reproduzierbar verfügbar gemacht werden. Innerhalb der Struktur T kann man diese Daten klassifizieren K und in Beziehungen R einordnen. Aufgrund von Daten kann man mittels der Struktur T entweder entscheiden, dass die Daten mit der Struktur und der Dynamik der Theorie übereinstimmen oder eben nicht.

SUBJEKTIVE ERFAHRUNG NICHT MESSBAR

  1. Im Fall des Bewusstseins BEW gibt es eine Erfahrung des Bewusstseins, die allgemein als subjektiv klassifiziert wir, als nicht empirisch, nicht intersubjektiv. Damit ist ein direktes Messen im Sinne einer empirischen Theorie T nicht möglich. Im Fall des Phänomens des Bewusstseins und der typischen Erfahrung des Bewusstseins gibt es also keine direkten empirischen Daten D(BEW) und damit kann es auch keine empirische Theorie über das Bewusstsein geben. Insofern hätte Chalmers recht.

  2. Chalmers selbst spricht zwar auch über indirekte Daten des Bewusstseins (wie z.B. sprachliche Äußerungen über subjektive Erfahrungen), aber alle diese indirekte Daten sind keine Primärdaten!

IDENTITÄT VON BEWUSSTSEIN UND PROZESS

  1. Warum und wie kann dann Clark behaupten, Chalmers mache alles nur unnötig kompliziert. Clark wirft direkt die Frage auf, warum man nicht einfach mit der Hypothese starten könne, dass die Bewusstseinserfahrung BEW identisch sei mit der neuronal realisierten kybernetischen Funktion? (p.243) D.h. Clark postuliert die Identität von Bewusstsein und Funktion. (vgl. p.246) Anders: jene, die subjektive Erfahrungen ihres Bewusstseins haben, sind Instanzen von empirischen Prozessen (vgl. p.247) Oder: Wir, die wir subjektive Erfahrungen haben, sind konstituiert durch und identisch mit kognitiven Prozessen, die Qualia instantiieren, und diese Qualia sind das, was es für uns heißt, diese Prozesse zu sein.(vgl. p.247)

WAS STIMMT NUN?

  1. Im Falle von Chalmers ist klar, dass eine subjektive Erfahrungen des Bewusstseins direkt keine Messwerte für empirische Theorien liefern kann. Im Falle von Clark behauptet dieser eine Identität zwischen der subjektiven Erfahrung BEW und den ermöglichenden empirischen Prozessen Pe.

  2. In einer empirischen Theorie T kann ich von der Identität von zwei Termen t1 und t2 nur sprechen, wenn t1=t1 gilt, und dies setzt im Standardfall für den Bereich des formalen Kerns T eine Extensionsgleichheit voraus. Verbunden mit einer empirischen Interpretation Int müssen sich den theoretischen Termen t1,t2 empirische Terme t1e, t2e zuordnen lassen, die aus Messvorgängen M hervorgegangen sind, also Int(t1e) = t1 und Int(t2e) =t2.

  3. Da es im Falle von subjektive Erfahrungen des Bewusstseins BEW nach allgemeinem Verständnis keine direkten Messwerte De gibt, fehlt in der Identitätsgleichung t1=t2 mindestens ein Term. In einer empirischen Theorie wäre damit eine Identitätsbehauptung, wie Clark sie fordert, nicht realisierbar.

  4. Nach diesen ersten Überlegungen sieht es so aus, dass es unter der Annahme einer empirischen Theorie des Bewusstseins T_bw keine empirisch begründeten Messwerte zu jenen subjektiven Erfahrungen geben kann, die wir mit der subjektiven Erfahrung von Gegebenheiten des Bewusstseins verbinden. Damit wäre eine empirische Theorie des Bewusstseins ausgeschlossen. Ob irgendwelche empirischen Sachverhalte (neuronale Prozesse, andere physiologische Prozesse…) mit subjektiv erfahrbaren Gegebenheiten irgendetwas direkt zu tun haben, bleibt auf diese Weise erst einmal unklar.

HAT DAMIT CHALMERS RECHT?

  1. Nach dem bisherigen Befund hätte Chalmers also Recht damit, dass sich ein Reden über das Bewusstsein nicht reduzieren lässt auf ein Reden über empirische Prozesse, die im Kontext von subjektiven Erfahrungen beobachtbar sind. Subjektive Erfahrungen sind etwas Eigenständiges. Es sind in gewisser Weise auch Daten D, aber eben nicht-empirische Daten, subjektive Daten Ds. Empirische Daten De sind allesamt auch subjektive Daten, also De c Ds, aber nicht alle subjektive Daten Ds sind empirische Daten.

  2. Obwohl subjektive Daten Ds grundsätzliche keine empirische Daten sind, gibt es doch die Möglichkeit, subjektive Daten Ds auf sekundäre Indikatoren abzubilden Ind: Ds —> Des, die als solche empirische Daten sind, aber in ihrer Interpretation/ Deutung mit subjektiven Erfahrungen in Zusammenhang gebracht werden. Bei aller Problematik und Instabilität einer solchen sekundären Verankerung der empirischen Indikatoren Des sind die Indikatoren empirisch und können mit anderen empirischen Daten korreliert werden, also korr: Des —> De.

  3. Auf diese Weise lassen sich eine Menge interessanter Gegebenheiten sichtbar machen. Chalmers kommt bis zur Behauptung von einer Strukturellen Kohärenz zwischen der Datenmenge aus Des und der Datenmenge aus De und postuliert auch eine organisatorische Invarianz bzgl. des Outputs von zwei strukturell kohärenten Strukturen.

  4. Clark sieht von vornherein eine Identität zwischen beiden Strukturen (obgleich er nicht erklärt, wie er die subjektive Seite misst) und folgert daraus, dass überall, wo neuronale Strukturen identifizierbar sind, es ein – wenn auch noch so minimales – entsprechendes Korrelat an Bewusstsein geben muss. Bewusstsein wäre dann nichts spezifisch Menschliches, höchstens in dieser konkreten und komplexen Ausbildung aufgrund der entsprechend komplexen Struktur des Nervensystems.

  5. Während Chalmers das Problem hat, wie er aufgrund seiner messtechnischen Unterscheidung von subjektiven und empirischen Daten die Deutungshypothese eines Dualismus zwischen Bewusstsein und Nichtbewusstsein umgehen kann, erklärt Clark die Annahme eines Dualismus für unnötig (in seiner Interpretation), da es ja bei ihm sowieso nichts Besonderes neben den empirischen Sachverhalten gibt.

  6. Aus der Sicht einer empirischen Theorie ist die Position von Clark unhaltbar. Er hat kein Problem, da er die subjektiven Phänomene großzügig ausklammert.

  7. Chalmers sucht sein Heil in der Konstruktion einer Informationstheorie der doppelten Aspekte, was aber (siehe im Blogbeitrag) auch nicht überzeugen kann.

JENSEITS VON EINFACHER ONTOLOGIE

  1. Traditionell wurde – und wird (siehe Clark und viele andere) – die Annahme einer Besonderheit des Subjektiven gegenüber dem Empirischen oft zum Anlass genommen, aus der Unterschiedlichkeit der Erfahrung auf eine Unterschiedlichkeit der Existenz/ Ontologie zu schließen. Möglicherweise liegt hier der Fehler.

  2. Dem Beharren von Clark (und anderen) auf der Identität des Subjektiven mit dem Objektiven liegt ja offensichtlich die Intuition zugrunde, dass zwei verschiedene Erscheinungsweisen nicht zwingend auch auf zwei unterschiedliche Ontologien verweisen müssen. Andererseits folgt die ontologische Identität auch nicht zwingend aus einem Wunschdenken.

  3. Auch sollte einem zu denken geben, dass die sogenannten empirischen Daten De nicht gänzlich verschieden sind von den subjektiven Daten Ds! Alle empirischen Daten sind zugleich auch subjektive Daten (ohne subjektive Kenntnisnahme würde kein Forscher etwas von den Daten wissen). Die Qualifizierung als empirisch macht keine ontologische Aussage sondern ist eine epistemologische Qualifikation: ist das, was ich erfahren nur subjektiv oder auch intersubjektiv und damit empirisch! Das Gemeinsame, Verbindende ist das Moment des Erfahrens/ Erlebens/ Wahrnehmens. Und dieser Erfahrungsraum lässt sich auf vielfache Weise qualifizieren, u.a. nach den Kriterien nur subjektiv und auch intersubjektiv.

  4. Das Erfahren/ Erleben als solches ist ontologiefrei. Erst durch zusätzliche Überlegungen und Beziehungssysteme lassen sich den Erfahrungen Qualifikationen wie ’nur subjektiv‘, ‚auch intersubjektiv‘, ‚bloß gedacht‘, ‚bloß erinnert‘, ‚aktuell wahrgenommen‘ usw. zuordnen. Diese Zuordnungen sind – wie auch in vielen empirischen Theorien – nicht unbedingt direkt bzgl. einer Ontologie interpretierbar (Quantentheorie, Stringtheorie, Korpuskel/Welle, Gravitation, …).

  5. Ob also ein subjektives Erleben eine andere Ontologie implizieren soll gegenüber beobachtbaren neuronalen Prozessen ist zunächst eine völlig offene Frage. Sollten die Identitätstheoretiker wie Clark und andere Recht haben (und vieles spricht dafür), dann ließe sich das subjektive Erleben mittels geeigneter theoretischer Modelle mit jenen Ontologien in Beziehung setzen, die wir mit z.B. neuronalen Prozessen verknüpfen.

  6. Aus der theoretischen Möglichkeit, durch den Aufweis komplexer Zusammenhänge Phänomene der Art Ds mit Phänomenen der Art De in Beziehung zu setzen folgt aber auch nicht zwingend, dass man auf die Beschreibung und Analyse der Phänomene der Art Ds einfach verzichten sollte bzw. überhaupt verzichten kann.

  7. Insofern die subjektive Erfahrung auch die Basis für empirische Phänomene bildet, wäre eine Ausklammerung dieser eine Form von Verleugnung, die eher unwissenschaftlich ist.

  8. Zum anderen begegnet uns in den subjektiven Phänomenen bzw. im Gesamtphänomen Bewusstsein eine Funktionalität, die wissenschaftlich interessant ist und die hochinteressante Schlüsse auf die hervorbringenden empirischen Strukturen zulässt. Dass die aktuelle Physik sich ungern Unvollständigkeit vorwerfen lässt ist psychologisch zwar nachvollziehbar, dient aber wenig der Sache der Erkenntnis.

  9. Mit den biologischen Systemen (homo sapiens sapiens nur ein Teilmoment) haben wir es mit physikalischen Systemen zu tun, die sich mit den bisherigen physikalischen Gesetzen nicht wirklich vollständig beschreiben lassen. Dies ist eigentlich ein Glücksfall für die Wissenschaft; anhand dieser Systeme treten Eigenschaften hervor, die so anders sind, so komplex verglichen mit den einfachen Sachverhalten in der Mainstream-Physik, dass es doch von größtem Interesse sein sollte, sich mit diesen Phänomenen zu beschäftigen.

  10. Dass es insbesondere physikalische Systeme gibt, die ein sogenanntes Bewusstsein aufweisen (beim Menschen ausdrücklich, bei anderen Lebewesen schwieriger zu fassen), und dies auf Basis von neuronalen Maschinerien von unfassbarer Komplexität (ein einzelnes Gehirn hat die Komplexität einer ganzen Galaxie!), dies müsste alle Wissenschaftler elektrisieren. Dass stattdessen mit eher Energie aufgewendet wird, diese Komplexität weg zu reden, wirkt befremdlich.

CHALMERS – CLARK – KOMPOSITUM

  1. Wer hat also Recht: Chalmers oder Clark?

  2. Mit der Herausarbeitung der Besonderheit des Phänomens bewusster Erfahrung würde ich Chalmers Recht geben. Mit der Ablehnung einer zusätzlichen Ontologie würde ich Clark zusprechen. Beide, sowohl Chalmers als auch Clark würde ich kritisieren in Sachen Theoriebildung. Hier überzeugt weder Chalmers noch Clark.

Clark 1995 - Conclusions. Analyse der wichtigen Argumente

Clark 1995 – Conclusions. Analyse der wichtigen Argumente

CLARKs SCHLUSSFOLGERUNGEN UND DISKUSSION (SS.252-254)

  1. Im folgenden wechsle ich ab zwischen der Darstellung von Clarks Position (C) und Anmerkungen dazu (A).(Siehe auch das Diagramm)

  2. C: Clark kennzeichnet seinen theoretischen Ausgangspunkt als dem Naturalismus (’naturalism‘) zugehörig und sieht im Begriff einer funktionalen Theorie für sich einen wissenschaftlichen Standard. Für ihn sind funktionale Theorien gekennzeichnet durch Einfachheit, ontologische Sparsamkeit, und methodischer Zurückhaltung (‚being conservative‘).

  3. A: Clarks Hervorhebung einer Theorie als funktional lässt aufmerken, da eigentlich jede moderne Theorie per Definition relationale/ funktionale Elemente enthält, und dies daher kein besonderes Kennzeichen einer Theorie ist. Ob eine Theorie dann in einem empirischen, mathematisch abstrakten, logischen, phänomenologischen oder sonstigen Kontext benutzt wird, ändert an dieser Struktur einer Theorie nichts. Entsprechend sind Kriterien wie ‚Einfachheit‘ oder ‚methodisch zurückhaltend‘ auch wenig aussagekräftig. In gewisser Weise gilt dies für jede formale Theorie.

  4. A: Die Rede von Ontologien im Kontext moderner Theorien dagegen ist eher problematisch, da moderne formale Theorien per se ontologie-neutral sind. Man kann eine formale Theorie mit mit nahezu jeder beliebigen Ontologie verknüpfen. Ob man dies tut und mit welcher hängt vom Anwendungsfall ab. Eine empirische Interpretation verbindet eine formale Theorie mit einer bestimmten Art von zeitlich und räumlich punktuellen Messwerten. Die daraus ableitbaren allgemeinen Terme können eine spezielle Ontologie bilden, die durch die Messwerte eine partielle empirische Ontologie besitzen, aber keine vollständige. Würde man eine formale Theorie mit empirischen Äußerungen verknüpfen, die sich indirekt auf subjektive Phänomene beziehen, ließen sich daraus ganz analog zum empirischen Standardfall auch allgemeine Terme ableiten, denen eine partielle phänomenologische Ontologie zukäme. Wie sich diese beiden partiellen Ontologien nach noch zu bestimmenden Kriterien dann zueinander verhalten würden, müsste man klären. Das Vorgehen von Clark, automatisch eine bestimmte Ontologie bei empirischen Theorien zu unterstellen, und dass diese automatisch dann alle möglichen anderen Ontologien überflüssig machen würde, ist methodisch in keiner Weise gedeckt und ist auch in nahezu jeder möglichen Hinsicht unplausibell.

  5. C: Ein interessanter Aspekt ist auch Clarks Einschätzung von radikal Neuem. Tendenziell soll es nichts Neues geben, es sei denn, es gibt ganz starken empirische Argumente und eine theoretische Notwendigkeit.

  6. A: Bei dieser Formulierung erhebt sich die Frage, was starke empirische Argumente sind und ab wann der Fall einer theoretischen Notwendigkeit vorliegt? Noch grundlegender: was muss man sich unter etwas radikal Neuem mit Bezug auf eine Theorie vorstellen? Nehmen wir an, wir haben eine Theorie T mit einer Interpretation Int. (i) Solange der Messbereich festgelegt ist, kann es hier nichts radikal Neues geben, da ja nur gemessen wird, was man nach Verabredung messen will. Alles was der Verabredung widerspricht, wird nicht beachtet (methodische Blindheit!). (ii) Dann bleibt eigentlich nur, dass die Menge der Messwerte nicht vollständig unter die vereinbarten allgemeinen Terme subsumierbar sind. Sollte dieser – nicht leicht entscheidbare – Fall auftreten, müssten eventuell die allgemeinen Terme neu justiert werden. (iii) Mit oder ohne neue Justierung der allgemeinen Terme bleibt dann der Bereich der Relationen/ Funktionen sowie möglicher Regeln, die mit Hilfe eines logischen Folgerungsbegriffs Ableitungen (z.T. Prognosen) zulassen. Sofern diese mit den empirisch messbaren Gegebenheiten übereinstimmen, scheint die Theorie zu funktionieren. Gibt es Nicht-Übereinstimmungen, kann dies mehrere Gründe haben (z.B. Messfehler, ungünstige Begriffsbildung, ungünstige Relationen/ Funktionen oder ungünstige Regelformulierungen, ungeeigneter logischer Folgerungsbegriff). Was nicht passieren kann, das ist, dass ein Phänomen, das man von vornherein aus dem Messbereich ausgeschlossen hat, die Theorie in Frage stellt. Dies bedeutet, obwohl eine interpretierte Theorie <T,Int> in sich funktioniert, kann sie – bei Anlegen bestimmter Kriterien – vollständig falsch sein (man denke nur an die vielen Theorien der Vergangenheit, die auf falschen Annahmen beruhten). Radikal neu würde in diesem Kontext möglicherweise bedeuten, dass man erahnt, dass man eine neue Theorie <T*, Int*> benötigt, um neuartigen Phänomenen gerecht zu werden.

  7. A: Was Clark anscheinend am meisten (psychologisch) hindert, in den subjektiven Phänomenen Phänomene einer anderen Art anzuerkennen, ist die Annahme, dass die Annahme solcher neuer Phänomene eine neue, zusätzliche Ontologie implizieren würde, die zwangsläufig eine Art ontologischen Dualismus mit sich bringt, den er – aus welchen Gründen auch immer – ablehnt. Wie oben schon angedeutet, ist diese Ablehnung möglicherweise überflüssig, da die Annahme irgendeiner Ontologie im Rahmen der Interpretation einer formalen Theorie zunächst nichts darüber aussagt, welche weiteren Eigenschaften diese Ontologie besitzt und wie diese sich zu anderen interpretationsabhängigen Ontologien verhält. Ontologien sind letztlich primär begriffliche Strukturen im Kontext von (formalen) Theorien mit höchstens partiellen Deutungen. Hier von Dualismus zu reden oder vor einem Dualismus womöglich noch Angst haben, ist weder philosophisch noch wissenschaftlich notwendig.

  8. C: In seinem Versuch, die subjektiven Phänomene des Bewusstseins (von Clark Qualia genannt) durch Rekurs auf empirische Prozesse zu eliminieren, kommt Clark nicht umhin, diese subjektiven Phänomene als solche überhaupt anzusprechen. In diesem Zusammenhang kommt er zu Feststellungen wie jenen, dass der Zugang zum Bewusstsein über den privaten 1.Person Zugang geschieht, der als solcher in keiner Weiser durch irgendeine wissenschaftliche Methode erreichbar ist. Im gleichen Atemzug stellt er aber auch fest, dass diese subjektiven Phänomene mit neuronalen Prozessen korreliert werden können, was ausschließlich durch die Neurowissenschaften geleistet werden könne.

  9. A: Ganz offensichtlich ist es also so, dass es außerhalb der bislang definierten Messbereiche von empirischen Theorien selbst für Clark Phänomene gibt (die introspektiven Phänomene des Bewusstseins, Ps), die mit den bekannten empirischen Methoden bislang nicht erreicht werden. Seine strategische Entscheidung, das bislang wissenschaftlich Unzugängliche dadurch zu erklären zu versuchen, dass er per Deklaration (ex cathedra Entscheidung :-)) festlegt, dass diese Phänomene Ps künftig einfach als empirische Phänomene Pe zu betrachten seien (obwohl sie es schon aufgrund der Art der Phänomenerfassung nicht sein können), erwies sich nach den vorausgehenden Überlegungen aus theorietechnischen (wissenschaftsphilosophischen) Gründen als unhaltbar.

  10. A: Die These Clarks von der Identität von neuronalen Prozessen und Bewusstseinsphänomenen wird daher hier als methodisch unhaltbar abgelehnt.

  11. Aus der Ablehnung der Identitätsthese, so wie Clark sie formuliert hat, folgt allerdings nicht, wie mancher vielleicht jetzt glauben mag, dass damit ein funktionaler Zusammenhang zwischen neuronalen Prozessen und subjektiven Phänomenen grundsätzlich ausgeschlossen wird! Im Gegenteil. Autor cagent hält solch einen funktionalen Zusammenhang als sehr wahrscheinlich. Allerdings müsste dazu der theoretische Rahmen erheblich weiter entwickelt werden. Die bisher eher separat betriebenen Theorieansätze von Phänomenologie, Biologie, Psychologie, Neurowissenschaften und möglicherweise weiteren Disziplinen müssten endlich simultan entwickelt werden. Wissenschaftsphilosophisch können isolationistisch entwickelte Theorien per se aufs Ganze gesehen nur falsch sein.

Eine Übersicht über alle Blogeinträge von Autor cagent nach Titerln findet sich HIER.

CONSCIOUSNESS – BEWUSSTSEIN. Review von Nick Lane’s Kap.9 aus ‚Life Ascending‘ (2009)

Nick Lane „Life Ascending“, London: Profile Books Ltd, 2009 (Paperback 2010)

KONTEXT ZU DIESEM EINTRAG

  1. Dieser Blogeintrag beschäftigt sich mit Kap.9 von Nick Lane’s Buch (s.o.) mit dem Thema Consciousness (Bewusstsein). Dieser Besprechung gingen schon drei andere voraus. Diese finden sich hier.
  2. Das Erkenntnisinteresse liegt hier einmal darin, seine Position darzustellen, zum anderen aber auch, um seine Position einzuordnen in den größeren erkenntnistheoretischen und wissenschaftsphilosophischen Kontext der Frage nach der möglichen Rolle von Bewusstseinsdaten im Verhältnis zu den empirischen Verhaltens- und Körperwissenschaften.
  3. Wie man aus den bisherigen Blogeinträgen von cagent leicht entnehmen kann, spielte diese Frage von Anbeginn des Blogs eine wichtige Rolle.

BEWUSSTSEIN IN EINEM KÖRPER

Notizen Teil 1 zur Lektüre von Kap.9 aus Nick Lane's Buch 'Life Ascending' (2009)

Notizen Teil 1 zur Lektüre von Kap.9 aus Nick Lane’s Buch ‚Life Ascending‘ (2009)

  1. Ausgangspunkt ist die Annahme, dass das Phänomen des menschlichen Bewusstseins normalerweise im Kontext eines Gehirns in einem Körper erfahren wird.
  2. Der Körper entsteht im Rahmen eines Wachstumsprozesses (Ontogenese) aus einer befruchteten Zelle.
  3. Jeder individuelle Körper ist Teil einer umfassenderen Population, die immer das Ergebnis eines evolutionären Entstehungsprozesses ist.
  4. Das Verhalten der Ausgangs-Zelle im Wachstumsprozess wird von Genen gesteuert. Diese bestimmen das entstehende Gehirn in seinen Grundstrukturen (z.B. Größe der Gehirnbereiche, Verhältnis von aktivierenden und hemmenden Neuronen, die quantitativen Mengen der verschiedenen Neurotransmitter, usw.).(vgl. S.247)
  5. Aufgrund des Verhältnisses von ca. 1 Gen zu ca. 8 Mrd. Synapsen (nach Christoph Koch, vgl. S.247) ist klar, dass die Gene nicht die Details der neuronalen Verschaltungen festlegen können. Diese ergibt sich vielmehr aus der Interaktion des Gehirns mit seiner Umgebung (dem Körper). Durch diese Interaktionen (= Lernprozesse) werden manche Verbindungen gestärkt, andere schwächen sich ab; die ungenutzten sterben weg.

DREI WEISEN DER REALITÄT

Notizen Teil 2 zur Lektüre von Kap.9 aus Nick Lane's Buch 'Life Ascending' (2009)

Notizen Teil 2 zur Lektüre von Kap.9 aus Nick Lane’s Buch ‚Life Ascending‘ (2009)

  1. Interessant ist, dass das Reden über das Phänomen des Bewusstseins mindestens drei Wirklichkeitsbereiche voraussetzt: (i) Es gibt einmal den Körper, in dem physikalische, chemische, Biochemische Prozesse ablaufen, die u.a. körperinterne Zustände und Zustandsänderungen kodieren, repräsentieren und miteinander interagieren lassen.
  2. Dann gibt es (ii) Objekte und Ereignisse außerhalb des Körpers, durch die die Körperprozesse nur insoweit tangiert werden, als diese körperexternen Gegebenheiten sich durch Interaktion mit dem Körper irgendwie als Zustandsänderungen im Körper ZVe niederschlagen. Diese körperinternen Zustandsänderungen ZV sind nicht die verursachenden Objekte selbst!
  3. Insofern die extern verursachten Zustandsänderungen des Körpers wiederum mit Teilen des Gehirns interagieren, kann das Gehirn (nn) unterschiedliche Verrechnungsprozesse starten, die zu unterschiedlichen Ereignisstrukturen (ZVnn) führen (also eine Abbildung der Art nn: ZVe —> ZVnn, oder rekursiv: nn: ZVe x ZVnn —> ZVnn x ZVe).
  4. Dass die vom Gehirn errechneten Repräsentationen ZVnn irgend etwas mit der realen Welt außerhalb des Körpers zu tun haben, ist – im ersten Ansatz gedacht – zunächst eher unwahrscheinlich. Warum sollte es einen Zusammenhang geben? Dem steht die tägliche Erfahrung gegenüber, dass jeder Mensch normalerweise das Gefühl hat, dass das Bild, das sein Gehirn von der Außenwelt erzeugt, genau diese Außenwelt ist. Das ist ein Paradox.
  5. Schließlich gibt es noch (iii) die Erlebnisse aus der ersten Person Perspektive, die individuellen persönlichen (privaten, subjektiven) Erlebnisse, Wahrnehmungen, Gefühle, die zwar jeder hat, aber die von einer anderen Person (dritte Person Perspektive, intersubjektiv, empirisch) nicht direkt wahrgenommen werden können.
  6. Für die wahrnehmende Person sind diese subjektiven Erlebnisse real, unmittelbar erlebbar, eine Vielzahl unterscheidbarer Eigenschaften (Qualitäten, Qualia), die alle zusammen vereint erscheinen, eingebunden in ein erlebbares Ganzes, dabei kontinuierlich fließend, d.h. jede Situation geht unmerklich über in die nächste.
  7. Das zweite Paradox ist, dass dieses subjektive Erleben der Welt aus sich heraus keinerlei Rückschlüsse zulässt über jene (neuronalen, physiologischen) Prozesse im Körper, die in der Tat diesen subjektiven Erlebnisstrom erst ermöglichen.
  8. Während sich die physiologischen und neuronalen Prozesse biochemisch beschreiben lassen, man sie detailliert messen kann, entziehen sich die subjektiven Wahrnehmungen jedem messenden Zugriff. Während einige der neuronalen Prozesse zeitlich mit bewussten Wahrnehmungen korrelieren, gilt dies für die große Masse der neuronalen Prozesse nicht. Deren Ablauf erscheint völlig unkorreliert mit möglichen bewussten Wahrnehmungen. Wann ist ein biochemischer Prozess mit Bewusstsein verknüpft, wann nicht? Dies gilt – nach dem Philosophen David Chalmers – als das sogenannte ‚harte Problem‘ des Bewusstseins. (vgl. S.236)

INTERAKTIONEN GEHIRN UND BEWUSSTSEIN

Notizen Teil 3 zur Lektüre von Kap.9 aus Nick Lane's Buch 'Life Ascending' (2009)

Notizen Teil 3 zur Lektüre von Kap.9 aus Nick Lane’s Buch ‚Life Ascending‘ (2009)

  1. Obwohl die genaue Natur des Wechselverhältnisses zwischen intersubjektivem (= empirischem) Gehirn (NN) und subjektivem Bewusstsein (PH) bislang nicht aufgeklärt werden konnte, gibt es doch sehr viele konkrete Fälle, durch die man mögliche Hypothesen über die Wechselwirkung zwischen NN und PH aufstellen kann.
  2. Eine Klasse von Fällen beruht auf Verletzungen/ Zerstörungen/ Ausfällen bestimmter physischer Teile des Gehirns (NN*), die mit typischen Veränderungen im Verhalten der betreffenden Personen (SR*) korrelieren bzw. die oft auch von den betreffenden Personen (PH*) verbal kommentiert werden. Also eine Abbildung der Form: CORR(NN*, SR*). Eine andere Klasse von Fällen beruht auf der umgekehrten Wirkrichtung: man erzeugt bewusst bestimmte Verhaltensreize S‘, die dann bei einem bestimmten Gehirn NN zu bestimmten Gehirnaktivitäten (NN(t)) sowie zu bestimmten Antwortreizen R‘ führen. also nn: S‘ x NN —> NN x R‘.
  3. Zu den einzelnen Fällen siehe SS.238ff
  4. Aus all den Experimenten schält sich heraus, dass das bewusste Erleben von der Art der neuronalen Prozesse direkt und reproduzierbar beeinflusst wird, obgleich bis heute unklar ist, was genau die bewussten Erlebnissen sind.
  5. Ferner zeigt sich, dass das subjektive Erleben zwar als eine Einheit von vielen Eigenschaften (Qualia) zugleich erscheint, die korrelierenden neuronalen Prozesse aber über das ganze Gehirn verteilt sein können. Aus diesem Befund wir die Hypothese hergeleitet, dass dass das Gehirn über Mechanismen verfügt, unterschiedliche Prozesse und Bereiche zum richtigen Zeitpunkt und sachlich angemessen zu korrelieren (hier werden genannt Edelman, Crick und Koch, sowie Singer). (vgl. SS.245ff) Dazu gehört auch die verfeinernde Annahme, dass die Vielzahl der Prozesse eine bottom-up Struktur haben, eine implizite Hierarchie, in der viele Details im weiteren Verlauf immer mehr abstrahiert und mit anderen Prozessen korreliert werden. Nur die obersten Stufen dieser Hierarchie (nicht alle) sind gewöhnlich bewusst.
  6. Letztere Annahme macht es zwar einerseits plausibel, warum und wie das Bewusstsein situationsbezogen genau jene groben Strukturen wahrnimmt, um die es gerade geht, ohne all die Milliarden Details im Untergrund, macht es aber noch spannender mit der Frage, wann, wie, und warum bestimmte biochemische Prozesse in solche bewusste Tatbestände umschlagen und andere nicht. Die berühmte Frage nach den neuronalen Korrelaten des Bewusstseins (NKB) (’neurol correlates of consciousness (NCC)‘)(vgl. S.243)

ERSTE LOKALISIERUNG DES BEWUSSTSEINS

  1. Berücksichtigt man all die vorangehenden Fakten und Hypothesen, dann bleibt es immer noch offen, ob man das Bewusstsein doch noch irgendwie weiter einkreisen kann. Lane lässt sich hier u.a. von Wissenschaftlern wie Julian Jaynes, Derik Denton, Steven Rose, Gerald M.Edelman, Antonio Damasio und José Musacchio inspirieren.
  2. Danach ermutigen  zahlreiche Befunde die Hypothese, dass das Bewusstsein primär im alten Teil des Gehirns gründet (Gehirnstamm, Mittelhirn), in dem die vielfältigen Körperzustände repräsentiert und kontrolliert werden. Hier sind auch die primären Emotionen wie Hunger, Durst, Angst, sexuelle Lust und Schmerz verankert, die alle für das Überleben des Organismus von zentraler Bedeutung sind. Diese kommentieren alle Körperzustände automatisch und wirken sich direkt steuernd auf das Verhalten aus. Jüngere Gehirnteile (wie der Neokortex) können zwar das sachliche Weltbild erheblich weiter ausdehnen, differenzieren, setzen aber das primäre Körpermodell mit seinen emotionalen Kommentaren weiterhin voraus.
  3. Nach Lane sieht Damasio das moderne Selbstbewusstsein verortet als eine neue Berechnungsstufe oberhalb des alten Körpermodells und den neuen Sachdimensionen. Das ausgeweitete und differenziertere Bild der Objekte und Ereignisse in der Außenwelt vermittelt durch den Neokortex wird permanent in seinen Wechselwirkungen mit dem Körpermodell abgeglichen. Dieses liefert auch kontinuierlich emotionale Kommentare. Auf der abstrakteren Ebene können die Körperdaten mit den neuen Situationsmodellen verrechnet werden. Sprache bedeutet sowohl eine neue Repräsentationsebene (Laute, Zeichen, Gesten, …= Syntax)) wie auch eine neue Bedeutungsebene (Abbildung von Zeichenrepräsentanten auf Objektrepräsentanten, einschließlich den Emotionen = Semantik, auch Pragmatik). Insofern jeder Mensch eine hinreichend ähnliche neuronale Struktur besitzt ist auf diese Weise begrenzt eine Kommunikation über die jeweils subjektiven Zustände möglich, aber nur soweit, als die beteiligten Personen über hinreichend ähnliche Erfahrungen verfügen.

ONTOLOGISCHER STATUS DES BEWUSSTSEINS

  1. Bleibt noch die Frage, wie man die Phänomene des Bewusstseins ontologisch einordnen kann/ soll.
  2. Für den Wahrnehmenden sind sie subjektiv real. Verglichen mit Prozessen außerhalb des bewussten Wahrnehmungsraumes ist ihr Status völlig offen.
  3. Lane diskutiert auch explizit Hypothesen aus dem Bereich der Quantenphysik. (vgl. SS.252ff) Doch weder lassen sich diese Hypothesen bisher experimentell überprüfen noch sind sie logisch überzeugend. Die Phänomene des Bewusstseins reräsentiern keine Quantenstruktur.(vgl. S.254)

ABSPANN

  1. Dieses Kapitel 9 von Lane (hier nur in Teilen wieder gegeben) liefert inhaltlich mehr Anregungen als so manches komplettes Buch zum Thema Bewusstsein.
  2. Viele Fragen sind weiterhin offen.
  3. Interessant ist die Frage, wie sich die bekannten psychologischen und neuropsychologischen Gedächtnismodelle zu dieser (anfangshaften) Theorie des Bewusstseins verhalten.
  4. Bislang werden diese Gedächtnismodell unabhängig von Fragen der Bewusstseinstheorie oder der Gehirnentwicklung diskutiert. Auch haben die so einflussreichen Emotionen in diesen Theorien keinen rechten Platz.
  5. Ferner ist das methodische Problem einer Theorie des Bewusstseins angesichts der Vielzahl an Disziplinen und Methoden keineswegs geklärt. So rekurrieren die Gehirnforscher oft und gerne auf korrelierendes Verhalten oder auf korrelierende Bewusstseinstatbestände, ohne dass sie aber auf die methodischen Probleme dieser andersartigen Daten explizit eingehen noch dass sie überhaupt explizite verhaltensbasierte oder bewusstseinsbasierte Theorien voraussetzen. Neuropsychologie und Neurophänomenologie sind wirkliche Desiderata, die allerdings sowohl eine theoriefähige Psychologie wie auch eine theoriefähige Phänomenologie voraussetzen.
  6. Zur Frage der ontologischen Geltung würde ich gerne die Hypothese beisteuern, dass möglicherweise die Bewusstseinsdaten emergente Phänomene sind analog wie viele andere Phänomene, wie z.B. auch die Gravitation. Dies bedeutet, dass unsere Materie nicht nur jene Eigenschaften implizit enthält, die sich im Verlauf der biologischen Evolution in immer komplexeren Zusammenhängen gezeigt haben, sondern im synchronisierten Zusammenwirken von Milliarden von Neuronen entsteht ein Ereignisfeld, das genau jene Qualität zeigt, die wir Bewusstsein nennen. Analog ist die Gravitation auch nur erfahrbar in bestimmten Konstellationen von Materie, ohne dass die Gravitation solch ein einzelner Körper wäre.

Eine Überscht über alle bisherigen Blogenträge des Autors cagent nach Titeln findet sich HIER.

DECHER – HANDBUCH PHILOSOPHIE DES GEISTES – EINLEITUNG – DISKURS

Decher, Friedhelm, Handbuch der Philosophie des Geistes, Darmstadt: WBG Wissenschaftliche Buchgesellschaft, 2015 (Im Folgenden abgekürzt: HPG)

KONTEXT

  1. Im Laufe der letzten Jahre tauchte der Begriff Geist im Kontext der Blogeinträge immer wieder auf. Ja, er mündete sogar in ein eigenes großes öffentliches Forschungsprojekt, das den Namen Geist im Titel trägt, wenngleich in der englischen Variante Mind. Es ist die Rede vom Emerging Mind Projekt. In diesem Projekt wird ein Bogen gespannt zwischen den geistesgeschichtlichen (inklusive theologischen) Traditionen Europas zu den Errungenschaften der modernen empirischen Wissenschaften – insbesondere der evolutionären Biologie – inklusive der modernen Mathematik und Ingenieurskunst in Form von selbstlernenden intelligenten Maschinen. Die Arbeitshypothese bisher lautet, dass das, was geisteswissenschaftliche unter dem Begriff Geist abgehandelt wird, eine inhärente Eigenschaft der Energie-Materie ist.
  2. Vor diesem Hintergrund ist das Buch von Friedhelm Decher von Interesse. Er entwickelt in der Art eines Lese-Leitfadens den Gebrauch des Begriffs Geist entlang bedeutender Autoren von den ersten griechischen Denkern bis in die Gegenwart. Im Folgenden soll den Gedanken dieses Buches gefolgt werden und im einzelnen überprüft werden, wo und wieweit es sich mit der Arbeitshypothese des Emerging Mind Projektes überdeckt und wo es davon abweicht; im letzteren Fall interessiert natürlich speziell, wo und warum es eine Abweichung gibt.
  3. Die Arbeitshypothese des Emerging Mind Projektes ist ambivalent. Angenommen, sie trifft zu (wobei zu klären wäre, an welchen empirischen Kriterien man dies verifizieren könnte), dann könnte man das Ergebnis entweder (i) so deuten, dass die Besonderheit des Phänomens Geist sich in die Allgemeinheit einer Energie-Materie auflösen würde, oder (ii) die Besonderheiten der Eigenschaften des Geist-Phänomens lassen die Energie-Materie in einem neuen Licht erscheinen. Die aktuelle Aufspaltung der empirischen Phänomene in physikalische, chemische, biologische usw. Aspekte ist auf jeden Fall wissenschaftsphilosophisch unbefriedigend. Die vielfachen Reduktionsversuche von empirischen Phänomenen aus nicht-physikalischen Disziplinen auf das Begriffsrepertoire der Physik ist wissenschaftsphilosophisch ebenfalls weitgehend nicht überzeugend. Vor diesem Hintergrund wäre ein Vorgehen im Stile von (ii) sehr wohl interessant.
  4. Anmerkung: Die folgende Diskussion des Buches ersetzt in keiner Weise die eigene Lektüre. Der Autor dieser Zeilen diskutiert das Buch aus seinem Erkenntnisinteresse heraus, das verschieden sein kann sowohl von dem eines potentiellen Lesers wie auch möglicherweise (und sehr wahrscheinlich) von Friedhelm Decher selbst. Wer sich also eine eigene Meinung bilden will, kommt um die eigene Lektüre und eigene Urteilsbildung nicht herum.

EINLEITUNG (SS.9-15)

Diagramm zur Einleitung von Handbuch der Philosophie des Geistes (Decher 2015)

Diagramm zur Einleitung von Handbuch der Philosophie des Geistes (Decher 2015)

  1. Einleitungen in Bücher sind immer schwierig. Im Fall des HPG werden einerseits die verschiedenen sprachlichen Manifestationen des Begriffs Geist anhand diverser Wörterbücher und der aktuellen Alltagssprache illustrierend aufgelistet, andererseits gibt es den Versuch einer Fokussierung und einer ersten Strukturierung aus der Sicht des Autors Decher.
  2. Decher geht davon aus, dass Begriffe wie Geist, Bewusstsein, Selbstbewusstsein und Ich beim Menschen sowohl im Rahmen seiner Selbsterfahrung vorliegen, wie auch sich im menschlichen Verhalten manifestieren. Am Verhalten kann man viele Fähigkeiten ablesen wie z.B. sich Erinnern können, Sprechen können, vorausschauend Planen usw.
  3. Decher geht ferner davon aus, dass diese Phänomene jedem vertraut sind; sie sind offensichtlich.
  4. Es stellt sich damit die Frage, wo diese Phänomene herkommen. Mit Blick auf die Naturgeschichte folgt er einem einzigen Autor Ian Tattersall (1998), nach dem die Geschichte des Menschen vor 200.000 Jahren beginnt, und dieser Beginn sei u.a. dadurch charakterisiert, dass schon bei dieser Entstehung der Mensch kognitive Fähigkeiten gezeigt hat, die ihn von allen anderen Lebensformen abhoben. (vgl. S.14) Dies wertet Decher als erste Manifestationen von Geist, die sich dann im weiteren Verlauf in vielerlei Weise ergänzen. Er erwähnt besonders die Höhlenmalereien von vor 35.000 Jahren oder dann später mit Beginn der Hochkulturen in Ägypten und in Griechenland die sprachlichen Manifestationen.
  5. Zu erwähnen ist auch noch die Nennung des Begriffs Seele. (vgl. S.13) Dieser Begriff kommt nahezu parallel zum Begriff Geist vor. Hier bleibt noch offen, wie das Verhältnis dieser beiden Begriffe zu klären ist.

DISKURS

  1. So vorläufig und kryptisch, wie Gedanken in einer Einleitung nun mal sein müssen, so lassen diese Seiten doch schon – wenn man will – eine erste Positionierung von Autor Decher erkennen. Trotz Parallelisierung mit der Naturgeschichte des Menschen hebt er die Phänomene von Geist (und Seele) doch deutlich hervor und baut damit – dramaturgisch? – eine erste Spannung auf, wie sich das Verhältnis von Geist-Seele zum Übrigen von Geist-Seele weiter bestimmen lässt.
  2. Da wir heute aufgrund der modernen Wissenschaften über Erkenntnisse zum Gehirn sowie zu mathematischen Modellen verfügen, mittels deren wir alle bekannten geistig-seelischen Phänomene mittels nicht-geistig-seelischer Mittel als Verhaltensereignisse realisieren können, wird die Frage nach der möglichen Besonderheit des Geistes nicht minder spannend.
  3. Die heute vielfach festzustellende Euphorie in der Einschätzung intelligenter Maschinen und die stark einseitige Einschätzung einer möglichen Zukunft des Menschen im Vergleich zu den intelligenten Maschinen zugunsten der intelligenten Maschinen kann ein Motiv sein, die Spurensuche nach der Besonderheit des Geistigen mit Interesse zu verfolgen. Auf Seiten der Technikgläubigen kann man vielfach eine gewisse Naivität in der Einschätzung der Möglichkeiten von intelligenten Maschinen beobachten gepaart mit einer erschreckend großen Unwissenheit über die biologische Komplexität des Phänomens homo sapiens als Teil eines gigantischen Ökosystems. Eine solche Mischung aus technischer Naivität und Biologischer Unwissenheit kann sehr gefährlich sein, zumindest dann, wenn sie den Leitfaden abgibt für die Gestaltung der Zukunft menschlicher Gesellschaften.
  4. Es bleibt spannend zu sehen, ob und wie die Lektüre von Dechers Buch in dieser Fragestellung konstruktive Anregungen bringen kann.

Eine Fortsetzung findet sich HIER.

Einen Überblick aller Blogeinträge von Autor cagent nach Titeln findet sich HIER.

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 3-neu

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll.

Hinter den Augen …

Das eingesperrte Gehirn

Die Antwort auf die Frage, warum Menschen so unterschiedlich wahrnehmen, warum sie dies tun und anderes lassen, liegt irgendwo da im ‚Inneren‘ des Menschen, dort, hinter seinen Augen, hinter seinem Gesicht, das mal lächelt, mal weint, mal zürnt; dort gibt es ‚geheimnisvolle Kräfte‘, die ihn, uns, Dich und mich, dazu bringen uns so zu verhalten, wie wir es erleben.

Wie die moderne Biologie uns in Gestalt der Gehirnforschung lehrt, ist es vor allem das Gehirn, in dem ca. 100 Milliarden einzelne neuronale Zellen miteinander ein Dauergespräch führen, dessen Nebenwirkungen die eine oder andere Handlung ist, die wir vornehmen.

Wenn wir uns auf die moderne Biologie einlassen, auf die Gehirnwissenschaft, erkennen wir sehr schnell, dass das Gehirn, das unser Verhalten bestimmt, selbst keinen Kontakt mit der Welt hat. Es ist im Körper eingeschlossen, quasi abgeschottet, isoliert von der Welt jenseits des Körpers.

Das Gehirn bezieht sein Wissen über die Welt jenseits der Gehirnzellen von einer Art von ‚Mittelsmännern‘, von speziellen Kontaktpersonen, von Übersetzern; dies sind unsere Sinnesorgane (Augen, Ohren, Haut, Geschmackszellen, Gleichgewichtsorgan, die bestimmte Ereignisse aus der Welt jenseits der Gehirnzellen in die ‚Sprache des Gehirns‘ übersetzen.(Anmerkung: Siehe: Sinnesorgan, Sensory Receptor, Sensory System)

Wenn wir sagen, dass wir Musik hören, wunderschöne Klänge, harmonisch oder dissonant, laut oder leise, hoch oder tief, mit unterschiedlichen Klangfarben, dann sind dies für das Gehirn ’neuronale Signale‘, elektrische Potentialänderungen, die man als ‚Signal‘ oder ‚Nicht-Signal‘ interpretieren kann, als ‚An‘ oder ‚Aus‘, oder einfach als ‚1‘ oder ‚0‘, allerdings zusätzlich eingebettet in eine ‚Zeitstruktur‘; innerhalb eines Zeitintervalls können ‚viele‘ Signale auftreten oder ‚wenige‘. Ferner gibt es eine ‚topologische‘ Struktur: das gleiche Signal kann an einem Ort im Gehirn ein ‚Klang‘ bedeuten, an einem anderen Ort eine ‚Bild‘, wieder an einem anderen Ort ein ‚Geschmack‘ oder ….

Was hier am Beispiel des Hörens gesagt wurde, gilt für alle anderen Sinnesorgane gleichermaßen: bestimmte physikalische Umwelteigenschaften werden von einem Sinnesorgan so weit ‚verarbeitet‘, dass am Ende immer alles in die Sprache des Gehirns, in die neuronalen ‚1en‘ und ‚0en‘ so übersetzt wird, so dass diese Signale zeitlich und topologisch geordnet zwischen den 100 Mrd Gehirnzellen hin und her wandern können, um im Gehirn Pflanzen, Tiere, Räume, Objekte und Handlungen jenseits der Gehirnzellen neuronal-binär repräsentieren zu können.

Alles, was in der Welt jenseits des Gehirns existiert (auch die anderen Körperorgane mit ihren Aktivitäten), es wird einheitlich in die neuronal-binäre Sprache des Gehirns übersetzt. Dies ist eine geniale Leistung der Natur(Anmerkung: Dass wir in unserem subjektiven Erleben keine ‚1en‘ und ‚0en‘ wahrnehmen, sondern Töne, Farben, Formen, Geschmäcker usw., das ist das andere ‚Wunder der Natur‘.) (siehe weiter unten.).

Die Welt wird zerschnitten

Diese Transformation der Welt in ‚1en‘ und ‚0en‘ ist aber nicht die einzige Übersetzungsbesonderheit. Wir wissen heute, dass die Sinnesinformationen für eine kurze Zeitspanne (in der Regel deutlich weniger als eine Sekunde) nach Sinnesarten getrennt in einer Art ‚Puffer‘ zwischen gespeichert werden. (Anmerkung: Siehe Sensory Memory) Von dort können sie für weitere Verarbeitungen übernommen werden. Ist die eingestellte Zeitdauer verstrichen, wird der aktuelle Inhalt von neuen Daten überschrieben. Das voreingestellte Zeitfenster (t1,t2) definiert damit, was ‚gleichzeitig‘ ist.

Faktisch wird die sinnlich wahrnehmbare Welt damit in Zeitscheiben ‚zerlegt‘ bzw. ‚zerschnitten‘. Was immer passiert, für das Gehirn existiert die Welt jenseits seiner Neuronen nur in Form von säuberlich getrennten Zeitscheiben. In Diskussionen, ob und wieweit ein Computer das menschliche Gehirn ’nachahmen‘ könnte, wird oft betont, der Computer sei ja ‚diskret‘, ‚binär‘, zerlege alles in 1en und 0en im Gegensatz zum ‚analogen‘ Gehirn. Die empirischen Fakten legen hingegen nahe, auch das Gehirn als eine ‚diskrete Maschine‘ zu betrachten.

Unterscheiden sich die ‚Inhalte‘ von Zeitscheiben, kann dies als Hinweis auf mögliche ‚Veränderungen‘ gedeutet werden.

Beachte: jede Sinnesart hat ihre eigene Zeitscheibe, die dann vom Gehirn zu ’sinnvollen Kombinationen‘ ‚verrechnet‘ werden müssen.

Die Welt wird vereinfacht

Für die Beurteilung, wie das Gehirn die vielen unterschiedlichen Informationen so zusammenfügt, auswertet und neu formt, dass daraus ein ’sinnvolles Verhalten‘ entsteht, reicht es nicht aus, nur die Gehirnzellen selbst zu betrachten, was zum Gegenstandsbereich der Gehirnwissenschaft (Neurowissenschaft) gehört. Vielmehr muss das Wechselverhältnis von Gehirnaktivitäten und Verhaltenseigenschaften simultan betrachtet werden. Dies verlangt nach einer systematischen Kooperation von wissenschaftlicher Verhaltenswissenschaft (Psychologie) und Gehirnwissenschaft unter der Bezeichnung Neuropsychologie. (Anmerkung: Siehe Neuropsychology)

Ein wichtiges theoretisches Konzept, das wir der Neuropsychologie verdanken, ist das Konzept des Gedächtnisses. (Anmerkung: Memory) Mit Gedächtnis wird die generelle Fähigkeit des Gehirns umschrieben, Ereignisse zu verallgemeinern, zu speichern, zu erinnern, und miteinander zu assoziieren.

Ausgehend von den oben erwähnten zeitlich begrenzten Sinnesspeichern unterteilt man das Gedächtnis z.B. nach der Zeitdauer (kurz, mittel, unbegrenzt), in der Ereignisse im Gedächtnis verfügbar sind, und nach der Art ihrer Nutzung. Im Kurzzeit- und Arbeitsgedächtnis kann eine kleine Zahl von Ereignissen im begrenzten Umfang verarbeitet und mit dem Langzeitgedächtnis in begrenztem Umfang ausgetauscht werden (speichern, erinnern). Die Kapazität von sinnespezifischen Kurzzeitspeicher und multimodalem Arbeitsgedächtnis liegt zwischen ca. 4 (im Kurzzeitgedächtnis) bis 9 (im Arbeitsgedächtnis) Gedächtniseinheiten. Dabei ist zu beachten, dass schon im Übergang vom oben erwähnten Sinnesspeichern zum Kurzzeit- und Arbeitsgedächtnis eine starke Informationsreduktion stattfindet; grob von 100% auf etwa 25%.

Nicht alles, was im Kurz- und Arbeitsgedächtnis vorkommt, gelangt automatisch ins Langzeitgedächtnis. Ein wichtiger Faktor, der zum Speichern führt, ist die ‚Verweildauer‘ im Kurzzeit- und Arbeitsgedächtnis, und die ‚Häufigkeit‘ des Auftretens. Ob wir nach einer Speicherung etwas ‚wiederfinden‘ können, hängt ferner davon ab, wie ein Ereignis abgespeichert wurde. Je mehr ein Ereignis sich zu anderen Ereignissen in Beziehung setzen lässt, umso eher wird es erinnert. Völlig neuartige Ereignisse (z.B. die chinesischen Schriftzeichen in der Ordnung eines chinesischen Wörterbuches, wenn man Chinesisch neu lernt) können Wochen oder gar Monate dauern, bis sie so ‚verankert‘ sind, dass sie bei Bedarf ‚mühelos‘ erinnern lassen.

Ein anderer Punkt ist die Abstraktion. Wenn wir über alltägliche Situationen sprechen, dann benutzen wir beständig Allgemeinbegriffe wie ‚Tasse‘, ‚Stuhl‘, ‚Tisch‘, ‚Mensch‘ usw. um über ‚konkrete individuelle Objekte‘ zu sprechen. So nennen wir ein konkretes rotes Etwas auf dem Tisch eine Tasse, ein anderen blaues konkretes Etwas aber auch, obgleich sie Unterschiede aufweisen. Desgleichen nennen wir ein ‚vertikales durchsichtiges Etwas‘ eine Flasche, ein vertikales grünliches Etwas auch; usw.

Unser Gedächtnis besitzt die wunderbare Eigenschaft, alles, was sinnlich wahrgenommen wird, durch einen unbewussten automatischen Abstraktionsprozess in eine abstrakte Struktur, in einen Allgemeinbegriff, in eine ‚Kategorie‘ zu übersetzen. Dies ist extrem effizient. Auf diese Weise kann das Gedächtnis mit einem einzigen Konzept hunderte, tausende, ja letztlich unendlich viele konkrete Objekte klassifizieren, identifizieren und damit weiter arbeiten.

Welt im Tresor

Ohne die Inhalte unseres Gedächtnisses würden wir nur in Augenblicken existieren, ohne vorher und nachher. Alles wäre genau das, wie es gerade erscheint. Nichts hätte eine Bedeutung.

Durch die Möglichkeit des ‚Speicherns‘ von Ereignisse (auch in den abstrakten Formen von Kategorien), und des ‚Erinnerns‘ können wir ‚vergleichen‘, können somit Veränderungen feststellen, können Abfolgen und mögliche Verursachungen erfassen, Regelmäßigkeiten bis hin zu Gesetzmäßigkeiten; ferner können wir Strukturen erfassen.

Eine Besonderheit sticht aber ins Auge: nur ein winziger Teil unseres potentiellen Wissens ist ‚aktuell verfügbar/ bewusst‘; meist weniger als 9 Einheiten! Alles andere ist nicht aktuell verfügbar, ist ’nicht bewusst‘!

Man kann dies so sehen, dass die schier unendliche Menge der bisher von uns wahrgenommenen Ereignisse im Langzeitgedächtnis weggesperrt ist wie in einem großen Tresor. Und tatsächlich, wie bei einem richtigen Tresor brauchen auch wir selbst ein Codewort, um an den Inhalt zu gelangen, und nicht nur ein Codewort, nein, wir benötigen für jeden Inhalt ein eigenes Codewort. Das Codewort für das abstrakte Konzept ‚Flasche‘ ist ein konkretes ‚Flaschenereignis‘ das — hoffentlich — genügend Merkmale aufweist, die als Code für das abstrakte Konzept ‚Flasche‘ dienen können.

Wenn über solch einen auslösenden Merkmalscode ein abstraktes Konzept ‚Flasche‘ aktiviert wird, werden in der Regel aber auch alle jene Konzepte ‚aktiviert‘, die zusammen mit dem Konzept ‚Flasche‘ bislang aufgetreten sind. Wir erinnern dann nicht nur das Konzept ‚Flasche‘, sondern eben auch all diese anderen Ereignisse.

Finden wir keinen passenden Code, oder wir haben zwar einen Code, aber aus irgendwelchen Emotionen heraus haben wir Angst, uns zu erinnern, passiert nichts. Eine Erinnerung findet nicht statt; Blockade, Ladehemmung, ‚blackout‘.

Bewusstsein im Nichtbewusstsein

Im Alltag denken wir nicht ‚über‘ unser Gehirn nach, sondern wir benutzen es direkt. Im Alltag haben wir subjektiv Eindrücke, Erlebnisse, Empfindungen, Gedanken, Vorstellungen, Fantasien. Wir sind ‚in‘ unserem Erleben, wir selbst ‚haben‘ diese Eindrücke. Es sind ‚unsere‘ Erlebnisse‘.

Die Philosophen haben diese Erlebnis- und Erkenntnisweise den Raum unseres ‚Bewusstseins‘ genannt. Sie sprechen davon, dass wir ‚Bewusstsein haben‘, dass uns die Ding ‚bewusst sind‘; sie nennen die Inhalte unseres Bewusstseins ‚Qualia‘ oder ‚Phänomene‘, und sie bezeichnen diese Erkenntnisperspektive den Standpunkt der ‚ersten Person‘ (‚first person view‘) im Vergleich zur Betrachtung von Gegenständen in der Außenwelt, die mehrere Personen gleichzeitig haben können; das nennen sie den Standpunkt der ‚dritten Person‘ (‚third person view‘) (Anmerkung: Ein Philosoph, der dies beschrieben hat, ist Thomas Nagel. Siehe zur Person: Thomas Nagel. Ein Buch von ihm, das hir einschlägig ist: ‚The view from nowhere‘, 1986, New York, Oxford University Press).

Nach den heutigen Erkenntnissen der Neuropsychologie gibt es zwischen dem, was die Philosophen ‚Bewusstsein‘ nennen und dem, was die Neuropsychologen ‚Arbeitsgedächtnis‘ nennen, eine funktionale Korrespondenz. Wenn man daraus schließen kann, dass unser Bewusstsein sozusagen die erlebte ‚Innenperspektive‘ des ‚Arbeitsgedächtnisses‘ ist, dann können wir erahnen, dass das, was uns gerade ‚bewusst‘ ist, nur ein winziger Bruchteil dessen ist, was uns ’nicht bewusst‘ ist. Nicht nur ist der potentiell erinnerbare Inhalt unseres Langzeitgedächtnisses viel größer als das aktuell gewusste, auch die Milliarden von Prozessen in unserem Körper sind nicht bewusst. Ganz zu schweigen von der Welt jenseits unseres Körpers. Unser Bewusstsein gleicht damit einem winzig kleinen Lichtpunkt in einem unfassbar großen Raum von Nicht-Bewusstsein. Die Welt, in der wir bewusst leben, ist fast ein Nichts gegenüber der Welt, die jenseits unseres Bewusstseins existiert; so scheint es.

Außenwelt in der Innenwelt

Der Begriff ‚Außenwelt‘, den wir eben benutzt haben, ist trügerisch. Er gaukelt vor, als ob es da die Außenwelt als ein reales Etwas gibt, über das wir einfach so reden können neben dem Bewusstsein, in dem wir uns befinden können.

Wenn wir die Erkenntnisse der Neuropsychologie ernst nehmen, dann findet die Erkenntnis der ‚Außenwelt‘ ‚in‘ unserem Gehirn statt, von dem wir wissen, dass es ‚in‘ unserem Körper ist und direkt nichts von der Außenwelt weiß.

Für die Philosophen aller Zeiten war dies ein permanentes Problem. Wie kann ich etwas über die ‚Außenwelt‘ wissen, wenn ich mich im Alltag zunächst im Modus des Bewusstseins vorfinde?

Seit dem Erstarken des empirischen Denkens — spätestens seit der Zeit Galileis (Anmerkung: Galilei) — tut sich die Philosophie noch schwerer. Wie vereinbare ich die ‚empirische Welt‘ der experimentellen Wissenschaften mit der ’subjektiven Welt‘ der Philosophen, die auch die Welt jedes Menschen in seinem Alltag ist? Umgekehrt ist es auch ein Problem der empirischen Wissenschaften; für den ’normalen‘ empirischen Wissenschaftler ist seit dem Erstarken der empirischen Wissenschaften die Philosophie obsolet geworden, eine ’no go area‘, etwas, von dem sich der empirische Wissenschaftler fernhält. Dieser Konflikt — Philosophen kritisieren die empirischen Wissenschaften und die empirischen Wissenschaften lehnen die Philosophie ab — ist in dieser Form ein Artefakt der Neuzeit und eine Denkblokade mit verheerenden Folgen.

Die empirischen Wissenschaften gründen auf der Annahme, dass es eine Außenwelt gibt, die man untersuchen kann. Alle Aussagen über die empirische Welt müssen auf solchen Ereignissen beruhen, sich im Rahmen eines beschriebenen ‚Messvorgangs‘ reproduzieren lassen. Ein Messvorgang ist immer ein ‚Vergleich‘ zwischen einem zuvor vereinbarten ‚Standard‘ und einem ‚zu messenden Phänomen‘. Klassische Standards sind ‚das Meter‘, ‚das Kilogramm‘, ‚die Sekunde‘, usw. (Anmerkung: Siehe dazu: Internationales Einheitensystem) Wenn ein zu messendes Phänomen ein Objekt ist, das z.B. im Vergleich mit dem Standard ‚Meter [m]‘ die Länge 3m aufweist, und jeder, der diese Messung wiederholt, kommt zum gleichen Ergebnis, dann wäre dies eine empirische Aussage über dieses Objekt.

Die Einschränkung auf solche Phänomene, die sich mit einem empirischen Messstandard vergleichen lassen und die von allen Menschen, die einen solchen Messvorgang wiederholen, zum gleichen Messergebnis führen, ist eine frei gewählte Entscheidung, die methodisch motiviert ist. Sie stellt sicher, dass man zu einer Phänomenmenge kommt, die allen Menschen(Anmerkung: die über gleiche Fähigkeiten der Wahrnehmung und des Denkens verfügen. Blinde Menschen, taube Menschen usw. könnten hier Probleme bekommen!“> … in gleicher Weise zugänglich und für diese nachvollziehbar ist. Erkenntnisse, die allen Menschen in gleicher Weise zugänglich und nachprüfbar sind haben einen unbestreitbaren Vorteil. Sie können eine gemeinsame Basis in einer ansonsten komplexen verwirrenden Wirklichkeit bieten.

Die ‚Unabhängigkeit‘ dieser empirischen Messvorgänge hat im Laufe der Geschichte bei vielen den Eindruck vertieft, als ob es die ‚vermessene Welt‘ außerhalb und unabhängig von unserem Bewusstsein als eigenständiges Objekt gibt, und dass die vielen ‚rein subjektiven‘ Empfindungen, Stimmungen, Vorstellungen im Bewusstsein, die sich nicht direkt in der vermessbaren Welt finden, von geringerer Bedeutung sind, unbedeutender ’subjektiver Kram‘, der eine ‚Verunreinigung der Wissenschaft‘ darstellt.

Dies ist ein Trugschluss mit verheerenden Folgen bis in die letzten Winkel unseres Alltags hinein.

Der Trugschluss beginnt dort, wo man übersieht, dass die zu messenden Phänomene auch für den empirischen Wissenschaftler nicht ein Sonderdasein führen, sondern weiterhin nur Phänomene seines Bewusstseins sind, die ihm sein Gehirn aus der Sinneswahrnehmung ‚herausgerechnet‘ hat. Vereinfachend könne man sagen, die Menge aller Phänomene unseres Bewusstseins — nennen wir sie PH — lässt sich aufteilen in die Teilmenge jener Phänomene, auf die sich Messoperationen anwenden lassen, das sind dann die empirischen Phänomene PH_EMP, und jene Phänomene, bei denen dies nicht möglich ist; dies sind dann die nicht-empirischen Phänomene oder ‚rein subjektiven‘ Phänomene PH_NEMP. Die ‚Existenz einer Außenwelt‘ ist dann eine Arbeitshypothese, die zwar schon kleine Kindern lernen, die aber letztlich darauf basiert, dass es Phänomene im Bewusstsein gibt, die andere Eigenschaften haben als die anderen Phänomene.

In diesen Zusammenhang gehört auch das Konzept unseres ‚Körpers‘, der sich mit den empirischen Phänomenen verknüpft.

Der Andere als Reflektor des Selbst

Bislang haben wir im Bereich der Phänomene (zur Erinnerung: dies sind die Inhalte unseres Bewusstseins) unterschieden zwischen den empirischen und den nicht-empirischen Phänomenen. Bei genauerem Hinsehen kann man hier viele weitere Unterscheidungen vornehmen. Uns interessiert hier nur der Unterschied zwischen jenen empirischen Phänomenen, die zu unserem Körper gehören und jenen empirischen Phänomenen, die unserem Körper ähneln, jedoch nicht zu uns, sondern zu jemand ‚anderem‘ gehören.

Die Ähnlichkeit der Körperlichkeit des ‚anderen‘ zu unserer Körperlichkeit bietet einen Ansatzpunkt, eine ‚Vermutung‘ ausbilden zu können, dass ‚in dem Körper des anderen‘ ähnliche innere Ereignisse vorkommen, wie im eigenen Bewusstsein. Wenn wir gegen einen harten Gegenstand stoßen, dabei Schmerz empfinden und eventuell leise aufschreien, dann unterstellen wir, dass ein anderer, wenn er mit seinem Körper gegen einen Gegenstand stößt, ebenfalls Schmerz empfindet. Und so in vielen anderen Ereignissen, in denen der Körper eine Rolle spielt(Anmerkung: Wie wir mittlerweile gelernt haben, gibt es Menschen, die genetisch bedingt keine Schmerzen empfinden, oder die angeboren blind oder taub sind, oder die zu keiner Empathie fähig sind, usw.“> … .

Generalisiert heißt dies, dass wir dazu neigen, beim Auftreten eines Anderen Körpers unser eigenes ‚Innenleben‘ in den Anderen hinein zu deuten, zu projizieren, und auf diese Weise im anderen Körper ‚mehr‘ sehen als nur einen Körper. Würden wir diese Projektionsleistung nicht erbringen, wäre ein menschliches Miteinander nicht möglich. Nur im ‚Übersteigen‘ (‚meta‘) des endlichen Körpers durch eine ‚übergreifende‘ (‚transzendierende‘) Interpretation sind wir in der Lage, den anderen Körper als eine ‚Person‘ zu begreifen, die aus Körper und Seele, aus Physis und Psyche besteht.

Eine solche Interpretation ist nicht logisch zwingend. Würden wir solch eine Interpretation verweigern, dann würden wir im Anderen nur einen leblosen Körper sehen, eine Ansammlung von unstrukturierten Zellen. Was immer der Andere tun würde, nichts von alledem könnte uns zwingen, unsere Interpretation zu verändern. Die ‚personale Wirklichkeit des Anderen‘ lebt wesentlich von unserer Unterstellung, dass er tatsächlich mehr ist als der Körper, den wir sinnlich wahrnehmen können.

Dieses Dilemma zeigt sich sehr schön in dem berühmten ‚Turing Test'(Anmerkung: Turing-Test, den Alan Matthew Turing 1950 vorgeschlagen hatte, um zu testen, wie gut ein Computer einen Menschen imitiere kann. (Anmerkung: Es war in dem Artikel: „Alan Turing: Computing Machinery and Intelligence“, Mind 59, Nr. 236, Oktober 1950, S. 433–460) Da man ja ‚den Geist‘ selbst nicht sehen kann, sondern nur die Auswirkungen des Geistes im Verhalten, kann man in dem Test auch nur das Verhalten eines Menschen neben einem Computer beobachten, eingeschränkt auf schriftliche Fragen und Antworten. (Anmerkung: heute könnte man dies sicher ausdehnen auf gesprochene Fragen und Antworten, eventuell kombiniert mit einem Gesicht oder gar mehr“) Die vielen Versuche mit diesem Test haben deutlich gemacht — was man im Alltag auch ohne diesen Test sehen kann –, dass das beobachtbare Verhalten eines Akteurs niemals ausreicht, um logisch zwingend auf einen ‚echten Geist‘, sprich auf eine ‚echte Person‘ schließen zu können. Daraus folgt nebenbei, dass man — sollte es jemals hinreichend intelligente Maschinen geben — niemals zwingend einen Menschen, nur aufgrund seines Verhaltens, von einer intelligenten Maschine unterscheiden könnte.

Rein praktisch folgt aus alledem, dass wir im Alltag nur dann und solange als Menschen miteinander umgehen können, solange wir uns wechselseitig ‚Menschlichkeit‘ unterstellen, an den ‚Menschen‘ im anderen glauben, und mein Denken und meine Gefühle hinreichend vom Anderen ‚erwidert‘ werden. Passiert dies nicht, dann muss dies noch nicht eine völlige Katastrophe bedeuten, aber auf Dauer benötigen Menschen eine minimale Basis von Gemeinsamkeiten, auf denen sie ihr Verhalten aufbauen können.

Im positiven Fall können Unterschiede zwischen Menschen dazu führen, dass man sich wechselseitig anregt, man durch die Andersartigkeit ‚Neues‘ lernen kann, man sich weiter entwickelt. Im negativen Fall kann es zu Missverständnissen kommen, zu Verletzungen, zu Aggressionen, gar zur wechselseitigen Zerstörung. Zwingend ist keines von beidem.

Fortsetzung mit Kapitel 4 (neu).

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 5

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll

Das Wunder des Zeichens

Wenn wir zu verstehen beginnen, dass die wunderbare Welt unseres Erkennens im Gehirn stattfindet, das in unserem Körper eingeschlossen getrennt von der Welt existiert, kann sich die Frage stellen, wie denn das Gehirn von Dir und mein Gehirn miteinander kommunizieren können. Wie erfahre ich, was Du willst, und Du, was ich will? Woher kann ich wissen, warum Du diese Handlung gut findest, und wie erfährst Du, warum ich die andere Handlung gut finde?

Diese Fragen zielen auf das Wunder der Koordination zwischen Menschen, aber letztlich auch zwischen Tieren, auch zwischen Pflanzen, ja generell: wieso können biologische Zellen ihr Verhalten koordinieren?

Hier gibt es noch viele Fragen, auf die die Wissenschaften bis heute keine voll befriedigenden Antworten gefunden hat. Auf einige dieser Fragen werde ich weiter unten noch eingehen. Jetzt, hier, in diesem Kapitel, soll es um die Frage gehen, wie wir Menschen die Frage der Kommunikation mittels Sprache — zumindest ansatzweise — gelöst haben.

Auf etwas zeigen

Wenn Menschen mit anderen zusammen am Tisch sitzen und Essen ist es oft so, dass man einen Gegenstand vom Tisch benötigt, der weiter weg steht und man denjenigen bittet, der am nächsten dran sitzt, einem den Gegenstand zu reichen.

Man kann dies tun, indem man mit der Hand, den Fingern, mit dem Gesicht in die Richtung des Gegenstandes deutet und die andere Person ‚erkennt‘ aus der Richtung und dem, was sich auf dem Tisch befindet, was ‚gemeint‘ ist; die andere Person deutet dann vielleicht selbst auf diesen Gegenstand, mit einem fragenden Blick, und wenn es der Gegenstand ist, den man meint, dann nickt man vielleicht, freundlich, mit einem Lächeln, und die andere Person reicht einem den Gegenstand.

In diesem Fall waren es Bewegungen des Körpers und bestimmte Körperhaltungen die in einer konkreten Situation mit Teilen der Situation in Interaktion treten und die, eine andere ‚kooperierenden Person‘ vorausgesetzt, von dieser anderen kooperierenden Person mit bestimmten Teilen der Situation ‚in Beziehung gesetzt‘ werden. Eine Handbewegung ist in diesem Fall nicht einfach eine Handbewegung ‚für sich‘, sondern eine Handbewegung als Teil einer größeren Situation, wo der ‚Andere‘ die Handbewegung mit einem bestimmten Teil der Situation, einem Gegenstand G, in eine ‚Beziehung‘ bringt. Diese Beziehung ist selbst kein realer Gegenstand sondern ist eine der vielen ‚möglichen gedachten Beziehungen‘ im Kopf des Anderen zwischen der beobachteten Handbewegung und den verschiedenen Gegenständen auf dem Tisch. Durch den fragenden Blick will der Andere wissen, ob seine ‚gedachte Beziehung‘ jene Beziehung ist, die der Bittende ‚intendiert‘ (sich vorgestellt, gedacht, …) hatte. Wenn der Bittende bestätigend nickt, dann fühlt der Andere sich ‚bestätigt‘ und nimmt die hypothetische gedachte Beziehung als jene Beziehung, die jetzt in dieser Situation vom Bittenden ‚gemeint‘ ist. Punktuell, kurzfristig wurde also im Raum der vielen Möglichkeiten eine bestimmte mögliche Beziehung als hier und jetzt gewollte gedacht und durch Bewegungen ‚manifestiert‘ (ausgedrückt, mitgeteilt, …).

Wenn wir dieses alltägliche Beispiel verallgemeinern, dann haben wir folgende (theoretische) Zutaten:

  1. Wir haben mindestens zwei Teilnehmer A und B, die ein Kommunikationsspiel spielen.
  2. Wir unterstellen bei jedem Teilnehmer ein Bewusstsein, das einem Teilnehmer ermöglicht, Eigenschaften der Außenwelt W in seinem Bewusstsein ‚hinreichend gut‘ zu ‚repräsentieren‘.
  3. Jeder Teilnehmer hat einen Körper, der von dem anderen wahrgenommen werden kann und der Eigenschaften besitzt, die eine Unterscheidung von Körperhaltungen und Körperbewegungen erlauben.
  4. In der gemeinsam geteilten Situation (als Teil der Außenwelt) gibt es Objekte, die Eigenschaften besitzen, wodurch sie sich voneinander unterscheiden und aufgrund deren sie von den Teilnehmern ‚wahrgenommen‘ werden können.
  5. Wir unterscheiden zwischen der ‚Stimulation‘ der Sinnesorgane in Gestalt von sensorischem Input I durch die Objekte OBJ der Außenwelt (als stim: SIT \times OBJ \longmapsto I) und der eigentlichen Wahrnehmung als Ergebnis der internen Verarbeitung der Stimulation I in bewusste Perzepte P (als perc: I \times IS \longmapsto IS \times P) (‚IS‘ steht für irgendwelche internen Zustände, die bei diesem Prozess auch noch eine Rolle spielen.). Dies berücksichtigt, dass die gleichen Außenweltreize von verschiedenen Anderen unterschiedlich verarbeitet werden können.
  6. Objekte in der Außenwelt werden — auf unterschiedliche Weise — so wahrgenommen, als ob sie sich in einem dreidimensionalen Raum befinden. Dies bedeutet, eine Situation hat eine ‚Raumstruktur‘, in der die Objekte in bestimmten Positionen und Lagen vorkommen. Dadurch ergeben sich zwischen den Objekten charakteristische räumliche Beziehungen. Während die Stimulation der Sinnesorgane diese räumlichen Strukturen partiell ‚vereinfacht‘, kann die Wahrnehmung mit Unterstützung des Gehirns daraus partiell räumliche Strukturen ‚zurückrechnen‘.
  7. Wenn zwei Gegenstände sich im Raum der Außenwelt so befinden, dass wir sie wahrnehmen können (z.B. eine Schüssel auf dem Tisch und eine Hand, die in diese ‚Richtung‘ deutet), können wir außer der räumlichen Beziehung auch andere mögliche Beziehungen (z.B. eine ‚Zeigebeziehung‘) wahrnehmen. Diese Beziehungen existieren als mögliche ‚gedachte Beziehungen‘ im Bewusstsein eines Teilnehmers. Ein Teilnehmer kann sich unendlich viele Beziehungen denken.
  8. Dass ein Anderer A zwei Objekte der Außenwelt mit einer ‚gedachten Beziehung‘ verbinden kann, die der Bittende B in seinem Bewusstsein ’sich vorstellt’/ ‚denkt‘, setzt ferner voraus, dass es zwischen der Wahrnehmung und dem ‚Vorstellen’/ ‚Denken‘ zwischen A und B hinreichend viel ‚Ähnlichkeit‘ gibt. Könnte ein A grundsätzlich sich nicht jene ‚Beziehungen‘ ‚vorstellen‘, die sich B vorstellt, wenn er mit seiner Hand in Richtung eines bestimmten Gegenstands (z.B. der einen roten Schüssel …) deutet, dann könnte B so viel deuten wie er will, der Andere A würde sich einfach nicht vorstellen

Nach dieser — noch immer vereinfachenden — Darstellung des Sachverhalts, können wir uns dem Begriff des Zeichens zuwenden.

Der Begriff des Zeichens

Mit dieser Frage gerät man in den Bereich der allgemeinen Wissenschaft von den Zeichen, der Semiotik (Anmerkung: Die Geschichte der Semiotik ist lang und vielschichtig. Einen guten Überblick bietet Winfried Noeth in seinem ‚Handbuch der Semiotik‘ von 2000, publiziert von J.B. Metzler (Stuttgart/Weimar)). Obwohl es je nach Zeit und Denkmode sehr unterschiedliche Formulierungen gibt, kann man eine Kernstruktur erkennen, die sich in allen unterschiedlichen Positionen durchhält.

Allerdings sollte man sich vorab klar machen, ob man — wie es historisch zunächst der Fall war — den Begriff des Zeichens primär durch Bezugnahme auf den Raum des Bewusstseins charakterisieren will, oder durch Bezugnahme auf das beobachtbare Verhalten (wie es die empirischen Wissenschaften favorisieren).

Der berühmteste Vertreter einer bewusstseinszentrierten Vorgehensweise ist Charles Sanders Peirce (1839 – 1914). Für den verhaltensorientierten Ansatz einflussreich war Charles William Morris (1901 – 1979). Eine Kombination aus bewusstseinsbasierten und verhaltensorientierten Aspekten bietet Ferdinand de Saussure (1857 – 1913).

Der Gebrauch eines Zeichens setzt — wie zuvor — eine Kommunikationssituation voraus mit mindestens zwei Teilnehmern, die mit ihren Körpern in der Situation anwesend sind und über hinreichend gleiche Körperstrukturen für Wahrnehmung und Denken verfügen.

Am Beispiel der Situation des Essens möchte ich die rote Schüssel mit dem Nachtisch gereicht bekommen; diese steht nicht in meiner Griffweite. Ich sehe meine Schwester Martina so sitzen, dass Sie mir die Schüssel reichen könnte. Ohne Sprache könnte ich nur mit Handbewegungen und Gesichtsausdrücken versuchen, ihr klar zu machen, was ich möchte. Mit Sprache könnte ich Laute erzeugen, die als Schallwellen ihr Ohr erreichen und sagen würden ‚Hallo M, kannst Du mir bitte mal die rote Schüssel reichen?‘. Sofern meine Schwester Deutsch kann (was der Fall ist), wird sie diese Schallwellen in ihrem Kopf so ‚übersetzen‘, dass sie einen Bezug herstellt zu ihrer Wahrnehmung der roten Schüssel, zur Wahrnehmung von mir, und wird eine Aktion einleiten, mir die Schüssel zu reichen.

Der gesprochene Satz ‚Hallo M, kannst Du mir bitte mal die rote Schüssel reichen?‘ als ganzer stellt ein Ausdrucksmittel dar, bildet ein Material, mittels dessen ein Sprecher (in dem Fall ich), einen Hörer (in dem Fall meine Schwester) in die Lage versetzt, nur aufgrund des Schalls einen Bezug zu einem realen Objekt herzustellen und dieses Objekt in eine Handlung (mir das Objekt rüber reichen) einzubetten. Meine Schwester als Hörerin ist damit interpretierend tätig; sie stellt aktiv eine Verbindung her zwischen dem gehörten Schall und Elementen ihrer Wahrnehmung der Situation. Diese Interpretation befähigt sie, eine Handlung zu planen und auszuführen.

Rein verhaltensorientiert kann man sagen, dass die gesamte sprachliche Äußerung ein Zeichenmaterial darstellt, das vom Hörer intern ‚verarbeitet‘ wird, was zu einer bestimmten Handlung führt (die rote Schüssel reichen). Der Hörer nimmt hier eine Interpretation (Int) vor, durch die der Schall, das Zeichenmaterial (ZM) in Beziehung gesetzt wird zu etwas Wahrgenommenem; dies führt wiederum zu einer beobachtbaren Handlung, die damit zur Bedeutung (M) des Zeichenmaterials wird: Int: ZM \longmapsto M. Anders ausgedrückt, das Gesagte, der Sprachschall, bekommt durch diesen Zusammenhang eine neue Funktion; der Schall steht nicht mehr nur ‚für sich alleine‘, sondern es spielt eine Rolle in einer Beziehung. Damit wird das an sich neutrale Schallereignis zu einem ‚Zeichen‘. Ein Hörer verwandelt mit seiner Interpretation ein an sich neutrales Ereignis in ein Zeichen für etwas anderes, was man die Bedeutung des Zeichens nennt.

Als Wissenschaftler kann man hier weiter verallgemeinern und den Hörer als ein Input-Output-System betrachten mit dem Sprachschall und den visuellen Wahrnehmungen als Input I und dem beobachtbaren Verhalten als Output O und der Interpretation Int als Verhaltensfunktion \phi, geschrieben \phi: I \times IS \longmapsto IS \times O

Interpretieren

Wer die Thematik ‚Zeichen‘, ‚Semiotik‘, ‚Sprache‘, Sprachverstehen‘ usw. ein wenig kennt, der weiß, dass wir uns damit einer Materie genähert haben, die sehr umfangreich und beliebig kompliziert ist, so kompliziert, dass fast alle wirklich interessanten Fragen noch kaum als gelöst bezeichnet werden können. Ich beschränke mich daher hier nur auf einige Kernpunkte. Nach Bedarf müssten wir das vertiefen.

Wie man an dieser Stelle ahnen kann, ist der Vorgang des Interpretierens das eigentliche Herzstück des Zeichenbegriffs. Hier geschieht die Zuordnung zwischen gehörtem Schall (oder gelesenem Text, oder gesehenen Gesten, oder …) zu anderen bekannten Wissensinhalten, vorzugsweise zu Wahrnehmungselementen der aktuellen Situation. Will man die Details dieses Interpretationsprozesses beschreiben, hat man mit einem verhaltensbasierten Ansatz ein Problem: alles, was sich im ‚Innern‘ eines biologischen Systems abspielt, ist zunächst nicht beobachtbar. Da hilft es auch nicht, wenn man heute einen Körper ‚aufmachen‘ kann und Körperorgane, Zellen, Prozesse in den Zellen untersuchen kann. Schaltzustände von Zellen, speziell Gehirnzellen, sagen als solche nichts über das Verhalten. Es sei denn, man ist in der Lage, explizit einen Zusammenhang zwischen den Zuständen von Gehirnzellen und beobachtbarem Verhalten herzustellen, was in der Neuropsychologie zur Methode gehört. Ähnlich könnte man bei der expliziten Parallelisierung von beobachtbarem Verhalten und rein subjektiven Phänomenen vorgehen oder eine explizite Parallelisierung zwischen Aktivitäten von Gehirnzellen (oder auch anderer Zellen) mit rein subjektiven Phänomenen.

Die verhaltensbasierte empirische Psychologie hat in zahllosen Modellbildungen gezeigt, wie man auf der Basis von Verhaltensdaten empirisch kontrollierte Hypothesen über mögliche Verarbeitungsmechanismen im System formulieren kann. Wieweit diese Modelle sich im Rahmen von neuropsychologischen Studien in der Zukunft bestätigen lassen oder diese modifiziert werden müssen, das wird die Zukunft zeigen.

Abstraktionen – Allgemeinbegriffe

Wenn wir mittels sprachlicher Ausdrücke Gegenstände unserer Alltagswelt ansprechen, benutzen wir fast ausnahmslos sogenannte Allgemeinbegriffe. Ich frage nach der ‚Schüssel‘ wohl wissend, dass es hunderte von Gegenständen geben kann, die konkret verschieden sind, die wir aber alle als ‚Schüssel‘ bezeichnen würden; desgleichen mit Ausdrücken wie ‚Tasse‘, ‚Flasche‘, ‚Tisch‘, Stuhl‘, usw.

Indem wir sprachliche Ausdrücke benutzen machen wir stillschweigend Gebrauch von der Fähigkeit unseres Gedächtnisses, dass alles, was wir gegenständlich wahrnehmen, ‚verallgemeinert‘ wird, d.h. von Details abgesehen wird und Kerneigenschaften abstrahiert werden (die Philosophen sprechen auch von Kategorisierung, der Bildung von Kategorien; eine andere Bezeichnung ist das Wort ‚Klasse‘). Dies geschieht offensichtlich unbewusst, ‚automatisch‘; unser Gedächtnis arbeitet einfach so, stillschweigend, lautlos. Was immer wir wahrnehmen, es wird in ein abstraktes Konzept ‚übersetzt‘, und alles, was zukünftig diesem Konzept ‚ähnlicher‘ ist als anderen Konzepten, das wird dann diesem Konzept zugerechnet. Ein gedankliches Gegenstandskonzept kann auf diese Weise für viele hundert unterschiedliche konkrete Gegenstände stehen. Und die Sprache braucht immer nur ein einziges Wort für ein solches abstraktes Gegenstands-Konzept.

Im konkreten Fall (wie z.B. dem Essen) ist die Verständigung meist einfach, da vielleicht nur eine einzige Schüssel auf dem Tisch steht. Wenn nicht, dann haben diese Schüsseln eventuell eine unterscheidende Eigenschaft (anhand ihrer räumlichen Position, Farbe, Größe, Inhalt, …). Die Schüssel ’neben‘ …, die ‚rote‘ Schüssel…, die ‚kleine weiße Schüssel‘ …, die Schüssel mit dem Reis ….

Wenn wir den Interpretationsprozess genauer beschreiben wollen, dann müssten wir diese Abstraktionsprozesse und ihre Anwendung in die Theoriebildung mit einbeziehen.

Diese Abstraktionsprozesse finden wir nicht nur bei ‚Gegenständen‘, sondern auch bei der Lautwahrnehmung. Wen wir ein gesprochenes Wort wie ‚Tasse‘ hören, dann hören wir dieses gesprochene Wort auch dann, wenn es schneller, langsamer, höher, tiefer, lauter oder leiser usw. gesprochen wird. Alle diese verschiedenen Äußerungsereignisse sind physikalisch sehr unterschiedlich und die moderne Sprachtechnologie hat viele Jahrzehnte gebraucht, um ‚in den meisten Fällen‘ das ‚richtige‘ Wort zu erkennen. Wir Menschen gehen mit diesen vielen unterschiedlichen Realisierungen vergleichsweise mühelos um. Auch hier verfügt unser Wahrnehmungs- und Gedächtnissystem über sehr leistungsfähige Abstraktionsprozesse, die zur Ausbildung von Lautkategorien und dann Wortklassen führen.

Wechselwirkungen zwischen Kategorien und Sprache

Damit finden wir auf der untersten Ebene des sprachlichen Zeichengebrauchs zwei selbständige Abstraktions- und Kategoriensysteme (Laute, Gegenstände), die im Zeichengebrauch zusammen geführt werden. Bevor Kinder diese beiden Systeme nicht meistern, können sie nicht wirklich Sprache lernen. Wenn sie es aber geschafft haben, diese Laut- und Gegenstandskategorien in sich zu realisieren, dann explodiert ihr Sprachlernen. (Anmerkung: Für einen Überblick siehe: Language development. Besonders aufschlussreich sind die empirischen Daten zur Entwicklung der Lautbildung, des Bedeutungserwerbs und der Grammatik. Umfassendere Theoriebildungen sind meist sehr spekulativ.)

Eine oft diskutierte Frage ist, in wieweit die Kategorienbildung bei den Gegenständen unabhängig ist von der Korrelation mit den Laut- und Wortkategorien (Anmerkung: Siehe einen Überblick zum Streit über die Sapir-Whorf-Hypothese.). Sofern diese Abstraktionsprozesse in genetisch bedingten Verarbeitungsprozessen gründen (wie z.B. der Farbwahrnehmung) darf man davon ausgehen, dass die sprachlichen Besonderheiten diese grundsätzlichen Kategorienbildung im Gegenstandsbereich nicht verändern, höchstens unterschiedlich nutzen. Für das gemeinsame Erlernen von Sprache bildet die Unabhängigkeit der vorsprachlichen Kategorienbildung eine Voraussetzung, dass eine Sprache gelernt werden kann. Gibt es hier Abweichungen (Anmerkung: wie z.B. bei Farbblindheit, generell Sehstörungen oder gar Blindheit, bei Taubheit, bei Störungen der Sinneswahrnehmungen, usw.), dann wird das gemeinsame Erlernen von Sprache in unterschiedlichen Graden erschwert bzw. eingeschränkt.

Bedeutung als Werden

Man kann erkennen, dass schon auf dieser untersten Ebene des Sprachgebrauchs Menschen, obgleich sie das gleiche Wort benutzen (wie ‚Flasche‘, ‚Tasse‘, …), damit ganz unterschiedliche Dinge verbinden können, je nachdem welche konkreten Gegenstände sie im Laufe ihrer Lerngeschichte sie wahrnehmen konnten. Je weiter sich diese Gegenstände von einfachen Alltagsgegenständen entfernen und komplexere Gegenstände benennen wie Tätigkeiten (‚Autofahren‘, ‚Einkaufen‘, ‚Reparieren‘, ..), komplexe Situationen (‚Parkhaus‘, ‚Jahrmarkt‘, ‚Sportveranstaltung‘, …) oder komplexe Organisationen (‚Gemeindeverwaltung‘, ‚politische Partei‘, ‚Demokratie‘, …), umso vielfältiger und umso unschärfer (‚fuzzy‘) werden die damit eingeschlossenen konkreten Eigenschaften. So wunderbar die Verfügbarkeit von abstrakten Begriffen/ Klassen/ Kategorien/ Allgemeinbegriffen den Gebrauch von Sprache vereinfacht, so trügerisch können diese Begriffe sein. 10 Menschen benutzen das Wort ‚Gott‘ und jeder versteht damit möglicherweise etwas ganz anderes.

Der Aufbau einer gemeinsam geteilten Bedeutungswelt ist in keiner Weise ein ‚Selbstgänger‘; langer Atem, gemeinsame Anstrengungen, Abstimmungen, Abgleiche, viel Kommunikation ist notwendig, um Verstehen zu ermöglichen, Missverständnisse zu verringern und bewusster Manipulation entgegen zu treten.

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.