Archiv der Kategorie: Bedeutungsbeziehung

MODERNE PROPAGANDA – Aus philosophischer Sicht. Erste Überlegungen

Autor: Gerd Doeben-Henisch

Zeit: 26.Dez 2023 – 8.Jan 2024, 09:45h

Email: gerd@doeben-henisch.de

ENGLISCH: Es entsteht parallel eine Englische Version dieses Blog-Eintrags mit verändertem Titel „There exists only one big Problem for the Future of Human Mankind: The Belief in false Narratives“. Gegenüber dem Deutschen Original ist der Englische Text leicht revidiert.

Dieser Blogeintrag wird heute abgeschlossen werden. Er hat jedoch den Grundstein für Überlegungen gelegt, die in einem neuen Blogeintrag (?) weiterverfolgt werden sollen.

(?) Dieser Link führt ins Leere. Dieser Blogeintrag ist nicht mehr auffindbar. Komisch. Eine weitere Fortsetzung gibt es aber HIER.

EINLEITUNG

UNSCHEINBARER ANFANG

Auslöser für den folgenden Text war die Lektüre eines Buches, das 2023 in 3.Aufl vorliegt und welches das Label führt ‚Spiegel Bestseller‘. Ob das Buch wirklich mal auf der Bestseller Liste stand, konnte ich nicht verifizieren, da der Spiegel nur die jeweils aktuellen Liste anzeigt.

Wie auch immer, ich habe begonnen das Buch zu lesen, weil es mir von einer nahestehenden Person geschenkt wurde… Daraus folgt zwar nicht immer, dass ich dies dann auch lese (die Stapel der ‚zu lesenden Bücher‘ sind hoch), in diesem Fall habe ich es aber getan.

Während der Lektüre beschlich mich immer wieder und immer mehr der Verdacht, dass es sich bei diesem Buch um eine klassische Propagandaschrift handelt.

Beim Versuch, mein Konzept von ‚Propaganda‘ so zu präzisieren, dass ich damit klar argumentieren kann, gewann ich den Eindruck, dass mein Verständnis von Propaganda doch etwas unscharf war.

Ich entschied mich daher, mich zum Thema ‚Propaganda‘ weiter einzulesen (die Liste von Quellen unten auf der Seite enthält davon einige Titel). Dabei wurde offenbar, dass der Begriff der ‚Propaganda‘ in der Literatur eine große Bandbreite von Phänomenen anspricht, ohne dass ein ‚klares, konsistentes Konzept‘ sichtbar wird.

Dies war unbefriedigend.

Kann man über ‚Propaganda‘ entweder gar nicht oder nur ‚vage‘ reden?

WO WIR JEDEN TAG KOMMUNIZIEREN

Ich entschloss mich daher, mich dem Phänomen der ‚Propaganda‘ so zu nähern, dass ich zunächst versuche, das Phänomen der ‚allgemeinen Kommunikation‘ zu charakterisieren, um ein paar ‚härtere Kriterien‘ zu finden, die es erlauben würden, den Begriff der ‚Propaganda‘ doch einigermaßen verständlich vor diesem allgemeinen Hintergrund abzuheben.

Die Umsetzung dieses Ziels führte dann tatsächlich zu einer immer grundlegenderen Untersuchung unserer normalen (menschlichen) Kommunikation, so dass Formen von Propaganda als ‚Spezialfälle‘ unserer Kommunikation erkennbar werden. Das Beunruhigende daran: auch die sogenannte ’normale Kommunikation‘ umfasst zahlreiche Elemente, die das Erkennen und das Weitergeben von ‚Wahrheit‘ (*) sehr schwer machen können. ‚Massive Fälle von Propaganda‘ haben also ihre ‚Heimat‘ dort, wo wir jeden Tag miteinander kommunizieren. Wenn wir Propaganda verhindern wollen, müssen wir also im Alltag ansetzen.

(*) Der Begriff der ‚Wahrheit‘ wird in dem anschließenden langen Text sehr ausführlich untersucht und erläutert. Leider habe ich dafür noch keine ‚Kurzformel‘ gefunden. Im Kern geht es darum, einen Bezug zu ‚realen‘ Ereignissen und Abläufen in der Welt — einschließlich des eigenen Körpers — so herzustellen, dass sie im Prinzip von anderen nachvollzogen und überprüft werden können.

DIKTATORISCHER KONTEXT

Schwierig wird es allerdings, wenn es genügend viel politische Macht gibt, die die gesellschaftlichen Rahmenbedingungen derart festsetzen kann, dass für den einzelnen Menschen im Alltag — dem Bürger ! — die allgemeine Kommunikation mehr oder weniger vorgeschrieben — ‚diktiert‘ — wird. Dann findet ‚Wahrheit‘ immer weniger bis gar nicht mehr statt. Eine Gesellschaft wird dann durch Unterdrückung von Wahrheit auf ihren eigenen Untergang gleichsam ‚programmiert‘. ([3], [6]).

ALLTAG ALS DIKTATOR ?
Die Stunde der Narrative

Aber — und dies ist die weit gefährlichere Form von ‚Propaganda‘ ! — auch wenn es nicht einen flächendeckenden Machtapparat gibt, der bestimmte Formen von ‚Wahrheit‘ vorschreibt, kann eine Verstümmelung oder eine grobe Verzerrung von Wahrheit dennoch im großen Stil stattfinden. Weltweit können wir heute im Zeitalter von Massenmedien, insbesondere im Zeitalter des Internets, feststellen, dass einzelne Menschen, kleine Gruppen, spezielle Organisationen, politische Gruppierungen, ganze Religionsgemeinschaften, eigentliche alle Menschen und ihre gesellschaftlichen Ausprägungen, einem bestimmten ‚Narrativ‘ [*11] folgen, wenn sie handeln. Typisch für das Handeln nach einem Narrativ ist, dass diejenigen, die dies tun, individuell glauben, dass es ‚ihre eigene Entscheidung‘ ist und dass das Narrativ ‚wahr‘ ist, und dass sie daher ‚im Recht sind‘, wenn sie danach handeln. Dieses sich ‚im Recht fühlen‘, kann bis dahin gehen, dass man für sich das Recht in Anspruch nimmt, andere zu töten, weil sie im Sinne des ‚Narrativ‘ ‚falsch handeln‘. Man sollte hier daher von einer ’narrativen Wahrheit‘ sprechen: Im Rahmen des Narrativs wird ein Bild von der Welt gezeichnet, das ‚als Ganzes‘ eine Perspektive ermöglicht, die von den Anhängern des Narrativ ‚als solche‘ ‚gut gefunden‘ wird, als ‚Sinn stiftend‘. Im Normalfall ist die Wirkung eines Narrativs, was als ‚Sinn stiftend‘ erlebt wird, so groß, dass der ‚Wahrheitsgehalt‘ im einzelnen nicht mehr überprüft wird.

RELIGIÖSE NARRATIVE

In der Geschichte der Menschheit gab es dies zu allen Zeiten. Besonders wirkungsvoll waren Narrative, die als ‚religiöse Überzeugungen‘ auftraten. Von daher ist es auch kein Zufall, dass fast alle Regierungen der letzten Jahrtausende religiöse Überzeugungen als Staatsdoktrin übernahmen; ein wesentlicher Bestandteil religiöser Überzeugungen ist, dass sie ’nicht beweisbar‘, sprich ’nicht wahrheitsfähig‘ sind. Damit ist ein religiöses Narrativ ein wunderbares Werkzeug in der Hand von Mächtigen, Menschen ohne Androhung von Gewalt für bestimmte Verhaltensweisen zu motivieren.

POPULÄRE NARRATIVE

In den letzten Jahrzehnten erleben wir aber neue, ‚moderne Formen‘ von Narrativen, die nicht als religiöse Erzählungen daher kommen, die aber dennoch eine sehr ähnliche Wirkung entfalten: Menschen empfinden diese Narrative als ‚Sinn stiftend‘ in einer Welt, die für jeden heute immer unübersichtlicher und daher bedrohlich wird. Einzelne Menschen, die Bürger, empfinden sich zudem als ‚politische hilflos‘, so dass sie — selbst in einer ‚Demokratie‘ — das Gefühl haben, nichts direkt bewirken zu können: die ‚da oben‘ machen doch, was sie wollen. In einer solchen Situation sind ‚vereinfachende Erzählungen‘ eine Wohltat für die geschundene Seele; man hört sie und hat das Gefühl: ja, so ist es; das ist genau das, was ich ‚fühle‘! Solche ‚populären Narrative‘, die ‚gute Gefühle‘ ermöglichen, gewinnen eine immer größere Kraft. Mit religiösen Narrativen haben sie gemeinsam, dass die ‚Anhänger‘ von populären Narrativen die ‚Wahrheitsfrage‘ nicht mehr stellen; die meisten sind auch nicht genügend ‚trainiert‘, um den Wahrheitsgehalts eines Narrativs überhaupt klären zu können. Typisch für Anhänger von Narrativen ist, dass sie in der Regel individuell kaum in der Lage sind, ihr eigenes Narrativ anderen zu erklären. Man schickt sich typischerweise Links von Texten/ Videos, die man ‚gut‘ findet, weil diese Texte/ Videos irgendwie das populäre Narrativ zu unterstützen scheinen, und überprüft die Autoren und Quellen eher nicht, weil dies doch so ‚anständige Leute‘ sind, weil sie immer genau das Gleiche sagen, wie es das ‚populäre Narrativ‘ vorgibt.(Schönes Beispiel: [10])

FÜR DIE MACHT SIND NARRATIVE SEXY

Wenn man jetzt noch berücksichtigt, dass die ‚Welt der Narrative‘ für alle, die Macht über Menschen haben oder gerne Macht über Menschen erringen wollen, ein äußerst verlockendes Angebot ist, genau solche Narrative ‚in die Welt zu setzen‘ oder bestehende Narrative ‚für sich zu instrumentalisieren‘, dann darf man sich nicht wundern, dass viele Regierungen in dieser Welt, viele andere Machtgruppen, heute genau dies tun: sie versuchen nicht Menschen ‚direkt‘ zu zwingen, sondern sie ‚produzieren‘ populäre Narrative oder ‚Monitoren‘ schon bestehende populäre Narrative‘, um über den Umweg über diese Narrative Macht über die Herzen und den Verstand von immer mehr Menschen zu bekommen. Die einen sprechen hier von ‚hybrider Kriegführung‘, andere von ‚moderner Propaganda‘, aber letztlich geht dies am Kern des Problems vorbei.

DAS NARRATIV ALS KULTURELLES GRUNDMUSTER
Das ‚Irrationale‘ wehrt sich gegen das ‚Rationale‘

Der Kern des Problems ist die Art und Weise, wie menschliche Gemeinschaften schon immer ihr gemeinsames Handeln organisieren, nämlich durch Narrative; über eine andere Möglichkeit verfügen wir Menschen nicht. Solche Narrative — dies zeigen die Überlegungen weiter unten im Text — sind aber hoch komplex und extrem anfällig für ‚Falschheit‘, für eine ‚Verzerrung des Bildes von der Welt‘. Im Rahmen der Entwicklung von Rechtssystemen wurden Ansätze entwickelt, um den Missbrauch von Macht in einer Gesellschaft durch Unterstützung von wahrheitserhaltenden Mechanismen zu ‚verbessern‘. Graduell hat dies sicherlich geholfen, bei allen Defiziten, die bis heute bestehen. Zusätzlich fand vor ca. 500 Jahren eine echte Revolution statt: es gelang der Menschheit, mit dem Konzept eines ‚überprüfbaren Narrativs (empirische Theorie)‘ ein Format zu finden, das den ‚Erhalt von Wahrheit‘ optimiert und das Abgleiten in Unwahrheit minimiert. Dieses neue Konzept von ‚überprüfbarer Wahrheit‘ hat seitdem großartige Einsichten ermöglicht, die ohne dieses neue Konzept jenseits aller Vorstellungen lagen. Die ‚Aura des Wissenschaftlichen‘ hat mittlerweile fast die gesamte menschliche Kultur durchdrungen, fast! Wir müssen konstatieren, dass das wissenschaftliche Denken zwar die Welt des Praktischen durch moderne Technologien umfassend gestaltet hat, dass aber die Art und Weise des wissenschaftlichen Denkens alle anderen Narrative nicht außer Kraft gesetzt hat. Im Gegenteil, die ‚wahrheitsfernen Narrative‘ sind mittlerweile wieder so stark geworden, dass sie in immer mehr Bereichen unserer Welt das ‚Wissenschaftliche‘ zurückdrängen, es bevormunden, es verbieten, es auslöschen. Die ‚Irrationalität‘ der religiösen und populären Narrative ist so stark wie nie zuvor. ‚Irrationale Narrative‘ sind so anziehend, weil sie es dem einzelnen ersparen, selber ’nachdenken zu müssen‘. Echtes Nachdenken ist anstrengend, unpopulär, lästig, behindert den Traum von der einfachen Lösung.

DAS ZENTRALE MENSCHHEITSPROBLEM

Vor diesem Hintergrund erscheint die weit verbreitete Unfähigkeit von Menschen, ‚irrationale Narrative‘ erkennen und überwinden zu können, das zentrale Problem der Menschheit zu sein, um die aktuellen globalen Herausforderungen zu meistern. Bevor wir mehr Technik brauchen (die brauchen wir auf jeden Fall), brauchen wir vor allem mehr Menschen, die fähig und bereit sind, mehr und besser nachzudenken, und auch in der Lage sind, gemeinsam mit anderen ‚echte Probleme‘ zu lösen. Echte Probleme erkennt man darin, dass sie weitgehend ’neu‘ sind, dass es keine ‚einfachen Lösungen von der Stange‘ für sie gibt, dass man gemeinsam wirklich um mögliche Einsichten ‚ringen muss‘; das ‚Alte‘ reicht‘ prinzipiell nicht, um das ‚wahre Neue‘ zu erkennen und umzusetzen!

Der folgende Text untersucht diese hier dargestellte Sicht im Detail.

MODERNE PROPAGANDA ?

Im Beitrag der Englischen Wikipedia zu ‚Propaganda [1b] wird eine ganz ähnliche Strategie versucht, wenn auch in der Ausführung mit nicht ganz scharfen Konturen. Es findet sich dort aber ein breiter Überblick über verschiedenste Formen von Kommunikation, eingebettet darin jene Formen, die ’speziell‘ (‚biased‘) sind, also den zu kommunizierenden Inhalt nicht so wiedergeben, wie man ihn nach ‚objektiven überprüfbaren Kriterien‘ wiedergeben würde. Die Vielfalt der Beispiele deutet aber an, dass es nicht ganz einfach zu sein scheint, eine ’spezielle‘ von einer ’normalen‘ Kommunikation abzugrenzen: Was sind denn diese ‚objektiven überprüfbaren Kriterien‘? Wer legt sie fest?

Nehmen wir für einen Moment mal an, dass es klar sei, welches dies ‚objektiven überprüfbaren Kriterien‘ sind, kann man versuchsweise für einen Ausgangspunkt eine Arbeitsdefinition für den allgemeinen (normalen?) Fall von Kommunikation versuchen:

  1. Den allgemeinen Fall von Kommunikation könnte man versuchsweise beschreiben als schlichten Versuch, dass eine Person — nennen wir sie den ‚Autor‘ — einer anderen Person — nennen wir sie den ‚Ansprechpartner‘ — versucht, ‚etwas zur Kenntnis zu bringen‘. Das, was zur Kenntnis gebracht werden soll, nennen wir versuchsweise ‚die Botschaft‘. Aus dem Alltag wissen wir, dass ein Autor zahlreiche ‚Eigenschaften‘ aufweisen kann, die sich auf den Inhalt seiner Botschaft auswirken können.

Zum Autor:

  1. Das verfügbare Wissen des Autors — bewusst wie unbewusst — entscheidet darüber, welche Botschaft der Autor überhaupt erstellen kann.
  2. Seine Wahrheitsfähigkeit entscheidet darüber, ob und in welchem Umfang er unterscheiden kann, was an seiner Botschaft in der realen Welt — gegenwärtig oder vergangen — nachprüfbar ‚zutrifft‘ bzw. ‚wahr ist‘.
  3. Seine Sprachfähigkeit bestimmt darüber, ob und wie viel er von seinem verfügbaren Wissen sprachlich kommunizieren kann.
  4. Die Welt der Emotionen entscheidet darüber, ob er z.B. überhaupt etwas mitteilen möchte, wann, wie, wem, wie intensiv, wie auffällig, usw.
  5. Der gesellschaftliche Kontext kann sich dahingehend auswirken, ob er eine bestimmte gesellschaftliche Rolle innehat, für die festgelegt ist, wann er wie mit wem was kommunizieren darf oder sollte.
  6. Die realen Kommunikationsbedingungen entscheiden darüber, ob ein geeignetes ‚Kommunikationsmedium‘ verfügbar ist (Sprachschall, Schrift, Ton, Film, …) und ob und wie dieses für potentielle Ansprechpartner zugänglich ist.
  7. Die körperliche Beschaffenheit entscheidet darüber, wie weit der Autor überhaupt und in welchem Umfang er kommunizieren kann.

Zum Ansprechpartner:

  1. Ganz allgemein gelten die Eigenschaften für den Autor auch für den Ansprechpartner. Man kann aber für die Rolle des Ansprechpartners einige Punkte besonders hervorheben:
  2. Das verfügbare Wissen des Ansprechpartners entscheidet darüber, welche Aspekte der Botschaft des Autors überhaupt verstanden werden können.
  3. Die Wahrheitsfähigkeit des Ansprechpartners entscheidet darüber, ob und in welchem Umfang auch dieser unterscheiden kann, was an der übermittelten Botschaft nachprüfbar ‚zutrifft‘ bzw. ‚wahr ist‘.
  4. Die Sprachfähigkeit des Ansprechpartners bedingt, ob und wie viel er von der Botschaft rein sprachlich aufnehmen kann.
  5. Die Emotionen entscheiden darüber, ob der Ansprechpartner z.B. überhaupt etwas aufnehmen möchte, wann, wie, wie viel, mit welcher inneren Einstellung, usw.
  6. Der gesellschaftliche Kontext kann sich ebenfalls dahingehend auswirken, ob der Ansprechpartner eine bestimmte gesellschaftliche Rolle innehat, für die festgelegt ist, wann er wie mit wem was kommunizieren darf oder sollte.
  7. Ferner kann es wichtig sein, ob das Kommunikationsmedium dem Ansprechpartner so vertraut ist, dass er es hinreichend gut nutzen kann.
  8. Auch bei dem Ansprechpartner kann die körperliche Beschaffenheit darüber entscheiden, wie weit der Ansprechpartner überhaupt und in welchem Umfang kommunizieren kann.

Schon diese kleine Auswahl an Faktoren zeigt, wie vielfältig die Situationen sein können, in denen ’normale Kommunikation‘ durch die ‚Wirkung der verschiedenen Umstände‘ einen ’speziellen Charakter‘ gewinnen kann. So kann z.B. eine eigentlich ‚harmlose Begrüßung‘ bei bestimmten Rollenvorgaben zu einem gesellschaftlichen Problem führen mit vielerlei Konsequenzen. Ein scheinbar ’normaler Bericht‘ kann zum Problem werden, weil der Ansprechpartner die Botschaft rein sprachlich missversteht. Ein an sich ’sachlicher Bericht‘ kann durch die Art und Weise des Vortrags zu emotionalen Wirkungen bei dem Ansprechpartner führen, die dazu führen, dass dieser die Botschaft geradezu begeistert aufgreift oder — ganz im Gegenteil — vehement ablehnt. usw.

Liegen handfeste Interessen beim Autor vor, aufgrund deren er den Ansprechpartner zu einer bestimmten Verhaltensweise bewegen will, dann kann dies dazu führen, dass ein bestimmter Sachverhalt nicht ‚rein sachlich‘ dargestellt wird, sondern es werden dann auch viele Aspekte mitkommuniziert, die dem Autor geeignet erscheinen, den Ansprechpartner dazu zu bewegen, den Sachverhalt in einer ganz bestimmten Weise aufzufassen und entsprechend sich zu eigen machen. Diese ‚zusätzlichen‘ Aspekte können sich über die reine Botschaft hinaus auf viele reale Gegebenheiten der Kommunikationssituation beziehen.

Typen von Kommunikation …

Angesichts dieser potentiellen ‚Vielfalt‘ stellt sich die Frage, ob es überhaupt möglich sein wird, so etwas wie eine normale Kommunikation zu definieren?

Um diese Frage sinnvoll beantworten zu können, müsste man über eine Art ‚Überblick‘ über alle möglichen Kombinationen von Eigenschaften Autor (1-7) sowie Ansprechpartner (1-8) verfügen und man müsste zusätzlich in der Lage sein, jede dieser möglichen Kombinationen mit Blick auf ‚Normalität‘ zu bewerten.

Dazu sei angemerkt, dass den beiden Listen Autor (1-7) und Ansprechpartner (1-8) ein gewisse ‚Willkür‘ anheftet: Man kann die Listen so aufbauen, wie sie hier aufgebaut wurden, man muss aber nicht.

Dies hängt mit der allgemeinen Art und Weise zusammen, wir wir Menschen denken: auf der einen Seite haben wir ‚einzelne Ereignisse, die passieren‘ — oder an die wir uns ‚erinnern‘ können –, auf der anderen Seite können wir zwischen ‚beliebigen einzelnen Ereignissen‘ ‚beliebige Beziehungen‘ in unserem Denken ’setzen‘. In der Wissenschaft nennt man dies ‚Hypothesenbildung‘. Ob man solche Bildung von Hypothesen vornimmt oder nicht und welche, dies ist nirgends normiert. Ereignisse als solche erzwingen keine bestimmte Hypothesenbildungen. Ob sie ’sinnvoll‘ sind oder nicht erweist sich ausschließlich im späteren Verlauf bei ihrer ‚praktischen Verwendung‘. Man könnte sogar sagen, dass eine solche Hypothesenbildung eine rudimentäre Form von ‚Ethik‘ ist: in dem Moment, wo man eine Hypothese bzgl. einer bestimmten Beziehung zwischen Ereignissen annimmt, hält man sie minimal für ‚wichtig‘, ansonsten würde man diese Hypothesenbildung nicht vornehmen.

Insofern kann man sagen, dass der ‚Alltag‘ der primäre Ort ist für mögliche Arbeitshypothesen und mögliche ‚minimale Werte‘.

Das folgende Schaubild demonstriert eine mögliche Anordnung der Eigenschaften vom Autor und seinem Ansprechpartner:

BILD : Mögliche Verschränkung von Eigenschaft 1 des Autors — hier: Au1 — und Eigenschaft 2 des Ansprechpartners — hier: An2 –.

Was man unschwer erkennen kann, ist die Tatsache, dass ein Autor natürlich über eine Konstellation von Wissen verfügen kann, die aus einer schier ‚unendlichen Menge von Möglichkeiten‘ schöpft. Das gleiche gilt für den Ansprechpartner. Rein abstrakt ist die Anzahl der möglichen Kombinationen aufgrund der Annahmen Au1 und An2 vom Ansatz her ‚quasi unendlich groß‘, was die Frage nach der ‚Normalität‘ auf der abstrakten Ebene letztlich unentscheidbar macht.

Da aber sowohl Autoren wie Ansprechpartner keine sphärische Wesen aus irgendeinem abstrakten Winkel der Möglichkeiten sind, sondern in der Regel ‚konkrete Menschen‘ mit einer ‚konkreten Geschichte‘ in einer ‚konkreten Lebenswelt‘ zu einer ‚bestimmten historischen Zeit‘ schränkt sich der quasi unendliche abstrakte Möglichkeitsraum ein auf eine endliche überschaubare Menge von Konkretheiten. Doch auch diese können bezogen auf zwei konkrete Menschen immer noch beträchtlich groß sein. Welcher Mensch mit seiner Lebenserfahrung aus welcher Gegend soll jetzt als ‚Norm‘ genommen werden für eine ’normale Kommunikation‘?

Eher scheint es nahe zu liegen, dass man einzelne Menschen irgendwie ‚typisiert‘ z.B. nach Alter und Lerngeschichte, wobei eine ‚Lerngeschichte‘ auch kein klares Bild ergeben muss. Absolventen der gleichen Schule können im Anschluss — wie wir wissen — über ein sehr unterschiedliches Wissen verfügen, wenngleich Gemeinsamkeiten möglicherweise ‚minimal typisch‘ sein können.

Generell erscheint also der Ansatz über die Eigenschaften des Autors und des Ansprechpartners keine wirklich klaren Kriterien für eine Norm zu liefern, auch wenn eine Angabe wie ‚das humanistische Gymnasium in Hadamar 1960 – 1968‘ rudimentäre Gemeinsamkeiten nahelegen würde.

Man könnte jetzt versuchen, die weiteren Eigenschaften Au2-7 sowie An3-8 in die Überlegungen einzubeziehen, aber die ‚Konstruktion einer normalen Kommunikation‘ scheint aufgrund der Annahmen Au1 und An2 eher in immer weitere Ferne zu rücken.

Was bedeutet dies für die Typisierung einer Kommunikation als ‚Propaganda‘. Ist nicht letztlich jede Kommunikation auch ein Stück Propaganda oder gibt es doch die Möglichkeit, die Form der ‚Propaganda‘ hinreichend genau zu kennzeichnen obwohl es nicht möglich erscheint, einen Standard für ’normale Kommunikation‘ zu finden. … oder wird eine bessere Charakterisierung von ‚Propaganda‘ indirekt Hinweise für eine ‚Nicht-Propaganda‘ liefern?

Wahrheit und Bedeutung – Schlüssel ‚Sprache‘

Der spontane Versuch, die Bedeutung des Begriffs ‚Propaganda‘ soweit zu klären, dass man ein paar konstruktive Kriterien an die Hand bekommt, um bestimmte Formen von Kommunikation entweder als ‚Propaganda‘ charakterisieren zu können oder eben nicht, gerät in immer ‚tieferes Fahrwasser‘. Gibt es nun ‚objektive überprüfbare Kriterien‘, mit denen man arbeiten kann, oder nicht? Und: Wer legt sie fest?

Halten wir vorläufig an der Arbeitshypothese 1 fest, dass wir es mit einem Autor zu tun haben, der eine Botschaft artikuliert, für einen Ansprechpartner, und erweitern wir diese Arbeitshypothese um folgenden Zusatz 1: solche eine Kommunikation spielt sich immer in einem gesellschaftlichen Kontext ab. Dies bedeutet, dass die Wahrnehmung und das Wissen der einzelnen Akteure (Autor, Ansprechpartner) kontinuierlich mit diesem gesellschaftlichen Kontext interagieren kann bzw. ‚automatisch interagiert‘. Letzteres liegt daran, dass wir Menschen so gebaut sind, dass unser Körper mit seinem Gehirn dies einfach tut, ohne dass dafür von ‚uns‘ ‚bewusste Entscheidungen‘ getroffen werden müssen.[*1]

Für diesen Abschnitt möchte ich die bisherige Arbeitshypothese 1 samt Zusatz 1 um eine weitere Arbeitshypothese 2 erweitern (Lokalisierung von Sprache) [*4]:

  1. Jedes Medium (Sprache, Ton, Bild, …) kann eine ‚potentielle Bedeutung‘ beinhalten.
  2. Beim Erstellen des medialen Ereignisses kann der ‚Autor‘ versuchen, mögliche ‚Inhalte‘, die von ihm ‚mitgeteilt werden sollen‘, mit dem Medium ‚zu verbinden‘ (‚ins Wort/ in den Klang/ in das Bild bringen‘, ‚Enkodieren‘, ….). Diese ‚Zuordnung‘ von Bedeutung geschieht sowohl ‚unbewusst/ automatisiert‘ als auch ‚(teilweise) bewusst‘.
  3. Bei der Wahrnehmung des medialen Ereignisses kann der ‚Ansprechpartner‘ versuchen, diesem wahrgenommenen Ereignis eine ‚mögliche Bedeutung‘ zuzuordnen. Auch diese ‚Zuordnung‘ von Bedeutung geschieht sowohl ‚unbewusst/ automatisiert‘ als auch ‚(teilweise) bewusst‘.
  4. Die Zuordnung von Bedeutung setzt sowohl beim Autor wie auch beim Ansprechpartner voraus, dass der jeweilige Akteur ‚Lernprozesse‘ (meist Jahre, viele Jahre) ‚durchlaufen‘ hat, die es möglich gemacht haben, bestimmte ‚Ereignisse der Außenwelt‘ wie auch ‚innere Zustände‘ mit bestimmten medialen Ereignissen zu verknüpfen.
  5. Das ‚Erlernen von Bedeutungsbeziehungen‘ geschieht immer in gesellschaftlichen Kontexten, da eine mediale Struktur, die zwischen Menschen ‚Bedeutung transportieren‘ soll, immer allen gehört, die an dem Kommunikationsprozess beteiligt sind.[*2]
  6. Diejenigen medialen Elemente, die für den ‚Austausch von Bedeutungen‘ tatsächlich benutzt werden, bilden alle zusammen das, was man eine ‚Sprache‘ nennt: die ‚medialen Elemente selbst‘ bilden die ‚Oberflächenstruktur‘ der Sprache, ihre ‚Zeichendimension‘, und die ‚inneren Zustände‘ in jedem beteiligten ‚Akteur‘, bilden den ‚individuell-subjektiven Raum möglicher Bedeutungen‘. Dieser innere subjektive Raum umfasst zwei Komponenten: (i) die innerlich verfügbaren Elemente als potentielle Bedeutungsinhalte und (ii) eine dynamische ‚Bedeutungsbeziehung‘, die wahrgenommene Elemente der Oberflächenstruktur und der potentiellen Bedeutungsinhalte ‚miteinander verknüpft‘.[*3]

Will man die Leitfrage, ob man „bestimmte Formen von Kommunikation entweder als ‚Propaganda‘ charakterisieren oder nicht“ beantworten, benötigt man ‚objektive überprüfbare Kriterien‘, anhand deren man eine Aussage formulieren kann. Diese Frage kann man benutzen, um zurück zu fragen, ob es im ’normalen Alltagsdialog‘ ‚objektive Kriterien‘ gibt, anhand deren wir im Alltag gemeinsam entscheiden können, ob ein ‚behaupteter Sachverhalt‘ ‚zutrifft‘ oder eben nicht; in diesem Kontext wird auch das Wort ‚wahr‘ benutzt. Kann man dies ein wenig genauer fassen?

Hier eine weitere Arbeitshypothese 3:

  1. Mindestens zwei Akteure können sich darüber einigen, dass eine bestimmte Bedeutung, verbunden mit dem medialen Konstrukt, als sinnlich wahrnehmbarer Sachverhalt so vorliegt, dass sie zustimmen können, dass der ‚behauptete Sachverhalt‘ tatsächlich vorliegt. Ein solches punktuelles Zutreffen soll ‚wahr 1‘ bzw. ‚Wahrheit 1‘ genannt werden. Ein ‚punktuelles Zutreffen‘ kann sich aufgrund der Dynamik der realen Welt (einschließlich der Akteure selbst) jederzeit und schnell ändern (z.B.: der Regen hört auf, die Kaffeetasse ist leer, das Autor von eben ist weg, der leere Gehweg wir von einer Gruppe von Menschen belegt, ….)
  2. Mindestens zwei Akteure können sich darüber einigen, dass eine bestimmte Bedeutung, verbunden mit dem medialen Konstrukt, aktuell nicht als realer Sachverhalt vorliegt. Bezogen auf die aktuelle Situation des ‚Nicht-Zutreffens‘ würde man davon sprechen, dass die Aussage ‚falsch 1‘ ist; der behauptete Sachverhalt liegt entgegen der Behauptung real nicht vor.
  3. Mindestens zwei Akteure können sich darüber einigen, dass eine bestimmte Bedeutung, verbunden mit dem medialen Konstrukt aktuell nicht vorliegt, aber aufgrund des bisherigen Erfahrungswissens ‚ziemlich sicher‘ in einer ‚möglichen zukünftigen Situation‘ eintreten könnte. Dieser Aspekt soll hier ‚potentiell wahr‘ genannt werden oder ‚wahr 2‘ bzw. ‚Wahrheit 2‘. Sollte der Sachverhalt dann irgendwann ‚tatsächlich vorliegen‘ würde sich Wahrheit 2 in Wahrheit 1 verwandeln.
  4. Mindestens zwei Akteure können sich darüber einigen, dass eine bestimmte Bedeutung, verbunden mit dem medialen Konstrukt aktuell nicht vorliegt, und aufgrund des bisherigen Erfahrungswissens ‚ziemlich sicher unklar ist‘, ob der gemeinte Sachverhalt in einer ‚möglichen zukünftigen Situation‘ tatsächlich eintreten könnte. Dieser Aspekt soll hier ’spekulativ wahr‘ genannt werden oder ‚wahr 3‘ bzw. ‚Wahrheit 3‘. Sollte der Sachverhalt dann irgendwann ‚tatsächlich vorliegen‘ würde sich Wahrheit 3 in Wahrheit 1 verwandeln.
  5. Mindestens zwei Akteure können sich darüber einigen, dass eine bestimmte Bedeutung, verbunden mit dem medialen Konstrukt aktuell nicht vorliegt, und aufgrund des bisherigen Erfahrungswissens ‚es ziemlich sicher ist‘, dass der gemeinte Sachverhalt in einer ‚möglichen zukünftigen Situation‘ nie eintreten könnte. Dieser Aspekt soll hier ’spekulativ falsch‘ genannt werden oder falsch 2‚.

Bei näherer Betrachtung dieser 4 Annahmen der Arbeitshypothese 3 wird man feststellen können, dass es in all diesen Unterscheidungen zwei ‚Pole‘ gibt, die zueinander in bestimmten Beziehungen stehen: einerseits gibt es als Pole reale Sachverhalte, die ‚aktuell von allen Beteiligten wahrgenommen bzw. nicht wahrgenommen werden‘ und andererseits gibt es eine ‚gewusste Bedeutung‘ in den Köpfen der Beteiligten, die mit einem aktuellen Sachverhalt in Beziehung gesetzt werden kann oder nicht. Dies ergibt folgende Verteilung von Werten:

Realer SachverhaltBeziehung zu Gedacht
Gegeben1Passt (wahr 1)
Gegeben2Passt nicht (falsch 1)
Nicht gegeben3Könnte in der Zukunft passen (wahr 2)
Nicht gegeben4Passen in der Zukunft unklar (wahr 3)
Nicht gegeben5Kann in der Zukunft nicht passen (falsch 2)

In diesem — noch etwas grobem — Schema kann ‚Gedachtes‘ qualifiziert werden zu einem aktuell Gegebenem als ‚passend‘ oder ’nicht passend‘, oder in Abwesenheit von etwas real Gegebenem als ‚könnte passen‘ oder ‚unklar, ob es passen kann‘ oder ’sicher, dass es nicht passen könnte‘.

Hierbei ist aber zu beachten, dass diese Qualifizierungen ‚Einschätzungen‘ sind, welche die Akteure aufgrund ihres ‚eigenen Wissens‘ vornehmen. Wie wir wissen, ist solch eine Einschätzung immer fehleranfällig! Neben Fehlern in der Wahrnehmung [*5] kann es Fehlern im eigenen Wissen geben. [*6] Also entgegen den Überzeugungen der Akteure kann ‚wahr 1‘ tatsächlich ‚falsch 1‘ sein oder umgekehrt, ‚wahr 2‘ könnte ‚falsch 2‘ sein und umgekehrt.

Aus all diesem folgt, dass eine ‚klare Qualifizierung‘ von Wahrheit und Falschheit letztlich immer fehlerbehaftet ist. Für eine Gemeinschaft von Menschen, die ‚positiv‘ denken ist dies kein Problem: sie wissen um diese Sachlage und sie bemühen sich, ihre ’natürliche Fehleranfälligkeit‘ durch bewusstes methodisches Vorgehen ‚möglichst klein‘ zu halten.[*7] Menschen, die — aus vielerlei Gründen — eher negativ denken, die fühlen sich in dieser Situation dazu motiviert, überall und immer nur Fehler oder gar Bosheit zu sehen. Sie tun sich schwer damit, mit ihrer ’natürlichen Fehlerbehaftetheit‘ positiv-konstruktiv umzugehen.

WAHRHEIT UND BEDEUTUNG – Im Prozess

In dem vorausgehenden Abschnitt sind die verschiedenen Begriffe (‚wahr1,2‘, ‚falsch 1,2‘, ‚wahr 3‘) noch eher unverbunden, sind noch nicht wirklich in einem fassbaren Zusammenhang verortet. Dies soll hier mit Hilfe der Arbeitshypothese 4 (Skizze eines Prozessraums) versucht werden.

BILD : Der Prozessraum in der realen Welt und im Denken samt möglicher Wechselwirkungen

Die Grundelemente der Arbeitshypothese 4 lassen sich wie folgt charakterisieren:

  1. Es gibt die reale Welt mit ihren kontinuierlichen Veränderungen und innerhalb eines Akteurs einen virtuellen Raum für Prozesse mit Elementen wie Wahrnehmungen, Erinnerungen und gedachte Vorstellungen.
  2. Das Bindeglied zwischen realem Raum und virtuellem Raum läuft über Wahrnehmungsleistungen, die spezielle Eigenschaften der realen Welt für den virtuellen Raum repräsentieren, und zwar so, dass ‚wahrgenommene Inhalte‘ und ‚gedachte Inhalte‘ unterscheidbar sind. Auf diese Weise ist ein ‚gedanklicher Abgleich‘ von Wahrgenommenem und Gedachtem möglich.
  3. Veränderungen in der realen Welt zeigen sich nicht explizit sondern manifestieren sich nur indirekt durch die wahrnehmbaren Veränderungen, die durch sie hervorgerufen werden.
  4. Es ist Aufgabe der ‚denkerischen Rekonstruktion‘ Veränderungen zu ‚identifizieren‘ und die sprachlich so zu beschreiben, dass nachvollziehbar ist, aufgrund welcher Eigenschaften eines gegebenen Zustands daraus ein möglicher Nachfolgezustand entstehen kann.
  5. Zusätzlich zur Unterscheidung von ‚Zuständen‘ und ‚Veränderungen‘ zwischen Zuständen muss auch geklärt werden, wie man eine gegebene Veränderungsbeschreibung auf einen gegebenen Zustand so ‚anwendet‘, dass daraus ein ‚Nachfolgezustand‘ entsteht. Dies wird hier ‚Nachfolger-Generierungs-Vorschrift‘ (symbolisch: ⊢) genannt. Ein Ausdruck wie Z ⊢V Z‘ würde dann bedeuten, dass man mit der Nachfolger-Generierungs-Vorschrift ⊢V unter Benutzung der Veränderungsregel V den nachfolgenden Zustand Z‘ aus dem Zustand Z generieren kann. Dabei kann allerdings auch mehr als eine Veränderungsregel V zum Einsatz kommen, also z.B. {V1, V2, …, Vn} mit den Veränderungsregeln V1, …, Vn.
  6. Bei der Formulierung von Veränderungsregeln können immer Fehler unterlaufen. Sofern sich bestimmte Veränderungsregeln in der Vergangenheit schon in Ableitungen ‚bewährt‘ haben, würde man für den ‚gedachten Folgezustand‘ tendenziell annehmen, dass er vermutlich auch real eintreten wird. Wir hätten es also mit dem Fall ‚wahr 2‚ zu tun. Ist eine Veränderungsregel neu und es liegen noch keine Erfahrungen mit ihr vor, hätten wir es für den gedachten Folgezustand mit dem Fall ‚wahr 3‘ zu tun. Währe eine bestimmte Veränderungsregel in der Vergangenheit schon mehrfach gescheitert, dann könnte Fall ‚falsch 2‘ vorliegen.
  7. Das skizzierte Prozessmodell lässt aber auch erkennen, dass die bisherigen Fälle (1-5 in der Tabelle) immer nur Teilaspekte beschreiben. Angenommen, eine Gruppe von Akteuren schafft es, mit vielen Zuständen und mit vielen Veränderungsregeln samt einer Nachfolger-Generierungs-Anweisung eine rudimentäre Prozess-Theorie zu formulieren, dann interessiert es natürlich, wie sich die ‚Theorie als Ganze‘ ‚bewährt‘. Dies bedeutet, dass jede ‚gedankliche Konstruktion‘ einer Abfolge möglicher Zustände entsprechend den angewendeten Veränderungsregeln unter Voraussetzung der Prozess-Theorie sich in allen Anwendungsfällen ‚bewähren muss‘, damit von der Theorie gesagt werden kann, dass sie ‚generisch wahr‘ ist. Während z.B. der Fall ‚wahr 1‘ sich nur auf einen einzigen Zustand bezieht, bezieht sich der Fall ‚generisch wahr‘ auf ‚ganz viele‘ Zustände, so viele, bis ein ‚Endzustand‘ erreicht wird, der als ‚Zielzustand‘ gelten soll. Der Fall ‚generisch widersprochen‘ soll vorliegen, wenn es wenigstens eine Folge von generierten Zuständen gibt, die immer wieder einen Endzustand generiert, der falsch 1 ist. Solange eine Prozess-Theorie noch nicht in allen möglichen Fällen mit wahr 1 für einen Endzustand bestätigt worden ist, bleibt ein ‚Rest an Fällen‘, die unklar sind. Dann würde eine Prozess-Theorie als ‚generisch unklar‘ bezeichnet werden, obgleich sie für die Menge der bislang erfolgreich getesteter Fälle als ‚generisch wahr‘ gelten darf.

BILD : Der individuelle erweiterte Prozessraum mit Andeutung der Dimension Weitere Meta-Ebenen‘ sowie ‚Bewertungen‘.

Wem das vorausgehende erste Bild mit dem Prozessraum schon arg ’schwierig‘ vorkommt, der wird bei diesem zweiten Bild zum ‚erweiterten Prozessraum‘ natürlich ‚ins Schwitzen‘ kommen. Aber der individuelle Denkraum ist nun mal ein Spitzenprodukt der Evolution, das einiges zu bieten hat.

So kann jeder bei sich selbst überprüfen, dass wir Menschen über die Fähigkeit verfügen, egal, was wir Denken, dieses Denken jederzeit selbst wieder zum ‚Gegenstand des Denkens‘ zu machen, und zwar eben ‚innerhalb des Denkens selbst‘. Mit diesem ‚Denken über das Denken‘ eröffnen sich eine ‚zusätzliche Ebene des Denkens‘ — hier ‚Meta-Ebene‘ genannt –, auf der wir Denkenden all das ‚thematisieren‘, was uns am vorausgehenden Denken auffällt und wichtig ist. [*8] Neben dem ‚Denken über das Denken‘ verfügen wir auch über die Fähigkeit, das, was wir Wahrnehmen und Denken zu ‚bewerten‘. Diese ‚Bewertungen‘ werden gespeist aus dem Raum unserer ‚Emotionen‘ [*9] und ‚gelernten Bevorzugungen‘. Dies ermöglicht uns, mit Hilfe unserer Emotionen und gelernten Bevorzugungen zu ‚lernen‘: Wenn wir also bestimmte Handlungen vornehmen und dabei ‚Schmerzen‘ erleiden, dann werden wir diese Handlungen beim nächsten Mal eher vermeiden. Wenn wir im Restaurant X Essen gehen, weil jemand uns dies ‚empfohlen‘ hat, und das Essen und/ oder der Service waren richtig schlecht, dann werden wir diesen Vorschlag künftig eher nicht mehr berücksichtigen. Von daher kann unser Denken (und unser Wissen) zwar ‚Möglichkeiten sichtbar machen‘, aber es sind die Emotionen, die das kommentieren, was bei Umsetzung des Wissens ‚gut‘ oder ’schlecht‘ passiert. Doch, Achtung, auch Emotionen können irren, und zwar massiv. [*10]

WAHRHEIT UND BEDEUTUNG – Als eine kollektive Leistung

Die bisherigen Überlegungen zum Thema ‚Wahrheit und Bedeutung‘ im Kontext individueller Prozesse haben umrisshaft angedeutet, dass und wie ‚Sprache‘ eine zentrale Rolle spielt, um Bedeutung und darauf aufbauend Wahrheit zu ermöglichen. Ferner wurde ebenfalls skizzenhaft umrissen, dass und wie man Wahrheit und Bedeutung in einem dynamischen Kontext einordnen muss, in ein ‚Prozessmodell‘, wie es in einem Individuum in enger Interaktion mit der Umgebung stattfindet. Dieses Prozessmodell umfasst die Dimension des ‚Denkens‘ (auch ‚Wissen‘) wie auch die Dimension der ‚Bewertungen‘ (Emotionen, Präferenzen); innerhalb des Denkens gibt es potentiell viele ‚Betrachtungsebenen‘, die aufeinander Bezug nehmen können (natürlich können sie auch ‚parallel‘ stattfinden ohne direkten Kontakt zueinander (die unverbundene Parallelität ist aber der weniger interessante Fall).

So faszinierend die dynamische emotional-kognitive Struktur im Innern eines einzelnen Akteurs sein kann, die ‚wahr Kraft‘ des expliziten Denkens zeigt sich erst dort, wo verschiedene Menschen beginnen, sich mittels Kommunikation in ihrem Handeln zu koordinieren. Wenn auf diese Weise das individuelle Handeln sich in ein kollektives Handeln transformiert, wird eine Dimension von ‚Gesellschaft‘ sichtbar, welche die ‚einzelnen Akteure‘ in gewisser Weise ‚vergessen‘ lässt, weil die ‚Gesamtleistung‘ der ‚kollektiv miteinander verbundenen einzelnen‘ um Dimensionen komplexer und nachhaltiger sein kann als dies jemals ein einzelner realisieren könnte. Während ein einzelner Mensch maximal in seiner individuellen Lebenszeit einen Beitrag leisten kann, können kollektiv verbundene Menschen Leistungen vollbringen, die viele Generationen umfassen.

Andererseits wissen wir aus der Geschichte, dass kollektive Leistungen nicht automatisch ’nur Gutes‘ bewirken müssen; die bekannte Geschichte von Unterdrückung, blutigen Kriegen und Zerstörung ist umfangreich und findet sich in allen zeitlichen Abschnitten der menschlichen Geschichte.

Dies verweist darauf, dass die Frage von ‚Wahrheit‘ und ‚Gut sein‘ nicht nur eine Frage für den jeweils individuellen Prozess ist, sondern sehr wohl auch eine Frage für den kollektiven Prozess, und hier, im kollektiven Fall, ist diese Frage eher noch wichtiger, da ja im Fehlerfall nicht nur einzelne unter negativen Wirkungen leiden müssen, sondern eher sehr viele; schlimmstenfalls alle.

Anmerkungen

[*1] In einer systemtheoretischen Betrachtung des Systems ‚menschlicher Körper‘ kann man die Arbeitshypothese formulieren, dass weit mehr als 99% der Ereignisse in einem menschlichen Körper Nicht bewusst sind. Dies kann man erschreckend finden oder beruhigend. Ich tendiere zum Letzteren, zur ‚Beruhigung‘. Denn wenn man sieht, was ein menschlicher Körper als ‚System‘ aus sich heraus zu tun in der Lage ist, in jeder Sekunde, viele Jahre, sogar Jahrzehnte lang, dann erscheint dies äußerst beruhigend angesichts der vielen, auch groben Fehler, die wir mit unserem kleinen ‚Bewusstsein‘ vollbringen können. In Kooperation mit anderen Menschen können wir unsre bewussten menschlichen Leistungen zwar dramatisch verbessern, aber immer nur unter Voraussetzung der Systemleistung eines menschlichen Körpers. In ihm stecken immerhin 3.5 Milliarden Jahre Entwicklungsarbeit des BIOMs auf diesem Planeten; die Bausteine dieses BIOMs, die Zellen, funktionieren wie ein gigantischer Parallelcomputer, verglichen mit dem die heutigen technischen Supercomputer (einschließlich der viel gepriesenen ‚Quantencomputer‘) so klein und schwach aussehen, dass man diese Relation praktisch nicht ausdrücken kann.

[*2] Eine ‚Alltagssprache‘ setzt immer ‚die Vielen‘ voraus, die miteinander kommunizieren wollen. Einer alleine kann keine Sprache haben, die andere verstehen können sollen.

[*3] Eine Bedeutungsbeziehung tut real das, was mathematisch ‚Abbildung‘ genannt wird: Elemente der einen Sorte (Elemente der Oberflächenstruktur der Sprache) werden Elementen einer anderen Sorte (die potentiellen Bedeutungselemente) zugeordnet. Während eine mathematische Abbildung normalerweise fest definiert ist, kann sich die ‚reale Bedeutungsbeziehung‘ beständig ändern; sie ist ‚flexibel‘, Teil eines übergeordneten ‚Lernprozesses‘, der in Abhängigkeit von der Wahrnehmung und inneren Zuständen die Bedeutungsbeziehung beständig ’neu anpasst‘.

[*4] Die Inhalte von Arbeitshypothese 2 stammen aus den Erkenntnissen der modernen Kognitionswissenschaften (Neurowissenschaften, Psychologie, Biologie, Linguistik, Semiotik, …) und der Philosophie; sie verweisen auf viele tausend Artikel und Bücher. Die Arbeitshypothese 2 stellt daher eine hochverdichtete Zusammenfassung von all diesem dar. Ein direktes Zitieren ist dazu rein praktisch nicht möglich.

[*5] Wie aus Forschungen zu Zeugenaussagen und aus der allgemeinen Wahrnehmungsforschung bekannt ist, gibt es neben allerlei direkten Wahrnehmungsfehlern sehr viele Fehler in der ‚Interpretation der Wahrnehmung‘, die weitgehend unbewusst/ automatisiert ablaufen. Gegen solche Fehler sind die Akteure normalerweise machtlos; sie merken es einfach nicht. Nur methodisch bewusste Kontrollen der Wahrnehmung können partiell auf diese Fehler aufmerksam machen.

[*6] Menschliches Wissen ist ’notorisch Fehlerbehaftet‘. Dafür gibt es viele Gründe. Einer liegt in der Arbeitsweise des Gehirns selbst. Ein ‚korrektes‘ Wissen ist nur möglich, wenn die aktuellen Wissensprozesse immer wieder ‚abgeglichen‘, ‚kontrolliert‘ werden, um sie korrigieren zu können. Wer dies nicht tut, hat notgedrungen ein unvollständiges und vielfach falsches Wissen. Wie bekannt hindert dies Menschen nicht daran, zu glauben, alles ist ‚wahr‘, was sie im Kopf mit sich herum tragen. Wenn es ein großes Problem in dieser Welt gibt, dann gehört dieses dazu: die Unwissenheit über die eigene Unwissenheit.

[*7] In der bisherigen Kulturgeschichte der Menschheit gab es erst sehr spät (seit ca. 500 Jahren?) die Entdeckung eines Erkenntnisformats, das es beliebig vielen Menschen ermöglicht, sich ein Tatsachenbasiertes Wissen aufzubauen, das, verglichen mit allen anderen bekannten Wissensformaten, die ‚besten Ergebnisse‘ ermöglicht (was Fehler natürlich nicht vollständig ausschließt, aber extrem minimiert). Dieses bis heute revolutionäre Wissensformat hat den Namen ‚empirische Theorie‘, von mir mittlerweile erweitert zu ’nachhaltiger empirischer Theorie‘. Wir Menschen sind einerseits die Hauptquelle für ‚wahres Wissen‘, zugleich sind wir selbst aber auch die Hauptquelle für ‚falsches Wissen‘. Dies erscheint auf den ersten Blick wie ein ‚Paradox‘, hat aber eine ‚einfache‘ Erklärung, die in ihrer Wurzel aber ’sehr tief blicken lässt‘ (vergleichbar mit der kosmischen Hintergrundstrahlung, die gegenwärtig einfach ist, aber aus den Anfängen des Universums stammt).(Anmerkung: eine kurze Beschreibung der Begriffe ‚empirische Theorie‘ und ’nachhaltige empirische Theorie‘ finde sich ab Abschnitt 6 in folgendem Blog-Eintrag: https://www.cognitiveagent.org/2023/11/06/kollektive-mensch-maschine-intelligenz-im-kontext-nachhaltiger-entwicklung-brauchen-wir-ein-neues-menschenbild-vorlesung-fuer-ag-enigma-im-rahmen-von-u3l-der-goethe-universitaet/ )

[*8] Von seiner Architektur her kann unser Gehirn beliebig viele solcher Meta-Ebenen eröffnen, aber aufgrund seiner konkreten Endlichkeit bietet es für verschiedene Aufgaben nur eine begrenzte Zahl von Neuronen an. So ist bekannt (und mehrfach experimentell nachgewiesen), dass z.B. unser ‚Arbeitsgedächtnis‘ (auch ‚Kurzzeitgedächtnis genannt oder ‚Short Term Memory‘) nur auf ca. 6-9 ‚Einheiten‘ limitiert ist (wobei der Begriff ‚Einheit‘ kontextabhängig zu definieren ist). Wollen wir also umfangreiche Aufgaben durch unser Denken lösen, brauchen wir ‚externe Hilfsmittel‘ (Blatt Papier und Schreibstift oder einen Computer, …), um die vielen Aspekten festzuhalten und entsprechend zu notieren. Obwohl die bekannten Computer heutzutage nicht einmal ansatzweise in der Lage sind, die komplexen Denkprozesse von Menschen zu ersetzen, können sie begrenzt für die Durchführung komplexer Denkprozesse ein fast unersätzliches Hilfsmittel sein. Allerdings nur dann, wenn WIR tatsächlich WISSEN, was wir da tun!

[*9] Das Wort ‚Emotionen‘ ist ein ‚Sammelbegriff‘ für sehr viele verschiedene Phänomene und Sachverhalte. Trotz umfangreicher Forschungen seit über hundert Jahren können die verschiedenen Disziplinen der Psychologie noch kein einheitliches Bild, geschweige denn eine einheitliche’Theorie‘ zum Thema anbieten. Dies verwundert auch nicht, da vieles davon weitgehend ‚unbewusst‘ abläuft bzw. ausschließlich als ‚internes Ereignis‘ im Individuum direkt verfügbar ist. Klar scheint nur zu sein, dass wir als Menschen niemals ‚emotionsfrei‘ sind (dies gilt auch für sogenannte ‚coole‘ Typen, denn das scheinbare ‚verdrängen‘ oder ‚unterdrücken‘ von Emotionen ist selbst wieder Teil unserer angeborenen Emotionalität.

[*10] Natürlich können Emotionen uns auch gewaltig in die Irre oder gar in den Untergang führen (sich in anderen Menschen irren, sich in sich selbst irren, …). Es ist also nicht nur wichtig, die sachlichen Dinge in der Welt durch ‚Lernen‘ in nützlicher Weise zu ’sortieren‘, sondern man muss auch tatsächlich die ‚eigenen Emotionen im Blick haben‘ und überprüfen, wann und wie diese auftreten und ob sie uns tatsächlich helfen. Primäre Emotionen (wie z.B. Hunger, Sexualtrieb, Wut, Sucht, ‚Verknallt sein‘, …) sind punktuell, Situationsbezogen , können eine große ‚psychische Kraft‘ entwickeln, und verstellen damit den Blick auf die möglichen oder sehr wahrscheinlichen ‚Folgen‘, die für uns erheblich schädigend sein können.

[*11] Der Begriff ‚Narrativ‘ wird heutzutage immer mehr benutzt, um zu beschreiben, dass eine Gruppe von Menschen in ihrem Denken für ihre Wahrnehmung der Welt ein bestimmtes ‚Bild‘, eine bestimmte ‚Erzählung‘ benutzt, um ihr gemeinsames Handeln koordinieren zu können. Letztlich gilt dies für jedes gemeinsame Handeln, selbst für Ingenieure, die eine technische Lösung erarbeiten wollen. Insofern ist die Darstellung in der deutschen Wikipedia ein bisschen ‚eng‘: https://de.wikipedia.org/wiki/Narrativ_(Sozialwissenschaften)

QUELLEN

Die folgenden Quellen bilden nur eine winzige Auswahl aus vielen hunderten, eher tausenden von Artikeln, Büchern, Tondokumenten und Filmen, die zum Thema gehören. Vielleicht können sie dennoch für einen ersten Einstieg hilfreich sein. Die Liste wird gelegentlich erweitert.

[1a] Propaganda, siehe z.B. hier: https://de.wikipedia.org/wiki/Propaganda oder [1b] die Englische Version : https://en.wikipedia.org/wiki/Propaganda /* Die Englische Version wirkt systematischer, überdeckt grössere Zeiträume und mehr unterschiedliche Anwendungsgebiete */

[2] Florian Schaurer, Hans-Joachim Ruff-Stahl, (21.10.2016), Hybride Bedrohungen Sicherheitspolitik in der Grauzone, Bundeszentrale für politische Bildung, Adenauerallee 86, 53113 Bonn, https://www.bpb.de/shop/zeitschriften/apuz/235530/hybride-bedrohungen/

[3] Propaganda der Russischen Föderation, hier: https://de.wikipedia.org/wiki/Propaganda_der_Russischen_F%C3%B6deration

[4] Russische Einflussnahme auf den Wahlkampf in den Vereinigten Staaten 2016, hier: https://de.wikipedia.org/wiki/Russische_Einflussnahme_auf_den_Wahlkampf_in_den_Vereinigten_Staaten_2016 /* Sehr ausführlich */

[5] Meduza, hier: https://de.wikipedia.org/wiki/Meduza

[6] Mischa Gabowitsch, Mai 2022, Von »Faschisten« und »Nazis«, https://www.blaetter.de/ausgabe/2022/mai/von-faschisten-und-nazis#_ftn4

[7] L. Wienand, S. Steurenthaler und S. Loelke, 30.8.22, Infokrieg Putins Troll-Armee greift Deutschland an

[8] Pomerantsev, Peter, (2019), This Is Not Propaganda: Adventures in the War Against Reality, Faber & Faber. Kindle-Version.

[9] Propaganda in China, hier: https://de.wikipedia.org/wiki/Propaganda_in_der_Volksrepublik_China /* Nur fragmentarisch; müsste deutlich ergänzt werden */

[10]  Lena Bäunker, 25.12.2023, Reden ist Gold. Über die Kehrseiten von Flugreisen, Kreuzfahrten oder Fleischkonsum zu sprechen, ist nicht einfach. Wissenschaftler:innen haben untersucht, wie sich effektivere Klimagespräche führen lassen. https://www.klimareporter.de/gesellschaft/reden-ist-gold

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

Kollektive Mensch-Maschine Intelligenz im Kontext nachhaltiger Entwicklung. Brauchen wir ein neues Menschenbild? Vorlesung für AG ENIGMA im Rahmen von U3L der Goethe Universität

Entstehungszeit: 2.Nov 2023 – 6.Jan 2023

Autor: Gerd Doeben-Henisch

Email: gerd@doeben-henisch.de

KONTEXT

Der folgende Text ist die nachträgliche Verschriftlichung einer Vorlesung, die der Autor für die Internet-Arbeitsgruppe ENIGMA [3] der U3L [1,2] der Goethe-Universität Frankfurt am 10.November 2023 gehalten hat. Er stellt eine Weiterentwicklung eines Konferenzbeitrags dar, der bei de Gruyter veröffentlicht wurde: Kollektive Mensch-Maschine-Intelligenz und Text-Generierung. Eine transdisziplinäre Analyse (2023). Man kann auch alle anderen Beiträge (open access) herunterladen.

Der Ankündigungstext lautet:

Kollektive Mensch-Maschine Intelligenz im Kontext
nachhaltiger Entwicklung – Brauchen wir ein neues
Menschenbild?


Prof. Dr. Gerd Doeben-Henisch, Frankfurt University
of Applied Sciences


Die Zeichen der Zeit stehen auf ‚Digitalisierung‘. Schon ist es selbstver-
ständlich, alles, was ‚digital‘ ist, auch mit den Worten ‚smart‘ bzw.‚
intelligent‘ zu verknüpfen. ‚Künstliche Intelligenz‘, ja, natürlich, wer fragt
da noch nach … und wir Menschen, war da nicht was? Gab es nicht
solche Worte wie ‚Geist‘, ‚Rationalität‘, ‚Intelligenz‘ im Umfeld des
Menschen, ‚Wille‘ und ‚Gefühle‘? Ja, es gab eine Zeit, da sahen die
Menschen sich selbst als ‚Krone der Schöpfung‘ … Und jetzt? Eine
Sprachlosigkeit greift um sich; der ‚Schöpfer‘ des Digitalen scheint vor
seinem Werk zu erstarren …

[1] Home u3l: https://www.uni-frankfurt.de/122411224/U3L_Home?

[2] Vorlesungsverzeichnis u3l-WS2023: https://www.uni-frankfurt.de/141923421/programm-ws-2023-24.pdf

[3] Flyer der Vorlesungsreihe WS23/24: https://www.uni-frankfurt.de/144405162.pdf

Zusammenfassung

Die Vorlesung greift zunächst den Kontext der Digitalisierung auf und macht die grundlegenden Strukturen deutlich. Das Eindringen von digitalen Technologien und deren Nutzung im Alltag ist schon jetzt sehr tiefgreifend. Gesellschaftlich spielt die sprachliche Kommunikation für alle Menschen und alle Abläufe eine zentrale Rolle. Literarischen und wissenschaftlichen Kommunikationsformaten kommt hierbei eine besondere Rolle zu. Am Beispiel der neuen Algorithmen für Text-Generierung (wie z.B. chatGPT) wird mit Bezug auf wissenschaftliche Kommunikationformate gezeigt, wie deutlich begrenzt die algorithmische Text-Generierung noch ist. Für alle drängenden Zukunftsaufgaben kann sie den Menschen aufgrund prinzipieller Grenzen nicht ersetzen. Die weitere Ausgestaltung algorithmischer Technologien muss an diesen gesellschaftlichen Herausforderungen gemessen und entsprechend verbessert werden.

INHALTSVERZEICHNIS

  1. EINLEITUNG
  2. DIGITALISIERUNG
    2.1 DAS INTERNET
    2.2 DIE GESELLSCHAFT
  3. DIGITALISIERUNG – SPRACHTECHNOLOGIEN
  4. GESELLSCHAFT – SPRACHE – LITERATUR
  5. SPRACHE UND BEDEUTUNG
  6. ZÄHMUNG DER BEDEUTUNG – WISSENSCHAFT
  7. EMPIRISCHE THEORIE
  8. WAHRHEIT, PROGNOSE & TEXT-GENERATOREN
  9. Epilog

1. EINLEITUNG

Der Titel dieser Vorlesung repräsentiert letztlich das Forschungsparadigma, innerhalb dessen sich der Autor seit ca. 5-6 Jahren bewegt hat. Das Motiv war — und ist –, die üblicherweise isolierten Themen ‚Kollektives menschliches Verhalten‘, ‚Künstliche Intelligenz‘ sowie ‚Nachhaltige Entwicklung‘ zu einer kohärenten Formel zu vereinigen. Dass dies nicht ohne Folgen für das ‚Menschenbild‘ bleiben würde, so wie wir Menschen uns selbst sehen, klang unausgesprochen immer schon zwischen den Zeilen mit.

Die Integration der beiden Themen ‚kollektives menschliches Verhalten‘ sowie ’nachhaltige Entwicklung‘ konnte der Autor schon im Jahr 2022 vollziehen. Dazu musste der Begriff ‚Nachhaltige Entwicklung‘ re-analysiert werden. Was sowohl im Umfeld des Forschungsprojektes Nachhaltige Intelligenz – intelligente Nachhaltigkeit [1] stattfand wie auch in einer sich über 7 Semester erstreckende multidisziplinären Lehrveranstaltung an der Frankfurt University of Applied Sciences mit dem Titel Citizen Science für Nachhaltige Entwicklung.[2]

Die Integration des Themas Künstliche Intelligenz mit den beiden anderen Themen erwies sich als schwieriger. Dies nicht, weil das Thema künstliche Intelligenz so schwer war, sondern weil sich eine brauchbare Charakterisierung von künstlicher Intelligenz Technologie mit Blick auf die Bedürfnisse einer Gesellschaft als schwer erwies: bezogen auf welche Anforderungen einer Gesellschaft sollte man den Beitrag einer künstlichen Intelligenz gewichten?

Hier kamen zwei Ereignisse zu Hilfe: Im November 2022 stellte die US-Firma openAI eine neue Generation von Text-Generatoren vor [3], was zu einer bis dahin nie gekannten Publikations-Explosion führte: Gefühlt jeder fühlte sich angesprochen, nutzte das Werkzeug, und es gab vielstimmige Meinungsäußerung. In folge davon konnte der Autor sich bei einer Konferenz an der TU-Darmstadt beteiligen mit dem Titel Diskurse disruptiver digitaler Technologien am Beispiel von KI-Textgeneratoren (KI:Text) [4]. Hier wurde aus Sicht von 18 Perspektiven versucht, die mögliche Einsetzbarkeit von Text-Generatoren am Beispiel konkreter Text-Arten zu untersuchen. Diese Konferenz stimulierte den Plan, das Setting Text – chatGPT zu übernehmen und es durch Spezialisierung der Text-Variablen auf Literatur und insbesondere wissenschaftliche Theorien zu konkretisieren. Erste Überlegungen in diese Richtungen finden sich hier. [5]

Im Nachklang zu diesen Überlegungen bot es sich an, diese Gedanken im Vortrag für die Arbeitsgruppe ENIGMA weiter zu präzisieren. Dies ist geschehen und resultierte in diesem Vortrag.

[1] https://zevedi.de/themen/nachhaltige-intelligenz-intelligente-nachhaltigkeit/

[2] Materialien zur 6. und 7.Auflage: https://www.oksimo.org/lehre-2/

[3] Kurze Beschreibung: https://en.wikipedia.org/wiki/ChatGPT

[4] https://zevedi.de/themen/ki-text/

[5] Gerd Doeben-Henisch, 24.Aug 2023, Homo Sapiens: empirische und nachhaltig-empirische Theorien, Emotionen, und Maschinen. Eine Skizze, https://www.cognitiveagent.org/2023/08/24/homo-sapiens-empirische-und-nachhaltig-empirische-theorien-emotionen-und-maschinen-eine-skizze/

2. DIGITALISIERUNG

BILD 1: Überblick zu ‚Digitalisierung einer Gesellschaft‘

Da die ‚Digitalisierung‘ heute gefühlt schon fast alle Bereiche unserer menschlichen Gesellschaft erreicht hat, ist es nicht leicht in dieser Vielfalt einen Standpunkt zu lokalisieren, von dem aus sich sowohl über das Ganze wie auch über einzelne konkrete Themen zu sprechen. [1]

Es bot sich daher an, mit einem vereinfachten Überblick über das Ganze zu starten, so dass eine für alle gleiche Ausgangslage hergestellt werden konnte.

Im Bild 1 kann man den links gelblich-grünen Bereich sehen, der für die Gesellschaft selbst steht, und einen grauen Bereich rechts, der für jene Infrastrukturen steht, die eine Digitalisierung technisch ermöglichen. Beide Bereich sind stark schematisiert.

Die digitale Infrastruktur ist aufgeteilt in ‚Endgeräte‘ und in das eigentliche ‚Internet‘. Letzteres wird unterschieden in den ‚Adressraum‘ und jene Geräte, die über den Adressraum erreicht werden können.

2.1 DAS INTERNET

Kurz wurde auf einige wichtige Eigenschaften des Internets hingewiesen:

  1. Alle beteiligten Geräte setzen sich aus ‚Hardware‘ und ‚Software‘ zusammen. Die Hardware wiederum besteht aus einer Konfiguration von ‚Chips‘, die selbst sehr komplex sind und auch aus Hardware und Software bestehen. Bis zu ca. 80 Firmen können bei der Produktion eines einzelnen Chips beteiligt sein (unter Berücksichtigung der diversen Lieferketten). Die Möglichkeit, dass eine beteiligte Firma ’nicht-intendierte‘ Funktionen in einen Chip einbaut, ohne dass die anderen dies merken, sind prinzipiell gegeben. Die für Chips benötigten speziellen Materialien sind partiell ’selten‘ und nur über einige wenige Staaten beziehbar.
  2. Die ‚Software‘ auf einem Rechner (klein bis groß) zerfällt grob in zwei Typen: (i) jene Software, die die grundlegende Kommunikation mit einer Hardware ermöglicht — das ‚Betriebssystem‘ –, und jene Software, die bestimmte Anwendungen ermöglicht, die mit dem Betriebssystem kommunizieren muss — die Anwendungssoftware, heute auch einfach App genannt –. Betriebssysteme haben heute eine Größe, die vielen Millionen Zeilen Code umfassen. Eine solche Software angemessen auf Dauer zu managen, stellt extreme Anforderungen. Nicht weniger im Fall von Anwendungssoftware.
  3. Sobald Software aktiviert wird, d.h. ein Rechner ändert seine inneren Zustände unter dem Einfluss der Software, wird Energie verbraucht. Der Umfang dieses Energieverbrauchs ist heute noch vielfach extrem hoch.[2]
  4. Ein ‚realer Rechner‘ braucht irgendwo auf diesem Planeten einen ‚realen Ort‘ und gehört eine ‚realen Besitzer‘. Dieser Eigentümer hat prinzipiell den vollen Zugriff auf den Rechner, auf seine Software, auf seine Inhalte. Durch die ‚Gesetze‘ eines Landes, durch ‚Vereinbarungen‘ zwischen Geschäftspartnern kann man den Umgang mit dem Rechner versuchen zu regeln, aber Garantien dafür, dass dann tatsächlich die Prozesse und die Daten ‚geschützt‘ sind, gibt es nicht. Eine von vielen Untersuchungen zur Nutzung von Benutzerdaten konnte am Beispiel von Facebook aufzeigen, dass die Einführung der europäischen Datenschutzverordnung 2021 nahezu keine Wirkung im Bereich der Nutzerdaten von Facebook zeigte. [3,4,5]

[1] Phänomen: Den Wald vor lauter Bäume nicht sehen.

[2] Maximilian Sachse, Das Internet steht unter Strom. KI kann helfen, Emissionen einzusparen — verbraucht aber selbst Unmengen an Energie.FAZ, 31.Okt 2023, S.B3

[3] José González Cabañas, Ángel Cuevas, Aritz Arrate, and Rubén Cuevas. 2020. Does Facebook use sensitive data for advertising purposes? Commun. ACM 64, 1 (January 2021), 62–69. https://doi.org/10.1145/3426361

[4] Eine ausführlichere Analyse der Informationsbeschaffung von Nutzern ohne deren Wissen: Ingo Dachwitz, 08.06.2023, Wie deutsche Firmen am Geschäft mit unseren Daten verdienen. Wenn es um Firmen geht, die pausenlos Daten für Werbezwecke sammeln, denken viele an die USA. Unsere Recherche zeigt, wie tief deutsche Unternehmen inzwischen in das Netzwerk der Datenhändler verwoben sind und dass sie auch heikle Datenkategorien anboten. Beteiligt sind Konzerne wie die Deutsche Telekom und ProSieben Sat1, URL: https://netzpolitik.org/2023/adsquare_theadex_emetriq_werbetracking-wie-deutsche-firmen-am-geschaeft-mit-unseren-daten-verdienen/

[5] Ein aktuelles Beispiel mit Microsoft: Dirk Knop, Ronald Eikenberg, Stefan Wischner, 09.11.2023, Microsoft krallt sich Zugangsdaten: Achtung vor dem neuen Outlook. Das neue kostenlose Outlook ersetzt Mail in Windows, später auch das klassische Outlook. Es schickt geheime Zugangsdaten an Microsoft. c’t Magazin, Heise

2.2 DIE GESELLSCHAFT

Die Charakterisierung der Gesellschaft stellt natürlich auch eine starke Vereinfachung dar. Als wichtige Strukturmerkmale seien hier aber festgehalten:

  1. Es gibt eine Grundverfassung jeder Gesellschaft jenseits von Anarchie die zwischen den beiden Polen ‚Demokratisch‘ und ‚Autokratisch‘ liegt.
  2. Es gibt minimal ‚politische Entscheidungsstrukturen‘, die verantwortlich sind für geltende ‚Gesetze‘ und ‚Normen‘.
  3. Die Schlagader jeder lebendigen Gesellschaft ist aber die ‚Öffentlichkeit durch Kommunikation‘: wenn, dann verbindet Kommunikation die vielen Bürger zu handlungsfähigen Einheiten. Autokratien tendieren dazu, Kommunikation zu ‚instrumentalisieren‘, um die Bürger zu manipulieren. In Demokratien sollte dies nicht der Fall sein. Tatsächlich kann aber die Freiheit einer Demokratie von partikulären Interessen missbraucht werden.[1]
  4. Jeder einzelne Bürger ist als ‚menschlicher Akteur‘ eingewoben in unterschiedliche Kommunikationsbeziehungen, die vielfach durch Einsatz von ‚Medien‘ ermöglicht werden.

[1] Sehr viele interessante Ideen zur Rolle de Öffentlichkeit finden sich in dem Buch Strukturwandel der Öffentlichkeit von Jürgen Habermas, veröffentlicht 1962. Siehe dazu ausführlich den Wikipedia-Eintrag: https://de.wikipedia.org/wiki/Strukturwandel_der_%C3%96ffentlichkeit

[2] Florian Grotz, Wolfgang Schroeder, Anker der Demokratie? Der öffentlich-rechtliche Rundfunk hat einen wesentlichen Beitrag zum Erfolg der deutschen Demokratie geleistet. Derzeit steht er im Kreuzfeuer der Kritik. Wie kann er auch künftig seine Ankerfunktion im demokratischen Mediensystem erfüllen? FAZ 13.Nov 2023, S.6, Siehe auch online (beschränkt): https://www.faz.net/aktuell/politik/die-gegenwart/ard-und-zdf-noch-im-dienst-der-demokratie-19309054.html Anmerkung: Die Autoren beschreiben kenntnisreich die historische Entwicklung des öffentlich-rechtlichen Rundfunks (ÖRR) in drei Phasen. Verschiedene Schwierigkeiten und Herausforderungen heute werden hervor gehoben. Der generelle Tenor in allem ist, dass von ’notwendigen Veränderungen‘ gesprochen wird. Diese werden über die Themen ‚Finanzierung, Programm und Kontrolle‘ ein wenig ausgeführt. Dies sind alles sehr pragmatische Aspekte. Wenn es dann im Schlusssatz heißt „Es geht darum, dass der ÖRR auch in Zukunft eine wichtige Rolle im Dienst der Demokratie spielen kann.“ dann kann man sich als Leser schon fragen, warum ist der ÖRR denn für die Demokratie so wichtig? Finanzen, Programme und Kontrolle sind mögliche pragmatische Teilaspekte, aber eine eigentliche Argumentation ist nicht zu erkennen. Mit Blick auf die Gegenwart, in welcher die ‚Öffentlichkeit‘ in eine Vielzahl von ‚Medienräumen‘ zerfällt, die von unterschiedlichen ‚Narrativen‘ beherrscht werden, die sich gegenseitig auszuschließen scheinen und die ein von einer echten Mehrheit getragenes politisches Handeln unmöglich erscheinen lassen, sind Finanzen, Kontrollen, formale Programmvielfalt nicht unbedingt wichtige konstruktive Kriterien. Der zusätzlich verheerende Einfluss neuer bedeutungsfreier Texte-generierende Technologien wird mit den genannten pragmatischen Kriterien nicht einmal ansatzweise erfasst.

3. DIGITALISIERUNG – SPRACHTECHNOLOGIEN

BILD 2 : Das Enstehen von Sprachtechnologien zur Unterstützung im Umgang mit Sprache

Dem ‚Weltereignis‘ Text-Generatoren im November 2022 gingen viele andere Sprachtechnologien voraus. So unterscheidet man grob:

  1. TTS, T2S , Text-to-Speech, Speechsynthesis: Erste Systeme, die geschriebenen Text in gesprochene Sprache umsetzen konnten. Ab 1968 [1]
  2. S2T, STT , Speech-to-Text: Spracherkennungssysteme, die gesprochene Sprache in geschriebenen Text verwandelt konnten. Ab 1952 [2]
  3. TRANSL , Maschineller Übersetzer: Programme, die von einer Ausgangssprache in eine Zielsprache übersetzen können. Ab 1975. [3]
  4. DIAL , Dialogsysteme: Programme, die mit Menschen Dialoge führen können, um bestimmte Aufgaben zu unterstützen. Ab 1960iger Jahre. [4]
  5. C2T , Command-to-Text: Programme, die anhand von Aufforderungen Texte mit bestimmten Eigenschaften generieren können. Prominent ab November 2022. [5]

Mittlerweile gibt es noch eine Vielzahl anderer Werkzeuge, die im Rahmen der Computerlinguistik zur Arbeit mit Texten angeboten werden.[6]

Diese Beispiele zeigen, dass die Digitalisierung unserer Welt sich auch immer mehr unserer sprachlichen Kommunikation bemächtigt. Vielfach werden diese Werkzeuge als Hilfe, als Unterstützung wahrgenommen, um die menschliche Sprachproduktion besser verstehen und im Vollzug besser unterstützen zu können.

Im Fall der neuen befehlsorientierten Text-Generatoren, die aufgrund interner Datenbanken komplexe Texte generieren können, die für einen Leser ‚wie normale Texte von Menschen‘ daher kommen, wird der Raum der sprachlichen Kommunikation erstmalig von ’nicht-menschlichen‘ Akteuren durchdrungen, die eine stillschweigende Voraussetzung außer Kraft setzen, die bislang immer galt: es gibt plötzlich Autoren, die keine Menschen mehr sind. Dies führt zunehmend zu ernsthaften Irritationen im sprachlichen Diskursraum. Menschliche Autoren geraten in eine ernsthafte Krise: sind wir noch wichtig? Werden wir noch gebraucht? Ist ‚Menschsein‘ mit einem Schlag ‚entwertet‘?

[1] Erste Einführung hier: https://en.wikipedia.org/wiki/Speech_synthesis

[2] Erste Einführung hier: https://en.wikipedia.org/wiki/Speech_recognition

[3] Erste Einführung hier: https://en.wikipedia.org/wiki/Machine_translation

[4] Erste Einführung hier: https://en.wikipedia.org/wiki/Dialogue_system

[5] Erste Einführung hier: https://en.wikipedia.org/wiki/ChatGPT

[6] Für eine erste Einführung siehe hier: https://de.wikipedia.org/wiki/Computerlinguistik

4. GESELLSCHAFT – SPRACHE – LITERATUR

BILD 3 : Sprachtechnologien und Literatur

Das Auftreten der neuen Werkzeuge zur Text-Generierung stiftet eine anhaltende Unruhe im Lager der Schriftsteller, der Autoren und der Literaturwissenschaftler.

Ein beeindruckendes Beispiel ist die Analyse von Hannes Bajohr (2022).[1] Er spielt die Varianten durch, was passiert, wenn … Was passiert, wenn sich die Produktion von literarischen Texten mit Text-Generatoren durchsetzt? Wenn es zum Standard wird, dass immer mehr Texte, ganze Romane mit Text-Generatoren erzeugt werden? Und dies sind keine bloßen Träume, sondern solche Texte werden schon produziert; Bajohr selbst hat einen Roman unter Zuhilfenahme eines Text-Generators verfasst.[2]

Eine andere junge Autorin und Kulturwissenschaftlerin, die sich intensiv mit dem neuen Wechselverhältnis von Literatur, digitaler Welt und Text-Generatoren auseinander setzt ist Jenifer Becker.[3] Ihr Debüt-Roman ist aber noch ein Roman ohne Einsatz von künstlichen Texterzeugern. In ihrem Roman spricht sie noch ’selbst‘ als ‚menschliche Autorin‘ und wir damit potentiell zu einer Gesprächspartnerin für ihre Leser: der Andere als potentielles Ich, wobei das ‚eigentliche Ich‘ sich Spiegel des Textes in spannungsvoller Differenz erleben kann.

Angesichts einer digitalisierten Welt, die mehr und mehr zu einer ‚Ereigniswelt‘ wird, in der das ‚Verweilen‘, das ‚Verstehen‘ sich immer mehr abschwächt, verstummt, verliert auch das Individuum seine eigene Kraft und beginnt sich ‚hohl‘ anzufühlen, wo es doch gar nicht hohl ist, nicht hohl sein muss.

Hier setzt die Rede zur Nobelpreisverleihung 2018 für Literatur der polnischen Laureatin Olga Tokarczuk ein. Sie beschreibt als das Wunderbare von Literatur gerade diese einzigartige Fähigkeit von uns Menschen, dass wir mittels Sprache von unserem Innern berichten können, von unserer individuellen Art des Erlebens von Welt, von Zusammenhängen, die wir in dem Vielerlei des Alltags entdecken können, von Prozessen, Gefühlen, von Sinn und Unsinn. [4]

In dieser Eigenschaft ist Literatur durch nichts ersetzbar, bildet Literatur den ‚inneren Herzschlag‘ des Menschlichen auf diesem Planeten.

Aber, und dies sollte uns aufhorchen lassen, dieser wunderbarer Schatz von literarischen Texten wird bedroht durch den Virus der vollständigen Nivellierung, ja geradezu eine vollständigen Auslöschung. Text-Generatoren haben zwar keinerlei Wahrheit, keinerlei realen Bindungen an eine reale Welt, an reale Menschen, keinerlei wirkliche Bedeutung, aber in der Produktion von Texten (und gesprochener Rede) ohne Wahrheit sind sie vollständig frei. Durch ihre hohe Geschwindigkeit der Produktion können sie alle ‚menschliche Literatur‘ in der Masse des Bedeutungslosen aufsaugen, unsichtbar machen, nihilieren.

[1] Hannes Bajohr, 2022, Artifizielle und postartifizielle Texte. Über Literatur und Künstliche Intelligenz. Walter-Höllerer-Vorlesung 2022, 8.Dez. 2022, Technische Universität Berlin , URL: https://hannesbajohr.de/wp-content/uploads/2022/12/Hoellerer-Vorlesung-2022.pdf, Den Hinweis auf diesen Artikel erhielt ich von Jennifer Becker.

[2] Siehe dazu Bajohr selbst: https://hannesbajohr.de/

[3] Jenifer Becker, Zeiten der Langeweile, Hanser, Berlin, 2023. Dazu Besprechung in der Frankfurter Rundschau, 30.8.23, Lisa Berins, Die große Offline-Lüge, https://www.fr.de/kultur/literatur/zeiten-der-langeweile-von-jenifer-beckerdie-grosse-offline-luege-92490183.html

[4] Olga Tokarczuk, 2018, The Tender Narrator, in: Nobel Lecture by Olga Tokarczuk, 2018, Svenska Akademien, URL: https://www.nobelprize.org/uploads/2019/12/tokarczuk-lecture-english-2.pdf

5. SPRACHE UND BEDEUTUNG

BILD 4 : Sprache und Bedeutung

Am Beispiel der ‚menschlichen Literatur‘ klang eben schon an, welch fundamentale Rolle die ‚Bedeutung von Sprache‘ spielt und dass wir Menschen über solch eine Fähigkeit verfügen. Im Schaubild 4 wird veranschaulicht, was es bedeutet, dass Menschen im Alltag scheinbar mühelos Aussagen erzeugen können, die als ‚aktuell zutreffend’/ ‚wahr‘ untereinander akzeptiert werden oder als ‚aktuell nicht zutreffend’/ ‚falsch‘ oder als ‚aktuell unbestimmt‘. Wenn ein konkreter empirischer Sachverhalt gegeben ist (der Hund von Ani, das rote Auto vom Nachbarn Müller, die Butter auf dem Frühstückstisch, …), dann ist eine Einigung zwischen Menschen mit der gleichen Sprache immer möglich.

Was man sich dabei selten bewusst macht ist, welch starke Voraussetzung ‚in einem Menschen‘ gegeben sein müssen, damit er über diese Fähigkeit so leicht verfügen kann.

Die ‚Box‘ im rechten Teil des Diagramms repräsentiert auf einem starken Abstraktionsniveau die wichtigsten Komponenten, über die ein Mensch in seinen inneren Verarbeitungsstrukturen verfügen können muss, damit er mit anderen so sprechen kann. Die Grundannahmen sind folgende:

  1. Eine Außenwahrnehmung der umgebenden (empirischen) Welt.
  2. Alles was wahrgenommen werden kann kann auch in ‚Elemente des Wissens‘ verwandelt werden.
  3. Eine Sonderrolle nimmt die Repräsentation von Elementen der Sprachstruktur ein.
  4. Zwischen den Elementen des Wissens und den Ausdruckselementen kann ein Mensch eine dynamische Abbildungsbeziehung (Bedeutungsbeziehung) aufbauen (Lernen), so dass Wissenselemente auf Ausdruckselemente verweisen und Ausdruckselemente auf Wissenselemente.
  5. Aus Sicht der Ausdruckselemente bildet jenes Wissen, das über eine Abbildung verbunden wird, die ‚Bedeutung‘ der Ausdruckselemente.
  6. Innerhalb des Wissens gibt es zahlreiche unterschiedliche Formen von Wissen: aktuelles Wissen, erinnerbares Wissen, Veränderungswissen, Ziele, und prognostisches Wissen.
  7. Und vieles mehr

Neben Aussagen, die ‚aktuell wahr‘ sein können, verfügt der Mensch aber auch über die Möglichkeit, vielfache Wiederholungen als ‚wahr‘ anzusehen, wenn sie sich immer wider als ‚aktuell wahr‘ erweisen. Dies verweist auf mögliche weitere Formen von möglichen abgeleiteten Wahrheiten, die man vielleicht unter dem Oberbegriff ’strukturelle Wahrheit‘ versammeln könnte.

6. ZÄHMUNG DER BEDEUTUNG – WISSENSCHAFT

BILD 5 : Wissenschaft als Ergänzung von Literatur

Die Ur-Funktion von Literatur, das Gespräch zwischen dem Inneren der Menschen über ihre Welt- und Selbsterfahrung sprechen zu können, indem nicht nur die ‚Oberfläche der Dinge‘, sondern auch die ‚Tiefenstruktur der Phänomene‘ ins Wort kommen können, ist unersetzbar, aber sie leidet im Alltag an der strukturellen Schwäche des möglichen ‚Nicht-Verstehens‘ oder ‚Falsch-Verstehens‘. Während sich über die Dinge des alltäglichen Lebens leicht Einigkeit erzielen lässt, was jeweils gemeint ist, ist das ‚Innere‘ des Menschen eine echte ‚Terra Incognita‘, ein ‚unbekanntes Land‘. In dem Maße, wie wir Menschen im Innern ‚ähnlich‘ erleben und empfinden, kann das Verstehen von ‚Bedeutungen‘ noch ansatzweise gelingen, da wir Menschen aufgrund unserer Körperstrukturen in vielen Dingen ähnliche Erleben, Fühlen, Erinnern und Denken. Aber je spezifischer etwas in unserem Inneren ist, je ‚abstrakter‘ eine Bedeutung wird, umso schwieriger wird die Erfassung einer Rede durch andere. Dies führt dann unabwendbar zum Falsch- oder gar Nicht-Verstehen.

In dem Maße wie wir Menschen aber auf eine ‚tragfähige Erklärung von Welt‘ angewiesen sind, um ‚gemeinsam‘ das ‚Richtige‘ zu tun, in dem Maße wird unsere normale sprachliche Kommunikation, wird Literatur überfordert. Sie will vielleicht, aber sie kann aus sich heraus eine solche Eindeutigkeit nicht ohne weiteres herstellen. Ihre Stärke kann und wird in diesen Bereich zu einer Schwäche.

Vor dem Hintergrund des ‚Überlebens auf dem Planeten‘, des ‚Überlebens im Alltag‘ bildet die Notwendigkeit von ‚wahren Texten‘, die zudem ‚belastbare Prognosen‘ erlauben, eine Kernforderung, die möglicherweise nur eine Teilmenge jener Bedeutungsräume erlaubt, über die Literatur verfügen kann. Aber diese ‚wahren und belastbaren Teilräume‘ bilden jenen ‚harten Boden‘, auf denen sich Menschen quer über alle Kontinente und im Bereich aller Sprachen gründen können.

Diese Art von Texten, deren Existenz von gemeinsamen nachprüfbaren ‚wahren Sachverhalten und Prognosen‘ abhängt, entstand in der Geschichte der Menschheit unter dem Namen ‚empirische Wissenschaft‘ sehr spät.[1] Nach anfänglichen Mühen entwickelte sie sich dann rasant weiter und ist heute zum Standard für nachweisbar wahre und prognosefähige Texte geworden.

Die heutige weltweite Verbreitung von ‚Wissenschaft‘ ist ihr selbst aber mittlerweile zum Problem geworden. Der klare Kern dieser Textform erscheint in der öffentlichen Verwendung der Charakterisierung von ‚Wissenschaft‘ seltsam vage. Der Begriff einer ‚empirischen Theorie‘ ist geradezu verschwunden. Die großen Enzyklopädien dieser Welt kennen diesen Begriff nicht mehr.

Dazu kommt die ‚Altlast‘ der modernen Wissenschaft, dass sie sich schnell zu einer Veranstaltung von ‚Spezialisten‘ entwickelt hat, die ihre ‚eigene Fachsprache‘ sprechen, die zudem vielfach teilweise oder ganz mit ‚mathematischer Sprache‘ arbeiten. Diese führt zunehmend zu einer Ausgrenzung aller anderen Bürger; das ‚Verstehen von Wissenschaft‘ wird für die meisten Menschen zu einer ‚Glaubenssache‘, wo doch Wissenschaft gerade angetreten war, um die ‚Autorität des bloßen Glaubens‘ zu überwinden.

Desweiteren haben wir in den letzten Jahrzehnten mehr und mehr gelernt, was es heißt, den Aspekt ‚Nachhaltiger Entwicklung‘ zu berücksichtigen. Eine Grundbotschaft besteht darin, dass alle Menschen einbezogen werden müssen, um die Entwicklung nicht von einzelnen, kleinen — meist mächtigen — Gruppen dominieren zu lassen. Und von de Entwicklung des Lebens auf diesem Planeten [3] wissen wir, dass das Leben — von dem wir als Menschen ein kleiner Teil sind — in den zurück liegenden ca. 3.5 Milliarden Jahren nur überleben konnten, weil es nicht nur das ‚Alte, Bekannte‘ einfach wiederholt hat, sondern auch immer ‚aus sich echtes Neues‘ heraus gesetzt hat, Neues, von dem man zum Zeitpunkt des Hervorbringens nicht wusste, ob es für die Zukunft brauchbar sein wird.[3,4]

Dies regt dazu an, den Begriff der ‚empirischen Theorie‘ zu aktualisieren und ihn sogar zum Begriff einer ’nachhaltigen empirischen Theorie‘ zu erweitern.

[1] Wenn man als Orientierungspunkt für den Beginn der neuzeitlichen wahrheitsfähigen und prognosefähigen Texte Galileo Galilei (1564 – 1641) und Johannes Kepler ()1571 – 1630) nimmt , dann beginnt der Auftritt dieser Textform im 17./18. Jahrhundert. Siehe hier: https://de.wikipedia.org/wiki/Galileo_Galilei und hier: https://de.wikipedia.org/wiki/Johannes_Kepler

[2] UN. Secretary-General; World Commission on Environment and Development, 1987, Report of the World Commission on Environment and Development : note / by the Secretary General., https://digitallibrary.un.org/record/139811 (accessed: July 20, 2022) (In einem besser lesbaren Format: https://sustainabledevelopment.un.org/content/documents/5987our-common-future.pdf) Anmerkung: Gro Harlem Brundtland (ehemalige Ministerpräsidentin von Norwegen) war die Koordinatorin von diesem Report. 1983 erhielt sie den Auftrag vom Generalsekretär der UN einen solchen Report zu erstellen, 1986 wurde er übergeben und 1987 veröffentlicht. Dieser Text enthält die grundlegenden Ideen für alle weiteren UN-Texte.

Zitat aus dem Vorwort: The fact that we all became wiser, learnt to look across cultural and historical barriers, was essential. There were moments of deep concern and potential crisis, moments of gratitude and achievement, moments of success in building a common analysis and perspective. The result is clearly more global, more realistic, more forward looking than any one of us alone could have created. We joined the Commission with different views and perspectives, different values and beliefs, and very different experiences and insights. After these three years of working together, travelling, listening, and discussing, we present a unanimous report.“ und „Unless we are able to translate our words into a language that can reach the minds and hearts of people young and old, we shall not be able to undertake the extensive social changes needed to correct the course of development.

[3] Gerd Doeben-Henisch, 2016, Sind Visionen nutzlos?, URL: https://www.cognitiveagent.org/2016/10/22/sind-visionen-nutzlos/

[4] Zum Begriff der Evolution siehe hier: https://de.wikipedia.org/wiki/Evolution und hier: https://en.wikipedia.org/wiki/Evolution

7. EMPIRISCHE UND NACHHALTIG EMPIRISCHE THEORIE

BILD 6 : Aktualisierter Begriff von ‚Empirischer Theorie (ET)‘ und ‚Nachhaltiger Empirischer Theorie (NET)‘

Zum ‚aktualisierten Begriff‘ einer empirischen und einer nachhaltig empirischen Theorie gehören die folgenden Elemente:

  1. Die Gruppe der ‚Theorie-Autoren‘ besteht prinzipiell aus allen Menschen, die in ihrer Alltagssprache kommunizieren. Dies ermöglicht von Anfang an maximale Diversität.
  2. Der engere Begriff der ‚Empirischen Theorie‘ umfasst die Elemente ‚IST-Zustand‘, ‚Veränderungs-Wissen‘ sowie einen ‚Folgerungsbegriff‘ in Form eines Wissens, wie man Veränderungswissen auf einen gegebenen Zustand anwendet.
  3. Das ‚Ergebnis einer Folgerung‘ ist ein ’neuer Folge-Zustand‘.
  4. Lässt sich eine Folgerung mehrfach vollziehen dann ensteht eine ‚Folge von Folgezuständen‘, die man heute auch als ‚Simulation‘ bezeichnen kann.

Der IST-Zustand umfasst eine Menge von Ausdrücken einer gewählten Alltagssprache, die so beschaffen sind, dass alle beteiligten Theorie-Autoren sich darüber einigen können, dass diese Ausdrücke unter den angenommenen Bedingungen ‚zutreffen‘, d.h. ‚wahr‘ sind.

Das Veränderungs-Wissen umfasst eine Menge von Ausdrücken, die Veränderungsprozesse beschreiben, die sich ebenfalls unter angegebenen Bedingungen von jedem überprüfen lassen.

Der Folgerungsbegriff ist ein Text, der eine Handlungsbeschreibung umfasst, die beschreibt, wie man eine Veränderungsbeschreibung auf eine gegebene IST-Beschreibung so anwendet, dass daraus ein neuer Text entsteht, der die Veränderung im Text enthält.

Eine empirische Theorie ermöglicht die Erzeugung von Texten, die mögliche Zustände in einer möglichen Zukunft beschreiben. Dies kann mehr als eine Option umfassen.

Im Alltag der Menschen reicht ein bloßes Wissen um ‚Optionen‘ aber nicht aus. Im Alltag müssen wir uns beständig Entscheiden, was wir tun wollen. Für diese Entscheidungen gibt es keine zusätzliche Theorie: für einen menschlichen Entscheidungsprozess ist es bis heute mehr oder weniger ungeklärt, wie er zustande kommt. Es gibt allerdings viele ‚Teil-Theorien‘ und noch mehr ‚Vermutungen‘.

Damit diese ’nicht-rationale Komponente‘ unseres alltäglichen Lebens nicht ‚unsichtbar‘ bleibt, wird hier der Begriff einer nachhaltigen empirischen Theorie vorgeschlagen, in dem zusätzlich zur empirischen Theorie eine Liste von Zielen angenommen wird, die von allen Beteiligten aufgestellt wird. Ob diese Ziele ‚gute‘ Ziele sind, kann man erst wissen, wenn sie sich ‚im weiteren Verlauf‘ ‚bewähren‘ oder eben nicht. Explizite Ziele ermöglichen daher einen ‚gerichteten Lernprozess‘. Explitit formulierte Ziele ermöglichen darüber hinaus eine kontinuierliche Kontrolle, wie sich der aktuelle Handlungsprozess mit Blick auf ein Ziel verhält.

Für die Umsetzung einer nachhaltigen Entwicklung sind nachhaltige empirische Theorien eine unverzichtbare Voraussetzung.

8. WAHRHEIT, PROGNOSE & TEXT-GENERATOREN

BILD 7 : Die potentielle Rolle von Text-Generatoren der Machart 2023 innerhalb eines wissenschaftlichen Diskurses

Für die Bewertung, welche Rolle Textgeneratoren aus dem Jahr 2023 innerhalb eines wissenschaftlichen Diskurses spielen können, kann man ein Gedankenexperiment (und dann natürlich auch real) durchführen, welche der Anforderungen eines wissenschaftlichen Diskurses, die zuvor erläutert worden sind, von einem Text-Generator erfüllt werden können. Das Bild Nr.7 ist eigentlich selbst-erklärend.

Das zentrale Argument besteht darin, dass Text-Generatoren des Jahrgangs 2023 über keinerlei Wissen verfügen, wie es der Mensch besitzt, nahezu keine Wahrnehmung (außer Texteingaben oder Spracheingaben) haben, und dementsprechend auch über keine Bedeutungsfunktion verfügen. Die Unfähigkeit zu ‚wahren Aussagen‘ oder auch der Fähigkeit, entscheiden zu können, ob etwas ‚wahr‘ ist oder nicht, fehlt ebenfalls vollständig.[1]

[1] Ron Brachman, Hector Levesque, Dieser KI können wir nicht trauen, Es gibt ein grundlegendes Problem in der Entwicklung der gegenwärtig angesagten KI-Systeme. Hier kommt ein Vorschlag, wie es besser geht. FAZ, Mo 13.Nov 2023, S.19 . Online (beschränkt) auch hier: https://www.faz.net/aktuell/wirtschaft/unternehmen/chatgpt-co-dieser-ki-koennen-wir-nicht-trauen-19308979.html, Anmerkung 1: Die beiden Autoren nehmen den Boom um chatGPT zum Anlass, vor der gesamten Künstlichen Intelligenz (KI) zu warnen. Sie fokussieren ihre Kritik auf einen Punkt: „Der aktuellen KI-Technologie kann man nicht trauen. … Obwohl sie auf der Grundlage riesiger Datenmengen trainiert werden … machen moderne KI-Systeme bizarre, dumme Fehler. Unvorhersehbare, unmenschliche Fehler.“ Und weiter: „Wir wissen nicht, wann diese Systeme das Richtige tun und wann sie versagen.“ Sie führen im weiteren Verlauf noch aus, dass die aktuelle Architektur dieser Systeme es nicht zulässt, heraus zu finden, was genau die Gründe sind, warum sie entweder richtig oder falsch urteilen. Mit Blick auf den Alltag diagnostizieren sie bei uns Menschen einen ‚gesunden Menschenverstand‘, ein Prototyp von ‚Rationalität‘, und diesen sehen sie bei den KI-Systemen nicht. Sie beschreiben viele Eigenschaften, wie Menschen im Alltag lernen (z.B. mit ‚Überzeugungen‘, ‚Zielen‘ arbeiten, mit ‚Konzepten‘ und ‚Regeln‘, mit ‚echten Fakten‘, …), und stellen fest, dass KI-Systeme für uns erst wirklich nützlich werden, wenn sie über diese Fähigkeiten nachvollziehbar verfügen. Anmerkung 2: Die Autoren sprechen es nicht explizit aus, aber implizit ist klar, dass sie die neuen Text-Generatoren wie chatGPT & Co zu jener KI-Technologie rechnen, die sie in ihrem Beitrag charakterisieren und kritisieren. Wichtig ist, dass Sie in ihrer Kritik Kriterien benutzen, die alltäglich vage sind (‚gesunder Menschenverstand‘), allerdings angereichert mit vielen Alltagsbeispielen. Letztlich machen ihre kritischen Überlegungen aber deutlich, dass es angesichts der neuen KI-Technologien an geeigneten und erprobten Meta-Modellen (‚transdisziplinär‘, ‚wissenschaftsphilosophisch‘, …) mangelt. Man ’spürt‘ ein Ungenügen mit dieser neuen KI-Technologie, kann auch viele Alltagsbeispiele aufzählen, aber es fehlt an einem klaren theoretischen Konzept. Ein solches scheint aber momentan niemand zu haben ….

9. Epilog

Diese Kurzfassung meines Vortags vom 10.November 2023 ist gedacht als ‚Basis‘ für die Erstellung eines umfassenderen Textes, in dem alle diese Gedanken weiter ausgeführt werden, dazu auch mit viel mehr Literatur und vielen realen Beispielen.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

Homo Sapiens: empirische und nachhaltig-empirische Theorien, Emotionen, und Maschinen. Eine Skizze

5.Aug 2023 – 29.Aug 2023 (10:37h)

Autor: Gerd Doeben-Henisch

Email: gerd@doeben-henisch.de

(Eine Englische Version findet sich hier: https://www.uffmm.org/2023/08/24/homo-sapiens-empirical-and-sustained-empirical-theories-emotions-and-machines-a-sketch/)

Kontext

Dieser Text stellt die Skizze zu einem Vortrag dar, der im Rahmen der Konferenz „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ (25./26.August 2023, TU Darmstadt) gehalten werden soll. [1] Die Englische Version des überarbeiteten Vortrags findet sich schon jetzt HIER: https://www.uffmm.org/2023/10/02/collective-human-machine-intelligence-and-text-generation-a-transdisciplinary-analysis/ . Die Deutsche Version des überarbeiteten Vortrags wird im Verlag Walter de Gruyter bis Ende 2023/ Anfang 2024 erscheinen. Diese Veröffentlichung wird hier dann bekannt gegeben werden.

Sehr geehrtes Auditorium,

In dieser Tagung mit dem Titel „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ geht es zentral um wissenschaftliche Diskurse und den möglichen Einfluss von KI-Textgeneratoren auf diese Diskurse. Der heiße Kern bleibt aber letztlich das Phänomen Text selbst, seine Geltung.

SICHTWEISEN-TRANS-DISZIPLINÄR

In dieser Konferenz werden zu diesem Thema viele verschiedene Sichten vorgetragen, die zu diesem Thema möglich sind.

Mein Beitrag zum Thema versucht die Rolle der sogenannten KI-Textgeneratoren dadurch zu bestimmen, dass aus einer ‚transdisziplinären Sicht‘ heraus die Eigenschaften von ‚KI-Textgeneratoren‘ in eine ’strukturelle Sicht‘ eingebettet werden, mit deren Hilfe die Besonderheiten von wissenschaftlichen Diskursen herausgestellt werden kann. Daraus können sich dann ‚Kriterien für eine erweiterte Einschätzung‘ von KI-Textgeneratoren in ihrer Rolle für wissenschaftliche Diskurse ergeben.

Einen zusätzlichen Aspekt bildet die Frage nach der Struktur der ‚kollektiven Intelligenz‘ am Beispiel des Menschen, und wie sich diese mit einer ‚Künstlichen Intelligenz‘ im Kontext wissenschaftlicher Diskurse möglicherweise vereinen kann.

‚Transdisziplinär‘ bedeutet in diesem Zusammenhang eine ‚Meta-Ebene‘ aufzuspannen, von der aus es möglich sein soll, die heutige ‚Vielfalt von Textproduktionen‘ auf eine Weise zu beschreiben, die ausdrucksstark genug ist, um eine ‚KI-basierte‘ Texterzeugung von einer ‚menschlichen‘ Texterzeugung unterscheiden zu können.

MENSCHLICHE TEXTERZEUGUNG

Die Formulierung ‚wissenschaftlicher Diskurs‘ ist ein Spezialfall des allgemeineren Konzepts ‚menschliche Texterzeugung‘.

Dieser Perspektivenwechsel ist meta-theoretisch notwendig, da es auf den ersten Blick nicht der ‚Text als solcher ‚ ist, der über ‚Geltung und Nicht-Geltung‘ entscheidet, sondern die ‚Akteure‘, die ‚Texte erzeugen und verstehen‘. Und beim Auftreten von ‚verschiedenen Arten von Akteuren‘ — hier ‚Menschen‘, dort ‚Maschinen‘ — wird man nicht umhin kommen, genau jene Unterschiede — falls vorhanden — zu thematisieren, die eine gewichtige Rolle spielen bei der ‚Geltung von Texten‘.

TEXTFÄHIGE MASCHINEN

Bei der Unterscheidung in zwei verschiedenen Arten von Akteuren — hier ‚Menschen‘, dort ‚Maschinen‘ — sticht sofort eine erste ‚grundlegende Asymmetrie‘ ins Auge: sogenannte ‚KI-Textgeneratoren‘ sind Gebilde, die von Menschen ‚erfunden‘ und ‚gebaut‘ wurden, es sind ferner Menschen, die sie ‚benutzen‘, und das wesentliche Material, das von sogenannten KI-Generatoren benutzt wird, sind wiederum ‚Texte‘, die als ‚menschliches Kulturgut‘ gelten.

Im Falle von sogenannten ‚KI-Textgeneratoren‘ soll hier zunächst nur so viel festgehalten werden, dass wir es mit ‚Maschinen‘ zu tun haben, die über ‚Input‘ und ‚Output‘ verfügen, dazu über eine minimale ‚Lernfähigkeit‘, und deren Input und Output ‚textähnliche Objekte‘ verarbeiten kann.

BIOLOGISCH-NICHT-BIOLOGISCH

Auf der Meta-Ebene wird also angenommen, dass wir einerseits über solche Akteure verfügen, die minimal ‚textfähige Maschinen‘ sind — durch und durch menschliche Produkte –, und auf der anderen Seite über Akteure, die wir ‚Menschen‘ nennen. Menschen gehören als ‚Homo-Sapiens Population‘ zur Menge der ‚biologischen Systeme‘, während ‚textfähige Maschinen‘ zu den ’nicht-biologischen Systemen‘ gehören.

LEERSTELLE INTELLIGENZ-BEGRIFF

Die hier vorgenommene Transformation des Begriffs ‚KI-Textgenerator‘ in den Begriff ‚textfähige Maschine‘ soll zusätzlich verdeutlichen, dass die verbreitete Verwendung des Begriffs ‚KI‘ für ‚Künstliche Intelligenz‘ eher irreführend ist. Es gibt bislang in keiner wissenschaftlichen Disziplin einen allgemeinen, über die Einzeldisziplin hinaus anwendbaren und akzeptierten Begriff von ‚Intelligenz‘. Für die heute geradezu inflatorische Verwendung des Begriffs KI gibt es keine wirkliche Begründung außer jener, dass der Begriff so seiner Bedeutung entleert wurde, dass man ihn jederzeit und überall benutzen kann, ohne etwas Falsches zu sagen. Etwas, was keine Bedeutung besitzt, kann weder wahr‘ noch ‚falsch‘ sein.

VORAUSSETZUNGEN FÜR TEXT-GENERIERUNG

Wenn nun die Homo-Sapiens Population als originärer Akteur für ‚Text-Generierung‘ und ‚Text-Verstehen‘ identifiziert wird, soll nun zunächst untersucht werden, welches denn ‚jene besonderen Eigenschaften‘ sind, die eine Homo-Sapiens Population dazu befähigt, Texte zu generieren und zu verstehen und sie ‚im alltäglichen Lebensprozess erfolgreich anzuwenden‘.

GELTUNG

Ein Anknüpfungspunkt für die Untersuchung der besonderen Eigenschaften einer Homo-Sapiens Text-Generierung und eines Text-Verstehens ist der Begriff ‚Geltung‘, der im Tagungsthema vorkommt.

Auf dem primären Schauplatz des biologischen Lebens, in den alltäglichen Prozessen, im Alltag, hat die ‚Geltung‘ eines Textes mit ‚Zutreffen‘ zu tun. Wenn ein Text nicht von vornherein mit einem ‚fiktiven Charakter‘ geplant wird, sondern mit einem ‚Bezug zum Alltagsgeschehen‘, das jeder im Rahmen seiner ‚Weltwahrnehmung‘ ‚überprüfen‘ kann, dann hat ‚Geltung im Alltag‘ damit zu tun, dass das ‚Zutreffen eines Textes überprüft‘ werden kann. Trifft die ‚Aussage eines Textes‘ im Alltag ‚zu‘, dann sagt man auch, dass diese Aussage ‚gilt‘, man räumt ihr ‚Geltung‘ ein, man bezeichnet sie auch als ‚wahr‘. Vor diesem Hintergrund könnte man geneigt sein fortzusetzen und zu sagen: ‚Trifft‘ die Aussage eines Textes ’nicht zu‘, dann kommt ihr ‚keine Geltung‘ zu; vereinfacht zur Formulierung, dass die Aussage ’nicht wahr‘ sei bzw. schlicht ‚falsch‘.

Im ‚realen Alltag‘ ist die Welt allerdings selten ’schwarz‘ und ‚weiß‘: nicht selten kommt es vor, dass wir mit Texten konfrontiert werden, denen wir aufgrund ihrer ‚gelernten Bedeutung‘ geneigt sind ‚eine mögliche Geltung‘ zu zuschreiben, obwohl es möglicherweise gar nicht klar ist, ob es eine Situation im Alltag gibt — bzw. geben wird –, in der die Aussage des Textes tatsächlich zutrifft. In solch einem Fall wäre die Geltung dann ‚unbestimmt‘; die Aussage wäre ‚weder wahr noch falsch‘.

ASYMMETRIE: ZUTREFFEN – NICHT-ZUTREFFEN

Man kann hier eine gewisse Asymmetrie erkennen: Das ‚Zutreffen‘ einer Aussage, ihre tatsächliche Geltung, ist vergleichsweise eindeutig. Das ‚Nicht-Zutreffen‘, also eine ‚bloß mögliche‘ Geltung, ist hingegen schwierig zu entscheiden.

Wir berühren mit diesem Phänomen der ‚aktuellen Nicht-Entscheidbarkeit‘ einer Aussage sowohl das Problem der ‚Bedeutung‘ einer Aussage — wie weit ist überhaupt klar, was gemeint ist? — als auch das Problem der ‚Unabgeschlossenheit unsres Alltags‘, besser bekannt als ‚Zukunft‘: ob eine ‚aktuelle Gegenwart‘ sich als solche fortsetzt, ob genau so, oder ob ganz anders, das hängt davon ab, wie wir ‚Zukunft‘ generell verstehen und einschätzen; was die einen als ’selbstverständlich‘ für eine mögliche Zukunft annehmen, kann für die anderen schlicht ‚Unsinn‘ sein.

BEDEUTUNG

Dieses Spannungsfeld von ‚aktuell entscheidbar‘ und ‚aktuell noch nicht entscheidbar‘ verdeutlicht zusätzlich einen ‚autonomen‘ Aspekt des Phänomens Bedeutung: hat sich ein bestimmtes Wissen im Gehirn gebildet und wurde dieses als ‚Bedeutung‘ für ein ‚Sprachsystem‘ nutzbar gemacht, dann gewinnt diese ‚assoziierte‘ Bedeutung für den Geltungsbereich des Wissens eine eigene ‚Realität‘: es ist nicht die ‚Realität jenseits des Gehirns‘, sondern die ‚Realität des eigenen Denkens‘, wobei diese Realität des Denkens ‚von außen betrachtet‘ etwas ‚Virtuelles‘ hat.

Will man über diese ‚besondere Realität der Bedeutung‘ im Kontext des ‚ganzen Systems‘ sprechen, dann muss man zu weitreichenden Annahmen greifen, um auf der Meta-Ebene einen ‚begrifflichen Rahmen‘ installieren zu können, der in der Lage ist, die Struktur und die Funktion von Bedeutung hinreichend beschreiben zu können. Dafür werden minimal die folgenden Komponenten angenommen (‚Wissen‘, ‚Sprache‘ sowie ‚Bedeutungsbeziehung‘):

  1. WISSEN: Es gibt die Gesamtheit des ‚Wissens‘, das sich im Homo-Sapiens Akteur im Laufe der Zeit im Gehirn ‚aufbaut‘: sowohl aufgrund von kontinuierlichen Interaktionen des ‚Gehirns‘ mit der ‚Umgebung des Körpers‘, als auch aufgrund von Interaktionen ‚mit dem Körper selbst‘, sowie auch aufgrund der Interaktionen ‚des Gehirns mit sich selbst‘.
  2. SPRACHE: Vom Wissen zu unterscheiden ist das dynamische System der ‚potentiellen Ausdrucksmittel‘, hier vereinfachend ‚Sprache‘ genannt, die sich im Laufe der Zeit in Interaktion mit dem ‚Wissen‘ entfalten können.
  3. BEDEUTUNGSBEZIEHUNG: Schließlich gibt es die dynamische ‚Bedeutungsbeziehung‘, ein Interaktionsmechanismus, der beliebige Wissenselemente jederzeit mit beliebigen sprachlichen Ausdrucksmitteln verknüpfen kann.

Jede dieser genannten Komponenten ‚Wissen‘, ‚Sprache‘ wie auch ‚Bedeutungsbeziehung‘ ist extrem komplex; nicht weniger komplex ist auch ihr Zusammenspiel.

ZUKUNFT UND EMOTIONEN

Neben dem Phänomen Bedeutung wurde beim Phänomen des Zutreffens auch sichtbar, dass die Entscheidung des Zutreffens auch von einer ‚verfügbaren Alltagssituation‘ abhängt, in der sich eine aktuelle Entsprechung ‚konkret aufzeigen‘ lässt oder eben nicht.

Verfügen wir zusätzlich zu einer ‚denkbaren Bedeutung‘ im Kopf aktuell über keine Alltagssituation, die dieser Bedeutung im Kopf hinreichend korrespondiert, dann gibt es immer zwei Möglichkeiten: Wir können diesem gedachten Konstrukt trotz fehlendem Realitätsbezug den ‚Status einer möglichen Zukunft‘ verleihen oder nicht.

Würden wir uns dafür entscheiden, einer ‚Bedeutung im Kopf‘ den Status einer möglichen Zukunft zu zusprechen, dann stehen meistens folgende zwei Anforderungen im Raum: (i) Lässt sich im Lichte des verfügbaren Wissens hinreichend plausibel machen, dass sich die ‚gedachte mögliche Situation‘ in ‚absehbarer Zeit‘ ausgehend von der aktuellen realen Situation ‚in eine neue reale Situation transformieren lässt‘? Und (ii) Gibt es ’nachhaltige Gründe‚ warum man diese mögliche Zukunft ‚wollen und bejahen‘ sollte?

Die erste Forderung verlangt nach einer leistungsfähigen ‚Wissenschaft‘, die aufhellt, ob es überhaupt gehen kann. Die zweite Forderung geht darüber hinaus und bringt unter dem Gewand der ‚Nachhaltigkeit‘ den scheinbar ‚irrationalen‘ Aspekt der ‚Emotionalität‘ ins Spiel: es geht nicht nur einfach um ‚Wissen als solches‘, es geht auch nicht nur um ein ’sogenanntes nachhaltiges Wissen‘, das dazu beitragen soll, das Überleben des Lebens auf dem Planet Erde — und auch darüber hinaus — zu unterstützen, es geht vielmehr auch um ein ‚gut finden, etwas bejahen, und es dann auch entscheiden wollen‘. Diese letzten Aspekte werden bislang eher jenseits von ‚Rationalität‘ angesiedelt; sie werden dem diffusen Bereich der ‚Emotionen‘ zugeordnet; was seltsam ist, da ja jedwede Form von ‚üblicher Rationalität‘ genau in diesen ‚Emotionen‘ gründet.[2]

WISSENSCHAFTLICHER DISKURS UND ALLTAGSSITUATIONEN

In diesem soeben angedeuteten Kontext von ‚Rationalität‘ und ‚Emotionalität‘ ist es nicht uninteressant, dass im Tagungsthema der ‚wissenschaftliche Diskurs‘ als Referenzpunkt thematisiert wird, um den Stellenwert textfähiger Maschinen abzuklären.

Es fragt sich, inwieweit ein ‚wissenschaftlicher Diskurs‘ überhaupt als Referenzpunkt für einen erfolgreichen Text dienen kann?

Dazu kann es helfen, sich bewusst zu machen, dass das Leben auf diesem Planet Erde sich in jedem Moment in einer unfassbar großen Menge von ‚Alltagssituationen‘ abspielt, die alle gleichzeitig stattfinden. Jede ‚Alltagssituation‘ repräsentiert für die Akteure eine ‚Gegenwart‘. Und in den Köpfen der Akteure findet sich ein individuell unterschiedliches Wissen darüber, wie sich eine Gegenwart in einer möglichen Zukunft ‚verändern kann‘ bzw. verändern wird.

Dieses ‚Wissen in den Köpfen‘ der beteiligten Akteure kann man generell ‚in Texte transformieren‘, die auf unterschiedliche Weise einige der Aspekte des Alltags ’sprachlich repräsentieren‘.

Der entscheidende Punkt ist, dass es nicht ausreicht, dass jeder ‚für sich‘ alleine, ganz ‚individuell‘, einen Text erzeugt, sondern dass jeder zusammen ‚mit allen anderen‘, die auch von der Alltagssituation betroffen sind, einen ‚gemeinsamen Text‘ erzeugen muss. Eine ‚kollektive‘ Leistung ist gefragt.

Und es geht auch nicht um ‚irgendeinen‘ Text, sondern um einen solchen, der so beschaffen ist, dass er die ‚Generierung möglicher Fortsetzungen in der Zukunft‘ erlaubt, also das, was traditionell von einem ‚wissenschaftlichen Text‘ erwartet wird.

Aus der umfangreichen Diskussion — seit den Zeiten eines Aristoteles — was denn ‚wissenschaftlich‘ bedeuten soll, was eine ‚Theorie‘ ist, was eine ‚empirische Theorie‘ sein soll, skizziere ich das, was ich hier das ‚minimale Konzept einer empirischen Theorie‘ nenne.

  1. Ausgangspunkt ist eine ‚Gruppe von Menschen‘ (die ‚Autoren‘), die einen ‚gemeinsamen Text‘ erstellen wollen.
  2. Dieser Text soll die Eigenschaft besitzen, dass er ‚begründbare Voraussagen‘ für mögliche ‚zukünftige Situationen‘ erlaubt, denen sich dann in der Zukunft ‚irgendwann‘ auch eine ‚Geltung zuordnen lässt‘.
  3. Die Autoren sind in der Lage, sich auf eine ‚Ausgangssituation‘ zu einigen, die sie mittels einer ‚gemeinsamen Sprache‘ in einen ‚Ausgangstext‘ [A] transformieren.
  4. Es gilt als abgemacht, dass dieser Ausgangstext nur ’solche sprachliche Ausdrücke‘ enthalten darf, die sich ‚in der Ausgangssituation‘ als ‚wahr‘ ausweisen lassen.
  5. In einem weiteren Text stellen die Autoren eine Reihe von ‚Veränderungsregeln‘ [V] zusammen, die ‚Formen von Veränderungen‘ an einer gegebenen Situation ins Wort bringen.
  6. Auch in diesem Fall gilt es als abgemacht, dass nur ’solche Veränderungsregeln‘ aufgeschrieben werden dürfen, von denen alle Autoren wissen, dass sie sich in ‚vorausgehenden Alltagssituationen‘ als ‚wahr‘ erwiesen haben.
  7. Der Text mit den Veränderungsregeln V liegt auf einer ‚Meta-Ebene‘ verglichen mit dem Text A über die Ausgangssituation, der relativ zum Text V auf einer ‚Objekt-Ebene‘ liegt.
  8. Das ‚Zusammenspiel‘ zwischen dem Text V mit den Veränderungsregeln und dem Text A mit der Ausgangssituation wird in einem eigenen ‚Anwendungstext‘ [F] beschrieben: Hier wird beschrieben, wann und wie man eine Veränderungsregel (in V) auf einen Ausgangstext A anwenden darf und wie sich dabei der ‚Ausgangstext A‘ zu einem ‚Folgetext A*‘ verändert.
  9. Der Anwendungstext F liegt damit auf einer nächst höheren Meta-Ebene zu den beiden Texten A und V und kann bewirken, dass der Anwendungstext den Ausgangstext A verändert wird.
  1. In dem Moment, wo ein neuer Folgetext A* vorliegt, wird der Folgetext A* zum neuen Anfangstext A.
  2. Falls der neue Ausgangstext A so beschaffen ist, dass sich wieder eine Veränderungsregel aus V anwenden lässt, dann wiederholt sich die Erzeugung eines neuen Folgetextes A*.
  3. Diese ‚Wiederholbarkeit‘ der Anwendung kann zur Generierung von vielen Folgetexten <A*1, …, A*n> führen.
  4. Eine Serie von vielen Folgetexten <A*1, …, A*n> nennt man üblicherweise auch eine ‚Simulation‘.
  5. Abhängig von der Beschaffenheit des Ausgangstextes A und der Art der Veränderungsregeln in V kann es sein, dass mögliche Simulationen ‚ganz unterschiedlich verlaufen können‘. Die Menge der möglichen wissenschaftlichen Simulationen repräsentiert ‚Zukunft‘ damit also nicht als einen einzigen, bestimmten Verlauf, sondern als eine ‚beliebig große Menge möglicher Verläufe‘.
  6. Die Faktoren, von denen unterschiedliche Verläufe abhängen, sind vielfältig. Ein Faktor sind die Autoren selbst. Jeder Autor ist ja mit seiner Körperlichkeit vollständig selbst Teil genau jener empirischen Welt, die in einer wissenschaftlichen Theorie beschrieben werden soll. Und wie bekannt, kann jeder menschliche Akteur seine Meinung jederzeit ändern. Er kann buchstäblich im nächsten Moment genau das Gegenteil von dem tun, was er zuvor gedacht hat. Und damit ist die Welt schon nicht mehr die gleiche, wie zuvor in der wissenschaftlichen Beschreibung angenommen.

Schon dieses einfache Beispiel zeigt, dass die Emotionalität des ‚Gut-Findens, des Wollens, und des Entscheidens‘ der Rationalität wissenschaftlicher Theorien voraus liegt. Dies setzt sich in der sogenannten ‚Nachhaltigkeitsdiskussion‘ fort.

NACHHALTIGE EMPIRISCHE THEORIE

Mit dem soeben eingeführten ‚minimalen Konzepts einer empirischen Theorie (ET)‘ lässt sich direkt auch ein ‚minimales Konzept einer nachhaltigen empirischen Theorie (NET)‘ einführen.

Während eine empirische Theorie einen beliebig großen Raum an begründeten Simulationen aufspannen kann, die den Raum von vielen möglichen Zukünften sichtbar machen, verbleibt den Akteuren des Alltags die Frage, was sie denn von all dem als ‚ihre Zukunft‘ haben wollen? In der Gegenwart erleben wir die Situation, dass die Menschheit den Eindruck erweckt, als ob sie damit einverstanden ist, das Leben jenseits der menschlichen Population mehr und mehr nachhaltig zu zerstören mit dem erwartbaren Effekt der ‚Selbst-Zerstörung‘.

Dieser in Umrissen vorhersehbare Selbst-Zerstörungseffekt ist aber im Raum der möglichen Zukünfte nur eine Variante. Die empirische Wissenschaft kann sie umrisshaft andeuten. Diese Variante vor anderen auszuzeichnen, sie als ‚gut‘ zu akzeptieren, sie ‚zu wollen‘, sich für diese Variante zu ‚entscheiden‘, liegt in jenem bislang kaum erforschten Bereich der Emotionalität als Wurzel aller Rationalität.

Wenn sich Akteure des Alltags für eine bestimmte rational aufgehellte Variante von möglicher Zukunft entschieden haben, dann können sie jederzeit mit einem geeigneten ‚Evaluationsverfahren (EVAL)‘ auswerten, wie viel ‚Prozent (%) der Eigenschaften des Zielzustandes Z‘ bislang erreicht worden sind, vorausgesetzt, der favorisierte Zielzustand wird in einen passenden Text Z transformiert.

Anders formuliert: in dem Moment, wo wir Alltagsszenarien über geeignete Texte in einen rational greifbaren Zustand transformiert haben, nehmen die Dinge eine gewisse Klarheit an und werden dadurch — in gewisser Weise — einfach. Dass wir solche Transformationen vornehmen und auf welche Aspekte eines realen oder möglichen Zustands wir uns dann fokussieren, das ist aber als emotionale Dimension der textbasierten Rationalität vor-gelagert.[2]

MENSCH-MASCHINE

Nach diesen vorbereitenden Überlegungen stellt sich die abschließende Frage, ob und wie die Hauptfrage dieser Tagung „Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ in irgendeiner Weise beantwortet werden kann?

Meine bisherigen Ausführungen haben versucht aufzuzeigen, was es bedeutet, dass Menschen kollektiv Texte erzeugen, die die Kriterien für einen wissenschaftlichen Diskurs erfüllen, der zudem die Anforderungen für empirische oder gar nachhaltig-empirische Theorien erfüllt.

Dabei zeigt sich, dass sowohl bei der Generierung eines kollektiven wissenschaftlichen Textes wie auch bei seiner Anwendung im Alltag ein enger Wechselbezug sowohl mit der gemeinsamen erfahrbaren Welt wie auch mit den dynamischen Wissens- und Bedeutungskomponenten in jedem Akteur eine Rolle spielen.

Der Aspekt der ‚Geltung‘ ist Teil eines dynamischen Weltbezugs, dessen Einschätzung als ‚wahr‘ beständig im Fluss ist; während der eine Akteur vielleicht dazu tendiert zu sagen „Ja, kann stimmen“, tendiert ein anderer Akteur vielleicht gerade zum Gegenteil. Während die einen eher dazu tendieren, eine mögliche Zukunftsvariante X zu favorisieren, wollen die anderen lieber die Zukunftsvariante Y. Rationale Argumente fehlen; die Gefühle sprechen. Während eine Gruppe gerade beschlossen hat, dem Plan Z zu ‚glauben‘ und ihn ‚umzusetzen‘, wenden sich die anderen ab, verwerfen Plan Z, und tun etwas ganz anderes.

Dieser unstete, unsichere Charakter des Zukunft-Deutens und Zukunft-Handelns begleitet die Homo Sapiens Population von Anbeginn. Der unverstandene emotionale Komplex begleitet den Alltag beständig wie ein Schatten.[2]

Wo und wie können ‚textfähige Maschinen‘ in dieser Situation einen konstruktiven Beitrag leisten?

Angenommen es liegt ein Ausgangstext A vor, dazu ein Veränderungstext V sowie eine Anleitung F, dann könnten heutige Algorithmen alle möglichen Simulationen schneller durchrechnen als es Menschen könnten.

Angenommen zusätzlich es läge auch noch ein Zieltext Z vor, dann könnte ein heutiger Algorithmus auch eine Auswertung zum Verhältnis zwischen einer aktuellen Situation als A und dem Zieltext Z berechnen.

Mit anderen Worten: wäre eine empirische oder eine nachhaltig-empirische Theorie mit ihren notwendigen Texten formuliert, dann könnte ein heutiger Algorithmus alle möglichen Simulationen und den Grad der Zielerfüllung automatisch schneller berechnen, als jeder Mensch allein.

Wie steht es aber mit der (i) Ausarbeitung einer Theorie bzw. (ii) mit der vor-rationalen Entscheidung für eine bestimmte empirische oder gar nachhaltig-empirische Theorie ?

Eine klare Antwort auf beide Fragen erscheint mir zum aktuellen Zeitpunkt kaum möglich, verstehen wir Menschen doch noch zu wenig, wie wir selbst im Alltag kollektiv Theorien bilden, auswählen, überprüfen, vergleichen und auch wieder verwerfen.

Meine Arbeitshypothese zum Thema lautet: dass wir sehr wohl lernfähige Maschinen brauchen werden, um in der Zukunft die Aufgabe erfüllen zu können, brauchbare nachhaltig-empirische Theorien für den gemeinsamen Alltag zu entwickeln. Wann dies aber real geschehen wird und in welchem Umfang scheint mir zum jetzigen Zeitpunkt weitgehend unklar.

ANMERKUNGEN

[1] https://zevedi.de/themen/ki-text/

[2] Das Sprechen über ‚Emotionen‘ im Sinne von ‚Faktoren in uns‘, die uns dazu bewegen, aus dem Zustand ‚vor dem Text‘ in den Zustand ‚geschriebener Text‘ überzugehen, der lässt sehr viele Aspekte anklingen. In einem kleinen explorativen Text „STÄNDIGE WIEDERGEBURT – Jetzt. Schweigen hilft nicht …“ ( https://www.cognitiveagent.org/2023/08/28/staendige-wiedergeburt-jetzt-schweigen-hilft-nicht-exploration/ ) hat der Autor versucht, einige dieser Aspekte anzusprechen. Beim Schreiben wird deutlich, dass hier sehr viele ‚individuell subjektive‘ Aspekte eine Rolle spielen, die natürlich nicht ‚isoliert‘ auftreten, sondern immer auch einen Bezug zu konkreten Kontexten aufblitzen lassen, die sich mit dem Thema verknüpfen. Dennoch, es ist nicht der ‚objektive Kontext‘, der die Kernaussage bildet, sondern die ‚individuell subjektive‘ Komponente, die im Vorgang des ‚ins-Wort-Bringens‘ aufscheint. Diese individuell-subjektive Komponenten wird hier versuchsweise als Kriterium für ‚authentische Texte‘ benutzt im Vergleich zu ‚automatisierten Texten‘ wie jene, die von allerlei Bots generiert werden können. Um diesen Unterschied greifbarer zu machen, hat der Autor sich dazu entschieden, mit dem zitierten authentischen Text zugleich auch einen ‚automatisierten Text‘ mit gleicher Themenstellung zu erzeugen. Dazu hat er chatGBT4 von openAI benutzt. Damit beginnt ein philosophisch-literarisches Experiment, um auf diese Weise vielleicht den möglichen Unterschied sichtbarer zu machen. Aus rein theoretischen Gründen ist klar, dass ein von chatGBT4 erzeugter Text im Ursprung niemals ‚authentische Texte‘ erzeugen kann, es sei denn, er benutzt als Vorlage einen authentischen Text, den er abwandeln kann. Dann ist dies aber ein klares ‚fake Dokument‘. Um solch einem Missbrauch vorzubeugen, schreibt der Autor im Rahmen des Experiments den authentischen Text zu erst und beauftragt dann chatGBT4 zur vorgegebenen Themenstellung etwas zu schreiben, ohne dass chatGBT4 den authentischen Text kennt, da er noch nicht über das Internet in die Datenbasis von chatGBT4 Eingang gefunden hat.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

POPPER: FRÜH – MITTEL – SPÄT. Empirische Theorie

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 13.März 2022 – 13.März, 11:11h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Kontext

Bei diesem Beitrag handelt es sich um die Fortsetzung des Diskurses zu den zuvor besprochenen Artikeln von Popper:  „A World of Propensities“ (1988, 1990),  „Towards an Evolutionary Theory of Knowledge“ (1989,1990)[1] sowie „All Life is Problem Solving“ (1991, 1994/1999). [2] Der Beitrag „(SPÄTER) POPPER – WISSENSCHAFT – PHILOSOPHIE – OKSIMO-DISKURSRAUM“ spielt hier keine Rolle. Es wird aber direkt Bezug genommen auf einen Text von Popper von 1971 „Conjectural Knowledge: My Solution of the Problem of Induction.“[3],[4] Dieser wurde in meinem Englischen Blog diskutiert „POPPER – Objective Knowledge (1971). Summary, Comments, how to develope further„.

Vorbemerkung

Die Begegnung des Autors mit Popper spielt sich in unterschiedlichen Etappen ab. Die erste Begegnung fand statt im März 2021 mit einer Diskussion der ersten 17 Kapitel von Popper’s Frühwerk „Logik der Forschung“ (1935), allerdings in der Englischen Fassung von 1959.[5] Diese erste Begegnung war eingebettet in eine größere Diskussion (mehrere längere Posts) zum Theoriebegriff und dem Zusammenhang mit dem oksimo Projekt.

In dieser ersten Begegnung wurde die Position Poppers vornehmlich wahrgenommen aus einer bestimmten, schon bestehenden wissenschaftsphilosophischen Perspektive, zusätzlich eingefärbt durch den Blick auf die Anwendbarkeit dieses Theoriebegriffs auf das oksimo Projekt. Wenngleich für den Autor in vielfacher Hinsicht sehr erhellend, kommt die Position Popper’s nicht so richtig zum Vorschein.

Erste die Lektüre von drei Beiträgen Popper’s aus der Zeit 1988 – 1991 führte zu einer neuen mehr Popper-zentrierten Wahrnehmung. In diesem Spannungsfeld von ‚frühem‘ Popper 1935/1959 und ’spätem‘ Popper 1988 – 1991 führte die Begegnung mit dem Text des ‚mittleren‘ Popper von 1971 zu einer sehr direkten Begegnung, die die Gedanken zu Popper weiter belebten.

Popper: Früh – Mittel – Spät

Die hier provisorisch vorgenommene Einordnung Poppers in einen ‚frühe‘, bzw. ‚mittleren‘ bzw. ’späten‘ Popper ist natürlich — gemessen an dem gesamten Werk Poppers ein bisschen gewagt. Dies entspricht aber letztlich dem Stil einer Theoriebildung im Sinne von Popper, in der — ausgehend von einzelnen Beobachtungen –, schrittweise Hypothesen gebildet werden, die dann versuchsweise angewendet werden. Im Scheitern bzw. in partiellen Bestätigungen entwickelt sich dann solch eine Theorie weiter. Eine ‚absolute Endform‘ wird sie nie haben, aber sie kann immer differenzierter werden, begleitet von immer stärkeren ‚Evidenzen‘, die allerdings ‚Wahrheit‘ niemals ersetzen können.

So also hier eine meine ‚Mini-Theorie‘ über Popper anhand von nur vier Artikeln und 17 Kapiteln aus einem Buch.

Bei meiner bisherigen Lektüre entsteht der Eindruck, dass die Strukturen des ‚frühen‘ (1935 – 1959) Popper denen des mittleren‘ (1971) Popper sehr ähnlich sind. Die Texte des ’späten‘ (1988 – 1991) Popper hingegen bringen einen starken neuen Akzent in die Überlegungen ein.

Wahrheit ohne Wahrheit

Ein Grundthema des frühen und mittleren Popper ist einerseits die starke Betonung, dass ‚Wahrheit‘ — zumindest als ‚regulative Idee‘ — unverzichtbar ist, soll empirische Wissenschaft stattfinden, andererseits aber sein unermüdliches Bemühen, darauf hinzuweisen, dass die Aussagen einer Theorie, selbst wenn sie sich eine lange Zeit ‚bewährt‘ haben, dennoch keine ‚absolute Wahrheit‘ widerspiegeln; sie können jederzeit widerlegt werden.[6] Diese Position führt ‚aus sich heraus‘ natürlich zu der Frage, was denn ‚Wahrheit als regulative Idee‘ ist bzw. zu der komplementären Frage, welchen ‚Status‘ dann jene Aussagen haben, auf die Theorieentwürfe aufbauen. Was ist eine ‚Beobachtungsausage‘ (Spezialfall ein ‚Messwert‘), die zum Ausgangspunkt von Theorien werden?

Poppers Prozessmodell von Wahrheit

Man kann Poppers Konzept einer objektiven (= ‚wahren‘) empirischen Theorie von ihren ‚Bestandteilen‘ her als ein ‚Prozessmodell‘ rekonstruieren, in dem sich — auf eine nicht wirklich geklärte Weise — beobachtungsgestützte Aussagen mit einem formalen Konzept von Logik ‚vereinen‘. Details dazu finden sich in einem Englischen Blogbeitrag des Autors.

Popper löst das Problem der notwendigen Wahrheit, die eigentlich nicht da ist, aber irgendwie dann doch, indem er in seinem 1971-Text [4] die einzelnen Aspekte dieses Wahrheitsbegriffs schildert und sie dann auf den letzten Seiten (29-31) wie in einem ‚Puzzle‘ zusammenfügt, allerdings so, dass viele Details offen bleiben.

Primären Halt in der empirischen Realität bieten Beobachtungssätze, die im Fall der Überprüfung einer Theorie, die Rolle von ‚Testsätzen‘ übernehmen. Die Theorie selbst besteht aus einer Ansammlung von ‚Hypothesen‘ (‚conjectures‘), in denen einzelne Beobachtungsaussagen zueinander in Beziehung gesetzt werden, die als solche natürlich nicht beobachtet (‚gemessen‘) werden können.[7]

Bei dem Übergang vom ‚Beobachtungswert‘ (‚Messwert‘) zur ‚Hypothese‘ finden aber unweigerlich ‚Verallgemeinerungen‘ statt [8], die dann sprachlich repräsentiert werden. Nur die ‚teilnehmenden‘ Beobachter wissen ‚implizit‘, auf welches konkrete Ereignis sie sich mit ihren sprachlichen Ausdrücken beziehen. Der Versuch der Wissenschaft, dieses Problem des ‚impliziten‘ (= subjektiven)‘ Wissens durch vereinbarte Messprozeduren aufzulösen, hilft nur partiell. Das Zustandekommen des Beobachtungsereignisses wird damit zwar ‚objektiviert‘, aber die ‚Übersetzung‘ dieses objektivierten Ereignisses, das als Wahrnehmungsphänomen bei den teilnehmden Beobachtern ‚ankommt‘, wird im Beobachter ‚unbewusst‘ zu einem Konzept verarbeitet, dass dann in einen sprachlichen Ausdruck transformiert wird, der dann als Beobachtungsaussage ‚funktioniert‘. Alle, die an diesem ‚Spiel‘ [9] teilnehmen, wissen, wie sie sich verhalten sollen. Ein ‚Außenstehender‘ versteht es nicht automatisch.

Anders betrachtet, selbst objektivierenden Beobachtungsprozesse klammern die subjektvie Komponenten nicht völlig aus.

Hat man verallgemeinernde Beobachtungsaussagen („Der Main-Kinzig Kreis hat 2018 418.950 Einwohner.“, „Dieser Stein wiegt 4.5 kg.“, „Das Wasser hat eine Temperatur von 13 Grad Celsius.“) , dann kann man auf dieser Basis versuchen, Hypothesen zu bilden (z.B. bzgl. des Aspektes möglicher Veränderungen wie Einwohnerzahl, Länge, Temperatur). Im Fall der Einwohnerzahl bräuchte man dann z.B. Beobachtungen zu mindestens zwei verschiedenen Zeitpunkten‘ (2018, 2019)[14], um aus der ‚Differenz‘ Hinweise ‚abzuleiten‘, welches Ausmaß ein ‚Wachstumsfaktor‘ haben könnte. Im Fall des Main-Kinzig Kreises wird für diesen Zeitraum z.B. ein Wachstumsfaktor von 0.4% ermittelt.

Wie ist solch ein ‚abgeleiteter Wachstumsfaktor‘ einzuordnen? Er beschreibt eine ‚abgeleitete‘ Größe, mit der man eine Formel bilden könnte wie ‚Die Einwohnerzahl im Jahr t+1 = Einwohnerzahl im Jahr t + (Einwohnerzahl im Jahr t * Wachstumsfaktor). Dies ist eine Rechenanweisung, die mit beobachteten Größen (Einwohnerzahl) und daraus abgeleiteten mathematischen Eigenschaften (Wachstumsfaktor) eine ‚Voraussage‘ berechnen lässt, wie die Einwohnerzahl in nachfolgenden Jahren aussehen [14] würde, wenn der Wachstumsfaktor sich nicht verändern würde.

Klar ist, dass solch ein sprachlicher Ausdruck seine Bedeutung aus dem ‚Bedeutungswissen‘ der Teilnehmer bezieht. Der Ausdruck selbst ist nichts anderes als eine Menge von Zeichen, linear angeordnet. Also auch hier eine fundamentale ’subjektive Dimension‘ als Voraussetzung für ein ‚objektives Agieren‘.

Diese Aspekte sprachlicher Bedeutung und deren Verankerung in der inneren Struktur der Beobachter und Theoriebauer [10] diskutiert Popper nicht explizit. Wohl postuliert er eine ‚Logik‘, die die ‚Herleitung‘ von Prognosen aus den theoretischen Annahmen beschreiben soll.

Die moderne formale Logik hat viele wunderbare Eigenschaften, aber eines hat sie nicht: irgendeinen Bezug zu irgendeiner Bedeutung‘. In einem formalen Logikkalkül [11] gibt es eine Menge von formalen Ausdrücken, die als ‚Annahmen‘ funktionieren sollen, und das einzige, was man von diesen wissen muss, ist, ob sie als ‚wahr‘ eingestuft werden (was bei Annahmen der Fall ist). Was mit ‚wahr inhaltlich gemeint ist, ist aber völlig unbestimmt, zumal formale Ausdrücke als solche keine Bedeutung haben. Wenn es eine Bedeutung geben soll, dann muss man die formalen Ausdrücke an die ’subjektive Bedeutungsdimension der Teilnehmer‘ knüpfen, die nach Bedarf spezielle Messverfahren zu Hilfe nehmen.

Angenommen, man hat die ‚formalisierten Ausdrücke‘ mit den verallgemeinerten Aussagen der Hypothesen verknüpft [12] und man nutzt die Logik, um ‚Ableitungen‘ zu machen, die zu ‚Prognosen‘ führen[13], dann stellt sich das Problem, wie man das Verhältnis einer ‚abgeleiteten‘ Aussage zu einer ‚Beobachtungsaussage‘ bestimmten soll. Popper benutzt hier zwar Klassifikationen wie ‚bestätigend‘, ’nicht bestätigend‘, ‚falsifiziert‘, aber eine Diskussion im Detail zu „A bestätigt B“/ „A bestätigt B nicht“/ „A falsifiziert B“ scheitert an vielen ungeklärten Details und Randbedingungen, die im vorausgehenden Text nur angedeutet werden konnten.

Der Diskurs geht weiter.

Kommentare

[1] Karl Popper, „A World of Propensities“,(1988) sowie „Towards an Evolutionary Theory of Knowledge“, (1989) in: Karl Popper, „A World of Propensities“, Thoemmes Press, Bristol, (1990, repr. 1995)

[2] Karl Popper, „All Life is Problem Solving“, Artikel, ursprünglich ein Vortrag 1991 auf Deutsch, erstmalig publiziert in dem Buch (auf Deutsch) „Alles Leben ist Problemlösen“ (1994), dann in dem Buch (auf Englisch) „All Life is Problem Solving“, 1999, Routledge, Taylor & Francis Group, London – New York

[3] Karl R.Popper, Conjectural Knowledge: My Solution of the Problem of Induction, in: [2], pp.1-31

[4] Karl R.Popper, Objective Knowledge. An Evolutionary Approach, Oxford University Press, London, 1972 (reprint with corrections 1973)

[5] Karl Popper, The Logic of Scientific Discovery, First published 1935 in German as Logik der Forschung, then 1959 in English by  Basic Books, New York (more editions have been published  later; I am using the eBook version of Routledge (2002))

[6] Popper verweist hier gerne und häufig auf die Geschichte der Physik mit den unterschiedlichen Konzepten, wie man die Erde als Teil des Sonnensystems und dann später das ganzen Universums beschrieben hat bzw. heute beschreibt. Hauptbeispiel: Newtons System, das dann mit immer neuen Beobachtungen und dann schließlich mit Einsteins Relativitätstheorie als ‚zu eng‘ klassifiziert wurde.

[7] ‚Beziehungen‘ existieren ausschließlich in unserem ‚Denken‘ (das alte Hume Problem, das Kant schon zu lösen versuchte, und das Popper in seinen Texten wieder und wieder aufgreift). Wenn wir diese ‚gedachten Beziehungen‘ in die beobachtbaren Einzelereignisse (Zeit, Ort, Beobachter) ‚hinein-sehen‘, dann ist dies der Versuch, zu ‚prüfen‘, ob diese Beziehung sich ‚bestätigen‘ oder ‚widerlegen‘ lässt. Anmerkung: die moderne expermentelle Psychologie (auch als Neuropsychologie) hat diese Sachverhalte extensiv untersucht und mit neuen Evidenzen versehen.

[8] Wie die Alltagssprache zeigt — und die moderne Wissenschaft bestätigt –, werden konkrete empirische Phänomene immer abstrakten Konzepten zugeordnet, die dann mit Allgemeinbegriffen verknüpft werden. Ob ein konkretes Wahrnehmungsereignis zu einem abstrakten Konzept X (z.B. ‚Tasse‘) oder Y (z.B. ‚Glas‘) gehört, das entscheidet das Gehirn unbewusst (Menschen können nur entscheiden, welche sprachlichen Ausdrücke sie verwenden wollen, um die kognitven Konzepte zu ‚benennen‘).

[9] … erinnert an das Sprachspielkonzept des späten Wittgenstein …

[10] Manche glauben heute, dass die Rolle des ‚Beoachters‘ und/oder des ‚Theoriebauers‘ von ‚intelligenten Programmen‘ übernommen werden können. In ‚Kooperation mit Menschen‘ im Rahmen eines modernen Konzepts von ‚kollektiver Intelligenz‘ kann es funktionieren, aber nur in Kooperation.

[11] Es gibt nicht nur ‚einen‘ Logikkalkül, sondern — rein formal — nahezu unendliche viele. Welcher für welche Aufgabenstellung ‚geeignet‘ ist, muss im Rahmen einer konkreten Aufgabe ermittelt werden.

[12] In der Wisenschaftsphilosophie ist dies bis heute noch nicht so gelöst, dass es dazu ein allgemein akzeptiertes Verfahren gibt.

[13] Da es viele verschiedene Ableitungsbegriffe gibt, von denen bis heute kein einziger meta-theoretisch für bestimmte empirische Bereich als ‚zuverlässig im Sinne eines Kriteriums K‘ erwiesen wurde, ist die lose Bezugnahme auf einen solchen Ableitungsbegriff eigentlich zu wenig.

[14] An dieser Stelle wird deutlich, dass das Beobachten wie auch dann die Auswertung von einer ‚Menge‘ von Beobachtungswerten in unserer Körperwelt ein ‚Zeitmodell‘ voraussetzt, in dem Ereignisse ein ‚vorher‘ und ’nachher‘ haben, so dass das Konzept einer ‚Prognose’/ ‚Voraussage‘ überhaupt Sinn macht.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

Worte aufschreiben … sonst nichts …

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 15.November 2021 – 17.Nov 2021, 08:30h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

KONTEXT

In diesem Blog mit seinen geschätzten mehr als 6000 Seiten, die bislang geschrieben worden sind, fand — äußerlich betrachtet — ein einfacher Vorgang stand: es wurden ‚Worte aufgeschrieben‘. … sonst nichts …

Wären wir Maschinen …

Wären wir eine ‚Maschine‘, vielleicht sogar eine ‚intelligente Maschine‘, dann würden die maschinellen Strukturen uns vorgeben, ob wir schreiben, was und wie. Mit ein bisschen ‚künstlicher Intelligenz‘ könnten wir Datenquellen beimischen, ‚Variationen‘ einbauen, mit Satzformen ’spielen‘, und wir könnten vielleicht sogar den einen oder anderen Menschen verblüffen, bei ihm den Eindruck erwecken, hier schreibt ein Mensch.

Menschen brechen das Klischee

Menschen haben allerdings die Besonderheit, dass für sie die Ausdrücke einer Sprache — vornehmlich der ‚Alltagssprache‘ — nie isoliert stehen, sondern eingewoben sind in ein unfassbares Netzwerk von Eindrücken der Außenwelt, des eigenen Körpers, des eigenen ‚Inneren‘, eingebettet in eine Vielzahl von wahrnehmbaren Veränderungen … aber auch darüber hinaus: da das Gehirn sich selbst gegenüber weitgehend unbewusst arbeitet (was nicht gleichzusetzen ist mit ’sinnlos‘), sind die meisten Vorgänge ‚in uns‘ nicht bewusst zugänglich, obwohl sie für uns — soweit wir heute sehen — fundamental zu sein scheinen. Dazu gehört auch die Sprache mit ihrer ‚Bedeutungswolke‘.

Wenn Kinder in die Welt eintauchen …

Wenn Kinder in diese Welt ‚eintauchen‘, wenn sie anfangen, die Luft des Planeten zu atmen, den ‚Rausch ihrer Sinne‘ erleben, ihren eigenen Körper in einer ‚Wolke von Eindrücken‘ erspüren, dann formt das Gehirn aus all diesen Eindrücken, Muster, Abstraktionen, Kategorien als Teil assoziativer Netze, konnotiert mit einer Unzahl von Bedürfnissen und Gefühlen. Dies macht das Gehirn ‚voll automatisch‘, in ‚eigener Regie‘, folgt seiner ‚eingebauten Logik der Wahrscheinlichkeiten‘. So entsteht langsam aber stetig nicht nur ein unfassbares Netzwerk von verbundenen Ereignissen, sondern das Netzwerk wirkt wie ein ‚Bild‘, eine ‚Gesamtschau‘, wie ein ‚Modell‘ dessen ‚was ist‘: das virtuelle Bild einer Welt im Gehirn, die für das Kind, für uns, die ‚primäre Welt‘ ist.

Virtuelle Welt im Gehirn

Die Ausdrücke unserer Alltagssprache beziehen sich in ihrer ‚Bedeutungsdimension‘ ausschließlich auf diese ‚virtuelle Welt des Gehirns‘ als ‚ihrer Welt‘. Und — falls jemand darauf achtet — man kann leicht beobachten, dass die Ausdrücke der Alltagssprache meistens ‚Allgemeinbegriffe‘ sind (‚Haus‘, ‚Stuhl‘, ‚Auto‘, ‚Handy‘, ‚Tasse, …), wohingegen die Gegenstände in unserer realen Umgebung ‚konkret‘ sind, ’speziell‘, ‚einzigartig‘, usw. Wenn ich zu jemandem sage: „Kannst Du mir bitte meine Tasse rüber reichen“, dann kann das Wort (der Ausdruck) ‚Tasse‘ auf tausende verschiedene konkrete Objekte angewendet werden, in der aktuellen Situation aber — falls man über ein aktuelles ‚Situationswissen‘ verfügt — wissen alle Beteiligten, welche der vielen konkreten Gegenstände ‚meine Tasse‘ ist und genau dieses konkrete Objekt wird dann rüber gereicht.

Abstrakt – Konkret

Dies ist eines der vielen Geheimnisse von sprachlicher Bedeutung: die reale Welt um uns herum — die Alltagswelt — zeigt sich uns als eine ‚Meer an konkreten Eigenschaften‘, und unser Gehirn filtert daraus ‚Teilmengen‘ heraus, transformiert diese in einfache (abstrakte) Strukturen, die dann das ‚Baumaterial‘ für mögliche ‚abstrakte virtuelle kognitive ‚Objekte‘ sind. Das tieferliegende ‚Wunder‘ dieses Prozesses ist aber, dass das Gehirn in der Lage ist, zu späteren Zeitpunkten die ’neu erworbenen abstrakten Strukturen (Objekte)‘ auf einer unbewussten Ebene mit aktuellen sinnlichen Eindrücken so zu ‚vergleichen‘, dass es — einigermaßen — entscheiden kann, ob irgendwelche der aktuell sinnlich wahrgenommenen konkreten Strukturen zu irgendwelchen dieser neu erworbenen Strukturen ‚als Beispiel‘ passen! Also, auch wenn wir mittels Sprache immer nur mit Allgemeinbegriffen operieren können (eine geniale Erfindung), kann unser Gehirn jederzeit eine Beziehung des Allgemeinen zum aktuell sinnlich Besonderen herstellen. Es ist halt so ‚gebaut‘.[1]

Dies ist nur die ‚Spitze des Eisbergs‘ vom ‚Wunder des Gehirns‘. Wie man schon ahnen kann, gibt es ja noch die Dimension ‚der anderen Menschen‘ aus Sicht eines einzelnen Menschen.

Gehirn-Kooperationen

Man kann — muss — sich die Frage stellen, wie kann denn ein Gehirn im Körper eines Menschen A mit dem Gehirn im Körper eines Menschen B ‚kooperieren‘? Wie können beide ‚umeinander wissen‘? Wie kann das Gehirn von A, das seine eigene individuelle ‚Lerngeschichte‘ hat, seine ‚Inhalte‘ mit dem Gehirn von B ‚teilen‘?

‚Besoffen‘ vom Alltag mögen diese Fragen im ersten Moment sehr ‚künstlich‘ klingen, ‚unwirklich‘, vielleicht gar sinnlos: Reden wir nicht ständig miteinander? Tun wir denn nicht ständig etwas miteinander? Unterricht in Schulen? Projektarbeit in Firmen? Mannschaftssport? Management eines größeren Unternehmens? …

Der Verweis auf solche ‚Praxis‘ ersetzt aber keine Antwort auf die Frage. Der Alltag deutet nur an, ‚dass‘ wir es irgendwie können, sagt aber nichts darüber, warum und wie wir das können.

Offensichtlich benutzen wir sprachliche Ausdrücke, die wir ‚austauschen‘ (Sprechen, Schreiben, …). Wie oben schon angedeutet wurde, sind Ausdrücke nicht in eins zu setzen mit ihren Bedeutungen. Letztere sind ‚im‘ Sprecher-Hörer‘ lokalisiert, im jeweiligen Gehirn. Die moderne Forschung mit vielen Fachdisziplinen legt nahe, dass es koordinierende‘ Mechanismen gibt, wodurch zwei Gehirne sich für den Bereich der realen Außenwelt einigermaßen verständigen können, welche ‚Aspekte er realen Außenwelt‘ mit welchen Ausdrücken assoziiert werden. Und diese ‚Koordinierung‘ basiert nicht alleine auf den konkreten Aspekten der Außenwelt, sondern wesentlich auch auf jene ‚im Gehirn‘ anhand der Außenweltereignisse prozedural aufgearbeiteten Strukturen. Nur so kann Sprache zugreifen. Die wechselseitige Zustimmung, dass dies konkrete weiße, runde Ding da mit einer inneren Aushöhlung und einem Henkel die ‚Tasse von Gerd‘ ist, setzt also ziemlich viele ‚individuellen Lernprozesse‘ voraus, die sich in hinreichend vielen strukturellen Eigenschaften hinreichend stark ‚ähneln‘. Irrtum inbegriffen.

Fehleranfällige Kommunikation

Das alles erscheint bei näherer Betrachtung alles ’schwindelerregend komplex‘, aber nach vielen Millionen Jahren kontinuierlichen Veränderungen scheint es ‚einigermaßen‘ zu funktionieren. Allerdings weiß jeder aus seinem eigenen Alltag auch wie ‚fragil‘ solche Kommunikation ist. Selbst unter Paaren, die schon viele Jahre, gar Jahrzehnte, zusammen leben, können noch Irrtümer und Missverständnisse auftreten. Umgekehrt weiß jeder, wie aufwendig es ist, aus verschiedenen Menschen ein ‚Team‘ zu formen, das angesichts von komplexen Aufgaben in der Lage ist, sich jederzeit hinreichend gut zu koordinieren. Die hohe Quote an Projektabbrüchen spricht eine eigene Sprache.

Ähnlichkeit als Gefahr

Bei Gruppen, Teams tritt noch ein ganz anderer Aspekt hervor: die partielle ‚Ähnlichkeit‘ der Bedeutungsstrukturen der einzelnen Teammitglieder, die im Laufe der gemeinsamen Arbeit in der Regel weiter zunimmt, vereinfacht zwar die Kommunikation und Abstimmung im Team, sie bietet aber auch eine Gefahr, die umso größer wird, je länger ein Team ‚unter sich‘ ist. Dies hat wiederum damit zu tun, wie unsere Gehirne arbeiten.

Ohne unser bewusstes Zutun sammelt unser Gehirn beständig Eindrücke, verarbeitet sie, und bildet vernetzte abstrakte Einheiten. Dies ist aber nicht alles. Dieser sehr aufwendige Prozess hat den Nebeneffekt, dass die ‚aktuellen‘ sinnlichen Eindrücke mit dem, was ‚bisher Bekannt geworden ist‘ kontinuierlich ‚abgeglichen‘ wird. Das berühmte Glas, das ‚halbvoll‘ oder ‚halbleer‘ erscheinen kann, ist keine Fata Morgana. Dieses Beispiel demonstriert — wenn auch vereinfacht –, dass und wie unser Gehirn seine ‚gespeichertes Wissen‘ (Alt) mit den ‚aktuellen Eindrücken‘ (Neu) ‚abgleicht‘. Je mehr ein Gehirn weiß, um so größer die Wahrscheinlichkeit, dass es ’nichts Neues‘ mehr gibt, weil alles ’scheinbar Neue‘ mit dem ‚Alten‘ ‚erklärt‘ werden kann. [3] Dies — zur Erinnerung — immer auch mit Bedürfnissen, Emotionen und sonstigen Gefühlen/ Stimmungen ‚konnotiert‘.[2]

Tendenz zur ‚Verfestigung‘

Zwar gibt es viele Verhaltenseigenschaften und Strategien, mit denen man dieser Tendenz des Gehirns zur ‚Verfestigung‘ gegensteuern kann, aber sowohl die Geschichte wie die Gegenwart zeigen, dass es immer starke Strömungen gab und gibt, die auf dieser ‚Selbstabschließung‘ des Gehirns basieren (so eine Art ‚mentales locked-in Syndrom‘).

Da es für ein Gehirn (und damit für eine Person) ‚leichter‘ und ‚bequemer‘ ist, das Bild von der Welt — mit all den daran geknüpften Verhaltensgewohnheiten — ‚konstant‘ zu halten, ‚einfach‘, tendieren die meisten Menschen dazu, sich vorzugsweise mit solchen Menschen zu treffen, die ihnen ähnlich sind; solche Meinungen zu teilen, die die eigene Meinung verstärken; das zu tun, was die Mehrheit tut; und vieles dergleichen.

Wenn einzelne Menschen, ganze Gruppen ihr Leben so gestalten, dass sie ‚Neues‘ eher — oder sogar ‚grundsätzlich‘! — ausblenden, verurteilen, ‚verdammen‘, dann reduzieren sie ihr eigenes Potential um grundlegend wichtige Eigenschaften für eine nachhaltige Zukunft: Vielfalt, Diversität, Kreativität, Neugierde, Experimente, Alternativen. Die Biosphäre heute — und damit uns — gibt es nur, weil diese grundlegenden Eigenschaften über 3.5 Milliarden Jahre stärker waren als die reduktiven Tendenzen.

Sprache als System

Betrachtet man die Sprache von einem ‚übergeordneten‘ Standpunkt aus z.B. als ein System ‚als solches‘, dann sind die einzelnen Sprecher-Hörer individuelle Akteure, die von der Sprache individuell ‚Gebrauch machen‘. Ein Akteur kann dann Sprache lernen, weil er/sie/x die Sprache vorfindet, und der Akteur wird einen Teil der ‚möglichen Bedeutungszuordnungen‘ ‚lernen‘. Je nach Lerngeschichte können dann die verschiedenen individuellen Bedeutungsräume sich mehr oder weniger ‚überlappen‘. In dieser Perspektive ist dann klar, dass ein einzelner Akteur nicht die Sprache als solche verändern kann, es sei denn, er/sie/x ist sehr ‚prominent‘ und einzelne seiner Formulierungen werden von einer großen Teilpopulation übernommen. Entsprechend können sich in Teilpopulationen ‚Sprachmoden’/ ‚Sprachtrends‘ ausbilden, die dann zumindest partiell für eine bestimmte Zeit ‚Teil der Sprache‘ werden können.

Diese ‚Eigenwirklichkeit‘ von Sprache hat verschiedene Nebeneffekte. Einer verbindet sich mit erstellten Texten, Textsammlungen, die als Texte den individuellen Autor übersteigen/ überdauern können. Selbst wenn ein Text so alt ist, dass ein potentieller Leser aus der Gegenwart die ‚Bedeutungswelt des Autors‘ kaum oder gar nicht kennt, können Texte ‚Wirkung‘ entfalten. So zeigt z.B. die Interpretation des Buches, das allgemein als ‚Bibel‘ bezeichnet wird, im Laufe von ca. 2000 Jahren eine große Vielfalt und Breite mit offensichtlich z.T. gänzlich konträren Positionen, die selbst ca. 2000 Jahre später noch Wirkungen bei Menschen zeigen.

Tradition ist ambivalent

Dies bedeutet, nicht nur das einzelne Gehirn kann zur Ausbildung von bestimmten ‚Bildern von der Welt‘ kommen, die es mit anderen ‚Gleichgesinnten‘ teilen kann, sondern die konservierten Texte können solche Weltbilder über Jahrhunderte wenn nicht gar Jahrtausende hinweg ‚transportieren‘. Dies kann im Einzelfall konstruktiv sein, es kann aber auch ‚destruktiv‘ sein, wenn alte Weltbilder den Aufbau neuer Weltbilder in einer sich verändernden Welt verhindern.

Wunder des Schreibens

Nach diesen — keinesfalls vollständigen — Hinweisen auf sehr viele eher ‚technische‘ Aspekte von Sprache/ Sprechen/ Schreiben hier doch auch für einen Moment ein paar Worte zum ‚Wunder des Schreibens‘ selbst.

Wenn ich also Worte aufschreibe, jetzt, dann gibt es eigentlich keine bestimmte ‚Regel‘, nach der ich schreibe, kein klar definiertes ‚Ziel‘ (wie sollte solch eine Zielbeschreibung aussehen?), keine …. es ist ziemlich hoffnungslos hier eine endliche Liste von klar definierten Kriterien zu formulieren. Ich selbst bin ‚mir‘ ‚undurchsichtig‘ … ein Nebeneffekt der Tatsache, dass nahezu alles ‚in mir‘ im Jetzt ‚unbewusst‘ ist… Zu keinem Zeitpunkt weiß ich (= ist mir explizit bewusst), was ich ‚tatsächlich weiß‘. Wie denn? Unser Gedächtnis ist eine unfassbar große Sammlungen von dynamischen Strukturen, die entweder nur bei expliziten Aufgaben ‚reagieren‘ (aber nicht zuverlässig), oder aber ein gedanklicher Prozesse in mir läuft unbewusst ab und dieser tritt zu einem bestimmten Zeitpunkt an die ‚Oberfläche‘ indem ich Worte wie diese aufschreibe. Bevor ich diese Worte aufschreibe, weiß ich nicht, was ich aufschreibe. Ich kann dieses Aufschreiben auch nicht planen.’Es‘ denkt in mir, ‚es‘ schreibt… dieses ‚Es‘ ist aber nur scheinbar etwas ‚Fremdes‘; es ist Teil von mir, ich fühle mich damit verbunden, ich bin es, …. die Zuordnung von sprachlichen Ausdrücken zu ‚inneren Vorgängen‘ ist prinzipiell schwierig und ungenau. Ich selbst bin ein ganzer Kosmos von unterschiedlichen Dingen, weitgehend unbewusst, fokussiert in meinem Körper ….

Wir wissen, dass wir sehr viele Abläufe explizit, Schritt für Schritt, so trainieren können, dass sie zu scheinbar ‚automatisch ablaufenden Prozessen‘ werden. Die eigentliche Dynamik ‚dahinter‘ ist aber etwas ganz anderes. Sie bedient sich der vielen Gegebenheiten ’nach Belieben’… sie ‚ereignet sich‘ und ‚im Ereignen‘ ist sie ‚real‘ und darin partiell fassbar …. Menschen sind in ihrem ‚Inneren‘ der totale ‚Anti-Gegenstand‘. Ich kenne kein einziges Bild, keine einzige Metapher, kein irgendwie bekanntes Muster/ Schema, keine bekannte Formel, die dieser un-realen Realität irgendwie nahe kommt … [4],[5]

In diesem Konzert, ab ca. Minute 41, der Song ‚Wind of Change‘ daran erinnernd, dass es auch in Moskau einmal geschah, wenngleich die Ängste der Mächtigen wieder mal stärker waren als die Kraft der Zukunft, die in jedem Menschen anwesend ist …

ANMERKUNGEN

[1] Die Formulierung ‚ist halt so gebaut‘ ist eine ‚Abkürzung‘ für die komplexen Erkenntnisse der Evolutionsbiologie, dass sich das Gehirn des Menschen als Teil des ganzen Körpers mit diesem Körper über nicht nur Millionen, sondern hunderte von Millionen Jahre schrittweise ‚entwickelt‘ hat. Der Begriff ‚entwickelt‘ ist eine weitere Abkürzung für einen komplexen Mechanismus, durch den sich biologische Populationen aus einem Zustand zum Zeitpunkt T in einen ‚anderen Zustand‘ zu einem späteren Zeitpunkt T ‚verändern‘ können. Ob solche Veränderungen nun in irgendeinem Sinne ‚gut‘ oder ’schlecht‘ sind, entscheidet sich in erster Linie an der Frage, ob die Population zum späteren Zeitpunkt T+ noch ‚existiert‘. Die Fähigkeit ’nachhaltig zu existieren‘ ist primär eine ‚Leistungseigenschaft‘: in einer sich ständig veränderten Welt — nicht zuletzt auch deswegen, weil sich die Biosphäre selbst kontinuierlich weiter entwickelt — können nur jene Populationen überleben, die den Anforderungen einer solchen komplexen dynamischen Umwelt gerecht werden

[2] Die Psychologie kennt zahllose Beispiele, wie eigentlich ‚zufällige Ereignisse‘, in denen Menschen entweder etwas ‚Schönes‘, ‚Positives‘ erlebt haben oder umgekehrt etwas ‚Ungutes‘, ‚Trauriges‘, ‚Schreckliches‘, dass sich dann die Gefühle an konkrete Dinge/ Handlungen/ Situationen ‚anheften‘ können, und dann zukünftig die Wahrnehmung, das Verstehen und das Verhalten beeinflussen.

[3] Leute die ‚bewusst anders‘ sein wollen als ‚alle anderen‘ denken oft, sie wären damit ‚besonders‘. Das stimmt, sie sind ‚besonders‘ weil sie ‚für sich‘ sind. Vielfalt im Sinne der Nachhaltigkeit heißt aber nicht, individuell ‚für sich sein‘, sondern individuelle in einem Verbund leben, in dem man seine ‚Besonderheit‘ — so man eine hat! — im Kontext mit anderen so einbringt, dass sie auf die anderen real einwirken kann und umgekehrt. Dieses Interaktionsgeschehen realisiert einen Prozess mit ‚Zustandsfolgen‘, die so sein sollten, das nach einer gewissen Zeit möglichst alle ‚dazu gelernt haben‘. … was allerdings nicht ‚erzwingbar‘ ist … Menschen sind in einem unfassbar radikalen Sinne ‚frei‘ …

[4] Die ‚Beschreibbarkeit‘ eines Phänomens hängt generell von der Frage ab, welche Ausdrücke einer Sprache verfügbar sind, um sich auf Gegenstände, Sachverhalte, Ereignisse der Alltagswelt oder auf ‚innere Zustände‘ eines Menschen beziehen zu lassen. Hier lassen sich leicht Beispiele finden von ‚einfachen Beschreibungen von beobachtbaren Gegenständen‘ („Die Ampel da vorne ist auf Rot“) bis hin zu Asdrücken, wo man nicht mehr so richtig weiß, was gemeint sein kann („Die Demokratie ist gefährdet“; „Mein Gefühl sagt mir, dass dies nicht geht“; „Ich denke“… ).

[5] Ein Beispiel zur Frage der Zuschreibung des Ausdrucks ‚Geist‘ zum Phänomen unseres ‚Inneren‘, sofern es ‚erfahrbar‘ ist, kann das Buch von Friedhelm Decher sein „Handbuch der Philosophie des Geistes„, das ich in vier einzelnen Posts diskutiere: (i) https://www.cognitiveagent.org/2015/12/28/decher-handbuch-philosophie-des-geistes-einleitung-diskurs/, (ii) https://www.cognitiveagent.org/2016/01/05/decher-handbuch-philosophie-des-geistes-vorsokratiker-diskurs-teil-2/, (iii) https://www.cognitiveagent.org/2016/01/18/decher-handbuch-philosophie-des-geistes-platon-diskurs-teil-3/, (iv) https://www.cognitiveagent.org/2016/01/25/decher-handbuch-philosophie-des-geistes-aristoteles-diskurs-teil-4/.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

REAL-VIRTUELL. Ein Einschub

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 1.Februar 2021 (Zuletzt 1.2.2021, 13:45h)
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

KONTEXT

Den wenigsten Menschen ist bewusst, dass das Bild von der Welt, das sie haben, nicht tatsächlich die Welt ist, wie sie unabhängig vom Gehirn (=real) ist, sondern die Welt, die das Gehirn von der Welt da draußen aus all den sensorischen und bislang gespeicherten Daten (Gedächtnis) zusammen rechnet (=virtuell). Dies erklärt, warum die gleiche Welt (da draußen) von verschiedenen Menschen so total verschieden wahrgenommen werden kann.

AUSSEN – INNEN

Übersichtsbild zu Außen-Innen. Zur Erläuterung siehe Text.

Der Begriff Außen ist letztlich nur sinnvoll im Gegensatz zu einem aufzeigbaren Innen. Beispiel für solch ein aufzeigbares Innen ist das menschliche Bewusstsein, das wiederum verweist auf kognitive Zustände unseres Gehirns, das sich in unserem Körper befindet.

Für uns als Menschen ist zunächst das subjektive Erleben unserer Bewusstseinsinhalte wie das Erleben selbst (einschließlich Denken, Vorstellen, Erinnern usw.) primär real. Im Laufe des Lebens kann man aber erkennen, dass diese primäre Realität eindeutig nicht die Welt selbst ist, da sie an unser Bewusstsein gebunden ist, das über das Gehirn in unserem Körper verankert ist. Die subjektive Realität ist eine abgeleitete Realität; unser Gehirn produziert eine virtuelle Realität, die sich für uns als subjektives Erlebende wie eine Realität darstellt!

KONVERSION: REALITÄT ZU VIRTUALITÄT

Hat man diesen Erkenntnispunkt erreicht, dass die subjektive Realität eine abgeleitete Realität ist, ein Rechenergebnis des Gehirns, das sensorische Fragmente einer Welt da draußen (=real) in neuronale Strukturen und Prozesse übersetzt/ konvertiert, die als neuronale Prozesse zwar real sind, aber in den erzeugten internen Informationsstrukturen innerhalb der neuronalen Prozesse als Repräsentanten der mit-verursachenden externen Realität ein Abbildungsprodukt, sind, erzeugt durch Abbildungsprozesse, und so gesehen nur als bildhaft, als virtuell bezeichnete werden können, dann kann man begreifen, dass ein biologischer Organismus wie der des homo sapiens — neben vielen anderen Funktionen — eine Funktion ganz speziell erkennen lässt: der gesamte Organismus ist ein Konverter von Realität in Virtualität!

Der Aufwand, der getrieben werden muss (musste), um dies zu ermöglichen ist extrem hoch und man fragt sich unwillkürlich, wofür das gut sein soll?

Bevor man eine Antwort zu geben versucht, sollte man sich noch eine weitere bemerkenswerten Funktion von homo sapiens Organismen vor Augen führen.

AUSTAUSCH: INNEN ZU INNEN

Von Bakterien und Viren ist bekannt, dass sie als Gesamtheiten schon immer einen intensiven Informationsaustausch pflegen (was mich dazu inspiriert hatte von diesen Gesamtheiten als BIOM zu sprechen und das gesamte BIOM als biologischen Super-Computer zu sehen, der die unfassbaren Formenproduktionen der Evolution in Interaktion mit den jeweiligen Umgebungen ermöglicht hat).

Durch die biologische Ermöglichung einer Konversion von Realität in neuronal ermöglichte Virtualität eröffnete sich nicht nur die Möglichkeit, im Bereich der Virtualität verschiedene kreative Prozesse zu gestalten, die abgeleitete Formen von Realität generieren können, für die es aktuell so noch keine Vorgaben in der umgebenden Realität gibt. Dies neuen Formen können indirekt zu Änderungen in der realen Welt führen, die ohne diese kreativen virtuellen Prozesse entweder gar nicht oder erst sehr viel später möglich gewesen wären. Da Änderungen nicht per se von irgendeinem Vorteil sein müssen — sie können schädlich bis zerstörerisch sein –, ist diese neuartige Befähigung zu inneren kreativen Prozessen somit zwar eine neue Chance, zugleich aber auch ein neues Risiko.

Um nun sowohl die Chance — als auch das Risiko — zu erhöhen, gibt es noch eine weitere speziell Funktion von biologischen Lebensformen — am extremsten ausgeprägt beim homo sapiens –: die zusätzliche Abbildung von kognitiven Strukturen auf andere kognitive Strukturen, bei denen die kognitiven Strukturen auf der einen Seite der Abbildung in Form eines Ausdruckssystems [E] organisiert sind. Betrachtet man kognitive Strukturen generell als kognitive Objekte [KOGOBJ], dann kann man diejenigen kognitiven Objekte, die zusätzlich speziell als kognitive Objekte innerhalb eines Ausdruckssystems E organisiert sind, als KOGOBJ-E abkürzen. Die Abbildungsbeziehung zwischen der speziellen Menge von kognitiven Objekten, die als Ausdrücke KOGOBJ-E fungieren, und allen anderen kognitiven Objekten KOGOBJ (mit KOGOBJ-E als Teilmenge!) wird normalerweise Bedeutungsbeziehung [Π] genannt, geschrieben: Π: KOGOBJ <—–> KOGOBJ-E.

Warum wieder dieser enorme zusätzliche Aufwand?

Wie wir am Verhalten des homo sapiens — Wir — sehen können, kann aufgrund der Bedeutungsbeziehung ein biologischer Organismus A die Ausdruckselemente benutzen, um auf bestimmte virtuelle Aspekte in sich Bezug zu nehmen, und diese internen Ausdruckselemente können dann in Form von Sprachlauten — oder später in der kulturellen Entwicklung auch durch Schriftzeichen — dazu genutzt werden, auf einen anderen Organismus B einzuwirken, so dass dieser — falls man die gleichen Ausdruckselemente mit der gleichen Bedeutungsbeziehung gemeinsam gelernt hat — ‚in sich selbst‘ möglicherweise ähnliche kognitiven Objekte aktiviert wie der andere biologische Organismus A möglicherweise intendiert hat.

Dieser hochkomplexe Vorgang einer zwischen-biologischen Kommunikation ermöglicht es — wie wir aus unserem Alltag wissen können — dass sich auf diese Weise — bis zu einem gewissen Grad — nicht nur das Verhalten generell koordinieren lässt, sondern dass dabei auch — wiederum nur bis zu einem gewissen Grad — inhaltliche Informationen über die Welt ausgetauscht werden können, die eine kognitive erweiterte Koordination möglich machen.

WELTBILDER: WISSENSCHAFT ODER MYTHEN?

Diese ineinander verschränkten Abbildungen von Realität in Virtualität einerseits bzw. Virtualität 1 nach Virtualität 2 andererseits stellen im Kontext der biologischen Evolution mehr als eine Revolution dar. Dies soll jetzt hier gar nicht weiter diskutiert werden. Wohl aber sei der Hinweis gestattet auf das Alltagsphänomen, dass ganze Populationen von Menschen ein virtuelles Bild von der Welt erzeugen, pflegen und danach handeln können, das teilweise oder gar überwiegend falsch ist, mit den entsprechend verheerenden Folgern für alle.

Vor diesem Hintergrund der Massen-Verirrungen — in allen Zeiten der Menschheit gegeben, auch im Jahr 2021 — stellt sich die kritische Frage, was kann eine Gesellschaft als Ganze tun, um durch ihre Kultur Massen-Verirrungen zu verhindern.

Wie Blicke zurück in die Geschichte und hinweg über alle nationale Grenzen heute andeuten, ist ein gemeinsamer Schutz vor Verirrungen alles andere als einfach. Intelligenz alleine ist offensichtlich kein ausreichender Schutz…

So zeigt ein Blick in die Geschichte der Wissenschaften, dass es selbst in der Wissenschaft trotz all der vereinbarten Qualitätssicherungen immer wieder zu strittigen Meinungen kommen kann, die ganze Schulen ausbilden, um die anderen Meinungen ‚zu bekämpfen‘ statt aus den Unterschieden konstruktiv zu lernen.

Die Aufgabe der Gestaltung einer gemeinsamen Kultur der minimalen Verirrungen ist für uns alle real, sie ist hart, sie ist schwierig, und die scheinbar einfachen und griffigen Lösungen sollten eigentlich routinemäßig schon mal eine besondere Aufmerksamkeit erregen, ob das überhaupt so stimmen kann …

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

WAS IST DER MENSCH?

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062 20.Juli 2020
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

AKTUALISIERUNGEN: Letzte Aktualisierung 21.7.2020 (Korrekturen; neue Links)

KONTEXT

In den vielen vorausgehenden Beiträgen in diesem Blog wurde die Frage nach dem Menschen, was das angemessene Bild vom Menschen sein könnte, schon oft gestellt. Möglicherweise wird diese Frage auch in der Zukunft sich immer wieder neu stellen, weil wir immer wieder auf neue Aspekte unseres Menschseins stoßen. Ich bin diese Tage auf einen Zusammenhang gestoßen, der mir persönlich in dieser Konkretheit neu ist (was nicht ausschließt, dass andere dies schon ganz lange so sehen). Hier einige weitere Gedanken dazu.

DER MENSCH IN FRAGMENTEN

In der evolutionsbiologischen Perspektive taucht der homo sapiens — also wir — sehr, sehr spät auf. Vom Jahr 2020 aus betrachtet, bilden wir den aktuellen Endpunkt der bisherigen Entwicklung wohl wissend, dass es nur ein Durchgangspunkt ist in einem Prozess, dessen Logik und mögliche Zielrichtung wir bislang nur bedingt verstehen.

Während man bei der Betrachtung der letzten Jahrtausende Menschheitsgeschichte bisweilen den Eindruck haben könnte, dass die Menschen sich als Menschen als etwas irgendwie Besonderes angesehen haben (was die Menschen aber nicht davon abgehalten hat, sich gegenseitig zu bekämpfen, sich zu bekriegen, sich regelrecht abzuschlachten), könnte man bei der Betrachtung der letzten 100 Jahre den Eindruck gewinnen, als ob die Wissenschaft die Besonderheit des Menschen — so es sie überhaupt gab — weitgehend aufgelöst hat: einmal durch die Einbettung in das größere Ganze der Evolution, dann durch einen vertieften Blick in die Details der Anatomie, des Gehirns, der Organe, der Mikro- und Zellbiologie, der Genetik, und schließlich heute durch das Aufkommen digitaler Technologien, der Computer, der sogenannten künstlichen Intelligenz (KI); dies alles lässt den Menschen auf den ersten Blick nicht mehr als etwas Besonders erscheinen.

Diese fortschreitende Fragmentierung des Menschen, des homo sapiens, findet aber nicht nur speziell beim Menschen statt. Die ganze Betrachtungsweise der Erde, des Universums, der realen Welt, ist stark durch die empirischen Wissenschaften der Gegenwart geprägt. In diesen empirischen Wissenschaften gibt es — schon von ihrem methodischen Ansatz her — keine Geheimnisse. Wenn ich nach vereinbarten Messmethoden Daten sammle, diese in ein — idealerweise — mathematisches Modell einbaue, um Zusammenhänge sichtbar zu machen, dann kann ich möglicherweise Ausschnitte der realen Welt als abgeschlossene Systeme beschreiben, bei denen der beschreibende Wissenschaftler außen vor bleibt. Diese partiellen Modelle bleiben notgedrungen Fragmente. Selbst die Physik, die für sich in Anspruch nimmt, das Ganze des Universums zu betrachten, fragmentiert die reale Welt, da sich die Wissenschaftler selbst, auch nicht die Besonderheiten biologischen Lebens generell, in die Analyse einbeziehen. Bislang interessiert das die meisten wenig. Je nach Betrachtungsweise kann dies aber ein fataler Fehler sein.

DER BEOBACHTER ALS BLINDE FLECK

Die Ausklammerung des Beobachters aus der Beschreibung des Beobachtungsgegenstands ist in den empirischen Wissenschaften Standard, da ja das Messverfahren idealerweise invariant sein soll bezüglich demjenigen, der misst. Bei Beobachtungen, in denen der Beobachter selbst das Messinstrument ist, geht dies natürlich nicht, da die Eigenschaften des Beobachters in den Messprozess eingehen (z.B. überall dort, wo wir Menschen unser eigenes Verhalten verstehen wollen, unser Fühlen und Denken, unser Verstehen, unser Entscheiden, usw.). Während es lange Zeit eine strenge Trennung gab zwischen echten (= harten) Wissenschaften, die strikt mit dem empirischen Messideal arbeiten, und jenen quasi (=weichen) Wissenschaften, bei denen irgendwie der Beobachter selbst Teil des Messprozesses ist und demzufolge das Messen mehr oder weniger intransparent erscheint, können wir in den letzten Jahrzehnten den Trend beobachten, dass die harten empirischen Messmethoden immer mehr ausgedehnt werden auch auf Untersuchungen des Verhaltens von Menschen, allerdings nur als Einbahnstraße: man macht Menschen zwar zu Beobachtungsgegenständen partieller empirischer Methoden, die untersuchenden Wissenschaftler bleiben aber weiterhin außen vor. Dieses Vorgehen ist per se nicht schlecht, liefert es doch partiell neue, interessante Einsichten. Aber es ist gefährlich in dem Moment, wo man von diesem — immer noch radikal fragmentiertem — Vorgehen auf das Ganze extrapoliert. Es entstehen dann beispielsweise Bücher mit vielen hundert Seiten zu einzelnen Aspekten der Zelle, der Organe, des Gehirns, aber diese Bücher versammeln nur Details, Fragmente, eine irgendwie geartete Zusammenschau bleibt aus.

Für diese anhaltende Fragmentierung gibt es sicher mehr als einen Grund. Einer liegt aber an der Wurzel des Theoriebegriffs, der Theoriebildung selbst. Im Gegensatz zu einer weit verbreiteten Anschauung entstehen Theorien, Modelle, also jene begrifflichen Gebilde, mit denen wir einzelne Daten deuten, nicht aus einem Automatismus, sondern sie beruhen auf gedanklichen Entscheidungen in den Köpfen der Wissenschaftler selbst: grundsätzlich gibt es immer mehr als eine Option, wie ich etwas angehen will. Jede Option verlangt also eine Entscheidung, eine Wahl aus einem großen Bereich von Möglichkeiten. Die Generierung einer Theorie ist von daher immer ein komplexer Prozess. Interessanterweise gibt es in kaum einer der heutigen empirischen Disziplinen das Thema Wie generieren wir eine Theorie? als eigene Themenstellung. Obwohl hier viele Grundentscheidungen fallen, obwohl hier viel Komplexität rational aufgehellt werden müsste, betreiben die sogenannten harten Wissenschaften hier ein weitgehend irrationales Geschäft. Das Harte an den empirischen Wissenschaften gründet sich in diesem Sinne nicht einmal in einer weichen Reflexion; es gibt schlicht gar keine offizielle Reflexion. Die empirischen Wissenschaften sind in dieser Hinsicht fundamental irrational. Dass sie trotz ihrer fundamentalen Irrationalität interessante Detailergebnisse liefern kann diesen fundamentalen Fehler in der Wurzel nur bedingt ausgleichen. Die interessante Frage ist doch, was könnten die empirischen Wissenschaften noch viel mehr leisten, wenn sie ihre grundlegende Irrationalität an der Wurzel der Theoriebildung schrittweise mit Rationalität auffüllen würden?

HOMO SAPIENS – DER TRANSFORMER

(Ein kleiner Versuch, zu zeigen, was man sehen kann, wenn man die Grenzen der Disziplinen versuchsweise (und skizzenhaft) überschreitet)

Trotz ihrer Irrationalität an der Wurzel hat die Evolutionsbiologie viele interessante Tatbestände zum homo sapiens sichtbar gemacht, und andere Wissenschaften wie z.B. Psychologie, Sprachwissenschaften, und Gehirnwissenschaft haben weitere Details beigesteuert, die quasi ‚auf der Straße‘ herumliegen; jeder produziert für sich fleißig partielle Modelle, aber niemand ist zuständig dafür, diese zusammen zu bauen, sie versuchsweise zu integrieren, mutig und kreativ eine Synthese zu versuchen, die vielleicht neue Aspekte liefern kann, mittels deren wir viele andere Details auch neu deuten könnten. Was Not tut ist eine Wissenschaft der Wissenschaften, nicht als Privatvergnügen eines einzelnen Forschers, sondern als verpflichtender Standard für alle. In einer Wissenschaft der Wissenschaften wäre der Beobachter, der Forscher, die Forschergruppe, selbst Teil des Untersuchungsgegenstandes und damit in der zugehörigen Meta-Theorie aufzuhellen.

Anmerkung: Im Rahmen der Theorie des Engineering gibt es solche Ansätze schon länger, da das Scheitern eines Engineeringprozesses ziemlich direkt auf die Ingenieure zurück schlägt; von daher sind sie äußerst interessiert daran, auf welche Weise der Faktor Mensch — also auch sie selbst — zum Scheitern beigetragen hat. Hier könnte die Wissenschaft eine Menge von den Ingenieuren lernen.

Neben den vielen Eigenschaften, die man am homo sapiens entdecken kann, erscheinen mir drei von herausragender Bedeutung zu sein, was sich allerdings erst so richtig zeigt, wenn man sie im Zusammenspiel betrachtet.

Faktor 1: Dass ein homo sapiens einen Körper [B, body] mit eingebautem Gehirn [b, brain] hat, unterscheidet ihn nicht unbedingt von anderen Lebensformen, da es viele Lebensformen im Format Körper mit eingebautem Gehirn gibt. Dennoch ist schon mal festzuhalten, dass der Gehirn-Körper [b_B] eines homo sapiens einen Teil der Eigenschaften seiner Realwelt-Umgebung [RW] — und der eigene Körper gehört aus Sicht des Gehirns auch zu dieser Realwelt-Umgebung — ausnahmslos in neuronale Zustände [NN] im Gehirn verwandelt/ transformiert/ konvertiert und diese neuronale Zustände auf vielfältige Weise Prozesshaft bearbeitet (Wahrnehmen, Speichern, Erinnern, Abstrahieren, Assoziieren, bewerten, …). In dieser Hinsicht kann man den Gehirn-Körper als eine Abbildung, eine Funktion verstehen, die u.a. dieses leistet: b_B : RW —–> RW_NN. Will man berücksichtigen, dass diese Abbildung durch aktuell verfügbare Erfahrungen aus der Vergangenheit modifiziert werden kann, dann könnte man schreiben: b_B : RW x RW_NN —–> RW_NN. Dies trägt dem Sachverhalt Rechnung, dass wir das, was wir aktuell neu erleben, automatisch mit schon vorhandenen Erfahrungen abgleichen und automatisch interpretieren und bewerten.

Faktor 2: Allein schon dieser Transformationsprozess ist hochinteressant, und er funktioniert bis zu einem gewissen Grad auch ganz ohne Sprache (was alle Kinder demonstrieren, wenn sie sich in der Welt bewegen, bevor sie sprechen können). Ein homo sapiens ohne Sprache ist aber letztlich nicht überlebensfähig. Zum Überleben braucht ein homo sapiens das Zusammenwirken mit anderen; dies verlangt ein Minimum an Kommunikation, an sprachlicher Kommunikation, und dies verlangt die Verfügbarkeit einer Sprache [L].

Wir wir heute wissen, ist die konkrete Form einer Sprache nicht angeboren, wohl aber die Fähigkeit, eine auszubilden. Davon zeugen die vielen tausend Sprachen, die auf dieser Erde gesprochen werden und das Phänomen, dass alle Kinder irgendwann anfangen, Sprachen zu lernen, aus sich heraus.

Was viele als unangenehm empfinden, das ist, wenn man als einzelner als Fremder, als Tourist in eine Situation gerät, wo alle Menschen um einen herum eine Sprache sprechen, die man selbst nicht versteht. Dem Laut der Worte oder dem Schriftzug eines Textes kann man nicht direkt entnehmen, was sie bedeuten. Dies liegt daran, dass die sogenannten natürlichen Sprachen (oft auch Alltagssprachen genannt), ihre Bedeutungszuweisungen im Gehirn bekommen, im Bereich der neuronalen Korrelate der realen Welt RW_NN. Dies ist auch der Grund, warum Kinder nicht von Geburt an eine Sprache lernen können: erst wenn sie minimale Strukturen in ihren neuronalen Korrelaten der Außenwelt ausbilden konnten, können die Ausdrücke der Sprache ihrer Umgebung solchen Strukturen zugeordnet werden. Und so beginnt dann ein paralleler Prozess der Ausdifferenzierung der nicht-sprachlichen Strukturen, die auf unterschiedliche Weise mit den sprachlichen Strukturen verknüpft werden. Vereinfachend kann man sagen, dass die Bedeutungsfunktion [M] eine Abbildung herstellt zwischen diesen beiden Bereichen: M : L <–?–> RW_NN, wobei die sprachlichen Ausdrücke letztlich ja auch Teil der neuronalen Korrelate der Außenwelt RW_NN sind, also eher M: RW_NN_L <–?–>RW_NN.

Während die grundsätzliche Fähigkeit zur Ausbildung einer bedeutungshaltigen Sprache [L_M] (L :_ Ausrucksseite, M := Bedeutungsanteil) nach heutigem Kenntnisstand angeboren zu sein scheint, muss die Bedeutungsrelation M individuell in einem langen, oft mühsamen Prozess, erlernt werden. Und das Erlernen der einen Sprache L_M hilft kaum bis gar nicht für das Erlernen einer anderen Sprache L’_M‘.

Faktor 3: Neben sehr vielen Eigenschaften im Kontext der menschlichen Sprachfähigkeit ist einer — in meiner Sicht — zusätzlich bemerkenswert. Im einfachen Fall kann man unterscheiden zwischen den sprachlichen Ausdrücken und jenen neuronalen Korrelaten, die mit Objekten der Außenwelt korrespondieren, also solche Objekte, die andere Menschen zeitgleich auch wahrnehmen können. So z.B. ‚die weiße Tasse dort auf dem Tisch‘, ‚die rote Blume neben deiner Treppe‘, ‚die Sonne am Himmel‘, usw. In diesen Beispielen haben wir auf der einen Seite sprachliche Ausdrücke, und auf der anderen Seite nicht-sprachliche Dinge. Ich kann mit meiner Sprache aber auch sagen „In dem Satz ‚die Sonne am Himmel‘ ist das zweite Wort dieses Satzes grammatisch ein Substantiv‘. In diesem Beispiel benutze ich Ausdrücke der Sprache um mich auf andere Ausdrücke einer Sprache zu beziehen. Dies bedeutet, dass ich Ausdrücke der Sprache zu Objekten für andere Ausdrücke der Sprache machen kann, die über (meta) diese Objekte sprechen. In der Wissenschaftsphilosophie spricht man hier von Objekt-Sprache und von Meta-Sprache. Letztlich sind es zwei verschiedenen Sprachebenen. Bei einer weiteren Analyse wird man feststellen können, dass eine natürliche/ normale Sprache L_M scheinbar unendlich viele Sprachebenen ausbilden kann, einfach so. Ein Wort wie Demokratie z.B. hat direkt kaum einen direkten Bezug zu einem Objekt der realen Welt, wohl aber sehr viele Beziehungen zu anderen Ausdrücken, die wiederum auf andere Ausdrücke verweisen können, bis irgendwann vielleicht ein Ausdruck dabei ist, der Objekte der realen Welt betrifft (z.B. der Stuhl, auf dem der Parlamentspräsident sitzt, oder eben dieser Parlamentspräsident, der zur Institution des Bundestages gehört, der wiederum … hier wird es schon schwierig).

Die Tatsache, dass also das Sprachvermögen eine potentiell unendlich erscheinende Hierarchie von Sprachebenen erlaubt, ist eine ungewöhnlich starke Eigenschaft, die bislang nur beim homo sapiens beobachtet werden kann. Im positiven Fall erlaubt eine solche Sprachhierarchie die Ausbildung von beliebig komplexen Strukturen, um damit beliebig viele Eigenschaften und Zusammenhänge der realen Welt sichtbar zu machen, aber nicht nur in Bezug auf die Gegenwart oder die Vergangenheit, sondern der homo sapiens kann dadurch auch Zustände in einer möglichen Zukunft andenken. Dies wiederum ermöglicht ein innovatives, gestalterisches Handeln, in dem Aspekte der gegenwärtigen Situation verändert werden. Damit kann dann real der Prozess der Evolution und des ganzen Universums verändert werden. Im negativen Fall kann der homo sapiens wilde Netzwerke von Ausdrücken produzieren, die auf den ersten Blick schön klingen, deren Bezug zur aktuellen, vergangenen oder möglichen zukünftigen realen Welt nur schwer bis gar nicht herstellbar ist.

Hat also ein entwickeltes Sprachsystem schon für das Denken selbst eine gewisse Relevanz, spielt es natürlich auch für die Kommunikation eine Rolle. Der Gehirn-Körper transformiert ja nicht nur reale Welt in neuronale Korrelate b_B : RW x RW_NN —–> RW_NN (mit der Sprache L_B_NN als Teil von RW_NN), sondern der Gehirn-Körper produziert auch sprachliche Ausdrücke nach außen b_B : RW_NN —–> L. Die sprachlichen Ausdrücke L bilden von daher die Schnittstelle zwischen den Gehirnen. Was nicht gesagt werden kann, das existiert zwischen Gehirnen nicht, obgleich es möglicherweise neuronale Korrelate gibt, die wichtig sind. Nennt man die Gesamtheit der nutzbaren neuronalen Korrelate Wissen dann benötigt es nicht nur eine angemessene Kultur des Wissens sondern auch eine angemessene Kultur der Sprache. Eine Wissenschaft, eine empirische Wissenschaft ohne eine angemessene (Meta-)Sprache ist z.B. schon im Ansatz unfähig, mit sich selbst rational umzugehen; sie ist schlicht sprachlos.

EIN NEUES UNIVERSUM ? !

Betrachtet man die kontinuierlichen Umformungen der Energie-Materie vom Big Bang über Gasnebel, Sterne, Sternenhaufen, Galaxien und vielem mehr bis hin zur Entstehung von biologischem Leben auf der Erde (ob auch woanders ist komplexitätstheoretisch extrem unwahrscheinlich, aber nicht unmöglich), dort dann die Entwicklung zu Mehrzellern, zu komplexen Organismen, bis hin zum homo sapiens, dann kommt dem homo sapiens eine einzigartig, herausragende Rolle zu, der er sich bislang offensichtlich nicht richtig bewusst ist, u.a. möglicherweise auch, weil die Wissenschaften sich weigern, sich professionell mit ihrer eigenen Irrationalität zu beschäftigen.

Der homo sapiens ist bislang das einzig bekannte System im gesamten Universum, das in er Lage ist, die Energie-Materie Struktur in symbolische Konstrukte zu transformieren, in denen sich Teile der Strukturen des Universums repräsentieren lassen, die dann wiederum in einem Raum hoher Freiheitsgrade zu neue Zuständen transformiert werden können, und diese neuen — noch nicht realen — Strukturen können zum Orientierungspunkt für ein Verhalten werden, das die reale Welt real transformiert, sprich verändert. Dies bedeutet, dass die Energie-Materie, von der der homo sapiens ein Teil ist, ihr eigenes Universum auf neue Weise modifizieren kann, möglicherweise über die aktuellen sogenannten Naturgesetze hinaus.

Hier stellen sich viele weitere Fragen, auch alleine schon deswegen, weil der Wissens- und Sprachaspekt nur einen kleinen Teil des Potentials des homo sapiens thematisiert.

Philosophie für Dummies [Ph4Ds]

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Datum: 24.April 2020

Letzte Änderung: zweite Audio-Datei, 2.Mai 2020 (Neuer Sound 23.Mai 2020)

KONTEXT

In den vielen hundert Beiträgen dieses Blogs blitzen viele Aspekte des philosophischen Denkens auf, teilweise werden Verbindungen sichtbar, bisweilen Umrisse von übergreifenden Strukturen, aber für einen Einsteiger ist es schwer bis unmöglich, sich aus dieser Vielfalt — auch angesichts der schieren Menge — ein klares Bild des philosophischen Denkens zu bilden. Für eine zusammenhänge systematische Darstellung war der Blog auch nie gedacht. Jetzt verstärkt sich aber der Bedarf, aus der Vielfalt doch ein zusammenhängendes Bild zu formen. Wie soll dies gehen?

Es gibt viele Strategien, wie man dies angehen kann. Aufgrund eines Anlasses in der Lehre ergab sich die Idee, mit einem kleinen Text anzufangen, der sehr wohl versucht, das Ganze im Blick zu haben, obgleich er selbst — aufgrund seiner Kürze — doch nur erste Fragmente bieten kann. Aber, es liegt in der Natur einer zusammenhängenden Vision, dass sie in der Lage ist, auch schon mit wenigen Fragmenten eine Perspektive aufblitzen zu lassen, die sich dann — quasi von selbst — in nachfolgenden Formulierungen ’selbst ergänzt‘.

Eine erste Skizze wurde im Stil einer Präsentation abgefasst (nicht Powerpoint, sondern LaTex mit der Beamer Klasse) mit 16 Seiten Inhalt plus Quellennachweisen.

Parallel dazu habe ich einen Text gesprochen, der ausgehend von der Präsentation die damit zusammenhängenden Ideen im unplugged Stil ‚laut gedacht‘ habe.

Natürlich schreit diese erste Skizze nach Weiterführung, fragt sich nur, wann sich dafür Zeit finden lässt.

Ph4Ds – PRÄSENTATION

Ph4Ds – AUDIO

(2.Mai 2020) Kürzere Fassung, erster Einstieg (17.5 Min)
Längere Fassung vom 24.April 2020 (75 Min)

BITTE UM FEEDBACK

Generell kann man ja in diesem Blog Rückmeldungen geben (was in der Vergangenheit auch immer wieder einige getan haben). Im Falle dieser beginnenden ‚Gesamtperspektive‘ fände ich es schön Rückmeldungen zu bekommen. Ob und wieweit ich dann auf die Rückmeldungen eingehe, weiß ich jetzt natürlich nicht. Aber meistens bildet jede Bemerkung, mag sie auch noch so klein sein, ein Echo das nachwirkt, ja, auch mit zeitlicher Verzögerung. Manchmal kommt es vor, dass ich einem Gedanken nachhänge, und dann poppen Erinnerungen an Gespräche, Artikel und Bücher auf, die ich viele Jahre vorher geführt oder gelesen habe …. und genau dann sind sie plötzlich von großer Bedeutung…

Soundexperiment: mehrere Drumkits, eine Melodie-Impression…

SELBSTBESCHREIBUNG UND MEDITATION

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 12.Nov 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Letzte Korrekturen: 14.Nov.2018 {Nr.6, Nr.10, Nr.13 }

KONTEXT

Der folgende Text steht thematisch im Zusammenhang mit den beiden vorausgehenden Beiträgen zum Thema ‚Wissenschaft und Meditation‘ sowie ‚Meditation im Alltag‘. Während der erste Beitrag ‚Wissenschaft …‘  sich die Frage stellte, ob man das kulturelle Phänomen ‚Meditation‘ in einen irgendwie sinnvollen Zusammenhang mit ‚empirischer Wissenschaft‘ sehen kann, ging es im zweiten Beitrag ‚… im Alltag‘  um das konkrete Tun beim Meditieren, zumindest bei jener Form des Meditierens, bei der man sich in eine ‚Ruhestellung‘ begibt, in der man sich selbst zum Gegenstand macht.

SELBSTBEOBACHTUNG ALS THEMA

Das Thema ‚Selbstbeobachtung‘ ist so alt, wie es philosophisches Denken gibt und hat selbst in den empirischen Wissenschaften nicht an Bedeutung verloren. Das Thema voll darzustellen würde allerdings mindestens ein ‚dickes‘ Buch verlangen, eher mehr. Von all den philosophischen Varianten und wissenschaftlichen Diskussionen soll hier aber abgesehen werden, um in einer überschaubaren Weise eine (‚die‘?) grundlegende Perspektive formulieren zu können, die sich heute unter Berücksichtigung von Philosophie und modernen Wissenschaften als Arbeitshypothese formulieren lässt. Arbeitshypothesen bringen es mit sich, dass man sie kritisieren und weiter verbessern kann.

SELBSTBEOBACHTUNG UND MEDITATION

Die neuerliche Auseinandersetzung mit dem Thema ‚Selbstbeobachtung‘ in diesem Blog (bislang nicht unter dem Stichwort ‚Selbstbeobachtung‘ sondern eher in Verbindung mit Stichworten wie ‚Phänomene‘, ‚Phänomenologie‘, usw.) wurde stimuliert durch die aktive Auseinandersetzung mit dem Phänomen ‚Meditation‘, innerhalb deren es neben der theoretischen Auseinandersetzung auch die konkrete Praxis, das konkrete Meditieren gibt. Diese konkrete Praxis eröffnet dem Meditierenden einen an sich unendlichen Raum an möglichen Ereignissen, konkret gefüllt mit einem bunten Strauß an Ereignissen und Veränderungen, die im Wahrnehmen Deutungen erlauben. Was aber ist eine ‚richtige‘, ‚angemessene‘ Deutung?

PHILOSOPHISCHER DEUTUNGSKONTEXT

In einer Kooperation von moderner (Wissenschafts-)Philosophie und modernen wissenschaftlichen Disziplinen lässt sich folgender ‚Rahmen‘ für mögliche Wahrnehmungen und Deutungen formulieren, der allgemein gilt, nicht nur für das Meditieren.

Ausgehend von dem Abschnitt ‚BEOBACHTUNG: SUBJEKTIVITÄT – OBJEKTIVITÄT‘ in dem schon oben erwähnten Beitrag ‚Wissenschaft …‘ werden hier folgende Annahmen gemacht (siehe Schaubild):

Unterschiedliche Datenquellen zusätzlich zur Introspektion
Unterschiedliche Datenquellen zusätzlich zur Introspektion

  1. Die verhaltensorientierten Wissenschaften, allen voran die Psychologie, benutzen vorwiegend Daten aus Verhaltensbeobachtungen. Diese Daten werden hier D_SR genannt (‚S‘ für Stimulus und ‚R‘ für Response). Damit kann die experimentelle Psychologie zwar nicht direkt in das ‚Innere‘ eines biologischen Systems schauen (Tiere, Menschen, …), wohl aber ist es möglich, auf der Basis solcher Daten explizite ‚Verhaltens-Theorien‘ (T_SR) zu formulieren, die mit ‚hypothetischen Annahmen‘ über ‚innere Zustände‘ arbeiten, mit deren Hilfe sich das äußerlich beobachtbare Verhalten ‚erklären‘ lässt. Berühmte Beispiele hierfür sind einmal das Konstrukt des ‚Unbewussten‘ in der Psychoanalyse oder das Konstrukt des ‚Gedächtnisses‘.
  2. Mit der Weiterentwicklung der allgemeinen Physiologie — hier insbesondere mit dem Spezialgebiet ‚Gehirn‘ – konnte die Wissenschaft den Bereich der objektivierbaren Daten weiter ausdehnen auf das ‚Innere des Körpers‘, die verschiedenen Organe, ihre Funktionsweisen und Interaktionen. Diese Daten werden hier D_PHYS genannt. Fasst man die Vielzahl der inneren Strukturen als ‚Input-Output-Systeme‘ auf, dann kann man auf der Basis der Beobachtungsdaten eine Vielzahl von Hypothesen über die Verhaltensfunktion solcher Input-Output-Systeme in Form von physiologischen Theorien (T_PHYS) formulieren.
  3. Sowohl die Daten wie auch die möglichen Theorien zum äußerlich beobachtbaren Verhalten wie auch zu den inneren Strukturen sind zunächst ‚unabhängig‘ voneinander. Man kann von der Theorie des Verhaltens T_SR nicht direkt auf Eigenschaften der inneren Strukturen T_PHYS schließen und auch nicht umgekehrt. Andererseits spricht alles dafür, dass die inneren Strukturen – beschrieben in einer möglichen Theorie T_PHYS – verantwortlich sind für das äußerlich beobachtbare Verhalten D_SR, das in einer möglichen Theorie T_SR beschrieben wird. Es wäre also naheliegend, eine Art ‚Brückentheorie‚ zu bauen (‚Psychophysiologie‘ oder ‚Physiopsychologie‘), in der die beiden Theorien T_SR und T_PHYS explizit als T_SR_PHYS miteinander in Beziehung gesetzt werden (als ‚Neuropsychologie‘ ist diese Idee schon länger bekannt, aber diese stellt eine Engführung des eigentlichen Themas dar und die wissenschaftsphilosophische Konzeption der bisherigen Arbeiten erscheint bislang nicht ganz überzeugend).
  4. Die soeben skizzierten Typen von Daten D_SR und D_PHYS sind relativ weit verbreitet. Was nicht so verbreitet ist, das ist die Inbeziehung-Setzung dieser Daten zum Bewusstsein. Entsprechend der großen Tradition der empirischen Wissenschaften, die den Zugriff auf die Wirklichkeit an die Verfügbarkeit von externen Messprozessen geknüpft hatten, um sich von den vielen falschen Ansprüchen einer damals noch unkritischen Philosophie abzugrenzen, ist die mögliche Bedeutung und Rolle der bewusstseinsbasierten Daten – hier D_PH genannt – etwas aus dem Blick geraten, soweit, dass lange nicht mehr klar war, wie man überhaupt empirische Daten (D_SR und D_PHYS) mit Bewusstseinsdaten (D_PH) in Beziehung setzen kann.
  5. Erst ganz langsam setzt sich mit den neueren Erkenntnissen von Biologie, Physiologie und Psychologie wieder die Einsicht durch, dass das Gehirn als ‚Ermöglichung von Bewusstheit‘ selbst ja gar keinen direkten Bezug zur empirischen Außenwelt besitzt. Über komplexe Signalprozesse werden dem Gehirn Außenweltereignisse mehrfach übersetzt zur weiteren Bearbeitung übermittelt, ebenso Ereignisse aus dem Körper wie auch aus dem Gehirn selbst. Aus all dem konstruiert das Gehirn ein dynamisches Modell der Gesamtsituation, die dann in einem biologischen System das spezifische Gesamtphänomen ‚Bewusstsein‘ ermöglicht, innerhalb dessen das System den ‚Eindruck‘ hat, dass ‚es selbst‘ unterschiedliche ‚Phänomene (PH) erlebt‘. Diese Phänomene repräsentieren nach heutigem Wissensstand nur einen winzigen Teil aller Ereignisse im Körper. Man nimmt daher – spätestens seit Freud — neben der Bewusstheit des Bewusstseins auch ein ‚Unbewusstes‘ an. Verschiedene weitere Annahmen über ein ‚Vor-Bewusstes‘ (so Freud) oder ein ‚temporäres Bewusstsein‘ spielen hier keine wesentliche Rolle, da die Phänomene des Bewusstseins allesamt aus dem Un-Bewussten herrühren und somit das Unbewusste punktuell und temporär ’sichtbar‘ machen.
  6. Mit dieser neueren Einsicht in die Gesamtarchitektur des biologischen Erkennens kann man die Beziehung zwischen empirischen Verhaltens- und Körperdaten einerseits (D_SR, D_PHYS) und Bewusstseinsdaten (D_PH) andererseits neu gewichten: auch das, was wir empirische Daten nennen sind letztlich auch Bewusstseinsdaten (!), allerdings mit der Besonderheit, dass man diese Bewusstseinsdaten mit externen Messprozeduren korrelieren kann, die parallel zu den Bewusstseinsdaten realisiert werden und die selbst sowie ihre Messergebnisse D_SR und D_PHYS zugleich auch Daten des Bewusstseins D_PH_SR und D_PH_PHYS sind. Nur weil sie auch bewusst sein können, wissen wir von ihrer Existenz, und nur wenn diese Daten uns bewusst sind, können wir mit ihnen bewusst umgehen und mit ihnen bewusst arbeiten.
  7. Die sogenannte ‚Kluft‘ zwischen Philosophie und den empirischen Wissenschaften ist daher eher ein ‚Artefakt des Denkens‘. Damit wird die besondere Stellung der empirischen Wissenschaften weder in Frage gestellt noch geschmälert, sondern es wird deutlich, wie die empirischen Wissenschaften letztlich als ein ‚Philosophieren mit anderen Mitteln‘ betrachtet werden können. Das ‚empirische Messen‘ ist von daher eine spezielle Methode, durch die die Philosophie in bestimmten Teilbereichen deutlich ‚mehr‘ erkennen kann als ohne diese Methoden.
  8. Was damit allerdings auch klar wird: statt dass sich die Philosophie – wie so oft in der Vergangenheit – mit ‚Abscheu‘ von den empirischen Wissenschaften abwendet, hat sie eine ganz besondere Verantwortung, diesen extrem wichtigen Teil einer ‚empirischen Philosophie‘ besonders zu pflegen. Die methodischen Herausforderungen, die sich hier stellen, sind enorm und übersteigen alles, was die Philosophie zuvor getan hat.
  9. In diesem Kontext sei auch besonders hingewiesen auf die vollautomatischen (= unbewussten) Prozesse der ‚induktiven Kategorienbildung‘ im Rahmen von Wahrnehmung und Gedächtnis. Was immer an Wahrnehmungsereignisse das ‚Gedächtnis‘ erreicht (ein Teilsystem des Gehirns), es wird automatisch als ein prototypisches Muster ‚angelegt‘, das sich nach impliziten Ähnlichkeitskriterien kontinuierlich ‚anreichern‘ kann. Nur deshalb sind wir in der Lage, einen zuvor schon mal wahrgenommenen ‚Gegenstand‘ der Art ‚A‘ im Fall eines neuerlichen Vorkommens wieder als ‚A‘ oder ‚dem A ähnlich‘ wiedererkennen zu können.
  10. Nur weil es diese ‚automatische induktive Kategorienbildung‘ gibt können wir Sprachsysteme einführen und benutzen, deren Symbole sich auf solche Kategorien als ihren ’natürlichen Gegenständen‘ beziehen. Worte wie ‚Tisch‘, ‚Baum‘,  ‚Hund‘ usw. können sich  auf einen konkreten Gegenstand X beziehen, weil der konkrete Gegenstand X  hinreichend viele ‚Ähnlichkeiten‘ mit der jeweiligen  induktiv entstandenen natürlichen Kategorie ‚Tisch‘, ‚Baum‘,  ‚Hund‘ usw aufweist. Die potentielle Menge von konkreten Objekten X in der realen Welt, die sich auf solch eine Weise einer ‚induktiven Gegenstandskategorie‘ zuordnen lassen,  sind daher implizit ‚offen‘, nicht wirklich ‚begrenzbar‘. Zudem  muss man  davon ausgehen, dass die konkrete Füllung dieser Gegenstandskategorien im Kontext einer natürlichen Sprache bei den einzelnen Menschen stark variieren kann, je nach individueller Erfahrung.
  11. Im Kontext der empirischen Wissenschaft sind solche ‚prinzipiell offenen Bedeutungskategorien‘ unerwünscht. Will man ‚Vieldeutigkeiten‘ vermeiden gibt es bislang zwei Strategien, um diese zu minimieren:
    1. Einführung von Fachsprachen innerhalb der normalen Alltagssprache: man versucht die benutzten Begriffe durch entsprechende Regeln zu ’normieren‘;
    2. Einführung von formalen Kunstsprachen, deren Bedeutungszuordnung durch explizite Bedeutungsregeln sichergestellt werden sollen.
  12. Beide Strategien haben sich als nicht vollständig umsetzbar erwiesen. Am erfolgreichsten erscheint bislang die Strategie der formalen Fachsprachen mit expliziten Bedeutungsregeln, und hier insbesondere die Sprache der modernen Mathematik, bekannt als ‚mengentheoretische Sprache‘ und diverse Formen von ‚Strukturbildungen mit Interpretationsbegriff‘.
  13. Grundsätzlich ist es möglich, dass man mittels einer formalen Kunstsprache ‚künstliche formale Kategorien‘ einführt, die über ‚spezielle Bedeutungszuordnungen‘ nur eine endliche Menge von klar definierten Eigenschaften umfassen oder, zumindest auf rein formaler Ebene, überabzählbar viele  Mengen von Eigenschaften unterschiedlicher Strukturen. Diese Möglichkeit von ‚künstlichen formalen Kategorien‘ hat sich in der empirischen Forschung – z.B. in der Physik – als extrem wichtig erwiesen, da die Eigenschaften der empirischen Welt oft so ganz anders zu sein scheinen als es die gewohnte induktive Kategorienbildung des menschlichen Gehirns nahelegt.
  14. Unter Einbeziehung des Aspekts ‚Sprache‚ lässt sich das Verhältnis von moderner Philosophie und moderner empirischen Wissenschaft nochmals präziser fassen: mittels definierter empirischer Messprozeduren (MSE) und daraus resultierenden empirischen Messergebnissen (D_EMP) ergeben sich im Rahmen des Bewusstseins (CONSC) spezifische Phänomene (D_PH_EMP), denen eben extern diese Messprozeduren korrespondieren. Als wahrgenommene Phänomene D_PH_EMP unterliegen sie allerdings den automatisch erzeugten induktiven Kategorienbildungen, auf die symbolische Ausdrücke einer Sprache bezogen werden können.
  15. Dabei ist zu beachten, dass die Ausdrücke einer Sprache auch sowohl als empirische Ereignisse (D_EMP_L) vorkommen wie auch als Phänomene (D_PH_EMP_L). Die Beziehung zwischen sprachlichen Ausdrücken und zugeordneten Bedeutungskorrelaten geschieht als unbewusster Prozess innerhalb des Gedächtnisses als Teil des Gehirns.
  16. Im Rahmen von Denkprozessen (teils unbewusst, teils bewusst), lassen sich beliebig viele formale Ausdrücke mit zugehörigen formalen Kategorien bilden. Im Falle von empirischen Wissenschaften müssen diese jeweils mit empirischen Phänomenen in Beziehung gesetzt werden können, um ihren Außenweltbezug herstellen zu können. Im Falle von vor-wissenschaftlichen Theorien wie einer unkritischen Metaphysik wurden zwar auch rein abstrakte, bisweilen sogar formale, Strukturen im Denken entwickelt, aber deren Geltung wurde gewöhnlich nicht nach festen Regeln auf empirische Außenweltereignisse zurückgebunden. Die negativen Auswirkungen eines solchen Vorgehens lassen sich im Rückblick untersuchen. Von heute aus gesehen liegt es daher nahe, die modernen empirischen Theorien als die genuinen Nachfolger der klassischen ‚metaphysischen‘ (= jenseits der Natur) Theorien zu betrachten, mit der Innovation, dass heute die potentiellen abstrakten (und formalisierten) Strukturen nach klar vereinbarten Verfahren an empirische Messprozesse zurückgebunden werden.
  17. Nach diesen vorbereitenden Überlegungen wird vielleicht verständlich, dass die ‚Phänomene‘ eines Bewusstseins für alle Disziplinen die ersten ’nicht weiter hintergehbaren‘ Daten darstellen. Die Einführung von empirischen Messverfahren hebt die Priorität von Phänomenen des Bewusstseins daher nicht auf, sondern ergänzt diese nur um zusätzliche Momente, die ‚berücksichtigt‘ werden sollten, will man über eine ‚Wirklichkeit‘ sprechen, die nicht nur im eigenen Bewusstsein zu verankern ist, sondern zugleich auch im ‚Zwischenbereich der Körper‘, den wir ‚empirische Welt‘ nennen.
  18. Damit stellt sich die Frage, was ist mit jenen ‚Phänomenen‘, die sich nicht mit empirischen Messverfahren korrelieren lassen; nennen wir diese abkürzend D_PH*, bestimmt durch die Gleichung D_PH* = D_PH – D_PH_EMP.
  19. Diese nicht-empirischen Phänomene D_PH* sind ja nicht weniger ‚wirklich‘ wie die empirischen Phänomene D_PH_EMP, nur fehlt ihnen ein definiertes Korrelat in der Zwischen-Körper-Welt. Alle diese nicht-empirischen Phänomene D_PH* entstammen letztlich dem Unbewussten (NON-CONSC).
  20. Aus dem Alltag wissen wir, dass alle Menschen aufgrund sehr ähnlicher Körper und Gehirnstrukturen vielerlei Phänomene kennen, über die sich eine gewisse ‚Einigkeit‘ herstellen lässt, weil sie die meisten Menschen ’sehr ähnlich‘ erleben, wie z.B. ‚Müdigkeit‘ nach längerem ’nicht Schlafen‘, ‚Hunger‘ nach längerem ’nicht Essen‘ usw .Man könnte also sagen, dass der ‚menschliche Körper‘ auch eine Art ‚Messgerät‘ ist, das bei entsprechendem ‚Verhalten‘ bestimmte ‚Zustände als Quasi-Messergebnisse‚ erzeugt, über die sich zwischen allen Beteiligten eine ‚praktisch hinreichende Einigkeit‚ erzielen lässt, wenngleich diese Einigkeit in der Regel nicht die ‚Präzision‘ hat, wie die technisch vereinbarten empirischen Messverfahren der Wissenschaften.
  21. Schwieriger wird es allerdings dann, wenn jemand ‚Phänomene‘ zu erleben meint, für die sich nicht sofort eine klare Ursache im Körper zuordnen lässt, die sich von anderen in ‚hinreichend ähnlicher Form‘ ’nachvollziehen‘ lässt. So kann es unterschiedliche Formen von ‚Schmerzen‘, ‚Emotionen‘, ‚Gefühlen‘, und ‚Stimmungen‘ geben, die sich nicht sofort ( auch nicht über längere Zeit) bestimmten körperlichen Prozessen zuordnen lassen. Dann wird eine zwischenmenschliche Verständigung schwierig. Der Angesprochene weiß dann nicht, mit welchen seiner ‚Erfahrungen‘ er die Äußerungen des anderen ‚in Verbindung bringen soll‘.
  22. Aus der schwierigen Kommunizierbarkeit von Phänomenen folgt allerdings nicht, dass diese ‚unwichtig‘, ‚unbedeutend‘ sind. Im Gegenteil, es können sehr wichtige Phänomene sein, die bislang – aus welchen Gründen auch immer – einfach von niemandem beachtet werden. So wie generell die Wissenschaft immer wieder neu um die Angemessenheit ihrer bisherigen ‚Terminologie‘ ringen muss, so müssen wir Menschen – insbesondere, wenn wir uns als Philosophen verstehen – unsere bisherigen Sprechweisen immer wieder neu an unseren Phänomenen ‚überprüfen‘.
  23. In diesem Kontext erscheint das ‚Meditieren‘ als eine der radikalsten Formen ‚eines sich seiner eigenen Erfahrung zensurfreien Aussetzens‘. Hier können sich viele Phänomene ereignen, die quer liegen zu den bisherigen Sprechweisen und die von daher neue Ausdrucksweisen erfordern.
  24. Aktuell ist dem Autor keine systematische philosophische Analyse der Phänomene des alltäglichen Erlebens inklusive speziell auch der Phänomene im Kontext von Meditation und Spiritualität bekannt. Zwar gibt es zahllose Artikel und Bücher zu diesem Thema, diese unterscheiden sich jedoch bezüglich Erfahrungskontexten, gewählten Sprachen und Methoden so stark, dass eine verallgemeinerte Aussage über diese Analysen aktuell nicht möglich erscheint; möglicherweise brauchen wir hier ein völlig neues Forschungsprogramm.
  25. Das Thema einer Super-Brückentheorie zwischen äußeren Verhaltensdaten, Körperdaten und Bewusstseinsdaten soll hier nur erwähnt werden. Eine solche Theorie wäre das ferne Ziel, das zu adressieren wäre.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

Die Wiederentdeckung Gottes auf dem Planeten Erde für alle denkbaren Universen. Essay. Teil 2

Wahrheit ist nicht Alles

  1. Im vorausgehenden Teil  ist anhand einfacher Sprachbeispiele aus dem Alltag verdeutlicht worden, was alles zu einer ‚wahren‘ Äußerung gehört, und wie schwierig es ist, dass zwei Menschen die Voraussetzungen zu einer wahren Aussage erfüllen.
  2. In diesem Abschnitt wird aufgezeigt, wie das sprachliche Geschehen eingebettet ist in einen Kontext von Bewusstsein, Gehirn, Körper vielstufiger (hypothetisch angenommener) Außenwelt, die durch vielfältige soziale Strukturen zusätzlich angereichert sein kann und meistens ist. Alle diese Strukturen sind zugleich wirksam und spielen auf je spezifische Weise ineinander. Je mehr man dieses komplexen Netzwerke von Interaktionen versteht, um so mehr erscheint es einerseits fast unmöglich, dass überhaupt sogenannte ‚wahre‘ Aussagen zwischen Menschen zustande kommen können, auf der anderen Seite grenzt es an ein Wunder, wenn sie denn zustande kommen.
  3. Die folgenden Überlegungen erheben nicht (!) den Anspruch auf eine vollständige Erläuterungen aller Details (das müssen standardmäßig die Einzelwissenschaften leisten), sondern bilden den Versuch, die übergreifenden Zusammenhänge sichtbar zu machen, die man verstehen sollte (dazu als Hilfe das Schaubild Nr.1).

    Wissen und das Andere des Wissens
    Bild Nr.1 Wissen und das Andere des Wissens

     

    Wissen

  4. Die Sprachbeispiele aus dem vorausgehenden Abschnitt hatten schon gezeigt, dass man unterscheiden muss zwischen den sprachlichen Ausdrücken E als solchen und dem Sachverhalt Xe in der unterstellten Außenwelt. Dabei wurde ferner deutlich, dass es neben dem eigentlichen Sachverhalt, der in der Außenwelt vorliegen kann oder nicht, eine subjektive Bedeutung Y zum Ausdrucks E geben muss, die der einzelne Sprecher/Hörer für sich gelernt hat. Nur unter Voraussetzung dieser subjektiven Bedeutung Y kann ein Sprecher/ Hörer entscheiden, ob ein wahrgenommener Sachverhalt Xe mit der Bedeutung Y korrespondiert oder nicht. Und da diese Operationen sich nur im Gehirn abspielen können, wird die subjektive Bedeutung Y nicht direkt mit der Außenwelt verglichen, sondern mit der subjektiven Wahrnehmung Xs des unterstellten Sachverhalts Xe. Dass einer subjektive Wahrnehmung Xs tatsächlich ein Xe in der Außenwelt entspricht wird durch die Reaktion anderer Sprecher/ Hörer bestätigt, wenn diese den unterstellten Sachverhalt Xe auch wahrnehmen können.
  5. Diese Überlegungen führten zur Annahme der Menge der Phänomene PH, die jeder Sprecher/ Hörer in seinem Gehirn hat; sie werden entweder von sensorischen Ereignissen gespeist oder von internen Vorgängen im Gehirn (z.B. erinnern). Diese Phänomene sind subjektiv bewusst und konstituieren im Kern das, was man gewöhnlich Bewusstsein nennt. Phänomene können ‚konkret‘ sein, oder verallgemeinerte, abstrahierte ‚Strukturen‘ darstellen oder gar komplexe ‚Modelle‘ sein, innerhalb deren vielerlei Elemente in Beziehung gesetzt werden.
  6. Sofern die Strukturen des Bewusstseins gegenständlich sind, objekthaft, dazu noch verknüpft mit sprachlichen Strukturen, handelt es sich um Strukturen, die Wissen repräsentieren. Man kann z.B. Gegenstände und Eigenschaften benennen, Beziehungen zwischen Objekten, Muster, Abläufe; man kann alternative Szenarien denken oder aktuelle Zustände im Hinblick auf die vorausgehenden Zustände rekonstruieren. Dies alles ergibt aber keinerlei Präferenzen für irgend eine Bevorzugung, für irgend eine Wahl, welche Aspekte des wißbaren Möglichkeitsraumes man ‚bevorzugen‘ sollte. Wissen als solches kann aufzeigen was war oder was möglich ist, es reicht aber nicht aus, eine ‚Richtung‘ für den zukünftigen Prozess anzugeben.
  7. Dazu kommt noch ein limitierender Faktor im Zugriff auf das Wissen. Im Bewusstsein finden sich aktuelle Phänomene, die in diesem Augenblick bewusst sind. Am Beispiel des Phänomens ‚Erinnern‘ wissen wir aber, dass wir aktuell immer nur einen kleinen Bruchteil von all dem bewusst haben, was wir potentiell bewusst haben könnten. Ob wir tatsächlich etwas erinnern können, wissen wir erst, wenn wir wirklich etwas erinnern. Wie groß das tatsächlich abrufbare potentielle Wissen eines Menschen letztlich ist, wissen wir nicht wirklich. Man kann nur Schätzungen berechnen.

    Das Andere zum Wissen

  8. Im Phänomenraum haben wir neben dem ‚Wissen‘ noch andere Phänomene, die hier global als das ‚Andere zum Wissen‚ bezeichnet werden. Es ist eine Vielzahl unterschiedlicher Phänomene, die alle die Eigenschaft haben, dass sie unsere grundlegende Befindlichkeit konstituieren.
  9. Wir können uns eher ‚positiv‘, ‚hoffnungsvoll‘, ‚glücklich‘, ‚freudig‘ usw. erleben oder aber ’negativ‘, hoffnungslos‘, ‚unglücklich‘, ‚freudlos‘ usw.
  10. Zum Teil haben wir den Eindruck, dass das aktuelle Wissen um die Situation und um uns selbst ein Auslöser für die positiven oder negativen Stimmungen sein kann. Dies kann uns zusätzlich anfeuern, inspirieren, unternehmungslustig machen, neugierig, usw. bzw. umgekehrt uns ‚runter ziehen‘, uns ‚lähmen‘, ‚demotivieren‘, usw.
  11. In anderen Fällen sind es körperliche Zustände (‚Schmerzen‘) oder körperliche Vorgänge (‚Hunger‘, ‚Durst‘, ‚Müdigkeit‘, ..), die uns beeinflussen.
  12. In wieder anderen Fällen ist uns möglicherweise nicht direkt klar, was eine bestimmte Stimmungslage in uns auslöst. Der Körper bietet eine Vielzahl von Prozessen, die sich auf unsere Stimmungslage auswirken können, ohne das wir sie unmittelbar in dieser Funktion erkennen könne.
  13. Generell kann man beobachten, dass diese internen Stimmungslagen (mit ihrer riesigen Bandbreite an Varianten) sich grundsätzlich dahingehend auswirken können, ob man überhaupt Wissen entwickelt bzw. was man innerhalb des verfügbaren Wissensraumes präferiert. Diese Einwirkung auf den Wissensraum kann dem Betreffenden weitgehend bewusst sein, oder aber eher nicht, fast unbewusst; die berühmten ‚Bauchentscheidungen‘. Ob eine Entscheidung eher ‚mit Bewusstsein‘ erfolgt oder eher ‚kaum bewusst‘ muss nichts über die Qualität der Entscheidung aussagen.
  14. Dies hat damit zu tun, dass die Einwirkung des bewussten Wissens von Welt und Selbst auch auf die vielfältigen Stimmungsformen einwirken kann und in einer Art ‚emotionalen Speicher‘ abgelegt werden. Wenn es dann um bestimmte bewusste Vorstellungen geht, was man tun sollte, und ähnliche Situationen im emotionalen Speicher vorhanden sind, dann kann sich jemand daran erinnern und auf dieser Basis eine Präferenz entwickeln, die nicht sehr bewusst sein muss, aber verfügbar und wirksam ist.
  15. Die Schwierigkeit bei solchen eher ‚unklaren emotionalen Einwirkungen‘ ist, dass jegliche Form von Wissen automatisch gespeichert wird, also ohne bewusste Entscheidungen. Dies schließt mit ein, dass auch eher zufällige Konstellation abgespeichert werden, obgleich sie vielleicht ’sinnlos‘ oder gar ‚irreführend‘ sind. Wenn man sich dann ‚kritiklos‘, d.h. eher ’spontan‘ auf solche diffusen emotionalen Erinnerungen einlässt, ist die Wahrscheinlichkeit hoch, dass man Präferenzen zulässt, die wenig konstruktiv sind.
  16. Auf der anderen Seite spielt natürlich die Qualität des verfügbaren Wissens eine Rolle. Wenn jemand nur wenig Wissen zur Verfügung hat, das zudem noch sehr einfach, wenig differenziert ist, dann kann diese Person die Welt in ihrer Vielfalt, in ihren tiefen Verflechtungen, kaum oder gar nicht wahrnehmen; kann nicht angemessen verstehen. Dies kann zu groben Vereinfachungen, Entstellungen, Falschurteilen führen, die im eigenen Fühlen sehr schlechte, negative, zerstörerische Stimmungen erzeugen können, die dann das Ganze noch weiter verstärken. Es kann aber auch sein, dass die ‚einfache‘ Sicht einer komplizierten Situation auch positiv wirkt, weil der/ die Betreffende viele Bedrohungen und Gefahren erst gar nicht wahrnimmt.
  17. Interessant ist noch die Variante, dass sich ein schwaches, einfaches Wissen durch zugleich positive Gefühle dennoch in eine gute Richtung entwickeln könnte. Setzt aber voraus, dass die ‚positiven Stimmung‘ im verfügbaren Wissensraum jene Bereiche und Richtungen favorisieren, die grundsätzlich für den/ die Betreffende(n) vorteilhaft sind.
  18. Damit stellt sich die grundlegende Frage, woher unsere Stimmungen kommen? Beim Wissen haben wir gelernt, dass neben körperlich bedingten Besonderheiten, eigene, aktive Lernprozesse den Erwerb und den Aufbau von Wissen ermöglichen. Dies ist kein einliniger Prozess, da er von einer Vielzahl von Faktoren (und ‚Zufällen‘) bestimmt sein kann.
  19. Bei den Stimmungen, Emotionen ist dies weniger klar. Einiges (Bedürfnisse, Triebe) ist durch Körperprozesse gesteuert; anderes hängt von bio-chemischen Prozessen im Gehirn ab; anderes sind angeborene Instinktmuster, die zu Angst, Lachen, Aggression, Wut, Freue usw. führen. Doch lässt sich nicht immer für alle bekannten Stimmungsphänomene eines der bekannten Erklärungsmuster haftbar machen. Im übrigen wäre es natürlich fatal, wenn der Mensch trotz seines elaborierten Wissens über solche angeborenen Muster hinaus keine weiteren Möglichkeiten besitzen würde, wie im Falle des Wissens auch emotional-stimmungsmäßig im echten Sinne ‚lernen‘ zu können. Bei dem engen Wechselspiel von Wissen und Stimmungen im Gesamt des Handelns wäre es eher merkwürdig, wenn dem offenen Wissensprozess nicht auch irgendwo eine ‚Offenheit im Fühlen‘ entsprechen würde. Bislang gibt es in diese Richtung allerdings noch keinerlei Forschung.

    Gehirn im Körper

  20. Was immer wir über das Bewusstsein und den Raum der Phänomene sagen können, gegenüber den Philosophen der vorausgehenden Jahrhunderte und Jahrtausende wissen wir heute, dass das Bewusstsein eine Leistung des Gehirns ist und dieses Gehirn wiederum ist eingebettet in einen komplexen Körper, der wiederum Teil einer (unterstellten) intersubjektiven Außenwelt ist.
  21. Die modernen Forschungen zum Gehirn und zum Körper haben in diesem Feld auch immer mehr Funktionalitäten am Gehirn aufgedeckt und das Zusammenspiel von Bewusstsein und Gehirn sowie Gehirn und Körper in ersten Ansätzen sichtbar gemacht. Durch die prinzipielle Nicht-Messbarkeit von Bewusstseinsphänomenen ist eine Forschung zum Zusammenhang von Bewusstsein einerseits und Gehirn/ Körper andererseits (Neuropsychologie, Neurophänomenologie) zwar notorisch schwierig, aber immerhin mehren sich Hinweise auf allerlei Wechselwirkungen.
  22. Die wichtigste Einsicht ist wohl jene, dass die bewussten Bilder von der Welt, die wir haben, nicht die Welt selbst sind, sondern jene Bilder/ Modelle, die das Gehirn aufgrund der vielen sensorischen und propriozeptiven (sensorische Daten aus dem Körper) Daten eigenständig interpretiert und zusammenbaut. Dass der einzelne im Alltag weitgehend mit der Illusion leben kann, dass er die ‚reale‘ Welt sieht und nicht nur ein virtuelles Gehirn-Modell der Welt demonstriert, wie gut die Gehirne im Laufe von vielen Millionen Jahren sich entwickelt haben.
  23. Für das praktische Überleben in dieser Welt ist diese Fähigkeit des Gehirns von einer kaum zu überschätzenden positiven Bedeutung. Der Nachteil an dieser Funktionsweise ist, dass all das Wissen, das Menschen sich aufbauen, sich ebenfalls an den virtuellen Bildern des Bewusstseins orientiert und eine Diskrepanz mit der realen Welt nicht so ohne weiteres auffallen muss.
  24. Dass Menschen sich ganz eigenwillige Modelle der Welt in ihrem Kopf zurecht legen, die sie für ‚wahr‘ halten, können wir in allen Jahrhunderten und heute in der ganzen Welt beobachten. Diese Weltbilder können ziemlich verschroben sein, aber Menschen schaffen es, mit solchen verschrobenen Bildern ihre Welt zu sehen, danach zu handeln, und andere Menschen nach diesen falschen Bildern zu be- oder dann auch zu verurteilen.

    Evolution Total

  25. So viel schon ein einzelner Körper, ein einzelner Organismus über die Welt erzählen kann, so richtig spannend wird es erst, wenn man die Dimension der Zeit hinzu nimmt.
  26. Als die Geologen entdeckten, dass die verschiedenen Ablagerungsschichten des Erdreichs aus unterschiedlichen Zeiträumen stammen, dass diese nicht nur ein paar tausend, sondern viele Millionen oder gar Milliarden Jahre auseinander lagen, da eröffnete sich für die Wissenschaft eine grandiose neue Perspektive.
  27. Mit dem immer besseren Verstehen der Erdentwicklung, der Plattenverschiebungen, der unterschiedlichen Erdteile, der z.B. rabiaten Klimaschwankungen zwischen Eiszeiten (bis zu vielen Millionen Jahren) und Warmzeiten, Meerespiegel Abfällen und Aufstiegen, Erdbeben, Vulkanismus eröffnete sich auch für die Wissenschaften vom Leben (Biologie, …) neue Ansatzpunkte, auch die Entwicklung des Lebens selbst in den verschiedenen Phasen besser untersuchen zu können.
  28. Parallel deckte auch die Physik auf, dass das ganze Universum zu sehen ist als ein gigantischer Prozess mit einem messbaren Anfang genannt ‚Big Bang‘, der dann über die Entstehung der Atome und Moleküle zu Staubwolken führte, Sternentstehungen, Planeten, Galaxien, die sich voneinander immer mehr entfernen. Außerdem lernte man, dass der Prozess der Sternentstehung und des Sternesterbens nach bestimmten Regeln abläuft, die bis heute wirksam sind. So wird unsere Heimatsonne in ca. 0.9 Mrd Jahren ab heute die kritische Temperaturgrenze für höhere Lebewesen von +30o erreichen, was ein Leben auf der Erde schwer bis unmöglich machen wird (Siehe: Wikipedia-DE, Sonne, 2017).
  29. Eine wichtige Botschaft aus all diesen neuen Erkenntnissen ist, dass das biologische Leben zu einer Steigerung der Komplexität auf der Erde geführt hat, die nahezu unvorstellbar ist. Die Komplexität eines einzelnen menschlichen Körpers entspricht in etwa 120 Galaxien im Format der Milchstraße. In jeder Sekunde redet eine Zelle im Gehirn mit bis zu 100.000 anderen Zellen im Gehirn bei einer geschätzen Gesamtzahl von ca. 80 – 100 Milliarden Gehirnzellen. Gleichzeitig kommuniziert eine einzelne Körperzelle (geschätzte Anzahl ca. 34 Billionen (= 34 x 1012) mit bis zu mehreren Millarden anderen Zellen über chemische Botenstoffe. Ein vollständiges Verständnis all dieser Vorgänge entzieht sich bislang dem wissenschaftlichen Verständnis.
  30. Innerhalb dieser allgemeinen Komplexitätszunahme gibt es ferner das Phänomen des sprachlichen Denkens bei homo sapiens. Diese extrem späte Lebensform kann die ‚Gegenwart im Wahrnehmen und Denken‘ dadurch überwinden, dass er mittels eines ‚Gedächtnisses‘ aktuelle Gegenwarte abspeichern und diese dann mit der jeweils neuen Gegenwart vergleichen kann. Dadurch lassen sich Veränderungen erfassen, Muster, Strukturen, Beziehungen, Regeln und vieles mehr. Auf diese Weise kann der homo sapiens die biologische Veränderungsgeschwindigkeit durch Vererbung über Generationen extrem beschleunigen. Im Prinzip kann er sofort Änderungen bewirken.
  31. Zugleich hat homo sapiens neue Technologien entwickelt, die Prinzipien biologischer Strukturen in Form von künstlichen Maschinen in neuer Form verfügbar macht. Dazu gehören Computer, Datenspeicher und Datennetzwerke. Damit konnte er die Veränderungsgeschwindigkeit nochmals erheblich steigern, so stark, dass er selber jetzt ein Bewältigungsproblem hat. Im Wissen des homo sapiens kann sich quasi das ganze Universum wie in einem Spiegel selbst anschauen und bei vollem Bewusstsein sich selbst umbauen. Fragt sich, wohin dies führen wird.

Für eine Fortsetzung siehe HIER.

Pausenmusik 🙂

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER