INGENIEURE UND DAS GLÜCK? Online-Vortrag vom 12.1.2021

— Dieser Text ist keine 1-zu-1 Wiedergabe des Live-Vortrages. Er wird noch weiter ergänzt werden, da das Thema für den Autor auch unabhängig von dem Vortrag wichtig ist —

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 12.-15.Januar 2021
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

KONTEXT

Dieser Text ist die schriftliche Fassung eines Vortrags, den ich am 12.Januar 2021 17:00 – 19:30h im Rahmen einer Vortragsreihe von Studierenden der Universität Leipzig gehalten habe. Ich persönlich halte es für wichtig, Initiativen von Studierenden zu unterstützen. Der volle Titel des Vortrags lautet:

INGENIEURE UND DAS GLÜCK

Wie können Ingenieure im Rahmen der Disziplin
Mensch-Maschine-Interaktion dazu beitragen, die Möglichkeiten der
Technik für ein gutes, glückliches Leben der Menschen zu nutzen?

POSITION DES AUTORS

Jeder Zuhörer — und dann auch vielleicht Leser — dieses Vortrags mag sich spontan fragen, was den Autor dazu antreibt, über ein Thema wie Ingenieure und das Glück zu sprechen? Zumal der Autor — wie aus den beiden Blogs cognitiveagent.org [DE] und uffmm.org [DE] ersichtlich — nicht dem klassischen Bild des Ingenieurs entspricht. [1] Er begann als Theologe und klassisches Philosoph, migrierte zur Wissenschaftsphilosophie und promovierte mit einem Thema zur Beweistheorie (Teil der formalen Logik). Er war dann jahrelang wissenschaftlich tätig im Bereich Kognitionswissenschaft und ist seit 2002 Professor für Informatik. Neben unterschiedlichen Disziplinen waren seine Hauptgebiete Mensch-Maschine Interaktion [HMI], Künstliche Intelligenz [KI] und Simulation. Nach seiner Emeritierung arbeitet er — neben einzelnen Lehrveranstaltungen — noch weiter an wissenschaftsphilosophischen Themen und an einer Theorie des Integrierten Engineering mit den Teilaspekten Human-Maschine Intelligence [HMInt] als Teilaspekt des Themas Human-Machine Interaction [HMI]. Hier entwickelt er auch seit September 2020 (zusammen mit Tobias Schmitt) eine neue Software, die die Umsetzung dieser Theorien im Alltag unterstützen soll.

Die meisten Zuhörer — oder Leser — dieses Beitrags werden sich vermutlich fragen, was hat ausgerechnet ein Ingenieur mit dem Thema Glück zu tun? Einen Ingenieur assoziiert man eher mit dem Thema Technik und Technik gilt für viele nicht als besonders ‚Glück affin‘.

Es ist das Ziel dieses Beitrags, sichtbar zu machen, dass Ingenieure sehr wohl etwas mit dem Thema Glück zu tun haben, vielleicht sogar viel mehr als die meisten, die für sich in Anspruch nehmen, Experten*innen für das Thema Glück zu sein.

DAS WORT GLÜCK

Das Wort Glück ist vermutlich das viel-schillerndste Wort, was wir in der deutschen Sprache haben.[2] Und ein kurzer Blick in den Alltag und die Geschichte zeigt, dass man im Zusammenhang mit dem Begriff Glück nicht gerade alles finden kann, was es gibt, aber doch so Vieles und Unterschiedliches, dass man vorsichtig sein sollte, zu schnell mit einer einfachen Definition zur Hand zu sein.

…IN DER GESCHICHTE

Das Thema Glück gibt es — traut man den vielfältigen Zeugnissen — solange es Menschen gibt, die davon auf irgend eine Weise Zeugnis abgelegt haben. Wir können die großen Mythen durchwandern, Kunst allgemein, Theater und Literatur speziell, kulturelle Großereignisse, die europäische und indische Philosophie, Spiritualität und Mystik …. heute auch moderne Erzählformen wie Comics, Filme, Computerspiele, die von hunderten von Millionen Menschen konsumiert werden. Die Vielzahl an Ansichten, Sichten, Formen, Szenarien ist überwältigend. Wenn wir spielerisch die Ansicht des Aristoteles in seiner Schrift Hermeneia folgen [15], dann sind die vielfältigen Zeugnisse Ausdruck der Seele des Menschen, das, was sie innerlich betrifft, beschäftigt. Und wir tun wahrscheinlich gut daran, zuzuhören, zuzusehen, wie sich die Seele des Menschen, sein Inneres in diesem anschwellenden Strom der Zeiten ausdrückt.

… IM ALLTAG

Im eigenen Alltag wirkt alles oft viel banaler; die Aura des besonderen Ausdrucks, die künstlerisch veranlagten Menschen eigen ist, ist im Alltag eher stumm; und doch sind es immer noch wir Menschen, die da handeln und erleben.

Körperliche Bedürfnisse die beunruhigen und quälen können, kennt wohl jeder, auch das angenehme Gefühl, wenn man bei Durst, Hunger, Schlaflosigkeit usw. entsprechende Entspannung beim Trinken, Essen oder im Schlafen finden kann.

Es gibt aber auch Gefühle wie Angst, Wut, Enttäuschung, Hoffnung, denen unterschiedliche Ereignisse korrespondieren können: Angst kann man vor Tieren, Menschen, Situationen oder einfach Gegenständen haben. Wut kann sich gegen einen selbst richten, gegen andere, gegen die Verhältnisse schlechthin, … Enttäuschungen können Kinder empfinden, Erwachsene, Ältere bei nahezu unendlich vielen Dingen. Enttäuschungen gehen meist Hoffnungen, Erwartungen voraus. usw.

Ein Sammler von Uhren freut sich über eine seltene Uhr, ein Briefmarkensammler nicht. Ein Fußballfan lebt mit seiner Mannschaft, der Fan eines Sängers, einer Sängerin nicht. Er/Sie leidet mit den Ereignissen um das Idol.

Die Anhänger einer bestimmten politischen Richtung können furchtbar enttäuscht werden, wenn bei einer Wahl die andere politische Richtung gewinnt; es kann zu Aggressionen und Ausschreitungen kommen. Der Anhänger einer bestimmten religiösen Glaubensrichtung kann für seinen Glauben leiden, dienen, aber auch Glücksmomente erleben, selbst bei Verfolgung und Tod; Berichte von Märtyrern gibt es genug.

Es gibt Menschen, die leiden grundsätzlich an ihrer Situation (klischeehaft: die Pessimisten), andere (klischeehaft: die Optimisten) sehen überall Chancen und partielles Glück. Als junger Theologiestudent konnte ich im Rahmen eines Praktikums mal 6 Monate lang kranke Menschen über 65 in einem bestimmten Stadtteil in einer großen Deutschen Stadt besuchen. Eine Erfahrung hat mich damals sehr beeindruckt: es gab Menschen, die nicht unbedingt sehr krank waren, diese Menschen hatten aber eine dermaßen nieder ziehende Wirkung auf meine Gefühle, dass ich danach stundenlang ziemlich fertig war. Dann gab es andere Menschen, die tatsächlich schwer krank waren, bisweilen todkrank, die hatten aber eine Ausstrahlung, dass ich mich anschließend fast glücklich fühlte. Vielleicht haben Sie dies in ihrem Leben auch schon Ähnliches erlebt. Wir Menschen können für andere Quelle von guten Gefühlen sein, von Glücksgefühlen, oder auch das Gegenteil.

Dann gibt es dort die alten Bilder von Menschen die Macht und Reichtum anhäufen und zugleich alles andere als glücklich erscheinen, und jene, die fast nichts zu haben scheinen, und doch glücklich zu sein scheinen. Gewiss, dies ist eine gefährliche Metapher dann, wenn sie dazu benutzt wird, die Existenz von Armut zu rechtfertigen, aber hier, in diesem Kontext geht es zunächst einmal darum festzuhalten, dass das Vorhandensein von äußeren Gegebenheiten nicht notwendigerweise Glück garantieren muss.

Die einen lieben das Meer, andere die Berge. Die einen suchen das Land jenseits der Städte, andere wollen unbedingt in die Stadt. Die einen … die anderen …

In all diesen Alltagsfragmenten deutet sich an, dass wir in der Regel mindestens zwei Komponenten haben: (i) auf der einen Seite innere Gefühlszustände eines Menschen und (ii) sehr oft, vielleicht meistens auch, äußere Gegebenheiten, die irgendwie als zusammenhängend mit den inneren Zuständen gesehen werden.

Gibt es in dieser Alltags-Weltlichen Vielfalt irgendwelche Koordinaten, einer allgemeineren Struktur? Was können hier die Ingenieure leisten?

INGENIEURE

Mein Heimatfachbereich an der Frankfurt University of Applied Sciences [FUAS] [4] war der Fachbereich 2 für Informatik und Ingenieurwissenschaften.[5] Obgleich sich hier schon viele Themen aus dem Bereich Informatik und Ingenieurswissenschaften finden [6] ist dies nur ein winziger Ausschnitt aus dem schier unfassbaren großem Spektrum an Themen, die Ingenieure heute bearbeiten. Und wenn wir jetzt gemeinsam anfangen würden, unsere alltägliche Lebenswelt durchzumustern, dann würden wir feststellen, dass es fast nichts gibt, wo nicht irgendwelche Ingenieure ihre Hand mit ihm Spiel haben. Dabei sind viele Produkte oder Verfahren gar nicht mal direkt sichtbar, da sie sich hinter alltäglich gewohnten Oberflächen verbergen.

Wenn uns auch hier, im Fall der Ingenieure, eine solche Vielfalt wie beim Phänomen Glück begegnet, kommen wir hier dann nicht buchstäblich ‚vom Regen in die Traufe‘, wie ein altes Sprichwort sagt: tauschen wir also das Universum der alltäglich möglichen Glücksphänomene auf Seiten der Ingenieure nur ein mit einem neuen Universum von möglichen Produkten, Verfahren und Dienstleistungen ohne eine klare erkennbare Struktur zu finden, die irgendwelchen Halt für Erkenntnisse geben könnte?

Offen ist auch noch die Frage, wie wir Ingenieure abgrenzen können oder gare müssen gegenüber Wissenschaftlern, gegenüber Philosophen oder gar gegenüber Künstlern? Kann man sie überhaupt abgrenzen?

DER FAKTOR MENSCH: HCI, HMI

Ein erster Anhaltspunkt für den weiteren Gedankengang bietet der Untertitel meines Vortrags der da lautet: Wie können Ingenieure im Rahmen der Disziplin Mensch-Maschine-Interaktion dazu beitragen, die Möglichkeiten der Technik für ein gutes, glückliches Leben der Menschen zu nutzen?

Alle Ingenieurtätigkeiten fallen unter ein großes Thema: Wie komme ich von einem gestellten Problem zu dessen Lösung? Das zentrale Werkzeug jeder Ingenieurlösung ist zuallererst der Ingenieur selbst! Sein Wissen, seine Erfahrungen, seine Emotionen, seine Sprachfähigkeit usw. bilden das Medium, das seine Kommunikation mit anderen ermöglicht, gemeinsame Analysen, Planungen und Implementierungen. Ohne Ingenieure passiert gar nichts. Richtig ist natürlich auch, dass der beste Ingenieur nichts nützt, wenn es keine passende Umgebung gibt. Der Biologe und Philosoph von Uexküll hatte 1909 das Konzept der komplementären Umgebung zu einem biologischen System eingeführt [7][7b], und dies gilt für alle biologischen System, auch für den homo sapiens, auch für solche Menschen, die über spezielle Fähigkeiten verfügen wie z.B. für einen Ingenieur. Ein erfahrener Ingenieur kann in der richtigen Umgebung in 20 – 30 Jahren so viel Erfahrungen, so viel Wissen, so viele Fähigkeiten erwerben, dass er — falls er in einer geeigneten Umgebung lebt –, damit großartige Dinge erschaffen kann, noch mehr in Zusammenarbeit mit anderen, wenn diese Zusammenarbeit funktioniert.

Es verwundert jetzt vielleicht nicht, wenn ich sage, dass die Ingenieure seit ca. 80 Jahren begonnen haben, die Gesamtheit ihres Wissens zum Problemlösen zu systematisieren. Die Überschrift über diese Aktivitäten lautet Systems Engineering.[8], [8b], [10] Ein stark vereinfachtes Schema des Systems Engineering Prozesses zeigt das folgende Schaubild.

Bild zum stark vereinfachten Schema des Systems Engineering Prozesses [SEP]. Das Akronym ‚AAI‘ steht hier für Actor-Actor Interaction, eine andere verallgemeinernde Bezeichnung für HCI/ HMI. Das klassische Schema hier Mench, hier Maschine wird hier zu Akteur-Akteur verallgemeinert, da Maschinen hier als (lernfähige) Input-Outputsysteme gesehen werden, die im Kontext von Mensch-Maschine genauso Akteure sind wie Menschen. Mit dieser neuen Begrifflichkeit kann man das HCI/ HMI Paradigma auf der theoretischen Ebene verallgemeinern.

Während das Bild den Eindruck erweckt, dass der Weg vom Problem zur Lösung linear verläuft, sind aber alle Prozesse stark repetitiv, zyklisch, iterativ. Dies liegt daran, dass komplexe Problemstellungen sich nicht sofort auf einen Schlag analysieren und synthetisieren lassen. In der Regel erfolgt eine approximierende Analyse vom Einfachen zum Komplexen.

Während das Thema Handhabung von Werkzeugen/ Maschinen/ Verfahren schon immer ein Thema war verbunden mit entsprechenden Schulungen, führte die Einführung des Computers ab ca. 1945 dazu, sich verstärkt Gedanken über den benutzenden Menschen zu machen. Und je mehr der Computer als Gerät in den vielfältigen Alltag mit seinen bisweilen komplexen Verhaltensabläufen vordrang, um so mehr wurde plötzlich der Mensch als Benutzer/ Anwender (‚user‘) zu einem eigenständigen Thema. Die Disziplin Human-Computer Interaction [HCI] oder auch Human-Machine Interaction [HMI] war geboren.[9], [9b], [9c]

Während die Disziplin HMI/ HCI nicht notwendigerweise als Teil des Systems Engineerings behandelt werden muss, spricht vieles dafür, es so zu handhaben. Ich selbst habe dies Strategie von ca. 2005 bis 2018 verfolgt.[10]

Das folgende Schaubild lässt ein wenig erkennen, was es heißt, dass der Mensch immer mehr in den Fokus der planenden Ingenieure gerät:

Vereinfachtes Schema zur Interaktion von Menschen (handelnder Akteur, executive actor) und technischen Systemen (unterstützender Akteur/ assisting actor). In diesem Schaubild steht ‚HS Society‘ für eine Gesellschaft, die durch die Lebensform homo sapiens [HS] gebildet wird. Eine Problemstellung umfasst einen aktuelle Ausgangslage und eine Vision, wo es hingehen soll. Die Vision des zukünftigen Zustands wird in Form einer Geschichte, einer Actor Story, dargelegt. Letztlich beschreibt die Actor Story das Verhalten aller beteiligten Akteure mit Bezug auf ihre Schnittstelle zum Prozess: Der Anwender (executing actor) erlebt ja nicht das System direkt, sondern nur die Oberfläche/ Schnittstelle/ das Interface (system interface [SI]), über die/das der Anwender mit dem System (assisting actor) durch Interaktionen kommuniziert. Umgekehrt beschreibt die Actor Story auch nicht den ausführenden Akteur/ den Anwender direkt als System sondern auch hier nur seine Oberfläche/ sein Interface (user interface [UI]) , mit der er mit anderen Akteuren interagiert/ kommuniziert. Die hier angesprochene Actor Story ist zu unterscheiden von jenem Prozess, den die Experten selbst durchlaufen, um die Actor Story konstruieren zu können. Dieser andere Prozess wird weiter unten beschrieben.

USABILITY – BENUTZBARKEIT – IMPLIZITE WERTE

Was immer Ingenieure entwickeln, sie müssen es soweit testen/ evaluieren/ bewerten, dass aus diesem Bewerten hervorgeht, ob das Ziel der Problemstellung erreicht wurde oder nicht. Dabei bezieht sich der Ingenieur auf zwei unterschiedliche Kriterienkataloge: (i) jene, die sich aus der Actor Story als konkrete Anforderungen ergeben, und (ii) jene, die sich aus gesellschaftlichen Vorgaben ergeben. Um die Anforderungen zu testen, die sich aus der Actor Story ergeben, müssen diese symbolischen Beschreibungen der intendierten Akteure und ihrer Handlungen in der realen Welt mittels realer Mock-ups und realer Testpersonen quasi nachgestellt werden. Im Rahmen eines Benutzbarkeitstests (usability test) versuchen Testpersonen unter Aufsicht eines Versuchsleiters (facilitator) und unter den Augen von zusätzlichen Beobachtern (observer) Aufgaben aus der Actor Story auszuführen. Abweichungen von der Actor Story gelten als Fehler.

Struktur von Benutzbarkeits-Tests und implizite Normen. Wenn man unterstellt, dass die impliziten Normen mit Dingen/ Dienstleistungen zu tun haben, die Menschen für sich als positiv bewerten, dann können diese positiv bewerteten Normen mindestens in die Richtung von möglichem Glück deuten.

In den meisten Fällen wird heute immer nur ein Test gemacht und berichtet. Der Mensch ist aber grundlegend lernfähig. Stößt ein Mensch auf ein Problem, macht er einen Fehler, dann wird er diesen Fehler beim nächsten Mal normalerweise nicht mehr machen oder zumindest nach wenigen Wiederholungen nicht mehr. Und da anspruchsvolle, komplexe Systeme viele Aspekte umfassen, können diese normalerweise nicht durch einen einzigen Durchlauf gelernt werden; es bedarf vieler Lerndurchläufe. Bei einem Usability-Test geht es also nicht darum, ob eine bestimmte Person ein bestimmtes System einmal testet, sondern die interessante Frage ist die Folgende: (i) Lässt sich die Benutzung eines Systems überhaupt lernen und wie schnell? (ii) Wie lernfähig ist eine bestimmte Person? Das beste System nützt nichts, wenn der Anwender eine zu geringe Lernfähigkeit aufweist, und umgekehrt, die beste Lernfähigkeit auf Seiten des Anwenders nützt nichts, wenn das System einfach zu unübersichtlich, zu komplex ist, bis man es erlernen kann. Für diesen dynamischen Charakter des Actor-Actor Interaction (Mensch-Maschine, HCI/HMI) Paradigmas gibt es bislang so gut wie keine Standards (außer dem, was Psychologen standardmäßig in ihren Lern-Experimenten machen)

Die implizite Logik von Benutzbarkeits-Tests. TAS := Text-Version einer Actor Story, MAS := Mathematische Version, PAS := Pictorial = Bildhafte Version.

BENUTZBARKEIT UND GESELLSCHAFT

Wie schon zuvor angedeutet, muss der Ingenieur im Rahmen der Disziplin HCI/ HMI nicht nur die Anforderungen der Actor Story für eine Bewertung berücksichtigen, sondern zugleich — eher sogar zuerst (!)– gesellschaftliche Anforderungen, die z.B. in Form von rechtliche bindenden Verordnungen vorliegen können oder z.B. als ethische Anforderungen seines Berufsverbands.[21], [22], [23] Damit deutet sich an, dass es bei der Zielsetzung einer technischen Entwicklung nicht darum gehen kann, diese Aufgabe isoliert von der umgebenden gesellschaftlichen Situation zu sehen. In den letzten Jahren erweitert sich daher die Perspektive von HCI/ HMI zu dem erweiterten Kontext der umgebenden Gesellschaft.[11] , [11b] Für eine Arbeitsgruppe hatte ich mal folgende Skizze angefertigt:

Skizze zur Schnittstelle zwischen Gesellschaft und Technik ‚by design‘ innerhalb des Rückkopplungssystems Technik – Gesellschaft/ Natur und produzierenden Firmen.

In der Mitte der Skizze sieht man den Systems-Engineering Prozesspfeil. Sein Input kommt aus den Anforderungen (‚Requirements‘) der eigenen Firma aber auch von den Anforderungen der umgebenden Gesellschaft, speziell auch durch verabschiedete Gesetze. Die Ingenieure müssen versuchen, aus der Summe dieser Anforderungen (‚by design‘) technische Lösungen zu generieren, deren Wirkungen auf die Märkten wie auch auf die umgebende Natur und Gesellschaft möglichst nachhaltig sein sollten und möglichst wenig Schäden hervorrufen sollten. Ein offenes Problem ist es, welche Mechanismen in einer Gesellschaft existieren, welche möglichen negativen Auswirkungen festgestellt werden können und wie solche Feststellungen dann in eine entsprechende gesellschaftliche Willensbildung so umzuformt werden können, dass die durch Ingenieure verantworteten Entwicklungsprozesse möglichst nachhaltige Produkte erzeugen können.

DIGITALE SKLAVEREI vs. DIGITALES EMPOWERMENT

Struktur der digitalen Sklaverei entsprechend der Definition der UN — die u.a. von Deutschland unterschrieben wurde [24], [24b],[25] — am Beispiel globaler Internetplattformen, die man im Rahmen des Alltags eigentlich nutzen muss, aber die man nur nutzen darf, wenn man persönliche Rechte abtritt.
Überwindung der digitalen Sklaverei durch digitales Empowerment, indem die persönlichen Daten auf digitalen Plattformen nur so behandelt werden, wie es der Anwender möchte (Idee: die Plattform gehört den Bürgern)

KOMMUNALE PLANUNG UND BÜRGER?

Mit der Ausdehnung des gesellschaftlichen Einflussbereichs auf potentielle Entwicklungsprozesse stellt sich irgendwann die Frage, wie sich die HMI-Expertengruppe eigentlich zusammen setzen soll? Schon in den 70iger und 80iger Jahren des 20. Jh waren die HMI-Experten vielfach und sogar überwiegend nicht mehr nur Ingenieure im klassischen Sinne sondern arbeiteten in Teams mit Psychologen in unterschiedlicher Ausprägung. Eines der einflussreichsten Bücher aus dieser Zeit heißt daher auch nicht zufällig The Psychology of Human-Computer Interaction. [12] Heutige HMI-Teams sind ebenfalls sehr gemischt.

Mit der immer stärker werdenden Verflechtung der Technologie mit der Gesellschaft stellt sich die Frage umso dringlicher und vielleicht noch radikaler..

Ich selbst wurde im Frühjahr 20218 als Informatiker (und für diese Veranstaltung speziell als KI Experte) von Städteplanern zu einer Konferenz eingeladen, in der es um die Planung resilienter Städten ging.[27] Auf den ersten Blick hat dies mit Computern nicht direkt etwas zu tun. Auf den zweiten Blick aber sehr wohl. Städte bilden eine aufregende Mischung aus einer Unzahl technischer Systeme (ein Haus ist heute ein hochkomplexes System, Verkehrsmittel, Versorgungseinrichtungen, usw.), die von einer immer größeren Zahl von Menschen alle gleichzeitig auf vielfache Weise genutzt werden. Es geht also um verteilte technisch Systeme mit verteilten Benutzern. Zusätzlich herrscht eine hohe Veränderungsdynamik, und alle Phänomene zusammen sind so komplex, dass heute weder ein einzelner Mensch noch eine beliebige Gruppe von Menschen — dazu zählen auch die vielen Behörden — realistischerweise all dies noch angemessen verstehen und planen kann.

Die lebhaften Diskussionen während dieser Konferenz führten zur spontanen Gründung einer Fachgruppe Kommunalplanung und eGaming am Forschungsinstitut der Architekten FFin an der FUAS.[13] Dies führte im Sommersemester 2019 zur Einführung eines neuen Moduls Kommunalplanung und Gamification. Labor für mehr Bürgerbeteiligung im Rahmen des interdisziplinären Studium Generale [ISG] der FUAS.[14]

Ziel der Arbeitsgruppe war und ist es, die Methode des Systems Engineering mit den Ingenieur-Experten als Handelnden so weit zu verallgemeinern, dass jeder Bürger als Experte gesehen werden kann, der zusammen mit anderen Bürgern auf neue Weise seine Zukunft mehr als bisher selbst gestalten kann.

Ein solches Ziel erscheint äußerst sinnvoll bedenkt man, wie wenig bislang die Bürger einer Kommune am tatsächlichen Planungsgeschehen beteiligt sind. Zugleich sind aber die bisherigen Gremien aufgrund ihrer begrenzten Ressourcen und Kompetenzen permanent überfordert. Und die junge Generation, für die die Fragen der Zukunft von höchster Bedeutung sind, die ist überall mehr oder weniger vollständig abseits des kommunalen politischen Geschehens.

DIGITALES EMPOWERMENT – EINE ANNÄHERUNG

Wiederholung des Bildes eines Digital Empowerments von Bürgern

Die ersten zwei Semester unseres forschenden interdisziplinären Lehrexperiments haben gezeigt, dass unsere Vermutung nicht ganz falsch sind. Wir benutzten dabei als Lernform die Form des Planspiels. [28]

Lernform Planspiel [28]

Das Auftreten der Corona-Epidemie kurz vor Beginn unseres 3.Semesters erwies sich im Nachhinein als eine starke Beschleunigung unseres Experimentes, da wir dadurch gezwungen wurden, kommunale Planungsprozesse als verteilte Planungsprozesse zu behandeln, die sich online praktizieren lassen.

Idee vom Mai 2020 für eine digitale Umgebung wie Studierende ihre Ideen gemeinsam teilen und ausprobieren können

Allerdings wurde uns klar, dass eine normale online-Konferenz, obwohl sie im Prinzip alle Möglichkeiten bot, die man für ein Planspiel benötigt, letztlich für das Konzept einer umfassenderen Bürgerbeteiligung — auch im Lichte der Engineering-Prozesse — unbefriedigend ist. Die Idee einer eigenen unterstützenden Software — die auch als Teil der Theorie zu einem integrierten Engineering schon immer als Forderung existiert hatte — wurde stärker und konkreter. Im September 2020, noch im Vorfeld des kommenden 4.Semesters, begann die Arbeit an einer speziellen Software (Doeben-Henisch, Tobias Schmitt).[29]

OKSIMO RELOADED – EINE SOFTWARE IST VERFÜGBAR

Der Name der neuen Software ist oksimo, aber da es vom Autor vor vielen Jahren ein Softwareprojekt gleichen Namens [20], allerdings mit einer vollständig anderer Architektur, gab, ist es korrekter von der aktuellen Software als oksimo reloaded Software zu sprechen.

Erste einfache Version der oksimo-reloaded Software vom 3.Januar 2021 [16]. Zwei weitere Ausbaustufen sind fest vorgesehen: (i) Parameterraum und (ii) KI.

Für die Studierenden wurde eine erste Version von oksimo reloaded am 6.Januar 2021 verfügbar. Ab dann konnten sie ihre Konzepte auf dem Server direkt ausprobieren. Parallel gab es eine Arbeitsgruppe des zevedi mit Standort im INM Frankfurt, die am Konzept einer Bürgerbeteiligung unter Zuhilfenahme der oksimo Software mit Bürgern aus einer hessischen Kleinstadt arbeitet.

ERKENNTISTHEORETISCHES

Da die neue Software in mehrfacher Weise einen radikalen Paradigmenwechsel vollzieht, gibt es verständlicherweise eine Reihe von Fragen, über die die meisten am Anfang stolpern. Eine Frage bezieht sich auf die Eigenschaft, dass der Benutzer dieser neuen Software keinerlei Programmiersprache benötigt, sondern nur seine Alltagssprache, und zwar nicht eine einzige, sondern jede ist möglich! Ob Deutsch, Englisch, Russisch, Chinesisch, Arabisch, das geht alles ohne irgend eine Änderung. Eine andere Frage bezieht sich darauf, was denn genau die Software beiträgt; wie kann sie normale Sprache verarbeiten? Die Antwort ist einfach: die Software muss überhaupt keine normale Sprache verarbeiten (was ja bekanntlich die besten Programme dieser Welt bisher nur sehr eingeschränkt können; letztlich gibt es noch kein einziges Programm weltweit, was tatsächlich normale Sprache unter voller Einbeziehung der Bedeutung verarbeiten kann. Es gibt bislang nicht einmal eine Idee, wie das gehen sollte, trotz vielen Hunderten von Artikel und Bücher zum Thema Sprachverarbeitung.). Die Faustregel lautet: Alles, was Anwender mit dem Programm machen können, können Sie auch ohne dieses Programm machen. Warum also überhaupt diese Software? Die Antwort ist einfach: sobald die Menge der benutzten Aussagen zunimmt (was schnell geschehen kann), dann wäre eine rein manuelle Verarbeitung rein praktisch immer schwieriger bis praktisch unmöglich. In diesen Fällen kann man sich ganz entspannt zurück lehnen und den Computer für sich arbeiten lassen. Im übrigen ist das Ziel eines Einsatzes dieser Software gerade nicht, den Menschen zu ersetzen, sondern ganze Gruppen von Menschen anzuregen und zu befähigen, mehr als bisher miteinander ihr Wissen zu teilen, um damit ein Stück mehr mögliche gemeinsame Zukünfte sichtbar zu machen.

Grobe Skizze der erkenntnistheoretischen Annahmen der oksimo Software. Für eine weitere Erläuterung siehe den Beitrag MENSCH-MENSCH COMPUTER. Gemeinsam Planen und Lernen. Erste Notizen. von Gerd Doeben-Henisch.[26]

Für ein grundsätzliches Verständnis ist es wichtig, dass man sich klar machen, dass die gesprochenen Schallwellen von Sprache oder die geschriebenen Zeichenketten als solche keinerlei Bedeutung besitzen! Einzig und alleine aufgrund der Korrespondenz der externen Laute oder Zeichen mit internen Sprachrepräsentationen, die wiederum über interne Bedeutungsbeziehungen mit internen Wissensbeständen assoziiert sind können die externen Vorkommnisse eine Bedeutung im Gehirn der Sprecher/ Hörer besitzen. Obwohl die internen Lernprozesse individuell verschieden sind, ermöglichen die gemeinsamen Gehirnstrukturen, die gemeinsamen Sprachstrukturen sowie ähnliche externe Erfahrungsräume für viele Fälle hinreichend ähnliche Bedeutungsstrukturen, die als Grundlage für ein gemeinsames Verstehen dienen können. Während also Menschen aufgrund ihrer erworbenen Sprachkompetenzen die Laute und Zeichen der ihnen vertrauten Sprache einfach so verstehen können, müsste man die — weitgehend unbewussten — Wissens- und Sprachstrukturen von Menschen erst in Computer hinein programmieren; ein bis heute ungelöstes Problem und in sich auch völlig unsinnig, besitzen doch die Menschen schon eine exzellente Sprachkompetenz (eine erste grundlegende Auseinandersetzung mit dem Thema, ob und wie Computer lernen können wie Menschen, findet sich von Alan M.Turing selbst 1948 in einem Bericht an das Nationale Physik Labor (NPL) von England, seinem damaligen Arbeitgeber. [30])

GROSSES POTENTIAL – KI ALS HILFSDIENST

Obwohl der Begriff Künstliche Intelligenz [KI] (Englisch: Artificial Intelligence [AI] — oft auch unter dem abschwächenden Begriff Maschinelles Lernen [ML] (Englisch: machine learning) — heute ein Mainstream-Begriff geworden ist, kann man nicht behaupten, dass es eine einheitliche Definition dieses wichtigen Begriffs gibt. Die EU Kommission hat sich 2019 für ihr Verständnis von KI — speziell auch im Kontext von Ethik-Fragen — auf eine Expertengruppe verlassen [17], die wiederum ein häufig verwendetes Lehrbuch zur KI [18] zitiert.

Ohne auf eine Diskussion dieser komplexen und unübersichtlichen begrifflichen Lage hier einzugehen, stelle ich hier einen Kerngedanken von KI vor, wie er auf alle Arten von sogenannten ‚intelligenten (smarten) Algorithmen‘ zutrifft und ordne dies in den Kontext dieses Beitrags ein.

Wie vorausgehend in der Diskussion des Themas Digitales Empowerment der Bürger verbunden mit dem Beispiel des Planspielkonzepts und der oksimo Software sichtbar wurde, bildet das Welt-Wissen aller Bürger einen offenen, dynamischen Raum, den man zwar durch immer wieder neue Beschreibungsversuche annähern kann, der aber sowohl durch das Verhalten der Bürger selbst wie auch der Dynamik der um gebenden Welt niemals in einem abgeschlossenen Zustand fixiert werden kann. Daraus ergibt sich notwendigerweise für die Kommunikation und Planung ein unabschließbares Prozessmodell. Dazu kommt noch ein weiteres: die Bürger müssen jederzeit ihre Ziele in diesem Prozess neu kalibrieren, gegebenenfalls abändern. In Abhängigkeit von diesen Zielen fallen die Bewertungen zur gegebenen Situation und zu möglichen Maßnahmen anders aus als bei den vorausgehenden Zielen.

Intelligente Algorithmen — sehr prominent z.B. AlphaGO von google [19] — sind in der Lage innerhalb eines definierten Suchraumes mit definierten Erfolgskriterien (oft auch fitness Werte genannt) aus den vielen möglichen Wegen von einem Start- zu einem Zielzustand diejenigen herauszufinden, die den größten Erfolg versprechen. Solange der Gegner — z.B. ein Mensch – langsamer ist in der Berechnung großer Datenmengen, wird solch ein Algorithmus ‚besser‘ sein. Viele Menschen — und speziell das Marketing großer Firmen, die verkaufen wollen oder die Propaganda-Organe autoritärer Staaten — ziehen daraus den Schluss, dass die Zeit des Menschen abgelaufen ist. Dies ist ein arger Fehlschluss. Würde man den intelligenten Algorithmen die Erfolgskriterien wegnehmen, währen sie mehr oder weniger nutzlos. Geschwindigkeit ersetzt nicht den Mangel an Zielen.

Das oksimo reloaded Programm sieht einfach aus, es besitzt aber eine dreifache Intelligenz-Dimension: (i) Die volle (kreative) Intelligenz der Menschen kann in das Programm eingehen, in natürlicher Sprache! (ii) Teil der menschlichen Intelligenz ist die Fähigkeit, Ziele zu formulieren und danach zu handeln, diese Ziele aber auch zu modifizieren; (iii) Dort, wo die Komplexität des Problems für menschliche Gehirne rein quantitativ zu mühsam wird, kann man intelligente Algorithmen aktivieren, die diese mühsame Arbeit im vorgegebenen Rahmen leisten. In diesem Kontext können diese Algorithmen so schnell wie möglich sein. Sie sind dann nur nützlich. Diese Algorithmen können aber das Problem der gewollten Ziele nicht lösen. KI im Kontext der oksimo Software könnte man daher mit dem Slogan beschreiben: Paradigmenwechsel: KI für Alle! Mehr Leistung – Null Risiko.

Wissenschaftsphilosophisch kann den oksimo-Ansatz in folgende Teil-Paradigmen aufspalten:

  1. Human-Machine Intelligence [HMInt] (Mensch-Maschine Intelligenz): Primär dient der Mensch selbst mit seiner menschlichen Intelligenz als Wissensquelle und Handlungsinspiration. Die volle Breite der künstlichen Intelligenz kann aber genutzt werden.
  2. Human-Machine Interaction [HMI] (Mensch-Maschine Interaktion): Die Intelligenz- bzw. Wissens- bzw. Zielfrage wird analysiert im größeren Kontext der generellen Mensch-Maschine Interaktion, die in Richtung der umgebenden Gesellschaft offen ist; keine festen Limits.
  3. HMI als Teil des Systems Engineering [HMI-SE]: Der Teilaspekt der Mensch-Maschine Interaktion wird innerhalb des größeren, allgemeineren Rahmens Systems Engineering gesehen.
  4. Innerhalb des Alltags gibt es als allgemeinste Reflexionsform das philosophische Denken, das in offenem Austausch steht mit Kunst, mit Engineering und Wissenschaft. Alle diese drei Bereiche haben Voraussetzungen, die nicht Teil ihrer eigenen Gegenstandsbereiche sind. zugleich sind sie originär, nicht auflösbar in die anderen Teilbereiche.

RESUMÉ: INGENIEURE UND DAS GLÜCK

Nachdem wir nach all diesen — nicht ganz leichten — Überlegungen bis zu diesem Punkt der Überlegungen gekommen sind, werden Sie vielleicht ahnen können, auf welchen Punkt ich hinaus möchte.

Ist es schon nicht ganz einfach, in einer gegenwärtigen Situation problematische Sachverhalte zu identifizieren — ich erinnere an die heftigen Diskussion um die Frage Klimakrise: Ja oder Nein? bzw. Corona: Gefährlich oder nicht? — so ist der Übergang von einer Problemwahrnehmung zur Formulierung einer Lösungsidee, eines möglichen Zieles in der Zukunft, kein Selbstläufer. Und selbst dann, wenn wir endlich Ziele haben sollten, dann beginnt die eigentliche Arbeit nach der Zielformulierung: wie kommen wir vom Jetzt zum Morgen? Was müssen wir tun? Die anhaltenden kontroversen Diskussionen um eine mögliche Energiewende, wie die genau aussehen soll usw. beschäftigt uns seit vielen Jahren und eine wirkliche Einhelligkeit ist nicht wirklich in Sicht.

Nehmen wir mal versuchsweise und positiv denkend an, dass wir nur solche Ziele formulieren, von denen wir mehrheitlich annehmen, dass sie unser gemeinsames Glück fördern — in der US-Amerikanischen Verfassung ist das Erstreben von Glück als unveräußerliches Recht von jedem verankert [3] — dann wird hoffentlich augenscheinlich klar, dass viele Formen des Glücks ohne die tatkräftige und kundige Mitwirkung von Ingenieuren nicht einlösbar sind.

Ein Großteil der der drängenden Probleme in Deutschland resultieren nicht aus falschem Verhalten von Ingenieuren, sondern aus einem z.T. gravierenden Unverständnis der Politischen Gremien. Was natürlich die Frage aufwirft, warum sind so wenig Ingenieure in der Politik?

QUELLENANGABEN

(Wenn nicht anders angegeben sind alle Links am 12.1.2021 zuletzt überprüft worden)

[1] Zum Begriff des ‚Ingenieurs‘: https://de.wikipedia.org/wiki/Ingenieur (zuletzt: 11.1.2021)

[2] Zum Begriff des Glücks: https://de.wikipedia.org/wiki/Gl%C3%BCck (zuletzt: 11.1.2021)

[3] Erreichung von Glück in der US-Amerikanischen Verfassung: https://en.wikipedia.org/wiki/Life,_Liberty_and_the_pursuit_of_Happiness (zuletzt: 11.1.12021)

[4] FUAS: https://www.frankfurt-university.de/ (zuletzt: 11.1.2021)

[5] FUAS Fb2: Informatik und Ingenieurwissenschaften: https://www.frankfurt-university.de/de/hochschule/fachbereich-2-informatik-und-ingenieurwissenschaften/willkommen-am-fb-2/ (zuletzt: 11.1.2021)

[6] FUAS Fb2 Themengebiete: https://www.frankfurt-university.de/de/hochschule/fachbereich-2-informatik-und-ingenieurwissenschaften/studienangebot-am-fb-2/ (zuletzt: 11.1.2021)

[7] Jakob Johann Baron von Uexküll (1864 – 1944) : https://de.wikipedia.org/wiki/Jakob_Johann_von_Uexk%C3%BCll (zuletzt: 11.1.2021)

[7b] Jakob von Uexküll, 1909, Umwelt und Innenwelt der Tiere. Berlin: J. Springer.

[8] Systems Engineering: https://en.wikipedia.org/wiki/Systems_engineering (Zuletzt: 11.1.2021)

[8b] L. D. Erasmus and G. Doeben-Henisch, A Theory of the System Engineering Process in 9th IEEE AFRICON Conference in Africa, Sept. 12-15, 2011 (This paper has won a paper award)

[9] HCI History: http://www.hcibib.org/hci-sites/history

[9b] Jonathan Grudin. A Moving Target: The Evolution of HCI.In A. Sears and J.A. Jacko, editors,The Human-ComputerInteraction Handbook. Fundamentals, Evolving Technologies,and emerging Applications. 2nd edition, 2008.

[9c] Joseph S. Dumas and Jean E. Fox. Usability testing: Currentpractice and future directions. In J.A. Jacko and A. Sears, editors, The Human-Computer Interaction Handbook. Fundamentals, Evolving Technologies, and Emerging Applications. 2nd edition,2008

[10] HCI als Teil des Systems Engineering praktiziert vom Autor: https://www.uffmm.org/wp-content/uploads/2019/05/aaicourse-15-06-07.pdf

[11] Doeben-Henisch (2020), Review of Tsu and Nourbakhsh (2020), When Human-Computer Interaction Meets Community Citizen Science. Empowering communities through citizen science. In the Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems, ACM 2017: https://www.uffmm.org/wp-content/uploads/2019/06/review-Tsu-et-2020-acm-CommunitySciences.pdf

[11b] Randy Conolly, 2020, Why Computing Belongs Within the Social Sciences, COMMUNICATIONS OF THE ACM, AUGUST 2020, VOL. 63, NO. 8, pp. 54 – 59

[12] Stuart K.Card, Thomas P.Moran, Allen Newell [1983], The Psychology of Human-Computer Interaction, Lawrence ERlbaum Associates, Inc., Mahwah, New Jersey

[13] FFin an der FUAS: https://www.frankfurt-university.de/de/hochschule/fachbereich-1-architektur-bauingenieurwesen-geomatik/forschungsinstitut-ffin/

[14] ISG-Modul Kommunalplanung und Gamification… : https://www.frankfurt-university.de/de/studium/interdisziplinares-studium-generale/interdiszplinares-studium-generale-modulpool-wise-202021/kommunalplanung-und-gamification-labor-fuer-direkte-buergerbeteiligung/

[15] Aristoteles. Peri Hermeneias. Aristoteles Werke in Deutscher Übersetzung. Akademie Verlag, 1994. Bd.1, Teil 2

[16] oksimo simple basic version vom 3.Januar 2021: https://www.uffmm.org/2021/01/08/oksimo-sw-minimal-basic-requirements/

[17] Stuart Russel and Peter Norvig. Artificial Intelligence. A Modern Approach.
Pearson Education, Inc. publishing as Prentice Hall, 3 edition, 2010

[18] INDEPENDENT HIGH -LEVEL EXPERT GROUP ON ARTIFICIAL INTELLIGENCE
SET UP BY THE EUROPEAN COMMISSION. Definition developed for the purpose of
the AI HLEG’s deliverables. The AI HLEG is an independent expert group that was set up by the European Commission in June 2018. Contact E-mail Nathalie Smuha – AI HLEG Coordinator
CNECT-HLG-AI@ec.europa .eu
European Commission
B-1049 Brussels
Document made public on 8 April 2019

URL: https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=56341 (Zuletzt: 12.1.2021)

[19] Googles AlphaGo Programm: https://en.wikipedia.org/wiki/AlphaGo

[20] Ursprüngliches oksimo-Projekt: https://de.wikipedia.org/wiki/Oksimo

[21] Ethischer Verhaltenskodex des Berufsverbands der IEEE: https://www.ieee.org/about/ethics/index.html

[22] Ethischer Verhaltenskodex des Berufsverbands der ACM: https://www.acm.org/code-of-ethics

[23] Ethischer Verhaltenskodex des Berufsverbandes der GI: https://gi.de/ueber-uns/organisation/unsere-ethischen-leitlinien/

[24] Übersichtsartikel zu Sklaverei: https://de.wikipedia.org/wiki/Sklaverei

[24b] Doeben-Henisch, Zum Thema Freiheit, Menschenrechte und Sklaverei: https://www.cognitiveagent.org/2018/11/19/freiheit-die-ich-meine-nachhall-zu-einem-gespraech/

[25] UN 4. Supplementary Convention on the Abolition of Slavery, the Slave Trade, and Institutions and Practices Similar to Slavery. Geneva, 7 September 1956: https://treaties.un.org/doc/Treaties/1957/04/19570430%2001-00%20AM/Ch_XVIII_4p.pdf

[26] Gerd Doeben-Henisch (gerd@doeben-henisch.de), MENSCH-MENSCH COMPUTER. Gemeinsam Planen und Lernen. Erste Notizen. Abfassungszeit: 23.September – 9.Oktober 2020, Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, URL: https://www.cognitiveagent.org/wp-content/uploads/2020/10/blog-welt-mensch-theorie-23sept-9Okt2020.pdf

[27] Gerd Doeben-Henisch, 2018, Ballungsraum 2117 und technische Superintelligenz. Welche Rolle verbleibt uns Menschen?, Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 14.April 2018, URL: https://www.cognitiveagent.org/2018/04/14/ballungsraum-2117-und-technische-superintelligenz-welche-rolle-verbleibt-uns-menschen/

[28] Gerd Doeben-Henisch, 2019, GRENZEN IM KOPF VERFLÜSSIGEN? Eine unterschätzte Methode, Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 5.November 2019, URL: https://www.cognitiveagent.org/2019/11/05/grenzen-im-kopf-verfluessigen-eine-unterschaetzte-methode/

[29] Beginn der Arbeiten an der neuen Software für das Modul Kommunalplanung und Gamification. Labor für mehr Bürgerbeteiligung: URL: https://www.uffmm.org/2019/04/01/co-learning-with-python-3/ (In der späteren Phase fanden die Programmierarbeit ausschließlich auf dem Server statt unter Benutzung eines github Accounts).

[30] Alan M. Turin schrieb 1948 den ersten grundlegenden Bericht darüber, wie Computer eventuell wie Menschen lernen können. Auf der Webseite der NPL (National Physics Laboratory, England) zu Turing ( https://www.npl.co.uk/famous-faces/alan-turing ) finden sich dieser Artikel und zusätzliche Texte: https://www.npl.co.uk/getattachment/about-us/History/Famous-faces/Alan-Turing/80916595-Intelligent-Machinery.pdf?lang=en-GB. Eine bessere lesbare Form findet sich hier: https://weightagnostic.github.io/papers/turing1948.pdf

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

MEDITATION ALS UNIVERSELLE SCHNITTSTELLE des Lebens zu sich selbst? Erste Notiz

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

23.-25.Februar 2020

KONTEXT

Der Verfasser dieses Textes hat sei dem Sommersemester 2017 zusammen mit anderen Kollegen*innen sechs reguläre Lehrveranstaltungen mit dem Thema Meditation als kulturelle Praxis an einer deutschen Hochschule ausprobieren können. Zusätzlich konnten an der Hochschule zwei Kongresse durchgeführt werden, und ein erstes Büchlein zum Thema — zusammen mit zwei anderen Autoren — erschien 2018. Diese Erfahrungs- und Denkprozesse eröffnen, langsam aber doch, einen neuen Blick auf das Thema Meditation in der Gesellschaft, einen Blick, in dem alte wie neue Positionen in einem neuen Licht erscheinen.

MEDITATION IM HISTORISCHEN KONTEXT

Meditation im Geflecht der Gesellschaft

Das Phänomen Meditation hat eine lange und vielffältige Geschichte. Weit gefasst ist Meditation Teil der allgemeinen Kulturgeschichte des Menschen und reicht soweit zurück, soweit es Zeugnisse von Menschen gibt. Will man Meditation enger fassen und es nur auf jene kulturellen Kontexte beschränken, in denen man explizit von Religion spricht, dann hat man dennoch viele Jahrtausende zu berücksichtigen bis hin zu den Anfängen der verschiedenen Religionen, und diese reichen mindestens 7000 Jahre zurück, von heute aus (2020) gerechnet.

MEDITATION EIN EIGENSTÄNDIGER FAKTOR?

Doch solche Zuweisungen des Phänomens Meditation zu bestitmmten kulturellen Mustern, speziell zu den klassischen Formen von Religion, können zufälliger Natur sein. Zufällig in dem Sinne, dass das Phänomen Meditation als solches zwar auch ohne eine explizite Religion praktiziert werden kann, dass es aber in der Vergangenheit aufgrund der starken Dominanz von religiösen Anschauungen und Mustern kaum vorstellbar war, Meditation ohne direkten Bezug zu einer der existierenden und sozial wirksamen Religion zu praktizieren. So kann es sein, dass die überlieferte enge Beziehung zwischen Meditation und Religion uns einen Zusammenhang vorspielt, der so möglicherweise gar nicht notwendigerweise bestehen muss.

Wenn die Arbeitshypothese stimmen würde, dass das Phänomen Meditation als solches nicht notwendigerweise eine bestimmte Religion voraussetzt, dann wäre es interessant zu untersuchen, wie das Verhältnis zwischen beiden, zwischen Religion und Meditation, in der Vergangenheit tatsächlich war. Schon erste Analysen liefern viele Indizien dafür, dass alle Religionen sich mit dem Phänomen Meditation schwer getan haben! In positiven Fällen konnte die Meditation das religiöse Grundgefühl, die Spiritualität, beleben, intensivieren, anregen. In negativen Fällen — und die gab es zahlreich — konnte die persönliche Meditation eines Menchen den Meditierenden aufgrund seiner Selbsterfahrung in vielfältige Spannungen mit den offiziellen religiösen Praktiken und religiösen Lehren führen. So kann man anhand vieler historisch belegter Erneuerungsbewegungen sehen, dass diese Bewegungen, angetrieben von starken individuellen inneren Ereignissen, nicht nur zu positiven Bereicherungen in der eigenen Lebenserfahrung geführt haben, sondern allzuoft auch zu Spannungen, Verurteilungen, Verfolgungen und Kriegen.

Dort, wo solche Erneuerungsbewegungen den Kampf mit den bestehenden Religionen überlebt haben, finden sich dann neue Varianten von Religionen, die bis in unsere Zeit hinein reichen. Man betrachte nur die vielen Varianten die sich beispielsweise unter den großen Überschriften Hinduismus, Judentum, Buddhsmus, Christentum und Islam ausgebildet haben, und deren Miteinander bis heute nicht spannungsfrei ist.

Aus diesen historischen Gegebenheiten kann sich die Arbeitshypothese ermutigt fühlen, anzunehmen, dass das Phänomen der Meditation offensichtlich nicht so neutral gegenüber Weltinterpretationen — auch religiösen — ist, wie es auf den ersten Blick erscheinen mag.

MEDITATION ALS EREIGNISHORIZONT

Es gibt bis heute keine allgemein akzeptierte Definition von Meditation. In diesem Text wird angenommen, dass beim Meditieren ein Mensch sich an einem bestimmten Ort befindet, für sich ein wenig Zeit hat, in der er nach außen nichts leisten muss, und er eine bestimmte körperliche Haltung einnimmt, die für die Dauer des Meditierens günstig ist (Anmerkung: für eine von vielen mögliche Experimentieranordnung siehe diesen Blogeintrag).

Entscheidend beim Meditieren ist aber nicht die Körperhaltung und nicht der physikalische Ort, sondern das innere Geschehen im Meditierenden.

Der primäre Zugang des einzelnen zu seinem eigenen Erleben ist die Perspektive seines eigenen Bewusstseins, mit der sich die erste-Person Perspektive begründet. Zu unterscheiden davon ist die dritte-Person Perspektive, jene des Alltags und der empirischen Wissenschaften. Die erste-Person Perspektive ist aus Sicht der dritten-Person Perspektive prinzipiell unzugänglich.

DEUTUNGSHOHEIT

Bei der Frage, wie man den Ereignisraum, der sich in der ersten-Person Perspektive eröffnet, deuten will bzw. kann, sind eigentlich alle existierenden Deutungs-Paradigmen gefordert. Sowohl die bekannten überlieferten Religionen mit ihren verschiedenen historischen Ausprägungen, wie auch alle neueren Entwicklungen wie die empirischen Wissenschaften; dazu aber auch die klassische Perspektive der Philosophie, die als geistiges Hintergrundrauschen jegliches Denken des Menschen begleitet, und auch für die modernen empirischen Wissenschaften weiterhin konstitutiv ist, auch wenn diese selbst dies nicht so sehen bzw. nicht so sehen wollen. Aber schon einfache Analysen zeigen, dass empirische Disziplinen spezielle Sichten mit massiven Voraussetzungen sind, die sie selbst nicht reflektieren. Außerdem fehlt den empirischen Disziplinen das Instrumentarium, ihre eigene Integration zu denken. Analoges gilt für das Verhältnis der Philosophie zu den verschiedenen religiösen Deutungsmodellen. Auch eine einzelne Religion kann die allgemeinen Bedingungen des Lebens und Denkens nicht einfach auflösen oder willkürlich hin und her definieren. Wer will kann anhand der Geistesgeschichte betrachten, wie die ganz großen religiösen Strömungen, die 1500 Jahre oder älter sind, im Laufe der Zeit sich mit ganz unterschiedlichen Denkkonzepten verbunden haben, Denkkonzeten, die nicht immer miteinander kompatibel waren; die zu Neuinterpretationen der religiösen Inhalte geführt haben bis dahin, dass sich neue Varianten des Religiösen bildeten.

Schließlich ist zu berücksichtigen, dass es viele — zumindest partiell — post-religiöse Gesellschaften gibt, in denen Erkenntnisse und Erfahrungen aus allen Dimensionen in neue Formen des Zusammenlebens und Weltdeutens eingeflossen sind. So ist es eine interessante Hypothese, dass die modernen Demokratie-Konzepte letztlich eine Weiterentwicklung der großen religiösen, der wissenschaftlichen und der vielen anderen Dimensionen darstellt, in der z.B. Meditation nicht nur möglich, sondern möglicherweise sogar fundamental ist für eine fundierte menschenfreundliche demokratische Gesellschaft. Die überlieferten Formen von Religion haben naurgemäß ein Problem mit Demokratien als einer modernen Form von Religion. Während sich moderne demokratische Gesellschaften aus intensiven historischen Prozessen von vielen Jahrhunderten Dauer herausgearbeitet haben, sind die klassischen Religionen einfach stehen geblieben. Sie haben sich geistig einen Stillstand verordnet und verharren in einer Verweigerungshaltung in der Hoffnung, dass sie irgendwann wieder genug Macht haben, die Dinge in ihrem Sinne zu ordnen. Während Demokratien eine Toleranzregel erschaffen haben, die den alten Religionen Lebensraum gewährt, tun sich die alten Religionen mit echter Toleranz schwer.

KONZIL DER WAHRHEIT

Die Gegenwart lehrt uns, dass eine mögliche Zukunft bei den heutigen Gegebenheiten ohne ein intensives, konstruktives Miteinander nicht möglich sein wird.

Bislang leisten sich die vielen Weltdeutungsperspektiven (Religionen, Wissenschaften, Alltagsparadigmen, …) den Luxus, nebeneinander zu koexistieren ohne die Fähigkeit und ohne die ernsthafte Bereitschaft, den gemeinsamen Wahrheitskern aktiv zu klären.

Eine Folge dieser Abschottung ist die Existenz von Abgrenzungen, und daraus resultierenden Feindbildern.

Eine Auflösung der Frontenbildung bei gleichzeitig wachsendem gemeinsamen Verständnis eines gemeinsamen Wahrheitskerns kann nur über einen kontinuierlichen offenen Dialog gelingen, an dem sich alle beteiligen können, aber nicht als Ideologen mit einer festen vorgefassten Meinung, sondern als Menschen mit einem offenen Ereignishorizont, dessen Deutung gemeinschaftlich erfolgt basierend auf primären Erfahrungen. Da Deutungen nicht denknotwendig sind, sondern immer experimentell, versuchsweise sind, ist weder klar, wie lange solch ein Prozess dauern wird, noch ob er tatsächlich zu einem für alle befriedigenden Ergebnis führen kann.

Irgendwo muss der Prozess anfangen. Irgendwo muss es Menschen geben, die sich zugestehen, dass sie Menschen sind mit einer tiefsitzenden Freiheit. Und es muss klar sein, dass es um uns alle geht, dass jeder qua Mensch dazu gehört, und dass Wahrheit etwas ist, was nicht wir dekretieren, sondern etas, das wir vorfinden, verbindlich für alle. Insofern die Freiheit selbst ein Teil der Wahrheit ist, ist Wahrheit kein toter Gegenstand, sondern ein möglicher Prozess, dessen grundlegende Schnittstelle unsere Selbsterfahrung ist, zu der Meditation einen Zugang (als Schnitstelle) liefern kann, aber nicht die fertige Lösung. Zukunft ist nicht irgend ein Objekt. Zukunft ist ein in Freiheit möglicher neuer emergenter Zustand, den vorab zu kennen prinzipiell unmöglich ist. Vor allem, Zukunft ist nicht nur Kognition; Zukunft ist von allem etwas und darin noch einmal mehr. Das klassische Wort vom Himmel deutet in diese Richtung, ist aber im bisherigen Gebrauch in einer Weise dumm, die schwerlich weiter zu unterbieten ist.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Philosophie des Ganzen. Notiz Version 1.0

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de
3.November 2019

KONTEXT

Im Anschluss an die Überlegungen zum vorausgehenden Post ’Kann
Mystik rational sein?
’ soll hier dieser Gedankengang wieder aufgegriffen
und zu einem umfassenden Konzept einer Philosophie des Lebens ausformuliert werden. Hier eine erste Skizze, im weiteren Verlauf dann mehr.

INHALT

1 Ausgangspunkt nach letztem Post 1
2 Philosophie des Engineering 2
3 Philosophie des Lebens (BIOMs) 5
4 Wirklichkeit als Funktion? 6

DOKUMENT (als PDF)

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

WAS {IST/ KANN/ SOLL} KI (KÜNSTLICHE INTELLIGENZ)? Partieller Nachhall zu einem Gespräch am 15.März 2019

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 16.März 2019
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Am 15.März 2019 war ich zu einem Vortrag mit anschließender Diskussion beim Regionaltreffen des ‚VDI Verein Deutscher Ingenieure Bezirksverein Frankfurt-Darmstadt e.V.‚ eingeladen. Das offizielle Thema war ‚Brauchen wir eine soziale KI?‘ Am Beispiel des Projektes ‚Kommunalpolitik und eGaming‚ entwickelte ich die mögliche und heute dringend gebotene Erweiterung der Blickrichtung der Informatik und Ingenieurwissenschaften über das rein Ingenieurmäßige hinaus auf die möglichen Wechselwirkungen der Methoden der Ingenieurwissenschaften mit der realen Gesellschaft vor Ort. Während des lebhaften folgenden Gesprächs tauchte auch immer wieder das Thema ‚Künstliche Intelligenz (KI)‘ für sich auf, unabhängig von diesem Kontext. Einzelne Diskussionsteilnehmer beschäftigte dieses Thema sehr, artikuliert in Fragen wie „Was ist überhaupt KI?“ oder “ Kann die KI uns Menschen überwinden (Stichwort ‚Superintelligenz‘ usw.)“. Klickt man in diesem Blog die Stichworte ‚KI‘ oder ‚KI – Künstliche Intelligenz‘ an, dann findet man mindestens 17 Blogeinträge zu diesem Thema, ein Anzeichen, dass das Thema in diesem Blog nicht neu ist. An diesem Abend aber kannte niemand diese Blogeinträge und die Fragen standen im Raum. Ich habe dann versucht, aus dem Stand, ad hoc, auf diese Fragen kurz — und damit notgedrungen informell — zu antworten. Da ich auch aus vielen anderen Gesprächen weiß, dass diese Fragen viele Menschen beschäftigen, hier also eine Liste von kurzen Thesen zu wichtigen Fragen in diesem Umfeld (eigentlich wollte ich dazu schon immer ein kleines Büchlein veröffentlichen, aber die spannenden Themen und Aufgaben des Alltags halten mich bislang davon ab….).

DEFINITION VON KI

Bis heute gibt es keine allgemein akzeptierte, gültige und brauchbare Definition von ‚Künstlicher Intelligenz‘. Die Meinung in der Öffentlichkeit wird beherrscht von den Marketingabteilungen der großen Firmen, deren Formulierungen selbst von sogenannten kritischen Medien vielfach einfach 1-zu-1 übernommen werden.

INTELLIGENZ

Die Formulierung ‚KI = Künstliche Intelligenz‘ enthält den Begriff ‚Intelligenz‚. Unabhängig von der Technik wurde dieser Begriff ‚vor-wissenschaftlich‘ nur im Kontext von biologischen Systemen benutzt. Ursprünglich primär für Menschen (Lebensform homo sapiens), in der Neuzeit im Bereich Biologie und Psychologie auch für nicht-menschliche biologische Systeme (alltagssprachlich: Tiere).

Seit dem Beginn des 20.Jahrhunderts hat die experimentelle Psychologie Verfahren entwickelt, wie man ‚Intelligenz‘ messen kann, ohne dass man weiß, was ‚Intelligenz als solche‘ ist. Vereinfacht formuliert: wenn man davon ausgeht, dass das vor-wissenschaftliche Phänomen der ‚Intelligenz‘ Menschen zukommt, dann kann man z.B. schauen, über welche beobachtbaren und messbaren Verhaltenseigenschaften verfügen z.B. alle 10-jährigen Kinder in einer bestimmten Zeitspanne (z.B. 2019) ‚im Normalfall‘. Dann kann man einen Katalog dieser Verhaltenseigenschaften aufstellen (Problem der Auswahl) und anschließend kann man experimentell feststellen, ob ein Kind diese Eigenschaften vollständig und ohne Fehler in einer bestimmten Zeit ‚reproduzieren‘ kann oder eben nicht (schneller oder länger, ohne oder mit ‚Fehlern‘ (= Abweichungen von der Vorgabe)). Dieses Verfahren hat viele Ungenauigkeiten, umschließt viele Fehler, hat sich aber dennoch in der Praxis in vielfachem Sinne als ‚Ordnungs-‚ und ‚Prognosekriterium‘ bewährt (heute meist in Verbindung mit dem Begriff des ‚Intelligenzquotienten (IQ)‘ bekannt).

Dieser psychologische Intelligenzbegriff sagt direkt nichts aus über die physiologischen Strukturen (Körper, Gehirn), die dem beobachtbaren Verhalten zugrunde liegen. Auch ist dieses Intelligenzkonzept viel zu grob, um wichtige Details, Dynamiken und Interaktionen innerhalb der unterstellten menschlichen Intelligenz zu erfassen. Immerhin gab es viele beeindruckende theoretische Ansätze, über statistische Auswertungen Hinweise auf ‚verborgene, innere‘ Strukturen der unterstellten Intelligenz zu finden.

Etwas Hilfe kam durch die moderne Gehirnforschung insoweit man mehr Wissen erlangte über Grundstrukturen und Grundfunktionsweisen des Gehirns (speziell auch seiner evolutionären wie auch ontogenetischen Entwicklung), aber die Messbarkeit von physiologischen Gehirnparametern lässt weder direkte Schlüsse zu bewussten Phänomenen zu noch kann man über diese irgendwelche Schlüsse auf die unterstellte ‚Intelligenz‘ ziehen. Was sich allerdings andeutet, ist, dass das Gehirn und die sich in der Gehirntätigkeit zeigenden Dynamiken, von einer Komplexität sind, die vorschnelle, vereinfachende Modelle eher verbieten. Die für ein Gesamtverständnis notwendige Kooperation zwischen Biologie, Psychologie, Phänomenologie und Gehirnforschung steckt noch in den Kinderschuhen. Es gibt nicht einmal einen allgemein akzeptierten theoretischen Rahmen, innerhalb dessen solch eine Kooperation stattfinden könnte. Ein direkter Vergleich der verhaltensbasierten ‚Intelligenz‘ zwischen verschiedenen biologischen Systemen (z.B. Bienen und Ratten, oder Nilpferd und Wal, oder Hund und Affe usw.) ist bislang schwierig, aber im Prinzip anhand von Verhaltenseigenschaften möglich. Nach diesem Muster kann man auch Menschen mit Maschinen vergleichen. Der berühmte ‚Turing-Test‚ ließe sich in dieses Schema einordnen. Wie aber schon die umfangreiche Diskussion zum Turing-Test zeigt, ist ein solcher Vergleich sehr grob. Kann es schon beim Vergleich einzelner Menschen riesige Unterschiede geben bis dahin, dass man — wie zu früheren Zeiten geschehen — bestimmten Menschen abgesprochen hat, dass sie Menschen seien, weil sie in ihrem Verhalten ‚von der bekannten Norm‘ abweichen (‚Hexen‘, ‚Verrückte‘, ‚die anderen‘, …), so kann es auch beim Vergleich des Verhaltens zwischen Menschen und Maschinen erhebliche Differenzen geben. Im Extremfall würde möglicherweise ein Computer als ‚menschlicher‘ eingestuft werden als ein realer Mensch. Reale Menschen verfügen über eine ungeheure Bandbreite an möglichem Verhalten bis dahin, dass Menschen von anderen Menschen sagen, das seien ‚Unmenschen‘, ‚Tiere‘ und dergleichen mehr.

Wenn dann der Begriff ‚Künstliche Intelligenz‘ geprägt und in Umlauf gesetzt wird, dann ‚erbt‘ dieser neue Begriff die Vagheiten und Begrenztheiten des alten Begriffs ‚Intelligenz‘. Ist beim bisherigen Begriff ‚Intelligenz nicht klar, welche Erzeugungsstrukturen ‚dahinter‘ stecken, so macht der Begriff ‚Künstliche Intelligenz‘ klar, dass es um ‚nicht-biologische Systeme‘ gehen soll, also um technische Systeme, die ein Verhalten zeigen, das man dann irgendwie ‚intelligent‘ nennt. Solange die Informatik und die Ingenieurwissenschaften sich weigern, ihren Begriff der ‚KI‘ explizit mit dem psychologischen, am Verhalten orientierten, Intelligenzbegriff zusammen zu bringen, hängt der technische Intelligenzbegriff buchstäblich in der Luft. In welchem Sinne ein als ‚intelligent‘ bezeichnetes technisches System irgend etwas mit der Intelligenz eines biologischen Systems zu tun haben kann/ soll ist völlig unbestimmt. Wissenschaftsphilosophisch könnte man beide Begriffe einfach in einen gemeinsamen Theorierahmen einordnen, aber sowohl die Psychologie wie auch die Ingenieurwissenschaften verzichten bislang darauf, ihr eigenes Tun von einem Metastandpunkt aus zu reflektieren. Ist ja auch einfacher …


LERNEN (UND INTELLIGENZ)

Der Begriff des ‚Lernens‚ ist grundsätzlich unabhängig vom Begriff der Intelligenz (wenn man den verhaltensbasierten psychologischen Begriff benutzt). Bei biologischen Systemen kann man rein praktisch ‚Intelligenz‘ und ‚Lernen‘ nicht voneinander isolieren, da biologische Systeme von Grund auf ‚lernende Systeme‘ sind, d.h. kontinuierlich lernen. Die ‚messbare Intelligenz‘ eines biologischen Systems zu einem bestimmten Zeitpunkt wird daher — meistens — nie ganz getrennt gesehen von der grundsätzlichen Lernfähigkeit.

Wenn ich aber eine Maschine programmiere, dann kann ich ich diese Maschine mit einem Programm ausstatten, das viele der messbaren Verhaltenseigenschaften eines Menschen reproduzieren kann — oder sogar mehr –, ohne (!) dass sie lernt. Es handelt sich dann um eine ‚Übertragung‘ von verfügbarem Wissen (die ersten großen regelbasierten technischen KI-Systeme waren so).

Da jedes biologische System mit dem Zustand einer einzigen Zelle beginnt, die sich im Wachstumsprozess zu einem Verbund von vielen Billionen (10^12) Zellen erweitert, und das System neben ‚angeborenen Wissensstrukturen‘ die aktuelle Umgebung jeweils neu ‚lernen‘ muss, gibt es bei biologischen Systemen (insbesondere dem homo sapiens, also uns) jeweils nur eine ‚temporäre Intelligenz‘, d.h. eine Gesamtheit von Verhalten, die sich im Laufe der körperlichen und ‚kognitiven‘ Entwicklung beständig verändert. So gesehen ist die beobachtbare, messbare Intelligenz eine Funktion der dynamischen physiologischen Basis die sich in kontinuierlicher Interaktion mit der Umgebung ‚entwickelt‘ und darin ‚lernt‘.

Der verhaltensbasierte Begriff des ‚Lernens‚ nimmt die Veränderung des Verhaltens in der Zeit zum Ausgangspunkt, um zu postulieren, dass ein lernendes System ein solches ist, das seine ‚internen Zustände (IS)‘ so ‚abändern‘ kann dass es auf einen Umgebungsreiz S nicht nur mit einer Reaktion R reagieren kann, sondern ab einen bestimmten Zeitpunkt auch mit einer ‚anderen/ neuen‘ Reaktion R‘, die für eine ‚längere Zeit‘ ’stabil bleibt (Beispiel: jemand, der sich am offenen Feuer mal verbrannt hat, wird künftig einen direkten Kontakt vermeiden — wenn er ‚lernen‘ kann).

So einfach und abstrakt diese Definition eines lernenden Systems erscheinen mag, sie deckt alles ab, was wir heute kennen. Setzt man für ‚interne Zustände (IS)‘ das ‚Gehirn‘ mit dem umgebenden ‚Körper‘, dann kann z.B. ein ‚Durstreiz‘ dazu führen, dass das System ‚ irgendwann durch Probieren herausfindet, was es ‚trinken‘ kann, und dass dadurch dieser Durstreiz verschwindet (wobei bei solchen elementaren Bedürfnissen ‚angeborene‘ Verhaltenstendenzen ein ‚Lernen‘ stark unterstützen). Wenn diese Erfahrungen ‚gespeichert‘ werden können (Veränderung interner Zustände), dann kann das System beim nächsten ‚Auftreten des Durstreizes‘ sich an diese Erfahrungen ‚erinnern‘ und statt ‚planlos herum zu suchen‘ sehr ‚gezielt‘ mit einem geeigneten Verhalten reagieren. Diese Verhaltensänderungen können Verhaltensforscher beobachten und daraus die Arbeitshypothese ableiten, dass das System grundsätzlich ‚lernfähig ist

PRÄFERENZEN – ZIELE

Was in der heutigen Diskussion um Intelligenz und künstliche Intelligenz weitgehend ‚unter den Tisch fällt‘, das ist der Aspekt der Präferenzen (eng verwandt mit Begriffen wie ‚Werte‘ und ‚Ziele‘).

Dies hängt — wie oben geschildert — zu einem Teil an der Tatsache, dass der Begriff der ‚Intelligenz‘ isoliert vom Begriff des Lernens betrachtet wird.

Akzeptiert man, dass messbare ‚Intelligenz‘ bei biologischen Systemen das Ergebnis von zugrunde liegenden Lernprozessen ist und unterstellt man ferner, dass technische Systeme, die man als ‚lernfähig‘, als ‚lernend‚ bezeichnet, auch in diesem Sinne aus einer Menge möglicher Reiz-Reaktions-Muster jene ‚herausfinden‘ müssen, die ‚besser‘ sind als ‚andere‘, dann hat man automatisch diesen Begriff des ‚besser‚ im Konzept. ‚Besser‘ heißt salopp, dass man ein A einem anderen B ‚vorzieht‚, A vor B ‚präferiert‚. Das genau ist mit ‚Präferenz‘ hier gemeint. Wenn ein sogenanntes lernendes System nicht über ‚hinreichend viele‘ Präferenzen verfügt, dann kann es keine Teilmengen von Reiz-Reaktions-Mustern selektieren, d.h. dann ist ein System nicht in der Lage, zu lernen.

Während biologische Systeme quasi ‚von Anbeginn an‘ die ‚eingeborene Tendenz‚ (nicht ‚angeboren‘!) zeigen, die Ausbildung von komplexen Strukturen für die ‚Nutzung von freier Energie‘ zu erhalten und sogar beständig weiter zu entwickeln (mit einer mittlerweile ungeheuren Vielfalt von sich daraus ergebenden ’nachgeordneten Präferenzen‘), so ist bei technischen Systemen keine vergleichbare ‚eingeborene Tendenz‘ verfügbar. Um technischen Systemen das ‚Lernen‘ quasi ‚einzuhauchen‘ bedarf es der Ingenieure, die den technischen Systemen nach Bedarf unterschiedliche Präferenzen (= Ziele, Werte) ‚einprogrammieren‘ (entweder direkt oder über gezielte Interaktionen (= Training)).

Während diese Methode der expliziten Programmierung von Präferenzen z.B. im Bereich der Industrierobotik weitgehend funktioniert, zeigt sich in jenen Forschungsbereichen, in denen es nicht um klar vorgegebene Ziele geht, sondern um eine ‚offene Lernfähigkeit‘ für nahezu ‚beliebige Teilmengen‘ von Reiz-Reaktions-Mustern, dass nicht klar ist, welche Präferenzen man denn vorgeben soll.

Im Fall des homo sapiens (und auch vielen anderen biologischen Systemen) wissen wir, dass Präferenzen nicht isoliert entstehen, sondern als Interaktionsmuster in sozialen Systemen (Regeln, Gebote, Gesetze, Gewohnheiten, Überlieferung, …). Im historischen Vergleich kann man feststellen, dass sich diese kulturellen Präferenzsysteme häufig geändert haben. Zugleich wissen wir, dass unterschiedliche Präferenzsysteme gleichzeitig in unterschiedlichen Populationen bestehen können wie auch sogar in der gleichen Populationen, sofern die einzelnen Mitglieder in individuell verschiedenen Teilnetzwerken leben (Familie, Beruf, Freunde, Verein, …), in denen jeweils andere Präferenzen gelten.

Zusätzlich kann man beobachten, dass geltende Präferenzsysteme ungern in Frage gestellt werden. Menschen, soziale Gruppen, Institutionen zeigen eine starke Tendenz, einmal eingeführte Präferenzen gegen alles ‚Neue‘, gegen alle möglichen ‚Veränderungen‘ zu verteidigen. Während Präferenzen einerseits eine Voraussetzung dafür sind, dass überhaupt gelernt werden kann und dadurch eine bestimmte ‚lernabhängige Intelligenz‘ entstehen kann, kann die Fixierung von Präferenzen ein Lernen auch zum Erliegen bringen. Es reicht also u.U. nicht, einige wenige Präferenzen zu haben, sondern möglicherweise eine ‚offene Menge von Präferenzen‘.

Damit stellt sich die grundlegende Frage nach den ‚richtigen Präferenzen‘: welche Präferenzen brauchen wir? Wann, wo, wie, wie lange … ?

Obwohl die Frage der Präferenzen so fundamental erscheint für das Lernen, für die lernabhängigen Intelligenzen, für mögliche Zukünfte, besteht der starke Eindruck, dass über diese grundlegenden Fragen heute kaum bis gar nicht diskutiert wird. Dies erscheint fatal.

Klar sollte in diesem Zusammenhang sein, dass jedwede Art von ‚künstlicher Intelligenz‘ Lernprozesse voraussetzt, die eben solche Präferenzen benötigen, ohne dass klar ist, wo diese Präferenzen herkommen sollen. Bei biologischen Systemen ist sie ‚eingeboren‘, bei technischen Systeme muss sie ‚irgendwo herkommen‘.


PRINZIP COMPUTER

Im Rahmen der Diskussion um ‚künstliche Intelligenz‘ spielt auch der Begriff des Computers eine zentrale Rolle, und es ist erstaunlich wie unklar auch dieser zentrale Begriff ist.

Im Normalfall denken Menschen beim Begriff ‚Computer‚ an konkrete Maschinen (Smartphones, Laptops, PCs, Roboter, Server, …).

Was den wenigsten bewusst ist, ist die Tatsache dass der grundlegende Begriff des Computers ein rein theoretisches Konzept ist, der ‚Automat‘, historisch ‚die Turingmaschine‘. Die ‚Turingmaschine‘ ist ein rein mathematisches Konzept, das Alan Matthew Turing 1936/7 eingeführt hatte, um im Grundlagenstreit der Mathematik zu Beginn des 20.Jahrhunderts zu zeigen, dass der Metamathematische Beweis von Kurt Gödel 1931 zur Unentscheidbarkeit von mathematischen Theorien auch anders als mit der Arithmetisierung der Arithmetik mittels Goedelzahlen geführt werden kann (Goedel selbst war mit seinem eigenen Beweis nicht zufrieden gewesen und zu Turings Beweis hat er in einer Vorlesung in Princeton angemerkt, dass dies jetzt eine Form des Beweises sei, mit der er auch zufrieden sei).

Wohlgemerkt, es ging hier um die letztlich philosophische (!!!) Frage, welche ‚Beweismittel‘ denn erlaubt sein dürfen, damit ein logischer Beweis zu Eigenschaften mathematischer Theorien als ‚echter Beweis‘ anerkannt werden kann, und ob solch ein echter Beweis von einer ‚Maschine‘ automatisch ausgeführt werden könne (Frage von David Hilbert).

Goedel, Turing — und auch viele andere — haben gezeigt, dass sich für mathematische Theorien ab der Arithmetik aufwärts nicht mit endlichen Mitteln beweisen lässt, dass sie sowohl vollständig wie konsistent sind.

Auf diese Weise war — und ist — das mathematische Konzept der Turingmaschine als ein ‚theoretischer Standard‘ definiert worden, mit Bezug auf den bis heute entschieden wird, ob irgendein Prozess als ‚mit endlichen Mitteln entscheidbar‘ gelten kann oder nicht.

Was viele Menschen im Alltag übersehen ist, dass jeder physikalisch reale Computer ’schwächer‘ ist als das theoretische Konzept der Turingmaschine, da diese ein ‚unendliches‘ Schreib-Lese-Band besitzt, was sowohl für den möglichen Input und Output steht wie auch für einen möglichen Speicher. Während reale Computer angenähert auch über einen quasi-unendlichen Input und Output verfügen können, sind alle Speicher in realen Computern notgedrungen endlich.

So mancher sieht heute im sogenannten ‚Quantencomputer‘ eine Überwindung des ‚begrenzten Konzepts‘ der Turingmaschine. Diese Diskussion hat aber zwei Schwachstellen. (i) Theoretisch wird übersehen, dass das theoretische Konzept der Turingmaschine als Standard eingeführt wurde, um ‚endlich berechenbare Prozesse‘ zu definieren und es wenig Sinn macht, theoretisch als unendlich postulierte Prozesse — wie im Fall des Quantencomputers — dagegen auszuspielen; ferner ist es mehr als unklar, was der Begriff der ‚Berechenbarkeit‘ im Kontext von Quantencomputern bedeuten soll, da der Begriff der ‚Berechenbarkeit‘ bislang ja gerade nur als ‚endlicher Prozess‘ definiert wurde. (ii) Die reale Machbarkeit von Quantencomputern ist auch im Jahr 2019 alles andere als klar.


MENSCH-COMPUTER SYMBIOSE

Zwischen den Propheten der KI als Lösung für alle Probleme und den Untergangsbeschwörern, dass die KI die Menschen letztlich vernichten wird, gibt es viel Raum für eine interessante Realität und mögliche Zukunft.

Klar ist — bei angemessener Betrachtung der Entwicklung des Universums und speziell der biologischen Evolution –, dass mit dem homo sapiens eine Komplexitätsexplosion unfassbaren Ausmaßes begonnen hat. Ein Teilaspekt dieser Explosion ist die Transformation des Prinzips Turingmaschine — die in jeder biologischen Zelle bei der Reproduktion gegeben ist! — über die Formalisierung in reale programmierbare Maschinen.

Schon heute können Großteile der menschlichen Zivilisation ohne diese programmierbaren Maschinen nicht mehr funktionieren. Sie ergänzen auf vielfache Weise den Menschen mit seinen endlichen kognitiven Kapazitäten.

So wie schon das Prinzip Turingmaschine jeder biologischen Zelle erlaubt, sich zu reproduzieren, so erlauben die modernen Computernetzwerke den Menschen, die Komplexität der modernen Lebenswelt täglich neu zu reproduzieren und beständig zu erweitern (u.a. auch in der Genforschung und der Gentechnik, wodurch es im Prinzip möglich ist, die evolutionäre Weiterentwicklung des homo sapiens zu beschleunigen). Computer sind von daher kein Gegensatz der Evolution sondern genuiner Teil von ihr und schon heute für die weitere Entwicklung unabdingbar.

Bedenkt man das zuvor gesagte zur Präferenz-Problematik, dann wird die Technologie des Computers — und auch nicht der sogenannten KI — diese in irgendeiner Weise aus sich heraus lösen können. Und, obwohl Computer für das tägliche Überleben der Menschen als zentral wichtig erscheinen, kann die Computertechnologie dem Menschen das Präferenzproblem nicht abnehmen. Noch mehr Geschwindigkeit, noch mehr Datenmengen in noch kürzerer Zeit, liefern keine einzige Präferenz. Dass Spielprogramme (Schach, Go, …) ‚von alleine‘ sehr schnell Schach und Go so gut lernen können, dass sie danach alle menschlichen Spieler schlagen können, zeigt vor allem, dass Computer, angesetzt auf definierte Problem, dem Menschen real helfen können. Dies funktioniert aber immer nur dann, wenn die Kriterien für ‚Erfolg‘ vorgegeben werden (= Präferenzen). Ohne diese Gewinn-Kriterien könnte kein Computer auch nur das einfachste Spiel lernen.


ETHIK IST NICHT ETHIK

Im Zusammenhang mit der modernen Technik wird auch gerne und viel über sogenannte ‚Ethik‘ geredet. Abgesehen davon, dass es keine allgemein brauchbare Definition von Ethik gibt (wir haben es mit vielen ’selbsternannten‘ Ethikern zu tun), könnten man sich minimal vielleicht darauf einigen, dass Ethik sich mit eben den Präferenzen beschäftigt, anhand deren Menschen, Gruppen von Menschen, Institutionen usw. ihr Lernen ausrichten. Nun haben wir aber offensichtlich eine ‚offene, plurale Präferenzsituation‘, in der wir viele Präferenzsysteme gleichzeitig, nebeneinander vorfinden, deren Begründungen oftmals weitgehend unklar sind. Aufgrund dieser Unklarheit tun wir Menschen uns heute auch schwer, noch mehr gemeinsame Präferenzen zu finden, die uns ein ‚Erlernen der möglichen Zukunft‘ ermöglichen. In China legen einige wenige Menschen fest, was die Partei als Präferenzen erlaubt, und alle anderen müssen folgen. Dieses Modell erscheint im Lichte der Evolution als extrem fragwürdig und widerspricht auch sonst vielen elementaren Erkenntnissen.

Eine Ethik, die bestimmen soll, was das ‚Sollen‘ für alle sein soll, ist in sich im vollen Widerspruch zu den Prinzipien des biologischen Lebens und zudem philosophisch unhaltbar. Leben definiert sich u.a. eher als ‚das Andere zu dem, was gerade ist‘, ein anderer Name für ‚Zukunft‘; um die geht es, nicht um Vergangenheit; die ist vorbei.

DIE ZUKUNFT IST OFFEN

Wenn es irgendetwas gibt, was wir von der Evolution lernen können, dann, dass die Zukunft grundsätzlich offen ist; die Zukunft aus der Vergangenheit nur begrenzt hergeleitet werden kann; dass alles Wissen lernabhängig ist; dass Lernen ein Prozess ist, der nur über Versuch und Irrtum funktionieren kann; dass Experimentieren ohne Bereitschaft zu Fehlern und Verlust nicht geht; dass …

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Soundtrack (without voice)


Soundtrack with voice (… zum Thema: Leben ist das Andere zum Jetzt …)

WO GEHT ES ZU GOTT, BITTE? Nachhall zu einem Gespräch unter FreundenInnen

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 18.Februar 2019
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Der folgende Text gibt nicht das Gespräch als solches wieder, sondern beschreibt eher das Echo, das dieses Gespräch in mir gefunden hat (das letzte Gespräch dieser Art findet sich hier). Dieses Mal hatten wir einen Experten der evangelischen Theologie zu Gast, einen Pfarrer und Verantwortlichen für eine evangelische Akademie. Dazu muss man wissen, dass die einzelnen Mitglieder des Freundeskreises entweder keiner offiziellen Kirche (oder Religion) angehören, oder z.T. der Katholischen Kirche neben der Evangelischen Kirche. Auch war uns der Experte nicht ganz unbekannt.

FREIHEIT BEI LUTHER UND ERASMUS

Ausgangspunkt des Gesprächs an diesem Nachmittag war der berühmte Streit zwischen Erasmus von Rotterdam und Martin Luther, ausgelöst durch die Schrift von Erasmus ‚De libero arbitrio‘ (Über den freien Willen) von 1524 und der Antwort von Luther ‚De servo arbitrio‘ (Vom geknechteten/unfreien Willen) von 1525.

Erasmus nimmt in seinem Buch Stellung gegen Luthers These, dass allein die göttliche Gnade (sola gratia) über das Schicksal des Menschen nach seinem Tod entscheide und nicht seine eigenen Taten.

Der Kern der Position Luthers präsentiert sich in dem Gedanken, dass der Mensch bezüglich des Willens Gottes keinen freien Willen habe. Über ewiges Heil oder ewige Verdammnis entscheide allein der souveräne Wille Gottes. Dazu ein Zitat aus seiner Schrift (aus einer unkritischen deutschen Ausgabe): „Wenn wir glauben, es sei wahr, dass Gott alles vorherweiß und vorherordnet, dann kann er in seinem Vorherwissen und in seiner Vorherbestimmung weder getäuscht noch gehindert werden, dann kann auch nichts geschehen, wenn er es nicht selbst will. Das ist die Vernunft selbst gezwungen zuzugeben, die zugleich selbst bezeugt, dass es einen freien Willen weder im Menschen noch im Engel, noch in sonst einer Kreatur geben kann.“

Beide Autoren hatten — jeder für sich — Zweifel an ihren eigenen Thesen, sahen sich aber nicht in der Lage, diese zu Lebzeiten mit ihrem eigenen Denken aufzulösen.

EINE EVANGELISCHE DEUTUNG

Der anwesende Experte lieferte eine Reihe interessanter Kommentierungen, Deutungen, zu beiden Positionen, vor allem aber zu Luther, warum seine Position ‚Sinn‘ macht. Einmal im damaligen Kontext gegen ein falsches Leistungsdenken, dass man sich das Heil, die Erlösung ‚erkaufen‘ könne, womit auch immer; zum anderen im heutigen Kontext, wo wir die Bedingtheiten des individuellen Entscheidens in konkreten Kontexten immer besser verstehen, die es wenig verständlich erscheinen lassen, wie ein Heil angesichts der vielen Unfertigkeiten, des vielfachen Scheiterns und Begrenztseins möglich sein soll. Auch die Erbsünde musste noch herhalten als eine Art ‚theologische Hintergrundstrahlung‘, die zwar fern und wenig wirklich, doch nachhaltig nachwirkt und gegen die der einzelne mit seinem Stückwerk letztlich machtlos ist.

Es hatte dann etwas Verführerisches zu denken, dass die Gnade Gottes all unserem Tun voraus liegt und uns liebt, egal wo und wie wir sind, und dass wir aufgrund dieser zuhandenen Gnade Glauben und Lieben können. Die ‚Liebe‘ macht uns frei, und dann spielt das Konkrete nur noch bedingt eine Rolle. Die ‚Beziehung zu Gott‘ kann man daher nicht in ‚moralischen Kategorien‘ fassen, sie ist sui generis, sie folgt einer eigenen Logik. Die Beziehung zu Gott, die von ihm gnadenhaft ausgeht ist so, dass man sich auf die ‚verlassen‘ kann, immer und überall, auch und gerade im Angesicht des Todes. Die Ausführungen des Experten tendierten zum Schluss hin zu einer ‚pastoralen Tonart‘; was irgendwie auch in der Natur der Sache liegt, da das Reden über Gott, soll es nicht ganz abstrakt bleiben, seine Verortung im konkreten Alltag finden muss.

ANSATZPUNKTE ZU ANDEREN DEUTUNGEN

Der Experte war sehr wohl geschult in Fragen der Hermeneutik, der Lehre vom Verstehen und Interpretieren, und er gab auch zu, dass er die modernen Entwicklungen der Wissenschaften nicht so gut kenne; auch blieb die Frage offen, wie sich in dieses evangelisch-lutherische Bild der Welt die Deutungen der anderen großen religiösen Traditionen (Hinduismus, Judentum, Buddhismus, Islam, …) einordnen lassen.

Im Nachgespräch der Gruppe wurde deutlich, dass die Frage nach Gott eigentlich von allen als ein roter Faden in allen Kulturen dieser Welt gesehen wird.

ZUSAMMENLEBEN UND HÖHERE MACHT

Bei einem historischen Rückblick sticht ins Auge, dass ‚Verhaltensregeln‘ überall durch die Notwendigkeit des gemeinsamen Lebens unter bestimmten Bedingungen geprägt sind, und dass sich auch überall in den frühen Kulturen die Tendenz findet, die konkreten Verhaltensegeln, die man sich auferlegt hat, mit dem Glauben der jeweiligen Zeit zu verknüpfen, quasi als ‚höhere Instanz‘, die darüber wacht, ob man dies Regeln auch wirklich befolgt, und in diesem Kontext kam jenen Menschen eine besondere Rolle zu, denen eine besondere Verbindung zu dieser ‚höheren Macht‘ unterstellt wurde (Schaman, Priester, Propheten, …). Mit dieser Konstellation war die enge Verknüpfung von Glauben an etwas Höheres und konkrete Verhaltensregeln mit der jeweiligen politischen Macht angelegt. Zum Teil stand politische Macht und religiöse Führer in Konkurrenz, aber in den großen Königreichen und Staaten machten sich die staatlichen Führer sehr schnell selbst zum höchsten Priester, um eine mögliche Konkurrenz und damit Schwächung der Macht durch die religiösen Führer auszuschalten, oder die religiösen Führer ernannten sich zu den obersten staatlichen Lenkern. Das Judentum, das Christentum und der Islam bieten dafür Paradebeispiele, und auch der Buddhismus geriet über die mächtigen Klöster in das gleiche Fahrwasser.

RELIGION UND MACHT

Historisch betrachtet erscheint das Thema Religion daher im Normalfall als ‚vergiftet‘ durch die Instrumentalisierung von Religion durch die jeweiligen politischen Mächte bis heute, oder dadurch, dass sich Religion selber als eine Machtorganisation inszeniert.

EMANZIPATION DER ‚WAHRHEIT‘ UND DER ‚MACHT‘

Während das ‚Geschäft mit der Wahrheit‘ durch die modernen empirischen Wissenschaften seit ca. 500 Jahren zumindest ansatzweise von den jeweiligen gesellschaftlichen und religiösen Verhältnissen emanzipiert werden konnte, und das ‚Geschäft mit der Macht‘ mit dem Aufkommen von demokratischen Staatsformen seit ca. 300 Jahren ansatzweise von irrationalen und und unfreien Machtbegründungen befreit werden konnte, ist das ‚Geschäft mit dem Glauben‘ bis heute noch überwiegend in den Händen von religiösen Organisationen, die den Eindruck erwecken, dass der ‚Zugang zu Gott‘ nur über eine Mitgliedschaft in ihren Organisationen möglich sei. Da es viele verschiedene Religionen gibt, die sich als ‚privilegierten Zugang zu Gott‘ anbieten, haben wir also eine Vielzahl von Marketingagenturen für eine Vielzahl von Göttern; sehr merkwürdig.

EMANZIPATION DES ZUGANGS ZU GOTT?

Ein häufig gehörtes Argument, warum Religionen auch heute noch wichtig seien, betont, dass der einzelne Mensch ‚zu schwach sei, alleine den Weg zu Gott zu finden‘, von daher braucht es Organisationen, die ihm dabei helfen. Das der Mensch ’schwach‘ ist als einzelner, dass der ‚Alltag‘ für viele (für die meisten? für alle?) zu schwierig sei, sich als einzelner darin seinen Weg zu finden, ist auch nicht völlig falsch. Aber ist das die einzig mögliche Sehweise?

In demokratischen Gesellschaften muss der einzelne Mensch sich grundsätzlich seinen Weg selbst suchen, allerdings in vielen Bereichen unterstützt von staatlich organisierten Hilfestellungen (Kindergarten, Schulen, Hochschulen, Gesundheitssystem, …) wie auch freien politischen Strukturen sowie freien wirtschaftlichen Strukturen, ergänzt um eine große Vielfalt von privaten Vereinen, Freundeskreisen, usw.

Betrachtet man das Phänomen des Meditierens, das ursprünglich im direkten Kontext der Religionen verortet war, und sieht, wie sich dieses in einer weltweiten Bewegung quasi verselbständigt hat in einer großen Vielzahl von Initiativen, in denen Menschen in freien Entscheidungen anderen Menschen in Form von ‚Dienstleistungen‘ Hilfen anbieten, wie und wo und wann sie meditieren können, dann deutet sich hier — bei aller Problematik im Detail — an, dass sich Menschen in Fragen ‚der Besonderheit des Lebens‘ sehr wohl selbständig, religionsfrei, organisieren können. Bei den vielen hundert Apps zum Meditieren, die von Menschen rund um die Uhr genutzt werden, gibt es einige, deren Benutzerzahlen gehen in die Millionen (ähnlich kann man auch bei Beerdigungsfeiern beobachten, dass der Anteil der privaten religionsfreien Dienstleister erheblich wächst).

Natürlich lassen sich zu diesem globalen Meditationstrend viele Fragen stellen, gerade dann, wenn diese mit buddhistischen Deutungsmodellen gekoppelt werden, die in sich auch viele Fragen aufwerfen; auch erscheint die Engführung auf medizinische Aspekte zum Zwecke der Therapie nicht weniger fragwürdig (obwohl der medizinische Ansatz als solcher sehr wohl Sinn macht). Dem staatlich subventionierten Lehr- und Wissenschaftsbetrieb ist es allerdings frei gestellt, sich diesen Phänomen unvoreingenommen zuzuwenden. Es ist mehr als fragwürdig, warum ein aufgeklärter demokratischer Staat Fragen der Religion von vornherein an Organisationen delegiert, die in ihrem Selbstverständnis und in ihrer organisatorischen Verfasstheit dem Standards von aufgeklärter ‚Wahrheit‘ und ‚Freiheit‘ im Ansatz widersprechen.

SCHLUSSBEMERKUNG

In dem vorausgehenden Blogeintrag zur Kosmologie 7.0 wird deutlich, dass der Versuch, rein intellektuell, eine abschließende Antwort zum ‚Gesamtsinn‘ zu geben, bis auf Weiteres zum Scheitern verurteilt ist, obgleich es für uns keine Alternative gibt, es weiterhin beharrlich zu versuchen.

Während der ‚Mainstream‘ des globalen Meditationstrends heute sich überwiegend an asiatischen Methoden und Deutungsmodellen ausrichtet, gibt es ‚hinter den Fassaden‘ der sogenannten Offenbarungsreligionen (Judentum, Christentum, Islam) sehr wohl eine starke meditative Tradition (wenngleich von den Machtstrukturen dieser Religionen immer argwöhnisch beäugt und im Zweifelsfall unterdrückt), die neben den rein methodischen Aspekten (was soll man tun,wenn man meditieren will) und neben den rein körperlichen Phänomenen sehr wohl mit der Arbeitshypothese gearbeitet haben (und arbeiten), dass das, was ‚Gott‘ bezeichnet wird (je nach Sprache und Kultur mit anderen Namen und Vorstellungen verknüpft), sehr wohl auch direkt mit einem einzelnen Menschen auf der Erlebnisebene ‚interagieren‘ kann, und diese Interaktion ist begleitet von ‚gefühlten Zuständen‘, die sich als solche deutlich von allem abheben, was man als Mensch sonst so fühlen kann.

Wie u.a. die umfangreichen Untersuchungen von William James zu Zeugnissen von Menschen über ihre ’subjektiven Erlebnisse von Gott‘ zeigen, garantieren solche Erlebnisse weder ‚Wahrheit‘ noch den rechten Gebrauch von ‚Freiheit‘, aber sie scheinen dazu beitragen zu können, eine Art von ‚Angstfreiheit‘ zu bekommen, die den einzelnen dazu befähigen, seine Lebensmöglichkeiten in einer Art und Weise zu gestalten, die deutlich von dem abweichen, was Menschen tun, die von innen her durch allerlei Bedenken und Ängste in ihrem Wollen und Tun beeinträchtigt sind.

Hier eröffnet sich der Raum zu vielen neuen Betrachtungsweisen über ‚Gott‘, das ‚Universum‘ und das ‚biologische Leben‘ in diesem.

QUELLENHINWEISE

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

DAS UNIVERSUM IM UNIVERSUM

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 22.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

 

SCHON ARG KLEIN

Der US-amerikanischen Astrophysiker Neil deGrasse Tyson sagt von sich in einem Hörbuch über das Universum, dass er beim Anblick der Sterne und Galaxien des Universums immer ganz positiv gestimmt wird. Darin zitiert er psychologische Untersuchungen, nach denen viele Menschen aber genau das Gegenteil empfinden: eine abgründige ‚Kleinheit‘, Unbedeutendheit, eine Verlorenheit, die sie niedergeschlagen macht, fast depressiv. Zwischen diesen beiden Extremen gibt es vermutlich viele Abstufungen und Varianten.

Klar ist nur, dass angesichts der räumlichen Größenverhältnisse und Entfernungen neben einem Staunen das Gefühl einer ‚Kleinheit‘ sicher nicht ‚unnatürlich‘ ist. Gemessen an den Größen und Entfernungen im Universum, selbst noch in unserer Heimatgalaxie Milchstraße, wirkt unser Sonnensystem, unsere Erde mit dem Mond, schon arg klein und unbedeutend. Ganz zu schweigen von uns Menschen, die da noch kleiner wie Staubkörner wirken.

KOGNITIVE TÄUSCHUNG

Diese Gefühle der Erhabenheit einerseits angesichts der unfassbaren Räume und der Unbedeutendheit andererseits können sich aber schnell wandeln, wenn man sich der Kleinheit und Komplexität des Biologischen zuwendet. Diese Komplexität ist allerdings unserem Auge zunächst verborgen. Die Sterne am Nachthimmel kann jeder sofort, sogar mit dem bloßen Auge sehen, die Zellen des biologischen Lebens hingegen sind nicht ohne weiteres sichtbar. Man braucht spezielle Verfahren und spezielle Geräte (z.B. Mikroskope), um sie sichtbar zu machen, um eine Vorstellung von ihren Strukturen und Dynamiken zu bekommen. Begibt man sich auf diesen Weg der Erkenntnis des ‚räumlich Kleinen‘ im ‚räumlich Großen‘, dann kann man entdecken, dass das scheinbar so winzige räumlich Kleine das räumlich Große in vielen Punkten um Dimensionen übertrifft. Streng genommen müsste man sagen, dass das räumlich Kleine eigentlich ein eigenes Universum ist, das das räumlich Große in Anzahlen, vor allem aber in puncto Komplexität, bei weitem zu überragen scheint.

GROBE ANNÄHERUNG

Um die Umrisse des ‚Universum im Kleinen‘ sichtbar zu machen, dazu im Vergleich zum ‚Universum im Großen‘, habe ich eine Reihe von Eckwerten zusammengestellt und mit einfachsten Rechnungen bearbeitet, die vielfach eine sehr grobe Vereinfachung/ Annäherung darstellen. Es wird sicher Experten geben, die diese Vereinfachungen verbessern können. Dennoch rechtfertigt sich dieses approximative Vorgehen dadurch, dass überhaupt einmal die Umrisse der Größe des sehr Kleinen sichtbar werden.

Es gab schon Vorläufer dieser Überlegungen. Die letzte findet sich unter der Überschrift: INFORMELLE KOSMOLOGIE. Teil 2. Homo Sapiens und Milchstraße.

MIKROBEN UND STERNE

Dem bloßen Auge bieten sich Sterne am Nachthimmel direkt dar, obgleich wir heute wissen, das die größere Zahl von Sternen dem bloßen Auge auch verborgen sind. Mit den modernsten Geräten und Berechnungsmethoden kommt man für die Zahl aller Sterne im beobachtbaren Universum ungefähr auf 2.200000e+23, also etwa 220000 x Milliarde x Milliarde x Milliarde.

Die Zahl der Mikroben auf der Erde zu berechnen ist äußerst schwierig, da sowohl die riesige Anzahl verschiedenen Arten von Mikroben wie auch ihre unterschiedlichen Verteilungen zu berücksichtigen sind. Ein Ansatzpunkt bietet das Volumen, das sie auf der Erde einnehmen können. Man findet Mikroben sowohl unter der Erdoberfläche (angenommen wurden hier bis 7 km), als auch oberhalb der Erdoberfläche (angenommen wurden hier ebenfalls bis 7 km). Als Verteilung von Mikroben innerhalb dieses Volumens wurde angenommen, dass sich ca. 41.5 Billionen (10^12) Mikroben in einem Kubikmeter befinden. Diese Schätzung müsste durch viele Proben an unterschiedlichsten Orten weiter abgeklärt werden. Bei dieser Annahme kommt man    auf die Zahl 2.963476e+32, also etwa 300 Millionen x Billionen x Billionen.

Damit gäbe es etwa 1.347034e+09 mal mehr Mikroben auf der Erde wie Sterne im Universum, also 1.3 Milliarden mal mehr Mikroben wie Sterne.

So vage diese Schätzungen im Moment sind, so verdeutlicht sie doch, dass wir es mit dem Biologischen mit einer neuen Art von Universum zu tun haben, das sich vor dem physikalischen Universum nicht verstecken muss!

Das Verhältnis zwischen Mikroben und Sternen wird noch krasser, wenn man berücksichtigt, in welchen räumlichen Verhältnissen sich dies abspielt. Die etwa 220000 x Milliarde x Milliarde x Milliarde Sterne im Universum benötigen ein Volumen von 3.568179e+80 m^3. Die erheblich größere Anzahl von Mikroben benötigen dagegen nur ein Volumen von 7.140905e+18 m^3, dies bedeutet der Platzbedarf der Sterne ist um das 4.996816e+61 fache größer als der der Mikroben. Anders ausgedrückt, das biologische Universum ist um das 4.996816e+61 fache verdichtet gegenüber dem physikalischen Universum.

MENSCHLICHE ZELLEN UND MIKROBEN

Es gibt etwa 2.670760e+08 mal mehr Mikroben wie menschliche Zellen auf der Erde, also 267 Millionen mal mehr (wobei die Zahl der Mikroben möglicherweise zu hoch angesetzt ist), doch sind die menschlichen Zellen in einem Körper in einer extrem komplexen Weise organisiert, für die es bislang kaum Modellvorstellungen gibt. Als Eckwerte mögen die Tatsachen dienen, dass die Gehirnzellen (Neuronen alleine ca. 80-90 Milliarden) untereinander extrem vernetzt sind; eine Zelle kann mehrere zehntausend Verbindungen haben. Zusätzlich kann eine Gehirnzelle aber auch über chemische Transmitter(moleküle) ‚quer‘ von zusätzlichen Signalquellen beeinflusst werden. Einzelne Körperzellen können über chemische Signale (Flüssigkeit, Blut..) mit vielen Milliarden anderen Zellen kommunizieren. So kann z.B. der Pilz candida albicans, der vorwiegend (aber nicht nur) im menschlichen Darm lebt, minderwertige Alkohole produzieren, die ins Blut abgegeben werden und dort einen Großteil der Körperzellen erreichen. Dies kann über Wochen und Monate zur vollständigen Vergiftung des ganzen Körpers führen.

MENSCH UND GALAXIEN

Hilfreich kann vielleicht auch ein direkter Vergleich Mensch und Galaxie bzw. Universum sein.

Zahlenmäßig ist die Zahl der Sterne in der Milchstraße mit 200 Milliarden (es gibt Schätzungen bis 400 Milliarden) verglichen mit der Zahl der Menschen auf der Erde mit 7.6 Milliarden (geschätzt für Mai 2018) deutlich höher, aber eben nur etwa 26 mal größer. Vergleicht man aber die Anzahl der Zellen eines einzelnen Menschen mit etwa 146 Billionen (10^12) mit den Sternen der Milchstraße, dann hat ein einzelner Mensch schon etwa 730 mal mehr Zellen wie die Milchstraße Sterne hat. Berücksichtigt man alle Menschen mit 146*10^12 x 7.6 * 10^9 Zellen, dann gibt es sogar 5.548D+12 mal mehr menschliche Zellen auf der Erde wie Sterne in der Milchstraße, also 5.5 Billionen mal mehr. Dies ist beeindruckend, nimmt man aber wieder das Volumen hinzu, dann kommt man wieder auf einen Verdichtungsfaktor, den man sich nicht mehr vorstellen kann; das Volumen der Milchstraße verglichen mit dem Volumen aller menschlicher Zellen ist etwa 1.025033e+61 mal größer, was umgekehrt besagt, dass es nicht nur 5.5 Billionen mal mehr menschliche Zellen als Sterne in der Milchstraße gibt, sondern diese viel größere Zahl an Zellen ist zugleich um den Faktor 6 Milliarden x Billion x Billion x Billion x Billion x Billion mal dichter gepackt als die Sterne in der Milchstraße. Zusätzlich muss man die unfassbar höhere Interaktionsdichte dieser Zellen mitdenken.

Verglichen mit den Sternen des ganzen Universums gibt es ’nur‘ 5 mal so viele menschliche Zellen (aller Menschen) wie Sterne im Universum. Immerhin, man kann einen Eindruck bekommen, dass die scheinbar so – räumlich – kleine Erde ein Hotspot ist, wo sich ein biologisches Universum entwickelt hat (und möglicherweise weiter entwickelt), das alles in den Schatten stellt, was wir vom physikalischen Universum her kennen.

GALAXIE MENSCH

Die mikrobiologische Sicht des Menschen steckt noch eher in den Anfängen. Doch kann man alleine von dieser Seite her (vgl. nochmals den Beitrag INFORMELLE KOSMOLOGIE. Teil 2. Homo Sapiens und Milchstraße) einen neuen Blick auf das System homo sapiens bekommen, speziell, wenn man das Thema ‚Bewusstsein – Unbewusstes‘ einbezieht.

Wie in der Diskussion zum wissenschaftsphilosophischen Verständnis der Psychoanalyse (zuletzt HIER) deutlich wurde, muss man davon ausgehen, dass systemtheoretisch das Unbewusste den weitaus größten Teil des Systems homo sapiens ausmacht und als solches auch das Bewusstsein in seinen Zuständen bestimmt, dass aber dennoch das Bewusstsein jener Punkt ist, von dem aus das System homo sapiens sich ‚orientiert‘. Bedenkt man jetzt, dass die Gehirnzellen (Neuronen und Gliazellen zusammen) nur etwa 0.1% des ganzen Körpers ausmachen, und bedenkt man ferner, dass das ‚Bewusstsein‘, das als eine Funktion des Gehirns angenommen werden muss, nur einen – noch nicht klar bestimmten Teil – des Gehirns ausmacht, und bedenkt man ferner, dass das Gehirn nur einen – noch nicht klar bestimmten Teil – des restlichen Körpers ‚wahrnimmt‘ bzw. ’steuert‘, dann muss man davon ausgehen, dass das ‚Unbewusste‘ einen ’sehr großen‘ – wie groß genau? – Anteil am System homo sapiens hat. Die Forschungen zum Bewusstsein stecken leider noch ziemlich in den Anfängen. Brauchbare Theorien sehe ich bislang nirgendwo.

ERGEBNIS

So grob alle Daten bislang sind, so deuten sich doch grundlegende Verhältnisse an, die ein entscheidendes Umdenken in der Erforschung der Natur verlangen. Insbesondere unser Bild vom homo sapiens, also von uns selbst, scheint radikal erneuerungsbedürftig. Sosehr mehr Mikrobiologie sicher wünschenswert und auch notwendig ist, eine ‚Gesamtsicht‘ verlangt erheblich mehr. Es müssen alle die einzelwissenschaftlichen Ergebnisse in einer Gesamttheorie zusammen geführt werden, und diese Gesamttheorie muss die bewusstseinsbasierte Innensicht einbeziehen, andernfalls ist sie wesentlich unvollständig. Das ‚Bewusstsein‘ – was immer es genau ist – ist wesentlich ein Phänomen der Natur, sogar ein sehr außerordentliches Phänomen, einzigartig im ganzen bekannten Universum, und so unglaublich großartig das gesamte Biologische Universum ist, so nimmt das Bewusstsein in diesem biologischen Universum eine Sonderstellung ein. Die Kodierungsleistung biologischer Systeme, die durch die molekülbasierte (DNA, RNA, Ribosom, …) Selbstreplikation eine bis heute nicht ganz enträtselte Funktionalität in die materiellen Strukturen aufblitzen lies, hat mit der Kodierungsleistung durch ein Bewusstsein eine weitere fundamentale Funktionalität entstehen lassen, die geeignet ist, das gesamte Universum auf sich selbst in völlig neuen Dimensionen und Geschwindigkeiten ‚abzubilden‘, deren Auswirkungen kaum abschätzbar sind. Die Entdeckung des Prinzips der Berechenbarkeit im Stil des mathematischen Konzept einer Turingmaschine kopiert diese biologischen Funktionen bis zu einem gewissen Grad und macht sie damit einer technologischen Realisierung zugänglich. Die ersten Auswirkungen dieser neuen Technologie in Kombination mit dem Gehirn erleben wir gerade, beschrieben mit dem Zeitgeist-Wort ‚Digitalisierung der Gesellschaft‘.

ANHANG

Text des kleinen Programms, mit dem gerechnet wurde. Es wurde mit der opensource Software ‚scilab‘ erstellt. Wer sich die Software herunterlädt, kann dies Programm direkt ausführen. Verbesserungswünsche sind herzlichst willkommen. Dieses Programm versteht sich nur als erster Denkanstoß.

//************************
// univuniv()
//
// scilab script. See www.scilab.org
//
// author: Gerd Doeben-Henisch
// First version: 20.Sept. 2018
// Last version: 22.Sept.2018
//
//************************************
//
// If not otherwise mentioned: data are taken from wikipedia DE|EN
//
//*************************************************
// BASIC IDEA
//
// Computing the proportions between the physical and the biological universe
//
// The physical universe will be looked at by the number of galaxies, the number
// of stars in a galaxie, and by the volume of galaxies.
//
//The biological universe will be viewed by the number of humans, the
// number of cells in humans, their volumes, the number of microbes
// on earth and their volume
//
// Finally the different numbers and volumes vill be compared
//
// These numbers are approximations to give a first idea
//
// Distances in Universe is 'kpc' := Kilo Parsec converted to meter
//
// The Milky way galaxy is seen as a zylindrical disc with diameter D=2r
// and a height h. The volume V is then the circle-area of the bottom
// multiplied with its height: V = pi * r^2 * h
//

//'*******************************************
// UNIVERSE
//

// 1 kpc in meter
METERKPC = 3.086e+19

// Estimates for numbers of galaxies in the universe vary between 2*10^11 and 2*10^12
GALAXNUMBERS = (2*10^11 + 2*10^12)/2

//Estimates of number of stars in the Milkyway vary between 100*10^9 and 400*10^9
STARSMILKYNUMBERS = 200*10^9

STARSUNIVNUMBERS = GALAXNUMBERS * STARSMILKYNUMBERS
GALAXMILKYDIAMETER = 30*10^3 * METERKPC
GALAXMILKYTHICK = 0.3*10^3 * METERKPC

//Since the universe has been expanding for 13.8 billion years, the comoving distance (radius) is now about 46.6 billion light-years
UNIVDIAMETER = 8.8*10^26 //in m
UNIVRADIUS = UNIVDIAMETER/2
UNIVVOLUME = 4/3 * %pi * UNIVRADIUS^3 //in m3

//*********************************************
// EARTH DIMENSIONS

//Diameter of earth in m

EARTHDIAMETER = 12.742 * 10^6
EARTHRADIUS = EARTHDIAMETER/2

//Volume inner sphere Vin. external sphere Vext
VOLUMEINNER = 4/3 * %pi * (EARTHRADIUS-7*10^3)^3
VOLUMEEXTERN =  4/3 * %pi * (EARTHRADIUS+7*10^3)^3
VOLUMEMICRO = VOLUMEEXTERN - VOLUMEINNER

//Depth of microbes in earth in m
DEPTHMICRO = 7*10^3

//Height of microbs in atmosphere in m
HEIGHTMICRO = 7*10^3

//Weight of 1 m3 garden soil in gram g
GARDENSOILGRAMQM = 8.3 * 10^5
//number of microbes  in 1 g garden soil: estimatesvary between 10 - 100*10^6
MICROSGRAMGARDEN = 50*10^6

//number of microbes  in 1 m3 garden soil
MICROSQMNUMBER = MICROSGRAMGARDEN * GARDENSOILGRAMQM

//number of microbs on earth
MICROSEARTHNUMBER =  MICROSQMNUMBER * VOLUMEMICRO

//'*******************************************
// HUMANS

// 1 liter = 0.001 m^3
// humans male ca. 85 liter
// humans female ca. 75 liter
// humans male-female ca. 80 liter

HUMANSNUMBER = 7.6*10^9 //May 2018
HUMANWEIGHT = 80 //Kg
HUMANVOLUME = 80 * 0.001 //m^3
CELLSHUMAN = (36 + 110) * 10^12
CELLALLHUMANSNUMBER = HUMANSNUMBER * CELLSHUMAN

//****************************************
// Brain

NEURONS = 80*10^9
RATIONEURONGLIA = 1/1
GLIAS = NEURONS * RATIONEURONGLIA
BRAINCELLS = NEURONS + GLIAS

//'*******************************************
// biouniverse()

//******************************************
// Computing the relations

function [DATE]=univuniv(GALAXMILKYDIAMETER, GALAXMILKYTHICK, GALAXNUMBERS, STARSMILKYNUMBERS, HUMANSNUMBER, HUMANVOLUME, CELLSHUMAN, CELLALLHUMANSNUMBER)
    
    DATE=date()
    
   // V = pi * r^2 * h
   // In cubic meter m^3
   //Volume of milkyway galaxy in m3
   GALAXMILKYVOLUME = %pi * (GALAXMILKYDIAMETER/2)^2 * GALAXMILKYTHICK
   mprintf('Volume m3 of MilkyWay Galaxy = %e\n',GALAXMILKYVOLUME)
   
  //Voulme of all humans in m3
   ALLHUMANSVOLUME = HUMANSNUMBER * HUMANVOLUME
   mprintf('Volume m3 of all Humans = %e\n',ALLHUMANSVOLUME)
   
   
   // Number of cells compared to number of stars
   PROPCELLSHUMANSSTARSMILK = CELLALLHUMANSNUMBER/STARSMILKYNUMBERS
   mprintf('Proportion number 1 human cells to number stars in milky way = %e\n',PROPCELLSHUMANSSTARSMILK)
      
   //Volume of all galaxies corresponding to number of humans
   VOLUMENEEDEDGALTOHUMANS = GALAXMILKYVOLUME * HUMANSNUMBER
   mprintf('Volume of Galaxies corresponding to 1 Human = %e\n',VOLUMENEEDEDGALTOHUMANS)
    
     
   //Proportion of volume of all humans to all needed galaxies
    PROPVOLNEEDEDGALTOHUMANS = VOLUMENEEDEDGALTOHUMANS/ALLHUMANSVOLUME
   mprintf('Proportion volume needed galaxies for all humans = %e\n',PROPVOLNEEDEDGALTOHUMANS)   
   
   //Volume microbes on earth Vmicro in m3
    mprintf('Volume microbes on earth Vmicro in m3 = %e\n',VOLUMEMICRO)   
    
    //Volume of universe in m3
    mprintf('Volume of universe in m3 = %e\n',UNIVVOLUME)   
    
    //Proportion Volume of universe in m3 to volume microbes
    mprintf('Proportion Volume of universe in m3 to volume microbes = %e\n',UNIVVOLUME/VOLUMEMICRO)   
    
    //Number of stars in the universe
    mprintf('Number of stars in the universe = %e\n',STARSUNIVNUMBERS)    
    
    //number of microbes on earth
     mprintf('number of microbes on earth = %e\n',MICROSEARTHNUMBER)    
    
    //Proportion stars in the universe and microbes on earth
      mprintf('Proportion microbes on earth  and stars in the universe = %e\n',(MICROSEARTHNUMBER/STARSUNIVNUMBERS))  
   
    //Number of cells of all humans
    mprintf('Number of cells of all humans = %e\n',CELLALLHUMANSNUMBER)
    
     //Proportion  volume of milkyway galaxy to volume of all human cells on earth  
      mprintf('Proportion  volume of milkyway galaxy to volume of all human cells on earth  = %e\n',(GALAXMILKYVOLUME/ALLHUMANSVOLUME))  
    
        //Proportion all human cells on earth to stars in the universe
      mprintf('Proportion all human cells on earth to stars in the universe = %e\n',(CELLALLHUMANSNUMBER/STARSUNIVNUMBERS))  
 
      //Proportion of all Microbes to all human cells 
      mprintf('Proportion of all Microbes to all human cells = %e\n',(MICROSEARTHNUMBER/CELLALLHUMANSNUMBER))   
      
    // Body and proportions

    //Percentage of brain cells of all body cells
    BRAINPERCENTBODY=BRAINCELLS/(CELLSHUMAN/100)
    mprintf('Percentage of Brain  within Body-Galaxy = %e\n', BRAINPERCENTBODY)

 
      mprintf('\n')
      
endfunction

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

EPISTEMISCHE SCHOCKWELLEN. Die letzten 3500 Jahre

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 20.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Die Diskussion im Kontext des letzten Textes von Freud zur Psychoanalyse lässt erkennen, wie sich das Bild von uns Menschen über uns selbst dadurch in gewisser Weise ändern kann und letztlich dann ändert, wenn wir uns auf diese Gedanken einlassen. Die Einbeziehung des ‚Unbewussten‘ in das Gesamtbild des Systems homo sapiens verschiebt so manche Beziehungen im Gefüge des menschlichen Selbstbildes, und nicht nur das, es wirkt sich auch aus auf das Gesamtbild der empirischen Wissenschaften, auf ihr Gesamtgefüge. Dies hatte sich ja auch schon angedeutet in der vorausgehenden Diskussion des Buches von Edelman, die noch nicht abgeschlossen ist.

Dies hat mich angeregt, über Freud und Edelman hinausgehenden einige der epistemischen Schockwellen zusammen zu stellen, denen das menschliche Selbstverständnis in den letzten ca. 3500 Jahren ausgesetzt war. Dabei muss man sich darüber im Klaren sein, dass es natürlich immer nur eine Minderheit war, die überhaupt an den übergreifenden Erkenntnissen teilhaben konnte, und selbst diese Minderheit zerfällt in unterschiedliche Subgruppen ohne ein kohärentes Gesamtbild.

EPISTEMISCHE SCHOCKWELLEN

Unter ‚Schockwellen‘ werden hier energetische Ereignisse verstanden, die nur gelegentlich auftreten, und die geeignet sind, bestehende Strukturen zumindest zum Schwingen, zum Erbeben zu bringen, wenn nicht gar zu ihrer Zerstörung führen. ‚Epistemisch‘ bezieht sich auf die Dimension des Erkennens, des Verstehens, zu dem Exemplare des Homo sapiens fähig sind. ‚Epistemische Schockwellen‘ sind also Ereignisse, durch die das Selbstverständnis, die Weltbilder der Menschen in Schwingungen versetzt wurden bzw. sich neu aufbauen mussten.

Die folgende Zusammenschau solcher epistemischer Schockwellen ist in keiner Weise vollständig, weitgehend nicht differenziert genug, rechtfertigt sich aber dadurch, dass es darum geht in einer überschaubaren Weise einen Grundeindruck von der Dynamik des Geistes zu vermitteln, die dem Geschehen des biologisch fundierten Lebens innewohnt.

CLUSTER RELIGION

 

Stichworte zu 'Epistemische Schockwellen', Teil 1. ca. -1500 bis ca. 1500

Stichworte zu ‚Epistemische Schockwellen‘, Teil 1. ca. -1500 bis ca. 1500

Zwischen ca. -1500 bis etwa 650 gab mindestens 8 große das Weltverstehen prägende Ereignisse – daneben viele andere, weitere –, die wir im Nachgang als ‚Religionen‘ bezeichnen. Religionen zeichnen sich aus durch ‚Gründer‘, durch ‚Botschaften‘, durch ‚Erfahrungen‘ und dann meistens nachfolgend durch ‚Regeln‘ und Bildung von ‚Organisationsformen‘. Sie erheben einen Anspruch auf ‚Deutung der Welt‘ mit ‚Sinn‘, ‚Werten‘ und ‚Spielregeln‘. Sie versprechen auch den Kontakt zu eine Letzten, Größten, Umfassenden, Endgültigen, dem alles andere unter zu ordnen ist. Vielfach gehen diese Versprechungen auch einher mit speziellen ‚außergewöhnlichen Erlebnissen‘, die im einzelnen stattfinden.

In Vorderasien und Europa waren dies vor allem das Duo Judentum-Christentum und der Islam. Während diese sich explizit auf einen ‚Schöpfer‘ bezogen, kam der indische Subkontinent neben der vielfältigen Götterwelt des Hinduismus in seinem Grundtenor — realisiert im Buddhismus — ohne einen expliziten Schöpfer aus, allerdings nicht ohne eine tiefgreifende Existenzerfahrung des einzelnen Menschen, der sich durch einen geeigneten Lebensstil und Meditation möglichst weitgehend von einem normalen Alltag und seinen vielfältigen Spannungen isolierte.

So verschieden Jugentum-Christentum, Islam auf der einen Seite und Indischer Existentialismus auf der anderen Seite auf den ersten Blick wirken können, kann man aber dennoch auffällige strukturelle Parallelen erkennen.

Die sprachliche Seite der genannten Religionen tendiert dazu, nicht die Weite und Vielfalt der Welt zu kommunizieren, keine weiterreichende Erkenntnisse, sondern die Sprache hat einzig den Zweck, eine bestimmte, abgegrenzte Idee zu kommunizieren, diese abzugrenzen von allem anderen, bis dahin, dass alle Abweichungen diskreditiert werden. Jene Menschen, die sich sprachlich von der ‚Norm‘ entfernen sind Abweichler, Dissidenten, Ungläubige, Verräter, Feinde. Die Sprache wird also nicht gesehen als ein offener, lebendiger, dynamischer Raum von ‚Wahrheit‘, die sich weiter entwickeln kann, sondern als eine symbolische Fessel, eine symbolische Mauer, die einige wenige Ideen abgrenzen sollen. Auch der Buddhismus, der eigentlich sein Fundament in einer schwer beschreibbaren individuellen Existenzerfahrung sieht, praktiziert Sprache überwiegend als Gefängnis.

Betrachtet man sich die Geschichte dieser Religionen bis heute, dann ist diese Starrheit unübersehbar. Alle modernen Erkenntnisse und Entwicklungen prallen an der Sprache dieser Religionen ab.

Neben der sprachlichen Dimension haben alle diese Religionen auch eine ‚Erlebnisdimension‘, oft auch ‚Spiritualität‘ oder ‚Mystik‘ genannt. Einzelne, Gruppierungen, Bewegungen erzähltem davon, schrieben es auf, dass sie ‚besondere, tiefgreifende Erlebnisse‘ hatten, die ihnen ‚klar gemacht haben‘, was wirklich ‚wichtig‘ ist, ‚worin der Sinn des Lebens‘ liegt, Erlebnisse, die ihnen ‚Frieden‘ geschenkt haben, ‚Erfüllung‘, ‚Wahrheit‘. Und diese Erlebnisse waren immer so stark, dass sie diese Menschen aus allen Schichten dazu bewegt haben, ihr Lebens radikal zu ändern und von da an eben ‚erleuchtet‘ zu leben. Diese Menschen gab es nicht nur im Umfeld des Buddhismus, sondern auch zu Tausenden, Zehntausenden im Umfeld des Judentum-Christentums.

Solange diese religiösen Bewegungen sich im Umfeld der etablierten religiösen Überzeugungen und Praktiken bewegen wollten, mussten sie sich – wie immer auch ihre individuellen Erlebnisse waren – diesem Umfeld anpassen. In vielen Fällen führte dies auch zu Absetzbewegungen, zur Entwicklung neuer religiöser Bewegungen. Das Problem dieser erlebnisbasierten Bewegungen war, dass sie entweder nicht die Sprache benutzen durften, die sie zur Beschreibung ihrer Erlebnisse brauchten (da nicht erlaubt), oder aber, sie benutzten eine neue Sprache, und dies führte zum Konflikt mit den etablierten Sprachspielen.

Unter den vielen hunderten Bewegungen allein im Bereich Judentum-Christentum, die z.T. viele tausend, ja zehntausend  Mitglieder hatten und dabei oft auch materiell sehr wohlhabend bis reich wurden, möchte ich zwei kurz erwähnen: die Reformation angefeuert von Martin Luther und den Jesuitenorden, angefeuert von Ignatius von Loyola. Im historischen Klischee werden beide Bewegungen oft als direkte Gegner skizziert, da der Jesuitenorden kurz nach Beginn der Reformationsbewegung gegründet wurde und der katholische Papst gerade diesen Orden auch zur ‚Bekämpfung der Reformation‘ einsetzte. Dieses Bild verdeckt aber die wirklich interessanten Sachverhalte.

Der Jesuitenorden entstand aus den spirituellen Erfahrungen eines baskischen Adligen, deren innere Logik, Beschreibung und Praxis, im Lichte der Erkenntnisse der modernen Psychologie (und Psychoanalyse) stand halten würde. Außerdem war der Orden aufgrund dieser Spiritualität extrem weltoffen, wissenschaftsaffin, und revolutionierte die damals beginnende christliche Missionierung der Welt, indem jeweils die Kultur der verschiedenen Erdteile studiert und übernommen und sogar gegen zerstörerische Praktiken der europäischen Kolonisatoren geschützt wurden. Genau dieses wahre Gesicht des Ordens mit einer radikal individuell-erlebnisbasierten Spiritualität und daraus resultierenden Weltoffenheit und Menschlichkeit führte dann zum Verbot und Aufhebung des Ordens weltweit, verbunden mit Einkerkerungen, Folter und Tod ohne Vorankündigung. Das korrupte Papsttum ließ sich damals von dem portugiesischen und spanischen Hof erpressen, die ihre menschenverachtende Geschäfte in den Kolonien, speziell Südamerika, bedroht sahen. Dies war nicht die einzige Aufhebung und Misshandlung, die der Orden seitens des Papstums erfuhr. Während Luther sich gegen das Papsttum erhob und es auf einen Konflikt ankommen ließ, blieben die Jesuiten dem Papst treu und wurden vernichtet.

Diese Minigeschichte ließe sich aber zu einem großen Thema erweitern, da eben die sprachlich fixierten Religionen generell ein Problem mit Wahrheit und damit mit jeglicher Art von Erfahrung haben. Die Akzeptanz individueller Erfahrung als möglicher Quell von ‚Wahrheit‘, möglicherweise einer weiter reichenden alternativen Wahrheit zu der sprachlich fixierten (und damit eingesperrten) Wahrheit der Religionen, eine solche Akzeptanz würde das Wahrheitsmonopol dieser Religionen aufheben. Bislang hat keine der genannten Religionen es geschafft, von sich aus ihr problematisches Wahrheitsmonopol in Frage zu stellen.

JUDENTUM – CHRISTENTUM – PHILOSOPHIE

In der Zeit vor den modernen empirischen Wissenschaften existierte wissenschaftliches Denken entweder gar nicht oder in enger Verbindung mit dem philosophischen Denken bzw. der Medizin.

In der alten und klassischen Griechischen Philosopie (ca. -800 bis -200) wurde das Weltverstehen in vielen Bereichen erstmalig sehr grundlegend reflektiert, unabhängig von bestimmten religiösen Überzeugungen, obgleich natürlich auch diese Denker nicht im luftleeren Raum lebten sondern in konkreten Kulturen mit einer damals üblichen Moral, Ethik, Spielregeln, Sprachspielen.

Unter den vielen bedeutenden Konzepten war das größte systematische Konzept wohl jenes von Aristoteles, Schüler Platons, und den an ihn anschließenden Schulen. Während dieses griechische Denken nach der Eroberung Griechenlands durch die Römer in Mittel- und Westeuropa bis zum Jahr 1000 mehr oder weniger unbekannt war (Kriege, radikal anti-wissenschaftliche Einstellung der katholischen Kirche) war der damalige Islam sehr offen für Wissen. Das griechische Denken war im Islam weitgehend bekannt, lag entsprechend in arabischen Übersetzungen vor, und durch eine Vielzahl von Schulen, Bildungsstätten und großen Bibliotheken (z.T. mehrere hundert Tausend Bücher!) wurde dieses Wissen gepflegt und weiter entwickelt (welcher Kontrast zum heutigen Islam!). Und nur über diese Umweg über den hochgebildeten Islam mit Übersetzungsschulen in Spanien kam das Wissen der Griechen ab ca. 1000 wieder in das christliche Mittel- und West-Europa.

Mit dem Entstehen eines aufgeschlosseneren Bildungssystem in Europa wanderten die griechischen Gedanken über Bücher und Gelehrte wieder in europäische Bildungsstätten ein. Es gab eine Zeit der intensiven Auseinandersetzung zwischen bisheriger christlicher Theologie und Aristoteles. Auf dem Höhepunkt der begrifflichen Integration von christlichem Glauben und Aristotelischer Weltsicht gab es aber ‚Abspaltungstendenzen‘ in mehreren Bereichen.

POLITIK – WISSENSCHAFT – SPIRITUALITÄT

Das zunehmend freie und kritische Denken begann mit der Infragestellung der bis dahin waltenden absolutistischen Machtstrukturen.

Das methodisch geschulte universitäre Denken begann, über die aristotelischen Konzepte hinaus zu denken. Anknüpfungspunkte gab es genügend.

Das individuelle Erleben der Menschen, ihre Frömmigkeit, ihre Spiritualität suchte nach neuen Wegen, benutzte eine neue Sprache, um sich besser ausdrücken zu können.

Das neue politische Denken führte später zur französischen Revolution und vielen ähnlichen politischen Erneuerungsbewegungen.

Das neue philosophische Denken führt alsbald zum Bildung der neuen empirischen Wissenschaften mit neuer Logik und Mathematik.

Die neue Spiritualität lies viele neue religiöse Bewegungen entstehen, die quer zu allen etablierten Glaubensformen lagen, u.a. auch zur Reformation.

PHILOSOPHIE – WISSENSCHAFT

Stichworte zu 'Epistemische Schockwellen', Teil2. ca. ca. 1550 bis ca.2018

Stichworte zu ‚Epistemische Schockwellen‘, Teil2. ca. ca. 1550 bis ca.2018

Aus der Vielzahl der philosophischen Denker bieten sich vier besonders an: Descartes, Kant, Wittgenstein und Carnap.

Von heute aus betrachtet markieren diese Vier entscheidende Umbrüche des philosophischen Denkens, das von den Entwicklungen in der Logik, Mathematik,Physik, Geowissenschaften, Biologie und Psychologie zusätzlich profitiert hat und noch immer profitiert.

Descartes versuchte zu klären, inwieweit sich die Wahrheitsfrage nur durch Rekurs auf das eigene Denken lösen ließe. Sein Fixpunkt in der Gewissheit des eigenen Denkens (cogito ergo sum) wurde aber erkauft durch einen fortbestehenden Dualismus zwischen Körper (res extensa) und Denken/ Geist (res cogitans), den er mit einem irrationalen Gedanken zu einer Zirbeldrüse zu kitten versuchte.

Kant führte dieses Forschungsprogramm von Descartes letztlich weiter. Sein Vermittlungsversuch zwischen fehlbarer konkreter empirischer Erfahrung und den allgemeinen Prinzipien der Mathematik und des Denkens (des Geistes) ging über Descartes insoweit hinaus, dass er auf eine Zirbeldrüsen-ähnliche Lösung verzichtete und stattdessen davon ausging, dass der Mensch in seinem Denken von vornherein in abstrakten Kategorien wahrnimmt und denkt. Unsere menschliche Konstitution ist so, dass wir so wahrnehmen und Denken. Er konstatierte damit ein Faktum, das wir heute mit all unseren Erkenntnissen nur bestätigen können. Es blieb bei ihm offen, warum dies so ist. Es zeichnet seine intellektuelle Redlichkeit aus, dass er die offenen Enden seiner erkenntnistheoretischen (epistemischen) Analysen nicht krampfhaft mit irgendwelchen Pseudo-Lösungen versucht hat zu vertuschen.

Wittgenstein war der erste, der sich mit dem Funktionieren der Sprache und ihrer Wechselwirkung mit unserem Denken ernsthaft, ja radikal beschäftigte. Während er in seinem Frühwerk noch der Statik der damaligen modernen Logik huldigte, begann er dann später alle diese statischen formalen Konstruktionen in der Luft zu zerreißen, durchlief weh-tuende detaillierte Analysen der Alltagssprache, machte vor nichts Halt, und hinterließ mit seinem frechen und angstfreien Denken einen Trümmerhaufen, dessen Verdienst es ist, den Raum frei gemacht zu haben für einen echten Neuanfang.

Carnap wirkt in diesem Zusammenhang auf den ersten Blick wie ein Antipode zu Wittgenstein, und in der Tat hat er ja das vor-wittgensteinsche Sprachverständnis in seinen Studien zu den formalen Sprachen, zur Logik, zur logischen Semantik weiter angewendet. Allerdings hat er dies dann auch im Kontext der empirischen Wissenschaften getan. Und in diesem Kontext hat sein formal-scholastisches Denken immerhin dazu beigetragen, die Grundstrukturen moderner empirische Theorien mit einem formalen Kern frei zu legen und ihre Eigenschaften zu untersuchen.

Alle diese genannten Ansätze (Kant, Wittgenstein, Carnap) wurden später mehrfach kritisiert, abgewandelt, weiter entwickelt, aber es waren diese Ansätze, die die nachfolgenden Richtungen entscheidend beeinflusst haben.

Ein interessanter Grenzfall ist Freud (s.u.). Irgendwie könnte man ihn auch zur Philosophie rechnen.

LOGIK – MATHEMATIK

Aus heutiger Sicht kann man sich gar nicht mehr vorstellen, dass es eine Zeit gegeben hat, in der die moderne Logik und Mathematik nicht verfügbar war. Nahezu alles, was unseren Alltag ausmacht setzt sehr viel Mathematik als beschreibende Sprache, als Berechnung, als Simulation voraus. Dass mathematisches Denken in den Schulen so wenig – und immer weniger – behandelt wird, ist sehr irritierend.

Logik und Mathematik sind einen weiten Weg gegangen.

Ein Meilenstein ist der Übergang von der klassischen aristotelischen Logik (eng an der Alltagssprache, Einbeziehung inhaltlichen Alltagsdenkens) zur modernen formalen Logik seit Frege (formale Sprache, formaler Folgerungsbegriff).

Eng verknüpft mit der Entwicklung der neuen formalen Logik ist auch die Entwicklung der modernen Mathematik, die entscheidend mit der Erfindung der Mengenlehre durch Cantor ihren Durchbruch fand, und dann mit Russel-Whitehead und Hilbert die Neuzeit erreichte. Keine der modernen Arbeiten in Gebieten wie z.B. Algebra, Topologie, Geometrie sind ohne diese Arbeiten denkbar, ganz zu schweigen von der modernen theoretischen Physik.

EMPIRISCHE WISSENSCHAFTEN

Erste Ausläufer empirischer Wissenschaft gab es schon vor Galilei (man denke z.B. nur an die bahnbrechenden Forschungen zur Medizin von dem islamischen Gelehrten (und Philosophen, Logiker, Theologen!) Avicenna). Doch an der Person Galileis kristallisiert sich der Konflikt zwischen neuem, offenen wissenschaftlichen Denken und dem alten, geschlossenen christlichen Denken. Zudem hat Galilei eben konsequent sowohl eine experimentelle Messmethode angewendet wie auch eine beginnende mathematische Beschreibung. Mit Newton gelang dann eine Fassung von Experiment und Theorie, die atemberaubend war: die Bewegung der Himmelskörper ließ sich nicht nur mit einfachen mathematischen Formeln beschreiben, sondern auch noch mit bis dahin unbekannter Präzision voraus sagen. Es sollte dann zwar noch fast 300 Jahre dauern, bis die moderne Physik eine erste Theorie zur Entstehung des ganzen Weltalls formulieren konnte samt ersten experimentellen Bestätigungen, aber die Befreiung des Denkens von dogmatischen Sprachbarrieren war geschafft. Die Wissenschaft insgesamt hatte sich freigeschwommen.

Schon im 17.Jahrhundert hatte Niels Stensen entdeckt, dass die unterschiedlichen Ablagerungsschichten der Erde in zeitlicher Abfolge zu interpretieren sind und man daher auf geologische Prozesse schließen kann, die die Erde durchlaufen haben muss.

Zwei Jahrhunderte später, schon im 19.Jahrhundert, wurde diese historische Sicht der Erde ergänzt durch Charles Darwin, der am Beispiel der Pflanzen- und Tierwelt auch Hinweise auf eine Entwicklung der Lebensformen fand. Sowohl die Erde als auch die biologischen Lebensformen haben eine Entwicklung durchlaufen, zudem in enger Wechselwirkung.

Fast parallel zu Darwin machte Freud darauf aufmerksam, dass unser ‚Bewusstsein‘ nicht die volle Geschichte ist. Der viel größere Anteil unseres menschlichen Systems ist ’nicht bewusst‘, also ‚unbewusst‘. Das Bewusstsein ‚erzählt‘ uns nur ‚Bruchstücke‘ jener Geschichten, die weitgehend im ‚Nicht-Bewusstein‘ oder ‚Unbewussten‘ ablaufen.

Die weitere Entwicklung der Biologie lieferte viele Argumente, die das Bild von Freud stützen.

Der Versuch von Watson, 1913, die Psychologie als empirische Verhaltenswissenschaft zu begründen, wurde und wird oft als Gegensatz zu Psychoanalyse gesehen. Das muss aber nicht der Fall sein. Mit der Verhaltensorientierung gelang der Psychologie seither viele beeindruckende theoretische Modelle und Erklärungsleistungen.

Von heute aus gesehen, müsste man ein Biologie – Psychologie – Psychoanalyse Cluster befürworten, das sich gegenseitig die Bälle zuspielt.

Durch die Einbeziehung der Mikro- und Molekularbiologie in die Evolutionsbiologie konnten die molekularen Mechanismen der Evolution entschlüsselt werden.Mittlerweile steht ein fast komplettes Modell der biologischen Entwicklung zur Verfügung. Dies erlaubt es sowohl, Kants (als auch Descartes) Überlegungen von den biologischen Voraussetzungen her aufzuklären (z.B. Edelman!), wie auch die Psychologie samt der Psychoanalyse.

COMPUTER

Als Gödel 1931 die Unentscheidbarkeit anspruchsvoller mathematischer Theorien (das fängt bei der Arithmetik an!) beweisen konnte, wirkte dies auf den ersten Blick negativ. Um seinen Beweis führen zu können, benötigte Gödel aber sogenannte ‚endliche Mittel‘. Die moderne Logik hatte dazu ein eigenes Forschungsprogramm entwickelt, was denn ‚endliche Beweismethoden‘ sein könnten. Als Turing 1936/7 den Beweis von Gödel mit dem mathematischen Konzept eines Büroangestellten wiederholte, entpuppte sich dieses mathematische Konzept später als ein Standardfall für ‚endliche Mittel‘. Turings ‚mathematisches Konzept eines Büroangestellten‘ begründete dann die spätere moderne Automatentheorie samt Theorie der formalen Sprachen, die das Rückgrat der modernen Informatik bildet. Das ‚mathematische Konzept eines Büroangestellten‘ von Turing wurde ihm zu Ehren später ‚Turingmaschine‘ genannt und bildet bis heute den Standardfall für das, was mathematisch ein möglicher Computer berechnen kann bzw. nicht kann.

Im weiteren Verlauf zeigte sich, dass gerade das Konzept des Computers ein extrem hilfreiches Werkzeug für das menschliche Denken sein kann, um die Grenzen des menschlichen Wahrnehmens, Erinnerns und Denkens auszugleichen, auszuweiten.

Schon heute 2018 ist der Computer zu einem unverzichtbaren Bestandteil der Gesellschaft geworden. Das Wort von der ‚Digitalen Gesellschaft‘ ist keine Fiktion mehr.

ZEITGEIST

Der extrem kurze Rückblick in die Geschichte zeigt, wie schwer sich die Ausbildung und Verbreitung von Ideen immer getan hat. Und wenn wir uns die gesellschaftliche Realität heute anschauen, dann müssen wir konstatieren, dass selbst in den hochtechnisierten Ländern die gesamte Ausbildung stark schwächelt. Dazu kommt das eigentümliche Phänomen, dass das Alltagsdenken trotz Wissenschaft wieder vermehrt irrationale, gar abergläubische Züge annimmt, selbst bei sogenannten ‚Akademikern‘. Die Herrschaft von Dogmatismen ist wieder auf dem Vormarsch. Die jungen Generationen in vielen Ländern werden über mobile Endgeräte mit Bildern der Welt ‚programmiert‘, die wenig bis gar nicht zu wirklichen Erkenntnissen führen. Wissen als solches, ist ‚wehrlos‘; wenn es nicht Menschen gibt, die mit viel Motivation, Interesse und Ausdauer und entsprechenden Umgebungen zum Wissen befähigt werden, dann entstehen immer mehr ‚Wissens-Zombies‘, die nichts verstehen und von daher leicht ‚lenkbar‘ sind…

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

KEIN MEMO – PSYCHOANALYSE DURCH ROBOTER?

Da die letzte Philosophierwerkstatt

PSYCHOANALYSE DURCH ROBOTER? Teil 2. Einladung zur PHILOSOPHIEWERKSTATT am 25.Februar 2018

sehr kurzfristig wegen einem schweren Infekt abgesagt werden musste, gibt es noch kein Memo. Die Sitzung wird bei der nächsten geplanten Sitzung am

25.März 2018, 15:00 – 18:00

nachgeholt werden. Die weiteren geplanten Termine für die Philosophiewerkstatt sind:

 

  • 29.April 2018
  • 27.Mai 2018
  • 24.Juni 2018
  • 29.Juli 2018
  • Sommerpause bis Ende September 2018

Künstliche Intelligenz sogar in der Psychotherapie – Wohin soll das noch führen? Prof. Humm -Darmstadt. Memo

PDF

KURZFASSUNG

Bericht zum VORTRAG „Künstliche Intelligenz sogar in der Psychotherapie — Wohin soll das noch führen?“ von Prof. Dr. Bernhard Humm (FB Informatik, Hochschule Darmstadt), Moderation: Prof. Doeben-Henisch, im Institut für Neue Medien (INM), Frankfurt, Schmickstraße 18, Donnerstag 28. September 2017, 19:30 Uhr (Fotos: Zeynep Tuncer)

KONTEXT

Bernhard Humm hatte am 5.Mai 2017 im eJournal Philosophie Jetzt- Menschenbild (ISSN 2365-5062) einen Beitrag veröffentlicht mit dem Titel „Technische Superintelligenzen werden die Menschheit bedrohen“ – Wie kann man eine so absurde Behauptung aufstellen?, der viele positive Reaktionen ausgelöst hatte. Wir hatten daraufhin einen öffentlichen Vortrag im Institut für Neue Medien (INM, Frankfurt) im Rahmen einer neuen Reihe ‚Philosophie Jetzt im Gespräch‘ vereinbart. Sein Vortrag fand dann am 28.September 2017 im INM statt. Und, wie sich zeigte, fand sich ein sehr interessantes Publikum zusammen, was das Gespräch sehr bereicherte.

BERICHT

KI ein Hype

Prof.Dr.Bernhard Humm (Hochschule Darmstadt) während seines Vortrags

Prof.Dr.Bernhard Humm (Hochschule Darmstadt) während seines Vortrags

Einleitend machte er deutlich, dass das Thema Künstliche Intelligenz (KI) seit einigen Jahren einen Hype-Charakter hat, was allerdings nicht neu ist. Zitate von Marvin Minsky (1967, 1970) und Ray Kurzweil (2005) illustrierten dies. Der Verweis auf das Märchen von des Kaiser’s neuen Kleider mag auf den ersten Blick krass erscheinen, aber wenn man sich die Marketingverlautbarungen vieler Firmen anschaut, ist dies nicht allzu weit weg davon.

KI im Alltag

Offensichtlich ist, dass Anwendungen mit KI-ähnlichen Eigenschaften mittlerweile im Alltag angekommen sind und wie selbstverständlich benutzt werden (z.B. Gesichtserkennung, Sprachschnittstellen für die Steuerung, selbst fahrende Autos).

Bernhard Humm verdeutlichte diese Breite heutiger Anwendungen mit anderen Projekten, bei denen er beteiligt war, so z.B. die Unterstützung der Entwickler bei einer bekannten Roboterfirma, die Unterstützung bei der Findung eines geeigneten Hotels für die Wünsche von Kunden bei einem bekannten Internetportal für die Hotelreservierung, die Unterstützung der Besucher des Städelmuseums im Auffinden ähnlicher Kunstobjekte, die Unterstützung von Bibliotheksbenutzern bei der Suche nach passender Literatur, oder die Unterstützung von Ärzten beim Identifizieren von Krebsrisiken.

KI und Therapie

Jürgen Hardt, ein Experte für Psychoanalyse und Psychotherapie, hört hier aufmerksam zu

Jürgen Hardt, ein Experte für Psychoanalyse und Psychotherapie, hört hier aufmerksam zu

Bernhard Humm berichtete dann von einem neuen Projekt mit dem Zentralinstitut für Seelische Gesundheit (ZI) in Mannheim, bei dem es um den Therapiekontext im Fall von Borderline-Patienten geht. Solche Patienten sind extrem sensibel für Belastungen, was bedeutet, dass in der Interaktion mit Ihnen Stressmomente soweit wie möglich minimiert werden müssen.

Die Aufgabenstellung für die Informatik in diesem Fall ist nicht, den Therapeuten zu ersetzen, sondern die Therapie des Therapeuten zu unterstützen.

Ein Anknüpfungspunkt sind die routinemäßigen schriftlichen Befragungen, die die Patienten mit normalem Schreibgerät ausfüllen müssen. Für die Therapeuten ist dies eine wichtige Rückmeldung. Für die Patienten ist es ein Baustein ihrer aktiven Bewältigung der Borderline-Phänomene.

Eine Maßnahme war die Möglichkeit anzubieten, dass die Patienten diese Fragebogen über ihr Smartphone oder den Computer ausfüllen können. Was auf den ersten Blick banal erscheinen mag, stellte sich als eine große Hilfe für die Patienten heraus. Sie empfanden dies deutlich als Erleichterung.

Ein anderer Ansatzpunkt war motiviert durch die allgegenwärtige Gefahr, dass Patienten (aufgrund ihres geringen Stresspegels) sehr leicht zu einem Abbruch tendieren. Für die Therapeuten ist es daher von hoher Bedeutung, zu erkennen, ob sich ein Abbruch andeutet. Es wurde daher versuchsweise begonnen, mit Methoden der statistischen Datenanalyse (heute oft verbunden mit dem Schlagwort von ‚Big Data‘), über eine Vielzahl von (anonymisierten) Fragebogendaten, Anhaltspunkte zu finden, die auf einen wahrscheinlichen Abbruch hindeuten. Die ersten Experimente mit verschiedenen Auswertungstechniken waren sehr positiv. Damit deutet sich an, dass die Therapeuten auf diese Weise eine zusätzliche Unterstützung bekommen könnten, in ihrer Therapie darauf zu achten.

Matthias Rewald (Armstädter Ontologenkreis) und Gerd Doeben-Henisch (Moderator des Abends) im Gespräch

Matthias Rewald (Darmstädter Ontologenkreis) und Gerd Doeben-Henisch (Moderator des Abends) im Gespräch

KI und Zukunft der Arbeit

Michael Klein, der Direktor des INM, mit einem frfeundlichen Lächeln

Michael Klein, der Direktor des INM, mit einem freundlichen Lächeln

Bernhard Humm betonte einerseits die Normalität und die aktuelle Einfachheit der tatsächlichen KI-Anwendungen, er verwies aber auch auf mögliche weitreichende Herausforderungen, die sich durch die zunehmende Ersetzung von klassischen Arbeitsplätzen durch intelligente Technologien manifestieren.

Im Rahmen der industriellen Revolution hat die Menschheit schon einige Umbrüche erlebt und letztlich überstanden, aber der neue Technologiewandel durch umfassende Digitalisierung greift viel weiter, viel tiefer in das gesellschaftliche Leben ein als alles, was wir bislang kennen.

Die bisherigen Prognosen zur Zukunft der Arbeit sind zudem sehr widersprüchlich; dies deutet an, dass die Materie unübersichtlich ist. Sollte der Wegfall von Arbeitsplätzen deutlich größer sein als das Entstehen neuer Arbeit, dann würde dies große Herausforderung an das bisherige Gesellschaftsmodell stellen: wie an der wirtschaftlichen Produktion beteiligt sein ohne durch Arbeit Geld zu verdienen?

Auch stellen sich viele Fragen, wenn immer mehr Entscheidungsprozesse an Algorithmen ausgelagert werden. Wenn automatisierte Waffen ‚von sich aus‘ angreifen und töten? Wenn im Hochfrequenzhandel an den Börsen die Algorithmen global wirtschaftliche Prozesse ohne Rückkopplung an Menschen steuern? Wenn Verwaltungsabläufe automatisiert werden? Wenn … viele Fragen, auf die wir bislang noch keine Antworten haben.

DISKUSSION

Schon während des Vortrags gab es Ansätze zur Diskussion, die dann nach einer kurzen Pause lebhaft weiter geführt wurde.

Man kann die Beiträge grob in zwei Gruppen einteilen: (i) Der Kontext von Therapie für den Einsatz von KI und (ii) Grundsatzfragen zur Zukunft von Menschen und intelligenten Maschinen.

Therapiekontext

Aufgrund der Einfachheit der Informatikanwendungen am Beispiel der Therapie von Borderline-Patienten und ihrer deutlichen Beschränkung als begrenztes Werkzeug für die Therapeuten gab es hier noch nicht viel Diskussionsbedarf. Jürgen Hardt, erfahrender Psychoanalytiker und Psychotherapeut(*)  lies allerdings in seinen Gesprächsbeiträgen aufblitzen, wie komplex die Sachlage im Fall von psychoanalytischen Therapien ist und welche grundsätzlichen Beschränkungen computergestützte Anwendungen bislang aufweisen, erst Recht, wenn sie als online-Dienst daher kommen.

Andererseits zeigt das Projektbeispiel mit den Borderline-Patienten auch ein wenig, dass ein übergreifender theoretischer Rahmen für diese Art von interdisziplinärem Vorgehen noch fehlt. Es wäre interessant zu sehen, ob und wie solch ein Rahmen die Diskussion beeinflussen könnte.

Bernhard Humm, während der Pause, eingetaucht in virtuelle Beschriftung

Bernhard Humm, während der Pause, eingetaucht in virtuelle Beschriftung

KI als mögliche Bedrohung

Die Tatsache, dass die überwiegende Zahl der Beiträge sich auf die möglichen Bedrohungen der KI bezog, deutet an, wie stark dies doch offensichtlich alle beschäftigt.

Ein Thema war die offensichtliche Faszination, die das Thema KI bei den Menschen auslöst; einmal in dem Sinne, dass man mit der KI eine Fülle von Verheißungen verknüpft, die Lösung aller Probleme, die wir Menschen bislang noch nicht gelöst haben, und dann unendliche Bedrohungsszenarien. Woher kommt dies? Warum reagieren wir Menschen so? Und in der Tat lässt sich dieses Motiv in der Kulturgeschichte viele Jahrhunderte, wenn nicht Jahrtausende zurück verfolgen (Jürgen Hardt).

Einen großen Raum nahm das Thema ‚Digitalisierung der Gesellschaft ein, was von einigen als Teil eines Kulturwandels gedeutet wurde, der grundlegende Muster verändert. Worauf dies alles hinauslaufen wird erschließt sich noch nicht so richtig. Michael Klein machte darauf aufmerksam, dass die großen Internetkonzerne mit Sitz in Silicon Valley schon seit den 90iger Jahren eindeutige Manifest verfasst haben, in denen sie beschreiben, wie sie die Welt verändern wollen. Ein Kern dieser Überzeugungen ist der Glaube an die globale Allheilkraft der Daten mit Daten lassen sich alle Probleme lösen.

Dies erinnert an die Schriften der Aufklärung(Humm), in denen ebenfalls die Verfügbarkeit von Wissen als ein Schlüssel für die Veränderung der Welt (dort vom Absolutismus zu mehr Gleichheit und Brüderlichkeit in allem, zum Abbau von Dogmatismus und Ideologie) angesehen wurde. Wie die Geschichte uns zeigen kann, hat das Wissen alleine bislang offensichtlich nicht diese erhoffte Heilkraft für alle Probleme: Diktaturen, Kriege, Ausbeutung, Hunger, Unterdrückung und vieles mehr sind bis heute de weltumfassenden Begleiter der Menschheit.

Es gab auch verschiedene Stimmen, die jene Position von Bernhard Humm in Frage stellten, in der er den Unterschied zwischen Menschen und intelligenten Maschinen so grundsätzlich darstellte, dass ein Ersatz der Menschen durch solche Maschinen kaum vorstellbar erscheine. Das Ergebnis dieser Argumente war nicht eindeutig. Dass intelligente Maschinen sich in der Zukunft zumindest selbst ‚fortpflanzen‘ könnten, schien den Diskussionsteilnehmern prinzipiell nicht ausgeschlossen.

Doeben-Henisch wies gegen Ende noch auf ein grundlegendes Problem der modernen KI hin, das, sollte es zutreffen, sehr viele Fragezeichen hinter die Zukunft der KI setzen würde, selbst wenn diese Maschinen tausende Male schneller als Menschen würden (was sie ja schon sind) und tausende Male mehr Daten verarbeiten können (was ja auch schon stattfindet). Das Problem findet sich im Bereich des autonomen Lernens. In dem sehr fortschrittlichen Bereich ‚developmental robotics‘, wo es um die Entwicklung von Robotern mit mehr Autonomie geht, die sich ähnlich wie Kindern entwickeln können sollen, ist man seit einigen Jahren auf das Problem gestoßen, mit welchen Präferenzen (= Werte) Roboter lernen sollen, wenn diese nicht nur von den Ingenieuren ‚eingeflüstert‘ werden sollen. Außerdem reicht es nicht, dass ein einzelner Roboter ‚Präferenzen‘ besitzt, sondern eine ganze Population von Robotern muss sich ‚einigen‘, welche Werte sie gemeinsam verfolgen wollen. Aktuell führt die Menschheit vor, wie unfähig sie selbst ist, dieses Problem zu lösen. Es gibt nicht die leiseste Idee, wie Roboter dieses Problem lösen sollen. Wissen als solches ist neutral, es gibt keine Richtung vor. Die chinesische Regierung demonstriert gerade, wie man das aktuelle Werte-Vakuum und die ‚willenlose KI‘ aufgrund von Machtkonstellationen beliebig instrumentalisieren kann (Bericht FAZ vom 25.September 2017).

 

ANMERKUNGEN

(*) Jürgen Hardt ist Psychologischer Psychotherapeut, Lehr- und Kontrollanalytiker (DPV/IPA), Gruppenlehranalytiker (GAS, London), Supervisor und Organisationsberater (DAG) und Gründungspräsident der Psychotherapeutenkammer Hessen. Er hat gemeinsam mit anderen erfolgreich Verfassungsbeschwerde gegen das BKA Gesetz eingelegt, und dabei mit der besonderen Schutzbedürftigkeit des psychotherapeutischen Gespräches argumentiert.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

DIE MEISTGELESENEN BEITRÄGE IM BLOG 2015

Eine Liste der 17 am häufigten besuchten Beiträge im Blog, wie sie im Zeitraum von Dez.2013 bis Dez.2015 vom Statistikmodul von wordpress registriert worden sind. Über die Korrektheit lässt sich weiter nichts sagen, da die Basisdaten der Statistik nicht zugänglich sind. Die Statistik registriert aber auch Zugriffe auf Blogbeiträge vor Dez.2013. Bei mittlerweile 322 Blogeinträgen von cagent seit 2007 kann es aufschlussreich sein, welche 17 Beiträge von Lesern als interessant empfunden wurden.

1 KANN ES DOCH EINEN KÜNSTLICHEN GEIST GEBEN?
2 OFFENBARUNGSRELIGIONEN – Grenzen, die man bedenken sollte
3 CARTESIANISCHE MEDITATIONEN III
4 BLOG GEBIERT BUCH. Bis 28.August 2015 soll die Grundaussage des Blogs als Buch geschrieben werden
5 PARADOX MENSCH – Reden wir nicht drum herum….
6 Über Industrie 4.0 und Transhumanismus. Roboter als Volksverdummung? Schaffen wir uns selbst ab?
7 SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015
8 Gnoseologische, ontologische, teleologische Wahrheit – Fortsetzung 2 der Überlegungen zu N.Hartmanns Metaphysik der Erkenntnis
9 IBN SINA/ AVICENNA: DIE METAPHYSIK AVICENNAS – Warum man manchmal schlafende Hunde wecken sollte (Teil 1)
10 Philosophische Büttenrede…
11 SIND KINDER GUT? WIE KOMMT DAS BÖSE IN DIE WELT? MEMO philosophieWerkstatt vom 8.Februar 2015
12 NACHBEMERKUNG ZUM BUCH VON H.RATH – Und Gott sprach: Wir müssen reden!
13 CHRISTLICHES ABENDLAND EINE LEGENDE? Nachbetrachtungen zum Buch von R.Bergmeier
14 DIE NEUROWISSENSCHAFTEN – EIN PHILOSOPHISCHES SCHWARZES LOCH? – Zu einem Artikel von W.Singer in der FAZ vom 17.September 2014
15 Wissenschaftliches Denken (2)
16 INDUKTIVES SERVICE-LEARNING? Plädoyer für mehr Vertrauen in die Generation der Zukunft. Mehr Selbstvertrauen in die Mission Zukunft der Hochschulen.
17 Der Ursprung und die Evolution des Lebens auf der Erde. Leben als ein kosmischer Imperativ. Reflexionen zum Buch von Christian de Duve. Teil 2

Eine Liste aller Blogbeiträge von cagent nach Titeln findet sich HIER.