Archiv der Kategorie: Digitalisierung

Kollektive Mensch-Maschine Intelligenz im Kontext nachhaltiger Entwicklung. Brauchen wir ein neues Menschenbild? Vorlesung für AG ENIGMA im Rahmen von U3L der Goethe Universität

Entstehungszeit: 2.Nov 2023 – 6.Jan 2023

Autor: Gerd Doeben-Henisch

Email: gerd@doeben-henisch.de

KONTEXT

Der folgende Text ist die nachträgliche Verschriftlichung einer Vorlesung, die der Autor für die Internet-Arbeitsgruppe ENIGMA [3] der U3L [1,2] der Goethe-Universität Frankfurt am 10.November 2023 gehalten hat. Er stellt eine Weiterentwicklung eines Konferenzbeitrags dar, der bei de Gruyter veröffentlicht wurde: Kollektive Mensch-Maschine-Intelligenz und Text-Generierung. Eine transdisziplinäre Analyse (2023). Man kann auch alle anderen Beiträge (open access) herunterladen.

Der Ankündigungstext lautet:

Kollektive Mensch-Maschine Intelligenz im Kontext
nachhaltiger Entwicklung – Brauchen wir ein neues
Menschenbild?


Prof. Dr. Gerd Doeben-Henisch, Frankfurt University
of Applied Sciences


Die Zeichen der Zeit stehen auf ‚Digitalisierung‘. Schon ist es selbstver-
ständlich, alles, was ‚digital‘ ist, auch mit den Worten ‚smart‘ bzw.‚
intelligent‘ zu verknüpfen. ‚Künstliche Intelligenz‘, ja, natürlich, wer fragt
da noch nach … und wir Menschen, war da nicht was? Gab es nicht
solche Worte wie ‚Geist‘, ‚Rationalität‘, ‚Intelligenz‘ im Umfeld des
Menschen, ‚Wille‘ und ‚Gefühle‘? Ja, es gab eine Zeit, da sahen die
Menschen sich selbst als ‚Krone der Schöpfung‘ … Und jetzt? Eine
Sprachlosigkeit greift um sich; der ‚Schöpfer‘ des Digitalen scheint vor
seinem Werk zu erstarren …

[1] Home u3l: https://www.uni-frankfurt.de/122411224/U3L_Home?

[2] Vorlesungsverzeichnis u3l-WS2023: https://www.uni-frankfurt.de/141923421/programm-ws-2023-24.pdf

[3] Flyer der Vorlesungsreihe WS23/24: https://www.uni-frankfurt.de/144405162.pdf

Zusammenfassung

Die Vorlesung greift zunächst den Kontext der Digitalisierung auf und macht die grundlegenden Strukturen deutlich. Das Eindringen von digitalen Technologien und deren Nutzung im Alltag ist schon jetzt sehr tiefgreifend. Gesellschaftlich spielt die sprachliche Kommunikation für alle Menschen und alle Abläufe eine zentrale Rolle. Literarischen und wissenschaftlichen Kommunikationsformaten kommt hierbei eine besondere Rolle zu. Am Beispiel der neuen Algorithmen für Text-Generierung (wie z.B. chatGPT) wird mit Bezug auf wissenschaftliche Kommunikationformate gezeigt, wie deutlich begrenzt die algorithmische Text-Generierung noch ist. Für alle drängenden Zukunftsaufgaben kann sie den Menschen aufgrund prinzipieller Grenzen nicht ersetzen. Die weitere Ausgestaltung algorithmischer Technologien muss an diesen gesellschaftlichen Herausforderungen gemessen und entsprechend verbessert werden.

INHALTSVERZEICHNIS

  1. EINLEITUNG
  2. DIGITALISIERUNG
    2.1 DAS INTERNET
    2.2 DIE GESELLSCHAFT
  3. DIGITALISIERUNG – SPRACHTECHNOLOGIEN
  4. GESELLSCHAFT – SPRACHE – LITERATUR
  5. SPRACHE UND BEDEUTUNG
  6. ZÄHMUNG DER BEDEUTUNG – WISSENSCHAFT
  7. EMPIRISCHE THEORIE
  8. WAHRHEIT, PROGNOSE & TEXT-GENERATOREN
  9. Epilog

1. EINLEITUNG

Der Titel dieser Vorlesung repräsentiert letztlich das Forschungsparadigma, innerhalb dessen sich der Autor seit ca. 5-6 Jahren bewegt hat. Das Motiv war — und ist –, die üblicherweise isolierten Themen ‚Kollektives menschliches Verhalten‘, ‚Künstliche Intelligenz‘ sowie ‚Nachhaltige Entwicklung‘ zu einer kohärenten Formel zu vereinigen. Dass dies nicht ohne Folgen für das ‚Menschenbild‘ bleiben würde, so wie wir Menschen uns selbst sehen, klang unausgesprochen immer schon zwischen den Zeilen mit.

Die Integration der beiden Themen ‚kollektives menschliches Verhalten‘ sowie ’nachhaltige Entwicklung‘ konnte der Autor schon im Jahr 2022 vollziehen. Dazu musste der Begriff ‚Nachhaltige Entwicklung‘ re-analysiert werden. Was sowohl im Umfeld des Forschungsprojektes Nachhaltige Intelligenz – intelligente Nachhaltigkeit [1] stattfand wie auch in einer sich über 7 Semester erstreckende multidisziplinären Lehrveranstaltung an der Frankfurt University of Applied Sciences mit dem Titel Citizen Science für Nachhaltige Entwicklung.[2]

Die Integration des Themas Künstliche Intelligenz mit den beiden anderen Themen erwies sich als schwieriger. Dies nicht, weil das Thema künstliche Intelligenz so schwer war, sondern weil sich eine brauchbare Charakterisierung von künstlicher Intelligenz Technologie mit Blick auf die Bedürfnisse einer Gesellschaft als schwer erwies: bezogen auf welche Anforderungen einer Gesellschaft sollte man den Beitrag einer künstlichen Intelligenz gewichten?

Hier kamen zwei Ereignisse zu Hilfe: Im November 2022 stellte die US-Firma openAI eine neue Generation von Text-Generatoren vor [3], was zu einer bis dahin nie gekannten Publikations-Explosion führte: Gefühlt jeder fühlte sich angesprochen, nutzte das Werkzeug, und es gab vielstimmige Meinungsäußerung. In folge davon konnte der Autor sich bei einer Konferenz an der TU-Darmstadt beteiligen mit dem Titel Diskurse disruptiver digitaler Technologien am Beispiel von KI-Textgeneratoren (KI:Text) [4]. Hier wurde aus Sicht von 18 Perspektiven versucht, die mögliche Einsetzbarkeit von Text-Generatoren am Beispiel konkreter Text-Arten zu untersuchen. Diese Konferenz stimulierte den Plan, das Setting Text – chatGPT zu übernehmen und es durch Spezialisierung der Text-Variablen auf Literatur und insbesondere wissenschaftliche Theorien zu konkretisieren. Erste Überlegungen in diese Richtungen finden sich hier. [5]

Im Nachklang zu diesen Überlegungen bot es sich an, diese Gedanken im Vortrag für die Arbeitsgruppe ENIGMA weiter zu präzisieren. Dies ist geschehen und resultierte in diesem Vortrag.

[1] https://zevedi.de/themen/nachhaltige-intelligenz-intelligente-nachhaltigkeit/

[2] Materialien zur 6. und 7.Auflage: https://www.oksimo.org/lehre-2/

[3] Kurze Beschreibung: https://en.wikipedia.org/wiki/ChatGPT

[4] https://zevedi.de/themen/ki-text/

[5] Gerd Doeben-Henisch, 24.Aug 2023, Homo Sapiens: empirische und nachhaltig-empirische Theorien, Emotionen, und Maschinen. Eine Skizze, https://www.cognitiveagent.org/2023/08/24/homo-sapiens-empirische-und-nachhaltig-empirische-theorien-emotionen-und-maschinen-eine-skizze/

2. DIGITALISIERUNG

BILD 1: Überblick zu ‚Digitalisierung einer Gesellschaft‘

Da die ‚Digitalisierung‘ heute gefühlt schon fast alle Bereiche unserer menschlichen Gesellschaft erreicht hat, ist es nicht leicht in dieser Vielfalt einen Standpunkt zu lokalisieren, von dem aus sich sowohl über das Ganze wie auch über einzelne konkrete Themen zu sprechen. [1]

Es bot sich daher an, mit einem vereinfachten Überblick über das Ganze zu starten, so dass eine für alle gleiche Ausgangslage hergestellt werden konnte.

Im Bild 1 kann man den links gelblich-grünen Bereich sehen, der für die Gesellschaft selbst steht, und einen grauen Bereich rechts, der für jene Infrastrukturen steht, die eine Digitalisierung technisch ermöglichen. Beide Bereich sind stark schematisiert.

Die digitale Infrastruktur ist aufgeteilt in ‚Endgeräte‘ und in das eigentliche ‚Internet‘. Letzteres wird unterschieden in den ‚Adressraum‘ und jene Geräte, die über den Adressraum erreicht werden können.

2.1 DAS INTERNET

Kurz wurde auf einige wichtige Eigenschaften des Internets hingewiesen:

  1. Alle beteiligten Geräte setzen sich aus ‚Hardware‘ und ‚Software‘ zusammen. Die Hardware wiederum besteht aus einer Konfiguration von ‚Chips‘, die selbst sehr komplex sind und auch aus Hardware und Software bestehen. Bis zu ca. 80 Firmen können bei der Produktion eines einzelnen Chips beteiligt sein (unter Berücksichtigung der diversen Lieferketten). Die Möglichkeit, dass eine beteiligte Firma ’nicht-intendierte‘ Funktionen in einen Chip einbaut, ohne dass die anderen dies merken, sind prinzipiell gegeben. Die für Chips benötigten speziellen Materialien sind partiell ’selten‘ und nur über einige wenige Staaten beziehbar.
  2. Die ‚Software‘ auf einem Rechner (klein bis groß) zerfällt grob in zwei Typen: (i) jene Software, die die grundlegende Kommunikation mit einer Hardware ermöglicht — das ‚Betriebssystem‘ –, und jene Software, die bestimmte Anwendungen ermöglicht, die mit dem Betriebssystem kommunizieren muss — die Anwendungssoftware, heute auch einfach App genannt –. Betriebssysteme haben heute eine Größe, die vielen Millionen Zeilen Code umfassen. Eine solche Software angemessen auf Dauer zu managen, stellt extreme Anforderungen. Nicht weniger im Fall von Anwendungssoftware.
  3. Sobald Software aktiviert wird, d.h. ein Rechner ändert seine inneren Zustände unter dem Einfluss der Software, wird Energie verbraucht. Der Umfang dieses Energieverbrauchs ist heute noch vielfach extrem hoch.[2]
  4. Ein ‚realer Rechner‘ braucht irgendwo auf diesem Planeten einen ‚realen Ort‘ und gehört eine ‚realen Besitzer‘. Dieser Eigentümer hat prinzipiell den vollen Zugriff auf den Rechner, auf seine Software, auf seine Inhalte. Durch die ‚Gesetze‘ eines Landes, durch ‚Vereinbarungen‘ zwischen Geschäftspartnern kann man den Umgang mit dem Rechner versuchen zu regeln, aber Garantien dafür, dass dann tatsächlich die Prozesse und die Daten ‚geschützt‘ sind, gibt es nicht. Eine von vielen Untersuchungen zur Nutzung von Benutzerdaten konnte am Beispiel von Facebook aufzeigen, dass die Einführung der europäischen Datenschutzverordnung 2021 nahezu keine Wirkung im Bereich der Nutzerdaten von Facebook zeigte. [3,4,5]

[1] Phänomen: Den Wald vor lauter Bäume nicht sehen.

[2] Maximilian Sachse, Das Internet steht unter Strom. KI kann helfen, Emissionen einzusparen — verbraucht aber selbst Unmengen an Energie.FAZ, 31.Okt 2023, S.B3

[3] José González Cabañas, Ángel Cuevas, Aritz Arrate, and Rubén Cuevas. 2020. Does Facebook use sensitive data for advertising purposes? Commun. ACM 64, 1 (January 2021), 62–69. https://doi.org/10.1145/3426361

[4] Eine ausführlichere Analyse der Informationsbeschaffung von Nutzern ohne deren Wissen: Ingo Dachwitz, 08.06.2023, Wie deutsche Firmen am Geschäft mit unseren Daten verdienen. Wenn es um Firmen geht, die pausenlos Daten für Werbezwecke sammeln, denken viele an die USA. Unsere Recherche zeigt, wie tief deutsche Unternehmen inzwischen in das Netzwerk der Datenhändler verwoben sind und dass sie auch heikle Datenkategorien anboten. Beteiligt sind Konzerne wie die Deutsche Telekom und ProSieben Sat1, URL: https://netzpolitik.org/2023/adsquare_theadex_emetriq_werbetracking-wie-deutsche-firmen-am-geschaeft-mit-unseren-daten-verdienen/

[5] Ein aktuelles Beispiel mit Microsoft: Dirk Knop, Ronald Eikenberg, Stefan Wischner, 09.11.2023, Microsoft krallt sich Zugangsdaten: Achtung vor dem neuen Outlook. Das neue kostenlose Outlook ersetzt Mail in Windows, später auch das klassische Outlook. Es schickt geheime Zugangsdaten an Microsoft. c’t Magazin, Heise

2.2 DIE GESELLSCHAFT

Die Charakterisierung der Gesellschaft stellt natürlich auch eine starke Vereinfachung dar. Als wichtige Strukturmerkmale seien hier aber festgehalten:

  1. Es gibt eine Grundverfassung jeder Gesellschaft jenseits von Anarchie die zwischen den beiden Polen ‚Demokratisch‘ und ‚Autokratisch‘ liegt.
  2. Es gibt minimal ‚politische Entscheidungsstrukturen‘, die verantwortlich sind für geltende ‚Gesetze‘ und ‚Normen‘.
  3. Die Schlagader jeder lebendigen Gesellschaft ist aber die ‚Öffentlichkeit durch Kommunikation‘: wenn, dann verbindet Kommunikation die vielen Bürger zu handlungsfähigen Einheiten. Autokratien tendieren dazu, Kommunikation zu ‚instrumentalisieren‘, um die Bürger zu manipulieren. In Demokratien sollte dies nicht der Fall sein. Tatsächlich kann aber die Freiheit einer Demokratie von partikulären Interessen missbraucht werden.[1]
  4. Jeder einzelne Bürger ist als ‚menschlicher Akteur‘ eingewoben in unterschiedliche Kommunikationsbeziehungen, die vielfach durch Einsatz von ‚Medien‘ ermöglicht werden.

[1] Sehr viele interessante Ideen zur Rolle de Öffentlichkeit finden sich in dem Buch Strukturwandel der Öffentlichkeit von Jürgen Habermas, veröffentlicht 1962. Siehe dazu ausführlich den Wikipedia-Eintrag: https://de.wikipedia.org/wiki/Strukturwandel_der_%C3%96ffentlichkeit

[2] Florian Grotz, Wolfgang Schroeder, Anker der Demokratie? Der öffentlich-rechtliche Rundfunk hat einen wesentlichen Beitrag zum Erfolg der deutschen Demokratie geleistet. Derzeit steht er im Kreuzfeuer der Kritik. Wie kann er auch künftig seine Ankerfunktion im demokratischen Mediensystem erfüllen? FAZ 13.Nov 2023, S.6, Siehe auch online (beschränkt): https://www.faz.net/aktuell/politik/die-gegenwart/ard-und-zdf-noch-im-dienst-der-demokratie-19309054.html Anmerkung: Die Autoren beschreiben kenntnisreich die historische Entwicklung des öffentlich-rechtlichen Rundfunks (ÖRR) in drei Phasen. Verschiedene Schwierigkeiten und Herausforderungen heute werden hervor gehoben. Der generelle Tenor in allem ist, dass von ’notwendigen Veränderungen‘ gesprochen wird. Diese werden über die Themen ‚Finanzierung, Programm und Kontrolle‘ ein wenig ausgeführt. Dies sind alles sehr pragmatische Aspekte. Wenn es dann im Schlusssatz heißt „Es geht darum, dass der ÖRR auch in Zukunft eine wichtige Rolle im Dienst der Demokratie spielen kann.“ dann kann man sich als Leser schon fragen, warum ist der ÖRR denn für die Demokratie so wichtig? Finanzen, Programme und Kontrolle sind mögliche pragmatische Teilaspekte, aber eine eigentliche Argumentation ist nicht zu erkennen. Mit Blick auf die Gegenwart, in welcher die ‚Öffentlichkeit‘ in eine Vielzahl von ‚Medienräumen‘ zerfällt, die von unterschiedlichen ‚Narrativen‘ beherrscht werden, die sich gegenseitig auszuschließen scheinen und die ein von einer echten Mehrheit getragenes politisches Handeln unmöglich erscheinen lassen, sind Finanzen, Kontrollen, formale Programmvielfalt nicht unbedingt wichtige konstruktive Kriterien. Der zusätzlich verheerende Einfluss neuer bedeutungsfreier Texte-generierende Technologien wird mit den genannten pragmatischen Kriterien nicht einmal ansatzweise erfasst.

3. DIGITALISIERUNG – SPRACHTECHNOLOGIEN

BILD 2 : Das Enstehen von Sprachtechnologien zur Unterstützung im Umgang mit Sprache

Dem ‚Weltereignis‘ Text-Generatoren im November 2022 gingen viele andere Sprachtechnologien voraus. So unterscheidet man grob:

  1. TTS, T2S , Text-to-Speech, Speechsynthesis: Erste Systeme, die geschriebenen Text in gesprochene Sprache umsetzen konnten. Ab 1968 [1]
  2. S2T, STT , Speech-to-Text: Spracherkennungssysteme, die gesprochene Sprache in geschriebenen Text verwandelt konnten. Ab 1952 [2]
  3. TRANSL , Maschineller Übersetzer: Programme, die von einer Ausgangssprache in eine Zielsprache übersetzen können. Ab 1975. [3]
  4. DIAL , Dialogsysteme: Programme, die mit Menschen Dialoge führen können, um bestimmte Aufgaben zu unterstützen. Ab 1960iger Jahre. [4]
  5. C2T , Command-to-Text: Programme, die anhand von Aufforderungen Texte mit bestimmten Eigenschaften generieren können. Prominent ab November 2022. [5]

Mittlerweile gibt es noch eine Vielzahl anderer Werkzeuge, die im Rahmen der Computerlinguistik zur Arbeit mit Texten angeboten werden.[6]

Diese Beispiele zeigen, dass die Digitalisierung unserer Welt sich auch immer mehr unserer sprachlichen Kommunikation bemächtigt. Vielfach werden diese Werkzeuge als Hilfe, als Unterstützung wahrgenommen, um die menschliche Sprachproduktion besser verstehen und im Vollzug besser unterstützen zu können.

Im Fall der neuen befehlsorientierten Text-Generatoren, die aufgrund interner Datenbanken komplexe Texte generieren können, die für einen Leser ‚wie normale Texte von Menschen‘ daher kommen, wird der Raum der sprachlichen Kommunikation erstmalig von ’nicht-menschlichen‘ Akteuren durchdrungen, die eine stillschweigende Voraussetzung außer Kraft setzen, die bislang immer galt: es gibt plötzlich Autoren, die keine Menschen mehr sind. Dies führt zunehmend zu ernsthaften Irritationen im sprachlichen Diskursraum. Menschliche Autoren geraten in eine ernsthafte Krise: sind wir noch wichtig? Werden wir noch gebraucht? Ist ‚Menschsein‘ mit einem Schlag ‚entwertet‘?

[1] Erste Einführung hier: https://en.wikipedia.org/wiki/Speech_synthesis

[2] Erste Einführung hier: https://en.wikipedia.org/wiki/Speech_recognition

[3] Erste Einführung hier: https://en.wikipedia.org/wiki/Machine_translation

[4] Erste Einführung hier: https://en.wikipedia.org/wiki/Dialogue_system

[5] Erste Einführung hier: https://en.wikipedia.org/wiki/ChatGPT

[6] Für eine erste Einführung siehe hier: https://de.wikipedia.org/wiki/Computerlinguistik

4. GESELLSCHAFT – SPRACHE – LITERATUR

BILD 3 : Sprachtechnologien und Literatur

Das Auftreten der neuen Werkzeuge zur Text-Generierung stiftet eine anhaltende Unruhe im Lager der Schriftsteller, der Autoren und der Literaturwissenschaftler.

Ein beeindruckendes Beispiel ist die Analyse von Hannes Bajohr (2022).[1] Er spielt die Varianten durch, was passiert, wenn … Was passiert, wenn sich die Produktion von literarischen Texten mit Text-Generatoren durchsetzt? Wenn es zum Standard wird, dass immer mehr Texte, ganze Romane mit Text-Generatoren erzeugt werden? Und dies sind keine bloßen Träume, sondern solche Texte werden schon produziert; Bajohr selbst hat einen Roman unter Zuhilfenahme eines Text-Generators verfasst.[2]

Eine andere junge Autorin und Kulturwissenschaftlerin, die sich intensiv mit dem neuen Wechselverhältnis von Literatur, digitaler Welt und Text-Generatoren auseinander setzt ist Jenifer Becker.[3] Ihr Debüt-Roman ist aber noch ein Roman ohne Einsatz von künstlichen Texterzeugern. In ihrem Roman spricht sie noch ’selbst‘ als ‚menschliche Autorin‘ und wir damit potentiell zu einer Gesprächspartnerin für ihre Leser: der Andere als potentielles Ich, wobei das ‚eigentliche Ich‘ sich Spiegel des Textes in spannungsvoller Differenz erleben kann.

Angesichts einer digitalisierten Welt, die mehr und mehr zu einer ‚Ereigniswelt‘ wird, in der das ‚Verweilen‘, das ‚Verstehen‘ sich immer mehr abschwächt, verstummt, verliert auch das Individuum seine eigene Kraft und beginnt sich ‚hohl‘ anzufühlen, wo es doch gar nicht hohl ist, nicht hohl sein muss.

Hier setzt die Rede zur Nobelpreisverleihung 2018 für Literatur der polnischen Laureatin Olga Tokarczuk ein. Sie beschreibt als das Wunderbare von Literatur gerade diese einzigartige Fähigkeit von uns Menschen, dass wir mittels Sprache von unserem Innern berichten können, von unserer individuellen Art des Erlebens von Welt, von Zusammenhängen, die wir in dem Vielerlei des Alltags entdecken können, von Prozessen, Gefühlen, von Sinn und Unsinn. [4]

In dieser Eigenschaft ist Literatur durch nichts ersetzbar, bildet Literatur den ‚inneren Herzschlag‘ des Menschlichen auf diesem Planeten.

Aber, und dies sollte uns aufhorchen lassen, dieser wunderbarer Schatz von literarischen Texten wird bedroht durch den Virus der vollständigen Nivellierung, ja geradezu eine vollständigen Auslöschung. Text-Generatoren haben zwar keinerlei Wahrheit, keinerlei realen Bindungen an eine reale Welt, an reale Menschen, keinerlei wirkliche Bedeutung, aber in der Produktion von Texten (und gesprochener Rede) ohne Wahrheit sind sie vollständig frei. Durch ihre hohe Geschwindigkeit der Produktion können sie alle ‚menschliche Literatur‘ in der Masse des Bedeutungslosen aufsaugen, unsichtbar machen, nihilieren.

[1] Hannes Bajohr, 2022, Artifizielle und postartifizielle Texte. Über Literatur und Künstliche Intelligenz. Walter-Höllerer-Vorlesung 2022, 8.Dez. 2022, Technische Universität Berlin , URL: https://hannesbajohr.de/wp-content/uploads/2022/12/Hoellerer-Vorlesung-2022.pdf, Den Hinweis auf diesen Artikel erhielt ich von Jennifer Becker.

[2] Siehe dazu Bajohr selbst: https://hannesbajohr.de/

[3] Jenifer Becker, Zeiten der Langeweile, Hanser, Berlin, 2023. Dazu Besprechung in der Frankfurter Rundschau, 30.8.23, Lisa Berins, Die große Offline-Lüge, https://www.fr.de/kultur/literatur/zeiten-der-langeweile-von-jenifer-beckerdie-grosse-offline-luege-92490183.html

[4] Olga Tokarczuk, 2018, The Tender Narrator, in: Nobel Lecture by Olga Tokarczuk, 2018, Svenska Akademien, URL: https://www.nobelprize.org/uploads/2019/12/tokarczuk-lecture-english-2.pdf

5. SPRACHE UND BEDEUTUNG

BILD 4 : Sprache und Bedeutung

Am Beispiel der ‚menschlichen Literatur‘ klang eben schon an, welch fundamentale Rolle die ‚Bedeutung von Sprache‘ spielt und dass wir Menschen über solch eine Fähigkeit verfügen. Im Schaubild 4 wird veranschaulicht, was es bedeutet, dass Menschen im Alltag scheinbar mühelos Aussagen erzeugen können, die als ‚aktuell zutreffend’/ ‚wahr‘ untereinander akzeptiert werden oder als ‚aktuell nicht zutreffend’/ ‚falsch‘ oder als ‚aktuell unbestimmt‘. Wenn ein konkreter empirischer Sachverhalt gegeben ist (der Hund von Ani, das rote Auto vom Nachbarn Müller, die Butter auf dem Frühstückstisch, …), dann ist eine Einigung zwischen Menschen mit der gleichen Sprache immer möglich.

Was man sich dabei selten bewusst macht ist, welch starke Voraussetzung ‚in einem Menschen‘ gegeben sein müssen, damit er über diese Fähigkeit so leicht verfügen kann.

Die ‚Box‘ im rechten Teil des Diagramms repräsentiert auf einem starken Abstraktionsniveau die wichtigsten Komponenten, über die ein Mensch in seinen inneren Verarbeitungsstrukturen verfügen können muss, damit er mit anderen so sprechen kann. Die Grundannahmen sind folgende:

  1. Eine Außenwahrnehmung der umgebenden (empirischen) Welt.
  2. Alles was wahrgenommen werden kann kann auch in ‚Elemente des Wissens‘ verwandelt werden.
  3. Eine Sonderrolle nimmt die Repräsentation von Elementen der Sprachstruktur ein.
  4. Zwischen den Elementen des Wissens und den Ausdruckselementen kann ein Mensch eine dynamische Abbildungsbeziehung (Bedeutungsbeziehung) aufbauen (Lernen), so dass Wissenselemente auf Ausdruckselemente verweisen und Ausdruckselemente auf Wissenselemente.
  5. Aus Sicht der Ausdruckselemente bildet jenes Wissen, das über eine Abbildung verbunden wird, die ‚Bedeutung‘ der Ausdruckselemente.
  6. Innerhalb des Wissens gibt es zahlreiche unterschiedliche Formen von Wissen: aktuelles Wissen, erinnerbares Wissen, Veränderungswissen, Ziele, und prognostisches Wissen.
  7. Und vieles mehr

Neben Aussagen, die ‚aktuell wahr‘ sein können, verfügt der Mensch aber auch über die Möglichkeit, vielfache Wiederholungen als ‚wahr‘ anzusehen, wenn sie sich immer wider als ‚aktuell wahr‘ erweisen. Dies verweist auf mögliche weitere Formen von möglichen abgeleiteten Wahrheiten, die man vielleicht unter dem Oberbegriff ’strukturelle Wahrheit‘ versammeln könnte.

6. ZÄHMUNG DER BEDEUTUNG – WISSENSCHAFT

BILD 5 : Wissenschaft als Ergänzung von Literatur

Die Ur-Funktion von Literatur, das Gespräch zwischen dem Inneren der Menschen über ihre Welt- und Selbsterfahrung sprechen zu können, indem nicht nur die ‚Oberfläche der Dinge‘, sondern auch die ‚Tiefenstruktur der Phänomene‘ ins Wort kommen können, ist unersetzbar, aber sie leidet im Alltag an der strukturellen Schwäche des möglichen ‚Nicht-Verstehens‘ oder ‚Falsch-Verstehens‘. Während sich über die Dinge des alltäglichen Lebens leicht Einigkeit erzielen lässt, was jeweils gemeint ist, ist das ‚Innere‘ des Menschen eine echte ‚Terra Incognita‘, ein ‚unbekanntes Land‘. In dem Maße, wie wir Menschen im Innern ‚ähnlich‘ erleben und empfinden, kann das Verstehen von ‚Bedeutungen‘ noch ansatzweise gelingen, da wir Menschen aufgrund unserer Körperstrukturen in vielen Dingen ähnliche Erleben, Fühlen, Erinnern und Denken. Aber je spezifischer etwas in unserem Inneren ist, je ‚abstrakter‘ eine Bedeutung wird, umso schwieriger wird die Erfassung einer Rede durch andere. Dies führt dann unabwendbar zum Falsch- oder gar Nicht-Verstehen.

In dem Maße wie wir Menschen aber auf eine ‚tragfähige Erklärung von Welt‘ angewiesen sind, um ‚gemeinsam‘ das ‚Richtige‘ zu tun, in dem Maße wird unsere normale sprachliche Kommunikation, wird Literatur überfordert. Sie will vielleicht, aber sie kann aus sich heraus eine solche Eindeutigkeit nicht ohne weiteres herstellen. Ihre Stärke kann und wird in diesen Bereich zu einer Schwäche.

Vor dem Hintergrund des ‚Überlebens auf dem Planeten‘, des ‚Überlebens im Alltag‘ bildet die Notwendigkeit von ‚wahren Texten‘, die zudem ‚belastbare Prognosen‘ erlauben, eine Kernforderung, die möglicherweise nur eine Teilmenge jener Bedeutungsräume erlaubt, über die Literatur verfügen kann. Aber diese ‚wahren und belastbaren Teilräume‘ bilden jenen ‚harten Boden‘, auf denen sich Menschen quer über alle Kontinente und im Bereich aller Sprachen gründen können.

Diese Art von Texten, deren Existenz von gemeinsamen nachprüfbaren ‚wahren Sachverhalten und Prognosen‘ abhängt, entstand in der Geschichte der Menschheit unter dem Namen ‚empirische Wissenschaft‘ sehr spät.[1] Nach anfänglichen Mühen entwickelte sie sich dann rasant weiter und ist heute zum Standard für nachweisbar wahre und prognosefähige Texte geworden.

Die heutige weltweite Verbreitung von ‚Wissenschaft‘ ist ihr selbst aber mittlerweile zum Problem geworden. Der klare Kern dieser Textform erscheint in der öffentlichen Verwendung der Charakterisierung von ‚Wissenschaft‘ seltsam vage. Der Begriff einer ‚empirischen Theorie‘ ist geradezu verschwunden. Die großen Enzyklopädien dieser Welt kennen diesen Begriff nicht mehr.

Dazu kommt die ‚Altlast‘ der modernen Wissenschaft, dass sie sich schnell zu einer Veranstaltung von ‚Spezialisten‘ entwickelt hat, die ihre ‚eigene Fachsprache‘ sprechen, die zudem vielfach teilweise oder ganz mit ‚mathematischer Sprache‘ arbeiten. Diese führt zunehmend zu einer Ausgrenzung aller anderen Bürger; das ‚Verstehen von Wissenschaft‘ wird für die meisten Menschen zu einer ‚Glaubenssache‘, wo doch Wissenschaft gerade angetreten war, um die ‚Autorität des bloßen Glaubens‘ zu überwinden.

Desweiteren haben wir in den letzten Jahrzehnten mehr und mehr gelernt, was es heißt, den Aspekt ‚Nachhaltiger Entwicklung‘ zu berücksichtigen. Eine Grundbotschaft besteht darin, dass alle Menschen einbezogen werden müssen, um die Entwicklung nicht von einzelnen, kleinen — meist mächtigen — Gruppen dominieren zu lassen. Und von de Entwicklung des Lebens auf diesem Planeten [3] wissen wir, dass das Leben — von dem wir als Menschen ein kleiner Teil sind — in den zurück liegenden ca. 3.5 Milliarden Jahren nur überleben konnten, weil es nicht nur das ‚Alte, Bekannte‘ einfach wiederholt hat, sondern auch immer ‚aus sich echtes Neues‘ heraus gesetzt hat, Neues, von dem man zum Zeitpunkt des Hervorbringens nicht wusste, ob es für die Zukunft brauchbar sein wird.[3,4]

Dies regt dazu an, den Begriff der ‚empirischen Theorie‘ zu aktualisieren und ihn sogar zum Begriff einer ’nachhaltigen empirischen Theorie‘ zu erweitern.

[1] Wenn man als Orientierungspunkt für den Beginn der neuzeitlichen wahrheitsfähigen und prognosefähigen Texte Galileo Galilei (1564 – 1641) und Johannes Kepler ()1571 – 1630) nimmt , dann beginnt der Auftritt dieser Textform im 17./18. Jahrhundert. Siehe hier: https://de.wikipedia.org/wiki/Galileo_Galilei und hier: https://de.wikipedia.org/wiki/Johannes_Kepler

[2] UN. Secretary-General; World Commission on Environment and Development, 1987, Report of the World Commission on Environment and Development : note / by the Secretary General., https://digitallibrary.un.org/record/139811 (accessed: July 20, 2022) (In einem besser lesbaren Format: https://sustainabledevelopment.un.org/content/documents/5987our-common-future.pdf) Anmerkung: Gro Harlem Brundtland (ehemalige Ministerpräsidentin von Norwegen) war die Koordinatorin von diesem Report. 1983 erhielt sie den Auftrag vom Generalsekretär der UN einen solchen Report zu erstellen, 1986 wurde er übergeben und 1987 veröffentlicht. Dieser Text enthält die grundlegenden Ideen für alle weiteren UN-Texte.

Zitat aus dem Vorwort: The fact that we all became wiser, learnt to look across cultural and historical barriers, was essential. There were moments of deep concern and potential crisis, moments of gratitude and achievement, moments of success in building a common analysis and perspective. The result is clearly more global, more realistic, more forward looking than any one of us alone could have created. We joined the Commission with different views and perspectives, different values and beliefs, and very different experiences and insights. After these three years of working together, travelling, listening, and discussing, we present a unanimous report.“ und „Unless we are able to translate our words into a language that can reach the minds and hearts of people young and old, we shall not be able to undertake the extensive social changes needed to correct the course of development.

[3] Gerd Doeben-Henisch, 2016, Sind Visionen nutzlos?, URL: https://www.cognitiveagent.org/2016/10/22/sind-visionen-nutzlos/

[4] Zum Begriff der Evolution siehe hier: https://de.wikipedia.org/wiki/Evolution und hier: https://en.wikipedia.org/wiki/Evolution

7. EMPIRISCHE UND NACHHALTIG EMPIRISCHE THEORIE

BILD 6 : Aktualisierter Begriff von ‚Empirischer Theorie (ET)‘ und ‚Nachhaltiger Empirischer Theorie (NET)‘

Zum ‚aktualisierten Begriff‘ einer empirischen und einer nachhaltig empirischen Theorie gehören die folgenden Elemente:

  1. Die Gruppe der ‚Theorie-Autoren‘ besteht prinzipiell aus allen Menschen, die in ihrer Alltagssprache kommunizieren. Dies ermöglicht von Anfang an maximale Diversität.
  2. Der engere Begriff der ‚Empirischen Theorie‘ umfasst die Elemente ‚IST-Zustand‘, ‚Veränderungs-Wissen‘ sowie einen ‚Folgerungsbegriff‘ in Form eines Wissens, wie man Veränderungswissen auf einen gegebenen Zustand anwendet.
  3. Das ‚Ergebnis einer Folgerung‘ ist ein ’neuer Folge-Zustand‘.
  4. Lässt sich eine Folgerung mehrfach vollziehen dann ensteht eine ‚Folge von Folgezuständen‘, die man heute auch als ‚Simulation‘ bezeichnen kann.

Der IST-Zustand umfasst eine Menge von Ausdrücken einer gewählten Alltagssprache, die so beschaffen sind, dass alle beteiligten Theorie-Autoren sich darüber einigen können, dass diese Ausdrücke unter den angenommenen Bedingungen ‚zutreffen‘, d.h. ‚wahr‘ sind.

Das Veränderungs-Wissen umfasst eine Menge von Ausdrücken, die Veränderungsprozesse beschreiben, die sich ebenfalls unter angegebenen Bedingungen von jedem überprüfen lassen.

Der Folgerungsbegriff ist ein Text, der eine Handlungsbeschreibung umfasst, die beschreibt, wie man eine Veränderungsbeschreibung auf eine gegebene IST-Beschreibung so anwendet, dass daraus ein neuer Text entsteht, der die Veränderung im Text enthält.

Eine empirische Theorie ermöglicht die Erzeugung von Texten, die mögliche Zustände in einer möglichen Zukunft beschreiben. Dies kann mehr als eine Option umfassen.

Im Alltag der Menschen reicht ein bloßes Wissen um ‚Optionen‘ aber nicht aus. Im Alltag müssen wir uns beständig Entscheiden, was wir tun wollen. Für diese Entscheidungen gibt es keine zusätzliche Theorie: für einen menschlichen Entscheidungsprozess ist es bis heute mehr oder weniger ungeklärt, wie er zustande kommt. Es gibt allerdings viele ‚Teil-Theorien‘ und noch mehr ‚Vermutungen‘.

Damit diese ’nicht-rationale Komponente‘ unseres alltäglichen Lebens nicht ‚unsichtbar‘ bleibt, wird hier der Begriff einer nachhaltigen empirischen Theorie vorgeschlagen, in dem zusätzlich zur empirischen Theorie eine Liste von Zielen angenommen wird, die von allen Beteiligten aufgestellt wird. Ob diese Ziele ‚gute‘ Ziele sind, kann man erst wissen, wenn sie sich ‚im weiteren Verlauf‘ ‚bewähren‘ oder eben nicht. Explizite Ziele ermöglichen daher einen ‚gerichteten Lernprozess‘. Explitit formulierte Ziele ermöglichen darüber hinaus eine kontinuierliche Kontrolle, wie sich der aktuelle Handlungsprozess mit Blick auf ein Ziel verhält.

Für die Umsetzung einer nachhaltigen Entwicklung sind nachhaltige empirische Theorien eine unverzichtbare Voraussetzung.

8. WAHRHEIT, PROGNOSE & TEXT-GENERATOREN

BILD 7 : Die potentielle Rolle von Text-Generatoren der Machart 2023 innerhalb eines wissenschaftlichen Diskurses

Für die Bewertung, welche Rolle Textgeneratoren aus dem Jahr 2023 innerhalb eines wissenschaftlichen Diskurses spielen können, kann man ein Gedankenexperiment (und dann natürlich auch real) durchführen, welche der Anforderungen eines wissenschaftlichen Diskurses, die zuvor erläutert worden sind, von einem Text-Generator erfüllt werden können. Das Bild Nr.7 ist eigentlich selbst-erklärend.

Das zentrale Argument besteht darin, dass Text-Generatoren des Jahrgangs 2023 über keinerlei Wissen verfügen, wie es der Mensch besitzt, nahezu keine Wahrnehmung (außer Texteingaben oder Spracheingaben) haben, und dementsprechend auch über keine Bedeutungsfunktion verfügen. Die Unfähigkeit zu ‚wahren Aussagen‘ oder auch der Fähigkeit, entscheiden zu können, ob etwas ‚wahr‘ ist oder nicht, fehlt ebenfalls vollständig.[1]

[1] Ron Brachman, Hector Levesque, Dieser KI können wir nicht trauen, Es gibt ein grundlegendes Problem in der Entwicklung der gegenwärtig angesagten KI-Systeme. Hier kommt ein Vorschlag, wie es besser geht. FAZ, Mo 13.Nov 2023, S.19 . Online (beschränkt) auch hier: https://www.faz.net/aktuell/wirtschaft/unternehmen/chatgpt-co-dieser-ki-koennen-wir-nicht-trauen-19308979.html, Anmerkung 1: Die beiden Autoren nehmen den Boom um chatGPT zum Anlass, vor der gesamten Künstlichen Intelligenz (KI) zu warnen. Sie fokussieren ihre Kritik auf einen Punkt: „Der aktuellen KI-Technologie kann man nicht trauen. … Obwohl sie auf der Grundlage riesiger Datenmengen trainiert werden … machen moderne KI-Systeme bizarre, dumme Fehler. Unvorhersehbare, unmenschliche Fehler.“ Und weiter: „Wir wissen nicht, wann diese Systeme das Richtige tun und wann sie versagen.“ Sie führen im weiteren Verlauf noch aus, dass die aktuelle Architektur dieser Systeme es nicht zulässt, heraus zu finden, was genau die Gründe sind, warum sie entweder richtig oder falsch urteilen. Mit Blick auf den Alltag diagnostizieren sie bei uns Menschen einen ‚gesunden Menschenverstand‘, ein Prototyp von ‚Rationalität‘, und diesen sehen sie bei den KI-Systemen nicht. Sie beschreiben viele Eigenschaften, wie Menschen im Alltag lernen (z.B. mit ‚Überzeugungen‘, ‚Zielen‘ arbeiten, mit ‚Konzepten‘ und ‚Regeln‘, mit ‚echten Fakten‘, …), und stellen fest, dass KI-Systeme für uns erst wirklich nützlich werden, wenn sie über diese Fähigkeiten nachvollziehbar verfügen. Anmerkung 2: Die Autoren sprechen es nicht explizit aus, aber implizit ist klar, dass sie die neuen Text-Generatoren wie chatGPT & Co zu jener KI-Technologie rechnen, die sie in ihrem Beitrag charakterisieren und kritisieren. Wichtig ist, dass Sie in ihrer Kritik Kriterien benutzen, die alltäglich vage sind (‚gesunder Menschenverstand‘), allerdings angereichert mit vielen Alltagsbeispielen. Letztlich machen ihre kritischen Überlegungen aber deutlich, dass es angesichts der neuen KI-Technologien an geeigneten und erprobten Meta-Modellen (‚transdisziplinär‘, ‚wissenschaftsphilosophisch‘, …) mangelt. Man ’spürt‘ ein Ungenügen mit dieser neuen KI-Technologie, kann auch viele Alltagsbeispiele aufzählen, aber es fehlt an einem klaren theoretischen Konzept. Ein solches scheint aber momentan niemand zu haben ….

9. Epilog

Diese Kurzfassung meines Vortags vom 10.November 2023 ist gedacht als ‚Basis‘ für die Erstellung eines umfassenderen Textes, in dem alle diese Gedanken weiter ausgeführt werden, dazu auch mit viel mehr Literatur und vielen realen Beispielen.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

SW. Software? Müssen wir umdenken? Notiz

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 5.Dezember 2020
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

KLASSISCH: MENSCH – TECHNIK DICHOTOMIE

Im Alltag wie in der Wissenschaft findet sich immer noch eine starke Tendenz, die Technik dem Menschen, der Gesellschaft gegenüber zu stellen. Stattdessen Technik gar als Teil der Kultur zu sehen ist für viele — speziell für die Feuilletons gewisser Zeitungen — eher fern. Technik wird assoziiert mit Werkzeugen, mit Maschinen und die sind im Gewohnheitsdenken artfremd, nicht biologisch, haben nichts mit dem Menschen zu tun.

ARTFREMDE MASCHINEN?

Unter dem Eindruck der rapide voranschreitenden Digitalisierung könnte man aber ins Grübeln kommen: in mittlerweile fast allen Lebensbereichen verändert sich das Verhalten von uns Menschen. Mehr und mehr zeigen wir Verhaltensweisen, die wir früher — wer kennt das Früher noch? — ohne digitale Technologien vollzogen haben (dann natürlich leicht anders), die wir jetzt aber mit Hilfe von digitalen Technologien vollziehen. Das ‚Technische‘, die sogenannten ‚Maschinen‘, nehmen wir als solche gar nicht mehr wahr; wir schreiben einen Text (wenn wir den Computer benutzen), wir erstellen eine 3D-Zeichnung eines Gebäudes (wenn wir einen Computer benutzen), wir führen einen Workshop durch (wenn wir eine Web-Konferenz-Software benutzen), wir machen Musik (wenn wir eine Musik-Software benutzen), ….

Das Technisch hat sich gewandelt. Die alten, klassischen Maschinen treten mehr und mehr in den Hintergrund. Da ist etwas Neues, das nennen wir Software [SW]. Was ist Software? Die Informatiker, die zuständigen Experten für Software, sprechen zwar unter sich auch im Fall von Software von Automaten, die Befehle verarbeiten, den Programmen, die die Automaten steuern, aber für den potentiellen Anwender, den Benutzer, den Bürger, spielt der Automat kaum eine Rolle. Es sind diese Befehlslisten, die Programme, die die Automaten dazu bringen, in ihren Interaktionen mit den Anwendern für diese Anwender eine Menge von möglichen Handlungen anzubieten, die — zusammengenommen — eine Art von Verhaltensraum aufspannen. Dieser Verhaltensraum wird realisiert, indem Menschen — WIR! — genau die Handlungen ausführen, die ein Programm (die Software) ermöglicht.

Die Maschine, die als Hardware die Ausführung von Programmen möglich macht (der Computer) tritt dadurch zurück ins zweite Glied. Irgendwie ist er noch da, aber aus Sicht der Anwender (Bürger, WIR), spielt er keine wirkliche Rolle mehr. Im Zentrum der Aufmerksamkeit steht das Verhalten, das WIR dadurch vollziehen können. Je besser die Schnittstelle (das Interface) zur Hardware (zum Computer), desto weniger fällt der Computer als Medium noch auf.

DIGITAL VERSCHRÄNKTE MENSCHEN

Von den Quantentheoretikern wissen wir, dass sie von verschränkten Teilchen reden. Aber, warum so weit schweifen: in unserem Alltag praktizieren wir schon seit langem digital verschränkte Zustände: wenn wir an verschiedenen Orten dieser Welt zur gleichen Zeit miteinander — ermöglicht durch digitale Technologien — kommunizieren, gemeinsam denken, gemeinsam Entscheidungen fällen, dann handeln wir schon lange nicht mehr als Individuen, nicht als einzelne, sondern wir sind faktisch verschränkte Einzelne und darin bilden wir eine neuartige verschränkte Persönlichkeit. Verschränkte Persönlichkeiten verhalten sich völlig anders als es die einzelnen Personen tun würden, wenn sie eben nicht verschränkt sind. Vermutlich gibt es einen Zusammenhang zwischen der Anzahl der Mitglieder einer verschränkten Persönlichkeit und spezifischen Verhaltensweisen, möglicherweise auch abhängig von anderen Parametern, z.B. die Art und Weise, wie kommuniziert wird, aber der grundsätzliche Unterschied wird dadurch nicht verwischt.

Übrigens: auch ohne Digitalisierung gab und gibt es quasi verschränkte Persönlichkeiten dadurch, dass wir als einzelne Menschen in hohem Maße Verhaltensmuster verinnerlicht haben, denen wir im Alltag folgen. Beim Einkaufen, als Busfahrer, als Fahrgast , als Abteilungsleiter, als Manager, als … unser Alltag ist durchtränkt von sogenannten Konventionen, von Rollen — die Informatiker bezeichnen solche Muster als Skripte, als Protokolle, ja als Programme — , denen wir in unserem Verhalten folgen. Die Verschränkung ist in unserem Kopf abgelegt (beim Computer würden wir davon sprechen, dass er programmiert sei). Ohne diese verinnerlichten Verschränkungen würde unser Alltag zusammenbrechen. Wir sind darauf angewiesen, dass jeder bestimmten Protokollen in seinem Kopf folgt, ansonsten würde unser Alltag weitgehend unberechenbar, unplanbar, wir selber könnten nichts mehr tun, weil all das, was wir für unser Verhalten brauchen, ja weitgehend davon abhängt, dass die anderen ihren Part erfüllen.

Die Die digital ermöglichten Verschränkungen sind insofern nur ein anderer Modus für unsere menschliche Fähigkeit, mit verschränkten Gehirnen handeln zu können. Das ist das Wesentliche Menschlicher Kultur: dass sich Gehirne aus ihrer Isolation im Körper befreien können, indem sie koordiniert handeln können. Die sogenannte Feuilleton-Kultur erscheint mir eher wie ein merkwürdiger Artefakt eines verirrten Bürgertums, das es so sowieso nicht mehr gibt. Eine Kultur von ortlosen Gefühlen, die sich einer willkürlichen Sprache bedienen, klammert sich an sich selbst, ohne wirkliche Ziele zu haben. Das Leben selbst ist aber nicht ziellos, es ist auch nicht ortlos, es ist nicht beliebig. Es verdichtet sich in Verschränkungen, zu denen Technik genuin beiträgt, indem neue Formen von Leben entstehen, dichter, intensiver, weitreichender. Unsere Verantwortung ist hier in höchstem Maße gefragt, auf eine Weise, die wir immer wieder neu erst noch lernen müssen.

ALLE BEITRÄGE VON CAGENT

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

WAS IST DER MENSCH?

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062 20.Juli 2020
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

AKTUALISIERUNGEN: Letzte Aktualisierung 21.7.2020 (Korrekturen; neue Links)

KONTEXT

In den vielen vorausgehenden Beiträgen in diesem Blog wurde die Frage nach dem Menschen, was das angemessene Bild vom Menschen sein könnte, schon oft gestellt. Möglicherweise wird diese Frage auch in der Zukunft sich immer wieder neu stellen, weil wir immer wieder auf neue Aspekte unseres Menschseins stoßen. Ich bin diese Tage auf einen Zusammenhang gestoßen, der mir persönlich in dieser Konkretheit neu ist (was nicht ausschließt, dass andere dies schon ganz lange so sehen). Hier einige weitere Gedanken dazu.

DER MENSCH IN FRAGMENTEN

In der evolutionsbiologischen Perspektive taucht der homo sapiens — also wir — sehr, sehr spät auf. Vom Jahr 2020 aus betrachtet, bilden wir den aktuellen Endpunkt der bisherigen Entwicklung wohl wissend, dass es nur ein Durchgangspunkt ist in einem Prozess, dessen Logik und mögliche Zielrichtung wir bislang nur bedingt verstehen.

Während man bei der Betrachtung der letzten Jahrtausende Menschheitsgeschichte bisweilen den Eindruck haben könnte, dass die Menschen sich als Menschen als etwas irgendwie Besonderes angesehen haben (was die Menschen aber nicht davon abgehalten hat, sich gegenseitig zu bekämpfen, sich zu bekriegen, sich regelrecht abzuschlachten), könnte man bei der Betrachtung der letzten 100 Jahre den Eindruck gewinnen, als ob die Wissenschaft die Besonderheit des Menschen — so es sie überhaupt gab — weitgehend aufgelöst hat: einmal durch die Einbettung in das größere Ganze der Evolution, dann durch einen vertieften Blick in die Details der Anatomie, des Gehirns, der Organe, der Mikro- und Zellbiologie, der Genetik, und schließlich heute durch das Aufkommen digitaler Technologien, der Computer, der sogenannten künstlichen Intelligenz (KI); dies alles lässt den Menschen auf den ersten Blick nicht mehr als etwas Besonders erscheinen.

Diese fortschreitende Fragmentierung des Menschen, des homo sapiens, findet aber nicht nur speziell beim Menschen statt. Die ganze Betrachtungsweise der Erde, des Universums, der realen Welt, ist stark durch die empirischen Wissenschaften der Gegenwart geprägt. In diesen empirischen Wissenschaften gibt es — schon von ihrem methodischen Ansatz her — keine Geheimnisse. Wenn ich nach vereinbarten Messmethoden Daten sammle, diese in ein — idealerweise — mathematisches Modell einbaue, um Zusammenhänge sichtbar zu machen, dann kann ich möglicherweise Ausschnitte der realen Welt als abgeschlossene Systeme beschreiben, bei denen der beschreibende Wissenschaftler außen vor bleibt. Diese partiellen Modelle bleiben notgedrungen Fragmente. Selbst die Physik, die für sich in Anspruch nimmt, das Ganze des Universums zu betrachten, fragmentiert die reale Welt, da sich die Wissenschaftler selbst, auch nicht die Besonderheiten biologischen Lebens generell, in die Analyse einbeziehen. Bislang interessiert das die meisten wenig. Je nach Betrachtungsweise kann dies aber ein fataler Fehler sein.

DER BEOBACHTER ALS BLINDE FLECK

Die Ausklammerung des Beobachters aus der Beschreibung des Beobachtungsgegenstands ist in den empirischen Wissenschaften Standard, da ja das Messverfahren idealerweise invariant sein soll bezüglich demjenigen, der misst. Bei Beobachtungen, in denen der Beobachter selbst das Messinstrument ist, geht dies natürlich nicht, da die Eigenschaften des Beobachters in den Messprozess eingehen (z.B. überall dort, wo wir Menschen unser eigenes Verhalten verstehen wollen, unser Fühlen und Denken, unser Verstehen, unser Entscheiden, usw.). Während es lange Zeit eine strenge Trennung gab zwischen echten (= harten) Wissenschaften, die strikt mit dem empirischen Messideal arbeiten, und jenen quasi (=weichen) Wissenschaften, bei denen irgendwie der Beobachter selbst Teil des Messprozesses ist und demzufolge das Messen mehr oder weniger intransparent erscheint, können wir in den letzten Jahrzehnten den Trend beobachten, dass die harten empirischen Messmethoden immer mehr ausgedehnt werden auch auf Untersuchungen des Verhaltens von Menschen, allerdings nur als Einbahnstraße: man macht Menschen zwar zu Beobachtungsgegenständen partieller empirischer Methoden, die untersuchenden Wissenschaftler bleiben aber weiterhin außen vor. Dieses Vorgehen ist per se nicht schlecht, liefert es doch partiell neue, interessante Einsichten. Aber es ist gefährlich in dem Moment, wo man von diesem — immer noch radikal fragmentiertem — Vorgehen auf das Ganze extrapoliert. Es entstehen dann beispielsweise Bücher mit vielen hundert Seiten zu einzelnen Aspekten der Zelle, der Organe, des Gehirns, aber diese Bücher versammeln nur Details, Fragmente, eine irgendwie geartete Zusammenschau bleibt aus.

Für diese anhaltende Fragmentierung gibt es sicher mehr als einen Grund. Einer liegt aber an der Wurzel des Theoriebegriffs, der Theoriebildung selbst. Im Gegensatz zu einer weit verbreiteten Anschauung entstehen Theorien, Modelle, also jene begrifflichen Gebilde, mit denen wir einzelne Daten deuten, nicht aus einem Automatismus, sondern sie beruhen auf gedanklichen Entscheidungen in den Köpfen der Wissenschaftler selbst: grundsätzlich gibt es immer mehr als eine Option, wie ich etwas angehen will. Jede Option verlangt also eine Entscheidung, eine Wahl aus einem großen Bereich von Möglichkeiten. Die Generierung einer Theorie ist von daher immer ein komplexer Prozess. Interessanterweise gibt es in kaum einer der heutigen empirischen Disziplinen das Thema Wie generieren wir eine Theorie? als eigene Themenstellung. Obwohl hier viele Grundentscheidungen fallen, obwohl hier viel Komplexität rational aufgehellt werden müsste, betreiben die sogenannten harten Wissenschaften hier ein weitgehend irrationales Geschäft. Das Harte an den empirischen Wissenschaften gründet sich in diesem Sinne nicht einmal in einer weichen Reflexion; es gibt schlicht gar keine offizielle Reflexion. Die empirischen Wissenschaften sind in dieser Hinsicht fundamental irrational. Dass sie trotz ihrer fundamentalen Irrationalität interessante Detailergebnisse liefern kann diesen fundamentalen Fehler in der Wurzel nur bedingt ausgleichen. Die interessante Frage ist doch, was könnten die empirischen Wissenschaften noch viel mehr leisten, wenn sie ihre grundlegende Irrationalität an der Wurzel der Theoriebildung schrittweise mit Rationalität auffüllen würden?

HOMO SAPIENS – DER TRANSFORMER

(Ein kleiner Versuch, zu zeigen, was man sehen kann, wenn man die Grenzen der Disziplinen versuchsweise (und skizzenhaft) überschreitet)

Trotz ihrer Irrationalität an der Wurzel hat die Evolutionsbiologie viele interessante Tatbestände zum homo sapiens sichtbar gemacht, und andere Wissenschaften wie z.B. Psychologie, Sprachwissenschaften, und Gehirnwissenschaft haben weitere Details beigesteuert, die quasi ‚auf der Straße‘ herumliegen; jeder produziert für sich fleißig partielle Modelle, aber niemand ist zuständig dafür, diese zusammen zu bauen, sie versuchsweise zu integrieren, mutig und kreativ eine Synthese zu versuchen, die vielleicht neue Aspekte liefern kann, mittels deren wir viele andere Details auch neu deuten könnten. Was Not tut ist eine Wissenschaft der Wissenschaften, nicht als Privatvergnügen eines einzelnen Forschers, sondern als verpflichtender Standard für alle. In einer Wissenschaft der Wissenschaften wäre der Beobachter, der Forscher, die Forschergruppe, selbst Teil des Untersuchungsgegenstandes und damit in der zugehörigen Meta-Theorie aufzuhellen.

Anmerkung: Im Rahmen der Theorie des Engineering gibt es solche Ansätze schon länger, da das Scheitern eines Engineeringprozesses ziemlich direkt auf die Ingenieure zurück schlägt; von daher sind sie äußerst interessiert daran, auf welche Weise der Faktor Mensch — also auch sie selbst — zum Scheitern beigetragen hat. Hier könnte die Wissenschaft eine Menge von den Ingenieuren lernen.

Neben den vielen Eigenschaften, die man am homo sapiens entdecken kann, erscheinen mir drei von herausragender Bedeutung zu sein, was sich allerdings erst so richtig zeigt, wenn man sie im Zusammenspiel betrachtet.

Faktor 1: Dass ein homo sapiens einen Körper [B, body] mit eingebautem Gehirn [b, brain] hat, unterscheidet ihn nicht unbedingt von anderen Lebensformen, da es viele Lebensformen im Format Körper mit eingebautem Gehirn gibt. Dennoch ist schon mal festzuhalten, dass der Gehirn-Körper [b_B] eines homo sapiens einen Teil der Eigenschaften seiner Realwelt-Umgebung [RW] — und der eigene Körper gehört aus Sicht des Gehirns auch zu dieser Realwelt-Umgebung — ausnahmslos in neuronale Zustände [NN] im Gehirn verwandelt/ transformiert/ konvertiert und diese neuronale Zustände auf vielfältige Weise Prozesshaft bearbeitet (Wahrnehmen, Speichern, Erinnern, Abstrahieren, Assoziieren, bewerten, …). In dieser Hinsicht kann man den Gehirn-Körper als eine Abbildung, eine Funktion verstehen, die u.a. dieses leistet: b_B : RW —–> RW_NN. Will man berücksichtigen, dass diese Abbildung durch aktuell verfügbare Erfahrungen aus der Vergangenheit modifiziert werden kann, dann könnte man schreiben: b_B : RW x RW_NN —–> RW_NN. Dies trägt dem Sachverhalt Rechnung, dass wir das, was wir aktuell neu erleben, automatisch mit schon vorhandenen Erfahrungen abgleichen und automatisch interpretieren und bewerten.

Faktor 2: Allein schon dieser Transformationsprozess ist hochinteressant, und er funktioniert bis zu einem gewissen Grad auch ganz ohne Sprache (was alle Kinder demonstrieren, wenn sie sich in der Welt bewegen, bevor sie sprechen können). Ein homo sapiens ohne Sprache ist aber letztlich nicht überlebensfähig. Zum Überleben braucht ein homo sapiens das Zusammenwirken mit anderen; dies verlangt ein Minimum an Kommunikation, an sprachlicher Kommunikation, und dies verlangt die Verfügbarkeit einer Sprache [L].

Wir wir heute wissen, ist die konkrete Form einer Sprache nicht angeboren, wohl aber die Fähigkeit, eine auszubilden. Davon zeugen die vielen tausend Sprachen, die auf dieser Erde gesprochen werden und das Phänomen, dass alle Kinder irgendwann anfangen, Sprachen zu lernen, aus sich heraus.

Was viele als unangenehm empfinden, das ist, wenn man als einzelner als Fremder, als Tourist in eine Situation gerät, wo alle Menschen um einen herum eine Sprache sprechen, die man selbst nicht versteht. Dem Laut der Worte oder dem Schriftzug eines Textes kann man nicht direkt entnehmen, was sie bedeuten. Dies liegt daran, dass die sogenannten natürlichen Sprachen (oft auch Alltagssprachen genannt), ihre Bedeutungszuweisungen im Gehirn bekommen, im Bereich der neuronalen Korrelate der realen Welt RW_NN. Dies ist auch der Grund, warum Kinder nicht von Geburt an eine Sprache lernen können: erst wenn sie minimale Strukturen in ihren neuronalen Korrelaten der Außenwelt ausbilden konnten, können die Ausdrücke der Sprache ihrer Umgebung solchen Strukturen zugeordnet werden. Und so beginnt dann ein paralleler Prozess der Ausdifferenzierung der nicht-sprachlichen Strukturen, die auf unterschiedliche Weise mit den sprachlichen Strukturen verknüpft werden. Vereinfachend kann man sagen, dass die Bedeutungsfunktion [M] eine Abbildung herstellt zwischen diesen beiden Bereichen: M : L <–?–> RW_NN, wobei die sprachlichen Ausdrücke letztlich ja auch Teil der neuronalen Korrelate der Außenwelt RW_NN sind, also eher M: RW_NN_L <–?–>RW_NN.

Während die grundsätzliche Fähigkeit zur Ausbildung einer bedeutungshaltigen Sprache [L_M] (L :_ Ausrucksseite, M := Bedeutungsanteil) nach heutigem Kenntnisstand angeboren zu sein scheint, muss die Bedeutungsrelation M individuell in einem langen, oft mühsamen Prozess, erlernt werden. Und das Erlernen der einen Sprache L_M hilft kaum bis gar nicht für das Erlernen einer anderen Sprache L’_M‘.

Faktor 3: Neben sehr vielen Eigenschaften im Kontext der menschlichen Sprachfähigkeit ist einer — in meiner Sicht — zusätzlich bemerkenswert. Im einfachen Fall kann man unterscheiden zwischen den sprachlichen Ausdrücken und jenen neuronalen Korrelaten, die mit Objekten der Außenwelt korrespondieren, also solche Objekte, die andere Menschen zeitgleich auch wahrnehmen können. So z.B. ‚die weiße Tasse dort auf dem Tisch‘, ‚die rote Blume neben deiner Treppe‘, ‚die Sonne am Himmel‘, usw. In diesen Beispielen haben wir auf der einen Seite sprachliche Ausdrücke, und auf der anderen Seite nicht-sprachliche Dinge. Ich kann mit meiner Sprache aber auch sagen „In dem Satz ‚die Sonne am Himmel‘ ist das zweite Wort dieses Satzes grammatisch ein Substantiv‘. In diesem Beispiel benutze ich Ausdrücke der Sprache um mich auf andere Ausdrücke einer Sprache zu beziehen. Dies bedeutet, dass ich Ausdrücke der Sprache zu Objekten für andere Ausdrücke der Sprache machen kann, die über (meta) diese Objekte sprechen. In der Wissenschaftsphilosophie spricht man hier von Objekt-Sprache und von Meta-Sprache. Letztlich sind es zwei verschiedenen Sprachebenen. Bei einer weiteren Analyse wird man feststellen können, dass eine natürliche/ normale Sprache L_M scheinbar unendlich viele Sprachebenen ausbilden kann, einfach so. Ein Wort wie Demokratie z.B. hat direkt kaum einen direkten Bezug zu einem Objekt der realen Welt, wohl aber sehr viele Beziehungen zu anderen Ausdrücken, die wiederum auf andere Ausdrücke verweisen können, bis irgendwann vielleicht ein Ausdruck dabei ist, der Objekte der realen Welt betrifft (z.B. der Stuhl, auf dem der Parlamentspräsident sitzt, oder eben dieser Parlamentspräsident, der zur Institution des Bundestages gehört, der wiederum … hier wird es schon schwierig).

Die Tatsache, dass also das Sprachvermögen eine potentiell unendlich erscheinende Hierarchie von Sprachebenen erlaubt, ist eine ungewöhnlich starke Eigenschaft, die bislang nur beim homo sapiens beobachtet werden kann. Im positiven Fall erlaubt eine solche Sprachhierarchie die Ausbildung von beliebig komplexen Strukturen, um damit beliebig viele Eigenschaften und Zusammenhänge der realen Welt sichtbar zu machen, aber nicht nur in Bezug auf die Gegenwart oder die Vergangenheit, sondern der homo sapiens kann dadurch auch Zustände in einer möglichen Zukunft andenken. Dies wiederum ermöglicht ein innovatives, gestalterisches Handeln, in dem Aspekte der gegenwärtigen Situation verändert werden. Damit kann dann real der Prozess der Evolution und des ganzen Universums verändert werden. Im negativen Fall kann der homo sapiens wilde Netzwerke von Ausdrücken produzieren, die auf den ersten Blick schön klingen, deren Bezug zur aktuellen, vergangenen oder möglichen zukünftigen realen Welt nur schwer bis gar nicht herstellbar ist.

Hat also ein entwickeltes Sprachsystem schon für das Denken selbst eine gewisse Relevanz, spielt es natürlich auch für die Kommunikation eine Rolle. Der Gehirn-Körper transformiert ja nicht nur reale Welt in neuronale Korrelate b_B : RW x RW_NN —–> RW_NN (mit der Sprache L_B_NN als Teil von RW_NN), sondern der Gehirn-Körper produziert auch sprachliche Ausdrücke nach außen b_B : RW_NN —–> L. Die sprachlichen Ausdrücke L bilden von daher die Schnittstelle zwischen den Gehirnen. Was nicht gesagt werden kann, das existiert zwischen Gehirnen nicht, obgleich es möglicherweise neuronale Korrelate gibt, die wichtig sind. Nennt man die Gesamtheit der nutzbaren neuronalen Korrelate Wissen dann benötigt es nicht nur eine angemessene Kultur des Wissens sondern auch eine angemessene Kultur der Sprache. Eine Wissenschaft, eine empirische Wissenschaft ohne eine angemessene (Meta-)Sprache ist z.B. schon im Ansatz unfähig, mit sich selbst rational umzugehen; sie ist schlicht sprachlos.

EIN NEUES UNIVERSUM ? !

Betrachtet man die kontinuierlichen Umformungen der Energie-Materie vom Big Bang über Gasnebel, Sterne, Sternenhaufen, Galaxien und vielem mehr bis hin zur Entstehung von biologischem Leben auf der Erde (ob auch woanders ist komplexitätstheoretisch extrem unwahrscheinlich, aber nicht unmöglich), dort dann die Entwicklung zu Mehrzellern, zu komplexen Organismen, bis hin zum homo sapiens, dann kommt dem homo sapiens eine einzigartig, herausragende Rolle zu, der er sich bislang offensichtlich nicht richtig bewusst ist, u.a. möglicherweise auch, weil die Wissenschaften sich weigern, sich professionell mit ihrer eigenen Irrationalität zu beschäftigen.

Der homo sapiens ist bislang das einzig bekannte System im gesamten Universum, das in er Lage ist, die Energie-Materie Struktur in symbolische Konstrukte zu transformieren, in denen sich Teile der Strukturen des Universums repräsentieren lassen, die dann wiederum in einem Raum hoher Freiheitsgrade zu neue Zuständen transformiert werden können, und diese neuen — noch nicht realen — Strukturen können zum Orientierungspunkt für ein Verhalten werden, das die reale Welt real transformiert, sprich verändert. Dies bedeutet, dass die Energie-Materie, von der der homo sapiens ein Teil ist, ihr eigenes Universum auf neue Weise modifizieren kann, möglicherweise über die aktuellen sogenannten Naturgesetze hinaus.

Hier stellen sich viele weitere Fragen, auch alleine schon deswegen, weil der Wissens- und Sprachaspekt nur einen kleinen Teil des Potentials des homo sapiens thematisiert.

VERANTWORTUNGSBEWUSSTE DIGITALISIERUNG: Fortsezung 1

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

So 16.Februar 2020

KONTEXT DEMOKRATIE

In einem vorausgehenden Beitrag hatte ich am Beispiel der Demokratie aufgezeigt, welche zentrale Rolle eine gemeinsame funktionierende Öffentlichkeit spielt. Ohne eine solche ist Demokratie nicht möglich. Entspechend der Komplexität einer Gesellschaft muss die große Mehrheit der Bürger daher über ein hinreichendes Wissen verfügen, um sich qualifiziert am Diskurs beteiligen und auf dieser Basis am Geschehen verantwortungsvoll partizipieren zu können. Eine solche Öffentlichkeit samt notwendigem Bildungsstand scheint in den noch existierenden Demokratien stark gefährdet zu sein. Nicht ausdrücklich erwähnt wurde in diesem Beitrag die Notwendigkeit von solchen Emotionen und Motivationen, die für das Erkennen, Kommunizieren und Handeln gebraucht werden; ohne diese nützt das beste Wissen nichts.

KONTEXT DIGITALISIERUNG

In einem Folgebeitrag hatte ich das Phänomen der Digitalisierung aus der Sicht des Benutzers skizziert, wie eine neue Technologie immer mehr eine Symbiose mit dem Leben der Gesellschaft eingeht, einer Symbiose, der man sich kaum oder gar nicht mehr entziehen kann. Wo wird dies hinführen? Löst sich unsere demokratische Gesellschaft als Demokratie schleichend auf? Haben wir überhaupt noch eine funktionierende Demokratie?

PARTIZIPATION OHNE DEMOKRATIE?

Mitten in den Diskussionen zu diesen Fragen erreichte mich das neue Buch von Manfred Faßler Partizipation ohne Demokratie (2020), Fink Verlag, Paderborn (DE). Bislang konnte ich Kap.1 lesen. In großer Intensität, mit einem in Jahrzehnten erarbeiteten Verständnis des Phänomens Digitalisierung und Demokratie, entwirft Manfred Faßler in diesem Kapitel eine packende Analyse der Auswirkungen des Phänomens Digitalisierung auf die Gesellschaft, speziell auch auf eine demokratische Gesellschaft. Als Grundidee entnehme ich diesem Kapitel, dass der Benutzer (User) in Interaktion mit den neuen digitalen Räumen subjektiv zwar viele Aspekte seiner realweltlichen sozialen Interaktionen wiederfindet, aber tatsächlich ist dies eine gefährliche Illusion: während jeder User im realweltlichen Leben als Bürger in einer realen demokratischen Gesellschaft lebt, wo es der Intention der Verfassung nach klare Rechte gibt, Verantwortlichkeiten, Transparenz, Kontrolle von Macht, ist der Bürger in den aktuellen digitalen Räumen kein Bürger, sondern ein User, der nahezu keine Rechte hat. Als User glaubt man zwar, dass man weiter ein Bürger ist, aber die individuellen Interaktionen mit dem digitalen Raum bewegen sich in einem weitgehend rechtlosen und demokratiefreiem Raum. Die allgemeinen Geschäftsbedingungen kaschieren diesen Zustand durch unendliche lange Texte, die kaum einer versteht; sprechen dem User nahezu alle Rechte ab, und lassen sich kaum bis gar nicht einklagen, jedenfalls nicht in einem Format, das der User praktisch einlösen könnte. Dazu kommt, dass der digitale Raum des Users ein geliehener Raum ist; die realen Maschinen und Verfügungsgewalten liegen bei Eignern, die jenseits der gewohnten politischen Strukturen angesiedelt sind, die sich eher keiner demokratischen Ordnung verpflichtet fühlen, und die diese Verfügungsgewalt — so zeigt es die jüngste Geschichte — skrupellos an jeden verkaufen, der dafür Geld bezahlt, egal, was er damit macht.

Das bisherige politische System scheint die Urgewalt dieser Prozesse noch kaum realisiert zu haben. Es denkt noch immer in den klassischen Kategorien von Gesellschaft und Demokratie und merkt nicht, wie Grundpfeiler der Demokratie täglich immer mehr erodieren. Kapitel 1 von Faßlers Buch ist hier schonungslos konkret und klar.

LAGEPLAN DEMOKRATISCHE DIGITALISIERUNG

Möglicher Lageplan zur Auseinandersetzung zwischen nicht-demokratischer und demokratischer Digitalisierung

Erschreckend ist, wie einfach die Strategie funktioniert, den einzelnen bei seinen individuellen privaten Bedürfnissen abzuholen, ihm vorzugaukeln, er lebe in den aktuellen digitalen Räumen so wie er auch sonst als Bürger lebe, nur schneller, leichter, sogar freier von üblichen analogen Zwängen, obwohl er im Netz vieler wichtiger realer Recht beraubt wird, bis hin zu Sachverhalten und Aktionen, die nicht nur nicht demokratisch sind, sondern sogar in ihrer Wirkung eine reale Demokratie auflösen können; alles ohne Kanonendonner.

Es mag daher hilfreich sein, sich mindestens die folgenden Sachverhalte zu vergegenwärtigen:

  • Verankerung in der realen Welt
  • Zukunft gibt es nicht einfach so
  • Gesellschaft als emergentes Phänomen
  • Freie Kommunikation als Lebensader

REALE KÖRPERWELT

Fasziniert von den neuen digitalen Räumen kann man schnell vergessen, dass diese digitalen Räume als physikalische Zustände von realen Maschinen existieren, die reale Energie verbrauchen, reale Ressourcen, und die darin nicht nur unseren realen Lebensraum beschneiden, sondern auch verändern.

Diese physikalische Dimension interagiert nicht nur mit der übrigen Natur sehr real, sie unterliegt auch den bisherigen alten politischen Strukturen mit den jeweiligen nationalen und internationalen Gesetzen. Wenn die physikalischen Eigentümer nach alter Gesetzgebung in realen Ländern lokalisiert sind, die sich von den Nutzern in demokratischen Gesellschaften unterscheiden, und diese Eigentümer nicht-demokratische Ziele verfolgen, dann sind die neuen digitalen Räume nicht einfach nur neutral, nein sie sind hochpolitisch. Diese Sachverhalte scheinen in der europäischen Politik bislang kaum ernsthaft beachtet zu werden; eher erwecken viele Indizien den Eindruck, dass viele politische Akteure so handeln, als ob sie Angestellte jener Eigner sind, die sich keiner Demokratie verpflichtet fühlen (Ein Beispiel von vielen: die neue Datenschutz-Verordnung DSGVO versucht erste zaghafte Schritte zu unternehmen, um der Rechtlosigkeit der Bürger als User entgegen zu wirken, gleichzeitig wird diese DSGVO von einem Bundesministerium beständig schlecht geredet …).

ZUKUNFT IST KEIN GEGENSTAND

Wie ich in diesem Blog schon mehrfach diskutiert habe, ist Zukunft kein übliches Objekt. Weil wir über ein Gedächtnis verfügen, können wir Aspekte der jeweiligen Gegenwart speichern, wieder erinnern, unsere Wahrnehmung interpretieren, und durch unsere Denkfähigkeit Muster, Regelhaftigkeiten identifizieren, denken, und neue mögliche Kombinationen ausmalen. Diese neuen Möglichkeiten sind aber nicht die Zukunft, sondern Zustände unseres Gehirns, die auf der Basis der Vergangenheit Spekulationen über eine mögliche Zukunft bilden. Die Physik und die Biologie samt den vielen Begleitdisziplinen haben eindrucksvoll gezeigt, was ein systematischer Blick zurück zu den Anfängen des Universums (BigBang) und den Anfängen des Lebens (Entstehung von Zellen aus Molekülen) an Erkenntnissen hervor bringen kann. Sie zeigen aber auch, dass die Erde selbst wie das gesamt biologische Leben ein hochkomplexes System ist, das sich nur sehr begrenzt voraus sagen lässt. Spekulationen über mögliche zukünftige Zustände sind daher nur sehr begrenzt möglich.

Ferner ist zu berücksichtigen, dass das Denken selbst kein Automatismus ist. Neben den vielen gesellschaftlichen Faktoren und Umweltfaktoren, die auf unser Denken einwirken, hängt unser Denken in seiner Ausrichtung entscheidend auch von unseren Bedürfnissen, Emotionen, Motiven und Zielvorstellungen ab. Wirkliche Innovationen, wirkliche Durchbrüche sind keine Automatismen. Sie brauchen Menschen, die resistent sind gegen jeweilige ‚Mainstreams‘, die mutig sind, sich mit Unbekanntem und Riskantem auseinander zu setzen, und vieles mehr. Solche Menschen sind keine ‚Massenware’…

GESELLSCHAFT ALS EMERGENTES PHÄNOMEN

Das Wort ‚Emergenz‘ hat vielfach eine unscharfe Bedeutung. In einer Diskussion des Buches von Miller und Page (2007) Complex Adaptive Systems. An Introduction to Computational Models of Social Life habe ich für meinen Theoriezusammenhang eine Definition vorgeschlagen, die die Position von Miller und Page berücksichtigt, aber auch die Position von Warren Weaver (1958), A quarter century in then natural sciences. Rockefeller Foundation. Annual Report,1958, pages 7–15, der von Miller und Page zitiert wird.

Die Grundidee ist die, dass ein System, das wiederum aus vielen einzelnen Systemen besteht, dann als ein organisiertes System verstanden wird, wenn das Wegnehmen eines einzelnen Systems das Gesamtverhalten des Systems verändert. Andererseits soll man aber durch die Analyse eines einzelnen Mitgliedssystems auch nicht in der Lage sein, auf das Gesamtverhalten schließen zu können. Unter diesen Voraussetzungen soll das Gesamtverhalten als emergent bezeichnet werden: es existiert nur, wenn alle einzelnen Mitgliedssysteme zusammenwirken und es ist nicht aus dem Verhalten einzelner Systeme alleine ableitbar. Wenn einige der Mitgliedssysteme zudem zufällige oder lernfähige Systeme sind, dann ist das Gesamtverhalten zusätzlich begründbar nicht voraussagbar.

Das Verhalten sozialer Systeme ist nach dieser Definition grundsätzlich emergent und wird noch dadurch verschärft, dass seine Mitgliedssysteme — individuelle Personen wie alle möglichen Arten von Vereinigungen von Personen — grundsätzlich lernende Systeme sind (was nicht impliziert, dass sie ihre Lernfähigkeit ’sinnvoll‘ nutzen). Jeder Versuch, die Zukunft sozialer Systeme voraus zu sagen, ist von daher grundsätzlich unmöglich (auch wenn wir uns alle gerne der Illusion hingeben, wir könnten es). Die einzige Möglichkeit, in einer freien Gesellschaft, Zukunft ansatzweise zu erarbeiten, wären Systeme einer umfassenden Partizipation und Rückkopplung aller Akteure. Diese Systeme gibt es bislang nicht, wären aber mit den neuen digitalen Technologien eher möglich.

FREIE KOMMUNIKATION UND BILDUNG

Die kulturellen Errungenschaften der Menschheit — ich zähle Technologie, Bildungssysteme, Wirtschaft usw. dazu — waren in der Vergangenheit möglich, weil die Menschen gelernt hatten, ihre kognitiven Fähigkeiten zusammen mit ihrer Sprache immer mehr so zu nutzen, dass sie zu Kooperationen zusammen gefunden haben: Die Verbindung von vielen Fähigkeiten und Ressourcen, auch über längere Zeiträume. Alle diese Kooperationen waren entweder möglich durch schiere Gewalt (autoritäre Gesellschaften) oder durch Einsicht in die Sachverhalte, durch Vertrauen, dass man das Ziel zusammen schon irgendwie erreichen würde, und durch konkrete Vorteile für das eigene Leben oder für das Leben der anderen, in der Gegenwart oder in der möglichen Zukunft.

Bei aller Dringlichkeit dieser Prozesse hingen sie zentral von der möglichen Kommunikation ab, vom Austausch von Gedanken und Zielen. Ohne diesen Austausch würde nichts passieren, wäre nichts möglich. Nicht umsonst diagnostizieren viele Historiker und Sozialwissenschaftler den Übergang von der alten zur neuen empirischen Wissenschaft in der Veränderung der Kommunikation, erst Recht im Übergang von vor-demokratischen Gesellschaften zu demokratischen Gesellschaften.

Was aber oft zu kurz kommt, das ist die mangelnde Einsicht in den engen Zusammenhang zwischen einer verantwortlichen Kommunikation in einer funktionierenden Demokratie und dem dazu notwendigen Wissen! Wenn ich eine freie Kommunikation in einer noch funktionierenden Demokratie haben würde, und innerhalb dieser Diskussion würden nur schwachsinnige Inhalte transportiert, dann nützt solch eine Kommunikation natürlich nichts. Eine funktionierende freie Kommunikation ist eine notwendige Voraussetzung für eine funktionierende Demokratie, aber die Verfügbarkeit von angemessenen Weltbildern, qualitativ hochwertigem Wissen bei der Mehrheit der Bürger (nicht nur bei gesellschaftlichen Teilgruppen, die sich selbst als ‚Eliten‘ verstehen) ist genauso wichtig. Beides gehört zusammen. Bei der aktuellen Zersplitterung aller Wissenschaften, der ungeheuren Menge an neuem Wissen, bei den immer schneller werdenden Innovationszyklen und bei der zunehmenden ‚Fragmementierung der Öffentlichkeit‘ verbunden mit einem wachsenden Misstrauen untereinander, ist das bisherige Wissenssystem mehr und mehr nicht nur im Stress, sondern möglicherweise kurz vor einem Kollaps. Ob es mit den neuen digitalen Technologien hierfür eine spürbare Unterstützung geben könnte, ist aktuell völlig unklar, da das Problem als solches — so scheint mir — noch nicht genügend gesellschaftlich erkannt ist und diskutiert wird. Außerdem, ein Problem erkennen ist eines, eine brauchbare Lösung zu finden etwas anderes. In der Regel sind die eingefahrenen Institutionen wenig geeignet, radikal neue Ansätzen zu denken und umzusetzen. Alte Denkgewohnheiten und das berühmte ‚Besitzstanddenken‘ sind wirkungsvolle Faktoren der Verhinderung.

AUSBLICK

Die vorangehenden Gedanken mögen auf manche Leser vielleicht negativ wirken, beunruhigend, oder gar deprimierend. Bis zum gewissen Grad wäre dies eine natürliche Reaktion und vielleicht ist dies auch notwendig, damit wir alle zusammen uns wechselseitig mehr helfen, diese Herausforderungen in den Blick zu nehmen. Der Verfasser dieses Textes ist trotz all dieser Schwierigkeiten, die sich andeuten, grundlegend optimistisch, dass es Lösungen geben kann, und dass es auch — wie immer in der bisherigen Geschichte des Lebens auf der Erde — genügend Menschen geben wird, die die richtigen Ideen haben werden, und es Menschen gibt, die sie umsetzen. Diese Fähigkeit zum Finden von neuen Lösungen ist eine grundlegende Eigenschaft des biologischen Lebens. Dennoch haben Kulturen immer die starke Tendenzen, Ängste und Kontrollen auszubilden statt Vertrauen und Experimentierfreude zu kultivieren.

Wer sich das Geschehen nüchtern betrachtet, der kann auf Anhieb eine Vielzahl von interessanten Optionen erkennen, sich eine Vielzahl von möglichen Prozessen vorstellen, die uns weiter führen könnten. Vielleicht kann dies Gegenstand von weiteren Beiträgen sein.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Verantwortungsbewusste Digitalisierung. Ein erster Versuch

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Do 25.Januar 2020

KONTEXT

Am 3.Dezember 2019 fand die Gründungssitzung des hessischen Zentrums für ‚Verantwortungsbewusste Digitalisierung‘ [HZVD] statt. Natürlich stellen sich in diesem Zusammenhang viele Fragen. Der Autor dieses Textes fragt sich z.B., wie er selber die Frage beantworten würde, was denn der Ausdruck ‚Verantwortungsbewusste Digitalisierung‘ meinen könnte bzw. sollte. Im folgenden einige erste Gedanken. Es ist sicher kein Zufall, dass der vorausgehende Beitrag ‚Philosopie der Demokratie‚ (und natürlich viele andere Beiträge aus diesem Blog) mit diesen Gedanken mehrfache Bezüge aufweisen.

KEINER IST DRAUSSEN

Wenn irgendjemand anfängt, über Digitalisierung zu reden, dann ist er heute damit nicht alleine, weil es sich hier um ein wirklich globales Phänomen handelt, das in allen Ländern dieses Planeten auftritt. In einigen mehr, in anderen weniger, aber es ist da, überall: diese Technologie hat sich buchstäblich ‚hineingefressen‘ in alle Bereiche der Gesellschaft. Früher habe ich noch versucht, an dieser Stelle aufzuzählen, wo überall in der Gesellschaft sich Digitalisierung zeigt. Mittlerweile wäre es eher interessant, zu fragen wo eigentlich noch nicht? Wenn selbst schon kleinste Kinder mit digitalisierten Geräten umgehen, als ob es ein eigenes Körperteil ist. Wenn natürliche Verhaltensweisen, Bewegungsmuster, die noch vor ca. 30 Jahren ’normal‘ erschienen, heute schon garnicht mehr bekannt sind, dann ist dies ein sehr tiefgreifendes Anzeichen — und sogar nur eines unter vielen — für Veränderung, die den einzenen erreicht haben, aber in der Summe dann natürlich uns alle betreffen.

JENSEITS VON TECHNOLOGIE

Dieses einfache Beispiel als Indikator für Prozesse, die uns alle betreffen, kann verdeutlichen, dass die sogenannte Digitalisierung auf eine Technologie verweist, die wie keine andere eben nicht einfach nur eine Technologie ist, wie wir sie von ‚früher‘ kennen (vor 70 Jahren von heute rückwärts war die Welt noch ‚in Ordnung‘). Diese Technologie ist anders, sie ist radikal anders. Sie geht mit Menschen, mit ganzen gesellschaftlichen Systemen eine Symbiose ein, durch die sich diese Gesellschaft grundlegend ändert. Digitale Technologien können sich an die Schnittstellen des Menschen anschmiegen, können alle Äußerungen eines Menschen quasi aufsaugen, sie sich einverleiben, und dann irgendwo und irgendwann wieder ausspucken in einer Weise, die mit dem Ursprung nichts mehr zu tun haben muss. Lebensäußerungen eines Menschen können durch die Symbiose mit der digitalen Technologie beliebig verwandelt werden, und kommen dann als etwas Verwandeltes wieder zurück, zu anderen, die von dieser Verwandlung garnichts merken müssen, oder sogar zum Absender, der es vielleicht auch garnicht merkt, weil es so stark verwandelt hat.

Ich drücke Tasten auf einem Keyboard, und im Kopfhörer höre ich die Klänge eines Orchesters. Ich male ein paar Striche auf einem leeren Bildschirm, und es entstehen wie von Zauberhand Figuren, Landschaften, dreidimensional, sehr natürlich. Ich spreche in ein Mikrofon und ich höre eine Stimme, die die eines anderen sein könnte. Ich setze eine Brille auf und sehe nicht einfach die normale Strasse, sondern zusätzlich Namen von Gegenständen, Namen von Menschen, die an mir vorbei laufen, Namen, die vielleicht falsch sind, Bezeichnungen, die in die Irre führen können. Ich schreibe eine Nachricht an eine Bekannte, und diese Nachricht wird von vielen anderen mitgelesen, während sie als Datenstrom ihren Weg durch das unsichtbare Datennetzwerk nimmt bis hin zum Empfänger. Mein Smartphone liegt auf dem Tisch, ich unterhalte mich mit anderen, und die Mikrophone des Smartphones sind eingeschaltet, nicht von mir, und alles was wir erzählen, geht irgendwohin, von dem wir nichts wissen. Die Sekretärin im Büro schreibt einen Brief, und während sie schreibt wird der gesamte Text mehrfach — unbemerkt — ins Internet verschickt… Kleine Beispiele aus einem Alltag, der uns schon alle ‚hat‘. Die Organisatoren dieses Alltags sind nicht unsere Freunde, sondern Menschen die irgendwo auf diesem Planeten sitzen, und sich beständig überlegen, was sie jetzt am gewinnbringendsten mit diesen Daten machen. Zwischen lupenreiner Diktatur und radikalem Kommerz gibt es hier alles, was wir uns denken können.

TREIBENDE KRÄFTE

Als Bürger eines — noch — demokratischen Staates sind wir gewohnt in Kategorien der Kontrolle von Macht, von Transparenz zu denken, von Grundwerten, von einer sozialen Gesellschaft, in der versucht wird, zwischen den verschiedenen Kräften einen Ausgleich dergestalt herzustellen, dass nicht einzelne Interessengruppen alle anderen dominieren und in undemokratischer Weise beherrschen.

Mit dem Auftreten einer umfassenden Digitalisierung sind diese Spielregeln mittlerweile immer mehr außer Kraft gesetzt; man kann sich mittlerweile fast schon vorstellen, dass diese Spielregeln bei einer weiteren politisch unkontrollierten Digitalisierung ganz außer Kraft gesetzt werden. Dazu muss man nicht einmal eine klassische Revolution durchführen. Es reicht einfach, die Gehirne aller Menschen, die über die Symbiose im Alltag mit der großen universalen digitalen Maschine verknüpft sind, von allen Inhalten und Kommunikationen fern zu halten, die notwendig sind, um sich gemeinsam ein realistisches Bild der gemeinsamen Gesellschaft zu machen. Wenn die berühmte demokratische Öffentlichkeit nicht mehr stattfindet, wenn alle Gehirne unsichtbar voneinander getrennt wurden, weil sie an Datenräume gekoppelt sind, die von demokratiefernen Gruppierungen betrieben und manipuliert werden, dann gibt es keine demokratische Gesellschaft mehr; dann sind die Politiker digital isoliert, hängen selber in digitalen Subräumen, die voneinander nichts mehr wissen, die selber hochgradig manipuliert sein können. Wer kann denn heute noch unterscheiden, ob er mit einem Menschen oder einer Software redet? Nicht nur die Stimme, nein, sogar das gesamte Äußere lässt sich täuschend echt simulieren.

In vielen Ländern Europas, in vielen gesellschaftlichen Gruppen, ist das, was ich hier schreibe, keine Fiktion mehr. Die Menschen sind real über ihr digitale Symbiose von manipulativen digitalen Subräumen so eingenommen, dass für sie eine realitätsgerechte Meinungsbildung nicht mehr möglich ist … was sich politisch konkret auswirkt.

IN DER DIGITALEN SCHLEIFE

Was früher reine Science Fiction Geschichten waren, das erleben wir mittlerweile als weitreichende Realität. Durch die permanente Ankopplung unserer Gehirne an die große digitale Maschine hängen wir schon jetzt in einer Weise von diesem digitalen Pseudo-Raum ab, dass ein Arbeiten ohne ihn faktisch nur noch für Fast-Einsiedler möglich ist. Immer mehr alltägliche Abläufe sind ohne Benutzung eines Smartphones entweder gar nicht oder nur sehr beschwerlich möglich. Unsere Städte, unsere Firmen brechen sofort zusammen, wenn die große digitale Maschine zu stottern anfängt oder wegen Energiemangel still steht. Den immer umfangreicheren Datenmissbrauch (‚Cybercrime‘) übergehen wir mal großzügig. Den gibt es offiziell ja nicht eigentlich, obwohl er ein Ausmaß annimmt, das die digitale Maschine und damit das Leben, das symbiotisch an ihr hängt, immer stärker bedroht.

GROSSE HILFLOSIGKEIT

Bislang ist es noch wenig üblich, einzuräumen, dass die wunderschöne neue Welt des Digitalen vielleicht nicht nur schön ist, dass hinter alltäglicher Bürosoftware, die in ganz Europa in allen Büros benutzt wird, vielleicht ein gigantischer Datenmissbrauch stattfindet, täglich, stündlich, minütlich … solche Gedanken sind verpönt, weil dann ja plötzlich alle Opfer wären…

So muss man feststellen, dass die gesamte Gesellschaft bislang eher den Eindruck einer ‚Hilflosigkeit‘ erweckt, dass sie mehr ‚getrieben‘ wirkt als tatsäch bewusst, verantwortungsvoll handelnd. Flächendeckend ist kein Bürger auf diese rasante Entwicklung wirklich vorbereitet. Ob Schule, Kommune, Gesundheitssystem, Arbeitswelt, … es finden sich kaum hinreichende Kompetenzen, um auf diese Situation qualifiziert, interdisziplinär, im Verbund, nachhaltig zu reagieren. Auch wenn man es nicht wahrhaben will, diese ‚Opferrolle‘ erzeugt unterschwellig viele Ängste, Belastungen, Unwägbarkeiten. Die Chancen einer umfassenden Manipulation von Menschen waren nie größer als heute.

WAS KANN MAN TUN?

Wenn jemand Durst hat und weiß, wo er/ sie etwas zu trinken bekommt — und er/ sie auch über die Mittel vefügt, das Wissen umzusetzen! –, dann holt er sich einfach etwas zu trinken und trinkt.

Wenn wir symbiotisch mit der großen digitalen Maschine leben und wir wollen nicht, dass wir zu einem reinen Spielball digitaler Prozesse werden, die von uns unbekannten Fremden beliebig manipuliert werden können, dann ist die Antwort ganz klar; (i) wir benötigen so viel Wissen als notwendig, damit wir verstehen, was passiert und was wir selbst real tun können, um unser eigenes Ding machen zu können, und (ii) wir benötigen die Kontrolle über alle Ressourcen, die man benötigt, um die große digitale Maschine nach den eigenen Regeln zu nutzen. Ja, und wir brauchen auch (iii) einen für alle bekannten und genutzen gemeinsamen digitalen Raum, den wir als demokratische Bürger eines digitalen Staates nutzen, um uns gemeinsam eine Meinung darüber bilden zu können, was wir gemeinsam wollen. Gibt es diesen gemeinsamen Raum nicht, nützt uns unser individuelles Wissen nicht viel. Gibt es die Kontrolle über die Ressourcen nicht, bleiben wir ohne Wirkung; wir können uns nicht einmal artikulieren. Fehlt uns das Wissen, wissen wir erst garnicht, was wir tun können oder sollten.

ENDE OFFEN

Ob wir als demokratische Gesellschaft es schaffen, uns gemeinsam ein Bild der Lage zu verschaffen, was angemessen ist, was wir miteinander teilen, ob wir in der Lage sind, genügend Kräfte zu mobilisieren, die Zukunft in die eigenen Hände zu nehmen, ob wir genügend gute Ideen haben werden, zukünftige Prozesse nachhaltig zu gestalten, das entscheidet sich im Alltag, an dem jeder auf seine Weise mitwirkt. Glücklicherweise ist die Realität in Europa und Deutschland noch nicht ganz so schwarz, wie ich es im vorausgehenden Text gezeichnet habe. Aber die aktuellen Tendenzen lassen alle Optionen real erscheinen: wir können gemeinsam in einen digitalen Nihilismus abdriften, der von wenigen anonymen Kräften genutzt wird, oder wir können alles in einen digitalen Konstruktivismus verwandeln, in dem wir die große digitale Maschine bewusst und kraftvoll für unsere gemeinsam geteilte Zukunftsvision nutzen. Aber die brauchen wir dann auch, eine gemeinsam geteilte Zukunftsvision. Mit Wegschauen, übergroßer Korrektheit, reinem Sicherheitsdenken, und Kontrollwahn wird es keine lebbare Zukunft geben. Den homo sapiens –also uns — gibt es nur, weil das biologische Leben in 3.5 Mrd. Jahren immer auch ein Minimum an Unangepasstheit und Verrücktheit vorgelebt hat, und dadurch ein frühes Aussterben verhindert hat. … für die ewigen Pessimisten ein permanenter Stein des Anstoßes… ein Pessimist empfindet die bloße Tatsache des Lebens als Zumutung: verantwortungsvoll handeln, selbst handeln, mit all den Risiken: Igitt es könnte ja schief gehen …. Ja, es kann schiefgehen, das genau charakterisiert biologisches Leben, das aus Freiheit erwächst… Leben ist niemals fertig, sondern muss sich permanent weiter finden, er-finden! Das ist nichts für Angsthasen oder für die ewigen Weltverschwörer…

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

WENN ZUKUNFT ANDERS IST ALS DU WILLST, DASS SIE IST. Notiz

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Sa 21.Dezember 2019 (Leichte Korrekturen: 13:50h)

KONTEXT: Zukunft wo?

In diesem Blog gab es schon viele Beiträge, die sich mit der Frage beschäftigt haben, ob und wie wir überhaupt so etwas wie ‚Zukunft‘ erkennen können. Grundsätzlich können wir Zukunft überhaupt nicht erkennen, da Zukunft — anders als Gegenwart und Vergangenheit — nicht als etwas Reales vorkommt. Zukunft existiert nicht als ein reales Objekt; man kann nicht auf sie zeigen, man kann sie nicht ‚riechen‘, ’nicht schmecken‘ …. Zukunft fristet ein verborgenes Dasein in unserem Denken, das da irgendwo in unserem Gehirn stattfindet, das wiederum in unserem Körper eingebettet ist, verborgen von der Außenwelt, damit geschützt. Der Körper bildet ein Ökosystem für das Gehirn. Ohne diesen Körper wäre es nicht lebensfähig. Und darin irgendwie, irgendwo findet das statt, was wir Bewusstsein nennen. Ein schwieriger Begriff. Bis heute weder von Philosophen noch Psychologen noch Neurowissenschaftlern ausreichend definiert, beschrieben, vermessen. Hier, im Bewusstsein, dem schwer Fassbaren, zeigt sich ein Fragment unserer körperlichen Wirklichkeit, zeigen sich die Fragmente unseres Wissens von der Körperwelt.

LEUCHTSPUR DES LEBENS

Wie schon mehrfach im Blog beschrieben, war Kant einer der ersten Philosophen, der das Eingebettet sein des Bewusstseins in übergreifende Strukturen deutlich thematisiert hat (andere Texte, wie z.B. Platons Höhlengleichnis, kann man irgendwie auch so interpretieren, aber doch eher sehr metaphorisch), und es waren Konrad Lorenz und dann viele andere moderne Erkenntnistheoretiker, die den Zusammenhang von Bewusstsein – Gehirn – Körper weiter gedacht haben bis dahin, dass man das Phänomen homo sapiens = Mensch eingereiht hat in den Gestaltenwandel aller Lebensformen, vom vermessbaren Anfangspunkt vor ca. 3.5 Mrd. Jahren bis heute.

BASTELWERKSTATT GEHIRN

Einerseits ist das Gehirn trotz einer Wissenschaft vom Gehirn (meist ‚Neurowissenschaft‘ genannt) weiterhin mehr unbekannt als bekannt. Aus den mittlerweile sicher mehr als viele tausend Artikeln und Büchern zum Gehirn und Bewusstsein gibt es ein paar Themen, die sich durchhalten, ohne dass man sagen kann, sie erklären die Phänomene vollständig. Dazu gehört die Fähigkeit, die Wahrnehmungen der jeweiligen Gegenwart auf spezifische Weise zu ’speichern‘, sie mit späteren Wahrnehmungen ‚zu verrechnen‘, und im Raum dieser Wahrnehmungen und ‚Erinnerungen‘ Muster, Regelmäßigkeiten entdecken zu können. Mittels dieser entdeckten Muster kann unser ‚Denken‘ — das wir bis heute kaum verstehen — dann diese Muster in mögliche andere gedachte ‚Muster‘ verwandeln, in viel komplexere ‚Modelle‘ zusammenbauen, die wir dann als ‚gedachte Suchmuster‘ in die erkennbare Gegenwart zurück ‚projizieren‘ können. Diese ‚gedachten Modelle‘ stellen relativ zur gegebenen Realität der Körper ‚mögliche alternative Zustände‘ dar, die — falls die gedachten Modelle die Wirklichkeit repräsentieren — das repräsentieren, was wir Zukunft nennen.

Die Geschichte des Denkens und dann der späteren modernen empirischen Wissenschaften zeigt, dass praktisch niemand, nicht einmal die empirischen Wissenschaften, bislang in der Lage war und ist, die tatsächlich sich ereignende Realität auch nur annähernd voraus zu sagen. Selbst die physikalische Zukunft des Universums ist gedanklich nicht völlig geklärt.

ENTDECKEN DURCH HERUMPROBIEREN

Bei der Rekonstruktion der Lebensspur aus dem Dunkel der Vergangenheit konzentrieren sich die beteiligten empirischen Wissenschaften verständlicherweise zunächst mal auf das Greifbare, Messbare. Aus einer Unsumme an Einzelaspekten versuchen sie dann, ein Gesamtbild zusammen zu setzen, das ‚für uns‘ einen gewissen ‚Sinn‘ ergibt. Durch die Aufsplittung in viele einzelne wissenschaftliche Perspektiven kommt eine Vielzahl von Aspekten ans Licht, die nicht notwendigerweise harmonieren oder gar von vornherein eine alles übergreifende Linie erkennen lassen. Dies ist in gewisser Weise unvermeidbar und notwendig. Im wissenschaftlichen Rekonstruktionsprozess sollte man nicht zu schnell im Vornherein festlegen, was ‚erkannt werden soll‘, sondern erst einmal darauf einlassen, ‚was sich zeigt‘ (ein Grundsatz auch der phänomenologischen Philosophie bzw. letztlich aller wahren Philosophie). Andererseits können wir aber nur ‚erkennen‘, wenn wir die vielen Details in mögliche Beziehungen einordnen. Das Denken kann nur durch ‚Gedankenspiele‘ im ‚Raum möglicher Beziehungen‘ jene ‚Teilmengen‘ entdecken, die nicht nur ‚denkbar‘ sind, sondern darüber hinaus auch mit der Eigengesetzlichkeit der Körperwelt ‚harmonieren‘, sie ‚widerspiegeln‘, die Eigengesetzlichkeit der Welt repräsentieren, zumindest minimal, soweit, dass man damit ansatzweise Prognosen erstellen kann, Voraussagen über die möglichen Ereignisse in der Körperwelt.

EVOLUTIONÄRE LOGIK

Wie schon öfters in diesem Blog beschrieben, ist diese innere Logik unseres menschlichen Denkens in dieser spezifischen Ausprägung zwar neu, aber nicht ganz neu. Das Leben auf dieser Erde, das BIOM, wie ich es nenne, arbeitet seit 3.5 Mrd. Jahren nach diesem Muster. Seitdem die ersten Zellen auf diesem Planeten existieren — Milliardenfach, Billionenfach –, repräsentieren sie mehrere Prinzipien gleichzeitig, das, was wir evolutionäre Logik nennen können: (i) grundsätzlich können sie sich reproduzieren; (ii) durch die Fähigkeit Moleküle zu bauen, die andere Moleküle als Handlungsanweisung interpretieren können, können sie partiell bisher erfolgreiche Strukturen in die Reproduktion einfließen lassen; (iii) durch die Tatsache, dass die Reproduktion nicht 1:1 stattfindet, sondern sich auf vielfache Weise verändert, erscheint der Fortgang des Prozesses als ein innovativer, kreativer Prozess. In diesem nicht-deterministischem Charakter der Reproduktion werden in jeder Generation von neuen Zellen Teilräume aus dem Gesamtraum der möglichen Zustände aktiviert, deren Überlebenswert im Moment der Auswahl unklar ist, unbekannt. Die nachträgliche Rekonstruktion des Lebens im Rahmen der Evolutionsbiologie und vieler kooperierender Disziplinen enthüllt uns, dass es genau diese Fähigkeit zur Innovation unter Unwissenheit war — und ist? — die das Leben mitten in einer hochdynamischen Umgebung des Planeten Erde mit immer wieder absolut lebensfeindlichen, chaotischen Zuständen im Spiel gehalten hat. Es gibt aber noch zwei weitere Eigenschaften, die fundamental sind: (iv) die Fähigkeit, zu kommunizieren, und (v) die Fähigkeit, zu kooperieren bis hin zur Fähigkeit einer Integration vieler selbständiger Elemente zu einer neuen, symbiotischen Funktionseinheit, die ’nach außen‘ als ein System auftritt, nach innen aber geradezu galaktische Dimension an beteiligten autonomen Akteuren aufweist.

Alle fünf Eigenschaften sind fundamental, aber die vierte und fünfte erweisen sich als jene Faktoren, die zu einer geradezu unfassbaren Komplexitätssteigerung auf dem Planeten Erde geführt haben. Zur Erinnerung: ein menschlicher Körper repräsentiert etwa 120 Galaxien im Format der Milchstraße an Zellen. Zugleich legen Schätzungen nahe, dass es auf der Erde um ein Vielfaches mehr einzellige Lebewesen gibt als Sterne im bekannten Universum. Dies bedeutet, die Erde als scheinbares Nichts in den unendlichen Weiten des Universums ist dennoch der Ort, an dem sich eine Komplexität gebildet hat, die um ein Vielfaches größer ist als das umgebende Universum.

Kennen Sie irgendeinen Menschen in ihrer Umgebung, dem dies bewusst ist?

Kennen Sie irgendeine Publikation, in der diese Sachverhalte ernsthaft diskutiert werden?

Irgendwie haben wir Menschen eine Art ‚blinden Fleck‘, was die Besonderheit von uns selbst betrifft. Zwar hatten die Menschen Jahrtausende ein Gefühl der Besonderheit des Menschen, aber diese Besonderheit hat den Menschen vom Rest der Welt, der Wirklichkeit ‚abgesondert‘ und damit eine wahre, tiefere Erkenntnis verhindert. Als Teil des ganzen BIOMs kommt den Menschen eine besondere Rolle zu, nicht aber als abgesondertes Monster.

… ANDERS ALS WIR DENKEN

Betrachtet man die Kulturgeschichte der letzten ca. 10.000 Jahre, dann ist kaum zu übersehen, dass die Menschen nicht nur dazu tendieren, sich zu vermehren, sondern zugleich auch ihre Lebensweise zu verdichten. Immer wieder brechen sogenannte Großreiche, weil sie es nicht schaffen, die Anforderungen der selbst geschaffenen Komplexität konstant und ausreichend zu bedienen, oder weil die umgebenden Natur durch außergewöhnliche Ereignisse (Vulkanausbruch, Asteroidenabsturz, …) oder durch das Klima die Lebensbedingungen dramatisch verändert bzw. verschlechtert hat. Ganze Reiche, damals ‚Weltreiche‘, sind plötzlich in sich zusammen gebrochen, implodiert; andere haben ihre Stelle eingenommen. Zu keiner Zeit hatten die jeweils Verantwortlichen vorausgesehen, was kommen würde.

Heute erleben wir mehrere Megatrends parallel. (i) Die Vermehrung des homo sapiens schreitet voran und beansprucht den gesamten Planeten; (ii) Die Versuche einer globalen politischen Versöhnung im Konstrukt der Vereinten Nationen wird mehr denn je wieder von separatistischen, nationalistischen Strömungen konterkariert; (iii) die wirtschaftlich getriebene Globalisierung macht die Starken stärker und die Schwachen schwächer; außerdem erodiert sie nationale politische Strukturen; die Faktoren (i) – (iii) zusammen verursachen einen mehr und mehr selbstzerstörerischen Resourcenverbrauch, der begleitet wird von einer globalen Zerstörung des Leben-ermöglichenden BIOMS; zugleich wird die Natur selbst, insbesondere das komplexe und sensible Klimasystem, nachweisbar so gestört, dass die Veränderungen das gewohnte Leben schon jetzt dramatisch bedrohen, und das sind nur die Vorboten von viel dramatischeren Wirkungen. Anschauliche Beispiele gibt es dazu aus der Vergangenheit zur Genüge. Diese kommenden Klimaereignisse werden nicht nur — wie die UN schon vorgerechnet hat — Migrationswellen von 25 und mehr Prozent der Weltbevölkerung annehmen, es wird uns alle betreffen, egal wo, und es wird um das nackte Überleben gehen. Darauf ist niemand vorbereitet.

ZWITTER DIGITALISIERUNG

Was wir erleben ist, dass die Digitalisierung schon jetzt alle Lebensbereiche durchdrungen hat und durch unser alltägliches Handeln über unsere Wahrnehmung schon lange in unser Bewusstsein, in unser Denken eingewandert ist. Die junge Generation kennt schon gar nichts anderes mehr. Sie kann gar nicht anders als zu fühlen und zu denken, dass die Welt so ist, wie sie sich ihr darbietet.

Darüber kann man viel diskutieren, lamentieren, beschwören oder — was die Industrie und Politik zur Zeit bevorzugen — zu Lobpreisen, Hoffnungen zu schüren, goldene Zukünfte zu versprechen. Beides führt uns nicht weiter. Für das Überleben auf diesem Planeten brauchen wir radikale Wahrheiten und — ja, tatsächlich — globale Lösungen.

In diesem Zusammenhang gibt es einen potentiellen Verbündeten für die Zukunft, den so bislang — scheint mir — niemand auf der Rechnung hat.

Der enorme Druck, der wirtschaftlich — und auch politische — ausgeübt wird, immer mehr zu vernetzen, zeigt mittlerweile ein Phänomen, das bislang keiner so recht will: aus rein technischen Gründen ist kein einziges technisches System, das in ein Netzwerk eingebunden ist, wirklich ’sicher‘. Auch ohne Quantencomputer können alle heute benutzen Codes schon mit normalen Rechner in einer praktikablen Zeit entschlüsselt werden und dies wird auch in der Zukunft so sein, da jedes Verschlüsselungsverfahren, das technisch möglich ist, mit der gleichen Technologie auch entschlüsselt werden kann … und dabei ist die Verschlüsselung ja nur ein Moment der Abschottung, die durch viele andere Faktoren verletzt werden kann.

Aus diesem Sachverhalt folgt die Einsicht, dass die Technologie der Zukunft eine Technologie sein muss, die von allen gemeinsam genutzt wird. Separatismus, Nationalismus sind altertümliche Konzepte, die in der Zukunft nicht mehr funktionieren werden. Damit zeigt sich in der technologischen Entwicklung — die Teil der Evolution ist! –, das, was das BIOM schon längst vorlebt: lebensfähig sind nur jene Systeme, die sich in einem trans-galaktischen Maßstab vernetzen können und darin als eine Einheit auftreten.

Die Aufblähung der Sonne ist zwar für unsere menschliche Zeiterfahrung noch ein bisschen weit in der Zukunft (wobei aber auch andere Ereignisse eintreten können, die das Leben auf der Erde kurzerhand auslöschen würden), aber klar ist, dass das Leben auf der Erde nicht dazu gedacht ist, die Eitelkeiten von narzisstischen Machtpolitikern oder die abstrusen Weltbilder von Fundamentalisten zu bedienen, sondern das Leben als ganzes, eben als BIOM, muss seinen Ort im Universum neu bestimmen. Auch wenn wir uns heute das überhaupt nicht vorzustellen vermögen, die gesamte Evolutionslogik hat nur eine Botschaft: das gesamte BIOM mit dem homo sapiens als zentralem Akteur muss als Einheit sich im Universum neu positionieren. Die sogenannten regenerierbaren Energien sind mit Blick auf die Beeinflussung des CO2-Faktors in unserer planetarischen Klimamaschine zwar bis zu einem gewissen Grade sinnvoll, aber nur bis zu einem gewissen Grade. Sobald der Klimawandel anfängt, in seine kritische Phase überzugehen — was faktisch passieren wird — werden Wasser und Luft nicht mehr funktionieren, Sonne unter Vorbehalt. Die Bedingungen auf der Oberfläche des Planeten Erde werden so ungemütlich werden, dass viele heute vertraute Versorgungsstrukturen einfach nicht mehr funktionieren können.

WAHRHEIT IST MEHR ALS MAINSTREAM

Ich bin mir bewusst, dass solche Gedanken aktuell nichts bewirken werden. Der nationale Egoismus der aktuellen Staaten ist zu groß, als dass ein wirklich nachhaltiges Denken und Handeln stattfinden wird. Wir sind für ein Denken über die Zukunft nicht wirklich geschaffen, obwohl der homo sapiens bislang die einzige Lebensform ist, die grundsätzlich über diese Fähigkeit verfügt. Aus meiner Sicht haben wir deswegen für das gesamte BIOM eine Verantwortung… narzisstische Machtpolitiker (und viele Kapitaleigner) wissen aber nicht, was das ist. Sie sehen nur sich selbst …

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Brexit – Computerinterface – Zukunft. Wie hängt dies zusammen?

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de
19.-20.Oktober 2019

Aktualisierung: 3.Nov.2019 auf dieser Seite

LEITGEDANKE

Wenn das, was wir nicht sehen, darüber entscheidet, was wir sehen,
dann lohnt es sich, für einen Moment inne zu halten, und sich darüber klar
zu werden, was wir tun, wenn wir versuchen, die Welt zu verstehen.

INHALT

1 Der Brexit als Lehrstück … 1
2 Das Unsichtbare in Allem 3
3 Computer-Interface als ein Stück Alltag 4
4 Wir als Teil von BIOM I und II 6
5 Homo Sapiens im Blindflug? 9
6 Epilog 11

DOKUMENT (PDF)

KURZKOMMENTAR

Der Text des Dokuments ist das Ergebnis von all den vorausgegangenen Blogeinträgen bis jetzt! Es ist die erste Zusammenschließung von verschiedenen großen Themen, die bislang im Blog getrennt diskutiert wurden. Es ist die große ‚Vereinheitlichung‘ von nahezu allem, was der Autor bislang kennt. Vielleicht gelingt es, dieser Grundintention folgend, diesen Ansatz weiter auszuarbeiten.

KURZKOMMENTAR II

Der Text ist aus philosophischer Perspektive geschrieben, scheut nicht die Politik, nimmt den Alltag ernst, nimmt sich die Digitalisierung vor, bringt die Evolutionbiologie zentral ins Spiel, und diagnostiziert, dass die aktuellen smarten Technologien, insbesondere die neuen Smart City Ansätze, schlicht zu wenig sind. Die ganzen nicht-rationalen Faktoren am Menchen werden nicht als lästiges Beiwerk abgeschüttelt, sondern sie werden als ein zentraler Faktor anerkannt, den wir bislang zu wenig im Griff haben.

ERGÄNZUNG 3.Nov.2019

In dem PDF-Dokument wird erwähnt, dass die Brexit-Entscheidung in England im Vorfeld massiv aus dubiosen Quellen beeinflusst worden ist. Im PDF-Dokument selbst habe ich keine weiteren Quellenangaben gemacht. Dies möcte ich hier nachholen, da es sich um einen explosiven Sachverhalt handelt, der alle noch bestehenden demokratischen Gesellschaft bedroht. Da ds ZDF und Phoenix die Angaben zu immer wieder neuen Terminen machen, sind die zugehörigen Links möglicherweise immer nur zeitlich begrenzt verfügbar.

Der Film „Angriff auf die Demokratie. Wurde der Brexit gekauft?“ von Dirk Laabs wird einmal in einem Text kurz beschrieben, und es wird ein Link auf youtube angegeben, wo man den Film als Video abrufen kann.

Hier aus dem Worlaut der Ankündigung:

„Die britische Wahlkommission ist überzeugt: Es gibt Anhaltspunkte dafür, dass große Teile der Gelder für eine Kampagne vor dem Brexit-Referendum aus dubiosen Quellen stammen.

„Im Fokus steht der britische Geschäftsmann Arron Banks, Strippenzieher und enger Freund des ehemaligen Ukip-Anführers Nigel Farage. Über seine Offshore-Konten sollen fast neun Millionen Pfund Spenden geflossen sein.“

Die Recherchen des ZDF legen nahe, „dass Wähler verdeckt und so effektiv wie möglich beeinflusst werden sollten.“ Es werden nicht nur die Geldströme vefolgt, sondern der ZDFzoom-Autor Dirk Laabs „redet mit Insidern aus der Kampagne und konfrontiert ihren Kopf, den ehemaligen Chef der Ukip, Nigel Farage. Farage redet im Interview mit dem ZDF auch darüber, welchen Einfluss US-amerikanische Berater für die Kampagne hatten. Steve Bannon, früherer Berater von US-Präsident Trump, war einer der wichtigen Berater in diesem Spiel.“

„Konkret geht es um millionenschwere Kredite, die die Pro-Brexit-Kampagne von Banks erhalten haben soll. Demnach stammte das Geld möglicherweise nicht von ihm selbst, sondern von Firmen mit Sitz auf der Isle of Man und in Gibraltar, die sich damit in den Wahlkampf eingemischt hätten. Mittlerweile ermittelt die National Crime Agency. Sie soll die bislang verschleierte Kampagnen-Finanzierung offenlegen.“

„Nigel Farage spricht im Interview mit dem „ZDFzoom“-Autor Dirk Laabs ganz offen darüber, wie eng die Lager zusammengearbeitet haben und wie wichtig auch der ehemalige Trump-Berater Steve Bannon für die Kampagne in Großbritannien war“ … Ein Whistleblower, der für die Leave-Kampagne gearbeitet hat, ist überzeugt: „Die verschiedenen Brexit-Kampagnen brachen die Gesetze, griffen dabei auf ein ganzes Netzwerk von Firmen zurück, um mehr Geld ausgeben zu können. Ohne diese Betrügereien wäre das EU-Referendum anders ausgegangen.“

„ZDFzoom“-Autor Dirk Laabs geht in der Dokumentation den Fragen nach: „Mit welchen fragwürdigen Methoden wurde die Mehrheit der Briten vom Brexit überzeugt? Welche Interessen und Profiteure stecken dahinter? Und Laabs fragt bei Akteuren in Brüssel nach, welche Maßnahmen mit Blick auf die Europawahl ergriffen werden sollten und überhaupt könnten, um den Digital-Wahlkampf der Zukunft zu regulieren oder kontrollierbarer zu machen.“

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

KI UND BIOLOGIE. Blitzbericht zu einem Vortrag am 28.Nov.2018

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
29.Nov. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE AKTUALISIERUNG: 1.Dez.2018, Anmerkung 1

KONTEXT

Im Rahmen einer öffentlichen Veranstaltung des Fachbereichs 2 ‚Informatik & Ingenieurwissenschaften‘ der Frankfurt University of Applied Sciences am 28.November 2018 mit dem Rahmenthema „Künstliche Intelligenz – Arbeit für Alle?“ hielt Gerd Doeben-Henisch einen kurzen Vortrag zum Thema „Verändert KI die Welt?“ Voraus ging ein Vortrag von Herrn Helmut Geyer „Arbeitsmarkt der Zukunft. (Flyer zur Veranstaltung: FRA-UAS_Fb2_Karte_KI-Arbeit fuer alle_Webversion )

EINSTIEG INS KI-THEMA

Im Kontext der Überlegungen zur Arbeitswelt angesichts des technologischen Wandels gerät die Frage nach der Rolle der Technologie, speziell der digitalen Technologie — und hier noch spezieller der digitalen Technologie mit KI-Anteilen – sehr schnell zwischen die beiden Pole ‚Vernichter von Arbeit‘, ‚Gefährdung der Zukunft‘ einerseits und ‚Neue Potentiale‘, ‚Neue Arbeit‘, ‚Bessere Zukunft‘, wobei es dann auch einen dritten Pol gibt, den von den ‚übermächtigen Maschinen‘, die die Menschen sehr bald überrunden und beherrschen werden.

Solche Positionen, eine Mischungen aus quasi-Fakten, viel Emotionen und vielen unabgeklärten Klischees, im Gespräch sachlich zu begegnen ist schwer bis unmöglich, erst Recht, wenn wenig Zeit zur Verfügung steht.

Doeben-Henisch entschloss sich daher, das Augenmerk zentral auf den Begriff ‚Künstliche Intelligenz‘ zu lenken und die bislang uneinheitliche und technikintrovertierte Begrifflichkeit in einen größeren Kontext zu stellen, der das begrifflich ungeklärte Nebeneinander von Menschen und Maschinen schon im Ansatz zu überwinden sucht.

ANDERE DISZIPLINEN

Viele Probleme im Kontext der Terminologie der KI im technischen Bereich erscheinen hausgemacht, wenn man den Blick auf andere Disziplinen ausweitet. Solche andere Disziplinen sind die Biologe, die Mikrobiologie sowie die Psychologie. In diesen Disziplinen beschäftigt man sich seit z.T. deutlich mehr als 100 Jahren mit komplexen Systemen und deren Verhalten, und natürlich ist die Frage nach der ‚Leistungsfähigkeit‘ solcher Systeme im Bereich Lernen und Intelligenz dort seit langem auf der Tagesordnung.

Die zunehmenden Einsichten in die unfassbare Komplexität biologischer Systeme (siehe dazu Beiträge in diesem Blog, dort auch weitere Links), lassen umso eindrücklicher die Frage laut werden, wie sich solche unfassbar komplexen Systeme überhaupt entwickeln konnten. Für die Beantwortung dieser Frage wies Doeben-Henisch auf zwei spannende Szenarien hin.

KOMMUNIKATIONSFREIE EVOLUTION

Entwicklungslogik vor der Verfügbarkeit von Gehirnen
Entwicklungslogik vor der Verfügbarkeit von Gehirnen

In der Zeit von der ersten Zelle (ca. -3.8 Mrd Jahren) bis zur Verfügbarkeit hinreichend leistungsfähiger Nervensysteme mit Gehirnen (ab ca. -300.000, vielleicht noch etwas früher) wurde die Entwicklung der Lebensformen auf der Erde durch zwei Faktoren gesteuert: (a) die Erde als ‚Filter‘, was letztlich zu einer bestimmten Zeit geht; (b) die Biomasse mit ihrer Reproduktionsfähigkeit, die neben der angenäherten Reproduktion der bislang erfolgreichen Baupläne (DNA-Informationen) in großem Umfang mehr oder weniger starke ‚Varianten‘ erzeugte, die ‚zufallsbedingt‘ waren. Bezogen auf die Erfolge der Vergangenheit konnten die zufälligen Varianten als ’sinnlos‘ erscheinen, als ’nicht zielführend‘, tatsächlich aber waren es sehr oft diese zunächst ’sinnlos erscheinenden‘ Varianten, die bei einsetzenden Änderungen der Lebensverhältnisse ein Überleben ermöglichten. Vereinfachend könnte man also für die Phase die Formel prägen ‚(Auf der dynamischen Erde:) Frühere Erfolge + Zufällige Veränderungen = Leben‘. Da zum Zeitpunkt der Entscheidung die Zukunft niemals hinreichend bekannt ist, ist die Variantenbildung die einzig mögliche Strategie. Die Geschwindigkeit der ‚Veränderung von Lebensformen‘ war in dieser Zeit auf die Generationsfolgen beschränkt.

MIT KOMMUNIKATION ANGEREICHERTE EVOLUTION

Nach einer gewissen ‚Übergangszeit‘ von einer Kommunikationsfreien zu einer mit Kommunikation angereicherte Evolution gab es in der nachfolgenden Zeit die Verfügbarkeit von hinreichend leistungsfähigen Gehirnen (spätestens mit dem Aufkommen des homo sapiens ab ca. -300.000)[1], mittels deren die Lebensformen die Umgebung und sich selbst ‚modellieren‘ und ‚abändern‘ konnten. Es war möglich, gedanklich Alternativen auszuprobieren, sich durch symbolische Kommunikation zu ‚koordinieren‘ und im Laufe der letzten ca. 10.000 Jahren konnten auf diese Weise komplexe kulturelle und technologische Strukturen hervorgebracht werden, die zuvor undenkbar waren. Zu diesen Technologien gehörten dann auch ab ca. 1940 programmierbare Maschinen, bekannt als Computer. Der Vorteil der Beschleunigung in der Veränderung der Umwelt – und zunehmend auch der Veränderung des eigenen Körpers — lies ein neues Problem sichtbar werden, das Problem der Präferenzen (Ziele, Bewertungskriterien…). Während bislang einzig die aktuelle Erde über ‚Lebensfähig‘ ‚oder nicht Lebensfähig‘ entschied, und dies das einzige Kriterium war, konnten die  Lebewesen mit den neuen Gehirnen  jetzt eine Vielzahl von Aspekten ausbilden, ‚partielle Ziele‘, nach denen sie sich verhielten, von denen oft erst in vielen Jahren oder gar Jahrzehnten oder gar noch länger sichtbar wurde, welche nachhaltigen Effekte sie haben.

Anmerkung 1: Nach Edelman (1992) gab es einfache Formen von Bewusstsein mit den zugehörigen neuronalen Strukturen ab ca. -300 Mio Jahren.(S.123) Danach hätte es  also ca. 300 Mio Jahre gedauert, bis   Gehirne, ausgehend von einem ersten einfachen Bewusstsein, zu komplexen Denkleistungen und sprachlicher Kommunikation in der Lage waren.

LERNEN und PRÄFERENZEN

Am Beispiel von biologischen Systemen kann man fundamentale Eigenschaften wie z.B. das ‚Lernen‘ und die ‚Intelligenz‘ sehr allgemein definieren.

Systematisierung von Verhalten nach Lernen und Nicht-Lernen
Systematisierung von Verhalten nach Lernen und Nicht-Lernen

In biologischer Sicht haben wir generell Input-Output-Systeme in einer unfassbar großen Zahl an Varianten bezüglich des Körperbaus und der internen Strukturen und Abläufe. Wie solch ein Input-Output-System intern im Details funktioniert spielt für das konkrete Leben nur insoweit eine Rolle, als die inneren Zustände ein äußerlich beobachtbares Verhalten ermöglichen, das wiederum das Überleben in der verfügbaren Umgebung ermöglicht und bezüglich spezieller ‚Ziele‘ ‚erfolgreich‘ ist. Für das Überleben reicht es also zunächst, einfach dieses beobachtbare Verhalten zu beschreiben.

In idealisierter Form kann man das Verhalten betrachten als Reiz-Reaktions-Paare (S = Stimulus, R = Response, (S,R)) und die Gesamtheit des beobachtbaren Verhaltens damit als eine Sequenz von solchen (S,R)-Paaren, die mathematisch eine endliche Menge bilden.

Ein so beschriebenes Verhalten kann man dann als ‚deterministisch‘ bezeichnen, wenn die beobachtbaren (S,R)-Paare ’stabil‘ bleiben, also auf einen bestimmten Reiz S immer die gleiche Antwort R erfolgt.

Ein dazu komplementäres Verhalten, also ein ’nicht-deterministisches‘ Verhalten, wäre dadurch charakterisiert, dass entweder (i) der Umfang der Menge gleich bleibt, aber manche (S,R)-Paare sich verändern oder (ii) der Umfang der Menge kann sich ändern. Dann gibt es die beiden interessanten Unterfälle (ii.1) es kommen nach und nach neue (S,R)-Paare dazu, die ‚hinreichend lang‘ ’stabil‘ bleiben, aber ab einem bestimmten Zeitpunkt ‚t‘ sich nicht mehr vermehren (die Menge der stabilen Elemente wird ‚eingefroren‘, ‚fixiert‘, ‚gezähmt‘, …), oder (ii.2) die Menge der stabilen (S,R)-Paare expandiert ohne Endpunkt.

Bezeichnet man diese Expansion (zeitlich ‚befristet‘ oder ‚unbefristet‘) als ‚Lernen‘, dann wird sichtbar, dass die ‚Inhalte des Lernens‘ (die korrespondierenden Repräsentationen der (S,R)-Paare in den internen Zuständen des Systems) einmal davon abhängen, was die Umgebung der Systeme ‚erlaubt‘, zum anderen, was die ‚inneren Zustände‘ des Systems an ‚Verarbeitung ermöglichen‘, sowie – sehr indirekt – über welche welche ‚internen Selektionskriterien‘ ein System verfügt.

Die ‚internen Selektionskriterien‘ werden hier kurz ‚Präferenzen‘ genannt, also Strategien, ob eher ein A oder ein B ’selektiert‘ werden soll. Wonach sich solche Kriterien richten, bleibt dabei zunächst offen. Generell kann man sagen, dass solche Kriterien primär ‚endogen‘ begründet sein müssen, dass sie aber nachgeordnet auch von außen (‚exogen‘) übernommen werden können, wenn die inneren Kriterien eine solche Favorisierung des exogenen Inputs ‚befürworten‘ (Beispiel sind die vielen Imitationen im Lernen bzw. die Vielzahl der offiziellen Bildungsprozesse, durch die Menschen auf bestimmte Verhaltens- und Wissensmuster trainiert (programmiert) werden). Offen ist auch, ob die endogenen Präferenzen stabil sind oder sich im Laufe der Zeit ändern können; desgleichen bei den exogenen Präferenzen.

Am Beispiel der menschlichen Kulturen kann man den Eindruck gewinnen, dass das Finden und gemeinsame Befolgen von Präferenzen ein bislang offenes Problem ist. Und auch die neuere Forschung zu Robotern, die ohne Terminierung lernen sollen (‚developmental robotics‘), hat zur Zeit das Problem, dass nicht ersichtlich ist, mit welchen Werten man ein nicht-terminiertes Lernen realisieren soll. (Siehe: Merrick, 2017)) Das Problem mit der Präferenz-Findung ist bislang wenig bekannt, da die sogenannten intelligenten Programme in der Industrie immer nur für klar definierte Verhaltensprofile trainiert werden, die sie dann später beim realen Einsatz unbedingt einhalten müssen.  Im technischen Bereich spricht man hier oft von einer ’schwachen KI‘. (Siehe: VDI, 2018) Mit der hier eingeführten Terminologie  wären dies nicht-deterministische Systeme, die in ihrem Lernen ‚terminieren‘.

INTELLIGENZ

Bei der Analyse des Begriffs ‚Lernen‘ wird sichtbar, dass das, was gelernt wird, bei der Beobachtung des Verhaltens nicht direkt ’sichtbar‘ ist. Vielmehr gibt es eine allgemeine ‚Hypothese‘, dass dem äußerlich beobachtbaren Verhalten ‚interne Zustände‘ korrespondieren, die dafür verantwortlich sind, ob ein ’nicht-lernendes‘ oder ein ‚lernendes‘ Verhalten zu beobachten ist. Im Fall eines ‚lernenden‘ Verhaltens mit dem Auftreten von inkrementell sich mehrenden stabilen (S,R)-Paaren wird angenommen, das den (S,R)-Verhaltensformen ‚intern‘ entsprechende ‚interne Repräsentationen‘ existieren, anhand deren das System ‚entscheiden‘ kann, wann es wie antworten soll. Ob man diese abstrakten Repräsentationen ‚Wissen‘ nennt oder ‚Fähigkeiten‘ oder ‚Erfahrung‘ oder ‚Intelligenz‘ ist für die theoretische Betrachtung unwesentlich.

Die Psychologie hat um die Wende zum 20.Jahrhundert mit der Erfindung des Intelligenztests durch Binet und Simon (1905) sowie in Weiterführung durch W.Stern (1912) einen Ansatz gefunden, die direkt nicht messbaren internen Repräsentanten eines beobachtbaren Lernprozesses indirekt dadurch zu messen, dass sie das beobachtbare Verhalten mit einem zuvor vereinbarten Standard verglichen haben. Der vereinbarte Standard waren solche Verhaltensleistungen, die man Kindern in bestimmten Altersstufen als typisch zuordnete. Ein Standard war als ein Test formuliert, den ein Kind nach möglichst objektiven Kriterien zu durchlaufen hatte. In der Regel gab es eine ganze Liste (Katalog, Batterie) von solchen Tests. Dieses Vorgehensweisen waren sehr flexibel, universell anwendbar, zeigten allerdings schon im Ansatz, dass die Testlisten kulturabhängig stark variieren konnten. Immerhin konnte man ein beobachtbares Verhalten von einem System auf diese Weise relativ zu vorgegebenen Testlisten vergleichen und damit messen. Auf diese Weise konnte man die nicht messbaren hypothetisch unterstellten internen Repräsentationen indirekt qualitativ (Art des Tests) und quantitativ (Anteil an einer Erfüllung des Tests) indizieren.

Im vorliegenden Kontext wird ‚Intelligenz‘ daher als ein Sammelbegriff für die hypothetisch unterstellte Menge der korrespondierenden internen Repräsentanten zu den beobachtbaren (S,R)-Paaren angesehen, und mittels Tests kann man diese unterstellte Intelligenz qualitativ und quantitativ indirekt charakterisieren. Wie unterschiedlich solche Charakterisierung innerhalb der Psychologie modelliert werden können, kann man in der Übersicht von Rost (2013) nachlesen.

Wichtig ist hier zudem, dass in diesem Text die Intelligenz eine Funktion des Lernens ist, das wiederum von der Systemstruktur abhängig ist, von der Beschaffenheit der Umwelt sowie der Verfügbarkeit von Präferenzen.

Mehrdimensionaler Raum der Intelligenzrpräsentanen
Mehrdimensionaler Raum der Intelligenzrpräsentanen

Aus Sicht einer solchen allgemeinen Lerntheorie kann man statt biologischen Systemen auch programmierbare Maschinen betrachten. Verglichen mit biologischen Systemen kann man den programmierbaren Maschinen ein Äquivalent zum Körper und zur Umwelt spendieren. Grundlagentheoretisch wissen wir ferner schon seit Turing (1936/7), dass programmierbare Maschinen ihr eigenes Programm abändern können und sie prinzipiell lernfähig sind. Was allerdings (siehe zuvor das Thema Präferenz) bislang unklar ist, wo sie jeweils die Präferenzen herbekommen sollen, die sie für eine ’nachhaltige Entwicklung‘ benötigen.

ZUKUNFT VON MENSCH UND MASCHINE

Im Licht der Evolution erscheint die  sich beschleunigende Zunahme von Komplexität im Bereich der biologischen Systeme und deren Populationen darauf hinzudeuten, dass mit der Verfügbarkeit von programmierbaren Maschinen diese sicher nicht als ‚Gegensatz‘ zum Projekt des biologischen Lebens zu sehen sind, sondern als eine willkommene Unterstützung in einer Phase, wo die Verfügbarkeit der Gehirne eine rapide Beschleunigung bewirkt hat. Noch bauen die biologischen Systeme ihre eigenen Baupläne  nicht selbst um, aber der Umbau in Richtung von Cyborgs hat begonnen und schon heute ist der Einsatz von programmierbaren Maschinen existentiell: die real existierenden biologischen Kapazitätsgrenzen erzwingen den Einsatz von Computern zum Erhalt und für die weitere Entwicklung. Offen ist die Frage, ob die Computer den Menschen ersetzen sollen. Der Autor dieser Zeilen sieht die schwer deutbare Zukunft eher so, dass der Mensch den Weg der Symbiose intensivieren wird und versuchen sollte, den Computer dort zu nutzen, wo er Stärken hat und zugleich sich bewusst sein, dass das Präferenzproblem nicht von der Maschine, sondern von ihm selbst gelöst werden muss. Alles ‚Böse‘ kam in der Vergangenheit und kommt in der Gegenwart vom Menschen selbst, nicht von der Technik. Letztlich ist es der Mensch, der darüber entscheidet, wie er die Technik nutzt. Ingenieure machen sie möglich, die Gesellschaft muss entscheiden, was sie damit machen will.

BEISPIEL EINER NEUEN SYMBIOSE

Der Autor dieser Zeilen hat zusammen mit anderen KollegenInnen in diesem Sommer ein Projekt gestartet, das darauf abzielt, dass alle 11.000 Kommunen in Deutschland ihre Chancen haben sollten, ihre Kommunikation und Planungsfähigkeit untereinander dramatisch zu verbessern, indem sie die modernen programmierbaren Maschinen in neuer ‚intelligenter‘ Weise für ihre Zwecke nutzen.

QUELLEN

  • Kathryn Merrick, Value systems for developmental cognitive robotics: A survey, Cognitive Systems Research, 41:38 – 55, 2017
  • VDI, Statusreport Künstliche Intelligenz, Oktober 2018, URL: https://www.vdi.de/vdi-statusbericht-kuenstliche-intelligenz/ (zuletzt: 28.November 2018)
  • Detlef H.Rost, Handbuch der Intelligenz, 2013: Weinheim – Basel, Beltz Verlag
  • Joachim Funke (2006), Kap.2: Alfred Binet (1857 – 1911) und der erste Intelligenztest der Welt, in: Georg Lamberti (Hg.), Intelligenz auf dem Prüfstand. 100 Jahre Psychometrie, Vandenhoek & Ruprecht
  • Alfred Binet, Théodore Simon: Methodes nouvelles pour le diagnostiqc du niveau intellectuel des anormaux. In: L’Année Psychologique. Vol. 11, 1904, S. 191–244 (URL: https://www.persee.fr/doc/psy_0003-5033_1904_num_11_1_3675 )
  • William Stern, Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkinder, 19121: Leipzig, J.A.Barth
  • Alan M. Turing, On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, 42(2):230–265, 1936-7
  • Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

FREIHEIT DIE ICH MEINE. Nachhall zu einem Gespräch

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 19.Nov 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

‚Freiheit‘ ist eines dieser Worte, um das sich seit Jahrtausende Erwartungen, Vorstellungen, Wünsche, Geschichten ranken, mit viel Blut, mit vielen Toten, aber auch strahlenden Gesichtern, glücklichen Menschen.

Erst ab dem 18.Jahrhundert fand das mit ‚Freiheit‘ Gemeinte dann in Europa und Nordamerika eine politische Gestalt, in der eine Vision von Freiheit zum zentralen Leitmotiv vieler Gesellschaftsverträge wurde. Aber es dauerte weitere 100 Jahre, bis es sich in offiziellen Gesetzen und staatlichen Institutionen so konkretisierte, dass heute ein normaler Bürger davon ausgehen darf, dass seine ‚Freiheit‘ durch den Staat als ein großes Gut des Lebens geschützt wird.

Trotz dieser unfassbaren Geschichte der ‚Sichtbarmachung‘ von ‚Freiheit‘ in der allgemeinen gesellschaftlichen Wirklichkeit besteht im Alltag, bei den einzelnen, weiterhin eine große Verwirrung und Unsicherheit darüber, ob es ‚Freiheit‘ wirklich gibt, was ‚Freiheit‘ genau ist, ob und wie man sie konkret leben soll/kann.

In diesem Blog wurde das Thema ‚Freiheit‘ schon öfters angesprochen, auch sehr grundsätzlich, vielleicht sogar grundsätzlicher, als es bislang in den offiziellen Erklärungen zum ‚Menschenrecht Freiheit‘ formuliert worden ist.

Im folgenden Text werden einzelne Aspekte des mit ‚Freiheit Gemeinten‘ artikuliert, wie sie in einem Gespräch gestern unter 12 FreundenInnen kontrovers diskutiert wurde.

SPLITTER EINES GESPRÄCH

Die folgenden Notizen sind kein ‚Protokoll‘ des Gesprächs, sondern meine subjektive aktive Nach-Erinnerung. Vielleicht kommentieren ja einige der TeilnehmerInnen, um ihre eigenen Sichten sichtbar zu machen.

  1. Wenn im folgenden von ‚der Freiheit‘ die Rede ist, dann ist immer ‚das mit dem Wort Freiheit Gemeinte‘ der Gegenstand. Da Freiheit nicht als normaler ‚Gegenstand‘ im Alltag vorkommt, sondern nur in einem komplexen Geflecht von vielen Gegenständen und Handlungen, ist im Einzelfall immer nachzufragen, was denn jemand meint, wenn er das Wort ‚Freiheit‘ im Munde führt.
  2. In dem Gespräch wurde Freiheit zudem nicht isoliert diskutiert sondern verknüpft mit den Begriffen ‚Demokratie‘. ‚Digitalisierung‘ und ‚Meditation‘, Begriffe, die selbst nicht gerade vor Einfachheit strotzen.
  3. Begründet wurde dies damit, dass in der ‚realen Welt‘ nichts isoliert, nichts ‚einfach‘ vorkommt, sondern immer verbunden mit vielen anderen, gleichzeitig, simultan. Einfach zu sagen, man sei ‚für A‘ oder ‚gegen A‘ ist daher in vielen Fällen unzureichend, da ‚A‘ nie alleine vorkommt, sondern in vielfältigen Beziehungen mit B und C und …. so gibt es Freiheit nicht lupenrein, als etwas ‚Ideales‘, von allem anderen ‚Losgelöstes‘, sondern verflochten mit vielen realen Bedingungen, die man mit bedenken muss, will man von Freiheit reden.
  4. So stand zu Beginn des Gesprächs also nicht einfach nur das Wort ‚Freiheit‘ im Raum sondern die Sätze: ‚In einer Demokratie herrscht Freiheit. Digitalisierung und Meditation hilft uns‘.
  5. In einer ersten Reaktion wurden diese einfachen Sätze natürlich sofort in ihre Bestandteile zerpflückt, dass man das ja so gar nicht sagen könne, weil …
  6. Das Problem aber war (und ist), dass wir die Wirklichkeit nicht beliebig in ihre Bestandteile zerpflücken können. Die alltägliche Wirklichkeit kommt als ein Vielfalts-Monster daher: manches finden wir gut, manches wissen wir nicht, anderes finden wir schlecht. So auch die Freiheit in einer Demokratie. Dazu heute eine umfassende Digitalisierung mit guten wie schlechten Wirkungen. Die Praxis der Meditation, die helfen kann oder auch nicht; viele wissen dazu nichts Genaues.
  7. Nimmt man als Arbeitshypothese versuchsweise mal an, dass es tatsächlich an der Wurzel allen Lebens eine grundlegende Freiheit derart gibt, entscheiden zu können, ob man A oder nicht-A tun will, dann kann die Gesellschaftsform ‚Demokratie‘ als jene Verfassung angesehen werden, die vom Ansatz her den individuellen Freiheiten den maximal möglichen Raum zu sichern sucht. Die neuen digitalen Technologien können – bei richtiger Anwendung — den individuellen Freiheiten eine neuartige Unterstützung zukommen lassen, die ihnen helfen, die historisch angewachsene Komplexität der Wirklichkeit besser mit als ohne digitale Technologien zu meistern. Für die persönliche Orientierung (auch emotional) kann eine geeignete Form des Meditierens zusätzlich eine fundamentale Unterstützung bieten.
  8. Diese Worte deuten ein ‚Potential‘ an, das Möglichkeitsräume eröffnet. Möglichkeiten müssen aber ‚realisiert‘ werden in Raum und Zeit, durch konkrete Taten unter Zuhilfenahme von realen Ressourcen.
  9. Wenn man Kindern von vornherein aber z.B. die konkreten Bedingungen verweigert, die sie bräuchten, um ‚Lernen‘ zu können, um ihre Freiheit ‚auszuprobieren‘, dann haben sie zwar eine grundlegende Freiheit, aber sie können sie nicht ausleben, da ihnen dann die geistigen und materiellen Voraussetzungen fehlen, um es tun zu können. Wenn ich Informationen verweigere oder nur falsche Informationen gebe; wenn ich keine Zeit zugestehe, um lernen zu können, keine Nahrung für die notwendige Kraft, keine Anerkennung für den notwendigen Mut, und vieles mehr, dann verhindert man im Ansatz die Entwicklung jener Formen von Freiheit, von der wir alle konkret leben (falls wir überhaupt zum Leben gefunden haben).
  10. Das Thema der ‚Ermöglichung‘ von Freiheit zieht sich aber durch das gesamte Leben eines Menschen durch, in jeder Gesellschaft. Wenn es immer weniger ‚wahre Informationen‘ gibt, stattdessen ‚falsche Informationen‘, dann kann jemand noch so viel das ‚Richtige‘ wollen, noch so viel ‚eine gute Zukunft‘ wollen, er/ sie wird nur das Falsche tun können, Unheil anrichten, Ressourcen vergeuden, anderen Menschen Unrecht tun, auf Dauer mehr zerstören als aufbauen, auf Dauer Leid erzeugen und Tod. Die heute zu beobachtende Erosion der sogenannten ‚Öffentlichkeit‘ in demokratischen Gesellschaften ist die sicherste Methode, die Vision einer Demokratie und Freiheit im Ansatz zu zerstören, da Demokratie auf die wechselseitige Kommunikation angewiesen ist. Freiheit und Demokratie brauchen ein Maximum an Wahrheit und Kommunikation; dies kostet viel Engagement, Arbeit, Ressourcen. Wer dies verweigert und leichtfertig verspielt, verspielt Freiheit und damit dann Demokratie.
  11. Von daher ist auch klar, dass Bildung in allen Lebensphasen für alle Menschen grundlegend ist. Ein demokratischer Staat, der an Bildung spart, gib sich von innen her auf. Was nützen die großen Worte einer Verfassung, wenn die Mehrheit der Bürger sie gar nicht mehr versteht? Wenn niemand weis, wie die grundlegenden Mechanismen einer freien Gesellschaft ineinander spielen? Wenn die jungen Menschen nie lernen können, mit sich selber, mit ihren Emotionen konstruktiv umgehen zu können? Wenn Leitbilder fehlen, die eine freiheitliche demokratische Gesellschaft konstruktiv fördern? Wenn das grundlegende Wissen in jenen wissenschaftlichen und technischen Bereichen fehlen, durch die moderne Gesellschaften überhaupt nur lebensfähig sind?
  12. Natürlich erlebt jeder von Kindheit an, wie die grundlegenden Bedürfnisse des Körpers, des Lebens unser Fühlen und Handeln dominieren können. Wer hungert und dürstet, wird darum kämpfen müssen, dass er überlebt. Dass die einen Menschen anderen Menschen ihr Wasser wegnehmen können und ihre Äcker, von denen sie leben, ohne Ersatz, das ermöglicht keine Freiheit und keine Demokratie. Dass die einen ihr Kapital so nutzen, dass nur wenige davon leben können und so viele in Armut leben müssen, das kann auch keine Grundlage sein.
  13. Wir haben auch gelernt, dass der weitaus größte Teil des Körpers un-bewusst ist, dass in diesem Unbewussten viele Prozesse im Menschen ablaufen, die den Menschen ‚von innen heraus‘ steuern können. Die betroffenen Menschen erleben, dass sie sich ‚anders‘ verhalten, als sie vielleicht wollen, als es die offiziellen ‚gesellschaftlichen Normen‘ vorschreiben; sie fühlen sich aber unter ‚inneren Zwängen‘; sie ‚verstehen sich selbst nicht‘; sie sind sich selbst gegenüber ‚hilflos‘. Dies wird oft verursacht durch großes Leid, das Menschen als Kinder oder auch als Erwachsene zugefügt bekamen, auch durch körperliche Defekte, genetische Besonderheiten, durch Krankheiten. Ein Leben ‚aus Freiheit‘ ist dann erschwert oder gar blockiert. Solche ‚inneren Verwundungen‘ zu ‚heilen‘ kann langwierig, sehr schwer sein. Besser ist es, man lässt sie gar nicht entstehen.
  14. Im Vergleich der gesellschaftlichen Systeme und ihren Verhaltensregeln können wir heute sehen, wie unterschiedlich gleiche Situationen interpretiert und geregelt werden. Im Extremfall wird in einer Gesellschaft jemand für ein Verhalten X zum Tode verurteilt, während es in einer anderen Gesellschaft ganz ’normal‘ ist, X zu tun. Die Gesamtheit der vielen Regeln können viele Verhaltensweisen, die wichtig wären, ‚unterdrücken‘, ‚verhindern‘, sie können bestimmte Menschen und Menschengruppen ‚verteufeln‘, sie können ganze Wissensbereiche ausgrenzen, die zum Lebe und Überleben aber wichtig sind (in der Sicht anderer Gesellschaften). Diese verwirrende Vielfalt erschwert ein Leben aus Freiheit, in Freiheit, da es für Entscheidungen immer mehr als eine Option gibt.
  15. ‚Vielfalt‘ kann man daher aus der Sicht der Entscheidung als ‚Last‘ empfinden. Und in der Tat ist Freiheit als solche eine permanente ‚Herausforderung‘; ein ‚un-freies‘ ‚blindes‘ ‚einfaches Tun‘ erscheint auf den ersten Blick ‚einfacher‘ (für autoritäre dogmatische Regierungsformen und für diktatorische Machtstrukturen ist es auf jeden Fall ‚einfacher‘, da sie dann mit geringem Widerstand ihre egoistischen Ziele umsetzen können), aber im Laufe der Zeit kann eine solche ‚Vereinfachung‘ nur scheitern und ins Unheil führen. Dazu muss man sich nicht nur die sehr kurze Geschichte der Menschen anschauen, sondern die sehr lange Geschichte des Lebens auf der Erde demonstriert mit großer Wucht, dass ein biologisches Leben nur möglich ist, wenn es zusätzlich zu dem jeweiligen begrenzten Wissen einer Gegenwart auch solche Gedanken und Handlungsweisen zulässt, die in der Gegenwart ‚un-sinnig‘ erscheinen mögen. Dieses ‚andere‘ Wissen und Verhalten sollte nicht nur bei einigen wenigen (den berühmten ‚Hofnarren‘ oder den sogenannten ‚Künstlern‘) zugelassen werden (also nicht nur als ‚Spielerei‘), sondern ernsthaft flächendeckend in der ganzen Gesellschaft; nur gebildete, wache, kreative, unkonventionelle, mutige Gesellschaften haben eine leichte Chance, in der Zukunft bestehen zu können. Freiheit verlangt ein Leben auf allen Ebenen, außen wie innen, alleine und mit anderen, mit Gewohntem und Ungewohntem, immer mit Respekt vor dem grundlegenden Leben als solchem.

MATERIALANHANG

Das nachfolgende ‚Material‘ bietet Links zu Wikipedia-Artikeln, die schnell zu wichtigen Grundpositionen führen können. Von da aus führen Wege in viele Richtungen. Einige Textabschnitte wurden mit kopiert. Sie stellen keine erschöpfende Erklärungen dar sondern sollen nur anregen, sich selbst intensiver mit den in den Texten angesprochenen Sachverhalten zu beschäftigen.

https://de.wikipedia.org/wiki/Menschenrechte

Der explizite Begriff der Menschenrechte wurde 1791 von Thomas Paine mit seinem Werk The Rights of Man erstmals eingeführt: Thomas Paine (1792), The Rights of Man. Online verfügbar unter diesem Link: http://pinkmonkey.com/dl/library1/right.pdf Rights of Man (1792) – Written as an answer to Edmund Burke’s Reflections on the Revolution in France, it states Paine’s belief that men have “natural rights” and urges individuals to free themselves from governmental tyranny.

https://de.wikipedia.org/wiki/Menschenrechte

Als Menschenrechte werden subjektive Rechte bezeichnet, die jedem Menschen gleichermaßen zustehen. Das Konzept der Menschenrechte geht davon aus, dass alle Menschen allein aufgrund ihres Menschseins mit gleichen Rechten ausgestattet und dass diese egalitär begründeten Rechte universell, unveräußerlich und unteilbar sind.[1] Die Idee der Menschenrechte ist eng verbunden mit dem Humanismus und der im Zeitalter der Aufklärung entwickelten Idee des Naturrechtes. Der explizite Begriff der Menschenrechte wurde 1791 von Thomas Paine mit seinem Werk The Rights of Man erstmals eingeführt.

Das Bestehen von Menschenrechten wird heute von fast allen Staaten prinzipiell anerkannt. Die Universalität ist gleichwohl Grundlage politischer Debatten und Auseinandersetzungen.

Es hat sich eingebürgert, die Entwicklung der Menschenrechte in drei „Generationen“ einzuteilen: die Entwicklung von Abwehrrechten des Bürgers gegen den Staat zum Schutz seiner Freiheitssphäre (1. Generation), von sozialen Anspruchs- und Teilhaberechten (2. Generation) und von kollektiven Rechten, wie beispielsweise das Recht auf Selbstbestimmung der Völker (3. Generation).[2] Die Einteilung in drei Generationen wird kontrovers diskutiert, da sie eine Hierarchie zwischen Menschenrechten implizieren kann.

Weil Menschenrechte auch von dritter Seite bedroht werden, wird davon ausgegangen, dass außerdem zu jedem Menschenrecht eine staatliche Schutzpflicht gehört, mit der erst ein Menschenrecht vollständig verwirklicht werden kann. Durch die Ratifizierung von internationalen Menschenrechtsabkommen sowie durch deren Verankerung in ihren nationalen Verfassungen verpflichten sich die Staaten, die Grundrechte und Völkerrechte zunehmend umzusetzen, sie also als einklagbare Rechte in ihrem jeweiligen nationalen Recht auszugestalten.

In einem weiteren Sinne ist der Begriff „Menschenrechte“ auch als Erweiterung zu den „Bürgerrechten“ zu verstehen: Er steht dann für Grundrechte, die unabhängig von der Staatsangehörigkeit allen Menschen zustehen. „

https://de.wikipedia.org/wiki/Menschenrechtsabkommen

Menschenrechtsabkommen sind multilateral abgeschlossene völkerrechtliche Verträge. Sie kodifizieren in erster Linie Individualrechte, doch enthalten sie auch kollektive Rechte wie das Recht auf Selbstbestimmung der Völker. Die Verträge schaffen Menschenrechtsinstrumente, die im Gegensatz zu den auf der UN-Charta beruhenden Instrumenten nur für diejenigen Staaten, die den Verträgen durch Ratifikation beigetreten sind, gelten.

Seit Ende 2006 gibt es im Rahmen der Vereinten Nationen neun allen Staaten zur Ratifikation offenstehende Menschenrechtsabkommen im engeren Sinne. Sie enthalten Überprüfungsverfahren, die den dazu eingesetzten UN-Vertragsorganen obliegen. Einige, aber nicht alle Verträge werden ergänzt durch Zusatzabkommen, sogenannte Optionsprotokolle, die in der Regel Individualbeschwerdeverfahren zum Gegenstand haben.

Europa, Amerika und Afrika haben darüber hinaus unterschiedlich weit reichende regionale Menschenrechtsabkommen vereinbart, die allen Ländern dieser Regionen offenstehen. Hier nicht behandelt werden die bereits seit 1912 erzielten zahlreichen Übereinkommen der Internationalen Arbeitsorganisation.

***

Das wohl bekannteste Menschenrechtsdokument, die Allgemeine Erklärung der Menschenrechte, ist kein völkerrechtlicher Vertrag, sondern eine Resolution der UN-Generalversammlung und somit nicht rechtlich bindend, sondern eine politische Verlautbarung und Willenserklärung der UN-Generalversammlung vom 10. Dezember 1948. Wegen ihrer universellen Anerkennung und permanenten Bekräftigung gilt sie aber als Bestandteil des Völkergewohnheitsrechts. Zusammen mit dem Sozial- und Zivilpakt spricht man von der International Bill of Human Rights als einem Grundkodex der internationalen Staatengemeinschaft über die Menschenrechte.

https://de.wikipedia.org/wiki/Allgemeine_Erklärung_der_Menschenrechte

Die Allgemeine Erklärung der Menschenrechte (A/RES/217, UN-Doc. 217/A-(III)), auch Deklaration der Menschenrechte oder UN-Menschenrechtscharta, Charta der Menschenrechte oder kurz AEMR[1], sind unverbindliche Empfehlungen der Vereinten Nationen zu den allgemeinen Grundsätzen der Menschenrechte. Sie wurde am 10. Dezember 1948 von der Generalversammlung der Vereinten Nationen im Palais de Chaillot in Paris verkündet.

„Alle Menschen sind frei und gleich an Würde und Rechten geboren.“

Der 10. Dezember als Tag der Verkündung wird seit 1948 als Internationaler Tag der Menschenrechte begangen.

***

https://de.wikipedia.org/wiki/Europäische_Menschenrechtskonvention

Die Konvention zum Schutz der Menschenrechte und Grundfreiheiten enthält einen Katalog von Grundrechten und Menschenrechten (Konvention Nr. 005 des Europarats). Über ihre Umsetzung wacht der Europäische Gerichtshof für Menschenrechte in Straßburg.

Die Konvention mit der SEV-Nr. 003 wurde im Rahmen des Europarats ausgearbeitet, am 4. November 1950 in Rom unterzeichnet und trat am 3. September 1953 allgemein in Kraft. Völkerrechtlich verbindlich ist allein ihre englische und französische Sprachfassung, nicht hingegen die zwischen Deutschland, Österreich, Liechtenstein und der Schweiz vereinbarte gemeinsame deutschsprachige Fassung.

Als so genannte geschlossene Konvention kann sie nur von Mitgliedern des Europarats – sowie von der Europäischen Union – unterzeichnet werden.[1] Die Bereitschaft zur Unterzeichnung und Ratifikation der EMRK hat sich im Laufe der Zeit zu einer festen Beitrittsbedingung für Staaten entwickelt, die dem Europarat angehören möchten. Daher haben alle Mitgliedsstaaten des Europarats die Konvention unterzeichnet und ihr innerstaatliche Geltung verschafft.

Artikel 5 – Recht auf Freiheit und Sicherheit

Art. 5 gewährleistet das Recht auf Freiheit und Sicherheit. Er enthält in Abs. 1 einen abschließenden Katalog von Umständen, unter denen einer Person auf gesetzlicher Grundlage die Freiheit entzogen werden darf (z. B. nach Verurteilung zu einer Freiheitsstrafe, in Fällen der vorläufigen Festnahme bzw. bei psychisch Kranken, Rauschgiftsüchtigen oder auch Landstreichern). In den Absätzen 2–5 dieses Artikels sind die entsprechenden Rechte solcher Personen geregelt. Hierzu gehören die Information festgenommener Personen über die Gründe für die Festnahme und die Beschuldigungen und das Recht, unverzüglich einem Richter vorgeführt zu werden. Weiterhin gehört hierzu das Recht, die Freiheitsentziehung durch einen Richter prüfen zu lassen und das Recht auf Schadensersatz bei unrechtmäßigen Freiheitsentziehungen.

https://dejure.org/gesetze/MRK/5.html

Art. 5
Recht auf Freiheit und Sicherheit

(1) Jede Person hat das Recht auf Freiheit und Sicherheit.

Die Freiheit darf nur in den folgenden Fällen und nur auf die gesetzlich vorgeschriebene Weise entzogen werden:

a) rechtmäßige Freiheitsentziehung nach Verurteilung durch ein zuständiges Gericht;
b) rechtmäßige Festnahme oder rechtmäßiger Freiheitsentziehung wegen Nichtbefolgung einer rechtmäßigen gerichtlichen Anordnung oder zur Erzwingung der Erfüllung einer gesetzlichen Verpflichtung;
c) rechtmäßige Festnahme oder rechtmäßiger Freiheitsentziehung zur Vorführung vor die zuständige Gerichtsbehörde, wenn hinreichender Verdacht besteht, daß die betreffende Person eine Straftat begangen hat, oder wenn begründeter Anlaß zu der Annahme besteht, daß es notwendig ist, sie an der Begehung einer Straftat oder an der Flucht nach Begehung einer solchen zu hindern;
d) rechtmäßige Freiheitsentziehung bei Minderjährigen zum Zweck überwachter Erziehung oder zur Vorführung vor die zuständige Behörde;
e) rechtmäßige Freiheitsentziehung mit dem Ziel, eine Verbreitung ansteckender Krankheiten zu verhindern, sowie bei psychisch Kranken, Alkohol- oder Rauschgiftsüchtigen und Landstreichern;
f) rechtmäßige Festnahme oder rechtmäßige Freiheitsentziehung zur Verhinderung der unerlaubten Einreise sowie bei Personen, gegen die ein Ausweisungs- oder Auslieferungsverfahren im Gange ist.

(2) Jeder festgenommenen Person muß unverzüglich in einer ihr verständlichen Sprache mitgeteilt werden, welches die Gründe für ihre Festnahme sind und welche Beschuldigungen gegen sie erhoben werden.

(3) Jede Person, die nach Absatz 1 Buchstabe c von Festnahme oder Freiheitsentziehung betroffen ist, muß unverzüglich einem Richter oder einer anderen gesetzlich zur Wahrnehmung richterlicher Aufgaben ermächtigten Person vorgeführt werden; sie hat Anspruch auf ein Urteil innerhalb angemessener Frist oder auf Entlassung während des Verfahrens. 2Die Entlassung kann von der Leistung einer Sicherheit für das Erscheinen vor Gericht abhängig gemacht werden.

(4) Jede Person, die festgenommen oder der die Freiheit entzogen ist, hat das Recht zu beantragen, daß ein Gericht innerhalb kurzer Frist über die Rechtmäßigkeit der Freiheitsentziehung entscheidet und ihre Entlassung anordnet, wenn die Freiheitsentziehung nicht rechtmäßig ist.

(5) Jede Person, die unter Verletzung dieses Artikels von Festnahme oder Freiheitsentziehung betroffen ist, hat Anspruch auf Schadensersatz.

***

https://de.wikipedia.org/wiki/Europäische_Menschenrechtskonvention#Artikel_5_-_Recht_auf_Freiheit_und_Sicherheit

Artikel 4 – Verbot der Sklaverei und der Zwangsarbeit

Art. 4 verbietet es, eine Person in Sklaverei oder Leibeigenschaft zu halten (Abs. 1). Weiterhin verbietet dieser Artikel Zwangs- oder Pflichtarbeit (Abs. 2). Nicht als Zwangs- oder Pflichtarbeit nach diesem Artikel zählen allerdings z. B. Arbeitspflichten im Strafvollzug, im Wehr- und Wehrersatzdienst oder bei Katastrophenfällen.

https://dejure.org/gesetze/MRK/4.html

Art. 4
Verbot der Sklaverei und der Zwangsarbeit

  1. Niemand darf in Sklaverei oder Leibeigenschaft gehalten werden.
  2. Niemand darf gezwungen werden, Zwangs- oder Pflichtarbeit zu verrichten.
  3. Nicht als Zwangs- oder Pflichtarbeit im Sinne dieses Artikels gilt
    1. eine Arbeit, die üblicherweise von einer Person verlangt wird, der unter den Voraussetzungen des Artikels 5 die Freiheit entzogen oder die bedingt entlassen worden ist
    2. eine Dienstleistung militärischer Art oder eine Dienstleistung, die an die Stelle des im Rahmen der Wehrpflicht zu leistenden Dienstes tritt, in Ländern, wo die Dienstverweigerung aus Gewissensgründen anerkannt ist
    3. eine Dienstleistung, die verlangt wird, wenn Notstände oder Katastrophen das Leben oder das Wohl der Gemeinschaft bedrohen
    4. eine Arbeit oder Dienstleistung, die zu den üblichen Bürgerpflichten gehört.

https://de.wikipedia.org/wiki/Europäische_Menschenrechtskonvention#Urteil_des_Bundesverfassungsgerichts_2004

Stellung und Rang im nationalen Recht

Art. 46 der Europäischen Menschenrechtskonvention lautet: „Die Hohen Vertragsparteien verpflichten sich, in allen Rechtssachen, in denen sie Partei sind, das endgültige Urteil des Gerichtshofs zu befolgen.“

Sämtliche Unterzeichnerstaaten haben sich demgemäß der Rechtsprechung des Europäischen Gerichtshofs für Menschenrechte (EGMR) unterworfen. Der EGMR kann jedoch mangels Exekutivbefugnissen nur Restitutionen in Form von Entschädigungszahlungen gegen den handelnden Staat verhängen (vgl. Art. 41 EMRK). Obwohl die Entscheidungen des EGMR auf völkerrechtlicher Ebene verbindlich sind, variiert ihre Bindungswirkung innerhalb der Rechtsordnungen der einzelnen Konventionsstaaten, da die Stellung der Menschenrechtskonvention von Staat zu Staat unterschiedlich ist (siehe Dualistisches System).

Deutschland

In Deutschland steht die EMRK im Rang unter dem Grundgesetz auf Ebene des einfachen Bundesgesetzes.[26] Damit geht sie zwar landesgesetzlichen Bestimmungen vor, ist im Vergleich mit bundesgesetzlichen gleichartigen Regelungen allerdings dem „lex posterior“-Grundsatz unterworfen, könnte also unter Umständen hinter neueren gesetzlichen Regelungen zurücktreten. Da jedoch die Grundrechtsgewährleistung der EMRK weitgehend der des Grundgesetzes entspricht, hat das Bundesverfassungsgericht 1987 ausgeführt, dass andere gesetzliche Bestimmungen der Bundesrepublik (wie beispielsweise die Strafprozessordnung) im Lichte der EMRK auszulegen seien.[27] Dieser Auffassung folgen auch die oberen Bundesgerichte. Damit kommt de facto der EMRK im deutschen Recht zwar kein verfassungsrechtlicher, aber doch ein übergesetzlicher Rang zu.

Der Europarat überwacht die nationale Umsetzung der Urteile des EGMR zu Menschenrechtsverletzungen. In der aktuellen Liste der zu überwachenden Urteile u. a. zu Deutschland sind mit Stand Mai 2009 insgesamt 7 Verfahren noch nicht in Deutschland umgesetzt.[28]

Urteil des Bundesverfassungsgerichts 2004

Nach der Rechtsprechung des Bundesverfassungsgerichts vom 14. Oktober 2004 im Fall Görgülü[29] sind alle staatlichen Organe der Bundesrepublik Deutschland an die Konvention und die für Deutschland in Kraft getretenen Zusatzprotokolle im Rahmen ihrer Zuständigkeit kraft Gesetzes gebunden. Sie haben die Gewährleistungen der Konvention und die Rechtsprechung des Gerichtshofs bei der Auslegung von Grundrechten und rechtsstaatlichen Gewährleistungen zu berücksichtigen.[29] So sind die Urteile des EGMR eine Auslegungshilfe der Konvention für die deutschen Gerichte. Ist eine konventionskonforme Auslegung des deutschen Rechts möglich, so geht diese vor. Will ein deutsches Gericht anders als der EGMR entscheiden, muss es dies ausführlich begründen und sich mit der Rechtsprechung des EGMR eingehend auseinandersetzen.[29]

Hat der EGMR einen Menschenrechtsverstoß durch die Bundesrepublik Deutschland festgestellt, wird dadurch die Rechtskraft von Entscheidungen (z. B. ein Urteil) nicht beseitigt.[29] Kann aber die Entscheidung des EGMR in einem Gerichtsverfahren noch berücksichtigt werden, so muss dies grundsätzlich erfolgen. Das bedeutet: Der Menschenrechtsverstoß ist durch eine gerichtliche Entscheidung zu beseitigen.[29] Dabei ist jedoch eine „schematische Vollstreckung“ nicht gefordert. Eine solche kann sogar verfassungswidrig sein. Beachtet beispielsweise das zuständige Fachgericht in einem Zivilverfahren nicht die Interessen der am Straßburger Verfahren nicht beteiligten Prozesspartei, so kann dies einen Verstoß gegen Grundrechte in Verbindung mit dem Rechtsstaatsprinzip darstellen.[29] Im Fall Görgülü, einem Streit um das Umgangsrecht mit einem Kind, mussten daher auch die Interessen des Kindes und der Pflegefamilie berücksichtigt werden, die nicht in Straßburg eine Beschwerde geführt hatten.

Die Entscheidung des BVerfG lässt in weitem Umfang Interpretationen zu, ob und wie Entscheidungen des EGMR, die gegen Deutschland ergangen sind, national umgesetzt werden müssen. Sie sorgte auf Seiten der Mitglieder des Europarats für erhebliche Irritationen darüber, inwieweit sich die Mitgliedsstaaten an die Entscheidungen des EGMR halten müssen.[30] Der Gesetzgeber hat auf die Rechtsprechung des BVerfG reagiert. Stellt der EGMR eine Verletzung der EMRK oder ihrer Protokolle durch Deutschland fest und beruht ein Urteil auf dieser Verletzung, kann im Zivilprozess Restitutionsklage geführt werden (vgl. § 580 Nr. 8 ZPO). Auf diese Vorschrift verweisen auch die Vorschriften für den Arbeits- (§ 79 ArbGG), Sozial- (§ 179 SGG), Verwaltungs- (§ 153 VwGO) und Finanzgerichtsprozess (§ 134 FGO). Für den Strafprozess besteht bereits seit 1998 die Möglichkeit einer Wiederaufnahme des Verfahrens (§ 359 Nr. 6 StPO, sog. lex Pakelli).[31]

Deutschland wurde laut Aussage der Bundesverfassungsrichterin Gertrude Lübbe-Wolff im Humboldt Forum Recht (ECtHR and national jurisdiction – The Görgülü Case) bis Juli 2005 insgesamt 62 Mal wegen begangener Menschenrechtsverletzungen verurteilt. Gleichzeitig äußert Lübbe-Wolff das allgemeine Unverständnis der Fachleute zum obigen Urteil (RZ 32). Sie stellt fest, dass der Staat im Falle von Menschenrechtsverletzungen den vorherigen Zustand wiederherstellen müsse und, wenn diese andauerten, der Staat diese stoppen müsse (Ziffer 16). In diesem Vortrag wird von ihr in RZ 34 auch der Fall Sürmeli erwähnt, dem ein Stillstand der Rechtserlangung vom EGMR wegen überlanger Verfahrensdauer zugestanden wurde. Der Fall wurde von der Großen Kammer des EGMR durch Urteil vom 8. Juni 2006 entschieden.[32] Dazu merkt Lübbe-Wolff an, dass Deutschland in diesem Fall schnell reagiert habe und einen Gesetzesentwurf schon im September 2006 vom Bundesjustizministerium vorgelegt habe, der diesen Fall heile. Es handelt sich jedoch dabei immer noch um den Gesetzesentwurf der Untätigkeitsbeschwerde (siehe insofern Untätigkeitsklage), der jedoch bereits im August 2005 vorgelegt wurde.[33]

Aufgrund eines Konfliktes zwischen dem EGMR und dem Bundesverfassungsgericht, wie er in der Zeitung Das Parlament vom 11. Juli 2005 beschrieben wurde, kam es in der Geschichte des Europarats zu einem beispiellosen offenen Widerstand eines nationalen Verfassungsgerichtes. Im selben Artikel wird auch die ehemalige Verfassungsrichterin Renate Jaeger zitiert, die bis Ende 2010 Richterin am Menschenrechtsgerichtshof war.

„Vielleicht, mutmaßte Jaeger, sei es manchen Ländern als „Nebeneffekt“ der Überlastung des Gerichts ja gar nicht unlieb, wenn Menschenrechtsverstöße „nicht oder nicht zeitnah untersucht und gerügt werden“. Möglicherweise gebe es bei Regierungen, die wegen Verletzungen der Menschenrechtscharta zu Schadensersatz verurteilt werden, einen „Abschreckungseffekt“ – mit der Konsequenz, dass den Staaten „Verlangsamung, Stillstand und Leerlauf“ eventuell nicht unwillkommen seien.[34]

Im Juli 2007 hat der EGMR im Fall Skugor gegen Deutschland konstatiert, dass bei menschenrechtswidriger überlanger Verfahrensdauer in Zivilverfahren die Verfassungsbeschwerde zum Bundesverfassungsgericht nicht als wirksame Beschwerdemöglichkeit im Sinne des Art. 13 EMRK angesehen werden könne:

„[…] so erinnert der Gerichtshof daran, dass die Verfassungsbeschwerde vor dem Bundesverfassungsgericht nicht als wirksame Beschwerde im Sinne des Artikels 13 der Konvention angesehen werden kann und ein Beschwerdeführer demnach nicht verpflichtet ist, von diesem Rechtsbehelf Gebrauch zu machen, auch wenn die Sache noch anhängig ist (Sürmeli ./. Deutschland [GK], Nr. 75529/01, Rdnrn. 103–108, CEDH 2006-…) oder bereits abgeschlossen wurde (Herbst ./. Deutschland, Nr. 20027/02, 11. Januar 2007, Rdnrn. 65–66).“

– EGMR-Beschluss – 10/05/07: Rechtssache Skugor gegen Deutschland (Individualbeschwerde Nr. 76680/01)[35]

Um die vom EGMR aufgezeigten Rechtsschutzlücken zu schließen und wirksame Rechtsschutzmöglichkeiten im Falle überlanger Gerichtsverfahren sowie strafrechtlicher Ermittlungsverfahren zu schaffen, hat die Bundesregierung im Jahr 2010 einen Gesetzentwurf auf den Weg gebracht, der zwei Stufen vorsieht: auf der ersten Stufe sollen Betroffene die Möglichkeit erhalten, eine überlange Verfahrensdauer zu rügen („Verzögerungsrüge“); in einem zweiten Schritt kann ggf. ein angemessener Ausgleich geltend gemacht werden.

Das BVerfG wird aufgrund des Beschlusses des Bundesfinanzhofs (zum sogenannten „treaty override[36]) zu entscheiden haben, ob Völkervertragsrecht – wie bspw. auch die EMRK – wegen seiner Völkerrechtsfreundlichkeit dem Grundgesetz entgegenstehendem einfachen deutschen Recht vorgeht. Das Bundesverwaltungsgericht hat mit Entscheidung vom 27. Februar 2014 zum Streikrecht für Beamte die Konfliktlösung zwischen der EMRK und entgegenstehendem einfachen deutschen Recht allein dem Gesetzgeber zugewiesen,[37][38] ohne wie der BFH eine Vorlage an das BVerfG zu erwägen.

 

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

Ballungsraum 2117 und technische Superintelligenz. Welche Rolle verbleibt uns Menschen?

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
14.April 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch, Frankfurt University of Applied Sciences
Email: doeben@fb2.fra-uas.de
Email: gerd@doeben-henisch.de

PDF

INHALT

I VISION RESILIENZ
II VIELE AKTEURE
III PROBLEMLÖSUNGSSTRATEGIEN
IV MENSCH UND KOMPLEXITÄT
V INGENIEURE ALS VORBILD
VI CLUB OF ROME – NUR GESTERN?
VII DER UMFASSEND DIGITALISIERTE MENSCH ENTSTEHT HEUTE
VIII SIMULATIONEN BEHERZTER NUTZEN?
IX TECHNISCHE SUPERINTELLIGENZ
X WAS KANN EIN COMPUTER?
XI DAS EI DES COLUMBUS
XII EINE NEUE MENSCH-MASCHINE SUPER-INTELLIGENZ FÜR DEN BALLUNGSRAUM?
IX QUELLEN

ÜBERBLICK

Dieser Text wurde ursprünglich als Vorbereitung für das Programmheft der Konferenz ’Der Resiliente Ballungsraum’ des Frankfurter Forschungsinstituts FFin am 13.April 2018 geschrieben. Die aktuelle Version stellt eine leicht überarbeitete Version im Anschluss an die Konferenz dar, ergänzt um Literaturangaben. Ausgehend von der Komplexität heutiger Ballungsräume wird die Frage gestellt, ob und wie wir Menschen die neuen digitalen Technologien, insbesondere auch künstliche Intelligenz, nutzen könnten, um mit dieser Komplexität besser umzugehen. Durch die langsam wachsende Erkenntnis, dass der resiliente Charakter vieler komplexer Systeme zudem ein Denken verlangt, das weit hinter die Oberfläche der Phänomene schaut, wird die Frage nach einer möglichen Unterstützung durch die neuen digitalen Technologien umso dringlicher. Im Text schält sich eine ungewöhnliche mögliche Antwort heraus, die auf eine ganz neue Perspektive in der Planungsdiskussion hinauslaufen könnte.

I. VISION RESILIENZ

Mit der Leitidee der ’Resilienz’ (1) zielt das Denken im Kern ab auf die Dimension der Überlebensfähigkeit von Ballungsräumen, die sich als dynamische Gebilde zeigen, ständigen Veränderungen unterworfen sind, ein dicht  verwobenes Knäuel von Faktoren, die alle gleichzeitig miteinander in Wechselwirkung stehen. Und, ja, natürlich, wer ist nicht daran interessiert, dass diese Gebilde als konkrete Lebensräume für konkrete Menschen möglichst lange funktionsfähig bleiben. Doch, was als sinnvoller Wunsch einer breiten Zustimmung sicher sein kann, kann sehr schnell zur Last, oder gar zum Alptraum werden, wenn man auf die eine oder andere Weise zum ’realen Akteur’ werden muss.(2)

(Anmk: 1: Dieser Artikel benutzt den Resilienzbegriff, wie er in dem grundlegenden Artikel von Holling 1973 [Hol73] vorgestellt worden ist)

(Anmk: 2: Eine Auseinandersetzung mit dem neuen Lieblingswort der ’Resilienz’ im Kontext der Städteplanung findet in einem Folgeartikel in diesem Blog statt. Mit Blick auf den Städtebau siehe auch Jakubowski (2013) [Jak13] )

II. VIELE AKTEURE

Ein polyzentrischer Ballungsraum wie das Rhein-Main Gebiet zählt schon heute an die 5 Mio. Bürger, die in tausenden von unterschiedlichen Rollen Akteure sind, die den Ballungsraum nutzen, ihn auf unterschiedliche Weise gestalten, und die alle ihre Ansprüche haben, die sie befriedigt sehen wollen. (3) Jeder dieser Akteure hat ’sein Bild’ von diesem Ballungsraum. Der eigene Wohnbereich, die täglichen Wege zur und von der Arbeit, Einkäufe, Kinder zum Kindergarten oder zur Schule, vielfältige Freizeit, Großereignisse, Unwetter, Krankheiten . . . irgendwie muss alles irgendwie stimmen, muss es lebbar sein, bezahlbar…. Leiter von Firmen haben weitere spezielle Anforderungen, nicht zuletzt die Verfügbarkeit geeigneter Mitarbeiter, Planungssicherheit, möglichst geringe Kosten, Verkehrs- und Telekommunikationsanbindungen, und vieles mehr . . . Die Ämter und Fachreferate in den Kommunen stehen im Kreuzfeuer vielfältigster politischer Interessen, von Alltagsanforderungen, mangelnder Kommunikation zwischen allen Abteilungen, Bergen von Vorschriften, Mangel an Geld, Personalproblemen, einer Vielzahl von komplexen und disparaten Plänen, ungelösten Altlasten aus der Vergangenheit… Polyzentrisch heißt auch, es gibt nicht nur viele Zentren, sondern auch entsprechend viele Kapitäne, die ihre eigenen Routen haben. Wie soll dies alles koordiniert werden?

(Anmk: 3:   Siehe dazu Peterek/ Bürklin (2014) [PB13], Buerklin/ Peterek (2016) [BP16] )

III. PROBLEMLÖSUNGSSTRATEGIEN

Aus der Nähe betrachtet mutiert die Vision eines resilienten Planungsraumes schnell zum bekannten Muster des ’Lösens eines Problems’: es gibt einen Ausgangspunkt, die jeweilige Gegenwart, es gibt eine Gruppe von Akteuren, die selbst ernannten Problemlöser, und es gibt verschiedene Strategien, wie man versucht, ausgehend von einer – meist nur partiell bekannten – Gegenwart brauchbare Erkenntnisse für eine unbekannte Zukunft zu gewinnen; dazu soll die Lösung – entsprechend der Vision – ’resilient’ sein.

Schaut man sich konkrete Beispiele von Planungstätigkeiten aus den letzten Monaten im Rhein-Main Gebiet an, dann findet man sehr viele unterschiedliche Formen von Problemlösungsverhalten. Zwischen einer rein ’inner-behördlichen’ Vorgehensweisen mit sehr eingeschränkten Ist-Erfassungen und Lösungsfindungen bis hin zu einer sehr umfassenden Einbeziehungen von vielen Bevölkerungsgruppen über viele Kommunikationsstufen hinweg mit unterschiedlichen kreativen Ideen-Findungen. (4)

Diese letzteren, möglichst viele unterschiedliche Akteure einbeziehenden Vorgehensweisen, wirken auf den ersten Blick vertrauenerweckender, da grundsätzlich mehr Perspektiven zu Wort kommen und damit sowohl ein größerer Erfahrungsraum aus der Gegenwart wie auch eine größere Farbigkeit für eine mögliche Zukunft. Wäre solch eine Strategie die Strategie der Stunde?

(Anmk: 4: Dazu war das Referat von Dr.Gwechenberger vom Dezernat Planen und Wohnen der Stadt Frankfurt, sehr aufschlussreich. Neben der in der Sache gründenden Komplexität spielen die vielfältigen rechtlichen Vorgaben eine große Rolle, dazu die unterschiedlichen Mentalitäten aller Beteiligten, insbesondere die vielfältigen individuellen Interessen und Motivlagen. Das ganze eingebettet in unterschiedliche Zeitfenster, wann welche Aktion möglich, sinnvoll oder notwendig ist. Demokratie ist so gesehen auf jeden Fall zeitaufwendig, dann aber– hoffentlich – resilienter und nachhaltiger)

IV. MENSCH UND KOMPLEXITÄT

Schaut man sich an, was der Mensch als Lebensform des Homo sapiens in den vielen tausend Jahren seit seiner Besiedlung aller Erdteile geleistet hat, dann kann man sich eigentlich nur vor Ehrfurcht verneigen. Quasi aus dem Nichts kommend hat er es im Laufe von ca. 70.000 Jahren geschafft, aufgrund seiner Intelligenz und Sprachfähigkeit immer komplexere Tätigkeiten auszubilden, Handwerkszeug, Technologien, Regeln des Zusammenlebens, Großansiedlungen, komplexe Handelsbeziehungen. Er zeigte sich fähig, komplexe Staaten zu bilden, Großreiche, fantastische Architektur, immer komplexere Maschinen, empirische Forschungen bis in die Tiefen des Universums, in die Tiefen der Materie, in die verschlungenen Wege der Mikrobiologie von den Molekülen zu einfachen, dann komplexen Zellen bis hin zu komplexen Lebewesen, vielfältigste Formen von Klängen, Musik, Sounds, Bildwelten.

Schließlich erfand er auch die Computertechnologie, mit der man unvorstellbar viele Daten in unvorstellbar schneller Zeit verarbeiten kann. Würden heute auf einen Schlag alle Computer und Netzwerke weltweit still stehen, die Welt bräche völlig in sich zusammen. Ein beispielloses Chaos und Elend wäre die Folge.

Dies deutet indirekt auf einen Sachverhalt, den wir als Menschen im Alltag gerne übersehen, um nicht zu sagen, den wir geradezu verdrängen. Dies hat zu tun mit den realen Grenzen unserer kognitiven Fähigkeiten.

Trotz eines fantastischen Körpers mit einem fantastischen Gehirn hat jeder Mensch nur eine sehr begrenzte kognitive Aufnahmefähigkeit von ca. 5-9 Informationseinheiten pro Sekunde, was jeder Mensch in einfachen Selbstversuchen an sich überprüfen kann. (5) Und die Verarbeitung dieser Informationseinheiten mit Hilfe des vorher erworbenen Wissens verläuft unbewusst nach weitgehend relativ festen Schemata, die es einem Menschen schwer machen, Neues zu erfassen bzw. in sein bisheriges Bild von der Welt einzubauen. (6) Noch schwerer tut sich jeder Mensch, wenn es darum geht, Zusammenhänge zu erfassen, die vielerlei Faktoren umfassen, Faktoren, die oft zudem ’verdeckt’, auf den ersten Blick ’unsichtbar’ sind. Ganz schwer wird es, wenn sich komplexe Faktorenbündel zusätzlich in der Zeit ändern können, womöglich noch mit Rückkopplungen.

Gilt schon die Voraussage des Verhaltens eines einzelnen Menschen für nur ein Jahr mathematisch als unmöglich, so erscheint die Voraussage des Verhaltens von 5 Mio. Bewohner des Rhein-Main Gebietes entsprechend undurchführbar, zumal die Ab- und Zuwanderung hier sehr hoch ist. (7) Dazu kommen Veränderungen von Bedürfnislagen, Veränderungen von Technologien, Veränderungen von konkurrierenden Wirtschaftsregionen, und vieles mehr. Die bislang bekannten und praktizierten Planungsverfahren wirken angesichts dieser zu bewältigenden Komplexität nicht sehr überzeugend. Sie wirken eher hilflos, uninformiert. Scheitern wir mit unseren begrenzten individuellen kognitiven Fähigkeiten an der heutigen Komplexität?

(Anmk: 5: Die erste bahnbrechende Untersuchung zu der ’magischen Zahl 7+/-2’ stammt von George A.Miller (1956) [Mil56]. Dazu gibt es zahllose weitere Studien, die das Thema weiter auffächern, aber nicht diese grundsätzliche Kapazitätsbegrenzung.)

(Anmk: 6: Bekannte Texte zum Zusammenspiel zwischen Kurz- und Langzeitgedächtnis sind Baddeley/Logie (1999) [BL99], Baddeley (2003) [Bad03], und Repovs/Baddeley (2006) [RB06]. Allerdings ist das Thema Gedächtnis mit diesen Artikeln nicht abgeschlossen sondern wird in vielen hundert weiteren Artikeln weiter untersucht.)

(Anmk: 7: Hinweis von Dr. Gwechenberger zur Migration der Stadt Frankfurt: rein statistisch wird innerhalb von 12 Jahren die gesamte Bevölkerung von Frankfurt einmal komplett ausgetauscht.)

V. INGENIEURE ALS VORBILD

Vergessen wir für einen Moment das Problem des komplexen Ballungsraumes und schauen, was denn die Ingenieure dieser Welt machen, wenn sie seit Jahrzehnten komplexe Systeme entwickeln, bauen und in Betrieb halten, die die kognitiven Fähigkeiten eines einzelnen Ingenieurs um viele Dimensionen übersteigen.

Moderne Ingenieurleistungen verlangen das Zusammenspiel von oft mehr als 10.000 einzelnen Experten aus sehr vielen unterschiedlichen Gebieten, nicht nur über Monate, sondern oft über Jahre hin. Wie kann dies funktionieren?

Ingenieure haben sehr früh gelernt, ihr Vorgehen zu systematisieren. Sie haben komplexe Regelwerke entwickelt, die unter dem Stichwort ’Systems Engineering’ beschreiben, wie man beliebige Probleme von der Aufgabenstellung in eine funktionierende Lösung überführt, einschließlich umfassender Tests in allen Phasen. Und selbst der spätere Einsatz des entwickelten Produktes oder der entwickelten Dienstleistung ist nochmals spezifiziert. Dies führt dazu, dass z.B. Flugzeuge, Atomkraftwerke, landesweite Energienetzwerke, Raumfahrtprojekte, im Vergleich die sichersten Systeme sind, die wir kennen.

Neben ausgeklügelten Dokumentationstechniken spielen im Engineeringprozess mathematische Modelle eine zentrale Rolle und, seit vielen Jahren unverzichtbar, computergestützte Simulationen. Schon seit vielen Jahren gibt es kein einziges anspruchsvolles Produkt mehr, das zuvor nicht vollständig als Computersimulation ausprobiert und getestet wurde. Dazu gehören z.B. auch Computerchips, speziell jene Prozessoren, die das Herz eines Computers bilden. Schon vor 30 Jahren waren diese so komplex, dass deren Entwicklung und die Tests auf ihre Funktionstüchtigkeit ohne Computer nicht möglich war. Anders gesagt, wir können Computer und all die anderen komplexen Produkte schon seit Jahren nur entwickeln, weil wir dazu Computer einsetzen. Kein menschliches Gehirn ist in der Lage, die schon heute benötigten Komplexitäten noch irgendwie praktisch zu meistern, auch viele tausende Gehirne zusammen nicht.

Angesichts dieser Erfolgsgeschichten im Bereich des Engineerings kann man sich fragen, ob man von diesen Erfahrungen für den Bereich der Planung von Ballungsräumen nicht irgend etwas lernen könnte?

VI. CLUB OF ROME – NUR GESTERN?

Manche von Ihnen erinnern sich vielleicht noch an die zu ihrer Zeit provozierende erste Studie ”The Limits to Growth” des Club of Rome von 1972. (8) Dies war der erste Versuch, die Dynamik der Erde unter der Herrschaft der Menschen mit einem umfassenden Computermodell abzubilden und mit Hilfe des Modells mögliche Hinweise zu bekommen, wie sich die Dinge bei Veränderung der bekannten Faktoren in der Zukunft auswirken.

Seit dieser Veröffentlichung sind mehr als 40 Jahre vergangen. (9) Es gab auf der einen Seite heftigste Kritik, aber zugleich auch viele evaluierende Studien, die immer wieder bekräftigten, dass die Kernaussagen dieses Modells – das vergleichsweise einfach war und ist – sich im Laufe der Jahrzehnte für die Variante ’normaler Verlauf’ weitgehend bestätigt hat. (10)

Es ist hier nicht die Stelle, ein abschließendes Urteil über dieses Computermodell zu fällen (ein Student von mir hatte es mal vollständig nach-programmiert). Man kann aber sagen, dass solche Modelle den bislang einzig bekannte Weg markieren, wie wir Menschen mit unserer sehr begrenzten Fähigkeit zum Denken von Komplexität uns behelfen können, diese Grenzen ansatzweise zu überwinden. Man muss sich die Frage stellen, warum wir diese Anstöße nicht in der Gegenwart systematisch aufgreifen und für unsere Zukunft nutzen?

(Anmk: 8: Meadows et.al (1972) [MLRBI72]. Die Studie des Club of Rome war die Weiterentwicklung eines Computermodells, das zurück geht auf ein Systemmodell (und Programm), das Jay W. Forrester im Laufe von 15 Jahren entwickelt hatte. Thema von Forrester war die Erforschung der Dynamik von sozialen Systemen, speziell auch von Ballungsräumen (’urban areas’). Bemerkenswert ist bei Forresters Modellbildung, dass er auch den individuellen Menschen sieht, der mit seinem jeweiligen Weltbild (er nennt es ’mentales Modell’ bzw. dann einfach ’Modell’) die Welt wahrnimmt, interpretiert und danach handelt. Will man das Verhalten ändern, dann muss man das individuelle Weltbild ändern, das in enger Wechselbeziehung zur aktuellen Gesellschaft steht.(siehe Foorester (1971) [For71]))

(Anmk:9: Da der Club of Rome 1968 gegründet wurde, feiert er 2018 sein 50-jähriges Jubiläum … und er ist immer noch aktiv.)

(Anmk: 10: Ein erster Überblick über die verschiedenen Argumente für und gegen die Analysen des Club of Rome finden sich in dem einschlägigen Wikipedia-Artikel https://en.wikipedia.org/wiki/Club of Rome. Im deutschen Wikipedia-Eintrag finden sich keine Hinweise auf kritische Einwände!)

VII. DER UMFASSEND DIGITALISIERTE MENSCH ENTSTEHT HEUTE

Im Jahre 1972 war der Computer noch keine Maschine des Alltags. Dies begann erst ab dem Jahr 1977 mit dem Auftreten von Kleincomputern für den privaten Gebrauch. Die Entwicklung seitdem war und ist explosiv.

Die Situation heute ist so, dass der Mensch mit seinem realen Körper zwar noch weiterhin in einer realen Körperwelt verankert ist, dass er aber über die vielen elektronischen Geräte, speziell durch Smartphones, Wearables, Tabletts, Notebooks, Laptops und PCs mit immer größeren Zeitanteilen seine Tages über Datennetze mit einer globalen Datenwelt verbunden ist, die rund um die Uhr Raum und Zeit vergessen lässt. Definierte sich ein Mensch früher über seine realen Aktivitäten, wird dies zunehmend ergänzt durch digitale Aktivitäten und Ereignisse. Das Selbstbild, der ganze persönliche Erlebnisraum wird zunehmend durch solche nicht-realweltlichen Strukturen ersetzt. Empirische Realität und digitale Realität beginnen im virtuellen Raum des individuellen Bewusstseins zu verschwimmen. Müsste der Mensch nicht noch seine elementaren körperlichen Bedürfnisse befriedigen, er könnte subjektiv ausschließlich im digitalen Raum arbeiten, kommunizieren, soziale Erfüllung finden, Spielen und . . . . die Grenzen dieser neuen digital erweiterten Lebensform sind bislang noch schwer zu fassen.

Während der professionelle Planungsalltag der Kommunen und Regionen Computer noch sehr verhalten einsetzt, zeigen uns die vielen Mio. Computerspieler weltweit, dass die Menschen sehr wohl Gefallen daran finden können, mit den Mitteln der Computersimulation die Gegenwart hinter sich zu lassen. Allein für Online-Computerspiele hat sich der Markt von 2011 bis 2016 von 21 Mrd. auf 31 Mrd. US-Dollar vergrößert. (11) Für das Jahr 2017 notieren die sechs Länder mit dem höchsten Umsatz bei Onlinespielen (China, USA, Japan, Deutschland, England, Südkorea) zusammen 84.7 Mrd.US-Dollar. (12) Dazu kommen nochmals 8 Mrd. US-Dollar für PC- und Spielkonsolenspiele. (13)

Computerspiele sind komplexe Simulationen in denen eine Ausgangslage mit Hilfe von Regeln in beliebig viele Nachfolgesituationen transformiert werden können. Dies geschieht mittlerweile in 3D, berücksichtigt realistische Geländeformationen mit Vegetation, komplexe Gebäude, viele Tausend Mitspieler, erlaubt gemeinsame Aktionen und macht so eine dynamische digitale Welt virtuell erlebbar.

Diese theoretische Beschreibung lässt das gewaltige Potential erahnen, das Computerspiele prinzipiell für Lernprozesse und für gemeinsame Zukunftsforschung haben könnten. In der Realität bleiben diese aber weit hinter ihren Möglichkeiten zurück, da die Betreiber bislang wenig Interesse zeigen, das Lern- und Forschungspotential dieser neuen ’Technologie ernsthaft zu nutzen. Die Computerspiele sind bislang eher Erlebnis-, nicht Wissens- getrieben.

(Anmk: 11: Quelle: https://www.statista.com/statistics/292516/pc-online-game-market-value-worldwide/.)

(Anmk: 12: Quelle: https://www.statista.com/statistics/308454/gaming-revenue-countries/.)

(Anmk: 13: Quelle: https://www.statista.com/statistics/237187/global-pc-console-games-revenue-by-type/. )

VIII. SIMULATIONEN BEHERZTER NUTZEN?

An dieser Stelle kann man sich die Frage stellen, warum man das Komplexitätsproblem am Beispiel von Ballungsräumen nicht mit diesen neuen Simulationstechniken angehen sollte?

Verteilte Simulationen würden beliebigen Bürgern die reale Möglichkeit bieten, sich zu beteiligen. Das unterschiedliche Wissen in den unterschiedlichen Köpfen könnte man schrittweise aufsammeln und als Regelwissen in den Simulationen zur Verfügung stellen. Im Unterschied zu kommerziellen Spielen könnte man diese Regeln offenlegen für alle und sie zum Gegenstand von Fachgesprächen machen. In realen Simulationsabläufen könnte man jeweils austesten, wie sich bestimmte Regeln auswirken: sind sie realistisch? Wo führen sie uns hin? Welche Wechselwirkungen mit anderen Regeln tun sich auf? Dieses Werkzeug könnten den Fachabteilungen in den Behörden genauso offen stehen wie den Schulen und Universitäten; Firmen könnten ihre eigenen Szenarien ausprobieren. Alle könnten sich immer wieder auch zu gemeinsamen Experimenten verabreden; man könnte gar Wettbewerbe starten, eine Art kommunales eGaming. In diesem Fall würde es dann wirklich um etwas gehen, nämlich um die eigene Welt und ihre mögliche Zukunft. Mit einem solchen verteilten dynamischen Planungswerkzeug könnte man den Ballungsraum 2117 schon ziemlich gut erforschen, zumindest soweit es uns heute, im Jahr 2018 überhaupt möglich ist. (14)

(Anmk: 14: Im Rahmen der abschließenden Podiumsdiskussion zur Tagung stieß die Idee des Einsatzes von mehr Computersimulationen im Gewand von Computerspielen für die Stadtplanung auf unterschiedliche Reaktionen. Der meiste Widerstand ging aus von der Vorstellung, dass Computerprogramme abgeschlossene Einheiten sind, die aus sich heraus niemals die Vielfalt und Dynamik der Wirklichkeit abbilden könnten. Dem hielt der Autor entgegen, dass man primär vom Kommunikationsprozess zwischen Menschen her denken müsse, dem Austausch von Weltbildern, verbunden mit einem möglichen ’Um-Lernen’ dieser Weltbilder. Innerhalb dieser Kommunikationsprozesse kann eine Computerspielumgebung sehr wohl helfen, komplexe Sachverhalte besser zu nutzen. Außerdem können die Regeln, nach denen hier die Welt gesteuert wird, von allen Teilnehmern eingesehen und auf Wunsch geändert werden.)

IX. TECHNISCHE SUPERINTELLIGENZ

An dieser Stelle könnte dieser Vortrag unter normalen Umständen enden. Schon jetzt enthält er eine Reihe von Anregungen, die über den aktuellen Status Quo weit hinausgehen. Aber wir leben in einer Zeit, in der die Welt – spätestens seit der Cebit 2016 – zu fast allen passenden und auch unpassenden Gelegenheiten mit dem Begriff ’Künstliche Intelligenz’ beschallt wird. Kaum noch ein Produkt oder eine Dienstleistung, die nicht irgendwie den Anspruch erhebt, entweder schon über ’künstliche Intelligenz’ zu verfügen oder demnächst mit so etwas ausgestattet zu werden. Und neben den Evangelisten der künstlichen Intelligenz treten auch die Propheten des Untergangs der Menschheit auf, für die die aktuelle ’Künstliche Intelligenz’ nur der Vorläufer einer ganz neuen, noch mächtigeren ’Künstlichen Intelligenz’ sei, die als ’Singularity’ alles übertreffen wird, was der Mensch als künstliche Intelligenz kennt und beherrscht. (15) Diese neue Super-Intelligenz soll dem Menschen in Geschwindigkeit, Datenvolumen und Denkfähigkeit so weit voraus und darin überlegen sein, dass diese technische Superintelligenz vom Menschen nicht mehr ernsthaft kontrolliert werden kann. Sie ist gegenüber dem Menschen so überlegen, dass sie den Menschen locker als überflüssiges Etwas abschaffen kann. Wie immer, gehen die Schätzungen, wann dies der Fall sein wird, deutlich auseinander, aber das Jahr 2117 ist ein guter Kandidat, wann es soweit sein könnte. (16) Was soll man von dieser nicht gerade beruhigenden Vision halten?

Dass Menschen alles, was ihnen neu und unbekannt ist, und ihnen Angst macht, in Form von überirdische Fabelwesen packen, ist so alt, wie die Aufzeichnungen der Menschheit reichen. In den vielen Sagen gibt es dann irgendwann einen Menschen, einen besonderen Menschen, einen Helden, der dann irgendwann eine Schwachstelle findet, durch deren Ausnutzung der Held dann das Fabelwesen zur Strecke bringen kann. Im Fall des neuen Mythos von der technischen Superintelligenz muss man allerdings nicht sehr weit suchen, um zu sehen, dass die Dinge vielleicht doch ganz anders liegen, als die Marketingmaschinerien uns glauben lassen wollen. Und ja, doch, es könnte sogar sein, dass sich hinter dem abschreckenden Mythos von der menschenfeindlichen technischen Superintelligenz eine sehr konkrete Technologie verbirgt, die uns Menschen bei unserem Komplexitätsproblem ernsthaft helfen könnte. Gehen wir zurück zu dem Mann, mit dem das seriöse Reden über die Computer-Maschine angefangen hat.

(Anmk: 15: Ein wichtiger Text zu Beginn der Diskussion um die ’technische Singularität’ ist ein Beitrag von Vinge 1993 zu einer Nasa-Konferenz [Vin93]. Ein sehr guter Einstieg in die Thematik der technischen Singularität findet sich in dem Wikipedia-Artikel zur ’Technological Singularity’, URL: https://en.wikipedia.org/wiki/Technological singularity)

(Anmk: 16: Für eine Diskussion, wann man mit welcher Art von ’Super-Human-Level’ maschineller Intelligenz rechnen sollte, finden sich im Kap.1 von Bostrom 2014 [Bos14]:SS.18-21 einige Argumente. Klar ist, dass es nicht ganz klar ist; es gibt zu viele Unbekannte und wichtige Begriffe sind unscharf. So gesehen ist die Zahl ’2117’ (geschrieben im Jahr 2017) eine fast ’satirische’ Schätzung unter Berücksichtigung der Argumente bei Bostrum.)

X. WAS KANN EIN COMPUTER?

Während die modernen Naturwissenschaften ihren Untersuchungsgegenstand, die reale Natur, von vornherein nicht kennen, sondern sich mühsam, über viele kleine Schritte, ein Bild erarbeiten müssen, wie es vielleicht sein könnte, hat die Computerwissenschaft es einfacher. Sie beginnt dort, wo es überhaupt noch keine Computer gab, sondern nur ein mathematisches Konzept über eine ideale Maschine, deren einzige Fähigkeit darin besteht, in völlig transparenter Weise eine endliche Liste von primitiven Befehlen auszuführen. (17) Im Unterschied zu einer normalen Maschine, die keine Befehle ausführt, kann eine Computer-Maschine Befehle ausführen. Dies erscheint noch nicht besonders aufregend. Ein klein wenig aufregender wird es dadurch, dass die Computermaschine mit einem Schreib-Lese-Band verknüpft ist, auf dem beliebige Zeichen stehen können. Man kann die Computer-Maschine so auslegen, dass sie diese Zeichen auf dem Schreib-Lese-Band als ihre neuen Anweisungen interpretiert. Dies klingt auch noch nicht aufregend. Aufregend wird es, wenn man sich klar macht, dass die Computer-Maschine diese Anweisungen auf dem Schreib-Lese-Band in eigener Regie verändern kann. Sie kann sozusagen das Programm, das sie steuert, selber abändern und damit die Kontrolle über ihre eigene Steuerung übernehmen. Damit verfügt die Computer-Maschine über eine wichtige Voraussetzung, um im Prinzip voll lernfähig zu sein.

Der soeben erwähnte Turing (18) war auch einer der ersten, der in drei Artikeln 1948, 1950 sowie 1953 ganz offen die Frage diskutierte, ob Computer-Maschinen, falls es diese irgendwann einmal als reale Maschinen geben würde, auch eine Intelligenz haben könnten, wie wir sie von Menschen kennen. (19) Turing selbst sah die Möglichkeit eher positiv. Er machte allerdings schon damals darauf aufmerksam, dass Computer-Maschinen aus seiner Sicht nur dann eine reelle Chance haben würden, mit dem Menschen im Lernen gleich zu ziehen, wenn sie ähnlich wie Kindern selbständig durch die Welt streifen könnten und – ausgestattet mit Kameras, Mikrophonen und weiteren Sensoren – die Welt wie sie ist wahrnehmen könnten.

Mittlerweile schreiben wir das Jahr 2018, das sind mehr als 65 Jahre nach Turings Spekulationen zu intelligenten, lernfähigen Computern. Wie viele Computer streifen durch die Welt wie Kinder? Nicht all zu viele, muss man feststellen; eigentlich kein einziger. Die bisherigen Roboter, die bekannt sind, haben eine sehr eingeschränkte Bewegungsfähigkeit und keiner von diesen lernt bislang in einer unbeschränkten Weise, wie Kinder es tun.

Der Bereich, in dem über lebenslang frei lernende Roboter geforscht wird, nennt sich ’Developmental Robotics’ oder – noch radikaler – ’Evolutionary Developmental Robotics’. (20) In einer Forschungsübersicht aus dem Jahr 2017 (21) gibt es eine zentrale Einsicht, die uns an dieser Stelle helfen kann. (22) Zwar weiß man eigentlich schon von den Anfängen in der Künstlichen Intelligenzforschung in den 1960iger Jahren, dass jegliche Art von Lernen minimale Formen von Rückmeldung benötigt, aber die Tragweite dieses Momentes wurde vielen Forschern erst in den letzten Jahren, und speziell in der ’Erforschung des offenen‘ Lernens so richtig klar. Wenn eine Computer-Maschinen selbständig offen lernen können soll, dann braucht sie minimale Präferenzen, um im allgemeinen Rauschen der Ereignisse Ansätze möglicher Muster zu finden. Im Fall von biologischen Systemen gibt es eine Mischung von sogenannten angeborenen Präferenzen, die sich letztlich von der Überlebenserfahrung herleiten, und eben das schlichte Überleben selbst. Nur wer überlebt besitzt offenbar brauchbare Informationen. Im Fall von Computer- Maschinen gibt es keine Überlebenserfahrungen. Eine Computer-Maschine beginnt am absoluten Nullpunkt. Bis vor wenigen Jahren haben Ingenieure das Problem dadurch gelöst, dass sie ihre eigenen Präferenzen in die Computer-Maschinen eingebaut haben. Dies hat so lange funktioniert, wie die Computer-Maschinen nur sehr spezielle Aufgaben lösen mussten, z.B. als Industrieroboter. In dem Maße aber, wie Computer-Maschinen beliebige Aufgaben lernen können sollen, funktioniert diese Strategie nicht mehr. Was nun? Woher sollen solche allgemeinen Präferenzen kommen?(23)

Die Frage mit den Präferenzen (andere sprechen von Werten) hat eine zusätzliche pikante Note, da der Homo sapiens das erste Lebewesen auf der Erde ist, das nicht mehr ausschließlich durch die nackte Überlebensnotwendigkeit getrieben ist. Der Homo sapiens, also wir Menschen, haben es durch unsere geistigen und kommunikativen Möglichkeiten geschafft, das nackte Überleben z.T. sehr weit in den Hintergrund zu drängen. Damit stellt sich für die Lebensform des Homo sapiens erstmals seit 4 Milliarden Jahren biologischen Lebens die Frage, welche möglichen Präferenzen es möglicherweise neben oder sogar vor dem nackten Überleben geben könnte. Dummerweise enthält der genetische Code keine direkte Antwort auf die Frage nach zusätzlichen Präferenzen.

(Anmk: 17:  Der Text, in dem diese Art der Beschreibung eines idealen Computers erstmals vorkommt, ist ein Text, in dem Alan Matthew Turing einen metamathematischen Beweis geführt hat, in dem es um eine andere Version des Unentscheidbarkeitsbeweises von Kurt Gödel 1931 ging. Siehe [Tur 7]. Zu Ehren von Turing wurde diese Version der Definition eines Computers ’Turingmaschine’ genannt. )

(Anmk: 18: Eine sehr gute Biographie zu Turing ist Hodges (1983) [Hod83])

(Anmk: 19: Siehe Turing 1948 [M.87], 1950 [Tur50], sowie 1953 [Tur63] 20 Erste gute Überblicke bieten die beiden Wikipediaeinträge zu ’developmental robotics’ https://en.wikipedia.org/wiki/Developmental robotics sowie zu ’evolutionary developmental robotics’ https://en.wikipedia.org/wiki/Evolutionary developmental robotics)

(Anmk: 21: Siehe Merrick (2017) [Mer17])

(Anmk: 22: Ergänzend auch Singh et.al. (2010) [SLBS10] und Ryan/Deci (2000) [RD00] )

(Anmk: 23: Eine der verbreitetsten Lernformen im Bereich Künstliche Intelligenz ist das sogenannte ’Reinforcement Learning (RL)’. Dieses setzt explizit ’Belohnungssignale’ (’reward’) aus der Umgebung voraus. Siehe zur Einführung Russell/ Norvig 2010 [RN10]:Kap.21 und Sutton/Barto 1998 [SB98])

XI. DAS EI DES COLUMBUS

Das Ei des Columbus gilt als Metapher für Probleme, die als unlösbar gelten, für die es dann aber doch eine Lösung gibt.

In unserem Fall ist das Problem die begrenzte kognitive Ausstattung des Menschen für komplexe Situationen sowie die Präferenzfreiheit technischer Systeme. Die bisherigen Lösungsansätze einer cloud-basierten allgemeinen Intelligenz führt letztlich zu einer Entmachtung des einzelnen ohne dass eine cloud-basierte Intelligenz eine wirklich Überlebensfähigkeit besitzt. Sie gleicht eher einem Vampir, der so lange lebt, als viele einzelne sie mit Details aus ihrem Alltag füttern. Ohne diese Details ist solch eine cloud-basierte Intelligenz ziemlich dumm und kann einem einzelnen kein wirklicher persönlicher Assistent sein.

Die Lösung könnte tatsächlich ein reales Ei sein, ein Ei gefüllt mit einer Computer-Maschine, deren Rechenkraft vor Ort genau einem Menschen zur Verfügung steht und genau diesem einem Menschen rund um die Uhr hilft, seine kognitiven Begrenzungen auszugleichen und zu überwinden. Dieses Computer-Maschinen Ei (natürlich könnte es auch jede andere Form haben, z.B. als Ohrring, Halskette, Armband usw.) kann mit dem Internet Verbindung aufnehmen, mit jeder denkbaren Cloud, aber nur dann, wann und wie dieses Ei es selber will, und es würde keinerlei privates Wissen einfach so preisgeben. So, wie die Gehirne der Menschen anatomisch alle ähnlich sind und doch sehr individuelle Persönlichkeiten ermöglichen, so kann ein Computer-Maschinen Ei die individuellen Erfahrungen und das individuelle Wissen eines Menschen passgenau erkennen und fördern. Es entsteht eine Symbiose von Mensch und Maschine, die deutlich mehr sein kann als jede Komponenten für sich alleine.

XII. EINE NEUE MENSCH-MASCHINE SUPER-INTELLIGENZ FÜR DEN BALLUNGSRAUM?

Greift man an dieser Stelle nochmals die Vision einer verteilten, flexiblen Simulationsumgebung für die Bürger in einer Region auf, dann kann eine zusätzliche Ausstattung aller Bürger mit ihren persönlichen intelligenten Assistenten dem ganzen Projekt einen zusätzlichen messbaren Schub geben. Die persönlichen Assistenten können auch dann arbeiten, wenn der einzelne mal müde ist, sich entspannen will oder mal mit familiären Aufgaben beschäftigt ist. Und der persönliche Assistent kann auch viele Tausend oder Millionen Faktoren gleichzeitig in Rechnung stellen und in ihren Auswirkungen verfolgen. Im Zusammenwirken dieser vielen natürlichen und technischen Intelligenzen könnte eine Mensch-Maschine Superintelligenz entstehen, die den einzelnen voll mit nimmt, und als Gesamtphänomen erheblich leistungsfähiger sein wird, als alles, was wir heute kennen.

Allerdings, wir sollten uns nicht der Illusion hingeben, dass damit dann alle Probleme gelöst wären. Das Problem der geeigneten Präferenzen, sprich der Werte, wird bleiben; es wird sich vermutlich eher verschärfen. Auch die Verantwortung für uns Menschen wird weiter wachsen, auch wenn sich diese Verantwortung qualitativ neu immer auf ganz viele verteilen wird.

IX QUELLEN

[Bad03] Alan Baddeley. Working memory and language: an overwiew. Journal of Communication Disorders, 36:236–242190–208, 2003.

[BL99] A. Baddeley and R.H. Logie. Working memory: The multiple-component model. In A. Myake and P. Shah, editors, Models of working memory, chapter 2, pages 28–61. Cambridge University Press, New York, 1999.

[Bos14] Nick Bostrom. Superintelligence. Paths, Dangers, Strategies. Oxford University Press, Oxford (UK), 1 edition, 2014.

[BP16] Thorsten Bürklin and Michael Peterek. Thecycloregion. city-regional development in frankfurt rhine-main – die zykloregion. stadtentwicklung in frankfurtrheinmain. Journal of Comparative ’Cultural Studies in Architecture, 9:41–51, 2016.

[For71] Jay W. Forrester. World Dynamics. Wright-Allen Press, Inc., Cambridge (MA) 02142, 2 edition, 1971.

[Hod83] Andrew Hodges. Alan Turing, Enigma. Springer Verlag, Wien – New York, 1 edition, 1983.

[Hol73] C.S. Holling. Resilience and stability of ecological systems. Annual Review of Ecology and Systematics, 4(1):1–23, 1973.

[Jak13] Peter Jakubowski. Resilienz – eine zusätzliche denkfigur für gute stadtentwicklung. Informationen zur Raumentwicklung, 4:371–378, 2013.

[M.87] Turing Alan M. Intelligente maschinen. In Bernhard Dotzler and Friedrich Kittler, editors, Alan M. Turing. Intelligence Service, pages 81 – 113. Brinkmann & Bose, Berlin, 1987.

[Mer17] Kathryn Merrick. Value systems for developmental cognitive robotics: A survey. Cognitive Systems Research, 41:38 – 55, 2017.

[Mil56] Geroge A. Miller. The magical number seven, plus or minus two: Some limits on our capacity for processing information. Psychological review, 63:81–97, 1956.

[MLRBI72] Donella H. Meadows, Meadows Dennis L., Jørgen Randers, and William W. Behrens III. The Limits to Growth. A Report for the Club of Rome’s Project on the Predicament of Mankind. Universe Books, New York, 1 edition, 1972.

[PB13] Michael Peterek and Thorsten Bürklin. Potentials and challenges of polycentric city-regions: A case-study of frankfurt rhine-main. Technical Transactions Architecture – Czasopismo Techniczne Architektura, 1-A:179–189, 2013.

[RB06] G. Repovs and A. Baddeley. The multi-component model of working memory: Explorations in experimental cognitive psychology. Neuroscience, 139:5–21, 2006.

[RD00] Richard M. Ryan and Edward L. Deci. Intrinsic and extrinsic motivations: Classic definitions and new directions. Contemporary Educational Psychology, 25(1):54 – 67, 2000.

[RN10] Stuart Russel and Peter Norvig. Artificial Intelligence. A Modern Approach. Universe Books, 3 edition, 2010.

[SB98] Richard S. Sutton and Andrew G. Barto. Reinforcement Learning. An Introduction. The MIT Press, Ambridge (MA) – London, 1 edition, 1998.

[SLBS10] S. Singh, R. L. Lewis, A. G. Barto, and J. Sorg. Intrinsically motivated reinforcement learning: An evolutionary perspective. IEEE Transactions on Autonomous Mental Development, 2(2):70–82, June 2010.

[Tur50] Alan Turing. Computing machinery and intelligence. Mind, 59:433–460, 1950.

[Tur63] Alan Matthew Turing. Digital computers applied to games. In B.V. Bowden, editor, Faster Than Thought. Pitman Publishing, London, 1963.

[Tur 7] Alan M. Turing. On computable numbers, with an application to the entscheidungsproblem. Proceedings of the London Mathematical Society, 42(2):230–265, 1936-7.

[Vin93] Vernor Vinge. The coming technological singularity: How to survive in the post-human era. In G.A. Landis, editor, Vision-21: Interdisciplinary Science and Engineering in the Era of Cyberspace, pages 11–22. 1993.

PROJEKTGRÜNDUNG

Im Anschluss an dieses Konferenz kam es zur Gründung eines Projektes, das versucht, den ‚Spirit des Kongresses‘ aufzugreifen und konkret umzusetzen. Siehe dazu HIER.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER