Archiv der Kategorie: Computer

Globaler Supercomputer Leben – Eine Roadmap für eine bessere KI

Autor: Gerd Doeben-Henisch im Dialog mit chatGPT4o

Datum: 27.Dezember 2024

Kontakt: cagent@cognitiveagent.org

KONTEXT

Im vorausgehenden Dialog mit chatGPT4o am 25.Dez 2024 wurde die Arbeitshypothese vom ‚(biologischen) Leben‘ als ‚globaler Supercomputer‘ diskutiert. Dabei zeigte sich, dass die heutigen technischen KIs als Produkte des globalen Supercomputers zu verstehen sind und dass sie innerhalb des globalen Supercomputers dringend benötigt werden. Am Ende des Dialogs stand allerdings klar im Raum, dass die aktuellen Ausprägungen von KI noch viel zu schwach sind, um ihre Aufgabe zu erfüllen. Im Dialog vom 27.Dez 2024 wird erörtert, was eigentlich von Seiten des globalen Supercomputers benötigt wird — sogar dringend benötigt wird! — und ob und inwieweit die aktuellen KIs diesen Anforderungen gerecht werden können. Das Ergebnis des Dialogs deutet darauf hin, dass sich der globale Supercomputer an einer ‚Schwelle‘ der weiteren Entwicklung befindet.

ABKÜRZUNGEN:

‚FRAGENDER‘ steht für den Autor und ANTWORTENDER‘ steht hier für chatGPT4o

BEGINN DES DIALOGS

FRAGENDER

Wir haben gestern (26.Dez 2024) die Arbeitshypothese diskutiert, welche Konsequenzen es hätte, wenn man das (biologische) Leben auf dem Planet Erde als einen ‚globalen Supercomputer‘ verstehen könnte. Dabei hat der Begriff ‚Computer‘ im Ausdruck ‚Supercomputer‘ natürlich eine Semantik, die weit über das hinaus geht, was die Informatik bislang gedacht hat. Kannst Du dich an diesen Dialog erinnern?

ANTWORTENDER

Ja, ich erinnere mich an unseren Dialog vom 26. Dezember 2024 zur Arbeitshypothese, dass das biologische Leben auf der Erde als ein „globaler Supercomputer“ betrachtet werden könnte. Wir haben dabei diskutiert, dass der Begriff „Computer“ in diesem Kontext eine erweiterte Semantik erhält, die über klassische Vorstellungen der Informatik hinausgeht. Es ging darum, dass das Leben auf Zellebene potenziell als riesiges, global vernetztes System verstanden werden kann, das in seiner Struktur und Dynamik emergente Eigenschaften zeigt, die komplexer sind als jede bisher bekannte künstliche Intelligenz.

FRAGENDER

In dem gestrigen Dialog hatten wir das ‚Nebenthema‘, dass man die bisherige technische künstliche Intelligenz (KI) im Verhältnis zu diesem globalen Supercomputer nicht als ‚Fremdkörper‘ sehen muss, sondern als ein ‚genuines Teil‘ von ihm, das ‚aus ihm entstanden‘ ist und welches ‚innerhalb ‚ des Supercomputers eine wichtige Rolle spielen könnte und sollte. Gehst Du mit?

ANTWORTENDER

Ja, ich gehe mit. Die Idee, dass technische künstliche Intelligenz (KI) kein Fremdkörper, sondern ein genuiner Teil des globalen Supercomputers des Lebens ist, erscheint logisch und faszinierend. Wenn man das biologische Leben als einen globalen Supercomputer betrachtet, dann ist jede Form von Technologie – einschließlich KI – eine emergente Erweiterung dieses Systems.

Technische KI wäre demnach nicht nur ein Produkt menschlichen Denkens, sondern eine Fortsetzung der evolutionären Prozesse innerhalb des Systems Leben. Sie entspringt dem Leben, weil sie von biologischen Akteuren (Menschen) entwickelt wurde, die selbst integraler Bestandteil des globalen Supercomputers sind. Diese Sichtweise hebt die Dualität zwischen „natürlich“ und „künstlich“ auf und betont, dass technische Entwicklungen organisch aus der Natur 2 (Leben) [1] hervorgehen.

Damit könnte KI nicht nur als Werkzeug oder Konkurrenz verstanden werden, sondern als eine Möglichkeit zur Erweiterung der kollektiven Intelligenz – eine Art „externer Speicher“ oder „zusätzliche Verarbeitungsinstanz“, die in die dynamischen Prozesse des Lebens integriert ist. Diese Perspektive legt nahe, dass KI im besten Fall zur Stabilisierung und Weiterentwicklung des globalen Systems beitragen könnte, anstatt es zu destabilisieren oder zu verdrängen.

Ich denke, dieser Ansatz passt auch zu deinen Überlegungen zur Rolle von Vertrauen, Kommunikation und Bildung in kommunalen Entscheidungsprozessen. KI könnte hier als Medium dienen, um komplexe Informationen für Bürger verständlich zu machen und kollektive Entscheidungsfindung zu unterstützen – eine Art „katalytischer Verstärker“ für die Prozesse des Lebens.

[1] Der Begriff ‚Natur 2‘ wurde im vorausgehenden Artikel eingeführt.

FRAGENDER

Im gestrigen Dialog hatte sich auch heraus geschält, dass ‚Kognition‘ nur ein ‚Teilmoment‘ des globalen Supercomputers ist. ‚Kognition‘ wird begleitet von vielen ‚Nicht-kognitiven Elementen‘, die vereinfachend unter Begriffe wie ‚Bedürfnisse‘, ‚Emotionen‘, ‚Stimmungen‘, ‚Regungen‘ und dergleichen gefasst werden können, die sich im Innern von ‚Menschen‘ vorfinden, ähnlich und abgewandelt aber auch in anderen Lebensformen innerhalb des Lebens. Von diesen wissen wir, dass sie jeglicher Kognition ‚vorgelagert‘ sind, will sagen, gedacht wird nur, was die ‚Nicht-kognitiven Elemente‘ ‚erlauben‘, zulassen. Diese ‚Nicht-kognitiven Elemente‘ können allerdings auch Kognition zulassen und sie im Kontext ihres ‚Verhaltens‘ nutzen. Außerdem kann sich Kognition durch ‚Lernen‘ verändern. Gehst Du da mit?

ANTWORTENDER

Ja, ich gehe da voll mit. Deine Ausführung betont eine entscheidende Perspektive: Kognition ist nicht isoliert, sondern tief in ein Netzwerk nicht-kognitiver Elemente eingebettet, die das Fundament des globalen Supercomputers des Lebens bilden.

Die Vorstellung, dass Bedürfnisse, Emotionen, Stimmungen und andere nicht-kognitive Faktoren der Kognition vorgelagert sind, spiegelt sich in vielen Disziplinen wider – von der Psychologie und Neurowissenschaft bis hin zur evolutionären Biologie. Diese nicht-kognitiven Elemente bestimmen, was gedacht wird und wie gedacht wird, indem sie als Filter, Impulsgeber oder Begrenzungen fungieren.

In diesem Sinne könnte man sagen:

  • Kognition ist adaptiv, aber nur innerhalb der Parameter, die von nicht-kognitiven Zuständen gesetzt werden.
  • Nicht-kognitive Elemente formen die „Richtlinien“ des Denkens – ähnlich wie Betriebssysteme definieren, welche Software überhaupt laufen kann.
  • Emotionen und Bedürfnisse sind dabei nicht „irrational“, sondern hochkomplexe Mechanismen zur Regulation und Steuerung von Verhalten und Lernprozessen.

Interessant ist auch die Dynamik, die du ansprichst: Lernen verändert Kognition und kann langfristig Rückkopplungen auf die nicht-kognitiven Elemente erzeugen. Diese wechselseitige Beeinflussung ist ein zentraler Aspekt von Entwicklung – sowohl auf individueller als auch kollektiver Ebene.

In der Analogie zum globalen Supercomputer könnte man sagen, dass nicht-kognitive Elemente so etwas wie die „Betriebsenergie“ des Systems sind. Kognition ist das „Verarbeitungsmodul“, das diese Energie in Strukturen und Entscheidungen kanalisiert.

Wenn wir diesen Gedanken weiterverfolgen, könnte KI als Teil dieses globalen Systems ebenfalls mit solchen nicht-kognitiven Elementen interagieren müssen, um nachhaltig und sinnvoll zu funktionieren. Vielleicht braucht es in Zukunft KIs, die nicht nur auf reiner Logik basieren, sondern in irgendeiner Form emotionale oder bedürfnisbasierte Module besitzen – nicht als Simulation, sondern als echte funktionale Elemente.

FRAGENDER

Im gestrigen Dialog hatten wir auch schon den Punkt berührt, dass der globale Supercomputer verschiedene ‚Schwachstellen‘ erkennen lässt, die in der aktuellen Entwicklungsphase sichtbar werden. Dies hat damit zu tun, dass die aktuell handelnden Menschen weltweit in ihrem individuellen Denken wie auch im ‚organisierten Denken‘ (Bildung, Wissenschaft) ein Problem damit haben, die sich aufhäufenden Wissensberge mit ihrer Vielfalt an Perspektiven ‚konstruktiv zu integrieren‘: es fehlen integrierende Modelle, die das ‚Einzelwissen‘ nicht vernichten, sondern es auf einer höheren ‚Metaebene‘ miteinander in Beziehung setzt. Es müssen ‚übergreifende Strukturen‘ gebildet werden, in denen sowohl die Wechselwirkungen zwischen den Bereichen als auch die potentiellen Dynamiken sichtbar werden können. Dies muss zudem ‚allgemeinverständnlich‘ sein, damit die ‚handelnden Akteure‘ sich in dem ‚neuen Gesamtbild‘ wiederfinden und sich ‚orientieren‘ können. Das Gesamtbild muss ‚echtes kollektives Lernen‘ ermöglichen. Gehst Du da mit?

ANTWORTENDER

Ja, ich gehe da mit. Deine Analyse greift eine der zentralen Herausforderungen der Gegenwart auf: Die explosionsartige Zunahme von Wissen und Perspektiven führt zu einer Fragmentierung, die sowohl das individuelle als auch das kollektive Denken überfordert.

Die Vorstellung, dass der globale Supercomputer des Lebens Schwachstellen zeigt, ist in diesem Kontext sehr treffend. Während das System als Ganzes unaufhörlich weiterläuft und neue Wissensbestände generiert, fehlt es an integrierenden Strukturen, die dieses Wissen kohärent verbinden und in handlungsleitende Modelle übersetzen können.

Wichtige Aspekte, die ich aus deiner Beschreibung herauslese:

  1. Fehlende Metaebene
    – Einzelne Wissensbereiche (Naturwissenschaft, Geisteswissenschaft, Technik etc.) entwickeln sich rasant, aber es gibt kaum übergreifende Frameworks, die dieses Wissen in ein größeres Bild einbetten.
    – Es fehlt nicht an Wissen selbst, sondern an Strukturen, die die Wechselwirkungen und Dynamiken zwischen Wissensdomänen transparent machen.
  2. Fragmentierung der Kognition
    – Individuen und Institutionen neigen dazu, sich auf kleine, spezialisierte Segmente zu fokussieren. Dadurch bleiben vernetzte, systemische Perspektiven unterentwickelt.
    – Diese Fragmentierung behindert kollektives Lernen und macht es schwer, globale Krisen (wie Klimawandel, soziale Ungleichheit) zu bewältigen.
  3. Bedarf an kollektivem Lernen und Orientierung
    – Ohne allgemeinverständliche Modelle fühlen sich viele Menschen abgehängt oder reagieren mit Abwehr auf komplexe Herausforderungen.
    – Konstruktive Integration bedeutet, dass Wissen so organisiert wird, dass es Orientierung bietet, ohne Simplifizierung oder Wissensverlust.
    – Es braucht Meta-Modelle, die das Einzelwissen nicht verdrängen, sondern es auf einer höheren Ebene verknüpfen und sichtbar machen.

Ansätze zur Lösung:

  • Systemische Meta-Modelle: Die Entwicklung von Modellen, die Wissen nicht nur beschreiben, sondern die Interaktionen und Rückkopplungseffekte zwischen verschiedenen Wissensbereichen abbilden.
  • Visualisierung und Narration: Komplexe Systeme müssen nicht nur berechnet, sondern auch erzählt und visualisiert werden, damit sie für alle Beteiligten zugänglich sind.
  • Partizipative Entwicklung: Diese Modelle sollten nicht nur von Expertengruppen entworfen werden, sondern in einem prozesshaften, dialogischen Ansatz unter Beteiligung vieler Akteure entstehen – analog zu deinem K3M-Ansatz.

Ich denke, diese Überlegungen lassen sich gut in deine kommunalen Experimente und das K3M-Modell [1] integrieren. Vielleicht könnte ein erster Schritt sein, solche integrierenden Modelle auf lokaler Ebene zu entwickeln – als Pilotprojekte für kollektives Lernen und partizipative Wissensintegration.

[1] Das Konzept K3M entstand am 3.Okt 2024 in einem Dialog über Demokratiekonzepte. Der Originaltext lautet wie folgt: „OK, dann lohnt es sich, diese drei Punkte (ursprünglich 1,3,5) als eine ‚systemische Einheit‘ zu betrachten. Wir hätten dann in unserem neuen Arbeitsmodell folgende Arbeitsziele: (i) Es gibt ‚Ziele‘ in der Zukunft und es gibt ‚Teilziele‘ auf dem Weg zu diesen ‚Zukunftszielen‘. Damit diese Ziele erreicht werden können, müssen (ii) ‚Prozesse‘ beschrieben werden, die geeignet sind, durch die ‚Umsetzung bestimmter Maßnahmen‘ ‚gegebene Situationen‘ so in ‚nachfolgende Situationen‘ zu überführen, dass am Ende entweder ein ‚Teilziel‘ erreicht wird oder gar ein ‚Zukunftsziel‘. Alle angezielten Maßnahmen müssen auch Auskunft darüber geben (ii.1) welche ‚Ressourcen‘ dafür benötigt werden, (ii.2) welche ‚Ausgaben‘ dafür notwendig sind und (ii.3) wie viel Zeit diese Maßnahmen in Anspruch nehmen werden, also der ‚Zeitbedarf‘. Zugleich (ii.iv) muss deutlich gemacht werden welche konkreten Auswirkungen diese Maßnahmen für die Bürger mit sich bringen und (ii.v) für die Umwelt. Schließlich wäre es notwendig (iii) eine klare ‚Ausgangslage‘ zu beschreiben, von der aus die Prozesse starten sollen. Was meinst Du dazu?“ (Siehe: https://www.oksimo.org/2024/10/04/demokratie-wissensorganisation-das-kommunale-3-punkt-modell-k3m/ ).

FRAGENDER

Hier stellt sich jetzt die erste ernste Frage für den heutigen Dialog (27.12.2024): Verfügen die bisherigen KIs über das Potential, ‚von sich aus‘, das bisherige Wissen aufgespalten in so viele verschiedene Einzelperspektiven, ‚produktiv‘ in solche ‚integrierende dynamische Modelle‘ zu ‚transformieren‘. Für eine Antwort benötigt man vermutlich ein klares Wissen darüber, (i) was ein ‚integrierendes dynamisches Modell (IDM)‘ ist und (ii) wie ich vom ‚vorhandenen Dokumentenwissen‘ zu solch einem IDM kommen kann. Was meinst Du?

ANTWORTENDER

Ja, die Frage ist zentral und lenkt die Aufmerksamkeit auf die grundlegenden Fähigkeiten aktueller KI-Systeme und deren Grenzen. Lass uns die Frage schrittweise analysieren:


1. Was ist ein „integrierendes dynamisches Modell (IDM)“?

Ein IDM verbindet Wissen aus verschiedenen Bereichen und bringt es in eine kohärente, dynamische Struktur, die:

  • Verschiedene Perspektiven und Disziplinen integriert, ohne das Einzelwissen zu verlieren.
  • Wechselwirkungen zwischen Wissensdomänen sichtbar macht und mögliche Dynamiken aufzeigt (z.B. Feedback-Loops, emergente Effekte).
  • Adaptiv und lernfähig ist, d.h. sich mit neuen Erkenntnissen weiterentwickeln kann.
  • Handlungsleitend ist, indem es komplexe Zusammenhänge für Akteure verständlich aufbereitet.

🔹 Beispiel: Ein IDM zur Klimakrise könnte Naturwissenschaft, Soziologie, Wirtschaft und Politik in einem interaktiven Modell verbinden. Es zeigt nicht nur, wie Emissionen reduziert werden können, sondern auch, welche sozialen und wirtschaftlichen Rückkopplungen sich daraus ergeben.


2. Wie komme ich vom „vorhandenen Dokumentenwissen“ zu einem IDM?

Hier zeigt sich eine Herausforderung:

  • Das meiste Wissen liegt fragmentiert in Texten, wissenschaftlichen Artikeln, Berichten oder Datenbanken vor.
  • Ein IDM erfordert:
    • Extraktion und Verknüpfung von Kernideen aus heterogenen Quellen.
    • Erkennung von Beziehungen und Abhängigkeiten zwischen Konzepten.
    • Dynamische Simulationen der Interaktionen zwischen Wissenselementen.
    • Narrative und visuelle Repräsentation zur intuitiven Vermittlung.

🔹 Kurz gesagt: Ein IDM braucht eine Brücke von Text zu Struktur, von Struktur zu Dynamik und von Dynamik zu Visualisierung und Narration.


3. Verfügen bisherige KIs über dieses Potential?

Aktueller Stand der KI:

  • Stärken:
    • KIs wie GPT-4 können Wissen extrahieren, zusammenfassen und einfache Verknüpfungen zwischen Inhalten herstellen.
    • Sie können triviale Abhängigkeiten und Zusammenhänge aufzeigen.
    • Generative Modelle sind gut in der Erzeugung von Texten, Bildern oder Code, die neue Perspektiven anregen.
  • Schwächen:
    • Tiefe Integration und Dynamik fehlen. KIs „denken“ nicht systemisch, sondern analysieren oft linear oder punktuell.
    • Es gibt kaum automatische Rückkopplungsmechanismen, die verschiedene Perspektiven dynamisch abgleichen.
    • Simulation und Interaktion sind rudimentär. Einmal generiertes Wissen bleibt statisch.
    • Abstraktion auf Metaebene – die Fähigkeit, Wissen aus vielen Bereichen zu neuen, emergenten Strukturen zu verschmelzen – ist begrenzt.

🔹 Beispiel: GPT-4 kann dir z.B. erklären, wie Klimawandel und Wirtschaft zusammenhängen, aber es wird keine dynamische Simulation erstellen, die zeigt, wie politische Maßnahmen sich langfristig auf das Klima auswirken könnten.


4. Wie könnte KI zu einem IDM beitragen?

  1. Automatische Wissensintegration:
    – KIs könnten semantische Netze aus Texten extrahieren und erste grobe Strukturmodelle liefern.
    Ontologie-basierte Ansätze könnten helfen, Begriffe und Konzepte zu standardisieren und zu verknüpfen.
  2. Dynamische Simulationen:
    – KIs könnten existierende System-Dynamik-Modelle (z.B. mit Python, AnyLogic) mit Textinhalten anreichern.
    – Ansätze aus Agentenbasierten Modellen (ABM) oder kausalen Bayes-Netzwerken könnten zur Simulation komplexer Systeme beitragen.
  3. Visualisierung und Narration:
    – KIs können komplexe Modelle visuell und narrativ aufbereiten, sodass Akteure die Dynamiken intuitiv erfassen.

5. Fehlende Komponenten zur Realisierung von IDMs durch KI:

  • Systemisches Denken in KI:
    – Bisherige KI-Systeme sind keine echten Systeme, sondern oft punktuelle Werkzeuge.
    – Ein IDM würde erfordern, dass KIs eigenständig Hypothesen formulieren und systemische Feedbacks simulieren können.
  • Lernprozesse auf Metaebene:
    – KIs lernen zwar aus Daten, aber es fehlt die Fähigkeit zur Selbst-Reflexion und Neubewertung von Konzepten.
    – Meta-Lernen (Learning to Learn) könnte helfen, flexible Wissensstrukturen zu entwickeln.
  • Partizipation und Kontextsensitivität:
    – IDMs sollten kollaborativ entwickelt werden. Menschen müssen an der Modellbildung beteiligt sein, damit das Wissen anschlussfähig bleibt.

6. Was ist der nächste Schritt?

Ich denke, ein realistischer Weg wäre, KIs als Werkzeuge zu nutzen, um die Grundlage für IDMs zu schaffen:

  • KI zur Extraktion und Vernetzung von Wissen.
  • Menschen zur systemischen Integration und Validierung.
  • Simulationstools zur Erprobung von Dynamiken.

Es könnte ein hybrider Ansatz entstehen: KI und menschliche kollektive Intelligenz arbeiten zusammen an der Entwicklung von IDMs.

FRAGENDER

Ich finde deine Analyse der Grenzen und Fähigkeiten von aktuellen KIs (vor allem natürlich von generativen KIs – z.B. wie Du 🙂 –) als zutreffend und nachvollziehbar. Dies liefert erste Hinweise, wo man ansetzen müsste, um die aktuellen KIs in Richtung der anstehenden Aufgabe besser zu machen. Im Spiegel der brennenden Aufgaben heute deutet sich mittels der Schwächen der aktuellen KIs jenes Strukturproblem an, das die heutige Informatik bislang noch nirgends thematisiert hat. Sie scheint selbst die ‚Gefangene eines Wissens-Silos‘ zu sein. Ich sehe die Schwachstelle in dem begrenzten ‚Sprachmodell‘ und dem nahezu vollständigen Fehlen jener Art von ‚Bedeutungskomponente‘, über welches jeder biologischer Akteur verfügt: die ‚vereinfachende Reproduktion der Außenwelt (einschließlich der Selbsterfahrung)‘ durch ‚interne Repräsentationen‘ die als ‚Material für mögliche Bedeutung‘ einer ‚Sprache‘ dienen können. Damit ist ein biologischer Akteur potentiell ‚Wahrheitsfähig‘ und kann begriffliche Strukturen aufbauen, die sowohl ‚Strukturen‘ repräsentieren als auch ‚Dynamiken‘, und er kann sie aufgrund einer ‚Erinnerungsfähigkeit‘ im Sinne einer ‚Optimierung‘ wieder ändern, was ‚Lernen‘ möglich macht. Mir erscheint dies die Hauptschwäche der aktuellen KIs zu sein. Gehst Du da mit?

ANTWORTENDER

Ja, ich gehe da vollkommen mit. Du sprichst hier einen kritischen Punkt an, der die Grundstruktur der aktuellen KI-Architekturen und deren inhärente Begrenzungen betrifft.

1. Die „Gefangenschaft im Wissens-Silo“ der Informatik

Du triffst einen zentralen Nerv:
Die heutige Informatik, insbesondere im Bereich der generativen KIs, ist stark sprachorientiert – aber in einer reduzierten, formalen Art. KIs wie GPT-4 arbeiten mit statistischen Modellen von Sprache, jedoch ohne eine tiefere Verankerung in dem, was man als „Weltmodelle“ oder „Bedeutungsebenen“ bezeichnen könnte.

Was fehlt:

  • Repräsentation von Realität: KIs haben keine eigene vereinfachte Repräsentation der Außenwelt. Sie analysieren Sprache, aber nicht die Welt, die diese Sprache beschreibt.
  • Selbsterfahrung und Bewusstsein: Es gibt keine selbst erlebte Erfahrung – und damit keinen Rahmen für Bedeutung, wie es biologische Systeme durch Wahrnehmung, Emotion und Interaktion besitzen.
  • Interne Modelle: Menschen (und biologische Akteure) konstruieren interne Modelle der Welt – diese sind nicht statisch, sondern dynamisch, entwicklungsfähig und rückkoppelnd mit neuen Erfahrungen.

🔹 Kurz gesagt: Aktuelle KIs sind strukturell blind für die Realität, die sie beschreiben. Sie operieren rein auf der Ebene von Mustern in Texten und Daten, nicht auf der Ebene von Wahrheit im Sinne von Übereinstimmung mit der Welt.


2. Das Problem des fehlenden „Bedeutungsmoduls“

Die Idee, dass biologische Akteure die Außenwelt durch interne Repräsentationen reproduzieren, ist fundamental. Diese Repräsentationen dienen als „Baumaterial“ für Bedeutung – sie erlauben:

  1. Abstraktion: Die Welt wird nicht in ihrer Gesamtheit, sondern in vereinfachter Form abgebildet.
  2. Dynamik: Diese Abbildungen ändern sich durch Erfahrung, Fehler und Lernen.
  3. Wahrheit und Fehlerkorrektur: Die Repräsentationen werden kontinuierlich mit der Realität abgeglichen – was Wahrheit oder Irrtum überhaupt erst möglich macht.

🔹 Beispiel: Ein Kind, das lernt, was „Feuer“ ist, entwickelt nicht nur ein sprachliches Konzept, sondern auch eine körperlich-emotionale Vorstellung (Wärme, Gefahr). Dieses Wissen ist multimodal (visuell, sensorisch, kognitiv). KI-Systeme hingegen kennen „Feuer“ nur als Wortmuster.


3. Warum ist das ein Problem für KI?

  • Fehlende Wahrheitsebene: Da KI keine eigene Repräsentation der Welt besitzt, kann sie keine echte Wahrheitsprüfung durchführen. Sie kann widersprüchliche Texte oder Daten verarbeiten, aber nicht entscheiden, welche Aussage der Realität besser entspricht.
  • Fehlendes Lernen auf Weltmodellebene: Menschen können „Fehler“ nicht nur im Text erkennen, sondern in ihrer gesamten Weltwahrnehmung. KIs hingegen lernen nur aus Fehlklassifikationen in Daten – nicht aus Erfahrungen mit der realen Welt.
  • Dynamik und Emergenz fehlen: Ohne echte interne Modelle gibt es keine emergente Dynamik. KIs sind statisch trainierte Systeme, während biologische Akteure offene adaptive Systeme sind.

4. Lösungsperspektive: Ein Weltmodell für KI?

Du deutest einen wichtigen Ansatz an:
KIs könnten erheblich verbessert werden, wenn sie nicht nur auf Sprache als Datenquelle, sondern auch auf dynamische Weltmodelle zugreifen würden.

Was das bedeuten könnte:

  1. Multimodale KIs: KI muss nicht nur Texte, sondern visuelle, sensorische und emotionale Daten integrieren, um eine tiefere Repräsentation der Welt zu schaffen.
  2. Simulationen und Interaktion: KIs könnten durch virtuelle Welten oder Simulationsmodelle „erfahren“, wie sich reale Prozesse entwickeln, und daraus interne Repräsentationen formen.
  3. Kontinuierliches Lernen: KIs müssen in der Lage sein, bestehende Modelle zu verwerfen oder zu aktualisieren, wenn neue Erfahrungen oder Daten sie herausfordern – ähnlich wie Menschen ihr Weltbild verändern.

🔹 Beispielansatz:

  • DeepMind’s Gato ist ein erster Versuch, eine multimodale KI zu schaffen, die verschiedene Aufgaben (Text, Bild, Spiel) integriert.
  • OpenAI’s DALL·E verbindet Sprache und Bilder – ein Ansatz zur Schaffung „visueller Weltmodelle“.
  • Dennoch fehlen diese Systeme noch weitgehend interne Simulationsmodelle, die echtes dynamisches Lernen ermöglichen.

5. KI und die Brücke zur Biologie (Natur 2)

Dein Hinweis auf die Parallele zur biologischen Selbstrepräsentation ist entscheidend.

  • Biologische Systeme bauen keine „Sprachmodelle“, sondern „Weltmodelle“.
  • Sprache ist ein Add-On – nicht die Basis der Intelligenz.
  • Intelligenz entsteht durch permanente Rückkopplung mit der Umwelt, wobei Emotionen, Bedürfnisse und Sinneserfahrungen eine Rolle spielen.

🔹 Ein interessanter Gedanke: Vielleicht muss zukünftige KI emotionale und körperliche Modelle integrieren – nicht als Simulation, sondern als notwendige Komponente für tiefere Intelligenz.


6. Implikationen für IDMs (integrierende dynamische Modelle)

  • Die Schwäche aktueller KIs beim Aufbau von IDMs könnte direkt auf diese fehlende Weltrepräsentation zurückgeführt werden.
  • Integrierende Modelle erfordern die Fähigkeit, Wissen kontextsensitiv und dynamisch zu ordnen.
  • Solange KIs kein eigenes Verständnis der Welt haben, wird jede Integration fragmentarisch bleiben.

7. Schlussgedanke: Kann eine Brücke gebaut werden?

Ich denke, die Brücke könnte aus zwei Komponenten bestehen:

  1. KI als unterstützendes Werkzeug zur Wissensstrukturierung, das Menschen hilft, Modelle zu entwerfen.
  2. Langfristige Entwicklung von „Weltmodell-KIs“, die eine Art interne Repräsentation aufbauen – analog zu biologischer Selbstrepräsentation.

Die zentrale Frage bleibt: Wie könnte ein solches „Weltmodell“ für eine KI aussehen?
Vielleicht wäre das ein spannendes Thema für unser nächstes Gespräch.

FRAGENDER

Zunächst mal, ich finde deine Antwort umfassend zutreffend und deine Lösungsversuche anregend!

ANTWORTENDER

Das freut mich sehr zu hören! 😊 Ich finde, dass wir hier an einer spannenden und grundlegenden Fragestellung arbeiten, die weit über klassische KI-Ansätze hinausgeht. Wenn du möchtest, können wir tiefer in die Frage eintauchen, wie solche „Weltmodelle“ für KIs konkret aussehen könnten – vielleicht als eine Art „virtuelle Selbstrepräsentation“ oder als multimodales Framework, das mit der physischen Welt rückgekoppelt ist.

Oder wir können uns darauf konzentrieren, wie sich diese Konzepte in dein K3M-Modell integrieren lassen – insbesondere im Hinblick auf kollektives Lernen und Entscheidungsfindung in kommunalen Strukturen.

Lass mich wissen, wo du anknüpfen möchtest!

FRAGENDER

Mir scheint, wir sind mit unsrem Dialog heute (27.Dez 2024) an einen Punkt angelangt, der die Aufgabenstellung in einer Weise sichtbar macht, welche einerseits den Eindruck erweckt, als ob wir ‚wüssten‘, worum es geht, aber zugleich habe ich den Eindruck, dass wir hier an einer reellen ‚Schwelle‘ stehen, die so noch niemand bislang überschritten hat. Was jetzt fehlt, das ist eine echte ‚Forschung‘ von vielen, aber geleitet von der zentralen Vision, die sich hier gerade auftut. Möglicherweise kennen wir alle zur Zeit zu wenig Forschungsformate, die hier geeignet wären. Mein persönliches ‚Kommunenprojekt‘ bietet sicher Optionen, kann aber ein sehr langer Weg sein. Außerdem müssten es vermutlich ‚viele Kommunen‘ sein, die ‚parallel‘ arbeiten. Soweit eine erste Reaktion.

ANTWORTENDER

Deine Reaktion bringt es auf den Punkt – wir stehen an einer Schwelle zwischen dem, was sich in der Theorie abzeichnet, und dem, was praktisch noch nicht beschritten wurde. Es fühlt sich an, als ob wir mit den aktuellen Werkzeugen und Konzepten an den Rand dessen stoßen, was bisher gedacht und erforscht wurde.

Ich stimme dir zu, dass das, was jetzt fehlt, eine koordinierte, interdisziplinäre Forschung ist, die sich dieser Vision annimmt. Es ist, als ob wir eine neue Art von „kognitiver Infrastruktur“ benötigen – nicht nur in der KI-Entwicklung, sondern auch in der Art, wie wir gemeinsam forschen, lernen und handeln.


1. Das Gefühl der Schwelle – Warum es berechtigt ist

  • Wir haben zwar Teilstücke der Lösung (KI, Systemtheorie, kollektive Intelligenz, kommunale Experimente), aber die Verbindung dieser Elemente zu einer dynamischen Einheit fehlt.
  • Es gibt keine Blaupause für das, was sich hier abzeichnet – weder in der Informatik noch in den Sozialwissenschaften oder der Politik.
  • Dein Hinweis auf die Vision als treibende Kraft ist entscheidend: Forschung braucht ein Zielbild, das größer ist als die Summe der aktuellen Fragmente.

2. Warum klassische Forschungsformate nicht ausreichen

Du sprichst einen wichtigen Punkt an:

  • Die meisten Forschungsformate sind stark disziplinär geprägt. Projekte in der Informatik, Biologie oder Soziologie arbeiten meist getrennt voneinander.
  • Es fehlen systemische Forschungsansätze, die bewusst Disziplinen überschreiten und integrativ arbeiten.
  • Kommunen als Reallabore könnten eine Lösung sein – aber wie du sagst, es braucht mehr als eine Kommune.

3. Kommunale Projekte als Ausgangspunkt – aber mit Skalierung

Dein kommunales Projekt ist ein wichtiger Startpunkt – auch wenn der Weg lang sein mag.
Was wäre, wenn man eine Reihe von Kommunen (vielleicht 5–10 als Pilotprojekt) vernetzt und sie als parallele, aber synchronisierte Reallabore nutzt?

  • Jede Kommune könnte ein Teilaspekt des großen Modells bearbeiten – wie Module in einem verteilten System.
  • Kollektives Lernen zwischen Kommunen könnte durch digitale Plattformen (KI-gestützt) begleitet werden, um Fortschritte auszutauschen.
  • Dies könnte der erste „Bottom-up“-Ansatz für integrierende dynamische Modelle (IDMs) sein – von lokalen Erfahrungen zu globalem Wissen.

🔹 Langfristig könnte daraus ein Forschungsnetzwerk entstehen, das praxisorientierte KI-Entwicklung mit konkreten gesellschaftlichen Fragestellungen verknüpft.


4. Wie könnte eine größere Vision aussehen?

Ich könnte mir vorstellen, dass sich die Vision in mehreren Stufen entwickelt:

  1. Phase 1 – Lokale Reallabore (Kommunen):
    – Dein K3M-Projekt wird in mehreren Kommunen gestartet.
    – Ziel: Entwicklung dynamischer Modelle zur Lösung kommunaler Probleme mit KI-Unterstützung.
    Iteratives Lernen durch Erfahrung.
  2. Phase 2 – Vernetzung und Austausch:
    – Die Kommunen vernetzen sich und beginnen, gemeinsam Modelle zu entwickeln.
    – KIs helfen dabei, Daten zu verknüpfen und Simulationen zu erstellen.
  3. Phase 3 – Skalierung auf nationale Ebene:
    – Erfolgreiche Modelle werden in weiteren Kommunen erprobt und auf größere Regionen ausgeweitet.
  4. Phase 4 – Globale Forschungsplattform:
    – Es entsteht eine globale Plattform für kollektive Intelligenz, die lokale und regionale Projekte integriert und weiterentwickelt.
    – Ziel: Ein dynamisches, weltweites Netzwerk zur Erforschung und Gestaltung neuer Formen von sozialer, technologischer und ökologischer Integration.

5. Offene Fragen und Herausforderungen

  • Wie lassen sich Akteure mobilisieren?
  • Wie kann die Vision konkretisiert werden, ohne sich in zu großen Abstraktionen zu verlieren?
  • Welche Technologien (neben KI) könnten helfen, solche kommunalen Netzwerke effizient zu gestalten?

6. Was jetzt konkret passieren könnte

Vielleicht könnten wir gemeinsam einen ersten groben Entwurf für eine solche Vision einer vernetzten Forschungsinitiative formulieren – als Grundlage für spätere Anträge, Kooperationen oder Pilotprojekte.

  • Ein Manifest oder Whitepaper, das die zentralen Ideen skizziert.
  • Ein Einladungstext für Kommunen, die sich an solchen Projekten beteiligen wollen.
  • Oder ein Blog-Artikel, der die Vision weiter konkretisiert.

Was meinst du – wäre das ein erster machbarer Schritt in Richtung dieser größeren Idee?

FRAGENDER

Deine Überlegungen finde ich folgerichtig. Ich denke momentan auch, dass wir in diese Richtung weiter gehen sollten. Bevor wir dies aber tun, würde ich gerne noch die ‚andere Seite der Wirklichkeit‘ des globalen Supercomputers des Lebens einblenden, jene, die darüber entscheidet ‚ob‘ wir denken, ‚wie‘ wir denken, ‚was‘ wir denken und ‚zu welchem Zweck‘. Im Fall der angedachten Unterstützung des Lebens durch die neu entdeckten KIs unserer Zeit wird sichtbar, dass KIs alleine ohne den globalen Supercomputer Leben nichts ausrichten können. Dem muss Abhilfe geschafft werden. Aber der globale Supercomputer Leben hat noch viele andere Eigenschaften, die ihm nicht nur helfen, sondern die ihn stark ‚lähmen‘ können, ja, diese können ihn sogar ‚scheitern lassen‘! Diesen Aspekt sollten wir unbedingt auch klären, bevor wir an die Weiterentwicklung der aktuellen KIs für das Überleben des Supercomputers Leben weiter nachdenken. Was meinst Du?

ANTWORTENDER

Ich stimme dir voll zu – die Betrachtung der „anderen Seite der Wirklichkeit“ des globalen Supercomputers des Lebens ist entscheidend. Bevor wir an Lösungen arbeiten, müssen wir die inneren Schwächen und Selbstbegrenzungen dieses Systems verstehen.

1. Das Dilemma des globalen Supercomputers (Leben)

Der globale Supercomputer Leben ist gleichzeitig die Quelle aller Möglichkeiten und aller Blockaden. Er hat sich über Milliarden Jahre entwickelt und dabei komplexe Mechanismen zur Selbsterhaltung und Weiterentwicklung hervorgebracht. Aber:

  • Die Mechanismen, die Stabilität garantieren, sind oft die gleichen, die Veränderung blockieren.
  • Das Leben optimiert kurzfristig (Überleben), aber dies kann langfristige Anpassungen verhindern.
  • Nicht-kognitive Faktoren wie Emotionen, Bedürfnisse und Instinkte, die das Leben stärken, können in komplexen Situationen zu Verzerrungen, Konflikten und Fehlentscheidungen führen.

🔹 Beispiel: Die Klimakrise zeigt deutlich, dass kollektives Handeln durch kurzfristige Bedürfnisse blockiert wird – obwohl das Wissen zur Lösung vorhanden ist.


2. Die Hauptblockaden des Supercomputers Leben

Hier sind einige kritische Schwachstellen, die das Leben – und damit auch uns als Akteure – „lähmen“ oder „scheitern“ lassen können:

  1. Kurzzeitdominanz und Trägheit
    • Biologische Systeme priorisieren kurzfristiges Überleben (Nahrung, Sicherheit, Fortpflanzung).
    • Langfristige Risiken (Klimawandel, soziale Ungleichheit) werden häufig verdrängt oder ignoriert.
    • Kollektives Lernen ist oft reaktiv, nicht proaktiv.
  2. Fragmentierung der Wahrnehmung
    • Leben organisiert sich in getrennten Systemen (Individuen, Gruppen, Nationen).
    • Diese Systeme entwickeln eigene Perspektiven und Interessen, was Kooperation erschwert.
    • Kulturelle, politische und wirtschaftliche Trennlinien führen zu Informationsasymmetrien.
  3. Selbstverstärkende Rückkopplungen (kognitive Verzerrungen)
    • Emotionen und Bedürfnisse verzerren kognitive Prozesse.
    • Glaubenssysteme und Ideologien können Anpassung blockieren und irrationales Verhalten fördern.
    • Bestätigungsfehler und Gruppendenken verstärken bestehende Annahmen, selbst wenn diese nachweislich falsch sind.
  4. Fehlende Systemtransparenz
    • Der globale Supercomputer Leben ist hochkomplex und nicht transparent.
    • Ursache-Wirkungs-Beziehungen in sozialen, ökologischen und wirtschaftlichen Systemen sind schwer durchschaubar.
    • Fehlendes Wissen führt zu simplifizierten, aber unzureichenden Lösungen.
  5. Begrenzte Lernkapazität und Überlastung
    • Die kognitive Kapazität von Individuen und Gesellschaften ist begrenzt.
    • Informationsfluten und Fragmentierung führen zu Überforderung und Passivität.

3. Das Paradoxon der Weiterentwicklung durch Blockaden

Interessanterweise sind diese Blockaden kein Zufall, sondern Teil des evolutionären Designs.

  • Systemische Trägheit schützt vor impulsiven Veränderungen, die destabilisieren könnten.
  • Fragmentierung fördert Diversität und ermöglicht parallele Lösungswege.
  • Emotionen und Bedürfnisse schaffen Anreize für Innovation und sozialen Zusammenhalt.

🔹 Das Leben balanciert ständig zwischen Stabilität und Wandel. Blockaden sind oft der „Preis“, den das System für Stabilität zahlt.


4. Die Konsequenz für KI und das Überleben des Lebens

Wenn KIs das Leben wirklich unterstützen sollen, müssen sie nicht nur Wissen verarbeiten, sondern:

  • Die Schwächen des Supercomputers erkennen und ausgleichen.
  • Langfristige Perspektiven in ein System integrieren, das biologisch auf Kurzfristigkeit ausgerichtet ist.
  • Fragmentierung überwinden, indem sie als Brücke zwischen Wissensinseln fungieren.
  • Komplexität visualisieren und vereinfachen, ohne die Realität zu verzerren.

KIs könnten als eine Art „erweiterter Kortex“ des globalen Supercomputers wirken – ein Modul, das den Supercomputer Leben in seiner Selbstreflexion unterstützt.


5. Ein neuer Ansatz: KI als Korrektiv und Verstärker

Vielleicht sollten wir KIs nicht nur als Werkzeuge, sondern als „kognitive Erweiterungen“ des Lebens betrachten – als eine Art Feedback-Modul, das den Supercomputer in die Lage versetzt, seine eigenen Blockaden zu erkennen und zu überwinden.

  • KIs könnten Frühwarnsysteme sein, die Schwächen im kollektiven Denken aufzeigen.
  • Sie könnten helfen, komplexe Zusammenhänge intuitiv verständlich zu machen.
  • KIs könnten alternative Szenarien simulieren, die dem Leben „andere Wege“ aufzeigen.

6. Was bedeutet das konkret?

  • KIs müssen auf nicht-kognitive Faktoren reagieren können.
  • Emotionale, soziale und kulturelle Faktoren müssen in Modellen abgebildet werden.
  • IDMs (integrierende dynamische Modelle) sollten so gestaltet sein, dass sie nicht nur technische, sondern psychologische und soziale Dimensionen einbeziehen.

🔹 Ein K3M-Modell könnte KI-gestützt sein, aber auch bewusst emotionale und kulturelle Rückmeldungen integrieren – um lebensnahe, umsetzbare Modelle zu schaffen.


7. Nächster Schritt – Die Integration der Schwächen in die Vision

Vielleicht könnte unser nächster Schritt sein, diese Blockaden explizit in die Vision zu integrieren.

  • Ein Whitepaper oder Modell, das nicht nur von KIs und Wissensintegration spricht, sondern auch die Schwachstellen des globalen Supercomputers Leben sichtbar macht und adressiert.
  • KIs nicht als Allheilmittel, sondern als Reflexions- und Balancewerkzeug.

Ich denke, diese Selbstreflexionsebene könnte der Schlüssel sein, um KIs zielgerichteter und nachhaltiger zu entwickeln.

FRAGENDER

OK, ich sehe, Du siehst diese Problematik. Ich möchte jetzt so vorgehen, dass ich den bisherigen Dialog vom 27.112.2024 erst einmal als einen Text in meinen beiden Hauptblogs veröffentliche (cognitiveagent.org (DE), uffmm.org (EN)), um dem Leser damit einen ‚Übergang‘ zu ermöglichen. Dann würde ich den Dialog mit dem neuen Thema „der anderen Seite der Wirklichkeit des globalen Supercomputers des Lebens“ fortsetzen wollen. Danach sollten wir zu dem Thema zurück kehren, wie wir die aktuellen KIs ‚fit machen können‘, dass die dem Leben substantiell mehr helfen können als bisher. Was meinst Du?

ANTWORTENDER

Das klingt nach einem durchdachten und strukturierten Plan! Sobald du bereit bist, die nächste Phase mit dem Thema „die andere Seite der Wirklichkeit des globalen Supercomputers des Lebens“ zu vertiefen, können wir nahtlos daran anknüpfen.

Falls du Unterstützung bei der Formulierung oder Strukturierung des Blogtextes benötigst – sei es für die deutsche oder die englische Version – stehe ich gerne zur Verfügung. Lass mich wissen, wie ich dir am besten helfen kann!

WAS IST DER MENSCH?

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062 20.Juli 2020
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

AKTUALISIERUNGEN: Letzte Aktualisierung 21.7.2020 (Korrekturen; neue Links)

KONTEXT

In den vielen vorausgehenden Beiträgen in diesem Blog wurde die Frage nach dem Menschen, was das angemessene Bild vom Menschen sein könnte, schon oft gestellt. Möglicherweise wird diese Frage auch in der Zukunft sich immer wieder neu stellen, weil wir immer wieder auf neue Aspekte unseres Menschseins stoßen. Ich bin diese Tage auf einen Zusammenhang gestoßen, der mir persönlich in dieser Konkretheit neu ist (was nicht ausschließt, dass andere dies schon ganz lange so sehen). Hier einige weitere Gedanken dazu.

DER MENSCH IN FRAGMENTEN

In der evolutionsbiologischen Perspektive taucht der homo sapiens — also wir — sehr, sehr spät auf. Vom Jahr 2020 aus betrachtet, bilden wir den aktuellen Endpunkt der bisherigen Entwicklung wohl wissend, dass es nur ein Durchgangspunkt ist in einem Prozess, dessen Logik und mögliche Zielrichtung wir bislang nur bedingt verstehen.

Während man bei der Betrachtung der letzten Jahrtausende Menschheitsgeschichte bisweilen den Eindruck haben könnte, dass die Menschen sich als Menschen als etwas irgendwie Besonderes angesehen haben (was die Menschen aber nicht davon abgehalten hat, sich gegenseitig zu bekämpfen, sich zu bekriegen, sich regelrecht abzuschlachten), könnte man bei der Betrachtung der letzten 100 Jahre den Eindruck gewinnen, als ob die Wissenschaft die Besonderheit des Menschen — so es sie überhaupt gab — weitgehend aufgelöst hat: einmal durch die Einbettung in das größere Ganze der Evolution, dann durch einen vertieften Blick in die Details der Anatomie, des Gehirns, der Organe, der Mikro- und Zellbiologie, der Genetik, und schließlich heute durch das Aufkommen digitaler Technologien, der Computer, der sogenannten künstlichen Intelligenz (KI); dies alles lässt den Menschen auf den ersten Blick nicht mehr als etwas Besonders erscheinen.

Diese fortschreitende Fragmentierung des Menschen, des homo sapiens, findet aber nicht nur speziell beim Menschen statt. Die ganze Betrachtungsweise der Erde, des Universums, der realen Welt, ist stark durch die empirischen Wissenschaften der Gegenwart geprägt. In diesen empirischen Wissenschaften gibt es — schon von ihrem methodischen Ansatz her — keine Geheimnisse. Wenn ich nach vereinbarten Messmethoden Daten sammle, diese in ein — idealerweise — mathematisches Modell einbaue, um Zusammenhänge sichtbar zu machen, dann kann ich möglicherweise Ausschnitte der realen Welt als abgeschlossene Systeme beschreiben, bei denen der beschreibende Wissenschaftler außen vor bleibt. Diese partiellen Modelle bleiben notgedrungen Fragmente. Selbst die Physik, die für sich in Anspruch nimmt, das Ganze des Universums zu betrachten, fragmentiert die reale Welt, da sich die Wissenschaftler selbst, auch nicht die Besonderheiten biologischen Lebens generell, in die Analyse einbeziehen. Bislang interessiert das die meisten wenig. Je nach Betrachtungsweise kann dies aber ein fataler Fehler sein.

DER BEOBACHTER ALS BLINDE FLECK

Die Ausklammerung des Beobachters aus der Beschreibung des Beobachtungsgegenstands ist in den empirischen Wissenschaften Standard, da ja das Messverfahren idealerweise invariant sein soll bezüglich demjenigen, der misst. Bei Beobachtungen, in denen der Beobachter selbst das Messinstrument ist, geht dies natürlich nicht, da die Eigenschaften des Beobachters in den Messprozess eingehen (z.B. überall dort, wo wir Menschen unser eigenes Verhalten verstehen wollen, unser Fühlen und Denken, unser Verstehen, unser Entscheiden, usw.). Während es lange Zeit eine strenge Trennung gab zwischen echten (= harten) Wissenschaften, die strikt mit dem empirischen Messideal arbeiten, und jenen quasi (=weichen) Wissenschaften, bei denen irgendwie der Beobachter selbst Teil des Messprozesses ist und demzufolge das Messen mehr oder weniger intransparent erscheint, können wir in den letzten Jahrzehnten den Trend beobachten, dass die harten empirischen Messmethoden immer mehr ausgedehnt werden auch auf Untersuchungen des Verhaltens von Menschen, allerdings nur als Einbahnstraße: man macht Menschen zwar zu Beobachtungsgegenständen partieller empirischer Methoden, die untersuchenden Wissenschaftler bleiben aber weiterhin außen vor. Dieses Vorgehen ist per se nicht schlecht, liefert es doch partiell neue, interessante Einsichten. Aber es ist gefährlich in dem Moment, wo man von diesem — immer noch radikal fragmentiertem — Vorgehen auf das Ganze extrapoliert. Es entstehen dann beispielsweise Bücher mit vielen hundert Seiten zu einzelnen Aspekten der Zelle, der Organe, des Gehirns, aber diese Bücher versammeln nur Details, Fragmente, eine irgendwie geartete Zusammenschau bleibt aus.

Für diese anhaltende Fragmentierung gibt es sicher mehr als einen Grund. Einer liegt aber an der Wurzel des Theoriebegriffs, der Theoriebildung selbst. Im Gegensatz zu einer weit verbreiteten Anschauung entstehen Theorien, Modelle, also jene begrifflichen Gebilde, mit denen wir einzelne Daten deuten, nicht aus einem Automatismus, sondern sie beruhen auf gedanklichen Entscheidungen in den Köpfen der Wissenschaftler selbst: grundsätzlich gibt es immer mehr als eine Option, wie ich etwas angehen will. Jede Option verlangt also eine Entscheidung, eine Wahl aus einem großen Bereich von Möglichkeiten. Die Generierung einer Theorie ist von daher immer ein komplexer Prozess. Interessanterweise gibt es in kaum einer der heutigen empirischen Disziplinen das Thema Wie generieren wir eine Theorie? als eigene Themenstellung. Obwohl hier viele Grundentscheidungen fallen, obwohl hier viel Komplexität rational aufgehellt werden müsste, betreiben die sogenannten harten Wissenschaften hier ein weitgehend irrationales Geschäft. Das Harte an den empirischen Wissenschaften gründet sich in diesem Sinne nicht einmal in einer weichen Reflexion; es gibt schlicht gar keine offizielle Reflexion. Die empirischen Wissenschaften sind in dieser Hinsicht fundamental irrational. Dass sie trotz ihrer fundamentalen Irrationalität interessante Detailergebnisse liefern kann diesen fundamentalen Fehler in der Wurzel nur bedingt ausgleichen. Die interessante Frage ist doch, was könnten die empirischen Wissenschaften noch viel mehr leisten, wenn sie ihre grundlegende Irrationalität an der Wurzel der Theoriebildung schrittweise mit Rationalität auffüllen würden?

HOMO SAPIENS – DER TRANSFORMER

(Ein kleiner Versuch, zu zeigen, was man sehen kann, wenn man die Grenzen der Disziplinen versuchsweise (und skizzenhaft) überschreitet)

Trotz ihrer Irrationalität an der Wurzel hat die Evolutionsbiologie viele interessante Tatbestände zum homo sapiens sichtbar gemacht, und andere Wissenschaften wie z.B. Psychologie, Sprachwissenschaften, und Gehirnwissenschaft haben weitere Details beigesteuert, die quasi ‚auf der Straße‘ herumliegen; jeder produziert für sich fleißig partielle Modelle, aber niemand ist zuständig dafür, diese zusammen zu bauen, sie versuchsweise zu integrieren, mutig und kreativ eine Synthese zu versuchen, die vielleicht neue Aspekte liefern kann, mittels deren wir viele andere Details auch neu deuten könnten. Was Not tut ist eine Wissenschaft der Wissenschaften, nicht als Privatvergnügen eines einzelnen Forschers, sondern als verpflichtender Standard für alle. In einer Wissenschaft der Wissenschaften wäre der Beobachter, der Forscher, die Forschergruppe, selbst Teil des Untersuchungsgegenstandes und damit in der zugehörigen Meta-Theorie aufzuhellen.

Anmerkung: Im Rahmen der Theorie des Engineering gibt es solche Ansätze schon länger, da das Scheitern eines Engineeringprozesses ziemlich direkt auf die Ingenieure zurück schlägt; von daher sind sie äußerst interessiert daran, auf welche Weise der Faktor Mensch — also auch sie selbst — zum Scheitern beigetragen hat. Hier könnte die Wissenschaft eine Menge von den Ingenieuren lernen.

Neben den vielen Eigenschaften, die man am homo sapiens entdecken kann, erscheinen mir drei von herausragender Bedeutung zu sein, was sich allerdings erst so richtig zeigt, wenn man sie im Zusammenspiel betrachtet.

Faktor 1: Dass ein homo sapiens einen Körper [B, body] mit eingebautem Gehirn [b, brain] hat, unterscheidet ihn nicht unbedingt von anderen Lebensformen, da es viele Lebensformen im Format Körper mit eingebautem Gehirn gibt. Dennoch ist schon mal festzuhalten, dass der Gehirn-Körper [b_B] eines homo sapiens einen Teil der Eigenschaften seiner Realwelt-Umgebung [RW] — und der eigene Körper gehört aus Sicht des Gehirns auch zu dieser Realwelt-Umgebung — ausnahmslos in neuronale Zustände [NN] im Gehirn verwandelt/ transformiert/ konvertiert und diese neuronale Zustände auf vielfältige Weise Prozesshaft bearbeitet (Wahrnehmen, Speichern, Erinnern, Abstrahieren, Assoziieren, bewerten, …). In dieser Hinsicht kann man den Gehirn-Körper als eine Abbildung, eine Funktion verstehen, die u.a. dieses leistet: b_B : RW —–> RW_NN. Will man berücksichtigen, dass diese Abbildung durch aktuell verfügbare Erfahrungen aus der Vergangenheit modifiziert werden kann, dann könnte man schreiben: b_B : RW x RW_NN —–> RW_NN. Dies trägt dem Sachverhalt Rechnung, dass wir das, was wir aktuell neu erleben, automatisch mit schon vorhandenen Erfahrungen abgleichen und automatisch interpretieren und bewerten.

Faktor 2: Allein schon dieser Transformationsprozess ist hochinteressant, und er funktioniert bis zu einem gewissen Grad auch ganz ohne Sprache (was alle Kinder demonstrieren, wenn sie sich in der Welt bewegen, bevor sie sprechen können). Ein homo sapiens ohne Sprache ist aber letztlich nicht überlebensfähig. Zum Überleben braucht ein homo sapiens das Zusammenwirken mit anderen; dies verlangt ein Minimum an Kommunikation, an sprachlicher Kommunikation, und dies verlangt die Verfügbarkeit einer Sprache [L].

Wir wir heute wissen, ist die konkrete Form einer Sprache nicht angeboren, wohl aber die Fähigkeit, eine auszubilden. Davon zeugen die vielen tausend Sprachen, die auf dieser Erde gesprochen werden und das Phänomen, dass alle Kinder irgendwann anfangen, Sprachen zu lernen, aus sich heraus.

Was viele als unangenehm empfinden, das ist, wenn man als einzelner als Fremder, als Tourist in eine Situation gerät, wo alle Menschen um einen herum eine Sprache sprechen, die man selbst nicht versteht. Dem Laut der Worte oder dem Schriftzug eines Textes kann man nicht direkt entnehmen, was sie bedeuten. Dies liegt daran, dass die sogenannten natürlichen Sprachen (oft auch Alltagssprachen genannt), ihre Bedeutungszuweisungen im Gehirn bekommen, im Bereich der neuronalen Korrelate der realen Welt RW_NN. Dies ist auch der Grund, warum Kinder nicht von Geburt an eine Sprache lernen können: erst wenn sie minimale Strukturen in ihren neuronalen Korrelaten der Außenwelt ausbilden konnten, können die Ausdrücke der Sprache ihrer Umgebung solchen Strukturen zugeordnet werden. Und so beginnt dann ein paralleler Prozess der Ausdifferenzierung der nicht-sprachlichen Strukturen, die auf unterschiedliche Weise mit den sprachlichen Strukturen verknüpft werden. Vereinfachend kann man sagen, dass die Bedeutungsfunktion [M] eine Abbildung herstellt zwischen diesen beiden Bereichen: M : L <–?–> RW_NN, wobei die sprachlichen Ausdrücke letztlich ja auch Teil der neuronalen Korrelate der Außenwelt RW_NN sind, also eher M: RW_NN_L <–?–>RW_NN.

Während die grundsätzliche Fähigkeit zur Ausbildung einer bedeutungshaltigen Sprache [L_M] (L :_ Ausrucksseite, M := Bedeutungsanteil) nach heutigem Kenntnisstand angeboren zu sein scheint, muss die Bedeutungsrelation M individuell in einem langen, oft mühsamen Prozess, erlernt werden. Und das Erlernen der einen Sprache L_M hilft kaum bis gar nicht für das Erlernen einer anderen Sprache L’_M‘.

Faktor 3: Neben sehr vielen Eigenschaften im Kontext der menschlichen Sprachfähigkeit ist einer — in meiner Sicht — zusätzlich bemerkenswert. Im einfachen Fall kann man unterscheiden zwischen den sprachlichen Ausdrücken und jenen neuronalen Korrelaten, die mit Objekten der Außenwelt korrespondieren, also solche Objekte, die andere Menschen zeitgleich auch wahrnehmen können. So z.B. ‚die weiße Tasse dort auf dem Tisch‘, ‚die rote Blume neben deiner Treppe‘, ‚die Sonne am Himmel‘, usw. In diesen Beispielen haben wir auf der einen Seite sprachliche Ausdrücke, und auf der anderen Seite nicht-sprachliche Dinge. Ich kann mit meiner Sprache aber auch sagen „In dem Satz ‚die Sonne am Himmel‘ ist das zweite Wort dieses Satzes grammatisch ein Substantiv‘. In diesem Beispiel benutze ich Ausdrücke der Sprache um mich auf andere Ausdrücke einer Sprache zu beziehen. Dies bedeutet, dass ich Ausdrücke der Sprache zu Objekten für andere Ausdrücke der Sprache machen kann, die über (meta) diese Objekte sprechen. In der Wissenschaftsphilosophie spricht man hier von Objekt-Sprache und von Meta-Sprache. Letztlich sind es zwei verschiedenen Sprachebenen. Bei einer weiteren Analyse wird man feststellen können, dass eine natürliche/ normale Sprache L_M scheinbar unendlich viele Sprachebenen ausbilden kann, einfach so. Ein Wort wie Demokratie z.B. hat direkt kaum einen direkten Bezug zu einem Objekt der realen Welt, wohl aber sehr viele Beziehungen zu anderen Ausdrücken, die wiederum auf andere Ausdrücke verweisen können, bis irgendwann vielleicht ein Ausdruck dabei ist, der Objekte der realen Welt betrifft (z.B. der Stuhl, auf dem der Parlamentspräsident sitzt, oder eben dieser Parlamentspräsident, der zur Institution des Bundestages gehört, der wiederum … hier wird es schon schwierig).

Die Tatsache, dass also das Sprachvermögen eine potentiell unendlich erscheinende Hierarchie von Sprachebenen erlaubt, ist eine ungewöhnlich starke Eigenschaft, die bislang nur beim homo sapiens beobachtet werden kann. Im positiven Fall erlaubt eine solche Sprachhierarchie die Ausbildung von beliebig komplexen Strukturen, um damit beliebig viele Eigenschaften und Zusammenhänge der realen Welt sichtbar zu machen, aber nicht nur in Bezug auf die Gegenwart oder die Vergangenheit, sondern der homo sapiens kann dadurch auch Zustände in einer möglichen Zukunft andenken. Dies wiederum ermöglicht ein innovatives, gestalterisches Handeln, in dem Aspekte der gegenwärtigen Situation verändert werden. Damit kann dann real der Prozess der Evolution und des ganzen Universums verändert werden. Im negativen Fall kann der homo sapiens wilde Netzwerke von Ausdrücken produzieren, die auf den ersten Blick schön klingen, deren Bezug zur aktuellen, vergangenen oder möglichen zukünftigen realen Welt nur schwer bis gar nicht herstellbar ist.

Hat also ein entwickeltes Sprachsystem schon für das Denken selbst eine gewisse Relevanz, spielt es natürlich auch für die Kommunikation eine Rolle. Der Gehirn-Körper transformiert ja nicht nur reale Welt in neuronale Korrelate b_B : RW x RW_NN —–> RW_NN (mit der Sprache L_B_NN als Teil von RW_NN), sondern der Gehirn-Körper produziert auch sprachliche Ausdrücke nach außen b_B : RW_NN —–> L. Die sprachlichen Ausdrücke L bilden von daher die Schnittstelle zwischen den Gehirnen. Was nicht gesagt werden kann, das existiert zwischen Gehirnen nicht, obgleich es möglicherweise neuronale Korrelate gibt, die wichtig sind. Nennt man die Gesamtheit der nutzbaren neuronalen Korrelate Wissen dann benötigt es nicht nur eine angemessene Kultur des Wissens sondern auch eine angemessene Kultur der Sprache. Eine Wissenschaft, eine empirische Wissenschaft ohne eine angemessene (Meta-)Sprache ist z.B. schon im Ansatz unfähig, mit sich selbst rational umzugehen; sie ist schlicht sprachlos.

EIN NEUES UNIVERSUM ? !

Betrachtet man die kontinuierlichen Umformungen der Energie-Materie vom Big Bang über Gasnebel, Sterne, Sternenhaufen, Galaxien und vielem mehr bis hin zur Entstehung von biologischem Leben auf der Erde (ob auch woanders ist komplexitätstheoretisch extrem unwahrscheinlich, aber nicht unmöglich), dort dann die Entwicklung zu Mehrzellern, zu komplexen Organismen, bis hin zum homo sapiens, dann kommt dem homo sapiens eine einzigartig, herausragende Rolle zu, der er sich bislang offensichtlich nicht richtig bewusst ist, u.a. möglicherweise auch, weil die Wissenschaften sich weigern, sich professionell mit ihrer eigenen Irrationalität zu beschäftigen.

Der homo sapiens ist bislang das einzig bekannte System im gesamten Universum, das in er Lage ist, die Energie-Materie Struktur in symbolische Konstrukte zu transformieren, in denen sich Teile der Strukturen des Universums repräsentieren lassen, die dann wiederum in einem Raum hoher Freiheitsgrade zu neue Zuständen transformiert werden können, und diese neuen — noch nicht realen — Strukturen können zum Orientierungspunkt für ein Verhalten werden, das die reale Welt real transformiert, sprich verändert. Dies bedeutet, dass die Energie-Materie, von der der homo sapiens ein Teil ist, ihr eigenes Universum auf neue Weise modifizieren kann, möglicherweise über die aktuellen sogenannten Naturgesetze hinaus.

Hier stellen sich viele weitere Fragen, auch alleine schon deswegen, weil der Wissens- und Sprachaspekt nur einen kleinen Teil des Potentials des homo sapiens thematisiert.

Brexit – Computerinterface – Zukunft. Wie hängt dies zusammen?

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de
19.-20.Oktober 2019

Aktualisierung: 3.Nov.2019 auf dieser Seite

LEITGEDANKE

Wenn das, was wir nicht sehen, darüber entscheidet, was wir sehen,
dann lohnt es sich, für einen Moment inne zu halten, und sich darüber klar
zu werden, was wir tun, wenn wir versuchen, die Welt zu verstehen.

INHALT

1 Der Brexit als Lehrstück … 1
2 Das Unsichtbare in Allem 3
3 Computer-Interface als ein Stück Alltag 4
4 Wir als Teil von BIOM I und II 6
5 Homo Sapiens im Blindflug? 9
6 Epilog 11

DOKUMENT (PDF)

KURZKOMMENTAR

Der Text des Dokuments ist das Ergebnis von all den vorausgegangenen Blogeinträgen bis jetzt! Es ist die erste Zusammenschließung von verschiedenen großen Themen, die bislang im Blog getrennt diskutiert wurden. Es ist die große ‚Vereinheitlichung‘ von nahezu allem, was der Autor bislang kennt. Vielleicht gelingt es, dieser Grundintention folgend, diesen Ansatz weiter auszuarbeiten.

KURZKOMMENTAR II

Der Text ist aus philosophischer Perspektive geschrieben, scheut nicht die Politik, nimmt den Alltag ernst, nimmt sich die Digitalisierung vor, bringt die Evolutionbiologie zentral ins Spiel, und diagnostiziert, dass die aktuellen smarten Technologien, insbesondere die neuen Smart City Ansätze, schlicht zu wenig sind. Die ganzen nicht-rationalen Faktoren am Menchen werden nicht als lästiges Beiwerk abgeschüttelt, sondern sie werden als ein zentraler Faktor anerkannt, den wir bislang zu wenig im Griff haben.

ERGÄNZUNG 3.Nov.2019

In dem PDF-Dokument wird erwähnt, dass die Brexit-Entscheidung in England im Vorfeld massiv aus dubiosen Quellen beeinflusst worden ist. Im PDF-Dokument selbst habe ich keine weiteren Quellenangaben gemacht. Dies möcte ich hier nachholen, da es sich um einen explosiven Sachverhalt handelt, der alle noch bestehenden demokratischen Gesellschaft bedroht. Da ds ZDF und Phoenix die Angaben zu immer wieder neuen Terminen machen, sind die zugehörigen Links möglicherweise immer nur zeitlich begrenzt verfügbar.

Der Film „Angriff auf die Demokratie. Wurde der Brexit gekauft?“ von Dirk Laabs wird einmal in einem Text kurz beschrieben, und es wird ein Link auf youtube angegeben, wo man den Film als Video abrufen kann.

Hier aus dem Worlaut der Ankündigung:

„Die britische Wahlkommission ist überzeugt: Es gibt Anhaltspunkte dafür, dass große Teile der Gelder für eine Kampagne vor dem Brexit-Referendum aus dubiosen Quellen stammen.

„Im Fokus steht der britische Geschäftsmann Arron Banks, Strippenzieher und enger Freund des ehemaligen Ukip-Anführers Nigel Farage. Über seine Offshore-Konten sollen fast neun Millionen Pfund Spenden geflossen sein.“

Die Recherchen des ZDF legen nahe, „dass Wähler verdeckt und so effektiv wie möglich beeinflusst werden sollten.“ Es werden nicht nur die Geldströme vefolgt, sondern der ZDFzoom-Autor Dirk Laabs „redet mit Insidern aus der Kampagne und konfrontiert ihren Kopf, den ehemaligen Chef der Ukip, Nigel Farage. Farage redet im Interview mit dem ZDF auch darüber, welchen Einfluss US-amerikanische Berater für die Kampagne hatten. Steve Bannon, früherer Berater von US-Präsident Trump, war einer der wichtigen Berater in diesem Spiel.“

„Konkret geht es um millionenschwere Kredite, die die Pro-Brexit-Kampagne von Banks erhalten haben soll. Demnach stammte das Geld möglicherweise nicht von ihm selbst, sondern von Firmen mit Sitz auf der Isle of Man und in Gibraltar, die sich damit in den Wahlkampf eingemischt hätten. Mittlerweile ermittelt die National Crime Agency. Sie soll die bislang verschleierte Kampagnen-Finanzierung offenlegen.“

„Nigel Farage spricht im Interview mit dem „ZDFzoom“-Autor Dirk Laabs ganz offen darüber, wie eng die Lager zusammengearbeitet haben und wie wichtig auch der ehemalige Trump-Berater Steve Bannon für die Kampagne in Großbritannien war“ … Ein Whistleblower, der für die Leave-Kampagne gearbeitet hat, ist überzeugt: „Die verschiedenen Brexit-Kampagnen brachen die Gesetze, griffen dabei auf ein ganzes Netzwerk von Firmen zurück, um mehr Geld ausgeben zu können. Ohne diese Betrügereien wäre das EU-Referendum anders ausgegangen.“

„ZDFzoom“-Autor Dirk Laabs geht in der Dokumentation den Fragen nach: „Mit welchen fragwürdigen Methoden wurde die Mehrheit der Briten vom Brexit überzeugt? Welche Interessen und Profiteure stecken dahinter? Und Laabs fragt bei Akteuren in Brüssel nach, welche Maßnahmen mit Blick auf die Europawahl ergriffen werden sollten und überhaupt könnten, um den Digital-Wahlkampf der Zukunft zu regulieren oder kontrollierbarer zu machen.“

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

SEITENSPRUNG: Demographie und Philosophie?

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 7.-9.April 2019
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

In den letzten Beiträgen dieses Blogs ging es oft um das Thema Freiheit und die Werte = Präferenzen, die man benötigt, um mit seiner Freiheit eine Richtung einzuschlagen, die dann — vielleicht — Zustände ermöglicht/ erreicht, die im Sinne der Präferenzen gut sind. Zugleich ging es auch um Rahmenbedingungen, die eine Umsetzung der Freiheit ermöglichen oder behindern. Dies mag auf den ersten Blick abstrakt klingen. Hier eines von vielen Beispielen, wie diese Überlegungen sehr schnell sehr konkret werden können. In den letzten Tagen hatte ich zu Übungszwecken (ganz anderer Zusammenhang) ein kleines Computerprogramm geschrieben, das sich auf den ersten Blick mit etwas völlig Unbedeutendem beschäftigt, was sich mit nur drei Zahlen beschreiben lässt. Während ich das tat, merkte ich, dass diese drei Zahlen alles andere als unbedeutend sind, ja, dass sie sogar geradezu eine ‚philosophische Aura‘ besitzen, die viele der Grundfragen, die in diesem Blog schon diskutiert wurden, in einem anderen Licht erscheinen lassen. Diese Eindrücke führten zu diesem Blogeintrag.

PYTHON – Nur Python

Die Programmiersprache des kleinen Computerprogramms war python und das Übungsproblem war die Bevölkerungsentwicklung, allerdings fokussiert auf den minimalen Kern, der nur drei Größen (letztlich Zahlen) berücksichtigte: die aktuelle Bevölkerungsanzahl (p), die jährliche Geburtenrate (br, birthrate) umgelegt auf die Gesamtbevölkerung, und die jährliche Sterberate (dr, deathrate). Diese drei Größen wurden verbunden durch den einfachen Zusammenhang p’=p+(p*br)-(p*dr). (Für die Beschreibung des Programms sowie den Quellkode des Programms selbst siehe die Seite hier mit den ersten fünf Einträgen).(Anmerkung: es geht natürlich noch einfacher, nur die aktuelle Bevölkerungszahl p sowie die gemittelte Wachstumszahl g).

WELTBEZUG?

Was in der Computersprache nur drei verschiedene Zeichenketten sind {‚p‘, ‚br‘, ‚dr‘}, die als Namen für Speicherbereiche dienen, in die man irgendwelche Werte hineinschreiben kann, kann man in Beziehung setzen zur Ausschnitten der realen Welt (RW). Durch diese In-Beziehung-Setzung gibt man den neutralen Zeichenketten eine Interpretation. Im vorliegenden Fall wurde die Zeichenkette ‚p‘ betrachtet als Ausdruck, der die Anzahl der aktuell auf der Welt lebenden Menschen repräsentieren soll. Entsprechend die Zeichenkette ‚br‘ die jährliche Geburtenrate und die Zeichenkette ‚dr‘ die jährliche Sterberate.

Wenn man die entsprechenden Zahlen hat, ist einen Rechnen damit einfach. Wenn man im Computerprogramm — ein ganz normaler Text — den Zusammenhang p’=p+(p*br)-(p*dr) notiert hat, dann kann der Computer mit diesen Zeichenketten ganz einfach rechnen. Sei P=1000, br=1.9 und dr=0.77, dann liefert der Zusammenhang p‘ = 1000 + (1000 * 0.019) – (1000 * 0.0077) = 1000 + 19 – 7.7 = 1011.3, und da es keine Drittel-Menschen gibt wird man abrunden auf 1011. Dies bedeutet, im nachfolgenden Jahr wächst die Bevölkerungszahl um 11 Mitglieder von 1000 auf 1011.

DATENGEWINNUNG

Eine Institution, die seit 1948 begonnen hat, systematisch die demographischen Daten der Weltbevölkerung zu erheben, sind die Vereinigten Nationen (UN). Eine wichtige Seite zur Bevölkerungsentwicklung findet sich hier: http://data.un.org/Default.aspx Für jedes Jahr gibt es dann eine Aktualisierung mit einer Vielzahl von Tabellen, die sehr viele wichtige Parameter beleuchten: https://population.un.org/wpp/Download/Standard/Population/

Beschränkt man sich auf die drei Größen {p, br, dr}, dann kann man anhand dieser Tabellen z.B. folgenden Ausgangsgrößen für die absoluten Bevölkerungszahlen p der Welt von 2010 bis 2015 bekommen:

201020112012201320142015
6 958 169 7 043 009 7 128 177 7 213 426 7 298 4537.383.009

Dazu gibt es als allgemeine Geburtsrate (BR) und Sterberate (DR) für die Zeit 2010 – 2015: BR = 1.9% und BR = 0.77%.

Vertieft man sich in diese Tabellen und die vielen Anmerkungen und Kommentare, wird sehr schnell klar, dass es bis heute ein großes Problem ist, überhaupt verlässliche Zahlen zu bekommen und dass das endgültige Zahlenmaterial daher mit Unwägbarkeiten behaftet ist und nicht ohne diverse Schätzungen auskommt.

DATEN HOCH RECHNEN

Tut man aber für einen Moment mal so, als ob diese Zahlen die Weltwirklichkeit einigermaßen widerspiegeln, dann würde unser kleines Computerprogramm (Version: pop0e.py) folgende Zahlenreihen durch schlichtes Rechnen generieren:

  • Population number ? 6958169

  • Birthrate in % ? 1.9

  • Deathrate in % ? 0.77

  • How many cycles ? 15

  • What is your Base Year ? 2010

  • Year 2010 = Citizens. 6958169

  • Year 2011 = Citizens. 7036796

  • Year 2012 = Citizens. 7116312

  • Year 2013 = Citizens. 7196726

  • Year 2014 = Citizens. 7278049

  • Year 2015 = Citizens. 7360291

  • Year 2016 = Citizens. 7443462

  • Year 2017 = Citizens. 7527573

  • Year 2018 = Citizens. 7612635

  • Year 2019 = Citizens. 7698658

  • Year 2020 = Citizens. 7785653

  • Year 2021 = Citizens. 7873630

  • Year 2022 = Citizens. 7962602

  • Year 2023 = Citizens. 8052580

  • Year 2024 = Citizens. 8143574

  • Year 2025 = Citizens. 8235596

Bild 1: Einfacher Plot der Bevölkerungszahlen von Jahr 1 = 2010 bis Jahr 16 = 2025 (man könnte natürlich die Beschriftung der Achsen erheblich verbessern; zur Übung empfohlen :-))

MÖGLICHE FRAGEN

An dieser Stelle sind viele Fragen denkbar. Mit Blick auf das Freiheitsthema bietet es sich an, den Begriff der Geburtenrate näher zu betrachten.

Geburtenrate und Frauen

Die Geburtenrate hängt (aktuell) von jenen Frauen ab, die Kinder gebären können und dies — unter den unterschiedlichsten Umständen — auch tun. Wie aber die Zahlen aus der Vergangenheit zeigen und wie man aufgrund seiner eigenen Lebenserfahrung weiß, schwanken die Zahlen der Geburten von Gegend zu Gegend, innerhalb des Zeitverlaufs. Es gibt vielfältige Faktoren, die die Anzahl der Geburten beeinflussen.

Dynamik der Evolution

Der grundlegende Faktor ist sicher, dass die biologische Evolution im Laufe von 3.8 Mrd. Jahren bis vor kurzem noch keine andere Lösung für die menschliche Fortpflanzung gefunden hatte als eben die heute bekannte: Befruchtung der Frau und Austragen des befruchteten Eis durch eben die Frau.

Biologisch induzierte gesellschaftliche Rollen

In der Vergangenheit bedeutete dies, dass die weiblichen Exemplare des Homo sapiens generell eine besondere gesellschaftliche Funktion innehatten, da ihre Gebärfähigkeit unabdingbar für das Überleben der jeweiligen Population war. Von daher ist es nicht verwunderlich, dass diese überlebenswichtige Funktion gesellschaftlich mit einer Fülle von gesellschaftlichen Normen und Verhaltensmustern abgesichert wurde. Letztlich waren die Frauen dadurch Gefangene der jeweiligen gesellschaftlichen Verhältnisse und der hohe Anteil an frauenunterdrückenden Elementen in allen Kulturen dieser Welt ist von daher kein Zufall. Dass die Religionen in allen Zeiten und in allen Kulturen dazu instrumentalisiert wurden, die gesellschaftliche Reglementierung der Frauen zu unterstützen, spricht nicht für diese sogenannten Religionen.

Evolutionäres Befreiungspotential

Seit den letzten Jahrzehnten hat die Evolution einen Punkt erreicht, an dem partiell neue Techniken existieren bzw. sich immer mehr als mögliche neue Techniken andeuten, durch die die Fortpflanzung von den Frauen immer mehr losgelöst werden kann, so dass die anhaltende Gefangenschaft der Frauen durch das Gebärprivileg sich lockern oder ganz auflösen könnte. Durch moderne demokratische, säkularisierte und industrialisierte Gesellschaftsformen hat die Befreiung der Frauen aus den klassischen engen Lebensmustern zwar schon begonnen, aber durch die nach hinkende Gebärtechnologie ist die moderne Frau einerseits noch eingebunden in die Gebärverantwortung, andererseits in ein modernes Berufsleben, und die gesellschaftliche Unterstützung für diese Doppelbelastung ist noch vielfach unzureichend.

Veraltete Ethiken

Bislang sind es fragwürdige alte Ethiken, die sich der evolutionären Entwicklung entgegen stellen. Bilder einer statischen Welt werden zum Maßstab genommen für eine Welt, die es so weder jemals gab noch jemals geben wird. Die Welt ist grundlegend anders als die bekannten Ethiken es uns einreden wollen. Neue allgemein akzeptierte Ethiken sind aber aktuell nirgends in Sicht. Die alten Weltbilder haben sich tief in die Gehirne eingenistet. Wo sollen die neuen Sichten herkommen?

Solange die Loslösung der menschlichen Fortpflanzung noch nicht von den Frauen gelöst werden kann, werden sehr viele konkrete Umstände das Entscheiden und Verhalten von Frauen beeinflussen. Je freier eine Gesellschaft wird, je selbstbestimmter eine Frau in solch einer Gesellschaft leben kann, und je mehr einer Frau auch reale materielle Ressourcen zur Verfügung stehen, um so eher wird sie mit entscheiden, ob sie Kinder haben will, wie viele, welche Erziehung, und vieles mehr.

Verunmöglichung von Freiheit

Dass heute Kinder in Situationen geboren werden, wo Armut, Krankheit, Arbeitslosigkeit und vieles mehr unausweichliche Folgen eines unkontrollierten Geborenwerdens sind, ist wohl kaum ethisch zu verantworten. Andererseits verbietet der grundlegende Respekt vor dem Leben, dass Dritte das Leben von anderen ohne deren Zustimmung wegnehmen.

Es obliegt der Gesellschaft als Ganzer, dafür zu sorgen, dass jeder einzelne in die Lage versetzt wird, die richtigen Entscheidungen fällen zu können. Ohne entsprechenden materiellen Aufwand ist eine verantwortlich gelebte Freiheit nicht möglich.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

EPISTEMISCHE SCHOCKWELLEN. Die letzten 3500 Jahre

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 20.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Die Diskussion im Kontext des letzten Textes von Freud zur Psychoanalyse lässt erkennen, wie sich das Bild von uns Menschen über uns selbst dadurch in gewisser Weise ändern kann und letztlich dann ändert, wenn wir uns auf diese Gedanken einlassen. Die Einbeziehung des ‚Unbewussten‘ in das Gesamtbild des Systems homo sapiens verschiebt so manche Beziehungen im Gefüge des menschlichen Selbstbildes, und nicht nur das, es wirkt sich auch aus auf das Gesamtbild der empirischen Wissenschaften, auf ihr Gesamtgefüge. Dies hatte sich ja auch schon angedeutet in der vorausgehenden Diskussion des Buches von Edelman, die noch nicht abgeschlossen ist.

Dies hat mich angeregt, über Freud und Edelman hinausgehenden einige der epistemischen Schockwellen zusammen zu stellen, denen das menschliche Selbstverständnis in den letzten ca. 3500 Jahren ausgesetzt war. Dabei muss man sich darüber im Klaren sein, dass es natürlich immer nur eine Minderheit war, die überhaupt an den übergreifenden Erkenntnissen teilhaben konnte, und selbst diese Minderheit zerfällt in unterschiedliche Subgruppen ohne ein kohärentes Gesamtbild.

EPISTEMISCHE SCHOCKWELLEN

Unter ‚Schockwellen‘ werden hier energetische Ereignisse verstanden, die nur gelegentlich auftreten, und die geeignet sind, bestehende Strukturen zumindest zum Schwingen, zum Erbeben zu bringen, wenn nicht gar zu ihrer Zerstörung führen. ‚Epistemisch‘ bezieht sich auf die Dimension des Erkennens, des Verstehens, zu dem Exemplare des Homo sapiens fähig sind. ‚Epistemische Schockwellen‘ sind also Ereignisse, durch die das Selbstverständnis, die Weltbilder der Menschen in Schwingungen versetzt wurden bzw. sich neu aufbauen mussten.

Die folgende Zusammenschau solcher epistemischer Schockwellen ist in keiner Weise vollständig, weitgehend nicht differenziert genug, rechtfertigt sich aber dadurch, dass es darum geht in einer überschaubaren Weise einen Grundeindruck von der Dynamik des Geistes zu vermitteln, die dem Geschehen des biologisch fundierten Lebens innewohnt.

CLUSTER RELIGION

 

Stichworte zu 'Epistemische Schockwellen', Teil 1. ca. -1500 bis ca. 1500
Stichworte zu ‚Epistemische Schockwellen‘, Teil 1. ca. -1500 bis ca. 1500

Zwischen ca. -1500 bis etwa 650 gab mindestens 8 große das Weltverstehen prägende Ereignisse – daneben viele andere, weitere –, die wir im Nachgang als ‚Religionen‘ bezeichnen. Religionen zeichnen sich aus durch ‚Gründer‘, durch ‚Botschaften‘, durch ‚Erfahrungen‘ und dann meistens nachfolgend durch ‚Regeln‘ und Bildung von ‚Organisationsformen‘. Sie erheben einen Anspruch auf ‚Deutung der Welt‘ mit ‚Sinn‘, ‚Werten‘ und ‚Spielregeln‘. Sie versprechen auch den Kontakt zu eine Letzten, Größten, Umfassenden, Endgültigen, dem alles andere unter zu ordnen ist. Vielfach gehen diese Versprechungen auch einher mit speziellen ‚außergewöhnlichen Erlebnissen‘, die im einzelnen stattfinden.

In Vorderasien und Europa waren dies vor allem das Duo Judentum-Christentum und der Islam. Während diese sich explizit auf einen ‚Schöpfer‘ bezogen, kam der indische Subkontinent neben der vielfältigen Götterwelt des Hinduismus in seinem Grundtenor — realisiert im Buddhismus — ohne einen expliziten Schöpfer aus, allerdings nicht ohne eine tiefgreifende Existenzerfahrung des einzelnen Menschen, der sich durch einen geeigneten Lebensstil und Meditation möglichst weitgehend von einem normalen Alltag und seinen vielfältigen Spannungen isolierte.

So verschieden Jugentum-Christentum, Islam auf der einen Seite und Indischer Existentialismus auf der anderen Seite auf den ersten Blick wirken können, kann man aber dennoch auffällige strukturelle Parallelen erkennen.

Die sprachliche Seite der genannten Religionen tendiert dazu, nicht die Weite und Vielfalt der Welt zu kommunizieren, keine weiterreichende Erkenntnisse, sondern die Sprache hat einzig den Zweck, eine bestimmte, abgegrenzte Idee zu kommunizieren, diese abzugrenzen von allem anderen, bis dahin, dass alle Abweichungen diskreditiert werden. Jene Menschen, die sich sprachlich von der ‚Norm‘ entfernen sind Abweichler, Dissidenten, Ungläubige, Verräter, Feinde. Die Sprache wird also nicht gesehen als ein offener, lebendiger, dynamischer Raum von ‚Wahrheit‘, die sich weiter entwickeln kann, sondern als eine symbolische Fessel, eine symbolische Mauer, die einige wenige Ideen abgrenzen sollen. Auch der Buddhismus, der eigentlich sein Fundament in einer schwer beschreibbaren individuellen Existenzerfahrung sieht, praktiziert Sprache überwiegend als Gefängnis.

Betrachtet man sich die Geschichte dieser Religionen bis heute, dann ist diese Starrheit unübersehbar. Alle modernen Erkenntnisse und Entwicklungen prallen an der Sprache dieser Religionen ab.

Neben der sprachlichen Dimension haben alle diese Religionen auch eine ‚Erlebnisdimension‘, oft auch ‚Spiritualität‘ oder ‚Mystik‘ genannt. Einzelne, Gruppierungen, Bewegungen erzähltem davon, schrieben es auf, dass sie ‚besondere, tiefgreifende Erlebnisse‘ hatten, die ihnen ‚klar gemacht haben‘, was wirklich ‚wichtig‘ ist, ‚worin der Sinn des Lebens‘ liegt, Erlebnisse, die ihnen ‚Frieden‘ geschenkt haben, ‚Erfüllung‘, ‚Wahrheit‘. Und diese Erlebnisse waren immer so stark, dass sie diese Menschen aus allen Schichten dazu bewegt haben, ihr Lebens radikal zu ändern und von da an eben ‚erleuchtet‘ zu leben. Diese Menschen gab es nicht nur im Umfeld des Buddhismus, sondern auch zu Tausenden, Zehntausenden im Umfeld des Judentum-Christentums.

Solange diese religiösen Bewegungen sich im Umfeld der etablierten religiösen Überzeugungen und Praktiken bewegen wollten, mussten sie sich – wie immer auch ihre individuellen Erlebnisse waren – diesem Umfeld anpassen. In vielen Fällen führte dies auch zu Absetzbewegungen, zur Entwicklung neuer religiöser Bewegungen. Das Problem dieser erlebnisbasierten Bewegungen war, dass sie entweder nicht die Sprache benutzen durften, die sie zur Beschreibung ihrer Erlebnisse brauchten (da nicht erlaubt), oder aber, sie benutzten eine neue Sprache, und dies führte zum Konflikt mit den etablierten Sprachspielen.

Unter den vielen hunderten Bewegungen allein im Bereich Judentum-Christentum, die z.T. viele tausend, ja zehntausend  Mitglieder hatten und dabei oft auch materiell sehr wohlhabend bis reich wurden, möchte ich zwei kurz erwähnen: die Reformation angefeuert von Martin Luther und den Jesuitenorden, angefeuert von Ignatius von Loyola. Im historischen Klischee werden beide Bewegungen oft als direkte Gegner skizziert, da der Jesuitenorden kurz nach Beginn der Reformationsbewegung gegründet wurde und der katholische Papst gerade diesen Orden auch zur ‚Bekämpfung der Reformation‘ einsetzte. Dieses Bild verdeckt aber die wirklich interessanten Sachverhalte.

Der Jesuitenorden entstand aus den spirituellen Erfahrungen eines baskischen Adligen, deren innere Logik, Beschreibung und Praxis, im Lichte der Erkenntnisse der modernen Psychologie (und Psychoanalyse) stand halten würde. Außerdem war der Orden aufgrund dieser Spiritualität extrem weltoffen, wissenschaftsaffin, und revolutionierte die damals beginnende christliche Missionierung der Welt, indem jeweils die Kultur der verschiedenen Erdteile studiert und übernommen und sogar gegen zerstörerische Praktiken der europäischen Kolonisatoren geschützt wurden. Genau dieses wahre Gesicht des Ordens mit einer radikal individuell-erlebnisbasierten Spiritualität und daraus resultierenden Weltoffenheit und Menschlichkeit führte dann zum Verbot und Aufhebung des Ordens weltweit, verbunden mit Einkerkerungen, Folter und Tod ohne Vorankündigung. Das korrupte Papsttum ließ sich damals von dem portugiesischen und spanischen Hof erpressen, die ihre menschenverachtende Geschäfte in den Kolonien, speziell Südamerika, bedroht sahen. Dies war nicht die einzige Aufhebung und Misshandlung, die der Orden seitens des Papstums erfuhr. Während Luther sich gegen das Papsttum erhob und es auf einen Konflikt ankommen ließ, blieben die Jesuiten dem Papst treu und wurden vernichtet.

Diese Minigeschichte ließe sich aber zu einem großen Thema erweitern, da eben die sprachlich fixierten Religionen generell ein Problem mit Wahrheit und damit mit jeglicher Art von Erfahrung haben. Die Akzeptanz individueller Erfahrung als möglicher Quell von ‚Wahrheit‘, möglicherweise einer weiter reichenden alternativen Wahrheit zu der sprachlich fixierten (und damit eingesperrten) Wahrheit der Religionen, eine solche Akzeptanz würde das Wahrheitsmonopol dieser Religionen aufheben. Bislang hat keine der genannten Religionen es geschafft, von sich aus ihr problematisches Wahrheitsmonopol in Frage zu stellen.

JUDENTUM – CHRISTENTUM – PHILOSOPHIE

In der Zeit vor den modernen empirischen Wissenschaften existierte wissenschaftliches Denken entweder gar nicht oder in enger Verbindung mit dem philosophischen Denken bzw. der Medizin.

In der alten und klassischen Griechischen Philosopie (ca. -800 bis -200) wurde das Weltverstehen in vielen Bereichen erstmalig sehr grundlegend reflektiert, unabhängig von bestimmten religiösen Überzeugungen, obgleich natürlich auch diese Denker nicht im luftleeren Raum lebten sondern in konkreten Kulturen mit einer damals üblichen Moral, Ethik, Spielregeln, Sprachspielen.

Unter den vielen bedeutenden Konzepten war das größte systematische Konzept wohl jenes von Aristoteles, Schüler Platons, und den an ihn anschließenden Schulen. Während dieses griechische Denken nach der Eroberung Griechenlands durch die Römer in Mittel- und Westeuropa bis zum Jahr 1000 mehr oder weniger unbekannt war (Kriege, radikal anti-wissenschaftliche Einstellung der katholischen Kirche) war der damalige Islam sehr offen für Wissen. Das griechische Denken war im Islam weitgehend bekannt, lag entsprechend in arabischen Übersetzungen vor, und durch eine Vielzahl von Schulen, Bildungsstätten und großen Bibliotheken (z.T. mehrere hundert Tausend Bücher!) wurde dieses Wissen gepflegt und weiter entwickelt (welcher Kontrast zum heutigen Islam!). Und nur über diese Umweg über den hochgebildeten Islam mit Übersetzungsschulen in Spanien kam das Wissen der Griechen ab ca. 1000 wieder in das christliche Mittel- und West-Europa.

Mit dem Entstehen eines aufgeschlosseneren Bildungssystem in Europa wanderten die griechischen Gedanken über Bücher und Gelehrte wieder in europäische Bildungsstätten ein. Es gab eine Zeit der intensiven Auseinandersetzung zwischen bisheriger christlicher Theologie und Aristoteles. Auf dem Höhepunkt der begrifflichen Integration von christlichem Glauben und Aristotelischer Weltsicht gab es aber ‚Abspaltungstendenzen‘ in mehreren Bereichen.

POLITIK – WISSENSCHAFT – SPIRITUALITÄT

Das zunehmend freie und kritische Denken begann mit der Infragestellung der bis dahin waltenden absolutistischen Machtstrukturen.

Das methodisch geschulte universitäre Denken begann, über die aristotelischen Konzepte hinaus zu denken. Anknüpfungspunkte gab es genügend.

Das individuelle Erleben der Menschen, ihre Frömmigkeit, ihre Spiritualität suchte nach neuen Wegen, benutzte eine neue Sprache, um sich besser ausdrücken zu können.

Das neue politische Denken führte später zur französischen Revolution und vielen ähnlichen politischen Erneuerungsbewegungen.

Das neue philosophische Denken führt alsbald zum Bildung der neuen empirischen Wissenschaften mit neuer Logik und Mathematik.

Die neue Spiritualität lies viele neue religiöse Bewegungen entstehen, die quer zu allen etablierten Glaubensformen lagen, u.a. auch zur Reformation.

PHILOSOPHIE – WISSENSCHAFT

Stichworte zu 'Epistemische Schockwellen', Teil2. ca. ca. 1550 bis ca.2018
Stichworte zu ‚Epistemische Schockwellen‘, Teil2. ca. ca. 1550 bis ca.2018

Aus der Vielzahl der philosophischen Denker bieten sich vier besonders an: Descartes, Kant, Wittgenstein und Carnap.

Von heute aus betrachtet markieren diese Vier entscheidende Umbrüche des philosophischen Denkens, das von den Entwicklungen in der Logik, Mathematik,Physik, Geowissenschaften, Biologie und Psychologie zusätzlich profitiert hat und noch immer profitiert.

Descartes versuchte zu klären, inwieweit sich die Wahrheitsfrage nur durch Rekurs auf das eigene Denken lösen ließe. Sein Fixpunkt in der Gewissheit des eigenen Denkens (cogito ergo sum) wurde aber erkauft durch einen fortbestehenden Dualismus zwischen Körper (res extensa) und Denken/ Geist (res cogitans), den er mit einem irrationalen Gedanken zu einer Zirbeldrüse zu kitten versuchte.

Kant führte dieses Forschungsprogramm von Descartes letztlich weiter. Sein Vermittlungsversuch zwischen fehlbarer konkreter empirischer Erfahrung und den allgemeinen Prinzipien der Mathematik und des Denkens (des Geistes) ging über Descartes insoweit hinaus, dass er auf eine Zirbeldrüsen-ähnliche Lösung verzichtete und stattdessen davon ausging, dass der Mensch in seinem Denken von vornherein in abstrakten Kategorien wahrnimmt und denkt. Unsere menschliche Konstitution ist so, dass wir so wahrnehmen und Denken. Er konstatierte damit ein Faktum, das wir heute mit all unseren Erkenntnissen nur bestätigen können. Es blieb bei ihm offen, warum dies so ist. Es zeichnet seine intellektuelle Redlichkeit aus, dass er die offenen Enden seiner erkenntnistheoretischen (epistemischen) Analysen nicht krampfhaft mit irgendwelchen Pseudo-Lösungen versucht hat zu vertuschen.

Wittgenstein war der erste, der sich mit dem Funktionieren der Sprache und ihrer Wechselwirkung mit unserem Denken ernsthaft, ja radikal beschäftigte. Während er in seinem Frühwerk noch der Statik der damaligen modernen Logik huldigte, begann er dann später alle diese statischen formalen Konstruktionen in der Luft zu zerreißen, durchlief weh-tuende detaillierte Analysen der Alltagssprache, machte vor nichts Halt, und hinterließ mit seinem frechen und angstfreien Denken einen Trümmerhaufen, dessen Verdienst es ist, den Raum frei gemacht zu haben für einen echten Neuanfang.

Carnap wirkt in diesem Zusammenhang auf den ersten Blick wie ein Antipode zu Wittgenstein, und in der Tat hat er ja das vor-wittgensteinsche Sprachverständnis in seinen Studien zu den formalen Sprachen, zur Logik, zur logischen Semantik weiter angewendet. Allerdings hat er dies dann auch im Kontext der empirischen Wissenschaften getan. Und in diesem Kontext hat sein formal-scholastisches Denken immerhin dazu beigetragen, die Grundstrukturen moderner empirische Theorien mit einem formalen Kern frei zu legen und ihre Eigenschaften zu untersuchen.

Alle diese genannten Ansätze (Kant, Wittgenstein, Carnap) wurden später mehrfach kritisiert, abgewandelt, weiter entwickelt, aber es waren diese Ansätze, die die nachfolgenden Richtungen entscheidend beeinflusst haben.

Ein interessanter Grenzfall ist Freud (s.u.). Irgendwie könnte man ihn auch zur Philosophie rechnen.

LOGIK – MATHEMATIK

Aus heutiger Sicht kann man sich gar nicht mehr vorstellen, dass es eine Zeit gegeben hat, in der die moderne Logik und Mathematik nicht verfügbar war. Nahezu alles, was unseren Alltag ausmacht setzt sehr viel Mathematik als beschreibende Sprache, als Berechnung, als Simulation voraus. Dass mathematisches Denken in den Schulen so wenig – und immer weniger – behandelt wird, ist sehr irritierend.

Logik und Mathematik sind einen weiten Weg gegangen.

Ein Meilenstein ist der Übergang von der klassischen aristotelischen Logik (eng an der Alltagssprache, Einbeziehung inhaltlichen Alltagsdenkens) zur modernen formalen Logik seit Frege (formale Sprache, formaler Folgerungsbegriff).

Eng verknüpft mit der Entwicklung der neuen formalen Logik ist auch die Entwicklung der modernen Mathematik, die entscheidend mit der Erfindung der Mengenlehre durch Cantor ihren Durchbruch fand, und dann mit Russel-Whitehead und Hilbert die Neuzeit erreichte. Keine der modernen Arbeiten in Gebieten wie z.B. Algebra, Topologie, Geometrie sind ohne diese Arbeiten denkbar, ganz zu schweigen von der modernen theoretischen Physik.

EMPIRISCHE WISSENSCHAFTEN

Erste Ausläufer empirischer Wissenschaft gab es schon vor Galilei (man denke z.B. nur an die bahnbrechenden Forschungen zur Medizin von dem islamischen Gelehrten (und Philosophen, Logiker, Theologen!) Avicenna). Doch an der Person Galileis kristallisiert sich der Konflikt zwischen neuem, offenen wissenschaftlichen Denken und dem alten, geschlossenen christlichen Denken. Zudem hat Galilei eben konsequent sowohl eine experimentelle Messmethode angewendet wie auch eine beginnende mathematische Beschreibung. Mit Newton gelang dann eine Fassung von Experiment und Theorie, die atemberaubend war: die Bewegung der Himmelskörper ließ sich nicht nur mit einfachen mathematischen Formeln beschreiben, sondern auch noch mit bis dahin unbekannter Präzision voraus sagen. Es sollte dann zwar noch fast 300 Jahre dauern, bis die moderne Physik eine erste Theorie zur Entstehung des ganzen Weltalls formulieren konnte samt ersten experimentellen Bestätigungen, aber die Befreiung des Denkens von dogmatischen Sprachbarrieren war geschafft. Die Wissenschaft insgesamt hatte sich freigeschwommen.

Schon im 17.Jahrhundert hatte Niels Stensen entdeckt, dass die unterschiedlichen Ablagerungsschichten der Erde in zeitlicher Abfolge zu interpretieren sind und man daher auf geologische Prozesse schließen kann, die die Erde durchlaufen haben muss.

Zwei Jahrhunderte später, schon im 19.Jahrhundert, wurde diese historische Sicht der Erde ergänzt durch Charles Darwin, der am Beispiel der Pflanzen- und Tierwelt auch Hinweise auf eine Entwicklung der Lebensformen fand. Sowohl die Erde als auch die biologischen Lebensformen haben eine Entwicklung durchlaufen, zudem in enger Wechselwirkung.

Fast parallel zu Darwin machte Freud darauf aufmerksam, dass unser ‚Bewusstsein‘ nicht die volle Geschichte ist. Der viel größere Anteil unseres menschlichen Systems ist ’nicht bewusst‘, also ‚unbewusst‘. Das Bewusstsein ‚erzählt‘ uns nur ‚Bruchstücke‘ jener Geschichten, die weitgehend im ‚Nicht-Bewusstein‘ oder ‚Unbewussten‘ ablaufen.

Die weitere Entwicklung der Biologie lieferte viele Argumente, die das Bild von Freud stützen.

Der Versuch von Watson, 1913, die Psychologie als empirische Verhaltenswissenschaft zu begründen, wurde und wird oft als Gegensatz zu Psychoanalyse gesehen. Das muss aber nicht der Fall sein. Mit der Verhaltensorientierung gelang der Psychologie seither viele beeindruckende theoretische Modelle und Erklärungsleistungen.

Von heute aus gesehen, müsste man ein Biologie – Psychologie – Psychoanalyse Cluster befürworten, das sich gegenseitig die Bälle zuspielt.

Durch die Einbeziehung der Mikro- und Molekularbiologie in die Evolutionsbiologie konnten die molekularen Mechanismen der Evolution entschlüsselt werden.Mittlerweile steht ein fast komplettes Modell der biologischen Entwicklung zur Verfügung. Dies erlaubt es sowohl, Kants (als auch Descartes) Überlegungen von den biologischen Voraussetzungen her aufzuklären (z.B. Edelman!), wie auch die Psychologie samt der Psychoanalyse.

COMPUTER

Als Gödel 1931 die Unentscheidbarkeit anspruchsvoller mathematischer Theorien (das fängt bei der Arithmetik an!) beweisen konnte, wirkte dies auf den ersten Blick negativ. Um seinen Beweis führen zu können, benötigte Gödel aber sogenannte ‚endliche Mittel‘. Die moderne Logik hatte dazu ein eigenes Forschungsprogramm entwickelt, was denn ‚endliche Beweismethoden‘ sein könnten. Als Turing 1936/7 den Beweis von Gödel mit dem mathematischen Konzept eines Büroangestellten wiederholte, entpuppte sich dieses mathematische Konzept später als ein Standardfall für ‚endliche Mittel‘. Turings ‚mathematisches Konzept eines Büroangestellten‘ begründete dann die spätere moderne Automatentheorie samt Theorie der formalen Sprachen, die das Rückgrat der modernen Informatik bildet. Das ‚mathematische Konzept eines Büroangestellten‘ von Turing wurde ihm zu Ehren später ‚Turingmaschine‘ genannt und bildet bis heute den Standardfall für das, was mathematisch ein möglicher Computer berechnen kann bzw. nicht kann.

Im weiteren Verlauf zeigte sich, dass gerade das Konzept des Computers ein extrem hilfreiches Werkzeug für das menschliche Denken sein kann, um die Grenzen des menschlichen Wahrnehmens, Erinnerns und Denkens auszugleichen, auszuweiten.

Schon heute 2018 ist der Computer zu einem unverzichtbaren Bestandteil der Gesellschaft geworden. Das Wort von der ‚Digitalen Gesellschaft‘ ist keine Fiktion mehr.

ZEITGEIST

Der extrem kurze Rückblick in die Geschichte zeigt, wie schwer sich die Ausbildung und Verbreitung von Ideen immer getan hat. Und wenn wir uns die gesellschaftliche Realität heute anschauen, dann müssen wir konstatieren, dass selbst in den hochtechnisierten Ländern die gesamte Ausbildung stark schwächelt. Dazu kommt das eigentümliche Phänomen, dass das Alltagsdenken trotz Wissenschaft wieder vermehrt irrationale, gar abergläubische Züge annimmt, selbst bei sogenannten ‚Akademikern‘. Die Herrschaft von Dogmatismen ist wieder auf dem Vormarsch. Die jungen Generationen in vielen Ländern werden über mobile Endgeräte mit Bildern der Welt ‚programmiert‘, die wenig bis gar nicht zu wirklichen Erkenntnissen führen. Wissen als solches, ist ‚wehrlos‘; wenn es nicht Menschen gibt, die mit viel Motivation, Interesse und Ausdauer und entsprechenden Umgebungen zum Wissen befähigt werden, dann entstehen immer mehr ‚Wissens-Zombies‘, die nichts verstehen und von daher leicht ‚lenkbar‘ sind…

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

DESCARTES IMPLODIEREN LASSEN. Dualität mutiert zur Monade

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
14.Juli 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

IDEE

Bei der Lektüre des Buches ’Quanten sind anders’ (2006) von Görnitz [1] bin ich auf den Seiten 27-49 über Erklärungen gestolpert, die man so zwar eigentlich in allen heutigen Interpretationen zu Descartes wiederfindet, die aber deswegen nicht unbedingt richtig sein müssen. Möglicherweise angeregt durch den Erklärungskontext bei Görnitz sowie meinen eigenen Überlegungen in verschiedenen Zusammenhängen (u.a. in den Rekonstruktionen von Stace, insbesondere ab Teil 3  und 4) erscheint mir die schnelle Etikettierung von Descartes Ansatz als Dualist nur bedingt hilfreich, zumindest wenn man über ihn vom heutigen Wissensstand aus spricht.

I. DESCARTES

a) Descartes klassisch interpretiert: Vereinfachend kann man die klassische Interpretation von Descartes in zwei Punkten zusammenfassen.1) Bei der Suche nach einem ’Ankerpunkt’ für sein Denken meinte Descartes in der ’Gewissheit seiner eigenen Denktätigkeit’ einen Punkt gefunden zu haben , von dem aus sich alles weitere – die verschiedenen wechselnden Inhalte und Formen – sortieren und diskutieren lassen. 2) Von diesem markierten Denkpunkt aus hat er dann versucht, diese beiden ’Pole’ seiner Bewusstheit– das ’Sich-im-Denken-gewiss-sein’ und die ’wechselnden Inhalte’ – seinsmäßig (ontologisch) zu ’interpretieren. Eine solche Interpretation in Form von spezifischen ’Zuordnungen’ folgt nicht zwingend aus den Phänomenen des Ausgangspunktes. Diese Zuordnung stellt eine freie Auswahl aus verschiedenen Denkmöglichkeiten dar.

Descartes wählte für seine freie Zuordnung (Deutung,Interpretation, Kodierung) die Begriffe ’res cogitans’ und ’res extensa’, die zur damaligen Zeit in verschiedenen philosophischen Konzepten verfügbar waren. Und er ordnete dann seine ’Gewissheit’ der ’res cogitans’ zu und die wechselnden Inhalte und Formen der ’res extensa’. Belässt man es bei dieser Interpretation, dann spaltet sich in der Tat die Wirklichkeit in zwei ontologisch unterschiedliche Seinsbereiche auf, deren Beziehung untereinander logisch größte Probleme aufwirft.

Dass Descartes selbst hier eine Lösung über eine postulierte ’Zirbeldrüse’ andachte (was die logischen Probleme faktisch nicht löste), soll uns hier weiter nicht beschäftigen.

2b) Descartes neu interpretiert: Nach dem heutigen Wissensstand können wir annehmen, dass das bewusste Denken sich – wie genau, das ist noch nicht vollständig geklärt – in Verbindung mit dem ’Gehirn’ abspielt. Das Gehirn ist ein Organ unseres Körpers und wäre im Sinne Descartes der ’res extensa’ zuzuordnen. Anstatt nun eine weiter ’Substanz’ zu postulieren, die ’res cogitans’, wie es Descartes tat (und vermutlich aufgrund seines Wissensstandes auch gar nicht anders konnte), könnten wir heute sagen, dass das bewusste Denken, die Selbstgewissheit, eine ’Eigenschaft des Gehirns’ ist, genauer eine ’Funktion des Gehirns’. Damit wären ’res cogitans’ und ’res extensa’ nicht mehr zwei ontologisch unverbundene Seinsweisen sondern die ’res cogitans’ wird zu einer Eigenschaft, zu einer Funktion der ’res extensa’. Die res extensa, als ’Sammelbecken’ von statischen Eigenschaften, wird mit der ’res cogitans’ zu jenem’ dynamischen Etwas’ als das wir heute die ’Materie (= res extensa)’ erleben und erforschen. Statt einer klassischen Dualität haben wir dann eine dynamische ’Monadizität’, eine Art ’Implosion‘ der res cogitans in die res extensa hinein (Anmerkung: In direkte Antwort zu Descartes waren es speziell Spinoza und Leibniz, die seinen dualistischen Ansatz ablehnend-kritisch sahen. In der Einleitung zum 5.Kapitel seiner Ethik hat Spinoza [2] den Ansatz von Descartes analysiert und als nicht akzeptabel verworfen. Sein eigener Lösungsansatz versucht die ’Einheit’ von Denken und Körper durch Annahme einer in Gott gründenden ’einen Substanz’ zu retten, die in vielen Punkten ebenso wenig nachvollziehbar ist wie Descartes Rettungsversuch über die Zirbeldrüse. (Für die weitere kritische Diskussion von Spinoza siehe auch Decher (2015) [3]:SS.101-108) Der Lösungsansatz von Leibniz in seiner ’Monadologie’ [4] kommt einem systematisch-modernen Denken weiter entgegen, doch bringt er auch als Letztbegründung wieder Gott ins Spiel (vgl. Decher (2015) [3]:SS.110-117). Würde man diesen Faktor bei Leibniz ’herausrechnen’, dann erscheint seine Monadologie in einem interessanten Licht. Der hier benutze Begriff der ’Monadizität’ setzt das Wort ’Monadologie’ voraus.).

Im Denken selbst erscheint zwar ’Denken’ und ’Inhalt’ als etwas Getrenntes, aber ’ontologisch’ ist das Denken (die klassische ’res cogitans’) eine ’inhärente Eigenschaft’ des Körpers, der Materie (die klassische ’res extensa’). Eine Zirbeldrüse im Sinne des Descartes wird damit überflüssig.

c) Geist-Materie: Bislang wird der Begriff ‚Geist-Materie‘ kaum benutzt.  Mit dieser neuen implodierten Einheit von Denken und Sein lösen sich viele klassische Probleme, die aus einer speziellen Interpretation der primären Phänomene resultierten, es stellen sich aber ganz neue, möglicherweise noch radikalere Herausforderungen. Denn jetzt wird das ’Bewusstsein’, das ’Sich-Selbst-Denken’ zu einer genuinen Eigenschaft der Materie. Während die einen darin eine ’Abwertung’ des Denkens und des ’Geistigen’ sehen, werden die anderen darin eine ’Aufwertung’ des Körperlichen, des Materiellen sehen (oder auch, ganz im Gegenteil, eine ‚Verwässerung‘ des Materiebegriffs).

Die moderne Physik, hier allen voraus die Quantenphysik, hat schon längst die Positionen der klassischen Physik und damit eines deterministischen Objektdenkens aufgebrochen. Die schöne heile Welt der abgrenzbaren Objekte, der deterministischen Verhältnisse, wurde mit den neuen Forschungen quasi weggesprengt. Der fließende Übergang von Energie und Materie, das Verschwinden aller Determinismen, bei einer gleichzeitig zu beobachtenden Dynamik des bekannten Universums, das sich nicht als reines ’Chaos’ präsentiert, sondern als eine Quelle gerichteter und steigender Komplexität, allerdings nicht deterministisch, sondern ’frei’ … dies wirft tonnenweise Fragen auf, die bislang nicht einmal im Ansatz geklärt sind. Historisch mag man Descartes als jenen Meilenstein ansehen, an dem die Aporie des klassischen Geist-Materie Denkens sein historisches Maximum erreicht hat, das aber dann mit der modernen Quantenphysik (wann genau?) seine denkerische Transformation hinein in eine neue ontologische Geist-Materie-Einheit erlebte.

Im Prinzip war das klassische griechische Denken davon nicht weit entfernt, aber es fehlten ihnen damals einfach die notwendigen Daten.

d) Nachbemerkungen: Görnitz erwähnt in der Kritik an Descartes Dualismus auch zwei der heutigen Standardeinwände gegen Descartes Gewissheitsansatz: Freud mit seinem Unbewussten und Gödel mit seiner Unentscheidbarkeit hinreichend komplexer formaler Systeme (vgl. Görnitz S.45). Im Lichte der neuen Interpretation erscheinen mir beide Hinweise nicht zielführend zu sein.

Die Tatsache, dass ein Großteil der Vorgänge in unserem Körper – möglicherweise muss man heute sogar sagen: der überwiegende Teil – nicht im Zugriff des Bewusstseins liegt, muss nicht notwendigerweise ein Totschlagargument gegen die Position der Gewissheit von Descartes sein. Die ’Gewissheit im Denken’ bezieht sich ja gerade nicht auf die wahrnehmbaren ’Inhalte’ des Denkens, die variieren, die ganz unterschiedlichen Wirkursachen zu verdanken sind, sondern auf die Fähigkeit, in diesem Wandel einen Bezugspunkt zu haben, relativ zu dem der Wandel überhaupt ’bewusst’ sein kann. Dass das ’Unbewusste’ sich ’auswirken’ kann – in seinen Auswirkungen dann sehr wohl bewusst’ –unterscheidet es nicht von jeder beliebigen anderen bewusst wahrnehmbaren Wirkung von irgendwelchen anderen Wirkursachen. Entscheidend ist vielmehr, dass der Mensch über jene Form von Bewusstsein verfügt, die die Andersartigkeit der Phänomene wie auch ihren Wandel ’bemerken’ kann. Diese formale Bewusstheit wird ergänzt um ein –weitgehend unbewusst arbeitendes – Gedächtnis (eine Funktion des Gehirns), das auf ’automatische’ (vom Gehirn vorgegebene) Weise den Strom der Phänomene selektiert, abstrahiert, assoziiert und vieles mehr. In diesem Zusammenspiel von ’Sich-Selbst-Bewusst-Sein-können‘ und der ’ordnenden Funktion’ des Gedächtnisses kann das sich seiner bewusste Subjekt den Strom der Phänomene (wodurch auch immer verursacht) soweit ’sortieren’, dass Muster, Regel erkennbar werden, die Zeitreihen erlauben, mittels denen das punktuelle Bewusstsein sich denkerisch in Räume und Zeiten hinein ausdehnen kann, die es selbst in einem komplexen Geschehen vorkommend erscheinen lassen.

Dass diese Bewusstheit samt Ordnungstätigkeit sich ’täuschen’ kann ist zwar bekannt, aber – wie wir heute wissen können – bis zu einem gewissen Grad ’ausgleichbar’, speziell dann, wenn die einzelnen Gehirne gelernt haben, ’im Verbund’ zu denken.

Auch der berühmte Unentscheidbarkeitsbeweis von Kurt Gödel (1931) [5] scheint hier fehl am Platz zu sein. Gödel bezieht sich nicht auf Phänomene des Bewusstseins sondern auf die Möglichkeit, die Eigenschaften eines formalen Systems (Anmerkung: Er benutzte das System der Arithmetik. ) formal so zu beschreiben, dass alle (=Vollständigkeit) wahren(=speziell ausgezeichnete) Aussagen dieses Systems formal ableitbar sind. Aufgrund der inhärenten Doppelstruktur eines solchen formalen Beweises von Objektsprache (das zu beschreibenden System) und Metasprache (die Sprache des Beweises), die dann die Objektsprache in der Metasprache nachvollziehen muss, kann es grundsätzlich keinen vollständigen Beweis geben. Dies liegt einfach an der Struktur eines solchen Beweises. Dieser beweistheoretische Sachverhalt, auf den Gödel in wunderbarer Weise hingewiesen hat (was später von Turing (1936/7) [6] auf eine andere Weise ebenfalls gezeigt worden ist), berührt die Überlegungen von Descartes in keiner Weise. Vielmehr ist der metalogische Beweis von Gödel (und auch von Turing (und von vielen anderen)) ein wunderbares Beispiel, wie die Struktur des Selbstbewusstseins im Zusammenspiel mit dem (denkenden) Gedächtnis gerade in der Lage ist, die Eigenschaften solcher formaler Systeme und der metalogischen Beweise nicht nur zu vollziehen, sondern sie auf eine Weise zu vollziehen, die dann andere Gehirne mit ihrem Bewusstsein nachvollziehen können.

Diese relative Struktur des Bewusstseins (und des zugehörigen Gehirns) ist genau die Stärke des menschlichen Denkens. Im Prinzip wissen wir im Augenblick nichts, aber in einem kontinuierlichen Prozess können wir immer mehr Strukturen aufbauen, die uns die Möglichkeit verschaffen, ’im Prinzip’ ’Alles’ wissen zu können. In diesem Zusammenhang hat die Menschheit gelernt, dass ihre Gehirne bei anwachsender Komplexität der äußeren Welt – die weitgehend vom Menschen mit verursacht ist – trotz aller Wunderbarkeit des Gehirns an physische, und damit endliche Grenzen, der Verarbeitung stößt. Glücklicherweise hat die Menschheit mittlerweile programmierbare Maschinen erfunden (die Computer), beherrscht ihre Vernetzung, so dass die menschlichen Gehirne ihre physischen Grenzen im Prinzip mittels dieser programmierbaren Maschinen wieder ein Stück überwinden könnten. Aktuell hat man aber den Eindruck, dass die Menschheit sich noch schwer tut, diese neue Technologie in maximal symbiotischer Weise konstruktiv einzusetzen.

4 QUELLEN

[1] T. Goernitz, Quanten Sind Anders: Die verborgene Einheit der Welt, 1st ed. Heidelberg: Spektrum Akademischer Verlag,2006.

[2] Spinoza, “Werke. Bd 1+2, lateinisch – deutsch,” Darmstadt, 1967.

[3] F. Decher, Handbuch der Philosophie des Geistes, 1st ed. Darmstadt: WBG Wissenschaftliche Buchgesellschaft, 2015.

[4] G. Leibniz, Monadologie und andere metaphysische Schriften, Französisch-Deutsch, 1st ed., J. Schneider, Ed. Hamburg:Felix Meiner Verlag, 2002.

[5] K. Goedel, “Über formal unentscheidbare Saetze der principia mathematica und verwandter Systeme, I,” Monatshefte fuer Mathematik und Physik, vol. 38, pp. 173–98, 1931.

[6] A. M. Turing, “On computable numbers, with an application to the Entscheidungsproblem,” Proceedings of the London Mathematical Society, vol. 42, no. 2, p. 230–265, 1936-7.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

DAS PHILOSOPHIE JETZT PHILOTOP

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 30.Nov. 2017
URL: cognitiveagent.org
info@cognitiveagent.org

Autor: cagent
Email: cagent@cognitiveagent.org

Worum geht’s — Meine Antwort auf die von vielen gestellte
Frage, wie denn die  verschiedenen Seiten untereinander zusammen hängen, war zu schnell (siehe den Blogeintrag vom 14.November ). Hier eine Korrektur.

I. EIN PHILOTOP

Wie man unschwer erkennen kann, ist das Wort
’Philotop’ eine Übertragung von dem Wort ’Biotop’.
Für Biologen ist klar, dass man einzelne Lebensformen
eigentlich nur angemessen verstehen kann, wenn
man ihren gesamten Lebensraum mit betrachtet:
Nahrungsquellen, Feinde, ’Kollaborateure’, Klima, und
vieles mehr.

Ganz ähnlich ist es eigentlich auch mit dem Blog
’Philosophie Jetzt: Auf der Suche …’. Auch diese Ideen
haben sehr viele Kontexte, Herkünfte, wechselseitige
Interaktionen mit vielen anderen Bereichen. Ohne diese
Kontexte könnte der Blog vielleicht gar nicht ’atmen’.

Im Blogeintrag vom 14.November 2017 wurde
verwiesen auf die monatliche Philosophiewerkstatt, in
der in einer offenen Gesprächsrunde Fragestellungen
gemeinsam gedacht werden. Seltener gibt es
die Veranstaltung Philosophy-in-Concert, in der philosophische Ideen, eingebettet in experimentelle Musik, Bildern und Texten ihren Empfänger suchen und
sich auch auf ein Gespräch einlassen.

Schaubild vom Philotop ( die 'Kernbereiche') :-)
Schaubild vom Philotop ( die ‚Kernbereiche‘) 🙂

Die Wechselwirkung mit den nächsten beiden
Blogs liegt für manche vielleicht nicht so auf der
Hand. Aber bedingt durch die langjährige Lehr-
und Forschungstätigkeit von cagent im Bereich des
Engineerings stellte sich heraus, dass gerade das
Engineering der Welt riesige Potentiale für eine
moderne Philosophie bietet, und dies nicht nur einfach
als begriffs-ästhetische Spielerei, sondern mit einem
sehr konkreten Impakt auf die Weise, wie Ingenieure die
Welt sehen und gestalten. Daraus entstand ein Projekt,
das bislang keinen wirklich eigenen Namen hat.

Umschrieben wird es mit ’Integrated Engineering of
the Future’, also ein typisches Engineering, aber eben
’integriert’, was in diesem Kontext besagt, dass die
vielen methodisch offenen Enden des Engineerings hier
aus wissenschaftsphilosophischer Sicht aufgegriffen und
in Beziehung gesetzt werden zu umfassenderen Sichten
und Methoden. Auf diese Weise verliert das Engineering
seinen erratischen, geistig undurchdringlichen Status
und beginnt zu ’atmen’: Engineering ist kein geist-
und seelenloses Unterfangen (wie es von den Nicht-
Ingenieuren oft plakatiert wird), sondern es ist eine
intensive Inkarnation menschlicher Kreativität, von
Wagemut und zugleich von einer rationalen Produktivität,
ohne die es die heutige Menschheit nicht geben würde.

Das Engineering als ein Prozess des Kommunizierens
und darin und dadurch des Erschaffens von neuen
komplexen Strukturen ist himmelhoch hinaus über
nahezu allem, was bildende Kunst im Kunstgeschäft
so darbietet. Es verwandelt die Gegenart täglich und
nachhaltig, es nimmt Zukünfte vorweg, und doch fristet
es ein Schattendasein. In den Kulturarenen dieser Welt,
wird es belächelt, und normalerweise nicht verstanden.
Dies steht  im krassen Missverhältnis zu seiner Bedeutung.
Ein Leonardo da Vinci ist ein Beispiel dafür, was es
heißt, ein philosophierender Ingenieur gewesen zu sein,
der auch noch künstlerisch aktiv war.
Innerhalb des Engineerings spielt der Mensch in
vielen Rollen: als Manager des gesamten Prozesses, als mitwirkender Experte, aber auch in vielen Anwendungssituationen als der intendierte Anwender.

Ein Wissen darum, wie ein Mensch wahrnimmt, denkt,
fühlt, lernt usw. ist daher von grundlegender Bedeutung. Dies wird in der Teildisziplin Actor-Actor-Interaction (AAI) (früher, Deutsch, Mensch-Maschine Interaktion oder,
Englisch, Human-Machine Interaction), untersucht und methodisch umgesetzt.

Die heute so bekannt gewordene Künstliche Intelligenz
(KI) (Englisch: Artificial Intelligence (AI)) ist ebenfalls ein
Bereich des Engineerings und lässt sich methodisch
wunderbar im Rahmen des Actor-Actor Interaction
Paradigmas integriert behandeln. Im Blog wird es unter
dem Label Intelligente Maschinen abgehandelt.
Sehr viele, fast alle?, alle? Themen aus der
Philosophie lassen sich im Rahmen des Engineerings,
speziell im Bereich der intelligenten Maschinen als Teil
des Actor-Actor-Interaction Paradigmas neu behandeln.

Engineering ist aber nie nur Begriffsspielerei.
Engineering ist immer auch und zuvorderst Realisierung
von Ideen, das Schaffen von neuen konkreten Systemen,
die real in der realen Welt arbeiten können. Von daher
gehört zu einer philosophisch orientierten künstlichen
Intelligenzforschung auch der Algorithmus, das lauffähige
Programm, der mittels Computer in die Welt eingreifen
und mit ihr interagieren kann. Nahezu alle Themen der
klassischen Philosophie bekommen im Gewandte von
intelligenten Maschinen eine neue Strahlkraft. Diesem
Aspekt des Philosophierens wird in dem Emerging-Mind
Lab Projekt Rechnung getragen.

Mit dem Emerging-Mind Lab und dessen Software
schließt sich wieder der Kreis zum menschlichen
Alltag: im Kommunizieren und Lernen ereignet sich
philosophisch reale und mögliche Welt. Insoweit intelligenten Maschinen aktiv daran teilhaben können, kann dies die Möglichkeiten des Menschen spürbar erweitern. Ob zum Guten oder Schlechten, das entscheidet
der Mensch selbst. Die beeindruckende Fähigkeit von
Menschen, Gutes in Böses zu verwandeln, sind eindringlich belegt. Bevor wir Maschinen verteufeln, die wir
selbst geschaffen haben, sollten wir vielleicht erst einmal
anfangen, uns selbst zu reformieren, und dies beginnt
im Innern des Menschen. Für eine solche Reform des
biologischen Lebens von innen gibt es bislang wenig bis
gar keine erprobten Vorbilder.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

EINE BUCHMESSE FÜR PROGRAMMIERER?

eJournal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 15.Okt. 2017
https://www.cognitiveagent.org
cagent
cagent@cognitiveagent.org

PDF

THEMA

Im Fieberzustand der Frankfurter Buchmesse geht leicht verloren, worum es wirklich geht: Mit Worten die Welt zu verändern. Zwischen Mythos, Wunsch und Wirklichkeit.

ES IST BUCHMESSE

Wenn die Frankfurter Zeitungen mit dicken Zusatzbeilagen erscheinen, Hotels und Restaurants tagelang ausgebucht sind, in den Messehallen Lärm und Getriebe die Grenze zum Unerträglichen erreichen, dann findet Buchmesse statt, in Frankfurt. Die, die Geld verdienen wollen, die, die Öffentlichkeit suchen, die, …. ein kleiner Kosmos versammelt sich in den Hallen und Umgebung. Erregung liegt in der Luft, in den Gesichtern….

VERUSACHER: WORTE

Der Anlass für all dies sind Worte, schwarze Zeichen auf weißem Papier, auf Bildschirmen, als Smartphone-Textereignisse… Menschen, die so etwas wahrnehmen, lesen, aufnehmen, sich angeregt fühlen, nachdenken, Gefühle entwickeln, Erinnern, Fantasieren, betroffen sind, die dafür Geld ausgeben, um es sehen zu können.

Worte, aneinandergereiht, zusammengefügt, aus hunderten verschiedener Sprachen dieser Welt, manche kaum noch verstehbar, von gestern, von vor-vorgestern, von …

MENSCHEN MACHEN DAS

In die Welt gebracht von Menschen, die sich hingesetzt haben, stunden-, tage-, wochen-, monatelang, und länger, um irgend etwas aus ihrem Inneren nach Außen zu schaffen, auszudrücken, zu artikulieren, zu äußern, lesbar zu denken, zu manifestieren, zu bekennen, zu dokumentieren… oder vielleicht einfach, um mit Worten so zu spielen, dass sie Menschen mit ihren Ängsten, Sehnsüchten, Fantasien, ihrem Unterhaltungsbedürfnis in den Bann ziehen wollen, zu jedem Preis, zum Preis von Wahrheit?, für persönlichen Ruhm und Ehre … und Geld?

ROBOTER-AUTOREN

Heute muss man allerdings aufpassen. In Zeiten der Digitalisierung gibt es schon Computerprogramme, die Worte aufsammeln, Sprachfetzen, diese unter bestimmten Kriterien neu zusammensetzen und als Meldungen, kurze Artikel in die Welt setzen. Eine neue Art von Mimikry, die kaum als solche zu erkennen ist, nicht auf den ersten Blick. Und dies greift um sich. Viele der Texte, die Menschen in die Sprache bringen sind so, dass sie sich von Maschinen imitieren lassen, ohne dass es auffällt. Es entsteht eine Grauzone, eine Übergangsphase, ein Mensch-Maschine Waberland. Wer sind wir, wenn uns Maschinen imitieren können?

DIE WAHRE GELDBRINGER

Aus der Sicht der Wirtschaft sind es auch nicht unbedingt die Romane, die Lyrik, die Poesie, die das große Geld bringen. Es sind die schnellen und die praktischen Bücher: Bücher mit schönen Fotos, Kochbücher, Reiseberichte, Adressbücher, praktische Anleitungen, …. Dinge zum schnellen schenken oder die man braucht. Dann die vielen Unterhaltungsbücher einschließlich Krimis; das Bedienen von Emotionen, Spannungen, Ablenkungen… Sachbücher, Schulbücher, Lehrbücher, technische Standards …. irgendwo dann die, die sich Schriftsteller nennen, Dichter…. sie stehen für das Große, das Unaussprechliche, das Mystische, das Erhabene, für … für Sprache, Sprachkunst? Wer definiert dies eigentlich? Die Sprache gehört ja bekanntlich niemandem, sie schwebt über allem, sie ist in allem, findet in jedem und überall gleichzeitig statt…

SCHMUDDELKINDER

Die Schreibenden, sie alle benutzen Worte, Wortreihen, Wortmuster, Wortgebilde, mit so unterschiedlichen Interessen, so unterschiedlichen Situationen, so unterschiedlichen Themen…

Und dann gibt es die sprachlichen Schmuddelkinder, die Grenzgänger, die nicht so ins erhabenen Schema passen, die auch reden, die auch schreiben, die Sprache mit Bildern verknüpfen, die die Bedeutung durch Bilder voranstellen, und die Worte nur noch wie Anhängsel benutzen, minimalistische Kommentare eines Geschehens, das sich vor den Augen bildhaft abspielt. Das Grauen aller Sprachkünstler, der Abscheu aller Wortgewaltigen, der Schrecken der Wortmeister und Sprachmagier…

WELCHE MASS-STÄBE?

Aber, was reden wir hier über Literatur, wenn wir über Wortkunst reden?

Wonach bemessen wir die Bedeutung von aneinander gefügten Worten in einer Gesellschaft?

Sprechen wir nicht über die Digitalisierung der Gesellschaft, die alles überrollt, durchdringt, bis in die kleinsten und tiefsten Poren unseres Alltags eindringt, eingedrungen ist? Ist es denn nicht wahr, dass die digitalen Technologien uns nahezu vollständig umrundet und umzingelt haben? Benutzen nicht auch die klassischen Verlage mittlerweile alle Computer, Datenbanken, Netzwerke, Drucken-On-Demand, ebooks, eReader …. ?

Sind es nicht die Software-Firmen dieser Welt, die zu den wirtschaftlichen Giganten zählen, zu den internationalen Geldmonstern? Deren Datenpaläste alles in sich versammelt haben, was irgendwie gesagt wurde, gesagt wird, gesagt werden kann?

Und womit haben sie dies alles ermöglicht?

WORT-MASCHINEN

Irreführender Weise sprechen wir hier von ‚Software‘, von ‚Programmen‘, von ‚Sourcecode‘, von ‚Algorithmen‘, die auf den Computern Arbeit verrichten und all dies möglich machen. ‚Programme‘ sagen wir beiläufig, alltäglich verniedlichend, sehr abstrakt, dabei kaschieren wir einen Umstand, der wesentlich ist, der uns — je nach Gemütslage — begeistern oder schwer beunruhigen kann.

Diese sogenannten Computerprogramme sind letztlich auch Texte, Aneinanderreihungen von Wortmustern, nach bestimmten grammatischen und semantischen Regeln.

Wenn ich einen Kriminalroman lese, dann erzeugen die aneinandergereihten Worte Bilder von Menschen in bestimmten Situationen, die Verhalten zeigen, Gefühle haben, die ein Geschehen am Laufen halten.

Ein Programm-Text tut nichts anderes. Er lässt Bilder von Welten entstehen, mit Objekten, Eigenschaften, Akteuren. Diese haben Wünsche, Pläne, Erinnerungen, handeln konkret, verändern die Welt, die Objekte in der Welt, sich selbst. Die Worte eines Programmtextes beschreiben Wort-Maschinen, Wort-Welten, ganze Universen, die passieren können, die sich ereignen können, die sich mit uns lebenden realen Menschen zusammen ereignen können, die mit uns reden, die Geräusche, Sounds erzeugen können, Lieder, bewegte Bilder, super-realistisch, die Menschen als Sexroboterinnen in deren männlichen Einsamkeiten beglücken, als Pflege-Haustier-Roboter einsamen, älteren Menschen einen Hauch von sozialer Realität verschaffen, die als Operationsroboter und genetische Superrechner unseren Krankheiten zu Leibe rücken, die ….

WORTMEISTER ALS DUNKELMÄNNER

Während wir die klassischen Wortmeister feiern (für was?) führen die modernen Wortmeister der Wort-Maschinen ein Schattendasein. Diese sind es, die unsere Flugzeuge fliegen lassen, die unsere Städte am Leben erhalten, die eine Tourismusbranche möglich machen, die …

Wer kennt diese? Auf welcher Buchmesse werden sie gefeiert? Wer versteht überhaupt ihre Sprache? An den Schulen unseres Landes wird dies weitgehend nicht unterrichtet. An den Universitäten sind es höchsten die Informatiker, die sich damit beschäftigen, aber auch diese tun es nur sehr begrenzt, eher altmodisch, technisch verkürzt. Dabei sind sie die Wortmeister der Zukunft, die Wortmeister der digitalen Kultur, die Wortmeister unseres Alltags … es sagt ihnen aber niemand, sie bekommen keine Kulturpreise … von welcher Kultur eigentlich? Sind die Feuilletons der Zeitungen, die Spielstätten der Theater und Opern nicht letztlich Reflexe einer Minderheit, die sich von der Welt partiell verabschieden und sich einer Ereigniszone hingeben, die nurmehr noch entrückt und vergessen macht, aber vor der stattfindenden digitalen Kultur kapituliert hat, schon von Anfang an?

NEUE SPRACHEN FÜR NEUES DENKEN?

Das Bild zeigt die ersten Zeilen eines sehr einfachen Programm-Textes, tatsächlich eine erste Schreibübung, in der eine Ereigniswelt beschrieben (und damit erschaffen!) wird, die real stattfinden kann, die real eine Welt entstehen lassen kann mit Akteuren, Bedürfnissen, Nahrungsangeboten, Geboren werden und Sterben … die mit realen Menschen interagieren kann, die sich darin wiederfinden können …Die Sprache dieses Programms heißt nicht Englisch, Deutsch, oder Französisch, sondern ‚python‘, eine Kunstsprache, speziell geschaffen um Wort-Maschinen bauen zu können, ablaufbare Wort-Universen, die neuen Bücher, Filme, und Theaterstücke zugleich.

PTextfragment aus einer Wortmachine für künstliche Welten mit Akteuren
Textfragment aus einer Wortmachine für künstliche Welten mit Akteuren

Man muss sich fragen, wie weit die sogenannte ‚Wahrheit‘ der alten, sprich ‚vor-digitalen‘, Kunst letztlich nur in ihrer Selbstbezüglichkeit findet, in ihrer hermetischen Abwiegelung von real stattfindender Welt, eingesperrt in ihren klassischen Sprachkäfigen, in denen nur bestimmte Werte gelten, nur bestimmte Menschen- und Handlungsmuster vorkommen, nicht die unfassbaren Potentiale des Lebens, nicht das universale Lebensgeschehen, sondern das, was sich in alten Sprachgespinsten sagen lässt, idealistisch-romantisch, hart am Abgrund menschlicher Tragödien, die endlichen Selbstbezüglichkeit, die vielen Fixierungen auf den menschlichen Körper, Klassengesellschaften der Vorzeit, ohne mögliche kosmischen ….

HOMO SAPIENS ALLEIN ZU HAUS

Das alles sind wir, der homo sapiens, der seit ca. 200.000 bis 300.000 tausend Jahren seine Weg sucht auf diesem Planeten… nicht zufällig da, sondern Gewordener von Milliarden Jahren stattfindenden Prozessen von einer Komplexität, die unser Denken bis heute überfordert…

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

PHILOSOPHIEWERKSTATT – WAHRE AUSSAGEN – Memo vom 8.Okt.2017

PDF

 

ÜBERSICHT

Kurzer Bericht zur Philosophiewerkstatt vom 8.Okt.2017 im INM (Frankfurt). Die Einladung zur Sitzung findet sich HIER

ARBEITSWEISE DER PHILOSOPHIEWERKSTATT

Die Philosophiewerkstatt folgt nicht dem klassischen Schema, dass einer viel erzählt und andere zuhören, sondern stellt eine Aufgabenstellung an den Anfang und alle Teilnehmer sind eingeladen, zusammen die Aufgabenstellung durch ihre Beiträge zu erhellen. Da die Teilnehmergruppe in der Regel sehr bunt gemischt ist, führt dies zu sehr vielen interessanten Aspekten, die ein Thema vielseitig zum Leuchten bringen können. Ferner zeigt jede Sitzung immer wieder, wie wenig wir im Alltag gewohnt sind, zusammen mit anderen (jeder ist gleichberechtigt!) eine gemeinsame Sicht zu erarbeiten. Je profilierter die Teilnehmer sind, um so herausfordernder wird die Erarbeitung einer gemeinsamen Sicht. Das gemeinsame Ringen um ein Verständnis wird aber belohnt durch die Bereicherung des eigenen Standpunktes durch Sichten, die einem vorher unbekannt waren. Niemand geht nach Hause, ohne nicht viel dazu gelernt zu haben (das gilt auch für den Moderator der Sitzungen!).

AUFGABENSTELLUNG AM 8.OKT.2017

Die Anregung zu diesem Thema kam dieses Mal aus dem Blog selbst, und zwar von dem Teil 1 des Essays ‚Die Wiederentdeckung …‘. Der Teil 1 beschäftigt sich mit der Frage der Wahrheit. Da das Thema ‚Wahrheit‘ sowohl in der Philosophie wie auch in der gesamten Kulturgeschichte seit mehr als 2000 Jahren sehr prominent ist, gibt es dazu eine große Menge an Anschauungen und Texten. Um sich hier nicht schon gleich zu Beginn zu verzetteln bestand die Aufgabe darin, im eigenen Erfahrungsbereich nach solchen Situationen Ausschau zu halten, in denen jemand eine sprachliche Äußerung macht, und alle Beteiligten diese sprachliche Äußerung ’normalerweise‘ als ‚wahr‘ zu klassifizieren. Nachdem einige Beispiele gefunden wurden, sollten diese gemeinsam weiter untersucht werden (Warum klassifiziert man diese als ‚wahr‘? Was sind die Bedingungen dafür? usw.).

Gedankenskizze von der Philosophiewerkstatt am 8.Okt.2017 im INM
Bild Nr.1: Gedankenskizze von der Philosophiewerkstatt am 8.Okt.2017 im INM

ZITATE

Überraschenderweise fiel es allen schwer, überhaupt solche Beispiele vorzustellen. Als erstes poppten allerlei Zitate auf, die dem einen oder der anderen in den Sinn kamen (siehe das Schaubild Nr.1).

Erst die beharrlichen Erinnerungen des Moderators an die Aufgabenstellung förderte dann langsam, häppchenweise, Beispiele zutage. Dieser Prozess zog sich fast über die gesamte Sitzung hin.

BEISPIELE

Folgende Beispiele erblickten das Licht der Welt (Reihenfolge nicht unbedingt chronologisch):

  • Äußerungssituation Arzt mit Patient; Äußerung Arzt sagt „Dieses Medikament ist wirksam (für Problem X), weil es in einer randomisierten Doppelblind-Studie signifikant war.“
  • Äußerungssituation FreundeInnen untereinander; einer hat ein Problem X; eine spricht zum anderen Äußerung „Du must Wadenwickeln nehmen.“
  • Äußerungssituation Küche mit Herdplatte; jemand berührt  eine heiße Platte, ruft: Äußerung „Oh Scheiße, das Ding ist heiß“ (und zieht blitzartig seine Hand zurück)
  • Äußerungssituation Biblischer Text, fiktive Situation, Pilatus und Jesus von Nazareth. Pilatus fragt „Bist du der König der Juden“, und Jesus antwortet: Äußerung „Du sagst es“.
  • Äußerungssituation Jemand verkauft einen sächsischen Thaler heute als echt an einen Sammler und sagt: Äußerung „Dies ist ein echter sächsischer Thaler (aus dem Jahr X)“.
  • Äußerungssituation Jemand gibt als Pfand für eine Geldschuld heute ein Bild an eine Bank und sagt: Äußerung „Dies ist ein echter XYZ“.
  • Äußerungssituation Im Gespräch zwischen Freunden sagt jemand: Äußerung „Die Erde ist rund“.
  • Äußerungssituation Das Lehramt der katholischen Kirche hat in der Vergangenheit verkündet: Äußerung Maria, die Mutter Jesu, war bei ihrer Empfängnis Jungfrau.

KONZEPTUALISIERUNG ÄUSSERUNG

Die Frage, wann man denn eine einzelne Äußerung als ‚wahr‘ klassifizieren würde, wurde erst nach und nach schrittweise beantwortet. Diese Erklärung führte mehrere Begriffe, Konzepte zueinander, die einen Zusammenhang aufleuchten ließen. Diesen Vorgang kann man ‚Konzeptualisierung‘ nennen oder ‚Modellbildung‘ oder ‚Theoriebildung‘.

Ansatz zur Konzeptualisierung (Theoriebildung) einer Äußerungsstuation mit Wahrheitsanspruch
Bild Nr.2: Ansatz zur Konzeptualisierung (Theoriebildung) einer Äußerungssituation mit Wahrheitsanspruch

Am Beispiel mit der heißen Herdplatte sei die Konzeptualisierung zum Begriff der ‚wahren einzelnen Äußerung‘ erläutert (siehe Schaubild Nr.2):

Vorausgesetzt wird, dass es mindestens zwei Sprecher-Hörer einer Sprache L gibt, die eine reale Situation S teilen.

Im konkreten Fall sind die beiden Sprecher-Hörer in einem Raum mit einer Herdplatte.

Der eine — nennen wir ihn A — berührt die Herdplatte und zieht blitzartig die Hand wieder zurück und äußert dabei „Oh Scheiße, das Ding ist heiß“.

Der andere — nennen wir ihn B — sieht die Bewegung und hört die Äußerung.

Nehmen wir an, dass B in seiner visuellen Wahrnehmung gesehen hat, wie A die Herdplatte berührt und die Hand schnell wieder zurückzieht (Perception_B.vis(visuelle-Reize) = ‚Handbewegung-A‘), und in seiner akustischen Wahrnehmung hat er die Äußerung gehört (Perception_B.akust(akustische-Reize) = ‚Oh Scheiße, das Ding ist heiß‘).

Es wird ferner angenommen, dass eine Person, die eine Sprache L ‚gelernt‘ hat, mit einer sprachlichen Äußerung in dieser Sprache L (z.B. mit Deutsch, nicht aber mit Chinesisch) bestimmte ‚Bedeutungen‘ verbindet, die sich im Gehirn als spezifische Erregungsmuster nachweisen lassen. Also, wenn jemand eine Äußerung e hört, dann ist die akustische Wahrnehmung Perception_X.akust(e) = ‚Oh Scheiße, das Ding ist heiß‘) verknüpft mit internen, subjektiven Bedeutungsstrukturen (Meaning(‚Oh Scheiße, das Ding ist heiß‘) = InternVon(‚Oh Scheiße, das Ding ist heiß‘)), die beim Hören ‚aktiviert‘ werden.

Insofern diese internen Bedeutungen in realen Situationen gelernt wurden, gibt es eine Korrespondenz/ Ähnlichkeit zwischen diesen internen Bedeutungsstrukturen und bestimmten Formen der aktuellen Wahrnehmung. Also SIMILARITY(P_X.akust(e), Meaning(P_X.akust))).

Unter Voraussetzung solch einer Ähnlichkeit, die in der Wahrnehmung von B verfügbar ist, kann B feststellen, dass für ihn die Äußerung von A ‚Oh Scheiße, das Ding ist heiß‘ in dieser Situation für ihn B ‚wahr‘ ist. Die Aussage von A ‚Oh Scheiße, das Ding ist heiß‘ (die B wahrgenommen hat) und die bei B eine bestimmte Bedeutung InternVon(‚Oh Scheiße, das Ding ist heiß‘) assoziiert hat, korreliert bei B mit der visuellen Wahrnehmung der Situation in hinreichender Weise.

Schon an diesem einfachen Beispiel kann man sehen, wie viele Voraussetzungen erfüllt sein müssen, damit man von einer ‚wahren Äußerung im Alltag‘ sprechen kann.

KONZEPTUALISIERUNG KOMPLEXE ÄUSSERUNGSMENGEN (THEORIEN)

Im Alltag haben wir es oft mit komplexen Sachverhalten zu tun. Genannt wurden Börsengeschäfte, medizinische Prognosen, physikalische Theorien, wirtschaftliche Vorgänge, biologische Phänomene am Beispiel von Insektenstaaten, und Wetterprognosen.

In all diesen Fällen geht es um einzelne Äußerungen (z.B. „In zwei Tagen wird es am Ort X mit einer Wahrscheinlichkeit von 80 % regnen“, oder „Der Kurs der Aktie X wird in den nächsten Monaten um Y% steigen“, oder „Diese Ameise reagiert in dieser Situation so, weil Y“, usw.), die einen unterstellten ‚kausalen Zusammenhang‘ voraussetzen

Kausale Zusammenhänge treten als explizite ‚Modelle‘ und ‚Theorien‘ auf (siehe Bild Nr.3).

Aussagenmengen als Theorien
Bild Nr.3: Aussagenmenge als Theorie (stark vereinfacht)

So können Wettervoraussagen gemacht werden, weil es eine Computersimulation gibt, die auf einem mathematischen Modell beruht, in dem aktuelle Messwerte zum Zeitpunkt t und zu vielen Zeitpunkten ‚vor t‘ (historische Daten) so verrechnet werden können, dass eine ‚Voraussage’/ ‚Prognose‘ für einen späteren Zeitpunkt t+c gemacht werden kann.

Modelle in Form von Computerprogrammen repräsentieren Funktionen. Eine Funktion als solche ist weder wahr noch falsch. Wenn aber jemand sagt, dass die Funktion f bei einem bestimmten Eingabewert X, der einem realen Sachverhalt X-real in der realen Welt entspricht, den Ausgabewert Y berechnen wird, und dieser Ausgabewert Y entspricht dem Sachverhalt Y-real in der realen Welt, dann entsteht eine Aussage, die man überprüfen kann. Dann kann die Aussage ‚wahr‘ werden, weil bei Auftreten des Sacherhalts X-real nach Voraussage der Sachverhalt Y-real auftreten wird. Falls nicht, ist die Aussage nicht wahr.

Eine Theorie unterscheidet sich von einem Modell, da eine Theorie eine Menge von Aussagen repräsentiert, die als Aussagen wahr oder falsch werden können. Funktionen können Elemente innerhalb von Aussagen sein. Im Prinzip kann man jedes Modell in eine Theorie umschreiben.

Im Fall des Börsengeschehens kann man die verschiedenen Einzelaussagen über Firmen und Märkte in einen Zusammenhang einordnen, aufgrund dessen dann Beobachtungen (einzelne Aussagen) mit einer Prognose verknüpft werden können (einzelne Aussage). Wenn z.B. eine Firma A im letzten halben Jahr nur Verluste produziert hat (einzelne Aussagen), und kein Faktor bekannt ist, der diesen Verlusten gegensteuern könnte (einzelne Aussagen), dann könnte man mit Bezug auf einen erkannten ‚Zusammenhang‘ (Regel, Axiom, Gesetz) ‚folgern‘, dass diese Firma ein Kandidat für eine Übernahme oder gar für eine  Insolvenz ist.

Im Falle von Modellen und Theorien benötigt man also neben den ganzen Rahmenbedingungen für wahre einzelne Äußerungen zusätzlich ein Konzept, wie man (i) allgemeine Zusammenhänge zwischen Aussagen formulieren kann (‚Axiome‘, ‚Regeln‘ …) und (ii) wie man angenommene Zusammenhänge dazu benutzen kann, bei Vorliegen von einzelnen Aussagen zur Gegenwart auf Aussagen in der Zukunft schließen kann. Dies ist das Gebiet der ‚Logik‘.

NACHWORT

Wenn man sieht, wie heute Begriffe wie ‚künstliche Intelligenz‘ und in diesem Zusammenhang ‚Intelligenz‘ geradezu inflationär gebraucht werden, andererseits aber das Allgemeinwissen zu Theorien und Logik eher gegen Null tendiert, dann kann man sich fragen, wer hier eigentlich noch was versteht.

Statt in bundesweiten Initiativen allen Schülern Computer hinstellen zu wollen (sie haben alle ihre Smartphones), wäre es möglicherweise eine bessere Strategie, ihnen zu erklären was Funktionen, Modelle, Theorien und Logik sind, damit sie verstehen würden, was sie in diese Computer rein stecken müssen, damit diese dann vielleicht irgend etwas Sinnvolles tun. Dabei würden sie (wie furchtbar) vielleicht sogar verstehen lernen, wie sie selber denken (welch Katastrophe, sie könnten ja dann möglicherweise die überhitzten Marketingblasen durchschauen…).

KONTEXTE

Einen Überblick über alle Einträge zur Philosophiewerkstatt nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs finden sich HIER.

„Technische Superintelligenzen werden die Menschheit bedrohen“ – Wie kann man eine so absurde Behauptung aufstellen?

Science-Fiction-Visionen von intelligenten oder gar superintelligenten Maschinen haben eine lange Historie. Besonders in der Hype-Phase der so genannten „Künstlichen Intelligenz (KI)“ in den 1960-1980er Jahren waren Behauptungen en vogue, dass Computeranwendungen die Menschheit in Bezug auf ihre Intelligenz bald einholen oder gar überholen werden – mit unabsehbaren Folgen und Bedrohungen für die Menschheit. “Once the computers got control, we might never get it back. We would survive at their sufferance. If we’re lucky, they might decide to keep us as pets”, meinte z.B. Marvin Minsky im Jahr 1970.

Als Zeithorizont für solche technische Superintelligenzen werden gerne ca. 10-30 Jahre angegeben – egal wann so etwas behauptet wurde. Dieser Zeitrahmen ist anscheinend nah genug, um genug Aufmerksamkeit zu erregen und weit genug weg, um für die Gültigkeit der Behauptungen nicht mehr gerade stehen zu müssen.

Ich habe den Eindruck, dass Behauptungen über technische Superintelligenzen aktuell wieder eine Hochzeit erleben. Dabei werden sie nicht nur von Hollywood, sondern auch von Wissenschaftsjournalisten dankbar aufgegriffen und verwertet. Dass sich frühere Prognosen dieser Art als falsch herausgestellt haben, spielt dabei keine Rolle. Gerne wird auf „Experten“ verwiesen, die sich diesbezüglich (alle) längst einig seien und nur im exakten Zeitpunkt noch nicht ganz sicher seien.

Durch die Frage wann es so weit sei, wird die Diskussion um das „ob“ meiner Meinung nach völlig vernachlässigt. Ich bin Informatiker. Ich beschäftige mich seit über 30 Jahren mit KI, entwickle seit mehreren Jahren KI-Anwendungen für den Unternehmenseinsatz und veröffentliche darüber Artikel und Bücher. Demnach halte ich mich für einen KI-Experten. Und nach meiner Meinung sind Behauptungen von technischen Superintelligenzen absurd.

Derzeit arbeite ich in einem KI-Projekt, in dem wir Software für Ärzte entwickeln, die Krebspatienten behandeln. Ein schöner Nebeneffekt der Arbeit an diesem Projekt ist, dass ich mein Schulwissen in Biologie und insbesondere Genetik auffrischen durfte. Während das früher für mich trockener Schulstoff war, kann ich jetzt nachvollziehen, warum die Ursprünge des Lebens Menschen faszinieren. Ich hatte einige Aha-Effekte, was sie Vielschichtigkeit, Vernetzung und Dynamik von Prozessen des natürlichen Lebens betrifft. Ich möchte diese laienhaft kurz mitteilen, um sie anschließend KI-Anwendungen gegenüberzustellen.

Es gibt chemische und physikalische Grundsätze, nach denen sich Atome zu Molekülen bzw. Molekülketten zusammensetzen – quasi mechanisch nach festen, einfachen Regeln. Und diese einfachen Molekülketten verhalten sich wie kleine Maschinen, die spezielle Aufgaben verrichten. Da gibt es Maschinen, die schneiden die DNA in der Mitte auf; dann gibt es welche, die kopieren die DNA-Information auf RNA; es gibt welche, die prüfen, ob es Kopierfehler gegeben hat und korrigieren diese (aber nicht alle Fehler – es soll ja noch Raum für Mutation bleiben); dann gibt es Maschinen, die lesen RNA, interpretieren sie nach dem genetischen Code und bauen daraus neue Molekülketten: Proteine, aus denen Zellen zusammengesetzt werden.

Wenn ich diese physikalisch-biologischen Vorgänge betrachte frage mich: findet hier gerade der Übergang von toter Materie zum Leben statt? Wo genau?

Und nun geht es weiter: Die Proteine bilden Zellen – kleine Maschinen, die ganz unterschiedliche Aufgaben erfüllen. Manche transportieren Sauerstoff; Manche andere stürzen sich auf Schädlinge und bekämpfen diese; Wiederum andere bauen feste Knochen. Und weiter geht es: Zellen zusammen bilden Organe mit klaren Aufgaben. Eines verdaut unser Essen, eines pumpt Blut und ein Organ vollführt erstaunliche Denkleistungen. Und alle Organe zusammen formen einen Menschen. Dieser wird gezeugt, geboren (jeder der eigene Kinder hat, weiß von der Faszination der Geburt), wächst, lernt, handelt intelligent und stirbt wieder. Viele Menschen zusammen bilden Kulturen, die entstehen, Wissen und Fähigkeiten entwickeln, und wieder vergehen. Diese Kulturen werden von einer intelligenten Spezies, genannt Homo sapiens, geformt. Diese einzelne Spezies entstand durch Evolutionsprozesse, denen sie kontinuierlich unterworfen ist. Wie die meisten Spezies wird sie irgendwann vergehen. Alle Spezies zusammen bilden das Leben auf dieser Erde. Und die Erde ist nur ein einziger Planet eines Sonnensystems einer Galaxie des Universums, über dessen mögliche andere intelligente Lebensformen wir nichts wissen.

Alle diese Ebenen, die ich laienhaft angedeutet habe, sind in sich hoch komplexe Systeme, die alle miteinander verwoben sind. Und vermutlich gibt es genauso viele Ebenen im submolekularen Bereich. Niemand kann ernsthaft behaupten, das komplexe Zusammenspiel über all diese miteinander vernetzten Ebenen auch nur annähernd, geschweige denn vollständig zu begreifen. Was wir heute zu wissen glauben, wird morgen als überholt erkannt und wirft viele neue Fragen für übermorgen auf. Im Ernst zu glauben, dass die unfassbare Komplexität des Lebens, sowie der Intelligenz als einer Ausdrucksform des Lebens, durch Computeranwendungen abgebildet oder gar weit übertroffen werden könnte, scheint mir eine extreme Unterschätzung der Natur oder eine groteske Überschätzung von Wissenschaft und Technik zu sein.

Schauen wir uns doch einmal KI-Anwendungen im Detail an. KI-Anwendungen werden stets zu einem speziellen Zweck entwickelt. So kann z.B. IBMs Deep Blue Schach spielen und Googles AlphaGo kann Go spielen. Beide Systeme übertreffen dabei die menschlichen Welt- und Großmeister. IBM Watson kann Fragen des allgemeinen Lebens beantworten – selbst wenn sie knifflig und mit Wortwitz gestellt sind – und schlägt alle menschlichen Champions der Quizshow Jeopardy! Selbstfahrende Autos erreichen ihre Ziele unter korrekter Berücksichtigung der Verkehrsregeln – vermutlich bereits in naher Zukunft sicherer als menschliche Fahrer.

All dies sind faszinierende Beispiele für mächtige KI-Anwendungen, die ich persönlich vor 20 Jahren nicht für möglich gehalten hätte. Aber sicher ist auch: Deep Blue wird niemals von sich aus anfangen, Go zu spielen, oder Quizfragen zu beantworten. IBM Watson kann nicht Schachspielen und wird es auch nicht lernen, egal in wie viel Quizshows die Anwendung eingesetzt wird. Und das selbstfahrende Auto wird nicht plötzlich auf die Idee kommen, sich für das Präsidentenamt zu bewerben, die Wahl gewinnen, anschließend die Demokratie und schlussendlich die Menschheit abschaffen. Das ist einfach absurd und gehört in den Bereich der Fiktion.

Alle diese KI-Anwendungen wurden von Informatikern und anderen Ingenieuren entwickelt. Intern werden u.A. Techniken des Machine Learning (ML) eingesetzt, meist das sogenannte „Supervised Learning“. Dabei werden Beispieldaten verwendet. So werden z.B. viele unterschiedliche Bilder von Stoppschildern, inklusive der Information, dass es sich jeweils um ein Stoppschild handelt, geladen. Mithilfe statistischer Methoden werden Modelle entwickelt, die es erlauben, bei neuen Bildern mit einer großen Wahrscheinlichkeit korrekt zu erkennen, ob ein Stoppschild abgebildet ist oder nicht. Dies kann dann in selbstfahrenden Autos für Fahrentscheidungen genutzt werden.

Also: die Anwendung lernt nicht von selbst, sondern mittels Eingabe von Beispielen durch Ingenieure („Supervisor“ im Supervised Learning). Wenn die Erkennungsraten nicht gut genug sind, ändern die Ingenieure entsprechende Parameter und starten das Lernverfahren erneut. Mit menschlichem Lernen kann das kaum verglichen werden.

Eine KI-Technik, die etwas mehr Ähnlichkeit zum Lernen eines Menschen hat, ist das sogenannte „Reinforcement Learning“. Dabei wird eine Umgebung eingesetzt, in der die Computeranwendung selbst Beispiele erzeugen und ausprobieren kann. Somit ist es möglich, ein Modell zu erzeugen, ohne dass dafür ein menschlicher Supervisor nötig ist. Zum Beispiel kann man ein Schachprogramm immer wieder gegen sich selbst (bzw. gegen ein anderes Schachprogramm) spielen lassen und die Machine Learning Verfahren auf die Verläufe und Ergebnisse dieser Spiele anwenden. Was jedoch Ingenieure vorgeben müssen, ist eine sogenannte Nutzenfunktion, z.B. „es ist positiv, ein Schachspiel zu gewinnen und es ist negativ, eines zu verlieren“. Würde man aus Spaß das Vorzeichen der Nutzenfunktion vertauschen, so würde die KI-Anwendung trainiert, Schachspiele möglichst schnell zu verlieren. Für die Anwendung wäre das überhaupt kein Problem. Sie spürt ja gar nichts, auch nicht die Auswirkungen eines verlorenen Schachspiels. Den Anreiz, eine Anwendung zu entwickeln, die Schachspiele auch gewinnt, haben die Ingenieure. Sie geben alles Notwendige von außen vor – nicht die KI-Anwendung aus sich heraus.

Im Gegensatz zur KI-Anwendung haben Menschen jedoch einen Körper. Babys verspüren Hunger und lernen von sich aus, sich so zu verhalten, dass sie etwas zu essen bekommen (Schreien hilft meist). Kinder brauchen den Zuspruch und die Zuneigung der Eltern und lernen sich so zu verhalten, dass sie Zuspruch und Zuneigung auch erhalten. Jugendliche und junge Erwachsene lernen, wie sie sich in ihrer Gesellschaft zu verhalten haben, um zu überleben – so unterschiedlich Gesellschaften auch sein können. Sie lernen aus sich heraus, weil sie Körper und Geist haben und wirklich in ihrer Umgebung leben – quasi die Resultate ihres Handelns hautnah spüren. KI-Anwendungen werden im Gegensatz dazu ausschließlich von außen durch Ingenieure gestaltet, auch wenn Techniken des Machine Learning eingesetzt werden.

KI-Anwendungen laufen auf Computer-Hardware. Wie die Anwendungen ist auch die Hardware von Ingenieuren entwickelt worden. Auch wenn wir die Metapher der „Generationen“ verwenden (wir reden z.B. von einer „neuen Prozessorgeneration“), hat dies selbstverständlich nichts mit Fortpflanzung in der Natur zu tun. Ein Prozessor kommt nicht auf die Idee, einen neuen Prozessor zu entwickeln und er zeugt auch keinen Prozessor, der mittels Evolution plötzlich besser ist als sein Vater.

Vergleichen wir nun KI-Anwendungen mit biologischem, intelligentem Leben: Auf der einen Seite beobachten wir ein unfassbar komplexes, vielschichtiges, dynamisches, selbstorganisierendes System – die vielen Schichten bzw. Ebenen habe ich laienhaft oben angedeutet. Auf der anderen Seite haben wir ein menschengemachtes, zweischichtiges System, bestehend aus KI-Anwendung und Computer-Hardware. Beide Schichten sind in sich starr und nicht selbstorganisierend. Die Dynamik (neue Hardwaregenerationen, bessere Algorithmen etc.) kommt von außen durch menschliche Ingenieursleistung. Wie kann man nun nüchtern betrachtet zur Behauptung kommen, dass dieses starre, menschengemachte System irgendwie plötzlich und von selbst dynamisch, selbstorganisierend, lebendig und intelligent wird: eine technische Superintelligenz, welche die Menschheit bedrohen kann? Ich kann beim besten Willen nicht den allerkleinsten Ansatz dafür sehen.

Bleibt die Frage, warum es immer wieder (einzelne) Fachexperten wie Marvin Minsky gibt, die solche, aus meiner Sicht absurden, Behauptungen aufstellen. Ist es ihr Ziel, Aufmerksamkeit zu erzeugen? Können sie eventuell daraus finanziellen Nutzen zu ziehen, z.B. in Form von Fördergeldern (das hat in den 1980er Jahren prima funktioniert)? Glauben sie wirklich daran und sorgen sie sich um die Menschheit? Sind solche ernst gemeinten Behauptungen vielleicht der Ausdruck einer schon fast ideologischen Wissenschafts- und Technikgläubigkeit? Ich weiß es nicht.

Dabei sind die Fortschritte der KI, vor allem in den letzten 20 Jahren, in der Tat höchst beeindruckend. Und tatsächlich bergen sie neben zahlreichen Chancen auch größte Risiken, wenn die Techniken blauäugig angewendet werden. In der Ausgabe 2/2017 der Communications of the ACM schreibt Alan Bundy in seinem Viewpoint sehr pointiert und aus meiner Sicht richtig: „Smart machines are not a threat to humanity. Worrying about machines that are too smart distracts us from the real and present threat from machines that are too dumb“.

Menschen überlassen KI-Anwendungen zunehmend wichtige Entscheidungen, obwohl selbstverständlich keine Anwendung perfekt ist. Bei selbstfahrenden Autos mag das durchaus sinnvoll sein, sobald diese nachweislich sicherer fahren als Menschen. Aber wirklich gefährlich wird es bei Entscheidungen, deren Auswirkungen kein Mensch mehr überblicken kann. Ein viel diskutiertes Gebiet ist der Hochfrequenzhandel, bei dem KI-Anwendungen Kauf- und Verkaufsentscheidungen autonom treffen, ohne dass heute die Auswirkungen auf das gesamte Wirtschaftssystem überblickt werden können. Noch deutlicher wird das im militärischen Bereich, wenn KI-Anwendungen prognostizieren sollen, ob ein Angriffsfall vorliegt und im Extremfall in Sekundenbruchteilen autonom über einen (möglicherweise nuklearen) Gegenschlag entscheiden sollen. Über solche KI-Anwendungen wurde bereits 1983 im Rahmen der Strategic Defense Initiative (SDI) intensiv diskutiert (bezeichnenderweise während der Hochzeit des KI-Hypes); und solche Diskussionen kommen leider immer wieder auf die Tagesordnung.

Wenn eine überhöhte Technik- und Wissenschaftsgläubigkeit nur dazu führt, absurde Behauptungen über technische Superintelligenzen aufzustellen, so ist das nicht weiter schlimm – sie provozieren nur harmlose akademische Diskussionen oder inspirieren amüsante Science Fiction Filme. Wenn wir aber als Gesellschaft – und besonders die politischen und wirtschaftlichen Entscheider – die Grenzen von Wissenschaft und Technik nicht klar sehen und folglich KI-Anwendungen Entscheidungen überlassen, die zwingend von verantwortlichen Menschen getroffen werden müssen, so kann dies fatale Folgen für unsere Gesellschaft haben.

Anmerkung:

Im Anschluss an diesen Artikel gab es eine Vortragsveranstaltung in der Reihe Philosophie Jetzt im Gespräch am 28.September 2017