Archiv der Kategorie: Software

NACHHALTIGE EMPIRISCHE THEORIE mit Software und Alltagsprozessen

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 2.April 2023 – 2.April 2023
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (cagent@cognitiveagent.org)

Kontext/ Einleitung

Im Kontext der Entwicklung einer ’nachhaltigen empirischen Theorie‘ (NET) gibt es neben den ‚meta-theoretischen‘ Diskussionen nicht wenige Diskussionen auch im Kontext der möglichen ‚Anwendungsszenarien‘. Das folgende Schaubild lässt ein wenig die Umrisse der Thematik erkennen.

Theorie und Anwendungsszenarien

Erläuterungen zum Bild

Konzepte und Prozesse

Neben den ’strukturellen Konzepten‘ auf der linken Seite muss man die ‚Prozessstrukturen im Alltag‘ auf der rechten Bildseite berücksichtigen.

Konzept Theorie

Ein strukturelles Konzept beschreibt z.B. auf einem Meta-Level was eine ’nachhaltige empirische Theorie‘ ist und vergleicht dieses Konzept mit dem Konzept ‚Spiel‘ und ‚Theaterstück‘. Da es schnell sehr aufwendig werden kann, komplette Theorien per Hand hinzuschreiben, kann es sehr hilfreich sein, eine Software zu haben (es gibt eine unter dem Namen ‚oksimo.R‘), die den Bürger darin unterstützt, gemeinsam mit anderen Bürgern in ’normaler Sprache‘ den ‚Text einer Theorie‘ aufzuschreiben und nach Bedarf auch zu ’simulieren‘; darüber hinaus wäre es gut, man könnte eine Theorie auch ‚interaktiv spielen‘ (und letztlich sogar noch viel mehr).

Den Text einer Theorie zu haben, diese auszuprobieren und weiter zu entwickeln ist eine Sache. Aber der Weg zu einer Theorie kann mühsam und langwierig sein. Er benötigt sehr viel ‚Erfahrung‘, ‚Wissen‘ und vielfältige Formen von dem, was man meist sehr vage ‚Intelligenz‘ nennt.

Konzept Kollektive Intelligenz

Intelligenz kommt typischerweise im Kontext ‚biologischer Systeme‘ vor, bei ‚Menschen‘ und ‚Nicht-Menschen‘. In neuerer Zeit gibt es auch Beispiele, denen man vage Intelligenz zuspricht, die von ‚Maschinen‘ realisiert wird. Letztlich bilden alle diese unterschiedlichen Phänomene, die man unter dem Begriff ‚Intelligenz‘ grob zusammen fasst, ein Muster, das man unter einer bestimmen Rücksicht als ‚kollektive Intelligenz‘ betrachten könnte. Dafür gibt es sehr viele prominenten Beispiel aus dem Bereich ’nicht-menschlicher biologischer Systeme‘, und dann ganz besonders bei ‚menschlichen biologischen Systemen‘ mit ihrem ‚koordinierten Verhalten‘ in Verbindung mit ihren ’symbolischen Sprachen‘.

Die große Herausforderung der Zukunft besteht darin, diese verschiedenen ‚Typen von individueller und kollektiver Intelligenz‘ zu einer wirklichen konstruktiv-kollektiven Intelligenz zusammen zu führen.

Konzept empirische Daten

Die allgemeinste Form einer Sprache bildet die sogenannte ’normale Sprache‘ oder ‚Alltagssprache. Sie enthält in einem Konzept alles, was wir heute über Sprachen wissen.

Ein interessanter Aspekt ist die Tatsache, dass die Alltagssprache für jede spezielle Art von Sprache (Logik, Mathematik, …) jene ‚Meta-Sprache‘ bildet, auf deren Basis die andere spezielle Sprache ‚eingeführt‘ wird.

Die möglichen ‚Bedeutungselemente und Bedeutungsstrukturen‘, aus denen heraus sich die alltäglichen Sprachstrukturen gebildet haben, entspringen dem Raum des Alltags und seiner Ereigniswelt.

Während die normalen Wahrnehmungsprozesse in Abstimmung unter den verschiedenen Sprechern-Hörer schon eine Menge wertvoller Beschreibungen von alltäglichen Eigenschaften und Prozessen liefern können, können spezialisierte Beobachtungsprozesse in Form von ’standardisierten Messprozessen‘ die Genauigkeit von Beschreibungen erheblich steigern. Das zentrale Moment ist, dass sich alle beteiligten Sprecher-Hörer, die sich für ein ‚bestimmtes Thema‘ (Physik, Chemie, Raumverhältnisse, Spielzüge, …) interessieren, sich für alle ‚wichtigen Eigenschaften‘ auf ‚vereinbarte Beschreibungsprozeduren‘ einigen, die jeder in gleicher Weise auf transparente und reproduzierbare Weise ausführt.

Prozesse im Alltag

Auf welche konzeptuelle Strukturen man sich auch immer geeinigt haben mag, sie können nur dann ‚zur Wirkung kommen‘ (‚zum Leben erweckt‘ werden), wenn es genügend Menschen gibt, die bereit sind, im Rahmen des Alltags all jene ‚Prozesse‘ konkret zu leben. Dazu braucht es Raum, Zeit, die notwendigen Ressourcen und eine hinreichend starke und anhaltende ‚Motivation‘, diese Prozesse jeden Tag aufs Neue zu leben.

So gibt es neben den Menschen, Tieren und Pflanzen und deren Bedürfnissen mittlerweile eine riesige Menge an künstlichen Strukturen (Häuser, Straßen, Maschinen,…), die jeweils auch bestimmte Anforderungen an ihre Umgebung stellen. Diese Anforderungen zu kennen und sie so zu ‚koordinieren/ zu managen‘, dass sie positive Synergien‘ ermöglichen, ist eine gewaltige Herausforderung, die — so der Eindruck im Jahr 2023 — die Menschheit vielfach überfordert.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

chatGPT – Wie besoffen muss man sein?

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 13.Februar 2023 – 17.April 2023
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (cagent@cognitiveagent.org)

Kontext

Beitrag ansehen

Seit der Freigabe des chatbots ‚chatGPT‘ für die größere Öffentlichkeit geht eine Art ‚Erdbeben‘ durch die Medien, weltweit, in vielen Bereichen, vom Privatpersonen über Institutionen, Firmen, Behörden …. jeder sucht das ‚chatGPT Erlebnis‘. Diese Reaktionen sind erstaunlich, und erschreckend zugleich.

Anmerkung: In meinem Englischen Blog hatte ich nach einigen Experimenten mit chatGPT eine erste Reflexion über den möglichen Nutzen von chatGPT geschrieben. Mir hatte es für ein erstes Verständnis geholfen; dieses hat sich dann bis zu dem Punkt weiterentwickelt, der im vorliegenden Text zum Ausdruck kommt.[6]

Form

Die folgenden Zeilen bilden nur eine kurze Notiz, da es sich kaum lohnt, ein ‚Oberflächenphänomen‘ so intensiv zu diskutieren, wo doch die ‚Tiefenstrukturen‘ erklärt werden sollten. Irgendwie scheinen die ‚Strukturen hinter chatGPT‘ aber kaum jemanden zu interessieren (Gemeint sind nicht die Details des Quellcodes in den Algortihmen).

chatGPT als Objekt

Der chatbot mit Namen ‚chatGPT‘ ist ein Stück Software, ein Algorithmus, der (i) von Menschen erfunden und programmiert wurde. Wenn (ii) Menschen ihm Fragen stellen, dann (iii) sucht er in der ihm bekannten Datenbank von Dokumenten, die wiederum Menschen erstellt haben, (iv) nach Textmustern, die nach bestimmten formalen Kriterien (z.T. von den Programmierern vorgegeben) einen Bezug zur Frage aufweisen. Diese ‚Textfunde‘ werden (v) ebenfalls nach bestimmten formalen Kriterien (z.T. von den Programmierern vorgegeben) in einen neuen Text ‚angeordnet‘, der (vi) jenen Textmustern nahe kommen soll, die ein menschlicher Leser ‚gewohnt‘ ist, als ’sinnvoll‘ zu akzeptieren.

Textoberfläche – Textbedeutung – Wahrheitsfähig

Ein normaler Mensch kann — mindestens ‚intuitiv‘ — unterscheiden zwischen den (i) ‚Zeichenketten‘, die als ‚Ausdrücke einer Sprache‘ benutzt werden, und jenen (ii) ‚Wissenselementen‘ (im Kopf des Hörer-Sprechers), die als solche ‚unabhängig‘ sind von den Sprachelementen, aber die (iii) von Sprechern-Hörer einer Sprache ‚frei assoziiert‘ werden können, so dass die korrelierten ‚Wissenselemente zu dem werden, was man gewöhnlich die ‚Bedeutung‘ der Sprachelemente nennt.[1] Von diesen Wissenselementen (iv) ‚weiß‘ jeder Sprachteilnehmer schon ‚vorsprachlich‘, als lernendes Kind [2], dass einige dieser Wissenselemente unter bestimmten Umständen mit Umständen der Alltagswelt ‚korrelierbar‘ sind. Und der normale Sprachbenutzer verfügt auch ‚intuitiv‘ (automatisch, unbewusst) über die Fähigkeit, solche Korrelation — im Lichte des verfügbaren Wissens — einzuschätzen als (v) ‚möglich‘ oder (vi) als eher ‚unwahrscheinlich‘ bzw. (vi) als ‚bloße Fantasterei‘.[3]

Die grundlegende Fähigkeit eines Menschen, eine ‚Korrelation‘ von Bedeutungen mit (intersubjektiven) Umweltgegebenheiten feststellen zu können, nennen — zumindest einige — Philosophen ‚Wahrheitsfähigkeit‘ und im Vollzug der Wahrheitsfähigkeit spricht man dann auch von ‚zutreffenenden‘ sprachlichen Äußerungen oder von ‚wahren (empirischen) Aussagen‘.[5]

Unterscheidungen wie ‚zutreffend‘ (‚wahr‘), ‚möglicherweise zutreffend‘, ‚eher nicht zutreffend‘ oder ‚auf keinen Fall zutreffend‘ deuten an, dass der Wirklichkeitsbezug menschlicher Wissenselemente sehr vielfältig und ‚dynamisch‘ ist. Etwas, das gerade noch zutreffend war, kann im nächsten Moment nicht mehr zutreffend sein. Etwas, das lange als ‚bloße Fantasterei‘ abgetan wurde, kann dann doch plötzlich als ‚möglich‘ erscheinen oder ‚trifft plötzlich zu‘. Sich in diesem ‚dynamisch korrelierten Bedeutungsraum‘ so zu bewegen, dass eine gewisse ‚innere und äußere Konsistenz‘ gewahrt bleibt, stellt eine komplexe Herausforderung dar, die von Philosophie und den Wissenschaften bislang eher nicht ganz verstanden, geschweige denn auch nur annähernd ‚erklärt‘ worden ist.

Fakt ist: wir Menschen können dies bis zu einem gewissen Grad. Je komplexer der Wissensraum ist, je vielfältiger die sprachlichen Interaktion mit anderen Menschen werden, umso schwieriger wird es natürlich.

‚Luftnummer‘ chatGPT

(Letzte Änderung: 15.Februar 2023, 07:25h)

Vergleicht man den chatbot chatGPT mit diesen ‚Grundeigenschaften‘ des Menschen, dann kann man erkennen, dass chatGPT nichts von alledem kann. (i) Fragen kann er von sich aus nicht sinnvoll stellen, da es keinen Anlass gibt, warum er fragen sollte (es sei denn, jemand induziert ihm eine Frage). (ii) Textdokumente (von Menschen) sind für ihn Ausdrucksmengen, für die er über keine eigenständigen Bedeutungszuordnung verfügt. Er könnte also niemals eigenständig die ‚Wahrheitsfrage‘ — mit all ihren dynamischen Schattierungen — stellen oder beantworten. Er nimmt alles für ‚bare Münze‘ bzw. man sagt gleich, dass er ’nur träumt‘.

Wenn chatGPT aufgrund seiner großen Text-Datenbank eine Teilmenge von Ausdrücken hat, die irgendwie als ‚wahr‘ klassifiziert sind, dann kann der Algorithmus ‚im Prinzip‘ indirekt ‚Wahrscheinlichkeiten‘ ermitteln, die andere Ausdrucksmengen, die nicht als ‚wahr‘ klassifiziert sind, dann doch ‚mit einer gewissen Wahrscheinlichkeit‘ als ‚wahr erscheinen‘
lassen. Ob der aktuelle chatGPT Algorithmus solche ‚wahrscheinlichen Wahrheiten explizit‘ benutzt, ist unklar. Im Prinzip übersetzt er Texte in ‚Vektorräume‘, die auf verschiedene Weise ‚ineinander abgebildet‘ werden, und Teile dieser Vektorräume werden dann wieder in Form eines ‚Textes‘ ausgegeben. Das Konzept ‚Wahrheit‘ taucht in diesen mathematischen Operationen — nach meinem aktuellen Kenntnisstand — nicht auf. Wenn, dann wäre es auch nur der formale logische Wahrheitsbegriff [4]; dieser liegt aber mit Bezug auf die Vektorräume ‚oberhalb‘ der Vektorräume, bildet in Bezug auf diese einen ‚Meta-Begriff‘. Wollte man diesen auf die Vektorräume und Operationen auf diesen Vektorräumen tatsächlich anwenden, dann müsste man den Code von chatGPT komplett neu schreiben. Würde man dies tun — das wird aber keiner schaffen — dann würde sich der Code von chatGPT dem Status einer formalen Theorie nennen (wie in der Mathematik) (siehe Anmerkung [5]). Von einer empirischen Wahrheitsfähigkeit wäre chatGPT dann immer noch meilenweit entfernt.

Hybride Scheinwahrheiten

Im Anwendungsfall, bei dem der Algorithmus mit Namen ‚chatGPT‘ Ausdrucksmengen benutzt, die den Texten ähneln, die Menschen produzieren und lesen, navigiert sich chatGPT rein formal und mit Wahrscheinlichkeiten durch den Raum der formalen Ausdruckselemente. Ein Mensch, der die von chatGPT produzierten Ausdrucksmengen ‚liest‘, aktiviert aber automatisch (= unbewusst!) sein eigenes ’sprachliches Bedeutungswissen‘ und projiziert dieses in die abstrakten Ausdrucksmenge von chatGBT. Wie man beobachten kann (und hört und liest von anderen), sind die von chatGBT produzierten abstrakten Ausdrucksmengen dem gewöhnten Textinput von Menschen in vielen Fällen — rein formal — so ähnlich, dass ein Mensch scheinbar mühelos seine Bedeutungswissen mit diesen Texten korrelieren kann. Dies hat zur Folge, dass der rezipierende (lesende, hörende) Mensch das ‚Gefühl‘ hat, chatGPT produziert ’sinnvolle Texte‘. In der ‚Projektion‘ des lesenden/hörenden Menschen JA, in der Produktion von chatGPT aber NEIN. chatGBT verfügt nur über formale Ausdrucksmengen (kodiert als Vektorräume), mit denen er ‚blind‘ herumrechnet. Über ‚Bedeutungen‘ im menschlichen Sinne verfügt er nicht einmal ansatzweise.

Zurück zum Menschen?

(Letzte Änderung: 27.Februar 2023)

Wie leicht sich Menschen von einer ‚fake-Maschine‘ so beeindrucken lassen, dass sie dabei sich selbst anscheinend vergessen und sich ‚dumm‘ und ‚leistungsschwach‘ fühlen, obgleich die Maschine nur ‚Korrelationen‘ zwischen menschlichen Fragen und menschlichen Wissensdokumenten rein formal herstellt, ist eigentlich erschreckend [7a,b], und zwar mindestens in einem doppelten Sinne: (i)Statt die eigene Potentiale besser zu erkennen (und zu nutzen), starrt man gebannt wie das berühmte ‚Kaninchen auf die Schlange‘, obgleich die Maschine immer noch ein ‚Produkt des menschlichen Geistes‘ ist. (ii) Durch diese ‚kognitive Täuschung‘ wird versäumt, das tatsächlich ungeheure Potential ‚kollektiver menschlicher Intelligenz‘ besser zu verstehen, das man dann natürlich durch Einbeziehung moderner Technologien um mindestens einen evolutionären Level weiter voran bringen könnte. Die Herausforderung der Stunde lautet ‚Kollektiver Mensch-Maschine Intelligenz‘ im Kontext einer nachhaltigen Entwicklung mit Priorität bei der menschlichen kollektiven Intelligenz. Die aktuelle sogenannte ‚Künstliche (= maschinelle) Intelligenz‘ sind ziemlich primitive Algorithmen. Integriert in eine entwickelte ‚kollektive menschliche Intelligenz‘ könnten ganz andere Formen von ‚Intelligenz‘ realisiert werden, solche, von denen wir aktuell höchstens träumen können.

Kommentierung weiterer Artikel von anderen Autoren zu chatGPT

(Letzte Änderung: 17.April 2023)

Achtung: Einige der Text in den Anmerkungen sind aus dem Englischen zurück übersetzt worden. Dies geschah unter Benutzung der Software www.DeepL.com/Translator (kostenlose Version).

Siehe [8], [9], [10], [12],[13],[14],[15]

Anmerkungen

[1] In den vielen tausend ’natürlichen Sprachen‘ dieser Welt kann man beobachten, wie ‚erfahrbare Umweltgegebenheiten‘ über die ‚Wahrnehmung‘ zu ‚Wissenselementen‘ werden können, die dann in jeder Sprache mit unterschiedlichen Ausdrücken korreliert werden. Die Sprachwissenschaftler (und Semiotiker) sprechen daher hier von ‚Konventionen‘, ‚frei vereinbarte Zuordnungen‘.

[2] Aufgrund der körperlichen Interaktion mit der Umgebung, die ‚Wahrnehmungsereignisse‘ ermöglicht, die von den ‚erinnerbaren und gewussten Wissenselementen‘ unterscheidbar sind.

[3] Die Einstufung von ‚Wissenselementen‘ als ‚Fantasterei‘ kann falsch sein, wie viele Beispiele zeigen, wie umgekehrt, die Einstufung als ‚wahrscheinlich korrelierbar‘ auch falsch sein kann!

[4] Nicht der ‚klassischen (aristotelischen) Logik‘ da diese noch keine strenge Trennung von ‚Form‘ (Ausdruckselementen) und ‚Inhalt‘ (Bedeutung) kannte.

[5] Es gibt auch Kontexte, in denen spricht man von ‚wahren Aussagen‘, obgleichgar keine Beziehung zu einer konkreten Welterfahrung vorliegt. So z.B. im Bereich der Mathematik, wo man gerne sagt, dass eine Aussage ‚wahr‘ ist. Dies ist aber eine ganz ‚andere Wahrheit‘. Hier geht es darum, dass im Rahmen einer ‚mathematischen Theorie‘ bestimmte ‚Grundannahmen‘ gemacht wurden (die mit einer konkreten Realität nichts zu tun haben müssen), und man dann ausgehend von diesen Grundannahmen mit Hilfe eines formalen Folgerungsbegriffs (der formalen Logik) andere Aussagen ‚ableitet‘. Eine ‚abgeleitete Aussage‘ (meist ‚Theorem‘ genannt), hat ebenfalls keinerlei Bezug zu einer konkreten Realität. Sie ist ‚logisch wahr‘ oder ‚formal wahr‘. Würde man die Grundannahmen einer mathematischen Theorie durch — sicher nicht ganz einfache — ‚Interpretationen‘ mit konkreter Realität ‚in Beziehung setzen‘ (wie z.B. in der ‚angewandten Physik‘), dann kann es unter speziellen Bedingungen sein, dass die formal abgeleiteten Aussagen einer solchen ‚empirisch interpretierten abstrakten Theorie‘ eine ‚empirische Bedeutung‘ gewinnen, die unter bestimmten Bedingungen vielleicht ‚korrelierbar‘ ist; dann würde man solche Aussagen nicht nur ‚logisch wahr‘ nennen, sondern auch ‚empirisch wahr‘. Wie die Geschichte der Wissenschaft und der Wissenschaftsphilosophie zeigt, ist der aber ‚Übergang‘ von empirisch interpretierten abstrakten Theorien zu empirisch interpretierbaren Folgerungen mit Wahrheitsanspruch nicht trivial. Der Grund liegt im benutzten ‚logischen Folgerungsbegriff‘. In der modernen formalen Logik gibt es mahezu ‚beliebig viele‘ verschiedene formale Folgerzungsbegriffe. Ob ein solcher formaler Folgerungsbegriff tatsächlich die Struktur empirischer Gegebenheiten über abstrakte Strukturen mit formalen Folgerungen ‚angemessen wiedergibt‘, ist keinesfalls gesichert! Diese Problemstellung ist in der Wissenschaftsphilosophie bislang nicht wirklich geklärt!

[6] Gerd Doeben-Henisch, 15.-16.Januar 2023, „chatGBT about Rationality: Emotions, Mystik, Unconscious, Conscious, …“, in: https://www.uffmm.org/2023/01/15/chatgbt-about-rationality-emotions-mystik-unconscious-conscious/

[7a] Der chatbot ‚Eliza‘ von Weizenbaum von 1966 war trotz seiner Einfachheit in der Lage, menschliche Benutzer dazu zu bringen, zu glauben, dass das Programm sie ‚versteht‘ selbst dann, wenn man ihnen erklärte, dass es nur ein einfacher Algorithmus sei. Siehe das Stichwort ‚Eliza‘ in wkp-de: https://de.wikipedia.org/wiki/ELIZA

[7b] Joseph Weizenbaum, 1966, „ELIZA. A Computer Program For the Study of Natural Language. Communication Between Man And Machine“, Communications of the ACM, Vol.9, No.1, January 1966, URL: https://cse.buffalo.edu/~rapaport/572/S02/weizenbaum.eliza.1966.pdf Anmerkung: Obwohl das Programm ‚Eliza‘ von Weizenbaum sehr einfach war, waren alle Benutzer fasziniert von dem Programm, weil sie das Gefühl hatten „Es versteht mich“, dabei spiegelte das Programm nur die Fragen und Aussagen der Benutzer. Anders gesagt: die Benutzer waren ‚von sich selbst‘ fasziniert mit dem Programm als eine Art ‚Spiegel‘.

[8] Ted Chiang, 2023, „ChatGPT Is a Blurry JPEG of the Web. OpenAI’s chatbot offers paraphrases, whereas Google offers quotes. Which do we prefer?“, The NEW YORKER, February 9, 2023. URL: https://www.newyorker.com/tech/annals-of-technology/chatgpt-is-a-blurry-jpeg-of-the-web . Anmerkung: Chang betrachtet das Programm chatGPT im Paradigma eines ‚Kompressions-Algorithmus‘: Die Fülle der Informationen wird ‚verdichtet/ abstrahiert‘, so dass ein leicht unscharfes Bild der Textmengen entsteht, keine 1-zu-1 Kopie. Dies führt beim Benutzer zum Eindruck eines Verstehens auf Kosten des Zugriffs auf Details und Genauigkeit. Die Texte von chatGPT sind nicht ‚wahr‘, aber sie ‚muten an‘.

[9] Dietmar Hansch, 2023, „Der ehrlichere Name wäre ‚Simulierte Intelligenz‘. An welchen Defiziten Bots wie chatGBT leiden und was das für unseren Umgang mit Ihnen heißen muss.“, FAZ, 1.März 2023, S.N1 . Bemerkung: Während Chiang (siehe [8] sich dem Phänomen chatGPT mit dem Konzept ‚Kompressions-Algorithmus‘ nähert bevorzugt Hansch die Begriffe ’statistisch-inkrementelles Lernen‘ sowie ‚Einsichtslernen‘. Für Hansch ist Einsichtslernen an ‚Geist‘ und ‚Bewusstsein‘ gebunden, für die er im Gehirn ‚äquivalente Strukturen‘ postuliert. Zum Einsichtslernen kommentiert Hansch weiter „Einsichtslernen ist nicht nur schneller, sondern auch für ein tiefes, ganzheitliches Weltverständnis unverzichtbar, das weit greifende Zusammenhänge erfasst sowie Kriterien für Wahrheit und Wahrhaftigkeit vermittelt.“ Es verwundert dann nicht wenn Hansch schreibt „Einsichtslernen ist die höchster Form des Lernens…“. Mit Bezug auf diesen von Hansch etablierten Referenzrahmen klassifiziert er chatGPT in dem Sinne dass er nur zu ’statistisch-inkrementellem Lernen‘ fähig sei. Ferner postuliert Hansch für den Menschen, „Menschliches Lernen ist niemals rein objektiv, wir strukturieren die Welt immer in Bezug auf unsere Bedürfnisse, Gefühle und bewussten Zwecke…“. Er nennt dies den ‚Humanbezug‘ im menschlichen Erkennen, und genau diesen spricht er chatGPT auch ab. Für geläufige Bezeichnung ‚KI‘ als ‚Künstliche Intelligenz‘ postuliert er, dass der Terminus ‚Intelligenz‘ in dieser Wortverbindung nichts mit der Bedeutung zu tun habe, die wir im Fall des Menschen mit ‚Intelligenz‘ verbinden, also auf keinen Fall etwas mit ‚Einsichtslernen‘, wie er zuvor schon festgestellt hat. Um diesem Umstand mehr Ausdruck zu verleihen würde er lieber den Begriff ‚Simulierte Intelligenz‘ benutzen (siehe dazu auch [10]). Diese begriffliche Strategie wirkt merkwürdig, da der Begriff Simulation [11] normalerweise voraussetzt, dass es eine klare Sachlage gibt, zu der man ein vereinfachtes ‚Modell‘ definiert, mittels dem sich dann das Verhalten des Originalsystems in wichtigen Punkten — vereinfacht — anschauen und untersuchen lässt. Im vorliegenden Fall ist aber nicht ganz klar, was denn überhaupt das Originalsystem sein soll, das im Fall von KI simuliert werden soll. Es gibt bislang keine einheitliche Definition von ‚Intelligenz‘ im Kontext von ‚KI‘! Was die Begrifflichkeit von Hansch selbst angeht, so sind die Begriffe ‚statistisch-inkrementelles Lernen‘ sowie ‚Einsichtslernen‘ ebenfalls nicht klar definiert; der Bezug zu beobachtbarem menschlichen Verhalten geschweige den zu den postulierten ‚äquivalenten Gehirnstrukturen‘ ist beliebig unklar (was durch den Bezug zu bis heute nicht definierten Begriffen wie ‚Bewusstsein‘ und ‚Geist‘ nicht gerade besser wird).

[10] Severin Tatarczyk, 19.Februar 2023, zu ‚Simulierter Intelligenz‘: https://www.severint.net/2023/02/19/kompakt-warum-ich-den-begriff-simulierte-intelligenz-bevorzuge-und-warum-chatbots-so-menschlich-auf-uns-wirken/

[11] Begriff ‚Simulation‘ in wkp-de: https://de.wikipedia.org/wiki/Simulation

[12] Doris Brelowski machte mich auf folgenden Artikel aufmerksam: James Bridle, 16.März 2023, „The stupidity of AI. Artificial intelligence in its current form is based on the wholesale appropriation of existing culture, and the notion that it is actually intelligent could be actively dangerous“, URL: https://www.theguardian.com/technology/2023/mar/16/the-stupidity-of-ai-artificial-intelligence-dall-e-chatgpt?CMP=Share_AndroidApp_Other . Anmerkung: Ein Beitrag, der kenntnisreich und sehr differenziert das Wechselspiel zwischen Formen der AI beschreibt, die von großen Konzernen auf das gesamte Internet ‚losgelassen‘ werden, und was dies mit der menschlichen Kultur und dann natürlich mit den Menschen selbst macht. Zwei Zitate aus diesem sehr lesenwerten Artikel: Zitat 1: „The entirety of this kind of publicly available AI, whether it works with images or words, as well as the many data-driven applications like it, is based on this wholesale appropriation of existing culture, the scope of which we can barely comprehend. Public or private, legal or otherwise, most of the text and images scraped up by these systems exist in the nebulous domain of “fair use” (permitted in the US, but questionable if not outright illegal in the EU). Like most of what goes on inside advanced neural networks, it’s really impossible to understand how they work from the outside, rare encounters such as Lapine’s aside. But we can be certain of this: far from being the magical, novel creations of brilliant machines, the outputs of this kind of AI is entirely dependent on the uncredited and unremunerated work of generations of human artists.“ Zitat 2: „Now, this didn’t happen because ChatGPT is inherently rightwing. It’s because it’s inherently stupid. It has read most of the internet, and it knows what human language is supposed to sound like, but it has no relation to reality whatsoever. It is dreaming sentences that sound about right, and listening to it talk is frankly about as interesting as listening to someone’s dreams. It is very good at producing what sounds like sense, and best of all at producing cliche and banality, which has composed the majority of its diet, but it remains incapable of relating meaningfully to the world as it actually is. Distrust anyone who pretends that this is an echo, even an approximation, of consciousness. (As this piece was going to publication, OpenAI released a new version of the system that powers ChatGPT, and said it was “less likely to make up facts”.)“

[13] David Krakauer in einem Interview mit Brian Gallagher in Nautilus, March 27, 2023, Does GPT-4 Really Understand What We’re Saying?, URL: https://nautil.us/does-gpt-4-really-understand-what-were-saying-291034/?_sp=d9a7861a-9644-44a7-8ba7-f95ee526d468.1680528060130. David Krakauer, Evolutionstheoretiker und Präsident des Santa Fe Instituts für Complexity Science, analysiert die Rolle von Chat-GPT-4-Modellen im Vergleich zum menschlichen Sprachmodell und einem differenzierteren Verständnis dessen, was „Verstehen“ und „Intelligenz“ bedeuten könnte. Seine Hauptkritikpunkte stehen in enger Übereinstimmung mit der obigen Position. Er weist darauf hin, dass (i) man klar zwischen dem „Informationskonzept“ von Shannon und dem Konzept der „Bedeutung“ unterscheiden muss. Etwas kann eine hohe Informationslast darstellen, aber dennoch bedeutungslos sein. Dann weist er darauf hin (ii), dass es mehrere mögliche Varianten der Bedeutung von „Verstehen“ gibt. Die Koordinierung mit dem menschlichen Verstehen kann funktionieren, aber Verstehen im konstruktiven Sinne: nein. Dann setzt Krakauer (iii) GPT-4 mit dem Standardmodell der Wissenschaft in Beziehung, das er als „parsimony“ charakterisiert; chat-GPT-4 ist eindeutig das Gegenteil. Ein weiterer Punkt (iv) ist die Tatsache, dass die menschliche Erfahrung einen „emotionalen“ und einen „physischen“ Aspekt hat, der auf somato-sensorischen Wahrnehmungen im Körper beruht. Dies fehlt bei GPT-4. Dies hängt (v) mit der Tatsache zusammen, dass das menschliche Gehirn mit seinen „Algorithmen“ das Produkt von Millionen von Jahren der Evolution in einer komplexen Umgebung ist. Die GPT-4-Algorithmen haben nichts Vergleichbares; sie müssen den Menschen nur ‚überzeugen‘. Schließlich (vi) können Menschen „physikalische Modelle“ generieren, die von ihren Erfahrungen inspiriert sind, und können mit Hilfe solcher Modelle schnell argumentieren. So kommt Krakauer zu dem Schluss: „Das Narrativ, das besagt, dass wir das menschliche Denken wiederentdeckt haben, ist also in vielerlei Hinsicht falsch. Einfach nachweislich falsch. Das kann nicht der richtige Weg sein.“ Anmerkungen zum Text von Krakauer: Benutzt man das allgemeine Modell von Akteur und Sprache, wie es der Text oben annimmt, dann ergeben sich die Punkt (i) – (vi) als Folgerungen aus dem allgemeinen Modell. Die Akzeptanz eines allgemeinen Akteur-Sprache Modells ist leider noch nicht verbreitet.

[14] Von Marie-José Kolly (Text) und Merlin Flügel (Illustration), 11.04.2023, „Chatbots wie GPT können wunderbare Sätze bilden. Genau das macht sie zum Problem“. Künstliche Intelligenz täuscht uns etwas vor, was nicht ist. Ein Plädoyer gegen die allgemeine Begeisterung. Online-Zeitung ‚Republik‘ aus der SChweiz, URL: https://www.republik.ch/2023/04/11/chatbots-wie-gpt-koennen-wunderbare-saetze-bilden-genau-das-macht-sie-zum-problem? Hier einige Anmerkungen:

Der Text von Marie-José Kolly sticht hervor weil der Algorithmus mit Namen chatGPT(4) hier sowohl in seinem Input-Output Verhalten charakterisiert wird und zusätzlich ein Vergleich zum Menschen zumindest in Ansätzen vorgenommen wird.

Das grundsätzliche Problem des Algorithmus chatGPT(4) besteht darin (wie auch in meinem Text oben herausgestellt), dass er als Input-Daten ausschließlich über Textmengen verfügt (auch jene der Benutzer), die nach rein statistischen Verfahren in ihren formalen Eigenschaften analysiert werden. Auf der Basis der analysierten Regelmäßigkeiten lassen sich dann beliebige Text-Kollagen erzeugen, die von der Form her den Texten von Menschen sehr stark ähneln, so sehr, dass viele Menschen sie für ‚von Menschen erzeugte Texte‘ nehmen. Tatsächlich fehlen dem Algorithmus aber das, was wir Menschen ‚Weltwissen‘ nennen,es fehlt echtes ‚Denken‘, es fehlen ‚eigene‘ Werte-Positionen, und der Algorithmus ‚versteht‘ seine eigenen Text ’nicht‘.

Aufgrund dieses fehlenden eigenen Weltbezugs kann der Algorithmus über die verfügbaren Textmengen sehr leicht manipuliert werden. Eine ‚Massenproduktion‘ von ‚Schrott-Texten‘, von ‚Desinformationen‘ ist damit sehr leicht möglich.

Bedenkt man, dass moderne Demokratien nur funktionieren können, die Mehrheit der Bürger über eine gemeinsame Faktenbasis verfügt, die als ‚wahr‘ angenommen werden können, über eine gemeinsame Wissensmenge, über zuverlässige Medien, dann können mit dem Algorithmus chatGPT(4) genau diese Anforderungen an eine Demokratie massiv zerstört werden.

Interessant ist dann die Frage, ob chatGPT(4) eine menschliche Gesellschaft, speziell eine demokratische Gesellschaft, tatsächlich auch positiv-konstruktiv unterstützen kann?

Vom Menschen ist jedenfalls bekannt, dass dieser den Gebrauch seiner Sprache von Kindes Beinen an im direkten Kontakt mit einer realen Welt erlernt, weitgehend spielerisch, in Interaktion mit anderen Kindern/ Menschen. Für Menschen sind ‚Worte‘ niemals isolierte Größen sondern sie sind immer dynamisch eingebunden in ebenfalls dynamische Kontexte. Sprache ist nie nur ‚Form‘ sondern immer zugleich auch ‚Inhalt‘, und dies auf mannigfaltige Weise. Dies geht nur weil der Mensch über komplexe kognitiven Fähigkeiten verfügt, die u.a. entsprechende Gedächtnisleistungen wie auch Fähigkeiten zur Verallgemeinerung/ Generalisierung umfassen.

Die kulturgeschichtliche Entwicklung von gesprochener Sprache, über Schrift, Buch, Bibliotheken bis hin zu gewaltigen digitalen Datenspeichern hat zwar bezüglich der ‚formen‘ von Sprache und darin — möglicherweise — kodiertem Wissen Gewaltiges geleistet, aber es besteht der Eindruck, dass die ‚Automatisierung‘ der Formen diese in die ‚Isolation‘ treibt, so dass die Formen ihren Kontakt zur Realität, zur Bedeutung, zur Wahrheit immer mehr verlieren. Aus der Sprache als zentralem Moment der Ermöglichung von mehr komplexem Wissen und mehr komplexem Handeln wird damit zunehmend ein ‚Parasit‘, der immer mehr Raum beansprucht und dabei immer mehr Bedeutung und Wahrheit vernichtet.

[15] Gary Marcus, April 2023, Hoping for the Best as AI Evolves, Gary Marcus on the systems that “pose a real and imminent threat to the fabric of society.” Communications of the ACM, Volume 66, Issue 4, April 2023 pp 6–7, https://doi.org/10.1145/3583078 . Anmerkung: Gary Marcus schreibt anlässlich der Wirkungen von Systemen wie chatGPT(OpenAI), Dalle-E2 und Lensa über die ernst zunehmenden negativen Wirkungen, die diese Werkzeuge innerhalb einer Gesellschaft haben können, und zwar in einem Ausmaß, das eine ernsthafte Bedrohung für jede Gesellschaft darstellt! Sie sind inhärent fehlerhaft in den Bereichen Denken, Tatsachen und Halluzinationen. Mit nahezu Null Kosten lassen sich mit ihnen sehr schnell umfangreiche Desinformationskampagnen erstellen und ausführen. Am Beispiel der weltweit wichtigen Webseite ‚Stack Overflow‘ für Programmierer konnte (und kann) man sehen, wie der inflationäre Gebrauch von chatGPT aufgrund der inhärenten vielen Fehler dazu führt, dass das Management-Team von Stack Overflow seine Benutzer dringend bitten musste, den Einsatz von chatGPT komplett zu unterlassen, um den Zusammenbruch der Seite nach 14 Jahren zu verhindern. Im Falle von großen Playern, die es gezielt auf Desinformationen absehen, ist solch eine Maßnahme unwirksam. Diese Player zielen darauf ab, eine Datenwelt zu erschaffen, in der niemand mehr irgend jemandem vertrauen kann. Dies vor Augen stellt Gary Marcus 4 Postulate auf, die jede Gesellschaft umsetzen sollte: (1) Automatisch generierter Inhalt sollte komplett verboten werden; (2) Es müssen rechtswirksame Maßnahmen verabschiedet werden, die ‚Missinformationen‘ verhindern können; (3) User Accounts müssen fälschungssicher gemacht werden; (4) Es wird eine neue Generation von KI Werkzeugen gebraucht, die Fakten verifizieren können.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.


SW. Software? Müssen wir umdenken? Notiz

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 5.Dezember 2020
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

KLASSISCH: MENSCH – TECHNIK DICHOTOMIE

Im Alltag wie in der Wissenschaft findet sich immer noch eine starke Tendenz, die Technik dem Menschen, der Gesellschaft gegenüber zu stellen. Stattdessen Technik gar als Teil der Kultur zu sehen ist für viele — speziell für die Feuilletons gewisser Zeitungen — eher fern. Technik wird assoziiert mit Werkzeugen, mit Maschinen und die sind im Gewohnheitsdenken artfremd, nicht biologisch, haben nichts mit dem Menschen zu tun.

ARTFREMDE MASCHINEN?

Unter dem Eindruck der rapide voranschreitenden Digitalisierung könnte man aber ins Grübeln kommen: in mittlerweile fast allen Lebensbereichen verändert sich das Verhalten von uns Menschen. Mehr und mehr zeigen wir Verhaltensweisen, die wir früher — wer kennt das Früher noch? — ohne digitale Technologien vollzogen haben (dann natürlich leicht anders), die wir jetzt aber mit Hilfe von digitalen Technologien vollziehen. Das ‚Technische‘, die sogenannten ‚Maschinen‘, nehmen wir als solche gar nicht mehr wahr; wir schreiben einen Text (wenn wir den Computer benutzen), wir erstellen eine 3D-Zeichnung eines Gebäudes (wenn wir einen Computer benutzen), wir führen einen Workshop durch (wenn wir eine Web-Konferenz-Software benutzen), wir machen Musik (wenn wir eine Musik-Software benutzen), ….

Das Technisch hat sich gewandelt. Die alten, klassischen Maschinen treten mehr und mehr in den Hintergrund. Da ist etwas Neues, das nennen wir Software [SW]. Was ist Software? Die Informatiker, die zuständigen Experten für Software, sprechen zwar unter sich auch im Fall von Software von Automaten, die Befehle verarbeiten, den Programmen, die die Automaten steuern, aber für den potentiellen Anwender, den Benutzer, den Bürger, spielt der Automat kaum eine Rolle. Es sind diese Befehlslisten, die Programme, die die Automaten dazu bringen, in ihren Interaktionen mit den Anwendern für diese Anwender eine Menge von möglichen Handlungen anzubieten, die — zusammengenommen — eine Art von Verhaltensraum aufspannen. Dieser Verhaltensraum wird realisiert, indem Menschen — WIR! — genau die Handlungen ausführen, die ein Programm (die Software) ermöglicht.

Die Maschine, die als Hardware die Ausführung von Programmen möglich macht (der Computer) tritt dadurch zurück ins zweite Glied. Irgendwie ist er noch da, aber aus Sicht der Anwender (Bürger, WIR), spielt er keine wirkliche Rolle mehr. Im Zentrum der Aufmerksamkeit steht das Verhalten, das WIR dadurch vollziehen können. Je besser die Schnittstelle (das Interface) zur Hardware (zum Computer), desto weniger fällt der Computer als Medium noch auf.

DIGITAL VERSCHRÄNKTE MENSCHEN

Von den Quantentheoretikern wissen wir, dass sie von verschränkten Teilchen reden. Aber, warum so weit schweifen: in unserem Alltag praktizieren wir schon seit langem digital verschränkte Zustände: wenn wir an verschiedenen Orten dieser Welt zur gleichen Zeit miteinander — ermöglicht durch digitale Technologien — kommunizieren, gemeinsam denken, gemeinsam Entscheidungen fällen, dann handeln wir schon lange nicht mehr als Individuen, nicht als einzelne, sondern wir sind faktisch verschränkte Einzelne und darin bilden wir eine neuartige verschränkte Persönlichkeit. Verschränkte Persönlichkeiten verhalten sich völlig anders als es die einzelnen Personen tun würden, wenn sie eben nicht verschränkt sind. Vermutlich gibt es einen Zusammenhang zwischen der Anzahl der Mitglieder einer verschränkten Persönlichkeit und spezifischen Verhaltensweisen, möglicherweise auch abhängig von anderen Parametern, z.B. die Art und Weise, wie kommuniziert wird, aber der grundsätzliche Unterschied wird dadurch nicht verwischt.

Übrigens: auch ohne Digitalisierung gab und gibt es quasi verschränkte Persönlichkeiten dadurch, dass wir als einzelne Menschen in hohem Maße Verhaltensmuster verinnerlicht haben, denen wir im Alltag folgen. Beim Einkaufen, als Busfahrer, als Fahrgast , als Abteilungsleiter, als Manager, als … unser Alltag ist durchtränkt von sogenannten Konventionen, von Rollen — die Informatiker bezeichnen solche Muster als Skripte, als Protokolle, ja als Programme — , denen wir in unserem Verhalten folgen. Die Verschränkung ist in unserem Kopf abgelegt (beim Computer würden wir davon sprechen, dass er programmiert sei). Ohne diese verinnerlichten Verschränkungen würde unser Alltag zusammenbrechen. Wir sind darauf angewiesen, dass jeder bestimmten Protokollen in seinem Kopf folgt, ansonsten würde unser Alltag weitgehend unberechenbar, unplanbar, wir selber könnten nichts mehr tun, weil all das, was wir für unser Verhalten brauchen, ja weitgehend davon abhängt, dass die anderen ihren Part erfüllen.

Die Die digital ermöglichten Verschränkungen sind insofern nur ein anderer Modus für unsere menschliche Fähigkeit, mit verschränkten Gehirnen handeln zu können. Das ist das Wesentliche Menschlicher Kultur: dass sich Gehirne aus ihrer Isolation im Körper befreien können, indem sie koordiniert handeln können. Die sogenannte Feuilleton-Kultur erscheint mir eher wie ein merkwürdiger Artefakt eines verirrten Bürgertums, das es so sowieso nicht mehr gibt. Eine Kultur von ortlosen Gefühlen, die sich einer willkürlichen Sprache bedienen, klammert sich an sich selbst, ohne wirkliche Ziele zu haben. Das Leben selbst ist aber nicht ziellos, es ist auch nicht ortlos, es ist nicht beliebig. Es verdichtet sich in Verschränkungen, zu denen Technik genuin beiträgt, indem neue Formen von Leben entstehen, dichter, intensiver, weitreichender. Unsere Verantwortung ist hier in höchstem Maße gefragt, auf eine Weise, die wir immer wieder neu erst noch lernen müssen.

ALLE BEITRÄGE VON CAGENT

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

IN ZWEI WELTEN LEBEN …

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 23.Juli 2019
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Nach einer längeren Schreibpause, hier ein kurzes Blitzlicht …

SCHWEIGEN IST VIELDEUTIG

Es ist ja ein beliebter Topos, über das Schweigen zu sinnieren. Korrespondiert es mit einem ‚Nichts‘ oder ist es nur ein Artefakt vielschichtiger, sich wechselseitig in Bann haltender Aktivitäten, die sich ’nach Außen quasi ‚aufheben’…

Dies ist ein Bild. Für mein Schweigen trifft weder das eine noch das andere zu. Tatsächlich ist bei mir die letzte Zeit extrem dicht angefüllt mit Aktivitäten, Denken, Schreiben, ja auch mit Programmieren, eine moderne Form des Schreibens. Letzteres leider in unserer Kultur von schöngeistigen Menschen wenig geachtet, tatsächlich aber der Stoff, aus dem das Meiste ist, was wir heute für unser Leben benutzen.

DENKEN – VIELFÄLTIG – IM DENKEN DENKEN

Die vielfältigen Formen des Denkens zu katalogisieren und zu bewerten, dann eventuell noch hierarchisch zu gewichten, ist sicher reizvoll. Bis zu einem gewissen Grade und in gewissen Situationen mag dies sogar notwendig sein (Gesetzestexte, Rezepten, Bauanleitungen, Sportberichte, Finanzberichte ….), aber man verliert die Wahrheit aus dem Blick wenn man übersieht, dass alle diese verschiedenen Spezialformen Ausdrucksformen einer einzigen Sache sind, nämlich der Bemühung des menschlichen Geistes — realisiert in den vielen einzelnen Menschen — sich im Hier und Jetzt zurecht zu finden; zu verstehen, wie denn das alles zusammenhängt. Warum das alles so ist, wie es ist. Gibt es irgendwie ein Ziel für die Zukunft? Mehrere? Welches ist am günstigsten? Für wen? Aus welchem Grund?

Für mich war das Schreiben in diesem Block seit ca. 10 Jahren mein Versuch, mich selbst in ein Gespräch zu verwickeln, das mich zwang, Eindrücken, Fragen nachzugehen, die ich ohne dies Schreiben eher achtlos beiseite gelassen hätte. Natürlich, neben viel Spaß, Lust an der Sache, Neugierde, Entdeckerfreuden usw. war es auch weite Strecken mühsam, quälend, mit der ständigen Frage: Muss das so sein? Bringt das was? Im Rückblick, nach ca. 9000 Seiten Text, würde ich sagen, es hat — zumindest für mich — sehr viel gebracht. Ich habe begonnen, Dinge zu verstehen, von denen ich vorher nicht wusste, dass es sie gibt, Zusammenhänge, die mir verborgen waren, überraschende neue Ausblicke, Glücksgefühle, noch mehr Neugierde, viel Hoffnung, ein wachsendes Vertrauen in dieses unfassbare Wunder genannt Leben. Ich bin jetzt soweit, dass ich zumindest ahnen kann, dass das Leben viel größer, tiefer, komplexer, reicher, gewaltiger ist, als alles, was uns die bekannten alten Traditionen — vor allem die alten Religionen, aber auch Einzelbereiche der Wissenschaften — bisher erzählt haben oder heute noch erzählen.

Insofern habe ich aus dem bisherigen Schreib- und Reflexionsprozess viel Kraft gezogen, viel Hoffnung, viel neues Vertrauen, Unternehmenslust, mit dabei zu sein, wenn es geht, die Unfassbarkeit unseres Lebens weiter zu gestalten.

MITGESTALTEN …

Je mehr man diesen Wunsch hegt, nicht nur passiv aufzunehmen, nicht nur zu verstehen, um so schwieriger wird dann die Frage, wo steigt man ein? Was kann man als einzelner mit seinen jeweiligen Möglichkeiten konkret tun?

Leute, die mit markigen Sprüchen durch die Welt laufen, die vielfarbige Slogans verteilen, die einfache schwarz-weiß Bilder austeilen, gibt es genug. Alles ist sehr einfach…

Aber, das Wunder des Lebens ist — nicht wirklich einfach. Wir selbst sind zwar zunächst als ‚Hineingeworfene‘ auf den ersten Blick einfach, weil wir etwas sehr Komplexes sind, das Komplexeste, was es im ganzen Universum gibt, aber wir haben keinen Finger dafür krumm gemacht, wir finden das alles einfach so vor, wir können sofort loslegen, ohne große umständliche Prozesse zu durchlaufen (OK, es gibt mittlerweile in den meisten Kulturen komplexe selbst definierte Lernprozesse in Kindergärten, Schulen, Betrieben, Hochschulen usw.), aber wir müssen nicht verstehen, wie wir funktionieren, um zu funktionieren. Unser Körper, das Äquivalent von ca. 450 Galaxien im Format der Milchstraße, funktioniert für uns, ohne dass wir verstehen müssen (und auch tatsächlich nicht verstehen können, bislang) wie er funktioniert. Wir sind ein Wunderwerk des Universums und können ‚funktionieren‘, obwohl wir uns praktisch nicht verstehen.

Da beginnt meine zweite Story: auf Ganze gesehen weiß ich so gut wie nichts, nah besehen weiß ich aber mittlerweile zu viel, als dass ich einfach so tun könnte, nichts zu wissen 🙂

EINZELTEILE ZUSAMMEN SUCHEN

Im Rahmen meiner unterschiedlichen Lehr- und Forschungstätigkeiten, zwischendrin auch ’normale‘ berufliche Arbeiten, habe ich schrittweise viele wissenschaftliche Bereiche kennen lernen dürfen und dabei entdeckt, dass wir aktuell ein ‚Zusammenhangs-Problem‘ haben, will sagen, wir haben immer mehr einzelne Disziplinen,die je für sich hoch spezialisiert sind, aber die Zusammenhänge mit anderen Bereichen, ein Gesamtverständnis von Wissenschaft, gar doch noch mit dem ganzen Engineering, dies geht uns zusehends ab. Dies bedeutet u.a. dass ein neuer Beitrag oft gar nicht mehr richtig gewürdigt werden kann, da die Umrisse des Ganzen, für das etwas entdeckt oder entwickelt wurde, kaum noch greifbar sind. Dies ist das Fake-News-Problem der Wissenschaften.

Ob geplant oder spontan oder zufällig, ich kann es nicht genau sagen, jedenfalls habe ich vor einigen Jahren damit begonnen, zu versuchen, die Disziplinen, in denen ich tätig sein konnte, langsam, schrittweise, häppchenweise, zu systematisieren, zu formalisieren, und sie auf die mögliche Wechselwirkungen mit den anderen Bereichen hin abzuklopfen.

Zu Beginn sah dies alles sehr bruchstückhaft, eher harmlos aus.

Doch im Laufe der Jahre entwickelten sich Umrisse, entstanden immer deutlicher Querbezüge, bis dann so langsam klar wurde, ja, es gibt hier mögliche begriffliche Rahmenkonzepte, die sehr prominente und doch bislang getrennte Disziplinen auf eine Weise zusammen führen können, die so bislang nicht sichtbar waren.

MENSCH – MASCHINE – UND MEHR …

Mein Fixpunkt war das Thema Mensch-Maschine Interaktion (MMI) (Englisch: Human-Machine Interaction, HMI), von mir dann weiter entwickelt zum allgemeinen Actor-Actor Interaction (AAI) Paradigma. Mehr zufällig bedingt, genau genommen durch einen wunderbaren Freund, einem Südafrikaner, ein begnadeter Systems Engineer, habe ich auch sehr früh begonnen, das Thema Mensch-Maschine Interaktion immer auch im Kontext des allgemeineren Systems Engineerings zu denken (im englischsprachigen Raum ist das Paradigma des Systems Engineering sehr geläufig, im deutschsprachigen Bereiche gibt es viele Sonderkonzepte). Irgendwann haben wir angefangen, das Systems Engineering zu formalisieren, und im Gefolge davon habe ich dies ausgedehnt auf das Mensch-Maschine Paradigma als Teil des Systems Engineerings. Dies führte zu aufregenden Verallgemeinerungen, Verfeinerungen und letztlich auch Optimierungen. Es war dann nur eine Frage der Zeit, bis das ganze Thema Künstliche Intelligenz (KI) integriert werden würde. KI steht bislang theoretisch ein wenig verloren im Raum der vielen Disziplinen, kaum verortet im Gesamt der Wissenschaften, des Engineering, der allgemeine Kognitions-, Lern- und Intelligenztheorien der biologischen Disziplinen. Im Rahmen des AAI Paradigmas ist KI eine Subdisziplin, die eine spezielle Teilmenge von Akteuren in ihrem Verhalten beschreiben, modellieren und simulieren kann, aber eben nicht isoliert, sondern eingeordnet in den Gesamtrahmen von Engineering und Wissenschaft. Dies eröffnet viele aufregende Perspektiven und Anwendungsmöglichkeiten.

Und so wird es auch niemanden verwunden, dass mein Engagement für ein integriertes begriffliches System für Systems Engineering, MMI und KI zugleich auch ein starkes Engagement für die philosophische Dimension wurde.

Ein Leser dieses Blocks wird nicht verwundert sein, wenn ich feststelle, dass es gerade die intensive Beschäftigung mit dem Engineering und seiner Meta-Probleme waren, die mich zur Philosophie zurück geführt hatten. Nach meiner völligen Frustration mit der klassischen Philosophie während des ersten Anlaufs einer Promotion in Philosophie an der LMU München (ca. 1980 – 1983) — ein Roman für sich — fand ich viele wertvolle Erkenntnisse im intensiven Studium der Wissenschaftsphilosophie und einiger konkreter Wissenschaften. Das Engineering (mit Schwerpunkt Informatik) war dann noch bereichernder. Aber gerade hier, im Systems Engineering, bei dem Thema Mensch-Maschine, und ausgerechnet mitten in den Lerntheorien der KI, bin ich auf so viele grundlegende philosophische Fragen gestoßen, dass ich von da ab — fast notwendigerweise — wieder angefangen habe philosophisch zu denken. Eines der Hauptmotive für diesen Block.

Natürlich, das merkt man wohl auch schon beim Lesen, führt die Breite und Fülle dieser Aspekte dazu, dass man nicht schnell, und nicht immer konzise arbeiten kann. Man muss viele Fragen mehrfach bedenken, oft von verschiedenen Seiten aus, muss immer wieder von vorne anfangen, und wenn man dann meint, jetzt habe man man den Bogen doch gut hinbekommen, entdeckt man von einer anderen Seite so viele anderen Aspekte, Löcher, Unzulänglichkeiten, dass man gerade nochmals von vorne anfangen kann.

Wie schwierig es auch sein mag, die Umrisse eines Ganzen deuten sich doch mittlerweile immer stärker an, so stark, dass ich das Gefühl habe, dass dieser andere Block — uffmm.org–, mein Blog für das Engineering, ab jetzt mehr — oder gar die ganze — Aufmerksamkeit verlangt.

Denn, eine Folge von Zusammenhangs-Sichten ist, dass man — fast unaufhaltsam — immer weitere Zusammenhänge entdeckt. So ist natürlich eng verknüpft mit dem Mensch-Maschine Paradigma der gesamte Komplex der biologischen und psychologischen Verhaltenswissenschaften, dazu gehörig auch das, was man Kognitionswissenschaft nennt, und damit ganz viele weitere spezielle Disziplinen, die irgendwie den Menschen und sein Verhalten thematisieren (Semiotik, Linguistik, Soziologie, …).

Während das Lesen und Studieren einzelner Werke und Artikel aus diesen Bereichen ohne übergreifenden Zusammenhang oft so beliebig, und damit frustrierend, wirkt, gewinnen diese Werke bei einem expliziten begrifflichen Zusammenhang eine ganz andere Farbigkeit, leuchten auf, werden interessant. So ist mir dies z.B. in den letzten Monaten mit Büchern von Edelman, Gallistel und Gärdenfors gegangen (um einige Beispiele zu nennen).

Während es also einerseits darum geht, immer mehr prominente Beispiele aus den genannten Disziplinen in den neuen begrifflichen Rahmen einzuordnen, ist mir auch klar geworden, dass dies alles — so wunderbar das für sich genommen schon ist (obgleich noch im Prozess) — heute nicht mehr ausreichend ist, ohne eine hinreichende Softwareunterstützung, ohne Software-Modellierung und vielerlei Simulationsversionen. Schon ein rein empirisches verhaltenswissenschaftliches Buch wie das grundlegende Werk von Gallistel zur Organisation des biologischen Lernens bleibt ohne zugehörige Softewaremodelle irgendwie ein Torso, entsprechend auch die Werke von Gärdenfors zu Begriffs-Räumen (Conceptual Spaces). Ein positives Beispiel für Theorie und Computersimulation liefert Edelman in vielen Büchern, Artikeln und Programmen. Und ich weiß aus eigener Vorlesungserfahrung, dass die Vorlesungen zum dynamischen Lernen erste mit der zugehörigen Softwaremodellierung jene Farbe und Tiefe bekommen haben, die es heute braucht.

Für mich ergibt sich daraus, dass ich parallel zur Text-Version der Theorie — natürlich mit hinreichenden Formalisierungen — eine vollständige Softwareabdeckung brauche. Ohne diese wird das alles nur Stückwerk bleiben.

Damit entsteht ein ziemliches Aufgabenpaket: Systems Engineering mit Actor-Actor Paradigma, dazu KI integriert, bei AAI Kognitionswissenschaften integriert, und zu allem die notwendige Software.

Allerdings eine wichtige Dimension fehlt bei dieser Aufzählung noch: die allgemeine Philosophie und die Wissenschaftsphilosophie. Die allgemeine Philosophie und die Wissenschaftsphilosophie können zwar die Einzelwissenschaften nicht ersetzen, aber die Einzelwissenschaften ohne eine explizite allgemeine Philosophie und Wissenschaftsphilosophie gleichen einem Haufen gackernder Hühner, deren Einzelbeiträge schnell in Kakophonie umschlagen kann, wenn sie nicht integriert werden.

Also, im Prinzip ist sehr klar, wie es gehen soll, es konkret zu tun ist scheinbar unmöglich. Aber genau das ist es, worum es geht: das Leben als solches in diesem Universum ist die maximale Unmöglichkeit, aber dennoch ist es da, dennoch entwickelt es sich. Dieses Mysterium einer ungeheuren Kraft, das Unmögliche möglich zu machen, das ist das, was jeden Menschen, insbesondere jeden Wissenschaftler, antreiben sollte, ansonsten sind wir tatsächlich — möglicherweise — schlechter als alle denkbaren Roboter der Zukunft.

AUF DIE BAUSTELLE

Wie schon angedeutet, hat meine Theoriebaustelle einen Namen: uffmm.org . ‚uffmm‘ ist die Abkürzung eines ganzen Satzes. Ich verrate jetzt nicht, wie dieser Satz heißt. Schön wäre es, wenn er einmal wahr werden würde.

Wer will, kann die Ereignisse auf dem uffmm-Blog verfolgen, allerdings ist dort alles auf Englisch. Es ist nicht meine Sprache, ich fühle mich damit sprachlich amputiert, aber es ist die zur Zeit beste Arbeitssprache für den internationalen Raum.

Ich habe auch keine Ahnung, wie weit ich kommen werde.

Parallel betreibe ich noch ein Anwendungsprojekt mit Überschrift ‚Kommunalplanung als eGaming‚. Damit zielen wir auf alle ca. 11.000 Kommunen in Deutschland, mit einem neuen Ansatz für mehr Demokratie in einer digitalisierten Welt. Dieser Ansatz ist ein direkter Ausfluss der zuvor angedeuteten Theoriearbeit (plus Software).

Der Philosophie-Jetzt Block war der entscheidende Inkubator für diese Weiterentwicklung. Ob und wie sich dieser Blog weiter entwickelt, wird man sehen. Er war ganz und gar ungeplant, und so wird auch die weitere Zukunft sich ereignen 🙂

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

EINE BUCHMESSE FÜR PROGRAMMIERER?

eJournal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 15.Okt. 2017
https://www.cognitiveagent.org
cagent
cagent@cognitiveagent.org

PDF

THEMA

Im Fieberzustand der Frankfurter Buchmesse geht leicht verloren, worum es wirklich geht: Mit Worten die Welt zu verändern. Zwischen Mythos, Wunsch und Wirklichkeit.

ES IST BUCHMESSE

Wenn die Frankfurter Zeitungen mit dicken Zusatzbeilagen erscheinen, Hotels und Restaurants tagelang ausgebucht sind, in den Messehallen Lärm und Getriebe die Grenze zum Unerträglichen erreichen, dann findet Buchmesse statt, in Frankfurt. Die, die Geld verdienen wollen, die, die Öffentlichkeit suchen, die, …. ein kleiner Kosmos versammelt sich in den Hallen und Umgebung. Erregung liegt in der Luft, in den Gesichtern….

VERUSACHER: WORTE

Der Anlass für all dies sind Worte, schwarze Zeichen auf weißem Papier, auf Bildschirmen, als Smartphone-Textereignisse… Menschen, die so etwas wahrnehmen, lesen, aufnehmen, sich angeregt fühlen, nachdenken, Gefühle entwickeln, Erinnern, Fantasieren, betroffen sind, die dafür Geld ausgeben, um es sehen zu können.

Worte, aneinandergereiht, zusammengefügt, aus hunderten verschiedener Sprachen dieser Welt, manche kaum noch verstehbar, von gestern, von vor-vorgestern, von …

MENSCHEN MACHEN DAS

In die Welt gebracht von Menschen, die sich hingesetzt haben, stunden-, tage-, wochen-, monatelang, und länger, um irgend etwas aus ihrem Inneren nach Außen zu schaffen, auszudrücken, zu artikulieren, zu äußern, lesbar zu denken, zu manifestieren, zu bekennen, zu dokumentieren… oder vielleicht einfach, um mit Worten so zu spielen, dass sie Menschen mit ihren Ängsten, Sehnsüchten, Fantasien, ihrem Unterhaltungsbedürfnis in den Bann ziehen wollen, zu jedem Preis, zum Preis von Wahrheit?, für persönlichen Ruhm und Ehre … und Geld?

ROBOTER-AUTOREN

Heute muss man allerdings aufpassen. In Zeiten der Digitalisierung gibt es schon Computerprogramme, die Worte aufsammeln, Sprachfetzen, diese unter bestimmten Kriterien neu zusammensetzen und als Meldungen, kurze Artikel in die Welt setzen. Eine neue Art von Mimikry, die kaum als solche zu erkennen ist, nicht auf den ersten Blick. Und dies greift um sich. Viele der Texte, die Menschen in die Sprache bringen sind so, dass sie sich von Maschinen imitieren lassen, ohne dass es auffällt. Es entsteht eine Grauzone, eine Übergangsphase, ein Mensch-Maschine Waberland. Wer sind wir, wenn uns Maschinen imitieren können?

DIE WAHRE GELDBRINGER

Aus der Sicht der Wirtschaft sind es auch nicht unbedingt die Romane, die Lyrik, die Poesie, die das große Geld bringen. Es sind die schnellen und die praktischen Bücher: Bücher mit schönen Fotos, Kochbücher, Reiseberichte, Adressbücher, praktische Anleitungen, …. Dinge zum schnellen schenken oder die man braucht. Dann die vielen Unterhaltungsbücher einschließlich Krimis; das Bedienen von Emotionen, Spannungen, Ablenkungen… Sachbücher, Schulbücher, Lehrbücher, technische Standards …. irgendwo dann die, die sich Schriftsteller nennen, Dichter…. sie stehen für das Große, das Unaussprechliche, das Mystische, das Erhabene, für … für Sprache, Sprachkunst? Wer definiert dies eigentlich? Die Sprache gehört ja bekanntlich niemandem, sie schwebt über allem, sie ist in allem, findet in jedem und überall gleichzeitig statt…

SCHMUDDELKINDER

Die Schreibenden, sie alle benutzen Worte, Wortreihen, Wortmuster, Wortgebilde, mit so unterschiedlichen Interessen, so unterschiedlichen Situationen, so unterschiedlichen Themen…

Und dann gibt es die sprachlichen Schmuddelkinder, die Grenzgänger, die nicht so ins erhabenen Schema passen, die auch reden, die auch schreiben, die Sprache mit Bildern verknüpfen, die die Bedeutung durch Bilder voranstellen, und die Worte nur noch wie Anhängsel benutzen, minimalistische Kommentare eines Geschehens, das sich vor den Augen bildhaft abspielt. Das Grauen aller Sprachkünstler, der Abscheu aller Wortgewaltigen, der Schrecken der Wortmeister und Sprachmagier…

WELCHE MASS-STÄBE?

Aber, was reden wir hier über Literatur, wenn wir über Wortkunst reden?

Wonach bemessen wir die Bedeutung von aneinander gefügten Worten in einer Gesellschaft?

Sprechen wir nicht über die Digitalisierung der Gesellschaft, die alles überrollt, durchdringt, bis in die kleinsten und tiefsten Poren unseres Alltags eindringt, eingedrungen ist? Ist es denn nicht wahr, dass die digitalen Technologien uns nahezu vollständig umrundet und umzingelt haben? Benutzen nicht auch die klassischen Verlage mittlerweile alle Computer, Datenbanken, Netzwerke, Drucken-On-Demand, ebooks, eReader …. ?

Sind es nicht die Software-Firmen dieser Welt, die zu den wirtschaftlichen Giganten zählen, zu den internationalen Geldmonstern? Deren Datenpaläste alles in sich versammelt haben, was irgendwie gesagt wurde, gesagt wird, gesagt werden kann?

Und womit haben sie dies alles ermöglicht?

WORT-MASCHINEN

Irreführender Weise sprechen wir hier von ‚Software‘, von ‚Programmen‘, von ‚Sourcecode‘, von ‚Algorithmen‘, die auf den Computern Arbeit verrichten und all dies möglich machen. ‚Programme‘ sagen wir beiläufig, alltäglich verniedlichend, sehr abstrakt, dabei kaschieren wir einen Umstand, der wesentlich ist, der uns — je nach Gemütslage — begeistern oder schwer beunruhigen kann.

Diese sogenannten Computerprogramme sind letztlich auch Texte, Aneinanderreihungen von Wortmustern, nach bestimmten grammatischen und semantischen Regeln.

Wenn ich einen Kriminalroman lese, dann erzeugen die aneinandergereihten Worte Bilder von Menschen in bestimmten Situationen, die Verhalten zeigen, Gefühle haben, die ein Geschehen am Laufen halten.

Ein Programm-Text tut nichts anderes. Er lässt Bilder von Welten entstehen, mit Objekten, Eigenschaften, Akteuren. Diese haben Wünsche, Pläne, Erinnerungen, handeln konkret, verändern die Welt, die Objekte in der Welt, sich selbst. Die Worte eines Programmtextes beschreiben Wort-Maschinen, Wort-Welten, ganze Universen, die passieren können, die sich ereignen können, die sich mit uns lebenden realen Menschen zusammen ereignen können, die mit uns reden, die Geräusche, Sounds erzeugen können, Lieder, bewegte Bilder, super-realistisch, die Menschen als Sexroboterinnen in deren männlichen Einsamkeiten beglücken, als Pflege-Haustier-Roboter einsamen, älteren Menschen einen Hauch von sozialer Realität verschaffen, die als Operationsroboter und genetische Superrechner unseren Krankheiten zu Leibe rücken, die ….

WORTMEISTER ALS DUNKELMÄNNER

Während wir die klassischen Wortmeister feiern (für was?) führen die modernen Wortmeister der Wort-Maschinen ein Schattendasein. Diese sind es, die unsere Flugzeuge fliegen lassen, die unsere Städte am Leben erhalten, die eine Tourismusbranche möglich machen, die …

Wer kennt diese? Auf welcher Buchmesse werden sie gefeiert? Wer versteht überhaupt ihre Sprache? An den Schulen unseres Landes wird dies weitgehend nicht unterrichtet. An den Universitäten sind es höchsten die Informatiker, die sich damit beschäftigen, aber auch diese tun es nur sehr begrenzt, eher altmodisch, technisch verkürzt. Dabei sind sie die Wortmeister der Zukunft, die Wortmeister der digitalen Kultur, die Wortmeister unseres Alltags … es sagt ihnen aber niemand, sie bekommen keine Kulturpreise … von welcher Kultur eigentlich? Sind die Feuilletons der Zeitungen, die Spielstätten der Theater und Opern nicht letztlich Reflexe einer Minderheit, die sich von der Welt partiell verabschieden und sich einer Ereigniszone hingeben, die nurmehr noch entrückt und vergessen macht, aber vor der stattfindenden digitalen Kultur kapituliert hat, schon von Anfang an?

NEUE SPRACHEN FÜR NEUES DENKEN?

Das Bild zeigt die ersten Zeilen eines sehr einfachen Programm-Textes, tatsächlich eine erste Schreibübung, in der eine Ereigniswelt beschrieben (und damit erschaffen!) wird, die real stattfinden kann, die real eine Welt entstehen lassen kann mit Akteuren, Bedürfnissen, Nahrungsangeboten, Geboren werden und Sterben … die mit realen Menschen interagieren kann, die sich darin wiederfinden können …Die Sprache dieses Programms heißt nicht Englisch, Deutsch, oder Französisch, sondern ‚python‘, eine Kunstsprache, speziell geschaffen um Wort-Maschinen bauen zu können, ablaufbare Wort-Universen, die neuen Bücher, Filme, und Theaterstücke zugleich.

PTextfragment aus einer Wortmachine für künstliche Welten mit Akteuren
Textfragment aus einer Wortmachine für künstliche Welten mit Akteuren

Man muss sich fragen, wie weit die sogenannte ‚Wahrheit‘ der alten, sprich ‚vor-digitalen‘, Kunst letztlich nur in ihrer Selbstbezüglichkeit findet, in ihrer hermetischen Abwiegelung von real stattfindender Welt, eingesperrt in ihren klassischen Sprachkäfigen, in denen nur bestimmte Werte gelten, nur bestimmte Menschen- und Handlungsmuster vorkommen, nicht die unfassbaren Potentiale des Lebens, nicht das universale Lebensgeschehen, sondern das, was sich in alten Sprachgespinsten sagen lässt, idealistisch-romantisch, hart am Abgrund menschlicher Tragödien, die endlichen Selbstbezüglichkeit, die vielen Fixierungen auf den menschlichen Körper, Klassengesellschaften der Vorzeit, ohne mögliche kosmischen ….

HOMO SAPIENS ALLEIN ZU HAUS

Das alles sind wir, der homo sapiens, der seit ca. 200.000 bis 300.000 tausend Jahren seine Weg sucht auf diesem Planeten… nicht zufällig da, sondern Gewordener von Milliarden Jahren stattfindenden Prozessen von einer Komplexität, die unser Denken bis heute überfordert…

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

EARTH 2117 – ERDE 2117 – Erste Gedanken – Simupedia für alle?

KONTEXT

  1. Wie man als Leser des Blogs bemerken kann, fokussiert sich der Blog zur Zeit hauptsächlich auf drei Themenfelder: (i) Die Frage nach der technischen Superintelligenz (TSI); (ii) die Frage nach dem, was der Mensch ist bzw. werden kann, mit der speziellen Teilfrage nach der mystischen Erfahrung (gibt es die? Was sagt dies über den Menschen und die Welt?); sowie (iii) die Frage nach dem möglichen Zustand der Erde im Jahr 2117. Die Zahl 2117 ergab sich u.a. aus den aktuellen Prognosen, zu welchem Zeitpunkt Experten das Auftreten einer technischen Superintelligenz für hoch wahrscheinlich halten. Zu diesen drei Themenfeldern kommen dann noch die möglichen Wechselwirkungen zwischen (i), (ii) und (iii). Andere Themen sind grundsätzlich nicht ausgeschlossen, sind aber bis auf weiteres Nebenthemen.

PROGNOSEN GENERELL

  1. Die Frage nach dem möglichen Zustand der Erde setzt voraus, dass wir den Zustand der Erde als veränderlich ansehen, dass es ein Jetzt gibt, und dass es im jeweiligen Jetzt die Möglichkeit gibt, dass sich Eigenschaften der Erde im Jetzt so verändern, dass es zu einem nachfolgenden Jetzt andere Eigenschaften gibt als beim vorausgehenden Jetzt.

DER MENSCH UND DIE ZEIT

  1. Auf Seiten des Menschen ist es die Erinnerungsfähigkeit, die den Menschen in die Lage versetzt, zwischen einem aktuellen Jetzt und einem vorausgehenden Jetzt zu unterscheiden. Auf Seiten des Menschen sind es weitere kognitive Fähigkeiten, die den Menschen in die Lage versetzen, am Wahrgenommenen und Erinnerten kognitive Eigenschaften zu erfassen (durch Abstrahieren, Klassifizieren, Vergleichen usw.) mit denen sich kognitiv Veränderungen identifizieren lassen. Mittels solcher identifizierten kognitiven Konzepten der Veränderung kann der Mensch von angenommenen (kognitiven) Zuständen auf mögliche (kognitive) Zustände mittels der angenommenen Veränderungskonzepte schließen. Der Mensch ist also grundsätzlich in der Lage, aufgrund von Erfahrungen aus der Vergangenheit im Vergleich zur Gegenwart mögliche Veränderungen zu erschließen, die dann wiederum genutzt werden können, mögliche Zukünfte zu denken.
  2. Natürlich hängt die Qualität solche Hochrechnungen entscheidend davon ab, wie wirklichkeitsnah die Erfahrungen aus der Vergangenheit sind, die Art der Erinnerungen, die möglichen Denkoperationen des Selektierens, Abstrahierens, Vergleichens usw. Wie gut mögliche Veränderungen erfasst wurden, einschließlich der möglichen Wechselwirkungen zwischen unterschiedlichen Faktoren.

TECHNISCHE HILFSMITTEL: COMPUTER

  1. Wie der Gang der Wissenschaften und der Technologie uns zeigen kann, können solche möglichen Hochrechnungen deutlich verbessert werden, wenn der Mensch für diese (kognitiven) Denkleistungen als Hilfsmittel formalisierte Sprachen benutzt und Computer, die mittels Algorithmen bestimmte Denkoperationen des Menschen modellhaft nachvollziehen können. Statt also per Hand auf dem Papier umfangreiche Rechnungen viele tausend Male selbst vorzunehmen (wozu in der Realität dann sehr schnell einfach die Zeit und Arbeitskraft fehlt), schreibt man einen Algorithmus (= Programm, Software), der diese Rechnungen für das Arbeiten eines Computers übersetzt und die Maschine dann die Rechnungen automatisch (= maschinell) machen lässt.

BEGRIFF DER ZEIT

  1. Ein nicht unwesentlicher Faktor in diesen Überlegungen zu möglichen Zukünften ist der Begriff der Zeit.
  2. Der Begriff der Zeit ist viel schillernd und je nach Kontext kann er etwas ganz Verschiedenes bedeuten.
  3. Im Kontext des menschlichen Denkens haben wir die grundsätzliche Unterscheidung zwischen dem aktuellen Jetzt und dem vorausgehenden Jetzt in Form von verfügbaren Erinnerungen. Dazu kommen dann mögliche Jetzte aufgrund der Möglichkeit, im (kognitiven) Denken mittels dem (kognitiven) Konzept von Veränderung, aus der Vergangenheit und der Gegenwart denkbare (= mögliche) neue Zustände zu berechnen (zu denken, vorzustellen, …). Im Denken sind diese möglichen Zustände rein gedacht (virtuell), aber, sofern sie genügend nahe an der empirischen Wirklichkeit sind, könnten diese möglichen Zustände real werden, d.h. Zu einem neuen aktuellen Jetzt.

UHREN-MASCHINEN

  1. Um das Reden über diese unterschiedliche Formen von Jetzten zu vereinfachen, wurde sehr früh das Hilfsmittel der Uhr eingeführt: die Uhr ist eine Maschine, die periodisch Uhren-Ereignisse erzeugt, denen man Zahlzeichen zuordnen kann, also z.B. 1, 2, 3, … Es hat sich dann eingebürgert, ein Zeitsystem zu vereinbaren, bei dem man Jahre unterscheidet, darin 12 Monate, darin Wochen, darin 7 Wochentage, darin 24 Stunden pro Tag, darin 60 Minuten pro Stunde, darin 60 Sekunden pro Minute, und noch feinere Unterteilungen.
  2. Nimmt man an, dass eine Uhren-Maschine periodisch Sekunden erzeugt, dann würde jede Sekunde ein Ereignis angezeigt, dem dann nach 60 Sekunden eine Minute entsprechend würde, 60 Minuten dann eine Stunde, usw.
  3. Sofern man dann noch das praktische Problem lösen kann, wie die Uhren-Maschinen überall auf der Erde die gleiche Zeit anzeigen, und man einen gemeinsamen Referenzpunkt für den Beginn der Zeitrechnung hat, dann könnten alle Menschen nach der gleichen Zeitgebung leben.
  4. Unter Voraussetzung solcher einer Technologie der Zeiterzeugung könnte man dann abstrakt immer von definierten Zeitpunkten in diesem vereinbarten Zeitsystem sprechen.

(TECHNISCHE) SIMULATION

  1. Verfügt man über Computer und Zeit-Maschinen, dann kann man den Computer dazu nutzen, im Raum von definierten Zeitpunkten Hochrechnungen vorzunehmen. Man definiert Ausgangssituationen zu bestimmten Zeitpunkten (die Startzeit), man definiert angenommene mögliche Veränderungen in der Zeit, die man dann in Form eines Algorithmus aufschreibt, und dann lässt man den Computer für einen gewünschten Zeitraum ausrechnen, welche Veränderungen sich ergeben.
  2. Will man z.B. errechnen, wie sich die Bevölkerungszahl in einer bestimmten Population im Laufe von 10 Jahren berechnen, und man weiß aufgrund der Vergangenheit, wie hoch die durchschnittlichen Geburten- und Sterberaten für ein Jahr waren, dann kann man die Veränderungen von Jahr 1 zu Jahr 2 berechnen, dann wieder von Jahr 2 zu Jahr 3, usw. bis man das Zieljahr erreicht hat.
  3. Diese Rechnungen sind natürlich nur solange genau, wie sich die Geburten- und Sterberaten in diesem angenommenen Zeitraum nicht verändern. Wie wir aus der Geschichte wissen können, gibt es zahllose Faktoren, die auftreten können (Hunger, Krankheit, Kriege, …), die eine Veränderung mit sich bringen würden.
  4. Ferner sind Populationen immer seltener isoliert. Der Austausch zwischen Populationen nimmt heute immer mehr zu. Eine ganz normale Gemeinde im Kreis Offenbach (Land Hessen, Deutschland) kann z.B. eine Migrationsrate von 15% pro Jahr haben (Menschen die wegziehen oder herziehen), bei einer Geburtenrate von 0,7% und einer Sterberate von 0,8%. Die Größe einer Population hängt dann weniger vom Geborenwerden und Sterben ab, sondern von Standortfaktoren wie Verfügbarkeit von Arbeit, Höhe der Mietpreise, Verkehrsanbindung, Qualität der Schulen, ärztliche Versorgung usw.

DIE ERDE

  1. Will man nun die Erde als ganze betrachten, und hat man sowohl ein vereinbartes Zeitsystem zur Verfügung basierend auf einer gemeinsamen globalen Uhren-Technologie, wie auch Computer, die geeignete Algorithmen ausführen können, dann braucht man ’nur noch‘ (i) hinreichend gute Beschreibungen des Zustands der Erde jetzt, (Daten IST) (ii) von möglichst vielen Zuständen in der Vergangenheit (DATEN VORHER), und (iii) von möglichst allen wichtigen wirkenden Veränderungen zwischen diesen Zuständen (VREGELN). Unter der Annahme, dass alle diese Daten und Veränderungsregeln hinreichend realistisch sind, kann man dann Hochrechnungen für angenommene Zeiträume machen. In unserem Fall von 2017 bis 2117.
  2. Da schon das kleine Beispiel einer winzigen Gemeinde in Deutschland leicht erkennen lässt, wie fragil viele erkannten Veränderungsregeln sind, kann man vermuten, dass dies auf ein so komplexes System wie die ganze Erde sicher auch zutreffen wird.
  3. Betrachten wir ein paar (stark vereinfachte, idealisierte) Beispiele.
  4. Ganz allgemein gehen wir aus von einer globalen Veränderungsregel V_erde für die Erde, die den Zustand der Erde im Jahr 2017 (ERDE_2017) hochrechnen soll auf den Zustand der Erde im Jahr 2117 (ERDE_2117), als Abbildung geschrieben: V_erde : ERDE_2017 —> ERDE_2117.
  5. Der Zustand der Erde im Jahr 2017 (ERDE_2017) setzt sich zusammen aus einer ganzen Menge von Eigenschaften, die den Zustand charakterisieren. Abstrakt könnten wir sagen, die Erde besteht zu jedem Zeitpunkt aus einer Menge charakteristischer Eigenschaften Ei (ERDE_Zeit = <E1, E2, …, En>), und je nachdem, welche Veränderungen zwischen zwei Zeitpunkten stattgefunden haben, verändern sich in dieser Zeitspanne bestimmte Eigenschaften Ei.
  6. Beispiele für solche charakteristischen Eigenschaften Ei könnten sein das Klima (E_Klima), das wiederum selbst in unterscheidbare Eigenschaften zerfällt wie z.B. die durchschnittliche Sonneneinstrahlung, Beschaffenheit der Atmosphäre, Niederschlagsmenge, Wassertemperatur der Ozeane, Verdunstungsgrad des Wassers, usw. Zusammenhängend damit kann von Bedeutung sein die Bodenbeschaffenheit, verfügbare Anbauflächen, Pflanzenwachstum, mögliche Ernten, usw. Dazu wichtig die Verteilung der biologischen Populationen, deren Nahrungsbedarf, die Wechselwirkung zwischen Populationen und Pflanzenwachstum, usw. Hier fällt einem sofort auch die Frage der Lagerung von Nahrungsmitteln auf, deren Verarbeitung und Transport, deren Verteilung und deren Marktpreise.
  7. Schon diese sehr kleine Liste von Eigenschaften und angedeuteten Wechselwirkungen lassen erahnen, wie unterschiedlich mögliche Verläufe der Veränderungen in der Zukunft sein können. Von Heute aus gesehen gibt es also nie nur eine Zukunft, sondern sehr, sehr viele mögliche Zukünfte. Welche der vielen möglichen Zukünfte tatsächlich eintreten wird, hängt von vielen Faktoren ab, nicht zuletzt auch vom Verhalten der Menschen selbst, also von uns, von jedem von uns. (An diesem Punkt lügt die deutsche Sprache! Sie spricht nur von einer Zukunft im Singular (in der Einzahl), in Wahrheit sind es sehr viele und wir können mit bewirken, welche der vielen Zukünfte eintreten wird).

WARUM ÜBER ZUKUNFT SPEKULIEREN?

  1. Angesichts so vieler Unwägbarkeiten hört man oft von Menschen (speziell auch von Politikern!), dass Versuche der Hochrechnungen (= Simulation) auf mögliche Zukünfte sinnlos seien; eine unnötige Verschwendung von Zeit und damit Ressourcen.
  2. Auf den ersten Blick mag dies tatsächlich so erscheinen. Aber nur auf den ersten Blick.
  3. Der Wert von solchen Modellrechnungen über mögliche Zukünfte liegt weniger im Detail der Endergebnisse, sondern im Erkenntniswert, der dadurch entsteht, dass man überhaupt versucht, wirkende Faktoren und deren Wechselwirkungen mit Blick auf mögliche Veränderungen zu erfassen.
  4. Wie oft hört man Klagen von Menschen und Politikern über mögliche gesellschaftliche Missstände (keine Maßnahmen gegen Autoabgase, falsche Finanzsysteme, falsche Verkehrspolitik, falsche Steuerpolitik, falsche Entwicklungspolitik, fragwürdige Arzneimittelmärkte, …). Vom Klagen alleine ändert sich aber nichts. Durch bloßes Klagen entsteht nicht automatisch ein besseres Verständnis der Zusammenhänge, der Wechselwirkungen. Durch bloßes Klagen gelangt man nicht zu verbesserten Modellvorstellungen, wie es denn überhaupt anders aussehen könnte.

SIMUPEDIA FÜR ALLE

  1. Was die Not zumindest ein wenig lindern könnte, das wären systematische (wissenschaftliche) Recherchen über alle Disziplinen hinweg, die in formalen Modellen aufbereitet werden und dann mittels Algorithmen getestet werden: Was wäre, wenn wir die Eigenschaften E1, …, En einfach mal ändern und hier und dort neue Wirkmechanismen (durch Bildung, durch Gesetze, …) ermöglichen würden? Das Ganze natürlich transparent, öffentlich nachvollziehbar, interaktiv für alle. Nicht nur ein ‚Wikipedia‘ der Texte, sondern zusätzlich  eine Art ‚Simupedia‘ der Simulationen für alle.

Interessante  Ergänzung zu diesen ersten Überlegungen finden sich in den folgenden Beiträgen:  EIN HOMO SAPIENS – VIELE BILDER. Welches ist wahr? ,   WAHRHEIT ALS UNABDINGBARER ROHSTOFF EINER KULTUR DER ZUKUNFTWENN PHILOSOPHISCHE SACHVERHALTE POLITISCH RELEVANT WERDEN  sowie ‚Informelle Kosmologie‘; hier der erste Teil mit einer Fortsetzung Teil 2 .

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

PHILOSOPHIE – ÜBER SICH NACHDENKEN – PROGRAMMIEREN – DIE KALTE MASCHINE – DER GEIST IM STROMKREIS

Letzte Änderung: 29.Mai 2014, 19:20h (Musikstück hinzugefügt)

SOUNDEREIGNIS

Zur Einstimmung der folgenden Reflexionen über das Programmieren aus philosophischer Sicht hier eine Sound-Komposition vollständig erstellt mit mathematischen Algorithmen: Sinfonia made completely by MAX Demos. Das Stück besteht aus 6 Klangspuren, wobei jede Spur einen Klang repräsentiert, der durch Softwareinstrumente erzeugt worden ist. Für alle die, die nur ‚Mainstream-Musik‘ kennen (Klassik gehört auch zum ‚Mainstream :-)) ist vom Hören abzuraten. Dies ist ein Sound für jene, die sich vom Mainstream gelöst haben und einfach Spass haben, unbekannte Klangräume zu durchwandern. Konkret habe ich mit Demoinstrumenten aus den Tutorials der Software MAX 6.1.7 sowie ableton live 9.1 und Max4Live herumgespielt.

ZWEI JUNGE MÄNNER TRETEN AUF

1. Am 22.Mai 2014 abends, nach einem sehr anstrengenden Tag, war ich Zeuge eines besonderen Schauspiels. Zwei junge Männer, beide langjährige Programmierer im Kontext innovativer multimedialer Anwendungen, Erfinder einer dafür eigens geschaffenen Programmiersprache – nennen wir sie Lx – dachten in zwei aufeinanderfolgenden Vorträgen laut nach, über das, was sie tun, wenn sie programmieren.

2. Dies ist ungewöhnlich, da diejenigen, die programmieren, es normalerweise einfach tun; sie schreiben ‚Kode‘, wie es so schön heißt. Verschachteln if’s und ‚while’s‘ und zahllose Schlüsselwörter der vielen ‚Bibliotheken‘ der fertigen Softwaremodulen, die heutzutage Programmiersprachen begleiten.

3. In der ‚reinen Lehre‘ ist s zwar anders, da gibt es Entwurfsmodelle, abstrakte Spezifikationen, seitenlange Anforderungen, die einem Programmierer sagen sollen, was er ‚eigentlich‘ zu tun hat; doch aus der Sicht eines Programmierers verschwimmen diese ganzen Texte und Diagramme sehr schnell zu einem Nezwerk von Kodierungsanweisungen, zu Seiten voller kryptischer Befehlsausdrücken, zu einem Programmtext seiner Sprache Lx. Was immer abstrakt vorher gedacht worden ist, er, der Programmierer verwandelt sich in einen ‚Kodierer‘.

4. Nicht so an diesem Abend. Die beiden Programmierer versuchten über ihr Kodieren nachzudenken.

ZUR GESCHICHTE DER KODIERUNG

5. Im ersten Vortrag ging es mehr um die historische Dimension, wie es von ersten rechnenden Maschinen (mit schönen Videoausschnitten über Konrad Zuse und seinen pionierhaften Experimenten mit seinen ersten Rechnern) mit direkter bitweiser Kodierung zu immer abstrakteren Programmiersprachen (Bits, Hexcode, mnemonischer Assemblercode, einfache Programmiersprachen wie Fortran und C, höhere objektorientierte Sprachen, und dann visuelle Kodierung). Da endete der historische Aufriss, da die Sprache Lx der beiden Programmierer solch eine visuelle Sprache war.

6. An dieser Stelle ruckelte es schon ein bisschen. Erstens gibt es ja heute schon viele verschiedene visuelle Programmiersprachen, und zum anderen war der Überblick unvollständig. Die Programmiersprachen selbst sind nur ein Teil der Geschichte; parallel mit den Programmiersprachen hat sich unter dem Oberthema ‚Softwareengineering‘ ein Denkmuster entwickelte, das die Programmiersprache nur noch als ein – wenngleich ein wichtiges – Moment sieht im Kontext von – stark vereinfachend – Problemstellung P, Anforderungsanalyse A, logisches Entwurfsmodell M und implementiertes System S. Kodierung ist Teil des implementierten Systems S bzw. steht in gewisser Beziehung zum logischen Entwurfsmodell. Der ‚Denkraum‘ des Softwareeinsatzes hat sich also erheblich ausgeweitet, und eine Geschichte der Programmierung, die diesen Denkkontext des Programmierens nicht berücksichtigt, wirkt mindestens unvollständig.

DIAGRAMMATISCHE REFLEXE ZTUM EIGENEN KODIEREN

7. Der zweite Vortrag wurde in gewisser Weise ‚persönliches‘ bis ’sehr persönlich‘. Hier sprach der Programmierende – nennen wir ihn B – in der Tat über seine Gedanken, wenn er programmiert bzw. über seine Gedankenwelt, vorher, während und nachher, und er sprach als jemand, der eine Programmiersprache entwickelt hat, sie benutzt, sie ‚warten‘ muss und sie weiter entwickelt.

8. Er benutze dazu Folien die angefüllt waren mit Handzeichnungen, Wortskizzen, Wort und Bildskizzen – fantastisch anzuschauen, eher Kunstwerken gleich, anregend, faszinierend. Seine begleitende Rede war auch keine normale Rede, keine geschliffenen Sätze, kein zusammenhängender Text; nein, es war eine Mischung aus Stammeln, Brummeln, meist mit dem Rücken zu den Zuhörer, eine Art Zwiegespräch mit den kunstvollen Linien in dem projizierten Bild; meist kryptisch, die Zuhörer/ Zuschauer meist in Lauerstellung in Erwartung, was denn jetzt kommen würde.

9. Es klingt komisch, aber ich habe es genossen, das war Denken unplugged, das war Kreativität des sich selbst reflektierenden Kodierens ‚live‘. Es dürfte nicht allzu viele ‚Programmierer‘ geben, die dies so tun würden. Als ich den Vortragenden anschließend darauf hin ansprach, wie oft er das so schon gemacht habe, sagte er auch, dass er dies so zum ersten Mal gemacht habe. Also eine Uraufführung; wunderbar.

PHILOSOPHISCHE REFLEXION

10. Schaltet man jetzt die philosophische Reflexion ein, dann ist als erstes zu bemerken, dass es offensichtlich nicht ganz selbstverständlich, keinesfalls einfach ist, etwas, was man tut, – hier das Programmieren, das Kodieren in einer Sprache Lx – in einer anderen Sprache Lxx auszudrücken. So beeindruckend und faszinierend die bildhaften und textuellen Fragmente waren, die B in seinen Folien präsentierte (für mich wahre ‚Kunstwerke‘), so wenig ließen diese vielen Fragmente einen größeren Zusammenhang klar erkennen. Dieser Eindruck verstärkte sich auch in dem anschließenden Gespräch mit den Zuhörern. Während die meisten ‚Anwender‘ waren, die die Sprache Lx (bzw. der Vorläuferversion) selbst zum Kodieren benutzten, und der Vortragende B aber gedanklich im Netzwerk seiner Konzepte ?herumirrte?, gab es auch Fragen zum ‚Denkraum‘, innerhalb dessen man Programmiersprachen entwickelt. Fragen und Antworten fanden nicht wo wirklich zueinander.

11. Während im ersten Vortrag noch ein wenig die Idee anklang, dass das Aufkommen von visuellen Sprachen eine ‚Verbesserung‘ für den programmierenden Menschen darstellt, blieb dieser reformerische, am Menschen orientierte, Ansatz immer mehr im Dunkeln. Im Zweikampf mit seinen eigenen Gedanken wurde nicht klar, ob und wie denn eine visuelle Programmiersprache Lx (zu der es, wie gesagt, viele Parallelen gibt) dem ‚menschlichen Denken‘ besonders entgegen kommt.

12. Während die Missionare des objektorientierten Programmierens zumindest versucht haben, Formen des alltäglichen Denkens mit einer ojektorientierten Sprache Lo in Verbindung zu bringen (was beim späteren sogenannten ‚modellbasierten‘ Programmieren schon nicht mehr so gelang), wurden solche Gedanken an diesem Abend nicht vorgetragen. Der Mensch in seinem Denken – hier der programmierende Mensch – blieb weitgehend außen vor. Schade. In diesem den Menschen und vorhandenen Programmieralternativen ausklammernden Denken blieben die Gedanken des suchenden Programmierers weitgehend ‚alleine mit sich selbst‘.

SOFTWAREENGINEERING IST NICHT GANZ NEU

13. Bemerkenswert an diesem Schauspiel ist die Tatsache, dass Software engineering (nicht ganz so gut: Softwaretechnik) nun ja keine wirklich ganz neue Disziplin mehr ist. An allen Universitäten/ Hochschulen, in denen Informatik gelehrt wird, gibt es seit mindestens 20 Jahren auch Softwareengineering. Und dennoch ist diese Art eines ‚zusammenhängenden Denkens‘ in den Köpfen der ‚aktiven Programmierenden‘ offensichtlich nicht präsent (als Vergleich: die Ideen eines Galilei haben ca. 100 Jahre gebraucht, bis sie zum Allgemeingut geworden sind).

14. Dennoch kamen man auch bei jenen, die Softwareengineering im größeren Zusammenhang denken, wissenschaftstheoretische bzw. philosophische Ansätze kaum bis gar nicht vorkommen, obgleich ein solches Denken hier eine Menge zu tun hätte.

15. Halten wir kurz fest: der Aspekt des menschlichen Denkens – nennen wir es hier das ‚kognitive Interface‘, die ‚Schnittstelle zum Denken‘; andere sprechen auch von ‚mentalen Modellen‘ – kam bei den beiden Vortragenden des Abends so gut wie nicht vor.

16. Der Einsatz einer Programmiersprache hat aber noch eine weitere Dimension, die nicht minder bedeutsam ist. Egal welche Programmiersprache Lx man benutzt, ein Programm in solch einer Sprache Lx – nennen wir es P(Lx) – muss irgendwann von einem realen Computer C ‚ausgeführt‘ werden. Dies bedeutet, was immer sich ein menschlicher Programmierer im Rahmen seines kognitiven Interfaces ‚gedacht‘ haben mag, als er P(Lx) erstellt hat, das, was ‚tatsächlich passiert‘, das entscheidet sich bei der realen Ausführung auf einem Computer C. Dies bedeutet, dass die Menge dieser Ausführungen von P(Lx) auf dem Computer C – nennen wir sie C(P(Lx)) – die ‚finale Bedeutung‘ von Lx darstellt. Man spricht auch von der ‚Semantik‘ (Bedeutung) der Sprache Lx mit Bezug auf C. Beispiel: mit den Ausdrücken von Lx will Programmierer B zwei ‚parallele Prozesse‘ a und b darstellen, gefolgt von Prozess c. Damit dieser Gedanke Sinn macht, muss sichergestellt sein, dass bei der Ausführung von a,b und dann c diese logische Struktur auch real umgesetzt wird, erst recht, wenn möglicherweise das Ergebnis von c z.B. dann wieder dem Prozess b als ein Teil seiner Eingangswerte zur Verfügung gestellt werden soll. Solche ‚Korrespondenzen‘ zwischen ‚intendierter‘ Bedeutung und ‚realisierter‘ Bedeutung herzustellen und zu ‚gewährleisten‘ ist generell nicht einfach und in genügend vielen Fällen unmöglich. Über diese ’semantischen Aspekte‘ der Programmiersprache Lx wurde gar nicht gesprochen. Auf Nachfrage kam eine Aussage, die so klang, also ob man darüber ’noch nicht nachgedacht habe‘.

17. Mir kommt es so vor, als ob das Thema ‚Semantik einer Programmiersprache‘ für viele Programmierenden das ist, was Tiefenpsychologen das ‚individuelle Unbewusste‘ nennen. Irgendwo wissen sie zwar, dass ihr Kode letztlich von einer Maschine abgearbeitet wird mit den daraus resultierenden Einschränkungen, aber tatsächlich berauschen sie sich lieber an ihren aktuellen Ideen und Fantasien und tun so, als ob das alles ja genau so auch umgesetzt wird. Wird es nicht. Hier gibt es viele zu klärende Fragen, also philosophisches Potential.

WITTGENSTEIN LÄSST GRÜSSEN

18. Vielen Programmierenden – den meisten? – ist nicht bewusst, dass der Denkweg von Ludwig Wittgenstein von seinem ‚Tractatus Logico Philosophicus‘ hin zu seinen ‚Philosophischen Untersuchungen‘ ein wunderbares Muster abgibt, innerhalb dessen man auch die Thematik der Bedeutung von Programmiersprachen reflektieren kann. Natürlich müsste man die Diktionen von Wittgenstein dem heutigen Sprach- und Denkgebrauch des Softwareengineerings etwas anpassen, aber die Grundideen (und die sich darin verbergenden kritischen Potentiale) sind weiterhin anwendbar.

19. Eine zentrale Idee Wittgensteins ist die Aufdeckung der Tatsache, dass die Ausdrücke einer Sprache L – und das gilt dann auch für Lx – ihre ‚Bedeutung‘ nur im Kontext sogenannter ‚Sprachspiele‘ haben. Im Fall der visuellen Programmiersprache Lx wäre ein solcher Kontext gegeben durch (i) die Programmierer, (ii) die Ausdrücke von Lx, (iii) die ausführenden Computer C (meistens mindestens mit Hardware und Betriebssystem) sowie (iv) die ‚Aktionen‘, die der programmierte Computer – z.B. als Roboter oder als Smartphone – beobachtbar ‚ausführt‘, sehr oft in ‚Interaktion mit einem (v) Benutzer‘, der ’seine‘ ‚Vorstellungen‘ (:= mentale Modelle) des Geschehens hat.

20. Das Softwareengineering versucht – im idealen Fall – die potentiellen Sprachspiele ‚vorweg‘ zu analysieren, zu modellieren, und entsprechend zu implementieren. Die Grenzen liegen bei der ‚Vorwegnahme‘ des potentiellen Benutzers.

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

DAS NEUE MENSCHENBILD – ERSTE SKIZZE

MUSIK ZUR EINSTIMMUNG

Das Stück „Wenn die Worte aus der Dunkelheit aufsteigen wie Sterne“ entstand zunächst als ein reines Instrumentalstück (die erste Hälfte des aktuellen Stücks; diesen Teil hatte ich auch schon mal am 4.April im Blog benutzt). Doch inspirierte die Musik zum ‚Weitermachen‘, zunächst entstand eine Fortsetzung rein instrumental; dann habe ich ab der Mitte spontan einen Text dazu gesprochen. Im Nachhinein betrachtet passt dieser Text sehr gut zum heutigen Blogeintrag (ist kein Dogma … :-))

UNSCHULDIGER ANFANG

1. Als ich am 20.Januar 2007 – also vor 7 Jahren und 3 Monaten – meinen ersten Blogeintrag geschrieben habe, da wusste ich weder genau, was ich mit dem Blog wollte noch konnte ich ahnen, was durch das Niederschreiben von Gedanken alles an ‚kognitiven Bildern‘ von der Welt und dem Menschen entstehen konnte. Langsam schälte sich als Thema – wenngleich nicht messerscharf – ‚Neues Weltbild‘ heraus. Das konnte alles und nichts sein. Aber im gedanklichen Scheinwerferkegel von Theologie, Philosophie, Wissenschaftstheorie, Psychologie, Biologie, Linguistik, Informatik, Neurowissenschaften, Physik gab es Anhaltspunkte, Eckwerte, die den aktuellen Gedanken wie eine Billardkugel von einer Bande zur anderen schickten. Dazu die heutige, aktuelle Lebenserfahrung und die vielen Begegnungen und Gespräche mit anderen Menschen.

2. Die letzten beiden Blogeinträge zum Thema Bewusstsein – Nichtbewusstsein markieren einen Punkt in dieser Entwicklung, ab dem ‚wie von Zauberhand‘ viele einzelnen Gedanken von vorher sich zu einem Gesamtbild ‚zusammen schieben‘, ergänzen.

AUSGANGSPUNKT INDIVIDUELLES BEWUSSTSEIN

3. Akzeptieren wir den Ausgangspunkt des individuellen Bewusstseins B_i als primären Erkenntnisstandpunkt für jeden Menschen, dann besteht die Welt für jeden einzelnen zunächst mal aus dem, was er/ sie im Raume seines eigenen individuellen Bewusstseins erleben/ wahrnehmen kann.

4. Da es aber zur Natur des individuellen Bewusstseins gehört, dass es als solches für ‚andere‘ ‚unsichtbar‘ ist, kann man auch nicht so ohne weiteres über die Inhalte des eigenen Bewusstseins mit anderen reden. Was immer man mit Hilfe eines Ausdrucks A einer Sprache L einem anderen mitteilen möchte, wenn der Ausdruck A als Schallwelle den anderen erreicht, hat er zwar einen Schalleindruck (falls erhören kann), aber er/ sie weiß in dem Moment normalerweise nicht, welcher Inhalt des Bewusstseins des Sprechers damit ‚gemeint‘ sein könnte.

5. Dass wir uns trotzdem ‚unterhalten‘ können liegt daran, dass es offensichtlich einen ‚Trick‘ geben muss, mit dem wir diese unüberwindliche Kluft zwischen unseren verschiedenen Bewusstseinsräumen überwinden können.

KLUFT ZWISCHEN INDIVIDUELLEN BEWUSSTSEINSRÄUMEN ÜBERWINDEN

6. Der ‚Trick‘ beruht darauf, dass der individuelle Bewusstseinsraum einem ‚individuellen Körper‘ zugeordnet ist, dass es in diesen Körper Gehirne gibt, und dass das individuelle Bewusstsein eines Körpers k_i als Ereignis im Gehirn g_i des Körpers k_i zu verorten ist. Das Bewusstsein B_i partizipiert an den Gehirnzuständen des Gehirns, und dieses partizipiert an den Körperzuständen. Wie die Wissenschaft mühsam erarbeitet hat, können bestimmte Außenweltereignisse w über ‚Sinnesorgane‘ in ‚Körperereignisse‘ ‚übersetzt‘ werden‘, die über das Gehirn partiell auch das Bewusstsein erreichen können. Sofern es jetzt Außenweltereignisse w‘ gibt, die verschiedene Körper in ähnlicher Weise ‚erreichen‘ und in diesen Körpern via Gehirn bis zu dem jeweiligen individuellen Bewusstsein gelangen, haben diese verschiedenen individuellen Bewusstseinsräume zwar ‚rein private‘ Bewusstseinszustände, aber ‚gekoppelt‘ über Außenweltzustände w‘ haben die verschiedenen Bewusstseinszustände B_1, …, B_n alle Bewusstseinsereignisse b_i, die als solche ‚privat‘ sind, aber ‚zeitlich gekoppelt‘ sind und sich mit Änderung der Außenweltzustände w‘ auch ’synchron‘ ändern. Die gemeinsam geteilte Außenwelt wird damit zur ‚Brücke‘ zwischen den körperlich getrennten individuellen Bewusstseinsräumen. Diese ‚ gemeinsam geteilte Außenwelt‘ nennt man oft den ‚intersubjektiven‘ Bereich der Welt bzw. dies stellt den Raum der ‚empirischen Welt‘ [Wemp] dar. Aus Sicht des individuellen Bewusstseins ist die empirische Welt eine Arbeitshypothese, die dem individuellen Bewusstsein zugänglich ist über eine spezifische Teilmenge [PHemp] der Bewusstseinszustände [PH].

EMPIRISCHE WELT ALS SONDE INS NICHTBEWUSSTSEIN

7. In der Geschichte des menschlichen Wissens spielt die Entdeckung der empirischen Welt und ihre systematische Untersuchung im Rahmen der modernen empirischen Wissenschaften bislang – nach meiner Meinung – die größte geistige Entdeckung und Revolution dar, die der menschliche Geist vollbracht hat. Auf den ersten Blick wirkt die Beschränkung der empirischen Wissenschaften auf die empirischen Phänomene PHemp wie eine unnötige ‚Einschränkung‘ und ‚Verarmung‘ des Denkens, da ja die Menge der bewussten Ereignisse PH erheblich größer ist als die Menge der empirischen Ereignisse PHemp. Wie der Gang der Geschichte aber gezeigt hat, war es gerade diese bewusste methodische Beschränkung, die uns den Bereich ‚außerhalb des Bewusstseins‘, den Bereich des ‚Nichtbewusstseins‘, Schritt für Schritt ‚erforscht‘ und ‚erklärt‘ hat. Trotz individuell stark eingeschränktem Bewusstsein konnte wir auf diese Weise so viel über die ‚Rahmenbedingungen‘ unseres individuellen Bewusstseins lernen, dass wir nicht mehr wie die früheren Philosophen ‚wie die Fliegen am Licht‘ an den Phänomenen des Bewusstseins kleben müssen, sondern wir können zunehmend Hypothesen darüber entwickeln, wie die verschiedenen Bewusstseinsphänomene (inklusive ihrer Dynamik) durch die Strukturen des Gehirns und des Körpers bestimmt sind. M.a.W. wir stehen vor dem Paradox, dass das individuelle Bewusstsein den Bereich des Nichtbewusstseins dadurch ‚verkleinern‘ kann, dass es durch Ausnutzung der empirischen Phänomene mittels gezielter Experimente und Modellbildung immer mehr Eigenschaften des Nichtbewusstseins innerhalb des individuellen Bewusstseins ’nachkonstruiert‘ und damit ‚bewusst‘ macht. Bedenkt man wie eng und schwierig die Rahmenbedingungen des menschlichen Bewusstseins bis heute sind, gleicht es einem kleinen Wunder, was dieses primitive menschliche Bewusstsein bislang nachkonstruierend erkennen konnte.

8. Von diesem Punkt aus ergeben sich viele Perspektiven.

BIOLOGISCHE EVOLUTION

9. Eine Perspektive ist jene der ‚evolutionären Entwicklungsgeschichte‘: seit gut hundert Jahren sind wir mehr und mehr in der Lage, unsere aktuellen Körper und Gehirne – zusammen mit allen anderen Lebensformen – als einen Gesamtprozess zu begreifen, der mit den ersten Zellen vor ca. 3.8 Milliarden Jahren als biologische Evolution begonnen hat, ein Prozess, der bis heute noch viele Fragen bereit hält, die noch nicht befriedigend beantwortet sind. Und der vor allem auch klar macht, dass wir heute keinen ‚Endpunkt‘ darstellen, sondern ein ‚Durchgangsstadium‘, dessen potentieller Endzustand ebenfalls nicht ganz klar ist.

10. Ein wichtiger Teilaspekt der biologischen Evolution ist, dass der Vererbungsmechanismus im Wechselspiel von Genotyp (ein Molekül als ‚Informationsträger‘ (Chromosom mit Genen)) und Phänotyp (Körper) im Rahmen einer Population eine ‚Strukturentwicklung‘ beinhaltet: die Informationen eines Informationsmoleküls (Chromosom) werden innerhalb des Wachstumsprozesses (Ontogenese) als ‚Bauplan‘ interpretiert, wie man welche Körper konstruiert. Sowohl bei der Erstellung des Informationsmoleküls wie auch bei seiner Übersetzung in einen Wachstumsprozess und dem Wachstumsprozess selbst kann und kommt es zu partiellen ‚Änderungen‘, die dazu führen, dass die resultierenden Phänotypen Änderungen aufweisen können (verschiedene Arten von Sehsystemen, Verdauungssystemen, Knochengerüsten, usw.).

11. Im Gesamtkontext der biologischen Evolution sind diese kontinuierlich stattfindenden partiellen Änderungen lebensentscheidend! Da sich die Erde seit ihrer Entstehung permanent geologisch, klimatisch und im Verbund mit dem Sonnensystem verändert, würden Lebensformen, die sich von sich aus nicht auch ändern würden, schon nach kürzester Zeit aussterben. Dies bedeutet, dass diese Fähigkeit zur permanenten strukturellen Änderung ein wesentliches Merkmal des Lebens auf dieser Erde darstellt. In einer groben Einteilung könnte man sagen, von den jeweils ’neuen‘ Phänotypen einer ‚Generation‘ wird die ‚große Masse‘ mehr oder weniger ‚unverändert‘ erscheinen; ein kleiner Teil wir Veränderungen aufweisen, die es diesen individuellen Systemen ’schwerer‘ macht als anderen, ihre Lebensprozesse zu unterstützen; ein anderer kleiner Teil wird Veränderungen aufweisen, die es ‚leichter‘ machen, die Lebensprozesse zu unterstützen. Letztere werden sich vermutlich proportional ‚mehr vermehren‘ als die beiden anderen Gruppen.

12. Wichtig an dieser Stelle ist, dass zum Zeitpunkt der Änderungen ’niemand‘ weiß bzw. wissen kann, wie sich die ‚Änderung‘ – bzw. auch die Nicht-Änderung! – im weiteren Verlauf auswirken wird. Erst der weitergehende Gesamtprozess wird enthüllen, wie sich die verschiedenen Strukturen von Leben bewähren werden.

LEBENSNOTWENDIGE KREATIVITÄT: WOLLEN WIR SIE EINSPERREN?

13. Übertragen auf unsere heutige Zeit und unser Weltbild bedeutet dies, dass wir dieser Veränderlichkeit der Lebensformen immer Rechnung tragen sollten, um unsere Überlebensfähigkeit zu sichern. Zum Zeitpunkt einer Änderung – also jetzt und hier und heute – weiß niemand, welche dieser Änderungen morgen vielleicht wichtig sein werden, zumal Änderungen sich erst nach vielen Generationen auszuwirken beginnen.

14. Es wäre eine eigene große Untersuchung wert, zu schauen, wie wir heute in der Breite des Lebens mit den stattfindenden Änderungen umgehen. In der Agrarindustrie gibt es starke Tendenzen, die Vielzahl einzugrenzen und wenige Arten so zu monopolisieren, dass einzelne (ein einziger!) Konzern die Kontrolle weltweit über die genetischen Informationen bekommt (was in den USA z.T. schon zur Verödung ganzer Landstriche geführt hat, da das Unkraut sich schneller und effektiver geändert hat als die Laborprodukte dieser Firma).

STRUKTURELLES UND FUNKTIONALES LERNEN

15. Die ‚Struktur‘ des Phänotyps ist aber nur die eine Seite; genauso wenig wie die Hardware alleine einen funktionierenden Computer definiert, so reicht die Anordnung der Zellen als solche nicht aus, um eine funktionierende biologische Lebensform zu definieren. Im Computer ist es die Fähigkeit, die elektrischen Zustände der Hardware kontinuierlich zu verändern, dazu verknüpft mit einer impliziten ‚Schaltlogik‘. Die Menge dieser Veränderungen zeigt sich als ‚funktionaler Zusammenhang‘ phi_c:I —> O, der ‚Inputereignisse‘ [I] mit Outputereignissen [O] verknüpft. Ganz analog verhält es sich mit den Zellen in einem biologischen System. Auch hier gibt es eine implizite ‚Logik‘ nach der sich die Zellen verändern und Zustände ‚kommunizieren‘ können, so dass Zellgruppen, Zellverbände eine Vielzahl von funktionellen Zusammenhängen realisieren. Einige dieser funktionellen Zusammenhänge bezeichnen wir als ‚Lernen‘. Dies bedeutet, es gibt nicht nur die über Generationen laufenden Strukturveränderung, die eine Form von ’strukturellem Lernen‘ im Bereich der ganzen Population darstellen, sondern es gibt dann dieses ‚funktionelle Lernen‘, das sich im Bereich des individuellen Verhaltens innerhalb einer individuellen Lebenszeit ereignet.

WISSEN GARANTIERT KEINE WAHRHEIT

16. Dieses individuelle Lernen führt zum Aufbau ‚individueller Wissensstrukturen‘ mit unterschiedlichen Ausprägungsformen: Erlernen von motorischen Abläufen, von Objektkonzepten, Beziehungen, Sprachen, Verhaltensregeln usw. Wichtig ist dabei, dass diese individuellen Wissensstrukturen im individuellen Bewusstsein und individuellem Unterbewusstsein (ein Teil des Nichtbewusstseins, der im individuellen Körper verortet ist) verankert sind. Hier wirken sie als kontinuierliche ‚Kommentare‘ aus dem Unterbewusstsein in das Bewusstsein bei der ‚Interpretation der Bewusstseinsinhalte‘. Solange diese Kommentare ‚richtig‘ / ‚passend‘ / ‚wahr‘ … sind, solange helfen sie, sich in der unterstellten Außenwelt zurecht zu finden. Sind diese Wissensstrukturen ‚falsch‘ / ‚verzerrt‘ / ‚unangemessen‘ … bewirken sie in ihrer Dauerkommentierung, dass es zu Fehleinschätzungen und zu unangemessenen Entscheidungen kommt. Sofern man als einziger eine ‚unpassende Einschätzung‘ vertritt, fällt dies schnell auf und man hat eine Chance, diese zu ‚korrigieren‘; wird aber eine ‚Fehleinschätzung‘ von einer Mehrheit geteilt, ist es schwer bis unmöglich, diese Fehleinschätzung als einzelner zu bemerken. In einer solchen Situation, wo die Mehrheit eine Fehleinschätzung vertritt, kann ein einzelner, der die ‚richtige‘ Meinung hat (z.B. Galilei und Co. mit der neuen Ansicht zur Bewegung der Sonne; die moderne Wissenschaft und die alten Religionen; das damalige südafrikanische Apartheidsregime und der damalige ANC, der Sowjetkommunismus und die östlichen Friedensbewegungen vor dem Auseinanderfallen der Sowjetunion; die US-Geheimdienste und Snowden; …) als der ‚Fremdartige‘ erscheinen, der die bisherige ‚Ordnung‘ stört und den man deshalb ‚gesellschaftlich neutralisieren‘ muss).

17. Viele Menschen kennen das Phänomen von ‚Phobien‘ (vor Schlangen, vor Spinnen, vor …). Obwohl klar ist, dass eine einzelne Spinne keinerlei Gefahr darstellt, kann diese einen Menschen mit einer Phobie (= Kommentar des individuellen Unterbewusstseins an das Bewusstsein) zu einem Verhalten bewegen, was die meisten anderen als ‚unangemessen‘ bezeichnen würden.

18. Im Falle von psychischen Störungen (die heute statistisch stark zunehmen) kann dies eine Vielzahl von Phänomenen sein, die aus dem Raum des individuellen Unterbewusstseins in das individuelle Bewusstsein ‚hinein reden‘. Für den betroffenen Menschen ist dieses ‚Hineinreden‘ meistens nicht direkt ‚verstehbar‘; es findet einfach statt und kann vielfach kognitiv verwirren und emotional belasten. Diese Art von ‚Fehlkommentierung‘ aus dem individuellen Unterbewusstsein ist – so scheint es – für die meisten Menschen vielfach nur ‚behebbar‘ (therapierbar) mit Hilfe eines Experten und einer geeigneten Umgebung. Während Menschen mit körperlichen Einschränkungen in der Regel trotzdem ein einigermaßen ’normales‘ Leben führen können, können Menschen mit ‚psychischen Störungen‘ dies oft nicht mehr. Das geringe Verständnis einer Gesellschaft für Menschen mit psychischen Störungen ist auffällig.

SPRACHE ALS MEDIUM VON GEDANKEN

19. Seit der Entwicklung der ‚Sprache‘ kann ein individuelles Bewusstsein unter Voraussetzung einer einigermaßen ähnlichen Wahrnehmungs- und Gedächtnisstruktur in den einzelnen Mitgliedern einer Population Bewusstseinsinhalte aufgrund von Gedächtnisstrukturen mit Ausdrücken einer Sprache korrelieren. Sofern diese Korrelierung in hinreichender Abstimmung mit den anderen Sprachteilnehmern geschieht, lassen sich mittels sprachlicher Ausdrücke diese ‚Inhalte‘ (‚Bedeutungen‘) ‚indirekt‘ kommunizieren; nicht der Inhalt selbst wird kommuniziert, sondern der sprachliche Ausdruck als eine Art ‚Kode‘, der im Empfänger über die ‚gelernte Bedeutungszuordnung‘ entsprechende ‚Inhalte des Gedächtnisses‘ ‚aktiviert‘. Dass diese Kodierung überhaupt funktioniert liegt daran, dass die Bedeutungsstrukturen nicht ‚1-zu-1‘ kodiert werden, sondern immer nur über ‚verallgemeinerte Strukturen‘ (Kategorien), die eine gewisse ‚Invarianz‘ gegenüber den Variationen der konstituierenden Bedeutungselemente aufweisen. Dennoch sind die Grenzen sprachlicher Kommunikation immer dann erreicht, wenn Sprecher-Hörer über Bewusstseinstatsachen kommunizieren, die nur einen geringen oder gar keinen Bezug zur empirischen Welt aufweisen. Die Benutzung von Analogien,Metaphern, Bildern, Beispielen usw. lässt noch ‚irgendwie erahnen‘, was jemand ‚meinen könnte‘, aber eine letzte Klärung muss oft ausbleiben. Nichtsdestotrotz kann eine solche ‚andeutende‘ Kommunikation sehr hilfreich, schön, anregend usw. sein; sie ersetzt aber keine Wissenschaft.

20. Während das individuelle Wissen mit dem Tod des Individuums bislang ‚verschwindet‘, können ‚Texte‘ (und vergleichbare Darstellungen) ein individuelles Wissen bis zu einem gewissen Grade überdauern. Moderne Kommunikations- und Speichermittel haben die Sammlung und Verwertung von Wissen in bislang ungeahnte Dimensionen voran getrieben. Während allerdings die Menge dieses sprachbasierten Wissens exponentiell wächst, bleiben die individuellen Wissensverarbeitungskapazitäten annähernd konstant. Damit wächst die Kluft zwischen dem individuell verfügbaren Wissen und dem in Datennetzen verfügbaren Wissen ebenfalls exponentiell an. Es stellt sich die Frage, welchen Beitrag ein Wissen leisten kann, das sich faktisch nicht mehr verarbeiten lässt. Wenn man sieht, dass heute selbst Menschen mit einem abgeschlossenen Studium Ansichten vertreten, die im Lichte des verfügbaren Wissens gravierend falsch sein können, ja, dass das Wesen von Wissenschaft, wissenschaftlichem Wissen selbst bei Studierten (und nicht zuletzt auch bei sogenannten ‚Kulturschaffenden‘) starke Defizite aufweist, dann kann man ins Grübeln kommen, ob unsere heutige Kultur im Umgang mit wissenschaftlichem Wissen die richtigen Formen gefunden hat.

21. Hier wäre jetzt auch noch der ganze Komplex der Bedürfnisse/ Emotionen/ Gefühle/ Stimmungen anzusprechen. Doch das soll weiteren Einträgen vorbehalten bleiben.

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

EMERGENTE PHÄNOMENE, BEOBACHTER, GEIST

  1. In dem anregenden Buch von Kaufmann ‚Reinventing the Sacred‘ (dessen Besprechung in diesem Blog noch immer nicht beendet ist….) wird sehr oft und in vielfältiger Weise über solche Phänomene der beobachtbaren Welt gesprochen, die ‚da‘ sind, die ‚auftreten‘, die aber in ihrer erfahrbaren Form nicht aus den bekannten Eigenschaften ihrer ‚Bestandteile‘ erklärbar sind. Für solche Phänomene hat sich der Begriff ‚emergente‘ Phänomene eingebürgert.
  2. Insgesamt gesehen ist das Reden über emergente Phänomene nichts Neues. Möglicherweise kann man sogar das Reden über das Phänomen ‚Geist‘ hier subsumieren (sieht man mal von der generellen Problematik ab, dass die Wortmarke ‚Geist‘ allein schon im europäischen Kulturkreis mindestens seit den Griechen und Semiten (nous, pneuma, psyche, ruach, ruh,…) in so vielfältiger Weise auftritt, dass eine klare Bedeutungszuordnung ausgeschlossen erscheint): der Mensch kann an sich und am ‚anderen‘ Menschen so viele Phänomene des ‚Ausdrucks‘, der ‚Mitteilung‘, des ‚absichtsvollen Handelns‘ usw. erfahren, die allesamt nicht ‚erklärbar‘ sind, versucht man sie auf die beteiligten Bestandteile wie körperliche Organe, Muskeln, Knochen, Gehirnzellen usw. zurück zu führen. Jeglicher Reduktionismus in der Art einer solchen ‚Rückführung‘ ist im Ansatz schon so lächerlich, dass es verwundern kann, warum dann — im Umkehrschluss — heute nicht viel mehr selbstreflektierende Wissenschaftler die erkenntnismäßige Provokation solcher ‚emergenter‘ Phänomene konstatieren.
  3. In meinen letzten drei öffentlichen Vorträgen (YPO Nov.12, Salon Slalom Nov.12, Interdisz.Arbeitsgruppe der Universität Unicamp (Campinas, Brasilien) Febr.13) habe ich auf diese Problematik am Beispiel des Selbstreproduktionsmechanismusses der biologischen Zellen hingewiesen. Vereinfachend: ein Molekül (Ribosom) bekommt als Input andere Moleküle (mRNA, tRNA), die von einem weiteren Molekül (DNA) ‚gesteuert‘ werden, und dieser Input wird vom Ribosom-Molekül ‚abgebildet‘ auf eine Menge anderer Moleküle (Proteine). Dieser hochkomplexe Abbildungsprozess lässt sich nicht durch Rekurs auf die beteiligten Moleküle und deren physikalische Eigenschaften erklären (was schon viele andere festgestellt haben).
  4. Ich versuche das Problem immer so zu erklären: nahezu jeder benutzt heute Computer (mindestens in der Form eines Smartphones). Jeder weiß, dass die möglichen ‚Verhaltensweisen‘ seines Computers von der ‚Software‘ abhängt, die die Hardware steuert (und natürlich auch von der Hardware selbst insoweit diese festlegt, was durch eine Software alles gesteuert werden kann). Mit einer geeigneten ‚App‘ (= Stück Software) kann ich ein Android Smartphone in einen ‚Kompass‘ verwandeln, kann eine Klanganalyse machen lassen, um Instrumente zu stimmen, kann eine ‚Wasserwaage‘ simulieren, ein Musikinstrument, usw. Würde man jetzt jemanden die Aufgabe stellen, zu analysieren, warum ein Computer solche bestimmten (‚emergenten‘!) Verhaltensweise zeigt und dieser ‚Beobachter‘ dürfte nur die erzeugende Hardware anhand ihrer physikalischen Eigenschaften untersuchen, er wäre nicht in der Lage, die verursachenden komplexen Funktionen zu entdecken. Denn das, was wir die ‚Software‘ nennen, ist für uns zwar als ein ‚Text‘ vorstellbar, aber die Software, die im Computer wirksam ist, existiert im Computer nur in Form von tausenden, Millionen, Milliarden usw. von Ladungszuständen, die über die Chips verteilt sind. Ohne Kenntnis der logischen Architektur dieser Hardware ist eine Rekonstruktion dieser komplexen Funktionen ‚in der Hardware‘ nur aufgrund der physikalischen Eigenschaften grundsätzlich unmöglich (Laut Turing ist diese Kenntnis sogar unmöglich, wenn man alle logischen Informationen über die Struktur hätte; Halteproblem). Das lernt jeder Informatikstudent in den ersten Semestern. Dennoch glauben wir, dass wir im Falle komplexer (= ‚emergenter‘?) Phänome in der materiellen Struktur der uns umgebenden Welt alle ‚wichtigen‘ Eigenschaften erkennen könnten nur durch Beschränkung auf die physikalischen Eigenschaften der beteiligten ‚materiellen Komponenten‘.
  5. Eine philosophische Konsequenz aus diesem Sachverhalt ist, dass wir unsere Rolle als ‚Beobachter der Natur‘ kritisch überdenken müssen (Heisenberg war einer von vielen, die dies schon zu seinen Zeiten angesichts der neuen Erkenntnisse der Physik laut gedacht hatte). Im Analogieschluss von der Unmöglichkeit des Erkennens einer komplexen Funktion, die sich zu ihrer Ausführung tausender, Milliarden usw. materieller Einzelzustände ‚bedient‘ müssten wir bereit sein, die Arbeitshypothese zu bilden, dass das Erkennen von sogenannten ‚emergenten‘ Phänomenen unter Umständen von uns genau dies verlangt: die Annahme von komplexen Funktionen, die ‚hinter‘ den vielen materiellen ‚Einzelteilen‘ ‚operieren‘. Dies wirft natürlich die frage nach dem ‚Medium‘ auf, in dem sie operieren. Im Falle der Computerhardware wissen wir, dass es Eigenschaften der Hardware selbst sind, die die ‚Umsetzung, Realisierung‘ der ‚inhärenten‘ komplexen Funktionen erlaubt. Warum also nicht als Arbeitshypothese annehmen, dass die uns — allzuwenig — bekannte Materie möglicherweise inhärente Eigenschaften besitzt, die erst im Zusammenwirken vieler Komponenten ’sichtbar‘ werden.
  6. Natürlich wirkt solch eine Annahme auf so manche im ersten Moment ‚erschreckend‘, da damit die von sehr vielen (den meisten?) als ziemlich ‚tod‘ erklärte Materie mit einem Mal zum Ort ungeahnter komplexer Eigenschaften wird, von denen die komplexen biologischen Phänomene möglicherweise nur eine kleine Kostprobe sind. Das Faszinosum ‚Geist‘ wäre dann möglicherweise auch nichts Besonderes mehr, wäre es doch nur das ‚Aufscheinen‘ der inhärenten funktionalen Eigenschaften der Materie.
  7. Sollten diese Spekulationen zutreffen, dann würde die Physik nahtlos in die Philosophie (und möglicherweise sogar Theologie) übergehen, und umgekehrt. Die schon immer äußerst bizarre Aufsplitterung der einen Welt in eine Vielzahl von miteinander unvermittelten Kategorien wäre dann als ein reiner Artefakt unseres unbeholfenen Denkens diagnostiziert.
  8. Bleibt die eher psychologische (oder gar ’spirituelle‘) Frage, warum wir Menschen so dauerhaft krampfhaft an unsinnigen Konzepten festzuhalten versuchen, wenn die Phänomene selbst unser Denken doch so ‚alt‘ aussehen lassen…-:)?

Eine fortsetzung zu diesem Beitrag findet sich HIER

Eine Übersicht über alle bisherigen Blogeinträge nach Themen findet sich HIER