PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design. MMI Analyse. Teil 3

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 22.Februar 2021
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Letzte Änderung: Di, 23.2.2021, 10:09h

KONTEXT

In diesem Beitrag soll das Konzept einer praktischen kollektiven Mensch-Maschine Intelligenz by design weiter entwickelt werden. Der unmittelbar vorhergehende Beitrag findet sich hier. In diesem Text geht es jetzt darum, das Anwendungsszenario explorative Entwicklung unter Einbeziehung einer kontinuierlichen Simulation [ESBD] zu beschreiben.

Bisher zum Thema veröffentlicht:

INFOGRAFIK

Hier wird als Standard das Interaktions-Paradigma N:1 vorausgesetzt:N viele Teilnehmer treffen sich in einem Online Meeting und benutzen gemeinsam eine interaktive Webseite der oksimo-Software auf oksimo.com. Für die weiteren Aktivitäten siehe den Text.

ESBD: ÜBERBLICK

Die explorative simulations-basierte Entwicklung geht davon aus, dass eine Gruppe von Experten sich auf eine Ausgangslage S und auf eine Vision V geeinigt haben. Beide zusammen, also S und V, werden als Aufgabe (S,V) begriffen. Gesucht wird nach einer Menge von Veränderungsregeln X, deren Anwendung eine Folge von Zuständen/ Situationen <S.0, S.1, …, S.n> erzeugt, die letztlich einen Weg bilden, der von S nach V führt. In dieser Folge von Zuständen gilt, dass ein beliebiger Nachfolgezustand S.i aus einem vorhergehenden Zustand S.i-1 dadurch entstanden ist, dass mindestens eine Veränderungsregel X.i aus X auf den vorhergehenden Zustand S.i-1 angewendet worden ist, was dann zur Entstehung von S.i geführt hat. Die Anwendung von Veränderungsregeln X auf einen gegebenen Zustand S können entweder von den Experten selbst ‚per Hand‘ (‚manuell‘) ausgeführt werden oder automatisch durch den eingebauten Simulator ∑. Die Anwendung des Simulators auf die Aufgabe (S,V) mittels der Regeln X wird geschrieben: ∑(S,V,X) = SQ(S,V,X,∑) = <S.0, S.1, …, S.n>. Neben der Folge der Zustände zeigt der Simulator zu jeder neuen Nachfolgesituation auch an, wie viel % der Ausdrücke aus der Vision schon im aktuellen Zustand S.i enthalten sind. Falls verfügbar, kann man zusätzlich zum Simulator noch die algorithmische Intelligenz ⊪ aktivieren, um die wichtigsten guten Lösungen anzuzeigen.

AUSGANGSLAGE S

Die Ausgangslage S wird gebildet durch eine Menge von Ausdrücken E einer Alltagssprache L (z.B. Deutsch, Englisch, Spanisch, …). Ein einzelner Ausdruck E.i hat als solcher keine Bedeutung. Es wird aber vorausgesetzt, das derjenige, der diesen Ausdruck E.i eingibt, aufgrund seines Sprachverständnisses mit diesem Ausdruck E.i eine Bedeutungsvorstellung B(E.i) verknüpft, von der angenommen werden kann, dass diese sich auf eine beobachtbare Eigenschaft B(E.i)* in einer Alltagssituation S* beziehen lässt oder aber sich in andere Ausdrücke E‘ übersetzen lässt, von denen dies gilt. Die Menge der Ausdrücke E in der Zustandsbeschreibung/ Situationsbeschreibung S korrespondiert danach einer Menge von beobachtbaren Eigenschaften in einer Alltagssituation S* zu einem gewählten Zeitpunkt TS, also S*(TS). Unter Voraussetzung dieses Bezuges zu einer Alltagssituation S* kann gesagt werden, dass die Menge der Ausdrücke E in der Beschreibung S = {E.1, E.2, …, , E.n} als empirisch zutreffend zum Zeitpunkt T angenommen werden; eine andere Formulierung wäre, dass diese Ausdrücke von S als wahr bezeichnet werden. Sobald die Menge der Ausdrücke einer Situation S sich zur Situation S‘ ändert, weil mindestens ein Ausdruck in S‘ anders ist als in S (z.B. die Zeitmarke T‘), wird angenommen werden, dass sich auch die korrespondierende Alltagssituation geändert hat.

Im Rahmen einer Aufgabenstellung (S,V) soll die Ausgangslage S eine reale Situation in einem Alltag beschreiben, die alle Beteiligten als real gegeben annehmen. Die Ausgangslage S kann, aber muss nicht, auch explizit solche Eigenschaften E* enthalten, die die Beteiligten als Verbesserungswürdig klassifizieren. In welchem Sinne diese verbesserungswürdigen Zustände E* mit Blick auf eine Zukunft verbessert werden sollen, wird in einem separaten Visionstext V beschrieben.

Ein Startzustand S kann beliebig erweitert werden. Es kann auch parallel verschiedene Startzustände {STs.1, …, STs.n} geben, die thematisch unterschiedliche Aspekte beleuchten oder verschiedenen Raumgebiete betreffen. Verschiedene Startzustände können nach Bedarf ‚per Knopfdruck‘ zu einem einzigen Zustand S zusammen gefasst werden.

VISION V

Ohne die Angabe eines Zustands SF für einen Zeitpunkt TF > TS, der größer ist als der Startzeitpunkt TS, gibt es in der möglichen Entwicklung des Startzustands S keine Entwicklung in eine bestimmte Richtung. Da dieser Zustand SF in der Zukunft liegt, nicht gegenwärtig ist, haben die Bedeutungen B(SF) der Ausdrücke im Zustand SF keine externe, beobachtbare Entsprechung im Alltag. Deshalb wird diese für die Zukunft angenommene Situation SF auch Vision genannt. Allerdings wird unterstellt, dass die Ausdrücke E von SF in der Zukunft ab einem Zeitpunkt TF zutreffen werden, d.h. ab diesem Zeitpunkt wahr sein werden. Es ist dabei nicht ausgeschlossen, dass dieser Fall schon vor dem angezielten Zeitpunkt TF stattfinden kann. Ebenso kann er sich verzögern.

Auch für den Visionstext gilt — wie im Falle des Startzustands S –, dass er beliebig erweitert werden kann oder dass es parallel verschiedene Visionstexte gibt, die nach Bedarf ‚per Knopfdruck‘ zu einem vereinigt werden.

Je mehr Ausdrücke der Visionstext V umfasst, um so differenzierter kann man die Zielsituation beschreiben.

KONSTRUIEREN DER VERÄNDERUNGSREGELN X

Im Kontext einer Folge von beschreibbaren Situationen kann man die Veränderungen in der Form von Veränderungs-Regeln fassen: Man sagt: wenn die Bedingung C in einer aktuellen Situation S erfüllt ist, dann sollen mit der Wahrscheinlichkeit π die Aussagen Eplus der Situation S hinzugefügt werden, um die Nachfolgesituation S‘ zu generieren, und die Aussagen Eminus sollen von S weggenommen werden, um die Nachfolgesituation S‘ zu generieren.

Man kann für jede Ausgangslage S beliebig viele Veränderungsregeln X erstellen. Insofern gilt XS = {XS.1, …, XS.n}. Ist eine bestimmte Situation S.i im Verlauf gegeben, dann kann es mehr als eine Veränderungsregel geben, die aus X zutrifft, also XS.i ⊆ X. In diesem Fall werden alle diese Regel XS.i auf S.i angewendet XS.i(S.i) = S.i+1. Die Reihenfolge der Regeln aus XS.i wird für die Anwendung auf S.i jeweils per Zufall bestimmt.

TESTEN DER VERÄNDERUNGSREGELN X

Da sich die möglichen Auswirkungen der Regeln in ihrer Anwendung auf einen gegeben Zustand S mit zunehmender Zahl und wachsender Komplexität von S (und auch V) immer schwerer ‚im Kopf‘ vorstellen lassen, kann man sich vom eingebauten Simulator ∑ anzeigen lassen, welche Folge von Situationen <S.1, S.2, …> entsteht und wie weit diese schon die angezielte Vision V enthalten.

Durch diese Möglichkeit der jederzeit möglichen Simulation hat die Konstruktion eines Weges von S nach V mittels Veränderungsregeln X einen spielerischen Charakter.

UNTERSTÜTZUNG DURCH ALGORITHMISCHE INTELLIGENZ α

Liegt eine Aufgabe (S,V) vor zusammen mit einer Menge von Veränderungsregeln X dann kann der eingebaute Simulator ∑ daraus eine Sequenz der Art ∑(S,V,X) = SQ.i = <S.1, S.2, …, S.n> erzeugen, wobei jede einzelne Situation S.i in dieser Folge mit einer Bewertung indiziert ist. Der Simulator ∑ funktioniert in diesem Zusammenhang wie eine logische Folgerungsbeziehung ⊢, geschrieben: S,V,X ⊢ SQ.i.

Im allgemeinen Fall kann man mehr als eine Sequenz SQ.i mit Hilfe von ⊢ aus {S,V,X} ableiten. Schreibt man sich einen Algorithmus α der alle möglichen Ableitungen durchführt, die z.B. einen bestimmten minimalen Bewertungsindex haben und die z.B. die kürzesten Sequenzen sind, dann entsteht eine Menge SQ+, die alle diese Sequenzen enthält. Dieser Algorithmus α funktioniert dann auch wie eine Ableitung; diese Form der Ableitung nennen wir hier algorithmische Intelligenz und schreiben ihre Anwendung: S,V,X ⊪α SQ+ [1]

Statt also alle möglichen Simulationen selbst durchführen zu müssen, können die Experten mit Hilfe der algorithmischen Intelligenz α mit Feinjustierung von Parametern gezielt nach der Menge der möglichen Ableitungen suchen, die diese Parameter erfüllen. Dies kann eine Menge Arbeit ersparen und vor allem, es kann helfen relativ schnell, ein tieferes Verständnis des Problemraumes zu bekommen.

QUELLENNACHWEISE und ANMERKUNGEN

[1] Im Englischen gibt es für den Begriff ‚Künstliche Intelligenz [KI]‘ (bzw. ‚Maschinelles Lernen [ML]‘) eine Vielzahl von Begriffen — z.B. ‚Artificial Intelligence [AI]‘, “Machine Learning [ML]‘, ‚Computational Intelligence [CI]‘ , ‚Algorithmic Intelligence [AI]‘, ‚Embodied Intelligence‘, …) — die alle mehr oder weniger nicht wirklich definiert sind. Zusätzlich verwirrend ist die Tatsache, dass wir Menschen den Begriff ‚Intelligenz‘ eigentlich nur aus dem Kontext menschlichen Verhaltens — mittlerweile auch ausgedehnt auf verschiedene Formen tierischen und pflanzlichen Verhaltens — kennen. Hier haben Biologie und Psychologie schon seit Jahrzehnten einigermaßen brauchbare Definitionen von ‚Intelligenz‘ bereit gestellt (die man kritisieren kann, aber sie sind immerhin da und sie funktionieren). Die Vielstimmigkeit der technischen Intelligenzbegriffe bietet dagegen eher eine Dissonanzwolke. Ein zusammenfassendes, alle Aspekte integrierendes Konzept von ‚Intelligenz‘ — auch in den Vergleichen — wäre für uns alle extrem hilfreich. In dieser Situation habe ich mich für den Begriff ‚Algorithmische Intelligenz‘ entschieden, da er der Tatsache Rechnung trägt, dass der Kern aller technischen Intelligenzleistungen in der Software (= Computerprogramm, Algorithmus) lokalisiert ist. Ob man nun einen bestimmten Algorithmus als ‚Intelligent‘ oder ’nicht intelligent‘ bezeichnen will, hängt dann davon ab, welche verhaltensrelevanten Eigenschaften man mit diesem Algorithmus in Zusammenhang bringen kann. Am Beispiel des oksimo-Paradigmas lässt sich sehr genau ein sogenannter Problemraum definieren, der ‚by design‘ als Abfallprodukt menschlichen Verhaltens entsteht, und in diesem Problemraum gibt es Suchprozesse und Bewertungsprozesse, die zusammen die Identifizierung eines — von Menschen definierten — interessanten Teilraumes ermöglichen. Dieser Prozess von Suchen + Bewerten + Auszeichnung einer Teilmenge wird hier mit dem Begriff der algorithmischen Intelligenz verknüpft. Ob und wie sich dieser Begriff von algorithmischer Intelligenz mit den Intelligenbzbegriffen der Biologen und Psychologen vergleichen lässt, soll demnächst diskutiert werden.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design. MMI Analyse. Teil 2

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 18.-19.Februar 2021
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Letzte Änderung: 19.2.2021, 9:52h

KONTEXT

In diesem Beitrag soll das Konzept einer praktischen kollektiven Mensch-Maschine Intelligenz by design weiter entwickelt werden. Der unmittelbar vorhergehende Beitrag findet sich hier. In diesem Text geht es jetzt darum, etwas konkreter zu skizzieren, wie die beiden wichtigsten Anwendungsszenarien aussehen könnten. Es wird unterschieden zwischen einer explorativen Entwicklung unter Einbeziehung einer kontinuierlichen Simulation [ESBD] und einem eingebetteten Testen (bzw. Spielen) unter Voraussetzung einer kontinuierlichen Simulation [ESBT/G].

Bisher zum Thema veröffentlicht:

INFOGRAFIK

Infografik zum Text. Siehe dort.

ANWENDUNGSSZENARIEN

Während der vorausgehende Beitrag [1] die allgemeinen Anforderungen an die intendierte Anwendung formuliert hat, soll es in diesem Text darum gehen, die typischen intendierten Anwendungssituationen etwas konkreter zu formulieren. Tatsächlich lassen sich zwei grundlegende unterschiedliche Typen von Anwendungsszenarien unterscheiden.

Explorative Entwicklung

Charakteristisch für eine explorative Entwicklung (Explorative Simulation Based Development [ESBD]) ist die Ausgangslage, dass zwar eine Situation S gegeben ist, die aus verschiedenen Gründen als problematisch empfunden wird, und zugleich auch eine erste Vision V verfügbar ist, die von allen Beteiligten als erstrebenswert angesehen wird, dass aber noch unklar ist, wie man von S nach V kommen kann. Anfang und Ende erscheinen klar, aber der Weg zwischen beiden Punkten ist noch unbekannt.

Es liegt nahe eine solche Situation, in der S und V gegeben sind, als eine Aufgabe= (S,V) zu bezeichnen. Wenn man verschiedenen Teams die gleiche Aufgabe (S,V) stellt, dann kann man die Form der explorativen Entwicklung auch in Form eines Wettbewerbs stellen: welches Team löst die Aufgabe in einer vorgegebenen Zeit am Besten.

Im Fall einer Aufgabe (S,V) muss eine Gruppe von Experten also versuchen, gemeinsam einen Weg zu finden, der das Gewünschte leistet. Als Weg wird hier als eine Sequenz von Folgezuständen SQ(S,V) =<S1, S2, …, Sn-1, Sn> angenommen. Der Übergang von einem Zustand S zu einem Folgezustand S‘ wird durch Anwendung einer Veränderungsregel x aus der Menge der Veränderungsregeln X auf den gegebenen Zustand S hergestellt (Details siehe vorausgehenden Beitrag [1]). Die Ausführung einer Anwendung von X auf einen Zustand S wird von einem Simulator [SIM,Σ] geleistet, geschrieben: Σ(S,X)=S‘ oder ΣX(S)=S‘ oder noch kürzer X(S)=S‘. Der Entwicklungsprozess besteht nun darin, dass alle Experten versuchen, nach und nach so viele Veränderungsregeln X zu finden, dass sich eine überzeugende Sequenz SQ(S,V) von S nach V herstellen lässt. Als Unterstützung bei dieser Entwicklung können die Experten auch den eingebauten Simulator [SIM, Σ] benutzen. Mit diesem lässt sich jederzeit anzeigen, (i) welche Wirkungen die bisherigen Regeln X bei einem gewählten Ausgangszustand S haben und (ii) ob und in welchem Ausmaß die gewählte Vision V schon erreicht wird.

PROBLEMRAUM

Die Elemente <S, V, X, Σ> bilden die Basis eines möglichen Problemraumes (Problem Space Basis [PSB]). Gibt man eine bestimmte Ausgangslage S*, eine bestimmte Vision V* sowie eine bestimmte Menge X* von Veränderungsregeln vor, dann kann man mittels dem Simulator Σ die Menge aller möglichen Sequenzen SQ*(S*, V*, X*) berechnen und als echte Teilmenge davon die Menge aller erfolgreichen Sequenzen SQ+(S, V, X*) ⊆ SQ*.

Erweitert man die Basis eines Problemraum um die Vorgaben <S*, V*, X*> sowie <SQ*, SQ+> dann bekommt man die Struktur eines normalen endlichen Problemraums PS= <S*, V*, X*, SQ*, SQ+, Σ>.

Eingebettetes Testen/ Spielen

Liegt mindestens eine Instanz PS* eines Problemraums PS vor, dann kann man diese Instanz PS* eines Problemraums auch dazu benutzen, innerhalb dieses Problemraums die Wirkung dieser Problemraum-Instanz PS* auf potentielle Anwender zu testen. In diesem Fall arbeitet der Simulator Σ in einem interaktiven Modus: anstatt selbst die Anwendung der Veränderungsregeln X auf den gegebenen Zustand S auszurechnen werden alle Testpersonen/ Spieler aus einer Liste gefragt, welche der möglichen Regeln sie jetzt anwenden wollen, und — falls es verschiedene Varianten der Ausführung gibt -, wie. Auf diese Weise können die verschiedenen Testpersonen/ Spieler sozusagen ‚am eigenen Leibe‘ erfahren, wie die angedachte Zukunft (= Vision) sich konkret auf sie auswirkt und wie sie sich dabei fühlen. Aus den tatsächlichen Handlungsentscheidungen kann man auch ablesen, wie stark reale Anwender von dem angenommenen Verhalten abweichen.

Dieser Modus wird hier Eingebettetes Testen/ Spielen genannt (Embedded Simulation Based testing/ Gaming [ESBT/G].

In einer anschließenden Auswertung kann diese Selbsterfahrung der Tester/ Spieler auch dazu führen, dass sie einige der bisherigen Regeln durch eine veränderte Version ersetzen wollen.

KI ERWEITERUNG(EN)

Das, was heute gerne als Künstliche Intelligenz [KI] bezeichnet wird ist ein Computerprogramm — ein Algorithmus, d.h. eine Liste von Befehlen für einen definierten Automaten — das als Referenzsystem einen normalen Problemraum PS besitzt. Dieser Algorithmus kann mit den gegebenen Mengen S*, V* und X* selbständig den Simulator laufen lassen und systematisch Ausprobieren (= Suchen), welche Sequenzen SQ möglich sind (Elemente von SQ*), und welche von den möglichen Sequenzen SQ* solche sind, in denen eine bestimmte Vision V zu 100% erfüllt wird (=Lernen); dies liefert die Menge SQ+. Anstatt dass also menschliche Anwender mühevoll einzelne Simulationen durchprobieren, kann man — falls ein Problemraum PS vorgegeben wird! — einen lernfähigen Algorithmus damit beschäftigen, diese explorative Suche unter Einbeziehung eines definierten Lernens (= Evaluation mit Hilfe von Bewertungen, hier mittels V*) quasi nebenbei vorzunehmen. Zusätzlich könnte man die Erfolgskriterien beliebig verfeinern z.B. in dem Sinne, welche Simulations-Sequenz SQ.i die wenigstens Ressourcen benötigt oder am wenigsten kostet oder den meisten Spaß macht usw.

Wie gesagt, der Einsatz einer zusätzlichen KI macht nur Sinn, wenn menschliche Entwickler einen normalen Problemraum als Ausgangspunkt vorgeben.

Im Fall des eingebetteten Testens/ Spielens könnte man neben den menschlichen Testern/ Spielern auch künstliche Tester/ Spieler einsetzen. In diesem Fall ohne oder mit einer Lernkomponente. Eine mit-spielende KI könnte dann auch versuchen, das Verhalten der menschlichen Mitspieler zu erfassen und zu modellieren. Dies kann konstruktiv dazu genutzt werden, um künstliche Tutoren oder künstliche Assistenten auszubilden. Im Gegensatz zu den anonymisierten KIs auf den globalen Plattformen, die für irgendwelche unbekannten Dritten Daten sammeln, kann man diese KIs lokalisieren und privatisieren. Jemand kann seine eigene KI vereinbaren, die nur einer einzelnen Person gehört und nur mit dieser einen Person lernt.

ROADMAP

Überblick zum Entwicklungszusammenhang und den sich daraus ergebenden Anwendungsszenarien und eine Abfolge in der Realisierung, die der inneren Logik der Elemente folgt.

Im oberen Teil der Grafik wird der allgemeine theoretische Rahmen thematisiert, in dem sich die ganze Entwicklung bewegt. Hervorgehoben ist der Bereich der Mensch-Maschine Analyse [MMI]. Dieser Bereich wird dann — siehe den Gesamttext auf dieser Seite — weiter analysiert und führt zu folgenden grundsätzlichen Anwendungsaspekten:

  1. Die explorative Simulations-basierte Entwicklung [ESBD]
  2. Darauf aufbauend dann das eingebettete Simulations-basierte Testen oder Spielen [ESBT/G]
  3. Darauf aufbauend dann eine eingebettete starke KI für den Bereich ESBD
  4. Darauf aufbauend dann eine eingebettete starke KI für den Bereich ESBT/G
  5. Man kann dann diese beiden Anwendungskontexte für KI noch weiter spezifizieren zu (i) einer radikal personalisierten, vollständig privaten KI für jeden einzelnen, der dies will und (ii) zu einem individuellen Tutor/ Trainer für den Kontext ESBT/G

Jeder dieser Anwendungskontexte korreliert mit einem Meilenstein. Angedacht sind die ersten drei Meilensteine für 12.April 2021, 1.Oktober 2021 und 12.April 2022.

Parallel zu diesen genannten Anwendungskontexten gibt es noch eine andere Anwendungsdimension, die sich auf verschiedene Typen von Interaktionen mit dem Gesamtsystem beziehen:

  1. TYP1, n-1: Im Rahmen einer online-Sitzung mit n-vielen Teilnehmern wird gemeinsam 1 interaktive Webseite benutzt, über die mit dem Programm interagiert wird.
  2. TYP2, n-n-1: Jeder der n-vielen Teilnehmer logged sich einzeln auf der oksimo.com Webseite ein (also n-viele separate Teilnehmer), aber alle n-viele Teilnehmer treffen sich auf der oksimo Plattform in 1 Anwendung und können dort kollaborieren.
  3. TYP3, n-n-n: N-viele Teilnehmer können sich separat einloggen und sie können sowohl simultan in einer Anwendung arbeiten oder jeder an einer anderen.

Jede dieser Anwendungstypen 1-3 korreliert auch mit einem Meilenstein, wobei diese Meilensteinen unabhängig von den anderen sind. Typ1,n-1 ist der Standardfall. Wann Typ2+3 realisiert werden können, ist momentan noch offen.

QUELLENANGABEN und ANMERKUNGEN

[1] Gerd Doeben-Henisch, 16.2.2021, PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design. MMI Analyse. Teil 1, https://www.cognitiveagent.org/2021/02/16/praktische-kollektive-mensch-maschine-intelligenz-by-design-mmi-analyse-teil-1/

FORTSETZUNG

Eine Fortsetzung zu diesem Beitrag findet sich hier.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design. MMI Analyse. Teil 1

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 16.Februar 2021
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Letzte Änerung: 26.2.2021 (Anmerkung zum Begriff ‚Alltagssprache‘ ergänzt)

KONTEXT

In diesem Beitrag soll das Konzept einer praktischen kollektiven Mensch-Maschine Intelligenz by design weiter entwickelt werden. Im unmittelbar vorher gehenden Beitrag wurde die grundlegende Problemstellung sowie die gewählte (Zukunfts-)Vision in einer ersten Annäherung umrissen. In diesem Text geht es jetzt darum, etwas konkreter zu skizzieren, wie diese (Zukunfts-)Vision aussehen könnte bzw. sollte.

Bisher zum Thema veröffentlicht:

MMI ANALYSE – AUSGANGSPUNKT

Der Ausgangspunkt der MMI-Analyse ist gegeben durch die ersten Angaben zur Zukunfts-Vision (Siehe Schlussabschnitt in [1]). Diese Vision umschreibt mit wenigen Worten, welcher Zustand in der Zukunft angezielt wird. Die Vision selbst sagt nichts zur Begründung, nichts zu den Motiven; diese werden vorausgesetzt. Die Vision beschreibt nur, was sein soll.

Beliebige Menschen spielen Zukunft

Zentraler Gedanke ist, dass eine beliebige Gruppe von Menschen auf eine eher spielerische Weise dabei unterstützt werden soll, für eine selbst gewählte Problemstellung und ein selbst gewähltes Ziel schrittweise einen Lösungsweg zu konstruieren.

Ein Drehbuch schreiben

Diese Konstruktion eines Lösungsweges ist vergleichbar mit dem Schreiben eines Drehbuchs in einer Alltagssprache, die alle Beteiligten hinreichend beherrschen.[2] Dies setzt voraus, dass der Prozess der Wirklichkeit — vereinfachend — gedacht wird als eine Folge von Situationen (oder auch Zuständen), in der eine Nachfolgesituation S‘ aus einer vorausgehenden Situation S durch das Stattfinden von mindestens einer beobachtbaren Veränderung hervorgegangen ist. Im Grenzfall ist es nur die Veränderung einer Uhr, deren Zeitanzeigen in der Nachfolgesituation S‘ ‚größer‘ sind als in der Situation S.[3] Im Kontext einer Folge von beschreibbaren Situationen kann man die Veränderungen in der Form von Veränderungs-Regeln fassen: Man sagt: wenn die Bedingung C in einer aktuellen Situation S erfüllt ist, dann sollen mit der Wahrscheinlichkeit π die Aussagen Eplus der Situation S hinzugefügt werden, um die Nachfolgesituation S‘ zu generieren, und die Aussagen Eminus sollen von S weggenommen werden, um die Nachfolgesituation S‘ zu generieren.

Bezug zu einer Situation

Diese Redeweise setzt voraus, dass davon ausgegangen wird, dass der Text des Drehbuchs sich auf eine reale Situation S bezieht, und die einzelnen Ausdrücke des Textes Eigenschaften der realen Situation beschreiben. Die Menge der Ausdrücke in einem Drehbuch, die sich auf eine bestimmte Situation S beziehen, bilden also Repräsentanten von realen Eigenschaften der vorausgesetzten realen Situation. Verändert sich die vorausgesetzte Situation in ihren beobachtbaren Eigenschaften, dann drückt sich dies darin aus, dass sich auch die Ausdrücke im Drehbuch verändern müssen: kommen neue Eigenschaften hinzu, müssen neue Ausdrücke hinzu kommen. Verschwinden Eigenschaften, dann müssen die entsprechenden Ausdrücke verschwinden. Wechselt also z.B. die Verkehrsampel von Rot auf Orange, dann muss z.B. der Ausdruck ‚Die Ampel ist rot‘ ersetzt werden durch die Aussage ‚Die Ampel ist orange‘. Dann wäre die Menge Eminus = {Die Ampel ist rot}, und die Menge Eplus = {Die Ampel ist orange}.

Das Drehbuch hat zwei Teile …

Das Drehbuch für die gemeinsame spielerische Planung einer gewünschten Zukunft besteht also mindestens aus zwei Teilen:

  1. Einer Ausgangssituation S, von der aus man starten will, und
  2. einer Menge von Veränderungsregeln X, die sagen, wann man eine gegebene Situation in welcher Weise abändern darf.

Vergleich mit einem Spiel

Diese Konstellation kann man ohne weiteres mit einem Spiel vergleichen:

  1. Es gibt die Startsituation (z.B. ein bestimmtes Spielbrett oder eine Spielfeld mit Spielobjekten und Spielern)
  2. Es gibt vereinbarte Spielregeln, anhand deren man in einer gegebenen Situation etwas tun darf.

Regeln jederzeit abändern

In dem hier angenommenen Szenario eines Drehbuchs für die gemeinsame spielerische Planung einer gewünschten Zukunft gibt es allerdings zwei Besonderheiten: Die eine besteht darin, dass die Ausgangslage und die Spielregeln von den Spielern selbst aufgestellt werden und jederzeit nach Absprache geändert werden können.

Leitbild Zukunft als Maßstab

Die andere Besonderheit resultiert aus der Tatsache, dass die Teilnehmer hier zu Beginn auch explizit ein Leitbild für die Zukunft formulieren. Dieses kann zwar auch jederzeit nach Absprache wieder abgeändert werden, so lange es aber gilt, dient dieses Leitbild als Maßstab für die Beurteilung, ob und in welchem Umfang der Prozess der fortschreitenden Veränderung ( = der Spielprozess!) das zuvor vereinbarte Leitbild erreicht hat.

In gewisser Weise entspricht die Bewertung einer Situation anhand eines vereinbarten Leitbildes dem Konzept des ‚Gewinnens‘ in normalen Spielen: beim Gewinnen wird in einem Spiel ein Zustand erreicht, der sich anhand zuvor vereinbarter Kriterien als ‚Gewinnsituation‚ für mindestens einen beteiligten Spieler klassifizieren lässt. Man sagt dann, dass dieser Spieler ‚gewonnen‘ hat.

Bei der Verwendung des Konzepts einer Zukunftsvision als Leitbild kann man das Leitbild dazu benutzen, um eine beliebige Situation dahingehend zu klassifizieren, ob und wenn ja in welchem Umfang diese Situation dem Leitbild ‚entspricht‘. Explizite Zukunftsbilder ermöglichen also die ‚Bewertung‘ einer Situation. Ohne solch eine Möglichkeit wäre jede Situation gleichwertig mit jeder anderen Situation. Es wäre dann nicht möglich, eine ‚Richtung‘ für einen Prozess zu definieren.

ALLTAGSSPRACHE

Diejenige Sprache, die jeder Mensch von Kindheit an lernt und benutzt, das ist die Alltagssprache, also die Sprache, die jeder in seinem Alltag spricht und die — normalerweise — auch von den Mitmenschen benutzt wird. [5a] Durch das Voranschreiten einer Globalisierung und der damit einhergehenden Vermischung von Alltagswelten, vermengen sich verschiedene Sprachen, was bei einzelnen zur Mehrsprachigkeit führt, auf der anderen Seite zur Zunahme von Übersetzungen. Übersetzungen durch Menschen können vergleichsweise ‚gut‘ sein (wer kann dies eigentlich überprüfen?), die heute zunehmenden Angebote von computerbasierten Übersetzungen sind aber dennoch auf dem Vormarsch, weil man ihren Einsatz sehr leicht ’skalieren‘ kann: ein Programm kann viele Millionen Menschen gleichzeitig ‚bedienen‘, dazu eher ‚einheitlich‘, und solch ein maschinelles Übersetzungsprogramm kann — wie salopp gesagt wird — ‚lernen‘.[4] Die Gesamtheit dieser maschinellen Verfahren hat aber dennoch keinen Zugang zu den eigentlichen Bedeutungsfunktionen von Alltagssprache, die in den Gehirnen der Sprecher-Hörer verortet sind. [5]

Aufgrund dieser Sachlage soll das neue Verfahren die Vorteile und Nachteile der verschiedenen Möglichkeiten auf neue Weise optimal verknüpfen. Primär soll der Anwender seine Alltagssprache — und zwar jede — voll benutzen können.

Zur Alltagssprache gehören mehrere ‚Mechanismen‘ [6], die es zulassen, dass man sie beliebig erweitern kann, und auch, dass man in der Alltagssprache über die Alltagssprache sprechen kann.[7] Diese Eigenschaften machen die Alltagssprache zu den stärksten Ausdruckssystemen, die wir kennen.[8]

Zu den möglichen — und vorgesehenen — Erweiterungen der Alltagssprache gehören z.B. beliebige Parametermengen mit zugehörigen Operationen auf diesen Parametern. Ein ‚Parameter‘ wird hier verstanden als ein Name, dem irgendein Wert (z.B. ein numerischer Wert) zugeordnet sein kann (z.B. eine Einwohnerzahl, ein finanzieller Betrag, ein Temperaturwert …). Parameter mit numerischen Werten kann man z.B. Addieren, Subtrahieren, Multiplizieren usw.

Zum Sprechen über andere Ausdrücke gehört die Möglichkeit, dass man beliebige Abstraktionen bilden kann. Schon wenn wir über sogenannte normale Gegenstände sprechen wie ‚Stuhl‘, ‚Tasse‘, ‚Tisch‘, ‚Hund‘ usw. benutzen wir sprachliche Ausdrücke, die nicht für ein einzelnes Objekt stehen, sondern für ganze Mengen von konkreten Dingen, die wir alle gelernt haben, als ‚Stuhl‘, ‚Tasse‘, ‚Tisch‘, ‚Hund‘ usw. zu bezeichnen. Auf einem Tisch können bei mehreren Personen beim Frühstück ganz viele Gegenstände stehen, die wir alle als ‚Tasse‘ bezeichnen würden, obwohl sie sich u.a. durch Form, Farbe und Material unterscheiden.[9]

SIMULATION

Normale Formen von Drehbüchern bestimmen das Geschehen auf der Bühne oder in einem Film. Auf der Bühne beginnt man mit einer Eingangsszene, in der unterschiedliche Akteure in einer bestimmten Umgebung (Situation) anfangen, zu handeln, und durch das Handeln werden Veränderungen bewirkt: in den Akteuren (meist nicht so fort direkt sichtbar, aber dann in den Reaktionen), in der räumlichen Anordnung der Dinge, in der Beleuchtung, in Begleitgeräuschen, … Im Film ist es die Abfolge der Bilder und deren Füllungen.

Im Fall von Brettspielen fangen die beteiligten Spieler an, mit Blick auf erlaubte Regeln, den aktuellen Spielstand und die möglichen Gewinnsituationen in der Zukunft zu handeln. Dieses Handeln bewirkt eine schrittweise Änderung der jeweils aktuellen Spielsituation.

In abgewandelter Form passiert in einem Krimi oder in einem Roman nichts anderes: literarisch begabte Menschen benutzen das Mittel der Alltagssprache um Situationen zu beschreiben, die sich schrittweise durch Ereignisse oder das Verhalten von Menschen ändern. Noch eine Variante stellt die Gattung Hörspiel dar: statt eine Geschichte zu lesen hört man beim Hörspiel zu und lässt sich mit hinein nehmen in ein Geschehen, das sich von Situation zu Situation fortbewegt und den Hörer — wenn er sich angesprochen fühlt — geradezu mitreißen kann.

In der vorliegenden Anwendung gibt es alle Zutaten — Gegenwart, Zukunft, mögliche Maßnahmen –, aber wie kommt es hier zu einer Abfolge von Situationen?

Im einfachsten Fall setzten sich die Autoren der Texte zusammen und prüfen durch eigene Lektüre der Texte und Regeln, welche der Regeln aktuell angewendet werden könnten und sie wenden die Regeln an. Auch so würde eine Folge von Texten entstehen, wobei jeder Text eine Situation beschreibt. Erst die Start-Situation, dann die Anwendung von passenden Regeln, die zu einer Veränderung des Textes führt und damit zu einer neuen Situation.

Wir wissen von uns Menschen, dass wir dies im Alltag können (z.B. jeder Heimwerker — oder auch Hobby-Bastler — benutzt eine Bauanleitung, um aus den Einzelteilen des Bausatzes schrittweise ein komplexes Gebilde zusammen zu bauen). Wenn die Texte umfangreicher werden und wenn die Zahl der Regeln deutlich zunimmt, dann kommt man mit dieser händischen (manuellen) Methode bald an praktische Grenzen. In diesem Moment wäre es sehr schön, man könnte sich helfen lassen.

Viele Menschen benutzen heutzutage zum Schreiben von Texten, zum Rechnen, zum Malen, zum Komponieren, den Computer, obwohl es ja eigentlich auch ohne den Computer gehen würde. Aber mit einem Rechenblatt viele Rechnungen miteinander zu verknüpfen und dann ausrechnen zu lassen ist einfach bequemer und — in den komplexen Fällen — sogar die einzige Möglichkeit, die Arbeit überhaupt zu verrichten. Computer müssen nichts verstehen, um Zeichenketten bearbeiten zu können.

Diese formale Fähigkeit eines Computers soll für diese Anwendung genutzt werden: wenn ich die Text-Version einer Situation habe wie z.B. S1 = {Das Feuer ist fast erloschen.} und ich habe eine Veränderungsregel der Art: X1 = {Wenn C1 zutrifft dann füge Eplus1 dazu und nehme Eminus1 weg}, konkret C1 = {Das Feuer ist fast erloschen.}, Eplus1 = {Lege Holz nach.}, Eminus1 = {Leer}, dann ist es für einen Computer ein leichtes festzustellen, dass die Bedingung C1 in der aktuellen Situation S1 erfüllt ist und dass daher die Aussage Lege Holz nach. hinzugefügt werden soll zu S1, was zur neuen Situation S2 führt: S2 = {Das Feuer ist fast erloschen. Lege Holz nach.} Wenn es jetzt noch die Regel geben würde X2 mit C2 = {Lege Holz nach.}, Eplus2 ={Das Feuer brennt.}, Eminus2={Das Feuer ist fast erloschen.}, dann könnte der Computer ‚ohne Nachzudenken‘ die nächste Situation S3 erzeugen mit S3 = {Das Feuer brennt.}

Dieses einfache Beispiel demonstriert das Prinzip einer Simulation: man hat eine Ausgangssituation S0, man hat eine Menge von Veränderungsregeln im oben angedeuteten Format X= Wenn C in S erfüllt ist, dann füge Epluszu S dazu und nimm Eminus von S weg, und man hat einen Akteur, der die Veränderungsregeln auf eine gegebene Situation anwenden kann. Und diese Anwendung von Regeln erfolgt so oft, bis entweder keine Regeln mehr anwendbar sind oder irgendein Stopp-Kriterium erfüllt wird.

Schreibt man für den Ausdruck Die Menge der Veränderungsregeln X wird auf eine Situation S angewendet, was zur Nachfolgesituation S‘ führt verkürzend als: X(S)=S‘, ergibt die wiederholte Anwendung von X eine Serie der Art: X(S)= S‘, X(S‘)= S“, …, X(Sn-1)= Sn. Dies bedeutet, dass die Folge der Text-Zustände <S‘, S“, …, Sn> einen Simulationsverlauf repräsentieren. Man kann dann sehr gut erkennen, was passiert, wenn man bestimmte Regeln immer wieder anwendet.

In der vorliegenden Anwendung sollen solche durch Computer unterstützte Simulationen möglich sein, tatsächlich sogar noch mit einigen weiteren Feinheiten, die später näher beschrieben werden.

SIMULATION MIT BEWERTUNG

Wie zuvor schon im Text beschrieben wurde, kann man eine gegebene Situation S immer dann klassifizieren als erfüllt Eigenschaft K, wenn man über geeignete Kriterien K verfügt. In der vorliegenden Anwendung kann der Anwender eine Vision formulieren, eine Beschreibung, welcher Zustand in der Zukunft eintreten sollte.

Im Rahmen der Simulation soll es daher möglich sein, dass nach jeder Anwendung von Veränderungsregeln X mitgeteilt wird, in welchem Ausmaß die vorgegebene Vision V im aktuellen Zustand S eines Simulationsverlaufs schon enthalten ist. Die Aussagekraft einer solchen Klassifikation, die eine Form von Bewertung darstellt, hängt direkt von der Differenziertheit der Vision ab: je umfangreicher und detaillierter der Text der Vision ist, um so konkreter und spezifischer kann die Bewertung vorgenommen werden.

LERNFÄHIGE ALGORITHMEN (KI)

So, wie im Fall der Simulation der Computer dem Menschen bei ausufernden manuellen Tätigkeiten helfen kann, diese zu übernehmen, so ergibt sich auch für die Frage der Auswertung eines Simulationsverlaufs sehr schnell die Frage: könnte man auch ganz andere Simulationsverläufe bekommen, und welche von den vielen anderen sind eigentlich im Sinne eines vorgegebenen Zielkriteriums besser?

Tatsächlich haben wir es mit dem Ensemble einer Anfangssituation, einer Zukunftsvision und einer Menge von Veränderungsregeln mit einem Problemraum zu tun, der sehr schnell sehr umfangreich sein kann. Eine einzelne Simulation liefert immer nur einen einzigen Simulationsverlauf. Tatsächlich lässt der Problemraum aber viele verschiedene Simulationsverläufe zu. In den meisten Fällen ist eine Erkundung des Problemraumes und das Auffinden von interessanten Simulationsverläufen von großem Interesse. Der Übergang von einem Suchprozess zu einem lernenden Prozess ist fließend.

In der vorliegenden Anwendung soll von der Möglichkeit einer computergestützten lernende Suche Gebrauch gemacht werden.

QUELLENANGABEN und ANMERKUNGEN

[1] Siehe dazu den Schluss des Textes von Gerd Doeben-Henisch, 15.2.2021, PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design. Problem und Vision, https://www.cognitiveagent.org/2021/02/15/praktische-kollektive-mensch-maschine-intelligenz-by-design-problem-und-vision/https://www.cognitiveagent.org/2021/02/15/praktische-kollektive-mensch-maschine-intelligenz-by-design-problem-und-vision/

[2] Denkbar ist natürlich, dass partiell mit Übersetzungen gearbeitet werden muss.

[3] Dieses Modell der Zerlegung der Wirklichkeit in Zeitscheiben entspricht der Arbeitsweise, wie das menschliche Gehirn die jeweils aktuellen sensorischen Signale für ein bestimmtes Zeitintervall ‚zwischen-puffert‘, um die Gesamtheit der Signale aus diesem Zeitintervall dann nach bestimmten Kriterien als eine Form von Gegenwart abzuspeichern und daraus dann Vergangenheit zu machen.

[4] Damit dies möglich ist, landen alle Texte auf einem zentralen Server, der mit statistischen Methoden ganze Texte nach Methoden des sogenannten ‚maschinellen Lernens‘ analysiert, statistische Verwendungskontexte von Ausdrücken erstellt, angereichert durch diverse sekundäre Zusatzinformationen.

[5] Was diese bedingt lernfähigen Algorithmen an Übersetzungsleistungen ermöglichen, ist sehr wohl erstaunlich, aber es ist prinzipiell begrenzt. Eine vertiefte Analyse dieser prinzipiellen Begrenzungen führt in die Entstehungszeit der modernen formalen Logik, der modernen Mathematik sowie in die theoretischen Grundlagen der Informatik, die letztlich ein Abfallprodukt der Meta-logischen Diskussion in der Zeit von ca. 1900 bis 1940 ist. Wenn also die angezielte Anwendung die volle Breite der Alltagssprache nutzen können soll, dann reicht es nicht, die prinzipiell Bedeutungsfernen Verfahren der Informatik wie bisher einzusetzen.

[5a] Das Phänomen ‚Alltagssprache‘ ist bei näherer Betrachtung äußerst komplex. In einem anderen Beitrag habe ich einige der grundlegenden Aspekte versucht, deutlich zu machen: Gerd Doeben-Henisch, 29.Januar 2021, SPRACHSPIEL und SPRACHLOGIK – Skizze. Teil 1, https://www.cognitiveagent.org/2021/01/29/sprachspiel-und-sprachlogik-skizze-teil-1/

[6] … von denen die formale Logik nicht einmal träumen kann.

[7] In der formalen Logik sind Spracherweiterungen im vollen Sinne nicht möglich, da jede echte Erweiterung das System ändern würde. Möglich sind nur definitorische Erweiterungen, die letztlich Abkürzungen für schon Vorhandenes darstellen. Das Sprechen in einer gegebenen Sprache L über Elemente der Sprache L — also meta-sprachliches Sprechen –, ist nicht erlaubt. Aufgrund dieser Einschränkung konnte Goedel seinen berühmten Beweis von der Unmöglichkeit führen, dass ein formales System sowohl Vollständig als auch Widerspruchsfrei ist. Dies ist der Preis, den formale Systeme dafür zahlen, dass ’nichts falsch machen können‘ (abgesehen davon, dass sie von sich aus sowieso über keine Bedeutungsdimension verfügen)).

[8] Während formale Systeme — und Computer, die nach diesen Prinzipien arbeiten — durch diese Elemente inkonsistent und un-berechenbar werden, kann das menschliche Gehirn damit fast mühelos umgehen!

[9] Unser Gehirn arbeitet schon immer mit beliebigen Abstraktionen auf beliebigen Ebenen.

FORTSETZUNG

Eine Fortsetzung findet sich HIER.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design. Problem und Vision

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 13.-15.Februar 2021
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Letzte Korrekturen: 16.Februar 2021, 14:40h

KONTEXT

In diesem Beitrag soll das Konzept einer praktischen kollektiven Mensch-Maschine Intelligenz by design, das im vorausgehenden Beitrag grob vorgestellt worden ist, weiter konkretisiert werden. In diesem Text geht es um eine erste Beschreibung der auslösenden Problemstellung und einem möglichen Zukunftskonzept.

Bisher zum Thema veröffentlicht:

PROBLEMSTELLUNG

Die Problemstellung, die hier beschrieben wird, wird so knapp wie möglich gehalten.

Eine ausführliche Beschreibung könnte sehr schnell viele hundert Seiten umfassen, da es bei dem Problem um nichts weniger als um uns selbst geht, um unsere Situation als Menschen in einem Alltag; hier primär um einen Alltag in der Bundesrepublik Deutschland. Doch da es um das generelle Problem geht, wie beliebige Menschen weltweit — wenn sie denn wollen — gemeinsam ihr Wissen, ihre Erfahrungen, ihre Motive so austauschen, dass dabei ihre Gegenwart mit identifizierten Problemen vorkommt, mögliche Zielvorstellungen, wie es denn besser sein könnte, mögliche Maßnahmen, wie man die Gegenwart schrittweise ändern könnte, geht es nicht nur um Deutschland, nicht nur um Europa, sondern um die ganze Menschheit. Auf diesem Planet Erde zu überleben ist schon jetzt nur noch möglich, wenn alles positiv-konstruktiv zusammenspielt; Nachhaltigkeit ist hier keine ‚Modewort‘ sondern knallharte Realität: entweder wir lösen das Problem gemeinsam oder wir werden gemeinsam untergehen.

Es macht daher Sinn, mit möglichst wenig, möglichst einfach, anzufangen, um die Problembeschreibung dann schrittweise auszuweiten.

DER MENSCH SELBST

Der primäre Ansatzpunkt der Problemstellung ist der Mensch selbst, Wir, die Lebensform des homo sapiens. Die biologische Evolution hat dem homo sapiens mindestens zwei Eigenschaften mitgegeben, die ihm eine besondere Rolle — und damit auch eine besondere Verantwortung ? — zukommen lässt (für weitere Erläuterungen zu den folgenden Gedanken siehe z.B. [1] und [2]):

Außen nach Innen

(i) Ein einzelner homo sapiens ist so gebaut, dass er automatisch die Realität der Außenwelt in die Realität seiner Gehirnzustände verwandelt, und innerhalb dieser realen Gehirnzustände real-virtuelle Signalzustände erzeugt, die speziell und partiell Eigenschaften der realen Welt außerhalb des Gehirns (einschließlich des Gehirns selbst) in real-virtuelle Zustände innerhalb des Gehirns verwandelt. Diese internen virtuellen Zustände sind partiell das, was wir subjektiv als Welt erleben (der größte Teil der neuronalen Zustände ist unbewusst). Zwischen der auslösenden realen Welt und der internen virtuellen Welt kann es große Unterschiede geben.

Ausdruckssysteme

(ii) Zusätzlich verfügt der homo sapiens über die Eigenschaft und Fähigkeit, auch intern, virtuell, ein eigenes Ausdruckssystem zu entwickeln, das über Lernprozesse mit sehr vielen (wie vielen?) Aspekten der internen virtuellen Welt verknüpft werden kann. Durch eine Übersetzung des internen Ausdruckssystem in äußerliche, reale Ereignisse (Laute, Gesten, Schriftzeichen,…) kann das eine Gehirn unter bestimmten Bedingungen mit einem anderen Gehirn eine Interaktion aufbauen, die zu einer Kommunikation führen kann: Laute erzeugt von einem Gehirn A können Bezug nehmen auf interne Zustände des Gehirns A und — unter speziellen Bedingungen — können diese Laute in einem anderen Gehirn B auf seine eigenen internen Zustände bezogen werden. Es fragt sich nur: auf welche? Die Koordinierung der Zuordnung in zwei verschiedenen Gehirnen ist eine spezifische Lernleistung und Teil einer Lebenswelt, einer Kultur. Erfahrungsgemäß ist eine Koordinierung am einfachsten und stabilsten, wenn verschiedene Gehirne sich auf ein Ereignis in der realen Außenwelt beziehen (‚es regnet‘), das bei allen Beteiligten interne Prozesse auslöst. Ähnlich gut, wenngleich nicht ganz so eindeutig, sind Ereignisse im realen Körper, sofern die Körper eine hinreichend ähnliche Struktur untereinander aufweisen (‚Ich sehe dort ein Licht‘, ‚Zahnschmerzen‘, ‚Ellbogen gestoßen‘, …). Schwieriger bis ganz schwierig wird es bei subjektiven Ereignissen und Prozessen wie verschiedene Emotionen, Gefühle, Stimmungen, Ängste, Überlegungen usw. Diese sind einem anderen Gehirn prinzipiell verschlossen, es sei denn …

Als einzige Lebensform auf dem Planet Erde — und vielleicht im gesamten bekannten Universum — verfügt die Lebensform des homo sapiens über diese einzigartige Fähigkeiten.[4] Die Geschichte des homo sapiens zeigt — soweit sie anhand von Artefakten rekonstruierbar ist –, dass der homo sapiens zu Kooperationsleistungen fähig war, die schrittweise zu hochkomplexen Siedlungsformen, Technologien, kulturellen Mustern und Wissensformen geführt haben, wie wir sie heute kennen.

ÜBER-INDIVIDUELLE KOMPLEXITÄT

Kooperation durch Kommunikation verweist aus sich heraus aber auch auf einen Umstand, der für die Lebensform des homo sapiens heute zu einem eigenen Problem geworden zu sein scheint. Kooperation kann reale und gedachte Zusammenhänge hervorbringen, die die Perspektive des einzelnen soweit übersteigen, dass der einzelne sich angesichts der gemeinsam hervorgebrachten Leistung nicht nur stolz über die gemeinsam erbrachte Leistung fühlen kann (‚Ja, zusammen können wir ganz viel.‘), sondern ihn auch überfordert. Ich habe diese Form der Überforderung früher als Negative Komplexität bezeichnet [5a,b]: Wenn die für eine bestimmte Lebensform typischen Signale seiner spezifischen Umwelt [6] zahlenmäßig die Verarbeitungskapazitäten des Gehirns wesentlich übersteigen, dann wird die Menge der Lebensform-typischen Informationen in einer Weise größer, dass diese überschießende Menge nicht mehr positiv zur Lebensführung beiträgt, sondern mehr und mehr unbewältigt ist und die Lebensführung dadurch stark negativ beeinflusst werden kann.

Viele einzelne Menschen können zusammen, im Verbund, Landwirtschaft betreiben, große Häuser bauen, Verkehrssystem ermöglichen, viele Hunderttausend Bücher schreiben, aber der einzelne versteht heute immer weniger von dem Zusammenhang, wie das Ganze genau funktioniert [7], und bei vielen Hunderttausend Büchern ist völlig klar, dass das kumulierte Wissen von einem einzelnen nicht mehr rezipiert werden kann. Durch Computer, Internet, und Datenbanken ist die Ereignismenge weiter angeschwollen und macht jeden Experten zu einem Dummkopf, der nichts mehr versteht, weil das individuelle Gehirn, diese Wunderwerk der Evolution, mit seinen endlichen Möglichkeiten, mit diesen Quantitäten einfach nicht mithalten kann.[3] Ein einzelnes menschliches Gehirn ist ein unfassbarer Hotspot von Freiheit und potentieller Zukunft, aber für eine Kommunikation und Koordination mit vielen Milliarden Menschen, in der es real um Verstehen geht, nicht einfach nur Dabei sein, ist es nicht geschaffen. Die hervorgebrachte Komplexität überfordert aktuell ihre Hervorbringer.

Diese Situation markiert den Kern des Problems, um das es hier gehen soll.

VISION: MÖGLICHE LÖSUNG?

Wenn man in der Gegenwart eine Konstellation von Sachverhalten erkennt, die man als ein Problem klassifiziert, dann ist dies natürlich abhängig vom Wissensstand des Sprechers/ Schreibers. Wissen ist notorisch unvollständig und kann mehr oder weniger falsch sein. Nichts desto Trotz: solange der Sprecher zu diesem Zeitpunkt kein anderes Wissen zur Verfügung hat, wird er — will er denn überhaupt handeln — dieses aktuelle Wissen zum Maßstab für sein Handeln nehmen müssen. Dieses Handeln kann in die Irre führen, es kann Schäden anrichten, aber für den Handelnden ist es vielleicht die einzige Chance, heraus zu finden, dass sein aktuelles Wissen nicht gut ist, dass es falsch ist. ‚Durch Fehler lernen‘ ist eine alte Alltagsweisheit.

Diese grundsätzliche Fehler-Behaftetheit eines aktuellen Wissens resultiert aus der Tatsache, dass uns die Zukunft grundsätzlich nicht bekannt ist.[8] Unser Körper mit seinem Gehirn transformiert zwar kontinuierlich — ohne dass wir dies explizit wollen — aktuelle Gegenwart in stark veränderte innere Zustände, die dann durch verschiedene Speichervorgänge das werden, was wir erinnerbare Gegenwart nennen, unsere Vergangenheit, aber die Zukunft im engeren Sinne, das, was im zeitlichen Anschluss an das Gegenwärtige die neue aktuelle Gegenwart sein wird, diese Zunft kennen wir nicht. Zukunft als solche kommt in unserem Erfahrungsbereich nirgendwo vor; sie ist kein Objekt der Wahrnehmung.

Klassifizieren wir also einige Sachverhalte der Gegenwart als ein Problem, und wir möchten dazu beitragen, dass dieses Problem mindestens abgeschwächt wird, vielleicht sogar ganz gelöst wird, dann müssen wir für uns irgendwie das Bild einer möglichen Zukunft entwickeln, in der die angedachte Lösung (= die Vision), kein bloßer Gedanke ist, sondern die neue Realität, die neue Gegenwart.

Damit stellt sich die grundsätzliche — letztlich philosophische — Frage, in welcher Form wir überhaupt über die Zukunft nachdenken können, wenn wir nur Fragmente einer Gegenwart und unterschiedlich neuronal abgewandelte Fragmente unserer Vergangenheit zur Verfügung haben? Was nützt es mir, zu wissen, dass es gestern in London geregnet hat, in Paris die Sonne schien, und es in Moskau kühl war? Was nützt es mir, zu wissen, dass im 20.Jahrhundert zwei große Kriege stattgefunden haben? Was nützt es mir, zu wissen, dass es in den vergangenen 5000 Jahren viele Großreiche gab, mit hochkomplexen Organisationsformen, die heute aber völlig verschwunden sind? Was nützt es mir, zu wissen, dass sich die heutigen biologischen Lebensformen im Rahmen dessen, was wir biologische Evolution nennen, im Laufe von 3.5 Milliarden Jahren schrittweise heraus gebildet haben? Was nützt es mir, zu wissen, dass das heute bekannte Universum vor ca. 13.7 Milliarden (10^9) entstanden ist? [9]

Von den modernen empirischen Wissenschaften (entwickelt seit ca. 400 Jahren, nimmt man Galilei Galileo als einen groben Bezugspunkt [13])) wissen wir, dass wissenschaftliche Erkenntnis im größeren Stil erst möglich wurde, nachdem man nicht nur das Konzept von standardisierten und reproduzierbaren Messverfahren entwickelt hatte, sondern man auch explizite begriffliche Zusammenhänge (=Theorien) formulieren konnte, so dass es möglich wurde, Beziehungen zwischen den einzelnen Messwerten zu beschreiben. Für sich alleine sind Messwerte (= empirische Daten) zwar individuell, punktuell bedeutungsvoll (‚Die Laborratte im Labyrinth X zum Zeitpunkt T gemessen mit Verfahren V öffnete die weiße Tür und nicht die schwarze.‘), aber man kann daraus zunächst nichts weiter ableiten. Wenn man aber weiß, dass die Forscher ein Verhaltensexperiment durchführen, bei dem eine Laborratte zwischen zwei Türen mit unterschiedlicher Farbe wählen kann und hinter der weißen Tür gelegentlich Futter zu finden ist, nicht aber hinter der schwarzen, und man dann feststellt, dass die Laborrate nach anfänglichem zufälligen Entscheiden ab dem ersten Fund von Futter hinter der weißen Tür die weiße Tür eindeutig bevorzugt, dann kann ein empirisches Datum im Kontext einer zeitlichen Folge von Daten im weiteren Kontext des Experiments von theoretischer Bedeutung sein: man kann einen Zusammenhang formulieren, der besagt, dass die Laborratte (meistens hat man mehrere), wenn sie sich in einer unübersichtlichen Umgebung bewegt, sich Wege in solch einer Umgebung so einprägen kann, dass sie bei Erfolg (Hunger und Futter) aufgrund der Gedächtnisleistung genau jenen Weg finden und wählen kann, der zum Futter geführt hat.(Das klassische Experiment dazu stammt von Tolman [11]).

Im Falle der empirischen Verhaltensforschung (siehe auch [12]) sind Aussagen über das Verhalten von Organismen natürlich in ihrem zeitlichen Horizont sehr begrenzt, da nicht nur die Lebensdauer eines biologischen Organismus sehr begrenzt ist, sondern auch, weil biologische Organismen grundlegend lernende Systeme sind, die ihr Verhalten z.T. dramatisch ändern können. Dennoch lassen sich mit verhaltensbasierten Theorien Voraussagen über ein mögliches Verhalten in der Zukunft ableiten, die begrenzt hilfreich sein können.

Im Falle von nicht-biologischen Systemen wie Planeten, Sonnensystemen, Galaxien usw. kann man aufgrund der Stabilität der Systeme eher belastbare Voraussagen in die Zukunft machen. So kann man mit den heutigen physikalischen Theorien z.B. die Voraussage ableiten, dass der Lebensraum Erde spätestens in 1.4 Milliarden Jahren aufgrund der Ausdehnung der Sonne für die heutigen biologischen Lebensformen unbewohnbar sein wird. Zusätzlich kann man ableiten, dass in spätestens 2.7 Milliarden Jahren von heute aus unsere Milchstraßen Galaxie mit der Andromeda Galaxie kollidieren wird.[10] Im ‚Nahbereich‘ der nächsten Jahrzehnte gibt es Hochrechnungen zur Entwicklung des Erdklimas und der damit zusammenhängenden Lebensbedingungen auf der Erde.

Das Verlassen einer als Problem klassifizierten Situation hin zu einer im Denken als möglich erscheinenden zukünftigen Situation, in der das Problem zumindest minimiert, wenn nicht gar aufgelöst, worden ist, kann nur erfolgen, wenn es (i) mindestens ansatzweise eine Vorstellung von solch einer zukünftigen Situation (= Vision) gibt, und (ii) man sich einen Weg vorstellen kann, wie man von der problematisierten Gegenwart zu einer gewünschten Zukunft als einer neuen Gegenwart kommen kann.

Ein Weg bedeutet hier eine Folge von einzelnen Situationen, in der jede Situation das Ergebnis von vorausgehenden Veränderungen ist. Änderungen werden durch Ereignisse hervorgebracht, die auf unterschiedliche Ursachen zurückgeführt werden können. Zum Teil liegen diese Ursachen in der Eigengesetzlichkeit der jeweiligen Umgebung, zum Teil aber auch im absichtlichen Verhalten von Akteuren, z.B. auch bei uns Menschen.

VISION

Die Herausforderung besteht also darin,

  1. eine Form zu finden,
  2. wie beliebige Menschen
  3. zu beliebigen Problemsituationen
  4. gemeinsam
  5. Wege konstruieren können, auf die man — so wird gehofft — in der Zukunft eine neue Gegenwart erreichen kann,
  6. in der das Problem zumindest minimiert ist.
  7. Für die notwendige Kommunikation zwischen den beteiligten Menschen sollte primär die Alltagssprache genügen,
  8. nach Bedarf erweiterbar um spezielle Ausdruckssysteme.
  9. Die gemeinsamen Denkversuche sollten ferner durch automatisierte Simulationen
  10. und Bewertungen unterstützt werden können.
  11. Sofern verfügbar, sollten auch lernfähige Algorithmen eingesetzt werden können.

QUELLENNACHWEISE

[1] Gerd Doeben-Henisch, 1.Februar 2021, REAL-VIRTUELL. Ein Einschub, https://www.cognitiveagent.org/2021/02/01/real-virtuell-ein-einschub/ (Dieser Text setzt viele andere Texte voraus)

[2] Gerd Doeben-Henisch, 3.Februar 2021, EINE KULTUR DES MINIMALEN IRRTUMS? Ergänzende Notiz, https://www.cognitiveagent.org/2021/02/03/eine-kultur-des-minimalen-irrtums-ergaenzende-notiz/ (Dieser Text setzt viele andere Texte voraus)

[3] Diese Problematik zeigt sich in vielen Bereichen, u.a. auch im wissenschaftlichen Publikationssystem selbst, etwa: Moshe Y.Vardi, Reboot the Computing-Research Publication System, Communications of the ACM, Januar 2021, Vol.64, Nr.1, S.7: https://cacm.acm.org/magazines/2021/1/249441-reboot-the-computing-research-publication-systems/fulltext

[4] In der biologischen Verhaltensforschung hat man mittlerweile bei sehr vielen Lebensformen verschieden vom homo sapiens aufzeigen können, dass diese auch über Ausdruckssysteme verfügen, die zur Kommunikation über Eigenschaften der Außenwelt wie auch über die partielle Eigenschaften der Innenwelt geeignet sind. Es scheint sich also bei der Fähigkeit der Kommunikation mittels eines Ausdruckssystems um eine graduelle Fähigkeit zu handeln: beim homo sapiens ist diese Eigenschaft bislang am stärksten ausgeprägt, aber es gibt ähnliche, wenngleich einfachere Formen, auch bei anderen Lebensformen. Sieh z.B. Stichwort ‚animal language‘ in Wikipedia [EN]: https://en.wikipedia.org/wiki/Animal_language

[5a] Döben-Henisch, G.[2006] Reinforcing the global heartbeat: Introducing the planet earth simulator project In M. Faßler & C. Terkowsky (Eds.), URBAND FICTIONS. Die Zukunft des Städtischen. München, Germany: Wilhelm Fink Verlag, 2006, pp.251-263

[5b] Doeben-Henisch, G.[2006] Reducing Negative Complexity by a Semiotic System In: Gudwin, R., & Queiroz, J., (Eds). Semiotics and Intelligent Systems Development. Hershey et al: Idea Group Publishing, 2006, pp.330-342

[6] Jakob von Uexküll, 1909, Umwelt und Innenwelt der Tiere. Berlin: J. Springer. (Download: https://ia802708.us.archive.org/13/items/umweltundinnenwe00uexk/umweltundinnenwe00uexk.pdf )(Zuletzt: 26.Jan 2021)

[7] Beispiel, eines von vielen: Ein älterer Ingenieur erzählte mir am Beispiel des Abwassersystems einer großen Deutschen Stadt, dass es kaum noch Experten gibt, die das ganze System kennen, und die wenigen, die es gibt, stehen vor dem Berufsende …

[8] Gerd Doeben-Henisch, 25.Januar 2021, Gedanken und Realität. Das Nichts konstruieren. Leben Schmecken. Notiz, https://www.cognitiveagent.org/2021/01/23/gedanken-und-realitaet-das-nichts-konstruieren-leben-schmecken-notiz/

[9] Stichwort ‚age of the universe‘ in der englischen Wikipedia: https://en.wikipedia.org/wiki/Age_of_the_universe

[10] Unter dem Stichwort ‚Formation and Evolution of the Solar System‘ findet sich in der Englischen Wikipedia ein Eintrag: https://en.wikipedia.org/wiki/Formation_and_evolution_of_the_Solar_System#Timeline_of_Solar_System_evolution

[11] Edward Tolman, 1948, COGNITIVE MAPS IN RATS AND MEN, The Psychological Review, 55(4), 189-208, online auch hier: http://psychclassics.yorku.ca/Tolman/Maps/maps

[12] Charles R. Gallistel.The Organization of Learning. MIT Press, 1990.

[13] Stichwort ‚Galileo Galilei‘ in der Englischen Wikipedia: https://en.wikipedia.org/wiki/Galileo_Galilei

FORTSETZUNG

Eine Fortsetzung gibt es HIER.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 11.-12.Februar 2021
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Letzte Änderung: 23.Februar 2021: (i) Querverweis zu meiner philosophischen Position vom 8.Dezember 2008! (ii) Querverweis zum Aspekt der kognitiv verschränkten Personen, die sich im Alltag in verteilten Einzelaktionen manifestieren.

KONTEXT

In diesem Beitrag soll das Konzept einer praktischen kollektiven Mensch-Maschine Intelligenz by design an einem konkreten Beispiel durchgespielt werden. Als Rahmen wird das vorausgesetzt, was in dem vorausgehenden Beitrag INGENIEURE UND DAS GLÜCK. Anmerkung 1 [1] vorgestellt wurde.

RAHMENANNAHMEN – FRAMEWORK

Grafische Darstellung zum angenommenen begrifflichen Rahmen aus dem vorausgehenden Artikel [1]

Im vorausgehenden Beitrag wurde der Gesamtrahmen wie folgt kurz charakterisiert:

Zum Konzept einer integrierten Theorie des Engineerings [2] gehören die folgenden (stark vereinfachten) Wissensdimensionen:

  1. Ein wissenschaftsphilosophischer Rahmen, der die Einbettung der Engineering-Prozesse in die Alltagswelt, in die Gesellschaft, in die umgebende Realität ermöglicht.[1b]
  2. Der Engineering-Prozess selbst, in dem Ingenieure und Manager als Experten einen Prozess starten, organisieren und zu einer nachhaltigen Lösung führen.
  3. Innerhalb des Engineering Prozesses nimmt die Analyse der Mensch-Maschine Interaktion [MMI] (Engl. oft auch Human-Machine Interaction [HMI]) eine fundamentale Rolle ein: hier wird analysiert welche Problem unter Berücksichtigung welcher Kontexte (Rahmenbedingungen, Ziele,…) so umgesetzt werden sollen, dass die intendierten Anwender die neue Lösung optimal nutzen können. Im vorliegenden Fall soll es möglich gemacht werden, dass beliebige Anwender beliebige Problemstellung mit Alltagssprache kommunizieren, modellieren und simulieren können einschließlich diverser Bewertungsverfahren (Ein Teil der Bewertungsverfahren können intelligente Algorithmen (volkstümlich: Künstliche Intelligenz [KI]) beinhalten).[1c]
  4. Im logischen Design, das auf der MMI-Analyse aufbaut, wird im Rahmen einer abstrakten mathematischen Struktur festgelegt, wie die gewünschten Systemleistungen organisiert werden sollen. Die mathematische Struktur muss so sein, dass sie sich formal in eine Menge von Algorithmen abbilden lässt, die sich mit einer verfügbaren Programmiersprache implementieren lassen.
  5. In der Implementierung wird dann die logische Analyse in ein konkretes funktionierendes technisches System umgesetzt. Im konkreten Fall handelt es sich um eine bestimmte Software, die auf Servern läuft, die als Knoten im Internet funktionieren. Der Anwender kann mit dieser Software über interaktive Internetseiten kooperieren.

Im folgenden Text wird der Aspekt der Mensch-Maschine Analyse näher betrachtet.

FOKUS AUF die Analyse der MENSCH-MASCHINE INTERAKTION

Teilaspekt: Analyse der Mensch-Maschine Interaktion [MMI] innerhalb des Gesamtrahmens

Ich hatte einige Jahre eine Vorlesung zu diesem Thema und hatte anlässlich dieser Vorlesung den Versuch unternommen, aktuelle Konzepte der Mensch-Maschine Interaktion [MMI] im Kontext des Systems Engineering [SE] und unter dem Blickwinkel einer formalen Theorie zu rekonstruieren.[3] Zumindest die Grundlinien dieses Konzeptes sind erkennbar.

WELCHE EXPERTEN?

Durch die Erweiterung des Kontextes über das klassische Engineering hinaus hinein in beliebige gesellschaftliche Kontexte mit beliebigen potentiellen Anwendern — also auch Bürger, Büroangestellte, Lokalpolitiker, Jugendliche, Schüler … — und durch Verschiebung des Hauptprozesses weg von ausgewählten Experten hin zum allgemeinen Expertentum, ergab sich eine Form von Generalisierung, innerhalb deren das klassische Systems Engineering nur noch ein Spezialfall ist. Aus den verteilten Akteuren im klassischen Systems Engineering wird jetzt die Population der allgemeinen Experten [PAE], die sich zu jeder Zeit an jedem Ort aus beliebigen Menschen rekrutieren können. Dies versucht der Tatsache Rechnung zu tragen, dass für die Zukunft entscheidend ist, dass wir über eine hinreichend große Vielfalt verfügen, wobei wir selbst nur sehr bedingt fähig sind, in der Gegenwart zu entscheiden, wer jetzt der richtige Experte ist. Am Beispiel der Kommunen ist ganz klar, dass die wenigen Bürger, die als Kommunalpolitiker gewählt werden, in keinster Weise repräsentative sind für das Wissen, die Erfahrungen, die Intelligenz, die Visionen, die sich in einer Kommune in der Gesamtheit der Bürger verkörpern. Diese Diskrepanz ist gravierend. Sie nicht zu überbrücken wäre in höchstem Maße fahrlässig für die Gestaltung unserer Zukunft.

PRAKTISCHE KOLLEKTIVE INTELLIGENZ?

In einer ersten Annäherung — und zugleich Vereinfachung — könnte man die Gesamtheit des Wissens und der Erfahrung, die sich in den Bürgern einer Kommune vorfindet, Kollektive Intelligenz nennen [4]. Hier geht es — wie jeder aus seiner Erfahrung von Kommunen selbst ergänzen kann — aber nicht nur um das Wissen, das Kognitive im engeren Sinne, sondern um solches Wissen, das in Form von Erfahrungen auch handlungsfähig ist, das sich im Handeln herausbildet, das verflochten ist mit einem ganzen Netzwerk von emotionalen Faktoren, Motiven und Werten. Ein solches Wissen im erweiterten Sinne nenne ich hier Praktisches Kollektives Wissen [PKW].

Vor 100 oder mehr Jahren wäre damit alles gesagt. Im Zeitalter der Digitalisierung reicht dies aber nicht mehr.

MENSCH-MASCHINE SYMBIOSE

Mit der zunehmenden Durchdringung unseres Alltags mit Computern, also mit programmierbaren Maschinen, die ansatzweise die biologische Intelligenz nachbilden können, stellen wir fest, dass wir Menschen im Alltag, in unserem menschlichen Handlungsraum, zunehmend mit solchen Computern interagieren. Das Innere dieser Computer ist den meisten weitgehend unbekannt, selbst ihre Oberfläche (das System Interface, die Systemschnittstelle) lässt sich immer öfter nicht mehr direkt erkennen, da die Computer über Sensoren und Aktoren direkt oder vermittelt über andere Objekte und Geräte in unserem Alltag mit uns interagieren. Und hinter dieser kaum wahrnehmbaren Oberfläche tauschen diese Computer mit anderen Computern immer größere Datenmengen aus, die wir als Menschen gar nicht mitbekommen.

Aus Sicht der Mensch-Maschine Interaktion kann und muss man die Frager stellen, welche Rolle wir auf lange Sicht dem Computer einerseits und dem Menschen andererseits zuordnen wollen. Grundsätzlich kann man drei typische Rollen unterscheiden:

  1. Den Computer so weiter entwickeln, dass er letztlich in allen Belangen den Menschen übertrifft und letztlich den Menschen nicht mehr braucht. Kennwort: Super-Human Computing.
  2. Den Computer so unvollständig und dumm lassen, dass er den Menschen grundsätzlich nicht gefährden und beeinträchtigen kann. Kennwort: Inferior-Human Computing.
  3. Den Computer maximal entwickeln, aber in Sandbox-Artigen Problemräumen. Kennwort: Man-Machine Computing.

Die Variante Inferior-Human Computing ist eigentlich schon aus dem Rennen, da der Computer in Teilbereichen den Menschen schon jetzt haushoch übertrifft. Und in dieser Rolle hat der Computer schon jetzt massive Auswirkungen z.B. auf Arbeitsprozesse, Geschäftsmodelle, ganze Marktmodelle, auf die Kriegsführung, auf die gesamte Technologiebranche, auf die Forschung, selbst auf die Kunst und die gesamte Unterhaltungsindustrie. Was wir hier haben ist schon eine Art von mindestens partiellem Super-Human Computing. Dass die Vielzahl der Beispiele in diesem Bereich die Fantasie anregen, ist verständlich.

Beispiele für Super-Computing innerhalb eines Problemraumes, der als Sandbox dient, wobei der Problemraum ausschließlich von Menschen konstituiert wird, sind bislang nicht wirklich bekannt. In einer solchen Umgebung — wie sie die oksimo Software ermöglicht — können Menschen die ganze Fülle ihres Wissens gemeinsam und strukturiert als Problemraum einbringen, der beständig abgeändert und kumulativ — Prinzip Wikipedia — erweitert werden kann. Relativ dazu kann man beliebig viele intelligente Programme zum Einsatz bringen, die diesen Problemraum erkunden, erforschen, erlernen und seine formalen Möglichkeiten entsprechend den verfügbaren Bewertungsprofilen auswerten und selbständig optimieren. In diesem Kontext könnten die programmierbaren Maschinen sogar die Bewertungskriterien fallweise abändern, um weitere alternative Lösungen sichtbar zu machen. Während die Menschen in dieser Konstellation die volle Breite ihres Wissens samt Bewertungsstrukturen für sich selbst und füreinander sichtbar machen können, können die lernfähigen Programme aus den für Menschen schwer erfassbaren kombinatorischen Räumen jene Teilbereiche identifizieren, die im Lichte von bestimmten Kriterien besonders günstig erscheinen. In einem solchen Sandbox-Vermittelten Miteinander können die Menschen ihr Optimum ausleben und dazu programmierbare Maschinen benutzen, die ihrerseits ihr Optimum bis an die Grenzen der Berechenbarkeit ausdehnen. In dieser Mensch-Maschine Symbiose eines Man-Machine Computing könnten die beteiligten Computer beliebig gut werden ohne dem Menschen schaden zu können (in der Regel ist nicht die Maschine sondern der Mensch sich selbst nicht nur der potentiell größte Freund, sondern auch der potentiell größte Feind; Freiheit ist eben real …).

DESIGN EINER KOLLEKTIVEN ZUKUNFTSMASCHINE

Schaubild mit Aktualisierung des Bereichs für die Analyse der Mensch-Maschine Interaktion.

Wie eingangs angedeutet, geht es im Rahmen der Analyse der Mensch-Maschine Interaktion darum, unter Vorlage einer groben Problemstellung [P] mitsamt einer groben Vision [V] (idealerweise in einem Problem-Visions-Dokument festgehalten) im einzelnen zu klären, wie dieses Aufgabenstellung so umgesetzt werden kann, dass die Auftraggeber zufrieden sind.

Im Normalfall sind die Auftraggeber und die späteren Anwender unterschiedliche Akteure. Im konstitutiven Fall werden Anwender zu ihren eigenen Auftraggebern, um etwas zu finden, was dazu beiträgt, ihre aktuelle Situation zu verbessern.

Im Fall der oksimo Software und des damit angezielten Paradigmas einer neuen allgemeinen Zukunftsmaschine liegt eher der konstitutiver Fall vor: allseits kann man heute ein Mangel an solchen Diskursräumen feststellen, in denen beliebige Experten gemeinsam Problemräume [6] aufspannen, innerhalb deren sie Lösungswege sichtbar machen und gemeinsam bewerten. Zusätzlich sollte ein Maximum an lernenden Algorithmen für diese Problemräume verfügbar gemacht werden können.

BY DESIGN

Die Erfahrungen des Alltags zeigen, dass die wenigsten Menschen aus dem Stand heraus in der Lage sind, zusammen mit anderen konstruktiv eine — oder gar mehrere — mögliche Zukunft (Zukünfte) zu denken: weder in den großen Linien, noch in den vielen Details und Querwirkungen. Die Vision der oksimo Software ist es nun, einen kompletten Rahmen für das gemeinsame Entwickeln von möglichen Zukünften ‚by design‘ zur Verfügung zu stellen, und das nur mit den Mitteln der Alltagssprache: miteinander reden; Gegenwart beschreiben; mögliche zukünftigen Szenarien aussprechen; mögliche Aktionen suchen, die von der Gegenwart in die Zukunft führen; sich die bisherigen Überlegungen immer wieder als Prozess vorführen zu lassen, ob es schon funktioniert; Rückmeldungen bekommen, wieweit man schon ist ….

QUELLENANGABEN

[1a] Gerd Doeben-Henisch, 6.Febr.2021, INGENIEURE UND DAS GLÜCK. Anmerkung 1, https://www.cognitiveagent.org/2021/02/06/ingenieure-und-das-glueck-anmerkung-1/

[1b] Gerd Doeben-Henisch, 8.Dez.2012, EIN ABEND MIT DEM SALON SLALOM, https://www.cognitiveagent.org/2012/12/08/ein-abend-mit-dem-salon-slalom-vorlaufig-bilder-und-endredaktion-fehlt-noch/ . Dieser Text beschreibt ziemlich umfassend meine philosophische Position am Ende des Jahres 2008 (dazu ein bisschen ‚Musik-Philosophie‘ mit praktischen Beispielen). Letztlich sind es diese philosophischen Gedanken, die den Hintergrund bilden für die nachfolgenden und auch heutigen Überlegungen.

[1c] Gerd Doeben-Henisch, 5.Dezember 2020, SW. Software? Müssen wir umdenken? Notiz, https://www.cognitiveagent.org/2020/12/05/sw-software-muessen-wir-umdenken-notiz/ //* In der ‚klassischen‘ MMI-Analyse liegt der Fokus eher auf dem unmittelbaren Interaktionsfeld zwischen Anwendern und System-Interface. Dies legt sich nahe, da die konkrete Spezifikation des System-Interfaces nur unter Voraussetzung von möglichst konkreten Interaktionsbeschreibungen gelingen kann. Wie aber der hier zitierte Beitrag deutlich zu machen versucht, ist Alltagshandeln von Menschen durchtränkt von konkreten Aktionen, die im Menschen Teil von kognitiv verankerten Rollen/ Protokollen sind, durch die viele einzelne zu einer verschränkten Person werden, deren Einzelhandeln nicht verstanden werden kann, wenn man nicht diese kognitive Verschränktheit berücksichtigt. Diese Dimension des Anwenderverhaltens ist bislang aber noch nicht wirklich in MMI-Analysen eingebunden.*//

[2] Der Begriff einer ‚Integrierten Theorie des Engineerings‘ [ITE] ist klar abzugrenzen von dem Konzept der ‚Integralen Theorie‚, wie es von Ken Wilbert und vielen anderen vertreten wird, siehe z.B.: https://de.wikipedia.org/wiki/Integrale_Theorie

[3] Gerd Doeben-Henisch, Distributed Actor-Actor Interaction [DAAI], 18.Januar 2020, Version 1 5 . 0 6 . 0 7, https://www.uffmm.org/wp-content/uploads/2019/05/aaicourse-15-06-07.pdf

[4] Stichwort ‚Kollektive Intelligenz‘ in Wikipedia [DE]: https://de.wikipedia.org/wiki/Kollektive_Intelligenz

[5] Stichwort ‚Sandbox‘, Wikipedia [DE]: https://de.wikipedia.org/wiki/Sandbox

[5b] Stichwort ‚Sandbox‘ in Wikipedia [EN]: https://en.wikipedia.org/wiki/Sandbox_(software_development)

[6] Im Sprachspiel von Russel und Norvig wird unter einem ‚Problemraum‘ ein ‚Zustandsraum‘ (Engl.: state space) (S.67) verstanden. Im Prinzip lässt sich der ’state space‘ von Norvig und Russell im hier benutzten Konzept des ‚Problem-Raumes‘ abbilden. Siehe später im Text. Stuart Russell und Peter Norvig, Artificial Intelligence: A Modern Approach, Global Edition (Englisch) Taschenbuch, Herausgeber : Addison Wesley; 3. Edition (18. Mai 2016) Sprache : Englisch, Taschenbuch : 1132 Seiten ISBN-10 : 1292153962 ISBN-13 : 978-1292153964

FORTSETZUNG

Eine Fortsetzung findet sich HIER.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

KI UND BIOLOGIE. Blitzbericht zu einem Vortrag am 28.Nov.2018

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
29.Nov. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE AKTUALISIERUNG: 1.Dez.2018, Anmerkung 1

KONTEXT

Im Rahmen einer öffentlichen Veranstaltung des Fachbereichs 2 ‚Informatik & Ingenieurwissenschaften‘ der Frankfurt University of Applied Sciences am 28.November 2018 mit dem Rahmenthema „Künstliche Intelligenz – Arbeit für Alle?“ hielt Gerd Doeben-Henisch einen kurzen Vortrag zum Thema „Verändert KI die Welt?“ Voraus ging ein Vortrag von Herrn Helmut Geyer „Arbeitsmarkt der Zukunft. (Flyer zur Veranstaltung: FRA-UAS_Fb2_Karte_KI-Arbeit fuer alle_Webversion )

EINSTIEG INS KI-THEMA

Im Kontext der Überlegungen zur Arbeitswelt angesichts des technologischen Wandels gerät die Frage nach der Rolle der Technologie, speziell der digitalen Technologie — und hier noch spezieller der digitalen Technologie mit KI-Anteilen – sehr schnell zwischen die beiden Pole ‚Vernichter von Arbeit‘, ‚Gefährdung der Zukunft‘ einerseits und ‚Neue Potentiale‘, ‚Neue Arbeit‘, ‚Bessere Zukunft‘, wobei es dann auch einen dritten Pol gibt, den von den ‚übermächtigen Maschinen‘, die die Menschen sehr bald überrunden und beherrschen werden.

Solche Positionen, eine Mischungen aus quasi-Fakten, viel Emotionen und vielen unabgeklärten Klischees, im Gespräch sachlich zu begegnen ist schwer bis unmöglich, erst Recht, wenn wenig Zeit zur Verfügung steht.

Doeben-Henisch entschloss sich daher, das Augenmerk zentral auf den Begriff ‚Künstliche Intelligenz‘ zu lenken und die bislang uneinheitliche und technikintrovertierte Begrifflichkeit in einen größeren Kontext zu stellen, der das begrifflich ungeklärte Nebeneinander von Menschen und Maschinen schon im Ansatz zu überwinden sucht.

ANDERE DISZIPLINEN

Viele Probleme im Kontext der Terminologie der KI im technischen Bereich erscheinen hausgemacht, wenn man den Blick auf andere Disziplinen ausweitet. Solche andere Disziplinen sind die Biologe, die Mikrobiologie sowie die Psychologie. In diesen Disziplinen beschäftigt man sich seit z.T. deutlich mehr als 100 Jahren mit komplexen Systemen und deren Verhalten, und natürlich ist die Frage nach der ‚Leistungsfähigkeit‘ solcher Systeme im Bereich Lernen und Intelligenz dort seit langem auf der Tagesordnung.

Die zunehmenden Einsichten in die unfassbare Komplexität biologischer Systeme (siehe dazu Beiträge in diesem Blog, dort auch weitere Links), lassen umso eindrücklicher die Frage laut werden, wie sich solche unfassbar komplexen Systeme überhaupt entwickeln konnten. Für die Beantwortung dieser Frage wies Doeben-Henisch auf zwei spannende Szenarien hin.

KOMMUNIKATIONSFREIE EVOLUTION

Entwicklungslogik vor der Verfügbarkeit von Gehirnen

Entwicklungslogik vor der Verfügbarkeit von Gehirnen

In der Zeit von der ersten Zelle (ca. -3.8 Mrd Jahren) bis zur Verfügbarkeit hinreichend leistungsfähiger Nervensysteme mit Gehirnen (ab ca. -300.000, vielleicht noch etwas früher) wurde die Entwicklung der Lebensformen auf der Erde durch zwei Faktoren gesteuert: (a) die Erde als ‚Filter‘, was letztlich zu einer bestimmten Zeit geht; (b) die Biomasse mit ihrer Reproduktionsfähigkeit, die neben der angenäherten Reproduktion der bislang erfolgreichen Baupläne (DNA-Informationen) in großem Umfang mehr oder weniger starke ‚Varianten‘ erzeugte, die ‚zufallsbedingt‘ waren. Bezogen auf die Erfolge der Vergangenheit konnten die zufälligen Varianten als ’sinnlos‘ erscheinen, als ’nicht zielführend‘, tatsächlich aber waren es sehr oft diese zunächst ’sinnlos erscheinenden‘ Varianten, die bei einsetzenden Änderungen der Lebensverhältnisse ein Überleben ermöglichten. Vereinfachend könnte man also für die Phase die Formel prägen ‚(Auf der dynamischen Erde:) Frühere Erfolge + Zufällige Veränderungen = Leben‘. Da zum Zeitpunkt der Entscheidung die Zukunft niemals hinreichend bekannt ist, ist die Variantenbildung die einzig mögliche Strategie. Die Geschwindigkeit der ‚Veränderung von Lebensformen‘ war in dieser Zeit auf die Generationsfolgen beschränkt.

MIT KOMMUNIKATION ANGEREICHERTE EVOLUTION

Nach einer gewissen ‚Übergangszeit‘ von einer Kommunikationsfreien zu einer mit Kommunikation angereicherte Evolution gab es in der nachfolgenden Zeit die Verfügbarkeit von hinreichend leistungsfähigen Gehirnen (spätestens mit dem Aufkommen des homo sapiens ab ca. -300.000)[1], mittels deren die Lebensformen die Umgebung und sich selbst ‚modellieren‘ und ‚abändern‘ konnten. Es war möglich, gedanklich Alternativen auszuprobieren, sich durch symbolische Kommunikation zu ‚koordinieren‘ und im Laufe der letzten ca. 10.000 Jahren konnten auf diese Weise komplexe kulturelle und technologische Strukturen hervorgebracht werden, die zuvor undenkbar waren. Zu diesen Technologien gehörten dann auch ab ca. 1940 programmierbare Maschinen, bekannt als Computer. Der Vorteil der Beschleunigung in der Veränderung der Umwelt – und zunehmend auch der Veränderung des eigenen Körpers — lies ein neues Problem sichtbar werden, das Problem der Präferenzen (Ziele, Bewertungskriterien…). Während bislang einzig die aktuelle Erde über ‚Lebensfähig‘ ‚oder nicht Lebensfähig‘ entschied, und dies das einzige Kriterium war, konnten die  Lebewesen mit den neuen Gehirnen  jetzt eine Vielzahl von Aspekten ausbilden, ‚partielle Ziele‘, nach denen sie sich verhielten, von denen oft erst in vielen Jahren oder gar Jahrzehnten oder gar noch länger sichtbar wurde, welche nachhaltigen Effekte sie haben.

Anmerkung 1: Nach Edelman (1992) gab es einfache Formen von Bewusstsein mit den zugehörigen neuronalen Strukturen ab ca. -300 Mio Jahren.(S.123) Danach hätte es  also ca. 300 Mio Jahre gedauert, bis   Gehirne, ausgehend von einem ersten einfachen Bewusstsein, zu komplexen Denkleistungen und sprachlicher Kommunikation in der Lage waren.

LERNEN und PRÄFERENZEN

Am Beispiel von biologischen Systemen kann man fundamentale Eigenschaften wie z.B. das ‚Lernen‘ und die ‚Intelligenz‘ sehr allgemein definieren.

Systematisierung von Verhalten nach Lernen und Nicht-Lernen

Systematisierung von Verhalten nach Lernen und Nicht-Lernen

In biologischer Sicht haben wir generell Input-Output-Systeme in einer unfassbar großen Zahl an Varianten bezüglich des Körperbaus und der internen Strukturen und Abläufe. Wie solch ein Input-Output-System intern im Details funktioniert spielt für das konkrete Leben nur insoweit eine Rolle, als die inneren Zustände ein äußerlich beobachtbares Verhalten ermöglichen, das wiederum das Überleben in der verfügbaren Umgebung ermöglicht und bezüglich spezieller ‚Ziele‘ ‚erfolgreich‘ ist. Für das Überleben reicht es also zunächst, einfach dieses beobachtbare Verhalten zu beschreiben.

In idealisierter Form kann man das Verhalten betrachten als Reiz-Reaktions-Paare (S = Stimulus, R = Response, (S,R)) und die Gesamtheit des beobachtbaren Verhaltens damit als eine Sequenz von solchen (S,R)-Paaren, die mathematisch eine endliche Menge bilden.

Ein so beschriebenes Verhalten kann man dann als ‚deterministisch‘ bezeichnen, wenn die beobachtbaren (S,R)-Paare ’stabil‘ bleiben, also auf einen bestimmten Reiz S immer die gleiche Antwort R erfolgt.

Ein dazu komplementäres Verhalten, also ein ’nicht-deterministisches‘ Verhalten, wäre dadurch charakterisiert, dass entweder (i) der Umfang der Menge gleich bleibt, aber manche (S,R)-Paare sich verändern oder (ii) der Umfang der Menge kann sich ändern. Dann gibt es die beiden interessanten Unterfälle (ii.1) es kommen nach und nach neue (S,R)-Paare dazu, die ‚hinreichend lang‘ ’stabil‘ bleiben, aber ab einem bestimmten Zeitpunkt ‚t‘ sich nicht mehr vermehren (die Menge der stabilen Elemente wird ‚eingefroren‘, ‚fixiert‘, ‚gezähmt‘, …), oder (ii.2) die Menge der stabilen (S,R)-Paare expandiert ohne Endpunkt.

Bezeichnet man diese Expansion (zeitlich ‚befristet‘ oder ‚unbefristet‘) als ‚Lernen‘, dann wird sichtbar, dass die ‚Inhalte des Lernens‘ (die korrespondierenden Repräsentationen der (S,R)-Paare in den internen Zuständen des Systems) einmal davon abhängen, was die Umgebung der Systeme ‚erlaubt‘, zum anderen, was die ‚inneren Zustände‘ des Systems an ‚Verarbeitung ermöglichen‘, sowie – sehr indirekt – über welche welche ‚internen Selektionskriterien‘ ein System verfügt.

Die ‚internen Selektionskriterien‘ werden hier kurz ‚Präferenzen‘ genannt, also Strategien, ob eher ein A oder ein B ’selektiert‘ werden soll. Wonach sich solche Kriterien richten, bleibt dabei zunächst offen. Generell kann man sagen, dass solche Kriterien primär ‚endogen‘ begründet sein müssen, dass sie aber nachgeordnet auch von außen (‚exogen‘) übernommen werden können, wenn die inneren Kriterien eine solche Favorisierung des exogenen Inputs ‚befürworten‘ (Beispiel sind die vielen Imitationen im Lernen bzw. die Vielzahl der offiziellen Bildungsprozesse, durch die Menschen auf bestimmte Verhaltens- und Wissensmuster trainiert (programmiert) werden). Offen ist auch, ob die endogenen Präferenzen stabil sind oder sich im Laufe der Zeit ändern können; desgleichen bei den exogenen Präferenzen.

Am Beispiel der menschlichen Kulturen kann man den Eindruck gewinnen, dass das Finden und gemeinsame Befolgen von Präferenzen ein bislang offenes Problem ist. Und auch die neuere Forschung zu Robotern, die ohne Terminierung lernen sollen (‚developmental robotics‘), hat zur Zeit das Problem, dass nicht ersichtlich ist, mit welchen Werten man ein nicht-terminiertes Lernen realisieren soll. (Siehe: Merrick, 2017)) Das Problem mit der Präferenz-Findung ist bislang wenig bekannt, da die sogenannten intelligenten Programme in der Industrie immer nur für klar definierte Verhaltensprofile trainiert werden, die sie dann später beim realen Einsatz unbedingt einhalten müssen.  Im technischen Bereich spricht man hier oft von einer ’schwachen KI‘. (Siehe: VDI, 2018) Mit der hier eingeführten Terminologie  wären dies nicht-deterministische Systeme, die in ihrem Lernen ‚terminieren‘.

INTELLIGENZ

Bei der Analyse des Begriffs ‚Lernen‘ wird sichtbar, dass das, was gelernt wird, bei der Beobachtung des Verhaltens nicht direkt ’sichtbar‘ ist. Vielmehr gibt es eine allgemeine ‚Hypothese‘, dass dem äußerlich beobachtbaren Verhalten ‚interne Zustände‘ korrespondieren, die dafür verantwortlich sind, ob ein ’nicht-lernendes‘ oder ein ‚lernendes‘ Verhalten zu beobachten ist. Im Fall eines ‚lernenden‘ Verhaltens mit dem Auftreten von inkrementell sich mehrenden stabilen (S,R)-Paaren wird angenommen, das den (S,R)-Verhaltensformen ‚intern‘ entsprechende ‚interne Repräsentationen‘ existieren, anhand deren das System ‚entscheiden‘ kann, wann es wie antworten soll. Ob man diese abstrakten Repräsentationen ‚Wissen‘ nennt oder ‚Fähigkeiten‘ oder ‚Erfahrung‘ oder ‚Intelligenz‘ ist für die theoretische Betrachtung unwesentlich.

Die Psychologie hat um die Wende zum 20.Jahrhundert mit der Erfindung des Intelligenztests durch Binet und Simon (1905) sowie in Weiterführung durch W.Stern (1912) einen Ansatz gefunden, die direkt nicht messbaren internen Repräsentanten eines beobachtbaren Lernprozesses indirekt dadurch zu messen, dass sie das beobachtbare Verhalten mit einem zuvor vereinbarten Standard verglichen haben. Der vereinbarte Standard waren solche Verhaltensleistungen, die man Kindern in bestimmten Altersstufen als typisch zuordnete. Ein Standard war als ein Test formuliert, den ein Kind nach möglichst objektiven Kriterien zu durchlaufen hatte. In der Regel gab es eine ganze Liste (Katalog, Batterie) von solchen Tests. Dieses Vorgehensweisen waren sehr flexibel, universell anwendbar, zeigten allerdings schon im Ansatz, dass die Testlisten kulturabhängig stark variieren konnten. Immerhin konnte man ein beobachtbares Verhalten von einem System auf diese Weise relativ zu vorgegebenen Testlisten vergleichen und damit messen. Auf diese Weise konnte man die nicht messbaren hypothetisch unterstellten internen Repräsentationen indirekt qualitativ (Art des Tests) und quantitativ (Anteil an einer Erfüllung des Tests) indizieren.

Im vorliegenden Kontext wird ‚Intelligenz‘ daher als ein Sammelbegriff für die hypothetisch unterstellte Menge der korrespondierenden internen Repräsentanten zu den beobachtbaren (S,R)-Paaren angesehen, und mittels Tests kann man diese unterstellte Intelligenz qualitativ und quantitativ indirekt charakterisieren. Wie unterschiedlich solche Charakterisierung innerhalb der Psychologie modelliert werden können, kann man in der Übersicht von Rost (2013) nachlesen.

Wichtig ist hier zudem, dass in diesem Text die Intelligenz eine Funktion des Lernens ist, das wiederum von der Systemstruktur abhängig ist, von der Beschaffenheit der Umwelt sowie der Verfügbarkeit von Präferenzen.

Mehrdimensionaler Raum der Intelligenzrpräsentanen

Mehrdimensionaler Raum der Intelligenzrpräsentanen

Aus Sicht einer solchen allgemeinen Lerntheorie kann man statt biologischen Systemen auch programmierbare Maschinen betrachten. Verglichen mit biologischen Systemen kann man den programmierbaren Maschinen ein Äquivalent zum Körper und zur Umwelt spendieren. Grundlagentheoretisch wissen wir ferner schon seit Turing (1936/7), dass programmierbare Maschinen ihr eigenes Programm abändern können und sie prinzipiell lernfähig sind. Was allerdings (siehe zuvor das Thema Präferenz) bislang unklar ist, wo sie jeweils die Präferenzen herbekommen sollen, die sie für eine ’nachhaltige Entwicklung‘ benötigen.

ZUKUNFT VON MENSCH UND MASCHINE

Im Licht der Evolution erscheint die  sich beschleunigende Zunahme von Komplexität im Bereich der biologischen Systeme und deren Populationen darauf hinzudeuten, dass mit der Verfügbarkeit von programmierbaren Maschinen diese sicher nicht als ‚Gegensatz‘ zum Projekt des biologischen Lebens zu sehen sind, sondern als eine willkommene Unterstützung in einer Phase, wo die Verfügbarkeit der Gehirne eine rapide Beschleunigung bewirkt hat. Noch bauen die biologischen Systeme ihre eigenen Baupläne  nicht selbst um, aber der Umbau in Richtung von Cyborgs hat begonnen und schon heute ist der Einsatz von programmierbaren Maschinen existentiell: die real existierenden biologischen Kapazitätsgrenzen erzwingen den Einsatz von Computern zum Erhalt und für die weitere Entwicklung. Offen ist die Frage, ob die Computer den Menschen ersetzen sollen. Der Autor dieser Zeilen sieht die schwer deutbare Zukunft eher so, dass der Mensch den Weg der Symbiose intensivieren wird und versuchen sollte, den Computer dort zu nutzen, wo er Stärken hat und zugleich sich bewusst sein, dass das Präferenzproblem nicht von der Maschine, sondern von ihm selbst gelöst werden muss. Alles ‚Böse‘ kam in der Vergangenheit und kommt in der Gegenwart vom Menschen selbst, nicht von der Technik. Letztlich ist es der Mensch, der darüber entscheidet, wie er die Technik nutzt. Ingenieure machen sie möglich, die Gesellschaft muss entscheiden, was sie damit machen will.

BEISPIEL EINER NEUEN SYMBIOSE

Der Autor dieser Zeilen hat zusammen mit anderen KollegenInnen in diesem Sommer ein Projekt gestartet, das darauf abzielt, dass alle 11.000 Kommunen in Deutschland ihre Chancen haben sollten, ihre Kommunikation und Planungsfähigkeit untereinander dramatisch zu verbessern, indem sie die modernen programmierbaren Maschinen in neuer ‚intelligenter‘ Weise für ihre Zwecke nutzen.

QUELLEN

  • Kathryn Merrick, Value systems for developmental cognitive robotics: A survey, Cognitive Systems Research, 41:38 – 55, 2017
  • VDI, Statusreport Künstliche Intelligenz, Oktober 2018, URL: https://www.vdi.de/vdi-statusbericht-kuenstliche-intelligenz/ (zuletzt: 28.November 2018)
  • Detlef H.Rost, Handbuch der Intelligenz, 2013: Weinheim – Basel, Beltz Verlag
  • Joachim Funke (2006), Kap.2: Alfred Binet (1857 – 1911) und der erste Intelligenztest der Welt, in: Georg Lamberti (Hg.), Intelligenz auf dem Prüfstand. 100 Jahre Psychometrie, Vandenhoek & Ruprecht
  • Alfred Binet, Théodore Simon: Methodes nouvelles pour le diagnostiqc du niveau intellectuel des anormaux. In: L’Année Psychologique. Vol. 11, 1904, S. 191–244 (URL: https://www.persee.fr/doc/psy_0003-5033_1904_num_11_1_3675 )
  • William Stern, Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkinder, 19121: Leipzig, J.A.Barth
  • Alan M. Turing, On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, 42(2):230–265, 1936-7
  • Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

DAS WAS MENSCHSEIN AUSMACHT. Eine Notiz

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 8.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

  1. Während der Auseinandersetzung mit dem Buch von Edelman gab es unterschiedliche Wechselwirkungen mit anderen gedanklichen Prozessen. Ein Thema hier ist eine mögliche grundlegende Typologie von ‚Intelligenz‘.

  2. Vorab müsste man das Verhältnis des Begriffs ‚Intelligenz‘ zu Begriffen wie ‚Lernen‘, ‚Bewusstsein‘, ‚Geist‘ und ‚Gehirn‘ klären. Hier nur soviel, dass alle diese Begriffe ein ‚Gehirn‘ – oder eine vergleichbare materielle Struktur – zum Funktionieren voraussetzen. Allerdings kann das bloße Vorhandensein solcher materieller Strukturen nicht garantieren, dass es dann auch so etwas wie ‚Geist‘, ‚Bewusstsein‘, ‚Lernen‘ und ‚Intelligenz‘ gibt.

  3. Der Begriff ‚Geist‘ wird im Englischen als ‚mind‘ gerne und oft benutzt, um Besonderheiten im Verhalten des Homo sapiens zu ‚markieren‘. Allerdings ist dieser Begriff sehr diffus und bislang in keiner Theorie hinreichend erklärt.

  4. Meistens werden die Begriffe ‚Bewusstsein‘ und ‚Geist‘ sehr ähnlich benutzt, ohne dass deren Beziehung zueinander – wegen einer fehlenden Theorie – letztlich klar ist. Da unser ‚Zugang‘ zum Phänomen ‚Geist‘ irgendwie über das beobachtbare Verhalten und das ‚Bewusstsein‘ läuft, ist der Begriff ‚Geist‘ eher ein theoretischer Begriff innerhalb einer Theorie, die man auf der Basis von Bewusstseinsdaten formulieren würde. Mit dem Begriff ‚Bewusstsein‘ wäre dies ähnlich: würden wir alle erreichbaren Daten aus der 1.Person und 3.Person Perspektive sammeln, könnten wir eine Theorie bauen, die den theoretischen Term ‚Bewusstsein‘ enthält und damit indirekt ‚erklärt‘. Paradox würde es, weil der Begriff ‚Bewusstsein‘ dann nicht nur eine theoretische Beschreibung ‚von etwas‘ wäre, also einen ‚Gegenstand‘ der Beschreibung bilden würde, sondern zugleich auch den ‚Autor‘ der ‚Beschreibung‘ repräsentieren würde, allerdings nur indirekt. Der so theoretisch beschriebene ‚Gegenstand Bewusstsein‘ würde wesentliche Eigenschaften nicht enthalten. Für diesen Fall eines ‚Gegenstandes‘ der zugleich ‚Autor‘ ist gibt es bislang keinen akzeptierten Theoriebegriff.

  5. Der ‚wissenschaftliche Intelligenzbegriff‘ orientiert sich am beobachtbaren Verhalten und definierten Referenzpunkten. Dieses Verfahren wurde seit gut 100 Jahren auf den Homo sapiens angewendet und dann auf viele andere biologische Systeme verschieden vom Homo sapiens. Man könnte grob von ‚Menschlicher Intelligenz‘ sprechen und von ‚Tierischer Intelligenz‘ mit vielen Überschneidungen.

  6. Daneben gibt es heute eine ‚Maschinelle Intelligenz‘, die bislang aber in keiner allgemein akzeptierten Form beschrieben und untersucht wird. Die Beziehung zur ‚menschlichen‘ und ‚tierischen‘ Intelligenz wurde bislang nicht systematisch untersucht.

  7. Im Alltag, in den Medien, in der Kunst gib es eine ‚fiktive Intelligenz‘, der man nahezu alles zutraut, ohne dass klar ist, ob dies wirklich möglich ist. Die ‚fiktive Intelligenz‘ ist gleichsam eine Art ‚Sammelpunkt‘ aller Projektionen von dem, was Menschen sich unter ‚Intelligenz‘ vorstellen können.

  8. Durch die Koexistenz von Menschen und neuer Informations-Technologie kann es zu einer neuen ‚hybriden Intelligenz‘ kommen, in der menschliche und maschinelle Intelligenz auf neue Weise symbiotisch zusammen wirken. Dazu gibt es bislang kaum Forschungen; stattdessen versucht man, die maschinelle Intelligenz möglichst unabhängig vom Menschen und oft in Konkurrenz und im Gegensatz zu ihm zu entwickeln. Zugleich verbleibt die Forschung zur menschlichen Intelligenz auf niedrigem Niveau; viele – die meisten? – wichtigen Eigenschaften sind weiterhin unerforscht. Beides zusammen blockiert die Entwicklung von wirklich starken, neuen Intelligenzformen.

  9. Durch die ungelöste Paradoxie von zugleich ‚Gegenstand‘ und ‚Autor‘ bleiben viele wichtige, vielleicht die wichtigsten, Eigenschaften menschlicher Intelligenz im Verborgenen. Es gibt hier einen Erkenntnismäßigen ‚blinden Fleck‘ der nur sehr schwer aufzulösen ist.

  10. Wenn man sieht, wie in vielen Ländern dieser Erde, auch in jenen, in denen man glaubte, viele ‚primitive‘ Sichten zur Welt, zum Leben, zum Menschen überwunden zu haben, große Teile der Bevölkerung und der politischen Leitinstitutionen wieder in solche ‚primitiveren‘ Sichten und Verhaltensweisen zurückfallen und darin zunehmend Anhänger finden, dann kann man dies als Indikator dafür nehmen, dass differenziertere, komplexere Sichten des Lebens und die dazu gehörigen Verhaltenskomplexe keine Automatismen darstellen. Nur weil jemand, eine Gruppe, eine Population zu einer bestimmten Zeit einmal eine ‚Einsicht‘ hatte, ein aus dieser Einsicht resultierendes ‚praktisches Lebenskonzept umgesetzt hat‘, folgt nicht automatisch, dass diese Einsicht in den Individuen der Population ‚am Leben bleibt‘. Die Struktur und Dynamik eines einzelnen Homo-sapiens-Exemplars ist von solch einer Komplexität, dass nur maximale Anstrengungen dieses Potential an Freiheit zu einer ‚konstruktiven Lebensweise‘ motivieren können. Dabei ist das Wort ‚motivieren‘ wichtig. Im Homo sapiens kulminiert die ‚Freiheit‘, die sich in der Materie und Struktur des gesamten Universums samt den biologischen Strukturen grundlegend findet, zu einem vorläufigen ‚Optimum‘, das sich jeder vollständigen ‚Verrechnung‘ in fixierte Strukturen widersetzt. Man kann einen Homo sapiens einsperren, töten, mit Drogen willenlos machen, durch Entzug von materiellen Möglichkeiten seiner Realisierungsbasis berauben, durch falsche Informationen und Bildungen fehlleiten, man kann aber seine grundlegende Freiheit, etwas ‚Anderes‘, etwas ‚Neues‘ zu tun, dadurch nicht grundlegend aufheben. In der Freiheit jedes einzelnen Homo sapiens lebt potentiell die mögliche Zukunft des gesamten Universums weiter. Ein unfassbarer Reichtum. Die größte Lüge und das größte Verbrehen an der Menschlichkeit und am Leben überhaupt ist daher genau diese grundlegende Eigenschaft des Homo sapiens zu verleugnen und zu verhindern.

  11. Natürlich hat der Homo sapiens noch weitere grundlegende Eigenschaften über die zu sprechen gut tun würde.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

DUMMHEIT – INTELLIGENZ -MENSCHENWÜRDE. Gefährliche Tabus. Eine Notiz

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 4.August 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

IDEE

‚Intelligenz’ ist in aller Munde … was ist mit ’Dummheit’? Kollidiert ein Reden über Dummheit mit ’Menschenwürde’? Globalisierung frag nur nach Leistungsfähigkeit …

I. KÜNSTLICHE INTELLIGENZ SCHEINT ZU GEHEN …

Spätestens seit der Cebit 2016 ist das Wort von der ’künstlichen Intelligenz’ in Deutschland gesellschaftsfähig geworden. Plötzlich ist vieles ’intelligent’ oder ’smart’ und im Rausch der Worte fällt oft gar nicht mehr auf, dass die Bedeutung von ’Intelligenz’ seitdem eher noch unklarer ist als vorher. Wenn plötzlich alles ’smart’ genannt wird, was nur die leisesten Zuckungen zeigt, und jeder über smarte,intelligente Dinge reden kann ohne erklären zu müssen, woher er sein Wissen hat, dann ist der Zustand eines ’fake Wissens’, eines ‚vorgetäuschten Wissens‘, potentiell nicht mehr weit. Es fällt auch kaum auf, dass diese Inflation des Redens über ’Intelligenz’ ausgelöst wurde durch Technologie, durch Geräte, durch Maschinen. Über die Intelligenz von Menschen zu reden ist bislang genau so verpönt wie früher; über die Intelligenz von Maschinen zu reden gilt als ’chic’, man ist ’in’. Von intelligenten Menschen zu sprechen ist eher ’un-chic’.

Dies hält viele nicht davon ab, dem Menschen zumindest die notwendige Intelligenz für die Zukunft von vornherein abzusprechen. Im Kontext von Maschinen, denen man bereitwillig ’Smartheit’, ’Intelligenz’ zu spricht ohne dass es einen klaren Intelligenzbegriff gibt, sind erstaunlich viele Menschen bereit, dem Menschen im Vergleich zu Maschinen jene notwendige Intelligenz abzusprechen, von der man glaubt, dass diese für die Bewältigung der Zukunft notwendig sei.

II. WISSENSVERMITTLUNG KONKRET …

Szenewechsel: seit  Herbst 2001 hatte (und habe) ich Gelegenheit, als Hochschullehrer an einer Hochschule für angewandte Wissenschaften zu unterrichte, die offiziell Studierende aus mehr als100 verschiedene Nationen hat. Im Laufe der Jahre konnte ich zu 10 verschiedenen Sachgebieten unterrichten, in kleinen Gruppen von 5-7 bis hin zu größeren Gruppen von 150 und mehr. Es gab viele verschiedene Formate von klassischer Vorlesung bis hin zu unterschiedlichen Seminarformen, Projektarbeiten, und Abschlussarbeiten in Form von Diplom, Bachelor- und Masterthesen; in vielen Fällen gab es auch Abfolgen von interdisziplinären Projekten, die sich über drei Semester erstreckten (ein ’Semester’ in Hessen dauert z.B. von April bis Juli oder von Oktober bis Februar). Seit 2005 überwog das forschende Lernen organisiert in Projektteams, meistens sogar als interdisziplinäre Projektteams (Studierende aus mindestens zwei verschiedenen Fachbereichen, meistens drei bis vier verschiedenen) im Rahmen von Master-Studiengängen. Bei den interdisziplinären Veranstaltungen unterrichtete man zudem in Teams von drei ProfessorenInnen aus drei verschiedenen Fachbereichen.

Wenngleich bei allen diesen Veranstaltungen das ’Entstehen von Wissen, Erfahrungen und Kompetenzen’ im Studierenden im Vordergrund steht, verlangt das System Hochschule eine belastbare Überprüfung des erworbene Wissens und der erworbenen Fähigkeiten am Ende eines jeden Semesters. Dies ist zwar bei allen Beteiligten unbeliebt (auch bei den Prüfenden), erscheint aber notwendig, will man eine verlässliche Rückkopplung darüber haben, welche ’Wirkungen’ denn das Geschehen in einem Semester in einem überprüfbaren Sinn auf die Studierenden hatte. Dies ist für die Studierenden wichtig, um eine Rückmeldung zu bekommen, wie das, was sie von sich zeigen, von ihrer Umwelt wahrgenommen wird; für die Lehrenden, dass sie ein Gefühl dafür bekommen können, wie ihre Aktivitäten sich auswirken; und letztlich für die Institution Studiengang/ Fachbereich/ Hochschule, ob sie dem Bedarf jener Gesellschaft gerecht wird, für die sie diese ’Bildungsprozesse’ organisiert.

Obwohl es unterschiedliche Prüfungsformen gibt (mündlich, schriftlich, Projekt-Präsentationen, wissenschaftlichen Artikel schreiben, kumulative Übungen, usw., dazu verschiedene Kombinationen davon (z.B. Projektarbeit mit Präsentation, begleitend dazu einen wissenschaftlichen Artikel schreiben, und ein individuelles Gespräch am Schluss), dazu mindestens jeweils zwei Prüfer, bisweilen mehr), ist jede Prüfung im Kern ein ’Messvorgang’: ein zu Prüfendes wird mit einem zuvor vereinbarten Standard verglichen. In der Physik vertraute Standards sind z.B. ’1 Meter’, ’1 Kilogramm’, ’1 Sekunde’ usw. und man vergleicht die zu vermessende Objekte mit diesen Standards, um sich zu vergewissern, ’wie räumlich ausgedehnt’, ’wie schwer’, wie ’zeitlich ausgedehnt’ das zu vermessende Objekt ist. Im Fall von Prüfungen im Rahmen der Lehre verlangt das Gesetz, dass man nur Prüfungsformen benutzt, die zuvor von der Institution vereinbart wurden. Dazu gehören auch vorgeschriebene Formen der Protokollierung des Prüfungsgeschehens.

Bei der Angabe jener Standards, die im Bereich von Hochschulen relevant sind, wird es schon bei der Formulierung der Standards schwierig, da es sich bei der Vermittlung wissenschaftlichen Wissens und der zugehörigen wissenschaftlichen Praxis nicht nur grundsätzlich um komplexe Sachverhalte handelt,sondern auch um Strukturen und Inhalte, die sich im Laufe der Jahre verändern können und real z.T. sehr schnell ändern. Dies führt einmal zum Problem der Aktualität der Kompetenzen von Hochschullehrern –wie können diese sich ’auf dem Laufenden’ halten – wie auch zum Problem, wie man solche dynamischen komplexen Strukturen und Inhalte jedes Semester neu so ’verpacken’, ’anordnen’, ’organisieren’ kann, dass Studierende eine faire Chance haben, diese Inhalte, Praktiken und Kompetenzen ’in sich selbst’ so ‚organisieren’ zu können, das sie diese dann ’selbständig’ und zusammen mit anderen bei entsprechenden Aufgabenstellungen ’angemessen’ ’anwenden’ können. Die hierzu notwendigen vielfältigen Wissens- und Erfahrungs-Transferleistungen einmal großzügig eingeschlossen.

Die gesetzlichen Vorschriften zur Überprüfbarkeit von Prüfungsleistungen (Was war der Standard?Wie wurde er gemessen? Ist das Leistungsmaß angemessen? …) im Verbund mit einem starken Anstieg von juristischen Klagen von Studierenden, die mit Prüfungsleistungen nicht einverstanden sind, führt tendenziell dazu, dass extrem vereinfachte Prüfungsformen favorisiert werden, die juristisch schwer angreifbar sind, aber rein sachlich mit dem offiziell zu vermittelnden Wissen, Fähigkeiten und Kompetenzen nur noch wenig zu tun haben. Diese Form der Leistungsüberprüfung nützt niemandem, sie schadet vielmehr  objektiv allen Beteiligten: die Studierenden bekommen keine fairen und brauchbaren Rückmeldungen mehr; die Lehrenden können mit diesen Rückmeldungen nahezu nichts darüber erfahren, ob ihre Weise der Lehre ’gut’ ist; und die Gesellschaft bekommt Absolventen, die zu einem hohen Grade möglicherweise genau das nicht können, was die Gesellschaft dringend bräuchte.

III. DUMMHEIT …

Während die empirische Psychologie seit mehr als 100 Jahren zum Thema ’Intelligenz’ viele interessante und sehr brauchbare Beiträge geleistet hat (die in der Mainstream-Diskussion zur künstlichen Intelligenz bislang aber keinen Eingang gefunden haben), gibt es zum Begriff ’Dummheit’ so gut wie nichts. Auch scheinen diese Begriffe ’gesellschaftlich’ nicht neutral zu sein. Sagt man von einem Menschen, er sei ’intelligent’, wird dies eher als etwas ’Positives’ aufgefasst; nennt man einen Menschen dagegen ’dumm’ wird dies sogleich als ’abwertend’, ’negativ’, ja, geradezu als beleidigend aufgefasst.Darüber spricht man nicht. Man könnte dies eine ’Tabuisierung’ nennen, eine, die extrem gefährlich ist.

Mich hat das Thema ’Dummheit’ eigentlich nie besonders interessiert.

Seitdem ich unterrichten durfte und mit dem Thema ’Prüfungen’ konfrontiert wurde, wandelte sich dies. Lässt man mal alle Details zu der Komplexität von Lehrinhalten, Lehrformen und verschiedenen Prüfungsformen beiseite, dann reproduziert sich mit jedem Semester folgender Sachverhalt: (i)während des Semesters werden die Studierenden mit unterschiedlichen Wissensinhalten, Methoden, Situationen und Vorgehensweisen konfrontiert. (ii) Ein Teil der Studierenden greift diese Anregungen auf, experimentiert damit herum, stellen eigene Experimente an, recherchieren auf eigene Faust, machen sich ihre eigenen Gedanken, stellen ständig Fragen, und am Schluss können sie nicht nur die vorgestellten Inhalte, Methoden etc. verständlich beschreiben, sondern sie überraschen mit eigenen Weiterentwicklungen, eigenen neuen Gedanken als Reaktion auf das Vorgestellte. Dies alles dazu  in lebendigem Austausch innerhalb eines selbst organisierten Team. (iii) Ein anderer Teil der Studierenden zeigt wenig Reaktionen, ist oft nicht da (es gibt keine Anwesenheitspflicht laut Gesetz), stellt praktisch nie Fragen, lässt wenig Eigenproduktion erkennen.Darauf angesprochen, lassen sich wenige Reaktionen erkennen. Bisweilen kommen doch Fragen zu einzelnen Sachverhalten; diese werden durchgesprochen, erklärt; und nach einiger Zeit werden die gleichen Fragen wieder gestellt; ich beantworte auch diese Fragen ausführlich, auch noch ein weiteres Mal …. Am Schluss sind diese Studierenden nicht in der Lage, die wesentlichen Inhalte/ Vorgehensweisen… angemessen zu beschreiben; sie haben keine eigene Ideen oder, wenn sie welche haben, passen sie kaum zusammen mit den eingeführten Normen und Methoden, die es anzuwenden gilt; Probleme, die zuvor mehrfach durch diskutiert wurden, werden trotz aller Diskussionen genauso vorgetragen, wie sie gerade nicht behandelt werden sollten (nach zuvor vereinbarten Sachverhalten/ Normen…). Positionen aus der wissenschaftlichen Literatur werden trotz vielfacher Beispiele und Anregungen nicht wahrgenommen. (iv) Zwischen dem Typ (ii) und (iii) gibt es natürlich viele fließende Übergänge, aber Typ(ii) und (iii) sind real in jedem Semester erlebbar.

Würde ich als Lehrender nur den Typ (iii) erleben, würde ich vermutlich sehr bald an mir selbst zweifeln, ob ich letztlich alles ’falsch’ mache. Da es aber – zum Glück – bislang immer auch Typ (ii)Studierende gab und gibt, weiß ich, dass das ’Ergebnis’ am Ende des Semesters nur z.T. von mir als Lehrendem abhängt. Mein eigenes Verhalten X erzeugt bei Typ (ii) Studierenden ein X ii -Ergebnis, und bei den Typ (iii) Studierenden ein X iii -Ergebnis, mit allen möglichen Mischformen dazwischen. Ob meine Lehre wegen den X ii -Ergebnissen automatisch als ’gut’ bezeichnet werden kann, folgt aus diesem Sachverhalt nicht notwendigerweise. Man könnte die Position vertreten, dass Typ (ii) Studierende immer gute Ergebnisse abliefern, egal wie gut oder schlecht ein Lehrender ist, und entsprechend, dass Typ (iii) Studierende immer schlechte Ergebnisse abliefern, unabhängig vom Lehrenden.

Bei solchen Themen, die man über viele Semester mit unterschiedlichen Studierendengruppen unterrichten konnte (ich habe ein Thema, das konnte ich 26 Semester unterrichten, abwechselnd mit deutschen und englischen Kursen und Studierenden aus vielen Nationen) kann man Inhalte und Formen variieren (zeitweilig konnte ich das Fach auch im Duo zusammen mit einer frisch gebackenen Doktorandin unterrichten). An der grundsätzlichen Situation hat sich nie etwas geändert.

Vor diesem Hintergrund habe ich dann mal die Arbeitshypothese formuliert, dass das Verhalten der Typ (ii) Studierenden möglicherweise mit ’Lernfähigkeit’ und ’Intelligenz’ assoziiert werden kann (ohne dass diese Begriffe dadurch schon ausreichend definiert wären), und das Verhalten der Typ (iii) Studierenden eben mit einer ’mangelnden Lernfähigkeit’ und einer ’kaum erkennbaren Intelligenz’. Diese Kombination aus ’mangelnder Lernfähigkeit’ und ’kaum erkennbaren Intelligenz’ würde ich dann versuchsweise mal mit dem begriff ’Dummheit’ assoziieren, ohne dass dies schon alles ’definieren’ würde. ’Dummheit’ wäre dann eine beobachtbare und reproduzierbare Verhaltenseigenschaft, die darauf hinweist, dass eine Person, die solch ein Verhalten zeigt, nicht oder nur sehr begrenzt in der Lage ist, aus ihrer Wahrnehmung von der Welt jene Schlüsse zu ziehen, jenes eigenes Verhalten zu motivieren, durch das sie in ihrem Verstehen von Welt, von den anderen, von sich selbst, zu neuen Einsichten und zu neuen lebenserweiternden Verhalten kommen könnte.

’Dumme’ Menschen wären also solche, die in ihrer Wahrnehmung, in ihrem Denken, in ihrem Verhalten tendenziell ’verharren’, obgleich die Welt um sie herum sich in ständiger Bewegung befindet.

IV. MENSCHEN WÜRDE

Auf den ersten Blick mag es weit hergeholt erscheinen, die Diskussion um Typ-ii intelligente Studierende und um Typ-iii dumme Studierende in einen Zusammenhang mit dem Grundgesetz der Bundesrepublik Deutschland zu bringen, und hier mit dem Art 1. (1), in dem es heißt, dass die Würde des Menschen unantastbar ist. Sie zu achten und zu schützen ist Verpflichtung aller staatlichen Gewalt.Diese Position von der Würde des Menschen als unantastbarem höchsten Gut betrachte ich persönlich als eine (oder die?) größte Errungenschaft der europäischen Aufklärung (nicht der christlichen Kirchen!). Aber gerade dann, wenn man dies tut, zugleich aber die empirische Realität zur Kenntnis nehmen muss, dass es tatsächlich ’dumme’ und ’intelligente’ Menschen gibt, und dass die ’dummen’ Menschen viele wichtige Aufgaben in der Gesellschaft und in der Wirtschaft nur begrenzt erfüllen können, muss man sich die Frage stellen, wie die Gesellschaft mit diesem Sachverhalt umgeht: Wenn ich einen Menschen als Menschen ernst nehme, seine Würde achten will, zugleich aber sehe, er kann wichtige Aufgaben nicht genügend erfüllen, wie gehe ich dann damit um? Offensichtlich brauchen wir über die rein sachlich-funktionalen Kriterien hinaus eine Art der gegenseitigen Wertschätzung, die unabhängig von der funktionalen Leistungsfähigkeit ist, wobei wir diese Leistungsfähigkeit aber lebensnotwendig brauchen! Wenn Deutschland nicht mehr in der Lage ist, Flughäfen, Verkehrssysteme, Energiesysteme, Ausbildungssysteme usw. mit der notwendigen Qualität in akzeptabler Zeit zu bezahlbaren Preisen zu bauen bzw. zu betreiben, dann werden wir alle zusammen zu einem Absteigerland degenerieren, dem dann alle Ressourcen fehlen werden, sich da wieder heraus zu schaffen.

Neben dem Aspekt Dummheit/ Intelligenz kann man natürlich auch beobachten, dass scheinbar ’intelligente’ Menschen aufgrund ihrer emotionalen Struktur viel Schaden anrichten können. Das wäre ein anderes Thema.

V. GLOBALISIERUNG …

Während wir uns in Deutschland noch an unseren aktuellen wirtschaftlichen Erfolgen berauschen, gerät ein wenig aus dem Blick, dass ein Land wie China Deutschland mittlerweile in vielen Bereichen von Leistungsfähigkeit bei weitem übertrifft, und in den  wenigen Bereiche, wo dies noch nicht der Fall ist, ist es nur mehr eine Frage von wenigen Jahren, bis dies der Fall sein wird.

Während China weltweit einen radikalen Kampf um Steigerung seiner Leistungsfähigkeit in Ausbildung, Forschung und industrieller Leistung führt, baut Deutschland zur gleichen Zeit seine Qualität in Ausbildung, Forschung, Technologieentwicklung und Infrastrukturen dramatisch ab. Mit Kosteneinsparungen lässt sich nun mal keine Qualität erzeugen. Auf Dauer entscheidet aber immer nur die Qualität! Der schieren Zahl der Ingenieure in China und ihrer wachsenden Qualität hat Deutschland in seinem aktuellen Betriebsmodus auf Dauer wenig entgegen zusetzen. … ein Thema mit sehr vielen Aspekten…

VI. WEITERE LEKTÜRE

Erste interessante weitere Lektürehinweise finden sich in der Deutschen Wikipedia zu ’Dummheit’ und in der Englischen Wikipedia zu ’Stupidity’. Systemtheoretisch interessant und vermutlich weiter entwickelbar sind die Thesen von Carlo M. Cipolla, Professor für Wirtschaftswissenschaften, Universität von Kalifornien in Berkeley, mit dem Titel ” The Basic Laws of Human Stupidity”, abgedruckt in der Zeitschrift ”Whole Earth Review”, Frühjahr 1987 (http://www.extremistvector.com/content/stupid.html). Dazu auch der Wikipediaeintrag-EN zu Cipolla (https://en.wikipedia.org/wiki/Carlo M. Cipolla).

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

KÜNSTLICHE INTELLIGENZ (KI) – CHRISTLICHE THEOLOGIE – GOTTESGLAUBE. Ein paar Gedanken

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
24.Juni 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

VORBEMERKUNG

Der folgende Text wurde im September in einer christlichen Zeitschrift veröffentlicht [*]. Es war (und ist) ein ‚experimenteller Text‘, bei dem ich versucht habe, auszuloten, was gedanklich passiert, wenn man die beiden Themenkreise ‚Glaube an Gott im   Format christlicher Theologie‘ mit dem Themenkreis ‚Künstliche Intelligenz‘ zusammen führt. Das Ergebnis kann überraschen, muss aber nicht. Dieser ganze Blog ringt von Anbeginn um das Verhältnis von Philosophie, Wissenschaft (mit Technologie) und dem Phänomen der Spiritualität als Menschheitsphänomen, und die christliche Sicht der Dinge (die in sich ja keinesfalls einheitlich ist), ist nur eine Deutung von Welt unter vielen anderen. Wer die Einträge dieses Blogs durch mustert (siehe Überblick) wird feststellen, dass es sehr viele Beiträge gibt, die um die Frage nach Gott im Lichte der verfügbaren Welterfahrung kreisen. Die aktuelle Diskussion von W.T.Stace’s Buch ‚Religion and the Modern Mind‘ (Beginn mit Teil 1 HIER) setzt sich auch wieder   mit dieser Frage auseinander.

INHALT BEITRAG

Im Alltag begegnen wir schon heute vielfältigen Formen von Künstlicher Intelligenz. Bisweilen zeigt sie sehr menschenähnliche Züge. In Filmen werden uns Szenarien vorgeführt, in denen Superintelligenzen zukünftig die Herrschaft über uns Menschen übernehmen wollen. Wie verträgt sich dies mit unserem Menschen-und Gottesbild? Macht Glauben an Gott dann noch Sinn?

I. KI IST SCHON DA …

Vielen Menschen ist gar nicht bewusst, wo sie im Alltag schon mit Programmen der Künstlichen Intelligenz (KI) zu tun haben. Schaut man sich aber um, wird man entdecken, dass Sie scheinbar schon überall am Werk ist. Hier ein paar Stichworte: Kundenanfragen werden immer mehr durch KI-Programme bestritten. In der Logistik: In Lagerhallen und ganzen Häfen arbeiten intelligente Roboter, die wiederum von anderen KI-Programmen überwacht und optimiert werden. Ähnliches in Fabriken mit Produktionsstraßen. Für die Wartung von Maschinenbenutzen Menschen Datenhelme, die über ein KI-Programm gesteuert werden und die dem Menschensagen, was er sieht, und wo er was tun soll. In der Landwirtschaft sind die beteiligten Maschinen vernetzt, haben KI-Programme entweder an Bord oder werden über Netzwerke mit KI-Programmen verbunden: diese kontrollieren den Einsatz und steuern Maßnahmen. Auf den Feldern können diese Maschinen autonom fahren. Im Bereich Luftfahrt und Schifffahrt können sich Flugzeuge und Schiffe schon heute völlig autonom bewegen, ebenso beim LKW-Verkehr und auf der Schiene. Durch das Internet der Dinge (IoT) wird gerade der Rest der Welt miteinander vernetzt und damit einer zunehmenden Kontrolle von KI-Programmen zugänglich gemacht. In der Telemedizin ist dies schon Alltag: Ferndiagnose und Fernbehandlung sind auf dem Vormarsch. Schon heute wird für die Diagnose schwieriger und seltener Krankheiten KI eingesetzt, weil sie besser ist als ganze Gruppen menschlicher Experten. Viele komplizierte Operationen – speziell im Bereich Gehirn – wären ohne Roboter und KI schon heute unmöglich. KI-Programme entschlüsseln das Erbgut von Zellen, Suchen und Finden neue chemische Verbindungen und pharmakologische Wirkstoffe.

In der Finanzwirtschaft haben KI-Programme nicht nur den Handel mit Aktien und anderen Finanzprodukten übernommen (Stichwort: Hochfrequenzhandel), sondern sie verwalten auch zunehmend das Vermögen von Privatpersonen, übernehmen den Kontakt mit den Kunden, und wickeln Schadensfälle für Versicherungen ab. Bei anwaltlichen Tätigkeiten werden Routineaufgaben von KI-Programmen übernommen. Richter in den USA lassen sich in einzelnen Bundesländern mit KI-Programmen die Wahrscheinlichkeit ausrechnen, mit der ein Angeklagter wieder rückfällig werden wird; dies wird zum Schicksal für die Angeklagten, weil die Richter diese Einschätzungen in ihr Urteil übernehmen. Das Militär setzt schon seit vielen Jahren in vielen Bereichen auf KI-Programme. Zuletzt bekannt durchfliegende Kampfroboter (Drohnen). Dazu weltweite Ausspähprogramme von Geheimdiensten, die mit Hilfe von KI-Programmen gewaltige Datenströme analysieren und bewerten.Diese Aufzählung mag beeindruckend klingen, sie ist aber nicht vollständig. In vielen anderen Bereichen wie z.B. Spielzeug, Online-Spiele, Musikproduktion,Filmproduktion, Massenmedien, Nachrichtenproduktion,… sind KI-Programme auch schon eingedrungen. So werden z.B. mehr und mehr Nachrichtentexte und ganze Artikel für Online-Portale und Zeitungen durch KI-Programme erstellt; Journalisten waren gestern. Dazu hunderttausende von sogenannten ’Bots’ (Computerprogramme, die im Internet kommunizieren, als ob sie Menschen wären), die Meinungen absondern, um andere zu beeinflussen. Was bedeuten diese Erscheinungsformen Künstlicher Intelligenz für uns?

A. Freund oder Konkurrent?

Bei einem nächtlichen Biergespräch mit einem der berühmtesten japanischen Roboterforschern erzählte er aus seinem Leben, von seinen Träumen und Visionen. Ein Thema stach hervor: seine Sicht der Roboter. Für ihn waren Roboter schon seit seiner Kindheit Freunde der Menschen, keinesfalls nur irgendwelche Maschinen. Mit diesen Roboter-Freunden soll das Leben der Menschen schöner, besser werden können. In vielen Science-Fiction Filmen tauchen Roboter in beiden Rollen auf: die einen sind die Freunde der Menschen, die anderen ihre ärgsten Feinde; sie wollen die Menschen ausrotten, weil sie überflüssig geworden sind. Bedenkt man, dass die Filme auf Drehbüchern beruhen, die Menschen geschrieben haben, spiegelt sich in diesem widersprüchlichen Bild offensichtlich die innere Zerrissenheit wieder, die wir Menschen dem Thema Roboter, intelligenten Maschinen, gegenüber empfinden. Wir projizieren auf die intelligenten Maschinen sowohl unsere Hoffnungen wie auch unsere Ängste, beides übersteigert, schnell ins Irrationale abrutschend.

B. Neue Verwundbarkeiten

Ob intelligente Maschinen eher die Freunde der Menschen oder ihre Feinde sein werden, mag momentan noch unklar sein, klar ist jedoch, dass schon jetzt der Grad der Vernetzung von allem und jedem jeden Tag einen realen Raum mit realen Bedrohungen darstellt. Global operierenden Hacker-Aktivitäten mit Datendiebstählen und Erpressungen im großen Stil sind mittlerweile an der Tagesordnung. Während die einen noch versuchen, es klein zu reden, lecken andere schon längst ihre Wunden und es gibt immer mehr Anstrengungen, diesen Angriffen mehr ’Sicherheit’ entgegen zu setzen. Doch widerspricht das Prinzip der Zugänglichkeit letztlich dem Prinzip der vollständigen Abschottung. Wenn die Vernetzung irgendeinen Sinn haben soll, dann eben den, dass es keine vollständige Abschottung gibt. Dies läuft auf die große Kunst einer ’verabredeten Abschottung’ hinaus: es gibt eine ’bestimmte Datenkonstellation, die den Zugang öffnet’. Dies aber bedeutet, jeder kann herumprobieren, bis er diese Datenkonstellation gefunden hat. Während die einen KI-Programme einsetzen, um diese Datenschlüssel zu finden, versuchen die anderen mit KI-Programmen, mögliche Angreifer bei ihren Aktivitäten zu entdecken. Wie dieses Spiel auf lange Sicht ausgehen wird, ist offen. In der Natur wissen wir, dass nach 3.8 Milliarden Jahren biologischem Leben die komplexen Organismen bis heute beständig den Angriffen von Viren und Bakterien ausgeliefert sind, die sich um Dimensionen schneller verändern können, als das biologische Abwehrsystem(das Immunsystem) lernen kann. Die bisherige Moral aus dieser Geschichte ist die, dass diese Angriffe bei komplexen Systemen offensichtlich ko-existent sind, dazu gehören. Nur ein schwacher Trost ist es, dass der beständige Abwehrkampf dazu beiträgt, die Systeme graduell besser zu machen. Mit Blick auf diese fortschreitende Vernetzung ist es wenig beruhigend, sich vorzustellen, dass es in ca. 70- 90 Jahren (wie viele vermuten) (Anmerkung: Siehe dazu eine längere Argumentation im 1.Kap. von Bostrom (2014) [Bos14]) tatsächlich eine echte technische Superintelligenz geben wird, die allen Menschen gegenüber überlegen ist; eine solche technische Superintelligenz könnte im Handumdrehen alle Netze erobern und uns alle zu ihren Gefangenen machen. Nichts würde mehr in unserem Sinne funktionieren: die Super-KI würde alles kontrollieren und uns vorschreiben, was wir tun dürfen. Über das Internet der Dinge und unsere Smartphones wäre jeder 24h unter vollständiger Kontrolle. Jede kleinste Lebensregung wäre sichtbar und müsste genehmigt werden. Ob und was wir essen, ob wir noch als lebenswert angesehen werden …

C. Noch ist es nicht soweit …

Zum Glück ist dieses Szenario einer menschenfeindlichen Superintelligenz bislang nur Science-Fiction. Die bisherigen sogenannten KI-Programme sind nur in einem sehr eingeschränkten Sinne lernfähig. Bislang sind sie wie abgerichtete Hunde, die nur das suchen,was ihnen ihre Auftraggeber vorgeben, zu suchen. Sie haben noch keine wirkliche Autonomie im Lernen, sie können sich noch nicht selbständig weiter entwickeln(nur unter speziellen Laborbedingungen). Allerdings sammeln sie Tag und Nacht fleißig Daten von allem und jedem und erzeugen so ihre einfachen Bilder von der Welt: z.B. dass die Männer im Alter von 21 in der Region Rhein-Main mit Wahrscheinlichkeit X folgende Gewohnheiten haben …. Herr Müller aus der Irgendwo-Straße hat speziell jene Gewohnheiten …. seine Freunde sind … Es gibt eine hohe Wahrscheinlichkeit dass er Partei Y wählen wird … dass er in drei Monaten ein neues Auto vom Typ X kaufen wird ….am liebsten klickt er folgende Adressen im Internet an …

In den Händen von globalen Firmen, anonymen Nachrichtendiensten, autoritären Regierungen oder verbrecherischen Organisationen können allerdings schon diese Daten zu einer echten Bedrohung werden, und diese Szenarien sind real. Die Rolle der bösen Superintelligenz wird hier bis auf weiteres noch von Menschen gespielt; Menschen haben in der Vergangenheit leider zur Genüge bewiesen, dass sie das Handwerk des Bösen sehr gut beherrschen können…Es stellt sich die Frage, ob sich die bisherigen einfachen künstlichen Intelligenzen weiter entwickeln können? Lernen künstliche Intelligenzen anders als Menschen? Welche Rolle spielen hier Werte? Sind Werte nicht ein altmodischer Kram, den nur Menschen brauchen (oder selbst diese eigentlich nicht)? Schließlich, wo kommt hier Gott ins Spiel? Tangieren künstliche Intelligenzen den menschlichen Glauben an Gott überhaupt?

II. WAS IST ’KÜNSTLICHE INTELLIGENZ’

Für eine Erkundungsreise in das Land der Künstlichen Intelligenz ist die Lage nicht ganz einfach, da das Gebiet der KI sich mittlerweile sehr stürmisch entwickelt. Immer mehr Konzepte stehen nebeneinander im Raum ohne dass es bislang allgemein akzeptierte Theorie- und Ordnungskonzepte gibt. (Anmerkung: Für zwei sehr unterschiedliche historische Rückblicke in das Thema sei verwiesen auf Mainzer (1995) [Mai95] und Nilsson (2010) [Nil10]. Für eine sehr populäre, wenngleich methodisch problematische, Einführung in den Stand der Disziplin siehe Russel und Norvik (2010) [RN10]).

Wir besuchen hier für einen Einstieg einen der großen Gründungsväter ganz zu Beginn 1936 – 1950 Alan Matthew Turing, und dann für die Zeit 1956 – 1976 Alan Newell und Herbert A.Simon. (Anmerkung: Simon war auch ein Nobelpreisträger im Gebiet der Wirtschaftswissenschaften 1978.) Dann schauen wir noch kurz in allerneueste Forschungen zum Thema Computer und Werte.

A. Am Anfang war der Computer

Wenn wir von künstlicher Intelligenz sprechen setzen wir bislang immer voraus, dass es sich um Programme (Algorithmen) handelt, die auf solchen Maschinen laufen, die diese Programme verstehen. Solche Maschinen gibt es seit 1937 und ihre technische Entwicklung hing weitgehend davon ab, welche Bauteile ab wann zur Verfügung standen. Das Erstaunliche an der bisherigen Vielfalt solcher Maschinen, die wir Computer nennen, ist, dass sich alle diese bis heute bekannt gewordenen Computer als Beispiele (Instanzen) eines einzigen abstrakten Konzeptes auffassen lassen. Dieses Konzept ist der Begriff des universellen Computers, wie er von Alan Matthew Turing 1936/7 in einem Artikel beschrieben wurde (siehe: [Tur 7] 4 ). In diesem Artikel benutzt Turing das gedankliche Modell einer endlichen Maschine für jene endlichen Prozesse, die Logiker und Mathematiker intuitiv als ’berechenbar’ und ’entscheidbar’ ansehen. (Anmerkung: Zum Leben Turings und den vielfältigen wissenschaftlichen Interessen und Einflüssen gibt es die ausgezeichnete Biographie von Hodges (1983) [Hod83].) Das Vorbild für Turing, nach dem er sein Konzept des universellen Computers geformt hat, war das eines Büroangestellten, der auf einem Blatt Papier mit einem Bleistift Zahlen aufschreibt und mit diesen rechnet.

B. Computer und biologische Zelle

Was Turing zur Zeit seiner kreativen Entdeckung nicht wissen konnte, ist die Tatsache, dass sein Konzept des universellen Computers offensichtlich schon seit ca. 3.5 Milliarden Jahre als ein Mechanismus in jeder biologischen Zelle existierte. Wie uns die moderne Molekularbiologie über biologische Zellen zur Erfahrung bringt(siehe [AJL + 15]), funktioniert der Mechanismus der Übersetzung von Erbinformationen in der DNA in Proteine (den Bausteinen einer Zelle) mittels eines Ribosom-Molekülkomplexes strukturell analog einem universellen Computer. Man kann dies als einen Hinweis sehen auf die implizite Intelligenz einer biologischen Zelle. Ein moderner Computer arbeitet prinzipiell nicht anders.

C. Computer und Intelligenz

Die bei Turing von Anfang an gegebene Nähe des Computers zum Menschen war möglicherweise auch die Ursache dafür, dass sehr früh die Frage aufgeworfen wurde, ob, und wenn ja, wieweit, ein Computer, der nachdem Vorbild des Menschen konzipiert wurde, auch so intelligent werden könnte wie ein Mensch?

Der erste, der diese Frage in vollem Umfang aufwarf und im einzelnen diskutierte, war wieder Turing. Am bekanntesten ist sein Artikel über Computerintelligenz von 1950 [Tur50]. Er hatte aber schon 1948 in einem internen Forschungsbericht für das nationale physikalische Labor von Großbritannien einen Bericht geschrieben über die Möglichkeiten intelligenter Maschinen. (Anmerkung: Eine Deutsche Übersetzung findet sich hier: [M.87]. Das Englische Original ’Intelligent Machinery’ von 1948 findet sich online im Turing Archiv: http://www.alanturing.net/intelligent_machinery.) In diesem Bericht analysiert er Schritt für Schritt, wie eine Maschine dadurch zu Intelligenz gelangen kann, wenn man sie, analog wie bei einem Menschen, einem Erziehungsprozess unterwirft, der mit Belohnung und Strafe arbeitet. Auch fasste er schon hier in Betracht, dass sein Konzept einer universellen Maschine das menschliche Gehirn nachbaut. Turing selbst konnte diese Fragen nicht entscheiden, da er zu dieser Zeit noch keinen Computer zur Verfügung hatte, mit dem er seine Gedankenexperimente realistisch hätte durchführen können. Aber es war klar, dass mit der Existenz seines universellen Computerkonzeptes die Frage nach einer möglichen intelligenten Maschine unwiderruflich im Raum stand. Die Fragestellung von Turing nach der möglichen Intelligenz eines Computers fand im Laufe der Jahre immer stärkeren Widerhall. Zwei prominente Vertreter der KI-Forschung, Allen Newell und Herbert A.Simon, hielten anlässlich des Empfangs des ACM Turing-Preises1975 eine Rede, in der sie den Status der KI-Forschung sowie eigene Arbeiten zum Thema machten (siehe dazu den Artikel [NS76]).

D. Eine Wissenschaft von der KI

Für Newell und Simon ist die KI-Forschung eine empirische wissenschaftliche Disziplin, die den Menschen mit seinem Verhalten als natürlichen Maßstab für ein intelligentes Verhalten voraussetzt. Relativ zu den empirischen Beobachtungen werden dann schrittweise theoretische Modelle entwickelt, die beschreiben, mit welchem Algorithmus man eine Maschine (gemeint ist der Computer) programmieren müsse, damit diese ein dem Menschen vergleichbares – und darin als intelligent unterstelltes – Verhalten zeigen könne. Im Experiment ist dann zu überprüfen, ob und wieweit diese Annahmen zutreffen.

E. Intelligenz (ohne Lernen)

Aufgrund ihrer eigenen Forschungen hatten Newell und Simon den unterstellten vagen Begriff der ’Intelligenz’ schrittweise ’eingekreist’ und dann mit jenen Verhaltensweisen in Verbindung gebracht, durch die ein Mensch (bzw. ein Computer) bei der Abarbeitung einer Aufgabe schneller sein kann, als wenn er nur rein zufällig’ handeln würde. ’Intelligenz’ wurde also in Beziehung gesetzt zu einem unterstellten ’Wissen’ (und zu unterstellten ‚Fertigkeiten‘), über das ein Mensch (bzw. ein Computer) verfügen kann, um eine bestimmte Aufgabe ’gezielt’ zu lösen. Eine so verstandene ’Intelligenz’ kann sich aus sehr vielfältigen, möglicherweise sogar heterogenen, Elementen zusammen setzen.

Dies erklärt ihre mannigfaltigen Erscheinungsweisen bei unterschiedlichen Aufgaben. ’Intelligenz’ ist dabei klar zu unterscheiden, von einem ’Lernen’. Ist die Aufgabenstellung vor dem Einsatz einer Maschine hinreichend bekannt, dann kann ein Ingenieur all das spezifische Wissen, das eine Maschine für die Ausführung der Aufgabe benötigt, von vornherein in die Maschine ’einbauen’. In diesem Sinne ist jede Maschine durch das Knowhow von Ingenieuren in einem spezifischen Sinne ’intelligent’. Bis vor wenigen Jahrzehnten war dies die Standardmethode, wie Maschinen von Ingenieuren entworfen und gebaut wurden.

F. Lernen ermöglicht Intelligenz

Im Fall von biologischen Systemen ist ein solches Vorgehen kaum möglich. Biologische Systeme entstehen (durch Zellteilung), ohne dass bei der Entstehung bekannt ist, wie die Umwelt aussehen wird, ob sie sich verändert, welche Aufgaben das biologische Systemlösen muss. Zwar haben alle biologische Systeme auch genetisch vorbestimmte Verhaltensmuster, die gleich bei der Geburt zur Verfügung stehen, aber darüber hinaus haben alle biologische Systeme einen ariablen Anteil von Verhaltensweisen, die sie erst lernen müssen. Das Lernen ist hier jene Fähigkeit eines biologischen Systems, wodurch es seine internen Verhaltensstrukturen in Abhängigkeit von der ’Erfahrung’ und von ’spezifischen Bewertungen’ ’ändern’ kann. Dies bedeutet, dass biologische Systeme durch ihre Lernfähigkeit ihr Verhalten ’anpassen’ können. Sie können damit – indirekt – ein ’spezifisches Wissen’ erwerben, das ihnen dann eine spezifische ’Intelligenz’ verleiht, wodurch das biologischen System besser als durch Zufall reagieren kann. Diese Fähigkeit eines situationsgetriebenen Wissens besaßen Maschinen bis vor kurzem nicht. Erst durch die modernen Forschungen zu einer möglichen ’künstlichen Intelligenz (KI)’ machte man mehr und mehr Entdeckungen, wie man Maschinen dazu in die Lage versetzen könnte, auch nach Bedarf neues Verhalten erlernen zu können. Innerhalb dieses Denkrahmens wäre dann eine ’künstliche Intelligenz’ eine Maschine, hier ein Computer, der über Algorithmen verfügt, die ihn in die Lage versetzen, Aufgaben- und Situationsabhängig neues Verhalten zu erlernen, falls dies für eine bessere Aufgabenbearbeitung wünschenswert wäre.

Die noch sehr ursprüngliche Idee von Turing, dass ein Computer Lernprozesse analog dem der Menschen durchlaufen könnte, inklusive Belohnung und Bestrafung, wurde seitdem auf vielfältige Weise weiter entwickelt. Eine moderne Form dieser Idee hat unter dem Namen ’Reinforcement Learning’ sehr viele Bereiche der künstlichen Intelligenzforschung erobert (vgl. Sutton und Barto (1998) [SB98]).

G. KI und Werte

Für die Aufgabenstellung einer ’lernenden Intelligenz’ spielen ’Werte’ im Sinne von ’Verhaltenspräferenzen’ eine zentrale Rolle. Ein Gebiet in der KI-Forschung, in dem diese Thematik sehr intensiv behandelt wird, ist der Bereich der ’Entwicklungs-Robotik’ (Engl.:’developmental robotics’). In diesem Bereich wurde u.a. die Thematik untersucht (vgl. Kathryn Merrick(2017) [Mer17]), wie ein Roboter ’von sich aus’, ohne direkte Befehle, seine Umgebung und sich selbst ’erforschen’ und aufgrund dieses Lernens sein Verhalten ausrichten kann. Dabei zeigt sich, dass reine Aktivierungsmechanismen, die im Prinzip nur die Neugierde für ’Neues’ unterstützen, nicht ausreichend sind. Außerdem reicht es nicht aus, einen Roboter isoliert zu betrachten, sondern man muss Teams oder ganze Populationen von Robotern betrachten, da letztlich ein ’Wert’ im Sinne einer ’Präferenz’ (eine bevorzugte Verhaltenstendenz) nur etwas nützt, wenn sich alle Mitglieder einer Population daran orientieren wollen. Dies führt zur grundlegenden Frage, was denn eine Population von Robotern gemeinschaftlich als solch einen gemeinsamen ’Wert’ erkennen und akzeptieren soll. Wirklich befriedigende Antworten auf diese grundlegenden Fragen liegen noch nicht vor. Dies hat u.a. damit zu tun, dass die Robotersysteme, die hier untersucht werden, bislang noch zu unterschiedlich sind und dass es auch hier bislang – wie bei der KI-Forschung insgesamt – ein großes Theoriedefizit gibt in der Frage, innerhalb welches theoretischen Rahmens man diese unterschiedlichen Phänomene denn diskutieren soll.

Man kann aber den Ball dieser Forschung einmal aufgreifen und unabhängig von konkreten Realisierungsprozessen die Frage stellen, wie denn überhaupt ein ’Wert’ beschaffen sein müsste, damit eine ganze Population von Robotern sich ’von sich aus’ darauf einlassen würde. Letztlich müsste auch ein Roboter entweder eine ’eingebaute Tendenz’ haben, die ihn dazu drängt, ein bestimmtes Verhalten einem anderen vor zu ziehen, oder aber es müsste eine ’nicht eingebaute Tendenz’ geben, die im Rahmen seiner ’internen Verarbeitungsprozesse’ neue Verhalten identifizieren würde, die ihm im Sinne dieser ’Tendenz’ ’wichtiger’ erscheinen würde als alles andere. Es ist bislang nicht erkennbar, wo eine ’nicht eingebaute Tendenz’ für eine Verhaltensauswahl herkommen könnte. Ein industrieller Hersteller mag zwar solche Werte aufgrund seiner Interessenlage erkennen können, die er dann einem Roboter ’zu verstehen geben würde’, aber dann wäre die Quelle für solch eine ’Initiierung einer Verhaltenstendenz’ ein Mensch.

In der aktuellen Forschungssituation ist von daher als einzige Quelle für nicht angeborene Verhaltenstendenzen bislang nur der Mensch bekannt. Über welche Werte im Falle von sogenannten künstlichen Super-Intelligenzen diese verfügen würden ist noch unklar. Dass künstliche Super-Intelligenzen von sich aus Menschen grundsätzlich ’gut’ und ’erhaltenswert’ finden werden, ist in keiner Weise abzusehen. Die künstlichen Superintelligenzen müssten sich in Wertefragen – wenn überhaupt – eher am Menschen orientieren. Da die bisherige Geschichte der Menschheit zeigt, dass der Mensch selbst zu allen Zeiten eine starke Neigung hat, andere Menschen zu unterdrücken, zu quälen, und zu töten, würde dies für alle Menschen, die nicht über künstliche Superintelligenzen verfügen, tendenziell sehr gefährlich sein. Ihr ’Opferstatus’ wäre eine sehr große Versuchung für die jeweilige technologische Macht.

III. WER SIND WIR MENSCHEN?

Wenn Menschen sich in der KI wie in einem Spiegelbetrachten, dann kann dies für den betrachtenden Menschen viele Fragen aufwerfen. Zunächst erfinden die Menschen mit dem Computer einen Typ von intelligenter Maschine, die zunehmend den Eindruck erweckt, dass sich die Menschen in solchen Maschinen vervielfältigen (und möglicherweise noch übertreffen) können. Dann benutzen sie diese Computer dazu, die Strukturen des menschlichen Körpers immer tiefer zu erforschen, bis hin zu den Zellen und dort bis in die Tiefen der molekularen Strukturen, um z.B. unsere Gene zu erforschen, unser Erbmaterial, und zwar so weitgehend, dass wir dieses Erbmaterial gezielt verändern können. Die Menschen verstehen zwar noch nicht in vollem Umfang die möglichen Wirkungen der verschiedenen Änderungen, aber es ist möglich, real Änderungen vorzunehmen, um auszuprobieren, ’was dann passiert’? Mit Hilfe des Computers beginnt der Mensch, seinen eigenen Bauplan, sein eigenes genetisches Programm, umzubauen.

Dazu kommt, dass die Menschen seit dem19.Jahrhundert mit der modernen Biologiewissen können, dass die vielfältigen Formen des biologischen Lebens zu einem bestimmten Zeitpunkt immer das Ergebnis von langen vorausgehenden Entwicklungsprozessen sind. Das Wachsen und Sterben von Organismen gründet jeweils in einer befruchteten Zelle, für die durch das Erbmaterial festgelegt ist, wie sie sich weiter vermehrt und wie sich Millionen, Milliarden und gar Billionen von Zellen zu komplexen Formen zusammen finden. Und bei der Vervielfältigung von Zellen können Änderungen, Abweichungen vom ursprünglichen Plan auftreten, die über viele Tausende  und Millionen von Jahren zu deutlichen Änderungen im Bau und Verhalten eines Organismus führen können. Die Biologen sprechen von ’Evolution’. Eine Erkenntnis aus diesem Evolutionsprozess war (und ist), dass wir Menschen, so, wie wir heute da sind, auch solche evolutionär gewordene biologische Strukturen sind, die Vorläufer hatten, die mit uns heutigen Menschen immer weniger zu tun hatten, je weiter wir in der Zeit zurückgehen. Wer sind wir also?

Die Frage, ob Computer als intelligente Maschinen genau so gut wie Menschen werden können, oder gar noch besser, läuft auf die Frage hinaus, ob der Mensch Eigenschaften besitzt, die sich generell nicht durch einen Computer realisieren lassen.

Die moderne Psychologie und die modernen Neurowissenschaften haben bislang nichts zutage fördern können, was sich einem ingenieurmäßigen Nachbau entziehen könnte. Auch wenn es sich hierbei nicht um einen ’strengen Beweise’ handelt, so kann dieser Anschein einer generellen ’maschinelle Reproduzierbarkeit’ des Menschen in Gestalt von intelligenten Maschinen das bisherige Selbstverständnis von uns Menschen stark verunsichern.

IV. GLAUBEN AN GOTT

A. In allen Himmelsrichtungen

Aus der Geschichte der letzten Jahrtausende wissen wir, dass es zu allen Zeiten und in allen Kulturen Religionen gegeben hat. Die größten sind wohl (bis heute) der Hinduismus, der Buddhismus, das Judentum mit dem Christentum, und der Islam. So verschieden diese zu verschiedenen Zeiten und in verschiedenen Regionen äußerlich erscheinen mögen, sie verbindet alle das tiefe Fühlen und Glauben von Menschen an einen über-persönlichen Sinn, der Glaube an ein höheres Wesen, das zwar unterschiedliche Namen hat (’Gott’, ’Deus’, ’Theos’, ’Jahwe’, ’Allah’ …), aber – möglicherweise – vielleicht nur ein einziges ist.

B. Jüdisch-Christlich

So verschieden die christlichen Bekenntnisse der Gegenwart auch sein mögen, was die Anfänge angeht beziehen sich noch immer alle auf die Bibel, und hier, für die Anfänge der Geschichte auf das Alte Testament.(Anmerkung: Für eine deutsche Übersetzung siehe die Katholisch-Evangelische Einheitsübersetzung [BB81]).

Wie uns die modernen Bibelwissenschaften lehren, blickt der Text des Alten Testaments auf eine vielfältige Entstehungsgeschichte zurück. (Anmerkung: Für eine Einführung siehe Zenger et.al (1998) [ZO98]). Nicht nur, dass der Übergang von der mündlichen zur schriftlichen Überlieferung sich im Zeitraum von ca. -700 bis ca.+200 abgespielt hat, auch die redaktionelle Erzeugung verweist auf sehr viele unterschiedliche Traditionen, die nebeneinander existiert und die zu unterschiedlichen Varianten geführt haben. Auch die Kanonbildung dauerte dann nochmals viele hundert Jahre mit dem Ergebnis, dass es schwer ist, von dem einen Urtext zu sprechen. Für jene Menschen, die vorzugsweise Halt an etwas Konkretem, Festen suchen, mag dieses Bild der Überlieferung der Texte des alten Testaments beunruhigend wirken. Wird hier nicht vieles relativiert? Kann man denn da noch von einem ’Wort Gottes an die Menschen’ sprechen? Diese Furcht ist unbegründet, im Gegenteil.

C. Neues Weltbild

Wenn wir Menschen heute lernen (dürfen!), wie unsere individuelle, konkrete Existenz eingebettet ist in einen geradezu atemberaubenden Prozess der Entstehung der bekannten Lebensformen über viele Milliarden Jahre, wie unser eigener Körper ein unfassbares Gesamtkunstwerk von ca. 37 Billionen (10^12 !) Körperzellen in Kooperation mit ca. 100 Bio Bakterien im Körper und ca. 220 Mrd. Zellen auf der Haut  ist, die in jedem Moment auf vielfältige Weise miteinander reden, um uns die bekannten Funktionen des Körpers zur Verfügung zu stellen, dann deutet unsere reale Existenz aus sich heraus hin auf größere Zusammenhänge, in denen wir vorkommen, durch die wir sind, was wir sind. Und zugleich ist es die Erfahrung einer Dynamik, die das Ganze des biologischen Lebens auf der Erde in einem ebenfalls sich entwickelnden Universum umfasst und antreibt. Wenn wir verstehen wollen, wer wir sind, dann müssen wir diesen ganzen Prozess verstehen lernen.

Wenn wir uns dies alles vor Augen halten, dann können uns die Texte des alten Testaments sehr nahe kommen. Denn diese Texte manifestieren durch ihre Vielfalt und ihre Entstehungsgeschichte über viele Jahrhunderte genau auch diese Dynamik, die das Leben auszeichnet.

D. Schöpfungsberichte

Claus Westermann, ein evangelischer Theologe und Pfarrer, leider schon verstorben, hat uns einen Kommentar zum Buch Genesis hinterlassen und eine Interpretation der beiden biblischen Schöpfungsberichte, der jedem, der will, aufzeigen kann, wie nah diese alten Texte uns heute noch sein können, vielleicht viel näher als je zuvor. (Anmerkung: Neben seinen beiden wissenschaftlichen Kommentaren aus den Jahren 1972 und 1975 hat er schon 1971 ein kleines Büchlein geschrieben, in dem er seine Forschungsergebnisse in einer wunderbar lesbaren Form zusammengefasst hat (siehe: [Wes76]).

Der erste der beiden Schöpfungstexte in Gen 1,1-2,4a ist der jüngere der beiden; seine Entstehung wird auf die Zeit 6.-5.Jh vor Christus angesetzt, der zweite Schöpfungstext in Gen 2,4b – 24 wird mit seiner Entstehung im 10.-9.Jh vor Christus verortet. Der jüngere wird einer Überlieferungsschicht zugeordnet, die als ’Priesterschrift’ bezeichnet wird, die einen großen Bogen spannt von der Entstehung der Welt mit vielen Stationen bis hin zu einem neuen Bund zwischen Menschen und Gott. Dieser erste Schöpfungsbericht, bekannt durch sein 7-Tage-Schema, steht im Übergang von sehr, sehr vielen Traditionen mythischer Berichte über Schöpfung in den umliegenden Kulturen, Traditionen, die selbst viele Jahrhunderte an Entstehungszeit vorweisen können. Von daher wundert es nicht, wenn sich einzelne Worte, Motive, Bilder, die auch im 7-Tage-Schema auftauchen, Parallelen haben in anderen Schöpfungsgeschichten. Interessant ist das, was die biblische Schöpfungsgeschichte der Priesterschrift anders macht als die anderen bekannten Geschichten es tun.

E. Menschen als Ebenbild

Die zentrale Aussage im neueren Schöpfungsbericht ist nicht, wie im älteren Text, wie Gott den Menschen geschaffen hat, sondern die Aussage, dass er den Menschen nach seinem Bilde geschaffen hat, und dass er dem Menschen eine Verantwortung übertragen hat. In der schon zu dieser Zeit bekannten Vielgestaltigkeit der Welt, ihrer vielen Werdeprozesse, war die zentrale Einsicht und damit verbunden der Glaube, dass der Mensch als ganzer (nicht eine einzelne Gruppe, kein bestimmter Stamm, kein bestimmtes Volk!) über die konkrete, reale Existenz hinausweisend mit Gott verbunden ist als seinem Schöpfer, der auch ansonsten alles geschaffen hat: die Gestirne sind keine Götter, wie in vielen anderen älteren Mythen. Die Menschen sind nicht dazu da, niedere Arbeiten für Gott zu machen, wie in anderen Mythen. Die Menschen werden vielmehr gesehen als in einem besonderen Status im Gesamt der Existenz in der Geschichte, mit einer Verantwortung für das Ganze.

Und diese besondere Stellung des Menschen wird nicht festgemacht an besonderen körperlichen und geistigen Eigenschaften; schon zu dieser Zeit wussten die Autoren der Priesterschrift, wie vielfältig die Lebensformen, ja der konkrete Mensch, sein kann. Wenn wir heute durch die Wissenschaften lernen können, wie der Mensch sich im größeren Ganzen eines biologischen Werdens einsortieren lässt, wie der Mensch selbst durch seine Kultur, seine Technologie in der Lage und bereit ist, sich selbst in allen Bereichen– einschließlich seines biologischen Körpers – zu verändern, dann steht dies in keiner Weise im Gegensatz zu der globalen Sicht des biblischen Schöpfungsberichts. Im Gegenteil, man kann das Gefühl bekommen, das sich in unserer Gegenwart die Weite des biblischen Texte mit den neuen Weiten der Erkenntnisse über Mensch und Universum neu begegnen können. Was allerdings heute auffällig ist, wie viele Menschen sich schwer tun, in diesen neuen primär wissenschaftlichen Weltsichten den Glauben an einen Gott, einen Schöpfer, an eine Geschichtsübergreifende Beziehung zu einem Schöpfer aufrecht zu erhalten. Ist dies heute nicht mehr möglich?

F. Frömmigkeit – Spiritualität

An dieser Stelle sollte man sich vergegenwärtigen, dass zu allen Zeiten die Menschen in ihrer Religiosität nie nur ’gedacht’ haben, nie nur ’mit Bildern’ der Welt oder Gottes umgegangen sind. Zu allen Zeiten gab es – und gibt es noch heute – auch das, was man ’Frömmigkeit’ nennt, ’Spiritualität’, jenes sehr persönliche, individuelle sich einem Gott gegenüber ’innerlich Vorfinden‘, ’Ausrichten’, ’Fühlen’, ’Erleben’. Es ist nicht leicht, dafür die richtigen Worte zu finden, da es nun einmal ’innere’ Prozesse sind, die sich nicht wie Gegenstände vorweisen lassen können.   Sie betreffen das grundsätzliche Erleben eines Menschen, ein inneres Suchen, ein Erfahren, ein Erfülltsein (oder auch Leersein), das, was viele Menschen ermöglicht, ihr Leben in einer anderen, neuen Weise zu gestalten, sich zu ändern, anders mit Gefahren und Leiden umzugehen. In den Bildern des Alltags ’mehr’ sehen zu können als ohne dieses innere Erleben, Gestimmt sein.

In einer interessanten Untersuchung hat der britische Philosoph Walter Terence Stace die spirituellen Zeugnisse von vielen Jahrtausenden in unterschiedlichen Kulturen philosophisch untersucht (vgl. [Sta60]). Er kommt zu dem Ergebnis, dass sich trotz aller Verschiedenheiten im Äußeren, auch bei bestimmten Interpretationen, im Kern des Erlebens, des Wahrnehmens, sofern man dieses überhaupt von möglichen Interpretationen trennen lässt, erstaunliche Übereinstimmungen erkennen kann. Er folgert daraus, dass diese Fähigkeit von Menschen, einen übergreifenden Sinn direkt, existentiell erfahren zu können, möglicherweise auf eine sehr grundsätzliche Eigenschaft aller Menschen verweist, die wir einfach haben, weil wir Menschen sind. (Anmerkung: Er schließt auch nicht aus, dass alles Lebendige, von dem wir Menschen ja nur ein Teil sind, an dieser grundsätzlichen Fähigkeit einen Anteil haben könnte, wenn auch möglicherweise verschieden von der Art, wie wir Menschen erleben können.)

Die Tiefe und Weite der Sicht des jüngeren Schöpfungsberichts im Buch Genesis würde einem solchen grundlegenden Sachverhalt gut entsprechen: das Bild vom Menschen als Ebenbild Gottes schließt eine besondere Verbundenheit nicht aus; das ist das, was nach Westermann dem Menschen seine besondere Würde verleiht, diese Beziehung, nicht sein aktuelles konkretes So-sein, das sich ändern kann, ist die zentrale Botschaft.

G. Mensch, KI, Glaube an Gott

Damit beginnt sich der Kreis zu schließen. Wenn die Besonderheit des Menschen, seine zeitübergreifende Würde, in dieser grundlegenden Beziehung zu einem Schöpfergott gründet, die sich vielfältig im Gesamt des Universums und Lebens manifestiert, speziell auch in einer Form von individueller Spiritualität, dann gewinnt die Frage nach der Zukunft von Mensch und intelligenten Maschinen noch eine neue Nuance.

Bislang wird von den Vertretern einer Zukunft ohne Menschen nur noch mit intelligenten Maschinen einseitig abgehoben auf die größere Rechenkraft und die größeren Speicher, die alles erklären sollen. In diesem Beitrag wurde darauf hingewiesen, dass selbst die einfachsten Formen des Lernens ohne ’Werte’ im Sinne von ’Präferenzen’, von ’Bevorzugung von Handlungsalternativen’, ins Leere laufen. Sogenannte ’angeborene’ Präferenzen (oder eingebaute) können nur einen sehr begrenzten Nutzen vermitteln, da sich die Handlungsgegebenheiten und die gesamte Welt beständig weiter verändern. Auch die teilweise sehr komplexen Wertfindungen im sozialen-kulturellen Kontext ganzer Populationen, die von den künstlichen Intelligenzen dieser Welt noch nicht mal ansatzweise beherrscht werden, sind nur von begrenztem Wert, wie die bisherige Kulturgeschichte der Menschen eindrücklich belegt. [Mai95]

Vor diesem Hintergrund ist aktuell nicht zu sehen, wie intelligente Maschinen in der Zukunft alleine zu irgendwelchen brauchbaren Präferenzen kommen können. [SB98][Mer17][Nil10][NS76][RN10][Sta60][Tur37] Ungeklärt ist aktuell allerdings, ob und wieweit der Mensch – also jeder von uns – im Wechselspiel von philosophisch-empirischer Welterkenntnis und Spiritualität jene großen Richtungen ermitteln kann, die für die kommende komplexe Zukunft gefordert wird?

Sollte die Existenz eines Schöpfergottes über Welterkenntnis und Spiritualität wichtig sein für ein weiteres erfolgreiches Fortschreiten, dann hätten intelligente Maschinen möglicherweise ein grundsätzliches Problem. Es sei denn, auch sie könnten Gott erfahren? Einfacher wäre es, wenn Mensch und Maschine ihre aktuelle Koexistenz zu einer intensiveren Symbiose ausbauen würden. Dies würde viele sehr spannende Perspektiven bieten. Der Glaube an einen Schöpfergott ist auch heute, nach allem, was wir jetzt wissen können, keineswegs unsinnig;er erweist sich sogar – rein rational – als scheinbar dringend notwendig. Andererseits ist ein lebendiger Glaube kein Automatismus, sondern erfordert von jedem Menschen sein sehr persönliches Engagement in Verbundenheit mit dem ganzen Leben in einem dynamischen Universum. Gott erscheint hier nicht als das Hindernis, eher unsere Verweigerungen, das Ganze anzuschauen und zu akzeptieren.

QUELLEN

[*] G.Doeben-Henisch, Künstliche Intelligenz und der Glaube an Gott, In: Brennpunkt Gemeinde 70 (Aug./Sept. 2017), Studienbrief R21, 14 S., Hg. AMD Arbeitsgemeinschaft Missionarische Dienste im Verbund der Diakonie, Neukirchener Verlagsgesellschaft mbH, 47497 Neukirchen-Vluyn

[AJL + 15] B. Alberts, A. Johnson, J. Lewis, D. Morgan, M. Raff,
K. Roberts, and P. Walter. Molecular Biology of the Cell.
Garland Science, Taylor & Francis Group, LLC, Abington
(UK) – New York, 6 edition, 2015.
[BB81] Katholisches Bibelwerk and Deutsche Bibelgesellschaft. Die
Heilige Schrift. Einheitsübersetzung. Verlag Katholisches
Bibelwerk & Deutsche Bibelgesellschaft, Stuttgart, 1 edition, 1981.
[Bos14] Nick Bostrom. Superintelligence. Paths, Dangers, Strategies.
Oxford University Press, Oxford (UK), 1 edition, 2014.
[Hod83] Andrew Hodges. Alan Turing, Enigma. Springer Verlag, Wien
– New York, 1 edition, 1983.
[M.87] Turing Alan M. Intelligente maschinen. In Bernhard Dotzler
and Friedrich Kittler, editors, Alan M. Turing. Intelligence
Service, pages 81 – 113. Brinkmann & Bose, Berlin, 1987.

[Mai95] Klaus Mainzer. Computer – Neue Flügel des Geistes? Die
Evolution computergestützter Technik, Wissenschaft, Kultur
und Philosophie. Walter de Gruyter, Berlin – New York, 1th edition, 1995.
[Mer17] Kathrin Merrick. Value systems for developmental cognitive
robotics: A survey. Cognitive Systems Research, 41:38–55, 2017.
[Nil10] Nils J. Nilsson, editor. The Quest for Artificial Intelligence. A
History of Idesas and Achievements. Cambridge University
Press, New York, 2010.
[NS76] Allen Newell and Herbert A. Simon. Computer science as
empirical inquiry: Symbols and search. Communications of
the ACM, 19(3):113–126, 1976.
[RN10] Stuart J. Russell and Peter Norvig. Artificial Intelligence: A
Modern Approach. Prentice Hall, Inc., Upper Saddle River, 2010.
[SB98] Richard S. Sutton and Andrew G. Barto. Reinforcement
Learning. An Introduction. The MIT Press, Ambridge (MA) –
London, 1 edition, 1998.
[Sta60]W.T. Stace. Mysticism and Philosophy. Jeremy P.Tarcher,
Inc., Los Angeles, 1 edition, 1960. (Eine Diskussion hier im Blog findet sich HIER).
[Tur37] Alan M. Turing. Corrections to: On computable numbers, with
an application to the entscheidungsproblem. Proceedings of
the London Mathematical Society, 43:544–546, 1937.
[Tur50] Alan Turing. Computing machinery and intelligence. Mind,
59:433–460, 1950.
[Tur 7] Alan M. Turing. On computable numbers, with an application
to the entscheidungsproblem. Proceedings of the London
Mathematical Society, 42(2):230–265, 1936-7.
[Wes76] Claus Westermann. Schöpfung. Kreuz-Verlag, Stuttgart –
Berlin, 2 edition, 1976.
[ZO98] Erich Zenger and Others. Einleitung in das Alte Testament.
W.Kohlhammer, Stuttgart, 3rd edition, 1998

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

DAS PHILOSOPHIE JETZT PHILOTOP

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 30.Nov. 2017
URL: cognitiveagent.org
info@cognitiveagent.org

Autor: cagent
Email: cagent@cognitiveagent.org

Worum geht’s — Meine Antwort auf die von vielen gestellte
Frage, wie denn die  verschiedenen Seiten untereinander zusammen hängen, war zu schnell (siehe den Blogeintrag vom 14.November ). Hier eine Korrektur.

I. EIN PHILOTOP

Wie man unschwer erkennen kann, ist das Wort
’Philotop’ eine Übertragung von dem Wort ’Biotop’.
Für Biologen ist klar, dass man einzelne Lebensformen
eigentlich nur angemessen verstehen kann, wenn
man ihren gesamten Lebensraum mit betrachtet:
Nahrungsquellen, Feinde, ’Kollaborateure’, Klima, und
vieles mehr.

Ganz ähnlich ist es eigentlich auch mit dem Blog
’Philosophie Jetzt: Auf der Suche …’. Auch diese Ideen
haben sehr viele Kontexte, Herkünfte, wechselseitige
Interaktionen mit vielen anderen Bereichen. Ohne diese
Kontexte könnte der Blog vielleicht gar nicht ’atmen’.

Im Blogeintrag vom 14.November 2017 wurde
verwiesen auf die monatliche Philosophiewerkstatt, in
der in einer offenen Gesprächsrunde Fragestellungen
gemeinsam gedacht werden. Seltener gibt es
die Veranstaltung Philosophy-in-Concert, in der philosophische Ideen, eingebettet in experimentelle Musik, Bildern und Texten ihren Empfänger suchen und
sich auch auf ein Gespräch einlassen.

Schaubild vom Philotop ( die 'Kernbereiche') :-)

Schaubild vom Philotop ( die ‚Kernbereiche‘) 🙂

Die Wechselwirkung mit den nächsten beiden
Blogs liegt für manche vielleicht nicht so auf der
Hand. Aber bedingt durch die langjährige Lehr-
und Forschungstätigkeit von cagent im Bereich des
Engineerings stellte sich heraus, dass gerade das
Engineering der Welt riesige Potentiale für eine
moderne Philosophie bietet, und dies nicht nur einfach
als begriffs-ästhetische Spielerei, sondern mit einem
sehr konkreten Impakt auf die Weise, wie Ingenieure die
Welt sehen und gestalten. Daraus entstand ein Projekt,
das bislang keinen wirklich eigenen Namen hat.

Umschrieben wird es mit ’Integrated Engineering of
the Future’, also ein typisches Engineering, aber eben
’integriert’, was in diesem Kontext besagt, dass die
vielen methodisch offenen Enden des Engineerings hier
aus wissenschaftsphilosophischer Sicht aufgegriffen und
in Beziehung gesetzt werden zu umfassenderen Sichten
und Methoden. Auf diese Weise verliert das Engineering
seinen erratischen, geistig undurchdringlichen Status
und beginnt zu ’atmen’: Engineering ist kein geist-
und seelenloses Unterfangen (wie es von den Nicht-
Ingenieuren oft plakatiert wird), sondern es ist eine
intensive Inkarnation menschlicher Kreativität, von
Wagemut und zugleich von einer rationalen Produktivität,
ohne die es die heutige Menschheit nicht geben würde.

Das Engineering als ein Prozess des Kommunizierens
und darin und dadurch des Erschaffens von neuen
komplexen Strukturen ist himmelhoch hinaus über
nahezu allem, was bildende Kunst im Kunstgeschäft
so darbietet. Es verwandelt die Gegenart täglich und
nachhaltig, es nimmt Zukünfte vorweg, und doch fristet
es ein Schattendasein. In den Kulturarenen dieser Welt,
wird es belächelt, und normalerweise nicht verstanden.
Dies steht  im krassen Missverhältnis zu seiner Bedeutung.
Ein Leonardo da Vinci ist ein Beispiel dafür, was es
heißt, ein philosophierender Ingenieur gewesen zu sein,
der auch noch künstlerisch aktiv war.
Innerhalb des Engineerings spielt der Mensch in
vielen Rollen: als Manager des gesamten Prozesses, als mitwirkender Experte, aber auch in vielen Anwendungssituationen als der intendierte Anwender.

Ein Wissen darum, wie ein Mensch wahrnimmt, denkt,
fühlt, lernt usw. ist daher von grundlegender Bedeutung. Dies wird in der Teildisziplin Actor-Actor-Interaction (AAI) (früher, Deutsch, Mensch-Maschine Interaktion oder,
Englisch, Human-Machine Interaction), untersucht und methodisch umgesetzt.

Die heute so bekannt gewordene Künstliche Intelligenz
(KI) (Englisch: Artificial Intelligence (AI)) ist ebenfalls ein
Bereich des Engineerings und lässt sich methodisch
wunderbar im Rahmen des Actor-Actor Interaction
Paradigmas integriert behandeln. Im Blog wird es unter
dem Label Intelligente Maschinen abgehandelt.
Sehr viele, fast alle?, alle? Themen aus der
Philosophie lassen sich im Rahmen des Engineerings,
speziell im Bereich der intelligenten Maschinen als Teil
des Actor-Actor-Interaction Paradigmas neu behandeln.

Engineering ist aber nie nur Begriffsspielerei.
Engineering ist immer auch und zuvorderst Realisierung
von Ideen, das Schaffen von neuen konkreten Systemen,
die real in der realen Welt arbeiten können. Von daher
gehört zu einer philosophisch orientierten künstlichen
Intelligenzforschung auch der Algorithmus, das lauffähige
Programm, der mittels Computer in die Welt eingreifen
und mit ihr interagieren kann. Nahezu alle Themen der
klassischen Philosophie bekommen im Gewandte von
intelligenten Maschinen eine neue Strahlkraft. Diesem
Aspekt des Philosophierens wird in dem Emerging-Mind
Lab Projekt Rechnung getragen.

Mit dem Emerging-Mind Lab und dessen Software
schließt sich wieder der Kreis zum menschlichen
Alltag: im Kommunizieren und Lernen ereignet sich
philosophisch reale und mögliche Welt. Insoweit intelligenten Maschinen aktiv daran teilhaben können, kann dies die Möglichkeiten des Menschen spürbar erweitern. Ob zum Guten oder Schlechten, das entscheidet
der Mensch selbst. Die beeindruckende Fähigkeit von
Menschen, Gutes in Böses zu verwandeln, sind eindringlich belegt. Bevor wir Maschinen verteufeln, die wir
selbst geschaffen haben, sollten wir vielleicht erst einmal
anfangen, uns selbst zu reformieren, und dies beginnt
im Innern des Menschen. Für eine solche Reform des
biologischen Lebens von innen gibt es bislang wenig bis
gar keine erprobten Vorbilder.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER