Archiv der Kategorie: Mensch-Maschine Interaktion (MMI)

KOLLEKTIVE MENSCH:MASCHINE INTELLIGENZ und das Konzept ‚Social Machines‘

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 2.-5.Dezember 2021, 13:12h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

KONTEXT

Der Autor dieses Textes ist involviert in die Ausarbeitung zur Theorie und zur praktischen Umsetzung eines neuen Konzeptes von ‚Kollektiver Mensch:Maschine Intelligenz‘, das unter dem Begriff ‚oksimo Paradigma‘ vorgestellt und diskutiert wird.[1] In diesem Zusammenhang ist es wichtig, den eigenen Standpunkt immer wieder mit anderen Positionen in der Literatur abzugleichen: Ist das Ganze letztlich doch nicht wirklich ‚Neu‘? Falls doch, in welchem Sinne neu? Interessant sind auch die Beziehungen zwischen den verschiedenen Konzepten, ihre historische Entwicklung.

In einer online-Veranstaltung am 30.November 2021 bekam der Autor von Jörn Lamla den Hinweis auf den Artikel ‚Social Machines‘. [2] Wie man in dem kurzen aber prägnanten Artikel in der englischen Wikipedia nachlesen kann [3], ist der Begriff ‚Social Machine‘ (‚Soziale Maschine‘) schon gut 150 Jahre alt, zeigt aber noch keine sehr klaren Konturen. Der Versuch, das ‚Soziale‘ mit der ‚Technologie‘, mit ‚Maschinen‘ — hier sind vernetzte Computer gemeint, letztlich der ‚Cyberspace‘ — begrifflich zu vernetzen, drängt sich auf, ist für Gesellschaftswissenschaften verführerisch, führt aber nicht automatisch zu präzisen Konzepten. Weder ‚das Soziale‘ noch ‚die Maschine‘ sind Begriffe, die aus sich heraus irgendwie klar sind. Umso gespannter kann man sein, was die Autoren meinen, wenn sie zum begrifflichen Konstrukt ‚Soziale Maschine‘ einen Text schreiben.

SOZIALE MASCHINEN

Im weiteren Text bekennen sich die Autoren zu der schwer fassbaren Semantik des Begriffs ‚Soziale Maschine‘, indem sie diverse Beispiele aus der Literatur zitieren, die ein viel schillerndes Bild bietet. Um für ihre Diskussion einen irgendwie gearteten begrifflichen Referenzpunkt zu gewinnen, führen sie dann ihrerseits eine ‚Definition‘ von ‚Sozialer Maschine‘ ein (ohne sich allerdings der Mühe zu unterziehen, die Vielfalt der bisherigen Positionen tatsächlich im einzelnen zu diskutieren).

Def 1: Social Machines

Ihre Definition lautet: „Social Machines sind soziotechnische Systeme, in denen die Prozesse sozialer Interaktion hybrid zwischen menschlichen und maschinellen Akteuren ablaufen und teilweise algorithmisiert sind.“

An dieser Stelle ist es eine offene Frage, ob diese Definition eine ‚adäquate Repräsentation‘ des vorausgehenden Diskurses zu Sozialen Maschinen darstellt, oder ob es sich nur um eine spezielle Setzung der Autoren handelt, deren Begründung nicht schlüssig aus dem bisherigen Diskurszusammenhang folgt.

Liest man die Definition der Autoren, dann fallen u.a. folgende Formulierungen auf: (i) dass die ‚Prozesse sozialer Interaktion‚ ‚hybrid‚ sein sollen; (ii) dass diese Prozesse zwischen ‚menschlichen und maschinellen Akteuren‚ ablaufen sollen, und (iii) dass diese ‚ teilweise algorithmisiert‚ sein sollen.

Hybrides Handeln

Angesichts des großen Bedeutungsspektrums des Ausdrucks ’soziale Interaktion‘ in der Literatur (dazu oft sehr theorieabhängig genutzt) ist an dieser Stelle nicht ganz klar, was mit sozialer Interaktion‘ gemeint sein soll. Dazu der Ausdruck ‚hybrid‘. Ab wann sind menschliche Handlungen hybrid? Handelt ein Mensch ‚hybrid‘ wenn er Werkzeuge benutzt? Handelt ein Mensch ‚hybrid‘, wenn er die Gegebenheiten der Natur nutzt, um Nahrung zu finden oder zu produzieren? Handelt ein Mensch ‚hybrid‘, wenn er andere Menschen ‚instrumentalisiert‘, um persönliche Ziele zu erreichen? Handelt ein Mensch ‚hybrid‘, wenn er eine Sprache benutzt, die er in einer Gesellschaft als Instrument der Kommunikation vorfindet? Warum sollte die Benutzung einer Maschine eine besondere Form von ‚hybridem Handeln‘ darstellen, wenn die Nutzung der Maschine für den ‚Inhalt der Aktion‘ ‚unwesentlich‘ ist?

Für die weitere Diskussion sei hier daher die Verabredung getroffen, dass immer dann, wenn ein Mensch in seiner Interaktion mit der Welt irgendwelche Umstände so benutzt, dass dieses Handeln ohne diese Bezugnahme nicht erklärbar wäre, von einer ‚allgemein hybriden Handlung‘ gesprochen werden soll. Da jede Interaktion mit der Umgebung ‚als Interaktion‘ in diesem Sinne ‚allgemein hybrid‘ ist, sagt der Ausdruck ‚allgemein hybrid‘ nicht allzu viel, außer, das er uns bewusst machen kann, dass wir im Handeln niemals nur ‚für uns‘ handeln, niemals nur ‚isoliert, autonom‘ handeln, sondern wir uns unausweichlich in einer ‚Wechselwirkung‘ mit ‚etwas anderem‘ befinden. Und dies liegt nicht am ‚Handeln als solchem‘ sondern in der Art und Weise, wie jegliches Handeln von Homo sapiens Exemplaren in der ‚inneren Struktur‘ eines Homo sapiens ‚verankert‘ ist.

Die Benutzung vieler Computerdienste (maschinelle Dienstleistungen) sind in diesem Sinne zwar ‚allgemein hybrid‘ insoweit ein Mensch zusätzliche Mittel für sein Handeln benutzt, aber ob man den die maschinelle Dienstleistung benutzt oder nicht, muss nicht notwendigerweise einen wesentlichen Einfluss auf den ‚Inhalt des Handelns‘ haben (außer dass diese Benutzung das Handeln ‚bequemer‘ oder ’schneller‘ oder … macht). Wenn die Autoren also die Bedeutung von ‚hybrid‘ in diesem Zusammenhang so betonen, stellt sich die Frage, was denn in dieser Interaktion so ‚besonders‘, so ’speziell‘ sein soll, dass es sich lohnt, dies hervor zu heben. Allein die Einbeziehung von ‚etwas anderem‘ in das menschliche Handeln geschieht seitdem es den Homo sapiens gibt, tatsächlich sogar schon viel länger, wenn man die evolutionäre Vorgeschichte des Homo sapiens berücksichtigt. Selbst unter Prä-Homo sapiens Lebensformen, die heute leben, ist ‚allgemein hybrides‘ Handeln verbreitet.

Menschliche und Maschinelle Akteure

Es fragt sich, ob mit der Konkretisierung des ‚technischen Anteils‘ im Ausdruck ’soziotechnische Systeme‘ zu ‚Maschinen‘ etwas gewonnen wird? Gibt es technische Systeme, die keine Maschinen sind? Was ist mit hochentwickelten Landwirtschaften, wie sie sich in der Zeit islamischer Besetzung in Spanien um und vor +1000 fanden: komplexe Bewässerungssysteme, komplexe Architektur, komplexe Organisationsformen machten aus Spanien eine blühende und fruchtbare Landschaft. Ist das auch Technologie, und dann sogar im eminenten Sinne soziotechnisch‘? Was ist mit den großartigen Bibliotheken in der Hochblüte des Islams mit vielen hundert Tausend Büchern? Was ist mit der Seeschifffahrt durch die letzten Jahrtausende, die Städte, den Bauwerken, den Straßen und Brücken, den … ? Der Begriff ‚technisches System‘ ist nicht besonders klar, genauso wenig der Begriff ‚Maschine‘. Wie ein kurzer Blick in die englische Wikipedia zeigt [8], hat der Begriff eine lange Geschichte mit einem starken Bedeutungswandel, der die Spuren vielfältiger kultureller Entwicklungen in sich aufgenommen hat. Welche Typen von Maschinen meinen die Autoren?

Durch die Kombination von ‚Maschine‘ und ‚Akteur‘ kommt auf jeden Fall eine besondere Note ins Spiel, da der Begriff des ‚Akteurs‘ — in sich auch nicht klar definiert! — die unscharfe Vorstellung assoziiert, dass damit ein ‚System‘ gemeint sein könnte, das ‚(selbständig?) handeln‘ kann — was immer genau ‚(selbständig) handeln‘ heißen mag –.

Im Englischen meint ‚Akteur‘ als ‚actor‘ schlicht Menschen, die als Schauspieler in einem Stück handeln [9]. Sie handeln aber tatsächlich nur partiell ’selbständig, aus sich heraus‘, insofern sie das vorgegebene Drehbuch zwar in den groben Linien ’nachspielen‘, im Detail der Rolle aber mit ihrem realen Verhalten diese Rolle ‚modifizieren‘ können; in der Art und Weise dieses ‚Modifizierens einer Rolle‘ meinen viele erkennen zu können, ob es sich um einen ‚großen Schauspieler‘ handelt.

In neueren technischen Kontexten gibt es viele Standards, u.a. auch UML (Unified Modeling Language). [10] In UML wird für den Bereich der Programmierung das Zusammenspiel, die Interaktion verschiedener ‚Rollen‘ in einem Interaktionsfeld strukturiert beschrieben. ‚Akteure‘ (‚actors‘) sind dann jene abgrenzbare Größen, die Ereignisse aus der Umgebung (Input) aufnehmen, wie auch auf die Umgebung durch Reaktionen (Output) reagieren können.[11]

Viele andere sprachliche Verwendungszusammhänge mit dem Begriff ‚Akteur‘ sind bekannt. Die Autoren bieten dazu keine Erläuterungen, weder für die Frage, warum sie den allgemeinen Begriff des ‚technischen Systems‘ auf ‚Maschinen als Akteure‘ einschränken noch, welche Art von ‚Akteuren‘ sie genau meinen.

Teilweise Algorithmisiert

Der heutige Begriff des ‚Algorithmus‘ im Kontext von programmierbaren Maschinen [12] hat eine lange Vorgeschichte im Kontext der Mathematik (von heute aus ca. 4.500 Jahre rückwärts), wird aber seit der Verfügbarkeit von real programmierbaren Maschinen (‚Computern‘) seit ca. 1930 vornehmlich für jene Befehlslisten verwendet, mit denen programmierbare Maschinen gesteuert werden.[13] Der Ausdruck der Autoren, dass ’soziale Interaktionen‘ ‚teilweise algorithmisiert‘ sind, wirft von daher mindestens eine Frage auf: Was an einer sozialen Interaktion soll algorithmisiert‘ sein, wenn doch nach allgemeinem Verständnis nur programmierbare Maschinen von einem Algorithmus gesteuert werden können?

Nehmen wir an, dass hier soziotechnische Systeme gemeint sind, die — vereinfachend — aus Akteuren bestehen, die sowohl biologische und nicht-biologische Systeme sein können. Im angenommenen Fall sind diese Akteure auf der einen Seite weiter spezialisiert zu ‚biologischen System‘, die ‚Homo sapiens Exemplare‘ darstellen, und auf der anderen Seite ‚programmierbare Maschinen‘. Von den programmierbaren Maschinen ist bekannt, dass sie — per Definition — über ein ‚Programm‘ verfügen können, das die Eigenschaften eines ‚Algorithmus‘ besitzt. In einer ‚Interaktion‘ zwischen Homo sapiens Akteuren und programmierbaren Maschinen würden — Annahme — die Homo sapiens Akteure so handeln, wie sie immer handeln: Bezugnehmend auf ihre Wahrnehmung der Umgebung würden sie auf der Basis der bis dahin erworbenen Erfahrungen und aktuellen Motivationslagen auf diese Umgebung reagieren; dieses ‚Muster‘ von ‚Wahrnehmung + innere Zustände + Reagieren‘ würde dann einen groben Rahmen für den Begriff einer ‚Handlung‘ zur Verfügung stellen, die bezogen auf eine Situation mit einem anderen Akteur als ‚Gegenüber‘ dann als ‚Interaktion‘ bezeichnet werden könnte. [14] Jede Art von ‚Interaktion‘ in dieser Sicht wäre ‚allgemein hybrid‘, sofern das ‚Gegenüber‘ zu einem Homo sapiens Exemplar nicht wieder ein anderes Homo sapiens Exemplar wäre, also allgemein ‚kein biologisches System‘! Insofern ‚programmierbare Maschinen‘ sehr spezielle Formen von Maschinen — und generell von technischen Systemen — darstellen, die in er ‚Rolle eines Akteurs‘ auftreten können, hätten wir das Muster einer ‚allgemein hybriden‘ Interaktion, die sich zunächst nicht von irgendwelchen anderen Interaktionen des Homo sapiens Exemplars mit irgendwelchen nicht-biologischen Systemen unterscheidet.

An dieser Stelle könnte man dann die Frage stellen, ob und wie die Interaktion eines Homo sapiens Exemplars mit einer programmierbaren Maschine irgendwelche Besonderheiten aufweisen kann verglichen mit einer ‚allgemein hybriden Interaktion‘?

Nach diesen ersten Fragen an die Autoren hier die Interpretation, die die Autoren selbst zu ihrer Definition geben.

Def. 2: Soziotechnisches System

Interessant ist die Formulierung „… verstehen wir unter einem soziotechnischen System ein komplexes Gefüge, welches Menschen, Hard- und Software, organisationale und soziale Prozesse für gegebene Aufgaben oder Ziele miteinander interagieren lässt.“

Das zuvor ermittelte Schema von zwei Akteuren unterschiedlicher Art (biologisch und nicht-biologisch, im letzteren Fall ‚programmierbare Maschinen‘), wird hier in einem Bündel von vier Faktoren gesehen: (i) Menschen, (ii) Hard- und Software, (iii) ‚organisationale und soziale Prozesse‘, sowie (iv) ‚Aufgaben und Ziele‘. Diese vier Faktoren sind dynamisch so verknüpft, dass es ‚Aufgaben und Ziele‘ sind, bezogen auf diese die anderen drei Faktoren in Wechselwirkungen treten. Normalerweise würde man annehmen, dass es die Interaktionen von ‚Menschen‘ einerseits und ‚Hard- und Software‘ andererseits sind, durch die ‚Prozesse‘ stattfinden. In der Formulierung der Autoren liest es sich aber so, als ob ‚organisationale und soziale Prozesse‘ einen eigenständigen Faktor neben ‚Menschen‘ und ‚Hard- und Software‘ bilden, und zwar so, dass alle drei Faktoren interagieren. Also, ein ‚Prozess‘ interagiert mit einem Menschen oder einer Hard- und Software und umgekehrt. Eine sehr ungewöhnliche Vorstellung.

In einem sehr verbreiteten Verständnis von ‚Prozess‘ [15] ist ein Prozess eine Serie von Aktivitäten, die ineinandergreifen, um ein ‚Ergebnis‘ zu produzieren. Je nach Kontext (Disziplin, Anwendungsbereich) können die Aktivitäten sehr unterschiedlich aussehen, ebenso das erzielte Ergebnis.[15] Ergänzend ist es ein verbreitetes Verständnis von ‚Aktion’/’Aktivität‘, dass es sich um ein Ereignis handelt, das von einem ‚Agenten’/ ‚Akteur‘ für eine bestimmte ‚Absicht’/ ‚Ziel‘ herbeigeführt wird, das ‚in‘ dem handelnden Akteur ‚verankert‘ ist. [16]

In diesem Verständnishorizont sind es also Agenten/ Akteure, die unter dem Einfluss von Zielen bestimmte Ereignisse erzeugen — als handeln, indem sie Aktionen ausführen –, die zusammen genommen als ein ‚Prozess‘ verstanden werden können. In diesem Sinne sind ‚Prozesse‚ keine ’normalen Objekte‘ der realen Welt sondern begriffliche Konstrukte, die sich in den Köpfen von Akteuren bilden können, um eine Folge von konkreten Ereignissen — stark abstrahierend — als einen ‚Prozess‘ zu verstehen. Von einem ‚Prozess‘ zu sprechen verlangt daher von den Beteiligten, sich jeweils darüber zu vergewissern, welche Abfolge von Ereignissen (Handlungen) zum aktuellen Begriff eines Prozesses gehören sollen.

Bemerkenswert ist auch, dass die Ziele — die intendierten Ergebnisse — ebenfalls nicht als ’normale Objekte‘ vorkommen, sondern primär ‚in den Akteuren‘ verankert sind, und es eine der schwierigsten Aufgaben in jedem Prozess ist, zwischen allen beteiligten Akteuren zu klären, was man unter dem ‚gemeinsamen‘ Ziel — eventuell individuell ganz unterschiedlich gedacht — so zu verstehen hat, dass es zwischen allen Beteiligten ‚klar genug‘ ist. [17] Da Ziele keine realen Objekte sind, sondern immer nur ‚innere Objekte‘ der Akteure, ist eine vollständige Klärung der ‚gemeinten Bedeutung‘ generell nur annäherungsweise über aufzeigbare Beispiele möglich.

Versucht man der Intention der Autoren zu folgen, dann wären Prozesse Entitäten, die mit Menschen und/oder Hard- und Software interagieren können. Hierin klingt irgendwie an, als ob Prozesse soziale Realitäten sind, die als solche greifbar sind und mit denen Menschen interagieren können so wie mit anderen Gegebenheiten. Da die Autoren den Begriff der ‚Interaktion‘ bzw. der ‚Aktion‘ bislang nicht geklärt haben, bleibt der Versuch des Verstehens an dieser Stelle ‚mit sich alleine‘.

Im Lichte eines verbreiteten Verständnisses sind Prozesse höchstens in einem sehr abstrakten Sinne ’soziale Realitäten‘, die mit Menschen sowie Hard- und Software ‚interagieren‘. Nehmen wir z.B. einen beliebigen Planungsprozess in einer Firma oder einer Behörde. Ein Chef kann z.B. einen Mitarbeiter davon in Kenntnis setzen, dass er ab morgen in dem Planungsprozess Px mitarbeiten soll. Damit wird der Mitarbeiter Mitglied der Projektgruppe PGx zum Planungsprozess Px. Als Mitglied der Projektgruppe startet für das neue Mitglied ein Kommunikationsprozess, innerhalb dessen er sich ein ‚inneres Bild‘ von dem Projekt und seinen Aufgaben machen kann. In dem Maße, wie der Mitarbeiter aufgrund seines ‚inneren Bildes‘ versteht, was genau seine Aufgaben mitsamt einem spezifischen Aufgabenumfeld sind, kann der Mitarbeiter anfangen, ‚etwas zu tun‘, d.h. er kann ‚gezielt Handlungen vornehmen‘. Im ‚Stattfinden‘ seiner Handlungen und durch die möglichen ‚erfahrbaren Resultaten‘ können die anderen Mitglieder der Projektgruppe ‚wahrnehmen‘, was der neue Mitarbeiter tut und sie können die neuen ‚Wahrnehmungen‘ mit ihrem ‚inneren Bild des Projektes‘ ‚abgleichen‘: passen die Handlungen und Ergebnisse des neuen Mitarbeiters zu ‚ihrem inneren Bild‘ des Prozesses?

Im Lichte dieses Beispiels würde das Konzept einer ‚Interaktion zwischen Menschen und einem Prozess‘ letztlich zurück übersetzt werden müssen zu einer ‚Interaktion zwischen Menschen‘, da ein Prozess niemals als solcher als ein ‚erfahrbares Objekt‘ existiert, sondern immer nur als ‚abstraktes Konzept‘ im ‚Innern von Menschen‘, die über Kommunikation verbunden mit Handlungen und aufzeigbaren Artefakten miteinander interagieren. Kann man solchen Kommunikationen und Interaktionen mit Artefakten ein gewisses ‚Format‘ zuordnen, dann sprechen wir von einem ‚Prozess‘, der durch Akteure — hier Menschen — in einer Abfolge typischer Handlungen ’stattfindet‘.

Def. 2*: Soziotechnisches System

An dieser Stelle des Rekonstruktionsversuchs würde man die Formulierung der Autoren wie folgt ‚um-formulieren‘ können: „… verstehen wir unter einem soziotechnischen System ein komplexes Gefüge bestehend aus Menschen und Hard- und Software, die aufgrund von akzeptierten Zielen so miteinander interagieren können, dass organisationale und soziale Prozesse stattfinden, die zu Änderungen in der bestehenden Umgebung führen können.

Möglicherweise meinen die Autoren auch, dass die Tatsache, dass eine Gruppe von Menschen aufgrund von festgelegten Zielen längere Zeit in einem bestimmten Format miteinander so interagieren, dass andere dieses Vorgehen ‚in ihrem Innern‘ als ein ‚Prozess‘ erkennen, und diese ‚Wahrnehmung und Interpretation‘ für die ‚Beobachter‘ eine irgendwie geartete ‚Wirkung entfaltet, dass solch eine ‚Wirkung im Innern‘ als ‚Teil einer Interaktion‘ der Beobachter mit dem beobachtbaren Prozess verstanden werden kann. Eine solche Ausweitung der Bedeutung von normalen ‚Wahrnehmungsprozessen‘ zu ‚Interaktionsprozessen‘ würde aber für eine Analyse wenig attraktiv erscheinen.

Der Ausdruck ‚Gefüge‚, den die Autoren benutzen, klingt ein wenig ‚altmodisch‘. Nach mehr als 100 Jahren diverse Strukturwissenschaften sollte man das Wort ‚Gefüge‘ doch vielleicht eher durch den Ausdruck ‚Struktur‚ ersetzen. [18] Eine ‚Struktur‘ liegt vor, wenn man verschiedene Komponenten unterscheiden kann, hier z.B. ‚Menschen‘ und ‚Hard- und Software‘, und diese Komponenten können in Form ‚typischer‘ Handlungen miteinander interagieren, also etwa

SOZIOTECHNISCHES SYSTEM (ST) gdw ST = <Menschen, Hard-/Software, …, Interaktionen, …>

Die Elemente ‚Absicht‘, ‚Ziel‘, ‚inneres Bild von…‘ usw. würden dann in einer eigenständigen Sub-Struktur ‚Mensch‘ oder ‚menschlicher Akteur‘ verortet, da ein Mensch als eine ‚eigenständige Struktur‘ aufgefasst werden kann, etwa:

MENSCH(M) gdw M = <Bilder, Ziele, …, Handlungen, …>

Die beiden Strukturen ST und M würden sogar eine kleine ‚Hierarchie‚ bilden: die Struktur M wäre eingebettet in die Struktur ST.

Offen ist dabei noch, in welchen Sinne ‚Hard- und Software‘ überhaupt interagieren können.

Def 3: Prozesse sozialer Interaktion

sind sich dynamisch ändernde Abfolgen sozialer Aktionen zwischen Individuen und/oder Gruppen.

Die Unklarheit, die durch Def. 2 noch darin gegeben war, als ob ‚organisationale und soziale Prozesse‘ quasi ‚gleichberechtigte‘ Faktoren neben Akteuren, Hard- und Software sind, wird durch Def. 3 aufgehoben. In der Formulierung von Def. 3 sind ‚Prozesse sozialer Interaktion‘ ‚Abfolgen sozialer Aktionen‘, die ‚zwischen Individuen und/oder Gruppen‘ stattfinden, und die sich ‚dynamisch ändern‘ können. Diese Lesart entspricht weitgehend dem Formulierungsvorschlag Def 2*.

Def. 4: Hybridität

Unter ihrer Hybridität schließlich verstehen wir, dass an diesen Prozessen inhärent sowohl maschinelle als auch menschliche Akteure wesentlich beteiligt sind.

Anders formuliert sagen die Autoren, dass ‚Prozesse sozialer Interaktion‘ dann hybrid sind, wenn in solchen Prozessen sowohl ‚maschinelle als auch ‚menschliche Akteure‘ beteiligt sind.

Mit Blick auf die Diskussion zum Ausdruck ‚hybrid‘ im Anschluss an Def. 1 beschränkt sich die Formulierung von Def. 4 zunächst darauf, nur zu fordern, dass im Rahmen von ‚Prozessen sozialer Interaktionen‘ neben dem Akteurstyp ‚Mensch‘ auch der Akteurstyp ‚Maschine‘ vorkommt. Wie solch eine Interaktion aussieht, welche Eigenschaften sie auszeichnen, bleibt hier noch offen. In der vorausgehenden Diskussion war ja schon thematisiert worden, dass menschliche Akteure andere nicht-menschliche Mittel — also auch Maschinen (welche Typen von Maschinen?) — ‚unwesentlich‘ benutzen können. Damit war gemeint, dass man zwar eine programmierbare Maschine (Computer) zum ‚Text schreiben‘ benutzen kann, dass der Computer hier aber keine ‚wesentliche‘ Rolle spielt; er macht das Erstellen von Texten vielleicht ‚einfacher‘, wäre aber generell nicht notwendig.

Den folgenden Text kann man grob als eine Serie von ‚Annahmen‘ über die Wirklichkeit bezeichnen, vermischt mit impliziten Folgerungen, in denen die bisherige Einleitung weiter ausdifferenziert wird.

Ziel der Diskussion bleibt es, zu klären, wie sich das Konzept der ‚kollektiven Mensch:Maschine Intelligenz‘ aus dem oksimo Paradigma zum Konzept der ‚Sozialen Maschine‘ verhält.

ANNAHME-Hybridisierung 1

Die Autoren benennen drei Komponenten ‚Webtechnologie‘ — mit dem Attribut ‚mobil‘ ergänzt –, ‚lernende Bots‘ und ‚KI‘, wodurch „Sozialität und Maschine“ zunehmend verschmelzen. Daraus ziehen sie den Schluss: „Die menschlichen und nichtmenschlichen Komponenten der Social Machine sind folglich immer schwerer voneinander zu unterscheiden und zu trennen, was als paradigmatischer Trend zur fortschreitenden Hybridisierung der Social Machine bezeichnet werden kann“.

Der Kern der Schlussfolgerung fokussiert in der Idee, dass der „Trend zur fortschreitenden Hybridisierung“ offensichtlich sei.

Wenn nach Def. 4 von den Autoren festgehalten wird, dass man unter „Hybridität“ verstehen sollte, „dass an diesen Prozessen inhärent sowohl maschinelle als auch menschliche Akteure wesentlich beteiligt sind“, dann fragt man sich, was man sich unter dem ‚Fortschreiten einer Hybridisierung‘ verstehen soll. Die bloße Vermehrung der ‚Anzahl‘ der beteiligten Faktoren ‚Menschen‘ oder ‚Maschinen‘ kann es wohl nicht sein. Zumindest gibt die Def. 4 dies nicht her.

Die Autoren sprechen vor ihrer Schlussfolgerung davon, dass „Sozialität und Maschine zunehmend verschmelzen„. Dies kann man so interpretieren, dass die ‚fortschreitende Hybridisierung‘ zusammenhängt mit einer ‚Verschmelzung‘ von Sozialität und Maschine. Der Ausdruck ‚verschmelzen‘ wurde von den Autoren zuvor nicht eigens definiert. Die eher sprachliche Deutung von ‚Verschmelzung‘ von Worten scheint nicht gemeint zu sein.[19] Der bedeutungsnahe Ausdruck ‚Fusion‘ bietet eine Vielzahl von Varianten. [20] Welche Variante meinen die Autoren. Dass so ungleiche Wirklichkeiten wie ‚Sozialität‘ und ‚Maschinen‘ ‚verschmelzen‘, dafür fehlt jeglicher Ansatzpunkt einer sinnvollen Interpretation.

Um dieses Dilemma aufzulösen könnte der Ausdruck „… sind folglich immer schwerer voneinander zu unterscheiden und zu trennen …“ einen Hinweis liefern. Wenn man das ‚unterscheiden‘ und ‚trennen‘ nicht auf reale Sachverhalte — wie Sozialität und Maschine — bezieht sondern auf die ‚Verarbeitung von Sinneseindrücken im Innern des Menschen‘, dann könnte man sich eine Interpretation vorstellen, in der durch die Art und Weise, wie Sozialität und Maschine in der Umwelt ‚vorkommen‘, im menschlichen Akteur ‚Vorstellungen‘ auslöst, in denen das menschliche Denken eine klare Unterscheidung immer weniger leisten kann. Dann wäre die angenommene Verschmelzung der Autoren ein rein kognitives/ mentales Problem der menschlichen Akteure, die sich in Interaktion mit einer Umwelt befinden, in der mindestens Menschen und Maschinen vorkommen, aber auf eine Weise, die eine klare Unterscheidung kognitiv/ mental schwer macht.

Dies führt zu folgendem Formulierungsvorschlag:

ANNAHME-Hybridisierung 1 *

Meine Formulierung würde dann lauten: „Menschliche und nichtmenschliche Akteure (hier Maschinen) können in einer Weise in der Umwelt vorkommen, dass es für die beteiligten Menschen in ihren mentalen/ kognitiven Bildern von der Welt immer schwerer wird, diese Akteure klar voneinander zu unterscheiden und zu trennen.

Zu beachten ist auch, dass die Autoren zu Beginn des Abschnitts von drei unterschiedlichen Komponenten sprechen (‚Webtechnologie‘ — mit dem Attribut ‚mobil‘ ergänzt –, ‚Bots‘ und ‚KI‘), die im Gefolge dann offensichtlich dem Ausdruck ‚Maschine‘ zugeschlagen werden. Der Ausdruck ‚Maschine‘ wurde aber bislang nicht wirklich definiert. Auch sei der Ausdruck ‚Hard- und Software‘ erinnert, der in Def. 2 von den Autoren benutzt wird. Nach den Kontexten gehört dieser auch in das Bedeutungsfeld ‚Maschine‘, so wie es die Autoren praktizieren. Halten wir an dieser Stelle fest:

Def. 5 Maschine (indirekt abgeleitet):

Für die Autoren repräsentieren die Ausdrücke ‚Hard- und Software‘, ‚Webtechnologie (mit Aspekten der ‚Mobilität‘), ‚lernende Bots‘ und ‚KI‘ Aspekte des Bedeutungsfelds ‚Maschine‘, wie es im Kontext der Begriffe ’soziotechnisches System‘ bzw. ‚Soziale Maschine‘ implizit angenommen wird.

In der ‚realen Welt‘ beschreiben die aufgelisteten Ausdrücke (‚Hard- und Software‘, ‚Webtechnologie (mit Aspekten der ‚Mobilität‘), ‚lernende Bots‘ und ‚KI‘ ) ganz unterschiedliche Sachverhalte, deren Verhältnis zueinander keinesfalls trivial ist. Dies sei hier ganz kurz angedeutet:

Webtechnologie, Mobil, Hard- und Software

Der Begriff ‚Webtechnologie‚ ist in sich eher unklar, was mit dem unklaren Begriff ‚Web‚ zusammenhängt. Die englische Wikipedia listet mögliche Bedeutungsvarianten auf und verweist bei ‚web‘ auch auf das ‚World Wide Web [WWW]‘.[21] Die wichtige Botschaft ist [22], dass das WWW nicht das Internet ist, sondern das Internet als Basistechnologie voraussetzt. Das WWW selbst ist eine reine Softwareangelegenheit, wodurch es möglich ist, mittels eines speziellen Adresssystems (URLs) Signale zwischen diesen Adressen hin und her zu schicken. Die Art und Weise, wie dieser Signalaustausch formal stattfinden soll, regelt ein ‚Protokoll‘ (das ‚Hypertext Transfer Protocol‘ [HTTP]; mit zusätzlicher Sicherheit als HTTPS). Auf Seiten der Anwender benötigt man dazu eine Software, die ‚Browser‚ genannt wird, und innerhalb des Internets benötigt man einen Server, auf dem eine Software läuft, die ‚Webserver‚ genannt wird. Die ‚Mobilität‘ des WWW ist keine direkte Eigenschaft des WWW selbst sondern ergibt sich aus veränderten technischen Bedingungen des vorausgesetzten Internets: mobile Endgeräte, auf denen eine Browser Software installiert ist, erlauben eine Kommunikation innerhalb des WWWs.[23] Während das WWW eine reine Software ist, kann man fragen, was denn dann mit ‚Webtechnologie‘ gemeint sein soll? Wenn mit ‚Webtechnologie‘ auch ‚Software‘ gemeint ist, dann wäre der Begriff ‚Technologie‘ stark ausgeweitet. Das ‚Internet‘ — eine spezielle Kombination aus Hardware und Software — wird als ‚Netzwerk von Netzwerken‘ gesehen, innerhalb dessen ganz unterschiedliche Kommunikationsprotokolle am Werk sind, die ganz unterschiedliche Informationsquellen und Dienste ermöglichen. Das WWW ist eine Komponenten unter vielen.[24] Mit ‚Netzwerk‚ ist in diesem Kontext ein ‚Computernetzwerk‚ gemeint. Es besteht aus unterschiedlichen ‚Computern‚, die über geeignete ‚Verbindungen‘ und ‚Verbindungstechnologien‘ miteinander so verknüpft sind, dass Signalpakete entsprechend vereinbarten Protokollen hin und her gesendet werden können. Computer verstehen sich hier immer als Kombinationen aus Hard- und Software.[25] Als umfassender Begriff für die Vielfalt der Technologien und Anwendungen, die durch das ‚Internet‘ möglich sind, gibt es schon sehr früh — zumindest im Englischen Sprachraum — den Begriff ‚Cyberspace‚.[26]

Lernende Bots

Generell gibt es verschiedene Typen von bots. [27] Im allgemeinen ist ein bot im Internet eine Softwareanwendung, die automatisch bestimmte Aufgaben ausführt.[28] Wikipedia selbst benutzt z.B. über 2500 Wikipedia-typische Bots, um die mehr als 54 Mio. Wikipedia-Seiten zu verwalten.[29] Für die Interaktion mit Menschen gibt es u.a. den Typ des ‚Chatbots‘ [30]: die Software eines Chatbots versucht das Verhalten von Menschen anzunähern. Dies gelingt bislang aber nicht wirklich gut.[30] Ein spezielles, aber schon viele Jahre andauerndes Einsatzfeld von künstlicher Intelligenz Techniken sind Computerspiele, in denen ‚Nicht-Spieler Charaktere‘ (’non-player characters‘ [NPCs) das Spielgeschehen anreichern. Diese erledigen sehr vielfältige Aufgaben und sind keineswegs mit einem ‚menschenähnlichen‘ Spielcharakter zu vergleichen.[31] Insgesamt ist der Begriff ‚lernend‘ im Kontext von ‚Bots‘ generell sehr unscharf: einmal, weil der Ausdruck ‚bot‘ nicht einheitlich definiert ist, und zum anderen, weil der Begriff ‚lernend‘ im Kontext von ‚Künstlicher Intelligenz [KI]‘ bzw. ‚Maschinellem Lernen [ML]‘ keinesfalls klar ist. Das Feld ist zu uneinheitlich. [32]

KI (Künstliche Intelligenz)

Der Ausdruck ‚KI‘ — Abkürzung für ‚Künstliche Intelligenz‘ (heute oft auch einschränkend ‚ML‘ für maschinelles Lernen) — bezeichnet ein Teilgebiet der Informatik, das bislang keine klare Definition bietet, da schon der Begriff der ‚Intelligenz‘ selbst nicht klar definiert ist.[32], [33] Aufgrund der Unklarheit im Zusammenhang mit dem Begriff der ‚Intelligenz‘ bei biologischen Systemen — obgleich es hier einige Definitionen gibt, die für eingeschränkte Bereiche sehr brauchbar sind — versucht die Englischsprachige Informatik das Problem dadurch zu lösen, dass sie den Begriff AI nur für den Bereich nicht-biologischer Systeme — hier speziell für programmierbare Maschinen — definieren will. Programmierbare Maschinen mit KI können sowohl ihre Umwelt partiell wahrnehmen als auch dann — meist unter Zuhilfenahme systeminterner Zustände — wieder auf die Umwelt reagieren. Zusätzlich wird für solche Systeme mit künstlicher Intelligenz postuliert, dass sie ‚Zielen (‚goals‘) folgen können.[34]

Diese scheinbare Erleichterung, sich vom ursprünglichen Phänomenfeld der Intelligenz bei biologischen Systemen abzukoppeln, weil eine befriedigende Definition von Intelligenz hier schwierig ist, hat aber tatsächlich zu keiner befriedigenden Situation geführt. Sowohl der Intelligenzbegriff eingeschränkt auf programmierbare Maschinen ist heute nicht wirklich klar, noch ist es bislang möglich, zwischen dem Verhalten biologischer und nicht-biologischer Systeme dadurch eine brauchbare Verhältnisbestimmung aufzubauen. Dies führt dann z.T. zu der bizarren Situation, dass spezielle Leistungen von programmierbaren Maschinen für Bereich X, wo Maschinen dem Menschen überlegen sind, als generelle Aussage über das Verhältnis von Maschinen und Menschen benutzt werden, ohne dass man jene Bereiche, in denen biologische Systeme den programmierbaren Maschinen haushoch überlegen sind, überhaupt noch thematisiert. Es ist dem ai100-Report zu verdanken, dass er neu darauf aufmerksam macht, dass es durch diese asymmetrische Diskussion bislang unmöglich ist, genauer zu bestimmen, wie maschinelle Intelligenz der menschlichen Intelligenz konstruktiv unterstützen könnte.[32]

FORTSETZUNG folgt…

ANMERKUNGEN

Hinweis: Wenn in den Anmerkungen Quellen aus dem Internet angegeben werden, dann ergibt sich die Zeit des letzten Aufrufs aus dem Datum der Abfassung dieses Beitrags, die im Kopf des Artikels angegeben ist.

[1] Dazu gibt es einige Beiträge in diesem Philosophie-Jetzt- Blog, und in zwei anderen Blogs uffmm.org mit dem Schwerpunkt ‚Theorie‘ und dem Blog oksimo.org mit dem Schwerpunkt ‚Anwendungen‘.

[2] Claude Draude · Christian Gruhl · Gerrit Hornung · Jonathan Kropf · Jörn Lamla · JanMarco Leimeister · Bernhard Sick · Gerd Stumme , 2021, „Social Machines„, Informatik Spektrum, https://doi.org/10.1007/s00287-021-01421-4, Springer

[3] Social Machine, Wikipedia [EN]: https://en.wikipedia.org/wiki/Social_machine

[4] Berners-Lee, Tim; J. Hendler (2009). „From the Semantic Web to social machines: A research challenge for AI on the World WideWeb“ (PDF). Artificial Intelligence. 174 (2): 156–161. doi:10.1016/j.artint.2009.11.010.

[5] Markus Luczak-Roesch, Ramine Tinati, Kieron O’Hara, Nigel Shadbol, (2015), Socio-technical Computation, CSCW’15 Companion, March 14–18, 2015, Vancouver, BC, Canada. ACM 978-1-4503-2946-0/15/03, http://dx.doi.org/10.1145/2685553.2698991

[6] Luczak-Roesch, M.; Tinati, R.; Shadbolt, N. (2015). When Resources Collide: Towards a Theory of Coincidence in Information Spaces (PDF). WWW 2015 Companion. ACM. pp. 1137–1142. doi:10.1145/2740908.2743973. ISBN9781450334730. S2CID17495801.

[7] Cristianini, Nello; Scantamburlo, Teresa; Ladyman, James (4 October 2021). „The social turn of artificial intelligence“ (PDF). AI & Society: 0. doi:10.1007/s00146-021-01289-8.

[8] Der Begriff ‚machine‘ (Maschine) in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Machine

[9] Der Begriff ‚actor‘ in der Wikipedia [EN] für die Rolle des Schauspielers: https://en.wikipedia.org/wiki/Actor

[10] Der Begriff ‚UML (Unified Modeling Language)‘ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Unified_Modeling_Language

[11] Der Begrifff ‚actor‘ in der Wikipedia [EN] im Rahmen des technischen Standards UML: https://en.wikipedia.org/wiki/Actor_(UML)

[12] Nicht alle Maschinen sind programmierbar, können aber meistens — im Prinzip — nach Bedarf mit programmierbaren Maschinen erweitert werden.

[13] Der Begriff ‚algorithm‘ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Algorithm

[14] Wenn man den Begriff ‚Interaktion‘ auf solche Situationen beschränken würde, in denen ein Homo sapiens Akteur mit einem anderen Akteur (biologisch oder nicht-biologisch) handelt, dann würde es auch Handlungen geben, die keine typische Interaktion mit anderen Akteuren repräsentieren, z.B. wenn ich einen Kaffee oder Tee oder … trinke, oder ich esse einen Apfel, ich fahre mit dem Fahrrad, ….

[15] Der Begriff ‚process‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Process

[16] Der Begriff ‚activities‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Action_(philosophy)

[17] Im Systems Engineering wird dieser Sachverhalt als ’semantic gap‘ bezeichnet, siehe z.B.: Doeben-Henisch, G., Wagner, M. [2007] Validation within Safety Critical Systems Engineering from a Computation Semiotics Point of View, Proceedings of the IEEE Africon2007 Conference, ISBN 0-7803-8606-X, Paper-ID 701

[18] Der Begriff ‚structure‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Structure

[19] Der Ausdruck ‚Verschmelzung‚ in der Wikipedia [DE]: https://de.wikipedia.org/wiki/Verschmelzung_(Grammatik)

[20] Der Ausdruck ‚Fusion‚ in der Wikipedia [DE]: https://de.wikipedia.org/wiki/Fusion

[21] Der Ausdruck ‚web‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Web

[22] Der Ausdruck ‚World Wide Web‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/World_Wide_Web

[23] Der Ausdruck ‚mobile‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Mobile

[24] Der Ausdruck ‚Internet‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Internet

[25] Der Ausdruck ‚Computer network‘ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Computer_network

[26] Der Ausdruck ‚cyberspace‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Cyberspace

[27] Der Ausdruck ‚bot‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Bot

[28] Der Ausdruck ‚Internet bot‘ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Internet_bot

[29] Der Ausdruck ‚bots‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Wikipedia:Bots

[30] Der Ausdruck ‚chatbot‚ in der Wikipedia [EN] : https://en.wikipedia.org/wiki/Chatbot

[31] Der Ausdruck ‚Artificial intelligence in video games‚ in der Wikipedia [EN]: https://en.wikipedia.org/wiki/Artificial_intelligence_in_video_games

[32] Michael L. Littman, Ifeoma Ajunwa, Guy Berger, Craig Boutilier, Morgan Currie, Finale Doshi-Velez, Gillian Hadfield, Michael C. Horowitz, Charles Isbell, Hiroaki Kitano, Karen Levy, Terah Lyons, Melanie Mitchell, Julie Shah, Steven Sloman, Shannon Vallor, and Toby Walsh. “Gathering Strength, Gathering Storms: The One Hundred Year Study on Artificial Intelligence (AI100) 2021 Study Panel Report.” Stanford University, Stanford, CA, September
2021. Doc: http://ai100.stanford.edu/2021-report. Report: https://ai100.stanford.edu/sites/g/files/sbiybj18871/files/media/file/AI100Report_MT_10.pdf

[33] Der Ausdruck ‚KI (Künstliche Intelligenz)‚ — auch ‚ML (Maschinelles Lernen)‘ in der Wikipedia [DE] : https://de.wikipedia.org/wiki/K%C3%BCnstliche_Intelligenz

[34] Der Ausdruck ‚Artificial intelligence [AI]‘ in der Wikipedia [EN] : https://en.wikipedia.org/wiki/Artificial_intelligence

Some Soundexperiment from the past …

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design. MMI Analyse. Teil 1

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 16.Februar 2021
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Letzte Änerung: 26.2.2021 (Anmerkung zum Begriff ‚Alltagssprache‘ ergänzt)

KONTEXT

In diesem Beitrag soll das Konzept einer praktischen kollektiven Mensch-Maschine Intelligenz by design weiter entwickelt werden. Im unmittelbar vorher gehenden Beitrag wurde die grundlegende Problemstellung sowie die gewählte (Zukunfts-)Vision in einer ersten Annäherung umrissen. In diesem Text geht es jetzt darum, etwas konkreter zu skizzieren, wie diese (Zukunfts-)Vision aussehen könnte bzw. sollte.

Bisher zum Thema veröffentlicht:

MMI ANALYSE – AUSGANGSPUNKT

Der Ausgangspunkt der MMI-Analyse ist gegeben durch die ersten Angaben zur Zukunfts-Vision (Siehe Schlussabschnitt in [1]). Diese Vision umschreibt mit wenigen Worten, welcher Zustand in der Zukunft angezielt wird. Die Vision selbst sagt nichts zur Begründung, nichts zu den Motiven; diese werden vorausgesetzt. Die Vision beschreibt nur, was sein soll.

Beliebige Menschen spielen Zukunft

Zentraler Gedanke ist, dass eine beliebige Gruppe von Menschen auf eine eher spielerische Weise dabei unterstützt werden soll, für eine selbst gewählte Problemstellung und ein selbst gewähltes Ziel schrittweise einen Lösungsweg zu konstruieren.

Ein Drehbuch schreiben

Diese Konstruktion eines Lösungsweges ist vergleichbar mit dem Schreiben eines Drehbuchs in einer Alltagssprache, die alle Beteiligten hinreichend beherrschen.[2] Dies setzt voraus, dass der Prozess der Wirklichkeit — vereinfachend — gedacht wird als eine Folge von Situationen (oder auch Zuständen), in der eine Nachfolgesituation S‘ aus einer vorausgehenden Situation S durch das Stattfinden von mindestens einer beobachtbaren Veränderung hervorgegangen ist. Im Grenzfall ist es nur die Veränderung einer Uhr, deren Zeitanzeigen in der Nachfolgesituation S‘ ‚größer‘ sind als in der Situation S.[3] Im Kontext einer Folge von beschreibbaren Situationen kann man die Veränderungen in der Form von Veränderungs-Regeln fassen: Man sagt: wenn die Bedingung C in einer aktuellen Situation S erfüllt ist, dann sollen mit der Wahrscheinlichkeit π die Aussagen Eplus der Situation S hinzugefügt werden, um die Nachfolgesituation S‘ zu generieren, und die Aussagen Eminus sollen von S weggenommen werden, um die Nachfolgesituation S‘ zu generieren.

Bezug zu einer Situation

Diese Redeweise setzt voraus, dass davon ausgegangen wird, dass der Text des Drehbuchs sich auf eine reale Situation S bezieht, und die einzelnen Ausdrücke des Textes Eigenschaften der realen Situation beschreiben. Die Menge der Ausdrücke in einem Drehbuch, die sich auf eine bestimmte Situation S beziehen, bilden also Repräsentanten von realen Eigenschaften der vorausgesetzten realen Situation. Verändert sich die vorausgesetzte Situation in ihren beobachtbaren Eigenschaften, dann drückt sich dies darin aus, dass sich auch die Ausdrücke im Drehbuch verändern müssen: kommen neue Eigenschaften hinzu, müssen neue Ausdrücke hinzu kommen. Verschwinden Eigenschaften, dann müssen die entsprechenden Ausdrücke verschwinden. Wechselt also z.B. die Verkehrsampel von Rot auf Orange, dann muss z.B. der Ausdruck ‚Die Ampel ist rot‘ ersetzt werden durch die Aussage ‚Die Ampel ist orange‘. Dann wäre die Menge Eminus = {Die Ampel ist rot}, und die Menge Eplus = {Die Ampel ist orange}.

Das Drehbuch hat zwei Teile …

Das Drehbuch für die gemeinsame spielerische Planung einer gewünschten Zukunft besteht also mindestens aus zwei Teilen:

  1. Einer Ausgangssituation S, von der aus man starten will, und
  2. einer Menge von Veränderungsregeln X, die sagen, wann man eine gegebene Situation in welcher Weise abändern darf.

Vergleich mit einem Spiel

Diese Konstellation kann man ohne weiteres mit einem Spiel vergleichen:

  1. Es gibt die Startsituation (z.B. ein bestimmtes Spielbrett oder eine Spielfeld mit Spielobjekten und Spielern)
  2. Es gibt vereinbarte Spielregeln, anhand deren man in einer gegebenen Situation etwas tun darf.

Regeln jederzeit abändern

In dem hier angenommenen Szenario eines Drehbuchs für die gemeinsame spielerische Planung einer gewünschten Zukunft gibt es allerdings zwei Besonderheiten: Die eine besteht darin, dass die Ausgangslage und die Spielregeln von den Spielern selbst aufgestellt werden und jederzeit nach Absprache geändert werden können.

Leitbild Zukunft als Maßstab

Die andere Besonderheit resultiert aus der Tatsache, dass die Teilnehmer hier zu Beginn auch explizit ein Leitbild für die Zukunft formulieren. Dieses kann zwar auch jederzeit nach Absprache wieder abgeändert werden, so lange es aber gilt, dient dieses Leitbild als Maßstab für die Beurteilung, ob und in welchem Umfang der Prozess der fortschreitenden Veränderung ( = der Spielprozess!) das zuvor vereinbarte Leitbild erreicht hat.

In gewisser Weise entspricht die Bewertung einer Situation anhand eines vereinbarten Leitbildes dem Konzept des ‚Gewinnens‘ in normalen Spielen: beim Gewinnen wird in einem Spiel ein Zustand erreicht, der sich anhand zuvor vereinbarter Kriterien als ‚Gewinnsituation‚ für mindestens einen beteiligten Spieler klassifizieren lässt. Man sagt dann, dass dieser Spieler ‚gewonnen‘ hat.

Bei der Verwendung des Konzepts einer Zukunftsvision als Leitbild kann man das Leitbild dazu benutzen, um eine beliebige Situation dahingehend zu klassifizieren, ob und wenn ja in welchem Umfang diese Situation dem Leitbild ‚entspricht‘. Explizite Zukunftsbilder ermöglichen also die ‚Bewertung‘ einer Situation. Ohne solch eine Möglichkeit wäre jede Situation gleichwertig mit jeder anderen Situation. Es wäre dann nicht möglich, eine ‚Richtung‘ für einen Prozess zu definieren.

ALLTAGSSPRACHE

Diejenige Sprache, die jeder Mensch von Kindheit an lernt und benutzt, das ist die Alltagssprache, also die Sprache, die jeder in seinem Alltag spricht und die — normalerweise — auch von den Mitmenschen benutzt wird. [5a] Durch das Voranschreiten einer Globalisierung und der damit einhergehenden Vermischung von Alltagswelten, vermengen sich verschiedene Sprachen, was bei einzelnen zur Mehrsprachigkeit führt, auf der anderen Seite zur Zunahme von Übersetzungen. Übersetzungen durch Menschen können vergleichsweise ‚gut‘ sein (wer kann dies eigentlich überprüfen?), die heute zunehmenden Angebote von computerbasierten Übersetzungen sind aber dennoch auf dem Vormarsch, weil man ihren Einsatz sehr leicht ’skalieren‘ kann: ein Programm kann viele Millionen Menschen gleichzeitig ‚bedienen‘, dazu eher ‚einheitlich‘, und solch ein maschinelles Übersetzungsprogramm kann — wie salopp gesagt wird — ‚lernen‘.[4] Die Gesamtheit dieser maschinellen Verfahren hat aber dennoch keinen Zugang zu den eigentlichen Bedeutungsfunktionen von Alltagssprache, die in den Gehirnen der Sprecher-Hörer verortet sind. [5]

Aufgrund dieser Sachlage soll das neue Verfahren die Vorteile und Nachteile der verschiedenen Möglichkeiten auf neue Weise optimal verknüpfen. Primär soll der Anwender seine Alltagssprache — und zwar jede — voll benutzen können.

Zur Alltagssprache gehören mehrere ‚Mechanismen‘ [6], die es zulassen, dass man sie beliebig erweitern kann, und auch, dass man in der Alltagssprache über die Alltagssprache sprechen kann.[7] Diese Eigenschaften machen die Alltagssprache zu den stärksten Ausdruckssystemen, die wir kennen.[8]

Zu den möglichen — und vorgesehenen — Erweiterungen der Alltagssprache gehören z.B. beliebige Parametermengen mit zugehörigen Operationen auf diesen Parametern. Ein ‚Parameter‘ wird hier verstanden als ein Name, dem irgendein Wert (z.B. ein numerischer Wert) zugeordnet sein kann (z.B. eine Einwohnerzahl, ein finanzieller Betrag, ein Temperaturwert …). Parameter mit numerischen Werten kann man z.B. Addieren, Subtrahieren, Multiplizieren usw.

Zum Sprechen über andere Ausdrücke gehört die Möglichkeit, dass man beliebige Abstraktionen bilden kann. Schon wenn wir über sogenannte normale Gegenstände sprechen wie ‚Stuhl‘, ‚Tasse‘, ‚Tisch‘, ‚Hund‘ usw. benutzen wir sprachliche Ausdrücke, die nicht für ein einzelnes Objekt stehen, sondern für ganze Mengen von konkreten Dingen, die wir alle gelernt haben, als ‚Stuhl‘, ‚Tasse‘, ‚Tisch‘, ‚Hund‘ usw. zu bezeichnen. Auf einem Tisch können bei mehreren Personen beim Frühstück ganz viele Gegenstände stehen, die wir alle als ‚Tasse‘ bezeichnen würden, obwohl sie sich u.a. durch Form, Farbe und Material unterscheiden.[9]

SIMULATION

Normale Formen von Drehbüchern bestimmen das Geschehen auf der Bühne oder in einem Film. Auf der Bühne beginnt man mit einer Eingangsszene, in der unterschiedliche Akteure in einer bestimmten Umgebung (Situation) anfangen, zu handeln, und durch das Handeln werden Veränderungen bewirkt: in den Akteuren (meist nicht so fort direkt sichtbar, aber dann in den Reaktionen), in der räumlichen Anordnung der Dinge, in der Beleuchtung, in Begleitgeräuschen, … Im Film ist es die Abfolge der Bilder und deren Füllungen.

Im Fall von Brettspielen fangen die beteiligten Spieler an, mit Blick auf erlaubte Regeln, den aktuellen Spielstand und die möglichen Gewinnsituationen in der Zukunft zu handeln. Dieses Handeln bewirkt eine schrittweise Änderung der jeweils aktuellen Spielsituation.

In abgewandelter Form passiert in einem Krimi oder in einem Roman nichts anderes: literarisch begabte Menschen benutzen das Mittel der Alltagssprache um Situationen zu beschreiben, die sich schrittweise durch Ereignisse oder das Verhalten von Menschen ändern. Noch eine Variante stellt die Gattung Hörspiel dar: statt eine Geschichte zu lesen hört man beim Hörspiel zu und lässt sich mit hinein nehmen in ein Geschehen, das sich von Situation zu Situation fortbewegt und den Hörer — wenn er sich angesprochen fühlt — geradezu mitreißen kann.

In der vorliegenden Anwendung gibt es alle Zutaten — Gegenwart, Zukunft, mögliche Maßnahmen –, aber wie kommt es hier zu einer Abfolge von Situationen?

Im einfachsten Fall setzten sich die Autoren der Texte zusammen und prüfen durch eigene Lektüre der Texte und Regeln, welche der Regeln aktuell angewendet werden könnten und sie wenden die Regeln an. Auch so würde eine Folge von Texten entstehen, wobei jeder Text eine Situation beschreibt. Erst die Start-Situation, dann die Anwendung von passenden Regeln, die zu einer Veränderung des Textes führt und damit zu einer neuen Situation.

Wir wissen von uns Menschen, dass wir dies im Alltag können (z.B. jeder Heimwerker — oder auch Hobby-Bastler — benutzt eine Bauanleitung, um aus den Einzelteilen des Bausatzes schrittweise ein komplexes Gebilde zusammen zu bauen). Wenn die Texte umfangreicher werden und wenn die Zahl der Regeln deutlich zunimmt, dann kommt man mit dieser händischen (manuellen) Methode bald an praktische Grenzen. In diesem Moment wäre es sehr schön, man könnte sich helfen lassen.

Viele Menschen benutzen heutzutage zum Schreiben von Texten, zum Rechnen, zum Malen, zum Komponieren, den Computer, obwohl es ja eigentlich auch ohne den Computer gehen würde. Aber mit einem Rechenblatt viele Rechnungen miteinander zu verknüpfen und dann ausrechnen zu lassen ist einfach bequemer und — in den komplexen Fällen — sogar die einzige Möglichkeit, die Arbeit überhaupt zu verrichten. Computer müssen nichts verstehen, um Zeichenketten bearbeiten zu können.

Diese formale Fähigkeit eines Computers soll für diese Anwendung genutzt werden: wenn ich die Text-Version einer Situation habe wie z.B. S1 = {Das Feuer ist fast erloschen.} und ich habe eine Veränderungsregel der Art: X1 = {Wenn C1 zutrifft dann füge Eplus1 dazu und nehme Eminus1 weg}, konkret C1 = {Das Feuer ist fast erloschen.}, Eplus1 = {Lege Holz nach.}, Eminus1 = {Leer}, dann ist es für einen Computer ein leichtes festzustellen, dass die Bedingung C1 in der aktuellen Situation S1 erfüllt ist und dass daher die Aussage Lege Holz nach. hinzugefügt werden soll zu S1, was zur neuen Situation S2 führt: S2 = {Das Feuer ist fast erloschen. Lege Holz nach.} Wenn es jetzt noch die Regel geben würde X2 mit C2 = {Lege Holz nach.}, Eplus2 ={Das Feuer brennt.}, Eminus2={Das Feuer ist fast erloschen.}, dann könnte der Computer ‚ohne Nachzudenken‘ die nächste Situation S3 erzeugen mit S3 = {Das Feuer brennt.}

Dieses einfache Beispiel demonstriert das Prinzip einer Simulation: man hat eine Ausgangssituation S0, man hat eine Menge von Veränderungsregeln im oben angedeuteten Format X= Wenn C in S erfüllt ist, dann füge Epluszu S dazu und nimm Eminus von S weg, und man hat einen Akteur, der die Veränderungsregeln auf eine gegebene Situation anwenden kann. Und diese Anwendung von Regeln erfolgt so oft, bis entweder keine Regeln mehr anwendbar sind oder irgendein Stopp-Kriterium erfüllt wird.

Schreibt man für den Ausdruck Die Menge der Veränderungsregeln X wird auf eine Situation S angewendet, was zur Nachfolgesituation S‘ führt verkürzend als: X(S)=S‘, ergibt die wiederholte Anwendung von X eine Serie der Art: X(S)= S‘, X(S‘)= S“, …, X(Sn-1)= Sn. Dies bedeutet, dass die Folge der Text-Zustände <S‘, S“, …, Sn> einen Simulationsverlauf repräsentieren. Man kann dann sehr gut erkennen, was passiert, wenn man bestimmte Regeln immer wieder anwendet.

In der vorliegenden Anwendung sollen solche durch Computer unterstützte Simulationen möglich sein, tatsächlich sogar noch mit einigen weiteren Feinheiten, die später näher beschrieben werden.

SIMULATION MIT BEWERTUNG

Wie zuvor schon im Text beschrieben wurde, kann man eine gegebene Situation S immer dann klassifizieren als erfüllt Eigenschaft K, wenn man über geeignete Kriterien K verfügt. In der vorliegenden Anwendung kann der Anwender eine Vision formulieren, eine Beschreibung, welcher Zustand in der Zukunft eintreten sollte.

Im Rahmen der Simulation soll es daher möglich sein, dass nach jeder Anwendung von Veränderungsregeln X mitgeteilt wird, in welchem Ausmaß die vorgegebene Vision V im aktuellen Zustand S eines Simulationsverlaufs schon enthalten ist. Die Aussagekraft einer solchen Klassifikation, die eine Form von Bewertung darstellt, hängt direkt von der Differenziertheit der Vision ab: je umfangreicher und detaillierter der Text der Vision ist, um so konkreter und spezifischer kann die Bewertung vorgenommen werden.

LERNFÄHIGE ALGORITHMEN (KI)

So, wie im Fall der Simulation der Computer dem Menschen bei ausufernden manuellen Tätigkeiten helfen kann, diese zu übernehmen, so ergibt sich auch für die Frage der Auswertung eines Simulationsverlaufs sehr schnell die Frage: könnte man auch ganz andere Simulationsverläufe bekommen, und welche von den vielen anderen sind eigentlich im Sinne eines vorgegebenen Zielkriteriums besser?

Tatsächlich haben wir es mit dem Ensemble einer Anfangssituation, einer Zukunftsvision und einer Menge von Veränderungsregeln mit einem Problemraum zu tun, der sehr schnell sehr umfangreich sein kann. Eine einzelne Simulation liefert immer nur einen einzigen Simulationsverlauf. Tatsächlich lässt der Problemraum aber viele verschiedene Simulationsverläufe zu. In den meisten Fällen ist eine Erkundung des Problemraumes und das Auffinden von interessanten Simulationsverläufen von großem Interesse. Der Übergang von einem Suchprozess zu einem lernenden Prozess ist fließend.

In der vorliegenden Anwendung soll von der Möglichkeit einer computergestützten lernende Suche Gebrauch gemacht werden.

QUELLENANGABEN und ANMERKUNGEN

[1] Siehe dazu den Schluss des Textes von Gerd Doeben-Henisch, 15.2.2021, PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design. Problem und Vision, https://www.cognitiveagent.org/2021/02/15/praktische-kollektive-mensch-maschine-intelligenz-by-design-problem-und-vision/https://www.cognitiveagent.org/2021/02/15/praktische-kollektive-mensch-maschine-intelligenz-by-design-problem-und-vision/

[2] Denkbar ist natürlich, dass partiell mit Übersetzungen gearbeitet werden muss.

[3] Dieses Modell der Zerlegung der Wirklichkeit in Zeitscheiben entspricht der Arbeitsweise, wie das menschliche Gehirn die jeweils aktuellen sensorischen Signale für ein bestimmtes Zeitintervall ‚zwischen-puffert‘, um die Gesamtheit der Signale aus diesem Zeitintervall dann nach bestimmten Kriterien als eine Form von Gegenwart abzuspeichern und daraus dann Vergangenheit zu machen.

[4] Damit dies möglich ist, landen alle Texte auf einem zentralen Server, der mit statistischen Methoden ganze Texte nach Methoden des sogenannten ‚maschinellen Lernens‘ analysiert, statistische Verwendungskontexte von Ausdrücken erstellt, angereichert durch diverse sekundäre Zusatzinformationen.

[5] Was diese bedingt lernfähigen Algorithmen an Übersetzungsleistungen ermöglichen, ist sehr wohl erstaunlich, aber es ist prinzipiell begrenzt. Eine vertiefte Analyse dieser prinzipiellen Begrenzungen führt in die Entstehungszeit der modernen formalen Logik, der modernen Mathematik sowie in die theoretischen Grundlagen der Informatik, die letztlich ein Abfallprodukt der Meta-logischen Diskussion in der Zeit von ca. 1900 bis 1940 ist. Wenn also die angezielte Anwendung die volle Breite der Alltagssprache nutzen können soll, dann reicht es nicht, die prinzipiell Bedeutungsfernen Verfahren der Informatik wie bisher einzusetzen.

[5a] Das Phänomen ‚Alltagssprache‘ ist bei näherer Betrachtung äußerst komplex. In einem anderen Beitrag habe ich einige der grundlegenden Aspekte versucht, deutlich zu machen: Gerd Doeben-Henisch, 29.Januar 2021, SPRACHSPIEL und SPRACHLOGIK – Skizze. Teil 1, https://www.cognitiveagent.org/2021/01/29/sprachspiel-und-sprachlogik-skizze-teil-1/

[6] … von denen die formale Logik nicht einmal träumen kann.

[7] In der formalen Logik sind Spracherweiterungen im vollen Sinne nicht möglich, da jede echte Erweiterung das System ändern würde. Möglich sind nur definitorische Erweiterungen, die letztlich Abkürzungen für schon Vorhandenes darstellen. Das Sprechen in einer gegebenen Sprache L über Elemente der Sprache L — also meta-sprachliches Sprechen –, ist nicht erlaubt. Aufgrund dieser Einschränkung konnte Goedel seinen berühmten Beweis von der Unmöglichkeit führen, dass ein formales System sowohl Vollständig als auch Widerspruchsfrei ist. Dies ist der Preis, den formale Systeme dafür zahlen, dass ’nichts falsch machen können‘ (abgesehen davon, dass sie von sich aus sowieso über keine Bedeutungsdimension verfügen)).

[8] Während formale Systeme — und Computer, die nach diesen Prinzipien arbeiten — durch diese Elemente inkonsistent und un-berechenbar werden, kann das menschliche Gehirn damit fast mühelos umgehen!

[9] Unser Gehirn arbeitet schon immer mit beliebigen Abstraktionen auf beliebigen Ebenen.

FORTSETZUNG

Eine Fortsetzung findet sich HIER.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

IN ZWEI WELTEN LEBEN …

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 23.Juli 2019
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Nach einer längeren Schreibpause, hier ein kurzes Blitzlicht …

SCHWEIGEN IST VIELDEUTIG

Es ist ja ein beliebter Topos, über das Schweigen zu sinnieren. Korrespondiert es mit einem ‚Nichts‘ oder ist es nur ein Artefakt vielschichtiger, sich wechselseitig in Bann haltender Aktivitäten, die sich ’nach Außen quasi ‚aufheben’…

Dies ist ein Bild. Für mein Schweigen trifft weder das eine noch das andere zu. Tatsächlich ist bei mir die letzte Zeit extrem dicht angefüllt mit Aktivitäten, Denken, Schreiben, ja auch mit Programmieren, eine moderne Form des Schreibens. Letzteres leider in unserer Kultur von schöngeistigen Menschen wenig geachtet, tatsächlich aber der Stoff, aus dem das Meiste ist, was wir heute für unser Leben benutzen.

DENKEN – VIELFÄLTIG – IM DENKEN DENKEN

Die vielfältigen Formen des Denkens zu katalogisieren und zu bewerten, dann eventuell noch hierarchisch zu gewichten, ist sicher reizvoll. Bis zu einem gewissen Grade und in gewissen Situationen mag dies sogar notwendig sein (Gesetzestexte, Rezepten, Bauanleitungen, Sportberichte, Finanzberichte ….), aber man verliert die Wahrheit aus dem Blick wenn man übersieht, dass alle diese verschiedenen Spezialformen Ausdrucksformen einer einzigen Sache sind, nämlich der Bemühung des menschlichen Geistes — realisiert in den vielen einzelnen Menschen — sich im Hier und Jetzt zurecht zu finden; zu verstehen, wie denn das alles zusammenhängt. Warum das alles so ist, wie es ist. Gibt es irgendwie ein Ziel für die Zukunft? Mehrere? Welches ist am günstigsten? Für wen? Aus welchem Grund?

Für mich war das Schreiben in diesem Block seit ca. 10 Jahren mein Versuch, mich selbst in ein Gespräch zu verwickeln, das mich zwang, Eindrücken, Fragen nachzugehen, die ich ohne dies Schreiben eher achtlos beiseite gelassen hätte. Natürlich, neben viel Spaß, Lust an der Sache, Neugierde, Entdeckerfreuden usw. war es auch weite Strecken mühsam, quälend, mit der ständigen Frage: Muss das so sein? Bringt das was? Im Rückblick, nach ca. 9000 Seiten Text, würde ich sagen, es hat — zumindest für mich — sehr viel gebracht. Ich habe begonnen, Dinge zu verstehen, von denen ich vorher nicht wusste, dass es sie gibt, Zusammenhänge, die mir verborgen waren, überraschende neue Ausblicke, Glücksgefühle, noch mehr Neugierde, viel Hoffnung, ein wachsendes Vertrauen in dieses unfassbare Wunder genannt Leben. Ich bin jetzt soweit, dass ich zumindest ahnen kann, dass das Leben viel größer, tiefer, komplexer, reicher, gewaltiger ist, als alles, was uns die bekannten alten Traditionen — vor allem die alten Religionen, aber auch Einzelbereiche der Wissenschaften — bisher erzählt haben oder heute noch erzählen.

Insofern habe ich aus dem bisherigen Schreib- und Reflexionsprozess viel Kraft gezogen, viel Hoffnung, viel neues Vertrauen, Unternehmenslust, mit dabei zu sein, wenn es geht, die Unfassbarkeit unseres Lebens weiter zu gestalten.

MITGESTALTEN …

Je mehr man diesen Wunsch hegt, nicht nur passiv aufzunehmen, nicht nur zu verstehen, um so schwieriger wird dann die Frage, wo steigt man ein? Was kann man als einzelner mit seinen jeweiligen Möglichkeiten konkret tun?

Leute, die mit markigen Sprüchen durch die Welt laufen, die vielfarbige Slogans verteilen, die einfache schwarz-weiß Bilder austeilen, gibt es genug. Alles ist sehr einfach…

Aber, das Wunder des Lebens ist — nicht wirklich einfach. Wir selbst sind zwar zunächst als ‚Hineingeworfene‘ auf den ersten Blick einfach, weil wir etwas sehr Komplexes sind, das Komplexeste, was es im ganzen Universum gibt, aber wir haben keinen Finger dafür krumm gemacht, wir finden das alles einfach so vor, wir können sofort loslegen, ohne große umständliche Prozesse zu durchlaufen (OK, es gibt mittlerweile in den meisten Kulturen komplexe selbst definierte Lernprozesse in Kindergärten, Schulen, Betrieben, Hochschulen usw.), aber wir müssen nicht verstehen, wie wir funktionieren, um zu funktionieren. Unser Körper, das Äquivalent von ca. 450 Galaxien im Format der Milchstraße, funktioniert für uns, ohne dass wir verstehen müssen (und auch tatsächlich nicht verstehen können, bislang) wie er funktioniert. Wir sind ein Wunderwerk des Universums und können ‚funktionieren‘, obwohl wir uns praktisch nicht verstehen.

Da beginnt meine zweite Story: auf Ganze gesehen weiß ich so gut wie nichts, nah besehen weiß ich aber mittlerweile zu viel, als dass ich einfach so tun könnte, nichts zu wissen 🙂

EINZELTEILE ZUSAMMEN SUCHEN

Im Rahmen meiner unterschiedlichen Lehr- und Forschungstätigkeiten, zwischendrin auch ’normale‘ berufliche Arbeiten, habe ich schrittweise viele wissenschaftliche Bereiche kennen lernen dürfen und dabei entdeckt, dass wir aktuell ein ‚Zusammenhangs-Problem‘ haben, will sagen, wir haben immer mehr einzelne Disziplinen,die je für sich hoch spezialisiert sind, aber die Zusammenhänge mit anderen Bereichen, ein Gesamtverständnis von Wissenschaft, gar doch noch mit dem ganzen Engineering, dies geht uns zusehends ab. Dies bedeutet u.a. dass ein neuer Beitrag oft gar nicht mehr richtig gewürdigt werden kann, da die Umrisse des Ganzen, für das etwas entdeckt oder entwickelt wurde, kaum noch greifbar sind. Dies ist das Fake-News-Problem der Wissenschaften.

Ob geplant oder spontan oder zufällig, ich kann es nicht genau sagen, jedenfalls habe ich vor einigen Jahren damit begonnen, zu versuchen, die Disziplinen, in denen ich tätig sein konnte, langsam, schrittweise, häppchenweise, zu systematisieren, zu formalisieren, und sie auf die mögliche Wechselwirkungen mit den anderen Bereichen hin abzuklopfen.

Zu Beginn sah dies alles sehr bruchstückhaft, eher harmlos aus.

Doch im Laufe der Jahre entwickelten sich Umrisse, entstanden immer deutlicher Querbezüge, bis dann so langsam klar wurde, ja, es gibt hier mögliche begriffliche Rahmenkonzepte, die sehr prominente und doch bislang getrennte Disziplinen auf eine Weise zusammen führen können, die so bislang nicht sichtbar waren.

MENSCH – MASCHINE – UND MEHR …

Mein Fixpunkt war das Thema Mensch-Maschine Interaktion (MMI) (Englisch: Human-Machine Interaction, HMI), von mir dann weiter entwickelt zum allgemeinen Actor-Actor Interaction (AAI) Paradigma. Mehr zufällig bedingt, genau genommen durch einen wunderbaren Freund, einem Südafrikaner, ein begnadeter Systems Engineer, habe ich auch sehr früh begonnen, das Thema Mensch-Maschine Interaktion immer auch im Kontext des allgemeineren Systems Engineerings zu denken (im englischsprachigen Raum ist das Paradigma des Systems Engineering sehr geläufig, im deutschsprachigen Bereiche gibt es viele Sonderkonzepte). Irgendwann haben wir angefangen, das Systems Engineering zu formalisieren, und im Gefolge davon habe ich dies ausgedehnt auf das Mensch-Maschine Paradigma als Teil des Systems Engineerings. Dies führte zu aufregenden Verallgemeinerungen, Verfeinerungen und letztlich auch Optimierungen. Es war dann nur eine Frage der Zeit, bis das ganze Thema Künstliche Intelligenz (KI) integriert werden würde. KI steht bislang theoretisch ein wenig verloren im Raum der vielen Disziplinen, kaum verortet im Gesamt der Wissenschaften, des Engineering, der allgemeine Kognitions-, Lern- und Intelligenztheorien der biologischen Disziplinen. Im Rahmen des AAI Paradigmas ist KI eine Subdisziplin, die eine spezielle Teilmenge von Akteuren in ihrem Verhalten beschreiben, modellieren und simulieren kann, aber eben nicht isoliert, sondern eingeordnet in den Gesamtrahmen von Engineering und Wissenschaft. Dies eröffnet viele aufregende Perspektiven und Anwendungsmöglichkeiten.

Und so wird es auch niemanden verwunden, dass mein Engagement für ein integriertes begriffliches System für Systems Engineering, MMI und KI zugleich auch ein starkes Engagement für die philosophische Dimension wurde.

Ein Leser dieses Blocks wird nicht verwundert sein, wenn ich feststelle, dass es gerade die intensive Beschäftigung mit dem Engineering und seiner Meta-Probleme waren, die mich zur Philosophie zurück geführt hatten. Nach meiner völligen Frustration mit der klassischen Philosophie während des ersten Anlaufs einer Promotion in Philosophie an der LMU München (ca. 1980 – 1983) — ein Roman für sich — fand ich viele wertvolle Erkenntnisse im intensiven Studium der Wissenschaftsphilosophie und einiger konkreter Wissenschaften. Das Engineering (mit Schwerpunkt Informatik) war dann noch bereichernder. Aber gerade hier, im Systems Engineering, bei dem Thema Mensch-Maschine, und ausgerechnet mitten in den Lerntheorien der KI, bin ich auf so viele grundlegende philosophische Fragen gestoßen, dass ich von da ab — fast notwendigerweise — wieder angefangen habe philosophisch zu denken. Eines der Hauptmotive für diesen Block.

Natürlich, das merkt man wohl auch schon beim Lesen, führt die Breite und Fülle dieser Aspekte dazu, dass man nicht schnell, und nicht immer konzise arbeiten kann. Man muss viele Fragen mehrfach bedenken, oft von verschiedenen Seiten aus, muss immer wieder von vorne anfangen, und wenn man dann meint, jetzt habe man man den Bogen doch gut hinbekommen, entdeckt man von einer anderen Seite so viele anderen Aspekte, Löcher, Unzulänglichkeiten, dass man gerade nochmals von vorne anfangen kann.

Wie schwierig es auch sein mag, die Umrisse eines Ganzen deuten sich doch mittlerweile immer stärker an, so stark, dass ich das Gefühl habe, dass dieser andere Block — uffmm.org–, mein Blog für das Engineering, ab jetzt mehr — oder gar die ganze — Aufmerksamkeit verlangt.

Denn, eine Folge von Zusammenhangs-Sichten ist, dass man — fast unaufhaltsam — immer weitere Zusammenhänge entdeckt. So ist natürlich eng verknüpft mit dem Mensch-Maschine Paradigma der gesamte Komplex der biologischen und psychologischen Verhaltenswissenschaften, dazu gehörig auch das, was man Kognitionswissenschaft nennt, und damit ganz viele weitere spezielle Disziplinen, die irgendwie den Menschen und sein Verhalten thematisieren (Semiotik, Linguistik, Soziologie, …).

Während das Lesen und Studieren einzelner Werke und Artikel aus diesen Bereichen ohne übergreifenden Zusammenhang oft so beliebig, und damit frustrierend, wirkt, gewinnen diese Werke bei einem expliziten begrifflichen Zusammenhang eine ganz andere Farbigkeit, leuchten auf, werden interessant. So ist mir dies z.B. in den letzten Monaten mit Büchern von Edelman, Gallistel und Gärdenfors gegangen (um einige Beispiele zu nennen).

Während es also einerseits darum geht, immer mehr prominente Beispiele aus den genannten Disziplinen in den neuen begrifflichen Rahmen einzuordnen, ist mir auch klar geworden, dass dies alles — so wunderbar das für sich genommen schon ist (obgleich noch im Prozess) — heute nicht mehr ausreichend ist, ohne eine hinreichende Softwareunterstützung, ohne Software-Modellierung und vielerlei Simulationsversionen. Schon ein rein empirisches verhaltenswissenschaftliches Buch wie das grundlegende Werk von Gallistel zur Organisation des biologischen Lernens bleibt ohne zugehörige Softewaremodelle irgendwie ein Torso, entsprechend auch die Werke von Gärdenfors zu Begriffs-Räumen (Conceptual Spaces). Ein positives Beispiel für Theorie und Computersimulation liefert Edelman in vielen Büchern, Artikeln und Programmen. Und ich weiß aus eigener Vorlesungserfahrung, dass die Vorlesungen zum dynamischen Lernen erste mit der zugehörigen Softwaremodellierung jene Farbe und Tiefe bekommen haben, die es heute braucht.

Für mich ergibt sich daraus, dass ich parallel zur Text-Version der Theorie — natürlich mit hinreichenden Formalisierungen — eine vollständige Softwareabdeckung brauche. Ohne diese wird das alles nur Stückwerk bleiben.

Damit entsteht ein ziemliches Aufgabenpaket: Systems Engineering mit Actor-Actor Paradigma, dazu KI integriert, bei AAI Kognitionswissenschaften integriert, und zu allem die notwendige Software.

Allerdings eine wichtige Dimension fehlt bei dieser Aufzählung noch: die allgemeine Philosophie und die Wissenschaftsphilosophie. Die allgemeine Philosophie und die Wissenschaftsphilosophie können zwar die Einzelwissenschaften nicht ersetzen, aber die Einzelwissenschaften ohne eine explizite allgemeine Philosophie und Wissenschaftsphilosophie gleichen einem Haufen gackernder Hühner, deren Einzelbeiträge schnell in Kakophonie umschlagen kann, wenn sie nicht integriert werden.

Also, im Prinzip ist sehr klar, wie es gehen soll, es konkret zu tun ist scheinbar unmöglich. Aber genau das ist es, worum es geht: das Leben als solches in diesem Universum ist die maximale Unmöglichkeit, aber dennoch ist es da, dennoch entwickelt es sich. Dieses Mysterium einer ungeheuren Kraft, das Unmögliche möglich zu machen, das ist das, was jeden Menschen, insbesondere jeden Wissenschaftler, antreiben sollte, ansonsten sind wir tatsächlich — möglicherweise — schlechter als alle denkbaren Roboter der Zukunft.

AUF DIE BAUSTELLE

Wie schon angedeutet, hat meine Theoriebaustelle einen Namen: uffmm.org . ‚uffmm‘ ist die Abkürzung eines ganzen Satzes. Ich verrate jetzt nicht, wie dieser Satz heißt. Schön wäre es, wenn er einmal wahr werden würde.

Wer will, kann die Ereignisse auf dem uffmm-Blog verfolgen, allerdings ist dort alles auf Englisch. Es ist nicht meine Sprache, ich fühle mich damit sprachlich amputiert, aber es ist die zur Zeit beste Arbeitssprache für den internationalen Raum.

Ich habe auch keine Ahnung, wie weit ich kommen werde.

Parallel betreibe ich noch ein Anwendungsprojekt mit Überschrift ‚Kommunalplanung als eGaming‚. Damit zielen wir auf alle ca. 11.000 Kommunen in Deutschland, mit einem neuen Ansatz für mehr Demokratie in einer digitalisierten Welt. Dieser Ansatz ist ein direkter Ausfluss der zuvor angedeuteten Theoriearbeit (plus Software).

Der Philosophie-Jetzt Block war der entscheidende Inkubator für diese Weiterentwicklung. Ob und wie sich dieser Blog weiter entwickelt, wird man sehen. Er war ganz und gar ungeplant, und so wird auch die weitere Zukunft sich ereignen 🙂

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Ballungsraum 2117 und technische Superintelligenz. Welche Rolle verbleibt uns Menschen?

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
14.April 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch, Frankfurt University of Applied Sciences
Email: doeben@fb2.fra-uas.de
Email: gerd@doeben-henisch.de

PDF

INHALT

I VISION RESILIENZ
II VIELE AKTEURE
III PROBLEMLÖSUNGSSTRATEGIEN
IV MENSCH UND KOMPLEXITÄT
V INGENIEURE ALS VORBILD
VI CLUB OF ROME – NUR GESTERN?
VII DER UMFASSEND DIGITALISIERTE MENSCH ENTSTEHT HEUTE
VIII SIMULATIONEN BEHERZTER NUTZEN?
IX TECHNISCHE SUPERINTELLIGENZ
X WAS KANN EIN COMPUTER?
XI DAS EI DES COLUMBUS
XII EINE NEUE MENSCH-MASCHINE SUPER-INTELLIGENZ FÜR DEN BALLUNGSRAUM?
IX QUELLEN

ÜBERBLICK

Dieser Text wurde ursprünglich als Vorbereitung für das Programmheft der Konferenz ’Der Resiliente Ballungsraum’ des Frankfurter Forschungsinstituts FFin am 13.April 2018 geschrieben. Die aktuelle Version stellt eine leicht überarbeitete Version im Anschluss an die Konferenz dar, ergänzt um Literaturangaben. Ausgehend von der Komplexität heutiger Ballungsräume wird die Frage gestellt, ob und wie wir Menschen die neuen digitalen Technologien, insbesondere auch künstliche Intelligenz, nutzen könnten, um mit dieser Komplexität besser umzugehen. Durch die langsam wachsende Erkenntnis, dass der resiliente Charakter vieler komplexer Systeme zudem ein Denken verlangt, das weit hinter die Oberfläche der Phänomene schaut, wird die Frage nach einer möglichen Unterstützung durch die neuen digitalen Technologien umso dringlicher. Im Text schält sich eine ungewöhnliche mögliche Antwort heraus, die auf eine ganz neue Perspektive in der Planungsdiskussion hinauslaufen könnte.

I. VISION RESILIENZ

Mit der Leitidee der ’Resilienz’ (1) zielt das Denken im Kern ab auf die Dimension der Überlebensfähigkeit von Ballungsräumen, die sich als dynamische Gebilde zeigen, ständigen Veränderungen unterworfen sind, ein dicht  verwobenes Knäuel von Faktoren, die alle gleichzeitig miteinander in Wechselwirkung stehen. Und, ja, natürlich, wer ist nicht daran interessiert, dass diese Gebilde als konkrete Lebensräume für konkrete Menschen möglichst lange funktionsfähig bleiben. Doch, was als sinnvoller Wunsch einer breiten Zustimmung sicher sein kann, kann sehr schnell zur Last, oder gar zum Alptraum werden, wenn man auf die eine oder andere Weise zum ’realen Akteur’ werden muss.(2)

(Anmk: 1: Dieser Artikel benutzt den Resilienzbegriff, wie er in dem grundlegenden Artikel von Holling 1973 [Hol73] vorgestellt worden ist)

(Anmk: 2: Eine Auseinandersetzung mit dem neuen Lieblingswort der ’Resilienz’ im Kontext der Städteplanung findet in einem Folgeartikel in diesem Blog statt. Mit Blick auf den Städtebau siehe auch Jakubowski (2013) [Jak13] )

II. VIELE AKTEURE

Ein polyzentrischer Ballungsraum wie das Rhein-Main Gebiet zählt schon heute an die 5 Mio. Bürger, die in tausenden von unterschiedlichen Rollen Akteure sind, die den Ballungsraum nutzen, ihn auf unterschiedliche Weise gestalten, und die alle ihre Ansprüche haben, die sie befriedigt sehen wollen. (3) Jeder dieser Akteure hat ’sein Bild’ von diesem Ballungsraum. Der eigene Wohnbereich, die täglichen Wege zur und von der Arbeit, Einkäufe, Kinder zum Kindergarten oder zur Schule, vielfältige Freizeit, Großereignisse, Unwetter, Krankheiten . . . irgendwie muss alles irgendwie stimmen, muss es lebbar sein, bezahlbar…. Leiter von Firmen haben weitere spezielle Anforderungen, nicht zuletzt die Verfügbarkeit geeigneter Mitarbeiter, Planungssicherheit, möglichst geringe Kosten, Verkehrs- und Telekommunikationsanbindungen, und vieles mehr . . . Die Ämter und Fachreferate in den Kommunen stehen im Kreuzfeuer vielfältigster politischer Interessen, von Alltagsanforderungen, mangelnder Kommunikation zwischen allen Abteilungen, Bergen von Vorschriften, Mangel an Geld, Personalproblemen, einer Vielzahl von komplexen und disparaten Plänen, ungelösten Altlasten aus der Vergangenheit… Polyzentrisch heißt auch, es gibt nicht nur viele Zentren, sondern auch entsprechend viele Kapitäne, die ihre eigenen Routen haben. Wie soll dies alles koordiniert werden?

(Anmk: 3:   Siehe dazu Peterek/ Bürklin (2014) [PB13], Buerklin/ Peterek (2016) [BP16] )

III. PROBLEMLÖSUNGSSTRATEGIEN

Aus der Nähe betrachtet mutiert die Vision eines resilienten Planungsraumes schnell zum bekannten Muster des ’Lösens eines Problems’: es gibt einen Ausgangspunkt, die jeweilige Gegenwart, es gibt eine Gruppe von Akteuren, die selbst ernannten Problemlöser, und es gibt verschiedene Strategien, wie man versucht, ausgehend von einer – meist nur partiell bekannten – Gegenwart brauchbare Erkenntnisse für eine unbekannte Zukunft zu gewinnen; dazu soll die Lösung – entsprechend der Vision – ’resilient’ sein.

Schaut man sich konkrete Beispiele von Planungstätigkeiten aus den letzten Monaten im Rhein-Main Gebiet an, dann findet man sehr viele unterschiedliche Formen von Problemlösungsverhalten. Zwischen einer rein ’inner-behördlichen’ Vorgehensweisen mit sehr eingeschränkten Ist-Erfassungen und Lösungsfindungen bis hin zu einer sehr umfassenden Einbeziehungen von vielen Bevölkerungsgruppen über viele Kommunikationsstufen hinweg mit unterschiedlichen kreativen Ideen-Findungen. (4)

Diese letzteren, möglichst viele unterschiedliche Akteure einbeziehenden Vorgehensweisen, wirken auf den ersten Blick vertrauenerweckender, da grundsätzlich mehr Perspektiven zu Wort kommen und damit sowohl ein größerer Erfahrungsraum aus der Gegenwart wie auch eine größere Farbigkeit für eine mögliche Zukunft. Wäre solch eine Strategie die Strategie der Stunde?

(Anmk: 4: Dazu war das Referat von Dr.Gwechenberger vom Dezernat Planen und Wohnen der Stadt Frankfurt, sehr aufschlussreich. Neben der in der Sache gründenden Komplexität spielen die vielfältigen rechtlichen Vorgaben eine große Rolle, dazu die unterschiedlichen Mentalitäten aller Beteiligten, insbesondere die vielfältigen individuellen Interessen und Motivlagen. Das ganze eingebettet in unterschiedliche Zeitfenster, wann welche Aktion möglich, sinnvoll oder notwendig ist. Demokratie ist so gesehen auf jeden Fall zeitaufwendig, dann aber– hoffentlich – resilienter und nachhaltiger)

IV. MENSCH UND KOMPLEXITÄT

Schaut man sich an, was der Mensch als Lebensform des Homo sapiens in den vielen tausend Jahren seit seiner Besiedlung aller Erdteile geleistet hat, dann kann man sich eigentlich nur vor Ehrfurcht verneigen. Quasi aus dem Nichts kommend hat er es im Laufe von ca. 70.000 Jahren geschafft, aufgrund seiner Intelligenz und Sprachfähigkeit immer komplexere Tätigkeiten auszubilden, Handwerkszeug, Technologien, Regeln des Zusammenlebens, Großansiedlungen, komplexe Handelsbeziehungen. Er zeigte sich fähig, komplexe Staaten zu bilden, Großreiche, fantastische Architektur, immer komplexere Maschinen, empirische Forschungen bis in die Tiefen des Universums, in die Tiefen der Materie, in die verschlungenen Wege der Mikrobiologie von den Molekülen zu einfachen, dann komplexen Zellen bis hin zu komplexen Lebewesen, vielfältigste Formen von Klängen, Musik, Sounds, Bildwelten.

Schließlich erfand er auch die Computertechnologie, mit der man unvorstellbar viele Daten in unvorstellbar schneller Zeit verarbeiten kann. Würden heute auf einen Schlag alle Computer und Netzwerke weltweit still stehen, die Welt bräche völlig in sich zusammen. Ein beispielloses Chaos und Elend wäre die Folge.

Dies deutet indirekt auf einen Sachverhalt, den wir als Menschen im Alltag gerne übersehen, um nicht zu sagen, den wir geradezu verdrängen. Dies hat zu tun mit den realen Grenzen unserer kognitiven Fähigkeiten.

Trotz eines fantastischen Körpers mit einem fantastischen Gehirn hat jeder Mensch nur eine sehr begrenzte kognitive Aufnahmefähigkeit von ca. 5-9 Informationseinheiten pro Sekunde, was jeder Mensch in einfachen Selbstversuchen an sich überprüfen kann. (5) Und die Verarbeitung dieser Informationseinheiten mit Hilfe des vorher erworbenen Wissens verläuft unbewusst nach weitgehend relativ festen Schemata, die es einem Menschen schwer machen, Neues zu erfassen bzw. in sein bisheriges Bild von der Welt einzubauen. (6) Noch schwerer tut sich jeder Mensch, wenn es darum geht, Zusammenhänge zu erfassen, die vielerlei Faktoren umfassen, Faktoren, die oft zudem ’verdeckt’, auf den ersten Blick ’unsichtbar’ sind. Ganz schwer wird es, wenn sich komplexe Faktorenbündel zusätzlich in der Zeit ändern können, womöglich noch mit Rückkopplungen.

Gilt schon die Voraussage des Verhaltens eines einzelnen Menschen für nur ein Jahr mathematisch als unmöglich, so erscheint die Voraussage des Verhaltens von 5 Mio. Bewohner des Rhein-Main Gebietes entsprechend undurchführbar, zumal die Ab- und Zuwanderung hier sehr hoch ist. (7) Dazu kommen Veränderungen von Bedürfnislagen, Veränderungen von Technologien, Veränderungen von konkurrierenden Wirtschaftsregionen, und vieles mehr. Die bislang bekannten und praktizierten Planungsverfahren wirken angesichts dieser zu bewältigenden Komplexität nicht sehr überzeugend. Sie wirken eher hilflos, uninformiert. Scheitern wir mit unseren begrenzten individuellen kognitiven Fähigkeiten an der heutigen Komplexität?

(Anmk: 5: Die erste bahnbrechende Untersuchung zu der ’magischen Zahl 7+/-2’ stammt von George A.Miller (1956) [Mil56]. Dazu gibt es zahllose weitere Studien, die das Thema weiter auffächern, aber nicht diese grundsätzliche Kapazitätsbegrenzung.)

(Anmk: 6: Bekannte Texte zum Zusammenspiel zwischen Kurz- und Langzeitgedächtnis sind Baddeley/Logie (1999) [BL99], Baddeley (2003) [Bad03], und Repovs/Baddeley (2006) [RB06]. Allerdings ist das Thema Gedächtnis mit diesen Artikeln nicht abgeschlossen sondern wird in vielen hundert weiteren Artikeln weiter untersucht.)

(Anmk: 7: Hinweis von Dr. Gwechenberger zur Migration der Stadt Frankfurt: rein statistisch wird innerhalb von 12 Jahren die gesamte Bevölkerung von Frankfurt einmal komplett ausgetauscht.)

V. INGENIEURE ALS VORBILD

Vergessen wir für einen Moment das Problem des komplexen Ballungsraumes und schauen, was denn die Ingenieure dieser Welt machen, wenn sie seit Jahrzehnten komplexe Systeme entwickeln, bauen und in Betrieb halten, die die kognitiven Fähigkeiten eines einzelnen Ingenieurs um viele Dimensionen übersteigen.

Moderne Ingenieurleistungen verlangen das Zusammenspiel von oft mehr als 10.000 einzelnen Experten aus sehr vielen unterschiedlichen Gebieten, nicht nur über Monate, sondern oft über Jahre hin. Wie kann dies funktionieren?

Ingenieure haben sehr früh gelernt, ihr Vorgehen zu systematisieren. Sie haben komplexe Regelwerke entwickelt, die unter dem Stichwort ’Systems Engineering’ beschreiben, wie man beliebige Probleme von der Aufgabenstellung in eine funktionierende Lösung überführt, einschließlich umfassender Tests in allen Phasen. Und selbst der spätere Einsatz des entwickelten Produktes oder der entwickelten Dienstleistung ist nochmals spezifiziert. Dies führt dazu, dass z.B. Flugzeuge, Atomkraftwerke, landesweite Energienetzwerke, Raumfahrtprojekte, im Vergleich die sichersten Systeme sind, die wir kennen.

Neben ausgeklügelten Dokumentationstechniken spielen im Engineeringprozess mathematische Modelle eine zentrale Rolle und, seit vielen Jahren unverzichtbar, computergestützte Simulationen. Schon seit vielen Jahren gibt es kein einziges anspruchsvolles Produkt mehr, das zuvor nicht vollständig als Computersimulation ausprobiert und getestet wurde. Dazu gehören z.B. auch Computerchips, speziell jene Prozessoren, die das Herz eines Computers bilden. Schon vor 30 Jahren waren diese so komplex, dass deren Entwicklung und die Tests auf ihre Funktionstüchtigkeit ohne Computer nicht möglich war. Anders gesagt, wir können Computer und all die anderen komplexen Produkte schon seit Jahren nur entwickeln, weil wir dazu Computer einsetzen. Kein menschliches Gehirn ist in der Lage, die schon heute benötigten Komplexitäten noch irgendwie praktisch zu meistern, auch viele tausende Gehirne zusammen nicht.

Angesichts dieser Erfolgsgeschichten im Bereich des Engineerings kann man sich fragen, ob man von diesen Erfahrungen für den Bereich der Planung von Ballungsräumen nicht irgend etwas lernen könnte?

VI. CLUB OF ROME – NUR GESTERN?

Manche von Ihnen erinnern sich vielleicht noch an die zu ihrer Zeit provozierende erste Studie ”The Limits to Growth” des Club of Rome von 1972. (8) Dies war der erste Versuch, die Dynamik der Erde unter der Herrschaft der Menschen mit einem umfassenden Computermodell abzubilden und mit Hilfe des Modells mögliche Hinweise zu bekommen, wie sich die Dinge bei Veränderung der bekannten Faktoren in der Zukunft auswirken.

Seit dieser Veröffentlichung sind mehr als 40 Jahre vergangen. (9) Es gab auf der einen Seite heftigste Kritik, aber zugleich auch viele evaluierende Studien, die immer wieder bekräftigten, dass die Kernaussagen dieses Modells – das vergleichsweise einfach war und ist – sich im Laufe der Jahrzehnte für die Variante ’normaler Verlauf’ weitgehend bestätigt hat. (10)

Es ist hier nicht die Stelle, ein abschließendes Urteil über dieses Computermodell zu fällen (ein Student von mir hatte es mal vollständig nach-programmiert). Man kann aber sagen, dass solche Modelle den bislang einzig bekannte Weg markieren, wie wir Menschen mit unserer sehr begrenzten Fähigkeit zum Denken von Komplexität uns behelfen können, diese Grenzen ansatzweise zu überwinden. Man muss sich die Frage stellen, warum wir diese Anstöße nicht in der Gegenwart systematisch aufgreifen und für unsere Zukunft nutzen?

(Anmk: 8: Meadows et.al (1972) [MLRBI72]. Die Studie des Club of Rome war die Weiterentwicklung eines Computermodells, das zurück geht auf ein Systemmodell (und Programm), das Jay W. Forrester im Laufe von 15 Jahren entwickelt hatte. Thema von Forrester war die Erforschung der Dynamik von sozialen Systemen, speziell auch von Ballungsräumen (’urban areas’). Bemerkenswert ist bei Forresters Modellbildung, dass er auch den individuellen Menschen sieht, der mit seinem jeweiligen Weltbild (er nennt es ’mentales Modell’ bzw. dann einfach ’Modell’) die Welt wahrnimmt, interpretiert und danach handelt. Will man das Verhalten ändern, dann muss man das individuelle Weltbild ändern, das in enger Wechselbeziehung zur aktuellen Gesellschaft steht.(siehe Foorester (1971) [For71]))

(Anmk:9: Da der Club of Rome 1968 gegründet wurde, feiert er 2018 sein 50-jähriges Jubiläum … und er ist immer noch aktiv.)

(Anmk: 10: Ein erster Überblick über die verschiedenen Argumente für und gegen die Analysen des Club of Rome finden sich in dem einschlägigen Wikipedia-Artikel https://en.wikipedia.org/wiki/Club of Rome. Im deutschen Wikipedia-Eintrag finden sich keine Hinweise auf kritische Einwände!)

VII. DER UMFASSEND DIGITALISIERTE MENSCH ENTSTEHT HEUTE

Im Jahre 1972 war der Computer noch keine Maschine des Alltags. Dies begann erst ab dem Jahr 1977 mit dem Auftreten von Kleincomputern für den privaten Gebrauch. Die Entwicklung seitdem war und ist explosiv.

Die Situation heute ist so, dass der Mensch mit seinem realen Körper zwar noch weiterhin in einer realen Körperwelt verankert ist, dass er aber über die vielen elektronischen Geräte, speziell durch Smartphones, Wearables, Tabletts, Notebooks, Laptops und PCs mit immer größeren Zeitanteilen seine Tages über Datennetze mit einer globalen Datenwelt verbunden ist, die rund um die Uhr Raum und Zeit vergessen lässt. Definierte sich ein Mensch früher über seine realen Aktivitäten, wird dies zunehmend ergänzt durch digitale Aktivitäten und Ereignisse. Das Selbstbild, der ganze persönliche Erlebnisraum wird zunehmend durch solche nicht-realweltlichen Strukturen ersetzt. Empirische Realität und digitale Realität beginnen im virtuellen Raum des individuellen Bewusstseins zu verschwimmen. Müsste der Mensch nicht noch seine elementaren körperlichen Bedürfnisse befriedigen, er könnte subjektiv ausschließlich im digitalen Raum arbeiten, kommunizieren, soziale Erfüllung finden, Spielen und . . . . die Grenzen dieser neuen digital erweiterten Lebensform sind bislang noch schwer zu fassen.

Während der professionelle Planungsalltag der Kommunen und Regionen Computer noch sehr verhalten einsetzt, zeigen uns die vielen Mio. Computerspieler weltweit, dass die Menschen sehr wohl Gefallen daran finden können, mit den Mitteln der Computersimulation die Gegenwart hinter sich zu lassen. Allein für Online-Computerspiele hat sich der Markt von 2011 bis 2016 von 21 Mrd. auf 31 Mrd. US-Dollar vergrößert. (11) Für das Jahr 2017 notieren die sechs Länder mit dem höchsten Umsatz bei Onlinespielen (China, USA, Japan, Deutschland, England, Südkorea) zusammen 84.7 Mrd.US-Dollar. (12) Dazu kommen nochmals 8 Mrd. US-Dollar für PC- und Spielkonsolenspiele. (13)

Computerspiele sind komplexe Simulationen in denen eine Ausgangslage mit Hilfe von Regeln in beliebig viele Nachfolgesituationen transformiert werden können. Dies geschieht mittlerweile in 3D, berücksichtigt realistische Geländeformationen mit Vegetation, komplexe Gebäude, viele Tausend Mitspieler, erlaubt gemeinsame Aktionen und macht so eine dynamische digitale Welt virtuell erlebbar.

Diese theoretische Beschreibung lässt das gewaltige Potential erahnen, das Computerspiele prinzipiell für Lernprozesse und für gemeinsame Zukunftsforschung haben könnten. In der Realität bleiben diese aber weit hinter ihren Möglichkeiten zurück, da die Betreiber bislang wenig Interesse zeigen, das Lern- und Forschungspotential dieser neuen ’Technologie ernsthaft zu nutzen. Die Computerspiele sind bislang eher Erlebnis-, nicht Wissens- getrieben.

(Anmk: 11: Quelle: https://www.statista.com/statistics/292516/pc-online-game-market-value-worldwide/.)

(Anmk: 12: Quelle: https://www.statista.com/statistics/308454/gaming-revenue-countries/.)

(Anmk: 13: Quelle: https://www.statista.com/statistics/237187/global-pc-console-games-revenue-by-type/. )

VIII. SIMULATIONEN BEHERZTER NUTZEN?

An dieser Stelle kann man sich die Frage stellen, warum man das Komplexitätsproblem am Beispiel von Ballungsräumen nicht mit diesen neuen Simulationstechniken angehen sollte?

Verteilte Simulationen würden beliebigen Bürgern die reale Möglichkeit bieten, sich zu beteiligen. Das unterschiedliche Wissen in den unterschiedlichen Köpfen könnte man schrittweise aufsammeln und als Regelwissen in den Simulationen zur Verfügung stellen. Im Unterschied zu kommerziellen Spielen könnte man diese Regeln offenlegen für alle und sie zum Gegenstand von Fachgesprächen machen. In realen Simulationsabläufen könnte man jeweils austesten, wie sich bestimmte Regeln auswirken: sind sie realistisch? Wo führen sie uns hin? Welche Wechselwirkungen mit anderen Regeln tun sich auf? Dieses Werkzeug könnten den Fachabteilungen in den Behörden genauso offen stehen wie den Schulen und Universitäten; Firmen könnten ihre eigenen Szenarien ausprobieren. Alle könnten sich immer wieder auch zu gemeinsamen Experimenten verabreden; man könnte gar Wettbewerbe starten, eine Art kommunales eGaming. In diesem Fall würde es dann wirklich um etwas gehen, nämlich um die eigene Welt und ihre mögliche Zukunft. Mit einem solchen verteilten dynamischen Planungswerkzeug könnte man den Ballungsraum 2117 schon ziemlich gut erforschen, zumindest soweit es uns heute, im Jahr 2018 überhaupt möglich ist. (14)

(Anmk: 14: Im Rahmen der abschließenden Podiumsdiskussion zur Tagung stieß die Idee des Einsatzes von mehr Computersimulationen im Gewand von Computerspielen für die Stadtplanung auf unterschiedliche Reaktionen. Der meiste Widerstand ging aus von der Vorstellung, dass Computerprogramme abgeschlossene Einheiten sind, die aus sich heraus niemals die Vielfalt und Dynamik der Wirklichkeit abbilden könnten. Dem hielt der Autor entgegen, dass man primär vom Kommunikationsprozess zwischen Menschen her denken müsse, dem Austausch von Weltbildern, verbunden mit einem möglichen ’Um-Lernen’ dieser Weltbilder. Innerhalb dieser Kommunikationsprozesse kann eine Computerspielumgebung sehr wohl helfen, komplexe Sachverhalte besser zu nutzen. Außerdem können die Regeln, nach denen hier die Welt gesteuert wird, von allen Teilnehmern eingesehen und auf Wunsch geändert werden.)

IX. TECHNISCHE SUPERINTELLIGENZ

An dieser Stelle könnte dieser Vortrag unter normalen Umständen enden. Schon jetzt enthält er eine Reihe von Anregungen, die über den aktuellen Status Quo weit hinausgehen. Aber wir leben in einer Zeit, in der die Welt – spätestens seit der Cebit 2016 – zu fast allen passenden und auch unpassenden Gelegenheiten mit dem Begriff ’Künstliche Intelligenz’ beschallt wird. Kaum noch ein Produkt oder eine Dienstleistung, die nicht irgendwie den Anspruch erhebt, entweder schon über ’künstliche Intelligenz’ zu verfügen oder demnächst mit so etwas ausgestattet zu werden. Und neben den Evangelisten der künstlichen Intelligenz treten auch die Propheten des Untergangs der Menschheit auf, für die die aktuelle ’Künstliche Intelligenz’ nur der Vorläufer einer ganz neuen, noch mächtigeren ’Künstlichen Intelligenz’ sei, die als ’Singularity’ alles übertreffen wird, was der Mensch als künstliche Intelligenz kennt und beherrscht. (15) Diese neue Super-Intelligenz soll dem Menschen in Geschwindigkeit, Datenvolumen und Denkfähigkeit so weit voraus und darin überlegen sein, dass diese technische Superintelligenz vom Menschen nicht mehr ernsthaft kontrolliert werden kann. Sie ist gegenüber dem Menschen so überlegen, dass sie den Menschen locker als überflüssiges Etwas abschaffen kann. Wie immer, gehen die Schätzungen, wann dies der Fall sein wird, deutlich auseinander, aber das Jahr 2117 ist ein guter Kandidat, wann es soweit sein könnte. (16) Was soll man von dieser nicht gerade beruhigenden Vision halten?

Dass Menschen alles, was ihnen neu und unbekannt ist, und ihnen Angst macht, in Form von überirdische Fabelwesen packen, ist so alt, wie die Aufzeichnungen der Menschheit reichen. In den vielen Sagen gibt es dann irgendwann einen Menschen, einen besonderen Menschen, einen Helden, der dann irgendwann eine Schwachstelle findet, durch deren Ausnutzung der Held dann das Fabelwesen zur Strecke bringen kann. Im Fall des neuen Mythos von der technischen Superintelligenz muss man allerdings nicht sehr weit suchen, um zu sehen, dass die Dinge vielleicht doch ganz anders liegen, als die Marketingmaschinerien uns glauben lassen wollen. Und ja, doch, es könnte sogar sein, dass sich hinter dem abschreckenden Mythos von der menschenfeindlichen technischen Superintelligenz eine sehr konkrete Technologie verbirgt, die uns Menschen bei unserem Komplexitätsproblem ernsthaft helfen könnte. Gehen wir zurück zu dem Mann, mit dem das seriöse Reden über die Computer-Maschine angefangen hat.

(Anmk: 15: Ein wichtiger Text zu Beginn der Diskussion um die ’technische Singularität’ ist ein Beitrag von Vinge 1993 zu einer Nasa-Konferenz [Vin93]. Ein sehr guter Einstieg in die Thematik der technischen Singularität findet sich in dem Wikipedia-Artikel zur ’Technological Singularity’, URL: https://en.wikipedia.org/wiki/Technological singularity)

(Anmk: 16: Für eine Diskussion, wann man mit welcher Art von ’Super-Human-Level’ maschineller Intelligenz rechnen sollte, finden sich im Kap.1 von Bostrom 2014 [Bos14]:SS.18-21 einige Argumente. Klar ist, dass es nicht ganz klar ist; es gibt zu viele Unbekannte und wichtige Begriffe sind unscharf. So gesehen ist die Zahl ’2117’ (geschrieben im Jahr 2017) eine fast ’satirische’ Schätzung unter Berücksichtigung der Argumente bei Bostrum.)

X. WAS KANN EIN COMPUTER?

Während die modernen Naturwissenschaften ihren Untersuchungsgegenstand, die reale Natur, von vornherein nicht kennen, sondern sich mühsam, über viele kleine Schritte, ein Bild erarbeiten müssen, wie es vielleicht sein könnte, hat die Computerwissenschaft es einfacher. Sie beginnt dort, wo es überhaupt noch keine Computer gab, sondern nur ein mathematisches Konzept über eine ideale Maschine, deren einzige Fähigkeit darin besteht, in völlig transparenter Weise eine endliche Liste von primitiven Befehlen auszuführen. (17) Im Unterschied zu einer normalen Maschine, die keine Befehle ausführt, kann eine Computer-Maschine Befehle ausführen. Dies erscheint noch nicht besonders aufregend. Ein klein wenig aufregender wird es dadurch, dass die Computermaschine mit einem Schreib-Lese-Band verknüpft ist, auf dem beliebige Zeichen stehen können. Man kann die Computer-Maschine so auslegen, dass sie diese Zeichen auf dem Schreib-Lese-Band als ihre neuen Anweisungen interpretiert. Dies klingt auch noch nicht aufregend. Aufregend wird es, wenn man sich klar macht, dass die Computer-Maschine diese Anweisungen auf dem Schreib-Lese-Band in eigener Regie verändern kann. Sie kann sozusagen das Programm, das sie steuert, selber abändern und damit die Kontrolle über ihre eigene Steuerung übernehmen. Damit verfügt die Computer-Maschine über eine wichtige Voraussetzung, um im Prinzip voll lernfähig zu sein.

Der soeben erwähnte Turing (18) war auch einer der ersten, der in drei Artikeln 1948, 1950 sowie 1953 ganz offen die Frage diskutierte, ob Computer-Maschinen, falls es diese irgendwann einmal als reale Maschinen geben würde, auch eine Intelligenz haben könnten, wie wir sie von Menschen kennen. (19) Turing selbst sah die Möglichkeit eher positiv. Er machte allerdings schon damals darauf aufmerksam, dass Computer-Maschinen aus seiner Sicht nur dann eine reelle Chance haben würden, mit dem Menschen im Lernen gleich zu ziehen, wenn sie ähnlich wie Kindern selbständig durch die Welt streifen könnten und – ausgestattet mit Kameras, Mikrophonen und weiteren Sensoren – die Welt wie sie ist wahrnehmen könnten.

Mittlerweile schreiben wir das Jahr 2018, das sind mehr als 65 Jahre nach Turings Spekulationen zu intelligenten, lernfähigen Computern. Wie viele Computer streifen durch die Welt wie Kinder? Nicht all zu viele, muss man feststellen; eigentlich kein einziger. Die bisherigen Roboter, die bekannt sind, haben eine sehr eingeschränkte Bewegungsfähigkeit und keiner von diesen lernt bislang in einer unbeschränkten Weise, wie Kinder es tun.

Der Bereich, in dem über lebenslang frei lernende Roboter geforscht wird, nennt sich ’Developmental Robotics’ oder – noch radikaler – ’Evolutionary Developmental Robotics’. (20) In einer Forschungsübersicht aus dem Jahr 2017 (21) gibt es eine zentrale Einsicht, die uns an dieser Stelle helfen kann. (22) Zwar weiß man eigentlich schon von den Anfängen in der Künstlichen Intelligenzforschung in den 1960iger Jahren, dass jegliche Art von Lernen minimale Formen von Rückmeldung benötigt, aber die Tragweite dieses Momentes wurde vielen Forschern erst in den letzten Jahren, und speziell in der ’Erforschung des offenen‘ Lernens so richtig klar. Wenn eine Computer-Maschinen selbständig offen lernen können soll, dann braucht sie minimale Präferenzen, um im allgemeinen Rauschen der Ereignisse Ansätze möglicher Muster zu finden. Im Fall von biologischen Systemen gibt es eine Mischung von sogenannten angeborenen Präferenzen, die sich letztlich von der Überlebenserfahrung herleiten, und eben das schlichte Überleben selbst. Nur wer überlebt besitzt offenbar brauchbare Informationen. Im Fall von Computer- Maschinen gibt es keine Überlebenserfahrungen. Eine Computer-Maschine beginnt am absoluten Nullpunkt. Bis vor wenigen Jahren haben Ingenieure das Problem dadurch gelöst, dass sie ihre eigenen Präferenzen in die Computer-Maschinen eingebaut haben. Dies hat so lange funktioniert, wie die Computer-Maschinen nur sehr spezielle Aufgaben lösen mussten, z.B. als Industrieroboter. In dem Maße aber, wie Computer-Maschinen beliebige Aufgaben lernen können sollen, funktioniert diese Strategie nicht mehr. Was nun? Woher sollen solche allgemeinen Präferenzen kommen?(23)

Die Frage mit den Präferenzen (andere sprechen von Werten) hat eine zusätzliche pikante Note, da der Homo sapiens das erste Lebewesen auf der Erde ist, das nicht mehr ausschließlich durch die nackte Überlebensnotwendigkeit getrieben ist. Der Homo sapiens, also wir Menschen, haben es durch unsere geistigen und kommunikativen Möglichkeiten geschafft, das nackte Überleben z.T. sehr weit in den Hintergrund zu drängen. Damit stellt sich für die Lebensform des Homo sapiens erstmals seit 4 Milliarden Jahren biologischen Lebens die Frage, welche möglichen Präferenzen es möglicherweise neben oder sogar vor dem nackten Überleben geben könnte. Dummerweise enthält der genetische Code keine direkte Antwort auf die Frage nach zusätzlichen Präferenzen.

(Anmk: 17:  Der Text, in dem diese Art der Beschreibung eines idealen Computers erstmals vorkommt, ist ein Text, in dem Alan Matthew Turing einen metamathematischen Beweis geführt hat, in dem es um eine andere Version des Unentscheidbarkeitsbeweises von Kurt Gödel 1931 ging. Siehe [Tur 7]. Zu Ehren von Turing wurde diese Version der Definition eines Computers ’Turingmaschine’ genannt. )

(Anmk: 18: Eine sehr gute Biographie zu Turing ist Hodges (1983) [Hod83])

(Anmk: 19: Siehe Turing 1948 [M.87], 1950 [Tur50], sowie 1953 [Tur63] 20 Erste gute Überblicke bieten die beiden Wikipediaeinträge zu ’developmental robotics’ https://en.wikipedia.org/wiki/Developmental robotics sowie zu ’evolutionary developmental robotics’ https://en.wikipedia.org/wiki/Evolutionary developmental robotics)

(Anmk: 21: Siehe Merrick (2017) [Mer17])

(Anmk: 22: Ergänzend auch Singh et.al. (2010) [SLBS10] und Ryan/Deci (2000) [RD00] )

(Anmk: 23: Eine der verbreitetsten Lernformen im Bereich Künstliche Intelligenz ist das sogenannte ’Reinforcement Learning (RL)’. Dieses setzt explizit ’Belohnungssignale’ (’reward’) aus der Umgebung voraus. Siehe zur Einführung Russell/ Norvig 2010 [RN10]:Kap.21 und Sutton/Barto 1998 [SB98])

XI. DAS EI DES COLUMBUS

Das Ei des Columbus gilt als Metapher für Probleme, die als unlösbar gelten, für die es dann aber doch eine Lösung gibt.

In unserem Fall ist das Problem die begrenzte kognitive Ausstattung des Menschen für komplexe Situationen sowie die Präferenzfreiheit technischer Systeme. Die bisherigen Lösungsansätze einer cloud-basierten allgemeinen Intelligenz führt letztlich zu einer Entmachtung des einzelnen ohne dass eine cloud-basierte Intelligenz eine wirklich Überlebensfähigkeit besitzt. Sie gleicht eher einem Vampir, der so lange lebt, als viele einzelne sie mit Details aus ihrem Alltag füttern. Ohne diese Details ist solch eine cloud-basierte Intelligenz ziemlich dumm und kann einem einzelnen kein wirklicher persönlicher Assistent sein.

Die Lösung könnte tatsächlich ein reales Ei sein, ein Ei gefüllt mit einer Computer-Maschine, deren Rechenkraft vor Ort genau einem Menschen zur Verfügung steht und genau diesem einem Menschen rund um die Uhr hilft, seine kognitiven Begrenzungen auszugleichen und zu überwinden. Dieses Computer-Maschinen Ei (natürlich könnte es auch jede andere Form haben, z.B. als Ohrring, Halskette, Armband usw.) kann mit dem Internet Verbindung aufnehmen, mit jeder denkbaren Cloud, aber nur dann, wann und wie dieses Ei es selber will, und es würde keinerlei privates Wissen einfach so preisgeben. So, wie die Gehirne der Menschen anatomisch alle ähnlich sind und doch sehr individuelle Persönlichkeiten ermöglichen, so kann ein Computer-Maschinen Ei die individuellen Erfahrungen und das individuelle Wissen eines Menschen passgenau erkennen und fördern. Es entsteht eine Symbiose von Mensch und Maschine, die deutlich mehr sein kann als jede Komponenten für sich alleine.

XII. EINE NEUE MENSCH-MASCHINE SUPER-INTELLIGENZ FÜR DEN BALLUNGSRAUM?

Greift man an dieser Stelle nochmals die Vision einer verteilten, flexiblen Simulationsumgebung für die Bürger in einer Region auf, dann kann eine zusätzliche Ausstattung aller Bürger mit ihren persönlichen intelligenten Assistenten dem ganzen Projekt einen zusätzlichen messbaren Schub geben. Die persönlichen Assistenten können auch dann arbeiten, wenn der einzelne mal müde ist, sich entspannen will oder mal mit familiären Aufgaben beschäftigt ist. Und der persönliche Assistent kann auch viele Tausend oder Millionen Faktoren gleichzeitig in Rechnung stellen und in ihren Auswirkungen verfolgen. Im Zusammenwirken dieser vielen natürlichen und technischen Intelligenzen könnte eine Mensch-Maschine Superintelligenz entstehen, die den einzelnen voll mit nimmt, und als Gesamtphänomen erheblich leistungsfähiger sein wird, als alles, was wir heute kennen.

Allerdings, wir sollten uns nicht der Illusion hingeben, dass damit dann alle Probleme gelöst wären. Das Problem der geeigneten Präferenzen, sprich der Werte, wird bleiben; es wird sich vermutlich eher verschärfen. Auch die Verantwortung für uns Menschen wird weiter wachsen, auch wenn sich diese Verantwortung qualitativ neu immer auf ganz viele verteilen wird.

IX QUELLEN

[Bad03] Alan Baddeley. Working memory and language: an overwiew. Journal of Communication Disorders, 36:236–242190–208, 2003.

[BL99] A. Baddeley and R.H. Logie. Working memory: The multiple-component model. In A. Myake and P. Shah, editors, Models of working memory, chapter 2, pages 28–61. Cambridge University Press, New York, 1999.

[Bos14] Nick Bostrom. Superintelligence. Paths, Dangers, Strategies. Oxford University Press, Oxford (UK), 1 edition, 2014.

[BP16] Thorsten Bürklin and Michael Peterek. Thecycloregion. city-regional development in frankfurt rhine-main – die zykloregion. stadtentwicklung in frankfurtrheinmain. Journal of Comparative ’Cultural Studies in Architecture, 9:41–51, 2016.

[For71] Jay W. Forrester. World Dynamics. Wright-Allen Press, Inc., Cambridge (MA) 02142, 2 edition, 1971.

[Hod83] Andrew Hodges. Alan Turing, Enigma. Springer Verlag, Wien – New York, 1 edition, 1983.

[Hol73] C.S. Holling. Resilience and stability of ecological systems. Annual Review of Ecology and Systematics, 4(1):1–23, 1973.

[Jak13] Peter Jakubowski. Resilienz – eine zusätzliche denkfigur für gute stadtentwicklung. Informationen zur Raumentwicklung, 4:371–378, 2013.

[M.87] Turing Alan M. Intelligente maschinen. In Bernhard Dotzler and Friedrich Kittler, editors, Alan M. Turing. Intelligence Service, pages 81 – 113. Brinkmann & Bose, Berlin, 1987.

[Mer17] Kathryn Merrick. Value systems for developmental cognitive robotics: A survey. Cognitive Systems Research, 41:38 – 55, 2017.

[Mil56] Geroge A. Miller. The magical number seven, plus or minus two: Some limits on our capacity for processing information. Psychological review, 63:81–97, 1956.

[MLRBI72] Donella H. Meadows, Meadows Dennis L., Jørgen Randers, and William W. Behrens III. The Limits to Growth. A Report for the Club of Rome’s Project on the Predicament of Mankind. Universe Books, New York, 1 edition, 1972.

[PB13] Michael Peterek and Thorsten Bürklin. Potentials and challenges of polycentric city-regions: A case-study of frankfurt rhine-main. Technical Transactions Architecture – Czasopismo Techniczne Architektura, 1-A:179–189, 2013.

[RB06] G. Repovs and A. Baddeley. The multi-component model of working memory: Explorations in experimental cognitive psychology. Neuroscience, 139:5–21, 2006.

[RD00] Richard M. Ryan and Edward L. Deci. Intrinsic and extrinsic motivations: Classic definitions and new directions. Contemporary Educational Psychology, 25(1):54 – 67, 2000.

[RN10] Stuart Russel and Peter Norvig. Artificial Intelligence. A Modern Approach. Universe Books, 3 edition, 2010.

[SB98] Richard S. Sutton and Andrew G. Barto. Reinforcement Learning. An Introduction. The MIT Press, Ambridge (MA) – London, 1 edition, 1998.

[SLBS10] S. Singh, R. L. Lewis, A. G. Barto, and J. Sorg. Intrinsically motivated reinforcement learning: An evolutionary perspective. IEEE Transactions on Autonomous Mental Development, 2(2):70–82, June 2010.

[Tur50] Alan Turing. Computing machinery and intelligence. Mind, 59:433–460, 1950.

[Tur63] Alan Matthew Turing. Digital computers applied to games. In B.V. Bowden, editor, Faster Than Thought. Pitman Publishing, London, 1963.

[Tur 7] Alan M. Turing. On computable numbers, with an application to the entscheidungsproblem. Proceedings of the London Mathematical Society, 42(2):230–265, 1936-7.

[Vin93] Vernor Vinge. The coming technological singularity: How to survive in the post-human era. In G.A. Landis, editor, Vision-21: Interdisciplinary Science and Engineering in the Era of Cyberspace, pages 11–22. 1993.

PROJEKTGRÜNDUNG

Im Anschluss an dieses Konferenz kam es zur Gründung eines Projektes, das versucht, den ‚Spirit des Kongresses‘ aufzugreifen und konkret umzusetzen. Siehe dazu HIER.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

INFORMELLE KOSMOLOGIE – Und die Mensch-Maschine Frage

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 11.Februar 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

(Letzte Korrekturen: 12.Febr.2018)

PDF

INHALT

I Einleitung 2
II (Intelligente) Maschine 2
III Mensch 2
IV Informelle Kosmologie 3
V Philosophischer Ausklang 4

THEMA

Die Frage nach der Zukunft von Menschen in einer Welt voller intelligenter Maschinen tritt immer mehr in das Zentrum der globalen Aufmerksamkeit. Während lange Zeit positive Visionen einer besseren Zukunft des Menschen mittels (intelligenter) Maschinen die Aufmerksamkeit auf sich zogen, kommen aktuell aber auch eher negative Aspekt zum Vorschein: werden die intelligenten Maschinen die Menschen ersetzen? Was wird aus einer Menschheit, deren primärer gesellschaftlicher Wert sich bislang über die erbrachte Arbeit definiert hat? Hängt der Wert eines Menschen
nur ab von der Form seiner entlohnten Arbeit? Ist der Mensch als Mensch nicht letztlich ’minderwertiger’ als eine intelligente Maschine als Teil des Produktionsprozesses? Was ist überhaupt der Mensch? Der Text hier geht ein paar neue Wege…

I. EINLEITUNG

Die Frage nach der Zukunft von Menschen in
einer Welt voller intelligenter Maschinen tritt immer
mehr in das Zentrum der globalen Aufmerksamkeit.
Während lange Zeit positive Visionen einer besseren
Zukunft des Menschen mittels (intelligenter) Maschinen
die Schlagzeilen beherrscht haben, kommen aktuell
immer mehr auch negative Aspekt zum Vorschein:
werden die intelligenten Maschinen die Menschen
ersetzen? Was wird aus einer Menschheit, deren
primärer gesellschaftlicher Wert sich bislang über die
erbrachte Arbeit definiert hat? Hängt der Wert eines
Menschen nur ab von der Form seiner entlohnten
Arbeit? Ist der Mensch als Mensch nicht letztlich
’minderwertiger’ als eine intelligente Maschine als Teil
des Produktionsprozesses? Was ist überhaupt der
Mensch?

Die Perspektiven der Diskussion um den Wert
des Menschen, um das rechte Menschenbild, sind
vielfältig und einiges davon wurde in vorausgehenden
Blogeinträgen schon angesprochen. Ein letzter Beitrag
nahm sich das Menschenbild der Psychoanalyse als
Aufhänger, um die Frage nach dem Menschenbild mal
von dieser Seite aus zu diskutieren.

Wie immer man aber die Diskussion beginnen will,
von welchem Standpunkt aus man auf das Problem
drauf schauen möchte, man kommt nicht umhin sich
Klarheit darüber zu verschaffen, was einerseits mit dem
Begriff ’Mensch’ gemeint ist und andererseits mit dem
Begriff ’intelligente Maschine’.

 

II. (INTELLIGENTE ) MASCHINE

Während es im Fall von ’intelligenten Maschinen’
zumindest für die ’potentiell intelligenten Maschinen’
fertige mathematische Definitionen gibt, dazu
viele theoretische Abhandlungen mit ausführlichen
mathematischen Beweisen, welche Eigenschaften denn
eine so mathematisch definierte Maschine grundsätzlich
haben kann bzw. nicht haben kann, wird es bei der
’Realisierung’ der mathematischen Konzepte als ’reale
Maschinen’ schon schwieriger. Die ’reale (empirische)
Welt’ ist keine Formel sondern ein Konglomerat von mehr
oder weniger verstanden Eigenschaften und Dynamiken,
deren Beschreibung in den empirischen Wissenschaften
– allen voran die Physik – bislang nur teilweise gelungen
ist. Aber selbst das, was bislang beschrieben wurde
repräsentiert keine ’absoluten’ Wahrheiten sondern
eine Menge von mehr oder weniger gut begründeten
’Hypothesen’, wie die beobachtbare und messbare Welt
vielleicht ’zu sehen ist’.

III. MENSCH

Im Falle des Menschen ist die Ausgangslage eine
andere. Hier steht am Anfang keine klare mathematischeDefinition, sondern wir stoßen beim Menschen zunächst auf eine Fülle empirischer Phänomene,
deren Komplexität – das beginnt die Wissenschaft
langsam zu ahnen – alles übersteigt, was bislang im
beobachtbaren Universum entdeckt werden konnte.

Es ist daher nicht verwunderlich, dass die Menschen
in der bisherigen Geschichte – soweit sie rekonstruiert
werden konnte – mit Bildern von ’sich selbst’ hantiert
haben, die schlicht und einfach zu primitiv waren
(und sind), viel zu einfach, irreführend, und in diesem
Sinne möglicherweise lebensbedrohend sind für die
Menschheit als Ganzes. Denn, solange die Menschen in
ihrer Gesamtheit sich selbst nicht verstehen und von
sich in einer Weise denken, die wichtige Eigenschaften
verdeckt, überdeckt, entstellt, so lange kann der Mensch
seine eigene Zukunft kaum sinnvoll in die Hand nehmen.
Solange klare Leitbilder fehlen, solange ist die Gefahr
real und groß, sich selbst von einer in die nächste
Katastrophe zu steuern. Wie lange die Menschheit
als Ganze diesen Schlingerkurs des selbst gewählten
Wahnsinns überlebt, weiß keiner. Eine starke Hoffnung,
dass die Menschheit es irgendwie schaffen kann,
gründet darin, dass das gesamte biologische Leben
in seiner bis heute nicht verstandenen Komplexität
ja nicht stattfindet, weil irgendwelche Menschen sich
dies ausgedacht haben, sondern weil das biologische
Leben Teil eines komplexen dynamischen Prozesses
ist, der seinen ’eigenen Regeln’ folgt, Regeln, die dem
menschlichen Wahrnehmen, Fühlen und Denken ’voraus
liegen’!

Unsere Hoffnung ruht also darin, dass wir als
Menschen – bevor wir überhaupt irgendetwas selbst tun,
schon weitgehend ’getan wurden und werden’.

Allerdings – und darin liegt eine eigentümliche
Paradoxie – der bisherige Prozess der biologischen
Lebenswerdung ist so gestaltet, dass der Prozess
des gesamten bekannten Universums mehr und
mehr über das ’Erkennen der Welt’ und im darin
gründenden ’Gestalten der Welt’ in eine immer größere
Abhängigkeit von genau diesem biologischen Leben
gerät. Der gesamte Prozess der Entstehung des
biologischen Lebens – so kann man es sehen, wenn
man entsprechend hinschaut – zeichnet sich dadurch
aus, dass die materiellen Strukturen und die damit
verknüpften Dynamiken immer mehr in der Lage
sind, die Gegenwart von Ereignissen im künstlich
geschaffenen ’Inneren’ zu ’erinnern’, zu ’denken’, damit
’gedanklich (= virtuell) zu spielen’ und auf diese Weise
Schritt für Schritt den Ablauf des gesamten Universums
nicht nur zu ’rekonstruieren’, sondern auch zunehmend
’aktiv zu verändern’.

 

IV. INFORMELLE KOSMOLOGIE

Will man die Rolle des Menschen als Teil des
biologischen Lebens, dieses wiederum als Teil der
gesamten Erdgeschichte, der Geschichte unseres
Sonnensystems, und letztlich des gesamten bekannten
Universums verstehen, stößt man ziemlich schnell auf
das Problem einer zerklüfteten Wissenslandschaft, in der
sich täglich ’Datengebirge’ in immer größerem Ausmaßes
auftürmen, gesammelt aus einer unüberschaubaren
Menge von Blickwinkeln (bisweilen organisiert als
wissenschaftliche Disziplinen). Und da es keine
einheitliche Sprache für alle diese Sichten gibt, ist man
schon im Ansatz buchstäblich ’sprachlos’. Ohne Sprache
aber funktioniert unser Denken kaum bis gar nicht,
zumindest nicht, wenn es um klare kommunizierbare
Einsichten gehen soll.

Grundsätzlich ist dieses Phänomen der ’Sprachlosigkeit’ in den Wissenschaften nicht neu, im Gegenteil. Die Geschichte der Wissenschaften ist
auch eine Geschichte des permanenten Erfindens
neuer Sprache, um neue Phänomene angemessen
beschreiben zu können. Dieses ’Erfinden’ und
’Umsetzen’ ist meist ein langwieriger Prozess von
ersten Ideen, Sprechversuchen, vielen Diskursen,
Missverständnissen, Ablehnungen, Verteufelungen, und
mehr.

Bei meinem eigenen Versuch, mir einen ’Reim’ auf alle
die bekannten Phänomene im Umfeld des Menschen
(und der aufkommenden intelligenten Maschinen) zu
machen, habe ich schon viele Darstellungsweisen
versucht. Und auch jetzt bin ich aus diesem Zustand
des ’Suchens’ und ’Probierens’ noch nicht wirklich
heraus (wobei die Wissenschaft, wie oben angedeutet,
ja niemals ganz aus dem Suchen und Probieren heraus
kommen kann).

Mein letzter Verstehensversuch ist in dem beigefügten
Schaubild angedeutet (siehe das Bild 1).

Informelle Kosmologie unter Einbeziehung des Phänomens des biologischen Lebens
Bild 1: Informelle Kosmologie unter Einbeziehung des Phänomens des
biologischen Lebens

So ’komplex’ das Schaubild aussieht, so extrem
vereinfachend ist es mit Blick auf die Komplexität der
realen Welt ’dahinter’.

Was in diesem Schaubild nicht direkt abgebildet
ist, das ist die ’zeitliche Abfolge’ der Ereignisse im
Universum. Sie ist nur indirekt erschließbar über die
Verschachtelung der angezeigten Größen.

So gibt es eine Entsprechung zwischen der ’Energie’
einerseits und dem ’Raum’ und der darin auftretenden
’Materie’ andererseits.

Von der Materie wiederum wissen wir, dass sie
Komplexitätsebenen umfasst wie z.B. dass die ’Atome’
selbst sich wiederum aus ’sub-atomaren Teilchen’
konstituieren, die ’Moleküle’ aus Atomen, ’einfache’ und
’komplexe Zellen’ wiederum aus Molekülen, usw..

Parallel zur Struktur der Materie als sub-atomare
Teilchen, Atome, Moleküle usw. gibt es aber auch
immer ’Makrostrukturen’, die sich im allgegenwärtigen
’Raum’ ausbilden. Diese Makrostrukturen bilden sich
aus Ansammlungen von Atomen und Molekülen,
bilden ’Gaswolken/ Nebel’, darin wiederum kommt
es zur Bildung von ’Sternen’ und ’Planeten’, darüber
hinaus bilden viele Sterne zusammen ’Galaxien’, diese
wiederum ’Cluster’, und mehr.

Zwischen einer Makrostruktur und ihren materiellen
Sub-Strukture gibt es vielfältige spezifische Wechselwirkungen.

Vom ’biologischen Leben’ auf der Erde wissen wir,
dass es durch Formation von zunächst ’einfachen’,
später dann auch ’komplexen’ Zellen auf der Basis
von Molekülen immer neue, komplexe Eigenschaften
ausgebildet hat. Dies allerdings nicht isoliert, sondern
im Verbund von vielen Atomen und Molekülen in
spezifischen Makrostrukturen wie einem ’Ozean’, der
sich auf der Erde neben der ’Lithosphäre’ und der
’Atmosphäre’ herausgebildet hatte.

Biologische ’Zellen’ zeigen neben vielen Detailprozessen vornehmlich drei große Eigenschaften: (i) sie können mittels Atom- und Molekül basierter
Prozesse ’Freie Energie’ aus der ’Umgebung’ aufnehmen
und für Prozesse in der Zelle nutzen. Sie können (ii)
mittels dieser energiegetriebenen Prozesse molekulare
Strukturen ’generieren’ oder ’umformen’. Sie verfügen (iii)
über die nur sehr schwer zu erklärenden Eigenschaft, Prozesse
mittels molekularer Strukturen so zu ’kodieren’, dass
strukturbildende Prozesse die kodierten Strukturen als
’Informationen’ für solche Strukturbildende Prozesse
benutzen können. Dies ist ein einmaliger Prozess im
gesamten Universum. Die gebündelten Eigenschaften
(i) – (iii) ermöglichen es einer Zelle, sich selbst in eine
neue Zelle zu ’kopieren’, wobei dieses Kopieren keine ’1-zu-1’ Kopie ist, sondern eine ’Wiederholung mit einem gewissen Maß an Variation’. Dieser variable Anteil
basiert auf etwas, was man als ’Zufall’ bezeichnen
kann oder als eine Grundform von ’Kreativität’. Ohne
diese minimale Kreativität würde es kein biologisches
Leben geben! Es ist also nicht die ’Ordnung’ nach
vorgegebenen Regeln (= Informationen) alleine, die
’Leben’ möglich macht, sondern ’Ordnung + Kreativität’.
Eines von beiden alleine reicht nicht, aber beide
zusammen haben eine ’Chance’.

Von den komplexen Zellen zu komplexen
’Lebensformen’ wie ’Pflanzen’ (’Flora’) und Tieren
(’Fauna’) war es ein weiter und beschwerlicher Weg.
Die einzelnen Zellen mussten irgendwie lernen, durch
’Kommunikation’ miteinander zu ’Kooperieren’. Die
bislang praktizierten Kommunikations- und dann auch
Kooperationsformen sind unfassbar vielfältig.
Wenn man bedenkt, dass nach den neuesten
Erkenntnissen der Mikrobiologie ein Mensch nur
stattfinden kann, weil ca. 30 Billionen (10^12 ) Körperzellen
und ca. 220 Billionen (10^12 ) bakterielle Zellen in
jedem Moment kooperieren, dann kann man vielleicht
ganz dunkel erahnen, welche Kommunikations- und
Kooperationsleistungen im Bereich des biologischen
Lebens bislang realisiert wurden (Anmerkung: Wenn man zusätzlich bedenkt, dass unsere Heimatgalaxie, die Milchstraße, geschätzt ca. 200 – 300 Milliarden (10^9 ) Sterne umfasst, dann entspräche die Anzahl der Zellen eines menschlichen Körpers
etwa 830 Galaxien im Format der Milchstraße.)

Biologische Lebensformen treten niemals alleine,
isoliert auf, immer nur als ’Verbund von Vielen’ (=
’Population’). Nicht nur bildet also jeder einzelne Körper
eine Kommunikations- und Kooperationsgemeinschaft,
sondern alle Lebensformen folgen diesem Prinzip.
Je nach Komplexitätsgrad einer Lebensform nehmen
solche ’Verhaltensmuster’ zu, die wechselseitig die
Lebensprozesse jedes einzelnen und der Population
unterstützen können.

Bisher ist es nur einer von vielen Milliarden Lebensformen
gelungen, das eigene Verhalten durch immer komplexere
’Werkzeuge’ anzureichern, zu differenzieren, den
Wirkungsgrad zu erhöhen. Dies ist soweit gegangen,
dass mittlerweile ’Maschinen’ erfunden wurden, dann
gebaut und nun benutzt werden, die die grundlegenden
Eigenschaften jeder Zelle ’technisch kopieren’ können:
(i) Energie so zu nutzen, das (ii) Strukturänderungen
möglich werden, die durch (iii) Informationen ’gesteuert’
werden. Man nennt diese Maschinen ’Computer’
und stellt langsam fest, dass man mit diesen
Maschinen immer mehr der so genannten ’intelligenten’
Eigenschaften des Menschen ’kopieren’ kann. Was auf
den ersten Blick ’wundersam’ erscheinen mag, ist auf den
zweiten Blick aber klar: die Besonderheit des Menschen
liegt zu einem großen Teil in der Besonderheit seiner Zellen. Wenn ich die fundamentalen Eigenschaften
dieser Zellen in eine Technologie transformiere, dann
übertrage ich grundsätzlich auch diese Eigenschaften
auf diese Maschinen.

V. PHILOSOPHISCHER AUSKLANG

Aufgrund der aktuell gegebenen strukturellen
Begrenzungen des Menschen aufgrund seines aktuellen
Körperbauplans (der auf eine abwechslungsreiche
Entwicklungsgeschichte von vielen Milliarden Jahren
zurückschauen kann) beobachten wir heute, dass
die rasante Entwicklung der Gesellschaft (mit ihrer
Technologie) die Informationsverarbeitungskapazitäten
des Menschen wie auch sein emotionales Profil mehr
und mehr überfordern. Computer basierte Maschinen
können hier bis zu einem gewissen Grad helfen,
aber auch nur insoweit, als der Mensch diese Hilfe
’verarbeiten’ kann. Das Thema ’Mensch-Maschine
Interaktion’ bekommt in diesem Kontext eine ganz neue,
fundamentale Bedeutung.

Auf lange Sicht muss der Mensch es aber schaffen,
die Veränderung seines Körperbauplans schneller
und gezielter als durch die bisherige biologische
Evolution voran zu treiben. Die Visionen unter dem
Schlagwort ’Cyborgs’ sind keine Spinnerei, die man
ethisch verurteilen muss, sondern im Gegenteil absolut
notwendig, um das biologische Leben ’im Spiel zu
halten’. (Anmerkung: Möglicherweise muss all das, was bislang unter der Bezeichnung
’Ethik’ gehandelt wird, einer grundlegenden Revision unterzogen wer-
den.)

Neben vielem, was Computer basierte Maschinen
zur Ermöglichung von Leben beitragen können, muss
man klar sehen, dass eine fundamentale Frage aller
Menschen, vielleicht ’die’ fundamentale Frage, von den
Computer basierten Maschinen – auch wenn sie im
vollen Sinne lernfähig wären – bislang grundsätzlich auch
nicht beantwortet werden, und zwar aus prinzipiellen
Gründen. Gemeint ist das ’Werteproblem’ in der
Form, dass ein gezielt es Lernen und sich Entwickeln
voraussetzt, dass es geeignete Präferenzsysteme gibt
anhand dessen man irgendwie beurteilen kann, was
’besser’ oder was ’schlechter’ ist.

Vor dem Auftreten des Menschen (als ’homo sapiens’)
gab es nur das Präferenzsystem der ’gesetzten Welt’:
’Gut’ war letztlich nur das, was ein ’Weiterleben’ der
Population unter den gegebenen Bedingungen der
Erde (die sich im Laufe der Zeit mehrfach dramatisch
verändert hatte!) ermöglichte. Für große Diskussionen
war da kein Platz. Außerdem war ja auch niemand in
der Lage, hier zu ’diskutieren’.

Mit dem Auftreten des Menschen veränderte sich
die Situation grundlegend. Zwar galt es auch weiterhin,
sich unter den Bedingungen der aktuellen Erde (und
Sonnensystems und …) ’im Spiel’ zu halten, aber mit dem
Menschen entstand die Möglichkeit, sämtliche Abläufe
transparent zu machen, sie denkbar zu machen und
damit ganz neue Handlungsalternativen zu erschließen.
Damit stellt sich die Frage nach den ’Präferenzen’ aber
ganz neu. Das direkte, nackte Überleben ist durch die
modernen Gesellschaften im Prinzip so weit abgemildert,
dass man sich ’neue Ziele’ suchen kann. Menschen
können sich zwar weiterhin gegenseitig abschlachten, es
besteht dazu aber keine Notwendigkeit (allerdings kann
der Druck durch hohe Bevölkerungszahlen und endliche
Ressourcen die Bereitschaft zu einem konstruktiven
Miteinander beeinflussen). Nur, selbst wenn man will,
wo sollen die neuen Präferenzen herkommen? Bislang
kenne ich keinen einzigen Ansatz, der auch nur vage
den Eindruck erwecken würde, dass er eine interessante
Hypothese bilden könnte. Dies gilt sowohl für die
klassischen ethisch-religiösen Diskurskontexte wie auch
für das ganze Gerede um intelligente Maschinen und
Superintelligenz. Das ’Super’ im Begriff ’Superintelligenz’
bezieht sich bestenfalls auf Geschwindigkeiten und
Quantitäten von Rechenprozessen, nicht aber auf das
inhärente Werteproblem eines Lernprozesses.

Eine überraschende Fortsetzung findet sich HIER.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

DAS PHILOSOPHIE JETZT PHILOTOP

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 30.Nov. 2017
URL: cognitiveagent.org
info@cognitiveagent.org

Autor: cagent
Email: cagent@cognitiveagent.org

Worum geht’s — Meine Antwort auf die von vielen gestellte
Frage, wie denn die  verschiedenen Seiten untereinander zusammen hängen, war zu schnell (siehe den Blogeintrag vom 14.November ). Hier eine Korrektur.

I. EIN PHILOTOP

Wie man unschwer erkennen kann, ist das Wort
’Philotop’ eine Übertragung von dem Wort ’Biotop’.
Für Biologen ist klar, dass man einzelne Lebensformen
eigentlich nur angemessen verstehen kann, wenn
man ihren gesamten Lebensraum mit betrachtet:
Nahrungsquellen, Feinde, ’Kollaborateure’, Klima, und
vieles mehr.

Ganz ähnlich ist es eigentlich auch mit dem Blog
’Philosophie Jetzt: Auf der Suche …’. Auch diese Ideen
haben sehr viele Kontexte, Herkünfte, wechselseitige
Interaktionen mit vielen anderen Bereichen. Ohne diese
Kontexte könnte der Blog vielleicht gar nicht ’atmen’.

Im Blogeintrag vom 14.November 2017 wurde
verwiesen auf die monatliche Philosophiewerkstatt, in
der in einer offenen Gesprächsrunde Fragestellungen
gemeinsam gedacht werden. Seltener gibt es
die Veranstaltung Philosophy-in-Concert, in der philosophische Ideen, eingebettet in experimentelle Musik, Bildern und Texten ihren Empfänger suchen und
sich auch auf ein Gespräch einlassen.

Schaubild vom Philotop ( die 'Kernbereiche') :-)
Schaubild vom Philotop ( die ‚Kernbereiche‘) 🙂

Die Wechselwirkung mit den nächsten beiden
Blogs liegt für manche vielleicht nicht so auf der
Hand. Aber bedingt durch die langjährige Lehr-
und Forschungstätigkeit von cagent im Bereich des
Engineerings stellte sich heraus, dass gerade das
Engineering der Welt riesige Potentiale für eine
moderne Philosophie bietet, und dies nicht nur einfach
als begriffs-ästhetische Spielerei, sondern mit einem
sehr konkreten Impakt auf die Weise, wie Ingenieure die
Welt sehen und gestalten. Daraus entstand ein Projekt,
das bislang keinen wirklich eigenen Namen hat.

Umschrieben wird es mit ’Integrated Engineering of
the Future’, also ein typisches Engineering, aber eben
’integriert’, was in diesem Kontext besagt, dass die
vielen methodisch offenen Enden des Engineerings hier
aus wissenschaftsphilosophischer Sicht aufgegriffen und
in Beziehung gesetzt werden zu umfassenderen Sichten
und Methoden. Auf diese Weise verliert das Engineering
seinen erratischen, geistig undurchdringlichen Status
und beginnt zu ’atmen’: Engineering ist kein geist-
und seelenloses Unterfangen (wie es von den Nicht-
Ingenieuren oft plakatiert wird), sondern es ist eine
intensive Inkarnation menschlicher Kreativität, von
Wagemut und zugleich von einer rationalen Produktivität,
ohne die es die heutige Menschheit nicht geben würde.

Das Engineering als ein Prozess des Kommunizierens
und darin und dadurch des Erschaffens von neuen
komplexen Strukturen ist himmelhoch hinaus über
nahezu allem, was bildende Kunst im Kunstgeschäft
so darbietet. Es verwandelt die Gegenart täglich und
nachhaltig, es nimmt Zukünfte vorweg, und doch fristet
es ein Schattendasein. In den Kulturarenen dieser Welt,
wird es belächelt, und normalerweise nicht verstanden.
Dies steht  im krassen Missverhältnis zu seiner Bedeutung.
Ein Leonardo da Vinci ist ein Beispiel dafür, was es
heißt, ein philosophierender Ingenieur gewesen zu sein,
der auch noch künstlerisch aktiv war.
Innerhalb des Engineerings spielt der Mensch in
vielen Rollen: als Manager des gesamten Prozesses, als mitwirkender Experte, aber auch in vielen Anwendungssituationen als der intendierte Anwender.

Ein Wissen darum, wie ein Mensch wahrnimmt, denkt,
fühlt, lernt usw. ist daher von grundlegender Bedeutung. Dies wird in der Teildisziplin Actor-Actor-Interaction (AAI) (früher, Deutsch, Mensch-Maschine Interaktion oder,
Englisch, Human-Machine Interaction), untersucht und methodisch umgesetzt.

Die heute so bekannt gewordene Künstliche Intelligenz
(KI) (Englisch: Artificial Intelligence (AI)) ist ebenfalls ein
Bereich des Engineerings und lässt sich methodisch
wunderbar im Rahmen des Actor-Actor Interaction
Paradigmas integriert behandeln. Im Blog wird es unter
dem Label Intelligente Maschinen abgehandelt.
Sehr viele, fast alle?, alle? Themen aus der
Philosophie lassen sich im Rahmen des Engineerings,
speziell im Bereich der intelligenten Maschinen als Teil
des Actor-Actor-Interaction Paradigmas neu behandeln.

Engineering ist aber nie nur Begriffsspielerei.
Engineering ist immer auch und zuvorderst Realisierung
von Ideen, das Schaffen von neuen konkreten Systemen,
die real in der realen Welt arbeiten können. Von daher
gehört zu einer philosophisch orientierten künstlichen
Intelligenzforschung auch der Algorithmus, das lauffähige
Programm, der mittels Computer in die Welt eingreifen
und mit ihr interagieren kann. Nahezu alle Themen der
klassischen Philosophie bekommen im Gewandte von
intelligenten Maschinen eine neue Strahlkraft. Diesem
Aspekt des Philosophierens wird in dem Emerging-Mind
Lab Projekt Rechnung getragen.

Mit dem Emerging-Mind Lab und dessen Software
schließt sich wieder der Kreis zum menschlichen
Alltag: im Kommunizieren und Lernen ereignet sich
philosophisch reale und mögliche Welt. Insoweit intelligenten Maschinen aktiv daran teilhaben können, kann dies die Möglichkeiten des Menschen spürbar erweitern. Ob zum Guten oder Schlechten, das entscheidet
der Mensch selbst. Die beeindruckende Fähigkeit von
Menschen, Gutes in Böses zu verwandeln, sind eindringlich belegt. Bevor wir Maschinen verteufeln, die wir
selbst geschaffen haben, sollten wir vielleicht erst einmal
anfangen, uns selbst zu reformieren, und dies beginnt
im Innern des Menschen. Für eine solche Reform des
biologischen Lebens von innen gibt es bislang wenig bis
gar keine erprobten Vorbilder.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER