Archiv der Kategorie: KI

EINLADUNG zur PHILOSOPHIEWERKSTATT: PSYCHOANALYSE DURCH ROBOTER? So, 28.Jan.2018, 15:00h, im INM (Frankfurt)

THEMA

Ausgehend von den Themenvorschlägen von der letzten Philosophiewerkstatt am 28.November 2017 und den beginnenden Gesprächen zwischen Jürgen Hardt (Psychoanalytiker) und Gerd Doeben-Henisch (Wissenschaftsphilosoph, KI-Forscher) zum Thema ‚Kann der Psychoanalytiker durch einen intelligenten Roboter ersetzt werden?‘ wird für das Treffen am So, 28.Januar 2018 als Thema (leicht salopp formuliert) „Psychoanalyse durch Roboter?“ gewählt.

Zwar glauben alle einschlägigen Experten im Feld der Psychoanalyse bislang, dass solch ein Zukunftsszenarium für lange Zeit nicht möglich sein wird, vielleicht ist es sogar grundsätzlich nicht möglich, aber philosophisches und wissenschaftliches Denken hört nicht bei herrschenden Meinungen auf, sondern fängt genau da an.

Da die Analyse des Verhältnisses zwischen einem Psychoanalytiker als Akteur und einem einem Patienten als Akteur   kaum umhin können wird, auch die Frage nach dem zugrunde liegenden Menschenbild anzusprechen,  darf man davon ausgehen, dass sich die Themenwünsche von der letzten Philosophiewerkstatt  in diesem Diskurskontext alle wiederfinden werden.

WO

INM – Institut für Neue Medien, Schmickstrasse 18, 60314 Frankfurt am Main (siehe Anfahrtsskizze). Parken: Vor und hinter dem Haus sowie im Umfeld gut möglich.

WER

Moderation: Prof.Dr.phil Dipl.theol Gerd Doeben-Henisch (Frankfurt University of Applied Sciences, Mitglied im Vorstand des Instituts für Neue Medien)

ZEIT

Beginn 15:00h, Ende 18:00h. Bitte unbedingt pünktlich, da nach 15:00h kein Einlass.

ESSEN & TRINKEN

Es gibt im INM keine eigene Bewirtung. Bitte Getränke und Essbares nach Bedarf selbst mitbringen (a la Brown-Bag Seminaren)

EREIGNISSTRUKTUR

Bis 15:00h: ANKOMMEN

15:00 – 15:40h GEDANKEN ZUM EINSTIEG (Erste Deutungsversuche von Gerd Doeben-Henisch aus Sicht der Wissenschaftsphilosophie, dann Gegenrede, Kommentierungen von Jürgen Hardt aus Sicht der Psychoanalyse)

15:40 – 16:30h: GEMEINSAMER DISKURS ALLER (Fragen, Kommentare…, mit Gedankenbild/ Mindmap)

16:30 – 16:40h PAUSE

16:40– 17:00h: Zeit zum INDIVIDUELLEN FÜHLEN (manche nennen es Meditation, individuell, freiwillig)

17:00 – 17:10h: ASSOZIATIONEN INDIVIDUELL (privat)

17:10 – 17:50h: Zweite GESPRÄCHSRUNDE (Mit Gedankenbild/ Mindmap)

17:50– 18:00h: AUSBLICK, wie weiter

Ab 18:00h: VERABSCHIEDUNG VOM ORT

Irgendwann: BERICHT(e) ZUM TREFFEN, EINZELN, IM BLOG (wäre schön, wenn)

Irgendwann: KOMMENTARE ZU(M) BERICHT(en), EINZELN, IM BLOG (wäre schön, wenn)

KONTEXTE

Einen Überblick über alle Einträge zur Philosophiewerkstatt nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs finden sich HIER.

Mit freundlichen Grüßen,

Gerd Doeben-Henisch

DAS PHILOSOPHIE JETZT PHILOTOP

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 30.Nov. 2017
URL: cognitiveagent.org
info@cognitiveagent.org

Autor: cagent
Email: cagent@cognitiveagent.org

Worum geht’s — Meine Antwort auf die von vielen gestellte
Frage, wie denn die  verschiedenen Seiten untereinander zusammen hängen, war zu schnell (siehe den Blogeintrag vom 14.November ). Hier eine Korrektur.

I. EIN PHILOTOP

Wie man unschwer erkennen kann, ist das Wort
’Philotop’ eine Übertragung von dem Wort ’Biotop’.
Für Biologen ist klar, dass man einzelne Lebensformen
eigentlich nur angemessen verstehen kann, wenn
man ihren gesamten Lebensraum mit betrachtet:
Nahrungsquellen, Feinde, ’Kollaborateure’, Klima, und
vieles mehr.

Ganz ähnlich ist es eigentlich auch mit dem Blog
’Philosophie Jetzt: Auf der Suche …’. Auch diese Ideen
haben sehr viele Kontexte, Herkünfte, wechselseitige
Interaktionen mit vielen anderen Bereichen. Ohne diese
Kontexte könnte der Blog vielleicht gar nicht ’atmen’.

Im Blogeintrag vom 14.November 2017 wurde
verwiesen auf die monatliche Philosophiewerkstatt, in
der in einer offenen Gesprächsrunde Fragestellungen
gemeinsam gedacht werden. Seltener gibt es
die Veranstaltung Philosophy-in-Concert, in der philosophische Ideen, eingebettet in experimentelle Musik, Bildern und Texten ihren Empfänger suchen und
sich auch auf ein Gespräch einlassen.

Schaubild vom Philotop ( die 'Kernbereiche') :-)
Schaubild vom Philotop ( die ‚Kernbereiche‘) 🙂

Die Wechselwirkung mit den nächsten beiden
Blogs liegt für manche vielleicht nicht so auf der
Hand. Aber bedingt durch die langjährige Lehr-
und Forschungstätigkeit von cagent im Bereich des
Engineerings stellte sich heraus, dass gerade das
Engineering der Welt riesige Potentiale für eine
moderne Philosophie bietet, und dies nicht nur einfach
als begriffs-ästhetische Spielerei, sondern mit einem
sehr konkreten Impakt auf die Weise, wie Ingenieure die
Welt sehen und gestalten. Daraus entstand ein Projekt,
das bislang keinen wirklich eigenen Namen hat.

Umschrieben wird es mit ’Integrated Engineering of
the Future’, also ein typisches Engineering, aber eben
’integriert’, was in diesem Kontext besagt, dass die
vielen methodisch offenen Enden des Engineerings hier
aus wissenschaftsphilosophischer Sicht aufgegriffen und
in Beziehung gesetzt werden zu umfassenderen Sichten
und Methoden. Auf diese Weise verliert das Engineering
seinen erratischen, geistig undurchdringlichen Status
und beginnt zu ’atmen’: Engineering ist kein geist-
und seelenloses Unterfangen (wie es von den Nicht-
Ingenieuren oft plakatiert wird), sondern es ist eine
intensive Inkarnation menschlicher Kreativität, von
Wagemut und zugleich von einer rationalen Produktivität,
ohne die es die heutige Menschheit nicht geben würde.

Das Engineering als ein Prozess des Kommunizierens
und darin und dadurch des Erschaffens von neuen
komplexen Strukturen ist himmelhoch hinaus über
nahezu allem, was bildende Kunst im Kunstgeschäft
so darbietet. Es verwandelt die Gegenart täglich und
nachhaltig, es nimmt Zukünfte vorweg, und doch fristet
es ein Schattendasein. In den Kulturarenen dieser Welt,
wird es belächelt, und normalerweise nicht verstanden.
Dies steht  im krassen Missverhältnis zu seiner Bedeutung.
Ein Leonardo da Vinci ist ein Beispiel dafür, was es
heißt, ein philosophierender Ingenieur gewesen zu sein,
der auch noch künstlerisch aktiv war.
Innerhalb des Engineerings spielt der Mensch in
vielen Rollen: als Manager des gesamten Prozesses, als mitwirkender Experte, aber auch in vielen Anwendungssituationen als der intendierte Anwender.

Ein Wissen darum, wie ein Mensch wahrnimmt, denkt,
fühlt, lernt usw. ist daher von grundlegender Bedeutung. Dies wird in der Teildisziplin Actor-Actor-Interaction (AAI) (früher, Deutsch, Mensch-Maschine Interaktion oder,
Englisch, Human-Machine Interaction), untersucht und methodisch umgesetzt.

Die heute so bekannt gewordene Künstliche Intelligenz
(KI) (Englisch: Artificial Intelligence (AI)) ist ebenfalls ein
Bereich des Engineerings und lässt sich methodisch
wunderbar im Rahmen des Actor-Actor Interaction
Paradigmas integriert behandeln. Im Blog wird es unter
dem Label Intelligente Maschinen abgehandelt.
Sehr viele, fast alle?, alle? Themen aus der
Philosophie lassen sich im Rahmen des Engineerings,
speziell im Bereich der intelligenten Maschinen als Teil
des Actor-Actor-Interaction Paradigmas neu behandeln.

Engineering ist aber nie nur Begriffsspielerei.
Engineering ist immer auch und zuvorderst Realisierung
von Ideen, das Schaffen von neuen konkreten Systemen,
die real in der realen Welt arbeiten können. Von daher
gehört zu einer philosophisch orientierten künstlichen
Intelligenzforschung auch der Algorithmus, das lauffähige
Programm, der mittels Computer in die Welt eingreifen
und mit ihr interagieren kann. Nahezu alle Themen der
klassischen Philosophie bekommen im Gewandte von
intelligenten Maschinen eine neue Strahlkraft. Diesem
Aspekt des Philosophierens wird in dem Emerging-Mind
Lab Projekt Rechnung getragen.

Mit dem Emerging-Mind Lab und dessen Software
schließt sich wieder der Kreis zum menschlichen
Alltag: im Kommunizieren und Lernen ereignet sich
philosophisch reale und mögliche Welt. Insoweit intelligenten Maschinen aktiv daran teilhaben können, kann dies die Möglichkeiten des Menschen spürbar erweitern. Ob zum Guten oder Schlechten, das entscheidet
der Mensch selbst. Die beeindruckende Fähigkeit von
Menschen, Gutes in Böses zu verwandeln, sind eindringlich belegt. Bevor wir Maschinen verteufeln, die wir
selbst geschaffen haben, sollten wir vielleicht erst einmal
anfangen, uns selbst zu reformieren, und dies beginnt
im Innern des Menschen. Für eine solche Reform des
biologischen Lebens von innen gibt es bislang wenig bis
gar keine erprobten Vorbilder.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

KÜNSTLICHE INTELLIGENZ – Newell und Simon 1976

PDF

IDEE

Im Jahr 2017 nimmt die Erwähnung von sogenannter Künstlicher Intelligenz außerhalb der Wissenschaften, im öffentlichen Bereich, fast inflatorisch zu. Zugleich muss man feststellen, dass Erklärungen des Begriffs ‚Künstliche Intelligenz‘ wie auch anderer Begriffe in seinem Umfeld Mangelware sind. Es wird daher ab jetzt mehr Blogeinträge geben, die auf diese Thematik gezielter eingehen werden. Hier ein erster Beitrag mit Erinnerung an einen wichtigen Artikel von Newell and Simon 1976.

I. INFORMATIK ALS EMPIRISCHE WISSENSCHAFT

Informatik als empirische Disziplin (nach Newell und Simon, 1976)
Informatik als empirische Disziplin (nach Newell und Simon, 1976)

Im Jahr 1975 empfingen Allen Newell und Herbert A.Simon den angesehenen ACM Turing Preis von der ACM aufgrund ihrer vielen wichtigen Beiträge zur Künstlichen Intelligenzforschung in den vorausgehenden Jahren. Die Preisrede beider Autoren wurde in den Communications of the ACM 1976 abgedruckt (siehe: NewellSimon:1976).

In dieser Rede wagen die Autoren eine generelle Sicht auf die Informatik (‚computer science‘), die Akzente erkennen lässt, die von heutigen Auffassungen von Informatik — zumindest wie sie in Deutschland üblich sind — doch deutlich abweicht.

Für die beiden Autoren ist die Informatik eine empirische Wissenschaft, deren Interesse darin besteht, das Verhalten von Menschen, dort, wo es Intelligenz erkennen lässt, in ein theoretisches Modell zu übersetzen, das sich dann als eine konkrete Maschine (ein Computer, ein Roboter) physikalisch realisieren lässt. Man kann dann diese konkrete Maschine dazu benutzen, Tests durchzuführen, durch die man überprüfen kann, ob sich die gebaute Maschine hinreichend ähnlich wie ein Mensch verhält oder aber davon deutlich abweicht. Liegen Abweichungen vor, dann muss man den Sachverhalt weiter ergründen und versuchen, ob man das theoretische Modell verbessern kann.

Für sie erscheint der Mensch als eine Art Standardmodell für Intelligenz, allerdings nicht so, dass man den Begriff ‚Intelligenz‘ mit einer einzigen Verhaltensweise oder mit einem einzigen Prinzip identifizieren könnte. Das vielfältige menschliche Verhalten verweist nach den Autoren vielmehr auf eine Vielzahl von Komponenten, deren Zusammenwirken zu einem als ‚intelligent‘ wirkenden Verhalten führt. Für das Erkennen einer möglichen ‚Intelligenz‘ ist es ferner wichtig, dass man den ganzen Kontext berücksichtigt, in dem spezifische Aufgaben vorliegen, die gelöst werden sollten.

Durch ihre Forschungsarbeiten zu symbolischen Systemen und zur heuristischen Suche haben Newell und Simon herausgefunden, dass die Klärung eines Problemraumes nur dann besser als zufällig sein kann, wenn der Problemraum minimale Regelhaftigkeiten, eine minimale Ordnung aufweist, die — sofern sie erkannt wurde — dann in Form spezieller Informationen angesammelt werden kann und dann, nach Bedarf, bei der Klärung des Problemraumes genutzt werden kann. Und es ist genau diese spezifische angesammelte Information die die Autoren mit Intelligenz gleichsetzen! Ein Mensch kann nur dann gezielter, schneller eine Aufgabe lösen, wenn er über spezielle Informationen (Wissen) verfügt, die ihn in die Lage versetzen, genau jene Verhaltensweisen zu zeigen, die schnell und effizient zum Ziel führen.

Überträgt man dies auf die theoretischen Modelle der Informatik, dann muss man Wege finden, spezifisches Bereichswissen (engl.: ‚domain knowledge‘) für ein intelligentes Verhalten in geeignete Datenstrukturen und Prozesse zu übersetzen. Auf die vielen Beispiele und Details zu diesen Überlegungen wird hier verzichtet [diese kann jeder in dem Artikel nachlesen ….].

II. DISKURS

Hier einige Überlegungen im Anschluss an den Artikel von Newell und Simon.

A. Intelligenz

Zunächst ist interessant, dass die Verwendung des Begriffs ‚Intelligenz‘ gebunden wird an das Verhalten von Menschen, wodurch der Mensch als undiskutierter Maßstab für mögliche Intelligenz gesetzt wird.

Daraus folgt nicht notwendigerweise, dass es jenseits des Menschen keine andere Formen von Intelligenz gibt, sondern nur, dass man den Typ von Intelligenz, der beim Menschen vorliegt und sichtbar wird, vorläufig als Standard benutzen möchte. Also eine Intelligenz mit Index: Intelligenz_human.

Das macht auch verständlich, dass man als wichtige empirische Wissenschaft in Begleitung der Informatik die kognitive Psychologie sieht, die sich u.a. auch mit der sogenannten ‚Informationsverarbeitung im Menschen‘ beschäftigt.

Es wundert dann allerdings, dass die Autoren den im Rahmen der Psychologie eingeführten Begriff des Intelligenz-Quotienten (IQ) samt den dazugehörigen erprobten Messverfahren nicht benutzen, nicht einmal erwähnen. Dies würde die Möglichkeit eröffnen, die Verhaltensleistung von technischen Systemen entsprechend zu messen und direkt mit Menschen zu vergleichen. Der oft zitierte Turing-Test (nicht von den beiden Autoren) ist verglichen mit den Testbatterien des IQ-Quotienten mehr als dürftig und nahezu unbrauchbar.

Durch den Verzicht auf die sehr detailliert ausgearbeiteten Testbatterien der Psychologie bleibt die Charakterisierung des Begriffs ‚Intelligenz‘ in der Informatik weitgehend vage, fast beliebig.

An dieser Stelle könnte man einwenden, dass in der Informatik andere Aufgabenstellungen untersucht werden als in der Psychologie üblich bzw. andere Aufgabenstellung, die Menschen in dieser Weise nicht angehen, dadurch wir die Verwendung des Begriffs ‚Intelligenz‘ aber noch undurchsichtiger, geradezu ominös.

Obgleich Newell und Simon betonen, dass sie die Informatik als eine empirische Theorie sehen, bleibt der ganze Komplex des tatsächlichen objektiven Messens etwas vage. Zum objektiven Messen gehören zuvor vereinbarte Standards, die beim Messen als Referenzen benutzt werden, um ein Zielobjekt zu ‚vermessen‘. Wenn das zu messende Zielobjekt ein Verhalten sein soll (nämlich das Verhalten von Maschinen), dann muss zuvor sehr klar definiert sein, was denn das Referenz-Verhalten von Menschen ist, das in einem (welchen?) Sinn als ‚intelligent‘ angesehen wird und das dazu benutzt wird, um das Maschinenverhalten damit zu vergleichen. Es ist weder bei Newell und Simon klar zu sehen, wie sie ihr Referenzverhalten von Menschen zuvor klar definiert haben, noch sind die Messprozeduren klar.

Der grundsätzliche Ansatz von Newell und Simon mit der Informatik als empirischer Disziplin (zumindest für den Bereich ‚Intelligenz) erscheint auch heute noch interessant. Allerdings ist das begriffliche Chaos im Kontext der Verwendung des Begriffs ‚Intelligenz‘ heute zu einem notorischen Dauerzustand geworden, der es in der Regel unmöglich macht, den Begriff von ‚künstlicher Intelligenz‘ in einem wissenschaftlichen Sinne zu benutzen. Jeder benutzt ihn heute gerade mal, wie es ihm passt, ohne dass man sich noch die Mühe macht, diese Verwendung irgendwie transparent zu machen.

B. Lernen

Während Newell und Simon im Fall des Begriffs ‚Intelligenz‘ zumindest ansatzweise versuchen, zu erklären, was sie damit meinen, steht es um den Begriff ‚Lernen‘ ganz schlecht.

Explizit kommt der Begriff ‚Lernen‘ bei den Autoren nicht vor, nur indirekt. Dort wo heuristische Suchprozesse beschrieben werden, die mit Hilfe von symbolischen Systemen geleistet werden, stellen sie fest, dass man aufgrund ihrer empirischen Experimente wohl (in dem theoretischen Modell) annehmen muss, dass man Informationen speichern und verändern können muss, um zu jenem Wissen kommen zu können, das dann ein optimiertes = intelligentes Verhalten ermöglicht.

Aus psychologischen Lerntheorien wissen wir, dass ‚Intelligenz‘ und ‚Lernen‘ zwei unterschiedliche Eigenschaften eines Systems sind. Ein System kann wenig intelligent sein und doch lernfähig, und es kann sehr intelligent sein und doch nicht lernfähig.

Nimmt man die Charakterisierung von Newell und Simon für ‚Intelligenz‘ dann handelt es sich um ein ’spezielles Wissen‘ zum Aufgabenraum, der das System in die Lage versetzt, durch ein ‚gezieltes Verhalten‘ schneller ans Ziel zu kommen als durch rein zufälliges Verhalten. Eine solche Intelligenz kann einem System zur Verfügung stehen, auch ohne Lernen, z.B. (i) bei biologischen Systemen als eine genetisch vererbte Verhaltensstruktur; (ii) bei technischen Systemen durch eine volle Konfiguration durch Ingenieure. Bei biologischen Systeme tritt allerdings ‚Intelligenz‘ nie isoliert auf sondern immer in Nachbarschaft zu einer Lernfähigkeit, weil die dynamische Umwelt biologischer Systeme beständig neue Anpassungen verlangt, die nicht alle vorher gesehen werden können. Im Fall technischer Systeme mit begrenzter Lebensdauer und definiertem Einsatz war dies (und ist dies) weitgehend möglich.

Wenn man von ‚Künstlicher Intelligenz‘ spricht sollte man daher die beiden Strukturen ‚Intelligenz‘ und ‚Lernen‘ sehr klar auseinander halten. Die Fähigkeit, etwas zu lernen, erfordert völlig andere Eigenschaften als die Struktur eines Wissens, durch das ein System sich ‚intelligent‘ statt ‚zufällig‘ verhalten kann.

C. Theorie

Die Forderung von Newell und Simon, die Informatik als eine ‚empirische Wissenschaft‘ zu betrachten, die richtige theoretische Modelle (= Theorien) konstruiert und diese über realisierte Modelle dann empirisch überprüft, hat im Rahmen des allgemeinen Systems Engineerings auch heute noch einen möglichen Prozess-Rahmen, der alle diese Forderungen einlösen kann. Allerdings hat es sich in der Informatik eingebürgert, dass die Informatik einen Sonderweg kreiert hat, der unter der Überschrift Softwareengineering zwar Teilaspekte des generellen Systemsengineerings abbildet, aber eben nur Teilaspekte; außerdem ist durch die Beschränkung auf die Software ohne die Hardware ein wesentlicher Aspekt des Gesamtkonzepts Computer ausgeklammert. Ferner ist der harte Aspekt einer vollen empirischen Theorie durch die Phasenbildungen ‚logisches Design‘ nur unvollständig abgebildet. Designmodelle sind kein Ersatz für eine richtige Theorie. Für das sogenannte ‚modellgetriebene Entwickeln‘ gilt das Gleiche.

D. Mensch als Maßstab

War es noch für Newell und Simon offensichtlich klar, dass man für den Begriff ‚Intelligenz‘ den Menschen als Referenzmodell benutzt, so ist dies in der heutigen Informatik weitgehend abhanden gekommen. Dies hat einmal damit zu tun, dass der Wissenschaftsbegriff der Informatik samt der meisten Methoden bislang nicht in den allgemeinen, üblichen Wissenschaftsbegriff integriert ist, zum anderen dadurch, dass die Aufgaben, die die intelligenten Maschinen lösen sollen, aus allen möglichen ad-hoc Situationen ausgewählt werden, diese keinen systematischen Zusammenhang bilden, und man in den meisten Fällen gar nicht weiß, wie man den Bezug zum Menschen herstellen könnte. Dadurch entsteht der vage Eindruck, dass die ‚Intelligenz‘ der künstlichen Intelligenzforschung irgendwie etwas anderes ist als die menschliche Intelligenz, von der menschlichen Intelligenz möglicherweise sogar ganz unabhängig ist. Man macht sich allerdings nicht die Mühe, systematisch und zusammenhängend die Verwendung des Begriffs der ‚Intelligenz‘ in der Informatik zu klären. Aktuell hat man den Eindruck, dass jeder gerade mal das behauptet, was ihm gerade gefällt. Auch eine Art von Fake News. Die Marketingabteilungen der großen Konzerne freut es, weil sie nach Belieben alles Versprechen können, was sie wollen, ohne dass irgendjemand sinnvoll nachprüfen kann, was das genau ist, ob das überhaupt geht.

Doch sollte man sich durch diese terminologische Unklarheiten, die auf eine fehlende wissenschaftliche Methodik der Informatik zurück zu führen sind, nicht davon ablenken lassen, zu konstatieren, dass trotz chaotischer Begrifflichkeit im Konkreten und Im Detail seit Newell und Simon 1976 extreme Fortschritte gemacht wurden in speziellen Algorithmen und spezieller Hardware, mit der man heute viel mehr realisieren kann, als sich Newell und Simon damals hätten träumen lassen. Die Vorteile, die man sich durch diese Fortschritte im Konkreten erarbeitet hat, werden aber weitgehend verspielt durch große Theoriedefizite, die zu gerade kuriosen Anschauungen und kuriosen Forschungsprojekten führen. In der KI ist dies aber nichts Neues: es gab sehr unterschiedliche Phasen; alle Fehler führten irgendwann dann doch zu verbesserten Einsichten.

QUELLE

Allen Newell and Herbert A. Simon. Computer science as empirical inquiry: Symbols and search. Communications of the ACM, 19(3):113–126, 1976.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

NUR EIN SOUND MIT STIMME – ZEITALTER DER KÜNSTLICHEN INTELLIGENZ – Prolog

Dies ist nur ein Sound mit einer Stimme:

Empfohlen: Guter Kopfhöer oder Soundanlage; entspannte Haltung wäre günstig, Augen geschlossen? Dauer ca.18 Min … Man muss aber nicht. Menschen müssen grundsätzlich nicht, sie können …

 

Fortsetzung (8.4.2017): Gedanken ohne Stimme

 

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

(MASCHINELLES) BEWUSSTSEIN – ALLTAGSERKENNEN – ZURÜCK AUF START

(A shorter version in English can be found HERE)

KONTEXT: WELT DER INGENIEURE

  1. Seit letztem Sommer arbeite ich bei einem Buchprojekt mit, bei dem es eigentlich um die Welt der Ingenieure geht: Wie löst ein Ingenieur ein Problem? Sozusagen vom ‚Problem‘ zum ‚fertigen Produkt‘. Zu diesem Thema gibt es viele dicke Bücher und internationale Standards, viele hundert Artikel. Dennoch gibt es hier viele offene Fragen, z.B. auch die nach den Erkenntnisprozessen, die in Ingenieuren ablaufen müssen, damit sie ein Problem in eine funktionierende Lösung transformieren können. Unter welchen Voraussetzungen kann eine Kommunikation zwischen Ingenieuren gelingen? Gibt es eine innere Logik in diesem Prozess? Und was ist mit den intelligenten Programmen und Maschinen, die immer mehr Teil dieses Prozesses sind und sein werden? Was ist eigentlich ‚Künstliche Intelligenz‘? Was kann sie wirklich? Könnte eine Maschine menschlich kommunizieren? Kann eine Maschine ein maschinelles Bewusstsein haben, das eine Kooperation mit Menschen im menschlichen Stil ermöglicht?

MASCHINELLES BEWUSSTEIN

  1. Dies sind einige der Fragen. Die Frage nach einem maschinellen Bewusstsein wurde in diesem Blog bisweilen schon angerissen. Damit zusammenhängend stellt sich – zumindest methodisch – sofort die Frage, was wir denn unter dem Begriff ‚Bewusstsein‘ verstehen können oder sollen? Macht es Sinn, von einem ‚maschinellen Bewusstsein‘ zu sprechen, wenn wir doch gar nicht wissen, was ein ‚Bewusstsein‘ sein soll? Hier stellen sich viele spannende Fragen; einige davon wurden in diesem Blog auch schon diskutiert.

BEWUSSTSEIN UND NEURONALE KORRELATE

  1. Speziell die Frage nach dem menschlichen Bewusstsein hat schon immer Philosophen beschäftigt, später, in der Neuzeit, auch Psychologen, und dann, noch später, seit einigen Jahrzehnten zunehmend die Neurowissenschaften bzw. die Neuropsychologie. Der Begriff der ’neuronalen Korrelate des Bewusstseins‘ ist mittlerweile weit verbreitet. Ganz allgemein werden damit Gehirnaktivitäten gemeint, die mit Bewusstseinsprozessen einhergehen sollen. Die Zahl der Publikationen zu diesem Thema geht in die Hunderte. Dennoch wird man sich schwer tun, in irgendeiner dieser Publikationen eine brauchbare Definition von ‚Bewusstsein‘ zu finden, die unabhängig von neurowissenschaftlichen Tatbeständen ist. Von daher bewegen sich diese Publikationen weitgehend in einem hermeneutischen Zirkel: sie versuchen neuronale Korrelate des Bewusstseins zu definieren, ohne dass sie den Begriff ‚Bewusstsein‘ unabhängig von Gehirnaktivitäten definieren. Vereinfacht wird ein Bündel von Gehirnaktivitäten genommen und erklärt, dass immer dann, wenn diese auftreten, bewusste Aktivitäten vorliegen, ohne dass diese bewussten Aktivitäten in einem selbständigen theoretischen Modell erklärt werden bzw. unabhängig von den neuronalen Aktivitäten gemessen werden.
  2. Die Methodendiskussionen im Kontext der Neurowissenschaften – auch unter Einbeziehung der Neuropsychologie – erscheinen von daher bislang eher unbefriedigend.

MACHINELLES BEWUSSTSEIN – KI

  1. Hier gibt es einen interessanten Nebenkriegsschauplatz, von dem man sich auf den ersten Blick vielleicht kaum Erkenntnisse für die Frage ‚Bewusstsein – Gehirn‘ erhofft. Das Gebiet des maschinellen Bewusstseins, einem Teilgebiet der künstlichen Intelligenz (Anmerkung: der heute oft anzutreffende Begriff der ‚Maschinellen Intelligenz‘ ist – wenn man sich an den veröffentlichten Texten orientiert – nur ein kleiner Teilbereich des weiten Gebietes der ‚Künstlichen Intelligenz‘. Allerdings ist der Sprachgebrauch von ‚Künstlicher Intelligenz‘, ‚Maschineller Intelligenz‘, ‚Computational Intelligence‘, ‚Cognitive Computation‘ usw. zur Zeit nicht sehr einheitlich.) fragt sich sehr speziell, ob und wie man das Phänomen des menschlichen Bewusstseins mittels einer Maschine soweit nachbauen könnte, dass sich alle Eigenschaften des menschlichen Bewusstseins damit reproduzieren lassen. Wie man dieses maschinelle Bewusstsein technisch realisiert ist bei dieser Fragestellung eigentlich offen, faktisch versucht aber die große Mehrheit der hier aktiven Forscher Anleihen bei der Gehirnwissenschaft und der Psychologie zu holen, weil nun mal der Prototyp eines menschlichen Bewusstseins in realen Menschen real vorliegt und es für viele einfacher erscheint, sich hier etwas abzugucken als alles aus dem Nichts neu zu erfinden.
  2. Einen der besten Überblicke, den ich zu diesem Forschungsgebiet kenne, stammt von James A.Reggia aus dem Jahr 2013 mit dem Titel „The rise of machine consciousness: Studying consciousness with computational models“ (erschienen in der Zeitschrift ‚Neural Networks‘ von Elsevier (URL: https://pdfs.semanticscholar.org/8333/603ff38df5fb8277f0ef945b3d4c6ccd672e.pdf ). In einem späteren Artikel aus 2017 hat er die grundlegende methodische Problematik unter dem Titel „Exploring the Computational Explanatory Gap‚ zusammen mit anderen nochmals weiter ausformuliert (in der Zeitschrift ‚Philosophies‘ (URL: doi:10.3390/philosophies2010005 ). Reggia zeigt viele der methodischen Schwachstellen der Rede von den neuronalen Korrelaten des Bewusstseins auf (auch sehr grundlegende Einwände) und kommt letztlich zum Ergebnis, dass die Forschung nicht wirklich weiter kommt, solange sie sich nicht dem Phänomen des ‚Bewusstseins‘ direkt stellt ohne den Umweg über Verhalten (Psychologie) oder Gehirnaktivität (Neurowissenschaft).

WIE DIE FRAGE STELLEN?

  1. Damit stellt sich die Frage, welche Chancen wir denn haben, uns direkt mit dem Bewusstsein zu beschäftigen. Die vielfachen Versuche der Philosophen aus mehr als 2000 Jahren, die der Psychologen seit ca. 150 Jahren bieten eine kaum überschaubare Fülle von Vorgehensweisen, von denen sich aber bislang keine wirklich durchsetzen konnte. Am meisten vielleicht noch (meine subjektive Einschätzungen) die Ansätze einer phänomenologischen Philosophie (Husserl, Heidegger, Merleau-Ponty…), aber so richtig durchsetzen konnten diese sich bislang auch nicht. Seit den 90iger Jahren gab es eine neue Welle von philosophischen Untersuchungen. Den Namen Thomas Metzinger kennen seitdem viele, die Zeitschrift ‚Journal of Consciousness Studies‘ bildete einen starken Impuls, in der Einbeziehung der Gehirnforschung sahen viele eine neue Option. In dem Maße aber, wie sich die Daten der Gehirnforschung mathematisch fassen und in neuartige Experimente umsetzen lassen, wird sichtbar, dass die Gehirnforschung als solche nicht automatisch jene Erkenntnisse liefert, nach denen wir fragen. Was also tun?

SYSTEMS ENGINEERING

  1. Mehr durch Zufall bin ich vor ca. 18 Jahren mit Menschen zusammen getroffen —  speziell mit einem –, die sich Ingenieure nennen, genauer, ‚Systems Engineers‘. Dies sind Menschen, die ein umfangreiches Training vorwiegend in Technologie, Mathematik und Management genommen haben, meist mindestens 20 – 25 Jahre, bis sie dann Raketen und Flugzeige planen und bauen können, Atomreaktoren mit Extremsicherheitsanforderungen, den Verkehrsfluss in Städten, die Grenzsicherung eines Landes, das Gesundheitssystem eines Landes, und vieles mehr. Systems Engineers sind gewohnt, komplex zu denken, in Prozessen, unter Einbeziehung des Faktors Mensch, und immer sehr konkret, überprüfbar, messbar, mit vielen mathematischen Modellen, unter Einbeziehung von hochentwickelten Softwarewerkzeugen.
  2. An dieser Stelle kann man mal die Frage aufwerfen, wie müsste eine Theorie des menschlichen Bewusstseins aussehen, so dass ein Systems Engineer sie real und praktisch benutzen könnte, um seine komplexen Aufgaben damit besser lösen zu können? Die meisten Publikationen zum Thema Bewusstsein reden in gewisser Weise ‚über‘ das Phänomen, eingebettet in viele spezielle Begriffe, deren Bedeutung nicht so ohne weiteres klar ist, ohne dass sich daraus ableiten lässt, wie man aus diesem Reden ‚über‘ das Bewusstsein zu konkreten Anleitungen und zu konkreten Methoden kommen kann, die geeignet sind, das reale Verhalten von Akteuren mit Bewusstsein sowohl zu beschreiben wie auch – soweit es die internen Freiheitsgrade von Akteuren erlauben – gewisse Prognosen über ihr Verhalten abzugeben. Für Ingenieure besonders wichtig sind brauchbare Erkenntnisse über die Wechselwirkung zwischen den Situationsgegebenheiten und den inneren Zuständen des Akteurs. Eine verhaltensorientierte Psychologie kann hier in der Regel von großer Hilfe sein, ersetzt aber keine ‚Theorie des Bewusstseins‘ im engeren Sinne.

ZURÜCK AUF START

  1. Die obigen Überlegungen im Hinterkopf, z.T. schon viele Jahrzehnte, habe ich mich jetzt entschlossen, die Frage nach einer geeigneten Theorie des Bewusstseins, die sich in Ingenieurkontexten praktisch nutzen lässt, nochmals neu anzugehen. Dieses Mal bewusst im Rahmen des methodischen Paradigmas des Systems Engineerings.
  2. Dabei trat die Notwendigkeit auf, die pragmatischen Umschreibungen und Handhabungen des Begriffs ‚Systems Engineering‘ im Modell einer ‚Empirischen Wissenschaft‘ mit einer ‚formalen Theorie‘ zu reformulieren und in diesem Kontext dann die Frage nach dem Bewusstsein empirisch und theoretisch zu verfolgen. Obgleich man davon ausgehen kann, dass die Ergebnisse der empirischen Psychologie, der empirischen Neurowissenschaften und einer empirischen Neuropsychologie wertvolle Korrelationen liefern können, so muss man methodisch festhalten, dass sie dies nur dann können, wenn es unabhängig vom Verhalten und den Gehirnaktivitäten eine brauchbare Theorie des Bewusstseins gibt, die sich korrelieren lässt. Ohne solch eine eigenständige Theorie des Bewusstseins bewegen sich Psychologie und Gehirnwissenschaft in einem hermeneutischen Zirkel, aus dem es keinen Notausgang gibt.
  3. Ein Ziel zu haben ist eines, den Weg zum Ziel zu finden etwas anderes.

START IM ALLTAG

  1. Nach zahllosen Versuchen in den letzten Jahren und den intensiven Diskussionen in der Fachliteratur habe ich mich entschieden, den Start der Untersuchung in den Alltag zu verlegen, in den Kontext jener Abläufe und Handlungen, die wir täglich vornehmen, die wir mehr oder weniger gemeinsam haben, und über die zwar nicht unbedingt theoretisch explizit aber dennoch pragmatisch unausgesprochen eine gewisse Einigkeit besteht.

KÖRPER ALS APRIORI

  1. Es besteht eine gewisse Wahrscheinlichkeit, dass jene Verhaltensweisen, die wir praktizieren, ohne darüber groß zu diskutieren, jene sind, die in der Dynamik und Struktur unseres Körpers, unseres Gehirns und unseres Bewusstsein biologisch angelegt sind, jene Plattform des Wahrnehmens, Fühlens, Erinnerns, Vorstellens, Entscheidens usw. bieten, mit der wir unser alltägliches Leben bestreiten, auch wenn wir über keinerlei theoretische Erkenntnisse verfügen, wie man dies alles genau verstehen kann bzw. sollte (So können Kinder lernen, sich zu bewegen und zu sprechen, ohne theoretische Kenntnisse).
  2. In der formalen Logik gibt es den Grundsatz, dass man nur jene Sachverhalte ‚beweisen‘ kann, die schon in den Voraussetzungen einer Theorie drin stecken. Im Fall unseres Alltagsverhaltens wäre dann das Alltagsverhalten zu verstehen als eine fortdauernde Manifestation von Voraussetzungen, die biologisch in unserem Körper angelegt sind. Die eigentliche theoretische Arbeit bestünde dann darin, jene Voraussetzungen sichtbar zu machen, die in unserem Körper so angelegt sind, dass wir genau zu dem beobachtbaren Verhalten fähig sind. Schwierig wird es dann nur, wenn wir in unserem beobachtbaren Verhalten nur einen Bruchteil von dem Potential ausnutzen, was ‚in uns‘ steckt. Wie wollen wir dann wissen, ‚wer‘ wir sind, wenn sich unsere potentielle Person – aus den unterschiedlichsten Gründen – nicht ‚zeigt‘? Die Geschichte der Menschheit ist voll von Beispielen, wie kulturelle Muster das Verhalten von Menschen unnötiger Weise in bestimmte Muster gepresst haben (und immer noch pressen), die die Entfaltung von Menschen behindern; umgekehrt haben immer wieder Menschen und Situationen neue Verhaltensweisen hervorgebracht, von denen man sich vorher gar nicht vorstellen konnte, dass es sie geben könnte.

BARRIEREN IM SELBST-ERKENNEN

  1. Dies zeigt, dass das ‚Erkennen unserer selbst‘ selbst wiederum in einem hermeneutischen Zirkel stattfindet, in dem wir möglicherweise nur deswegen vieles nicht erkennen, weil wir uns schlicht nicht vorstellen können,   dass es möglich ist, bzw.  dass wir als Menschen auch ganz anders sein könnten (die Art und Weise, wie noch heute in vielen Kulturen z.B. Kinder und Frauen gesehen und behandelt werden, zeigt überdeutlich, wie schwer sich der homo sapiens tut, seine Verhaltensmodelle zu ändern, und auszuweiten).

Fortsetzung folgt

 

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

MEMO: AUGE IN AUGE MIT DER KÜNSTLICHEN INTELLIGENZ. PHILOSOPHIESOMMER 2016 IN DER DENKBAR – Sitzung vom 12.Juni 2016

Entsprechend den vielfachen Wünschen der Teilnehmer war für die Sitzung am 12.Juni 2016 ein Experte für intelligente Maschinen eingeladen worden, eine kleine Einführung in die aktuelle Situation zu geben.

Ziel des Beitrags sollte es sein, anhand konkreter Beispiele ein wenig mehr zu verdeutlichen, was intelligente Maschinen wirklich leisten können. Im anschließenden Diskurs sollte es wieder darum gehen, diesen Beitrag als Ausgangspunkt zu nehmen, um die Fragen der anwesenden Teilnehmer und ihre Gedanken zu Worte kommen zu lassen.

Gedankenskizze von der Sitzung des Philosophiesommers 2016 in der DENKBAR vom 12.Juni 2016
Gedankenskizze von der Sitzung des Philosophiesommers 2016 in der DENKBAR vom 12.Juni 2016

Das Diagramm gibt einen ersten Überblick über die Struktur der Sitzung. Im Einstieg wurden in lockerer Form verschiedene Videos vorgestellt, immer wieder unterbrochen durch ad hoc Erläuterungen, die sehr konkrete Eindrücke von den agierenden Forschern und ihren Algorithmen vermittelten. Danach gab es ein sehr lebhaftes Gespräch, in dem weniger die Details der Algorithmen diskutiert wurden, sondern mehr die Gefühle, Befürchtungen und Fragen, die das Ganze bei allen auslöste.

KI DIREKT

Das Gebiet der KI ist ziemlich groß. An diesem Tag wurde von einem kleinen Ausschnitt berichtet, er sich aber zur Zeit im Zentrum größten Interesses befindet. Es ging vornehmlich um Bilderkennung und ein bisschen um Methoden des anfangshaften Verstehens von Sprache.

Bei der Bilderkennung wurden Beispiel gezeigt, wie Rechner heute Szenen analysieren und darin dann einzelne Objekte erkennen könne; wie dann in einer Folge von Szenen die erkannten Objekte räumliche Strukturen bilden können (Räume, Straßen, …), in denen man dann nach Pfaden/ Wegen suchen kann. Unter den Videos war auch eine künstlerische Anwendung, die zeigte, dass man diese Technologien auch ganz anders einsetzen kann. (Ergänzend kann man z.B. auch hinweisen auf Bereiche wie die Musik, in der KI mittlerweile komplexe Musikstücke analysieren und neu arrangieren kann, und sogar als eigenständiger Musiker in einer Band mitspielen kann, z.B. „Wunder der Technik Musikalische Drohnen ersetzen das Orchester „, oder „Neue Jobs für Roboter„).

Bei dem anfangshaften Verstehen von Sprache wurden Methoden vorgestellt, die aus den Verteilungen von Worten und Wortverbindungen zu Bedeutungsschätzungen kommen können, und auch hier wieder alltagspraktische Anwendungen wie jene, bei der Texte eines Politikers künstlerisch so abgewandelt werden konnten, dass sie wie die Texte dieses Politikers aussahen, aber vom Algorithmus produziert worden waren. Aber auch hier gilt, dass dies nur ein kleiner Ausschnitt von dem war, was heute schon im Einsatz ist (man denke an den sogenannten Roboter-Journalismus, wo die Nachrichten und Artikel ganzer Webseiten mittlerweile komplett durch Algorithmen erstellt werden, z.B. „Roboterjournalismus: Maschinen ohne Moral“ oder „Automatisierter Journalismus: Nehmen Roboter Journalisten den Job weg?)

GESPRÄCH : WIDERHALL IN UNS

Bei den Teilnehmern überwog die Skepsis die Faszination.

KI AKTEURE

Auffällig war den meisten, wie jung die Akteure in der Szene waren, selbst die Chefs und CEOs von milliardenschweren Unternehmen. Wie diese (scheinbar) unbekümmert die Vorzüge ihrer Technik priesen, begeistert, enthusiastisch; Nachdenklichkeiten, kritische Überlegungen sah man nicht (im Kontrast dazu vielleicht die Eindrücke, die man von deutschen Konzernen hat mit ihren schwerfälligen autoritären Strukturen, mit ihren zementierten Abläufen, der großen Risikoaversion…). Der Geist der KI-Akteure hingegen erzeugt Neues, Innovatives, bewegt die Welt. In Erinnerungen an den Bau der Atombombe mit den begeisterten Forschern für das technische faszinierend Machbare stellte sich mancher aber auch die Frage, ob diese Unbekümmertheit, diese emotionslose Technik, nicht auch gefährlich ist (je mehr Bilderkennung z.B. im öffentlichen Bereich, dann auch mehr umfassende Kontrolle, Überwachung. Das ‚System‘ weiß dann immer, wo man gerade ist und mit wem er zusammen ist (immerhin hat sich das US-Verteidigungsministerium den Chef von Alphabet (dazu gehört google) mittlerweile offiziell als Berater geholt)). Andere fragten sich, ob es in Zukunft eigentlich nur noch Informatiker gibt (quasi als allfällige Diener der KI), während alle anderen überflüssig werden.

OFFENE ZIELE

Sieht man die aktuelle Techniksituation als Momentaufnahme eines Prozesses mit einer Geschichte und möglichen Zukünften, dann kann (und muss?) man die Frage, nach dem darin wirkenden Fortschrittsbegriff stellen, nach den wirkenden Kriterien.

WAS IST INTELLIGENZ?

Ein Teilaspekt ist der Begriff der Künstlichen Intelligenz mit dem Teilbegriff Intelligenz. Was ist damit eigentlich gemeint? Auf welche Intelligenz bezieht man sich? In der Psychologie benutzt man seit ca. 100 Jahren einen operationalisierten Intelligenzbegriff zur Messung der Intelligenz (Binet). Doch diese Betrachtungsweise ist sehr quantifizierend und wird vielfach kritisiert, auch mit Verweis auf kulturelle Unterschiede. Im Unterschied zur Pschologie findet man im Bereich der KI selbst bzw. in der Informatik keine einheitliche Definition von Intelligenz (siehe z.B. KI ). Während die KI im klassischen Sinne sich an der Intelligenz von biologischen Systemen orientiert, die nachempfunden werden soll, findet sich heute vielfach ein engeres, ingenieurmäßiges Verstehen von KI als Maschinelles Lernen. Hier wird die Frage nach Intelligenz im allgemeinen gar nicht mehr gestellt. Stattdessen gibt es immer konkrete, spezielle Aufgabenstellungen, die technisch gelöst werden sollen, und die Lösung konzentriert sich dann ausschließlich auf diese eingeschränkten Aspekte.

SELBSTBESCHREIBUNG DES MENSCHEN ALS MASCHINE

Die Diskussion um den Intelligenzbegriff streift auch das Phänomen, dass die Menschen in nahezu allen Epochen dahin tendieren, sich selbst immer im Licht der neuesten Erkenntnisse und Techniken zu beschreiben, sozusagen auf der Suche nach sich selbst. Eigentlich weiß kein Mensch so richtig, wer er ist und ist dankbar für jedes Bild, was man ihm anbietet. So vergleichen sich Kinder heute häufig mit einem PC: ‚mein Kopf ist wie ein Computer‘; ‚ich habe das nicht abgespeichert‘; ‚meine Festplatte ist leer’…. Zu Zeiten eines La Mettrie (1709 – 1751)  wurde der Geist der Dualisten (vor allem repräseniert duch Descartes) aus dem Körper des Menschen verbannt; der Körper war nur noch eine Maschine (im damaligen Verständnis) ohne Geist.

VIRTUALITÄT ALS GEFAHR?

Mit Blick auf die KI und die enorme Zunahme an digitalen Räumen als virtuelle Welten wurde auch die Frage aufgeworfen, wieweit dies eine Gefahr darstellt? Verzetteln wir uns nicht? Wissen wir noch Virtuelles und Reales auseinander zu halten? Dazu sei angemerkt, dass sich das Erleben und Denken des Menschen ja primär in seinem Gehirn abspielt, das als Gehirn im Körper sitzt ohne direkten Weltbezug. D.h. schon das normale Denken des Menschen hat das Problem, dass es dem einzelnen zwar real erscheint, inhaltlich aber – bezogen auf eine unterstellte Außenwelt – mit der Außenwelt nicht automatisch übereinstimmen muss. Es gehört ja gerade zur Kulturgeschichte des Menschen, dass er mühsam lernen musste, dass die meisten Gedanken der Vergangenheit eben nur Gedanken waren und nicht die Welt beschrieben haben, wie sie wirklich (=empirisch überprüfbar) ist. Insofern stellen die neuen virtuellen Welten nichts wirklich Neues dar, wohl aber eine Modifikation der Situation, die neu verstanden und gelernt werden muss.

BRAUCHEN WIR NOCH MEHR EVOLUTION?

Greift man nochmals den Gedanken auf, dass die aktuelle Techniksituation als Momentaufnahme eines Prozesses mit einer Geschichte und möglichen Zukünften Teil der Evolution ist, wurde gefragt, ob wir noch mehr Evolution brauchen? Außerdem, welches Ziel hat diese Evolution?

Mit Blick auf den Blogeintrag vom 11.Juni 2016 wurde eingeblendet, dass sich die Frage nach der Evolution möglicherweise anders stellt. Schliesslich sind wir selbst, alle Menschen, alle Lebewesen, Produkt der Evolution, wir sind Teilnehmer, aber bislang nicht als Herren des Geschehens. Und vieles spricht dafür, dass alle Phänomene im Umfeld des Menschen auch nicht los lösbar sind von der Evolution. Sie gehören quasi dazu, wenn auch vielleicht in einem neuen qualitativen Sinn. Soweit wir heute erkennen können, ist es seit dem Auftreten des homo sapiens sapiens (hss) zum ersten Mal seit dem Auftreten des Lebens auf der Erde möglich, dass das Leben als Ganzes sich in Gestalt des hss sich quasi selbst anschauen kann, es kann sich mehr und mehr verstehen, es kann seine eigenen Baupläne lesen und mehr und mehr abändern. Dies eröffnet für das Leben auf der Erde (und damit im ganzen bekannten Universum) eine völlig neue und radikale Autonomie. Die allgemeine physikalische Entropie wird bislang dadurch zwar nur lokal aufgehoben, aber immerhin, dass es überhaupt möglich ist, über die bekannten Naturgesetze hinaus durch bestimmte Prozesse Strukturen zu erzeugen, die der Entropie zuwider laufen, ist ein bemerkenswertes Faktum, das bislang von der Physik so gut wie gar nicht zur Kenntnis genommen wird (und auch nicht von den Akteuren selbst, dem hss).

RADIKALE AUTONOMIE

Möglicherweise ist die fundamentale Tragweite der neuen radikalen Autonomie des Lebens auch deshalb noch nicht so recht ins Bewusstsein getreten, weil im Alltag, im konkreten Dasein, die körperlichen Grenzen sehr deutlich sind, die ganze Trieb-, Bedürfnis-, und Emotionsstruktur des Menschen in ihrer Konkretheit und Intensität vielfach als so stark empfunden wird, dass man die großen Linien, die geradezu kosmologische Dimension dieser radikalen Autonomie noch kaum wahrnimmt.

Dazu kommt, dass die Tatsache, dass sich fast alle interessanten Prozesse im Innern des Menschen abspielen, es notwendig macht, dass diese inneren Prozesse über Kommunikation miteinander koordiniert werden müssten. Dies ist aufwendig und schwierig. Viele (die meisten) Menschen scheitern hier, kapitulieren. So verharren sie – und damit ganze Generationen – in bestimmten Empfindungs-, Denk- und Handlungsmustern, die nicht weiter führen, die eher Rückschritt bedeuten.

Aktuell erscheint es offen, in welche der vielen möglichen Zukünfte wir uns bewegen werden. Werden demnächst die intelligenten Maschinen alles übernehmen, weil der hss ausgedient hat? Oder wird es doch bei einer Symbiose auf hohem Niveau bleiben, in der der hss die intelligenten Maschinen für sich nutzt und die intelligenten Maschinen durch den Menschen Räume erobern können, die ihnen sonst verschlossen wären? Oder – und diese dritte Möglichkeit sieht aktuell – soweit ich sehe – eigentlich noch niemand – wird er Mensch in den nächsten Jahren neu erwachen und begreifen, dass diese radikale Autonomie etwas radikal Neues darstellt, etwas, das es so noch nie zuvor in den 13.8 Mrd Jahren gegeben hatte?

Um die radikale Autonomie nutzen zu können, muss der Mensch erstmalig in der Geschichte des Lebens die Frage nach den Werten, nach den Zielen, wohin die Reise eigentlich gehen soll, selber stellen … und beantworten. Bis zum hss gab es keine Wertediskussion. Die Evolution stellte einen Prozess dar, in dem bestimmte Lebensformen im Kontext der Erde überlebt hatten; das waren die einzigen Werte im Nachhinein. Vor der Neuwerdung im Reproduktionsprozess gab es keine expliziten Werte. Es gab bisherige Erfolge und viel Zufall.

Einen Überblick über alle Beiträge zum Philosophiesommer/ zur Philosophiewerkstatt nach Titeln findet sich HIER.

EINLADUNG PHILOSOPHIESOMMER 2016 DENKBAR – KI DIREKT

Entsprechend dem Plan vom 9.Februar 2016 kommt hier die Einladung zum nächsten Treffen in der

DENKBAR Frankfurt

Spohrstrasse 46a

(Achtung: Parken schwierig! Man muss wirklich im Umfeld suche

NÄCHSTES THEMA

Da viele Teilnehmer beim letzten Treffen  sagten, dass sie sich unter intelligenten Maschinen immer noch nichts Rechtes vorstellen können, wurde ein anwesender Experte für intelligente Maschinen (aus der Gattung homo sapiens sapiens) gebeten, für das nächste Treffen am 12.6.2016 15:00 – 18:00h eine kleine Einführung in die aktuelle Situation zu geben.

Ziel des Beitrags sollte es sein, anhand konkreter Beispiele ein wenig mehr zu verdeutlichen, was intelligente Maschinen wirklich leisten können. Im anschließenden Diskurs sollte es wieder darum gehen, diesen Beitrag als Ausgangspunkt zu nehmen, um die Fragen der anwesenden Teilnehmer und ihre Gedanken zu Worte kommen zu lassen. Konkret ist folgendes geplant:

PROGRAMMVORSCHLAG

Moderation: Gerd Doeben-Henisch

15:00 Begrüßung

15:05 Einführung ins Thema durch einen KI-Experten

15:45 Gemeinsamer Diskurs I, Sichtbarmachung von Positionen

16:45 Blubberpause (Jeder kann mit jedem reden; Essen und Trinken)

17:00 Gemeinsamer Diskurs II, erste Zusammenfassungen, Tendenzen

17:45 Schlussstatements und Thema für das nächste Treffen

18:00 Ende

Langsames Wegdiffundieren der Teilnehmer ….

SONDERTREFFEN?

Eigentlich ist das Treffen am 12.Juni das letzte Treffen vor der Sommerpause. Da das Thema zur Zeit aber so spannend ist wird gefragt werden, wer für ein weiteres Treffen im Juli wäre. Sollten genügend Interessen zusammen kommen, könnte es am So 10.Juli 2016 noch ein letztes Treffen vor der Sommerpause geben.

 

Einen Überblick über alle bisherigen Themen des Philosophiesommers (und der Philosophiewerkstatt) nach Titeln  findet sich HIER.

 

 

 

 

PERSON OF INTEREST – SICHERHEIT STATT DEMOKRATIE – EVOLUTION IST ANDERS – Teil 2

KONTEXT

  1. In einem vorausgehenden Blogeintrag hatte ich die Fernsehserie Person of Interest mit diskutiert. Zu dem Zeitpunkt kannte ich nur Staffel 3; mittlerweile kenne ich auch Staffel 4, die aktuell letzte Staffel der Serie. Wie schon zuvor angemerkt, kann man eine Fernsehserie nicht mit einem normalen Kinofilm vergleichen; die Spielregeln für die Anordnung der Bilder und Inhalte sind anders. Eine Serie lebt von ihren Episoden, zwischen denen Pausen liegen, und eine Serie scheut ein klares Ende, lauern doch wirtschaftliche Interessen im Hintergrund, die ein Hinauszögern so lange wie möglich aufrechterhalten wollen. Neben der Story ist eine Serie ein Unterhaltungsmedium und eine Geldquelle, die möglichst lange erhalten bleiben soll.

MAKRO-MIKRO-EBENE

  1. Fragt man also nach dem möglichen Inhalt der Serie Person of Interest, muss man wenigstens zwischen einer Makro- und einem Mikroebene unterscheiden (schließt weitere Ebenen nicht aus): auf der Makroebene werden Geschichten erzählt, die sich über mehrere Episoden erstrecken; auf der Mikroebene liegt das Geschehen, was sich auf eine Episode beschränkt. Das Verhältnis zwischen Makro-Geschichte(n) und Mikro-Geschichten könnte man als einen Indikator für die Kompaktheit einer Serie ansehen: wie intensiv wird eine Geschichte erzählt. Im Fall von Person of Interest Staffeln 3+4 würde ich das Verhältnis von Makro zu Mikro-Geschichten auf etwa 1:3 bis 1:4 ansetzen. Die Kompaktheit kann auch etwas mit der Aufnahmefähigkeit der Zuschauer zu tun haben; je kompakter, um so ansruchsvoller.

MAKRO-GESCHICHTE

  1. In der Makrogeschichte, die nur häppchenweise enthüllt wird, geht es um zwei Computerprogramme, die die Datenströme in den verschiedenen Netzen aufnehmen und verarbeiten können; darüber hinaus konstruieren diese Programme eigene Modelle, mit denen diese Daten interpretiert werden und – vor allem – Schlüsse gezogen werden, was zu tun ist. Dieses Tun geschieht direkt über Manipulation von Datenströmen in den Netzen oder über Interaktion mit realen Menschen, die über die Kommunikation mit der Maschine ihre Meinungen bilden und sich in ihrem Verhalten beeinflussen lassen.
  2. Interessant ist der soziale-politische Kontext dieser Programme: das erste Programm, genannt die Maschine, wurde ursprünglich von der Regierung beauftragt und eingesetzt, um Bedrohungen für den Staat frühzeitig zu entdecken und abzuwehren. Sein Hauptentwickler E1 hatte es mit einigen ethischen Prinzipien ausgestattet, die den schlimmsten Missbrauch verhindern sollten. Das zweite Programm, parallel entwickelt von einem Freund von E1, nennen wir ihn E2, war unvollendet geblieben und besaß keine ethischen Vorgaben. Dieses Programm wurde von einem machtbewussten Geschäftsmann – nennen wir ihn G1 – gewaltsam in eigenen Besitz gebracht. Zusätzlich konnte er Regierungsvertreter überzeugen, dass er im Auftrag der Regierung – aber in eigener Regie – die verschiedenen Netze anzapfen durfte, um für die Regierung eine Überwachung der Welt durchführen zu können, deren Ergebnisse dann der Regierung übermittelt werden. Vorbereitend zum Start des neuen Programms mit Namen Samaritan hatte der Geschäftsmann G1 eine Terrorgruppe gesteuert, die die Regierung unter Druck gesetzt hatte, das alte Programm, die Maschine, zu stoppen. Wie sich im Verlaufe von Staffel 3+4 herausstellte, hatte es die Maschine aber geschafft, sich mittlerweile als verborgenes Add On in jeden Computer und in das öffentliche Stromnetz einzunisten. Dort war es für das neue Programm Samaritan lange Zeit unsichtbar und arbeitete parallel zum neuen Programm weiter.

MIKRO-GESCHICHTEN

  1. Der hohe Anteil an Mikro-Geschichten, oft sehr fragmentarisch, ist unterhaltsam gemacht, trägt aber wenig zur Hauptgeschichte bei. Allerdings bieten die Mikrogeschichten Raum um die Hauptpersonen häppchenweise ein wenig mehr auszuleuchten, die Verwicklungen ihrer Psyche, ihrer Motive und Emotionen sichtbar zu machen. Die dominierenden Muster von Gewalt, Action und Erschießung anderer Menschen werden hier ansatzweise durchbrochen, um die individuellen Menschen hinter den abstrakten Rollen etwas sichtbar zu machen. Doch ereignet sich die Handlung meistens in extremen Milieus mit extremen Typen; Normalität, Alltag, reale Gesellschaft kommt in dieser Serie so gut wie nicht vor. Die Mikrogeschichten könnten auch in jeder anderen Serie vorkommen.

MAKRO-GESCHICHTE: FRAGEN

  1. Die Makrogeschichte, sofern sie stattfindet, bietet viele interessante Fragestellungen. Die eine Frage (F1) ist jene nach der Reichweite einer autonomen selbstlernenden künstlichen Intelligenz [KI]: wie weit kann diese sich der Kontrolle von Menschen entziehen und sich vom Diener zum Herren des Geschehens entwickeln? Zusätzlich kann man fragen (F2), welche Ziele solch eine autonome selbstlernende KI entwickeln wird? Was werden die Präferenzen solcher Programme sein? Was finden sie gut, was schlecht? Dazu viele weitere spezielle Fragen im Detail.
  2. Während das erste Programm, die Maschine, den Eindruck erweckt, als ob es, trotz seiner Autonomie, gewisse ethische Prinzipien einhält (es ist nicht ganz klar, welche und warum), erweckt das zweite Programm, Samaritan, den Eindruck, als ob es sich sehr schnell zum Herren des Geschehens entwickelt und von einem reinen Dienstleister zum kreativen Machthaber mutiert, der nach einigen gezielten Experimenten planvoll in das Weltgeschehen eingreift. Am Schluss von Staffel 4 sieht es so aus, als ob Samaritan direkt eine Weltherrschaft in seinem Sinne anstrebt. Das erste Programm, die Maschine, wurde schließlich doch aufgespürt und in buchstäblich letzter Minute konnte es aus dem öffentlichen Stromnetz auf einen tragbaren Computer heruntergeladen und mit seinen Kernalgorithmen gesichert. Wie es jetzt weitergeht, ist offen.

DISKURS

  1. Die technischen Details dieses Plots sind nicht wichtig, wohl aber die großen Linien. Beide Computerprogramme entwickeln ihre Kraft erst, als ihre Algorithmen an entsprechende Netze mit Datenströmen angeschlossen wurden. Ohne Daten laufen alle Algorithmen leer, und ohne Daten würde auch ein menschliches Gehirn verkümmern und der Körper absterben.
  2. Da Algorithmen aus sich heraus nicht wissen können, was Wahr in der Welt ist, brauchen sie reale Daten der realen Welt, anhand deren sie entscheiden können, was Wahr in der Welt ist. Wenn diese Daten korrupt sind, gefälscht, Täuschungen, dann läuft der Algorithmus ins Leere (das geht unserem Gehirn nicht besser: unser Gehirn ist nur über Sinnesorgane mit der Welt da draußen verbunden; wenn wir die Welt falsch oder unvollständig wahrnehmen, sind auch die Weltbilder des Gehirns falsch oder unvollständig). Daher die Tendenz, immer mehr Datennetze anzuzapfen, immer mehr Überwachung von realen Personen zu ermöglichen, bis dahin, dass (für Samaritan) realen Personen Sonden einoperiert werden, die wichtige Zustände dieser Personen direkt an den Algorithmus übermitteln.
  3. Am Ende von Staffel 4 wird der Zuschauer in einer diffusen Vielfalt von technischen Möglichkeiten, potentiellen Bedrohungen, und vagen Heilsversprechen zurück gelassen. Was die Bedrohungen angeht, so sind diese heute schon sehr real. Nach verfügbaren Informationen muss man davon ausgehen, dass die US-Regierung seit mindestens fünf Jahren mit solchen totalen Überwachungsprogrammen experimentiert; komplementiert werden diese Algorithmen durch die geschäftlichen Interessen global operierender Firmen, die mit den Verhaltensdaten von Privatpersonen und Firmen real Geld verdienen. Um an diese Daten heran zu kommen, gibt es nicht nur die öffentliche Überwachung durch immer mehr Videokameras und Überwachung von Datenverkehr in den Netzen und durch Satelliten, sondern zusätzlich immer mehr Sensoren in den Alltagsgeräten und privaten Kommunikationsgeräten. Ergänzt um Datenbrillen bei jedem ist schon jetzt die Überwachung fast total.
  4. Sieht man diese Entwicklung parallel zur Tatsache, dass nur wenige Staaten dieser Erde demokratisch genannt werden können und dass diese wenigen demokratischen Staaten deutliche Tendenzen aufweisen, zur Aushöhlung aller demokratischen Mechanismen der Machtkontrolle, dann ist diese Entwicklung verheerend. Die Kontrolle des Datenraums ist mittlerweile weit schlimmer als der Einmarsch einer Armee mit Panzern. Bei den verantwortlichen Politikern kann man dafür praktisch kein Problembewusstsein erkennen. Speziell im Fall der US-Regierung muss man sich sogar fragen, ob die jeweiligen Präsidenten nicht schon längst nur Marionetten eines außer Kontrolle geratenen Sicherheitsapparates sind.
  5. Die Staffeln 3+4 illustrieren diese Tendenzen und Möglichkeiten durch Inszenierung entsprechender Situationen und Handlungssequenzen. Sie bieten aber keine wirkliche theoretisch-technische Erklärungen, liefern keine Denkansätze in Richtung politischer Systeme oder Wirtschaftsmodelle. Der Zuschauer verbleibt in der Rolle des passiven, dummen Konsumenten, dem das Schauspiel einer Machtübernahme geboten wird, ohne Ansatzpunkt, was er selber denn tun könnte. Die einzigen Hacker, die in der Serie auftauchen, waren böse und letztlich gesteuert von anderen Bösen. Die wenigen Guten, die zumindest das Wort Individuum und Wert des Einzelmenschen im Munde führen, wirken wie ein Häuflein verirrter Privatpersonen im Format von Profikillern, keine normalen Bürger, und die Moral von der Geschichte lautet eher: schließe dich dem allgemeinen Trend an. Widerstand zwecklos. Dann wäre das ganze ein Werbefilm für die Einführung der totalen Kontrolle zum angeblichen Nutzen für die ganze Menschheit.
  6. Betrachtet man den evolutionären Zusammenhang der Geschichte des Lebens auf der Erde, dann erscheint eine zunehmende Vernetzung und Einsatz von Algorithmen zur Unterstützung der Menschen in der rapide anwachsenden Komplexität in der Tat unausweichlich. Allerdings kann man sich fragen, ob dieser evolutionärer Schub darin bestehen soll, die fantastische Kreativität menschlicher Gehirne zu eliminieren durch Versklavung an einen unkontrollierten Algorithmus, dessen Dynamiken noch keiner wirklich erforscht hat, oder aber dass man diese neuen digitalen Technologien nutzen würde, um die Kreativität der Menschen für die Gesamtheit des Lebens noch mehr nutzen zu können. Bei ca. 100 x 10^9 Nervenzellen in einem einzelnen Gehirn würde eine Verknüpfung dieser Gehirne bei z.B. 7 x 10^9 Menschen auf der Erde zu einem Zusammenwirken – im optimalen Fall – von 7 x 10^20 Nervenzellen führen können. Diese können alle, wenn man es erlaubt und unterstützt, kreativ sein. Welch ungeheure Kraft um die Zukunft zu gestalten. Stattdessen hat man den Eindruck, dass viele Mächtige heute versuchen, diese große Kreativität zu normieren, zu eliminieren, unter Kontrolle zu bringen, nur, um die mehrfach beschränkten und auf Konkurrenz und Freund-Feind-Schema getrimmten Weltmodelle einzelner Sicherheitsleute, Militärs, Politiker und Kapitaleigner in den Köpfen der Menschen zu implantieren. Man kann nicht erkennen, dass irgendwelche Werte, geschweige den die Menschenrechte, dabei eine Rolle spielen.
  7. Unter dem Schlagwort Sicherheit ist mittlerweile alles erlaubt. Warum also noch Sicherheit, wenn gerade sie alles zerstört, was man vielleicht schützen wollte? Wie viel Sicherheit verträgt eine Demokratie?
  8. Die Geschichte des Lebens auf der Erde enthält eine klare unmissverständliche Botschaft: Leben kann es nachhaltig nur geben, wenn die die Kreativität stärker ist als die Sicherheit! Totale Sicherheit führt direkt zum Tod des Systems.

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

BEWUSSTSEIN – NICHTBEWUSSTSEIN MIT TEILSTRUKTUREN: Eine Skizze (Teil 2)

Vereinfachendes Modell der Verhältnisse zwischen Bewusstsein - Nichtbewusstsein einerseits, und einigen der Teilstrukturen, u.a. die tiefenpsychologischen Konzepte von 'Unbewusstes' und 'Vorbewusstes'
Vereinfachendes Modell der Verhältnisse zwischen Bewusstsein – Nichtbewusstsein einerseits, und einigen der Teilstrukturen, u.a. die tiefenpsychologischen Konzepte von ‚Unbewusstes‘ und ‚Vorbewusstes‘

1. In einem vorausgehenden Blogeintrag hatte ich zum Thema BEWUSSTSEIN – NICHTBEWUSSTSEIN MIT TEILSTRUKTUREN eine Visualisierung benutzt, in der die einzelnen individuellen Bewusstseine quasi ‚abgehoben‘ zu sein scheinen, gleichsam als ob sie ‚in der Luft schwebend‘. Rein logisch, im Zusammenhang ist klar, dass dies nicht so ist, aber das Bild suggeriert dies ein wenig.

2. Um solchen Missverständnissen vorzubeugen habe ich den gleichen Sachverhalt daher nochmals anders visualisiert: dieses Mal ist das individuelle Bewusstsein ‚eingebettet‘ in ein individuelles Gehirn, dieses wiederum in einen individuellen Körper, und dieser in etwas ‚Größeres‘, das nicht weiter benannt wird. Von den Naturwissenschaften her wissen wir, dass es hier Makrostrukturen wie Erde, Sonnensystem usw. gibt.

Andere Sicht auf das Thema Bewusstsein--Nichtbewusstsein, dieses Mal mit dem Bewusstsein lokalisiert innerhalb des Gehirns
Andere Sicht auf das Thema Bewusstsein–Nichtbewusstsein, dieses Mal mit dem Bewusstsein lokalisiert innerhalb des Gehirns

3. Die gewählte zweidimensionale Darstellung kommt insgesamt hier an ihre Grenzen; hier wäre eine dreidimensionale Visualisierung, die man durchwandern kann, angemessener.

4. Bei allem muss man sich klar machen, dass es sich letztlich um eine Visualisierung von Strukturen handelt aus der primären Sicht eines Bewusstseins, das – lokalisiert in einem Gehirn in einem Körper – versucht zu verstehen, was ‚außerhalb von ihm‘ ist, und das über den ‚Umweg‘ des Außenweltwissens Hypothesen über seine eigenen Arbeitsvoraussetzungen entwickelt. D.h. ein bestimmtes Bewusstsein C ‚erlebt sich‘ zwar in einer spezifischen Weise, es kann aber die Mechanismen seines Erlebens, warum, wieso, weshalb usw. nicht direkt ‚einsehen‘. So wird es vom umgebenden Gehirn z.B. mit allerlei ‚Abstraktionen von Objekten‘ versorgt, kann begrenzt über ‚Erinnerungen‘ verfügen, kann aber nicht direkt einsehen, wie solche Abstraktionen zustande kommen, wie das Erinnern im Detail funktioniert, usw.

5. So großartig das Phänomen des Bewusstseins innerhalb der bekannten Natur ist, so schlicht und einfach sind seine Erlebnisstrukturen gemessen an jenen komplexen Prozessen und Strukturen, die vorhanden sein müssen, damit diese Erlebnisstrukturen funktionieren.

6. Schon die Struktur eines Atoms hat eine Komplexität, die bis heute möglicherweise nicht vollständig aufgehellt ist, geschweige denn die Struktur und Dynamik von Molekülen; unfassbar wird es schon bei der Entstehung und Funktionsweise von Zellen, und dass diese dann in Kooperation von vielen Billionen (10^12) zu solchen komplexen Leistungen fähig sind, wie wir sie von Pflanzen und Tieren (einschließlich des homo sapiens sapiens) her kennen, das übersteigt bislang unsere Verstehensfähigkeit, die an die aktuelle Form des Bewusstseins gekoppelt ist.

7. Zwar haben die Menschen im Laufe von ca. 10.000 Jahren immer mehr ‚Wissenstechniken‘ entwickelt, um die Grenzen des Bewusstseins zu umgehen (Sprachen, Schrift, Texte, Mathematik, Bücher, Bibliotheken, Computer,… ), dies alles unterstützt durch immer größere ‚Spezialisierungen‘ sowohl in Form von ‚Trainings‘ (diverse Formen von Ausbildung) wie auch von ’sozialen Rollen‘ (Lehrer, Professoren, Meister, Facharbeiter, Ingenieure, Richter, Ärzte, …) und ‚Institutionen‘ (Schulen, Hochschulen, Behörden, Betriebe, Märkte, …), doch je vielfältiger diese Werkzeuge und Institutionen geworden sind, umso komplexer wurde dadurch auch die ‚Lebenswelt der Menschen‘: die Natur wurde mehr und mehr überlagert durch ‚zivilisatorische‘ Strukturen und Erzeugnisse, der Umgang miteinander wurde immer komplexer durch eine Vielzahl von Sprachen, Fertigkeiten, Rollenmustern, Regeln, Ethnien, und kulturellen Mustern. Eine ‚Spezialisierung‘ hilft dann zwar im Detail, aber die ‚Gesamtheit‘ aller Spezialisierung, die ‚Summe der Teile‘ kann das Fassungsvermögen eines einzelnen Bewusstseins deutlich zu übersteigen (ein Gedanke, der in diesem Blog schon mehrfach ausgesprochen wurde).

8. Neben der Frage, ob und wie der Mensch sein Bewusstsein ‚real‘ erweitern kann (nicht nur scheinbar durch Drogen, die sein Erleben subjektiv verändern), indem er seinen Körper mit dem Gehirn ‚genetisch und dann strukturell weiterentwickelt‘, wurde auch schon immer die Frage aufgeworfen, ob und wie der Mensch sich dadurch helfen könnte, dass er sich ‚Formen künstliche Intelligenz‘ schafft, die ihm helfen.

9. In den vielfältigen Visionen solch einer ‚künstlichen Intelligenz‘ wurde zwar oft unterstellt, dass diese künstliche Intelligenz mit dem Menschen kommunizieren kann, aber noch nie (!!!!!) hat sich jemand ernsthaft die Frage gestellt, welche Voraussetzungen denn erfüllt sein müssten, damit solch eine ‚menschengemässe Kommunikation‘ möglich sei. Die vielen großen Handbücher zum Thema ‚Künstliche Intelligenz‘ – so wunderbar und beeindruckend sie z.T. in Umfang und Darstellung sind – schweigen sich zu diesem Punkt aus. Das Verhältnis zwischen Mensch und Maschine ist hier ein Nichtthema, ein Totalausfall.

10. Eine Untersuchung der inneren Struktur von normaler Sprache zeigt, dass das ‚Ausdrucksmaterial‘ von Sprache (Sprachlaute, Schriftzeichen, …) zum ’normalen Gebrauch‘ innerhalb von ‚Sprachspielen‘ ‚im‘ Sprecher-Hörer, also im Zeichenbenutzer, abgebildet (kodiert) werden muss auf jene perzeptorischen (und abstrakt weiter verarbeiteten) Strukturen, die dann das Substrat von dem ausmachen, was wir dann die ‚Bedeutung‘ eines sprachlichen Ausdrucks nennen. Diese Mischung aus perzeptorischen Material und gehirnmässig aufbereiteten multimodalen Abstraktionen und Assoziationen ist höchst komplex, im einzelnen wenig erforscht (da schwierig zu beobachten), und bildet einen substantiellen Bestandteil dessen, was wir ‚menschliche Kommunikation‘ nennen.

11. Eine ‚künstliche Intelligenz mit menschengemässer Kommunikation‘ [KImK] (‚Artificial Intelligence for Communication with Humans‘ [AI4CH]) benötigt u.a. solch eine komplexe Semantik, will sie in der Lage sein, mit Menschen entsprechend zu kommunizieren. Dies setzt zwar nicht voraus, dass solch eine KImK den Körper und das Gehirn eines Menschen 1-zu-1 kopiert, aber es setzt voraus, dass die ’semantischen Strukturen‘ funktional äquivalent verfügbar sind. Zudem wird dies nicht ohne kontinuierliche ‚Adaptation‘, sprich ’nicht ohne kontinuierliches Lernen in menschengemässen Umgebungen‘ gehen. Wer sich also wundert, warum es trotz solch gewaltiger technischer Fortschritte noch immer keine KI gibt, die auch nur ansatzweise zu menschengemässer Kommuniktion fähig ist, der braucht sich nur zu fragen, wo denn bislang solche Lernprozesse stattfinden (IBMs Watson Computer + Programm versucht dies, aber nach all dem, was darüber bekannt geworden ist, ist dieses Konzept nach meiner Einschätzung noch sehr weit entfernt von dem, was hier gebraucht wird).

12. Und selbst wenn wir es schaffen könnten, solch eine KImK bereit zu stellen, was würde sie uns letztlich nützen? Das ‚menschliche Maß‘ in der impliziten Bedeutung würde implizieren, dass alle die endlichen Strukturen, die im Menschen konstitutiv für seine Bedeutungsstrukturen sind, ’nachvollzogen‘ werden müssten. Andernfalls würde es zu erheblichen Bedeutungsabweichungen kommen können. Eine ‚Verstärkung‘ wäre dann nur möglich über eine ‚Metaebene‘ zu dieser ’normalen KImK‘, in der (i) eine KImK evtl. ’schneller‘ ablaufen kann, (ii) n-viele KImKs parallel betrieben werden könnten, (iii) es ‚übergeordnete Modelle‘ von Intelligenz gibt, die die einzelnen KImKs als ‚Schnittstellen‘ zu konkreten Menschen benutzen, und zusätzlich eine ‚Meta-Intelligenz‘ besitzen, die ‚darüber hinaus‘ geht. Wie solch eine Intelligenz aussieht, können wir zumindest in Umrissen denken. Sollte sie realisiert sein und sollte sie ‚im gedachten Sinne‘ funktionieren (wahre Freiheit ist schwer regulierbar….), dann wäre immerhin denkbar, dass eine solche KImK+Meta komplexe Abläufe besser überschauen, analysieren und planen könnte wie einzelne kooperierende menschliche Gehirne. Im positiven Fall könnten Menschen dann solche KImK+Meta’s als ‚Assistenzsysteme‘ einsetzen.

13. Wenn man aber sieht, wie jetzt schon einzelne Menschen ganze Nationen mit einfachen Parolen zu Handlungen haben hinreißen können, um wie viel mehr besteht dann solch eine Gefahr, wenn es solche neuen Superintelligenzen geben würde? Auf der anderen Seite, wenn wir sehen, in welchem Ausmaß Menschen gegenüber Menschen grausam und unmenschlich sein können, dann erscheint die gedachte Gefahr durch eine Maschine eher fast harmlos. Wir müssen aber auch ehrlich sagen, dass wir damit noch keinerlei Erfahrungen haben. Dass die Hauptursache für eine ‚Hölle auf Erden‘ bislang immer Menschen waren, das wissen wir. Was die Maschinen uns bringen werden, ist noch offen. Als erstes werden vermutlich wieder Menschen versuchen, diese neuen Werkzeuge in einer Weise zu nutzen, die nur einseitig Nutzen bringen. Wer rettet den Menschen eigentlich vor sich selbst?

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIRER.