Archiv der Kategorie: Lernwelt

PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design. MMI Analyse. Teil 1

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 16.Februar 2021
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de)

Letzte Änerung: 26.2.2021 (Anmerkung zum Begriff ‚Alltagssprache‘ ergänzt)

KONTEXT

In diesem Beitrag soll das Konzept einer praktischen kollektiven Mensch-Maschine Intelligenz by design weiter entwickelt werden. Im unmittelbar vorher gehenden Beitrag wurde die grundlegende Problemstellung sowie die gewählte (Zukunfts-)Vision in einer ersten Annäherung umrissen. In diesem Text geht es jetzt darum, etwas konkreter zu skizzieren, wie diese (Zukunfts-)Vision aussehen könnte bzw. sollte.

Bisher zum Thema veröffentlicht:

MMI ANALYSE – AUSGANGSPUNKT

Der Ausgangspunkt der MMI-Analyse ist gegeben durch die ersten Angaben zur Zukunfts-Vision (Siehe Schlussabschnitt in [1]). Diese Vision umschreibt mit wenigen Worten, welcher Zustand in der Zukunft angezielt wird. Die Vision selbst sagt nichts zur Begründung, nichts zu den Motiven; diese werden vorausgesetzt. Die Vision beschreibt nur, was sein soll.

Beliebige Menschen spielen Zukunft

Zentraler Gedanke ist, dass eine beliebige Gruppe von Menschen auf eine eher spielerische Weise dabei unterstützt werden soll, für eine selbst gewählte Problemstellung und ein selbst gewähltes Ziel schrittweise einen Lösungsweg zu konstruieren.

Ein Drehbuch schreiben

Diese Konstruktion eines Lösungsweges ist vergleichbar mit dem Schreiben eines Drehbuchs in einer Alltagssprache, die alle Beteiligten hinreichend beherrschen.[2] Dies setzt voraus, dass der Prozess der Wirklichkeit — vereinfachend — gedacht wird als eine Folge von Situationen (oder auch Zuständen), in der eine Nachfolgesituation S‘ aus einer vorausgehenden Situation S durch das Stattfinden von mindestens einer beobachtbaren Veränderung hervorgegangen ist. Im Grenzfall ist es nur die Veränderung einer Uhr, deren Zeitanzeigen in der Nachfolgesituation S‘ ‚größer‘ sind als in der Situation S.[3] Im Kontext einer Folge von beschreibbaren Situationen kann man die Veränderungen in der Form von Veränderungs-Regeln fassen: Man sagt: wenn die Bedingung C in einer aktuellen Situation S erfüllt ist, dann sollen mit der Wahrscheinlichkeit π die Aussagen Eplus der Situation S hinzugefügt werden, um die Nachfolgesituation S‘ zu generieren, und die Aussagen Eminus sollen von S weggenommen werden, um die Nachfolgesituation S‘ zu generieren.

Bezug zu einer Situation

Diese Redeweise setzt voraus, dass davon ausgegangen wird, dass der Text des Drehbuchs sich auf eine reale Situation S bezieht, und die einzelnen Ausdrücke des Textes Eigenschaften der realen Situation beschreiben. Die Menge der Ausdrücke in einem Drehbuch, die sich auf eine bestimmte Situation S beziehen, bilden also Repräsentanten von realen Eigenschaften der vorausgesetzten realen Situation. Verändert sich die vorausgesetzte Situation in ihren beobachtbaren Eigenschaften, dann drückt sich dies darin aus, dass sich auch die Ausdrücke im Drehbuch verändern müssen: kommen neue Eigenschaften hinzu, müssen neue Ausdrücke hinzu kommen. Verschwinden Eigenschaften, dann müssen die entsprechenden Ausdrücke verschwinden. Wechselt also z.B. die Verkehrsampel von Rot auf Orange, dann muss z.B. der Ausdruck ‚Die Ampel ist rot‘ ersetzt werden durch die Aussage ‚Die Ampel ist orange‘. Dann wäre die Menge Eminus = {Die Ampel ist rot}, und die Menge Eplus = {Die Ampel ist orange}.

Das Drehbuch hat zwei Teile …

Das Drehbuch für die gemeinsame spielerische Planung einer gewünschten Zukunft besteht also mindestens aus zwei Teilen:

  1. Einer Ausgangssituation S, von der aus man starten will, und
  2. einer Menge von Veränderungsregeln X, die sagen, wann man eine gegebene Situation in welcher Weise abändern darf.

Vergleich mit einem Spiel

Diese Konstellation kann man ohne weiteres mit einem Spiel vergleichen:

  1. Es gibt die Startsituation (z.B. ein bestimmtes Spielbrett oder eine Spielfeld mit Spielobjekten und Spielern)
  2. Es gibt vereinbarte Spielregeln, anhand deren man in einer gegebenen Situation etwas tun darf.

Regeln jederzeit abändern

In dem hier angenommenen Szenario eines Drehbuchs für die gemeinsame spielerische Planung einer gewünschten Zukunft gibt es allerdings zwei Besonderheiten: Die eine besteht darin, dass die Ausgangslage und die Spielregeln von den Spielern selbst aufgestellt werden und jederzeit nach Absprache geändert werden können.

Leitbild Zukunft als Maßstab

Die andere Besonderheit resultiert aus der Tatsache, dass die Teilnehmer hier zu Beginn auch explizit ein Leitbild für die Zukunft formulieren. Dieses kann zwar auch jederzeit nach Absprache wieder abgeändert werden, so lange es aber gilt, dient dieses Leitbild als Maßstab für die Beurteilung, ob und in welchem Umfang der Prozess der fortschreitenden Veränderung ( = der Spielprozess!) das zuvor vereinbarte Leitbild erreicht hat.

In gewisser Weise entspricht die Bewertung einer Situation anhand eines vereinbarten Leitbildes dem Konzept des ‚Gewinnens‘ in normalen Spielen: beim Gewinnen wird in einem Spiel ein Zustand erreicht, der sich anhand zuvor vereinbarter Kriterien als ‚Gewinnsituation‚ für mindestens einen beteiligten Spieler klassifizieren lässt. Man sagt dann, dass dieser Spieler ‚gewonnen‘ hat.

Bei der Verwendung des Konzepts einer Zukunftsvision als Leitbild kann man das Leitbild dazu benutzen, um eine beliebige Situation dahingehend zu klassifizieren, ob und wenn ja in welchem Umfang diese Situation dem Leitbild ‚entspricht‘. Explizite Zukunftsbilder ermöglichen also die ‚Bewertung‘ einer Situation. Ohne solch eine Möglichkeit wäre jede Situation gleichwertig mit jeder anderen Situation. Es wäre dann nicht möglich, eine ‚Richtung‘ für einen Prozess zu definieren.

ALLTAGSSPRACHE

Diejenige Sprache, die jeder Mensch von Kindheit an lernt und benutzt, das ist die Alltagssprache, also die Sprache, die jeder in seinem Alltag spricht und die — normalerweise — auch von den Mitmenschen benutzt wird. [5a] Durch das Voranschreiten einer Globalisierung und der damit einhergehenden Vermischung von Alltagswelten, vermengen sich verschiedene Sprachen, was bei einzelnen zur Mehrsprachigkeit führt, auf der anderen Seite zur Zunahme von Übersetzungen. Übersetzungen durch Menschen können vergleichsweise ‚gut‘ sein (wer kann dies eigentlich überprüfen?), die heute zunehmenden Angebote von computerbasierten Übersetzungen sind aber dennoch auf dem Vormarsch, weil man ihren Einsatz sehr leicht ’skalieren‘ kann: ein Programm kann viele Millionen Menschen gleichzeitig ‚bedienen‘, dazu eher ‚einheitlich‘, und solch ein maschinelles Übersetzungsprogramm kann — wie salopp gesagt wird — ‚lernen‘.[4] Die Gesamtheit dieser maschinellen Verfahren hat aber dennoch keinen Zugang zu den eigentlichen Bedeutungsfunktionen von Alltagssprache, die in den Gehirnen der Sprecher-Hörer verortet sind. [5]

Aufgrund dieser Sachlage soll das neue Verfahren die Vorteile und Nachteile der verschiedenen Möglichkeiten auf neue Weise optimal verknüpfen. Primär soll der Anwender seine Alltagssprache — und zwar jede — voll benutzen können.

Zur Alltagssprache gehören mehrere ‚Mechanismen‘ [6], die es zulassen, dass man sie beliebig erweitern kann, und auch, dass man in der Alltagssprache über die Alltagssprache sprechen kann.[7] Diese Eigenschaften machen die Alltagssprache zu den stärksten Ausdruckssystemen, die wir kennen.[8]

Zu den möglichen — und vorgesehenen — Erweiterungen der Alltagssprache gehören z.B. beliebige Parametermengen mit zugehörigen Operationen auf diesen Parametern. Ein ‚Parameter‘ wird hier verstanden als ein Name, dem irgendein Wert (z.B. ein numerischer Wert) zugeordnet sein kann (z.B. eine Einwohnerzahl, ein finanzieller Betrag, ein Temperaturwert …). Parameter mit numerischen Werten kann man z.B. Addieren, Subtrahieren, Multiplizieren usw.

Zum Sprechen über andere Ausdrücke gehört die Möglichkeit, dass man beliebige Abstraktionen bilden kann. Schon wenn wir über sogenannte normale Gegenstände sprechen wie ‚Stuhl‘, ‚Tasse‘, ‚Tisch‘, ‚Hund‘ usw. benutzen wir sprachliche Ausdrücke, die nicht für ein einzelnes Objekt stehen, sondern für ganze Mengen von konkreten Dingen, die wir alle gelernt haben, als ‚Stuhl‘, ‚Tasse‘, ‚Tisch‘, ‚Hund‘ usw. zu bezeichnen. Auf einem Tisch können bei mehreren Personen beim Frühstück ganz viele Gegenstände stehen, die wir alle als ‚Tasse‘ bezeichnen würden, obwohl sie sich u.a. durch Form, Farbe und Material unterscheiden.[9]

SIMULATION

Normale Formen von Drehbüchern bestimmen das Geschehen auf der Bühne oder in einem Film. Auf der Bühne beginnt man mit einer Eingangsszene, in der unterschiedliche Akteure in einer bestimmten Umgebung (Situation) anfangen, zu handeln, und durch das Handeln werden Veränderungen bewirkt: in den Akteuren (meist nicht so fort direkt sichtbar, aber dann in den Reaktionen), in der räumlichen Anordnung der Dinge, in der Beleuchtung, in Begleitgeräuschen, … Im Film ist es die Abfolge der Bilder und deren Füllungen.

Im Fall von Brettspielen fangen die beteiligten Spieler an, mit Blick auf erlaubte Regeln, den aktuellen Spielstand und die möglichen Gewinnsituationen in der Zukunft zu handeln. Dieses Handeln bewirkt eine schrittweise Änderung der jeweils aktuellen Spielsituation.

In abgewandelter Form passiert in einem Krimi oder in einem Roman nichts anderes: literarisch begabte Menschen benutzen das Mittel der Alltagssprache um Situationen zu beschreiben, die sich schrittweise durch Ereignisse oder das Verhalten von Menschen ändern. Noch eine Variante stellt die Gattung Hörspiel dar: statt eine Geschichte zu lesen hört man beim Hörspiel zu und lässt sich mit hinein nehmen in ein Geschehen, das sich von Situation zu Situation fortbewegt und den Hörer — wenn er sich angesprochen fühlt — geradezu mitreißen kann.

In der vorliegenden Anwendung gibt es alle Zutaten — Gegenwart, Zukunft, mögliche Maßnahmen –, aber wie kommt es hier zu einer Abfolge von Situationen?

Im einfachsten Fall setzten sich die Autoren der Texte zusammen und prüfen durch eigene Lektüre der Texte und Regeln, welche der Regeln aktuell angewendet werden könnten und sie wenden die Regeln an. Auch so würde eine Folge von Texten entstehen, wobei jeder Text eine Situation beschreibt. Erst die Start-Situation, dann die Anwendung von passenden Regeln, die zu einer Veränderung des Textes führt und damit zu einer neuen Situation.

Wir wissen von uns Menschen, dass wir dies im Alltag können (z.B. jeder Heimwerker — oder auch Hobby-Bastler — benutzt eine Bauanleitung, um aus den Einzelteilen des Bausatzes schrittweise ein komplexes Gebilde zusammen zu bauen). Wenn die Texte umfangreicher werden und wenn die Zahl der Regeln deutlich zunimmt, dann kommt man mit dieser händischen (manuellen) Methode bald an praktische Grenzen. In diesem Moment wäre es sehr schön, man könnte sich helfen lassen.

Viele Menschen benutzen heutzutage zum Schreiben von Texten, zum Rechnen, zum Malen, zum Komponieren, den Computer, obwohl es ja eigentlich auch ohne den Computer gehen würde. Aber mit einem Rechenblatt viele Rechnungen miteinander zu verknüpfen und dann ausrechnen zu lassen ist einfach bequemer und — in den komplexen Fällen — sogar die einzige Möglichkeit, die Arbeit überhaupt zu verrichten. Computer müssen nichts verstehen, um Zeichenketten bearbeiten zu können.

Diese formale Fähigkeit eines Computers soll für diese Anwendung genutzt werden: wenn ich die Text-Version einer Situation habe wie z.B. S1 = {Das Feuer ist fast erloschen.} und ich habe eine Veränderungsregel der Art: X1 = {Wenn C1 zutrifft dann füge Eplus1 dazu und nehme Eminus1 weg}, konkret C1 = {Das Feuer ist fast erloschen.}, Eplus1 = {Lege Holz nach.}, Eminus1 = {Leer}, dann ist es für einen Computer ein leichtes festzustellen, dass die Bedingung C1 in der aktuellen Situation S1 erfüllt ist und dass daher die Aussage Lege Holz nach. hinzugefügt werden soll zu S1, was zur neuen Situation S2 führt: S2 = {Das Feuer ist fast erloschen. Lege Holz nach.} Wenn es jetzt noch die Regel geben würde X2 mit C2 = {Lege Holz nach.}, Eplus2 ={Das Feuer brennt.}, Eminus2={Das Feuer ist fast erloschen.}, dann könnte der Computer ‚ohne Nachzudenken‘ die nächste Situation S3 erzeugen mit S3 = {Das Feuer brennt.}

Dieses einfache Beispiel demonstriert das Prinzip einer Simulation: man hat eine Ausgangssituation S0, man hat eine Menge von Veränderungsregeln im oben angedeuteten Format X= Wenn C in S erfüllt ist, dann füge Epluszu S dazu und nimm Eminus von S weg, und man hat einen Akteur, der die Veränderungsregeln auf eine gegebene Situation anwenden kann. Und diese Anwendung von Regeln erfolgt so oft, bis entweder keine Regeln mehr anwendbar sind oder irgendein Stopp-Kriterium erfüllt wird.

Schreibt man für den Ausdruck Die Menge der Veränderungsregeln X wird auf eine Situation S angewendet, was zur Nachfolgesituation S‘ führt verkürzend als: X(S)=S‘, ergibt die wiederholte Anwendung von X eine Serie der Art: X(S)= S‘, X(S‘)= S“, …, X(Sn-1)= Sn. Dies bedeutet, dass die Folge der Text-Zustände <S‘, S“, …, Sn> einen Simulationsverlauf repräsentieren. Man kann dann sehr gut erkennen, was passiert, wenn man bestimmte Regeln immer wieder anwendet.

In der vorliegenden Anwendung sollen solche durch Computer unterstützte Simulationen möglich sein, tatsächlich sogar noch mit einigen weiteren Feinheiten, die später näher beschrieben werden.

SIMULATION MIT BEWERTUNG

Wie zuvor schon im Text beschrieben wurde, kann man eine gegebene Situation S immer dann klassifizieren als erfüllt Eigenschaft K, wenn man über geeignete Kriterien K verfügt. In der vorliegenden Anwendung kann der Anwender eine Vision formulieren, eine Beschreibung, welcher Zustand in der Zukunft eintreten sollte.

Im Rahmen der Simulation soll es daher möglich sein, dass nach jeder Anwendung von Veränderungsregeln X mitgeteilt wird, in welchem Ausmaß die vorgegebene Vision V im aktuellen Zustand S eines Simulationsverlaufs schon enthalten ist. Die Aussagekraft einer solchen Klassifikation, die eine Form von Bewertung darstellt, hängt direkt von der Differenziertheit der Vision ab: je umfangreicher und detaillierter der Text der Vision ist, um so konkreter und spezifischer kann die Bewertung vorgenommen werden.

LERNFÄHIGE ALGORITHMEN (KI)

So, wie im Fall der Simulation der Computer dem Menschen bei ausufernden manuellen Tätigkeiten helfen kann, diese zu übernehmen, so ergibt sich auch für die Frage der Auswertung eines Simulationsverlaufs sehr schnell die Frage: könnte man auch ganz andere Simulationsverläufe bekommen, und welche von den vielen anderen sind eigentlich im Sinne eines vorgegebenen Zielkriteriums besser?

Tatsächlich haben wir es mit dem Ensemble einer Anfangssituation, einer Zukunftsvision und einer Menge von Veränderungsregeln mit einem Problemraum zu tun, der sehr schnell sehr umfangreich sein kann. Eine einzelne Simulation liefert immer nur einen einzigen Simulationsverlauf. Tatsächlich lässt der Problemraum aber viele verschiedene Simulationsverläufe zu. In den meisten Fällen ist eine Erkundung des Problemraumes und das Auffinden von interessanten Simulationsverläufen von großem Interesse. Der Übergang von einem Suchprozess zu einem lernenden Prozess ist fließend.

In der vorliegenden Anwendung soll von der Möglichkeit einer computergestützten lernende Suche Gebrauch gemacht werden.

QUELLENANGABEN und ANMERKUNGEN

[1] Siehe dazu den Schluss des Textes von Gerd Doeben-Henisch, 15.2.2021, PRAKTISCHE KOLLEKTIVE MENSCH-MASCHINE INTELLIGENZ by design. Problem und Vision, https://www.cognitiveagent.org/2021/02/15/praktische-kollektive-mensch-maschine-intelligenz-by-design-problem-und-vision/https://www.cognitiveagent.org/2021/02/15/praktische-kollektive-mensch-maschine-intelligenz-by-design-problem-und-vision/

[2] Denkbar ist natürlich, dass partiell mit Übersetzungen gearbeitet werden muss.

[3] Dieses Modell der Zerlegung der Wirklichkeit in Zeitscheiben entspricht der Arbeitsweise, wie das menschliche Gehirn die jeweils aktuellen sensorischen Signale für ein bestimmtes Zeitintervall ‚zwischen-puffert‘, um die Gesamtheit der Signale aus diesem Zeitintervall dann nach bestimmten Kriterien als eine Form von Gegenwart abzuspeichern und daraus dann Vergangenheit zu machen.

[4] Damit dies möglich ist, landen alle Texte auf einem zentralen Server, der mit statistischen Methoden ganze Texte nach Methoden des sogenannten ‚maschinellen Lernens‘ analysiert, statistische Verwendungskontexte von Ausdrücken erstellt, angereichert durch diverse sekundäre Zusatzinformationen.

[5] Was diese bedingt lernfähigen Algorithmen an Übersetzungsleistungen ermöglichen, ist sehr wohl erstaunlich, aber es ist prinzipiell begrenzt. Eine vertiefte Analyse dieser prinzipiellen Begrenzungen führt in die Entstehungszeit der modernen formalen Logik, der modernen Mathematik sowie in die theoretischen Grundlagen der Informatik, die letztlich ein Abfallprodukt der Meta-logischen Diskussion in der Zeit von ca. 1900 bis 1940 ist. Wenn also die angezielte Anwendung die volle Breite der Alltagssprache nutzen können soll, dann reicht es nicht, die prinzipiell Bedeutungsfernen Verfahren der Informatik wie bisher einzusetzen.

[5a] Das Phänomen ‚Alltagssprache‘ ist bei näherer Betrachtung äußerst komplex. In einem anderen Beitrag habe ich einige der grundlegenden Aspekte versucht, deutlich zu machen: Gerd Doeben-Henisch, 29.Januar 2021, SPRACHSPIEL und SPRACHLOGIK – Skizze. Teil 1, https://www.cognitiveagent.org/2021/01/29/sprachspiel-und-sprachlogik-skizze-teil-1/

[6] … von denen die formale Logik nicht einmal träumen kann.

[7] In der formalen Logik sind Spracherweiterungen im vollen Sinne nicht möglich, da jede echte Erweiterung das System ändern würde. Möglich sind nur definitorische Erweiterungen, die letztlich Abkürzungen für schon Vorhandenes darstellen. Das Sprechen in einer gegebenen Sprache L über Elemente der Sprache L — also meta-sprachliches Sprechen –, ist nicht erlaubt. Aufgrund dieser Einschränkung konnte Goedel seinen berühmten Beweis von der Unmöglichkeit führen, dass ein formales System sowohl Vollständig als auch Widerspruchsfrei ist. Dies ist der Preis, den formale Systeme dafür zahlen, dass ’nichts falsch machen können‘ (abgesehen davon, dass sie von sich aus sowieso über keine Bedeutungsdimension verfügen)).

[8] Während formale Systeme — und Computer, die nach diesen Prinzipien arbeiten — durch diese Elemente inkonsistent und un-berechenbar werden, kann das menschliche Gehirn damit fast mühelos umgehen!

[9] Unser Gehirn arbeitet schon immer mit beliebigen Abstraktionen auf beliebigen Ebenen.

FORTSETZUNG

Eine Fortsetzung findet sich HIER.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

KI UND BIOLOGIE. Blitzbericht zu einem Vortrag am 28.Nov.2018

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
29.Nov. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE AKTUALISIERUNG: 1.Dez.2018, Anmerkung 1

KONTEXT

Im Rahmen einer öffentlichen Veranstaltung des Fachbereichs 2 ‚Informatik & Ingenieurwissenschaften‘ der Frankfurt University of Applied Sciences am 28.November 2018 mit dem Rahmenthema „Künstliche Intelligenz – Arbeit für Alle?“ hielt Gerd Doeben-Henisch einen kurzen Vortrag zum Thema „Verändert KI die Welt?“ Voraus ging ein Vortrag von Herrn Helmut Geyer „Arbeitsmarkt der Zukunft. (Flyer zur Veranstaltung: FRA-UAS_Fb2_Karte_KI-Arbeit fuer alle_Webversion )

EINSTIEG INS KI-THEMA

Im Kontext der Überlegungen zur Arbeitswelt angesichts des technologischen Wandels gerät die Frage nach der Rolle der Technologie, speziell der digitalen Technologie — und hier noch spezieller der digitalen Technologie mit KI-Anteilen – sehr schnell zwischen die beiden Pole ‚Vernichter von Arbeit‘, ‚Gefährdung der Zukunft‘ einerseits und ‚Neue Potentiale‘, ‚Neue Arbeit‘, ‚Bessere Zukunft‘, wobei es dann auch einen dritten Pol gibt, den von den ‚übermächtigen Maschinen‘, die die Menschen sehr bald überrunden und beherrschen werden.

Solche Positionen, eine Mischungen aus quasi-Fakten, viel Emotionen und vielen unabgeklärten Klischees, im Gespräch sachlich zu begegnen ist schwer bis unmöglich, erst Recht, wenn wenig Zeit zur Verfügung steht.

Doeben-Henisch entschloss sich daher, das Augenmerk zentral auf den Begriff ‚Künstliche Intelligenz‘ zu lenken und die bislang uneinheitliche und technikintrovertierte Begrifflichkeit in einen größeren Kontext zu stellen, der das begrifflich ungeklärte Nebeneinander von Menschen und Maschinen schon im Ansatz zu überwinden sucht.

ANDERE DISZIPLINEN

Viele Probleme im Kontext der Terminologie der KI im technischen Bereich erscheinen hausgemacht, wenn man den Blick auf andere Disziplinen ausweitet. Solche andere Disziplinen sind die Biologe, die Mikrobiologie sowie die Psychologie. In diesen Disziplinen beschäftigt man sich seit z.T. deutlich mehr als 100 Jahren mit komplexen Systemen und deren Verhalten, und natürlich ist die Frage nach der ‚Leistungsfähigkeit‘ solcher Systeme im Bereich Lernen und Intelligenz dort seit langem auf der Tagesordnung.

Die zunehmenden Einsichten in die unfassbare Komplexität biologischer Systeme (siehe dazu Beiträge in diesem Blog, dort auch weitere Links), lassen umso eindrücklicher die Frage laut werden, wie sich solche unfassbar komplexen Systeme überhaupt entwickeln konnten. Für die Beantwortung dieser Frage wies Doeben-Henisch auf zwei spannende Szenarien hin.

KOMMUNIKATIONSFREIE EVOLUTION

Entwicklungslogik vor der Verfügbarkeit von Gehirnen
Entwicklungslogik vor der Verfügbarkeit von Gehirnen

In der Zeit von der ersten Zelle (ca. -3.8 Mrd Jahren) bis zur Verfügbarkeit hinreichend leistungsfähiger Nervensysteme mit Gehirnen (ab ca. -300.000, vielleicht noch etwas früher) wurde die Entwicklung der Lebensformen auf der Erde durch zwei Faktoren gesteuert: (a) die Erde als ‚Filter‘, was letztlich zu einer bestimmten Zeit geht; (b) die Biomasse mit ihrer Reproduktionsfähigkeit, die neben der angenäherten Reproduktion der bislang erfolgreichen Baupläne (DNA-Informationen) in großem Umfang mehr oder weniger starke ‚Varianten‘ erzeugte, die ‚zufallsbedingt‘ waren. Bezogen auf die Erfolge der Vergangenheit konnten die zufälligen Varianten als ’sinnlos‘ erscheinen, als ’nicht zielführend‘, tatsächlich aber waren es sehr oft diese zunächst ’sinnlos erscheinenden‘ Varianten, die bei einsetzenden Änderungen der Lebensverhältnisse ein Überleben ermöglichten. Vereinfachend könnte man also für die Phase die Formel prägen ‚(Auf der dynamischen Erde:) Frühere Erfolge + Zufällige Veränderungen = Leben‘. Da zum Zeitpunkt der Entscheidung die Zukunft niemals hinreichend bekannt ist, ist die Variantenbildung die einzig mögliche Strategie. Die Geschwindigkeit der ‚Veränderung von Lebensformen‘ war in dieser Zeit auf die Generationsfolgen beschränkt.

MIT KOMMUNIKATION ANGEREICHERTE EVOLUTION

Nach einer gewissen ‚Übergangszeit‘ von einer Kommunikationsfreien zu einer mit Kommunikation angereicherte Evolution gab es in der nachfolgenden Zeit die Verfügbarkeit von hinreichend leistungsfähigen Gehirnen (spätestens mit dem Aufkommen des homo sapiens ab ca. -300.000)[1], mittels deren die Lebensformen die Umgebung und sich selbst ‚modellieren‘ und ‚abändern‘ konnten. Es war möglich, gedanklich Alternativen auszuprobieren, sich durch symbolische Kommunikation zu ‚koordinieren‘ und im Laufe der letzten ca. 10.000 Jahren konnten auf diese Weise komplexe kulturelle und technologische Strukturen hervorgebracht werden, die zuvor undenkbar waren. Zu diesen Technologien gehörten dann auch ab ca. 1940 programmierbare Maschinen, bekannt als Computer. Der Vorteil der Beschleunigung in der Veränderung der Umwelt – und zunehmend auch der Veränderung des eigenen Körpers — lies ein neues Problem sichtbar werden, das Problem der Präferenzen (Ziele, Bewertungskriterien…). Während bislang einzig die aktuelle Erde über ‚Lebensfähig‘ ‚oder nicht Lebensfähig‘ entschied, und dies das einzige Kriterium war, konnten die  Lebewesen mit den neuen Gehirnen  jetzt eine Vielzahl von Aspekten ausbilden, ‚partielle Ziele‘, nach denen sie sich verhielten, von denen oft erst in vielen Jahren oder gar Jahrzehnten oder gar noch länger sichtbar wurde, welche nachhaltigen Effekte sie haben.

Anmerkung 1: Nach Edelman (1992) gab es einfache Formen von Bewusstsein mit den zugehörigen neuronalen Strukturen ab ca. -300 Mio Jahren.(S.123) Danach hätte es  also ca. 300 Mio Jahre gedauert, bis   Gehirne, ausgehend von einem ersten einfachen Bewusstsein, zu komplexen Denkleistungen und sprachlicher Kommunikation in der Lage waren.

LERNEN und PRÄFERENZEN

Am Beispiel von biologischen Systemen kann man fundamentale Eigenschaften wie z.B. das ‚Lernen‘ und die ‚Intelligenz‘ sehr allgemein definieren.

Systematisierung von Verhalten nach Lernen und Nicht-Lernen
Systematisierung von Verhalten nach Lernen und Nicht-Lernen

In biologischer Sicht haben wir generell Input-Output-Systeme in einer unfassbar großen Zahl an Varianten bezüglich des Körperbaus und der internen Strukturen und Abläufe. Wie solch ein Input-Output-System intern im Details funktioniert spielt für das konkrete Leben nur insoweit eine Rolle, als die inneren Zustände ein äußerlich beobachtbares Verhalten ermöglichen, das wiederum das Überleben in der verfügbaren Umgebung ermöglicht und bezüglich spezieller ‚Ziele‘ ‚erfolgreich‘ ist. Für das Überleben reicht es also zunächst, einfach dieses beobachtbare Verhalten zu beschreiben.

In idealisierter Form kann man das Verhalten betrachten als Reiz-Reaktions-Paare (S = Stimulus, R = Response, (S,R)) und die Gesamtheit des beobachtbaren Verhaltens damit als eine Sequenz von solchen (S,R)-Paaren, die mathematisch eine endliche Menge bilden.

Ein so beschriebenes Verhalten kann man dann als ‚deterministisch‘ bezeichnen, wenn die beobachtbaren (S,R)-Paare ’stabil‘ bleiben, also auf einen bestimmten Reiz S immer die gleiche Antwort R erfolgt.

Ein dazu komplementäres Verhalten, also ein ’nicht-deterministisches‘ Verhalten, wäre dadurch charakterisiert, dass entweder (i) der Umfang der Menge gleich bleibt, aber manche (S,R)-Paare sich verändern oder (ii) der Umfang der Menge kann sich ändern. Dann gibt es die beiden interessanten Unterfälle (ii.1) es kommen nach und nach neue (S,R)-Paare dazu, die ‚hinreichend lang‘ ’stabil‘ bleiben, aber ab einem bestimmten Zeitpunkt ‚t‘ sich nicht mehr vermehren (die Menge der stabilen Elemente wird ‚eingefroren‘, ‚fixiert‘, ‚gezähmt‘, …), oder (ii.2) die Menge der stabilen (S,R)-Paare expandiert ohne Endpunkt.

Bezeichnet man diese Expansion (zeitlich ‚befristet‘ oder ‚unbefristet‘) als ‚Lernen‘, dann wird sichtbar, dass die ‚Inhalte des Lernens‘ (die korrespondierenden Repräsentationen der (S,R)-Paare in den internen Zuständen des Systems) einmal davon abhängen, was die Umgebung der Systeme ‚erlaubt‘, zum anderen, was die ‚inneren Zustände‘ des Systems an ‚Verarbeitung ermöglichen‘, sowie – sehr indirekt – über welche welche ‚internen Selektionskriterien‘ ein System verfügt.

Die ‚internen Selektionskriterien‘ werden hier kurz ‚Präferenzen‘ genannt, also Strategien, ob eher ein A oder ein B ’selektiert‘ werden soll. Wonach sich solche Kriterien richten, bleibt dabei zunächst offen. Generell kann man sagen, dass solche Kriterien primär ‚endogen‘ begründet sein müssen, dass sie aber nachgeordnet auch von außen (‚exogen‘) übernommen werden können, wenn die inneren Kriterien eine solche Favorisierung des exogenen Inputs ‚befürworten‘ (Beispiel sind die vielen Imitationen im Lernen bzw. die Vielzahl der offiziellen Bildungsprozesse, durch die Menschen auf bestimmte Verhaltens- und Wissensmuster trainiert (programmiert) werden). Offen ist auch, ob die endogenen Präferenzen stabil sind oder sich im Laufe der Zeit ändern können; desgleichen bei den exogenen Präferenzen.

Am Beispiel der menschlichen Kulturen kann man den Eindruck gewinnen, dass das Finden und gemeinsame Befolgen von Präferenzen ein bislang offenes Problem ist. Und auch die neuere Forschung zu Robotern, die ohne Terminierung lernen sollen (‚developmental robotics‘), hat zur Zeit das Problem, dass nicht ersichtlich ist, mit welchen Werten man ein nicht-terminiertes Lernen realisieren soll. (Siehe: Merrick, 2017)) Das Problem mit der Präferenz-Findung ist bislang wenig bekannt, da die sogenannten intelligenten Programme in der Industrie immer nur für klar definierte Verhaltensprofile trainiert werden, die sie dann später beim realen Einsatz unbedingt einhalten müssen.  Im technischen Bereich spricht man hier oft von einer ’schwachen KI‘. (Siehe: VDI, 2018) Mit der hier eingeführten Terminologie  wären dies nicht-deterministische Systeme, die in ihrem Lernen ‚terminieren‘.

INTELLIGENZ

Bei der Analyse des Begriffs ‚Lernen‘ wird sichtbar, dass das, was gelernt wird, bei der Beobachtung des Verhaltens nicht direkt ’sichtbar‘ ist. Vielmehr gibt es eine allgemeine ‚Hypothese‘, dass dem äußerlich beobachtbaren Verhalten ‚interne Zustände‘ korrespondieren, die dafür verantwortlich sind, ob ein ’nicht-lernendes‘ oder ein ‚lernendes‘ Verhalten zu beobachten ist. Im Fall eines ‚lernenden‘ Verhaltens mit dem Auftreten von inkrementell sich mehrenden stabilen (S,R)-Paaren wird angenommen, das den (S,R)-Verhaltensformen ‚intern‘ entsprechende ‚interne Repräsentationen‘ existieren, anhand deren das System ‚entscheiden‘ kann, wann es wie antworten soll. Ob man diese abstrakten Repräsentationen ‚Wissen‘ nennt oder ‚Fähigkeiten‘ oder ‚Erfahrung‘ oder ‚Intelligenz‘ ist für die theoretische Betrachtung unwesentlich.

Die Psychologie hat um die Wende zum 20.Jahrhundert mit der Erfindung des Intelligenztests durch Binet und Simon (1905) sowie in Weiterführung durch W.Stern (1912) einen Ansatz gefunden, die direkt nicht messbaren internen Repräsentanten eines beobachtbaren Lernprozesses indirekt dadurch zu messen, dass sie das beobachtbare Verhalten mit einem zuvor vereinbarten Standard verglichen haben. Der vereinbarte Standard waren solche Verhaltensleistungen, die man Kindern in bestimmten Altersstufen als typisch zuordnete. Ein Standard war als ein Test formuliert, den ein Kind nach möglichst objektiven Kriterien zu durchlaufen hatte. In der Regel gab es eine ganze Liste (Katalog, Batterie) von solchen Tests. Dieses Vorgehensweisen waren sehr flexibel, universell anwendbar, zeigten allerdings schon im Ansatz, dass die Testlisten kulturabhängig stark variieren konnten. Immerhin konnte man ein beobachtbares Verhalten von einem System auf diese Weise relativ zu vorgegebenen Testlisten vergleichen und damit messen. Auf diese Weise konnte man die nicht messbaren hypothetisch unterstellten internen Repräsentationen indirekt qualitativ (Art des Tests) und quantitativ (Anteil an einer Erfüllung des Tests) indizieren.

Im vorliegenden Kontext wird ‚Intelligenz‘ daher als ein Sammelbegriff für die hypothetisch unterstellte Menge der korrespondierenden internen Repräsentanten zu den beobachtbaren (S,R)-Paaren angesehen, und mittels Tests kann man diese unterstellte Intelligenz qualitativ und quantitativ indirekt charakterisieren. Wie unterschiedlich solche Charakterisierung innerhalb der Psychologie modelliert werden können, kann man in der Übersicht von Rost (2013) nachlesen.

Wichtig ist hier zudem, dass in diesem Text die Intelligenz eine Funktion des Lernens ist, das wiederum von der Systemstruktur abhängig ist, von der Beschaffenheit der Umwelt sowie der Verfügbarkeit von Präferenzen.

Mehrdimensionaler Raum der Intelligenzrpräsentanen
Mehrdimensionaler Raum der Intelligenzrpräsentanen

Aus Sicht einer solchen allgemeinen Lerntheorie kann man statt biologischen Systemen auch programmierbare Maschinen betrachten. Verglichen mit biologischen Systemen kann man den programmierbaren Maschinen ein Äquivalent zum Körper und zur Umwelt spendieren. Grundlagentheoretisch wissen wir ferner schon seit Turing (1936/7), dass programmierbare Maschinen ihr eigenes Programm abändern können und sie prinzipiell lernfähig sind. Was allerdings (siehe zuvor das Thema Präferenz) bislang unklar ist, wo sie jeweils die Präferenzen herbekommen sollen, die sie für eine ’nachhaltige Entwicklung‘ benötigen.

ZUKUNFT VON MENSCH UND MASCHINE

Im Licht der Evolution erscheint die  sich beschleunigende Zunahme von Komplexität im Bereich der biologischen Systeme und deren Populationen darauf hinzudeuten, dass mit der Verfügbarkeit von programmierbaren Maschinen diese sicher nicht als ‚Gegensatz‘ zum Projekt des biologischen Lebens zu sehen sind, sondern als eine willkommene Unterstützung in einer Phase, wo die Verfügbarkeit der Gehirne eine rapide Beschleunigung bewirkt hat. Noch bauen die biologischen Systeme ihre eigenen Baupläne  nicht selbst um, aber der Umbau in Richtung von Cyborgs hat begonnen und schon heute ist der Einsatz von programmierbaren Maschinen existentiell: die real existierenden biologischen Kapazitätsgrenzen erzwingen den Einsatz von Computern zum Erhalt und für die weitere Entwicklung. Offen ist die Frage, ob die Computer den Menschen ersetzen sollen. Der Autor dieser Zeilen sieht die schwer deutbare Zukunft eher so, dass der Mensch den Weg der Symbiose intensivieren wird und versuchen sollte, den Computer dort zu nutzen, wo er Stärken hat und zugleich sich bewusst sein, dass das Präferenzproblem nicht von der Maschine, sondern von ihm selbst gelöst werden muss. Alles ‚Böse‘ kam in der Vergangenheit und kommt in der Gegenwart vom Menschen selbst, nicht von der Technik. Letztlich ist es der Mensch, der darüber entscheidet, wie er die Technik nutzt. Ingenieure machen sie möglich, die Gesellschaft muss entscheiden, was sie damit machen will.

BEISPIEL EINER NEUEN SYMBIOSE

Der Autor dieser Zeilen hat zusammen mit anderen KollegenInnen in diesem Sommer ein Projekt gestartet, das darauf abzielt, dass alle 11.000 Kommunen in Deutschland ihre Chancen haben sollten, ihre Kommunikation und Planungsfähigkeit untereinander dramatisch zu verbessern, indem sie die modernen programmierbaren Maschinen in neuer ‚intelligenter‘ Weise für ihre Zwecke nutzen.

QUELLEN

  • Kathryn Merrick, Value systems for developmental cognitive robotics: A survey, Cognitive Systems Research, 41:38 – 55, 2017
  • VDI, Statusreport Künstliche Intelligenz, Oktober 2018, URL: https://www.vdi.de/vdi-statusbericht-kuenstliche-intelligenz/ (zuletzt: 28.November 2018)
  • Detlef H.Rost, Handbuch der Intelligenz, 2013: Weinheim – Basel, Beltz Verlag
  • Joachim Funke (2006), Kap.2: Alfred Binet (1857 – 1911) und der erste Intelligenztest der Welt, in: Georg Lamberti (Hg.), Intelligenz auf dem Prüfstand. 100 Jahre Psychometrie, Vandenhoek & Ruprecht
  • Alfred Binet, Théodore Simon: Methodes nouvelles pour le diagnostiqc du niveau intellectuel des anormaux. In: L’Année Psychologique. Vol. 11, 1904, S. 191–244 (URL: https://www.persee.fr/doc/psy_0003-5033_1904_num_11_1_3675 )
  • William Stern, Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkinder, 19121: Leipzig, J.A.Barth
  • Alan M. Turing, On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, 42(2):230–265, 1936-7
  • Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

EIN HOMO SAPIENS – VIELE BILDER. Welches ist wahr?

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 28.Okt. 2017
info@cognitiveagent.org
URL: cognitiveagent.org
Autor: cagent
Email: cagent@cognitiveagent.org

Beitrag als PDF

INHALT

I Vielfalt trotz Einheit
II Wahrheit, die ich meine
III Wahrheitsmechanismen
III-A Gegenwart, Gestern, Morgen . . . . . .
III-B Eigener Lebensraum, ganz woanders . .
III-C Interpretierte Wahrnehmung . . . . . . .
III-D Erfahrung liefert Bilder . . . . . . . . . .
III-E Wie das ’Richtige’ Lernen? . . . . . . . .
III-E 1 Mengenbegrenzungen . . . . .
III-E 2 Muster erkennen . . . . . . . .
III-E 3 Spezialisierungen . . . . . . .
III-E 4 Wechselwirkungen aufdecken
III-E 5 Geeignete Wissensformen . .
III-E 6 Verloren im Fragment . . . . .
III-E 7 Fehlende Präferenzen
IV Menschenbilder
V Was Tun?

ÜBERSICHT

In der realen Welt gibt es eine Lebensform, die wir homo sapiens nennen. In der Rede über diesen homo sapiens – also in den Bildern, die wir benutzen –benutzen wir aber viele verschiedene Bilder. Desgleichen in den alltäglichen Lebensformen: es gibt nur einen homo sapiens, aber in den verschiedenen Kulturen dieser Erde gibt es viele geradezu konträre Formen, wie Menschen leben oder leben müssen. Wie ein homo sapiens genau funktioniert, verstehen wir immer noch nicht genau. Die Politik bevorzugt in der Regel plakative Schlagworte, und vermeidet wissenschaftliche Modelle. Warum?

Vielfalt trotz Einheit

Wenn in einem Brettspiel jemand sagt, „ich habe gewonnen“, und ein anderer daraufhin sagt „Nein, ich habe gewonnen“, dann weiß jeder, dass da etwas nicht stimmen kann. Brettspiele sind aufgrund ihrer Regeln eindeutig, wenn nicht, würden sie nicht funktionieren.

Wenn wir uns aber die Realität anschauen, die gemeinsam geteilte empirische Welt, dann ist es mittlerweile fast der Normalfall, dass es zu einzelnen Aspekten, Vorkommnissen, Vorgängen, von verschiedenen Personen oder Personengruppen, ganz unterschiedliche Beschreibungen/ Darstellungen/ Bilder gibt, ohne dass wir dies merkwürdig finden. Wenn Politiker in Talkshows sich äußern sollen, ist es eher die Regel, dass sie konträre Meinungen vertreten. Keiner findet dies merkwürdig. Unrecht haben immer die anderen, die eine andere Meinung haben. Der Frage, warum es zu unterschiedlichen Meinungen zu ein und demselben Thema kommen kann, wird fast nie gestellt. Lieber beschimpft man sich gegenseitig, anstatt die Frage zu stellen, warum es zu unterschiedlichen Meinungen kommen kann.

Wahrheit, die ich meine

Eine klassische Auffassung von Wahrheit geht davon aus, dass das mit ‚Wahrheit‘ Gemeinte in der Übereinstimmung von eigener Auffassung und einem davon zu unterscheidenden Sachverhalt ist. Klassisches Beispiel: Jemand sagt „Es regnet“ und in der Redesituation regnet es tatsächlich oder nicht. Im ersten Fall würde man dem Sprecher zustimmen und sagen, er spricht ‚wahr‘, im anderen Fall nicht.

Schwieriger wird es, wenn der Redner über Sachverhalte spricht, die jenseits der aktuellen Redesituation liegen: räumlich entfernt, oder zeitlich weit zurück in der Vergangenheit oder in einer noch nicht stattgefundenen Zukunft. Welche Mechanismen der Klärung des Wahrheitsgehaltes gibt es dann?

Oder der Redner glaubt Sachverhalte wahrzunehmen, die aber alle anderen nicht wahrnehmen. Wer hat dann Recht? Irrt der eine, hat er eine ‚psychische Störung‘, steht er unter ‚Drogeneinfluss‘, hat er schlicht ein ‚falsches Wissen‘, oder … ? Könnten nicht alle anderen irren und er alleine hätte Recht?

Oder es gibt Sachverhalte, auch gegenwärtige, deren Status von bestimmtem ‚Wissen‘ abhängig ist, wodurch erst die ‚Eigenschaften des Sachverhalts‘ sichtbar werden. Berühmte Beispiele sind die Bewegung der Himmelskörper, das Phänomen von Magnetismus und Elektrizität, die chemischen Reaktionen der verschiedenen chemischen Substanzen, die Entdeckung der Mikroorganismen, die Entdeckung der Vererbung durch Mitwirkung der DNA, die Entdeckung der Gehirnzellen und die Tatsache, dass sie nicht miteinander direkt verbunden sind, usw.

Schon diese kurze Betrachtung zeigt, dass wir in unserem Alltag eher mehr Situationen haben, die eine ‚direkte Wahrheitsentscheidung‘ nicht zulassen als solche, die es tun. ‚Indirekte‘ Wahrheitsentscheidungen verlangen grundsätzlich eine ‚Klärung der Umstände‘ und eine ‚Klärung der Regeln der Interpretation‘.

Wahrheitsmechanismen

Gegenwart, Gestern, Morgen

Halten wir an der Fallunterscheidung fest, dass es Aussagen über Vergangenes, Zukünftiges oder Gegenwärtiges gibt.

Eigener Lebensraum, ganz woanders

In allen drei Fällen kann man nochmals unterscheiden, ob der Sachverhalt (gegenwärtig oder vergangen oder zukünftig) mit den Teilnehmern der Situation verknüpft ist oder nicht. Ob es da regnet, wo man gerade ist, oder woanders, das macht einen großen Unterschied. Oder ob in meiner Firma in der Vergangenheit ein bestimmtes Ereignis stattgefunden haben soll oder nicht, kann ich eher einschätzen, als wenn es in der Vergangenheit irgendwo ganz anders stattgefunden haben soll. Entsprechend in der Zukunft: eine Aussage über einen zukünftigen Sachverhalt in meinem persönlichen Lebensraum fasse ich anders auf als wenn es ‚irgendwo ganz anders‘ stattfinden soll.

Interpretierte Wahrnehmung

Befinden wir uns in der Gegenwart, dann können wir diese und eigene Körperzustände ‚wahrnehmen‘. Wie wir mittlerweile durch vielfältige wissenschaftliche Untersuchungen lernen konnten, nehmen wir aber niemals die Welt (und uns selbst) ‚1-zu-1‘ wahr, sondern vielfältig selektiert, abstrahiert und ‚interpretiert‘ durch die Erfahrungen, die wir vorher schon gemacht haben. Da die visuellen, akustischen, taktilen usw. Wahrnehmungen immer unvollständig sind, muss innerhalb des Wahrnehmungsprozesses kontinuierlich ‚interpretiert‘ werden. Wir sind ‚erfahrungsbasiert‘, und diese Erfahrungen sind sehr stark ’sprachlich durchtränkt‘. Wir sehen nicht einfach nur Farben, Formen; wir riechen nicht einfach nur süßlich, beizend, ätzend, usw.; wir hören nicht einfach nur Geräusche, Klänge; diese werden sofort eingeordnet in vertraute Muster, verknüpft mit bekannten Worten. Ein Geräusch identifizieren wir als ‚knarrende Schranktür‘, ‚vorbeifahrendes Auto‘, das ‚Klackern von Schuhen auf Steinplatten‘, usw., weil wir einfach ‚trainiert‘ wurden, diese Geräusche mit solchen Worten und darüber mit bestimmten Situationen zu verknüpfen. Wie wir wissen, können solche spontanen, von unserem Gehirn aufgrund von vorliegenden Erfahrungen ‚automatisch erzeugte‘ Zuordnungen falsch sein, weil die Erfahrungen falsch sind.

Erfahrung liefert Bilder

Im Alltag liefert unsere Erfahrung also die ‚Bilder‘, mit denen wir unsere Welt anschauen.

Solange jemand noch nichts von einer bestimmten genetischen Erkrankung wusste, war für ihn die Welt in Ordnung. Als er/ sie erfuhr, dass es solch eine spezielle Krankheit gibt und dass er Symptome dafür aufweist, war die Welt plötzlich eine ganz andere.

Solange jemand nicht wusste, wie ein bestimmtes Pflanzenschutzmittel wirkt, hat er es leichthändig eingesetzt. Sobald bekannt wurde, dass es die Böden und Pflanzen nachhaltig vergiftet, ein ganzes Ökosystem zum Kippen bringen kann, sogar über die Nahrung in den menschlichen Körper gelangen kann und dort zu schweren Störungen führt, da war die Welt plötzlich eine andere.

Solange man noch nicht wusste, dass der Nachbar und Freund ein Spitzel für den Staat war, mit dem Ziel andere Meinungen auszuspähen und zu melden, solange war die Welt noch in Ordnung. Aber als man durch Zufall entdeckte, dass da etwas nicht stimmt, wollte man es zunächst nicht glauben, man wehrte sich dagegen, bis es dann irgendwann klar war…

Die Bilder, die wir haben, erklären uns die Welt für uns. Andere können ganz andere Bilder haben.

Wie das ‚Richtige‘ Lernen?

Wenn unsere Erfahrungen einen solchen massiven Einfluss auf unsere Weltsicht haben, stellt sich die Frage, was wir denn tun können, um im Rahmen unseres ‚Erlernens von Welt‘ die ‚richtige‘ Sicht zu bekommen?

Mengenbegrenzungen

Wie wir heute wissen können, ist unsere aktuelle Wahrnehmung von Welt zudem mengenmäßig sehr begrenzt. Wir können im Sekundenbereich nie mehr als ca. 5-7 Wahrnehmungsobjekte (Englisch ‚chunks‘) verarbeiten. Je nach Erfahrungsstand können dies einfache oder sehr komplexe Objekte sein.

Muster erkennen

Ein Schachgroßmeister sieht auf einem Schachbrett nicht einzelne Figuren, sondern er sieht die Figuren als Teil eines ‚Musters‘, das er in ’strategische Zusammenhänge‘ einordnen kann. So genügt ihm ein kurzer Blick und er hat eine Einschätzung des ganzen Spielstandes und weiß sofort, wo es günstig wäre, in dieser Stellung anzusetzen. Ein weniger erfahrene Spieler sieht dies Muster und diese Zusammenhänge nicht auf einen Blick. Daher muss er mühsam alle möglichen Kombinationen ‚durchdenken‘, ‚geistig durchspielen‘, um zu Einschätzungen zu kommen. Der Amateur benötigt dafür viel mehr ‚Bedenkzeit‘. In einem offiziellen Schachturnier würde de Amateur daher normalerweise allein schon durch seinen Verbrauch an Denkzeit verlieren, wenn er nicht schon vorher aufgrund der Stellung verliert.

Das, was hier am Schachspiel verdeutlicht wurde, gilt für alle Situationen: wir können immer nur sehr wenige Aspekte einer Situation tatsächlich wahrnehmen und verarbeiten. Wenn nun die Situation komplex ist, das heißt, ganz viele einzelne Elemente auf vielfältige Weise ineinander greifen, und dadurch bestimmte Zustände erzeugen, dann können wir diese Situation nicht wirklich verstehen, es sei denn, wir würden sehr viel Zeit aufwenden, um sie zu erforschen. Im Alltag haben wir diese Zeit normalerweise nicht.

Spezialisierungen

Andererseits leben wir täglich in einer Welt, die bis zum Rand angefüllt ist mit komplexen Sachverhalten: die Infrastruktur einer Stadt mit Energieversorgung, Wasserversorgung, Abfallwirtschaft, Verkehr, Schulen, …; die Wohnungssituation; die wirtschaftliche Entwicklung einer Region; das Funktionieren großer Konzerne; die jeweiligen Ökosysteme, in denen wir uns bewegen; die demographische Entwicklung und ihre Konsequenzen; usw.

Teilweise helfen wir uns durch Spezialisierungen: es gibt Verkehrsfachleute, Demographen, Betriebswirte, Abfallexperten, Managementberater, Biologen,… doch diese sind einzelne; selten arbeiten sie — wenn überhaupt — alle zusammen, um ein Problem in seinen Wechselwirkungen zu verstehen, Zusammenhänge sichtbar zu machen.

Wechselwirkungen aufdecken

Die eine Frage ist also, ob wir überhaupt genügend brauchbare Daten von den verschiedenen Prozessen unseres Alltags haben bzw. bekommen; die andere Frage ist, wie wir diese Daten so ‚aufbereiten‘, dass die ‚Wechselwirkungen‘ sichtbar werden, d.h. warum der eine Faktor den anderen Faktor beeinflusst und in welchem Ausmaß.

Geeignete Wissensformen

Die Wissenschaftsphilosophie hat erarbeitet, wie solche erklärenden Datenstrukturen aussehen müssten, damit sie Erklärungen liefern könnten. Die verschiedenen computerbasierten Simulationstechniken lassen erkennen, wie man solche komplexen Datenstrukturen so aufbereiten könnte, dass jeder damit arbeiten kann. Im Alltag findet man solche Instrumente aber nicht. Tägliche Entscheidungen müssen ohne solche Hilfen getroffen werden.

Wenn man die Lernformen in den Schulen und Hochschulen anschaut, dann gibt es nahezu nichts, was ein komplexes ‚Lernen von der Welt‘ unterstützen könnte.

Verloren im Fragment

Als Ergebnis dieser schwierigen Situation muss jeder Mensch mit mehr oder weniger kleinen bzw. großen Fragmenten eines großen Ganzen leben, die es nicht zulassen, das große Ganze zu erkennen. Notgedrungen versucht jeder auf seine Weise, ad hoc, unverstandene Reste mit Hilfskonstruktionen ‚verständlich‘ zu machen. Und ja, wenn jetzt ein anderer Mensch mit anderen Fragmenten auftritt, was tut man dann? Freut man sich, aus der Verschiedenheit zu lernen (eine echte Chance) oder fühlt man sich verunsichert, fühlt man sich angegriffen, sieht im anderen einen ‚Gegner‘, einen ‚Feind‘, der die eigene Meinung bedroht?

Wenn Menschen, und dies dürften die meisten sein, im Berufsleben eingespannt sind, dazu Familie, soziale Verpflichtungen, dann ist es sehr häufig so, dass dieses Leben so anfordernd ist, dass Zeit und Muße sich mit der komplexen Welt zu beschäftigen, mit anderen Anschauungen, kaum vorhanden ist. Ganz ’natürlich‘ wird man vieles abblocken, wird man einen ‚Tunnelblick‘ ‚kultivieren‘, wird ‚Seinesgleichen‘ suchen, sich einrichten, sich abschotten, und wenn es zum Schwur kommt, wird man genau nur das wiederholen können, was man bislang kennen gelernt hat. Wer und was kann hier helfen?

Fehlende Präferenzen

Bei der ‚Aneignung von Welt‘, die unter starken quantitativen Begrenzungen stattfinden muss, und die aufgrund von bisherigen Erfahrungen eine starke Beeinflussung aufweist, spielt noch ein weiterer Faktor hinein: Bewertungen, Präferenzen.

Das eine ist, Objekte, Eigenschaften, Beziehungen, Abfolgen zu identifizieren. Schwer genug. Ein einzelner Handelnder braucht aber auch Präferenzen der Art, dass er im Fall von Alternativen bewerten kann, ob nun A oder B für ihn besser sind. Soll er A oder B tun?

Wenn man weiß, dass viele Leistungen ein mehrjähriges gezieltes Training voraus setzen, durch das ein entsprechendes Wissen, eine entsprechende Handlungsfähigkeit schrittweise erarbeitet worden ist, das dann nach vielen Jahren so verfügbar ist, dann setzt dies voraus, dass es solche ’situationsübergreifende Ziele‘ gibt, die das einzelne Verhalten auf dieses Ziel in ‚orientieren‘.

Wenn solche Ziele aber schwer zu erkennen sind, wenn sie schlichtweg fehlen, wie kann dann ein einzelner, eine Gruppe, eine Firma ihre Ressourcen gezielt auf ein Ziel hin optimieren?

Präferenzen hängen stark von verfügbarem Wissen ab, aber sie sind nicht identisch mit Wissen! Aus der Tatsache, dass ich weiß, wie man einen Computer baut, folgt nicht, dass ich weiß, wofür man ihn einsetzen sollte. Aus der Tatsache, dass man Schulen mit Computern ausstatten will, folgt nicht, dass die Schulen, die Lehrer, die Schüler wissen, wofür sie die Computer einsetzen wollen/ sollen/ können.

Es scheint bis heute eher unklar, wo Präferenzen herkommen sollen.

Im Alltag gibt es viele sogenannte ‚praktische Zwänge‘ (Ernährung, Wohnen, Geld verdienen, Gesundheit, Verkehr, …), die zum Handeln zwingen. Dies sind aber weitgehend unhinterfragte Automatismen, die selbst in einen größeren Zusammenhang einzuordnen wären. Übergreifende Ziele, welche?

Menschenbilder

Schaut man sich die verfügbaren Menschenbilder im Bereich der Wissenschaften an, so kann man die wichtigsten Typen wie folgt auflisten:

  • Die biologische Evolution, unterscheidbar nach homo sapiens und Nicht-homo sapiens.
  • Im Bereich des homo sapiens sein Verhalten (Ethologie, Psychologie, Soziologie, Politik, Wirtschaft…)
  • Im Kontext des Verhaltens des homo sapiens gibt es die unterstellten inneren Mechanismen, die dafür verantwortlich sind, wie der homo sapiens auf seine wahrnehmbare Umgebung reagiert, zusammengefasst im Begriff des Verhaltens bzw. der Verhaltensfunktion. Das ‚Sichtbare (Verhalten)‘ erscheint damit als Wirkung des ‚Unsichtbaren (Inneren)‘. Für diese inneren Zustände gibt es keine wirkliche wissenschaftliche Disziplin, da Bewusstseinszustände als solche kein Gegenstand einer empirischen Wissenschaft sein können. Traditionell ist hier die Philosophie zuständig, die eben nicht als empirische Disziplin gilt. Die Neurowissenschaften behandeln die physikalisch-chemische Maschinerie des Gehirns, nicht aber seine subjektiven Erlebnisse im Bewusstseinsraum.
  • Im Bereich des Verhaltens hat der Mensch Technologien hervorgebracht, die ihm helfen können, praktische Probleme des Alltags (dazu gehören auch Konflikte bis hin zu Großkonflikten (Krieg)) zu lösen. Das Ineinander von Mensch und Maschine lässt ständig neue Situationen entstehen, in denen sich der Mensch über ein verändertes Verhalten selbst neu erfahren kann (Ersetzung menschlicher Muskelkraft, Autos, Eisenbahn, Flugzeug, Raumschiff..).
  • Im Rahmen der Technologie nehmen die Digitalen Technologien eine Sonderstellung ein. Sie erlauben es zunehmend, die inneren Mechanismen des Menschen zu imitieren und in immer mehr Bereichen zu übertreffen. Dies stellt eine extrem starke Infragestellung des Menschen dar: ist er auch nur eine Maschine, dazu eine schlechte?
  • Neben dem Biologischen gibt es das Physikalische als allgemeinen Rahmen für alles Biologische, mit unfassbar weiten Räumen und Energien, die sich als Universum präsentieren.
  • Innerhalb des Biologischen sind die inneren Mechanismen des homo sapiens wissenschaftlich noch unaufgeklärt. Dies gibt viel Spielraum für Spekulationen, Esoterik und dem Phänomen des Religiösen. Es ist schwer zu entscheiden,welch ‚harten Kern‘ all diese Interpretationen haben.

Macht man sich diese Vielfalt klar, ihren weitgehenden Fragmentcharakter aufgrund fehlender Wissensintegration, dann wundert man sich nicht, dass Ideologien, Populismen, Fanatismen und Dogmatismen reichlich Nährboden finden können. Die öffentlichen Wissenskulturen sind nicht ausreichend genug kultiviert, um solchen Verzerrungen den Boden zu entziehen. Die Bedeutung einer Wissenskultur wird in fast allen Gesellschaften stark unterschätzt und die jeweiligen Politiker erweisen sich für diese Fragen auch nicht besonders hilfreich.

Was Tun?

Es ist eines, einen Sachverhalt zu diagnostizieren. Es ist eine ganz andere Frage, ob man aus solch einer Diagnose irgendeinen Handlungsvorschlag generieren kann, der eine deutliche Verbesserung mit sich bringen würde.

Angesichts der zentralen Bedeutung des Wissens für das Verhalten des Menschen eingebettet in Präferenz/ Bewertungsstrukturen, die in einem Lernprozess verfügbar sein müssen, bei gleichzeitiger Berücksichtigung der quantitativen Beschränkungen des biologischen Systems bräuchte es neue Lernräume, die solch ein verbessertes Lernen unterstützen. Ganz wichtig wäre es dabei, das Wissen nicht nur ‚jenseits des Individuums‘ zu kumulieren (die Cloud für alle und alles), sondern den einzelnen als einzelnen zu stärken, auch als soziales Wesen. Dazu braucht es eine grundlegende Re-Analyse dessen, wie der Mensch mittels neuer digitaler und Cyber-Technologien sowie Humantechnologie seinen Möglichkeitsraum vergrößern kann.

Dies wiederum setzt voraus, dass es eine Vision von Gesellschaft der Zukunft gibt, in der der homo sapiens überhaupt noch eine Rolle spielt. Dies wird gerade von elitären Machtgruppen immer mehr in Frage gestellt.

Wo gibt es ernsthafte Visionen für humane Gesellschaften für Morgen?

Diese Aufgabenstellung ist nichts für einen allein; hier sind alle, jeder auf seine Weise, gefragt.

Autor cagent arbeitet an konkreten Lösungen einmal über das weltweite Theoriebuch für Ingenieurezum anderen an dem komplementären Projekt eines Softwarelabors für die Entwicklung solcher Lokaler Lernwelten. Ja, man kann sogar sagen, dass das Kunstprojekt Philosophy-in-Concert hier auch hingehört. Aber, wie auch immer, ein einzelner kann die Aufgabe nicht lösen. Es braucht ein ‚Gesamtkunstwerk‘, in dem sich viele miteinander vernetzen und ergänzen.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

WAHRHEIT CONTRA WAHRHEIT. Notiz

PDF

Worum es geht

Im Zeitalter von Fake News (manche sprechen schon vom postfaktischen Zeitalter ) scheint der Begriff der Wahrheit abhanden gekommen zu sein. Dies trifft aber nicht zu. Die folgenden Zeilen kann man als Fortsetzung des vorausgehenden Beitrags lesen.

I. ARBEITSDEFINITION VON WAHRHEIT

1) In dem vorausgehenden Beitrag wurde angenommen, dass Wahrheit zunächst einmal die Gesamtheit des Wissens, der Erfahrungen und der Emotionen ist, die einer einzelnen Person zum aktuellen Zeitpunkt zur Verfügung steht. Was immer geschrieben, gedacht, gesagt usw. wird, jeder einzelne versteht und handelt auf
der Basis dessen, was er zu diesem Zeitpunkt in sich angesammelt hat.

2) Eine zentrale Einsicht ist dabei, dass unser Gehirn die aktuellen sensorischen Daten – externe wie interne– sofort, und automatisch, mit dem abgleicht, was bisher zu diesem Zeitpunkt im Gedächtnis verfügbar ist. Dadurch erleben wir alles, was uns begegnet, im Lichte des bislang Bekannten. Unsere Wahrnehmung ist eine unausweichlich interpretierte Wahrnehmung.

3) Ein Beispiel: Wenn jemand gefragt wird, ’ist dies dein Kugelschreiber?’, und dieser jemand antwortet mit ’Ja’, dann nimmt er einen Gegenstand wahr (als Ereignis seines Bewusstseins) und dieser jemand stellt zugleich fest, dass sein Gedächtnis in ihm eine Konzept aktiviert hat, bezogen auf das er diesen Gegenstand als seinen Kugelschreiber interpretieren kann. Für diesen jemand ist Wahrheit dann die Übereinstimmung zwischen (i) einer Wahrnehmung als einem Ereignis ’Kugelschreiber’ in seinem Bewusstsein, (ii) einem zugleich aktivierten Konstrukt aus dem Gedächtnis  ’mein Kugelschreiber’, sowie (iii) der Fähigkeit, erkennen zu können, dass das Wahrnehmungsereignis ’Kugelschreiber’ eine mögliche Instanz des Erinnerungsereignisses ’mein Kugelschreiber’ ist. Das Erinnerungsereignis ’mein Kugelschreiber’ repräsentiert (iv) zudem den Bedeutungsanteil des sprachlichen Ausdrucks ’dein Kugelschreiber’. Letzteres setzt voraus, dass der Frager und der Antwortende (v) beide die gleiche Sprache  gelernt haben und der Ausdruck ’dein Kugelschreiber’ aus Sicht des Fragenden und ’mein Kugelschreiber’ aus Sicht des Antwortenden von beiden (vi) in gleicher Weise interpretiert wird.

4) Anzumerken ist hier, dass jene Ereignisse, die ihm Bewusstsein als Wahrnehmungen aufschlagen können, unterschiedlich leicht zwischen zwei Teilnehmern des Gesprächs identifiziert werden können. Einmal können Aussagen über die empirische Welt sehr viele komplizierte Zusammenhänge implizieren, die nicht sofort erkennbar sind (wie funktioniert ein Fernseher, ein Computer, ein Smartphone…), zum anderen kann es
sein, dass die beiden Gesprächsteilnehmer die benutzte Sprache sehr unterschiedlich gelernt haben können (Fachausdrücke, spezielle Redewendungen, Art der Bedeutungszuschreibung, usw). Obwohl der Sachverhalt vielleicht im Prinzip erklärbar wäre, kann es sein, dass beide Gesprächsteilnehmer im Moment des Gesprächs
damit überfordert sind.

5) Ferner kann man sich durch dieses Beispiel nochmals deutlich machen, dass die Bezeichnung der Gesamtheit des Wissens, der Erfahrung und der Emotionen eines Menschen zu einem bestimmten Zeitpunkt als der subjektiven Wahrheit dieses Menschen ihren Sinn darin besitzt, dass dieser Mensch in dem Moment, wo er gefragt wird, ob es sich SO verhält, nur dann ’Ja’ sagen wird, wenn der gefragte Mensch in seiner subjektiven Wahrheit Elemente findet, die diesem So-sein entsprechen. Das ’So-sein’ aus der Frage muss ein Bestandteil der subjektiven Wahrheit sein und nur dann kann ein Mensch auf eine Anfrage hin sagen, ja, das wahrgenommene So-sein findet in der subjektiven Wahrheit eine Entsprechung. Die Fähigkeit zur Wahrheit erscheint somit primär in der subjektiven Wahrheit eines Menschen begründet zu sein.

II. WAHRHEIT UND LEBENSFORM

1) Ergänzend zu diesem geschilderten grundsätzlichem Zusammenhang wissen wir, dass die subjektive Wahrheit nicht unabhängig ist von dem Lebensprozess des jeweiligen Menschen. Alles, was ein Mensch erlebt, was auf ihn einwirkt, kann in diesem Menschen als Ereignis erlebbar werden, kann ihn beeinflussen, kann ihn
verändern. Dazu gehört natürlich auch das eigene Tun. Wenn jemand durch den Wald läuft und merkt, dass er laufen kann, wie sich das Laufen anfühlt, wie sich dies langfristig auf seinen Körperzustand auswirkt, dann beeinflusst dies auch das individuelle Erkennen von Welt und von sich selbst, als jemand, der laufen und
Fühlen kann. Wenn stattdessen Kinder in Kobaldminen arbeiten müssen statt zu lernen,  sich vielfältig neu entdecken zu können, dann wird diesen Kinder mit der Vorenthaltung einer Lebenspraxis zugleich ihr Inneres zerstört; es kann nur ein verzerrter Aufbau von Persönlichkeit stattfinden. Wir schwärmen derweil von den angeblich umweltfreundlichen Elektroautos, die wir fahren sollen. Oder: wenn Kinder im Dauerhagel von Granaten und Bomben aufwachsen müssen, um sich herum Verwundete und Tote erleben müssen, dann werden sie sich selbst entfremdet, weil verschiedene Machthaber ihre Macht in Stellvertreterkriegen meinen, ausagieren zu müssen.

2) Aufgrund der so unendlich verschiedenen Lebensprozesse auf dieser Erde können sich in den Menschen, die von ihrer Natur aus weitgehend strukturgleich sind,  ganz unterschiedliche subjektive Wahrheiten ansammeln. Derselbe Mensch sieht dann die Welt anders, handelt anders, fühlt anders. Es ist dann nahezu unausweichlich, dass sich bei der Begegnung von zwei Menschen zwei verschiedene Wahrheiten begegnen. Je nachdem, wie ähnlich oder unähnlich die Lebensprozesse dieser Menschen sind, sind auch die subjektiven Wahrheiten eher ähnlich oder unähnlich.

3) Wie man beobachten kann, tendieren Menschen dazu, sich vorzugsweise mit solchen Menschen zu treffen, mit ihnen zu reden, mit ihnen zusammen etwas tun, die mit ihnen bezüglich ihrer subjektiven Wahrheiten möglichst ähnlich sind. Manche meinen, solche selbstbezügliche Gruppen (’Echokammer’, ’Filterblase’) auch
im Internet, in den sozialen Netzwerken entdecken zu können. Obwohl das Internet im Prinzip die ganze Welt zugänglich macht [Anmerkung: Allerdings nicht in Ländern, in denen der Zugang zum Internet kontrolliert wird, wie z.B. massiv in China.], treffen sich Menschen vorzugsweise mit denen, die sie kennen, und mit denen sie eine ähnliche Meinung teilen. Man muss aber dazu gar nicht ins Internet schauen. Auch im Alltag kann man beobachten, dass jeder einzelne Mitglied unterschiedlicher sozialer Gruppen ist, in denen er sich wohl fühlt, weil man dort zu bestimmten Themen eine gleiche Anschauung vorfindet. An meiner Hochschule, an der Studierende aus mehr als 100 Ländern vertreten sind, kann man beobachten, dass die Studierenden
vorzugsweise unter sich bleiben statt die Vielfalt zu nutzen. Und die vielfältigen Beziehungskonflikte, die sich zwischen Nachbarn, Freunden, Lebenspartnern, Mitarbeitern usw. finden, sind ein eindrucksvolles Beispiel dafür, wie real  unterschiedlich subjektive Wahrheiten im Alltag sind. [Anmerkung: Allerdings ist diese Aufsplitterung in viele kleine Gruppen von ‚Gleichgesinnten‘ nicht notwendigerweise nur negativ; die Kultivierung von Vielfalt braucht eine natürliche Umgebung, in der Vielfalt möglich ist und geschätzt wird.]

4) Obwohl also der Mechanismus der subjektiven Wahrheitsbildung grob betrachtet einfach erscheint, hat man den Eindruck, dass wir Menschen uns dieses Sachverhaltes im Alltag nicht  wirklich bewusst sind. Wie schnell fühlt sich jemand beleidigt, verletzt, oder gar angegriffen, nur weil jemand sich anders verhält, als man es im Lichte seiner subjektiven Wahrheit erwartet. Wie schnell neigen wir dazu, uns von anderen abzugrenzen, sie abzustempeln als krank, verrückt, oder böse zu erklären, nur weil sie anders sind als wir selbst.

III. GEDANKE UND REALE WELT

1) Bis hierher konnte man den Eindruck gewinnen, als ob die subjektive Wahrheit ein rein gedankliches, theoretisches Etwas ist, das sich allerdings im Handeln bemerkbar machen kann. Doch schon durch die Erwähnung des Lebensprozesses, innerhalb dessen sich die subjektive Wahrheit bildet, konnte man ahnen, dass die konkreten Umstände ein wichtiges Moment an der subjektiven Wahrheit spielen. Dies bedeutet z.B., dass wir die Welt nicht nur in einer bestimmten Weise sehen, sondern wir verhalten uns ganz konkret in dieser Welt aufgrund unserer subjektiven Wahrheit (= Weltsicht), wir leben unseren Alltag mit ganz konkreten Objekten, Besitztümern und Gewohnheiten. Eine andere subjektive Wahrheit (bzw. Weltsicht) ist daher in der
Regel nicht nur ein bloßer abstrakter Gedanke, sondern kann zugleich reale, konkrete Veränderungen des eigenen Alltags implizieren. Da aber schrecken wir alle (verständlicherweise?) sofort zurück, blitzartig, vielleicht sogar unbewusst. Über die Wahrheit reden mag grundsätzlich chic sein, aber wenn die zur Sprache kommenden
Wahrheit anders ist als die eigene Wahrheit, dann zucken wir zurück. Dann wird es unheimlich, ungemütlich; dann können allerlei Ängste aufsteigen: was ist das für eine Welt, die anders wäre als die Welt, die wir kennen? Der verinnerlichten Welt korrespondiert immer auch eine reale Alltagswelt. [Anmerkung: In diesen Kontext passt vielleicht das paradoxe Beispiel, das Jesus von Nazareth in den Mund gelegt wird mit dem Bild, dass eher ein Kamel durch ein Nadelöhr gehen würde, als dass ein Reicher in den Himmel gelangen könnte. Eine Deutung wäre, dass jemand der als Reicher
(unterstellt: auf Kosten anderer) in einer Wirklichkeitsblase lebt, die angenehm ist, und er als Reicher wenig Motive hat, dies zu ändern. Allerdings, was man gerne
übersieht, ein solches Verhaftetsein mit der aktuellen Situation, die als angenehm gilt, gilt in vielen Abstufungen für jeden Menschen. In den Apartheitsgefängnissen von Südafrika (heute als Museum zu besichtigen) gab es z.B. unter den Gefangenen eine klare Hierarchie: die Bosse, die Helfer der Bosse, und der Rest. Kein Boss wäre auf die Idee gekommen, seine relativen Vorteile zu Gunsten von allen aufzugeben.]

2) In der Struktur der gesellschaftliche Wirklichkeit kann man den Mechanismus der parzellierten Wahrheiten wiederfinden. Eine Gesellschaft ist mit unzähligen Rollen durchsetzt, mit Ämtern, Amtsbezeichnungen, Institutionen usw.. Dazu kommen in vielen Ländern Abgrenzungen von unterschiedlichen ethnischen Gruppen. Weiter gibt es Nationalstaaten, die ihre eigenen Wahrheiten pflegen. Die Tendenz, das Andere, die Anderen negativ zu belegen, um seinen eigenen Status dadurch indirekt zu sichern, findet sich zwischenstaatlich auch wieder. [Anmerkung: Gut zu erkennen in dem Erstarken von nationalistisch-populistischen Doktrinen in leider immer mehr Ländern der Erde.] Eine unkritische Ausübung gewachsener partieller Wahrheiten kann Unterschiede dann nur zementieren oder gar vergrößern, anstatt sie zu überbrücken und zu allgemeineren Wahrheitsbegriffen zu kommen.

IV. EINE KULTUR DER WAHRHEIT?

1) Wenn man sieht wie unglaublich stark die Tendenz unter uns Menschen ist, aktuelle, partielle Wahrheiten (die aus Sicht des einzelnen nicht partiell, sondern universell sind) mit einer bestimmten Alltagspraxis zu verknüpfen und diese fest zu schreiben, dann könnte man auf die Idee kommen, zu fragen, was wir als Menschen tun können, um dieser starken Tendenz ein natürliches Gegengewicht gegenüber zu stellen, das
dem Trieb zu partiellen Wahrheit entgegenwirken könnte.

2) Innerhalb der Rechtsgeschichte kann man beobachten, wie im Laufe von Jahrtausenden das Recht des Angeklagten häppchenweise soweit gestärkt wurde, dass es in modernen Staaten mit einem funktionieren Rechtssystem üblich geworden ist, jemanden erst dann tatsächlich zu verurteilen, nachdem in nachvollziehbaren, transparenten Verfahren die Schuld bzw. Unschuld objektiv festgestellt worden ist. Dennoch kann man sehen, dass gerade in der Gegenwart in vielen Staaten wieder eine umgekehrte Entwicklung um sich greift: der methodische Respekt vor der Gefahr partieller Wahrheiten wird einfachüber Bord geworfen und Menschen werden allein aufgrund ihrer Andersheit und eines blinden Verdachts vorverurteilt, gefoltert, und
aus ihren gesellschaftlichen Stellungen verjagt.

3) Innerhalb der Welt der Ideen gab es eine ähnliche Entwicklung wie im Rechtssystem: mit dem Aufkommen der empirischen experimentellen Wissenschaften in Kooperation mit Mathematischen Strukturen konnte das Reden über Sachverhalte, über mögliche Entstehungsprozesse und über mögliche Entwicklungen auf ganz neue Weise transparent gemacht werden, nachvollziehbar, überprüfbar, wiederholbar, unabhängig von dem Fühlen und Meinen eines einzelnen [Anmerkung: Allerdings nicht ganz!].  Diese Art von Wissenschaft kann großartige Erfolge aufweisen, ohne die das heutige
Leben gar nicht vorstellbar wäre. Doch auch hier können wir heute beobachten, wie selbst in den Ländern mit einem entwickelten Wissenschaftssystem die wissenschaftlichen Prinzipien zunehmen kurzfristigen politischen
und ökonomischen Interessen geopfert werden, die jeweils auf den partiellen Wahrheiten der Akteure beruhen.

4) Es drängt sich dann die Frage auf, ob der Zustand der vielen (partiellen) Wahrheiten generell vermeidbar wäre bzw. wie man ihn konstruktiv nutzen könnte, um auf der Basis der partiellen Wahrheiten zu einer umfassenderen weniger partiellen Wahrheit zu kommen.

5) Eine beliebte Lösungsstrategie ist ein autoritär-diktatorisches Gesellschaftssystem, das überhaupt nur noch eine partielle Wahrheit zulässt. Dies kennen wir aus der Geschichte und leider auch aus der Gegenwart: Gleichschaltung von Presse, Medien; Zensur; nur noch eine Meinung zählt.

6) Die Alternative ist die berühmte offene Gesellschaft, in der eine Vielfalt von partiellen Wahrheiten möglich ist, verbunden mit dem Vertrauen, dass die Vielfalt zu entsprechend vielen neuen erweiterten partiellen Wahrheiten führen kann (nicht muss!). Hier gibt es – im Idealfall – eine Fülle unterschiedlicher Medien und keine Zensur. Entsprechend wären auch alle Lern- und Erziehungsprozesse nicht an einem Drill, einer
autoritären Abrichtung der Kinder und Jugendlichen orientiert, sondern an offenen, kreativen Lernprozessen, mit viel Austausch, mit vielen Experimenten.

7) Allerdings kann man beobachten kann, dass viele Menschen nicht von vornherein solche offenen, kreativen Lernprozesse gut finden oder unterstützen, weil sie viel anstrengender sind als einfach einer autoritären Vorgabe zu folgen. Und es ist ein historisches Faktum, dass partielle Wahrheitsmodelle bei geeigneter Propaganda und gesellschaftlichen Druck eine große Anhängerschaft finden können.  Dies war und ist eine große Versuchung für alle narzisstischen und machtorientierte Menschen. Das scheinbar Einfachere und Bequemere wird damit sprichwörtlich zum ’highway to hell’.

8) Für eine offene Gesellschaft als natürlicher Entwicklungsumgebung für das Entstehen immer allgemeinerer Wahrheiten sowohl in den Beteiligten wie auch im Alltag scheinen von daher geeignete Bildungsprozesse sowie freie, unzensierte Medien (dazu gehört heute auch das Internet) eine grundlegende Voraussetzung zu
sein. Die Verfügbarkeit solcher Prozesse und Medien kann zwar keine bessere gedachte und gelebte Wahrheit garantieren, sie sind allerdings notwendige Voraussetzungen, für eine umfassendere Kultur der Wahrheit. [Anmerkung: Natürlich braucht es noch mehr Elemente, um einen einigermaßen freien Raum für möglicheübergreifende Wahrheiten zu ermöglichen.]

9) Vor diesem Hintergrund ist die weltweit zu beobachtende Erosion von freien Medien und einer offenen, kreativen Bildung ein deutliches Alarmsignal, das wir Menschen offensichtlich dabei sind, den Weg in ein wahrheitsfähige Zukunft immer mehr zu blockieren. Letztlich blockieren wir uns als Menschen damit nur selbst. Allerdings,
aus der kritischen Beobachtung alleine folgen keine wirkenden konkreten Verbesserungen. Ohne eine bessere Vision von Wahrheit ist auch kein alternatives Handeln möglich. Deswegen versuchen ja autoritäre Regierungen immer, zu zensieren und mit Propaganda und Fake-News die Öffentlichkeit zu verwirren.

V. KONTEXTE

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

EMERGING MIND PROJEKT – OFFIZIELLE VORSTELLUNG – EIN PLÄDOYER FÜR EINE GEMEINSAME ZUKUNFT

Mi 20.Januar 2016 um 19:30h

Am Mi 20.Januar 2016 um 19:30h wird das Emerging Mind Projekt als ein Projekt im Institut für Neue Medien (INM), Frankfurt, Schmickstrasse 18, vorgestellt werden. Wie man aus der Ankündigung des INM entnehmen kann, handelt es sich nicht um eine Gala- Veranstaltung, sondern um ein Werkstattgespräch mit den ‚Machern‘; also Emerging Mind Projekt unplugged.

Werkstattgespräch mit den Machern

Das ‚Emerging-Mind Projekt‚ versteht sich als ein öffentliches Wissenschaftsprojekt, das Hochschulen, Schulen, Firmen und interessierten Bürgern die Möglichkeit bieten soll, sich über einige zentrale Fragen der heutigen gesellschaftlichen Entwicklung aus eigener Anschauung eine qualifizierte Meinung zu bilden.

Datenräume und eigenständige Algorithmen

Wir leben in einer Zeit, in der die Evolution, vermittelt durch die Menschen, neuartige Technologien hervorgebracht hat, die sich wie ein zweiter Körper um den ersten Körper schmiegen, versehen mit einer Aura von Datenräumen und eigenständigen Algorithmen, die ein globales Eigenleben führen, die sich unserer direkten Wahrnehmung und Kontrolle entziehen. Wir sind einzelne, erleben uns als einzelne, aber als Teil der globalen algorithmisierten Datenräume sind wir nur noch Aktivitätspunkte in einem großen Netzwerk, einem neuen Datensuperorganismus, der den individuellen Willen nur noch als statistisches Momentum betrachtet. Tatsächlich herrschen die Algorithmen nach eigenen Regeln.

 

Manager als neue Sklaven iher Algorithmen?

Offiziell gibt es Firmen und Manager dieser Firmen, die diese globalen algorithmisierten Datenräume eingerichtet haben, betreiben und kontrollieren. Offiziell, aber inoffiziell entziehen sich diese global arbeitenden Algorithmen schon heute jeder ernsthaften Kontrolle. Kein einzelner Mensch kann mehr verstehen, was die Algorithmen wirklich tun, warum sie etwas tun, ob das gut oder schlecht ist, was sie tun. Die Manager als Herrscher über die Datenräume sind schon jetzt immer mehr die Getriebenen: ihre Firmen hängen von den globalen algorithmisierten Datenräumen ab. Sie können sie nicht mehr abschalten; dann bricht ihre Firma zusammen. Wenn sie sie nicht abschalten, verselbständigt sich das systembedingte Chaos. Da diese Algorithmen als solche nichts über die Welt oder über wahre Sachverhalte wissen, verrechnen sie Daten gegen Daten. Wenn aber die Referenzdaten falsch sind, werden diese Berechnungen falsch. Nahezu jeder hat schon mehrfach erlebt, wie er aus Versehen falsche Eingaben produziert hat, diese aber nicht korrigieren kann; das System lässt Korrekturen nicht zu. Schon jetzt existieren im System viele falsche Daten. Es ist nur eine Frage der Zeit, bis die falschen Daten die richtigen überwiegen. Schöne neue Welt der Superalgorithmen.

Einen wirklichen Wahrheitsfindungsalgorithmus gibt es noch nicht.

Einen wirklichen Wahrheitsfindungsalgorithmus gibt es noch nicht. Woher auch? Die Entwickler dieser Algorithmen, die Menschen, haben diese Hausaufgabe bislang nicht gelöst. Die bisherige Philosophie, die aktuell Wissenschaften, sie alle bilden aktuell das Bild eines riesigen Daten- und Meinungschaos ohne erkennbares Prinzip der Konsolidierung.

Eine neue Weltreligion?

Der Glaube an die Maschine, die alles irgendwie richten wird, obwohl die Erzeuger selbst es bislang nicht schaffen, ist offensichtlich sehr groß, geradezu mystisch. Ist das die neue Weltreligion, die alle besoffen macht und das Denken verabschiedet? Der nächste Super-Börsencrash scheint damit vorprogrammiert.

Keine billige Polemik

Im Emerging Mind Projekt geht es aber nicht um billige Polemik. Diese nützt niemandem. Das Emerging Mind Projekt lebt sogar von der Vision, dass neue, algorithmisierte, intelligente und lernfähige Netzstrukturen als Moment an der evolutionären Entwicklung tatsächlich zur Logik der Evolution gehören. Diese nächste Stufe der Evolution – wir sind mitten drin – muss sich möglicherweise vollziehen. Die Frage ist nur: wie?

Notwendigkeit einer neuen umfassenden Entwicklungswissenschaft

Historisch ist dieser Zustand radikal neu. Er bildet als solcher eine gewisse Singularität (neben den vielen anderen Singularitäten, die wir schon kennen und von denen wir beeinflusst sind). Was wir hier brauchen, wäre ein neues, vertieftes philosophisch-wissenschaftliches Verständnis. Alle bekannten Disziplinen greifen hier aber zu kurz; sie betrachten immer nur Ausschnitte des Problems. An dieser Stelle hat sich das Emerging Mind Projekt verstärkt, erweitert durch ein kooperierendes Parallelprojekt genannt Emergent Life Academy (ELA), in der die Vision einer neuen, umfassenden Entwicklungswisseschaft soweit konkretisiert werden soll, dass sie arbeitsfähig wird und uns allen helfen kann, das umfassende globale Phänomen einer Entwicklung auf allen Ebenen denken zu können.

Entstehung einer Anti-Wissenschaft?

Neben den umfassenden Aspekten des Phänomens einer globalen Entwicklung, die wie ein Sturm über die menschlichen Gesellschaftssysteme hereinbricht (letztlich ein Merkmal von Evolution seit Anbeginn), gibt es aber auch schon Einsichten in die innere Logik, in die innere Maschinerie von Entwicklung, von Intelligenz, Lernen, Bewusstsein, Psyche und Geist. Die Algorithmen in den Computern und Netzwerken sind erfahrbare konkrete Beispiele. Für die Mehrheit der Menschen sind diese Algorithmen aber fremd, unverständlich; ihre Macher lieben das Kryptische, Verborgene. Und da Algorithmen mittlerweile ein Rohstoff für industrielle Produktion und militärische Macht darstellen, werden sie zusätzlich geschützt, abgeschottet, unter ‚Top Secret‘ gestellt, so dass man noch weniger versteht, was unsere Welt im innersten zusammenhält. Galt es lange Zeit als Credo moderner Wissenschaft, die Welt zu erklären, sie transparent zu machen, sie einer verantwortungsvollen Gestaltung zuzuführen, hat die Erfindung der Berechenbarkeit, der Computer und der Netzwerke dazu geführt, dass es eine neue Anti-Wissenschaft gibt: Wissen dient nicht mehr zum Verstehen und nicht mehr für ein besseres Leben für alle, sondern wird abgeschottet, um die Herrschaft weniger über den Rest der Menschheit zu begründen. Das ist eine Umkehrung bisheriger Werte. Die Moderne, das Demokratische, die Menschenrecht zerbröseln im algorithmischen Alltag zu Lapalien, die immer weniger Wertschätzung besitzen.

Algorithmen auf dem Prüfstand

Damit erklärt sich die zweite Dimension des Emerging Mind Projektes; neben Emergent Life Academy für die globalen Entwicklungszusammenhänge sollen die konkreten Algorithmen vorgestellt, untersucht, reflektiert und bewertet werden; nicht isoliert, sondern im Kontext möglicher Wirkzusammenhänge, speziell im Kontext des menschlichen Lebens, der menschlichen Gesellschaft: Was ist künstliche Intelligenz? Was kann sie wirklich? Ist eine Symbiose zwischen Menschen und künstlicher Intelligenz möglich? Könnten die intelligenten Maschinen sich verselbständigen? Dies sind einige der Leitfragen.

Öffentliche Lernräume für das eigene Lernen

Um diese Fragen zu beantworten werden in einem öffentlichen kollaborativen virtuellem Raum virtuelle Bereiche eingerichtet, in denen man solche Algorithmen und ihre Wirkungsweise studieren kann, mitdiskutieren, mit entwickeln, mit experimentieren. Dies geschieht schrittweise eingebunden in echte Lernprozesse von Schulen, Hochschulen und Betrieben. Wir wollen selber lernen, unser Lernen reflektieren und dabei weiter entwickeln. Zukunft als Alltag.

Auch ein eigenes Kunstprojekt: PHILOSOPHY-IN-CONCERT

Und wer denkt, das war es jetzt, dem sei gesagt, dass wir nicht nur Philosophie und Wissenschaft zusammenbringen wollen, nicht nur Theorie und Lernpraxis, sondern auch all das zusätzlich verbunden mit einem Kunstprojekt genannt PHILOSOPHY-IN-CONCERT. Aktuell weiß vielleicht noch niemand, wie das genau funktionieren soll; klar ist nur, dass wir uns die Freiheit nehmen, philosophisch-wissenschaftliche Gedanken und Algorithmen als Material zu benutzen, um eine neue Art von Kunst-Performance zu leben: Menschen und intelligente Maschinen zusammen in einem hybriden Team, im Spiel mit sich selbst, der Welt, der Geschichte, um mögliche Zipfel der Zukunft zu erhaschen. Schon immer war der schwierigste Part im Leben das Kreative, die Innovation, der Beginn des Neuen. Für wirklich Neues nützen die alten Rezepte nur bedingt. Die DNA einer Zelle kann Anhaltspunkt für eine neue Zelle sein, ihre unveränderte konservative Übernahme für eine Zukunft wäre aber ein sicheres Todesrezept. Machthaber lieben solche kritiklosen konservativen Reproduktionen; das ist auch das sicherste Mittel der Selbstzerstörung.

Spuren der Vergangenheit, Medienreflexe

In diesem Blog gab es viele Beiträge, die mehr oder weniger in die Richtung des aktuellen Emerging Mind Projektes deuten. Ein Beitrag vom 10.Oktober 2012 lautete

NACHTGESPRÄCH im INM (Frankfurt) oder REENGINEERING VON GOETHES FAUST

und deutet an, dass die Gedanken dazu herumspukten. In einem Beitrag vom 18.November 2012, der auf einen Vortrag zurückging, wurde die Frage nach der Möglichkeit eines künstlichen geistes explizit gestellt:

KANN ES DOCH EINEN KÜNSTLICHEN GEIST GEBEN?

Am 31.Dez.2012 gab es einen Textversuch mit vielen technischen Begriffen mit dem Titel:

GEIST-SICHTBARMACHUNGS-EXPERIMENT, Teil 1, Begriffe und theoretischer Rahmen

Am 28.April 2013 folgten dann Reflexionen im Kontext des Phänomens Komplexität in der Evolution mit dem Ttel:

Randbemerkung: Komplexitätsentwicklung (Singularität(en))

Wegen der zahlreichen kontroversen Diskussionen zur Idee der Komplexitätssteigerung im Kontext von Evolution gab es am 23.Mai 2013 dazu einen weiteren Beitrag mit dem Titel

Randbemerkung: Komplexitätsentwicklung (Singularität(en)) – Teil 2

Es folgten dann weitere Stellungnahmen wie die am 14.Juni 2014:

EMERGING MIND PROJECT – SICHTBARMACHUNG DES GEISTES PROJEKT – Erste Lebenszeichen

Dicht gefolgt vom nächsten Beitrag am 15.Juni 2014 mit dem Titel:

EMERGING MIND – Mögliche Konsequenzen

Mittlerweile war das Thema auch außerhalb des INM angekommen. Am 25.April 2015 erschien ein Beitrag in telepolis:

Der Traum vom künstlichen Geist

Es folgte am 20.Mai 2015 ein Vortrag im Rahmen einer dpa-Veranstaltung mit dem Titel:

Über Industrie 4.0 und Transhumanismus. Roboter als Volksverdummung? Schaffen wir uns selbst ab?

in dem Phänomene des Alltags reflektiert wurden mit Blick auf die treibenden Strukturen. Es folgten dann immer wieder Presseartikel im Umfeld des Themas.

 

Einen Überblick über alle Beiträge des Autors cagent in diesem Blog nach Titeln findet sich HIER.

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER