Archiv der Kategorie: Lerntheorie

KI UND BIOLOGIE. Blitzbericht zu einem Vortrag am 28.Nov.2018

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
29.Nov. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE AKTUALISIERUNG: 1.Dez.2018, Anmerkung 1

KONTEXT

Im Rahmen einer öffentlichen Veranstaltung des Fachbereichs 2 ‚Informatik & Ingenieurwissenschaften‘ der Frankfurt University of Applied Sciences am 28.November 2018 mit dem Rahmenthema „Künstliche Intelligenz – Arbeit für Alle?“ hielt Gerd Doeben-Henisch einen kurzen Vortrag zum Thema „Verändert KI die Welt?“ Voraus ging ein Vortrag von Herrn Helmut Geyer „Arbeitsmarkt der Zukunft. (Flyer zur Veranstaltung: FRA-UAS_Fb2_Karte_KI-Arbeit fuer alle_Webversion )

EINSTIEG INS KI-THEMA

Im Kontext der Überlegungen zur Arbeitswelt angesichts des technologischen Wandels gerät die Frage nach der Rolle der Technologie, speziell der digitalen Technologie — und hier noch spezieller der digitalen Technologie mit KI-Anteilen – sehr schnell zwischen die beiden Pole ‚Vernichter von Arbeit‘, ‚Gefährdung der Zukunft‘ einerseits und ‚Neue Potentiale‘, ‚Neue Arbeit‘, ‚Bessere Zukunft‘, wobei es dann auch einen dritten Pol gibt, den von den ‚übermächtigen Maschinen‘, die die Menschen sehr bald überrunden und beherrschen werden.

Solche Positionen, eine Mischungen aus quasi-Fakten, viel Emotionen und vielen unabgeklärten Klischees, im Gespräch sachlich zu begegnen ist schwer bis unmöglich, erst Recht, wenn wenig Zeit zur Verfügung steht.

Doeben-Henisch entschloss sich daher, das Augenmerk zentral auf den Begriff ‚Künstliche Intelligenz‘ zu lenken und die bislang uneinheitliche und technikintrovertierte Begrifflichkeit in einen größeren Kontext zu stellen, der das begrifflich ungeklärte Nebeneinander von Menschen und Maschinen schon im Ansatz zu überwinden sucht.

ANDERE DISZIPLINEN

Viele Probleme im Kontext der Terminologie der KI im technischen Bereich erscheinen hausgemacht, wenn man den Blick auf andere Disziplinen ausweitet. Solche andere Disziplinen sind die Biologe, die Mikrobiologie sowie die Psychologie. In diesen Disziplinen beschäftigt man sich seit z.T. deutlich mehr als 100 Jahren mit komplexen Systemen und deren Verhalten, und natürlich ist die Frage nach der ‚Leistungsfähigkeit‘ solcher Systeme im Bereich Lernen und Intelligenz dort seit langem auf der Tagesordnung.

Die zunehmenden Einsichten in die unfassbare Komplexität biologischer Systeme (siehe dazu Beiträge in diesem Blog, dort auch weitere Links), lassen umso eindrücklicher die Frage laut werden, wie sich solche unfassbar komplexen Systeme überhaupt entwickeln konnten. Für die Beantwortung dieser Frage wies Doeben-Henisch auf zwei spannende Szenarien hin.

KOMMUNIKATIONSFREIE EVOLUTION

Entwicklungslogik vor der Verfügbarkeit von Gehirnen
Entwicklungslogik vor der Verfügbarkeit von Gehirnen

In der Zeit von der ersten Zelle (ca. -3.8 Mrd Jahren) bis zur Verfügbarkeit hinreichend leistungsfähiger Nervensysteme mit Gehirnen (ab ca. -300.000, vielleicht noch etwas früher) wurde die Entwicklung der Lebensformen auf der Erde durch zwei Faktoren gesteuert: (a) die Erde als ‚Filter‘, was letztlich zu einer bestimmten Zeit geht; (b) die Biomasse mit ihrer Reproduktionsfähigkeit, die neben der angenäherten Reproduktion der bislang erfolgreichen Baupläne (DNA-Informationen) in großem Umfang mehr oder weniger starke ‚Varianten‘ erzeugte, die ‚zufallsbedingt‘ waren. Bezogen auf die Erfolge der Vergangenheit konnten die zufälligen Varianten als ’sinnlos‘ erscheinen, als ’nicht zielführend‘, tatsächlich aber waren es sehr oft diese zunächst ’sinnlos erscheinenden‘ Varianten, die bei einsetzenden Änderungen der Lebensverhältnisse ein Überleben ermöglichten. Vereinfachend könnte man also für die Phase die Formel prägen ‚(Auf der dynamischen Erde:) Frühere Erfolge + Zufällige Veränderungen = Leben‘. Da zum Zeitpunkt der Entscheidung die Zukunft niemals hinreichend bekannt ist, ist die Variantenbildung die einzig mögliche Strategie. Die Geschwindigkeit der ‚Veränderung von Lebensformen‘ war in dieser Zeit auf die Generationsfolgen beschränkt.

MIT KOMMUNIKATION ANGEREICHERTE EVOLUTION

Nach einer gewissen ‚Übergangszeit‘ von einer Kommunikationsfreien zu einer mit Kommunikation angereicherte Evolution gab es in der nachfolgenden Zeit die Verfügbarkeit von hinreichend leistungsfähigen Gehirnen (spätestens mit dem Aufkommen des homo sapiens ab ca. -300.000)[1], mittels deren die Lebensformen die Umgebung und sich selbst ‚modellieren‘ und ‚abändern‘ konnten. Es war möglich, gedanklich Alternativen auszuprobieren, sich durch symbolische Kommunikation zu ‚koordinieren‘ und im Laufe der letzten ca. 10.000 Jahren konnten auf diese Weise komplexe kulturelle und technologische Strukturen hervorgebracht werden, die zuvor undenkbar waren. Zu diesen Technologien gehörten dann auch ab ca. 1940 programmierbare Maschinen, bekannt als Computer. Der Vorteil der Beschleunigung in der Veränderung der Umwelt – und zunehmend auch der Veränderung des eigenen Körpers — lies ein neues Problem sichtbar werden, das Problem der Präferenzen (Ziele, Bewertungskriterien…). Während bislang einzig die aktuelle Erde über ‚Lebensfähig‘ ‚oder nicht Lebensfähig‘ entschied, und dies das einzige Kriterium war, konnten die  Lebewesen mit den neuen Gehirnen  jetzt eine Vielzahl von Aspekten ausbilden, ‚partielle Ziele‘, nach denen sie sich verhielten, von denen oft erst in vielen Jahren oder gar Jahrzehnten oder gar noch länger sichtbar wurde, welche nachhaltigen Effekte sie haben.

Anmerkung 1: Nach Edelman (1992) gab es einfache Formen von Bewusstsein mit den zugehörigen neuronalen Strukturen ab ca. -300 Mio Jahren.(S.123) Danach hätte es  also ca. 300 Mio Jahre gedauert, bis   Gehirne, ausgehend von einem ersten einfachen Bewusstsein, zu komplexen Denkleistungen und sprachlicher Kommunikation in der Lage waren.

LERNEN und PRÄFERENZEN

Am Beispiel von biologischen Systemen kann man fundamentale Eigenschaften wie z.B. das ‚Lernen‘ und die ‚Intelligenz‘ sehr allgemein definieren.

Systematisierung von Verhalten nach Lernen und Nicht-Lernen
Systematisierung von Verhalten nach Lernen und Nicht-Lernen

In biologischer Sicht haben wir generell Input-Output-Systeme in einer unfassbar großen Zahl an Varianten bezüglich des Körperbaus und der internen Strukturen und Abläufe. Wie solch ein Input-Output-System intern im Details funktioniert spielt für das konkrete Leben nur insoweit eine Rolle, als die inneren Zustände ein äußerlich beobachtbares Verhalten ermöglichen, das wiederum das Überleben in der verfügbaren Umgebung ermöglicht und bezüglich spezieller ‚Ziele‘ ‚erfolgreich‘ ist. Für das Überleben reicht es also zunächst, einfach dieses beobachtbare Verhalten zu beschreiben.

In idealisierter Form kann man das Verhalten betrachten als Reiz-Reaktions-Paare (S = Stimulus, R = Response, (S,R)) und die Gesamtheit des beobachtbaren Verhaltens damit als eine Sequenz von solchen (S,R)-Paaren, die mathematisch eine endliche Menge bilden.

Ein so beschriebenes Verhalten kann man dann als ‚deterministisch‘ bezeichnen, wenn die beobachtbaren (S,R)-Paare ’stabil‘ bleiben, also auf einen bestimmten Reiz S immer die gleiche Antwort R erfolgt.

Ein dazu komplementäres Verhalten, also ein ’nicht-deterministisches‘ Verhalten, wäre dadurch charakterisiert, dass entweder (i) der Umfang der Menge gleich bleibt, aber manche (S,R)-Paare sich verändern oder (ii) der Umfang der Menge kann sich ändern. Dann gibt es die beiden interessanten Unterfälle (ii.1) es kommen nach und nach neue (S,R)-Paare dazu, die ‚hinreichend lang‘ ’stabil‘ bleiben, aber ab einem bestimmten Zeitpunkt ‚t‘ sich nicht mehr vermehren (die Menge der stabilen Elemente wird ‚eingefroren‘, ‚fixiert‘, ‚gezähmt‘, …), oder (ii.2) die Menge der stabilen (S,R)-Paare expandiert ohne Endpunkt.

Bezeichnet man diese Expansion (zeitlich ‚befristet‘ oder ‚unbefristet‘) als ‚Lernen‘, dann wird sichtbar, dass die ‚Inhalte des Lernens‘ (die korrespondierenden Repräsentationen der (S,R)-Paare in den internen Zuständen des Systems) einmal davon abhängen, was die Umgebung der Systeme ‚erlaubt‘, zum anderen, was die ‚inneren Zustände‘ des Systems an ‚Verarbeitung ermöglichen‘, sowie – sehr indirekt – über welche welche ‚internen Selektionskriterien‘ ein System verfügt.

Die ‚internen Selektionskriterien‘ werden hier kurz ‚Präferenzen‘ genannt, also Strategien, ob eher ein A oder ein B ’selektiert‘ werden soll. Wonach sich solche Kriterien richten, bleibt dabei zunächst offen. Generell kann man sagen, dass solche Kriterien primär ‚endogen‘ begründet sein müssen, dass sie aber nachgeordnet auch von außen (‚exogen‘) übernommen werden können, wenn die inneren Kriterien eine solche Favorisierung des exogenen Inputs ‚befürworten‘ (Beispiel sind die vielen Imitationen im Lernen bzw. die Vielzahl der offiziellen Bildungsprozesse, durch die Menschen auf bestimmte Verhaltens- und Wissensmuster trainiert (programmiert) werden). Offen ist auch, ob die endogenen Präferenzen stabil sind oder sich im Laufe der Zeit ändern können; desgleichen bei den exogenen Präferenzen.

Am Beispiel der menschlichen Kulturen kann man den Eindruck gewinnen, dass das Finden und gemeinsame Befolgen von Präferenzen ein bislang offenes Problem ist. Und auch die neuere Forschung zu Robotern, die ohne Terminierung lernen sollen (‚developmental robotics‘), hat zur Zeit das Problem, dass nicht ersichtlich ist, mit welchen Werten man ein nicht-terminiertes Lernen realisieren soll. (Siehe: Merrick, 2017)) Das Problem mit der Präferenz-Findung ist bislang wenig bekannt, da die sogenannten intelligenten Programme in der Industrie immer nur für klar definierte Verhaltensprofile trainiert werden, die sie dann später beim realen Einsatz unbedingt einhalten müssen.  Im technischen Bereich spricht man hier oft von einer ’schwachen KI‘. (Siehe: VDI, 2018) Mit der hier eingeführten Terminologie  wären dies nicht-deterministische Systeme, die in ihrem Lernen ‚terminieren‘.

INTELLIGENZ

Bei der Analyse des Begriffs ‚Lernen‘ wird sichtbar, dass das, was gelernt wird, bei der Beobachtung des Verhaltens nicht direkt ’sichtbar‘ ist. Vielmehr gibt es eine allgemeine ‚Hypothese‘, dass dem äußerlich beobachtbaren Verhalten ‚interne Zustände‘ korrespondieren, die dafür verantwortlich sind, ob ein ’nicht-lernendes‘ oder ein ‚lernendes‘ Verhalten zu beobachten ist. Im Fall eines ‚lernenden‘ Verhaltens mit dem Auftreten von inkrementell sich mehrenden stabilen (S,R)-Paaren wird angenommen, das den (S,R)-Verhaltensformen ‚intern‘ entsprechende ‚interne Repräsentationen‘ existieren, anhand deren das System ‚entscheiden‘ kann, wann es wie antworten soll. Ob man diese abstrakten Repräsentationen ‚Wissen‘ nennt oder ‚Fähigkeiten‘ oder ‚Erfahrung‘ oder ‚Intelligenz‘ ist für die theoretische Betrachtung unwesentlich.

Die Psychologie hat um die Wende zum 20.Jahrhundert mit der Erfindung des Intelligenztests durch Binet und Simon (1905) sowie in Weiterführung durch W.Stern (1912) einen Ansatz gefunden, die direkt nicht messbaren internen Repräsentanten eines beobachtbaren Lernprozesses indirekt dadurch zu messen, dass sie das beobachtbare Verhalten mit einem zuvor vereinbarten Standard verglichen haben. Der vereinbarte Standard waren solche Verhaltensleistungen, die man Kindern in bestimmten Altersstufen als typisch zuordnete. Ein Standard war als ein Test formuliert, den ein Kind nach möglichst objektiven Kriterien zu durchlaufen hatte. In der Regel gab es eine ganze Liste (Katalog, Batterie) von solchen Tests. Dieses Vorgehensweisen waren sehr flexibel, universell anwendbar, zeigten allerdings schon im Ansatz, dass die Testlisten kulturabhängig stark variieren konnten. Immerhin konnte man ein beobachtbares Verhalten von einem System auf diese Weise relativ zu vorgegebenen Testlisten vergleichen und damit messen. Auf diese Weise konnte man die nicht messbaren hypothetisch unterstellten internen Repräsentationen indirekt qualitativ (Art des Tests) und quantitativ (Anteil an einer Erfüllung des Tests) indizieren.

Im vorliegenden Kontext wird ‚Intelligenz‘ daher als ein Sammelbegriff für die hypothetisch unterstellte Menge der korrespondierenden internen Repräsentanten zu den beobachtbaren (S,R)-Paaren angesehen, und mittels Tests kann man diese unterstellte Intelligenz qualitativ und quantitativ indirekt charakterisieren. Wie unterschiedlich solche Charakterisierung innerhalb der Psychologie modelliert werden können, kann man in der Übersicht von Rost (2013) nachlesen.

Wichtig ist hier zudem, dass in diesem Text die Intelligenz eine Funktion des Lernens ist, das wiederum von der Systemstruktur abhängig ist, von der Beschaffenheit der Umwelt sowie der Verfügbarkeit von Präferenzen.

Mehrdimensionaler Raum der Intelligenzrpräsentanen
Mehrdimensionaler Raum der Intelligenzrpräsentanen

Aus Sicht einer solchen allgemeinen Lerntheorie kann man statt biologischen Systemen auch programmierbare Maschinen betrachten. Verglichen mit biologischen Systemen kann man den programmierbaren Maschinen ein Äquivalent zum Körper und zur Umwelt spendieren. Grundlagentheoretisch wissen wir ferner schon seit Turing (1936/7), dass programmierbare Maschinen ihr eigenes Programm abändern können und sie prinzipiell lernfähig sind. Was allerdings (siehe zuvor das Thema Präferenz) bislang unklar ist, wo sie jeweils die Präferenzen herbekommen sollen, die sie für eine ’nachhaltige Entwicklung‘ benötigen.

ZUKUNFT VON MENSCH UND MASCHINE

Im Licht der Evolution erscheint die  sich beschleunigende Zunahme von Komplexität im Bereich der biologischen Systeme und deren Populationen darauf hinzudeuten, dass mit der Verfügbarkeit von programmierbaren Maschinen diese sicher nicht als ‚Gegensatz‘ zum Projekt des biologischen Lebens zu sehen sind, sondern als eine willkommene Unterstützung in einer Phase, wo die Verfügbarkeit der Gehirne eine rapide Beschleunigung bewirkt hat. Noch bauen die biologischen Systeme ihre eigenen Baupläne  nicht selbst um, aber der Umbau in Richtung von Cyborgs hat begonnen und schon heute ist der Einsatz von programmierbaren Maschinen existentiell: die real existierenden biologischen Kapazitätsgrenzen erzwingen den Einsatz von Computern zum Erhalt und für die weitere Entwicklung. Offen ist die Frage, ob die Computer den Menschen ersetzen sollen. Der Autor dieser Zeilen sieht die schwer deutbare Zukunft eher so, dass der Mensch den Weg der Symbiose intensivieren wird und versuchen sollte, den Computer dort zu nutzen, wo er Stärken hat und zugleich sich bewusst sein, dass das Präferenzproblem nicht von der Maschine, sondern von ihm selbst gelöst werden muss. Alles ‚Böse‘ kam in der Vergangenheit und kommt in der Gegenwart vom Menschen selbst, nicht von der Technik. Letztlich ist es der Mensch, der darüber entscheidet, wie er die Technik nutzt. Ingenieure machen sie möglich, die Gesellschaft muss entscheiden, was sie damit machen will.

BEISPIEL EINER NEUEN SYMBIOSE

Der Autor dieser Zeilen hat zusammen mit anderen KollegenInnen in diesem Sommer ein Projekt gestartet, das darauf abzielt, dass alle 11.000 Kommunen in Deutschland ihre Chancen haben sollten, ihre Kommunikation und Planungsfähigkeit untereinander dramatisch zu verbessern, indem sie die modernen programmierbaren Maschinen in neuer ‚intelligenter‘ Weise für ihre Zwecke nutzen.

QUELLEN

  • Kathryn Merrick, Value systems for developmental cognitive robotics: A survey, Cognitive Systems Research, 41:38 – 55, 2017
  • VDI, Statusreport Künstliche Intelligenz, Oktober 2018, URL: https://www.vdi.de/vdi-statusbericht-kuenstliche-intelligenz/ (zuletzt: 28.November 2018)
  • Detlef H.Rost, Handbuch der Intelligenz, 2013: Weinheim – Basel, Beltz Verlag
  • Joachim Funke (2006), Kap.2: Alfred Binet (1857 – 1911) und der erste Intelligenztest der Welt, in: Georg Lamberti (Hg.), Intelligenz auf dem Prüfstand. 100 Jahre Psychometrie, Vandenhoek & Ruprecht
  • Alfred Binet, Théodore Simon: Methodes nouvelles pour le diagnostiqc du niveau intellectuel des anormaux. In: L’Année Psychologique. Vol. 11, 1904, S. 191–244 (URL: https://www.persee.fr/doc/psy_0003-5033_1904_num_11_1_3675 )
  • William Stern, Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkinder, 19121: Leipzig, J.A.Barth
  • Alan M. Turing, On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, 42(2):230–265, 1936-7
  • Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

PHILOSOPHIE TRIFFT DAS SNOWDON SYNDROM – Erste Notizen


(Unter twitter bei ‚cagentartist‘))

Letzte Änderung: 29.Juli 2013, 00:14h

THEMATISCHER RAHMEN BISHER

1) Dieser Blog widmet sich primär der Frage nach dem neuen Weltbild: wie können, bzw. dann auch, wie sollten wir unsere Welt und das Leben in ihr ‚deuten‘, wenn wir alles Wissen zusammen nehmen, was wir uns bislang erarbeitet haben. Es ist eine grundlegend philosophische Frage insofern im Blog die Philosophie als die allgemeinste und umfassendste Reflexionseinstellung identifiziert wurde, der man sämtliche andere Disziplinen zuordnen auch. Die ‚Kunst‘ gehört zur ‚Art und Weise‘, wie man philosophieren kann. Die ‚Theologie‘ ist eine spezialisierte Fragestellung innerhalb der Philosophie, und sie ist als ‚theologia naturalis‘ nicht beliebig sondern ‚unausweichlich‘ (was nicht impliziert, dass es so etwas wie einen ‚Schöpfergott‘ geben muss).
2) Im Laufe der vielen Einzelreflexionen hat sich bislang ein Bild vom Universum und der Welt herausgeschält, in dem der klassische Begriff von ‚Geist‘ und der von ‚Materie‘ immer mehr dahingehend aufgelöst wurden , dass man sie nicht mehr trennen kann. Zwar sind die Alltagsphänomene, die wir mit ‚Geist‘ verknüpfen, grundsätzlich verschieden von den Alltagsphänomenen, die wir mit ‚Materie‘ verknüpfen, aber die wissenschaftlichen Forschungen haben uns geholfen, die Makrophänomene des Alltags mehr und mehr von ihren Grundlagen her zu verstehen und sie in den Zusammenhang einer dynamischen Entwicklung zu setzen. In dieser Perspektive verschwimmen die Abgrenzungen und es wird deutlich, dass das im Alltag über Jahrtausende Getrennte einen inneren Zusammenhang aufweist, und letztlich sich in dem, was wir alltäglich ‚geistig‘ nennen, genau jene Eigenschaften zeigen, die die sogenannte ‚Materie‘ ausmachen. Mehr noch, wir konnten lernen, das Materie und ‚Energie‘ nur zwei verschiedene Zustandsformen ein und derselben Sache sind. Während man also – Einstein vereinfachend – sagen kann Energie ist gleich Materie, müsste man im Fall des Geistes sagen, das uns vom Geist Bekannte zeigt die ‚inneren‘ Eigenschaften der Energie-Materie an, was natürlich die Frage aufwirft, was man sich unter dem ‚Inneren‘ von Materie bzw. Energie vorzustellen hat. Aus der Mathematik – und dann aus der Physik, die die Mathematik als Sprache benutzt – kennen wir den Begriff der ‚Funktion‘ (andere Worte für das Gleiche: ‚Abbildung‘, ‚Operation‘, ‚Prozedur‘, ‚Programm‘, ‚Algorithmus‘,…).

BEGRIFF DER FUNKTION

3) Funktionen definiert man als spezielle Beziehungen zwischen ‚Mengen‘. Während Mengen für irgendwelche ‚Elemente‘ stehen, die man im empirischen Bereich mit irgendetwas Messbarem verknüpfen können muss, sind die Abbildungsbeziehungen, die durch eine Funktion beschrieben werden sollen, selbst keine Objekte, nicht direkt messbar! Eine Funktion ‚zeigt sich‘ nur indirekt ‚anhand ihrer Wirkungen‘. Wenn der berühmte Apfel Newtons zu Boden fällt, kann man ein Objekt beobachten, das seine Position im Raum relativ zum Beobachter verändert. Man bekommt sozusagen eine Folge (Serie, Sequenz, …) von Einzelbeobachtungen. In der Alltagssprache hat man diese Menge von Positionsveränderungen in der Richtung ‚von oben‘ (Sicht des Beobachters) nach ‚Unten‘ mit dem Verb ‚fallen‘ zusammengefasst. Der Apfel selbst mit seiner aktuellen Position fällt nicht, aber relativ zu einem Beobachter mit Gedächtnis, gibt es eine Folge von vielen Einzelpositionen, die es ermöglichen, den Begriff der ‚Veränderung‘ mit einer ‚Richtung‘ zu ‚konstruieren‘ und in diesem nur im Beobachter existierenden ‚Wissen‘ dann das Konzept des ‚Fallens‘ zu bilden und auf die Objekte der Alltagswelt anzuwenden. Ein Beobachter, der den Begriff ‚Fallen‘ gebildet hat, ’sieht‘ ab sofort ‚fallende Objekte‘ – obwohl natürlich kein einziges Objekt tatsächlich ‚fällt‘. Das Fallen ist eine Konstruktion und dann ‚Projektion‘ unserer geistigen Struktur im Umgang mit der Alltagswelt.
4) [Anmerkung: Möglicherweise werden an dieser Stelle viele sagen, dass dies doch ‚Unsinn‘ sei, da wir doch die Veränderung ’sehen‘. Und in der Tat ist es sehr schwer bis unmöglich, diese Analyse zu vollziehen, wenn man den Vorgang nicht rekonstruiert. Eine ideale Möglichkeit, solch eine ‚Analyse durch Synthese‘ vorzunehmen ist heute gegeben durch die Computersimulation von kognitiven Prozessen, allerdings nicht automatisch; man braucht natürlich schon eine passende Theorie. Bei dem Versuch, solche Prozesse nachzubauen sieht man sehr schnell, dass noch so viele Einzelbeobachtungen keinen komplexen Begriff ergeben; würde unser Gehirn die verschiedenen Positionen des Apfels nicht ’speichern‘ und zugleich wieder auch ‚erinnern‘ können, und diese einzelnen Erinnerungen zu einem komplexeren Konzept ‚zusammenbauen‘, und zwar so, dass aktuelle Beobachtungen als ‚zugehörig‘ zu dem neuen komplexen Begriff ‚entschieden werden können‘, wir könnten keine ‚Fallbewegung‘ erkennen. Wir würden immer nur einen Apfel sehen, der eben ‚da‘ ist. Die ‚Aufschlüsselung des ‚Daseins‘ in eine komplexe ‚Bewegung‘ setzt einen komplexen Erkenntnisapparat voraus, der dies ’sichtbar‘ macht. ]

WIRKLICHKEITSSTATUS EINER FUNKTION

5) Welchen Wirklichkeitsstatus sollen wir jetzt der Eigenschaft des Fallens zusprechen? Ist es eine reine ‚Einbildung‘, eine bloße ‚gedankliche Konstruktion des Gehirns‘, zwar gültig ‚im‘ Gehirn aber nicht ‚außerhalb‘ des Gehirns, also ‚gedacht = virtuell‘ und nicht ‚real‘ existierend (allerdings auch als Gedachtes ist es etwas real Existierendes, dessen ‚Begleitwirkungen‘ man als physikalische Prozesse im Gehirn partiell messen kann)? Allerdings, wenn sich im ‚Verhalten‘ eines Objektes der Außenwelt etwas – wenngleich durch durch ‚Zwischenschaltung eines Erkenntnisprozesses‘ – zeigt, so gilt, dass es sich nicht zeigen muss. Das, was wir ‚Empirisch‘ nennen, hat die Eigenschaft, dass es sich zeigen kann, auch wenn wir nicht wollen, und sich nicht zeigen kann, obwohl wir wollen. Das – für uns als Beobachter – Empirische ist das uns gegenüber ‚Widerständige‘, das sich unserer subjektiven Kontrolle entzieht. Die Zwischenschaltung von ‚Messprozessen‘ bzw. ‚Erkenntnisprozessen‘, die in sich ‚unveränderlich‘ sind, d.h. als eine Konstante in den verschiedenen Ereignissen betrachtet werden können, erlaubt damit das Wahrnehmen von ‚Empirischem‘, und dieses Empirische zeigt sich dann auch in ‚Veränderungsprozessen‘, die zwar nur ’sichtbar‘ werden durch komplexe Operationen, die aber unter Beibehaltung der ‚konstanten‘ Erkenntnisprozesse reproduzierbar sind und damit offensichtlich etwas vom ‚Anderen‘ enthüllen, eine implizite Eigenschaft, eine ‚emergente‘ Eigenschaft, die über das Einzelereignis hinausgeht.
6) Bekommt man auf diese Weise eine erste Ahnung davon, was eine ‚Funktion‘ ist und weiß man, dass nahezu alle wichtigen Eigenschaften der Natur mittels Funktionen beschrieben werden (in der Alltagssprache die ‚Verben‘, ‚Tätigkeitswörter‘), dann kann man vielleicht ahnen, was es heißt, dass das, was wir traditionellerweise ‚Geist‘ genannt haben, ausschließlich auf solche Eigenschaften zurückgeht, die wir mittels Funktionen beschreiben: Veränderungen, die stattfinden, die keinen ‚äußeren‘ Grund erkennen lassen, sondern eher den Eindruck erwecken, dass es ‚Faktoren/ Eigenschaften‘ im ‚Innern‘ der beteiligten Elemente gibt, die wir ‚postulieren‘, um zu ‚erklären‘, was wir sehen. Aristoteles nannte solch ein Denken ‚meta-physisch‘; die moderne Physik tut nichts anderes, nur sind ihre Bordmittel ein wenig ausgeweitet worden….

STRUKTURELLE KOMPLEXITÄT WÄCHST EXPONENTIELL

7) Zwar wissen wir mit all diesen Überlegungen immer noch nicht so richtig, was ‚Geist‘ denn nun ‚eigentlich‘ ist, aber wir konnten auch sehen, dass seit dem sogenannten ‚Big Bang‘ vor ca. 13.8 Milliarden Jahren die ’strukturelle Komplexität‘ (siehe die genauere Beschreibung in den vorausgehenden Blogeinträgen) des beobachtbaren Universums – entgegen allen bekannten physikalischen Gesetzen, insbesondere gegen die Thermodynamik – exponentiell zunimmt. Wir leben heute in einer Phase, wo die Beschleunigung der Komplexitätsbildung gegenüber den Zeiten vor uns ein Maximum erreicht hat (was nicht heißt, dass es nicht ’noch schneller‘ gehen könnte). Von den vielen Merkmalen der strukturellen Komplexitätsbildung hatte ich nur einige wenige herausgegriffen. Während der homo sapiens sapiens als solcher einen gewaltigen Sprung markiert, so ist es neben vielen seiner kognitiven Fähigkeiten insbesondere seine Fähigkeit zur Koordination mit den anderen Gehirnen, seine Fähigkeit zum Sprechen, zum Erstellen komplexer Werkzeuge, die Fähigkeit komplexe soziale Rollen und Strukturen einzurichten und zu befolgen, die überindividuelle Wissensspeicherung und der Wissensaustausch, die Erfindung des Computers und der Computernetzwerke, die das lokal-individuelle Denken ins scheinbar Unendliche ausgedehnt und beschleunigt haben.

ENDE DER NATIONALSTAATEN?

8) Fasst man alle diese Veränderungsphänomene zusammen, dann entsteht der Eindruck, als ob die Entwicklung des Lebens in Gestalt des homo sapiens sapiens auf einen neuen Entwicklungssprung hinausläuft, der sowohl eine massive Veränderung seines Körpers (durch Veränderung des Genoms) mit einschließt wie auch eine massive Veränderung in der Art des konkreten Lebens: so wie es ca. 2 Milliarden Jahre gedauert hat, bis aus den einzelnen Zellen organisierte Zellverbände gebildet haben, die hochdifferenzierte ‚Körper‘ als ‚Funktionseinheit‘ ausgebildet haben, so kann man den Eindruck gewinnen, dass wir uns in solch einer Übergangsphase von einzelnen Personen, kleinen Kommunen, Städten zu einem ‚globalen Organismus‘ befinden, in dem zwar jeder einzelne als einzelner noch vorkommt, wo aber die ‚Gesamtfunktion‘ immer größere Teile der Erdpopulation umfassen wird. Die Zeit der ‚Nationalstaaten‘ neigt sich dem Ende entgegen (ein paar tausend Jahre Übergangszeit wären in der Evolution weniger wie eine Sekunde; es spricht aber alles dafür, dass es erheblich schneller gehen wird)) .

FRAGEN DURCH DAS AKTUELL NEUE

9) Dies alles wirft ungeheuer viele Fragen auf, auf die wir bislang wohl kaum die passenden Antworten haben, woher auch. Antworten ergeben sich ja immer nur aus Fragen, und Fragen ergeben sich aus Begegnung mit etwas Neuem. Das neue geschieht ja erst gerade, jetzt.

KONTROLLE ODER KREATIVITÄT?

10) Wie schon in vorausgehenden Blogeinträgen angemerkt, gibt es unterschiedliche Stile, wie einzelne, Firmen und ganze Gesellschaften mit neuen Herausforderungen umgehen. Eine beliebte Form ist die ‚Kontrolle‘ anhand ‚bekannter‘ Parameter. Evolutionstheoretisch und aus Sicht des Lernens ist dies die schlechteste aller Strategien. Es ist der schnellste Weg zum Zusammenbruch des bisherigen Systems, speziell dann wenn es wenigstens ein konkurrierendes System gibt, das statt mit Kontrolle mit gesteigerter Kreativität, Kommunikation, und erneuerter Modellbildung reagieren kann. Die Wahrscheinlichkeit mit der zweiten Strategie neuere und bessere Antworten zu finden, ist um Dimensionen größer, wenngleich nicht ohne Risiko. Die Kontrollstrategie hat aber das größere Gesamtrisiko und führt fast unausweichlich zum Scheitern, während die Kreative Strategie partiell riskant ist, aber insgesamt – sofern es überhaupt eine Lösung gibt – diese finden wird. Die Kontrollstrategie ist emotional gekoppelt an ‚Angst‘, die Kreative Strategie an ‚Vertrauen‘. (In der Tradition der christlichen Spiritualität gibt es eine Grundregel, mittels der man erkennen kann, ob man sich in Übereinstimmung mit ‚Gott‘ befindet oder nicht: das Phänomen des ‚Trostes‘, der ‚Freude‘, der ‚Gelassenheit‘, des ‚Vertrauens‘, der ‚Angstfreiheit‘; d.h. wenn ich etwas tue, was in mir ‚real‘ (!) auf Dauer keinen ‚Trost‘ bewirkt, keine ‚Freude‘, keine ‚Gelassenheit‘, kein ‚Vertrauen‘, keine ‚Angstfreiheit‘, dann bewege ich mich nicht in die Richtung, die Gott von mir erwartet. Auch wenn man nicht an die Existenz eines ‚Gottes‘ glaubt, ist es interessant, dass die Kernelemente christlicher Spiritualität nahezu identisch sind mit den Kernelementen einer modernen mathematischen Lerntheorie, die für alle lernende System gilt, die auf der Erde überleben wollen).

DAS SNOWDON SYNDROM

11) Was hat dies alles mit dem ‚Snowdon Syndrom‘ zu tun? Warum ‚Syndrom‘? Ich verstehe unter ‚Syndrom‘ hier das Zusammenspiel vieler Faktoren, die einerseits einzeln zu wirken scheinen, andererseits aber vielfältig untereinander wechselwirken, sich gegenseitig beeinflussen. Und die Ereignisse ‚um Snowdon herum‘ erscheinen mir so als ein Netzwerk von Ereignissen, Äußerungen, Entscheidungen, die, bei näherer Betrachtung, sehr wohl Zusammenhänge erkennen lassen, die sich mit der Thematik des neuen Weltbildes berühren.
12) Innerhalb der letzten knapp vier Wochen (2.-27.Juli 2013) konnte ich 48 Artikel zum Snowdon Syndrom lesen, zwei Artikel aus dem Frühjahr 2012 habe ich nachgelesen. Dazu kam die eine oder andere Sendung im Radio und Fernsehen. Bedenkt man, wie wenig Zeit man täglich hat, überhaupt Zeitung zu lesen, ist das viel. Gemessen am Thema und seinen sachlichen Verästlungen ist es verschwindend gering. Die folgenden Gedanken sollten daher nur als Denkanstöße verstanden werden.

NETZÜBERWACHUNG REIN TECHNISCH

13) Auslöser für die vielen Artikeln und Beiträgen in den Medien waren die spektakuläre Reise von Snowdon nach Hongkong, seine Weitereise nach Moskau, sein dortiges bislang aufgezwungenes Verweilen, und natürlich seine Mitteilungen über Praktiken amerikanischer Geheimdienste, insbesondere der NSA, der National Security Agency. Viele behaupteten nach den ‚Enthüllungen‘, dass sich das ja eigentlich jeder hätte denken können, dass so etwas passiert, was zumindest für alle Informatikexperten gilt, und hier insbesondere bei jenen, die sich mit Netz- und Computersicherheit beschäftigen; die wissen seit vielen Jahren nicht nur, wie man in Netze und Computer eindringen und sie manipulieren kann, sondern auch, dass dies täglich in tausendfachen Formen geschieht. Akteure sind einmal kriminelle Organisation, die hier ein Eldorado zum Geldverdienen entdeckt haben, Teile davon sind Wirtschaftsspionage, anderes sind geheimdienstliche Aktivitäten für allerlei Zwecke, u.a. einfach zur ‚Absicherung der Macht‘ bestimmter Gruppen. Für diese Experten haben die Meldungen von Snowdon in der Tat nichts wirklich Neues gebracht, höchstens ein paar mehr Details zum Ausmaß der Aktivitäten der amerikanischen Regierung.
14) Ich würde hier auch gerne unterscheiden zwischen den ‚technischen‘ Aspekten von Datenausspähungen, Datenmanipulationen einerseits und den ’sozialen‘, ‚politischen‘, ‚kulturellen‘ und ‚ethischen‘ Aspekten andererseits. Rein technisch haben die Mitteilungen von Snowdon nichts Neues erbracht. Auch die verschiedenen Techniken, die sowohl Geheimdienste wie auch Netzfirmen wie Google, Facebook und Amazon (um die bekanntesten zu nennen) anwenden, aus einer großen Datenmenge (‚big data‘) solche ‚Informationen‘ zu extrahieren, die Hinweise auf spezielle Eigenschaften oder Trends bestimmter Personen und Personengruppen liefern, sind generell bekannt, werden an vielen Universitäten und speziellen Firmen dieser Welt gelehrt und entwickelt (dazu natürlich in vielen speziellen Labors vieler Staaten im Wahn, ein spezielles Labor könnte geheim etwas entwickeln, was die vielen Universitäten nicht könnten. Das ist eine grobe Täuschung. Würde man die Gelder der NSA in alle Universitäten umleiten, wäre der kreativ-produktive Effekt auf die Gesellschaft und Wirtschaft ein Vielfaches von dem, was jetzt stattfindet. Vielleicht sollten die anderen Staaten froh sein, dass die USA auf diese Weise einen Großteil ihres Kapital quasi ‚vernichten‘, da sonst die amerikanische Wirtschaft im Bereich Computer, Software und Netzwerke noch übermächtiger wäre…)).

NETZWERKE: JENSEITS DER TECHNIK

15) Was viele erregt und aufregt, liegt daher weniger im Bereich der verwendeten Technologien, sondern in den sozialen, kulturellen, ethischen und dann auch politischen Dimensionen, die sich mit dem immer mehr publik werden neuen Computer-Netz-Technologien und ihrer Nutzung verknüpfen.
16) Für die meisten wirkten sich die neuen Technologien zunächst darin aus, dass sie im Bereich alltäglicher Kommunikation und alltäglichen Informationsaustausches ganz praktisch neue Möglichkeiten erhielten. Sehr schnell änderten sich flächendeckend alltägliche Verhaltensweisen. Dazu kam, dass nahezu alle Dienste zu Beginn ‚kostenlos‘ waren. Das Geschäftsmodell war einfach: deine Informationen als frei verwertbarer Inhalt für mich, dafür für dich deine Nutzung aller Dienste kostenfrei. Dass die Netzfirmen und die Geheimdienste damit ein Dateneldorado vorfanden, in dem sie sich mit Zustimmung der ‚Lieferanten‘ ungehemmt bewegen konnten, war vielen zunächst nicht so richtig bewusst und erschien vernachlässigbar angesichts der konkreten praktischen Nutzen auf privater Ebene. Mit der massenhaften Nutzung kam natürlich auch der wachsende Missbrauch und in den beginnenden Klagen, Streitigkeiten und Prozessen begann zaghaft ein wachsendes Bewusstsein von der Realität (und den Gefahren) der freien Nutzung zu wachsen. Dass sich die öffentliche Diskussion speziell an den Mitteilungen Snowdons dann mehr als bisher entzündete (Wer konnte bis heute überhaupt Snowdons Miteilungen überprüfen?), erscheint mir eher als ein Zufall. Das Thema war am Aufkochen und auch ohne Snowdon gab es erste alternative Geschäftsmodelle, die sich den wachsenden Unmut der großen Menge zunutze machen wollen, und bezahlte Dienste anbieten, dafür aber ohne Ausspähung und Datenmissbrauch. Der Fall Snowdon hat den ganzen Prozess jetzt womöglich nur beschleunigt. Der Wertzuwachs in der Nutzung von Netzen für viele private und zivile Zwecke ist zu groß, als dass man darauf in der Zukunft wieder verzichten möchte. Wie immer gibt es hier eine ’natürliche‘ evolutionäre Entwicklung, bei der negative Auswüchse recht schnell von der Gesellschaft weder abgestoßen werden. Die Geschäftsmodelle von Google, Facebook und Amazon (und auch andere ‚closed shops‘ wie z.B. Apple, Samsung oder Microsoft) sind schon heute eigentlich tot, was nicht heißt, dass sie es noch ein paar Jahre schaffen.

US-REGIERUNGSFORM – PROBLEMATISCHE ENTWICKLUNG?

17) Ein ernsteres Problem hat nach meinem aktuellen Verständnis allerdings das amerikanische politische System. Die USA hatten immer einen überaus mächtigen Komplex aus Geheimdiensten, Militär und Wirtschaft, deren Interessen nicht unbedingt ‚zum Wohle‘ der übrigen amerikanischen Bevölkerung waren. Dazu kommt das Ethos des ‚weißen Ritters‘, der zumindest im Umfeld des zweiten Weltkrieges die USA lange Zeit weithin als ein großes Vorbild für viele hat erstrahlen lassen. Doch seitdem häufen sich Ereignisse, die eher die schmutzigen Seiten dieses Systems nach außen kehren. In dem Zusammenhang erscheinen die Ereignisse um den 11.September 2001 als sehr verhängnisvoll. Der Kampf gegen den ‚Terrorismus‘ wurde zu einem neuen Leitthema, das so stark war, dass diesem fast alles andere untergeordnet wurde. Nach der Verabschiedung des USA-Patriot Act: Uniting (and) Strengthening America (by) Providing Appropriate Tools Required (to) Intercept (and) Obstruct Terrorism Act 2001 war die Gründung des US Staatsministerium für Sicherheit der Heimat 2002 war nach Ansicht vieler Experten die größte Veränderung in der Architektur der Exekutive seit dem Nationalen Sicherheitsvertrag von 1947. Der Schutz vor Bedrohung, speziell ‚Terrorismus‘ gewann ein Ausmaß, das fast alles andere zu ersticken drohte. Ergänzend dazu gab es seit 1978 die Verordnung zur Überwachung fremder geheimdienstlicher Aktivitäten (Foreign Intelligence Surveillance Act (FISA)), die mehrfach erweitert wurde und dabei die Grenzziehung zum Schutz der Privatsphäre selbst für Amerikaner immer schwächer werden lies (für Nichtamerikaner gibt es sowieso überhaupt keine Rechte; vor dem Gesetz ist ein Nicht-Amerikaner unterschiedslos ein rechtloses Subjekt, mit dem die Exekutive machen kann, was sie will). Das wachsende Unbehagen über die übermächtigen Zugriffsmöglichkeiten der Exekutive in die Privatsphäre des einzelnen, sollte durch Einrichtung des Staatlichen Gerichtshofes zur Überwachung der Überwachung (‚United States Foreign Intelligence Surveillance Court (FIS)) 1978 gewährleistet werden.
18) Wie der tatsächliche Verlauf seitdem mit seinen vielen Änderungen, Diskussionen und Gerichtsprozessen anzeigt, verläuft die Gesamtentwicklung eher in Richtung Ausweitung der Aktivitäten der Geheimdienste weit über die vorgesehenen Grenzwerte hinaus.
19) Es gibt zwar grundsätzlich den vierten Zusatz zur US-Verfassung, zum Schutz der Privatsphäre, auch ein Gesetz für den freien Zugang zu Informationen staatlicher Stellen (‚Freedom of Information Act (FOIA)‘), sowie zeitgleich mit dem Staatsministerium für die Sicherheit der Heimat ein Amt zur Sicherung des Schutzes der Privatsphäre (Privacy Office of the U.S. Department of Homeland Security), aber was nützt ein Verfassungsartikel, wenn die täglicher Praxis ihn beständig unterläuft und die Überwachungsgremien eher den Eindruck erwecken, dass sie alles durchwinken und sich einer öffentlichen politischen Diskussion entziehen. Wichtige kritische Gruppierungen sind hier vielleicht das Zentrum für Zivilrecht (Center for Civil Rights (CCR)) oder auch die der Vereinigung für die Grenzen der Elektronik (Electronic Frontier Foundation (EFF)) , aber der entscheidende Punkt ist, wieweit die staatlichen Stellen und die Regierung dem Bürger noch reale Freiräume einräumen, zuerst mal für die US-Bürger selbst, dann aber auch für Nicht-US-Bürger. Irgendwo gibt es die Idee der ‚Menschenrechte‘ und es wäre nicht schlecht, wenn ein Land wie USA die Menschenrecht innerhalb ihres Rechtssystems einen solchen Platz einräumen würden, der der reinen Willkür von US-Behörden gegenüber Nicht-Amerikaner einen klaren rechtlichen Rahmen geben würden. Ansonsten müßten alle Nichtamerikaner die USA aufgrund ihrer rechtlich fixierten Menschenverachtung als direkten Feind betrachten. Dies kann nicht das Ziel sein.

WHISTLEBLOWER

20) Neben dem vierten Verfassungsartikel, dem Amt zum Schutz der Privatsphäre sowie dem Spezialgericht zur Kontrolle der Geheimdiensttätigkeiten (FISA) gibt es in den USA seit 1983 auch ein eigenes Gesetz, das Beschluss zur Ermöglichung von Hinweisen zum Missbrauch (False Claims Act), das eigentlich solche Menschen schützen soll, die Missbrauch entdecken und aufdecken, es geht um die ‚Whistleblower‘, etwa ‚Zuflüsterer‘. Bekanntgewordene Fälle zeigen aber, dass dieses Gesetz von staatlichen Stellen und der Regierung auf vielfache Weise abgeschwächt und unterdrückt werden kann. Die besten Gesetze nützen nichts, wenn die staatlichen Stellen sie nicht hinreichend anwenden (Eines von mehreren beeindruckenden Negativbeispielen für ein Versagen der staatlichen Stellen ist der Bericht (und das Buch) von Peter van Buren , hier eine Liste von einschlägigen Artikeln Artikel zu Whistleblower und Staatsverhalten). Im Falle von Snowdon sieht Snowdon sich als Whistleblower, da er aus seiner Sicht in den überbordenden Aktivitäten der NSA einen ‚Missbrauch‘ sieht, den man anzeigen muss. Die NSA selbst und die Regierung sieht aber in ihrem Verhalten ein ‚gesetzeskonformes‘ Vorgehen, das den Interessen der USA dient. Aus Sicht der staatlichen Stellen ist Snowdon von daher ein ‚Verräter‘; aus Sicht derjenigen Menschen, die im Verhalten der NSA und der US-Regierung eine Grenzüberschreitung sehen, die elementare Rechtsauffassungen verletzt, ist Snowdon ein ‚Whistleblower‘. Der Ausgang ist offen.

DIE USA HABEN EINE GLOBALE BEDEUTUNG

21) Man könnte versucht sein, diese Problemlage in den USA als ‚Sache der Amerikaner‘ abzutun. Das ist meines Erachtens zu einfach. Die USA sind nicht irgendein Land. Die USA sind eines der wichtigsten Länder dieser Erde und sie werden dies auch noch einige Zeit bleiben. Dort vollzieht sich momentan ein Prozess der Umwälzung der Gesellschaft durch die neuen Computer-Netz-basierten Technologien, bei gleichzeitiger Regredierung des politischen Systems in Richtung ‚Überwachungsstaat‘. Die Beteiligten selbst sehen dies noch nicht so, da sie alles mit der Brille der ‚Bedrohung‘ und des ‚Terrorismus‘ sehen (ich unterstelle mal, dass die entscheidenden Leute tatsächlich ‚Patrioten‘ sind und keine finstren Machtmenschen, die den Staat für sich unter Kontrolle bringen wollen (in den Filmen ist es so)). Und es gibt genügend kompetente Kritikern in den USA selbst, die vielfach aufzeigen, wie ineffizient, zu teuer, und letztlich weitgehend wirkungslos diese ganzen Maßnahmen sind (für jemanden, der einen terroristischen Akt gegen die USA ausüben wollte, sind alle die Maßnahmen geradezu lächerlich; meist werden ahnungslose Bürger aufgegriffen, die aus Versehen die falschen Worte benutzt haben). Doch kann keiner voraussagen, wie dieser Transformationsprozeß ausgehen wird. Wir sollten alle daran interessiert sein, dass er nicht in einem hochtechnologischen Überwachungsstaat endet.

ABSPANN

22) Es gibt einerseits die Visionen für das große Ganze, die weder leicht noch selbstverständlich sind, und dann gibt es die unendlich vielen kleinen Schritte im Alltag, durch die sich das große Ganze realisiert oder nicht.
23) Wenn der Erfolg nur davon abhängen würde, dass wir als einzelne alles perfekt und richtig machen, würde wir beständig grandios scheitern. Der Prozeß folgt aber vielen Logiken gleichzeitig. Die meisten verstehen wir nicht.
24) Vielleicht werden Historiker später einmal sagen, dass es gut war, dass die amerikanische Regierung diese Überwachungsmonströsitäten versucht hat, um alle aufzuwecken und zur ‚Vernunft‘ zu bringen, dass es so nicht geht. Vielleicht…
25) Ob der deutsche Innenminister dabei irgendeine Rolle spielen wird? Die Bundeskanzlerin? Welch Rolle die Presse in Deutschland überhaupt spielt? Vielleicht sollten Deutsche und Amerikaner in der Öffentlichkeit mehr miteinander reden. Anders wird sich kaum etwas ändern.

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.